Bonjour,
J'ai une question à vous poser :
On donne la fonction f(x) = 1/(1+x)² pour tout x réel.
J'ai montré que pour tout n entier naturel il existe un polynôme P_n de degré n tel que la dérivée nième de f soit :
f^(n) (x) = P_n(x) / (1+x²)^(n+1)
On me demande de montrer que P_n admet n racines réelles distinctes.
Voici ce que j'avais commencé :
Soient a_1 < a_2 ...... < a_n les n racines distinctes de P_n (donc les n racines de f^(n)).
En appliquant le théorème de séparation des racines, on trouve (n-1) racines entre a_1 et a_n pour la dérivée (n+1) ième de f.
Mais si on applique le théorème de Rolle à l'infini à la dérivée nième (c'est à dire sur le segment (]- infini ; + infini[ puisque x est un réel) on trouve qu'il y a n-1+2 donc n+1 racines pour la dérivée (n+1) ième de f...
(car il faut prendre aussi en compte ] - infini ; a_1 [ et ]a_n ; + infini[)
En fin de compte, la dérivée (n+1) ème de f, donc P_(n+1) admet n+1 racines.
En fait c'est une démonstration par récurrence que j'ai tenté.
Est-ce que c'est juste ? Est-ce que cela ne vous semble pas un peu cafouilleux ?