J'ai une petite question à propos des développements limités à l'infii, que nous n'avons pas abordé en cours.
Un théorème dit :
f admet un DL à l'infini ssi h : x --> f(1/x) admet un DL en 0. Autrement dit (je l'écris à l'ordre 1 pour simplifier) :
Or, je ne comprends pas comment démontrer cela. En effet, j'obtiens plutôt ceci :
Si h a un DL en zéro, alors :
D'où
Il y a donc un petit souci : j'obtiens
Alors, comment démontrer cette propriété, et qu'est-ce qui cloche dans mon raisonnement? :help:
