Problème d'analyse L2 - dérivation
Réponses à toutes vos questions après le Bac (Fac, Prépa, etc.)
-
Collap35
- Membre Naturel
- Messages: 12
- Enregistré le: 01 Déc 2011, 19:42
-
par Collap35 » 01 Déc 2011, 19:49
Soit un réel a et f une fonction définie sur ]a, +infini[.
Si f est dérivable sur ]a, +infini[ et la limite de f'(x) est égale à 0 quand x tend vers +infini, montrer que f(x)/x tend vers 0 quand x tend vers +infini.
Je ne sais pas du tout comment commencer pour résoudre ce problème, quelqu'un pourrait-il m'aider ?
Merci d'avance.
-
GagaMaths
- Membre Relatif
- Messages: 316
- Enregistré le: 29 Oct 2011, 13:28
-
par GagaMaths » 01 Déc 2011, 20:55
bonsoir !
essaie d'écrire la définition de f'(x), puis utilise le thm des accroissements finis. !
-
Collap35
- Membre Naturel
- Messages: 12
- Enregistré le: 01 Déc 2011, 19:42
-
par Collap35 » 01 Déc 2011, 21:22
Merci pour votre réponse :)
Pour l'instant j'ai écrit la définition de la limite de f' puis j'ai utilisé le théorème des accroissements finis, mais ensuite je suis coincée.
J'ai obtenu (|f(x)|-|f(xo)|)/|x| < epsilon mais je n'arrive pas à me débarrasser du f(xo) pour avoir |f(x)/x| < epsilon et montrer ainsi que f(x)/x tend vers 0.
Pourriez-vous me donner un autre petit conseil s'il vous plait ? Ou bien me suis-je trompée quelque part ?
-
GagaMaths
- Membre Relatif
- Messages: 316
- Enregistré le: 29 Oct 2011, 13:28
-
par GagaMaths » 01 Déc 2011, 21:31
étudie la limite de f(x0)/x, et (f(x) - f(x0)) / x quand x tend ers +oo
Utilisateurs parcourant ce forum : Aucun utilisateur enregistré et 65 invités