Bonjour,
Pour rappel, f: A -> F deux espaces de Banach admet une limite en a, a ;) adh(A), ssi elle vérifie le critère: ;);)>0 ;);) > 0: ;)(x,y) ;) Bf(a,;))² => d(f(x),f(y)) < ;).
On admettra aussi qu'une application continûment dérivable f de ]0,1] vers R dont la dérivée est bornée admet une limite en 0. (c'est une application simple en utilisant au préalable l'inégalité des accroissements finis)
La question est maintenant de montrer qu'une application continument dérivable de ]0,1] vers R dont f' admet une limite en 0 se prolonge en une fonction continument dérivable sur [0,1].
Dans mon livre (livre très fiable de prépa MP 2eme année), on commence par dire: "Puisque f' est bornée sur [0,1[, le point précédent (celui que l'on a admis) montre que f se prolonge en une fonction continue g de [0,1] vers R"
je vois deux hic: premièrement, pourquoi diable f' serait bornée? Si je prend f=1/x, on a bien f continument dérivable sur ]0,1], f' = -1/x² admet bien une limite en zéro (pas finie certes, mais il n'est pas précisé dans l'énoncé qu'il faille qu'elle le soit) et pourtant f' surement pas bornée sur ]0,1]
deuxièmement, admettons donc que la limite de f' en zéro est finie. on a alors bien f' bornée, par le théorème des bornes, OK. On en déduit, d'après le point qu'on a admis au départ que f admet une limite en 0. Mais pour pouvoir prolonger f par continuité, encore faut-il que cette limite soit finie??
bref, j'ai un problème avec cette notion de limite finie/infinie, j'ai l'impression qu'implicitement ici la limite est forcément finei mais je vois pas ce qui nous permet d'affirmer ça.
Bien à vous,
Nelson
