Salut à tous,
Proche des examens, un exercice trouvé dans mon livre me pose quelques interrogations.
L'énoncé me demande de prouver qu'une condition suffisante pour qu'une fonction ne soit pas différentiable au point (0,0) est la non-existence de dérivées directionnelles pour au moins une direction en ce point.
Les hypothèses sur la fonction sont les suivantes :
elle vaut 0 en (0,0)
les dérivées partielles vallent 0 en (0,0)
Voici mon raisonnement :
f différentiable en (0,0) =>
f(0+Delta x, 0+Delta y) = f(0,0) + f_x Delta x + f_y Delta y + Epsilon 1* Delta x + Epsilon 2* Delta y
Epsilon 1 et Epsilon 2 etant des fonctions tendant vers 0 lorsque le couple (Delta x, Delta y) --> (0,0)
Comme f(0,0) = f_x(0,0) = f_y(0,0) = 0.
Ça revient à :
f(Delta x, Delta y) = Epsilon 1* Delta x + Epsilon 2* Delta y.
On se place dans le cadre où Delta x = a * Alpha et Delta y = a * Beta, réels
On a alors :
f(a * Alpha , a * Beta) = a*(Alpha*Epsilon 1 + Beta*Epsilon 2)
On divise par a :
f(a*Alpha , a*Beta) / a = Alpha*Epsilon 1 + Beta*Epsilon 2
En prenant la limite pour a tendant vers 0, le membre de droite tend vers 0.
Considérons désormais un vecteur de composantes (Alpha, Beta).
La dérivée directionnelle de f selon ce vecteur en (0,0) est la limite pour a tendant vers 0 de :
f(a*Alpha, a*Beta) / a
Si pour un vecteur de composantes (Alpha, Beta) cette limite n'existe pas, on en deduit que la fonction n'est pas différentiable.
Qu'en pensez vous ?