j'ai un problème concernant la convergence uniforme d'une série de fonctions:
Soit la suite de fonctions définie par:
fn: [0,1] > R par :
fn(x) = n²x(1-nx) pour tout x appartenant à [0;1/n]
0 sinon
1/ Montrer qu'il n'y a pas CVU sur [0;1].
2/ Montrer qu'il y a CVU sur [a;1] avec a>0.
J'ai compris pour la convergence simple, à x fixé sur [0;1]; il faut calculer:
la limite quand n tend vers l'infini de fn(x) .
Je ne comprends pas pourquoi le prof pose: on a n0 tel que: 1/n0 < x, pour tout n>n0, 1/n < x... Après quelques déductions il en déduit que la fonction CVS vers la fonction nulle sur [0;1].
Je ne comprends pas ça.
Aussi, je ne comprends pas comment il montre ensuite qu'elle converge sur l'intervalle [a;1] avec la même méthode
Cordialement,
AlPeys.
