flashnext a écrit:Certes il y a aussi des fonctions dont la limite en l'infini est nulle et dont l'intégrale de a à l'infini DV.
Mais ce que j'essaie de démontrer, c'est : lorsque f admet une limite l en l'infini , alors une condition nécessaire (non suffisante !) pour que l'intégrale de a à l'infini des f(x)dx CV est l = 0.
Je tente ma chance (à vérifier):
Soit f une fonction à valeurs positives admettant une limite L non nulle lorsque x tend vers

. , et telle que l'intégrale sur

converge.
 - L| < \epsilon)
Pour

, nous obtenons un rang Y, tel que, pour tout

|f(x) - L| < L/2
donc: L - f(x) < L/2
Finalement,
 > L/2)
En intégrant les deux membres sur
 ; b])
, puis en faisant tendre b vers

, nous contredisons l'hypothèse que l'intégrale converge (par minoration) dès que L est non nulle.
Conclusion: L est nécessairement nulle.
Autres choses à dire: il me semble que si tu enlèves l'hypothèse "admet une limite ", cela devient rapidement faux (vu qu'il y a des fonctions non bornées mais dont l'intégrale converge sur [a ; + infini[ (comme tu as du le voir certainement en cours avec la fonction "dents croissantes")
Et si tu retires cette hypothèse mais que tu rajoutes "f positive, uniformément continue" il me semble que cela implique que f est de limite nulle.
Si quelqu'un pouvait confirmer?