Bonjour tous le monde,
je vous énonce mon problème (j'essayerai d'être le plus clair et le plus précis possible).
On veut créer un programme qui calcule les racines d'une focntions.
Pour cela on se base comme exemple sur l'équation .
Pour prouvée l'existence et l'unicité de la racine on utilise le théorème des valeurs intermédiaires. Ca daccord.
Pour écrir l'algorithme de calcul, on va se servir de l'algorithme de bissection et on obitens au final ceci en pseudo code :
Etat intial ;
Répéter : [
]
Ca ok j'ai compris le système.
Ensuite il veut prouver la boucle je pense. Il introduit donc des invariants :
f(An)f(Bn) < 0
sign f(An) = sign f(a) et sign f(Bn) = sign f(b)
A l'étape n+1, la longeur de l'interval est divisé en 2 donc |An - Bn| 0
Là je comprends en gros sauf la méthode pour trouver ces invariants...
Où je ne comprends plus c'est ici :
Il met ensuite "Donc (An) est de Cauchy, (Bn) est de Cauchy et (xn) est de Cauchy"... Pourquoi?
Il termine de la façon suivante :
Comme c'est de Cauchy, ça converge donc ; et
Donc .
Quelqu'un serait-il m'éclairé sur les dernières lignes?
D'avance merci pour votre aide et déolsé pour la longeur mais j'ai voulu être le plus explicite possible.