Hello,
je pense que pour bien comprendre pourquoi l'on peut écrire que 0,99...=1, il faut revoir sa conception des réels.
Précisément, il faut se dire qu'en fait les réels on ne les connait pas. On sait ce qu'est un entier, plus ou moins ce qu'est un rationnel, mais quand on parle d'un nombre réel quelconque, le meilleur moyen de s'en faire une idée, c'est de l'approcher. C'est d'ailleurs par cette notion d'approximation qu'on peut définir les nombres réels.
Aussi, même si ça semble naturel de vouloir "symboliser" un nombre réel, au final on aura beau lui donner le nom qu'on veut, pour savoir qui il est vraiment on ne pourra que se contenter de trouver des suites qui l'approchent, et si possible des suites de rationnels, nombres qu'on connait mieux.
Avec cette vision, un nombre réel n'est donc qu'une limite de suite (de rationnels). Pour représenter un nombre réel, il semble alors assez naturel de le représenter par des suites qui l'approchent. Mais on sait que pour une valeur limite donnée, on aura une infinité de suites qui convergent vers cette valeur, donc donner une représentation canonique d'un nombre réel par les suites risque d'être problématique puisque cette représentation serait loin d'être unique, mais heureusement, l'homme a dix doigts et a de fait créé ce qu'il appelle le système décimal, c'est à dire la représentation des entiers en paquets de 10.
C'est ce système décimal (qui aurait pu être binaire si on avait eu que deux doigts) qui va être la base de notre système de représentation des nombres, en essayant de trouver des suites convergentes qui s'expriment simplement dans ce système.
Cela a donné la notion de développement décimal : Un développement décimal d'un réel est une suite qui converge vers ce réel (modulo sa partie entière) et qui s'écrit sous une forme particulière dont l'écriture est pratique dans le système décimal, précisément c'est une suite de termes de la forme

, qu'on représente alors dans notre système décimal simplement par

.
Mais le problème n'est pas tout à fait réglé, car si l'on prouve qu'effectivement tout réel va avoir un développement décimal, on a toujours pas l'unicité, en tout cas pas pour tous les nombres. Mais ce n'est plus vraiment dérangeant, car même si on a encore deux suites qui convergent vers notre réel et nous empêche donc d'en avoir une représentation unique, on a tout de même une représentation pratique qui nous donne "suffisamment" d'informations sur ce réel. On a l'habitude de toute manière de travailler avec des nombres qui n'ont pas une écriture unique, les rationnels en particulier.
Bref, tout ce qu'il faut se dire pour ne pas se prendre la tête, c'est qu'un réel et plus généralement un objet en mathématique aura rarement une écriture unique, souvent dû au fait que pour définir quelque chose en mathématique, on le définit par des propriétés qu'il vérifie, et il n'est pas rares que plusieurs propriétés a priori indépendantes définissent tout de même le même objet.