par Skullkid » 31 Oct 2013, 22:49
Bonsoir, je ne suis pas sûr d'avoir compris la question, en gros tu demandes pourquoi on utilise des signaux discrets (numériques) ?
Si oui, la réponse la plus simple est qu'un ordinateur est incapable de concevoir quelque chose de continu (analogique). Ça n'empêche pas qu'il soit possible de faire des calculs de façon automatique avec des signaux analogiques, c'est ce qu'on faisait avant "l'ère numérique" avec des amplificateurs opérationnels. Mais par exemple tu ne pourras jamais stocker un signal continu quelconque (disons, une fonction continue de [0,1] dans [0,1]) puisque ce signal contient a priori une infinité d'informations, mais que tu n'as qu'un espace mémoire fini.
Les signaux discrets sont aussi plus résistants aux erreurs de transmission (tu peux les transmettre de façon redondante ou utiliser un code correcteur, par exemple) et au bruit (si tu transmets un signal du genre "0 volts = 0 et 5 volts = 1", des tensions parasites d'un volt seront facilement reconnues et ignorées).
Mais ça ne veut pas dire que les signaux analogiques sont inintéressants. En fait tous les signaux "réels" (tensions, courant, pression, couleur, ... ) sont, a priori, analogiques. Même si ta musique est stockée en MP3 (numérique) sur ton ordi, tes écouteurs produisent du son en faisant vibrer une membrane (analogique).