Bonjour
Je bloque un peu sur ce problème Shannonien
"Soit un message composé de symboles tirés dun alphabet binaire. Le message se compose donc de 0 et de 1, chaque symbole étant porteur d1 bit dinformation (log 2). Considérons par ailleurs que les symboles déjà reçus ne préfigurent en rien les symboles à venir. Quelle sera alors la quantité dinformation contenue dans un message de 6 symboles ? de n symboles ? Montrer ce dernier résultat."
Est ce que je dois utiliser la théorie de l'entropie? (H) = -p1 log p1 - p2 log p2 ?
merci
