coucou!! g un pb avec cet exercice!! je comprend pas très bien!
;) est la fonction définie sur ]sur 0, 1] par ;) (x) = (-ln(x))/ ln(2)
Pour un évènement A de probabilité non nulle, on pose i(A) = ;) (P(A)).
soit h la fonction défini sur [0,1] par h(0)=0 et h(x)=(-xlnx)/ln2 si x différent de 0
Soit X une variable aléatoire discrète. On pose H(X)=;) h(P(X=x))
1) soit n un entier naturel non nul. si Un suit la loi uniforme {1,2,..,n} que vaut H(Un)?
2) si on suppose que Z est la va finie définie par P(Z=1)=1/4
P(Z=2)=1/4 et P(Z=3) =1/2 que vaut H(Z)? comparer H(Z) et H(U3)
3) vérifier que h est continue et positive sur [0,1]. La fonction h est elle dérivable en 0?
merci de toutes vos réponses mais euh à mon avis il ne faut pas utiliser l'entropie puisque je ne l'ai jamais vu la formule
moi je ne trouve pas facile l'ex lol je vois pas du tout comment trouver H(Un)
est ce qu'il faut partir de la loi uniforme P(X=k)=1/n
on sait que H(X)=;) h(P(X=x)) alors est ce qu'il faut utiliser cela!
en statistique plutôt que d'entropie on parle plus aisément de quantité d'information moyenne. Ce qu'on appel l'entropie d'une variable aléatoire n'est que la moyenne des quantités d'information des évènements.
Ici étant donnée que tu t'intéresse à l'information d'une variable suivant une loi uniforme, il semble logique que chaque évènement possède tous la même quantité d'information. C'est le caractère même de l'uniformité, rien n'est sensé distinguer les évènements entre eux.
Par contre, lorsque le nombre de faces du dé augmente l'information augmente aussi. En effet, la "surprise" d'obtenir un évènement donné est plus grande, ou plus rationnellement il y plus de contraintes (ne pas être égale à un des autres) à satisfaire.
fait une recherche wiki, ce sujet est plutôt bien documenté, pour de plus amples explication : entropie de shannon, théorie de l'information, ...