Dépendance entre deux variables continues

Réponses à toutes vos questions après le Bac (Fac, Prépa, etc.)
zintelix3d
Messages: 7
Enregistré le: 14 Aoû 2009, 17:10

Dépendance entre deux variables continues

par zintelix3d » 22 Aoû 2009, 23:21

Bonjour, j'ai deux variables X et Y continue

Par exemple les valeurs

X: 5.1, 3.2, 8, 7.4, 6.9, 1, 1, 0, 5
Y: 9.3, 5.4, 7, 6.1, 7.1, 5, 5, 1, 9

J'aimerai calculer la dépendance entre ces deux variables, j'ai trouvez qu'en peut faire cela par le calcule de l'information mutuelle

http://fr.wikipedia.org/wiki/Information_mutuelle

I(X,Y)= SOM[ P(X,Y) * log( P(X,Y) / (P(X)*P(Y)) ) ]

Dans le cas discret je sais comment faire mais dans le cas continue j'ai aucune idée, comment calculer P(X,Y), P(X), P(Y)

Ou si il ya un autre moyen de calculer la dépendance, Merci d'avance



Avatar de l’utilisateur
fatal_error
Membre Légendaire
Messages: 6610
Enregistré le: 22 Nov 2007, 12:00

par fatal_error » 23 Aoû 2009, 06:35

salut,

ben dans ton lien, juste sous le cas discret, ya le cas continu :we:
la vie est une fête :)

zintelix3d
Messages: 7
Enregistré le: 14 Aoû 2009, 17:10

par zintelix3d » 23 Aoû 2009, 16:41

Salut, merci j'ai vu cette intégrale mais je sais pas comment calculer les proba dans le cas continue, par contre j'ai trouvé cela:

Il parait que si on suppose que chaque variable suit une loi normale, on peut calculer son entropie

h(X)= 0.5 (1+log(2pi))+log(VARx) avec VARx la variance de X

et

h(X|Y)= 0.5 [(1+log(2pi))+log((VARx² VARy² - COVARxy²)/ VARy²)] avec COVARxy la covariance entre X et Y

et

L'information mutuelle mesure la quantité d'information apportée en moyenne par une réalisation de X sur les probabilités de réalisation de Y. En considérant qu'une distribution de probabilité représente notre connaissance sur un phénomène aléatoire, on mesure l'absence d'information par l'entropie de cette distribution. En ces termes, l'information mutuelle s'exprime par:

I(X,Y) = H(X) ;) H(X | Y) = H(Y) ;) H(Y | X) = H(X) + H(Y) ;) H(X,Y).

où H(X) et H(Y) sont des entropies, H(X|Y) et H(Y|X) sont des entropies conditionnelles, et H(Y, X) est l'entropie conjointe entre X et Y.

Merci si QQ1 peut me dire si je me trompe qq par, Merci d'avance

Fayssal
Messages: 1
Enregistré le: 25 Aoû 2009, 09:30

par Fayssal » 25 Aoû 2009, 10:30

Bonjour,

La meilleure façon de déterminer la dépendance entre deux variables aléatoires est la corrélation (l'information mutuelle que tu utilises nécessite une connaissance au préalable de la probabilité jointe)

La corrélation se calcule de la manière suivante :

Corr(X,Y) = COV(X,Y)/(Sigma(X)*Sigma(Y))

où Sigma désigne l'écart type (la racine carrée de la variance)

Cette grandeur varie entre -1 et 1.

Si Corr(X,Y) est proche de -1, alors X et Y sont négativement corrélées ie X et Y ont tendance à ne pas évoluer dans le même sens .
Si Corr(X,Y) est proche de 1, alors X et Y sont positivement corrélées ie X et Y ont tendance à évoluer dans le même sens .
Si Corr(X,Y) est proche de 0, alors X et Y sont décorrélées et évoluent indépendemment.

Numériquement,

On a:

Moyenne(X) = Somme(Xi)/Nb(Xi)
(Sigma(X))² = Somme((Xi-Moyenne(X))²)/(Nb(Xi)-1)
COV(X,Y) = Somme((Xi-Moyenne(X))(Yi-Moyenne(Y))
)/(Nb(Xi)-1)

Voilà, j'espère que ça te sera utile!

Fayssal

zintelix3d
Messages: 7
Enregistré le: 14 Aoû 2009, 17:10

par zintelix3d » 26 Aoû 2009, 13:58

Bonjour et Merci,

Finalement j'ai opté pour l'entropie avec l'information mutuelle, je suis arrivé à l'implémenter sous matlab et avec les premier test (données simulées) sa donne de bon résultats.

Merci encore

 

Retourner vers ✯✎ Supérieur

Qui est en ligne

Utilisateurs parcourant ce forum : Aucun utilisateur enregistré et 18 invités

Tu pars déja ?



Fais toi aider gratuitement sur Maths-forum !

Créé un compte en 1 minute et pose ta question dans le forum ;-)
Inscription gratuite

Identification

Pas encore inscrit ?

Ou identifiez-vous :

Inscription gratuite