Matrice de covariance - indépendance
Réponses à toutes vos questions après le Bac (Fac, Prépa, etc.)
-
MacManus
- Membre Irrationnel
- Messages: 1365
- Enregistré le: 28 Avr 2008, 14:41
-
par MacManus » 20 Sep 2009, 11:27
Bonjour !
Soient

n variables aléatoires réelles définies sur l'espace probabilisé
)
, indépendantes et suivant toutes la loi normale centrée réduite N(0,1) de densité
=\large \frac{1}{sqrt(2\pi)}exp(- \frac{x^2}{2}))
.
Soient

des réels. On considère les variables aléatoire Y et Z définies par Y=

et Z=
1) Calculer la matrice de covariance du vecteur (Y,Z). A quelle condition portant sur les vecteurs a=(

) et b=(

) cette matrice est-elle inversible ?
2) Montrer que les variables aléatoires Y et Z sont indépendantes ssi

=0
Merci pour votre aide.
-
kazeriahm
- Membre Irrationnel
- Messages: 1608
- Enregistré le: 04 Juin 2006, 09:49
-
par kazeriahm » 20 Sep 2009, 13:11
Bonjour,
qu'as tu réussi à faire ? Sais-tu former la matrice de covariance d'un couple de v-a ?
-
MacManus
- Membre Irrationnel
- Messages: 1365
- Enregistré le: 28 Avr 2008, 14:41
-
par MacManus » 20 Sep 2009, 19:01
eh bien je sais bien quelle "tête" de la matrice dans le cas d'une seule variable aléatoire mais pas dans le cas d'un couple. La matrice est définie par
=Cov(X_i,X_j))
si i

j et
)
si i=j. Mais cette définition est bien pour une seule V.A non ?
-
kazeriahm
- Membre Irrationnel
- Messages: 1608
- Enregistré le: 04 Juin 2006, 09:49
-
par kazeriahm » 20 Sep 2009, 19:23
Bah non, on parle de matrice de covariance de taille n dans le cas de n variables aléatoires, ici tu en as 2 : Y et Z. Applique la définition dont tu m'as parlé
-
kazeriahm
- Membre Irrationnel
- Messages: 1608
- Enregistré le: 04 Juin 2006, 09:49
-
par kazeriahm » 20 Sep 2009, 19:25
Dans ta définition tu parles de la matrice de covariance du vecteur
)
, là tu dois calculer la matrice de covariance de
)
-
MacManus
- Membre Irrationnel
- Messages: 1365
- Enregistré le: 28 Avr 2008, 14:41
-
par MacManus » 20 Sep 2009, 19:28
d'accord on doit avoir dans ce cas la matrice de covariance suivante :
 & cov(Y,Z) \\ cov(Z,Y) & var(Z) \end{pmatrix})
.
-
kazeriahm
- Membre Irrationnel
- Messages: 1608
- Enregistré le: 04 Juin 2006, 09:49
-
par kazeriahm » 20 Sep 2009, 21:03
voila, donc maintenant faut calculer chacun des termes, en écrivant les définitions de Y et Z, etc... le calcul est pas compliqué si on a pas peur des notations
-
MacManus
- Membre Irrationnel
- Messages: 1365
- Enregistré le: 28 Avr 2008, 14:41
-
par MacManus » 21 Sep 2009, 11:21
Salut. Je peut réécrire cette matrice sous la forme :
 & \large \sum_{i=1}^n a_i \sum_{j=1}^n b_j cov(X_i,X_j) \\ \large \sum_{j=1}^n b_j \sum_{i=1}^n a_i cov(X_j,X_i) & \large\sum_{i=1}^n {b_i}^2 Var(X_i) \end{pmatrix})
c'est bien ça? Ou encore :
 & \large \sum_{i,j=1}^n a_i b_j cov(X_i,X_j) \\ \large \sum_{i,j=1}^n a_i b_j cov(X_i,X_j) & \large\sum_{i=1}^n {b_i}^2 Var(X_i) \end{pmatrix})
-
kazeriahm
- Membre Irrationnel
- Messages: 1608
- Enregistré le: 04 Juin 2006, 09:49
-
par kazeriahm » 21 Sep 2009, 11:23
voila, et tu peux calculer var(X_i) et cov(X_i,X_j)
-
MacManus
- Membre Irrationnel
- Messages: 1365
- Enregistré le: 28 Avr 2008, 14:41
-
par MacManus » 21 Sep 2009, 11:32
Puisque les V.A. X_1,...,X_n sont indépendantes, on peut écrire que
cov(X_i,X_j)=0 normalement
-
kazeriahm
- Membre Irrationnel
- Messages: 1608
- Enregistré le: 04 Juin 2006, 09:49
-
par kazeriahm » 21 Sep 2009, 12:16
oui, si i different de j, que se passe-t-il quand i=j ?
-
MacManus
- Membre Irrationnel
- Messages: 1365
- Enregistré le: 28 Avr 2008, 14:41
-
par MacManus » 21 Sep 2009, 12:44
oui cov(X_i,X_j)=0 si i différent de j et dans le cas où i=j, on a cov(X_i,X_i)=var(X_i). Mais je ne vois pas bien comment calculer Var(X_i) même si je connais la définition...
-
kazeriahm
- Membre Irrationnel
- Messages: 1608
- Enregistré le: 04 Juin 2006, 09:49
-
par kazeriahm » 21 Sep 2009, 12:46
ca veut dire quoi que X_i suit une loi N(0,1) ?
-
MacManus
- Membre Irrationnel
- Messages: 1365
- Enregistré le: 28 Avr 2008, 14:41
-
par MacManus » 21 Sep 2009, 12:52
ah ok oui Var(X_i)=1^2=1
On obtient enfin :

-
kazeriahm
- Membre Irrationnel
- Messages: 1608
- Enregistré le: 04 Juin 2006, 09:49
-
par kazeriahm » 21 Sep 2009, 13:00
Voila
vois-tu comment repondre aux questions posees maintenant ?
-
MacManus
- Membre Irrationnel
- Messages: 1365
- Enregistré le: 28 Avr 2008, 14:41
-
par MacManus » 21 Sep 2009, 13:06
Eh bien en calculant le déterminant de cette matrice , on doit avoir :
}^2 \neq (\sum_{i=1}^n a_i b_i)^2)
-
kazeriahm
- Membre Irrationnel
- Messages: 1608
- Enregistré le: 04 Juin 2006, 09:49
-
par kazeriahm » 21 Sep 2009, 13:26
Oui, tu noteras que le determinant de cette matrice est toujours positif (matrice de covariance = matrice symetrique positive). En poussant un peu, comment exprimer grace a une inegalite tres celebre que le determinant de ta matrice est nulle ?
-
MacManus
- Membre Irrationnel
- Messages: 1365
- Enregistré le: 28 Avr 2008, 14:41
-
par MacManus » 21 Sep 2009, 13:37
Oui on utilise l'inégalité de Cauchy-Schwarz. Mais dans le cas d'égalité (pour cette inégalité), celà revient à dire que les vecteurs a et b sont colinéaires
-
MacManus
- Membre Irrationnel
- Messages: 1365
- Enregistré le: 28 Avr 2008, 14:41
-
par MacManus » 08 Fév 2010, 21:03
Bonsoir!
jaimerais revenir sur la question 2 du post #1
L'implication de gauche à droite est "simple" (Y et Z indépendants implique cov(Y,Z) =

, mais pour la réciproque, ne s'applique-t-elle pas dans le cas de vecteurs gaussiens ? comment procéder ?
merci par avance pour votre coup de main
Utilisateurs parcourant ce forum : Aucun utilisateur enregistré et 46 invités