Matrice de covariance - indépendance
Réponses à toutes vos questions après le Bac (Fac, Prépa, etc.)
-
MacManus
- Membre Irrationnel
- Messages: 1365
- Enregistré le: 28 Avr 2008, 15:41
-
par MacManus » 20 Sep 2009, 12:27
Bonjour !
Soient
n variables aléatoires réelles définies sur l'espace probabilisé
, indépendantes et suivant toutes la loi normale centrée réduite N(0,1) de densité
.
Soient
des réels. On considère les variables aléatoire Y et Z définies par Y=
et Z=
1) Calculer la matrice de covariance du vecteur (Y,Z). A quelle condition portant sur les vecteurs a=(
) et b=(
) cette matrice est-elle inversible ?
2) Montrer que les variables aléatoires Y et Z sont indépendantes ssi
=0
Merci pour votre aide.
-
kazeriahm
- Membre Irrationnel
- Messages: 1608
- Enregistré le: 04 Juin 2006, 10:49
-
par kazeriahm » 20 Sep 2009, 14:11
Bonjour,
qu'as tu réussi à faire ? Sais-tu former la matrice de covariance d'un couple de v-a ?
-
MacManus
- Membre Irrationnel
- Messages: 1365
- Enregistré le: 28 Avr 2008, 15:41
-
par MacManus » 20 Sep 2009, 20:01
eh bien je sais bien quelle "tête" de la matrice dans le cas d'une seule variable aléatoire mais pas dans le cas d'un couple. La matrice est définie par
si i
j et
si i=j. Mais cette définition est bien pour une seule V.A non ?
-
kazeriahm
- Membre Irrationnel
- Messages: 1608
- Enregistré le: 04 Juin 2006, 10:49
-
par kazeriahm » 20 Sep 2009, 20:23
Bah non, on parle de matrice de covariance de taille n dans le cas de n variables aléatoires, ici tu en as 2 : Y et Z. Applique la définition dont tu m'as parlé
-
kazeriahm
- Membre Irrationnel
- Messages: 1608
- Enregistré le: 04 Juin 2006, 10:49
-
par kazeriahm » 20 Sep 2009, 20:25
Dans ta définition tu parles de la matrice de covariance du vecteur
, là tu dois calculer la matrice de covariance de
-
MacManus
- Membre Irrationnel
- Messages: 1365
- Enregistré le: 28 Avr 2008, 15:41
-
par MacManus » 20 Sep 2009, 20:28
d'accord on doit avoir dans ce cas la matrice de covariance suivante :
.
-
kazeriahm
- Membre Irrationnel
- Messages: 1608
- Enregistré le: 04 Juin 2006, 10:49
-
par kazeriahm » 20 Sep 2009, 22:03
voila, donc maintenant faut calculer chacun des termes, en écrivant les définitions de Y et Z, etc... le calcul est pas compliqué si on a pas peur des notations
-
MacManus
- Membre Irrationnel
- Messages: 1365
- Enregistré le: 28 Avr 2008, 15:41
-
par MacManus » 21 Sep 2009, 12:21
Salut. Je peut réécrire cette matrice sous la forme :
c'est bien ça? Ou encore :
-
kazeriahm
- Membre Irrationnel
- Messages: 1608
- Enregistré le: 04 Juin 2006, 10:49
-
par kazeriahm » 21 Sep 2009, 12:23
voila, et tu peux calculer var(X_i) et cov(X_i,X_j)
-
MacManus
- Membre Irrationnel
- Messages: 1365
- Enregistré le: 28 Avr 2008, 15:41
-
par MacManus » 21 Sep 2009, 12:32
Puisque les V.A. X_1,...,X_n sont indépendantes, on peut écrire que
cov(X_i,X_j)=0 normalement
-
kazeriahm
- Membre Irrationnel
- Messages: 1608
- Enregistré le: 04 Juin 2006, 10:49
-
par kazeriahm » 21 Sep 2009, 13:16
oui, si i different de j, que se passe-t-il quand i=j ?
-
MacManus
- Membre Irrationnel
- Messages: 1365
- Enregistré le: 28 Avr 2008, 15:41
-
par MacManus » 21 Sep 2009, 13:44
oui cov(X_i,X_j)=0 si i différent de j et dans le cas où i=j, on a cov(X_i,X_i)=var(X_i). Mais je ne vois pas bien comment calculer Var(X_i) même si je connais la définition...
-
kazeriahm
- Membre Irrationnel
- Messages: 1608
- Enregistré le: 04 Juin 2006, 10:49
-
par kazeriahm » 21 Sep 2009, 13:46
ca veut dire quoi que X_i suit une loi N(0,1) ?
-
MacManus
- Membre Irrationnel
- Messages: 1365
- Enregistré le: 28 Avr 2008, 15:41
-
par MacManus » 21 Sep 2009, 13:52
ah ok oui Var(X_i)=1^2=1
On obtient enfin :
-
kazeriahm
- Membre Irrationnel
- Messages: 1608
- Enregistré le: 04 Juin 2006, 10:49
-
par kazeriahm » 21 Sep 2009, 14:00
Voila
vois-tu comment repondre aux questions posees maintenant ?
-
MacManus
- Membre Irrationnel
- Messages: 1365
- Enregistré le: 28 Avr 2008, 15:41
-
par MacManus » 21 Sep 2009, 14:06
Eh bien en calculant le déterminant de cette matrice , on doit avoir :
-
kazeriahm
- Membre Irrationnel
- Messages: 1608
- Enregistré le: 04 Juin 2006, 10:49
-
par kazeriahm » 21 Sep 2009, 14:26
Oui, tu noteras que le determinant de cette matrice est toujours positif (matrice de covariance = matrice symetrique positive). En poussant un peu, comment exprimer grace a une inegalite tres celebre que le determinant de ta matrice est nulle ?
-
MacManus
- Membre Irrationnel
- Messages: 1365
- Enregistré le: 28 Avr 2008, 15:41
-
par MacManus » 21 Sep 2009, 14:37
Oui on utilise l'inégalité de Cauchy-Schwarz. Mais dans le cas d'égalité (pour cette inégalité), celà revient à dire que les vecteurs a et b sont colinéaires
-
MacManus
- Membre Irrationnel
- Messages: 1365
- Enregistré le: 28 Avr 2008, 15:41
-
par MacManus » 08 Fév 2010, 22:03
Bonsoir!
jaimerais revenir sur la question 2 du post #1
L'implication de gauche à droite est "simple" (Y et Z indépendants implique cov(Y,Z) =
, mais pour la réciproque, ne s'applique-t-elle pas dans le cas de vecteurs gaussiens ? comment procéder ?
merci par avance pour votre coup de main
Utilisateurs parcourant ce forum : Aucun utilisateur enregistré et 133 invités