fdoo a écrit:Bonjour,
Un avis éclairé sur le sujet suivant me serait très utile.
Soit U, V, W des variables aléatoires suivant une loi de poisson.
U et W sont de paramètres l(ambda), V de paramètre m(u)
On pose :
X=U+V
Y=V+W
1) déterminer les lois de X et Y
OK a priori : ce sont des lois de poisson de paramètre (l+m)
2) Déterminer la loi conditionnelle de W sachant [X=x]
OK a priori. Je suis tombé sur une loi de poisson de paramètre (l)
3) en déduire l'espérance de Y sachant [X=x]
C'est sur cette question que je souhaiterais obtenir une aide.
Merci d'avance !
Bonsoir
Une fois que tu as trouvé l'expression de la loi conditionnelle de y( ou la densité de la loi conditionelle fx(y) de y|x lorsqu'une variable est continue), la valeur de l'esperance conditionelle de y sachant X=x c'est tout simplement:
Integrale(y*fx(y)dy)=E(Y|X=x) pour une loi continue et pour une loi discrete c'est a dire notre cas, Sigma sur n des n*P(Y=n|X=x)
Le resultat est une fonction de x qui te donne en fait la moyenne pondérée(l'esperance) de y sachant que x a une valeur donnée...
La densité de la loi conditionnelle n'est rien d'autre qu'une densité de la loi de y sachant un x fixé, pour avoir la valeur de la moyenne de y sachant x tu sommes donc naturellement les probabilité élementaire de y sachant x c'est à dire dPx(y)=fx(y)dy ou P(Y=n|X=k) dans le cas discret multiplié par la valeur de y ...
*Soit precis tout de même, tu ne dis pas dans ton énoncée que U,V,W sont independantes, si elles ne le sont pas tes reponses sont fausses...
Ainsi pour la question 2) on a bien W independante de X car W est independante de U et V et que X est la somme de U et V c'est a dire une fonction de (U,V). Et donc la loi de W sachant X n'est autre que la loi de W et donc P(landa).
De la même maniere du fait de l'independance E(W|X=x)=E(W).
Et Sigma sur n des n*P(Y=n|X=x) est en fait tout simplement egal a Sigma sur n des n*P(Y=n) car pour tout n l'independance implique P(Y=n|X=x)=P(Y=n) et on retombe bien sur le fait que E(W|X=x)=E(W)...
Finalement:
TA REPONSE :
Et donc on ecrit:
E(Y|X=x)=E(V+W|X=x)=E(V|X=x)+E(W|X=x) (linéarité de l'esperance conditionnelle)
E(Y|X=x)=E(V+W|X=x)=E(V|X=x)+E(W) (independance de W et X)
Or pour calculer E(V|X=x) il te faut la loi de V sachant X:
Et on a:
P(V=i,X=j)=P(V=i,U+V=j)=P(V=i,U+i=j)=P(V=i,U=j-i)=P(V=i)P(U=j-i) (independance de U et V):
Et donc P(V=i|X=j)=P(V=i,X=j)/P(X=j)=P(V=i)P(U=j-i)/P(X=j) si j>=i et 0 si non
Et donc E(Y|X=x)=E(V|X=x)+E(W)=sigma_Sur_i(allant de 0 à x)_de[P(V=i)P(U=x-i)/P(X=x)*i ] + landa.