quent217 a écrit:Pour l'équivalence
 \sim 2\varepsilon f_D(d))
je la comprend intuitivement (on considère que la fonction

est constante aux alentours de d), mais je ne sais pas comment la démontrer, et surtout j'ai l'impression que ce n'est pas forcément vrai dans un cas général.
Est-ce que c'est une équivalence vraie uniquement dans le cas d'un loi normale comme dans mon exemple, ou bien c'est vrai pour n'importe quelle fonction de densité ?
Lorsque tu as une variable aléatoire

à densité

, ça signifie que
=\int_{x-\varepsilon}^{x+\varepsilon}f(t)dt)
et ça va être équivalent (dans le sens que le rapport entre les deux tend vers 1) à
)
lorsque la fonction

est continue au point

. Donc c'est valable non seulement pour la Gaussienne, mais aussi pour toutes les lois "classiques" à densité et, bien que ça puisse parfaitement exister, je ne pense pas que dans des applications "classiques" des probas., on manipule des fonctions de densité non continues.
quent217 a écrit:On aurai plutot :

Est-ce que j'ai bon là dessus ? Et si oui, comment adapter la probabilité finale ? Ça me semble plus compliqué à faire dans un cas conditionnel comme celui-ci.
Je pense que c'est la même chose.
De tout façon, j'ai l'impression que tu ne peut rien calculer si tu connait uniquement les lois de

et de

vu qu'il me semble que, si par exemple le premier mouton bêle 100 fois plus souvent que le deuxième alors quand tu entend un bêlement, même si l'intensité est plutôt proche de celle du second, il y a quand même de forte chance que ce soit le premier qui bêle. Donc je pense que tu as besoin d'une info. du type de celle que tu donne dans ton premier message, à savoir la proba que ce soit le premier qui bêle sans tenir compte des intensité de bêlement (peut-être qu'avec une autre info., ça pourrait marcher aussi, mais celle là me semble la plus naturelle).
Et si tu as cette info. concernant la proba. que ce soit le premier qui bêle, alors ta loi

çi dessus se calcule en écrivant que :
=p(D\!\leqslant\!d\mbox{ et }X)+p(D\!\leqslant\!d\mbox{ et }\mbox{non}(X))=p(X)p(M_1\!\leqslant\!d)+(1\!-\!p(X))p(M_2\!\leqslant\!d))
modulo de supposer tout les événements indépendants.
quent217 a écrit:J'ai aussi une autre question. Tu dis qu'on doit redéfinir la notion de probabilité conditionnelle en posant une nouvelle définition basée sur une limite. Mais est-ce que cette nouvelle définition correspond à la réalité d'un point de vue statistique ? C'est à dire que si je fais le calcul avec cette nouvelle définition, et que je réalise l'expérience des moutons un grand nombre de fois, est-ce que les résultats vont effectivement converger vers la solution théorique ?
Je suis persuadé que ça fonctionne parfaitement, en particulier du fait que des proba telles que
)
(qui est nul) n'ont pas de sens dans le monde réel vu qu'il est impossible de mesurer l'intensité du bêlement avec une précision infinie. La seule chose qui a du sens c'est donc les proba du style
)
où le

désigne justement la précision de ta mesure de

.
Et concernant le fait que "c'est démontrable ou pas", ce qu'on a fait au début, c'est de remplacer les

par des

ce qui rend le calcul plutôt plus cohérent (vu qu'avec un vrai =, ça n'a pas de sens dans le monde réel où tout n'est qu'approximation). Et ensuite, on à approximé une intégrale sur un petit intervalle par la surface du rectangle correspondant. Au niveau purment mathématique, y'a pas de soucis modulo de supposer la fonction continue. Au niveau "concret", ça peut poser de petits problèmes si le

n'est pas assez petit (c'est à dire si la précision des mesures n'est pas géniale) et que, au voisinage du point en question, la fonction de densité varie beaucoup. Mais bon, c'est le même problème dans tout les domaines qui utilisent des maths : si tu as une fonction f avec de très grandes variations et que tu mesure un x avec une faible précision, ben ton estimation de f(x) va être archi mauvaise . . .
quent217 a écrit:En fait je me rend compte que cela revient à poser dans un cas général pour une loi X de densité f,
 = f(x))
.
Non, pas vraiment, en fait ce qu'on dit, c'est plutôt que
 = f(x)\!\times\!\varepsilon)
. (ou

, mais ça change rien).
Et ça fait que,
quand tu divise deux probas de ce type, les

se simplifient et il ne te reste que les densités : c'est par exemple le cas dans le calcul que tu fait à la fin de ton dernier post. Pour que ce soit parfaitement rigoureux, il faut que tu multiplie par

toutes tes fonctions de densité
puis que tu simplifie ta fraction par

.
Mais si tu avais un truc du style (j'écrit n'importe quoi)
\!\times\!p(X\!=\!b)+p(X\!=\!c)}{p(X\!=\!d)})
tu l'approximerais par
f(b)\varepsilon^2+f(c)\varepsilon}{f(d)\varepsilon}=\dfrac{f(a)f(b)\varepsilon+f(c)}{f(d)}=\dfrac{f(c)}{f(d)})
vu que

est quasi nul.