Retard, probabilite et statistiques

Discussion générale entre passionnés et amateurs de mathématiques sur des sujets mathématiques variés
Doraki
Habitué(e)
Messages: 5021
Enregistré le: 20 Aoû 2008, 11:07

par Doraki » 26 Oct 2011, 16:12

Que penser de l'affirmation suivante : "La valeur la plus probable d'une inconnue donnée par des expériences est celle qui correspond à la plus grande fréquence, et tel est le cas de la moyenne arithmétique dans le cas des observations directes"

je suis pas sûr de bien la comprendre. quel est le contexte ? la moyenne arithmétique de quoi ?
la moyenne arithmétique est en même temps la valeur qui correspond à la plus grande fréquence de quoi ?

Si j'ai une expérience que j'ai fait 100 fois et qui m'a donné les résultats 0 30 fois, 1 30 fois, et 2 40 fois,
la moyenne arithmétique c'est 1.1, mais la valeur la plus fréquente c'est 2.

Je dirais qu'il s'agit d'un cas où on est face à un phénomène hasardeux inconnu, qu'on peut répéter, et on aimerait chercher un modèle mathématique simple qui colle le mieux possible à ce qu'on a observé du phénomène afin de pouvoir prévoir la manière dont il risque de se comporter.



Dlzlogic
Membre Transcendant
Messages: 5273
Enregistré le: 14 Avr 2009, 12:39

par Dlzlogic » 26 Oct 2011, 17:57

Doraki a écrit:je suis pas sûr de bien la comprendre. quel est le contexte ?
: les expériences
la moyenne arithmétique de quoi ?]
: les résultats des expériences
la moyenne arithmétique est en même temps la valeur qui correspond à la plus grande fréquence de quoi ?
des résultats des expériences.

Si j'ai une expérience que j'ai fait 100 fois et qui m'a donné les résultats 0 30 fois, 1 30 fois, et 2 40 fois,
la moyenne arithmétique c'est 1.1, mais la valeur la plus fréquente c'est 2.
1 - ces résultats sont invraisemblables. si on avait eu 0 30 fois, 1 40 fois et 2 30 fois, ça aurait été plus crédible.
2- si on éprouve le besoin de faire une expérience 100 fois, ce n'est pas pour obtenir un nombre entier.

Je dirais qu'il s'agit d'un cas où on est face à un phénomène hasardeux inconnu, qu'on peut répéter, et on aimerait chercher un modèle mathématique simple qui colle le mieux possible à ce qu'on a observé du phénomène afin de pouvoir prévoir la manière dont il risque de se comporter.
Oh, le modèle numérique est bien connu : la moyenne arithmétiques est la valeur la plus probable, la répartition des écarts doit correspondre à des valeurs bien précises.

ceci ne veut rien dire, précise ta pensée.
Cela veut dire que si on recommence indéfiniment l'expérience suivante : au jeu de pile ou face, l'évènement étudié est le nombre de sortie de suite continue de n pile ou de n face, avec un grand nombre de tirages. Le résultat sera toujours le même et connu à l'avance, avec une certaine précision naturellement.
Est-ce que j'ai bien précisé ma pensée?

Skullkid
Habitué(e)
Messages: 3075
Enregistré le: 08 Aoû 2007, 19:08

par Skullkid » 26 Oct 2011, 18:38

Dlzlogic a écrit:1 - ces résultats sont invraisemblables. si on avait eu 0 30 fois, 1 40 fois et 2 30 fois, ça aurait été plus crédible.
2- si on éprouve le besoin de faire une expérience 100 fois, ce n'est pas pour obtenir un nombre entier.


Donc c'est complètement invraisemblable et inimaginable faire une étude statistique en prenant 100 personnes au hasard dans une tranche d'âge donnée et en demandant combien de leurs parents sont encore en vie ? Et c'est invraisemblable que la majorité des réponses soit "2" ? C'est invraisemblable qu'on fasse une étude statistique sur la réponse à une question fermée du genre "aimez-vous la tarte au citron" ?

Tu as utilisé des résultats issus de proba pendant 40 ans, très bien, personne ne le contredit. Mais tu n'es pas probabiliste, et visiblement tu ne comprends pas grand-chose. Ce n'est pas parce que dans ton métier tu fais des études statistiques sur des échantillons de mesures physiques (qui donnent donc des nombres réels et pas entiers) et que "ça marche" de dire des choses telles que "la moyenne arithmétique est le résultat le plus probable" que c'est vrai en général.

Je lance une pièce équilibrée 100 fois de suite. Si c'est face, je considère que ma mesure donne 1. Si c'est pile, elle donne 0. La moyenne des résultats sera probablement autour de 0,5. Mais 0,5 n'est pas la valeur la plus probable : elle est impossible à atteindre.

Dlzlogic
Membre Transcendant
Messages: 5273
Enregistré le: 14 Avr 2009, 12:39

par Dlzlogic » 26 Oct 2011, 19:06

On parle d'expérience et non de sondage. Dans cet exemple appliqué aux parents non décédés, il n'est question ni d'aléatoire, ni de probabilité.
Je ne m'y connais pas trop en la matière, mais je suppose que si on fait l'expérience de compter les parents d'un groupe d'individus et si l'expérience consiste à comparer les résultats à une donnée connue qui serait le nombre de parents vivants dans un échantillon beaucoup plus grand, ces résultats pourraient par exemple mettre en évidence des mortalités hors norme pour le groupe étudié.

Mais revenons à des choses plus sérieuses : cette phrase appliquée à des expériences, c'est à dire des mesures physiques, pluviométrie, température, ou à un comptage aléatoire, tel que des séries de pile face, est-elle correcte?

Je voudrais bien avoir aussi un avis sur le jeu de pile ou face, où je dis que le nombre de série est fixe connu et prévisible.

Skullkid
Habitué(e)
Messages: 3075
Enregistré le: 08 Aoû 2007, 19:08

par Skullkid » 26 Oct 2011, 19:21

C'est vrai que mes premiers exemples parlaient davantage de statistiques que de probabilités. Il n'empêche que c'est facilement transposable dans un domaine probabiliste, comme je l'ai fait avec mon dernier exemple du pile ou face.

De quelle phrase parles-tu ? "La moyenne arithmétique des résultats est le résultat le plus probable" ? Non, elle est fausse : la moyenne arithmétique des résultats n'est même pas forcément un résultat "atteignable", et même quand elle l'est, ce n'est pas vrai.

Si je mesure la température d'un machin 100 fois de suite avec un thermomètre et que le thermomètre donne 50 fois 37°C et 50 fois 38°C, d'après toi la valeur d'affichage la plus probable est 37,5°C. Pourtant elle n'a jamais été affichée en 100 essais, ce qui va plutôt à l'encontre de ton affirmation selon laquelle le "retard" est comblé. Je réessaye 100 fois à nouveau, et cette fois-ci il me sort 100 fois 37°C. Sur l'échantillon des 200 mesures, la moyenne arithmétique est maintenant 37,25°C, donc d'après toi c'est la nouvelle valeur plus probable d'affichage (pourquoi n'est-ce plus 37,5°C ?) mais elle n'a toujours pas été affichée.

LeJeu
Membre Irrationnel
Messages: 1142
Enregistré le: 24 Jan 2010, 21:52

par LeJeu » 26 Oct 2011, 20:23

Bonjour tout le monde,

Je vous lis avec attention depuis un moment.

Désolé Dlzlogic , tu vas te trouver bien seul, je suis d'accord avec "tout le monde" que la probabilité d'un tirage ( pile ou face) est indépendant du passé des tirages ( la machine de l'unité 459AER... )

Et donc pour moi , aucun passé : donc aucune martingale possible pour optimiser ses gains (sauf au loto ou si on joue contre l'avis de la majorité des joueurs on augmente son espérance de gain : tant qu'a faire autant jouer ce que les autres trouvent improbables ( les numéros de la semaine passée, les numéros qui sortent le plus souvent) et ramasser le pactole si la combinaison sort : même proba de gagner mais espérance de gain supérieur!

Mais, j'ai lu d'un oeil intéressé les programmes de simulations de tirages que vous avez publiés, persuadé qu'il montrerait que toute martingale était vaine ( voir contre productive, comme on le dit pour le jeu du pierre / feuille / caillou)

Et Zut de zut ; je trouve 'un biais' qui pour le moins me contrarie : dans un lancer de pile ou face, j'ai comparé deux joueurs :
- H celui qui joue au hasard
- M celui qui joue sur ' les manquants'

Dans un premier essai , 1 million de tirage j'ai trouvé que M gagnaient plus souvent que H. je me suis dit que c'était normal que même avec 1 million de tirages il y avait une chance sur deux pour que ca arrive ....

Alors dans la salle de l'unité 459AER j'ai organisé une série de 10 000 parties d'un jeu de 1000 lancer de pile ou face
Idem.... mon joueur 'des manquants' gagnent plus souvent que le 'hazard '....

Je viens vous demander ce que vous en pensez ? Doraki, j'ai bien lu ce que tu en pensais ( le coté non significatif de la différence, sur 10 000 parties il me semble que M en gagne 5200/5300 en moyenne) Fatal Error t'avais codé aussi un exemple qu'avais tu obtenu?

Coté programmation : j'utilise un rand () % 2 pour le tirage, et pour le joueur qui joue 'au hasard' ( j'ai bien lu que vous doutiez de "rand" )

Je ne vous gave pas de chiffres et de code à ce stade ! mais tout est dispo ( open source ... bien commenté ....)

Avatar de l’utilisateur
fatal_error
Membre Légendaire
Messages: 6610
Enregistré le: 22 Nov 2007, 12:00

par fatal_error » 26 Oct 2011, 20:52

salut,

1) Je trouve aussi M gagne plus fréquemment (de l'ordre de 1% donc des 100 parties).
2) Je trouve également que le ratio de good guess de H ET de M est de 1/2.

2) me semble normal...
1) Je saurais pas l'expliquer, mais c'est intéressant!
la vie est une fête :)

Avatar de l’utilisateur
nuage
Membre Complexe
Messages: 2214
Enregistré le: 09 Fév 2006, 22:39

par nuage » 26 Oct 2011, 21:04

Salut Dlzlogic
je m'excuse de répondre aussi tard et ne pas avoir été assez clair.
Les fonctions que j'ai données en exemples sont destinées à montrer que la différence de deux nombres peut tendre vers l'infini alors que leur rapport tend vers une limite fini.
J'ai pris en rapport avec les probas. Si on compte le nombre de piles () et de faces () au cours de n expériences indépendantes alors est en gros proportionnel à .
@beagle A lire les réponses, on se demande réellement si on ne perd pas de vue que on réagit sur des grands nombres, des probabilités. La probabilité de sortir une suite continue de 100 pile est quasi-nulle. La probabilité de sortir une suite continue de 101 pile est 0.5*quasi-nulle donc la probabilité de sortie un face après une suite de 100 pile est 1- (0.5*quasi-nulle), c'est à dire presque 1.

NON car le contraire de sortir 101 piles n'est pas sortir 100 piles puis un face.
Il faut remarquer qu'a priori la probabilité de sortir 100 piles puis un face est égale à la probabilité de sortir 101 piles, c'est à dire presque nulle.
Mais c'est aussi la probabilité de n'importe suite donnée à l'avance de 101 résultats.
En tout état de cause le résultat observé de 101 lancers, notés dans l'ordre d'apparition, à une probabilité de . C'est à dire presque zéro.

Pour prendre un exemple plus court, sur 10 lancers, la proba de PPPPPFFFFF est la même que celle de PFPPPPPPPP ou de PPPPPPPPPF.
Mais il y a plus de suites comportant 5P et 5F (elles sont 252) que de suites avec 9P et 1F (elles sont 10). Ce qui explique que la probabilité d'un résultat du type {5P,5F} soit a priori supérieure à celle de {9P,1F}.

@LeJeu
Il faut comprendre que la fonction rand() lit une permutation déterminée d'un ensemble fini d'entiers.
Si tu fait beaucoup de tirages ils ne sont plus indépendants.

Doraki
Habitué(e)
Messages: 5021
Enregistré le: 20 Aoû 2008, 11:07

par Doraki » 26 Oct 2011, 21:24

Ben on a pas besoin de simulations pour calculer les lois des H et M. On les connaît déjà.
Ce sont deux variables aléatoires indépendantes (parceque H joue au hasard indépendemment de tout le reste) de même loi (celle d'une somme de 10000 bernouillis de paramètre 1/2).
La probabilité qu'ils soient ex-aequo tend vers 0 quand n tend vers l'infini, et donc la probabilité que l'un ait un meilleur score que l'autre tend vers 1/2.

Plus vous faites de simulations plus vous pourrez voir que la distribution (H,M) après 10000 lancers est celle d'un vecteur gaussien. Si ça ressemble pas à un vecteur gaussien ou que vous trouvez qu'un joueur gagne plus que l'autre, c'est que vous avez pas eu de chance. Le théorème central limite prédit la loi de l'écart entre la probabilité théorique et la probabilité observée par la simulation. Donc vous pouvez vous dire "le joueur 1 gagne 51% des fois sur 100 simulations de 10000 lancers ? oh bah ça reste dans les limites arbitraires de ce que les gens appellent probable. Il a gagné 80% des fois sur 100 simulations ? ah ben là il y a quelquechose de louche".

Si on connaît pas la probabilité théorique, et qu'on veut la mesurer ben le mieux qu'on puisse faire c'est donner l'intervalle des probabilités pour lesquelles les résultats observés ne sont pas complètement improbables.

LeJeu
Membre Irrationnel
Messages: 1142
Enregistré le: 24 Jan 2010, 21:52

par LeJeu » 26 Oct 2011, 21:27

nuage a écrit:
@LeJeu
Il faut comprendre que la fonction rand() lit une permutation déterminée d'un ensemble fini d'entiers.
Si tu fait beaucoup de tirages ils ne sont plus indépendants.


J'accepte volontiers la remarque, certainement que mes tirages ne sont pas full indépendants, mais pourquoi ont ils tendance à faire gagner M ? et pas H ?

Imaginons comme Beagle ... une machine à tirer pile ou face, une machine à miser au hasard, une machine à miser sur les manquants, à quel moment ca patine ?

Parce que ma machine à miser au hasard n'est pas parfaite et du coup se trouve moins bonne que la machine 'M' qui mise ( selon l'avis général) n'importe quoi ?

Ca me trouble un peu... un correctif à apporter ?

beagle
Habitué(e)
Messages: 8746
Enregistré le: 08 Sep 2009, 14:14

par beagle » 26 Oct 2011, 21:39

Grosse con....?:
Pourrait-on par la valeur de la différence en valeur absolue des F-P
savoir si l'ordi ne surcorrige pas , en tendant à égaliser le F-P il provoquerait ton biais de comblement de retard par rapport au hasard?
L'important est de savoir quoi faire lorsqu'il n' y a rien à faire.

LeJeu
Membre Irrationnel
Messages: 1142
Enregistré le: 24 Jan 2010, 21:52

par LeJeu » 26 Oct 2011, 21:40

Doraki a écrit:Ben on a pas besoin de simulations pour calculer les lois des H et M. On les connaît déjà.
Ce sont deux variables aléatoires indépendantes (parceque H joue au hasard indépendemment de tout le reste) de même loi (celle d'une somme de 10000 bernouillis de paramètre 1/2).
La probabilité qu'ils soient ex-aequo tend vers 0 quand n tend vers l'infini, et donc la probabilité que l'un ait un meilleur score que l'autre tend vers 1/2..

On n'est bien d'accord, pour moi, que l'on mise toujours pile, toujours face, au hasard, en comptant les manquants ne change rien, nada, toujours 1 /2!!

Je suis embêté que tentant de simuler un tirage, les résultats ne sont pas signifiants . je sais ô combien le terrain est périlleux... mais je cherchais quand même à trouver cette fameuse convergence vers 1/2 ! que JE n'aperçois pas vraiment ( encore) à travers ces (mes)essais.

LeJeu
Membre Irrationnel
Messages: 1142
Enregistré le: 24 Jan 2010, 21:52

par LeJeu » 26 Oct 2011, 21:47

beagle a écrit:Grosse con....?:
Pourrait-on par la valeur de la différence en valeur absolue des F-P
savoir si l'ordi ne surcorrige pas , en tendant à égaliser le F-P il provoquerait ton biais de comblement de retard par rapport au hasard?


grosse con.. pour grosse con ...

j'ai envisagé comme toi que rand essayait de "combler" .mais Rand() rend un entier dont je calcule le modulo 2 ... et ca rand() ne peut pas le savoir ? qu'il faille équilibrer vite fait bien fait entre les nombres pairs et impairs ?

Mais oui ca doit ressembler à ça, mais l'erreur est bien cachée!

beagle
Habitué(e)
Messages: 8746
Enregistré le: 08 Sep 2009, 14:14

par beagle » 26 Oct 2011, 21:47

Ce qui est sur c'est que pour avoir des séries aléatoires de 0 et 1 sur un CD pour un particulier cela s'achète assez cher, lorsque justement on ne peut faire confiance à l'ordinateur.
L'important est de savoir quoi faire lorsqu'il n' y a rien à faire.

LeJeu
Membre Irrationnel
Messages: 1142
Enregistré le: 24 Jan 2010, 21:52

par LeJeu » 26 Oct 2011, 22:05

Bon ca remue au CNRS!

Laboratoire du CNRS, Jeudi 27/10/2011:
salle réservée aux calculs de probabilité,unité 459AER:

Machine A :

une tireuse de pile au face , nouvelle norme, tirage n : annonce la parité de la niième décimal de PI ( ca mériterait un fil à lui tout seul l'algo !)

Machine B

mise Pair à chaque tirage

Machine C

Mise sur les 'manquants'

Que peut on attendre d'une telle expérience ?

Rien comme dit Doraki , puisque l'on connait le résultat attendu .. et que si ca colle pas c'est pas de chance ( ce que je comprends)

ou doit on être interpellé si la machine C SEMBLE plus performante que la A ??? ( et comment évaluer la perfomance de C ?)

Avatar de l’utilisateur
nuage
Membre Complexe
Messages: 2214
Enregistré le: 09 Fév 2006, 22:39

par nuage » 26 Oct 2011, 22:37

LeJeu a écrit:J'accepte volontiers la remarque, certainement que mes tirages ne sont pas full indépendants, mais pourquoi ont ils tendance à faire gagner M ? et pas H ?

Imaginons comme Beagle ... une machine à tirer pile ou face, une machine à miser au hasard, une machine à miser sur les manquants, à quel moment ca patine ?

Parce que ma machine à miser au hasard n'est pas parfaite et du coup se trouve moins bonne que la machine 'M' qui mise ( selon l'avis général) n'importe quoi ?

Ca me trouble un peu... un correctif à apporter ?

Ça patine quand on prend conscience du fait que l'on a un tirage sans remise avec la fonction rand().

Si tu as 500 boules P et 500 boules F, après avoir tirer 100 boules P la proba de tirer une boule F n'est plus 1/2 mais 4/9. Ce qui a tendance à faire gagner M contre H.
Il est important de remarquer que le biais augmente avec le nombre de tirages.

Skullkid
Habitué(e)
Messages: 3075
Enregistré le: 08 Aoû 2007, 19:08

par Skullkid » 26 Oct 2011, 22:58

Je ne sais pas comment sont implémentées les fonctions rand() donc je ne sais pas à quel point le biais est fort, mais puisque c'est tendance de faire des simulations, je viens de simuler 20 séries de 100000 tirages pile ou face avec deux joueurs : un qui mise au hasard (pas tout le temps pile ou tout le temps face) et un qui mise sur ce qui est le moins sorti jusqu'à présent (s'il y a eu autant de pile que de face, il joue au hasard).

Le joueur qui mise sur le comblement des manques obtient un meilleur score dans 13 séries sur 20, son meilleur score est de 50294 victoires sur 100000, son plus mauvais est 49714. Le meilleur score du joueur qui mise au hasard est 50354, son plus mauvais est 49789. Donc pour moi, si le biais du rand() est rentré en jeu (la fonction rand() a été appelée au moins 4 millions de fois dans ma simulation), il est resté suffisamment faible : ces résultats ne me semblent pas aller à l'encontre de l'indépendance, dans tous les cas, chaque joueur gagne dans 49,7% à 50,4% des cas.

beagle
Habitué(e)
Messages: 8746
Enregistré le: 08 Sep 2009, 14:14

par beagle » 27 Oct 2011, 08:59

Ce fil devient très intéressant, merci les gars.
J'étais un peu déçu il y a quelques jours car il fallait répondre à au moins deux trucs:
-pourquoi ce que dit Dlzlogic n'est pas possible,
lui faire comprendre (euh c'est pas encore gagné!)
-comprendre les résultats obtenus sur les simulations,
là le boulot n'était pas enclenché, maintenant la discuss devient de qualité.

Avait-on des résultats à interpréter comme normaux (donc comblement retard gagne ou gagne pas selon les séries, les études, de façon normale )
ou bien avait-on un biais lié comme expliqué par la fonction random

Donc super de savoir que random fait des tirages sans remise, merci nuage.
Et quid des études de Skullkid versus LeJeu, victoire et défaites normalement distribuées ou non?

Je repose ma question d'hier, qui n'est pas nécessairement pertinente, mais quand on a un truc dans la tète ...
Peut-on en analysant de nombreuses séries voir si le F-P se distribue comme attendu, ou bien s'il est trop resserré indiquant une certaine tendance "non naturelle" à l'égalisation?
Nuage avait une formule qui donnait je sais pas quoi du F-P en fonction de n (tirages),
peut-on en déduire une distribution des F-P lorsqu'on répète de nombreuses fois le mème n tirages?
L'important est de savoir quoi faire lorsqu'il n' y a rien à faire.

beagle
Habitué(e)
Messages: 8746
Enregistré le: 08 Sep 2009, 14:14

par beagle » 27 Oct 2011, 09:25

Autres questions:
Skullkid, si tu répètes ton expérience de 20 séries plusieurs fois,
et si à quasi chaque fois tu avais 11,12 ou 13 séries en faveur de comblement?

LeJeu, si au lieu de faire 1 série de 1 millions, tu faisais 1000 séries de 1000,
aurais-tu les mèmes résultats.

Et question de nul en informatique, ma machine à lancer les pièces avait un bouton de réinitialisation qui permettait de mettre fin aux séries, pour commencer une nouvelle série sans mémoire des anciennes, le random se remet à zéro à quel moment dans les études faites, à faire,
cela dépend du code du programme?
L'important est de savoir quoi faire lorsqu'il n' y a rien à faire.

Dlzlogic
Membre Transcendant
Messages: 5273
Enregistré le: 14 Avr 2009, 12:39

par Dlzlogic » 27 Oct 2011, 11:29

Bonjour,
Citation:
Doraki : ceci ne veut rien dire, précise ta pensée.
Moi : Cela veut dire que si on recommence indéfiniment l'expérience suivante : au jeu de pile ou face, l'évènement étudié est le nombre de sortie de suite continue de n pile ou de n face, avec un grand nombre de tirages. Le résultat sera toujours le même et connu à l'avance, avec une certaine précision naturellement.
Est-ce que j'ai bien précisé ma pensée?
Et ça, personne n'a essayé ?
Le rattrapage est effectivement faible, donc peu convaincant.

Que penser de l'affirmation suivante : "La valeur la plus probable d'une inconnue donnée par des expériences est celle qui correspond à la plus grande fréquence, et tel est le cas de la moyenne arithmétique dans le cas des observations directes"
Cette phrase est une citation, elle faisait (probablement) partie des documents mis en pièce jointe lors de la précédente discussion, et pour lesquels tout le monde semblait d'accord.

 

Retourner vers ⚜ Salon Mathématique

Qui est en ligne

Utilisateurs parcourant ce forum : Aucun utilisateur enregistré et 8 invités

Tu pars déja ?



Fais toi aider gratuitement sur Maths-forum !

Créé un compte en 1 minute et pose ta question dans le forum ;-)
Inscription gratuite

Identification

Pas encore inscrit ?

Ou identifiez-vous :

Inscription gratuite