Depuis quelque temps, je dépile certains problèmes mathématiques que j'avais entreposés dans mon PC.
Parmi eux, en voici un qui me donne du fil à retordre que j'avais trouvé à l'époque sur un autre forum et qui, peut-être, en intéressera certain.e.s.
La question globale était de déterminer le nombre moyen de tirages à effectuer de nombres entre [0,1[ (qui suivent une loi uniforme continue) pour que la somme dépasse 1. Et il semblait que ce nombre tendait vers (c'est à vérifier !!!).
L'énoncé peut -être globalement formalisé de la manière suivante :
Soit où est un échantillon i.i.d. issu de la loi uniforme continue .
On note , où est le plus petit entier tel que .
La question est alors de déterminer .
J'ai fait un algo en Java pour ceux qui veulent tester :
- Code: Tout sélectionner
public static void prog(int P) {
int [] N = new int [P];
for(int i = 0; i < P; i++ ) {
double S_i = 0;
while(S_i < 1) {
S_i += Math.random();
N[i]++;
}
}
// Pour la moyenne et écart-type
double mean = 0.0;
double sd = 0.0;
for(int N_i : N) {
mean += N_i;
}
mean /= P;
for(int N_i : N) {
sd += Math.pow(N_i- mean, 2);
}
sd /= (P-1);
sd = Math.sqrt(sd);
System.out.println("mean = "+mean+"\nsd = "+sd);
}
À vrai dire, je ne sais pas trop comment m'y prendre... J'avais pensé à essayer de discrétiser la loi en fixant le nombre de chiffres après la virgule des variables aléatoires et voir ce qui se passe, mais je ne sais pas si c'est très rigoureux...
Bref, si quelqu'un à des idées...