Bonjour,
dans le cadre de mon travail je suis heurté à un problème mathématique ou plutôt un problème statistique qui nécessite des connaissances expertes d'où mon poste... :we:
Il s'agit dans mon cas d'un système informatique gérant des soumissions et des envois de sms mais on peut le modéliser avec le modèle suivant :
Il faut imaginer une file d'attente à un péage à une frontière.
Le nombre de personnes passant la frontière est limité à 40 par seconde.
Lorsque ce quota n'est pas atteint, les personnes peuvent partir, moyennant une formalité d'une durée de 2 secondes.
La file d'attente se nourrit d'un nombre aléaoire de personnes par seconde
Si en entrée on a continuellement plus de 40 personnes par seconde, la file d'attente va grandir indéfiniement. :marteau: Le nombre en entrée étant aléatoire, le but est de trouver la borne supérieur de l'ensemble des débits pour que la durée theorique d'attente dans la file d'attente n'excède pas 8s.
Ce qui correspond a 10s entre l'entrée et la sortie.
Dans un second temps il faudrait exprimer cette valeur maximale de débit en entrée en fonction de D la valeur de débit maximal en sortie (initialement positionné à 40) et T la durée de la file d'attente.
Je n'arrive pas a déterminer une solution a ce problème je ne sais pas si il faut travailler sur un débit moyen en entrée ou je ne sais quoi??
Mes recherches m'ont amené à la formule de Erlang qui a tendance à répondre à des problèmes d'occupation de réseaux mais sans grand succès.
Si vous avez des pistes ou des réponses à ce problème je suis preneur et je vous en remercie d'avance...
Le but est de limiter les débits en sortie de mon logiciel tout en répondant à un besoin métier concernant la capacité théorique en entrée.
Je ne sais pas si cela est bien clair du moins je l'espère. :mur:
