Perte d'image par seconde
Réponses à toutes vos questions de la 2nde à la Terminale toutes séries
-
toxic27
- Messages: 5
- Enregistré le: 05 Nov 2006, 09:00
-
par toxic27 » 05 Nov 2006, 09:08
Hello.
J'ai fait programme graphique qui est capable d'afficher 1000 images/seconde.
Imaginons que j'ajoute l'éclairage à mon programme et je tombe à 100 images/seconde.
Comment calculer le temps en milliseconde que prend le cpu pour calculer l'éclairage de mon programme ?
En vous remerciant.
-
toxic27
- Messages: 5
- Enregistré le: 05 Nov 2006, 09:00
-
par toxic27 » 05 Nov 2006, 12:18
Personne pour m'aider ?
Je pensait qu'il fallait faire comme ceci:
1000 img/s = il faut 1 ms pour afficher une image
100 img/s = il faut 10 ms pour afficher une image
Et donc je pensait qu'il y avait une perte de 9ms.
Mais apparament ce n'est pas juste parce que j'ai entendu dire que de passer de 1000img/s à 100img/s était équivalent de passer de 50img/s à 49img/s.
Mais si j'effectue le même calcul que précédement avec 50->49img/s je n'obtient pas dutout une perte de 9ms mais de 0.4ms !
-
toxic27
- Messages: 5
- Enregistré le: 05 Nov 2006, 09:00
-
par toxic27 » 05 Nov 2006, 17:48
Heuu...c'est normal que je n'ait pas de réponses ? (je sais que vous n'êtes pas obligé de me répondre mais est-ce que ma question est si chian** / imcompréhensible que ça ?!)
Utilisateurs parcourant ce forum : OSSIMOX et 53 invités