Perte d'image par seconde

Réponses à toutes vos questions de la 2nde à la Terminale toutes séries
toxic27
Messages: 5
Enregistré le: 05 Nov 2006, 09:00

Perte d'image par seconde

par toxic27 » 05 Nov 2006, 09:08

Hello.

J'ai fait programme graphique qui est capable d'afficher 1000 images/seconde.
Imaginons que j'ajoute l'éclairage à mon programme et je tombe à 100 images/seconde.

Comment calculer le temps en milliseconde que prend le cpu pour calculer l'éclairage de mon programme ?

En vous remerciant.



toxic27
Messages: 5
Enregistré le: 05 Nov 2006, 09:00

par toxic27 » 05 Nov 2006, 12:18

Personne pour m'aider ?

Je pensait qu'il fallait faire comme ceci:
1000 img/s = il faut 1 ms pour afficher une image
100 img/s = il faut 10 ms pour afficher une image
Et donc je pensait qu'il y avait une perte de 9ms.

Mais apparament ce n'est pas juste parce que j'ai entendu dire que de passer de 1000img/s à 100img/s était équivalent de passer de 50img/s à 49img/s.
Mais si j'effectue le même calcul que précédement avec 50->49img/s je n'obtient pas dutout une perte de 9ms mais de 0.4ms !

toxic27
Messages: 5
Enregistré le: 05 Nov 2006, 09:00

par toxic27 » 05 Nov 2006, 17:48

Heuu...c'est normal que je n'ait pas de réponses ? (je sais que vous n'êtes pas obligé de me répondre mais est-ce que ma question est si chian** / imcompréhensible que ça ?!)

 

Retourner vers ✎✎ Lycée

Qui est en ligne

Utilisateurs parcourant ce forum : OSSIMOX et 53 invités

Tu pars déja ?



Fais toi aider gratuitement sur Maths-forum !

Créé un compte en 1 minute et pose ta question dans le forum ;-)
Inscription gratuite

Identification

Pas encore inscrit ?

Ou identifiez-vous :

Inscription gratuite