Bonjour, il n'y a pas vraiment de recette absolue pour quantifier l'écart entre deux séries de valeurs, ça dépend du genre d'information que tu veux. Par exemple, si tes valeurs réelles (celles que tu essayes de retrouver avec le réseau de neurones) sont x1, x2, ..., xn et tes valeurs obtenues avec le réseau de neurones sont y1, y2, ..., yn, des mesures d'écart potentiellement intéressantes sont :
- La valeur maximale des écarts ponctuels | xi - yi |, qui va te donner une information du type "au pire, en prenant la valeur donnée par le réseau de neurones au lieu de la valeur réelle, je commets une erreur de...". Pour l'exemple que tu viens de donner, ça donne que tu te trompes au maximum de 10.
- La moyenne arithmétique des écarts ponctuels ( |x1 - y1| + |x2 - y2| + ... + |xn - yn| ) / n, qui te donne une erreur moyenne. Pour ton exemple, avec cette mesure d'écart, tu te trompes en moyenne de 4.
- La moyenne quadratique des écarts ponctuels
})
, qui te donne aussi une erreur moyenne. Pour ton exemple, ça donne que tu te trompes en moyenne d'un peu plus de 6. Ça a l'air d'être la façon de faire conseillée par ton livre. Elle a notamment l'avantage de donner plus de poids aux grosses erreurs ponctuelles que la moyenne arithmétique, mais sans pour autant se focaliser entièrement sur elles comme le fait la valeur maximale.
Tu peux aussi faire des moyennes pondérées. Si, par exemple, pour une quelconque raison, il est plus grave de se tromper de 10 le lundi que le mardi, tu peux prendre ça en compte en mettant un poids plus fort à l'écart du lundi par rapport à celui du mardi.