Bonjour à toutes et à tous!
Je vous explique mes réflexions, vous pourrez ensuite me dire si vous trouvez que ca à un sens... ou non! :we:
Je fit un ensemble de courbes par une régression exponentielle (logarithmique) comme indiqué dans ce post , avec M1 : y = a.exp(bx)+H ou H est un indicateur de translation des données en Y.
j'éffectue donc une régression linéaire : log(y-H) = log(A).x + B et j'ai vu sur wikipedia que le coéfficent de corrélation linéaire ('r')donnait une indication sur la "distribution" des points comparativement au modèle (si je m'exprime bien) :
r = cov(X,Y) / (sig(X).sig(Y)).
J'imagine donc que je peux déduire un coéfficient de corrélation exponentielle adapté à mon modèle à partir de la :
r2 = cov(X,(Y-H)) / (sig(X).sig(Y-H))
Je pensais avoir correctement résonné quand j'ai plotté le résultat suivant :
Mais quand j'utilie r2 sur mon modèle j'obtient un r2 = -1 sur une expo donc tous les points ne sont pas parfaitement alignés! pourquoi ? Comment expliquer ca ? j'ai du commettre une erreur!?
Et voici le résultat qui me chagrine :
Merci!