Géodésique et matrices

Réponses à toutes vos questions après le Bac (Fac, Prépa, etc.)
Avatar de l’utilisateur
fatal_error
Modérateur
Messages: 6610
Enregistré le: 22 Nov 2007, 13:00

géodésique et matrices

par fatal_error » 07 Déc 2013, 19:51

Hello,

suite à http://www.maths-forum.com/matrices-rotations-intermediaires-148165_3.php que je veux pas pourrir. Je reviens sur les géodésiques de ben314 parce que ca m'intéresse mais je pige pas...

Pour revenir sur le cas de SO(3), une équation cartésienne de S(3) est P{}^tP=I_3 et on en déduit que l'espace tangeant en P est l'ensemble des matrices H telles que H{}^tP+P{}^tH=0_3 c'est à dire H=AP où A est antisymétrique.


1)
C'est quoi la définition de l'espace tangeant en P? parce que quand je regarde sur le net, je trouve des trucs avec dérivées partielles. Mais ici?

On montre ensuite assez façilement que les courbes paramétrées de la forme t\mapsto\exp(tA) (A antisymétrique) et plus généralement celles de la forme t\mapsto P\exp(tA) (P dans SO(3)) sont bien des géodésiques de SO(3).

2) Forcément moi je comprends pas non plus. Si je pars de la def y"(t) est orthogonal à y(t), si on part de f(t)=exp(tA), alors déjà je bloque.
Qu'est-ce qui me donne que f'(t)=Aexp(tA) ?, pe s'agit-il de f'(t)=A'exp(tA)?, puis en supposant que cette dernière est correcte,
f"(t)=A'A'exp(tA)
Il s'agira alors de montrer que f"(t)f(t)=0. Or à priori A'A'exp(tA)exp(tA) !=0 (bref la dérivée est fausse mais quoi prendre).

Je connais (que) cette def de la fonction de matrice:
soit les lambda_i valeurs propres de A, alors
pour tous les lambda_i, f(lambda_i)=P(lambda_i) avec P un polynome, et avec les n eq, on trouve P. Puis on def f(matrice) par P(matrice).
Mais ici, au final, je recupère un truc style P=a+bX+cX^2 (où pour déterminer a,b,c faudrait que j'ai un truc analytique des valeurs propres... ou que je calcule sur Ma) et j'intuite que ya un peu moins fastidieux pour trouver la dérivée de f qu'en passant par la recherche des valeurs propres et machin... (je sais même pas si ca aboutit, mais je le sens pas de toute façon).

edit: pour f(t)=e^{tA}, on peut ecrire
g(x)=e^(ax), et dev en serie entieres, et on a donc le polynome associé. Du coup
P(A) à les mêmes coeffs que ceux de g(x) développée en série entieres et du coup, on a

Puis après on fait rebelotte avec les dérivées et on obtient
g"(x)=a^2exp(ax)
mais ici, je sais pas "séparer" d'un coté a^2 et exp(at) pour dire que ca va donner A^2exp(tA)
la vie est une fête :)



Avatar de l’utilisateur
Ben314
Le Ben
Messages: 21532
Enregistré le: 11 Nov 2009, 22:53

par Ben314 » 07 Déc 2013, 20:43

fatal_error a écrit:1) C'est quoi la définition de l'espace tangeant en P? parce que quand je regarde sur le net, je trouve des trucs avec dérivées partielles. Mais ici?
Ici, c'est pareil, tu pourrait le faire avec des dérivées partielles en écrivant la matrice P avec ces coordonnées et en disant qu'elle est dans le groupe orthogonal ssi les équations suivantes sont vérifiées :
(*)
Et là, tu peut faire des gros calculs en utilisant les dérivées partielles en chaque de ces équations (ça doit te faire un bordel monstrueux...)

La bonne solution c'est donc de ne pas redescendre au niveau des coordonnées et de remplacer les équations (*) par la simple relation qui dit exactement la même chose, mais en "moins lourd" !!!
Tu as donc une fonction et tout le barda avec les équation partielles, ça dit (de façon théorique) que l'espace tangent en au groupe orthogonal d'équation c'est le noyau de l'application linéaire "différentielle de au point P".
Ce noyeau peut évidement ce calculer avec des dérivées partielles, mais ici, il suffit d'écrire que , puis de vérifier que (petit détail technique pas très dur à montrer) pour en déduire que est l'application linéaire donc que son noyau est constitué des matrices telles que c'est à dire telle que soit antisymétrique (i.e. ) soit encore vu que

On aurait sans doute trouvé la même chose en partant de (*) et en regardant les dérivées partielles (si on est pas mort avant et... si on se goure pas...)
Qui n'entend qu'un son n'entend qu'une sonnerie. Signé : Sonfucius

Avatar de l’utilisateur
Ben314
Le Ben
Messages: 21532
Enregistré le: 11 Nov 2009, 22:53

par Ben314 » 07 Déc 2013, 21:11

fatal_error a écrit:Pour f(t)=e^{tA}, on peut ecrire
g(x)=e^(ax), et dev en serie entieres, et on a donc le polynome associé. Du coup
P(A) à les mêmes coeffs que ceux de g(x) développée en série entieres et du coup, on a

Puis après on fait rebelotte avec les dérivées et on obtient
g"(x)=a^2exp(ax)
mais ici, je sais pas "séparer" d'un coté a^2 et exp(at) pour dire que ca va donner A^2exp(tA)

Oui, c'est exactement ça pour une matrice quelconque M, on définit (après avoir montré que la série converge quelque soit la matrice M).
Après, il faut bien comprendre que exp(M) est elle aussi une matrice, de même taille (carrée) que M.
Donc qui se dérive gentiment terme à terme (ici on a affaire à une "gentille" fonction de dans un espace vectoriel, c'est à dire à une "courbe paramétrée").
Si on dérive terme à terme et qu'on fait un changement d'indice, on obtient bien puis (le produit de la matrice par la matrice )
Arrivé à ce point, il faut non seulement montrer que est orthogonal à , mais que est orthogonal à tout les vecteur de l'espace tangent en (cet espace tangent est de dimension et n'est qu'un vecteur parmi d'autres de cet espace tangent).
Cet espace tangent, on sait que c'est l'ensemble des matrices de la forme et est une matrice antisymétrique quelconque (qui n'a rien à voir avec A, à part qu'elles sont toutes les deux antisymétriques).
Reste à comprendre comment on fait pour montrer que 2 matrices sont "orthogonales", c'est à dire quel est le produit scalaire à utiliser.
Sur R^3, le produit scalaire usuel, c'est xx'+yy'+zz'.
Sur les matrices nxn, on prend "la même chose" : le produit scalaire de la matrice et de la matrice on dit que c'est sauf que, vu comme ça, c'est chiant à calculer vu qu'il faut "redescendre" au niveau des coordonnées, donc une constatation astucieuse, c'est de voir qu'en fait , c'est la trace de la matrice (ou de qui a la même traçe.
C'est un peu comme pour des vecteurs colonnes X et Y, le produit scalaire de X et Y, tu peut dire que c'est
On est donc amené à montrer que, pour toute matrice antisymétrique , les matrices et ( et commutent) sont orthogonales, c'est à dire que soit encore (vu que ) que et c'est assez façile à vérifier (par exemple avec... les coordonnées) en utilisant le fait que est antisymétrique et que est symétrique.
Qui n'entend qu'un son n'entend qu'une sonnerie. Signé : Sonfucius

Avatar de l’utilisateur
fatal_error
Modérateur
Messages: 6610
Enregistré le: 22 Nov 2007, 13:00

par fatal_error » 07 Déc 2013, 22:06

très clair pour moi,
thx

je vais essayer de faire les ptits left overs puis revoir un peu l'idée générale (de|,) la démo, sinon jvais encore oublier d'ici 3 jours...
la vie est une fête :)

 

Retourner vers ✯✎ Supérieur

Qui est en ligne

Utilisateurs parcourant ce forum : Aucun utilisateur enregistré et 68 invités

Tu pars déja ?



Fais toi aider gratuitement sur Maths-forum !

Créé un compte en 1 minute et pose ta question dans le forum ;-)
Inscription gratuite

Identification

Pas encore inscrit ?

Ou identifiez-vous :

Inscription gratuite