Preuve : Théorème Cayley-Hamilton

Réponses à toutes vos questions après le Bac (Fac, Prépa, etc.)
Avatar de l’utilisateur
Ncdk
Membre Rationnel
Messages: 758
Enregistré le: 30 Mar 2014, 20:10

Preuve : Théorème Cayley-Hamilton

par Ncdk » 19 Nov 2014, 20:16

Bonsoir,

J'ai une présentation de cette preuve à faire pour la semaine prochaine, je pensais que j'allais totalement la comprendre mais en réalité certains points sont obscures encore.

Je voulais faire la preuve à l'aide de la Comatrice, je trouve que c'est dans mes cordes mais je suis bloqué à un certain endroit, voici ce que j'ai fais :

Tout d'abord, mon but est d'arriver à ça :

Je suis partit de cette expression qui me parait le mieux pour faire une preuve avec la comatrice :

En posant

Donc

On sait que qui est par définition le polynôme caractéristique.

On peut aussi l'écrire sous forme de somme tel que

Mais maintenant, je sais absolument pas comment je peux traduire sous forme de somme la

Je cherche quelques aides, indications et surtout explications, j'ai vu dans certains livres certaines choses mais sans trop d'explications, mon but est de comprendre tout ce que j'utilise et pourquoi je le fais :)

Merci d'avance



Avatar de l’utilisateur
zygomatique
Habitué(e)
Messages: 6928
Enregistré le: 20 Mar 2014, 13:31

par zygomatique » 19 Nov 2014, 20:21

Ncdk a écrit:Bonsoir,

J'ai une présentation de cette preuve à faire pour la semaine prochaine, je pensais que j'allais totalement la comprendre mais en réalité certains points sont obscures encore.

Je voulais faire la preuve à l'aide de la Comatrice, je trouve que c'est dans mes cordes mais je suis bloqué à un certain endroit, voici ce que j'ai fais :

Tout d'abord, mon but est d'arriver à ça :

Je suis partit de cette expression qui me parait le mieux pour faire une preuve avec la comatrice :

En posant

Donc

On sait que qui est par définition le polynôme caractéristique.

On peut aussi l'écrire sous forme de somme tel que

Mais maintenant, je sais absolument pas comment je peux traduire sous forme de somme la

Je cherche quelques aides, indications et surtout explications, j'ai vu dans certains livres certaines choses mais sans trop d'explications, mon but est de comprendre tout ce que j'utilise et pourquoi je le fais :)

Merci d'avance



salut

On sait que qui est par définition le polynôme caractéristique.


c'est plutôt ::

qui est par définition le polynôme caractéristique.

donc




.... sauf que X désigne une indéterminée sur l'ensemble des scalaires ....

et c'est toute la force de ce théorème : en remplaçant un scalaire par une matrice ça marche aussi ...
Ce qui est affirmé sans preuve peut être nié sans preuve. EUCLIDE

Avatar de l’utilisateur
Ben314
Le Ben
Messages: 21529
Enregistré le: 11 Nov 2009, 22:53

par Ben314 » 19 Nov 2014, 20:25

Salut,
C'est relativement simple :
La matrice M-X.In, c'est une matrice dont les coefficients sont en fait des polynômes en X (constant ou du premier degré) donc ta comatrice est aussi une matrice dont les coeff. sont des polynômes en X (et un mini calcul montre que ce sont des polynômes de degré au plus n-1).
Sauf que, une matrice à coeff. des polynômes en X, tu peut l'écrire comme polynôme en X à coeff matriciels, c'est à dire sous la forme où les sont des matrices à coefficients constants (je te laisse réfléchir au pourquoi : c'est tout con...)
Partant de là, tu n'a plus qu'à développer puis à "identifier" avec ce que tu as de l'autre coté, c'est à dire (en justifiant que c'est licite ce qui n'est pas non plus très dur)
Tu obtient alors des tas de petites équation reliant les différentes matrices et, si tu "regroupe" ces relation, ça te donne... Cayley-Hamilton.
Qui n'entend qu'un son n'entend qu'une sonnerie. Signé : Sonfucius

Avatar de l’utilisateur
Ben314
Le Ben
Messages: 21529
Enregistré le: 11 Nov 2009, 22:53

par Ben314 » 19 Nov 2014, 20:38

zygomatique a écrit:.... sauf que X désigne une indéterminée sur l'ensemble des scalaires ....
Sauf que, justement, ici, ce n'est pas le bon point de vue : il vaut bien mieux regarder le polynôme caractéristique comme un polynôme formel, c'est a dire que X c'est "l'indéterminée" des polynômes formels et il ne faut surtout pas se restreindre à la notion de fonction polynôme (i.e. à voir X comme un "scalaire").
Déjà, c'est plus agréable pour parler sans gène des matrices à coefficients polynomiaux (c'est des matrices sur l'anneau bien connu K[X]) et c'est indispensable pour démontrer Cayley-Hamilton dans toute sa généralité, c'est à dire sur un corps absolument quelconque (donc sur lequel les polynômes formels ne coïncident pas forcément avec les fonctions polynômes et sur lequel il sera illicite "d'identifier" les coeffs. des deux polynômes à coeff. matriciels si on les regarde comme des fonctions polynomiales)

Résumé : C'est un théorème d'algèbre donc il faut utiliser des outils d'algébriste (i.e. les polynômes formels et pas les fonctions polynômes)
Qui n'entend qu'un son n'entend qu'une sonnerie. Signé : Sonfucius

Avatar de l’utilisateur
Ncdk
Membre Rationnel
Messages: 758
Enregistré le: 30 Mar 2014, 20:10

par Ncdk » 19 Nov 2014, 20:52

Merci pour la petite correction du polynôme caractéristique, donc en fait, si dans le polynôme caractéristique on prends un X scalaire ou matriciel, ça fonctionne en fait, c'est ça que tu voulais me dire par :

en remplaçant un scalaire par une matrice ça marche aussi ...


??

Ensuite,

La matrice M-X.In, c'est une matrice dont les coefficients sont en fait des polynômes en X (constant ou du premier degré) donc ta comatrice est aussi une matrice dont les coeff. sont des polynômes en X (et un mini calcul montre que ce sont des polynômes de degré au plus n-1).


En fait, je crois que la première chose qui me bloque c'est que M-Xin, c'est une matrice d'odre n, avec sur la diagonale des termes polynomiales, mais pourtant, M est une matrice qui peut comporter des éléments ailleurs que sur la diagonale non ?
Je voudrais pas dire de bêtise, mais bon je suis là pour apprendre et me tromper, mais M doit être semblable à une matrice diagonale pour utiliser ce théorème ?

Ensuite pour la deuxième partie, le petit calcul dont tu me parles c'est ça :

avec qui sont les cofacteurs de la comatrice.
et par définition on appelle mineur d’ordre ou est la matrice obtenu en supprimant la ième ligne et la jième colonne donc au final c'est le principe du développement d'une matrice, du coup les termes de notre comatrice dont les coefficients sont des polynômes en X sont au plus de degrés n-1

Je trouve que ça tient pas trop la route xD

Sauf que, une matrice à coeff. des polynômes en X, tu peut l'écrire comme polynôme en X à coeff matriciels, c'est à dire sous la forme où les sont des matrices à coefficients constants (je te laisse réfléchir au pourquoi : c'est tout con...)
Partant de là, tu n'a plus qu'à développer


En fait je vois pas pourquoi les sont des matrices à coefficients constants, c'est juste pour dire que quand on additionne tout on retombe sur notre matrice de départ, donc que les matrices ne dépendent pas de Avec k variant de 0 à n-1 ?

Avatar de l’utilisateur
Ben314
Le Ben
Messages: 21529
Enregistré le: 11 Nov 2009, 22:53

par Ben314 » 19 Nov 2014, 21:06

Ncdk a écrit:Merci pour la petite correction du polynôme caractéristique, donc en fait, si dans le polynôme caractéristique on prends un X scalaire ou matriciel, ça fonctionne en fait, c'est ça que tu voulais me dire par :
Non, on ne peut pas du tout remplacer X par une matrice : ça voudrait dire qu'on considère des matrices à coefficients... matriciels et, vu que le produit matriciel n'est pas commutatif, y'aurais à peu prés rien qui marche.

Ncdk a écrit:Je voudrais pas dire de bêtise, mais bon je suis là pour apprendre et me tromper, mais M doit être semblable à une matrice diagonale pour utiliser ce théorème ?
Absoluemnt pas : le corps de base est... quelconque et la matrice M dont on part est... tout aussi quelconque


Ncdk a écrit:Ensuite pour la deuxième partie, le petit calcul dont tu me parles c'est ça :
avec qui sont les cofacteurs de la comatrice.
et par définition on appelle mineur d’ordre ou est la matrice obtenu en supprimant la ième ligne et la jième colonne donc au final c'est le principe du développement d'une matrice, du coup les termes de notre comatrice dont les coefficients sont des polynômes en X sont au plus de degrés n-1
Oui, c'est bien ça : lorsque tu développe complètement un déterminant (n-1)x(n-1), tu as une (énorme) somme de produits de n-1 termes de ta matrices. Si ces termes sont des polynômes de degré au plus 1, le résultat est un polynôme de degré au plus n-1.

Ncdk a écrit:En fait je vois pas pourquoi les sont des matrices à coefficients constants, c'est juste pour dire que quand on additionne tout on retombe sur notre matrice de départ, donc que les matrices ne dépendent pas de Avec k variant de 0 à n-1 ?
Oui : il faut faire un vague laïus pour expliquer que, par exemple,
Qui n'entend qu'un son n'entend qu'une sonnerie. Signé : Sonfucius

Avatar de l’utilisateur
Ncdk
Membre Rationnel
Messages: 758
Enregistré le: 30 Mar 2014, 20:10

par Ncdk » 19 Nov 2014, 21:15

Ben314 a écrit:Absolument pas : le corps de base est... quelconque et la matrice M dont on part est... tout aussi quelconque
[/TEX]


Alors ce que je me demande c'est que si M est quelconque, XIn ne l'est pas car seul les éléments de la diagonale sont des X.

Mais si je comprends bien en fait, M-XIn, peut importe les termes qu'on a en dessous ou au dessus de la diagonale, car il seront inclus dans la c'est ça en fait l'idée ?

Avatar de l’utilisateur
Ben314
Le Ben
Messages: 21529
Enregistré le: 11 Nov 2009, 22:53

par Ben314 » 19 Nov 2014, 21:28

Essaye de faire tout les calculs (la comatrice de M-X.In, les matrices A_0, A_1, A_2, le polynôme caractéristique, et tout et tout) en partant d'une béte matrice du style pour comprendre comment ça marche.


Ncdk a écrit:Mais si je comprends bien en fait, M-XIn, peut importe les termes qu'on a en dessous ou au dessus de la diagonale, car il seront inclus dans la c'est ça en fait l'idée ?
Vu les calculs qu'on fait, on se fout complètement de ce qui est "au dessus" ou "en dessous" ou "sur" la diagonale...
Qui n'entend qu'un son n'entend qu'une sonnerie. Signé : Sonfucius

Avatar de l’utilisateur
zygomatique
Habitué(e)
Messages: 6928
Enregistré le: 20 Mar 2014, 13:31

par zygomatique » 19 Nov 2014, 21:37

Ben314 a écrit:Sauf que, justement, ici, ce n'est pas le bon point de vue : il vaut bien mieux regarder le polynôme caractéristique comme un polynôme formel, c'est a dire que X c'est "l'indéterminée" des polynômes formels et il ne faut surtout pas se restreindre à la notion de fonction polynôme (i.e. à voir X comme un "scalaire").
Déjà, c'est plus agréable pour parler sans gène des matrices à coefficients polynomiaux (c'est des matrices sur l'anneau bien connu K[X]) et c'est indispensable pour démontrer Cayley-Hamilton dans toute sa généralité, c'est à dire sur un corps absolument quelconque (donc sur lequel les polynômes formels ne coïncident pas forcément avec les fonctions polynômes et sur lequel il sera illicite "d'identifier" les coeffs. des deux polynômes à coeff. matriciels si on les regarde comme des fonctions polynomiales)

Résumé : C'est un théorème d'algèbre donc il faut utiliser des outils d'algébriste (i.e. les polynômes formels et pas les fonctions polynômes)


je suis bien d'accord ....

mais tout de même quand on écrit A = M - xI alors A est une matrice à coefficients dans k[x]

mais comme tu le dis on peux se ramener à combinaison linéaire de x^n à coefficients matriciels ....

une sorte de commutativité des coefficients (de façon très naïve) ...
Ce qui est affirmé sans preuve peut être nié sans preuve. EUCLIDE

Avatar de l’utilisateur
Ncdk
Membre Rationnel
Messages: 758
Enregistré le: 30 Mar 2014, 20:10

par Ncdk » 19 Nov 2014, 22:32

Ben314 a écrit:Essaye de faire tout les calculs (la comatrice de M-X.In, les matrices A_0, A_1, A_2, le polynôme caractéristique, et tout et tout) en partant d'une béte matrice du style pour comprendre comment ça marche.


Vu les calculs qu'on fait, on se fout complètement de ce qui est "au dessus" ou "en dessous" ou "sur" la diagonale...


J'ai testé au brouillon quelques minutes et j'ai compris un peu ma faute en fait, donc on peut dire au final que la Mais au final comme nous dans la preuve ce qui nous intéresse c'est la transposée, les vont être modifié mais pas la forme des matrices, donc je peux dire au final que vu que c'est pas faux, bien entendu il faut pas que je dise que sinon c'est faux mais ça nous intéresse pas, donc j'ai pas besoin de le noter non ? si je le met, je dois pas mettre les mais les

Donc maintenant mon but est de réduire l'égalité mentionné au tout début ?

Edit : Je crois arriver à la fin de la preuve, il me manqué un élément que j'avais pas vu c'est le fait que :

est équivalent à pourquoi cela est vrai ?

Avatar de l’utilisateur
Ben314
Le Ben
Messages: 21529
Enregistré le: 11 Nov 2009, 22:53

par Ben314 » 20 Nov 2014, 09:06

La comatrice, c'est effectivement la transposée de la matrice des cofacteurs, mais au fond, tu t'en fout de la matrice des cofacteurs : la transposée d'une matrice à coefficients dans K[X] est elle même une matrice à coeff dans K[X] donc tu n'a pas vraiment besoin du passage à la transposée.
En tout cas, tu n'a pas besoin d'écrire la matrice des cofacteurs comme une somme de X^k.A_k (en général on écrit plutôt le X^k avant le A_k vu que c'est un truc du style lambda.A où lambda est un élément de l'anneau dans lequel on a pris les coeff. des matrices)


Concernant ton "truc manquant" de la fin, c'est en général pas bète de savoir que ça marche "dans les deux sens" sauf qu'en fait :
1) Ici, tu t'en fout : que tu utilise l'une ou l'autre des formules, ça ne te donne pas les même "petites égalités" concernant les matrices Ak, mais dans les deux cas, quand tu regroupe ces inégalités, ça donne le même résultat (Cayley-Hamilton)
2) Si tu sait que, par exemple, que la première formule est vrai pour toute matrice A, il te suffit d'appliquer cette formule à la transposée de A pour avoir la deuxième formule (en réfléchissant une peu pour voir pourquoi la transposée de la comatrice de A, c'est la comatrice de la transposée de A...)

Ncdk a écrit: est équivalent à pourquoi cela est vrai ?
Sinon, fait gaffe aux notations : pour la plupart des auteurs, ce qu'on note Com(A), c'est la comatrice de A, c'est à dire la transposée de la matrice des cofacteurs qui elle est (éventuellement) notée Cofac(A). Dans ta formule, il ne faut pas prendre la transposée de la comatrice, mais la comatrice elle-même (ou alors tu écrit "transposée de Cofac(A)")
Qui n'entend qu'un son n'entend qu'une sonnerie. Signé : Sonfucius

Avatar de l’utilisateur
Ncdk
Membre Rationnel
Messages: 758
Enregistré le: 30 Mar 2014, 20:10

par Ncdk » 20 Nov 2014, 09:42

Ben314 a écrit:La comatrice, c'est effectivement la transposée de la matrice des cofacteurs, mais au fond, tu t'en fout de la matrice des cofacteurs : la transposée d'une matrice à coefficients dans K[X] est elle même une matrice à coeff dans K[X] donc tu n'a pas vraiment besoin du passage à la transposée.
En tout cas, tu n'a pas besoin d'écrire la matrice des cofacteurs comme une somme de X^k.A_k (en général on écrit plutôt le X^k avant le A_k vu que c'est un truc du style lambda.A où lambda est un élément de l'anneau dans lequel on a pris les coeff. des matrices)


Concernant ton "truc manquant" de la fin, c'est en général pas bète de savoir que ça marche "dans les deux sens" sauf qu'en fait :
1) Ici, tu t'en fout : que tu utilise l'une ou l'autre des formules, ça ne te donne pas les même "petites égalités" concernant les matrices Ak, mais dans les deux cas, quand tu regroupe ces inégalités, ça donne le même résultat (Cayley-Hamilton)
2) Si tu sait que, par exemple, que la première formule est vrai pour toute matrice A, il te suffit d'appliquer cette formule à la transposée de A pour avoir la deuxième formule (en réfléchissant une peu pour voir pourquoi la transposée de la comatrice de A, c'est la comatrice de la transposée de A...)

Sinon, fait gaffe aux notations : pour la plupart des auteurs, ce qu'on note Com(A), c'est la comatrice de A, c'est à dire la transposée de la matrice des cofacteurs qui elle est (éventuellement) notée Cofac(A). Dans ta formule, il ne faut pas prendre la transposée de la comatrice, mais la comatrice elle-même (ou alors tu écrit "transposée de Cofac(A)")


En fait, pour la fin, le résultat que j'obtiens, il doit être égale à a_0In+...+a_nIn
Il suffit d'isoler les a_0, a_1, ... , a_n et ensuite dans le polynôme caractéristique, si on remplace les a_k, on doit tomber sur une annulation de chacun des termes pour qu'à la fin le polynôme caractéristique soit nul ?

Avatar de l’utilisateur
Ben314
Le Ben
Messages: 21529
Enregistré le: 11 Nov 2009, 22:53

par Ben314 » 20 Nov 2014, 12:23

Partant de là :

Tu en déduit (après justification concernant le fait qu'on peut "identifier" les coefficients) que



...



Puis tu multiplie à gauche la seconde égalité par M, la troisième par M^2, etc jusqu'à la dernière par M^n
et tu somme le tout.

Si tu était parti de ça :

il faudrait multiplier les égalités à droite par des puissances de M, mais ça donnerais le même résultat.
(et si on regroupe les deux méthodes, on en déduit qu'en fait toutes les matrices Ai commutent avec M)
Qui n'entend qu'un son n'entend qu'une sonnerie. Signé : Sonfucius

Avatar de l’utilisateur
Ncdk
Membre Rationnel
Messages: 758
Enregistré le: 30 Mar 2014, 20:10

par Ncdk » 20 Nov 2014, 21:24

D'accord, merci.
Mais une chose me tracasse, j'ai multiplier par M à gauche mais faut multiplier de chaque côté de l'égalité, en quoi sa m'aide, j'ai prouvé que la somme de l'autre égalité valait 0 mais cette somme la vaut aussi 0 non ? Apres je sais plus quoi faire x)

Avatar de l’utilisateur
Ben314
Le Ben
Messages: 21529
Enregistré le: 11 Nov 2009, 22:53

par Ben314 » 20 Nov 2014, 22:24

euhhhh.....
Les "petits" , c'est pas des matrices, mais des scalaires et je pense que tu as vu (il y a fort longtemps, certes...) que, si M et N sont des matrices et un scalaire alors Mx(a.N)=(a.M)xN=a.(MxN) (ce qui traduit, en partie, le fait que la multiplication des matrices est bilinéaire)

Sinon, effectivement, lorsque deux truc sont égaux et que l'un des deux truc est nul, ça prouve que l'autre est lui aussi nul... :dodo:
Qui n'entend qu'un son n'entend qu'une sonnerie. Signé : Sonfucius

Avatar de l’utilisateur
Ncdk
Membre Rationnel
Messages: 758
Enregistré le: 30 Mar 2014, 20:10

par Ncdk » 22 Nov 2014, 15:03

Ben314 a écrit:euhhhh.....
Les "petits" , c'est pas des matrices, mais des scalaires et je pense que tu as vu (il y a fort longtemps, certes...) que, si M et N sont des matrices et un scalaire alors Mx(a.N)=(a.M)xN=a.(MxN) (ce qui traduit, en partie, le fait que la multiplication des matrices est bilinéaire)

Sinon, effectivement, lorsque deux truc sont égaux et que l'un des deux truc est nul, ça prouve que l'autre est lui aussi nul... :dodo:


En fait je suis toujours bloqué, comme je reviens à la charge, voici ce que j'ai fait et mes petites questions :D

Je suis à :




...



Donc du coup :




...



Maintenant comme on sait que

On peut remplacer les dans l'expression ci-dessus, mais un truc me chagrine, on en fait quoi des M devant ?

Avatar de l’utilisateur
Ben314
Le Ben
Messages: 21529
Enregistré le: 11 Nov 2009, 22:53

par Ben314 » 22 Nov 2014, 15:14

Ncdk a écrit:


...

Si tu ajoute tout les termes à gauche des "=", ça te fait 0 (la matrice nulle) donc la somme des termes à droite des "=" fait 0 et c'est le Théorème de Cayley-Hamilton (modulo de voir que ...)
Qui n'entend qu'un son n'entend qu'une sonnerie. Signé : Sonfucius

Avatar de l’utilisateur
Ncdk
Membre Rationnel
Messages: 758
Enregistré le: 30 Mar 2014, 20:10

par Ncdk » 22 Nov 2014, 15:20

Ben314 a écrit:Si tu ajoute tout les termes à gauche des "=", ça te fait 0 (la matrice nulle) donc la somme des termes à droite des "=" fait 0 et c'est le Théorème de Cayley-Hamilton (modulo de voir que ...)


D'accord je vois, mais en fait dans les égalités de droites, il y a pas les ils sont remplacé par les matrices ?

Avatar de l’utilisateur
Ben314
Le Ben
Messages: 21529
Enregistré le: 11 Nov 2009, 22:53

par Ben314 » 22 Nov 2014, 15:40

"Philosophiquement parlant", on a effectivement remplacé les X^k par les M^k sauf qu'on en avait pas le droit du tout donc on a écrit toute les petites égalités entre les coeff. des deux polynômes à coefficients matriciels (qui évidement ne contiennent plus de X) puis on a multiplié ces égalités par des M^k.
Mais, mathématiquement parlant, on n'a jamais remplacé les X^k par des M^k.
Qui n'entend qu'un son n'entend qu'une sonnerie. Signé : Sonfucius

Avatar de l’utilisateur
Ncdk
Membre Rationnel
Messages: 758
Enregistré le: 30 Mar 2014, 20:10

par Ncdk » 22 Nov 2014, 15:51

Ben314 a écrit:"Philosophiquement parlant", on a effectivement remplacé les X^k par les M^k sauf qu'on en avait pas le droit du tout donc on a écrit toute les petites égalités entre les coeff. des deux polynômes à coefficients matriciels (qui évidement ne contiennent plus de X) puis on a multiplié ces égalités par des M^k.
Mais, mathématiquement parlant, on n'a jamais remplacé les X^k par des M^k.



Alors si je comprends bien :



Alors si on veut que les soient nul, il faut que M ne soit pas nul, et que M ne soit pas nilpotente aussi ?

Donc du coup tous les sont nul après cette hypothèse, donc

Et je conclus par dire que l'expression de
Les étant nuls, alors donc Le polynôme caractéristique associé à la matrice A vu qu'on a posé est nul Donc en gros :

par contre c'est faux de dire ?

 

Retourner vers ✯✎ Supérieur

Qui est en ligne

Utilisateurs parcourant ce forum : Aucun utilisateur enregistré et 28 invités

Tu pars déja ?



Fais toi aider gratuitement sur Maths-forum !

Créé un compte en 1 minute et pose ta question dans le forum ;-)
Inscription gratuite

Identification

Pas encore inscrit ?

Ou identifiez-vous :

Inscription gratuite