Inverse de I + sum v_i v_i^T
Réponses à toutes vos questions après le Bac (Fac, Prépa, etc.)
-
user790
- Messages: 6
- Enregistré le: 13 Juil 2009, 15:08
-
par user790 » 13 Juil 2009, 15:45
Bonjour,
Je cherche la formule de l'inverse de la matrice
où
est la matrix identité et les
sont des vecteurs quelconques.
est la transposée de
. La dimension des vecteurs est quelconque.
Après avoir regardé le problème sur des exemples simples je crois savoir que la réponse est
Cependant, je n'arrive pas à le démontrer, ce qui est assez frustrant... Il est par ailleurs possible que cette formule puisse s'écrire sous une forme moins compliquée (ou qu'elle soit fausse, d'ailleurs).
Merci!
-
Zavonen
- Membre Relatif
- Messages: 213
- Enregistré le: 23 Nov 2006, 11:32
-
par Zavonen » 13 Juil 2009, 16:03
Enfin, il doit y avoir quand même une relation entre l'ordre de I et la dimension des vi pour que l'écriture ait un sens.
Cela dit la variable n représente le nombre des vecteurs vi et n'a apparemment aucun lien avec leur dimension (c'est çà ???)
Enfin, dans le cas complexe quand n=1 si on prend comme vecteur v1=(i,0,..,0) le résultat semble faux.
-
user790
- Messages: 6
- Enregistré le: 13 Juil 2009, 15:08
-
par user790 » 13 Juil 2009, 17:20
C'est vrai, j'aurais du préciser que tout ceci se passe dans R^d, d >= 1. Désolé si cela n'apparaissait pas comme évident.
Il est fort possible que tout ceci se généralise dans le cas complexe en remplaçant
par
.
-
ToToR_2000
- Membre Relatif
- Messages: 121
- Enregistré le: 26 Juin 2009, 18:33
-
par ToToR_2000 » 14 Juil 2009, 12:24
Bonjour,
Je crois que ton problème n'est pas simple.
Déjà as-tu testé si ta matrice inverse fonctionne bien ? (je trouve aussi qu'elle a l'air plutôt fausse)
Si jamais le module de la somme des vi.vi transposés est strictement inférieur à 1, il me semble (mais c'est à vérifier) que M admet un inverse qui est l'analogue du développement en série entière de l'inverse de 1+x.
Si le module est trop grand, je vois 2 cas:
ou bien d>n et alors la somme a un rang au plus de d-1 et si jamais les composantes des vi sont très grandes et positives (donc module grand), alors I devient négligeable devant la somme et tu as (grosso modo) M = somme des vi... qui n'est pas inversible donc là pas d'inverse pour M. Il faudrait bien sûr déterminer à partir de quel moment cela devient négligeable (calcul du déterminant ?)
ou bien d<= n et je crois que c'est là que ça se corse mais peut-être qu'en forçant un peu...
-
user790
- Messages: 6
- Enregistré le: 13 Juil 2009, 15:08
-
par user790 » 14 Juil 2009, 13:19
Bon en fait ma formule est fausse... ou plus précisément, elle n'est vraie qu'en deux dimensions (qui correspond aux "exemples simples" que j'avais regardés pour essayer de trouver une formule...).
Par contre, en 2D, elle marche parfaitement quelque soit la norme des vecteurs. C'est relativement facile à prouver de manière "pédestre", i.e. en développant l'équation. La seule contrainte est que le dénominateur soit non-nul.
Maintenant j'avoue que l'intérêt d'une telle formule pour inverser une matrice 2x2 est assez limité...
-
prody-G
- Membre Relatif
- Messages: 376
- Enregistré le: 28 Mar 2006, 15:36
-
par prody-G » 15 Juil 2009, 10:22
bonjour tout le monde !
J'ai l'impresssion que ça dépasse les notions que j'ai ^^'.
Qu'entendez-vous par dimension d'un vecteur, le nombre de composantes non nulles ?
"ToToR_2000" a écrit:Si le module est trop grand, je vois 2 cas:
ou bien d>n et alors la somme a un rang au plus de d-1 et si jamais les composantes des vi sont très grandes et positives (donc module grand), alors I devient négligeable devant la somme et tu as (grosso modo) M = somme des vi... qui n'est pas inversible donc là pas d'inverse pour M. Il faudrait bien sûr déterminer à partir de quel moment cela devient négligeable (calcul du déterminant ?)
ou bien d<= n et je crois que c'est là que ça se corse mais peut-être qu'en forçant un peu...
Je pense aussi qu'il doit y avoir plein de contraintes sur les vecteurs
pour que M soit inversible.
Parce que si on suppose n=1. On prend un vecteur colonne X.
La matrice
est de rang 1 donc semblable à une matrice qui possède une première colonne non nulle et qui a ses autres colonnes toutes nulles. Apres ça doit être faisable de trouver un X tel que cette premiere colonne commence par un -1. M serait alors de rang d-1, donc non inversible.
-
emdro
- Membre Complexe
- Messages: 2351
- Enregistré le: 11 Avr 2007, 17:37
-
par emdro » 15 Juil 2009, 12:46
Bonjour,
Il me semble plus simple de travailler avec l'endomorphisme canoniquement associé à ta matrice.
Pense également au fait que, si
est unitaire,
est la matrice de la projection orthogonale sur la droite dirigée par
.
Comme tes
ne sont pas unitaires, l'endomorphisme associé à M est
, où
est la projection orthogonale sur la droite dirigée par
.
-
zerroudi
- Membre Naturel
- Messages: 15
- Enregistré le: 10 Juil 2009, 15:20
-
par zerroudi » 15 Juil 2009, 16:04
Bonjour,
La formule que tu souhaite demontrer est souvent utilisée en traitement d'antennes, elle se généralise comme suivant :
avec A, B, C et D des matrices de tailles compatibles. Cette formule s'appelle "The matrix inversion lemma".
Pour faire le lien avec ta formule, c'est plus simple de passer en représentation matricielle :
où
. dans ce cas
,
,
(la dimension ici peut être diff de celle de A) et
.
Petite info utile : l'intrêt de ce lemme est de réduire la compléxité de calcul. En effet, supposons que la dimension de de matrice
est
(avec K<<N). Cette formule te permet d'inverser une matrice de dimension
au lieu d'une matrice de dimension
. c'est très utile non ? :we:
-
user790
- Messages: 6
- Enregistré le: 13 Juil 2009, 15:08
-
par user790 » 16 Juil 2009, 20:18
Merci pour cette réponse très intéressante. Appliquée à ce problème précis et en reprenant les substitutions suggérées, la formule devient
ce qui est effectivement intéressant si
.
En fait je cherchais un peu par stupidité une formule explicite de cette inverse mais les formules qu'on obtient dépendent de la dimension et se complexifient très rapidement. Juste pour info, en 3D l'inverse est proportionnelle (*) à
avec
ce qui encore une fois n'a pas l'air de demander moins d'effort que d'inverser une matrice 3x3. Surtout qu'a ce petit jeu là, même (surtout) en grande dimension, il suffit de passer par la SVD de S, ce qui est quand même plutôt peinard.
(*) je n'ose même pas écrire le facteur de normalisation tellement il est pas beau
-
user790
- Messages: 6
- Enregistré le: 13 Juil 2009, 15:08
-
par user790 » 16 Juil 2009, 20:24
prody-G a écrit:Je pense aussi qu'il doit y avoir plein de contraintes sur les vecteurs
pour que M soit inversible.
Et bien en fait, si cette formule peut avoir une quelconque utilité, c'est justement de donner ces contraintes. Encore une fois, dès que le dénominateur est non nul, la matrice est inversible. Valable seulement en 2d pour le dénominateur ci-dessus...
-
ToToR_2000
- Membre Relatif
- Messages: 121
- Enregistré le: 26 Juin 2009, 18:33
-
par ToToR_2000 » 16 Juil 2009, 21:24
Avant de calculer un inverse, ne faut-il pas d'abord chercher à savoir s'il existe ?
-
zerroudi
- Membre Naturel
- Messages: 15
- Enregistré le: 10 Juil 2009, 15:20
-
par zerroudi » 17 Juil 2009, 10:47
1) EVD et SVD sont des méthodes à éviter car gourmandes en temps de calcul !
2) Essaye de diviser ta sommation de la façon suivante :
où :
et tu feras pareil pour calculer
et
.....
Utilisateurs parcourant ce forum : Aucun utilisateur enregistré et 46 invités