Bonjour camarades,
Voici une question d'un exercice qui me pose problème. Merci à ceux qui prendront le temps de m'expliquer.
Soit L : E0 → E1 et K : E1 → E2 des applications linéaires entre des espaces vectoriels de dimension finie.
On définit H : ker(K ◦ L) → E2 par H(v) = L(v) pour tout v ∈ ker(K ◦ L).
a. Montrer que ker(L) = ker(H).
b. Montrer que im(H) ⊆ ker(K).
c. En déduire que dim (ker(K ◦ L)) ≤ dim(ker(L)) + dim(ker(K)).
a)
ker(L) ⊆ ker(H)
Soit v∈ ker(L) => L(v)=0 => K(L(v))= 0 => v∈ ker(K ◦ L) => v ∈ ker(H)
ker(H) ⊆ ker(L)
Soit v ∈ ker(H) => v∈ ker(K ◦ L) => K(L(v))=0 => L(v)∈ker(K)
Par hypothèse, comme H(v)=L(v), on a: H(v)∈ker(K)
Honnêtement je suis perdu.... Pouvez vous m'éclaircir?
Merci beaucoup!
