Image, noyau, rang (3/3)

Exercice 1.
Soient {E,F} deux espaces vectoriels de dimensions respectives {n,p}.
Soit {f\in\mathcal{L}(E,F)}, de rang {r}. Soit {{\mathcal G}=\{g\in{\mathcal L}(F,E),f\circ g\circ f=0\}}.
Montrer que {{\mathcal G}} est un sous-espace vectoriel de {{\mathcal L}(F,E)} et en donner la dimension.
Cliquer ici pour voir (ou cacher) le corrigé
On a {{\mathcal G}\ne\emptyset} car {g=0} convient.

Soient {g_1,g_2} dans {{\mathcal L}(F,E)}, et {(\alpha_1,\alpha_2)\in\mathbb{K}^2}. On a : {\begin{array}{rl}f\circ(\alpha_1g_1+\alpha_2g_2)\circ f&=f\circ(\alpha_1g_1\circ f+\alpha_2g_2\circ f)\\\\&=\alpha_1f\circ g_1\circ f+\alpha_2f\circ g_2\circ f=0\end{array}}Ainsi {g=\alpha_1g_1+\alpha_2g_2\in{\mathcal G}}, qui est donc un sous-espace de {{\mathcal L}(F,E)}.

Soient {F'} un supplémentaire de {\text{Im} f} dans {F}.

Soit {E'} un supplémentaire de {\text{Ker} f} dans {E}.

On munit {F} d’une base {(\varepsilon)\cup(\varepsilon')} adaptée à la somme directe {F=\text{Im} f\oplus F'}.

Ici {(\varepsilon)} est une base de {\text{Im} f}, donc formée de {r} vecteurs.

On munit {E} d’une base {(e)\cup(e')} adaptée à la somme directe {E=\text{Ker} f\oplus E'}.

Ici, {(e)} est une base de {\text{Ker} f}, donc formée de {n-r} vecteurs.

Soit {g\in{\mathcal L}(F,E)}, de matrice {A} dans les bases {(\varepsilon)\cup(\varepsilon')} et {(e)\cup(e')}.

Dire que {g\in{\mathcal G}}, c’est dire que {\text{Im}(g\circ f)\subset\text{Ker} f}.

Cela équivaut à dire {g(\text{Im} f)\subset\text{Ker} f}.

Cela signifie que {A=\begin{pmatrix}B&C\cr 0&D\end{pmatrix}}, où {B} est de taille {(r,n-r)}, le bloc nul étant carré d’ordre {r}.

Dans cette notation, {B} est la matrice dans les bases {(\varepsilon)} et {(e)} de la restriction de {g} à {\text{Im} f} (cette restriction étant un morphisme quelconque de {\text{Im} f} dans {\text{Ker} f}).\smallskip

On sait que l’application qui à un morphisme associe sa matrice dans une couple de bases donné est un isomorphisme. On en déduit que la dimension de {{\mathcal G}} est égal à la dimension de l’espace vectoriel des matrices {A} de la forme précédente, c’est-à-dire {np-r^2}.

Remarque : le résultat est correct même dans les “cas-limites”, par exemple quand {r=0} (c’est-à-dire {f=0}) car alors on ne peut parler d’une base {(\varepsilon)} de {\text{Im} f}. En effet dans ce cas, {{\mathcal G}={\mathcal L}(F,E)} tout entier et on a {\dim{\mathcal G}=np}.

Exercice 2.
Soient {A} et {B} deux matrices de {{\mathcal M}_n(\mathbb{K})}.
On suppose que {AB=0} est nulle et que {A+B} est inversible.
Montrer que {\text{rg}\,A+\text{rg}\,B=n}.
Cliquer ici pour voir (ou cacher) le corrigé
Soient {f,g} dans {\mathcal{M}(\mathbb{K}^n)} de matrices {A,B} dans la base canonique.

L’hypothèse {AB=0} devient {f\circ g=0} et elle signifie que {\text{Im} g\subset\text{Ker} f}.

Cela implique {\text{rg} g\le\dim\text{Ker} f}, c’est-à-dire {\text{rg}\, g\le n-\text{rg}\, f}.

On a donc déjà démontré l’inégalité {\text{rg}\, f+\text{rg}\, g\le n}.

L’autre hypothèse dit que {f+g} est un automorphisme de {\mathbb{K}^n}.

Cela équivaut à dire que {\text{Im}(f+g)=\mathbb{K}^n}.

Or on a toujours {\text{Im}(f+g)\subset\text{Im} f+\text{Im} g}. En effet tout {y=(f+g)(x)\in\text{Im}(f+g)} s’écrit comme la somme de {f(x)\in\text{Im} f} et de {g(x)\in\text{Im} g}.

On en déduit ici {\text{Im} f+\text{Im} g=\mathbb{K}^n}. Par conséquent :{n=\dim(\text{Im} f+\text{Im} g)=\text{rg}(f)+\text{rg}(g)-\dim(\text{Im}\,f\cap\text{Im} \,g)}Il en résulte l’inégalité {\text{rg}(f)+\text{rg}(g)\ge n}.

On a donc démontré l’égalité {\text{rg}\, f+\text{rg}\, g=n}.

Exercice 3.

  1. Soit {X} une matrice-colonne à coefficients réels.
    Montrer que {{X}^{\top}X=0\Leftrightarrow X=0}.
  2. Soit {A\in\mathcal{M}_n(\mathbb{R})}. Montrer que {\text{rg}(A)=\text{rg}\bigl({A}^{\top} A\bigr)=\text{rg}\bigl(A{A}^{\top}\bigr)}.
  3. Montrer que cela cesse d’être vrai dans {A\in\mathcal{M}_n(\mathbb{C})}.

Cliquer ici pour voir (ou cacher) le corrigé

  1. Soient {x_1,x_2,\ldots,x_n} les coefficients successifs de {X}.

    On a {{X}^{\top}X=x_1^2+x_2^2+\cdots+x_n^2}.

    Ainsi {{X}^{\top} X=0} si et seulement si les coefficients {x_i} sont nuls.

    Autrement dit : {{X}^{\top} X=0} si et seulement si {X=0}.

  2. Soit {f\in\mathcal{L}(\mathbb{R}^n)} de matrice {A} dans la base canonique.

    De même, soit {g} de matrice {B={A}^{\top}A}.

    On note {X} la matrice colonne des coordonnées d’un vecteur {x\in\mathbb{R}^n}.

    Soit {x\in\text{Ker} f}. On a {f(x)=0}, c’est-à-dire {AX=0}.

    Ainsi {{A}^{\top}AX=0}, donc {x\in\text{Ker}\,g}, donc {\text{Ker} f\subset \text{Ker} g}.

    Réciproquement, soit {x} un vecteur de {\text{Ker} g}.

    On a {g(x)=0}, c’est-à-dire {{A}^{\top}AX=0}.

    Mais cela implique {{X}^{\top}{A}^{\top}AX=0}, c’est-à-dire {{(AX)}^{\top}AX=0}.

    En utilisant (a), on en déduit {AX=0}, ce qui prouve que {x\in\text{Ker} f}.

    Ainsi {\text{Ker} g=\text{Ker} f}, donc {f} et {g} ont le même rang
    (on rappelle que {n=\text{rg} f+\dim \text{Ker} f=\text{rg} g+\dim\text{Ker} g}).

    Mais l’égalité {\text{rg} f=\text{rg} g} s’écrit {\text{rg}{A}^{\top}A=\text{rg} A}.

    Enfin, en appliquant ce qui précède à {{A}^{\top}}, on trouve {\text{rg} A{A}^{\top}=\text{rg} {A}^{\top}=\text{rg} A}.

    Conclusion: {\forall A\in{\mathcal M}_n(\mathbb{K})}, {\text{rg} A{A}^{\top}=\text{rg} {A}^{\top}A=\text{rg} A}.

  3. On va construire un contre-exemple {A} dans {{\mathcal M}_2(\mathbb{C})}. Si on veut que {B={A}^{\top}A} et {A} n’aient pas le même rang, il ne faut pas choisir {A} inversible (car alors {B} le serait).

    Il ne faut pas non plus choisir {A=0} car alors on aurait {B=0}.

    Posons par exemple {A=\begin{pmatrix}a&a\cr b&b\end{pmatrix}} (deux colonnes identiques).

    On a {{A}^{\top}A=\begin{pmatrix}a&b\cr a&b\end{pmatrix}\begin{pmatrix}a&a\cr b&b\end{pmatrix}=\begin{pmatrix}c&c\cr c&c\end{pmatrix}}{c=a^2+b^2}.

    Il suffit de choisir {a=1,b=i}.

    Ainsi {A=\begin{pmatrix}1&1\cr i&i\end{pmatrix}} est de rang {1} alors que {{A}^{\top}A} est de rang {0}.

    De même, par transposition, {A=\begin{pmatrix}1&i\cr 1&i\end{pmatrix}} est de rang {1} mais {A{A}^{\top}} est nulle.

Exercice 4.
Soit {n\in\mathbb{N}^*}. Pour {0\le r\le n}, soit {J_n\in\mathcal{M}_n(\mathbb{K})} dont le coefficient d’indice {(i,j)} est {1} si {i=j\le r} et {0} sinon. En particulier, {J_n(0)=0} et {J_n(n)=\text{I}_n}. Soit {A\in{\mathcal M}_n(\mathbb{K})}.

  1. Montrer que {\text{rg} A=r\Leftrightarrow\exists P,Q} inversibles telles que {Q^{-1}AP=J_r}.
  2. En déduire que {A} et {{A}^{\top}} ont le même rang.
  3. Montrer que {A} est la somme de deux matrices inversibles.

Cliquer ici pour voir (ou cacher) le corrigé

  1. Soit {A\in{\mathcal M}_n(\mathbb{K})}, de rang {r}.

    • Si {r=0}: {A=0=Q^{-1}AP=J_n(0)=0} ({P,Q} inversibles quelconques).
    • Si {r=n}: {A} est inversible, et {Q^{-1}AP=J_n(n)=\text{I}_n} avec {Q=A,P=\text{I}_n}.
    • On suppose donc {1\le r\le n-1}.
      Soit {f\in{\mathcal L}(\mathbb{K}^n)}, de matrice {A} dans la base canonique {(e)=e_1,e_2,\ldots,e_n}.

      Le rang de {f} vaut {r}. La dimension de son noyau vaut donc {n-r}.

      Soit {H} un supplémentaire de {\text{Ker} f} dans {\mathbb{K}^n}: {\dim H=r}.

      Soit {(\varepsilon)=\underbrace{\varepsilon_1,\ldots,\varepsilon_r}_{\text{base de\ }H},\,\underbrace{\varepsilon_{r+1},\ldots,\varepsilon_n}_{\text{base\ de\ }\text{Ker} f}} une base adaptée à {\mathbb{K}^n=H\oplus\text{Ker}f}.

      On sait que la restriction de {f} à {H} est un isomorphisme de {H} sur {\text{Im} f}.

      On en déduit que {\varepsilon'_1=f(\varepsilon_1),\ldots,\varepsilon'_r=f(\varepsilon_r)} forment une base de {\text{Im} f}.

      Complétons-la en une base {(\varepsilon')=\varepsilon'_1,\ldots,\varepsilon'_r,\varepsilon'_{r+1},\ldots,\varepsilon'_n} de {\mathbb{K}^n}.

      Par construction, la matrice de {f} dans {(\varepsilon)} et {(\varepsilon')} est {J_n(r)}.

      Autrement dit, si on note {P} la matrice de passage de {(e)} à {(\varepsilon)} et {Q} la matrice de passage de {(e)} à {(\varepsilon')}, on a l’égalité {Q^{-1}AP=J_n(r)}.

      Réciproquement, une égalité telle que {Q^{-1}AP=J_n(r)} (où {P} et {Q} sont deux matrices inversibles) prouve que {A} et {J_n(r)} sont susceptibles de représenter une même application linéaire {f}. Les deux matrices {A} et {J_n(r)} ont donc le même rang (celui de {f}), et il est clair que celui de {J_n(r)} est égal à {r}.

  2. Il existe {P,Q} inversibles telles que {Q^{-1}AP=J_n(r)} avec {r=\text{rg}(A)}.

    On en déduit par transpostion que {{P}^{\top}{A}^{\top}\bigl({Q}^{\top}\bigr)^{-1}={J}^{\top}_n(r)=J_n(r)}.

    En réutilisant la fin de (a), cela prouve que {\text{rg}\bigl({A}^{\top}\bigr)=r}.

  3. Reprenons l’égalité {Q^{-1}AP=J_n(r)}, qui s’écrit {A=QJ_n(r)P^{-1}}.

    On peut écrire {J_n(r)=K_n+L_n}, où {K_n=\text{I}_n+J_n(r)} et {L_n=-\text{I}_n}.

    {K_n} et {L_n} sont inversibles car diagonales avec des coefficients diagonaux non nuls.

    L’égalité {J_n(r)=K_n+L_n} donne :{A=QJ_n(r)P^{-1}=Q(K_n+L_n)P^{-1}=QK_nP^{-1}+QL_nP^{-1}}C’est bien l’écriture de {A} comme somme de deux matrices inversibles.

Exercice 5.
Soit {E} le sous-espace de {{\mathcal M}_n(\mathbb{K})} formé des matrices antisymétriques.
Soit {A} une matrice fixée dans {{\mathcal M}_n(\mathbb{K})}.

  1. Rappeler quelle est la dimension de {E} et en donner une base simple.
  2. On définit {f} sur {E} par {f(M)={A}^{\top}\,M+MA}.
    Montrer que {f\in\mathcal{L}(E)}. Calculer {\text{tr} f} en fonction de {\text{tr} A}.

Cliquer ici pour voir (ou cacher) le corrigé

  1. Soit {E_{ij}} les matrices de la base canonique de {{\mathcal M}_n(\mathbb{K})}.

    Soit {M=(m_{ij})} un élément de {{\mathcal M}_n(\mathbb{K})}. On a l’égalité :{\begin{array}{rl}M&=\displaystyle\sum_{i,j=1}^nm_{ij}E_{ij}\\\\&=\displaystyle\sum_{i=1}^nm_{ii}E_{ii}+\displaystyle\sum_{i\lt j}m_{ij}E_{ij}+\displaystyle\sum_{j\lt i}m_{ij}E_{ij}\end{array}}Dire que {M} est antisymétrique, c’est dire qu’on a toujours {m_{ji}=-m_{ij}}.

    Cela équivaut à {M=\displaystyle\sum_{i\lt j}m_{ij}\bigl(E_{ij}-E_{ji}\bigr)}.

    Les {\dfrac{n(n-1)}2} matrices {F_{ij}=E_{ij}-E_{ji}} avec {i\lt j} forment donc une base de {E}.

    La composante de {M} sur {F_{ij}} est égal à son coefficient d’indice {(i,j)}.

    Par exemple, si {n=3}, on obtient les matrices : {F_{12}=\begin{pmatrix}0&1&0\cr-1&0&0\cr0&0&0\end{pmatrix},\quad F_{13}=\begin{pmatrix}0&0&1\cr0&0&0\cr-1&0&0\end{pmatrix},\quad F_{23}=\begin{pmatrix}0&0&0\cr0&0&1\cr0&-1&0\end{pmatrix}}

  2. Pour toute {M\in E} la matrice {f(M)} est encore dans {{\mathcal M}_n(\mathbb{K})} et :
    {{(f(M))}^{\top}={A}^{\top}M^{\top}+MA)={M}^{\top\top}{A}^{\top}+{A}^{\top}\,{M}^{\top}=-MA-{A}^{\top}M=-f(M)}

    L’application {f} est donc bien à valeurs dans {E}.

    Enfin la linéarité de {f} est évidente : {f(\lambda M+\mu N)=\lambda f(M)+\mu f(N)}.

    Pour calculer {\text{Tr}(f)}, on évalue la composante {f_{ij}} de {f(F_{ij})} sur {F_{ij}} (les {f_{ij}} seraient les coefficients diagonaux de la matrice de {f} dans la base de {E} formée des matrices {F_{ij}}).

    On se donne donc un couple d’indices {(i,j)}, avec {i\lt j}.

    Notons {\bigl[B\bigr]_{rs}} le coefficient général de toute matrice {B}.

    La composante de {f(F_{ij})={A}^{\top}\,F_{ij}+F_{ij}\,A} sur {F_{ij}} est son coefficient d’indice {(i,j)}.

    Cette composante s’écrit : {\begin{array}{rl}\bigl[f(F_{ij})\bigr]_{ij}&=\displaystyle\sum_{k=1}^n\,\bigl[{A}^{\top}\bigr]_{ik}\bigl[F_{ij}\bigr]_{kj}+\displaystyle\sum_{k=1}^n\,\bigl[F_{ij}\bigr]_{ik}\bigl[A\bigr]_{kj}\\\\&=\bigl[{A}^{\top}\bigr]_{ii}+\bigl[A\bigr]_{jj}=a_{ii}+a_{jj}\end{array}}On en déduit {\text{tr} f=\displaystyle\sum_{i\lt j}\,\Bigl(\bigl[f(F_{ij})\bigr]_{ij}\Bigr)<br /> =\displaystyle\sum_{i\lt j}\,(a_{ii}+a_{jj})}.

    Par symétrie, cette somme {S} s’écrit aussi {T=\displaystyle\sum_{j\lt i}\,(a_{jj}+a_{ii})}.

    On obtient donc la valeur de la trace de l’endomorphisme {f} :
    {\begin{array}{rl}\text{tr} f&=\dfrac12(S+T)=\dfrac12\displaystyle\sum_{i\ne j}(a_{ii}+a_{jj})=\displaystyle\sum_{i\ne j}a_{ii}\\\\&=(n-1)\displaystyle\sum_{i=1}^na_{ii}=(n-1){A}^{\top}\end{array}}