Inversibilité de matrices carrées

Exercice 1.
Soit {H} un hyperplan de {{\mathcal M}_n(\mathbb{K})}.
Montrer que {H} contient au moins une matrice inversible.
Indications : interpréter {H} comme le noyau d’une forme linéaire non nulle {\varphi}, et utiliser les matrices {E_{ij}} de la base canonique de {{\mathcal M}_n(\mathbb{K})}.
Cliquer ici pour voir (ou cacher) le corrigé
Si on suit les indications de l’énoncé, on comprend qu’il va falloir construire une matrice inversible {M} telle que {\varphi(M)=0}, la matrice {M} étant construite à l’aide de matrices {E_{ij}}.

Pour tout couple {(i,j)} avec {i\ne j}, et pour tout scalaire {\alpha}, la matrice {A=\text{I}_n+\alpha E_{ij}} est inversible (car elle est triangulaire et ses coefficients diagonaux valent {1}).

Avec ces notations, on a {\varphi(A)=\varphi(\text{I}_n)+\alpha\varphi(E_{ij})}.

Supposons {\varphi(E_{ij})\ne0}. Avec {\alpha=-\displaystyle\frac{\varphi(\text{I}_n)}{\varphi(E_{ij})}}, on a alors {\varphi(A)=0}.

Il reste à traiter le cas où {\varphi(E_{i,j})=0} pour tous {i\ne j}.

Soit{A=E_{1n}+E_{21}+E_{32}+\cdots+E_{n,n-1}}. On a {\varphi(A)=0}.

Mais A est inversible (obtenue à partir de {\text{I}_n} par permutation circulaire des lignes).

Dans tous les cas, il existe {A} inversible telle {\varphi(A)=0}.

L’hyperplan {H=\text{Ker}\varphi} contient donc au moins une matrice inversible.

Exercice 2.
Soit {A\in\mathcal{M}_n(\mathbb{K})}, de terme général {a_{ij}}.
On dit que {A} est à diagonale strictement dominante si : {\forall j\in[[1,n]],\;|a_{jj}|>\displaystyle\sum_{i\ne j}|a_{ij}|}Montrer que dans ce cas la matrice {A} est inversible (théorème de Hadamard).
Cliquer ici pour voir (ou cacher) le corrigé
La matrice {A} est inversible si le seul {X\in\mathbb{K}^n} tel {AX=0} est {X=0}.

Notons {X=(x_1,\ldots,x_j,\ldots,x_n)}, et soit {x_i} une composante de module maximum.

Si {AX=0} alors la composante d’indice {i} de {AX} est nulle.

Ainsi : {0=\displaystyle\sum_{j=1}^na_{ij}x_j=a_{ii}{x_i}+\displaystyle\sum_{j\ne i}^na_{ij}{x_j}}, donc : {\left|a_{ii}{x_i}\right|=\Bigl|\displaystyle\sum_{j\ne i}^na_{ij}{x_j}\Bigr|\le\displaystyle\sum_{j\ne i}^n\left|a_{ij}{x_j}\right|\le\left|{x_i}\right|\displaystyle\sum_{j\ne i}^n\left|{a_{ij}}\right|}Il en découle : {\left|{x_i}\right|\Bigl(\left|{a_{ii}}\right|-\displaystyle\sum_{j\ne i}^n\left|{a_{ij}}\right|\Bigr)\le0}.
Mais {\left|{a_{ii}}\right|-\displaystyle\sum_{j\ne i}^n\left|{a_{ij}}\right|>0}. On en déduit {\left|{x_i}\right|=0}.

Or {x_i} est une composante de module maximum dans {X}. On a donc {X=0}.

Conclusion : la matrice {A} est inversible.

Exercice 3.
Soit {n} un entier strictement positif. Soit {A} une matrice de {{\mathcal M}_n(\mathbb{K})}.

  1. Montrer que {M} commute avec toutes les matrices de {{\mathcal M}_n(\mathbb{K})} si et seulement si {M} est de la forme {\lambda\text{I}_n}, où {\lambda} est un scalaire quelconque.
  2. Montrer que {M} commute avec toutes les matrices inversibles de {{\mathcal M}_n(\mathbb{K})} si et seulement si {M} est de la forme {\lambda\text{I}_n}, où {\lambda} est un scalaire quelconque.

Cliquer ici pour voir (ou cacher) le corrigé

  1. Si {M=\lambda\text{I}_n} alors {M} commute avec toutes les matrices de {{\mathcal M}_n(\mathbb{K})}.

    Réciproquement, si {M=(m_{ij})} commute avec toutes les matrices de {{\mathcal M}_n(\mathbb{K})} alors {M} commute avec toutes les matrices {E_{rs}}.

    Rappelons que le coefficient d’indice {(i,j)} de {E_{rs}} est {\delta_{ir}\delta_{js}}.

    Fixons deux couples {(r,s)} et {(i,j)} dans [[1,n]]^2 :

    • Le coefficient d’indice {(i,j)} de {ME_{rs}} est {\displaystyle\sum_{k=1}^nm_{ik}\delta_{kr}\delta_{js}=m_{ir}\delta_{js}}.
    • Le coefficient d’indice {(i,j)} de {E_{rs}M} est {\displaystyle\sum_{k=1}^n\delta_{ir}\delta_{ks}m_{kj}=\delta_{ir}m_{sj}}.

    Pour tous couples {(r,s)} et {(i,j)} on a donc : {m_{ir}\delta_{js}=\delta_{ir}m_{sj}}.

    • Avec {r=i} et {s=j}, on trouve {m_{ii}=m_{jj}} pour tous {i,j}.
      Les coefficients diagonaux de {M} sont donc tous égaux.
    • Avec {j\ne i} et {r=s=j}, on trouve : {m_{ij}=\delta_{ij}m_{jj}=0}.
      Tous les coefficients non diagonaux de {M} sont donc nuls.

    Ainsi {M} est de la forme {\lambda\text{I}_n}, ce qu’il fallait démontrer.

  2. Bien sûr {M=\lambda\text{I}_n} commute avec toutes les matrices inversibles.

    Réciproquement soit {M} qui commute avec toutes les matrices inversibles de {{\mathcal M}_n(\mathbb{K})}.

    Pour tout couple {(i,j)} la matrice {\text{I}_n+E_{ij}} est inversible (elle est diagonale si {i=j} et triangulaire si {i\ne j}, et dans tous les cas ses coefficients diagonaux sont non nuls).

    Ainsi {M(\text{I}_n+E_{ij})=(\text{I}_n+E_{ij})M}, donc {ME_{ij}=E_{ij}\,M}.

    La matrice {M} commute donc avec toutes les matrices de {E_{ij}}.

    Elle commute donc avec toutes les combinaisons linéaires des {E_{ij}} c’est-à-dire avec toutes les matrices de {{\mathcal M}_n(\mathbb{K})}. D’après (1), cela implique que {M} est de la forme {\lambda\text{I}_n}.

Exercice 4.
Soit {{\mathcal D}} l’ensemble des {A=(a_{ij})} de {\mathcal{M}_ n(\mathbb{R})} qui vérifient : {\forall(i,j),\;a_{ij}\ge 0,\quad\forall i,\;\displaystyle\sum_{j=1}^n a_{ij}=1}

  1. Montrer que {{\mathcal D}} est stable pour le produit des matrices.
  2. Déterminer les matrices inversible {A} de {{\mathcal D}}, telles que {A^{-1} \in {\mathcal D}}.

Cliquer ici pour voir (ou cacher) le corrigé
Dire qu’une matrice {A} est dans {{\mathcal D}}, c’est dire que tous ses coefficients sont positifs ou nuls et que la somme des coefficients de chacune de ses lignes vaut {1}.

En particulier, tous les coefficients de {A} sont inférieurs ou égaux à {1}.

Soient {A=(a_{ij})} et {B=(b_{ij})} ddans {{\mathcal D}}. Soit {C=AB=(c_{ij})}.

  1. Pour tous indices {i,j}, on a : {c_{ij}=\displaystyle\sum_{k=1}^n\,a_{ik}\,b_{kj}\ge0}.

    D’autre part, pour tout indice de ligne {i} : {\begin{array}{rl}\displaystyle\sum_{j=1}^nc_{ij}&=\displaystyle\sum_{j=1}^n\Bigl(\displaystyle\sum_{k=1}^n\,a_{ik}\,b_{kj}\Bigr)=\displaystyle\sum_{k=1}^n\Bigl(\displaystyle\sum_{j=1}^n\,a_{ik}\,b_{kj}\Bigr)\\\\&=\displaystyle\sum_{k=1}^n\,a_{ik}\Bigl(\displaystyle\sum_{j=1}^n\,b_{kj}\Bigr)=\displaystyle\sum_{k=1}^n\,a_{ik}=1\end{array}}L’ensemble {{\mathcal D}} est donc stable pour le produit des matrices.

  2. Supposons que {C=AB} soit égale à la matrice identité {\text{I}_n}.

    Pour tous indices distincts {i} et {k} : {0=c_{ik}=\displaystyle\sum_{j=1}^n\,\underbrace{a_{ij}\,b_{jk}}_{\ge0}\Rightarrow\forall j,\,a_{ij}=0\text{\ ou\ }b_{jk}=0}On choisit un coefficient {a_{ij}} non nul dans {A}.

    Le calcul précédent montre alors que pour tout {k\ne i}, on a {b_{jk}=0}.

    Donc tous les coefficients de la {j}-ème ligne de {B} sont nuls sauf {b_{ji}} qui vaut nécessairement {1} (car la somme des coefficients de chaque ligne de {B} vaut {1}).

    En inversant les rôles de {A} et {B}, le fait que {b_{ji}} soit non nul implique que tous les coefficients de la {i}-ème ligne de {A} sont nuls sauf {a_{ij}} qui vaut nécessairement {1}.

    Ainsi chaque ligne de {A} ne porte qu’un seul coefficient non nul, et ce coefficient vaut {1}.

    Appelons {\sigma(i)} le numéro de colonne où il se trouve.

    L’application {\sigma} est nécessairement surjective sinon l’une au moins des colonnes de {A} serait nulle et {A} ne serait pas inversible.

    Donc {\sigma} est une bijection de {\{1,\ldots,n\}} et on peut écrire, pour tous {i,j}: {a_{ij}=\delta_{\sigma(i)j}}.

    On dit que {A} est la matrice de la permutation {\sigma} et on note {A=P_\sigma}.

    Le calcul précédent montre que le seul coefficient non nul dans la ligne {j=\sigma(i)} de {B} est situé dans la colonne {i}, c’est-à-dire dans la colonne {j=\sigma^{-1}(i)}. Ainsi {B=P_{\sigma^{-1}}}.

    Réciproquement {A=P_\sigma} et {B=P_{\sigma^{-1}}} sont dans {{\mathcal D}} et sont inverses l’une de l’autre.

    En effet : {\forall i,j,\; c_{ij}=\displaystyle\sum_{k=1}^n\,a_{ik}\,b_{kj}=a_{i\sigma(i)}b_{\sigma(i)j}=b_{\sigma(i)j}}

    Donc c_{i,j} vaut {1} si { j=\sigma^{-1}\bigl(\sigma(i)\bigr)=i} sinon.

    En conclusion, les matrices de {{\mathcal D}} qui sont inversibles et qui ont leur inverse dans {{\mathcal D}} sont les matrices de permutation {A=P_\sigma} et on a alors {A^{-1}=P_{\sigma^{-1}}}.

    Exemple : si {n=3} et {\sigma(1)=2,\;\sigma(2)=3,\;\sigma(3)=1}, on a :
    {A=P_\sigma=\begin{pmatrix}0&1&0\cr0&0&1\cr1&0&0\end{pmatrix},\quad A^{-1}=P_{\sigma^{-1}}=\begin{pmatrix}0&0&1\cr1&0&0\cr0&1&0\end{pmatrix}}