Changements de bases

Plan du chapitre "Matrices et applications linéaires"

Matrice de passage d’une base à une autre

Proposition (inversibilité de la matrice d'une famille de vecteurs)
Soit {E} un espace vectoriel sur {\mathbb{K}}, de dimension {n\ge1}, muni d’une base {e}.
Soit {v=(v_{j})_{1\le j\le n}} une famille de {n} vecteurs de {E} (autant donc que la dimension de {E}).
Soit {A} la matrice de la famille {v} dans la base {e}. C’est un élément de {\mathcal{M}_n(\mathbb{K})}.
Alors la famille {v} est une base de {E} si et seulement si la matrice {A} est inversible.
Définition (matrice de passage d'une base à une autre)
Soit {E} un espace vectoriel sur {\mathbb{K}}, de dimension {n\ge1}.
On suppose que {E} est muni de deux bases {e=(e_{i})_{1\le i\le n}} et {\varepsilon=(\varepsilon_{j})_{1\le j\le n}}.
La matrice de la famille {\varepsilon} dans la base {e} est appelée matrice de passage de {e} à {\varepsilon}.
Cette matrice est notée {P_e^\varepsilon}. D’après ce qui précède, elle est inversible.

Deux interprétations d’une matrice de passage

Avec les notations précédentes, la matrice de passage de {e} à {\varepsilon} est à la fois :

  • la matrice de l’identité, de {E} muni de {\varepsilon} vers {E} muni de {e} : {P_e^\varepsilon=\text{Mat}_{\varepsilon,e}(\text{Id}_E)}.
  • la matrice dans {e} de l’automorphisme {f} de {E} défini par : {\forall j\in\{1,\ldots,n\},\;f(e_j)=\varepsilon_j}.

Opérations entre matrices de passage

  • l’inverse de la matrice de passage {P_e^\varepsilon} de {e} à {\varepsilon} est la matrice de passage {P_\varepsilon^e} de {\varepsilon} à {e}.
  • si {\alpha}, {\beta} et {\gamma} sont trois bases de {E}, alors on a la relation : {P_\alpha^\gamma=P_\alpha^\beta\,P_\beta^\gamma}.

Effet d’un changement de base(s)

Proposition (changement de base pour les coordonnées d'un vecteur)
Soit {E} un espace vectoriel sur {\mathbb{K}}, de dimension {n\ge1}, muni de deux bases {e} et {\varepsilon}.
Soit {P} la matrice de passage de {e} à {\varepsilon}. Pour tout {u} de {E} : {[u]_e=P\,[u]_{\varepsilon}}

On retiendra le paradoxe : la matrice de passage de l’ancienne base à la nouvelle
donne les anciennes coordonnées en fonction des nouvelles.

Proposition (changement de base pour la matrice d'une application linéaire)
Soit {E} et {F} deux espaces vectoriels sur {\mathbb{K}}, de dimensions respectives {p\ge1} et {n\ge1}.
On suppose que {E} est muni d’une ancienne base {e} et d’une nouvelle base {e'}.
De même soit {\varepsilon} l’ancienne base de {F}, et soit {\varepsilon'} la nouvelle base de {F}.
Soit {P} la matrice de passage de {e} à {e'}. Soit {Q} la matrice de passage de {\varepsilon} à {\varepsilon'}.
Soit {f} une application linéaire de {E} dans {F}.
Soit {A} la matrice de {f} dans les bases {e} et {\varepsilon} (ancienne matrice de {f}).
Soit {B} la matrice de {f} dans les bases {e'} et {\varepsilon'} (nouvelle matrice de {f}).
Alors on a l’égalité : {B=Q^{-1}\,A\,P}.

Cas particulier important

Soit {E} un espace vectoriel sur {\mathbb{K}}, de dimension {n\ge1}.
Soit {e} l’ancienne base de {E} et {e'} la nouvelle base de {E}.
Soit {f} un endomorphisme de {E}, de matrice {A} dans la base {e}, et de matrice {B} dans la base {e'}.
Soit {P} la matrice de passage de {e} à {e'}. Alors on a l’égalité : {B=P^{-1}\,A\,P}.

Matrices équivalentes et matrices semblables

Définition (matrices équivalentes)
Soit {A} et {B} deux matrices de {\mathcal{M}_{n,p}(\mathbb{K})}. On dit que {A} et {B} sont équivalentes s’il existe {G} dans {\text{GL}_{p}(\mathbb{K})} et {D} dans {\text{GL}_{n}(\mathbb{K})}, telles que {B=GAD}.

Remarques

On pourra noter {A\sim B} pour dire “{A} est équivalente à {B}“.
On définit ainsi une relation {\ldots} d’équivalence dans {\mathcal{M}_{np}(\mathbb{K})} :

  • réflexivité : toute matrice {A} est équivalente à elle-même (écrire {A=I_{n}AI_{p}}).
  • symétrie : si {A\sim B}, alors {B\sim A}. En effet {B=GAD\Rightarrow A=G^{-1}BD^{-1}}.
  • transitivité : si {\begin{cases}A\sim B\\ B\sim C\end{cases}} alors {A\sim C}. En effet {\begin{cases}B=GAD\\ C=G'BD'\end{cases}\Rightarrow C=(G'G)A(DD')}.

Caractérisation de l’équivalence des matrices

  • Soit {E} et {F} deux espaces vectoriels sur {\mathbb{K}}, de dimensions respectives {p\ge1} et {n\ge1}.
    Soit {f} une application linéaire de {E} dans {F}.
    Soit {A} la matrice de {f} dans un certain couple de bases ({e} dans {E} et {\varepsilon} dans {F}).
    Soit {B} la matrice de {f} dans un autre couple de bases ({e'} dans {E} et {\varepsilon'} dans {F}).
    On sait que {B=Q^{-1}AP}{P} et {Q} sont les deux matrices de passages.
    Les matrices {A} et {B} sont donc équivalentes dans {\mathcal{M}_{n,p}(\mathbb{K})}.
  • Réciproquement, soit {A} et {B} deux matrices équivalentes dans {\mathcal{M}_{n,p}(\mathbb{K})}.
    Soit {E} et {F} deux espaces vectoriels sur {\mathbb{K}}, de dimensions respectives {p\ge1} et {n\ge1}.
    On se donne un couple de bases, {e} dans {E} et {\varepsilon} dans {F}.
    On sait que dans ce couple de bases, {A} représente une unique {f\in\mathcal{L}(E,F)}.
    Alors il existe un couple de bases, {e'} dans {E} et {\varepsilon'} dans {F}, tel que {B=\text{Mat}_{e',\varepsilon'}(f)}.
  • On peut résumer de la façon suivante :
    Proposition (une caractérisation de l'équivalence des matrices)
    Deux matrices {A} et {B} sont équivalentes dans {\mathcal{M}_{n,p}(\mathbb{K})} si et seulement si elles sont susceptibles
    de représenter une même application linéaire {f} (chacune dans un certain couple de bases).

Réduction de la matrice de {f} à une forme {J_{r}}

Définition (matrices Jr)
On se place dans l’espace vectoriel {\mathcal{M}_{n,p}(\mathbb{K})}, avec {n\ge1} et {p\ge1}.
Soit {r} un entier vérifiant {0\le r\le\min(n,p)}.
On note {J_r\in\mathcal{M}_{n,p}(\mathbb{K})}, de coefficients {\begin{cases}a_{i,i}=1\text{\ pour\ }1\le i\le r\cr a_{i,j}=0\text{\ dans tous les autres cas}\end{cases}}

Par exemple, dans {{\mathcal M}_{4,5}(\mathbb{K})} : {J_2=\begin{pmatrix}1&0&0&0&0\cr0&1&0&0&0\cr0&0&0&0&0\cr0&0&0&0&0\end{pmatrix}\;\text{et}\;J_3=\begin{pmatrix}1&0&0&0&0\cr0&1&0&0&0\cr0&0&1&0&0\cr0&0&0&0&0\end{pmatrix}}
On devrait noter {J_{r}(n,p)}, mais en général les valeurs de {n} et {p} sont connues sans ambiguïté.
La matrice {J_{0}} est la matrice nulle de {\mathcal{M}_{n,p}(\mathbb{K})}.
Si {n=p}, la matrice {J_{n}} est la matrice identité {I_{n}}.

Voici une fonction Python pour former les matrices {J_{r}}. Les arguments sont les entiers {r}, {n} et {p} (ces deux derniers étant facultatifs avec la valeur {5} par défaut) :

>>> def J(r, n=5, p=5):
return np.array([[i==j< r for j in range(p)] for i in range(n)]).astype(int)

Voici deux exemples d’utilisation de la fonction J:

>>> J(3)  # ici r=3, et n=p=5 par défaut
array([[1, 0, 0, 0, 0],
[0, 1, 0, 0, 0],
[0, 0, 1, 0, 0],
[0, 0, 0, 0, 0],
[0, 0, 0, 0, 0]])
>>> J(2,4,6) # ici r=2, n=4, p=6
array([[1, 0, 0, 0, 0, 0],
[0, 1, 0, 0, 0, 0],
[0, 0, 0, 0, 0, 0],
[0, 0, 0, 0, 0, 0]])

Proposition (réduction de la matrice de f à une forme Jr)
Soient {E} et {F} deux espaces vectoriels sur {\mathbb{K}}, de dimension finie non nulle.
Soit {f} une application linéaire de {E} dans {F}, de rang {r}.
Alors il existe une base {e} de {E} et une base {\varepsilon} de {F} telles que {\text{Mat}_{e,\varepsilon}(f)=J_{r}}.

Attention!

Soit {E} un espace vectoriel de dimension finie non nulle.
Soit {f} un endomorphisme de {E}, de rang {r}.
La proposition précédente ne dit pas qu’il existe une base {e} de {E} dans laquelle {\text{Mat}_{e}(f)=J_{r}}.
Donc même si {f} est un endomorphisme d’un espace vectoriel {E}, la proposition précédente énonce l’existence de deux bases, une base {e} “au départ” et une base {\varepsilon} “à l’arrivée”.

Matrices semblables

Définition (matrices semblables)
Soit {A} et {B} deux matrices de {\mathcal{M}_{n}(\mathbb{K})}.
On dit que {A} et {B} sont semblables s’il existe {P} dans {\text{GL}_{n}(\mathbb{K})} telle que {B=P^{-1}AP}.

Remarques

Cette notion ne concerne que les matrices carrées.
Deux matrices semblables sont équivalentes, mais la réciproque est fausse.
La seule matrice semblable à la matrice nulle de {\mathcal{M}_{n}(\mathbb{K})} est la matrice nulle.
Pour tout scalaire {\lambda}, la seule matrice semblable à {\lambda I_{n}} est la matrice {\lambda I_{n}}.

Caractérisation de la similitude des matrices

  • Soit {E} un espace vectoriel sur {\mathbb{K}}, de dimension {n\ge1}. Soit {f} un endomorphisme de {E}.
    Soit {A} (resp. {B}) la matrice de {f} dans une base {e} (resp {e'} de {E}.
    On sait que {B=P^{-1}AP}{P} est la matrice de passage de {e} à {e'}.
    Les matrices {A} et {B} sont donc semblables dans {\mathcal{M}_{n}(\mathbb{K})}.
  • Réciproquement, soit {A} et {B} deux matrices semblables dans {\mathcal{M}_{n}(\mathbb{K})}.
    Soit {E} un espace vectoriel sur {\mathbb{K}}, de dimension {n}, muni d’une base {e}.
    On sait que, dans {e}, la matrice {A} représente un unique endomorphisme {f} de {E}.
    Dans ces conditions, si {e'} est la base de {E} définie par {P=P_{e,e'}}, on a {B=\text{Mat}_{e'}(f)} .
  • On peut résumer de la façon suivante :
    Proposition (une caractérisation de la similitude des matrices)
    Deux matrices {A,B} de {\mathcal{M}_{n}(\mathbb{K})} sont semblables si et seulement si elles sont susceptibles
    de représenter un même endomorphisme {f} d’un espace vectoriel {E} de dimension {n}
    (chacune dans une certaine base).

Puissances de matrices semblables

Si {B=P^{-1}AP}, alors pour tout entier naturel {n} on a : {B^n=P^{-1}A^nP}.
Cette relation s’étend aux exposants négatifs si {A} (et donc {B}) est inversible.
On peut donc calculer {B^n} si {A^n} est plus facile à obtenir, notamment si {A} est diagonale.

Page précédente : matrice d’une application linéaire
Page suivante : trace d’une matrice, d’un endomorphisme