Espaces de dimension finie

Plan du chapitre "Espaces vectoriels"

Existence de bases en dimension finie

Définition (notion d'espace vectoriel de dimension finie)
Soit {E} un {\mathbb{K}}-espace vectoriel.
On dit que {E} est de dimension finie si {E} possède une famille génératrice finie.

Avec cette définition, l’espace réduit à {\{0\}} est de dimension finie.
Si un espace vectoriel n’est pas de dimension finie, il est dit… de dimension infinie.
C’est le cas de l’espace vectoriel {\mathbb{K}[X]} des polynômes à coefficients dans {\mathbb{K}}.
Remarque : à ce stade, on sait ce qu’est un espace vectoriel de dimension finie {E}, mais on ne sait pas encore ce qu’est (donc ce que vaut) la dimension de {E}.

Proposition (existence de bases dans un espace de dimension finie)
Soit {E} un espace vectoriel de dimension finie sur {\mathbb{K}}.
Soit {(u_{i})_{i\in I}} une famille génératrice finie de {E}.
Soit {J} une partie de {I} pour laquelle la famille {(u_{j})_{j\in J}} est libre.
Alors il existe une partie {K} telle que {J\subset K\subset I}
et pour laquelle {(u_{k})_{k\in K}} est une base de {E}.
Conséquence : dans tout espace vectoriel de dimension finie, il existe des bases.
Proposition (théorèmes de la base extraite et de la base incomplète)
Soit {E} un espace vectoriel de dimension finie sur {\mathbb{K}}.
Théorème “de la base extraite” : de toute famille génératrice de {E} on peut extraire une base.
Théorème “de la base incomplète” : toute famille libre de {E} peut être complétée en une base.

Dimension d’un espace de dimension finie

Proposition (une propriété essentielle pour la suite!)
Soit {E} un espace vectoriel de dimension finie sur {\mathbb{K}}.
On suppose que {E} est engendré par une famille {(u_{i})_{1\le i\le n}} de {n} vecteurs.
Alors toute famille d’au moins {n+1} vecteurs de {E} est une famille liée.
Proposition (dimension d'un espace vectoriel)
Soit {E} un espace vectoriel de dimension finie sur {\mathbb{K}}.
Toutes les bases de {E} sont finies et ont exactement le même nombre d’éléments.
Ce nombre est appelé la dimension de {E} et il est noté {\dim(E)}.

Avec cette définition, on a {\dim\{0\}=0}, car la seule base de l’espace {\{0\}} est la famille vide.

Proposition (condition suffisante pour qu'une famille forme une base)
Soit {E} un {\mathbb{K}}-espace vectoriel de dimension finie {n\ge1}.
Soit {(u)=u_1,u_2,\ldots,u_n} une famille de {n} éléments de {E} (donc autant que la dimension de {E}).
Si cette famille est génératrice, ou si elle est libre, alors c’est une base de {E}.

Une interprétation de la dimension

Soit {E} un {\mathbb{K}}-espace vectoriel, de dimension {n}.
Toute famille libre de {E} possède au plus {n} vecteurs (toute famille de plus de {n} vecteurs est liée).
Toute famille génératrice de {E} possède au moins {n} vecteurs.

La dimension {n} de l’espace vectoriel {E} est donc à la fois le nombre minimum d’éléments d’une famille génératrice, et le nombre maximum d’éléments d’une famille libre.

Droites vectorielles

On appelle droite vectorielle tout espace de dimension {1}, c’est-à-dire l’ensemble {E=\{\lambda u,\;\lambda\in\mathbb{K}\}} des multiples d’un certain vecteur non nul {u}.
En fait, tout vecteur {v} non nul de {E} en constitue une base, donc {E=\{\lambda v,\lambda\in\mathbb{K}\}}.

Plans vectoriels

On appelle plan vectoriel tout espace {E} de dimension {2}, donc l’ensemble {E=\{\lambda u+\mu v,\;(\lambda,\mu)\in\mathbb{K}^{2}\}} des combinaisons linéaires de deux vecteurs non colinéaires {u} et {v}.
Deux vecteurs {u'} et {v'} non proportionnels de {E} forment à leur tour une base de {E}.

Dépendance de la dimension par rapport au corps des scalaires

Si {E} est muni d’une structure d’espace vectoriel sur {\mathbb{C}}, on sait qu’on peut le munir d’une structure d’espace vectoriel sur {\mathbb{R}} (il suffit de restreindre l’ensemble des coefficients de {\mathbb{C}} à {\mathbb{R}}), mais que ces deux espaces vectoriels ne doivent pas être confondus.

Plus précisément, si {E} est un espace de dimension {n} sur {\mathbb{C}}, c’est un espace de dimension {2n} sur {\mathbb{R}}.

Par exemple, {\mathbb{C}} est une droite vectorielle sur {\mathbb{C}}, mais c’est un plan vectoriel sur {\mathbb{R}}.

Autre exemple :

  • Si on considère {E=\mathbb{C}^{2}} comme un espace vectoriel sur {\mathbb{C}}, il est de dimension {2}, et les vecteurs {e_{1}=(1,0)} et {e_{2}=(0,1)} en constituent la base canonique.
    En effet tout élément {z=(z_{1},z_{2})} de {E=\mathbb{C}^{2}} s’écrit de façon unique {z=z_{1}(1,0)+z_{2}(0,1)} (les coordonnées {z_{1}} et {z_{2}} sont des complexes).
  • Mais si on considère {E=\mathbb{C}^{2}} comme un espace sur {\mathbb{R}}, il est alors de dimension {4}, et une base est formée des vecteurs {\varepsilon_{1}=(1,0),\; \varepsilon_{2}=(i,0),\;\varepsilon_{3}=(0, 1),\;\varepsilon_{4}=(0,i)}.
    En effet tout élément {z=(z_{1},z_{2})} de {E=\mathbb{C}^{2}} s’écrit de façon unique : {z=(x_{1}+iy_{1},x_{2}+iy_{2})=x_{1}(1,0)+y_{1}(i,0)+x_{2}(0,1)+y_{2}(0,i)}
    (ici les coordonnées sont des réels).

Pour éviter toute ambiguïté, on peut noter {\dim_{\mathbb{K}}(E)} la dimension de {E} comme espace vectoriel sur {\mathbb{K}}.

Proposition (produit d'espaces vectoriels de dimension finie)
Soit {E} et {F} deux espaces vectoriels de dimension finie sur {\mathbb{K}}.
Alors {E\times F} est de dimension finie, et {\dim(E\times F)=\dim E+\dim F}.
Plus généralement : {\dim(E_1\times E_2\times\cdots\times E_m)=\displaystyle\sum_{i=1}^m\dim(E_i)}, et {\dim(E^m)=m\dim(E)}.

Rang d’une famille de vecteurs

Définition (rang d'une famille finie de vecteurs)
Soit {(u)=u_1,u_2,\ldots,u_p} une famille de {p} vecteurs d’un espace vectoriel {E} sur {\mathbb{K}}.
On appelle rang de la famille {(u)} la dimension du sous-espace de {E} engendré par cette famille.
Autrement dit : {\text{rg}(u_1,u_2,\ldots,u_p)=\dim(\text{Vect}\{u_1,u_2,\ldots,u_p\})}.

On a {\text{rg}(u_1,u_2,\ldots,u_p)\le p}, avec égalité si et seulement si la famille {(u)}est libre.

Si {\dim(E)=n}, alors {\text{rg}(u_1,u_2,\ldots,u_p)\le n}, avec égalité si et seulement si {(u)} engendre {E}.

Définition (opérations élémentaires sur les vecteurs d'une famille)
Soit {(u)=u_1,u_2,\ldots,u_p} une famille de {p} vecteurs d’un espace vectoriel {E}.
On appelle opération élémentaire sur les vecteurs de cette famille l’une des opérations suivantes :

  • multiplier un des vecteurs par un scalaire non nul.
  • ajouter à l’un des vecteurs un multiple d’un autre vecteur de la famille.
  • échanger deux vecteurs de la famille.

Proposition
Soit {(u')} la famille obtenue en appliquant une opération élémentaire à une famille de vecteurs {(u)}.
Alors les deux familles {(u)} et {(u')} ont le même rang.

On ne modifie donc pas le rang d’une famille de vecteurs en lui appliquant une succession d’opérations élémentaires. Il en est ainsi quand on ajoute à l’un des vecteurs une combinaison linéaire des autres vecteurs de la famille.

Un exemple de calcul de rang d’une famille de vecteurs

Dans {\mathbb{R}^4}, on se donne {a=(1,2,2,1)}, {b=(4,3,10,5)}, {c=(-1,-3,4,0)}, {d=(0,4,-3,-1)}.

Le système {\alpha a+\beta b+\gamma c+\delta d=0} équivaut à : {\begin{array}{l}\begin{cases}\alpha+4\beta-\gamma=0\cr 2\alpha+3\beta-3\gamma+4\delta=0\cr 2\alpha+10\beta+4\gamma-3\delta=0\cr \alpha+5\beta-\delta=0\end{cases}\Leftrightarrow\begin{cases}\alpha=-4\beta+\gamma\cr 5\beta+\gamma-4\delta=0\cr 2\beta+6\gamma-3\delta=0\cr \beta+\gamma-\delta=0\end{cases}\\\\\Leftrightarrow\begin{cases}\alpha=-4\beta+\gamma\cr \beta-3\gamma=0\cr \beta-3\gamma=0\cr\delta=\beta+\gamma\end{cases}\Leftrightarrow\begin{cases}\alpha=-11\gamma\cr \beta=3\gamma\cr\delta=4\gamma\end{cases}\end{array}}On constate que la famille {a,b,c,d} est liée (donc de rang inférieur ou égal à {3}).

Avec {\gamma=0}, c’est-à-dire si on résout {\alpha a+\beta b+\delta d=0}, on trouve {\alpha=\beta=\delta=0}.

La famille {a,b,d} est donc libre : c’est une base de {\text{Vect}(a,b,c,d)}. Ainsi {\text{rg}(a,b,c,d)=3}.

Exemples d’espaces vectoriels de dimension finie

{\vartriangleright} L’espace vectoriel {\mathbb{K}^{n}}

L’ensemble {\mathbb{K}^n} est un espace vectoriel de dimension {n}.

La “base canonique” de {\mathbb{K}^n} est la famille {(e_k)_{1\,\le\,k\,\le\,n}} où, pour tout {k\in\{1,\ldots,n\}} : {e_1=(1,0,\ldots,0),\;e_2=(0,1,0,\ldots,0),\;\ldots,\;e_n=(0,\ldots,0,1)}
Les coordonnées de {u=(x_1,\ldots,x_n)} dans cette base sont {x_1,\ldots,x_n}, car {u=\displaystyle\sum_{k=1}^nx_k\,e_k}.

{\vartriangleright} L’espace {\mathbb{K}_{n}[X]} des polynômes de degré inférieur ou égal à {n}

L’espace {\mathbb{K}_n[X]} des polynômes de degré inférieur ou égal à {n} est de dimension {n+1}.

La “base canonique” de {\mathbb{K}_n[X]} est : {1,X,X^2,\ldots,X^n}.
Les coordonnées de {A=\displaystyle\sum_{k=0}^{n}a_{k}X^{k}} dans cette base sont les coefficients {a_{0},a_{1},\ldots,a_{n}} de {A}.

Il est bien sûr possible de former de nombreuses bases de {\mathbb{K}_{n}[X]}.
Ainsi toute famille {P_{0},\ldots,P_{n}}, avec {\deg(P_{k})=k} (degrés échelonnés), est une base de {\mathbb{K}_{n}[X]}.

Autre idée : soit {a,b} deux éléments distincts de {\mathbb{K}}.
Les {n+1} polynômes {P_{k}=(X-a)^{k}(X-b)^{n-k}}, avec {0\le k\le n}, sont tous de degré {n}.
Alors ces {n+1} polynômes forment une base de {\mathbb{K}_{n}[X]} (il suffit de vérifier qu’ils forment une famille libre, ce qui est plus simple que de prouver qu’ils forment une famille génératrice).

{\vartriangleright} Solutions d’équations différentielles linéaires homogènes d’ordre 1

On rappelle ici un résultat établi dans le chapitre “Calcul intégral” :

Proposition (solution générale de (H))
Soit {I} un intervalle ouvert non vide. Soit {x\in I\mapsto a(x)} une fonction continue à valeurs dans {\mathbb{K}}.
On considère l’équation {(H):\ y'+a(x)y=0}, sur l’intervalle {I}.
Soit {A} une primitive particulière de {x\mapsto a(x)} sur {I}.
La solution générale de {(H)} sur {I} s’écrit {y(x)=\lambda\,\text{e}^{-A(x)}}, où {\lambda} est quelconque dans {\mathbb{K}}.

En d’autres termes l’ensemble des solutions {\mathcal{S}_{H}} est une droite vectorielle sur {\mathbb{K}}.

{\vartriangleright} Solutions d’équations différentielles linéaires homogènes d’ordre 2

On rappelle ici un résultat établi dans le chapitre “Calcul intégral” :

Proposition (solution générale de (H) dans le cas complexe)
Soit {a,b} dans {\mathbb{C}}, et soit {(H)} l’équation différentielle : {y''+ay'+by=0}.
Soit {\Delta=a^2-4b}, le discriminant de l’équation caractéristique {(C):\ r^2+ar+b=0}

  • Si {\Delta\ne0}, l’équation {(C)} possède deux solutions complexes distinctes {r} et {s}.
    La solution générale de {(H)} s’écrit alors : {y(x)=\lambda\,\text{e}^{rx}+\mu\,\text{e}^{sx}}, avec {\lambda} et {\mu} dans {\mathbb{C}}.
  • Si {\Delta=0}, l’équation {(C)} possède une solution double {r} dans {\mathbb{C}}.
    La solution générale de {(H)} s’écrit alors : {y(x)=(\lambda x+\mu)\,\text{e}^{rx}}, avec {\lambda} et {\mu} dans {\mathbb{C}}.

Proposition (solution générale de (H) dans le cas réel)
Soit {a,b} dans {\mathbb{R}}, et soit {(H)} l’équation différentielle : {y''+ay'+by=0}.
Soit {\Delta=a^2-4b}, le discriminant de l’équation caractéristique {(C):\ r^2+ar+b=0}

  • Si {\Delta>0}, l’équation {(C)} possède deux solutions réelles distinctes {r} et {s}.
    La solution générale de {(H)} s’écrit : {y(x)=\lambda\,\text{e}^{rx}+\mu\,\text{e}^{sx}}, avec {\lambda} et {\mu} dans {\mathbb{R}}.
  • Si {\Delta=0}, l’équation {(C)} possède une solution double {r} dans {\mathbb{R}}.
    La solution générale de {(H)} s’écrit : {y(x)=(\lambda x+\mu)\text{e}^{rx}}, avec {\lambda} et {\mu} dans {\mathbb{R}}.
  • Si {\Delta\lt 0}, l’équation {(C)} possède deux solutions complexes conjuguées distinctes {r} et {\bar r}.
    Posons {r=\alpha+i\beta}, avec {(\alpha,\beta)\in\mathbb{R}\times\mathbb{R}^*}.
    La solution générale de {(H)} est {y(x)=e^{\alpha x}(\lambda\cos(\beta x)+\mu\sin(\beta x))}, avec {\lambda} et {\mu} dans {\mathbb{R}}.

En d’autres termes, l’ensemble des solutions {\mathcal{S}_{H}} est toujours un plan vectoriel sur {\mathbb{K}}.

Par exemple, considérons l’équation différentielle {(E):\ y''-3y'+2y=0}.

L’équation caractéristique est {(C):\ r^{2}-3r+2=0}, de racines {r=1} et {r=2}.

La solution générale de {(H)} sur {\mathbb{R}} s’écrit : {y(x)=\lambda\,\text{e}^{x}+\mu\,\text{e}^{2x}}, avec {\lambda,\mu} dans {\mathbb{R}}.

C’est effectivement un plan vectoriel, dont une base est formée de {x\mapsto \text{e}^{x}} et {x\mapsto \text{e}^{2x}}.

{\vartriangleright} Suites satisfaisant à une relation de récurrence linéaire d’ordre {2}

On rappelle ici un résultat établi dans le chapitre “Suites numériques” :

Proposition (solution générale dans le cas complexe)
Soit {a,b,c} trois nombres complexes, avec {a\ne0} et {b\ne 0}.
Soit {\mathcal{S}_E} l’ensemble des suites de {\mathbb{C}} vérifiant {(E):\forall\, n\in\mathbb{N},\;au_{n+2}+bu_{n+1}+cu_{n}=0}.
Soit {\Delta=b^{2}-4ac} le discriminant de l’équation caractéristique {(C):\ at^{2}+bt+c=0}

  • Si {\Delta\ne0}, soit {r} et {s} les deux racines distinctes de l’équation caractéristique {(C)}.
    Alors {\mathcal{S}_E} est l’ensemble des suites {n\mapsto \lambda r^{n}+\mu s^{n}}, avec {\lambda,\mu} dans {\mathbb{C}}.
  • Si {\Delta=0}, soit {r} la racine double de l’équation caractéristique {(C)}.
    Alors {\mathcal{S}_E} est l’ensemble des suites {n\mapsto (\lambda n+\mu)r^{n}}, avec {\lambda,\mu} dans {\mathbb{C}}.

Proposition (solution générale dans le cas réel)
Soit {a,b,c} trois nombres réels, avec {a\ne0} et {b\ne 0}.
Soit {\mathcal{S}_E} l’ensemble des suites de {\mathbb{R}} vérifiant {(E):\forall\, n\in\mathbb{N},\;au_{n+2}+bu_{n+1}+cu_{n}=0}.
Soit {\Delta=b^{2}-4ac} le discriminant de l’équation caractéristique {(C):\ at^{2}+bt+c=0}

  • Si {\Delta>0}, soit {r} et {s} les deux racines réelles distinctes de l’équation caractéristique {(C)}.
    Alors {\mathcal{S}_E} est l’ensemble des suites {n\mapsto \lambda r^{n}+\mu s^{n}}, avec {\lambda,\mu} dans {\mathbb{R}}.
  • Si {\Delta=0}, soit {r} la racine réelle double de l’équation caractéristique {(C)}.
    Alors {\mathcal{S}_E} est l’ensemble des suites {n\mapsto (\lambda n+\mu) r^{n}}, avec {\lambda,\mu} dans {\mathbb{R}}.
  • Si {\Delta\lt 0}, soit {r=\rho\text{e}^{i\,\theta}} et {\overline{r}=\rho\text{e}^{-i\,\theta}} les racines conjuguées de {(C)}, avec {\,\theta\ne0\ [\pi]}.
    Alors {\mathcal{S}_E} est l’ensemble des suites {n\mapsto (\lambda \cos(n\,\theta)+\mu\sin(n\,\theta)) \rho^{n}}, avec {\lambda,\mu} dans {\mathbb{R}}.

Autrement dit, l’ensemble des suites solutions de la récurrence est toujours un plan vectoriel sur {\mathbb{K}}.

Par exemple, les suites arithmétiques, caractérisées par {u_{n+2}-2u_{n+1}+u_{n}=0}, sont les suites {n\mapsto u_{n}=a+bn}, avec {a,b} dans {\mathbb{K}}. Elles forment un plan, dont une base est {n\mapsto 1} et {n\mapsto n}.

Pour les suites “de Fibonacci” ({u_{n+2}=u_{n+1}+u_{n}}) l’équation caractéristique est {t^{2}-t-1=0}.
Elle possède les racines distinctes : {\Phi=\dfrac{1+\sqrt{5}}{2}} (le “nombre d’or”) et {\Psi=\dfrac{1-\sqrt{5}}{2}=-\dfrac{1}{\Phi}}.
L’ensemble des solutions est le plan des suites {n\mapsto u_{n}=\lambda \Phi^{n}+\mu\Psi^{n}}.

Page précédente : somme de sous-espaces vectoriels
Page suivante : sous-espaces et dimension