Systèmes linéaires

Plan du chapitre "Calculs algébriques"

Systèmes linéaires

Dans cette partie, {\mathbb{K}} désigne {\mathbb{R}} ou {\mathbb{C}}. Conformément au programme, on introduit ici la notation de système linéaire de {n} équations à {p} inconnues, à coefficients dans {\mathbb{K}}. Certaines notions théoriques ne sont abordées qu’au second semestre de la classe de Mpsi/Pcsi.

Système linéaire de n équations à p inconnues

Définition
On appelle système linéaire de {n} équations, à {p} inconnues et à coefficients dans {\mathbb{K}} tout système d’équations de la forme :
{{\text{(S)}\ }\begin{cases}a_{11}\,x_1+\cdots+a_{1j}\,x_j+\cdots+a_{1p}\,x_p=b_1&\cr a_{21}\,x_1+\cdots+a_{2j}\,x_j+\cdots+a_{2p}\,x_p=b_2&\cr\vdots\cr a_{i1}\,x_1\,+\cdots\,+a_{ij}\,x_j+\cdots+a_{ip}\,x_p=b_i&\cr\vdots a_{n1}\,x_1+\cdots+a_{nj}\,x_j+\cdots+a_{np}\,x_p=b_n\end{cases}}Les {a_{ij}} (éléments de {\mathbb{K}}) sont appelés les coefficients du système.
Les coefficients {b_1,\ldots,b_n} (éléments de {\mathbb{K}}) sont appelés les seconds membres.
On dit que l’élément {u=(x_1,x_2,\ldots,x_p)} de {\mathbb{K}^p} est le {p}-uplet des inconnues du système.
On dit que {u=(x_1,x_2,\ldots,x_p)} est une solution du système si les valeurs {x_1,x_2,\ldots,x_p} satisfont à chacune des égalités figurant dans (S).

Exemples et définitions complémentaires

  • Dans la pratique, on est amené à résoudre des systèmes à deux, trois, ou quatre inconnues.
    Celles-ci seront alors notées {x,y,z,t} par exemple, plutôt que {x_{1},x_{2},x_{3},x_{4}}.
  • Dans le cas {n=p}, on parle de système “carré” :
    Ainsi {(S)} {\begin{cases}2x+3y+5z=1\cr5x+2y+3z=4\cr3x+5y+2z=0\end{cases}} est un système carré de taille {3}, d’inconnues {x,y,z}.
    L’enseignement de “spécialité maths” de la classe de Terminale S comporte une approche matricielle des systèmes linéaires. Par exemple, le système {(S)} précédent s’écrit {AX=B}, avec : {A=\begin{pmatrix}2&3&5\\5&2&3\\3&5&2 \end{pmatrix},\;X=\begin{pmatrix}x\\y\\z \end{pmatrix},\;B=\begin{pmatrix}1\\4\\0\end{pmatrix}}Le point de vue matriciel est très fécond, et il sera développé plus tard dans l’année. On se contentera ici de quelques allusions au vocabulaire de la spécialité maths de la classe de TS.
  • Certains systèmes peuvent posséder plus d’équations que d’inconnues (donc {n>p} dans la définition ci-dessus : on dit qu’un tel système est “sur-déterminé”) ou au contraire moins d’équations que d’inconnues ({n\lt p} : système “sous-déterminé”).
    Par exemple {\begin{cases}2x+5y-8z=8\cr4x+3y-9z=9\cr2x+3y-5z=7\cr x+8y-7z=12\end{cases}} est sur-déterminé.
    En revanche, {\begin{cases}x+y+z+t+u=7\cr3x+2y+z+t-3u=-2\cr y+2z+2t+6u=23\cr5x+4y+3z+3t-u=12\end{cases}} est sous-déterminé.
  • Certains systèmes sont dits triangulaires (ou “en escaliers”, ou “en cascades”, ou “échelonnés”).
    Par exemple {\begin{cases}x-3y-z+t=5\cr 2y+z-3t=2\cr z+t=1\end{cases}} et {\left\{\begin{matrix}&&z=5\\&y&+z=1\\x&+y&+3z=1\end{matrix}\right.} sont échelonnés.
  • Dans certains cas, l’écriture d’un système linéaire {(S)} peut comporter un (ou plusieurs!) paramètre(s). Il faut alors résoudre en discutant suivant les valeurs du ou des paramètres.
    Par exemple : {\begin{cases}x+y-mz=m+2\cr mx-y+2z\;=1\cr x-my+z=m-1\end{cases}}, où le paramètre est {m}.
    Autre exemple, {\begin{cases}ax+by+z=1\cr x+aby+z=b\cr x+by+az=1\end{cases}} où les paramètres sont {a,b}.
    Dans la résolution d’un système à paramètre {m}, il est important de savoir si {m} est à valeurs réelles ou complexes, car les cas particuliers de la discussion ne sont alors pas forcément les mêmes.

Interprétation géométrique (deux ou trois variables)

Dans cette sous-section, les coefficients et variables sont supposés appartenir à {\mathbb{R}}.
On identifie ici {\mathbb{R}^{2}} (resp. {\mathbb{R}^{3}}) au plan (resp. à l’espace) muni d’un repère.

  • Si {(a,b)\ne(0,0)}, l’ensemble des {(x,y)} de {\mathbb{R}^{2}} tels que {ax+by=c} est une droite du plan.
  • Si {(a,b,c)\ne(0,0)}, l’ensemble des {(x,y,z)} de {\mathbb{R}^{3}} tels que {ax+by+cz=d} est un plan de l’espace.

Résoudre {\begin{cases}ax+by=c\\a'x+b'y=c'\\\cdots\end{cases}} c’est donc chercher les points communs (éventuels) à des droites du plan.

Et résoudre {\begin{cases}ax+by+cz=d\\a'x+b'y+c'z=d'\\\cdots\end{cases}} c’est chercher les points communs (éventuels) à des plans de l’espace.

Intersection de deux droites du plan

On pose {\begin{vmatrix}\alpha& \gamma\cr \beta&\delta\end{vmatrix}=\alpha\delta-\beta\gamma} (“déterminant {2\times 2}“). On note que {\begin{vmatrix}\alpha& \gamma\cr \beta&\delta\end{vmatrix}=\begin{vmatrix}\alpha& \beta\cr \gamma&\delta\end{vmatrix}}.

Les deux vecteurs {(\alpha,\beta)} et {(\gamma,\delta)} sont proportionnels si et seulement si ce déterminant est nul.

On considère la droite {\mathcal{D}} d’équation {ax+by=c}, et la droite {\mathcal{D}'} d’équation {a'x+b'y=c'}.
Un vecteur directeur de {\mathcal{D}} est {u=(b,-a)}, et un vecteur directeur de {\mathcal{D}} est {u'=(b',-a')}.
Un vecteur orthogonal à {\mathcal{D}} est {v=(a,b)}, et un vecteur orthogonal à {\mathcal{D}'} est {v'=(a',b')}.

Soit {(S):\begin{cases}ax+by=c\\ a'x+b'y=c'\end{cases}} le système précisant {\mathcal{D}\cap\mathcal{D}'}.

D’après le cours de TS, le système {(S)} s’écrit {AX=B}, avec :{A=\begin{pmatrix}a&b\\a'&b' \end{pmatrix}\;X=\begin{pmatrix}x\\y\end{pmatrix}\;B=\begin{pmatrix}c\\ c'\end{pmatrix}}
On dit que {A} est la matrice du système {(S)}, et que {B} est la colonne des seconds membres.
On note {\begin{vmatrix}a& b\cr a'&b'\end{vmatrix}=ab'-ba'} le déterminant de {(S)} (ou le déterminant de la matrice {A}).

Proposition
Les conditions suivantes sont équivalentes :

  • Les droites {(\mathcal{D}):ax+by=c} et {(\mathcal{D}'):a'x+b'y=c'} ne sont pas parallèles.
  • Les vecteurs {u=(b,-a)} et {u'=(b',-a')} ne sont pas proportionnels.
  • Les vecteurs {v=(a,b)} et {v'=(a',b')} ne sont pas proportionnels.
  • Le déterminant {\begin{vmatrix}a& b\cr a'&b'\end{vmatrix}=ab'-ba'} n’est pas nul.
  • La matrice {A=\begin{pmatrix}a& b\cr a'&b'\end{pmatrix}} est inversible.

Si les deux droites {\mathcal{D}} et {\mathcal{D}'} ne sont pas parallèles, elles ont un unique point en commun.

Proposition
On suppose que le déterminant {\Delta=\begin{vmatrix}a& b\cr a'&b'\end{vmatrix}=ab'-ba'} est non nul.
Le système {(S):\begin{cases}ax+by=c\\ a'x+b'y=c'\end{cases}} possède alors une solution unique {(x,y)}.
Elle est donnée par les “formules de Cramer” :{\begin{array}{rl}x=\dfrac{\Delta_{x}}{\Delta}\;\text{et}\;y=\dfrac{\Delta_{y}}{\Delta}\\\\\text{où}\;\Delta_{x}=\begin{vmatrix}c& b\cr c'&b'\end{vmatrix}\;\text{et}\;\Delta_{y}=\begin{vmatrix}a& c\cr a'&c'\end{vmatrix}\end{array}}
Si {A=\begin{pmatrix}a&b\\a'&b' \end{pmatrix}} est inversible, sa matrice inverse est {A^{-1}=\dfrac{1}{\Delta}\begin{pmatrix}b'&-b\\-a'&a \end{pmatrix}}.
Dans ce cas, on a les équivalences : {\begin{array}{l}AX=B\Leftrightarrow X=A^{-1}B\\\\\quad\Leftrightarrow\begin{pmatrix}x\\y\end{pmatrix}=\dfrac{1}{\Delta}\begin{pmatrix}b'&-b\\-a'&a \end{pmatrix}\begin{pmatrix}c\\ c'\end{pmatrix}\\\\\qquad=\dfrac{1}{\Delta}\begin{pmatrix}cb'-c'b\\ac'-a'c \end{pmatrix}\end{array}}On retrouve ainsi les formules de Cramer.

Cas où les droites {\mathcal{D}} et {\mathcal{D}'} sont parallèles

On suppose que {\mathcal{D}:ax+by=c} et {\mathcal{D}':a'x+b'y=c'} sont parallèles.
Autrement dit, on suppose qu’il existe {\lambda} dans {\mathbb{R}} tel que {(a',b')=\lambda(a,b)}.

Les droites {\mathcal{D},\mathcal{D}'} sont alors confondues et si seulement si {(a',b',c')=\lambda(a,b,c)}.
Dans ce cas {(S):\begin{cases}ax+by=c\\ a'x+b'y=c'\end{cases}} se réduit à la seule équation {ax+by=c} de {\mathcal{D}}.

Si {\mathcal{D},\mathcal{D}'} sont parallèles non confondues, alors {(S):\begin{cases}ax+by=c\\ a'x+b'y=c'\end{cases}} n’a pas de solution.

Système homogène associé

Définition
Un système linéaire est dit homogène si ses seconds membres {b_i} sont nuls.
À un système linéaire {(S)} on associe donc un système homogène (H) en annulant les seconds membres.
Par exemple,
{(H):\begin{cases}2x+7y+3z+4t=0\cr x+3y+5z-2t=0\cr x+5y-9z+8t=0\cr5x+3y+4z+5t=0\end{cases}}
est homogène associé à {(S):\begin{cases}2x+7y+3z+4t=5\cr x+3y+5z-2t=3\cr x+5y-9z+8t=1\cr 5x+3y+4z+5t=2\end{cases}}

Structure de la solution générale d’un système homogène

Un système homogène a toujours au moins la solution nulle {(0,\ldots,0)} dite solution triviale.

Si {u=(x_{1},x_{2},\ldots,x_{p})} et {v=(x'_{1},x'_{2},\ldots,x'_{p})} sont deux solutions du système homogène {(H)}, alors tout {p}-uplet {\begin{array}{rl}w&=\lambda u+\mu v\\\\&=(\lambda x_{1}+\mu x'_{1},\lambda x_{2}+\mu x'_{2},\ldots,\lambda x_{p}+\mu x'_{p})\end{array}}est encore solution de {(H)}.

On exprime cela en disant que la solution générale de {(H)} est “stable par combinaisons linéaires”.

Avec les notations de TS, le système homogène {(H)} s’écrit {AX=0} (où {0} est ici une matrice colonne de coefficients tous nuls). La règle de calcul {A(\lambda X+\mu X')=\lambda AX+\mu AX'} confirme que si les colonnes {X,X'} sont solutions de {(H)}, il en est de même de leurs combinaisons linéaires {\lambda X+\mu X'}.

Si la solution générale de {(H)} n’est pas réduite à {0}, on montre qu’elle s’écrit comme l’ensemble des combinaisons linéaires {w=\lambda_{1} u_{1}+\lambda_{2} u_{2}+\cdots+\lambda_{r}u_{r}} d’un certain nombre {r} de solutions non nulles indépendantes (ces détails seront précisés ultérieurement). On dit alors que {u_{1},u_{2},\ldots,u_{r}} constituent une base de l’espace des solutions de {(H)}.

Structure de la solution générale d’un système linéaire quelconque

Le résultat suivant donne la structure de l’ensemble des solutions d’un système linéaire quelconque.

Proposition
Soit {(S)} un système linéaire, et soit {(H)} le système homogène associé. La solution générale de {(S)}, si elle est non vide, s’obtient en ajoutant à la solution générale de {(H)} une solution particulière de {(S)}.
La proposition précédente se démontre facilement avec les notations de TS.

En effet, soit {X_{0}} une colonne solution particulière du système {(S)}.
Dans ces conditions, la colonne {X} est solution de {(S)} si et seulement si {AX=B} c’est-à-dire {AX=AX_{0}}, ou encore {A(X-X_{0})=0}, c’est-à-dire si et seulement si {X-X_{0}} est une solution {Z} de {(H)}.

La solution générale de {(S)} s’écrit donc {X=X_{0}+Z}, où {Z} est une solution quelconque de {(H)}.
Attention! L’ensemble des solutions de {(S)} peut être vide.
C’est le cas par exemple de {\begin{cases}x+2y=0\\ x+2y=1\end{cases}}

Le résultat précédent indique donc que la solution générale de {(S)}, si elle est non vide, est réduite à une seule solution (quand {(H)} n’a que la solution nulle) ou alors qu’elle est infinie.

  • Par exemple, le système {(S):\begin{cases}x-y=0\\ x+y=2\end{cases}} possède l’unique solution {(x,y)=(1,1)}.
  • En revanche, considérons {(S):\begin{cases}x-y=1\\ 2y+z=1\end{cases}}

    L’ensemble des solutions de {(S)} est formé des triplets {(1+\lambda,\lambda,1-2\lambda)}.
    On l’obtient en ajoutant à la solution particulière {(1,0,1)} la solution générale {\lambda(1,1,-2)} de {(H)}.

Systèmes de Cramer triangulaires

Un système de Cramer triangulaire est un système linéaire à {n} équations et {n} inconnues, qui se présente sous forme triangulaire (supérieurement ou inférieurement), avec des coefficients diagonaux non nuls.

{\vartriangleright} Systèmes de Cramer triangulaires supérieurs

Dans ce cas, (S) s’écrit : {\left\{\begin{array}{rl}a_{11}\,x_1+a_{12}\,x_2+\cdots+a_{1n}\,x_n&=b_1\\a_{22}\,x_2+\cdots+a_{2n}\,x_n&=b_2\\\vdots&=\vdots\\a_{n-1,n-1}\,x_{n-1}+a_{n-1,n}\,x_n&=b_{n-1}\\a_{nn}\,x_n&=b_n\end{array}\right.}On trouve d’abord {x_n=\dfrac{b_n}{a_{nn}}}, puis {x_{n-1}=\dfrac1{a_{n-1,n-1}}\,\Bigl(b_{n-1}-a_{n-1,n}\,x_n\Bigr)}

Et une fois connus {x_n,x_{n-1},\ldots,x_{i+1}}, on trouve : {x_i=\dfrac1{a_{ii}}\,\Bigl(b_i-a_{i,i+1}\,x_{i+1}-\cdots-a_{in}\,x_n\Bigr)}

{\vartriangleright} Systèmes de Cramer triangulaires inférieurs

Le système (S) s’écrit ici : {\left\{\begin{array}{ll}a_{11}\,x_1&=b_1\\a_{21}\,x_1+a_{22}\,x_2&=b_2\\\vdots&=\vdots\\a_{n1}\,x_1+a_{n2}\,x_2+\cdots+a_{nn}\,x_n&=b_n\end{array}\right.}

Ici, on trouve d’abord {x_1=\dfrac{b_1}{a_{11}}}, puis {x_2=\dfrac1{a_{22}}\,\Bigl(b_2-a_{21}\,x_1\Bigr)}.

Et une fois connus {x_1,x_2,\ldots,x_{i-1}}, on trouve : {x_i=\dfrac1{a_{ii}}\,\Bigl(b_i-a_{i1}\,x_{1}-\cdots-a_{i,i-1}\,x_{i-1}\Bigr)}

{\vartriangleright} Systèmes de Cramer diagonaux

La matrice du système étant diagonale, on obtient immédiatement : {\forall\, i\in\{1,\ldots,n\},\;x_i=\dfrac{b_i}{a_{ii}}}.

Opérations élémentaires sur les lignes d’un système

Définition
Soit (S) un système linéaire de {n} équations, à {p} inconnues et à coefficients dans {\mathbb{K}}.
Notons {\text{E}_1,\text{E}_2,\ldots,\text{E}_n} les équations successives de (S).
On appelle opération élémentaire sur les lignes de (S) l’une des opérations suivantes :

  • Multiplier une équation {\text{E}_i} par un scalaire non nul {\alpha}. On note : {\text{E}_i\leftarrow\alpha\text{E}_i}.
  • Ajouter à l’une des équations {\text{E}_i} un multiple d’une autre équation {\text{E}_j}.
    Cette opération est notée : {\text{E}_i\leftarrow \text{E}_i+\beta \text{E}_j}.
  • Échanger deux équations {\text{E}_i} et {\text{E}_j}. On note : {\text{E}_i\leftrightarrow \text{E}_j}.

Proposition
Une opération élémentaire sur les lignes de (S) transforme le système (S) en un système ({\Sigma}) équivalent, c’est-à-dire ayant exactement les mêmes solutions que (S).
On peut enrichir la panoplie des opérations élémentaires avec les opérations suivantes :

  • Remplacer l’équation {\text{E}_i} par {\alpha\text{E}_i+\beta \text{E}_j}, avec {\alpha\ne0} et {j\ne i}.
    Il s’agit en fait de la composée des deux opérations {\text{E}_i\leftarrow\alpha\text{E}_i} puis {\text{E}_i\leftarrow \text{E}_i+\beta \text{E}_j}.
  • Ajouter à l’équation {\text{E}_i} une combinaison linéaire des autres équations du système.
    Une telle opération peut s’écrire {\text{E}_i\leftarrow\text{E}_i+\displaystyle\sum_{j\ne i}\beta_j{\text{E}_j}}.
  • On peut supprimer de (S) toute équation {\text{E}_i} qui est combinaison linéaire des autres.
    En effet si {\text{E}_i=\displaystyle\sum_{j\ne i}\beta_j\text{E}_j}, l’opération {\text{E}_i\leftarrow\text{E}_i-\displaystyle\sum_{j\ne i}\beta_j\text{E}_j} remplace {\text{E}_i} par l’équation {0=0}, qui peut bien sûr être éliminée du système (S).
  • Même si c’est moins fréquent, on peut adjoindre au système (S) une nouvelle équation obtenue par combinaison linéaire des équations initiales. On peut interpréter cette modification de (S) en disant qu’on adjoint à (S) la nouvelle équation {0=0} (on ne modifie pas l’ensemble des solutions) puis qu’on ajoute à celle-ci une combinaison linéaire des équations initiales.

Page précédente : sommes doubles et interversions
Page suivante : méthode du pivot de Gauss