Familles de matrices

Exercice 1.
Soient {a,b} deux réels, et {E} l’ensemble des {M(\lambda,\mu)=\begin{pmatrix}\lambda&\mu\\-\mu b&\lambda+\mu a\end{pmatrix}}, ({\lambda,\mu\in\mathbb{R}}).
Montrer que {E} est une sous-algèbre commutative de {\mathcal{M}_{2}(\mathbb{R})}.
À quelle condition sur {a,b} est-ce un corps?
Cliquer ici pour voir (ou cacher) le corrigé
On constate que {M(\lambda,\mu)=\lambda I+\mu J}, avec {J=\begin{pmatrix}0&1\\ -b&a\end{pmatrix}}.

Ainsi {E} est le sous-espace de {{\mathcal M}_2(\mathbb{R})} engendré par {I} et {J}.

Puisque {I} et {J} sont libres, {E} est un plan vectoriel.

Pour montrer que {E} est une sous-algèbre de {{\mathcal M}_2(\mathbb{R})}, il reste à vérifier que {E} contient la matrice identité (évident car {I=M(1,0)}) et que {E} est stable pour le produit des matrices.

On a : {J^2=\begin{pmatrix}0&1\\ -b&a\end{pmatrix}\begin{pmatrix}0&1\\ -b&a\end{pmatrix}=\begin{pmatrix}-b&a\\ -ab&a^2-b\end{pmatrix}=-bI+aJ}.

Il en découle que pour tous réels {\lambda,\mu,\lambda',\mu'} : {\begin{array}{rl}M(\lambda,\mu)M(\lambda',\mu')&=(\lambda I+\mu J)(\lambda' I+\mu' J)\\\\&=(\lambda\lambda'-b\mu\mu')I+(\lambda\mu'+\mu\lambda'+a\mu\mu')J\end{array}}Ainsi {M(\lambda,\mu)M(\lambda',\mu')=M(\lambda',\mu')M(\lambda,\mu)} est dans {E}.

Donc {E} est une sous-algèbre commutative de {{\mathcal M}_2(\mathbb{R})}.

Ensuite {E} est un corps si toute matrice non nulle de {E} a un inverse dans {E}.

Mais {M(\lambda,\mu)} a un inverse {M(\lambda',\mu')} dans {E} si et seulement si : {\begin{array}{l}M(\lambda,\mu)M(\lambda',\mu')=I=M(1,0)\\\\\Leftrightarrow\begin{cases}\lambda\lambda'-b\mu\mu'=1\\\mu\lambda'+(\lambda+a\mu)\mu'=0\end{cases}\end{array}}C’est un système dont le déterminant est : {\Delta(\lambda,\mu)=\left|\begin{matrix}\lambda&-b\mu\\ \mu&\lambda+a\mu\end{matrix}\right|=\lambda^2+a\lambda\mu+b\mu^2}Ainsi {E} est un corps si et seulement si on a la condition : {\Delta(\lambda,\mu)=0\Leftrightarrow \lambda=\mu=0}On constate qu’on peut écrire : {\Delta(\lambda,\mu)=\bigl(\lambda+\dfrac{a\mu}2\bigr)^2+\bigl(b-\dfrac{a^2}4\bigr)\mu^2}Ainsi l’équivalence {\Bigl(\Delta(\lambda,\mu)=0\Leftrightarrow \lambda=\mu=0\Bigr)} équivaut à {b>\dfrac{a^2}4}.

Conclusion : {E} est un corps si et seulement si {b>\dfrac{a^2}4}.

Exercice 2.
On considère l’ensemble : {E=\left\{M(a,b,c)=\begin{pmatrix}a&b&c\cr3c&a-3c&b\cr3b&-3b+3c&a-3c\end{pmatrix},\;(a,b,c)\in\mathbb{R}^3\right\}}Montrer que {E} est une sous-algèbre commutative de {\mathcal{M}_{3}(\mathbb{R})}.
En donner la dimension et une base.
Cliquer ici pour voir (ou cacher) le corrigé
On constate que {M(1,0,0)=I} (matrice identité).

Posons {J=M(0,1,0)=\begin{pmatrix}0&1&0\\ 0&0&1\\3&-3&0\end{pmatrix}} et {K=M(0,0,1)=\begin{pmatrix}0&0&1\\ 3&-3&0\\0&3&-3\end{pmatrix}}.

Avec ces notations, {M(a,b,c)=aI+bJ+cK}, pour tous réels {a,b,c}.

Ainsi {E} est le sous-espace de {{\mathcal M}_3(\mathbb{R})} engendré par {I,J,K}.

Les matrices {I,J,K} sont libres.

En effet, {aI+bJ+cK=0\Rightarrow M(a,b,c)=0\Rightarrow a=b=c=0}.

Ainsi {E} est un sous-espace de dimension {3} de {{\mathcal M}_3(\mathbb{R})}.

On sait que {I\in E}. Il reste à prouver que {E} est stable pour le produit.

On constate que {JK=KJ=\begin{pmatrix}3&-3&0\\0&3&-3\\ -9&9&3\end{pmatrix}=3(I-J)}.

D’autre part {J^2=\begin{pmatrix}0&0&1\\3&-3&0\\0&3&-3\end{pmatrix}=K}.

Enfin {K^2=\begin{pmatrix}0&3&-3\\ -9&9&3\\ 9&-18&9\end{pmatrix}=3(J-K)}. On en déduit :{\begin{array}{l}M(a,b,c)M(a',b',c')=(aI+bJ+cK)(a'I+b'J+c'K)\\\\\quad=(aa'+3bc'+3cb')I+(ab'+ba'-3bc'-3cb'+3cc')J\\\\\qquad+(ac'+ca'+bb'-3cc')K\\\\\quad=M(a',b',c')M(a,b,c)\end{array}}Conclusion : {E} est une sous-algèbre commutative de dimension {3} de {{\mathcal M}_3(\mathbb{R})}.

Exercice 3.
Pour tout réel {t}, on pose {A(t)=\begin{pmatrix}1+t^2/2&-t^2/2&t\\t^2/2&1-t^2/2&t\\t&-t&1\end{pmatrix}}

  1. Calculer {A(s)A(t)}, puis {(A(t)-I)^3}.
  2. Trouver {(\alpha_n),(\beta_n),(\gamma_n)} telles que : {\forall\, n\in\mathbb{N},\;A(t)^n=\alpha_n\,A(t)^2+\beta_n\,A(t)+\gamma_n\,I}

Cliquer ici pour voir (ou cacher) le corrigé
Pour tout {t} de {\mathbb{R}}, on a {A(t)=I+tJ+\dfrac{t^2}2K}, avec : {J=\begin{pmatrix}0&0&1\\ 0&0&1\\ 1&-1&0\end{pmatrix}\text{\ et\ }K=\begin{pmatrix}1&-1&0\\ 1&-1&0\\ 0&0&0\end{pmatrix}}

  1. On observe que {J^2=K}, {K^2=0} et {JK=KJ=0}.

    Pour tout réels {s,t}, on en déduit : {\begin{array}{rl}A(t)A(s)&=\Bigl(I+tJ+\dfrac{t^2}2K\Bigr)\Bigl(I+sJ+\dfrac{s^2}2K\Bigr)\\\\&=I+(t+s)J+\Bigl(\dfrac{s^2}2+\dfrac{t^2}2+st\Bigr)K\\\\&I+(t+s)J+\dfrac{(t+s)^2}2K=A(t+s)\end{array}}

    On a : {\bigl(A(t)-I\bigr)^2=\Bigl(tJ+\dfrac{t^2}2K\Bigr)^2=t^2K}.

    On en déduit : {\bigl(A(t)-I\bigr)^3=t^2\Bigl(tJ+\dfrac{t^2}2K\Bigr)K=0}.

  2. On a {A(t)=I+B(t)} avec {B(t)=A(t)-I}. On sait que {B(t)^3=0}.

    On en déduit, en utilisant la formule du binôme : {\begin{array}{rl}A(t)^n&=I+nB(t)+\dfrac{n(n-1)}2B(t)^2\\\\&=I+n\bigl(A(t)-I\bigr)+\dfrac{n(n-1)}2\bigl(A(t)^2-2A(t)+I\bigr)\\\\&=\dfrac{n(n-1)}2A(t)^2-n(n-2)A(t)+\dfrac{(n-1)(n-2)}2I\end{array}}On a ainsi obtenu, pour tout {n} de {\mathbb{N}} : {\begin{array}{l}A(t)^n=\alpha_nA(t)^2+\beta_nA(t)+\gamma_nI\\\\\text{avec :\ }\alpha_n=\dfrac{n(n-1)}2,\ \beta_n=-n(n-2),\ \gamma_n=\dfrac{(n-1)(n-2)}2\end{array}}Par acquis de conscience, on voit que le résultat est correct si {n\in\{0,1,2\}}.