Réduction d’une matrice en ᒧ

(Exercice d’oral Centrale Mp)
Soit {n\in\mathbb{N}}, avec n\ge 2. Soient {a_1,\cdots,a_n} dans {\mathbb{C}^{*}} et {\alpha \in \mathbb{C}}.

On pose {A=\begin{pmatrix} 0 & \cdots & \cdots & 0 & a_1 \\ \vdots & & & \vdots & a_2 \\ \vdots & & & \vdots & \vdots \\ 0 & \cdots & \cdots & 0 & a_n \\ a_1 & a_2& \cdots & a_n & \alpha \end{pmatrix}} et {\beta=a_1^2+\cdots+a_n^2}

  1. Montrer que {A^{3}=\alpha A^{2}+\beta A}.
  2. On pose {\Delta=\alpha^{2}+4\beta}.
    Montrer que {A} est diagonalisable si et seulement si {\beta \neq 0} et {\Delta \neq 0}.
    Si tel est le cas, à quelle matrice diagonale {A} est-elle semblable?
  3. À quelles conditions la suite des puissances de {A} converge-t-elle?
    Lorsque c’est le cas, quelle est la limite de cette suite ?

Cliquer ici pour voir (ou cacher) le corrigé

  1. On procède par blocs, et on identifie {a=(a_{1},\ldots,a_{n})} à une matrice-colonne.

    Ainsi {\beta ={a}^{\top}\,a} donc {A=\begin{pmatrix}0_n&a\\{a}^{\top}&\alpha\end{pmatrix}} et {A^{2}=\begin{pmatrix}a{a}^{\top}&\alpha a\\\alpha {a}^{\top}&\beta+\alpha^{2}\end{pmatrix}}.

    Enfin {A^{3}=\begin{pmatrix}\alpha a{a}^{\top}&(\beta+\alpha^{2})a\\(\beta+\alpha^{2}){a}^{\top}&2\alpha\beta+\alpha^{3}\end{pmatrix}}

    On constate que {A^{3}=\alpha A^{2}+\beta A}.

    Un polynôme annulateur est donc {P=X(X^{2}-\alpha X-\beta)}.

  2. Soit {\mu_{A}} le polynôme minimal de {A}. C’est un diviseur de {P}.

    On sait que ({A} diagonalisable sur {\mathbb{C}}) \iff ({\mu_A} est à racines simples).

    On note {\Delta=\alpha^{2}+4\beta} le discriminant de {X^2-\alpha X - \beta}.

    • Si {\beta \neq 0} et {\Delta \neq 0} alors {P} est à racines simples.

      Son diviseur {\mu_A} l’est donc aussi, et {A} est diagonalisable.

    • Si {\beta \neq 0} et {\Delta = 0} alors {P(X)=X(X-u)^2} avec {u=\dfrac 12 \alpha}.

      Si {(X-u)^2} ne divise pas {\mu_A} alors {\mu_A\in\{X,X-u,X(X-u)\}}.

      Dans tous les cas, on a {\mu_A} divise {X(X-u)}.

      Mais {A(A-u I)=A^2 - \frac 12 \alpha I}, dont la dernière colonne n’est pas nulle.

      Ainsi {(X-u)^2} divise {\mu_A} donc {A} n’est pas diagonalisable.

    • Si {\beta=0} et {\alpha=0} alors {P=X^3} mais {A^2 \neq 0} (diagonale non nulle).

      Ainsi {\mu_A=X^3} donc {A} n’est pas diagonalisable.

    • Si {\beta=0} et {\alpha \neq 0} alors {P=X^2(X-\alpha)}.

      Là encore, le polynôme minimal de {A} ne peut être {X,X^2,X-\alpha,X(X-\alpha)}.

      Donc {\mu_{A}=P} et {A} n’est pas diagonalisable.

    Conclusion : {A} est diagonalisable sur {\mathbb{C}} si et seulement si {\beta \neq 0} et {\Delta \neq 0}.

    Les {a_i} n’étant pas tous nuls, le rang de {A} est {2} donc la dimension du noyau est {n-1}.

    Ainsi, {0} est valeur propre de multiplicité {n-1}.

    Il en reste donc deux parmi les racines {u} et {v} (distinctes et non nulles) de {X^2-\alpha X + \beta}.

    Si {u} était valeur propre double, on aurait {\alpha=\text{tr}(A)=2u}, absurde car {\begin{cases}u+v=\alpha\\ u \neq v\end{cases}}

    Même chose pour {v} bien sûr. Ainsi {A} est semblable à {\text{diag}(0,\cdots,0,u,v)}.

  3. On reprend les notations de la question précédente.

    • Si {\beta \neq 0} et {\Delta \neq 0}, alors {A} est diagonalisable donc {(A^p)} converge ssi {(u^p)} et {(v^p)} convergent, c’est-à-dire si et seulement si ({|u|\lt 1} ou {u=1}) et ({|v|\lt 1} ou {v=1}).

      La convergence a alors lieu vers {\text{diag}(0,\cdots,0,\varepsilon_1,\varepsilon_2)} avec {\varepsilon_i=0} ou {1}.

    • Si {\beta=0}, on a {A^3=\alpha A^2} donc {A^p=\alpha^{p-2} A^2} pour {p \geq 2}.

      Comme {A\ne 0}, {(A^p)} converge si et seulement si {\alpha=1} ou {|\alpha|\lt 1}.

      La convergence a alors lieu vers {A^2} ou {0}.

    • Si {\Delta=0}, on a {P(X)=X(X-u)^2} avec {u=\dfrac 12 \alpha}.

      Par division euclidienne de {X^p} par {P(X)} on trouve : {\forall\, p \geq 1,\;A^p = (p-1) u^{p-2} A^2+ (2-p) u^{p-1} A}Ceci montre déjà que si {|u|\lt 1} alors {(A^p)} converge vers {0}.

      Réciproquement, si {(A^p)} converge, comme {A} est nulle sur sa diagonale (sauf le dernier) alors que {A^2} a sur sa diagonale au moins un coefficient non nul (les {a_i} ne sont pas tous nuls), la suite {(p-1)u^{p-2}} converge ce qui impose {|u|\lt 1}.

      Ainsi {(A^p)} converge {\ssi |\alpha|\lt 2} et la convergence a toujours lieu vers {0}