Matrices symétriques, produits scalaires

Exercice 1.
Soit {A}, symétrique réelle d’ordre {n}.
Pour toutes matrices-colonne {X,Y} on pose {\varphi(X,Y)={X}^{\top}AY}.

  1. Exprimer {\varphi(X,Y)} en fonction des composantes de {X} et de {Y} dans une base orthonormée de vecteurs propres de {A}, et en fonction des valeurs propres de {A}.
  2. Montrer que l’application {(X,Y)\mapsto\varphi(X,Y)} définit un produit scalaire si et seulement si toutes les valeurs propres de {A} sont strictement positives.

Cliquer ici pour voir (ou cacher) le corrigé

  1. Soit {(U_{i})_{i\le i\le n}} une base orthonormée de vecteurs propres de {A}, pour les {(\lambda_{i})_{i\le i\le n}}.

    Soient {x_1,\ldots,x_n} et {y_1,\ldots,y_n} les coordonnées de {X} et de {Y} dans cette base.

    On exprime {\varphi(X,Y)} en fonction des {x_i} et des {y_j} :
    {\begin{array}{rl}\varphi(X,Y)&={X}^{\top}AY\\\\&=\Bigl(\displaystyle\sum\limits_{i=1}^nx_iU_i\Bigr)^{\top}A\,\Bigl(\sum\limits_{j=1}^ny_jU_j\Bigr)\\\\&=\sum\limits_{i,j=1}^nx_i\,y_j\,{U_i}^{\top}A\,U_j\end{array}}Mais on a également : {\begin{array}{rl}{U_i}^{\top}AU_j&={U_i}^{\top}\lambda_jU_j=\lambda_j\,{U_i}^{\top}U_j\\\\&=\lambda_j\,\left({U_{i}}\mid{U_{j}}\right)=\begin{cases}\lambda_i&\text{si\ }i=j\cr0&\text{sinon}\end{cases}\end{array}}Ainsi {\varphi(X,Y)=\displaystyle\sum_{i=1}^n\lambda_ix_iy_i}.

  2. Il est clair que {\varphi} est une forme bilinéaire symétrique.

    Pour tout {X=(x_1,\ldots,x_n)}, on a {\varphi(X,X)=\displaystyle\sum\limits_{i=1}^n\lambda_ix_i^2}.

    Si les {\lambda_i} sont tous strictement positifs, alors {\varphi} est définie positive.

    Réciproquement, on remarque que pour tout {U_i}, on a : {\varphi(U_i,U_i)=\lambda_i}.

    On en déduit que si {\varphi} est définie positive, alors tous les {\lambda_i\gt 0}.

Exercice 2.
Soit {A\in\mathcal{M}_n(\mathbb{R})}. Montrer que les deux conditions suivantes sont équivalentes.

  • Il existe {M} dans {\mathcal{M}_n(\mathbb{R})} telle que {A={M}^{\top}M}.
  • La matrice {A} est symétrique et ses valeurs propres sont positives ou nulles.
Cliquer ici pour voir (ou cacher) le corrigé

  • S’il existe {M} telle que {A={M}^{\top}M}, alors :
    {{A}^{\top}={({M}^{\top}M)}^{\top}={M}^{\top}M=A}donc {A} est donc symétrique.

    Soit {\lambda\in\mathbb{R}} une de ses valeurs propres, et {X} un vecteur propre associé.

    On a : {\lambda X=AX={M}^{\top}M X}.

    On en déduit : {{X}^{\top}{M}^{\top}MX=\lambda{X}^{\top}X=\lambda\left\|{X}\right\|^2}.

    Mais : {{X}^{\top}{M}^{\top}MX={(MX)}^{\top}MX=\left\|{MX}\right\|^2}.

    Ainsi : {\left\|{MX}\right\|^2=\lambda\left\|{X}\right\|^2} avec {\left\|{X}\right\|^2>0}.

    Chaque valeur propre de {A} est donc positive ou nulle.

  • Réciproquement, {A} étant symétrique réelle, elle s’écrit {A={P}^{\top}D P} avec {P} orthogonale et {D} diagonale (de coefficients diagonaux successifs les valeurs propres {\lambda_i\ge 0} de {A}).

    Pour tout indice {k}, soit {\mu_k=\sqrt{\lambda_k}}. On note {\Delta=\text{diag}(\mu_1,\ldots,\mu_n)}.

    On a alors {\Delta^2=D}.

    Ainsi {A={P}^{\top}\Delta^2 P=({P}^{\top}{\Delta}^{\top})\Delta P={M}^{\top}M} avec {M=\Delta P}.

Exercice 3.
On considère la matrice {A\in\mathcal{M}_{n}(\mathbb{R})}, de terme général {a_{ij}=\dfrac{1}{i+j-1}}.
Montrer que les valeurs propres de {A} sont strictement positives.
Cliquer ici pour voir (ou cacher) le corrigé
Soit {X=(x_1,\ldots,x_n)} un vecteur propre de {A} pour {\lambda}.

D’une part : {{X}^{\top}AX={X}^{\top}\bigl(\lambda X\bigr)=\lambda{X}^{\top}X=\lambda\left\|{X}\right\|^2}.

D’autre part :
{\begin{array}{rl}{X}^{\top}AX&=\left({X}\mid{AX}\right)=\displaystyle\sum_{i=1}^nx_i\Bigl(\displaystyle\sum_{j=1}^na_{ij}x_j\Bigr)\\&=\displaystyle\sum_{i,j=1}^n\dfrac1{i+j-1}x_ix_j\end{array}}On interprète ensuite astucieusement l’expression : {\begin{array}{rl}\dfrac1{i+j-1}x_ix_j&=x_ix_j\displaystyle\int_0^1t^{i+j-2}\,\text{d}t\\\\&=\displaystyle\int_0^1\bigl(x_it^{i-1}\bigr)\bigl(x_jt^{j-1}\bigr)\,\text{d}t\end{array}}On peut donc finalement écrire : {\begin{array}{rl}{X}^{\top}AX&=\displaystyle\sum_{i,j=1}^n\displaystyle\int_0^1\bigl(x_it^{i-1}\bigr)\bigl(x_jt^{j-1}\bigr)\,\text{d}t\\\\&=\displaystyle\int_0^1\displaystyle\sum_{i,j=1}^n\bigl(x_it^{i-1}\bigr)\bigl(x_jt^{j-1}\bigr)\,\text{d}t\\\\&=\displaystyle\int_0^1\Bigl(\displaystyle\sum_{i=1}^n x_it^{i-1}\Bigr)^2\,\text{d}t\end{array}}Puisque {X\ne0} est non nul, il en est de même de {P(t)=\displaystyle\sum_{i=1}^n x_it^{i-1}}.

On en déduit {{X}^{\top}AX>0}, donc {\lambda>0}, car on a {{X}^{\top}AX=\lambda\left\|{X}\right\|^2}.