Formes linéaires coordonnées

NB: les trois exercices suivants sont hors-programme en MPSI.

Exercice 1.
Soient {\varphi_1,\varphi_2,\varphi_3} les formes linéaires définies sur {\mathbb{K}^3} par : {\forall u=(x,y,z)\in\mathbb{K}^3,\;\begin{cases}\varphi_1(u)=x+2y+3z\\\varphi_2(u)=2x+5y+4z\\\varphi_3(u)=x+3y+2z\end{cases}}

  1. Montrer que {(\varphi_1,\varphi_2,\varphi_3)} forment une base de {\mathcal{L}(\mathbb{K}^3,\mathbb{K})}.
  2. Trouver la base {(u_1,u_2,u_3)} de {\mathbb{K}^{3}} pour laquelle {\varphi_1,\varphi_2,\varphi_3} sont les applications coordonnées.

Cliquer ici pour voir (ou cacher) le corrigé

  1. On note {(e)=e_1,e_2,e_3} la base canonique de {\mathbb{K}^{3}}.

    Soit {(e^{*})=e_1^{*},e_2^{*},e_3^{*}} la base de {\mathcal{L}(\mathbb{K}^3,\mathbb{K})} des applications coordonnées.

    La définition de {\varphi_1,\varphi_2,\varphi_3} est : {\begin{cases}\varphi_1=e_1^{*}+2e_2^{*}+3e_3^{*}\cr \varphi_2=2e_1^{*}+5e_2^{*}+4e_3^{*}\cr\varphi_3=e_1^{*}+3e_2^{*}+2e_3^{*}\end{cases}}La matrice des {\varphi_i} dans {(e^{*})} est donc {A=\begin{pmatrix}1&2&1\cr2&5&3\cr3&4&2\end{pmatrix}}.

    Ainsi {\varphi_1,\varphi_2,\varphi_3} forment une base de {(\mathbb{K}^3)^{*}} si et seulement si {A} est inversible.

    Pour le savoir, on applique la méthode du pivot : {\begin{array}{l}\begin{pmatrix}1&2&1&1&0&0\cr2&5&3&0&1&0\cr3&4&2&0&0&1\end{pmatrix}\\\\\quad\begin{matrix}\Longrightarrow\cr\text{L}_{2}\leftarrow\text{L}_{2}-2\text{L}_{1}\cr\text{L}_{3}\leftarrow\text{L}_{3}+3\text{L}_{1}\end{matrix}\quad\begin{pmatrix}1&2&1&1&0&0\cr0&1&1&-2&1&0\cr0&-2&1&-3&0&1\end{pmatrix}\\\\\quad\begin{matrix}\text{L}_{1}\leftarrow\text{L}_{1}+2\text{L}_{2}\cr\Longrightarrow\cr\text{L}_{3}\leftarrow\text{L}_{3}+2\text{L}_{2}\end{matrix}\quad\begin{pmatrix}1&0&-1&5&-2&0\cr0&1&1&-2&1&0\cr0&0&1&-7&2&1\end{pmatrix}\\\\\quad\begin{matrix}\text{L}_{1}\leftarrow\text{L}_{1}+\text{L}_{3}\cr\text{L}_{2}\leftarrow\text{L}_{2}+\text{L}_{3}\cr\Longrightarrow\end{matrix}\quad\begin{pmatrix}1&0&0&-2&0&1\cr0&1&0&5&-1&-1\cr0&0&1&-7&2&1\end{pmatrix}\end{array}}Ainsi {A} est inversible et {A^{-1}=\begin{pmatrix}-2&0&1\cr5&-1&-1\cr-7&2&1\end{pmatrix}}.

  2. Soient {u(x,y,z)} et {u'(x',y',z')=(f(u),g(u),h(u))}.

    On constate que : {\begin{array}{l}\begin{pmatrix}x'&y'&z'\end{pmatrix}=\begin{pmatrix}x&y&z\end{pmatrix}\begin{pmatrix}1&2&1\cr2&5&3\cr3&4&2\end{pmatrix}=\begin{pmatrix}x&y&z\end{pmatrix}A\\\\\qquad\Rightarrow\begin{pmatrix}x&y&z\end{pmatrix}=\begin{pmatrix}x'&y'&z'\end{pmatrix}A^{-1}\end{array}}Les vecteurs {u_k=(x_k,y_k,z_k)} tels que {\varphi_k=u_k^{*}} sont donc donnés par : {\begin{cases}(x_1,y_1,z_1)=\begin{pmatrix}1&0&0\end{pmatrix}A^{-1}\\(x_2,y_2,z_2)=\begin{pmatrix}0&1&0\end{pmatrix}A^{-1}\\(x_3,y_3,z_3)=\begin{pmatrix}0&0&1\end{pmatrix}A^{-1}\end{cases}}c’est-à-dire {\begin{pmatrix}x_1&y_1&z_1\cr x_2&y_2&z_2\cr x_3&y_3&z_3\end{pmatrix}=\begin{pmatrix}1&0&0\cr0&1&0\cr0&0&1\end{pmatrix}A^{-1}=A^{-1}}.

    Ainsi {u_1,u_2,u_3} sont donnés par {\begin{cases}u_1=(-2,0,1)\cr u_2=(5,-1,-1)\cr u_3=(-7,2,1)\end{cases}}

Exercice 2.
Sur {E=\mathbb{R}_3[X]} on définit les applications {f_j:P\rightarrow\displaystyle\int_0^1t^jP(t)\,\text{d}t}.

  1. Montrer que {(\varepsilon^{*})=f_0,f_1,f_2,f_3} est une base de {\mathcal{L}(\mathbb{R}_3[X],\mathbb{R})}.
  2. De quelle base {(\varepsilon)} de {E} les applications {f_0,f_1,f_2,f_3} sont-elles les applications coordonnées?

Cliquer ici pour voir (ou cacher) le corrigé
Pour tout indice {i} compris entre {0} et {3}, on a : {f_j(X^i)=\displaystyle\int_0^1t^{i+j}\,\text{d}t=\frac1{i+j+1}}Notons {(e)} la base canonique {1,X,X^2,X^3}.

Notons {(e^{*})=e_1^{*},e_2^{*},e_3^{*},e_4^{*}} les formes linéaires coordonnées.

Ainsi {e_i^{*}} envoie {P=a_0+a_1X+a_2X^2+a_3X^3} sur sa composante {a_i} suivant {X^i}.

On sait que : {\forall f\in\mathcal{L}(\mathbb{R}_3[X],\mathbb{R}),\;f=\displaystyle\sum_{i=0}^3f(X^i)e_i^{*}}.

La matrice de la famille {(\varepsilon^{*})} dans {(e^{*})} est donc : {A=\begin{pmatrix}1&1/2&1/3&1/4\cr1/2&1/3&1/4&1/5\cr1/3&1/4&1/5&1/6\cr1/4&1/5&1/6&1/7\end{pmatrix}}

  1. Dire que {(\varepsilon^{*})} est une base de {\mathcal{L}(\mathbb{R}_3[X],\mathbb{R})}, c’est dire que {A} est inversible.

    On va même calculer l’inverse de {A}, ce qui servira pour la question suivante :
    {\begin{array}{l}\left(\begin{array}{rrrr|rrrr}1&1/2&1/3&1/4&1&0&0&0\cr1/2&1/3&1/4&1/5&0&1&0&0\cr1/3&1/4&1/5&1/6&0&0&1&0\cr1/4&1/5&1/6&1/7&0&0&0&1\end{array}\right)\begin{array}{l}\text{L}_{1}\leftarrow12\text{L}_{1}\cr\text{L}_{2}\leftarrow60\text{L}_{2}\cr\text{L}_{3}\leftarrow60\text{L}_{3}\cr\text{L}_{4}\leftarrow420\text{L}_{4}\end{array}\\\\\quad\Rightarrow\left(\begin{array}{rrrr|rrrr}12&6&4&3&12&0&0&0\cr30&20&15&12&0&60&0&0\cr20&15&12&10&0&0&60&0\cr105&84&70&60&0&0&0&420\end{array}\right)\begin{array}{l}\cr\text{L}_{2}\leftarrow2\text{L}_{2}-5\text{L}_{1}\cr\text{L}_{3}\leftarrow3\text{L}_{3}-5\text{L}_{1}\cr\text{L}_{4}\leftarrow4\text{L}_{4}-35\text{L}_{1}\end{array}\\\\\quad\Rightarrow\left(\begin{array}{rrrr|rrrr}12& 6& 4& 3& 12& 0& 0& 0\cr 0& 10& 10& 9& -60&120& 0& 0\cr 0& 15& 16& 15& -60& 0&180& 0\cr 0&126&140&135&-420& 0& 0&1680\end{array}\right)\begin{array}{l}\text{L}_{1}\leftarrow5\text{L}_{1}-3\text{L}_{2}\cr\cr\text{L}_{3}\leftarrow2\text{L}_{3}-3\text{L}_{2}\cr\text{L}_{4}\leftarrow5\text{L}_{4}-63\text{L}_{2}\end{array}\\\\\quad\Rightarrow\left(\begin{array}{rrrr|rrrr}60& 0&-10&-12& 240& -360& 0& 0\cr0 &10& 10& 9& -60& 120& 0& 0\cr0 & 0& 2& 3& 60& -360&360& 0\cr0 & 0& 70&108&1680&-7560& 0&8400\end{array}\right)\begin{array}{l}\text{L}_{1}\leftarrow\text{L}_{1}+5\text{L}_{3}\cr\text{L}_{2}\leftarrow\text{L}_{2}-5\text{L}_{3}\cr\cr\text{L}_{4}\leftarrow\text{L}_{4}-35\text{L}_{3}\end{array}\\\\\quad\Rightarrow\left(\begin{array}{rrrr|rrrr}60& 0& 0& 3& 540&-2160&1800&0\cr0 &10& 0&-6&-360&1920&-1800&0\cr0 & 0& 2& 3& 60& -360&360& 0\cr0 & 0& 0& 3&-420&5040&-12600&8400\end{array}\right)\begin{array}{l}\text{L}_{1}\leftarrow\text{L}_{1}-\text{L}_{4}\cr\text{L}_{2}\leftarrow\text{L}_{2}+2\text{L}_{4}\cr\text{L}_{3}\leftarrow\text{L}_{3}-\text{L}_{4}\cr\text{}\end{array}\\\\\quad\Rightarrow\left(\begin{array}{rrrr|rrrr}60& 0&0&0& 960&-7200& 14400&-8400\cr0 &10&0&0&-1200&12000&-27000&16800\cr0 & 0&2&0& 480&-5400& 12960&-8400\cr0 & 0&0&3& -420& 5040&-12600& 8400\end{array}\right)\begin{array}{l}\text{L}_{1}\leftarrow\text{L}_{1}/60\cr \text{L}_{2}\leftarrow\text{L}_{2}/10\cr \text{L}_{3}\leftarrow\text{L}_{3}/2\cr \text{L}_{4}\leftarrow\text{L}_{4}/3\end{array}\\\\\quad\Rightarrow\left(\begin{array}{rrrr|rrrr}1&0&0&0&16&-120&240&-140\cr0&1&0&0&-120&1200&-2700&1680\cr0&0&1&0&240&-2700&6480&-4200\cr0&0&0&1&-140&1680&-4200&2800\end{array}\right)\end{array}}Ainsi la matrice {A} est inversible.

    La famille {(\varepsilon^{*})=f_0,f_1,f_2,f_3} est donc une base de {\mathcal{L}(\mathbb{R}_3[X],\mathbb{R})}.

  2. Soit {P=a+bX+cX^2+dX^3} un polynôme quelconque de {E}.

    On note {\varphi(P)} la matrice-ligne {(f_0(P)~f_1(P)~f_3(P)~f_4(P))}.

    On constate que {\varphi(P)} est donné par {\varphi(P)=(a~b~c~d\,)A}.

    Donc {(a~b~c~d)=\varphi(P)A^{-1}}.

    Trouver une base {(\varepsilon)} de {E} dont la base des formes coordonnées est {f_0,f_1,f_2,f_3}, c’est trouver quatre polynômes {\varepsilon_1,\varepsilon_2,\varepsilon_3,\varepsilon_4} tels que : {\begin{cases}\varphi(\varepsilon_0)=(1~0~0~0)\\\varphi(\varepsilon_1)=(0~1~0~0)\\\varphi(\varepsilon_2)=(0~0~1~0)\\\varphi(\varepsilon_3)=(0~0~0~1)\end{cases}}Les composantes de {\varepsilon_0} dans la base {(e)} sont donc données par {(1~0~0~0)A^{-1}}, c’est-à-dire par la première ligne de {A^{-1}}.

    Ainsi {\varepsilon_0= 16-120X+240X^2-140X^3}.

    De même les composantes de {\varepsilon_k} sont les coefficients de la {k}-ième ligne de {A^{-1}}.

    Conclusion: {f_0,f_1,f_2,f_3} sont formes linéaires coordonnées de la base de {E} définie par : {\begin{cases}\varepsilon_0= 16-120X+240X^2-140X^3\\\varepsilon_1=-120+1200X-2700X^2+1680X^3\\\varepsilon_2=240-2700X+6480X^2-4200X^3\\\varepsilon_3=-140+1680X-4200X^2+2800X^3\end{cases}}

Exercice 3.
Soient {(e),(\varepsilon)} deux bases de {E} ({\dim E=n}), et {(e^{*}),(\varepsilon^{*})} les bases respectives de leurs formes linéaires coordonnées. Soit {P} la matrice de passage de {(e)} à {(\varepsilon)} et {P^{*}} celle de {(e^{*})} à {(\varepsilon^{*})}. Exprimer {P} en fonction de {P^{*}}.
Cliquer ici pour voir (ou cacher) le corrigé
Pour tous {x\in E}, et {\varphi\in E^*}, on a : {\begin{cases}x=\displaystyle\sum_{i=1}^ne_i^{*}(x)e_i=\displaystyle\sum_{i=1}^n\varepsilon_i^{*}(x)\varepsilon_i\\\\\varphi=\displaystyle\sum_{j=1}^n\varphi(e_j)e_j^{*}=\displaystyle\sum_{j=1}^n\varphi(\varepsilon_j)\varepsilon_j^{*}\end{cases}}Le coefficient d’indice {(i,j)} de {P} est la composante de {\varepsilon_j} sur {e_i}, c’est-à-dire {e_i^{*}(\varepsilon_j)}.

Mais {e_i^{*}(\varepsilon_j)} est aussi la composante de {e_i^{*}} sur {\varepsilon_j^{*}}, c’est-à-dire le terme d’indice {(j,i)} de la matrice de passage {Q^{*}} de {(\varepsilon^{*})} à {(e^{*})}.

On en déduit que {P} et {Q^{*}} sont transposées l’une de l’autre.

Or {P^{*}}, matrice de passage de {(e^{*})} à {(\varepsilon^{*})}, est l’inverse de {Q^{*}}.

On en déduit finalement : {P^{*}=(Q^{*})^{-1}=(P^{\top})^{-1}}.