Orthogonalité

Plan du chapitre "Espaces préhilbertiens réels"

Vecteurs orthogonaux

Définition (orthogonalité de deux vecteurs)
Soit {E} un espace préhilbertien réel.
Deux vecteurs {u} et {v} de {E} sont dits orthogonaux s’ils vérifient {\left(u \mid v\right)=0}.

Remarques

  • ces notions dépendent évidemment du produit scalaire utilisé sur {E}. si on en change, les vecteurs qui étaient orthogonaux ne le sont donc plus nécessairement.
  • la définition de l’orthogonalité est symétrique car {\left(u \mid v\right)=\left({u}\mid{v}\right)}.
  • le seul vecteur {u} qui est orthogonal à lui-même est le vecteur nul.
    A fortiori, le seul vecteur {u} qui est orthogonal à tous les vecteurs de {E} est {u=0}.
Définition (familles orthogonales ou orthonormales)
Soit {E} un espace préhilbertien réel.
On dit qu’une famille {(u_i)_{i\in I}} de vecteurs de {E} est orthogonale si les {u_i} sont orthogonaux deux à deux.
Si de plus ils sont unitaires, alors la famille est dite orthonormale (ou orthonormée).

La famille {(u_i)_{i\in I}}est orthonormale {\Leftrightarrow\forall\,(i,j)\in I^2,\;\left({u_i}\mid{u_j}\right)=\delta_{ij}} (notations de Kronecker).

Deux exemples classiques

  • La base canonique de {\mathbb{R}^n} est orthonormale pour le produit scalaire canonique.
  • On se place dans {{\mathcal C}([0,2\pi],\mathbb{R})} muni du produit scalaire {\left(f\mid g\right)=\displaystyle\int_0^{2\pi} f(t)\,g(t)\,\text{d}t}.
    La famille des {f_{n}:x\mapsto\cos(nx)}, avec {n} dans {\mathbb{N}}, est orthogonale pour ce produit scalaire.
Proposition (une famille orthogonale de vecteurs non nuls est libre)
Soit {E} un espace préhilbertien réel.
Si une famille {(u_i)_{i\in I}} est orthogonale et formée de vecteurs non nuls, alors c’est une famille libre.

C’est le cas notamment d’une famille {(u_i)_{i\in I}} orthonormale.
En particulier, si {\dim E=n\ge1}, une famille orthonormale de {n} vecteurs est une base orthonormale.

Proposition (théorème de Pythagore)
Soit {E} un espace préhilbertien réel.
Si {(u_k)_{1\le\,k\,\le p}} est orthogonale, alors {\Big\|\displaystyle\sum_{k=1}^p u_k\Big\|^2=\displaystyle\sum_{k=1}^p\left\|{u_k}\right\|^2} (relation de Pythagore).
Attention, la réciproque n’est vraie que si {p=2}.
Ainsi : {\left(u \mid v\right)=0\Leftrightarrow\left\|{u+v}\right\|^2=\left\|u\right\|^2+\left\|v\right\|^2}.

Orthogonal d’une partie

Définition (orthogonal d'une partie d'un espace préhilbertien)
Soit {E} un espace préhilbertien réel. Soit {X} une partie non vide de {E}.
L’orthogonal de {X}, noté {X^\bot}, est l’ensemble des vecteurs orthogonaux à tous les éléments de {X}.
Définition
Soit {E} un espace préhilbertien réel. Soit {X,Y} deux parties non vides de {E}.
On dit que les parties {X} et {Y} sont orthogonales si : {\forall\, u\in X,\;\forall\, v\in Y,\;\left(u \mid v\right)=0}.
Cela équivaut à l’inclusion {Y\subset X^\bot} (ou bien sûr à l’inclusion {X\subset Y^\bot}).

Propriétés

  • On a clairement {\{0\}^\bot=E}, et {E^\bot=\{0\}}. Si {X\subset Y}, alors {Y^\bot\subset X^\bot}.
  • L’orthogonal {X^\bot} de {X} est toujours un sous-espace de {E}, même si {X} n’en est pas un.
  • Si {X} est une partie non vide de {E}, alors {X^\bot=\text{Vect}(X)^\bot}.
    En particulier, si {X=\text{Vect}\{u_j,\;j\in J\}}, alors : {v\in X^{\bot}\Leftrightarrow\forall\, j\in J,\;\left(u_{j}\mid{v}\right)=0}.
  • Pour toute partie non vide de {E}, on a l’inclusion {X\subset X^{\bot\bot}}
    (on exprime cette propriété en disant que {X} est inclus dans son “double orthogonal”).
    Cette inclusion peut être stricte, notamment si {X} n’est pas un sous-espace de {E}.
    Par exemple, dans {\mathbb{R}^{3}} muni de son produit scalaire canonique (et en notant {e_{1},e_{2},e_{3}} les vecteurs de la base canonique) : si {X=\{e_{1},e_{2}\}}, alors {X^{\bot}=\mathbb{R} e_{3}}, puis {X^{\bot\bot}=\mathbb{R} e_{1}\oplus\mathbb{R} e_{2}}.
  • Si {F} est un sous-espace de {E}, alors {F\cap F^\bot=\{0\}} (la somme {F+F^\bot} est directe).
    La proposition suivante généralise ce résultat :
Proposition (sommes directes orthogonales)
Soit {E} un espace préhilbertien réel.
Soit {(F_j)_{j\in J}} une famille de sous-espaces de {E}, orthogonaux deux à deux.
Alors la somme {G=\sum F_j} est directe, et on note {G=\overset{\perp}{\oplus} F_j}

(dans cette situation, on parle de somme directe orthogonale).

Algorithme d’orthonormalisation de Schmidt

Proposition (principe de l'algorithme)
Soit {E} un espace préhilbertien réel. Soit {(e_k)_{1\le k \le n}} une famille libre de {E}.
Pour tout {k} de {\{1,\ldots,n\}}, on pose {\varepsilon_k=\dfrac1{\left\|{u_k}\right\|}u_k}, où {u_k=e_k-\displaystyle\sum_{j=1}^{k-1}\left({\varepsilon_j}\mid{e_k}\right)\varepsilon_j}

La première étape de l’algorithme consiste bien sûr à poser {\varepsilon_{1}=\dfrac1{\left\|{e_1}\right\|}\,e_1}

Proposition (preuve de l'algorithme)
Avec les notations précédentes, l’algorithme de Schmidt se termine.
Pour tout {k} de {\{1,\ldots,n\}}, on a {\text{Vect}\{\varepsilon_1,\ldots,\varepsilon_k\}=\text{Vect}\{e_1,\ldots,e_k\}}, et { \left({\varepsilon_k}\mid{e_k}\right)>0}.
La famille {(\varepsilon_k)_{1\le k \le n}} ainsi construite est donc une famille orthonormée.

Illustration du procédé

On illustre le passage d’une famille libre {e=(e_1,e_2,e_3)} à une famille orthonormale {\varepsilon=(\varepsilon_1,\varepsilon_2,\varepsilon_3)}.

On a conservé les notations de la proposition en ce qui concerne les vecteurs {u_2} et {u_3}.
On a cependant noté {p(e_2)=\left({\varepsilon_1}\mid{e_2}\right)\varepsilon_1}, donc {u_2=e_2-p(e_2)}.
De même, on a noté {q(e_3)=\left({\varepsilon_1}\mid{e_3}\right)\varepsilon_1+\left({\varepsilon_2}\mid{e_3}\right)\varepsilon_2}, donc {u_3=e_3-q(e_3)}.
On voit bien, ce qui sera repris plus tard, que :

  • {p(e_2)} est la “projection orthogonale” de {e_2} sur la droite engendrée par {\varepsilon_1} (donc par {e_1})
  • {q(e_3)} est la projection orthogonale de {e_3} sur le plan engendré par {\varepsilon_1,\varepsilon_2} (donc par {e_1,e_2})

Si on se place dans un espace {E} de dimension finie, le résultat ci-dessous découle immédiatement de l’algorithme d’orthonormalisation appliqué à une base quelconque {e} de {E}.

Proposition (existence de bases orthonormales dans un espace euclidien)
Soit {E} un espace euclidien (c’est-à-dire un espace préhilbertien réel de dimension finie).
Alors, dans l’espace vectoriel {E}, il existe des bases orthonormales.
Proposition (théorème de la base orthonormée incomplète)
Soit {E} un espace euclidien de dimension {n\ge 1}.
Soit {\varepsilon=(\varepsilon_{1},\varepsilon_{2},\ldots,\varepsilon_{p})} une famille orthonormée de {E}, avec {p\lt n} (donc non génératrice).
Alors on peut compléter {\varepsilon} en une base orthonormée {\varepsilon'=(\varepsilon_{1},\varepsilon_{2},\ldots,\varepsilon_{p},\varepsilon_{p+1},\ldots,\varepsilon_{n})} de {E}.

Calculs dans une base orthonormale

Proposition (expressions des coordonnées dans une base orthonormale)
Soit {E} un espace euclidien de dimension {n\ge 1}.
Soit {\varepsilon=(\varepsilon_k)_{1\le\,k\,\le\,n}} une base orthonormale de {E}.
Pour tout vecteur {u} de {E}, on a : {u=\displaystyle\sum_{k=1}^n\left({u}\mid{\varepsilon_k}\right)\varepsilon_k}.

Tout vecteur {u} de {E} est donc entièrement déterminé par ses produits scalaires sur les vecteurs de {\varepsilon}.
Les applications coordonnées dans la base {\varepsilon} sont les applications {u\mapsto \left({u}\mid{\varepsilon_k}\right)}.

Proposition (expressions du produit scalaire et de la norme dans une base orthonormale)
Soit {E} un espace euclidien de dimension {n\ge 1}.
Soit {\varepsilon=(\varepsilon_k)_{1\le\,k\,\le\,n}} une base orthonormale de {E}.
Pour tous vecteurs {x=\displaystyle\sum_{k=1}^n\,x_k\,\varepsilon_k} et {y=\displaystyle\sum_{k=1}^n\,y_k\,\varepsilon_k}, on a : {\left(x \mid y\right)=\displaystyle\sum_{k=1}^n\,x_k\,y_k\ \;\text{et}\;\ \left\|{x}\right\|^2=\displaystyle\sum_{k=1}^n\,x_k^2}

Expression matricielle du produit scalaire dans une base orthonormale

Soit {\varepsilon=(\varepsilon_k)_{1\le\,k\,\le\,n}} une base orthonormale de {E}.

Notons {X,Y} les matrices-colonnes des coordonnées de {x,y} dans {\varepsilon}. Alors {\left(x \mid y\right)={X}^{\top}Y},.

Expression matricielle du produit scalaire dans une base quelconque

Si la base {\varepsilon} de {E} est quelconque, alors on a seulement : {\left(x \mid y\right)=\displaystyle\sum_{j=1}^n\sum_{k=1}^{n}\,x_j\,y_k\left({\varepsilon_{j}}\mid{\varepsilon_{k}}\right)}
On peut alors écrire : {\left(x \mid y\right)={X}^{\top}GY}, où {G} est la matrice des {\left({\varepsilon_{i}}\mid{\varepsilon_{j}}\right)}, pour {1\le i,j\le n}.

Matrice d’une famille de vecteurs dans une base orthonormale

Soit {\varepsilon=(\varepsilon_{i})_{1\le i\le n}} une base orthormée de {E}, et soit {v=(v_{j})_{1\le j\le n}} une famille de {n} vecteurs de {E}.

Soit {A=(a_{i,j})} la matrice de la famille {v} dans la base {\varepsilon}. Alors {a_{i,j}=\left({\varepsilon_{i}}\mid{v_{j}}\right)} pour tous {i,j}.

Si on note {\varepsilon} la base orthonormée obtenue à partir d’une base quelconque {e} de {E} par l’algorithme de Schmidt, alors les matrices de passage {P_{e,\varepsilon}} (de {e} à {\varepsilon}) et {P_{\varepsilon,e}} (de {\varepsilon} à {e}, inverse de la matrice précédente) sont triangulaires supérieures avec coefficients diagonaux strictement positifs.

Page précédente : produit scalaire, norme et distance
Page suivante : produit mixte, produit vectoriel