- Produit scalaire, norme et distance
- Orthogonalité
- Produit mixte, produit vectoriel
- Projections orthogonales
- Hyperplans affines d'un espace euclidien
- Isométries vectorielles
- Matrices orthogonales
- Isométries en dimension 2
Vecteurs orthogonaux
Définition (orthogonalité de deux vecteurs) Soit {E} un espace préhilbertien réel. Deux vecteurs {u} et {v} de {E} sont dits orthogonaux s’ils vérifient {\left(u \mid v\right)=0}. |
Remarques
- ces notions dépendent évidemment du produit scalaire utilisé sur {E}. si on en change, les vecteurs qui étaient orthogonaux ne le sont donc plus nécessairement.
- la définition de l’orthogonalité est symétrique car {\left(u \mid v\right)=\left({u}\mid{v}\right)}.
-
le seul vecteur {u} qui est orthogonal à lui-même est le vecteur nul.
A fortiori, le seul vecteur {u} qui est orthogonal à tous les vecteurs de {E} est {u=0}.
Définition (familles orthogonales ou orthonormales) Soit {E} un espace préhilbertien réel. On dit qu’une famille {(u_i)_{i\in I}} de vecteurs de {E} est orthogonale si les {u_i} sont orthogonaux deux à deux. Si de plus ils sont unitaires, alors la famille est dite orthonormale (ou orthonormée). |
La famille {(u_i)_{i\in I}}est orthonormale {\Leftrightarrow\forall\,(i,j)\in I^2,\;\left({u_i}\mid{u_j}\right)=\delta_{ij}} (notations de Kronecker).
Deux exemples classiques
- La base canonique de {\mathbb{R}^n} est orthonormale pour le produit scalaire canonique.
-
On se place dans {{\mathcal C}([0,2\pi],\mathbb{R})} muni du produit scalaire {\left(f\mid g\right)=\displaystyle\int_0^{2\pi} f(t)\,g(t)\,\text{d}t}.
La famille des {f_{n}:x\mapsto\cos(nx)}, avec {n} dans {\mathbb{N}}, est orthogonale pour ce produit scalaire.
Proposition (une famille orthogonale de vecteurs non nuls est libre) Soit {E} un espace préhilbertien réel. Si une famille {(u_i)_{i\in I}} est orthogonale et formée de vecteurs non nuls, alors c’est une famille libre. |
C’est le cas notamment d’une famille {(u_i)_{i\in I}} orthonormale.
En particulier, si {\dim E=n\ge1}, une famille orthonormale de {n} vecteurs est une base orthonormale.
Proposition (théorème de Pythagore) Soit {E} un espace préhilbertien réel. Si {(u_k)_{1\le\,k\,\le p}} est orthogonale, alors {\Big\|\displaystyle\sum_{k=1}^p u_k\Big\|^2=\displaystyle\sum_{k=1}^p\left\|{u_k}\right\|^2} (relation de Pythagore). Attention, la réciproque n’est vraie que si {p=2}. Ainsi : {\left(u \mid v\right)=0\Leftrightarrow\left\|{u+v}\right\|^2=\left\|u\right\|^2+\left\|v\right\|^2}. |
Orthogonal d’une partie
Définition (orthogonal d'une partie d'un espace préhilbertien) Soit {E} un espace préhilbertien réel. Soit {X} une partie non vide de {E}. L’orthogonal de {X}, noté {X^\bot}, est l’ensemble des vecteurs orthogonaux à tous les éléments de {X}. |
Définition Soit {E} un espace préhilbertien réel. Soit {X,Y} deux parties non vides de {E}. On dit que les parties {X} et {Y} sont orthogonales si : {\forall\, u\in X,\;\forall\, v\in Y,\;\left(u \mid v\right)=0}. Cela équivaut à l’inclusion {Y\subset X^\bot} (ou bien sûr à l’inclusion {X\subset Y^\bot}). |
Propriétés
- On a clairement {\{0\}^\bot=E}, et {E^\bot=\{0\}}. Si {X\subset Y}, alors {Y^\bot\subset X^\bot}.
- L’orthogonal {X^\bot} de {X} est toujours un sous-espace de {E}, même si {X} n’en est pas un.
-
Si {X} est une partie non vide de {E}, alors {X^\bot=\text{Vect}(X)^\bot}.
En particulier, si {X=\text{Vect}\{u_j,\;j\in J\}}, alors : {v\in X^{\bot}\Leftrightarrow\forall\, j\in J,\;\left(u_{j}\mid{v}\right)=0}. -
Pour toute partie non vide de {E}, on a l’inclusion {X\subset X^{\bot\bot}}
(on exprime cette propriété en disant que {X} est inclus dans son “double orthogonal”).
Cette inclusion peut être stricte, notamment si {X} n’est pas un sous-espace de {E}.
Par exemple, dans {\mathbb{R}^{3}} muni de son produit scalaire canonique (et en notant {e_{1},e_{2},e_{3}} les vecteurs de la base canonique) : si {X=\{e_{1},e_{2}\}}, alors {X^{\bot}=\mathbb{R} e_{3}}, puis {X^{\bot\bot}=\mathbb{R} e_{1}\oplus\mathbb{R} e_{2}}. -
Si {F} est un sous-espace de {E}, alors {F\cap F^\bot=\{0\}} (la somme {F+F^\bot} est directe).
La proposition suivante généralise ce résultat :
Proposition (sommes directes orthogonales) Soit {E} un espace préhilbertien réel. Soit {(F_j)_{j\in J}} une famille de sous-espaces de {E}, orthogonaux deux à deux. Alors la somme {G=\sum F_j} est directe, et on note {G=\overset{\perp}{\oplus} F_j} (dans cette situation, on parle de somme directe orthogonale). |
Algorithme d’orthonormalisation de Schmidt
Proposition (principe de l'algorithme) Soit {E} un espace préhilbertien réel. Soit {(e_k)_{1\le k \le n}} une famille libre de {E}. Pour tout {k} de {\{1,\ldots,n\}}, on pose {\varepsilon_k=\dfrac1{\left\|{u_k}\right\|}u_k}, où {u_k=e_k-\displaystyle\sum_{j=1}^{k-1}\left({\varepsilon_j}\mid{e_k}\right)\varepsilon_j} |
La première étape de l’algorithme consiste bien sûr à poser {\varepsilon_{1}=\dfrac1{\left\|{e_1}\right\|}\,e_1}
Proposition (preuve de l'algorithme) Avec les notations précédentes, l’algorithme de Schmidt se termine. Pour tout {k} de {\{1,\ldots,n\}}, on a {\text{Vect}\{\varepsilon_1,\ldots,\varepsilon_k\}=\text{Vect}\{e_1,\ldots,e_k\}}, et { \left({\varepsilon_k}\mid{e_k}\right)>0}. La famille {(\varepsilon_k)_{1\le k \le n}} ainsi construite est donc une famille orthonormée. |
Illustration du procédé
On illustre le passage d’une famille libre {e=(e_1,e_2,e_3)} à une famille orthonormale {\varepsilon=(\varepsilon_1,\varepsilon_2,\varepsilon_3)}.
On a conservé les notations de la proposition en ce qui concerne les vecteurs {u_2} et {u_3}.
On a cependant noté {p(e_2)=\left({\varepsilon_1}\mid{e_2}\right)\varepsilon_1}, donc {u_2=e_2-p(e_2)}.
De même, on a noté {q(e_3)=\left({\varepsilon_1}\mid{e_3}\right)\varepsilon_1+\left({\varepsilon_2}\mid{e_3}\right)\varepsilon_2}, donc {u_3=e_3-q(e_3)}.
On voit bien, ce qui sera repris plus tard, que :
- {p(e_2)} est la “projection orthogonale” de {e_2} sur la droite engendrée par {\varepsilon_1} (donc par {e_1})
- {q(e_3)} est la projection orthogonale de {e_3} sur le plan engendré par {\varepsilon_1,\varepsilon_2} (donc par {e_1,e_2})
Si on se place dans un espace {E} de dimension finie, le résultat ci-dessous découle immédiatement de l’algorithme d’orthonormalisation appliqué à une base quelconque {e} de {E}.
Proposition (existence de bases orthonormales dans un espace euclidien) Soit {E} un espace euclidien (c’est-à-dire un espace préhilbertien réel de dimension finie). Alors, dans l’espace vectoriel {E}, il existe des bases orthonormales. |
Proposition (théorème de la base orthonormée incomplète) Soit {E} un espace euclidien de dimension {n\ge 1}. Soit {\varepsilon=(\varepsilon_{1},\varepsilon_{2},\ldots,\varepsilon_{p})} une famille orthonormée de {E}, avec {p\lt n} (donc non génératrice). Alors on peut compléter {\varepsilon} en une base orthonormée {\varepsilon'=(\varepsilon_{1},\varepsilon_{2},\ldots,\varepsilon_{p},\varepsilon_{p+1},\ldots,\varepsilon_{n})} de {E}. |
Calculs dans une base orthonormale
Proposition (expressions des coordonnées dans une base orthonormale) Soit {E} un espace euclidien de dimension {n\ge 1}. Soit {\varepsilon=(\varepsilon_k)_{1\le\,k\,\le\,n}} une base orthonormale de {E}. Pour tout vecteur {u} de {E}, on a : {u=\displaystyle\sum_{k=1}^n\left({u}\mid{\varepsilon_k}\right)\varepsilon_k}. |
Tout vecteur {u} de {E} est donc entièrement déterminé par ses produits scalaires sur les vecteurs de {\varepsilon}.
Les applications coordonnées dans la base {\varepsilon} sont les applications {u\mapsto \left({u}\mid{\varepsilon_k}\right)}.
Proposition (expressions du produit scalaire et de la norme dans une base orthonormale) Soit {E} un espace euclidien de dimension {n\ge 1}. Soit {\varepsilon=(\varepsilon_k)_{1\le\,k\,\le\,n}} une base orthonormale de {E}. Pour tous vecteurs {x=\displaystyle\sum_{k=1}^n\,x_k\,\varepsilon_k} et {y=\displaystyle\sum_{k=1}^n\,y_k\,\varepsilon_k}, on a : {\left(x \mid y\right)=\displaystyle\sum_{k=1}^n\,x_k\,y_k\ \;\text{et}\;\ \left\|{x}\right\|^2=\displaystyle\sum_{k=1}^n\,x_k^2} |
Expression matricielle du produit scalaire dans une base orthonormale
Soit {\varepsilon=(\varepsilon_k)_{1\le\,k\,\le\,n}} une base orthonormale de {E}.
Notons {X,Y} les matrices-colonnes des coordonnées de {x,y} dans {\varepsilon}. Alors {\left(x \mid y\right)={X}^{\top}Y},.
Expression matricielle du produit scalaire dans une base quelconque
Si la base {\varepsilon} de {E} est quelconque, alors on a seulement : {\left(x \mid y\right)=\displaystyle\sum_{j=1}^n\sum_{k=1}^{n}\,x_j\,y_k\left({\varepsilon_{j}}\mid{\varepsilon_{k}}\right)}
On peut alors écrire : {\left(x \mid y\right)={X}^{\top}GY}, où {G} est la matrice des {\left({\varepsilon_{i}}\mid{\varepsilon_{j}}\right)}, pour {1\le i,j\le n}.
Matrice d’une famille de vecteurs dans une base orthonormale
Soit {\varepsilon=(\varepsilon_{i})_{1\le i\le n}} une base orthormée de {E}, et soit {v=(v_{j})_{1\le j\le n}} une famille de {n} vecteurs de {E}.
Soit {A=(a_{i,j})} la matrice de la famille {v} dans la base {\varepsilon}. Alors {a_{i,j}=\left({\varepsilon_{i}}\mid{v_{j}}\right)} pour tous {i,j}.
Si on note {\varepsilon} la base orthonormée obtenue à partir d’une base quelconque {e} de {E} par l’algorithme de Schmidt, alors les matrices de passage {P_{e,\varepsilon}} (de {e} à {\varepsilon}) et {P_{\varepsilon,e}} (de {\varepsilon} à {e}, inverse de la matrice précédente) sont triangulaires supérieures avec coefficients diagonaux strictement positifs.
Page précédente : produit scalaire, norme et distance
Page suivante : produit mixte, produit vectoriel