Fonctions polynomiales, racines

Plan du chapitre "Polynômes et fractions rationnelles"

Fonction polynomiale associée

Définition (fonction polynomiale associée à un polynôme)
Soit {A=\displaystyle\sum_{k\ge0}a_{k}X^k} un élément de {\mathbb{K}[X]}.
Pour tout {x} de {\mathbb{K}}, on pose {A(x)=\displaystyle\sum_{k\ge0}a_kx^k}.
On dit que {A(x)} est la valeur du polynôme {A} en {x}.
On dit que la fonction {x\mapsto A(x)} est la fonction polynomiale associée au polynôme {A}.
On note souvent {\widetilde A} cette fonction de {\mathbb{K}} dans {\mathbb{K}}, pour la distinguer du polynôme {A}.

Différence entre polynôme et fonction polynomiale

Un polynôme {A} de {\mathbb{K}[X]} tel que nous l’avons défini, est un objet “formel”.
La fonction polynomiale {\widetilde{A}} qui lui est associée est une fonction de {\mathbb{K}} dans {\mathbb{K}}.

On ne doit donc pas confondre {A} et {\widetilde{A}}, même si l’égalité {A(\lambda)=\widetilde{A}(\lambda)} recèle une ambigüité.

Quand on envisage {A(\lambda)}, il ne faut pas dire qu’on donne à {X} la valeur {\lambda} (ou qu’on pose {X=\lambda}) car ça n’a pas de sens : {X} est un polynôme de degré {1} et il ne saurait être égal à la constante {\lambda}.

En fait, il s’agit d’une simple substitution : on se contente de remplacer {X} par {\lambda}.

Pour éviter toute ambiguïté, il est d’usage d’utiliser le nom {X} quand on parle de polynômes et la variable {x} quand on parle de fonctions polynomiales.

Remarques et propriétés

  • Si {A} est un polynôme, alors {A(0)} est le coefficient constant de {A}.
    De même, {A(1)} représente la somme des coefficients de {A}.
  • La fonction polynomiale associée au polynôme constant {\lambda} est la fonction constante {x\mapsto \lambda}.
    La fonction polynomiale associée au polynôme {X} est la fonction identité {x\mapsto x} de {\mathbb{K}} dans {\mathbb{K}}.

  • On rappelle qu’on note {\widetilde A} la fonction polynomiale associée à un polynôme {A}.
    Avec ces notations, et pour tous {A,B} dans {\mathbb{K}[X]}, on a :{\widetilde{A+B}=\widetilde{A}+\widetilde{B}\;\text{et}\;\widetilde{AB}=\widetilde{A}\;\widetilde{B}}
    De même, pour tous polynômes {A} et {B}, on vérifie que {\widetilde{A(B)}=\widetilde{A}\circ\widetilde{B}}.

Valeurs en un point de {\mathbb{C}} d’un polynôme réel

Soit {A} dans {\mathbb{R}[X]}. On peut considérer {A} comme un élément particulier de {\mathbb{C}[X]}.
Alors pour tout nombre complexe {z}, on a l’égalité : {A(\overline{z})=\overline{A(z)}}.

Plus généralement, soit {A=\displaystyle\sum_{n\ge0}a_{n}X^{n}} dans {\mathbb{C}[X]}. Posons {\overline{A}=\displaystyle\sum_{n\ge0}\overline{a_{n}}\,X^{n}}.

Pour tous {A,B} dans {\mathbb{C}[X]} et {\alpha,\beta} dans {\mathbb{C}}, on a alors : {\overline{\alpha A+\beta B}=\overline{\alpha}\,\overline{A}+\overline{\beta}\,\overline{B}\;\text{et}\;\overline{AB}=\overline{A}\overline{B}}

Schéma de Horner

Schéma de Horner

  • Soit {A=\displaystyle\sum_{k\ge0}a_{k}X^k} un polynôme, et {\lambda} un scalaire.
    On va voir comment calculer {A(\lambda)} en un minimum d’opérations.

    Posons par exemple {A=a_4X^4+a_3X^3+a_2X^2+a_1X+a_0}.

    • Le calcul de {A(\lambda)=a_4\lambda^4+a_3\lambda^3+a_2\lambda^2+a_1\lambda+a_0} nécessite à priori {14} opérations.
    • Mais on peut aussi écrire : {A(\lambda)=\left(\left((a_4\lambda+a_3)\lambda+a_2\right)\lambda+a_1\right)\lambda+a_0}.

      Sous cette forme, le calcul de {A(\lambda)} nécessite {8} opérations.

    • Tout repose donc sur l’expression {A=\left(\left((a_4X+a_3)X+a_2\right)X+a_1\right)X+a_0}.
      On dit que cette expression est le schéma de Horner du polynôme {A}.
      Elle est particulièrement adaptée si on souhaite effectuer de nombreuses évaluations de {A}.

    Plus généralement, le schéma de Horner repose sur l’égalité : {A=\displaystyle\sum_{k=0}^n a_kX^k=\left(\left(\cdots\left((a_nX+a_{n-1})X+a_{n-2}\right)X+\cdots\right)X+a_1\right)X+a_0}

    Racines (ou zéros) d’un polynôme

    Proposition (division euclidienne par X-α)
    Soit {A} un élément de {\mathbb{K}[X]} et soit {\alpha} un scalaire.
    Le reste dans la division de {A} par le polynôme {X-\alpha} est le scalaire {A(\alpha)}.

    Plus généralement si {A=QB+R} et si {B(\alpha)=0} alors {A(\alpha)=R(\alpha)}.
    Supposons par exemple qu’on veuille calculer {A(\alpha)} avec {\deg(A)\ge2} et {\alpha=\dfrac{-1+\sqrt{13}}2}.

    Il est sans doute plus commode de diviser {A} par {B=X^2+X-3} car {B(\alpha)=0}.

    Le reste {R} dans cette division s’écrit en effet {R=aX+b} et on a alors {A(\alpha)=a\alpha+b}.

    Définition (racine (ou zéro) d'un polynôme)
    Soit {A} un élément de {\mathbb{K}[X]} et {\alpha} un élément de {\mathbb{K}}.
    On dit que {\alpha} est une racine (ou encore un zéro) du polynôme {A} si {A(\alpha)=0}.
    Cela équivaut à dire que {A} est divisible par le polynôme {X-\alpha}.
    Définition (racines simples, racines multiples)
    Soit {A} un polynôme non nul et soit {\alpha} une racine de {A} dans {\mathbb{K}}.
    On appelle multiplicité de {\alpha} (comme racine de {A}) l’entier {m\ge1} tel que {\begin{cases}(X-\alpha)^m\mid A\cr (X-\alpha)^{m+1}\nmid A\end{cases}}

    • si {m=1}, c’est-à-dire si {(X-\alpha)\mid A} mais {(X-\alpha)^2\nmid A},
      on dit que {\alpha} est une racine simple de {A}.
    • si {m>1}, c’est-à-dire si {(X-\alpha)^{2}\mid A}, on dit que {\alpha} est une racine multiple de {A}.
    • si {m=2} (resp. {m=3}) on dit que {\alpha} est une racine double (resp. triple) de {A}.

    Proposition (une caractérisation de la multiplicité)
    Soit {A} dans {\mathbb{K}[X]}, soit {\alpha} dans {\mathbb{K}}, et {m} dans {\mathbb{N}}.
    Alors {\alpha} est racine de {A} de multiplicité {\Leftrightarrow\exists\, B\in\mathbb{K}[X],\;\begin{cases}A=(X-\alpha)^mB\\B(\alpha)\ne0\end{cases}}

    Remarques

    Si {\alpha} n’est pas racine de {A}, il est commode de dire que {\alpha} est « racine de {A} avec la multiplicité {0} ».
    Si {\alpha} est une racine de multiplicité {m} de {A}, alors nécessairement {m\le\deg(A)}.
    Dire que {A} est divisible par {(X-\alpha)^m}, c’est dire que {\alpha} est racine de {A} avec une multiplicité {\ge m}.

    Dépendance par rapport au corps des coefficients

    Il faut toujours préciser dans quel “corps de coefficients” on cherche les racines d’un polynôme.
    Par exemple, si on considère {A=(X^2-2)(X^2+1)} : le polynôme {A} n’a pas de racine dans {\mathbb{Q}}, ses racines dans {\mathbb{R}} sont {-\sqrt2} et {\sqrt2}, et ses racines dans {\mathbb{C}} sont {-\sqrt2}, {\sqrt2}, {-i}, et {i}.

    Proposition (racines complexes d'un polynôme à coefficients réels)
    Soit {A} un polynôme de {\mathbb{R}[X]}. Soit {\alpha} une racine de {A} dans {\mathbb{C}} de multiplicité {m}.
    Alors {\overline\alpha} est une racine de {A} dans {\mathbb{C}}, avec la même multiplicité {m}.

    Nombre maximum de racines d’un polynôme

    Quand on dénombre les racines d’un polynôme {A}, on peut soit considérer les racines distinctes de {A} (indépendamment de leur multiplicité) soit au contraire compter chaque racine autant de fois que sa multiplicité. Ainsi une racine double sera comptée deux fois, une racine triple trois fois, etc.

    Proposition (racines, multiplicités et factorisations)
    Soit {A} un polynôme non nul de {\mathbb{K}[X]}. Soit {\alpha_1,\alpha_2,\ldots,\alpha_p} dans {\mathbb{K}}, distincts deux à deux.
    Soit {m_1,m_2,\ldots,m_p} dans {\mathbb{N}}. Les deux propositions suivantes sont équivalentes :

    • pour tout {k} de {\{1,\ldots,p\}}, {\alpha_k} est racine de {A} avec la multiplicité {m_k}.
    • il existe {Q\in\mathbb{K}[X]} tel que {A=Q\displaystyle\prod_{k=1}^p(X-\alpha_k)^{m_k}}, avec {Q(\alpha_k)\ne0} pour tout {k}.

    Proposition (nombre maximum de racines d'un polynôme)
    Soit {A} un polynôme de {\mathbb{K}[X]}, de degré {n\ge0}.
    Le polynôme {A} admet au plus {n} racines dans {\mathbb{K}}, chacune étant comptée autant de fois que sa multiplicité. En particulier, {A} admet au plus {n} racines distinctes dans {\mathbb{K}}.

    Polynômes scindés

    Proposition (polynômes scindés)
    Soit {A} dans {\mathbb{K}[X]}, de degré {n\ge1}. Soit {\alpha_1,\alpha_2,\ldots,\alpha_p} ses racines distinctes dans {\mathbb{K}}.
    Soit {m_1,m_2,\ldots,m_p} leurs multiplicités respectives (les {m_k\ge1}).
    On suppose que {m_1+m_2+\cdots+m_p=n} (autrement dit on suppose que {A} admet {n} racines dans {\mathbb{K}}, chacune étant comptée autant de fois que sa multiplicité).
    Alors {A=\lambda\displaystyle\prod_{k=1}^p(X-\alpha_k)^{m_k}}, où {\lambda} est le coefficient dominant de {A}.
    On exprime cette situation en disant que le polynôme {A} est scindé dans {\mathbb{K}}.

    Dire que {A} est scindé dans {\mathbb{K}} c’est dire que {A=\lambda\displaystyle\prod_{k=1}^n(X-\beta_k)} est un produit de facteurs de degré {1}, où {n=\deg(A)} et où {\beta_1,\ldots\beta_n} sont les racines (distinctes ou non) de {A} dans {\mathbb{K}}.

    Proposition (théorème de d'Alembert-Gauss (admis))
    Tout polynôme de {\mathbb{C}[X]}, de degré {n\ge1}, admet au moins une racine dans {\mathbb{C}}.
    On exprime cette propriété en disant que le corps {\mathbb{C}} est algébriquement clos.
    Proposition (nombre de racines d'un polynôme à coefficients complexes)
    Dans {\mathbb{C}[X]}, tout polynôme non constant est scindé. Ainsi tout polynôme de degré {n\ge1} dans {\mathbb{C}[X]} admet exactement {n} racines dans {\mathbb{C}}, chacune étant comptée autant de fois que sa multiplicité.

    Identification entre polynômes et fonctions polynomiales

    Proposition
    Soit {A} un polynôme de {\mathbb{K}[X]}, de degré inférieur ou égal à {n}.
    On suppose que {A} s’annule en au moins {n+1} points distincts de {\mathbb{K}}. Alors {A} est le polynôme nul.
    Proposition
    Soit {A,B} deux polynômes de {\mathbb{K}[X]}, de degré inférieur ou égal à {n}.
    On suppose que {A} et {B} prennent la même valeur en au moins {n+1} points distincts de {\mathbb{K}}.
    Alors les polynômes {A} et {B} sont identiques (autrement dit : ils ont les mêmes coefficients).

    Conséquence importante

    Soit {A} et {B} deux polynômes à coefficients dans {\mathbb{K}}.
    Si les fonctions polynomiales {\widetilde{A}} et {\widetilde{B}} sont égales, alors les polynômes {A} et {B} sont égaux.

    Il suffit d’ailleurs que l’égalité {\widetilde{A}(x)=\widetilde{B}(x)} soit vraie sur une partie infinie de l’ensemble {\mathbb{K}} pour qu’on ait l’égalité formelle des deux polynômes {A} et {B} (c’est-à-dire l’égalité de leurs coefficients).

    En d’autres termes, l’application de {\mathbb{K}[X]} dans {\mathcal{F}(\mathbb{K},\mathbb{K})} qui à un polynôme {A} associe la fonction polynomiale {\widetilde{A}} est injective (elle réalise donc une bijection de {\mathbb{K}[X]} sur son image, c’est-à-dire sur l’ensemble de toutes les fonctions polynomiales).

    La fonction polynomiale {\widetilde{A}} est par définition connue dès qu’on connaît {A}. Les remarques précédentes disent que réciproquement, un polynôme {A} (c’est-à-dire ses coefficients) est entièrement déterminé par la fonction polynomiale associée {\widetilde{A}} (c’est-à-dire par l’ensemble des valeurs de {A}).

    Relations entre coefficients et racines

    Définition (fonctions symétriques élémentaires)
    Soit {x_1,x_2,\ldots,x_n} une famille de {n} éléments de {\mathbb{K}}.
    Pour tout {k} de {\{1,\ldots,n\}}, on note {\sigma_k(x_1,x_2,\ldots,x_n)=\displaystyle\sum_{i_1\lt i_2\lt \cdots\lt i_k}x_{i_1}x_{i_2}\cdots x_{i_k}}

    Ainsi {\sigma_k} est la somme des produits {k} à {k} des {x_i]}.
    En particulier : {\sigma_1=\displaystyle\sum_{i=1}^{n}x_{i}}, {\sigma_2=\displaystyle\sum_{i\lt j}x_i\,x_j} (somme des produits deux à deux)
    De même {\sigma_n=\displaystyle\prod_{i=1}^{n}x_{i}}
    Les {sigma_k} sont appelés fonctions symétriques élémentaires de {x_1,x_2,\ldots,x_n}.

    Exemples et remarques

    Chaque expression {\sigma_k} est une somme de {\dbinom nk} termes.

    Les fonctions symétriques élémentaires de {a,b} sont {\sigma_1=a+b} et {\sigma_2=ab}.

    Celles de {a,b,c} sont {\sigma_1=a+b+c}, {\sigma_2=ab+ac+bc} et {\sigma_3=abc}.

    Celles de {a,b,c,d} sont : {\begin{cases}\sigma_1=a+b+c+d\\\sigma_2=ab+ac+ad+bc+bd+cd\end{cases}\quad\begin{cases}\sigma_3=abc+abd+acd+bcd\\\sigma_4=abcd\end{cases}}

    Fonctions symétriques, élémentaires ou non

    Soit {s} une permutation de {\{1,2,\ldots,n\}} et soit {k} un élément de {\{1,2,\ldots,n\}}.

    On a {\sigma_k(x_1,\ldots,x_n)=\sigma_k(x_{s(1)},\ldots,x_{s(n)})} (d’où le nom “fonctions symétriques”).

    Ces fonctions symétriques sont dites “élémentaires” parce que de nombreuses autres fonctions symétriques de {x_1,x_2,\ldots,x_n} peuvent s’écrire en fonction de {\sigma_1,\sigma_2,\ldots,\sigma_n}.

    Ainsi {S_2=x_1^2+x_2^2+\cdots+x_n^2=\sigma_1^2-2\sigma_2}.

    De la même manière : {\dfrac1{x_1}+\dfrac1{x_2}+\cdots+\dfrac1{x_n}=\dfrac{\sigma_{n-1}}{\sigma_n}}.

    Proposition (relations coefficients-racines, pour un polynôme scindé)
    Soit {A=a_nX^n+a_{n-1}X^{n-1}+\cdots+a_1X+a_0} dans {\mathbb{K}[X]}, avec {\deg(A)=n\ge1}.
    On suppose que le polynôme {A} est scindé dans {\mathbb{K}}.
    On note {\alpha_1,\ldots,\alpha_n} se racines (non nécessairement distinctes). Ainsi {A=a_n\displaystyle\prod_{k=1}^n(X-\alpha_k)\;}.
    Soit {\sigma_1,\sigma_2,\ldots,\sigma_n} les fonctions symétriques élémentaires de {\alpha_1,\alpha_2,\ldots,\alpha_n}.
    Alors on a les égalités : {\forall\, k\in\{1,\ldots,n\},\;\sigma_k=(-1)^k\dfrac{a_{n-k}}{a_n}}.

    Exemples

    • si {P=aX^2+bX+c=a(X-\alpha)(X-\beta)}, alors :{\sigma_1=\alpha+\beta=-\dfrac{b}{a}\;\text{et}\;\sigma_2=\alpha\beta=\dfrac{c}{a}}
    • si {P=aX^3+bX^2+cX+d=a(X-\alpha)(X-\beta)(X-\gamma)}, alors : {\sigma_1=\alpha\!+\!\beta\!+\!\gamma=-\dfrac{b}{a},\;\sigma_2=\alpha\beta\!+\!\alpha\gamma\!+\!\beta\gamma=\dfrac{c}{a},\;\sigma_3=\alpha\beta\gamma=-\dfrac{d}{a}}
    Proposition (utilisation des valeurs des fonctions symétriques élémentaires)
    Soit {\sigma_1,\ldots,\sigma_n} les fonctions symétriques élémentaires de {n} scalaires {x_1,\ldots,x_n}.
    L’ensemble {\{x_{1},x_{2},\ldots,x_{n}\}} est égal à l’ensemble des solutions de l’équation : {x^n-\sigma_1x^{n-1}+\cdots+(-1)^{n-1}\sigma_{n-1}x+(-1)^n\sigma_n=0}

    Exemples

    • Soit {(E)} l’équation {t^2-St+P=0}, d’inconnue {t} dans {\mathbb{K}}.
      Soit {\mathcal S} l’ensemble de ses solutions dans {\mathbb{K}}. On a : {\{x,y\}=\mathcal S\Leftrightarrow \begin{cases}x+y=S\\ xy=P\end{cases}}
    • Soit {(E)} l’équation {t^3-St^2+\lambda t-P=0}, d’inconnue {t} dans {\mathbb{K}}.
      Soit {\mathcal S} l’ensemble de ses solutions dans {\mathbb{K}}. Alors {\{x,y,z\}=\mathcal S\Leftrightarrow \begin{cases}x+y+z=S\cr xy+xz+yz=\lambda\cr xyz=P\end{cases}}

    Un exemple d’utilisation des fonctions symétriques élémentaires

    On considère le polynôme {A=X^3+X^2+3X+2}. Soit {\alpha,\beta,\gamma} ses racines dans {\mathbb{C}}.

    On se propose de calculer les sommes {S_n=\alpha^n+\beta^n+\gamma^n}, pour {n} dans {\mathbb{N}}.

    On a tout d’abord {S_0=3}, {S_1=\sigma_1=-1}, {S_2=\sigma_1^2-2\sigma_2=-5}.

    Par définition on a les égalités {\begin{cases}\alpha^3+\alpha^2+3\alpha+2=0\cr \beta^3+\beta^2+3\beta+2=0\cr \gamma^3+\gamma^2+3\gamma+2=0\end{cases}}

    On en déduit, pour tout {n\ge3} : {\begin{cases}\alpha^{n}+\alpha^{n-1}+3\alpha^{n-2}+2\alpha^{n-3}=0\cr \beta^{n}+\beta^{n-1}+3\beta^{n-2}+2\beta^{n-3}=0\cr \gamma^{n}+\gamma^{n-1}+3\gamma^{n-2}+2\gamma^{n-3}=0\end{cases}}

    Ainsi après addition terme à terme : {\forall\, n\ge3,\;S_n=-S_{n-1}-3S_{n-2}-2S_{n-3}}
    On trouve notamment {\begin{cases}S_3=-S_{2}-3S_{1}-2S_{0}=2\\S_4=-S_{3}-3S_{2}-2S_{1}=15\end{cases}}, etc.

    Page précédente : divisibilité dans K[X]
    Page suivante : dérivation des polynômes