Beruflich Dokumente
Kultur Dokumente
Henri Bonnel
Licence de Mathématiques L3
3 Méthodes itératives 33
3.1 Méthode de Jacobi, Gauss-Seidel, de relaxation . . . . . . . . . . . . . . . . . . . . . . 34
3.1.1 La méthode de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.1.2 La méthode de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.1.3 La méthode de relaxation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2 Convergence des méthodes de Jacobi, Gauss-Seidel et relaxation . . . . . . . . . . . . 35
4 Méthodes numériques de calcul des valeurs et vecteurs propres 35
4.1 La méthode de la puissance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.2 Méthode de la puissance inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.2.1 Recherche de la valeur propre de plus petit module . . . . . . . . . . . . . . . . 36
4.2.2 Recherche de la valeur propre la plus proche d’un nombre donné . . . . . . . . 36
4.3 Méthode QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
II Interpolation polynômiale 37
10 Formules de quadrature 47
10.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
10.2 Formules classiques : Newton-Cotes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
10.2.1 La formule des rectangles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
10.2.2 La formule des trapèzes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
10.2.3 La formule de Simpson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
11 Intégration Gaussienne 54
11.1 La fonction à intégrer sur un intervalle non nécessairement compact . . . . . . . . . . 54
11.2 La manière d’approcher l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
11.3 Formule de quadrature de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
11.3.1 Comment choisir le support d’intégration pour augmenter la précision ? . . . . 56
11.3.2 Polynômes orthogonaux : généralités . . . . . . . . . . . . . . . . . . . . . . . . 57
11.3.3 Polynômes orthogonaux classiques . . . . . . . . . . . . . . . . . . . . . . . . . 58
12 Exercices 59
Première partie
Analyse numérique matricielle
Exemple. E = Kn avec
x = (x1 , . . . , xn ), y = (y1 , . . . , yn ) ∈ Kn , α ∈ K, x+y = (x1 +y1 , . . . , xn +yn ), α·x = (αx1 , . . . , αxn ).
1
1.2 Sous-espace vectoriel, somme de sous-espaces, somme directe
Une partie non vide E 0 du K-ev E est dite sous-espace vectoriel (sev) de E si elle est stable pour les
deux lois :
∀x, y ∈ E 0 , ∀α ∈ K : x + y ∈ E 0 , αx ∈ E 0 .
Dans ce cas E 0 est un K-ev avec les lois induites par celles de E.
Si A et B sont deux parties de E, on note A + B = {a + b| a ∈ A, b ∈ B} la partie de E appelée
somme (algébrique) de A et B.
Exercice 1. 1. Soient F et G deux sous espaces vectoriels de E. Alors :
(a) F + G est un sev de E ;
(b) F ∩ G est un sev de E ;
(c) Si de plus F et G sont de dimension finie, on a la formule de Grassmann :
Soit A une partie non vide de E. L’intersection de la famille de tous les sous-espaces de E contenant
A est le plus petit (au sens de l’inclusion) sev de E contenant A (exercice). On le note Vect (A) et
on l’appelle le sous-espace vectoriel engendré par A. Tout élément x ∈ Vect (A) s’exprime comme
une combinaisons linéaire des éléments de A. Plus exactement, Vect (A) est l’ensemble de toutes les
combinaisons linéaires des éléments de A.
Exercice 2. Soient F et G deux sev de E. Montrer que
Vect (F ∪ G) = F + G.
Soient F et G deux sev de E. Si F ∩ G = {0E }, on dit que la somme F + G est directe et on la note
par F ⊕ G.
Exercice 3. Soient F et G deux sous espaces vectoriels de E. Les assertions suivantes sont équivalentes :
(i) F + G = F ⊕ G.
(ii) Pour tout x ∈ F + G il existe un couple unique (y, z) ∈ F × G tel que x = y + z.
On dit que les sous-espaces F et G sont supplémentaires (ou que G est un supplément de F ) lorsque
E = F ⊕ G.
Exercice 4. Soient F et G deux sev supplémentaires de E. Montrer que, si F = (f1 , . . . , fp ) est une base
de F et G = (g1 , . . . , gq ) est une base de G, alors (f1 , . . . , fp , g1 , . . . , gq ) est une base de E.
2
(iii) Si Ei = (ei1 , . . . , eimi ) est une base de Ei (i = 1, . . . , l) alors la famille obtenue par concaténation
l
]
E= (e11 , . . . , e1m1 , e21 , . . . , e2m2 , . . . , el1 , . . . , elml ) := Ei
i=1
Si les (une des) conditions de l’exercice précédent sont (est) vérifiées (vérifiée) on dit que E est somme
directe de Ei et on écrit
M l
E = E1 ⊕ · · · ⊕ El = Ei .
i=1
αn
est la matrice de x dans la base E.
Soit g ∈ L (E, F ) et soient E = (e1 , . . . , en ) une base de E et F = (f1 , . . . , fk ) une base de F . La
matrice A = gE,F représentant g dans les bases E, F est le tableau rectangulaire k × n
a11 a12 . . . a1n
a21 a22 . . . a2n X k
A = (aij ) = . défini par g(ej ) = aij fi , j = 1, . . . , n.
.. ..
.. . . i=1
ak1 ak2 . . . akn
3
1.3.1 Changement de base
Lorsque F = E, la matrice carrée(i) P = (pij ) ∈ Mn représentant g = idE : E → E définie par
x 7→ g(x) = x dans les bases F = (f1 , . . . , fn ) et E = (e1 , . . . , en ) de E est la matrice de changement
(ou de passage) de la base E en la base F et vérifie donc
n
X
fj = pij ei ∀j = 1, . . . , n.
i=1
Si x ∈ E alors
xE = P xF , xF = P −1 xE
où P −1 est la matrice inverse de P et représente l’application réciproque g −1 c’est-à-dire la matrice
de changement de la base F en la base E.
Enfin, soient g ∈ L (E, F ), E, E0 deux bases de E et F, F0 deux bases de F . Alors, si P est la matrice
de changement de la base E en la base E0 et Q la matrice de changement de la base F en la base F0 ,
et si G est la matrice représentant g dans les bases E, F alors
G0 = Q−1 GP
G0 = P −1 GP.
– L’image de g (ou de A) est le sous espace vectoriel de F (ou de Kk en identifiant Kk = Mk,1 (K))
défini par
4
On a rg (g) + dim ker(g) = n rg (A) + dim ker(A) = n
A∗ = t (Ā)
5
1.3.5 Matrice de permutation
Une permutation σ est une application bijective de l’ensemble {1, . . . , n} dans lui-même. Donc cela
revient à réordonner les nombres 1, . . . , n.
On associe à σ l’endomorphisme g ∈ L (Kn , Kn ) défini par
g(ei ) = eσ(i) i = 1, . . . , n
Exercice 9. Soit P une matrice de permutation. Montrer que P est une matrice orthogonale, i.e.
P −1 = t P .
Une permutation élémentaire ou transposition est une permutation σ telle qu’il existe deux éléments
distincts i et j vérifiant σ(i) = j, σ(j) = i et pour tout k 6= i, j on a σ(k) = k. Sa matrice Pij s’obtient
en permutant les colonnes i et j de la matrice unité In . Il résulte que Pij = t Pij donc Pij−1 = Pij .
Si l’on multiplie à gauche une matrice A par une matrice de permutation, on permute les lignes de A.
Par contre, si on multiplie à droite la matrice A par une matrice de permutation P, on permute les
colonnes de A selon σ −1 .
Li ↔ Lj
Li ← αLi
Li ← Li + αLj .
Définition 1. Soient :
– Hij la matrice obtenue en appliquant la transformation Li ↔ Lj à la matrice unité Ip
– Hi (α) la matrice obtenue en appliquant la transformation Li ← αLi à la matrice unité Ip (avec
α 6= 0)
– Hij (α) la matrice obtenue en appliquant la transformation Li ← Li + αLj à la matrice unité Ip .
Théorème 1. Les matrices Hij , Hi (α) et Hij (α) sont inversibles et chaque transformation élémentaire
(a), (b), (c) appliquée à la matrice A peut être réalisée en multipliant à gauche la matrice A par la
matrice watsonienne correspondante. Par exemple la matrice A0 = Hij (α)A est la matrice obtenue de
A en faisant Li ← Li + αLj .
Démonstration. Un bon exercice (facile !) pour ceux qui apprécient les matrices !
(iii)
L’appellation “watsonien” vient de Dr. Watson liée à la notion “élémentaire” et a été introduite par Pierre Brondeau
6
1.3.7 Déterminant d’une matrice carrée
On appelle déterminant de la matrice carrée A = (aij ) le nombre
X
det(A) = ε(σ) · a1σ(1) · · · anσ(n)
σ∈Sn
où Sn est l’ensemble des n! permutations de {1, . . . , n} et ε(σ) est la signature de σ et elle vaut
1 si σ se décompose en un produit d’un nombre pair de permutations élémentaires, −1 sinon. En
écrivant A = [A1 A2 . . . An ] avec Aj ∈ Kn la colonne j de la matrice A, on rappelle que l’applica-
tion (A1 , . . . , An ) 7→ det(A1 , . . . , An ) est multilinéaire de (Kn )n dans K, i.e. pour tous les j ∈ [[1, n]],
α ∈ K, (A1 , . . . , An ) ∈ (Kn )n , A0j ∈ Kn , on a
det(A) = det(t A)
det(αA) = αn det(A)
1
det(A−1 ) = si A est inversible.
det(A)
L’équation Ax = b admet une solution unique pour chaque b ∈ Kn ⇐⇒ det(A) 6= 0, et alors x = A−1 b
On propose comme exercice de montrer que deux matrices semblables ont le même déterminant.
Quand il n’y a pas de confusion on notera tout simplement hx, yi au lieu de hx, yin . On obtient donc
une application h·, ·i : Kn × Kn → K dite produit scalaire hermitien si K = C, euclidien si K = R,
vérifiant les propriétés suivantes quels que soient x, y, z ∈ Kn , α ∈ K :
7
(PS1) hx, yi = hy, xi (symétrie hermitienne) ;
(PS2) hαx + y, zi = αhx, zi + hy, zi (linéarité dans le premier argument) ;
(PS3) hx, xi > 0, hx, xi = 0 ⇐⇒ x = 0E (la forme quadratique associée est définie positive.
Bien évidemment, si K = R on peut omettre la barre dans la propriété (PS1), car elle n’a aucun effet.
A noter que (PS1) et (PS2) impliquent la semi-linéarité (ou anti-linéarité) dans le second argument,
i.e. hx, αy + zi = ᾱhx, yi + hx, zi. A noter également que la propriété (PS1) entraı̂ne que hx, xi est un
réel pour tout x.
En général, un K-espace vectoriel E de dimension finie muni d’un produit scalaire (i.e. d’une ap-
plication h·, ·i : E × E → K vérifiant (PS1), (PS2) et (PS3)) sera dit espace hermitien si K = C, et
espace euclidien si K = R. Un K-ev de dimension infinie sera dit espace préhilbertien.
Exercice 10. Donner une explication pourquoi il est nécessaire de considérer le conjugué complexe dans
la propriété (PS1) lorsque K = C ?
Indication. Considérer un réel θ pour que eiθ hx, yi = |hx, yi| et utiliser 0 6 heiθ x − y, eiθ x − yi = . . . Ensuite, dans
p p
l’inégalité obtenue, remplacer x par x/ hx, xi et y par y/ hy, yi...
p
2. En déduire que l’application x 7→ kxk := hx, xi est une norme sur E, i.e. elle vérifie pour tout
x, y ∈ E, α ∈ K,
(N1) kαxk = |α| · kxk;
(N2) kx + yk 6 kxk + kyk;
(N3) kxk > 0, kxk = 0 ⇐⇒ x = 0E .
Exercice 12. Soit E un C-espace préhilbertien. Montrer que, pour tout (x, y) ∈ E 2 et α ∈ C, on a :
La norme euclidienne (resp. hermitienne) d’un vecteur x ∈ Rn (resp. x ∈ Cn ), est donc le nombre
positif
p Xn
kxk2 = hx, xi = ( |xi |2 )1/2 .
i=1
Proposition 1. Soit A ∈ Mp,n (K) une matrice rectangulaire. Alors pour tout x ∈ Kn et pour tout
y ∈ Kp on a
hAx, yip = hx, A∗ yin .
Démonstration.
hx, A∗ yin = (A∗ y)∗ x = y ∗ (A∗ )∗ x = y ∗ (Ax) = hAx, yip
8
Proposition 2. Soit A ∈ Mp,n (K). On a :
Démonstration. On a
( im (A))⊥ = {y| hy, Axi = 0 ∀x ∈ Kn } = {y| hA∗ y, xi = 0 ∀x ∈ Kn } = {y| A∗ y = 0}.
La deuxième égalité repose sur le fait que si E est un sous-espace vectoriel de Kn alors (E ⊥ )⊥ = E.(iv) En effet, en
utilisant la première égalité appliquée à (A∗ )∗ on a
Remarque 1. Soit A une matrice rectangulaire. Alors les matrices A∗ A et AA∗ sont hermitiennes
car (A∗ A)∗ = A∗ (A∗ )∗ = A∗ A et (AA∗ )∗ = (A∗ )∗ A∗ = AA∗ . De plus A∗ A et AA∗ sont semi définies
positives car :
(1) hA∗ Ax, xi = hAx, Axi = kAxk2 > 0
et l’autre s’obtient en remplaçant A par A∗ dans la précédente.
La relation (1) entraı̂ne aussi que, si ker A = {0} (i.e. l’application associée à A est injective), alors
A∗ A est positive définie.
Proposition 3. Les sous matrices principales d’une matrice hermitienne et définie positive sont her-
mitiennes et définies positives. Les éléments diagonaux de A sont strictement positifs.
Démonstration. Exercice (considérer x = (x1 , . . . , xk , 0, . . . , 0), k < n pour les sous matrices principales et les
vecteurs de la base canonique pour les éléments diagonaux).
Q∗ Q = In .
(iv)
La démonstration de cette propriété peut être obtenue en utilisant la projection orthogonale sur E. L’inclusion E ⊂
(E ⊥ )⊥ étant évidente, il suffit de montrer l’autre inclusion. Soit x ∈ (E ⊥ )⊥ . Soit x0 la projection orthogonale de x sur E.
Comme (x−x0 ) ⊥ E on a que x ⊥ (x−x0 ), et d’après Pythagore, kxk2 > kx0 k2 = kx−(x−x0 )k2 = kxk2 +kx−x0 k2 > kxk2
d’où kx − x0 k = 0. Donc x = x0 ∈ E.
9
Lemme 2. Soit la matrice Q ∈ Mp,n (C) (avec p > n). Alors
Il résulte que
<hx, yin = <hQx, Qyip ,
d’où
<(hx, y − Q∗ Qyin ) = <(hx, yin − hx, Q∗ Qyin ) = 0.
En prenant x = y − Q Qy, on obtient Q∗ Qy = y.
∗
Démonstration. Pour une matrice carrée unitaire on a Q∗ Q = I donc det(Q∗ ) det(Q) = 1 donc Q est inversible et
Q∗ = Q−1 .
Réciproquement, si Q∗ = Q−1 alors Q∗ Q = I donc Q est unitaire.
1.4.4 Projecteurs
Soit E, F deux sous-espace vectoriels de Kn tels que
Kn = E ⊕ F.
Cela veut dire que tout vecteur x ∈ Kn s’écrit d’une manière unique comme x = x1 + x2 avec
x1 ∈ E, x2 ∈ F . L’application f : x 7→ x1 est linéaire et s’appelle projection sur E parallèlement à F .
A noter que f ◦ f = f . Si E ⊥ F on appelle f projection orthogonale sur E. Il est clair que E = im f ,
F = ker(f ). Montrons que la réciproque est valable aussi.
(v)
i.e. Q est une isométrie.
10
Définition 4. On appelle matrice de projection, toute matrice carrée P telle que P 2 = P.
Proposition 4. Soit P un projecteur. Alors la matrice Q = I − P est aussi un projecteur appelé
projecteur supplémentaire à P . De plus
et
Kn = im P ⊕ ker P.
(on dit que P est une projection sur im (P ) parallèlement à ker P )
Démonstration. On a Q2 = I 2 − 2P + P 2 = I − 2P + P = I − P = Q.
y ∈ im (Q) =⇒ ∃x : y = x − P x =⇒ P y = P x − P 2 x =⇒ y ∈ ker(P )
y ∈ ker(P ) =⇒ y = y − P y =⇒ y = Qy =⇒ y ∈ im (Q).
im (P ) = ker(Q) car on peut utiliser l’égalité précédente en observant que Q = I − P , et en permutant P et Q.
Soit x ∈ Kn . Évidemment x = P x + (x − P x) = P x + Qx = x1 + x2 avec x1 ∈ im (P ) et x2 ∈ ker(P ). Si x = x01 + x02
avec x01 ∈ im (P ) et x02 ∈ ker(P ) alors y = x1 − x01 = x02 − x2 ∈ im (P ) ∩ ker(P ) Donc y = P z et P y = 0, d’où P 2 z = 0,
et finalement P z = 0. Donc y = 0 ce qui entraı̂ne l’unicité de l’écriture.
Démonstration. (i) est immédiat grâce à la proposition précédente et au fait que ker(P ) = im (P )⊥ . En particulier
on a x − P x ⊥ P x c’est-à-dire hx, P xi = kP xk22 et il suffit d’appliquer l’inégalité de Cauchy-Schwarz pour obtenir (ii).
Pour tout y ∈ im (P ) on a
(2) Av = λv.
11
d’où on déduit que :
Exercice 13. Soient A et B deux matrices carrées semblables. Montrer que pA (λ) = pB (λ).
Proposition 5. Soit A ∈ Mn (C) une matrice hermitienne. Alors
Sp (A) ⊂ R.
Démonstration. Soit λ ∈ Sp (A) et v ∈ Eλ \ {0}. On a
λhv, vi = hλ · v, vi = hAv, vi = hv, Avi = λ̄hv, vi,
d’où λ = λ̄ (car hv, vi > 0). Donc λ ∈ R.
Comme toute matrice réelle symétrique est hermitienne, on obtient directement le résultat suivant.
Corollaire 1. Si A ∈ Mn (R) est une matrice symétrique, alors toutes les racines (dans C) du
polynôme caractéristique sont réelles, autrement dit le polynôme caractéristique est scindé sur
R (voir ci-dessous la définition 6).
Proposition 6. Soit A une matrice carrée unitaire (en particulier orthogonale ). Alors tous les
éléments de son spectre sont de module 1.
Démonstration. Soit λ ∈ Sp (A) et v ∈ Eλ \ {0}. On a
kvk22 = hv, A∗ Avi = hAv, Avi = hλv, λvi = |λ|2 kvk22
Définition 6. Un polynôme p ∈ K[X] de degré k > 1 est dit scindé s’il est un produit des polynômes
de premier degré. Donc
Yk Y l
p(X) = c (X − αi ) = c (X − βj )mj
i=1 j=1
12
Remarque 3. Tout polynôme p de C[X] de degré > 1 est scindé (selon le théorème de
d’Alembert-Gauss).
Proposition 7. Si la matrice A est trigonalisable (en particulier diagonalisable) alors son polynôme
caractéristique pA est scindé.
Démonstration. Soit
t11 t12 ... t1n
0 t22 ... t2n
T =
.. .. .. ..
. . . .
0 0 ... tnn
une matrice triangulaire (pour fixer les idées disons “ supérieure”) semblable à la matrice A.
On a
t11 − X
t12 ... t1n
0 t 22 − X . . . t2n
Y n
pT (X) = pA (X) = = (tii − X),
.. .. ..
. . ... .
i=1
0 0 . . . tnn − X
qui évidemment est scindé.
Exercice 15. Soit A ∈ Mn (K), k ∈ N∗ et {λ1 , . . . , λk } ⊂ Sp (A) avec (λi 6= λj pour i 6= j). Alors, quel
que soient les vecteurs ei ∈ Eλi \ {0} on a que la famille (e1 , . . . , ek ) est libre.
Indication. Preuve par récurrence selon k.
Exercice 16. Soit A ∈ Mn (K), k ∈ N∗ et {λ1 , . . . , λk } ⊂ Sp (A) avec (λi 6= λj pour i 6= j). Alors la
somme Eλ1 + · · · + Eλk est directe.
Indication. Utiliser l’exercice précédent et l’exercice 5.
et donc on a pA (X) = pA0 (X) = (λ − X)k r(X) avec r(X) ∈ K[X]. En utilisant la définition de la multiplicité d’une
racine on déduit que m > k.
13
Démonstration. Soit A diagonalisable. Considérons une base E de E formée par des vecteurs propres de A, et
en posant P = [e1 . . . en ] la matrice de passage de la base canonique à la base des vecteurs propres, on a D =
n
Y k
Y
P −1 AP = diag (α1 , . . . , αn ). Donc pD (X) = pA (X) = (−1)n (X − αj ) = (−1)n (X − λi )mi où λ1 , . . . , λk sont
j=1 i=1
distinctes deux à deux donc k = Card {α1 , . . . , αn }, et {λ1 , . . . , λk } = {α1 , . . . , αn } = Sp (A). Le nombre mi représente
la multiplicité de λi dans pA (X). On peut supposer (quitte à faire une permutation de la famille (β1 , . . . , βn )) que
β1 = · · · = βm1 = λ1 , βm1 +1 = · · · = βm1 +m2 = λ2 , . . . , βm1 +···+mk−1 +1 = · · · = βm1 +···+mk−1 +mk = λk . On a
m1 + · · · + mk = n. Alors on peut écrire E = (e11 , . . . , e1m1 , e21 , . . . , e2m2 , . . . , ek1 , . . . , ekmk ), avec eij ∈ Eλi , j = 1, . . . , mi .
Comme E est libre, on a que Ei = (ei1 , . . . , eimi ) est libre dans Eλi , donc dim Eλi > mi . En utilisant la proposition 8 on
a dim Eλi 6 mi , ce qui prove finalement que dim Eλi = mi .
k
Y
Réciproquement, soit Sp (A) = {λ1 , . . . , λk }, (avec λi 6= λj si i 6= j) et pA (X) scindé donc pA (X) = (−1)n (X − λi )mi ,
i=1
k
M
avec m1 + . . . + mk = n. Grâce à l’exercice 16 on a que la somme Eλ1 + · · · + Eλk est directe et posons F = Ei .
i=1
On a que F est un sous-espace vectoriel de E et dim F = m1 + . . . + mk = n. Donc F = E. Soit Ei une base de Ei
k
]
(i = 1, . . . , k). Alors conformément à l’exercice 5, la famille E = Ei est une base de E et évidemment elle est formée
i=1
par des vecteurs propres de A.
On peut
constater
facilement qu’il existe des matrices non diagonalisables. Par exemple, la matrice
1 1
A = a le spectre Sp (A) = {1}, le polynôme caractéristique pA (X) = (1 − X)2 ayant la
0 1
racine double 1 est scindé sur R, mais dim E1 = 1 < 2, donc d’après le théorème 3, A n’est pas
diagonalisable.
Le résultat suivant montre que toute matrice carrée de polynôme caractéristique scindé est
trigonalisable via une matrice unitaire. Plus précisément on a le théorème suivant.
14
D’autre part, v(e1 ) = 0 et w(ej ) = v(ej ) = n
P
i=2 αij ei si j > 2, donc
0 0 ... 0
0 α22 . . . α2n α22 ... α2n
. ..
vE = . B := wE0 = ..
.. .. ... .
.. . ... .
αn2 ... αnn
0 αn2 . . . αnn
où E0 = (e2 , . . . , en ). On constate (en développant det(A0 − X · In ) suivant la première colonne) que pu (X) = pA0 (X) =
det(A0 − X · In ) = (λ1 − X) det(B − X · In−1 ) = (λ1 − X)pB (X) = (λ1 − X)pw (X). Comme pu (X) est scindé, il
résulte que pw (X) est scindé. D’après l’hypothèse de récurrence à l’ordre n − 1, il résulte que w est trigonalisable. Soit
G = (g2 , . . . , gn ) une base de G dans laquelle la matrice de w est triangulaire, donc
γ22 γ23 . . . γ2n
0 γ33 . . . γ3n
C = wG = . .. ,
.. ..
. .
0 0 . . . γnn
Considérons la base B = (e1 , g2 , . . . , gn ) de E. Il existe les nombres β1j tels que u(gj ) = β1j e1 +v(gj ) = β1j e1 + ji=2 γij gi
P
pour j > 2. Comme u(e1 ) = λ1 e1 on obtient que
λ1 β12 . . . β1n
0 γ22 . . . γ2n
uB = .
.. ..
.. . .
0 0 . . . γnn
Théorème 5. Soit A ∈ Mn (K) une matrice normale (A∗ A = AA∗ ). Alors il existe une matrice
unitaire carrée U telle que la matrice U ∗ AU soit diagonale. De plus, si K = R et le polynôme ca-
ractéristique de A est scindé sur R, alors la matrice U est orthogonale.
Démonstration. D’après le théorème 4, il existe une matrice unitaire carrée U (resp. orthogonale si K = R et pA
scindé sur R) telle que la matrice T = (tij ) = U ∗ AU soit triangulaire supérieure. On a
T ∗ T = (U ∗ AU )∗ U ∗ AU = U ∗ A∗ U U ∗ AU = U ∗ A∗ AU
et
T T ∗ = U ∗ AU (U ∗ AU )∗ = U ∗ AU U ∗ A∗ U = U ∗ AA∗ U = T ∗ T,
donc T est normale. Alors
n
X
|t1k |2 = (T T ∗ )11 = (T ∗ T )11 = |t11 |2 ,
k=1
15
d’où t1k = 0 pour tout k > 2. Par suite
n
X
|t2k |2 = (T T ∗ )22 = (T ∗ T )22 = |t12 |2 + |t22 |2 = |t22 |2 ,
k=2
d’où t2k = 0 pour tout k > 3, etc. Donc la matrice T est en fait diagonale.
1.7 Normes
Une norme sur un espace vectoriel E est une application de E dans R, x 7→ kxk vérifiant les propriétés
(N1), (N2), (N3). Dans E = Kn les normes les plus utilisées sont
n
!1/p
X
p
kxkp = |xi | .
i=1
Définition 7. Une norme matricielle est une norme définie sur Mn (K) qui de plus vérifie :
kA · Bk 6 kAk · kBk.
On peut définir des normes matricielles à partir des normes des vecteurs dans Kn . Si k · k est une
norme sur Kn la norme matricielle subordonnée (ou induite) est définie par
16
Xn
kAk∞ = max ( |aij |).
16i6n
j=1
Si A est normale :
où µn est la plus grande valeur propre de A∗ A. Comme A∗ A est positive, on a µn = ρ(A∗ A), d’où le résultat.
Montrons que ρ(A∗ A) = ρ(AA∗ ). Si ρ(A∗ A) > 0, il existe u ∈ E tel que
u 6= 0, et A∗ Ap = ρ(A∗ A)p.
On a Ap 6= 0 car, dans le cas contraire (Ap = 0) on aurait A∗ Ap = 0 ce qui contredirait ρ(A∗ A) > 0. En posant
q = Ap 6= 0, on a
AA∗ q = ρ(A∗ A)q,
d’où ρ(A∗ A) ∈ Sp (AA∗ ), ce qui entraı̂ne
(3) ρ(A∗ A) 6 ρ(AA∗ ).
Donc, ρ(AA∗ ) > 0, et en posant B = A∗ , on a ρ(B ∗ B) > 0, donc ρ(B ∗ B) 6 ρ(BB ∗ ) (en remplaçant A par B dans
(3)). Autrement dit ρ(AA∗ ) 6 ρ(A∗ A) d’où l’égalité. Si ρ(A∗ A) = 0, alors on a aussi ρ(AA∗ ) = 0, sinon le raisonnement
précédent montrerait que ρ(A∗ A) > 0.
Soit maintenant U une matrice unitaire. On a
Proposition 10. Quelque soit la matrice A et pour toute norme matricielle on a %(A) 6 kAk
Démonstration. Soit λ ∈ Sp (A) tel que %(A) = |λ|. Soit u un vecteur propre associée à λ et v un vecteur tel que
la matrice ut v ne soit pas nulle. On a
ρ(A)kut vk = |λ| · kut vk = k(λu)t vk = k(Au)t vk = kA(ut v)k 6 kAk · kut vk,
Proposition 11. Soient A ∈ Mn (K) et ε > 0. Il existe une norme matricielle subordonnée k · k telle
que
kAk 6 ρ(A) + ε.
17
Démonstration. Selon le théorème 4, il existe une matrice inversible U (le fait que U est unitaire ne joue aucun
rôle ici) telle que
λ1 t12 t13 ··· t1n
0 λ2 t23 ··· t2n
..
..
U −1 AU =
0 0 . ··· .
.. .. .. ..
. . . .
0 0 0 ··· λn
les nombres λi étant les valeurs propres de la matrice A. Considérons la matrice Dδ = diag (1, δ, δ 2 , . . . , δ n−1 ) où δ > 0.
On obtient
λ1 δt12 δ 2 t13 ··· δ n−1 t1n
0 λ2 δt23 ··· δ n−2 t2n
..
−1
..
(U Dδ ) A(U Dδ ) = 0 0 . ··· . .
. . .. ..
.. ..
. .
0 0 0 ··· λn
Fixons δ > 0 vérifiant
n
X
j−i
max δ tij 6 ε.
16i6n
j=i+1
L’application Mn (K) 3 B 7→ kBk = k(U Dδ )−1 B(U Dδ )k∞ (qui dépend bien évidemment de A et de ε !) vérifie l’énoncé
du théorème. En effet, en écrivant A = diag (λ1 , . . . , λn ) + B, d’après la proposition 9 et le choix de δ, on obtient que
kAk 6 ρ(A) + ε.
D’autre part on vérifie facilement (exercice !) que k · k est une norme matricielle subordonnée à la norme vectorielle
x 7→ k(U Dδ )−1 xk∞ .
Théorème 7. Soit A ∈ Mn (K) une matrice carrée. les conditions suivantes sont équivalentes :
(i) lim Ak = 0
k→∞
(ii) limk→∞ Ak x = 0 ∀x ∈ Kn .
(iii) %(A) < 1
(iv) Il existe une norme matricielle subordonnée k · k pour laquelle kAk < 1.
Démonstration. Soit k · k une norme vectorielle et k · k la norme matricielle subordonnée. L’implication (i) =⇒
(ii) est évidente car kAk xk 6 kAk k · kxk 6 kAkk kxk → 0.
Montrons (ii) =⇒ (iii). Supposons par l’absurde que %(A) > 1. Il existe alors v ∈ Kn \ {0} un vecteur propre de A et
λ ∈ K une valeur propre |λ| > 1. On a Ak v = Ak−1 (Av) = λAk−1 v = . . . = λk v. Mais alors kAk vk = |λ|k kvk > kvk qui
ne tend pas vers 0.
L’implication (iii) =⇒ (iv) résulte immédiatement en utilisant la proposition 11, car il suffit de choisir par exemple
1
ε = (1 − %(A)).
2
La dernière implication (iv) =⇒ (i) est immédiate car kAk k 6 kAkk → 0.
18
et considérons le système perturbé, où seulement le second membre a été très légèrement modifié :
10 7 8 7 x1 + ∆x1 32, 1 9, 2
7 5 6 5 x2 + ∆x2 22, 9 −12, 6
8 6 10 9 x3 + ∆x3 = 33, 1 , qui admet la solution 4, 5 .
Dans ce cas une erreur relative (i.e. ∆x x ) de l’ordre 1/200 sur les données (ici le second membre)
entraı̂ne une erreur relative de l’ordre de 10/1 sur le résultat (la solution du système linéaire), soit un
rapport d’amplification des erreurs relatives de l’ordre de 2000 ! !
Considérons également le système perturbé, où cette fois c’est la matrice du système qui est légèrement
perturbée :
10 7 8, 1 7, 2 x1 + ∆x1 32 −81
7, 08 5, 04 6 5 x2 + ∆x2 23 137
=
33 , qui admet la solution −34
.
8 5, 98 9, 89 9 x3 + ∆x3
6, 99 4, 99 9 9, 98 x4 + ∆x4 31 22
Là encore, de petites variations des données (ici, les éléments de la matrice) modifient complètement
le résultat (la solution du système). Portant la matrice A du système semble “ gentille” : elle est
symétrique, sont déterminant vaut 1, et la matrice inverse
25 −41 10 −6
−41 68 −17 10
A−1 = 10 −17
5 −3
−6 10 −3 2
où la matrice A est supposée inversible, et ∆x, ∆b sont des vecteurs. On va comparer les solutions
exactes x et x + ∆x des deux systèmes. Considérons une norme quelconque k · k sur Kn et k · k la
norme matricielle subordonnée. Des égalités
k∆xk −1 k∆bk
6 kA k · kAk .
kxk kbk
19
où kAk représente la norme matricielle subordonnée à la norme vectorielle k · k. Lorsque’on utilise la
norme k · kp , on écrit condp (A).
On a donc montré que l’erreur relative du résultat est majorée par l’erreur relative sur la donnée b de
la façon suivante
k∆xk k∆bk
6 cond (A) .
kxk kbk
On peut montrer qu’il n’est pas possible de faire mieux ! Plus précisément, on a le théorème suivant.
Théorème 8. Soit A une matrice inversible, et soit x et x + ∆x les solutions des systèmes linéaires
Ax = b,
A(x + ∆x) = b + ∆b,
où b et ∆b sont des vecteurs. On suppose b 6= 0. Soit k · k une norme vectorielle et k · k la norme
matricielle subordonnée. Alors on a l’inégalité
k∆xk k∆bk
6 cond (A) ,
kxk kbk
et c’est la meilleure possible : pour une matrice A donnée, on peut trouver des vecteurs b 6= 0 et ∆b 6= 0
tels qu’elle devienne une égalité.
Démonstration. On a déjà montré l’inégalité. Comme la sphère unité est compacte dans l’espace vectoriel normé
(Kn , k · k) et toute application linéaire définie sur un espace vectoriel normé de dimension finie dans un evn quelconque
est continue, il existe des vecteurs ∆b et x sur la sphère unité tels que kAxk = kAk et kA−1 ∆bk = kA−1 k. Avec ce choix,
i.e. en posant b = Ax et en tenant compte que ∆x = A−1 ∆b, on obtient une égalité.
Théorème 9. Soit A une matrice inversible, et soit x et x + ∆x les solutions des systèmes linéaires
Ax = b,
(A + ∆A)(x + ∆x) = b,
où b est un vecteur et ∆A est une matrice. On suppose b 6= 0. Soit k · k une norme vectorielle et k · k
la norme matricielle subordonnée. Alors on a l’inégalité
k∆xk k∆Ak
6 cond (A) ,
kx + ∆xk kAk
et c’est la meilleure possible : pour une matrice A donnée, on peut trouver un vecteur b 6= 0 et une
matrice ∆A 6= 0 tels qu’elle devienne une égalité.
Démonstration. En utilisant l’égalité Ax = b dans le système perturbé, on obtient A∆x = −∆A(x + ∆x), d’où
∆x = −A−1 ∆A(x + ∆x), ce qui entraı̂ne k∆xk 6 kA−1 k · k∆Ak · kx + ∆xk = cond (A) k∆Ak kAk
kx + ∆xk, donc l’inégalité
est prouvée.
Pour montrer que l’inégalité peut devenir une égalité, considérons un vecteur unitaire y tel que kA−1 yk = kAk (voir la
démonstration du théorème précédent). Soit α ∈ K \ {0}. En prenant ∆A = −αI, ∆x = αA−1 y, x = y − ∆x, b = Ax, on
obtient les égalités
Ax = b, (A + ∆A)(x + ∆x) = b,
k∆xk = |α| · kA−1 yk = |α| · kA−1 k = k∆Ak · kA−1 k = k∆Ak · kA−1 k · kx + ∆xk.
Pour que b soit non nul, il suffit de choisir α ∈ K \ ({0} ∪ Sp (A)). En effet, Ax = A(y − ∆x) = Ay − αy 6= 0, car kyk = 1,
donc y 6= 0 et α ∈
/ Sp (A).
20
Théorème 10. 1. Pour tout matrice A inversible,
cond (A) > 1, cond (A) = cond (A−1 ), cond (αA) = cond (A), α ∈ K \ {0}.
1. Soient A et B deux matrices carrées de même ordre, avec A inversible. Montrer que les polynômes
caractéristiques de AB et de BA coı̈ncident.
Montrer que le résultat reste valable sans la condition A inversible.
Indication. Si A n’est pas inversible, alors il existe ε0 > 0 tel que pour tout ε ∈]0, ε0 ] on ait A + εI inversible. Ensuite,
justifier que l’application ε 7→ p(A+εI)B (λ) est continue sur R pour tout λ ∈ C fixé.
3. Soit A, B ∈ Mn (R).
(a) Peut-on avoir AB − BA = λIn avec λ ∈ R \ {0} ?
(b) Si n est impair et A et B sont inversibles, peut-on avoir AB + BA = 0 ?
4. Soit A une matrice carrée et λ ∈ Sp (A). Montrer que, pour tout p ∈ N∗ , λp ∈ Sp (Ap ).
5. Soit A une matrice carrée nilpotente (i.e. il existe p ∈ N∗ tel que Ap = 0). Déterminer Sp (A) et les
sous-espaces propres.
6. Soit A une matrice carrée inversible. Établir une relation entre pA (λ−1 ) et pA−1 (λ) où λ ∈ C \ {0}.
Quelle relation on a entre :
(a) Sp (A) et Sp (A−1 ) ?
(b) les sous-espaces propres de A et de A−1 ?
(vii)
A se rappeler que la matrice A∗ A est définie positive si A est inversible, donc les valeurs propres sont des réels
strictement
p positifs. Si λ1 (A∗ A) 6 λ2 (A∗ A) 6 . . . 6 λn (A∗ A) sont les valeurs propres de A∗ A, alors les nombres
µi = λi (A∗ A), 1 6 i 6 n s’appellent valeurs singulières de la matrice A.
21
7. Soit A = (aij ) ∈ Mn (R) avec aij = 1 pour tout (i, j) ∈ [[1, n]]2 . Trouver Sp (A) et les sous-espaces
propres de A. La matrice A est-elle diagonalisable ? Si la réponse est “ oui”, alors donner une matrice
de passage.
Indication. Montrer que les espaces propres sont E0 = ker(A) et En = R · (1, 1, . . . , 1). Vous pouvez choisir
1 1 1 ... ... 1
−1 1 1 ... ... 1
0 −2 1 . . . . .. 1
.. ..
P = 0 0 −3 . . .
.. .. . . .. .. .
. ..
. . . .
0 0 ... ... 1 − n 1
8. Quelle relation existe-t-il entre le polynôme caractéristique d’une matrice carrée A ∈ Mn (K) et celui
de sa transposée t A ?
α si i = j
9. Soient les matrices A, B ∈ Mn (C) avec aij = α ∀(i, j) ∈ [[1, n]] et bij =
2 , où
β si i 6= j
α, β ∈ C. Calculer pA (X) et pB (X).
Indication. Exprimer A et B en utilisant la matrice In et la matrice ayant tous les termes égaux à 1 (voir l’exercice
17.7).
10. Montrer que si les matrices carrées A et B sont semblables, alors pour tout n ∈ N (ou n ∈ Z si A
inversible) An est semblable à B n avec la même matrice de passage.
11. Étudier si les matrices suivantes sont diagonalisables ou trigonalisables dans Mn (R). Trouver, s’il y a
lieu une base dans laquelle la matrice est diagonalisable (resp. trigonalisable). Pour les matrices non
trigonalisables dans Mn (R) diagonaliser ou trigonaliser dans Mn (C).
5 −3 2 2 −1 1 2 −1 −1
a) 6 −4 4 b) 1 2 −1 c) 2 −1 −2
4 −4 5 1 −1 2 −1 1 2
1 0 0 0 ... 0
1 2 0 0 ... 0
1 −1 1 2 1 0
d) 1 1 −1 e) 1 3 −1 f)
1 2 3 0 ... 0
0 −1 2 −1 2 3
.. .. .. ..
. . . .
1 2 3 4 ... n
12. Calculer An où A est la matrice donnée dans l’exercice précédent au point a) ou au point d).
14. Soit A ∈ Mn (C), et soient λ1 (A), . . . , λn (A) les valeurs propres de A (comptées avec leurs multi-
plicités). Montrer que
n
Y n
X
det(A) = λk (A), tr (A) = λk (A).
k=1 k=1
22
Exercice 18. Matrices symétriques, matrices hermitiennes, espaces euclidiens et her-
mitiens
1. (Th. de Jacobi) Soit A ∈ Mn (R) une matrice symétrique. On note Ap = [aij ]16i,j6p (1 6 p 6 n).
Montrer que :
(i) A positive =⇒ det Ap > 0 pour tout p ∈ [[1, n]] ;
(ii) A est définie positive ⇐⇒ det Ap > 0 pour tout p ∈ [[1, n]] ;
(iii) A négative =⇒ (−1)p det Ap > 0 pour tout p ∈ [[1, n]] ;
(iv) A est définie négative ⇐⇒ (−1)p det Ap > 0 pour tout p ∈ [[1, n]].
2. Soit A = [aij ] ∈ Mn (R) une matrice symétrique positive. Montrer que :
3. Soit a et b deux vecteurs unitaires distincts d’un espace euclidien E. Montrer qu’il existe une unique
réflexion (i.e. une symétrie par rapport à un hyperplan vectoriel) les échangeant : la réflexion notée
sa,b qui est la réflexion d’hyperplan H = (b − a)⊥ et qui vérifie
Indication. Soit (e1 , . . . , en ) la base canonique de Rn , (c1 , . . . , cn ) les vecteurs de Rn dont les matrices dans la base
Pn
canonique sont les colonnes de M . Posons f = e1 + · · · + en . Montrer que i=1 mij = hcj , f i. En déduire que
| i=1 j=1 mij | = | j=1 hcj , f i| = |h j=1 cj , f i| 6 k j=1 cj k · kf k. Mais kf k2 = n et k n
Pn Pn Pn Pn Pn P 2
j=1 cj k = n.
5. Soit une matrice hermitienne A ∈ Mn (C) pour laquelle il existe p ∈ N∗ tel que Ap = In . Montrer
que A2 = In .
6. Soit a1 , . . . , an des réels non nuls. Diagonaliser la matrice de terme général ai aj .
Indication. Montrer que la rang de A est égal à 1. En déduire que les espaces propres de A sont ker A et im A, et que
Sp (A) = {0, n 2
P
i=1 i }. Une base orthogonale de vecteurs propres de A est (f1 , . . . , fn ) où
a
a2 a2 2
1 +a2 a2 2 2
1 +a2 +a3
f1 = (a1 , − a12 , 0, . . . , 0); f2 = (a1 , a2 , − a3
, 0, . . . , 0), f3 = (a1 , a2 , a3 , − a4
, 0, . . . , 0), . . . , fn = (a1 , a2 , . . . , an ),
dont (f1 , . . . , fn−1 ) est une base de ker A.
7. (La racine carrée d’une matrice hermitienne positive) Soit A ∈ Mn (C) une matrice
hermitienne positive. Montrer qu’il existe une matrice hermitienne positive B tel que B 2 = A.
8. Soit A ∈ Mn (C) une matrice hermitienne positive. Montrer que det(A) est un réel positif et
√n
p
1 + det A 6 n det(In + A).
23
Exercice 19. (Le quotient de Rayleigh et le théorème de Courant-Fischer) Soit A ∈
Mn (K) une matrice hermitienne de valeurs propres λ1 6 λ2 6 . . . 6 λn , les vecteurs propres associés
p1 , . . . , pn vérifiant
p∗i pj = δij ,
i.e. (p1 , . . . , pn ) est une BON de Kn . Pour tout k ∈ [[1, n]], on note Vk = Vect (p1 , . . . , pk ) et on note Vk
l’ensemble des sous-espaces vectoriels de dimension k de Kn . On pose V0 = {0} et V0 = {V0 }.
On définit l’application (appelée quotient de Rayleigh) RA : Kn \ {0} → K par
hAv, vin v ∗ Av
RA (v) = = ∗ .
hv, vi v v
La matrice A étant hermitienne, les valeurs de RA sont réelles ! Montrer les propriétés suivantes pour tout
k ∈ [[1, n]] :
(4) λk = RA (pk ),
(5) λk = max RA (v),
v∈Vk \{0}
(6) λk = min RA (v),
⊥ \{0}
v∈Vk−1
⊥
Pour justifier l’inégalité contraire on doit montrer (en utilisant la formule de Grassmann) que dim(W ∩ Vk−1 ) > 1 et on utilise
(6).
(9) A∗ Ax = A∗ y,
(viii)
Plus exactement, si x0 est une solution du système, alors l’ensemble des solutions est x0 + ker(A).
24
et sera appelé solution du système Ax = y au sens des moindres carrés, car
2
Xp X n
2
minn kAx − yk2 = min aij xj − yi .
x∈K
i=1 j=1
A∗ AA# = A∗ ; A# A = In ,
25
iii. AA# A = A; A# AA# = A# , (A# )# = A.
Indication. Pour montrer ii. il suffit de montrer que x# représente la projection orthogonale sur ker(A)⊥
de toute solution x du système normal. Pour montrer AA# A = A utiliser la relation im (A) = ker(A∗ )⊥
(proposition 2), donc AA# Ax−Ax ∈ ker(A∗ )∩ker(A∗ )⊥ = {0}. Pour la dernière relation, montrer d’abord
les relations : ker(A# ) = im (A)⊥ , im (A# ) = ker(A)⊥ et (A# )# A# y = AA# y pour tout y ∈ Kp .
1 2 ··· 0
0 ···
....
0 1 2 . .
. . . . ..
.. ..
. .. .
. . .
.
A= . .
.. .... ..
.
. 0 .
. .. ..
..
. 2 .
0 ··· ··· ··· 0 1
En déduire que
cond ∞ (A) = cond 1 (t A) = 3(2n − 1).
De même, kAk2 > 2, kA−1 k2 > 2n−1 , donc
(10) Ax = b
Les méthodes directes sont les méthodes qui donnent, au bout d’un nombre fini d’opérations logiques
et arithmétiques et dans l’hypothèse de l’absence d’arrondis, une solution exacte du problème.
26
A(2) x = b(2) décrit par
pour i = 2, . . . , n :
(2) ai1
aij = aij − a1j , j = 2, . . . , n
a11
et
(2) ai1
bi = bi − b1 ;
a11
(2)
on a bien ai1 = 0, i = 2, . . . , n, (la première ligne ne change pas).
et le second membre
(1)
b1
(2)
b2
..
.
(k)
b(k)
=
bk
(k)
bk+1
.
.
.
(k)
bn
de la manière suivante. Pour i = k + 1, . . . , n :
(k)
(k+1) (k) aik (k)
aij = aij − a ,
(k) kj
j = k + 1, . . . , n
akk
(k)
(k+1) (k) aik (k)
bi = bi − b .
(k) k
akk
(k)
L’algorithme est possible si à chaque étape le pivot akk 6= 0, sinon on permute avec l’une des lignes
(k)
suivantes telle que aik 6= 0.
27
A noter que toutes les matrices Hik (− aakkik
) sont triangulaires inférieures avec 1 sur la diagonale. Donc
leur produit a la même propriété. Finalement, en posant U = A(n) et L = l’inverse du produit de
toutes les matrices de type Hik (− aakk
ik
), i > k, on obtient
A = LU
avec L matrice triangulaire inférieure (lower) avec les éléments diagonaux égaux à 1, et U matrice
triangulaire supérieure (upper) (la dernière matrice obtenue dans l’algorithme). Montrons que la fac-
torisation LU d’une matrice inversible A est unique.
Si A = L0 U 0 alors les matrices L, U, L0 , U 0 sont inversibles, et donc U U 0−1 = L−1 L0 . Mais L−1 L0
est une matrice triangulaire inférieure avec 1 sur la diagonale, et U U 0−1 est une matrice triangulaire
supérieure. Mais cela entraı̂ne U U 0−1 = L−1 L0 = I, donc L = L0 et U = U 0 .
Grâce à cette factorisation on peut en réalité résoudre deux systèmes de matrice triangulaire : Ly = b,
et ensuite U x = y.
(HMP) les sous-matrices principales Ak = (aij )16i,j6k , k ∈ [[1, n − 1]], sont inversibles.
(i)
En effet, si (HP ) est vérifiée, alors det Ak = ki=1 aii , car le déterminant de Ak est invariant par
Q
transformation élémentaires (produit par des matrices watsoniennes).
Réciproquement, montrons par récurrence selon k < n, que si det(Ai ) 6= 0 pour i ∈ [[1, k]], alors
(i)
aii 6= 0 pour i ∈ [[1, k]]. La propriété est triviale pour k = 1. Si elle est vraie pour 1 6 k − 1 < n − 1,
alors, en utilisant l’algorithme de Gauss jusqu’à l’étape k − 1 (car d’après l’hypothèse de récurrence
(i)
aii 6= 0 pour i ∈ [[1, k − 1]]) on obtient l’existence d’une matrice triangulaire inférieure L(k) ayant 1
sur la diagonale telle que
L(k) A = A(k) .
En multipliant par blocs
(1) (1) (1) (1)
a11 a12 · · · a1k · · · a1n
(2) (2) (2)
0 a22 · · · a2k · · · a2n
(k)
.. .. ..
Lk O
Ak ∗
= . . .
(k) (k)
0 · · · 0 akk · · · akn
∗ ∗ ∗ ∗ .. .. .. ..
∗ ∗ ∗ ∗
. . . .
(k) (k)
0 ··· 0 ank · · · ann
on obtient
(1) (1) (1)
a11 a12 · · · a1k
(2) (2)
a22 · · · a2k
(k) 0
Lk Ak = .. .. .. .
. . .
(k)
0 · · · 0 akk
28
(k) (k)
Comme det(Lk Ak ) = det(Lk ) det(Ak ) = det(Ak ) 6= 0, on obtient
k
(i)
Y
aii = det(Ak ) 6= 0,
i=1
(k)
donc akk 6= 0. On a démontré donc le théorème suivant.
Choisissons le coefficient 10−4 comme premier pivot. Après l’élimination de x1 dans la deuxième
équation, on obtient le système équivalent :
−4
10 1 x1 1
=
0 1 − 104 x2 2 − 104
qui, compte tenu des erreurs d’arrondi, sera en fait représenté par :
−4
10 1 x1 1
=
0 −104 x2 −104
29
1 − x2
La solution de ce nouveau système est x2 = 1, x1 = = 0.
10−4
Choisissons maintenant comme ligne pivot à la première étape la deuxième ligne (i.e. on permute
les lignes 1 et 2). Donc, après cette permutation et après avoir éliminé x1 dans la deuxième équation
on obtient le système équivalent (exact !) suivant :
1 1 x1 2
= .
0 1 − 10−4 x2 1 − 2 · 10−4
104 104 − 2
Or la solution exacte du système initial est x1 = x 2 = . La première solution
104 − 1 104 − 1
approchée est complètement fausse, la deuxième est excellente ! On voit l’importance du choix de pi-
vot.
Dans le premier cas les pivots valent 10−4 et 104 , alors que dans le second cas ils valent 1 et 1. Dans
les deux cas x2 est obtenu avec la même petite erreur d’arrondi, mais au moment du calcul de x1 ,
cette erreur est divisée par 1 dans le second cas alors qu’elle est divisée par 10−4 dans le premier cas,
entraı̂nant un effet déplorable sur la valeur de x1 .
(k)
D’une façon générale, nous avons vu qu’à l’étape k, si le coefficient akk n’est pas nul, on peut le
choisir comme pivot et appliquer l’algorithme d’élimination sans permuter des lignes. Mais les coeffi-
cients lik de la matrice L sont inversement proportionnels au pivot. Or ces coefficients interviennent
en multiplicateurs dans les formules de transformations. Les erreurs d’arrondi qui affectent déjà les
(k)
coefficients akj pourront être amplifiées et viendront s’ajouter aux erreurs commises à l’étape k. Cette
amplification est d’autant plus importante que le pivot est petit. On a donc intérêt à éviter de choisir
des pivots trop petits. Pour cela, on adopte la stratégie dite du pivot partiel qui consiste à prendre
pour pivot le plus grand élément de la colonne traitée.
30
Ensuite il faut résoudre le système triangulaire, et il est facile à voir que cela nécessite :
Donc, le total général d’opérations est de l’ordre de n3 , i.e. la complexité de l’algorithme est O(n3 ).
Il est instructif de comparer ces nombres à ceux que l’on obtient par la méthode de Cramer :
Ces formules nécessitent le calcul de n+1 déterminants d’ordre n, chaque déterminants étant la somme
de n! termes, composés chacun du produit de n coefficients. La complexité de cette méthode est donc
O((n + 1)!).....
A = Λ · t Λ.
Démonstration. On a vu (remarque 1) que toute matrice de la forme B · t B est semi définie positive. Compte tenu
du fait que Λ est inversible on déduit que Λ · t Λ est positive définie.
Montrons la réciproque. La matrice A étant définie positive, tous ses éléments diagonaux sont strictement positifs, et
toutes ses matrices principales det Ak sont définies positives (voir la proposition 3). Alors, les matrices principales sont
inversibles, ce qui permet d’appliquer le théorème 11, donc il existe L une matrice triangulaire inférieure ayant 1 sur la
diagonale et U une matrice triangulaire supérieure inversible telles que A = LU . En multipliant par blocs, on obtient
que, pour tout k, Ak = Lk Uk , d’où
k
Y
det(Ak ) = det(Lk ) det(Uk ) = det(Uk ) = uii ,
i=1
√ √
et, comme det(Ak ) > 0, on obtient que ki=1 uii . Il suit, ukk > 0 pour
Q
tout 1 6 k 6 n. Soit D = diag ( u11 , . . . , unn ).
On a √ √
··· × ··· ×
u11 0 0 u11
√ √
× u 22 · · · 0 0 u22 ··· ×
A = LU = (LD)(D−1 U ) = .
.. .. .. .. .. .. .. ..
. . . . . . . .
√ √
× × ··· unn 0 0 ··· unn
Posons Λ = LD, Υ = D−1 U . La symétrie de A et l’égalité A = ΛΥ, entraı̂nent ΛΥ =t Υt Λ, d’où
1 × ··· × 0 ··· 0
1
0 1 ··· × × 1 0
Υ(t Λ)−1 = . . = .
−1 t
. = (Λ ) Υ.
.. .. . .
.. . .. .. . . ..
0 0 ··· 1 × × ··· 1
La factorisation
A = Λ · tΛ
est dite de Cholesky.
31
2.4.1 Construction de Λ colonne par colonne
Pour calculer Λ = (lij ) on doit avoir
j
X
aij = lik ljk pour i > j.
k=1
En général
k−1
X
v aik − lij lkj
u k−1
u X
2 j=1
lkk = takk − lkj lik = , i = k + 1, . . . , n.
lkk
j=1
On peut voir que le nombre d’opérations nécessaires pour utiliser cet algorithme est de
2n3 + 15n2 + n
.
6
H = I − 2u · t u avec u ∈ Rn , kuk = 1.
32
Lemme 6. Soient v, e ∈ Rn non colinéaires, et kek = 1. Alors les matrices élémentaires de House-
holder définies par les vecteurs
v − kvke v + kvke
u= ou u0 =
kv − kvkek kv + kvkek
vérifient
Hv = kvke ou, respectivement Hv = −kvke
Démonstration. Posons α = kvk ou α = −kvk. Il suffit de trouver un plan P passant par l’origine, de sorte que αe
soit le symétrique de v par rapport à P . Le vecteur unitaire u colinéaire à v − αe définit la transformation élémentaire
de Householder.
3 Méthodes itératives
Dans ce chapitre nous allons remplacer l’équation
(11) Ax = b
(avec A ∈ Mn (K) inversible) par l’équation x = Bx + c, et nous allons considérer la suite des vecteurs
(uk ) définie par
(12) uk+1 = Buk + c
en espérant qu’elle converge vers la solution de (11). Plus précisément, la méthode itérative est consis-
tante si la limite de la suite (uk ) lorsqu’elle existe est la solution de (11). La méthode itérative est
dite convergente si pour toute valeur initiale u0 ∈ Kn , la suite converge vers la solution de (11).
R0
(x)
Plus précisément R = où R0 est une matrice carrée triangulaire supérieure.
0
33
Théorème 15. Les affirmations suivantes sont équivalentes :
1. La méthode itérative est convergente.
2. %(B) < 1.
3. Il existe une norme matricielle k · k telle que kBk < 1.
Démonstration. On a vu (théorème 7) que les affirmations 2. et 3. sont équivalentes à dire que B k → 0. Il suffit de
montrer que l’affirmation 1. est équivalente à B k → 0.
Supposons donc B k → 0. Soit u0 ∈ Kn quelconque et ũ0 = la solution du problème (11). Les suites (uk ) et (ũk ) définies
par la méthode itérative vérifient
k−1
X k−1
X
uk = B k u0 + Bpc et ũk = B k ũ0 + B p c.
p=0 p=0
Remarque 4. La convergence d’une telle méthode sera d’autant plus rapide que %(B) sera petit.
Ax = b ⇐⇒ M u = N u + b ⇐⇒ u = M −1 N u + M −1 b
uk+1 = M −1 N uk + M −1 b.
M uk+1 = N uk + b.
Duk+1 = (L + U )uk + b.
Pour que D soit inversible il faut supposer aii 6= 0 pour tous les i. Pour calculer une composante du
vecteur uk+1 , on a besoin de n − 1 composantes de uk , donc il faut garder entièrement le vecteur uk
dans la mémoire lors du calcul de uk+1 . On a donc besoin de 2n mémoires pour stocker les vecteurs
uk et uk+1 .
34
3.1.3 La méthode de relaxation
Cette méthode, basée sur la méthode de Gauss-Seidel, consiste à “passer une partie de D dans N ”.
D 1−ω
− L uk+1 = D + U uk + b.
ω ω
Donc on a −1
D 1−ω
uk+1 = −L D+U uk + b.
ω ω
Cette méthode définie pour ω 6= 0 coı̈ncide avec la méthode de Gauss-Seidel pour ω = 1. Pour ω > 1
elle est appelée méthode de sur-relaxation, et sous-relaxation pour ω < 1.
Remarque 5. Le fait que A est supposée hemitienne et positive définie n’est pas restrictif, car le
système Ax = b, avec A inversible quelconque, est équivalent au système A∗ Ax = A∗ b et A∗ A est
hermitienne et positive définie (voir la remarque 1).
On va accepter le théorème.
Théorème 17. Si la matrice A est hermitienne définie positive, la méthode de relaxation converge
pour tout 0 < ω < 2.
35
ont les propriétés suivantes(xi) :
d’où
lim w2k = v
k→∞
et
lim u2k+1 = λ lim w2k .
k→∞ k→∞
Démonstration. On a n n
X X λi k
Ak u0 = αi λki vi = λk (u + αi ( ) vi )
i=1 i=p+1
λ
Pp
avec u = i=1 αi vi . On constate que u ∈ Eλ \ {0} (car αi0 6= 0). D’autre part
k−1u
Awk−1 A kuk−1 k Auk−1 A2 wk−2 Ak w0 Ak u0
wk = = uk−1 = = = ... = =
kAwk−1 k kA kuk−1 k k kAuk−1 k kA wk−2 k
2 kA w0 k
k kAk u0 k
Pn λ k
(u + n λi k
P
λk (u + i=p+1 αi ( λi ) vi ) k i=p+1 αi ( λ ) vi )
= = sign (λ ) .
|λ|k k(u + n λi k
k(u + n λi k
P P
i=p+1 αi ( λ ) vi )k i=p+1 αi ( λ ) vi )k
Donc
u
sign (λk )wk → = v.
kuk
La suite extraite sign (λ2k )w2k = w2k converge évidemment vers v. Enfin, on a
36
4.3 Méthode QR
L’algorithme est le suivant :
Etape 1. On pose A1 = A et on factorise A1 = Q1 R1 .
Etape 2. On pose A2 = R1 Q1
Etape (k+1). On pose Ak+1 = Rk Qk et on factorise Ak+1 = Qk+1 Rk+1 .
A noter que toutes ces matrices sont semblables. En effet A2 = Q∗1 A1 Q1 , . . . , Ak+1 = Q∗k Ak Qk .
Théorème 19. Si A est inversible et admet n valeurs propres distinctes, la suite Ak vérifie la propriété
suivante :
lim (Ak )ij = 0 ∀1 6 j < i 6 n.
k→∞
(où (Ak )ij est l’élément de la matrice Ak situé sur la ligne i et colonne j).
Autrement dit, la matrice Ak devient triangulaire, sa diagonale étant donc composée des valeurs
propres de A.
Deuxième partie
Interpolation polynômiale
Dans ce chapitre on se propose de donner plusieurs réponses (équivalentes du point de vue mathématique,
mais différentes du point de vue pratique !) à la question suivante :
Étant donnée une fonction f : I → R, où I est un intervalle de R, dont les valeurs sont connues
seulement en un nombre fini de n + 1 points distincts de I, notés x0 , x1 , . . . , xn , on cherche une
fonction polynôme de degré au plus n prenant les mêmes valeurs que la fonction donnée f au points
(appelés aussi “nœuds”) x0 , x1 , . . . , xn .
Autrement dit, on cherche P ∈ Rn [X] tel que, pour tout i ∈ [[0, n]] on ait
P (xi ) = f (xi ).
Définition 9. Lorsqu’un polynôme P est écrit dans la base N, on dit qu’on représente P sous sa
forme de Newton relative aux centres c1 , . . . , cn .
(xii) Qi
La produit d’une famille vide est égal à 1, donc le terme de rang 0, est donné par k=1 (X − ck ) = 1.
37
Remarque 6. Si dans la base N on a c1 = c2 = · · · = cn = c on retrouve la base C. De plus, si c = 0
on retrouve la base canonique.
Cela veut dire que, tout résultat valable pour la base N est en particulier valable pour les autres deux
bases.
Les centres choisis pour exprimer un polynôme P sous la forme de Newton ont une importance
essentielle sur la qualité de l’évaluation numérique de P en un point. En effet, on vous propose
d’analyser cette situation dans le cadre du TP1.
Pour calculer la valeur P (t) de P en un point donné t ∈ R, en posant a0n (t) = an , on constate que
n−2 i n−1
! !
X Y Y
0
P (t) = ai (t − ck ) + an−1 (t) (t − ck )
i=0 k=1 k=1
avec
(13) a0i (t) = ai + a0i+1 (t)(t − ci+1 )
pour i = n − 1. En réitérant, on obtient
n−3 i n−2
! !
X Y Y
P (t) = ai (t − ck ) + a0n−2 (t) (t − ck )
i=0 k=1 k=1
Algorithme d’évaluation de P en t
eval-horner(n,a,c,t → val, a’)
entrée :
n : entier positif représentant le degré du polynôme P
a vecteur de n + 1 réels formé par les coordonnées de P dans la base considérée, i.e. a(i) = ai pour
tout i ∈ [[0, n]].
c : vecteur de n réels désignant les centres considérés, i.e. c(i) = ci , i ∈ [[1, n]].
t : réel en lequel on évalue P .
sortie :
val : réel défini par val = P (t).
a0 vecteur de n + 1 réels dont la signification importante sera donnée plus loin.
38
Début de corps
a0 (n) ←− a(n)
pour i = n − 1 à 0 faire
a0 (i) ←− a(i) + a0 (i + 1)(t − c(i + 1))
fin pour
val ←− a0 (0)
Fin de corps
Remarque 7. A noter que les centres ne sont pas forcément distincts, donc cet algorithme permet
également d’évaluer un polynôme donné dans la base canonique, où avec un seul centre.
n−1 i−1
!!
X Y
P (X) = a00 (t) + (X − t) a0i (t) (X − ck )
i=1 k=1
= a00 (t) + a01 (t)(X − t) + a02 (t)(X − t)(X − c1 ) + . . . a0n (t)(X − t)(X − c1 ) · · · (X − cn−1 ).
Autrement dit les nombres a0i (t), 1 6 i 6 n représentent (dans la première expression) les coefficients
0
Qquotient de la division euclidienne de P par (X − t), et a0 (t) le reste, dans la base de Newton
du
i
k=1 (X − ck ) .
06i6n−1
La deuxième expression montre que le vecteur a0 est le vecteur des composantes de P sous sa forme de
Newton relative aux centres t, c1 , c2 , . . . , cn−1 .
Indication : Utiliser le fait que an = a0n (t) et
ai = a0i (t) + (ci+1 − t)a0i+1 (t), i ∈ [[0, n − 1]]
39
7 Existence et unicité du polynôme d’interpolation
Considérons pour toute la suite de cette partie une fonction réelle f définie sur l’intervalle I = [a, b] ⊂
R, et n + 1 points distincts de I notés x0 , x1 , . . . , xn . On dit que le polynôme P ∈ Rn [X] interpole f
aux points x0 , . . . , xn (ou sur les points du support {x0 , . . . , xn }) si et seulement si
Démonstration. Il est clair que Pn (X) := i=0 f (xi )Li (X) ∈ Rn [X] comme combinaison linéaire de la famille L.
Pn
En utilisant la formule (14), on obtient immédiatement que, pour chaque i, P (xi ) = f (xi ) ce qui montre l’existence.
Pour justifier l’unicité considérons un polynôme Q ∈ Rn [X] interpolant f sur le support {x0 , . . . , xn }. Alors, le polynôme
Pn − Q vérifie
(Pn − Q)(xi ) = 0, ∀i ∈ [[0, n]],
donc il s’annule en n + 1 points distincts. Le fait que son degré est 6 n entraı̂ne Pn − Q = 0.
Exercice 23. Donner une autre démonstration de l’unicité du polynôme d’interpolation, en utilisant le
fait que L est une base de Rn [X] et la formule (14).
Exercice 24. 1. Trouver les polynômes d’interpolation P0 (resp. P1 ) de f sur le support {x0 } (resp.
{x0 , x1 }).
2. Montrer à l’aide d’un exemple (simple !) que le degré de Pn peut être strictement inférieur à n.
40
Exercice 25. Soit n+1 réels x0 , x1 , . . . , xn distincts deux à deux. Considérons la matrice de Vandermonde
Vn ∈ Mn+1 (R),
1 1 1 ··· 1 1
x0 x1 x2 · · · xn−1 xn
2 2 2 2 2
Vn = x0 x1 x2 · · · xn−1 xn .
.. .. .. .. ..
. . . ··· . .
x0 x1 x2 · · · xn−1 xnn
n n n n
Pour la base des polynômes de Lagrange L = (Li )06i6n on note (αij )06i,j6n les coefficients du développement
dans la base canonique :
Xn
Li (X) = αij X j , i ∈ [[0, n]].
j=0
Montrer que la matrice Vn est inversible et exprimer Vn−1 à partir des coefficients (αij )06i,j6n .
Théorème 21. Soit f ∈ C n+1 ([a, b]). Alors, pour tout t ∈ [a, b] il existe ξ ∈]a, b[ tel que
n
f (n+1) (ξ) Y
en (t) := f (t) − Pn (t) = (t − xi ).
(n + 1)!
i=0
où kϕk∞ = sup |ϕ(t)| est la norme de la convergence uniforme dans l’espace C([a, b]).
t∈[a,b]
En ramenant l’intervalle [a, b] à l’intervalle [−1, 1] (par une transformation affine) on peut se poser le
problème suivant :
n
Y
Comment choisir les centres xi de sorte que max (t − xi ) soit le plus petit possible ?
t∈[−1,1]
i=0
Autrement dit on veut minimiser l’application P 7→ J(P ) := kP k∞ sur la partie C du
41
sous-espace vectoriel Rn [X] formée par les polynômes ayant le coefficient dominant 1.
(xiii)
Le mathématicien russe P. Tchebychev (1821-1894) a trouvé la réponse à cette question, que nous
proposons sous la forme d’un exercice.
Exercice 26. Considérons dans R[X] la suite (Tn )n∈N des polynômes de Tchebychev définie par
6. Soit pour tout n ∈ N∗ , T̃n (X) = 21−n Tn (X) = X n + . . . le polynôme ayant le coefficient dominant
1 et colinéaire au polynôme de Tchebychev Tn . Montrer que, pour tout polynôme P ∈ R[X],
deg(P ) = n, ayant le coefficient dominant 1, on a
Indication. En supposant le contraire, montrer que sign (T̃n (x0k )−P (x0k )) = (−1)k , k = 0, . . . , n, car |P (x0k )| < 21−n .
Alors le polynôme T̃n − P ∈ Rn−1 [X] change le signe (au moins) n fois sur [−1, 1], donc possède au moins n racines !
42
3. Posons pour tout n ∈ N,
(b − a)n (b − a)n
2X − (b + a)
T̃n[a,b] (X) = T̂n (X) = T̃n
2n 2n b−a
le polynôme colinéaire à T̂n ayant le coefficient dominant 1. En utilisant le point 5 de l’exercice 26,
montrer que pour tout polynôme P ∈ R[X], deg(P ) = n, de coefficient dominant 1 on a
[a,b]
4. Montrer que, pour tout n ∈ N∗ , les racines de Tn sont les nombres
(2k + 1)π
xk = ϕ cos , k ∈ [[0, n − 1]].
2n
Exercice 28. Considérons l’espace préhilbertien C([−1, 1]) des fonctions réelles continues sur [−1, 1]
2
muni du produit scalaire avec la fonction poids x 7→ w(x) = √ :
π 1 − x2
2 1 f (x)g(x)
Z
2
∀(f, g) ∈ C([−1, 1]) (f, g) 7→ hf, giw = √ dx.
π −1 1 − x2
1. Montrer que l’application h·, ·iw est bien définie et représente un produit scalaire.
2. Montrer que la suite (fn )n∈N est orthonormale dans (C([−1, 1]), h·, ·iw ), où
1
∀x ∈ [−1, 1] f0 (x) = √ T0 (x), fn (x) = Tn (x), (∀n ∈ N∗ ),
2
(Tn ) étant la suite des polynômes de Tchebychev définis dans l’exercice 26.
Indication. Effectuer le changement de variable x = cos(θ) dans le calcul de l’intégrale.
On constate que, pour tout 0 6 k 6 n et pour tout 0 6 j 6 k, Pk (xj ) = Pn (xj ) = f (xj ), donc Pk (X)
est le polynôme interpolant de f sur le support {x0 , . . . , xk }.
La définition des polynômes Pk entraı̂ne la relation
k−1
Y
(17) ∀k ∈ [[1, n]] Pk (X) = Pk−1 (X) + dk (X − xj ).
i=0
43
Cette relation très importante nous permet de déterminer de proche en proche le polynôme de Newton.
Pour 0 6 k 6 n, le coefficient dominant de Pk , qui est dk , s’appelle différence divisée relative à
{x0 , . . . xk }. Il dépend de f et du support {x0 , . . . , xk }. On le note
dk = f [x0 , . . . , xk ].
On peut écrire donc,
n
X i−1
Y
(18) Pn (X) = f [x0 , . . . , xi ] (X − xj ) .
i=0 j=0
Proposition 14. La différence divisée f [x0 , . . . , xk ] est indépendante de l’ordre des points de support.
Plus exactement, pour toute permutation σ de {0, . . . , k} on a
Démonstration. Par unicité du polynôme d’interpolation, les polynômes Pk (resp. Qk ) interpolants de f sur le sup-
port {x0 , . . . , xk } (resp. {xσ(0) , . . . , xσ(k) }) coı̈ncident. Il suit qu’ils ont le même coefficient dominant, d’où la conclusion.
Exercice 29. Trouver les polynômes P0 et P1 interpolant f sur le support {x0 }, respectivement {x0 , x1 }.
En déduire que
f [x0 ] = f (x0 )
et
f (x1 ) − f (x0 ) f [x1 ] − f [x0 ]
f [x0 , x1 ] = =
x1 − x0 x1 − x0
Théorème 22. Les différences divisées vérifient, pour tout k ∈ [[1, n]], la formule de récurrence
suivante :
(X − x0 )Q(X) (X − xk )R(X)
(20) P (X) = − ∈ Rk [X].
xk − x0 xk − x0
(x0 − xk )R(x0 ) (xk − x0 )Q(xk )
On a P (x0 ) = − = f (x0 ), P (xk ) = = f (xk ), et pour tout 1 6 i 6 k − 1,
xk − x0 xk − x0
(xi − x0 )Q(xi ) (xi − xk )R(xi ) (xi − x0 )f (xi ) − (xi − xk )f (xi )
P (xi ) = − = = f (xi ),
xk − x0 xk − x0 xk − x0
donc P est le polynôme interpolant de f sur le support {x0 , x1 , . . . , xk }. Alors son coefficient dominant est donné par
f [x0 , . . . , xk ], et d’après la formule (20) il est égal au quotient entre le coefficient dominant de Q moins le coefficient
dominant de R, et xk − x0 , i.e., le second membre de la formule (19).
44
x0 f [x0 ]
f [x0 , x1 ]
x1 f [x1 ] f [x0 , x1 , x2 ]
..
f [x1 , x2 ] .
..
x2 f [x2 ] . f [x1 , x2 , x3 ] ··· f [x0 , . . . , xn ]
.. .. .. ..
. . . .
.. ..
. . f [xn−1 , xn ]
xn f [xn ]
Les éléments en gras du tableau ci-dessus (la diagonale) sont les coefficients du polynôme interpolant
de f sur le support {x0 , . . . , xn } écrit sous la forme de Newton relative aux centres x0 , . . . , xn−1 :
Pn (X) = f [x0 ] + f [x0 , x1 ](X − x0 ) + . . . + f [x0 , . . . , xn ](X − x0 )(X − x1 ) · · · (X − xn−1 ).
Exercice 30. Considérons le support {−1, 0, 1} ⊂ [a, b] et une fonction f : [a, b] → R vérifiant
f (−1) = 1, f (0) = 2, f (1) = 0.
1. Calculer le polynôme interpolant f sur le support {−1, 0, 1} sous la forme de Newton.
2. Calculer le polynôme interpolant f sur le support {−1, 0, 1} sous la forme de Lagrange.
3. Comparer les deux polynômes en les développant dans la base canonique.
Exercice 31. En utilisant le théorème 21 sur l’erreur de l’interpolation et les mêmes notations et hy-
pothèses, montrer que, pour tout t ∈ [a, b] \ {x0 , . . . , xn } on a
n
Y
(21) en (t) = f (t) − Pn (t) = f [x0 , . . . , xn , t] (t − xi ).
i=0
Remarque 10. En notant par f [x0 , . . . , xn , ·] le prolongement par continuité à [a, b] de l’application
t 7→ f [x0 , . . . , xn , t] : [a, b] \ {x0 , . . . , xn } → R (on accepte l’existence de ce prolongement !), la formule
(21) est valable pour tout t ∈ [a, b].
45
– Déterminer le polynôme d’interpolation P de f correspondant aux nœuds c0 , c1 , . . . , c8 .
– Représenter la fonction P .
– Déterminer et représenter la fonction erreur e1 (x) = |P (x) − f (x)|, x ∈ [−1, 1].
2. Deuxième choix (nœuds de Tchebychev)
On considère les nœuds
π 2i + 1
ti = cos · , i ∈ [[0, 8]].
2 9
– Déterminer le polynôme d’interpolation Q de f correspondant aux nœuds t0 , t1 , . . . , t8 .
– Représenter la fonction Q.
– Déterminer et représenter la fonction erreur e2 (x) = |Q(x) − f (x)|, x ∈ [−1, 1].
3. Conclusions
Représenter les fonctions f , P , Q, e1 et e2 . Commenter les résultats.
Remarque 11. La théorie présentée dans les 3 dernières sections repose sur l’hypothèse des points
du support distincts deux à deux. Il est possible de généraliser les résultats à des fonctions plus lisses
(classe C m ) en acceptant des points non distincts et en faisant apparaı̂tre les dérivées de f . Pour cela
on utilise les polynômes d’interpolation de Hermite. On ne vas pas approfondir ici cette théorie,
on va seulement donner un aperçu des idées.
Supposons f : [a, b] → R une fonction de classe C m sur le segment [a, b] de R, p + 1 points distincts
de [a, b] : {x0 , x1 , . . . , xp } , et (i0 , i1 , . . . , ip ) ∈ Np+1 avec max ik 6 m. On cherche un polynôme H de
06k6p
degré au plus n = pk=0 (ik + 1) − 1 tel que, pour tout k ∈ [[0, p]],
P
On peut montrer l’existence et l’unicité d’un tel polynôme, et il s’écrit sous la forme :
p X
X ik
H(X) = f (j) (xk )Lkj (X),
k=0 j=0
où
p
(X − xk )j X − xl il +1
Y
Lkj (X) = ∈ Rn [X].
j! xk − xl
l=0, l6=k
Remarque 12. Il faut noter qu’il existe d’autres types d’interpolation, comme l’interpolation par des
fonctions splines, l’idée étant d’interpoler par morceaux avec des polynômes de degré 3 etc. Cette
approche, qui est plus stable du point de vue numérique, ne sera pas développée dans ce cours.
46
Troisième partie
Intégration Numérique
10 Formules de quadrature
10.1 Généralités
Dans cette section on considère un segment de R noté [a, b] (donc a, b ∈ R, a < b). Étant donné une
fonction continue f : [a, b] → R, lorsqu’on connaı̂t une primitive F (xv) , on peut calculer son intégrale
d’après la formule (fondamentale !)
Z b
f (x) dx = F (b) − F (a).
a
Malheureusement, dans beaucoup de cas, on ne peut pas calculer une primitive (dans la classe des
fonctions usuelles). Par ailleurs, dans la pratique la fonction f est donnée souvent sous la forme d’un
tableau, donc la notion de primitive perd tout son sens. C’est pourquoi les méthodes approchées, dont
notamment les méthodes numériques de calculs des intégrales acquièrent une grande importance.
Z b
On considère la forme linéaire f 7→ I(f ) = f (x) dx définie sur l’espace vectoriel C([a, b]). I est
a
continue de l’espace vectoriel normé (C[a, b], k · k∞ ) dans (R, | · |) car
|I(f )| 6 (b − a)kf k∞ .
On se donne un support {x0 , . . . , xn } formé par n+1 points distincts de [a, b] qui sera fixé (indépendamment
de f ) . Si on note Pn [f ] le polynôme interpolant f sur le support {x0 , . . . , xn }, l’idée est d’approcher
I(f ) par In (f ) := I(Pn [f ]). En utilisant la base de Lagrange L = (Li )06i6n , on constate que
Z b n
Z bX n
X
In (f ) = Pn [f ](x) dx = f (xi )Li (x) dx = αi f (xi ),
a a i=0 i=0
Z b
où les nombres αi = Li (x) dx (i = 0, . . . , n) ne dépendent pas de f !. La forme linéaire In est
a
aussi continue sur (C[a, b], k · k∞ ). En effet,
n
!
X
|In (f )| 6 |αi | kf k∞ .
i=0
Donc, on veut approcher la forme linéaire continue I (qui dépend uniquement de (a, b)), par la forme
linéaire et continue In (qui dépend de (a, b; x0 , . . . , xn )).
D’une manière générale, l’erreur d’une formule de quadrature (en supposant f de classe C n+1 ) est
donnée par
Z b
En (f ) = I(f ) − In (f ) = (f − Pn [f ])(x) dx.
a
Grâce à la formule (21) et le remarque qui suit, on a
Z b n
Y
(23) En (f ) = f [x0 , x1 , . . . , xn , t] (t − xi ) dt.
a i=0
(xv)
la primitive d’une fonction continue sur un un intervalle existe toujours !
47
En utilisant la formule (22) et la formule de la moyenne, on a aussi
n+1 Z b Yn
f (η)
∃η ∈ [a, b] |En (f )| 6 (t − x ) dt.
i
(n + 1)! a
i=0
Exercice 32. Montrer que l’application f 7→ (f (x0 ), . . . , f (xn )) est un isomorphisme de l’espace vectoriel
Rn [X] dans l’espace vectoriel Rn+1 .
En déduire la propriété suivante :
La famille (fj )06j6n est libre dans Rn [X] ⇐⇒ la famille (vj )06j6n est libre dans Rn+1 où
La matrice du système admet comme colonnes les vecteurs vj définis dans l’exercice, donc elle est
inversible !
48
10.2.1 La formule des rectangles
Commençons par le cas d’un “petit intervalle”.
Considérons le support {x0 } avec x0 ∈ [a, b]. Alors la formule cherchée est de la forme
Z b
f (x) dx ≈ α0 f (x0 )
a
et cette formule est exacte pour tout polynôme de degré au plus 0, i.e. pour toute fonction constante.
Donc, en prenant f = 1, on obtient
α0 = (b − a),
donc la formule
I0 (f ) = (b − a)f (x0 ),
ou Z b
f (x) dx ≈ (b − a)f (x0 ).
a
a+b
Un cas particulier intéressant est donné par x0 = , donc la formule de quadrature
2
Z b
a+b
(25) f (x) dx ≈ (b − a)f
a 2
appelée la formule du rectangle pour le point du milieu. Dans ce cas, la formule est exacte
pour des polynômes de degré au plus 1 !
Plus précisément on a la propriété suivante.
Proposition 15. Soit f de classe C 2 sur [a, b]. Alors, il existe ξ ∈ [a, b] tel que
b
(b − a)3
Z
f (x) dx = (b − a)f (c) + f 00 (ξ) .
a 24
En particulier, si f ∈ R1 [X], alors f 00 = 0, donc la formule (25) est exacte ! L’erreur de quadrature
pour une fonction C 2 est donc
(b − a)3
(26) E0 (f ) = f 00 (ξ) .
24
a+b
Démonstration. En effet, en posant c = , la formule de Taylor-Lagrange assure pour tout x ∈ [a, b] l’existence
2
d’un point ηx ∈]a, b[ tel que
f 00 (ηx )(x − c)2
f (x) = f (c) + f 0 (c)(x − c) + .
2
Z b
En intégrant sur [a, b], comme (x − c) dx = 0, en utilisant la formule de la moyenne on obtient le résultat.
a
Cette formule est utile lorsque l’intervalle [a, b] est “petit”. Pour un intervalle [a, b] quelconque, on
considère un subdivision de [a, b] avec des points équidistants a = x0 < x1 . . . < xn = b, donc
b−a
xi = a + ih où h = est le pas d’intégration. En utilisant la formule du point du milieux sur
n
chaque intervalle [xi , xi+1 ], i = 0, . . . , n − 1, on obtient
Z b n−1
X (2i + 1)h
(27) f (x) dx ≈ h f a+ .
a 2
i=0
49
Pour évaluer l’erreur de l’approximation dans cette formule on va supposer f de classe C 2 sur [a, b].
Alors, en utilisant la formule (26) sur chaque intervalle [xi , xi+1 ] on a
b n−1 n−1
X Z xi+1 n−1
h3 X 00
Z
X (2i + 1)h (2i + 1)h
f (x) dx−h f a+ = f (x) dx − hf a + = f (ξi ),
a 2 xi 2 24
i=0 i=0 i=0
1
où ξi ∈ [xi , xi+1 ]. En utilisant la formule généralisée de la moyenne(xvi) : (on prend δi = pour tout
n
i) on obtient :
b n−1
nh3 00 (b − a)h2 00
Z
X (2i + 1)h
(28) ∃ξ ∈ [a, b] f (x) dx − h f a+ = f (ξ) = f (ξ).
a 2 24 24
i=0
Il suit
Z n−1
b X (2i + 1)h (b − a)h2 00
(29) f (x) dx − h f a+ 6 kf k∞ .
2 24
a
i=0
En conclusion, l’erreur dans la formule (27) du rectangle en utilisant le point du milieu avec n points
(b − a)2
équidistants pour une fonction C 2 est de l’ordre h2 = , i.e. pour n → +∞,
n2
Z n−1
b X (2i + 1)h 1
f (x) dx − h f a+ = O( 2 ).
2 n
a
i=0
Elle doit être exacte pour tout polynôme f ∈ R1 [X], en particulier lorsque f (x) = 1, ou f (x) = x. On
obtient le système
α0 + α1 = b − a
b2 − a2 .
aα0 + bα1 =
2
b−a
On trouve α0 = α1 = .
2
Donc, on a la formule de quadrature
b
b − a
Z
(30) f (x) ≈ f (a) + f (b) .
a 2
On remarque que le second membre
b − a
I1 (f ) = f (a) + f (b)
2
représente l’aire du trapèze des sommets (a, 0), (b, 0, (b, f (b)), (a, f (a)).
(xvi) n
Pn Exercice : Soient ϕ : [a, b] → R une fonction continue et (c1 , . . . , cn ) ∈ [a, b] et (δi )16i6n une famille de réels positifs,
i=1 δi = 1. Alors il existe ξ ∈ [a, b] tel que
n
X
δi ϕ(ci ) = ϕ(ξ).
i=1
50
Exercice 35. Retrouver la formule des trapèzes en utilisant le polynôme interpolant sous la forme de
Newton, i.e.
Z b Z b
f (x) ≈ (f [a] + f [a, b](x − a)) dx.
a a
En utilisant la formule générale sur l’erreur de quadrature (23), si f est de classe C 2 sur [a, b], alors il
existe ξ ∈ [a, b] tel que
Z b
1
E1 (f ) = I(f ) − I1 (f ) = − f 00 (ηx )(x − a)(b − x) dx.
2 a
f 00 (ξ) b
(b − a)3
Z
E1 (f ) = − (x − a)(b − x) dx = −f 00 (ξ) .
2 a 12
Pour un “grand intervalle” on procède comme pour la formule du rectangle : on considère une sub-
b−a
division de [a, b] avec n points équidistants : a = x0 < x1 < · · · < xn = b, donc en posant h =
n
on a xi = a + ih, i = 0, . . . n. En appliquant la formule des trapèzes sur chaque intervalle [xi , xi+1 ],
i = 0, . . . , n − 1, on obtient
Z b n−1
X Z xi+1 n−1
h X
f (x) dx = f (x) dx ≈ f (xi ) + f (xi+1 ) .
a xi 2
i=0 i=0
b n−1
h2
Z
h X
∃ξ ∈ [a, b] f (x) dx − f (a) + 2 f (a + ih) + f (b) = −(b − a) f 00 (ξ).
a 2 12
i=1
Z b Z b
P2 [f ](x) dx = f [a] + f [a, b](x − a) + f [a, b, c](x − a)(x − b) dx
a a
Z b Z b
= f [a] + f [a, b](x − a) dx + f [a, b, c](x − a)(x − b) dx
a a
| {z } | {z }
I1 I2
51
Z b b−a
I1 = f [a] + f [a, b](x − a) dx = (f (a) + f (b)).
a 2
Un calcul simple montre que
b
(b − a)3
Z
(x − a)(x − b) dx = − .
a 6
D’autre part,
f (b)−f (c)
f [c, b] − f [a, c] b−c − f (c)−f
c−a
(a)
f (b) − 2f (c) + f (a)
f [a, b, c] = f [a, c, b] = = =2
b−a b−a (b − a)2
b−a
car b − c = c − a = . Alors
2
(b − a)3 b−a
I2 = −f [a, b, c] =− (f (b) − 2f (c) + f (a)),
6 3
d’où
b
b − a
Z
P2 [f ](x) dx = f (a) + 4f (c) + f (b) .
a 6
En conclusion, on a obtenu la formule de quadrature de Simpson
b
b−a
Z
a+b
(32) f (x) dx ≈ f (a) + 4f + f (b) .
a 6 2
A noter que le second membre représente le barycentre de
b−a a+b 4(b − a) b−a
[f (a), ], [f , ], [f (b), ].
6 2 6 6
Pour évaluer l’erreur dans la formule de Simpson, on va supposer f de classe C 4 sur [a, b]. Considérons
la fonction
Z c+t
t
t 7→ ϕ(t) = f (x) dx − f (c − t) + 4f (c) + f (c + t)
c−t 3
b−a
définie sur [0, h], où h = . ϕ est de classe C 4 et, pour tout t ∈ [0, h], on a :
2
1 t
ϕ0 (t) = f (c − t) + f (c + t) − f (c − t) + 4f (c) + f (c + t) − − f 0 (c − t) + f 0 (c + t)
3 3
2 4 t 0 0
= f (c − t) + f (c + t) − f (c) − − f (c − t) + f (c + t) ;
3 3 3
1 t
ϕ00 (t) = − f 0 (c − t) + f 0 (c + t) − f 00 (c − t) + f 00 (c + t) ;
3 3
t
ϕ000 (t) = − 000 000
− f (c − t) + f (c + t) ;
3
1 t
ϕ(4) (t) = − − f 000 (c − t) + f 000 (c + t) − f (4) (c − t) + f (4) (c + t) .
3 3
On constate que
ϕ(0) = ϕ0 (0) = ϕ00 (0) = ϕ000 (0) = 0.
D’autre part, pour tout t ∈ [0, h], d’après la formule des accroissements finis,
t
∃θt ∈]0, t[ ϕ(4) (t) = − (2f (4) (θt ) + f (4) (c − t) + f (4) (c + t))
3
52
et d’après la formule généralisée de la moyenne
4t (4)
∃γt ∈ [a, b] ϕ(4) (t) = − f (γt ).
3
Alors la formule de Taylor avec le reste intégral sur [0, h] implique
1 h 1 h
Z Z
3 (4) 4t
ϕ(h) = (h − t) ϕ (t) dt = − (h − t)3 f (4) (γt ) dt.
3! 0 3! 0 3
Enfin, d’après le théorème de la moyenne, comme t(h − t)3 > 0, il existe ξ ∈ [a, b] tel que
Z h
4 (4)
ϕ(h) = − f (ξ) t(h − t)3 dt.
3 · 3! 0
Dans le cas d’un “grand intervalle” [a, b], en prenant la subdivision a = x0 < x1 < . . . < xn = b avec
b−a
des points équidistants (∀i ∈ [[0, n]], xi = a + ih, h = ), si on applique la formule de Simpson sur
n
chaque intervalle [xi , xi+1 ], on obtient
Z b n−1
X Z xi+1 n−1
hX xi + xi+1
f (x) dx = f (x)dx ≈ f (xi ) + 4f + f (xi+1 ) .
a xi 6 2
i=0 i=0
53
L’erreur d’approximation dans cette formule s’obtient facilement en utilisant (33) sur chaque sous-
intervalle [xi , xi+1 ] :
Z b n−1 n−1
X !
h X h
E(f ) = f (x) dx − f (a) + f (b) + 2 f (xi ) + 4 f xi +
a 6 2
i=1 i=0
n−1
X Z xi+1
h xi + xi+1
= f (x) dx − f (xi ) + 4f + f (xi+1 )
xi 6 2
i=0
n−1
h5 X (4)
= − f (ξi )
2880
i=0
nh5
= − f (4) (ξ),
2880
où ξi ∈ [xi , xi+1 ], i = 0, . . . , n − 1, et ξ ∈ [a, b], la dernière égalité ayant été obtenue grâce à la formule
généralisée de la moyenne. On peut encore écrire
h4 (4) (b − a)5 (4)
E(f ) = −(b − a) f (ξ) = − f (ξ).
2880 2880n4
Donc, pour n → +∞ on a
b n−1 n−1 !
(b − a) b−a (2i + 1)(b − a)
Z X X 1
f (x) dx− f (a) + f (b) + 2 f a+i +4 f a+ = O( 4 ).
a 6n n 2n n
i=1 i=0
(35)
11 Intégration Gaussienne
11.1 La fonction à intégrer sur un intervalle non nécessairement compact
Dans cette section on va considerer une fonction f donnée sur un intervalle I quelconque ( qui peut
être ouvert, non borné etc.). Donc on se place sur un intervalle I =]a, b[, avec −∞ 6 a < b 6 +∞
(ou bien sur un segment I = [a, b]). On suppose f continue sur I et intégrable sur I (si I n’est pas
compact). On écrit pour tout x ∈ I,
f (x) = w(x)r(x)
où w peut présenter des singularités en a et b mais w est intégrable et r est régulière. Par exemple, si
a = −1, b = 1 on peut avoir
1
w(x) = √
1 − x2
et r continue sur le segment [−1, 1].
Ou, par exemple si a = 0, b = +∞, alors avec w(x) = e−x , on peut avoir r une fonction polynôme, car
x 7→ r(x)e−x est intégrable sur ]0, +∞[ (croissances comparées à l’infini de e−x ). Ou, plus généralement,
r peut avoir une croissance polynômiale i.e., il existe p ∈ N et K > 0 tels que
54
11.2 La manière d’approcher l’intégrale
Soit le support {x0 , . . . , xn } formé de n+1 points distincts de l’intervalle d’intégration. On va considérer
le polynôme d’interpolation de r sur le support {x0 , . . . , xn }, Pn [r]. Alors, comme
n
Y
∀x ∈ I, r(x) = Pn [r](x) + r[x0 , . . . , xn , x] (x − xi )
i=0
on obtient
Z Z Z Z n
Y
f (x) dx = w(x)r(x) dx = w(x)Pn [r](x) dx + w(x)r[x0 , . . . , xn , x] (x − xi ) dx .
I I
|I {z } |I {z i=0 }
In (f )
En (f )
Posons désormais
n
Y
ωn+1 (X) = (X − xi ),
i=0
et estimer l’erreur Z
En (f ) = w(x)r[x0 , . . . , xn , x]ωn+1 (x) dx.
I
Calcul de In (f )
Comme dans la base de Lagrange (Lj )06j6n on a
n
X
Pn [r](X) = r(xj )Lj (X),
j=0
n
Y X − xi
où Lj (X) = , j = 0, . . . , n, en posant
xj − xi
i=0,i6=j,
Z
wj = w(x)Lj (x) dx,
I
on obtient
n
X
In (f ) = wj r(xj ).
j=0
A noter que les nombres wj ne dépendent pas de f (ou de r). Ils dépendent évidemment de n et du
support d’intégration.
55
Pour calculer les nombres wj on peut remarquer que pour tout polynôme r ∈ Rn [X], on a Pn [r] = r,
donc en prenant par exemple r(X) = X k , k = 0, . . . , n, on obtient
Z n
X
k
w(x)x dx = wj xkj , k = 0, . . . , n
I j=0
ce qui représente un système de n + 1 équations à n + 1 inconnues ayant comme matrice une matrice
de Vandermonde inversible (on peut également raisonner en utilisant l’exercice 32).
Une autre manière de calculer les nombres wj est d’écrire Pn [r] sous la forme du polynôme de Newton.
Erreur d’intégration
Pour estimer l’erreur En (f ) on peut, d’une manière générale, utiliser la formule (21) en supposant r
de classe C n+1 sur I et la formule de la moyenne. On obtient
|rn+1 (ξ)|
Z
(36) |En (f )| 6 |w(x)ωn+1 (x)| dx.
(n + 1)! I
où
n
X Z
(38) wj r(xj ) = w(x)Pn [r](x) dx
j=0 I
est exacte à l’ordre p (où p ∈ N) si elle est exacte (i.e. l’erreur est nulle) pour tout polynôme de
degré au plus p.
Comme la dérivée d’ordre n + 1 de tous polynôme de degré au plus n est nulle, la formule (36) montre
qu’on a toujours p > n.
La question est de savoir si, avec un choix convenable du support {x0 , . . . , xn } de n + 1 points distincts
de I, on peut obtenir une formule de quadrature exacte à l’ordre p = n + m avec m > 1. On a vu que
cela a été possible dans la formule du rectangle pour le point du milieu ou la formule de Simpson !
On a le résultat suivant.
Démonstration. “⇐” Soit r ∈ Rn+m [X]. Il existe Q ∈ R[x], R ∈ Rn [X] tels que
r(X) = ωn+1 (X)Q(X) + R(X).
56
Comme la formule est exacte au moins à l’ordre n, on a
Xn Z Z Z
wj R(xj ) = w(x)R(x) dx = w(x)r(x) dx − w(x)Q(x)ωn+1 (x) dx.
j=0 I I I
Comme f est arbitraire dans Rn+m [X], on conclut que la formule de quadrature est exacte à l’ordre n + m.
La réciproque est immédiate, car pour tout P ∈ Rm−1 [X], le polynôme f = P ωn+1 appartient à Rn+m , d’où, selon
l’hypothèse,
Z n
X
w(x)f (x) dx = wj f (xj ) = 0,
I j=0
Z Z
car f (xj ) = 0, j = 0, . . . , n. Alors w(x)P (x)ωn+1 (x) dx = w(x)f (x) dx = 0.
I I
Corollaire 3. L’ordre maximum pour lequel la formule de quadrature (37) est exacte est 2n + 1.
Démonstration. Si, par l’absurde, l’affirmation du corollaire est fausse, alors il existe un entier m > n + 2 vérifiant
2
le théorème de Jacobi. Alors, en prenant P = ωn+1 dans la relation (39), on obtient wωn+1 = 0, d’où la contradiction
ωn+1 = 0.
La formule (39) nous suggère à considérer l’espace préhilbertien R[x] muni du produit scalaire h·, ·iw
défini par
Z
(40) (P, Q) 7→ hP, Qiw := w(x)P (x)Q(x) dx.
I
On propose comme exercice au lecteur de montrer que cette application est un produit scalaire sur
R[X].
Alors, pour que les conditions du théorème de Jacobi soient satisfaites pour la plus grande valeur de
m = n + 1, il faut que le polynôme ωn+1 (qui est de degré n + 1) soit w-orthogonal(xvii) au sous-espace
vectoriel Rn [X].
Dans la section suivante on va approfondir ces idées.
∀k ∈ N deg(Qk ) = k,
∀(k, i) ∈ N2 k 6= i =⇒ hQk , Qi iw = 0,
Vect (Q0 , . . . , Qk ) = Rk [X].
Il est clair que
∀(k, i) ∈ N2 i < k =⇒ Qk ⊥Ri [X].
(xvii)
C’est-à-dire par rapport au produit scalaire h·, ·iw , i.e.
∀P ∈ Rn [X] hωn , P iw = 0.
(xviii)
voir le cours d’Analyse de Fourier en L2 !
57
Théorème 24. Soit (Qk )k∈N la suite des polynômes orthogonaux dans l’espace Ew considérée ci-
dessus. Pour tout k ∈ N∗ , le polynôme Qk admet k racines distinctes dans l’intervalle ]a, b[.
Démonstration. Le polynôme Qk de degré k admet k racines dans C. Notons z1 , . . . , zi celles de ces racines
appartenant à ]a, b[ comptées sans répétition, et qui provoquent un changement de signe (i.e., pour tout j ∈ [[1, i]], il
existe un voisinage Vj de zj , Vj ⊂]a, b[ tel que pour tout couple (α, β) ∈ Vj2 , α < zj < β, on a Qk (α)Qk (β) < 0). S’il n’y
a pas de changement de signe sur ]a, b[, alors on prend i = 0. Pour démontrer le théorème il suffit de montrer que i = k.
Supposons i < k. En prenant le polynôme
Yi
p(X) = (X − zj ),
j=1
hQk , piw = 0.
Mais, il existe un polynôme R tel que Qk = p · R car toutes les racines de p sont des racines de Qk . De plus R ne change
pas de signe sur ]a, b[ (exercice !). Alors Qk p(x) > 0 pour tout x ∈]a, b[. Comme w est positif, on obtient que
Z b
hQk , piw = w(x)Qk (x)p(x) dx = 0,
a
ce qui implique wQk p = 0 sur ]a, b[. Ceci est une contradiction ! Donc i = k ce qui achève la preuve.
Théorème 25. Soit n ∈ N et le support {x0 , . . . , xn } donné par les racines du polynôme Qn+1 . Alors
n
Y
le polynôme ωn+1 (X) = (X − xi ) est colinéaire avec Qn+1 i.e.
i=0
∃α ∈ R∗ ωn+1 = αQn+1
et la formule de quadrature (37) (avec (38)) est exacte à l’ordre 2n + 1.
Démonstration. Il est clair que les polynômes ωn+1 et Qn+1 ont les mêmes racines (avec les mêmes ordres de
multiplicité = 1), d’où la colinéarité. Il suit que la relation (39) est vérifiée pour m = n (car Qn+1 ⊥R[ X], donc ωn+1 =
αQn+1 ⊥Rn [X]), d’où la conclusion grâce au théorème de Jacobi.
∀n ∈ N Ln (1) = 1.(xix)
1
Les polynômes de Thebychev : I =] − 1, 1[ et x 7→ w(x) = √ .
1 − x2
Sont les polynômes (Tn )n∈N qui ont été étudiés dans les exercices 26 et 28.
Les polynômes de Hermite : I =] − ∞, +∞[ et x 7→ w(x) = exp(−x2 ).
Sont les éléments de la suite des polynômes orthogonaux (Hn )n∈N obtenue par le procédé de
Gram-Schmidt appliqué à la famille (X n )n∈N normalisés par la condition :
pour tout n ∈ N, le coefficient dominant de Hn est 2n .
(xix)
Dans ce cas particulier toutes les racines de Qn sont dans l’intervalle ] − 1, 1[ d’après le théorème 24.Alors Qn (1) 6= 0,
1
donc on prend Ln = Qn .
Qn (1)
58
Les polynômes de Laguerre : I =]0, +∞[ et x 7→ w(x) = e−x xα avec α ∈] − 1, +∞[.
Sont les éléments de la suite des polynômes orthogonaux (Ln )n∈N obtenue par le procédé de
Gram-Schmidt appliqué à la famille (X n )n∈N normalisés par la condition :
∀n ∈ N Ln (0) = 1(xx)
12 Exercices
Exercice 36. Soit f : [a, b] → R une fonction de classe C 4 . On considère un pas constant d’intégration
b−a
h= pour f sur [a, b] et on note x0 , x1 , . . . , xN les points de subdivision. On se propose de calculer
N
l’intégrale à ε près
Z b
I= f (x) dx,
a
où le réel ε > 0 est donné.
On pose Mi = max |f i) (x)|, i = 1, . . . , 4.
x∈[a,b]
1. Déterminer en fonctions de Mi , a et b le pas maximal hmax autorisé en méthode des rectangles, du
point du milieux, des trapèzes et de Simpson pour que la valeur absolue de l’erreur soit majorée par
ε.
En déduire le nombres N de sous-intervalles à considerer pour chacune des méthodes citées, afin
d’évaluer I.
2. Application numérique :
a = 1, b = 3, ε = 10−4 ,
et
f (x) = ex .
√
3. Même question avec f (x) = x.
4. Interpreter les résultats obtenus.
Exercice 37. Dans cette exercice on se propose de calculer par la méthode de Simpson l’intégrale
Z +∞
2
I= e−x dx
0
59
(b) En déduire la dérivée quatrième f (4) de f et trouver un majorant M de |f (4) | sur [0, A].
(c) En déduire en fonction de A, M et ε, le pas maximal hmax autorisé en méthode de Simpson
pour que l’erreur d’intégration soit en valeur absolue inférieure à ε/2.
Z +∞
2
3. Montrer que pour tout A > 0, e−x dx converge et que
A
Z +∞
2
e−x dx 6 e−A .
A
|I − IA | 6 e−A .
Exercice 38. 1. Déterminer le support {x0 , . . . , xn } dans l’intégration gaussienne sur ] − 1, 1[ avec le
1
poids x 7→ w(x) = √ .
1 − x2
2. Pour chaque valeur de n ∈ [[0, 2]] déterminer la formule de quadrature de Gauss correspondante.
3. Application numérique : évaluer à l’aide des formules trouvées au point précédent les intégrales
Z 1 Z 1
x3 dx sin(x)
I= √ ; I0 = √ dx
1−x 2 1 − x2
−1 −1
60