Sie sind auf Seite 1von 22

Produit scalaire.

Chap. 11 : cours complet.

1. Produit scalaire rel.


Dfinition 1.1 :
produit scalaire sur un -espace vectoriel, espace prhilbertien rel
Thorme 1.1 :
exemples classiques
Thorme 1.2 :
ingalit de Cauchy-Schwarz
Dfinition 1.2 :
forme bilinaire symtrique non dgnre
Thorme 1.3 :
quivalence non dgnre dfinie
Thorme 1.4 :
cas dgalit dans lingalit de Cauchy-Schwarz pour un produit scalaire
Dfinition 1.2 et thorme 1.5 : norme et distance associe un produit scalaire, ingalit de Minkowski
Thorme 1.6 :
galits dites de polarisation
2. Orthogonalit.
Dfinition 2.1 :
vecteurs orthogonaux, vecteurs unitaires (ou norms), famille orthogonale, orthonormale
Thorme 2.1 :
libert dune famille orthogonale ou orthonormale
Thorme 2.2 :
de Pythagore
Thorme 2.3 :
procd dorthogonalisation et dorthonormalisation de Gram-Schmidt
Dfinition 2.2 et thorme 2.4 : orthogonal dune partie dun espace vectoriel
Dfinition 2.3 :
sous-espaces vectoriels orthogonaux, supplmentaires orthogonaux
Thorme 2.4 :
cas de sous-espaces vectoriels de dimension finie
Thorme 2.5 et dfinition 2.4 : somme directe orthogonale de sous-espaces vectoriels
3. Projections orthogonales.
Dfinition 3.1 :
projecteur orthogonal
Thorme 3.1 :
supplmentaire orthogonal dun sous-espace vectoriel de dimension finie
Thorme 3.2 :
expression de la projection orthogonale sur un sous-espace vectoriel de dimension finie
Dfinition 3.2 et thorme 3.3 : distance dun vecteur un sous-espace vectoriel de dimension finie
Thorme 3.4 :
ingalit de Bessel
4. Espaces euclidiens.
Dfinition 4.1 :
Thorme 4.1 :
Thorme 4.2 :
Thorme 4.3 :
Thorme 4.4 :
Thorme 4.5 :
Thorme 4.6 :
Thorme 4.7 :
Thorme 4.8 :

espace vectoriel euclidien


existence de bases orthonormales dans les espaces euclidiens
de la base incomplte orthogonale ou orthonormale
caractrisation matricielle des bases orthogonales ou orthonormales
expression matricielle du produit scalaire
dimension de lorthogonal dun sous-espace vectoriel dans un espace euclidien
caractrisation en dimension finie des supplmentaires orthogonaux
reprsentation dune forme linaire laide du produit scalaire
vecteur normal un hyperplan dun espace euclidien

5. Automorphismes orthogonaux et matrices orthogonales.


Dfinition 5.1 et thorme 5.1 : endomorphisme orthogonal dans un espace vectoriel euclidien
Thorme 5.2 :
bijectivit des endomorphismes orthogonaux en dimension finie, automorphismes
Dfinition 5.2 :
matrice orthogonale
Thorme 5.3 :
caractrisation des matrices orthogonales par leurs vecteurs lignes ou colonnes
Thorme 5.4 :
caractrisations des automorphismes orthogonaux
Thorme 5.5 :
automorphisme orthogonal et sous-espaces stables
Thorme 5.6 et dfinition 5.3 : les groupes (O(E),o), (O(n),), (SO(E),o) et (SO(n),)
Dfinition 5.4 :
isomtries dun espace vectoriel euclidien, isomtries positives et ngatives
Thorme 5.7 :
matrice de passage entre bases orthonormales
6. Espaces euclidiens de dimension 2 ou 3.
Dfinition 6.1 :

orientation dun espace vectoriel, orientation induite par un sous-espace vectoriel

Chapitre 11 : Produit scalaire cours complet.

-1-

Thorme 6.1 et dfinition 6.2 : produit mixte


Thorme 6.2 et dfinition 6.3 : produit vectoriel de deux vecteurs en dimension 3
Thorme 6.3 :
proprits du produit vectoriel
Thorme 6.4 :
expression du produit vectoriel dans une base orthonormale directe
Thorme 6.5 :
expression gomtrique du produit vectoriel
Thorme 6.6 :
lments de O(2) : matrices orthogonales 22
Thorme 6.7 :
automorphismes orthogonaux dun espace vectoriel euclidien de dimension 2
Thorme 6.8 :
produit de rotations, commutativit de SO(2) et SO(E), pour E de dimension 2
Thorme 6.9 :
automorphismes orthogonaux dun espace vectoriel euclidien de dimension 3
Thorme 6.10 : lments de O(3) : matrices orthogonales 33
7. Rduction des endomorphismes symtriques, des matrices symtriques relles.
Dfinition 7.1 :
Thorme 7.1 :
Thorme 7.1 :
Thorme 7.2 :
Thorme 7.3 :
Thorme 7.4 :

endomorphisme symtrique
caractrisation matricielle des endomorphismes symtriques
valeurs propres dune matrice symtrique relle, dun endomorphisme symtrique
orthogonalit des espaces propres dun endomorphisme symtrique
(thorme spectral) diagonalisabilit des endomorphismes symtriques
diagonalisabilit des matrices symtriques relles

Chapitre 11 : Produit scalaire cours complet.

-2-

Produit scalaire.

Chap. 11 : cours complet.

1. Produit scalaire rel.


Dfinition 1.1 : produit scalaire sur un -espace vectoriel, espace prhilbertien rel
Soit E un -espace vectoriel.
On dit que est un produit scalaire sur E si et seulement si est une forme bilinaire symtrique
positive, non dgnre, soit encore :
est une application de EE dans ,
est bilinaire :
(x,y) EE, (x,y) EE, (,) ,
(.x + .y,x) = .(x,x) + .(y,x), et :
(x,.x + .y) = .(x,x) + .(x,y),
est symtrique : (x,y) EE, (x,y) = (y,x),
est positive : x E, (x,x) 0,
est dfinie : x E, ((x,x) = 0) (x = 0).
On dit alors que (E,) est un espace prhilbertien rel.
Thorme 1.1 : exemples classiques dans le cas rel
Les applications suivantes dfinissent des produits scalaires sur les espaces vectoriels indiqus :
(x,y) (

n 2

) , x = (x1, , xn), y = (y1, , yn), (x,y) a

x .y
i =1

(f,g) (C0([a,b], )2, (f,g) a

, dans

f (t ).g (t ).dt , dans C0([a,b], ), o [a,b] est un segment inclus dans .

(A,B) Mn( )2, (A,B) a tr(tA.B).


Dmonstration :
Lapplication propose (notons-la (.|.)) est correctement dfinie de (
Il est clair quelle est symtrique puisque : (x,y) (

) , ( x y) =

n 2

n 2

) dans

x . y = y .x
i =1

i =1

= ( x y) .

Elle est de plus linaire par rapport sa premire variable puisque :


x n, (y,y) n, (,) 2, (x|.y +.y) = .(x|y) + .(x|y), sans difficult.
Enfin, elle est non dgnre, puisque si pour : x n, on a : y n, (x|y) = 0, en particulier pour :
n

y = x, et cela donne :

x
i =1

2
i

= 0, et tous les xi tant positifs, on conclut : 1 i n, xi = 0, soit : x = 0.

De mme, lapplication (note encore (.|.)) est correctement dfinie de E2 dans , (puisque, en notant
E lespace vectoriel C0([a,b], )), pour tout : (f,g) E2, f.g est continue est valeurs relles sur [0,1].
De plus, elle est symtrique de faon immdiate.
Puis elle est linaire par rapport sa deuxime variable (du fait de la linarit de lintgrale sur [a,b]).
Enfin, si pour : f E, on a : (f|g) = 0, en particulier pour : g = f, ce qui donne :

f (t ) 2 .dt = 0 .

Mais comme la fonction f2 est continue et positive sur [a,b], on en dduit bien que : f2 = 0, puis : f = 0.
Enfin, lapplication
Thorme 1.2 : ingalit de Cauchy-Schwarz
Soit E un -espace vectoriel muni dun produit scalaire (.|.).
Alors : (x,y) E, ( x y )
Dmonstration :
Soit la fonction dfinie de

( x x) . ( y y ) .
dans

par : t , (t ) =( x + t. y x + t. y ) .

Puisque le produit scalaire est une forme positive, est galement valeurs dans +.
Par ailleurs : t , (t ) =( x x)+ 2.t ( x y ) + t 2 .( y y ) , en utilisant la bilinarit et la symtrie de (.|.).
Distinguons alors deux cas :
( y y) = 0 .
Chapitre 11 : Produit scalaire cours complet.

-3-

Dans ce cas, est une fonction affine de t qui reste positive : elle est donc constante et : ( x y ) = 0 .
On a bien alors : 0 = ( x y )

( x x) . ( y y ) = 0 .

( y y ) 0 , et donc : ( y y ) > 0 .
Dans ce cas est une fonction polynomiale du second degr.
Comme elle reste positive, elle admet au plus une racine relle (double) et son discriminant est ngatif
ou nul, soit : = ( x y ) 2 ( x x).( y y ) 0 , ce qui donne nouveau : ( x y )

( x x) . ( y y ) .

Dfinition 1.2 : forme bilinaire symtrique non dgnre


Soit une forme bilinaire symtrique sur un -espace vectoriel E.
On dit que la forme est non dgnre si et seulement si :
x E, ( y E, (x,y) = 0) (x = 0).
Thorme 1.3 : quivalence non dgnre dfinie
Soit E un -espace vectoriel, et soit une forme bilinaire symtrique sur E.
Alors est non dgnre si et seulement si est dfinie.
On peut donc remplacer non dgnre par dfinie dans la dfinition dun produit scalaire.
Dmonstration :
On peut commencer par remarquer que dans la preuve de lingalit de Cauchy-Schwarz, on nutilise
aucun moment le fait que le produit scalaire est une forme dfinie.
Puis on travaille par double implication.
[]
Si est non dgnre, soit : x E, tel que : (x,x) = 0.
On constate alors, daprs lingalit de Cauchy-Schwarz, que : y E, (x,y) = 0.
Or tant non dgnre, on en dduit que : x = 0, et est dfinie.
[]
Si est maintenant suppose dfinie et si x est tel que : y E, (x,y) = 0, alors en particulier pour :
y = x, et on en dduit que : (x,x) = 0.
Or tant suppose dfinie, on conclut bien que : x = 0.
Thorme 1.4 : cas dgalit dans lingalit de Cauchy-Schwarz pour un produit scalaire
Soit (E, (.|.)) un espace prhilbertien rel.
Alors : (x,y) E2, ( x y )

( x x) . ( y y ) , si et seulement si (x,y) est lie.

Dmonstration :
Si lon reprend la dmonstration de lingalit de Cauchy-Schwarz, on constate que, si cette ingalit
devient une galit, alors :
dans le cas o : ( y y ) = 0 , alors y est nul puisque comme produit scalaire est une forme dfinie,
donc : 0.x + 1.y = 0.
dans le cas o : ( y y ) 0 , cela signifie que le discriminant de la fonction qui avait servi
dintermdiaire est nul, et donc que le trinme not admet une racine double.
Autrement dit, dans les deux cas : , ( x + t. y x + t. y ) = 0 , et donc le vecteur (x + .y) est nul, ce
qui scrit encore : 1.x + .y = 0.
Dans tous les cas, on constate bien que (x,y) est lie.
Dfinition 1.3 et thorme 1.5 : norme et distance associe un produit scalaire, ingalit de
Minkowski
Soit (E, (.|.)) un espace prhilbertien rel.
Alors lapplication .

dfinie par : x E, x a x =

( x, x) , est une norme sur E, appele norme

associe au produit scalaire (.|.).


De mme, lapplication d dfinie sur E2 par : (x,y) E2, d ( x, y ) = x y , est appele distance

Chapitre 11 : Produit scalaire cours complet.

-4-

associe la norme .

(ou au produit scalaire (.|.)).

Enfin, lingalit triangulaire vrifie par .

est appele ingalit de Minkowski.

Dmonstration :
Il y a donc quatre points vrifier.
pour tout vecteur x de E, la quantit N(x) existe puisque (x,x) est un rel positif, et : N(x) +.
si pour : x E, on a : N(x) = 0, alors : (x,x) = 0, et comme produit scalaire est une forme dfinie,
donc : x = 0.
pour : x E, et :

(ou ), N(.x) =

( . x, . x ) =

. ( x, x) = . ( x, x) = ||.N(x).
2

enfin, pour : (x,y) E2, on a dans le cas rel :


N(x+y)2 = (x+y,x+y) = (x,x) + 2.(x,y) + (y,y) N(x)2 + 2.N(x).N(y) + N(y)2 = (N(x) + N(y))2, do
lingalit triangulaire pour N, et dans le cas complexe :
N(x+y)2 = (x,x) + 2.Re((x,y)) + (y,y) N(x)2 + 2.|(x,y)| + N(y)2 N(x)2 + 2.N(x).N(y) + N(y)2, et on
termine comme dans le cas rel avec lingalit triangulaire.
Thorme 1.6 : galits dites de polarisation
Soit (E, (.|.)) un espace prhilbertien rel et . la norme associe (.|.).
On a les galits suivantes : (x,y) E2,

x+ y

= x + y + 2.( x y ) ,
2

1
1
( x y ) = .( x + y x y ) = .( x + y x y ) .
2
4
Dmonstration :
Il suffit dcrire : (x,y) E2,

x+ y

= ( x + y x + y ) = x + y + 2.(x|y), et : x y
2

= ( x y x y) = x + y
2

2.(x|y),

do les galits proposes.


2. Orthogonalit.
Dfinition 2.1 : vecteurs orthogonaux, vecteurs unitaires (ou norms), famille orthogonale,
orthonormale
Soit (E, (.|.)) un espace prhilbertien rel et . la norme associe (.|.).
Deux vecteurs x et y de E sont dits orthogonaux pour (.|.) si et seulement si : (x|y) = 0.
De mme, un vecteur x de E est dit unitaires (ou norm) si et seulement si : x = 1.
Soit (xi)iI, une famille de vecteurs de E.
On dit que la famille est orthogonale pour (.|.) si et seulement si : (i,j) I2, (i j) ((xi|xj) = 0).
On dit que la famille est orthonormale pour (.|.) si et seulement si elle est orthogonale et si de plus, tous
les vecteurs de la famille sont norms.
Thorme 2.1 : libert dune famille orthogonale ou orthonormale
Soit (E, (.|.)) un espace prhilbertien rel et . la norme associe (.|.).
Soit (xi)iI, une famille de vecteurs de E.
Si la famille est orthogonale pour (.|.) et ne comporte pas le vecteur nul, elle est libre.
Si la famille est orthonormale pour (.|.), elle est libre.
Dmonstration :
Comme les combinaisons linaires quon peut envisager ne comporte toujours quau plus un nombre fini
de coefficients non nuls, on peut noter la famille (xi)1in, pour un entier n donn.
Alors, si pour : (i)1in Kn, on a : 1.x1 + + n.xn = 0, alors :
1 i n, (xi|1.x1 + + n.xn) = 0, et par linarit par rapport la deuxime variable, on obtient :
1 i n, i. xi

= 0, (puisqu la famille est orthogonale).

Donc si tous les xi sont non nuls, on conclut bien au fait que : 1 i n, i = 0, et la famille est libre.
Si maintenant on considre une famille orthonormale, elle est orthogonale et ne contient pas le vecteur
Chapitre 11 : Produit scalaire cours complet.

-5-

nul, donc elle est libre.


Thorme 2.2 : de Pythagore
Soit (E,(.|.)) un espace prhilbertien rel et .

la norme associe (.|.).

Soit (xi)1in, une famille finie orthogonale de vecteurs de E.


Alors : x1 + ... + xn

= x1

+ ... + xn .
2

Dmonstration :
On peut par exemple procder par rcurrence sur n.
Pour : n = 2, si (x1, x2) est une famille orthogonale de E, le thorme 2.7 donne bien le rsultat voulu.
Si maintenant on suppose le rsultat vrai pour tout famille orthogonale de n vecteurs de E (avec : n 2),
alors tant donn une famille orthogonale (x1, , xn+1) de vecteurs de E, la famille (x1 + + xn, xn+1) est
une famille de deux vecteurs de E, orthogonale car: (x1 + + xn|xn+1) = (x1|xn+1) + + (xn|xn+1) = 0.
Donc : x1 + ... + xn +1

= x1 + ... + xn

+ xn+1

= x1

+ ... + xn

+ xn+1 .
2

Et la rcurrence est termine.


Thorme 2.3 : procd dorthogonalisation et dorthonormalisation de Gram-Schmidt
Soit (E, (.|.)) un espace prhilbertien rel et . la norme associe (.|.).
Soit (xi)1in, une famille libre de vecteurs de E.
On peut construire une famille (e1, , en) de vecteurs de E telle que :
1 p n, ep 0,
1 p n, ep Vect(x1, , xp),
1 i j n, (ei|ej) = 0.
On a dans ce cas : 1 p n, Vect(x1, .., xp) = Vect(e1, , ep).
Par ailleurs, il existe une unique famille (1, , n) de vecteurs de E, telle que :
1 p n, p Vect(x1, , xp),
1 i j n, (i|j) = 0,
1 p n, p = 1 ,
1 p n, (p|xp) > 0.
On a encore dans ce cas : 1 p n, Vect(x1, .., xp) = Vect(1, , p).
Dmonstration :
orthogonalisation de la famille : on procde la construction par rcurrence en montrant en mme
temps que la famille obtenue vrifie bien : 1 p n, Vect(e1, , ep) = Vect(x1, , xp).
On doit alors prendre e1 colinaire x1, et il est possible de trouver e1 tel que : e1 0, et : e1 Vect(x1).
Il suffit pour cela de choisir par exemple : e1 = x1.
On a alors en plus (et quelque soit en fait le choix de e1) : Vect(e1) = Vect(x1).
Supposons maintenant que pour : 1 p n 1, on ait construit une famille (e1, , ep) telle quindiqu et
supposons alors de plus que : Vect(e1, , ep) = Vect(x1, , xp).
On cherche alors ep+1 tel que : ep+1 Vect(x1, , xp+1), donc sous la forme : ep+1 = 1.x1 + + p+1.xp+1.
Mais puisquon a de plus suppos que : Vect(e1, , ep) = Vect(x1, , xp), on peut alors crire ep+1 sous
la forme : ep+1 = 1.e1 + + p.ep + p+1.xp+1.
On veut de plus que la famille (e1, , ep+1) soit orthogonale, ce qui scrit :
1 i p, (ei|ep+1) = 0 = i.(ei|ep) + p+1.(ei|xp+1),
et comme les ei sont non nuls, pour : 1 i p, il est quivalent dcrire : 1 i p, i =

Autrement dit, le vecteur ep+1 est ncessairement de la forme : ep+1 = p+1. x p +1

i =1

(ei x p +1 )

(ei x p +1 )
ei

ei

. p +1 .

.ei .

Or le vecteur dans le crochet est non nul (puisque la famille (xp+1, e1, , ep) est libre) donc il est possible
de trouver un vecteur ep+1 rpondant aux conditions imposes (en prenant : p+1 0).
Enfin, on a : Vect(e1, , ep+1) Vect(e1, , ep, xp+1) = Vect(x1, , xp+1), vu lcriture de ep+1.

Chapitre 11 : Produit scalaire cours complet.

-6-

Et comme de mme, on a : x p +1 =

i =1

(ei x p +1 )
ei

.ei +

p +1

.e p +1 ,

on a aussi : Vect(x1, , xp+1) Vect(e1, , ep+1), do lgalit, et ceci quelque soit le choix de ep+1.
La rcurrence est donc termine et lexistence dune famille orthogonalise tablie.
orthonormalisation de la famille.
Si on veut orthonormaliser la famille, alors la famille (1, , n) est une de celles construites
prcdemment.
Montrons qu chaque tape de la construction, il ny a quun vecteur qui rpond aux conditions.
Pour 1, on doit normer e1 et vrifier ensuite que : (1|x1) > 0.
Cela donne donc : 1 =

x1
x
, puis : 1 = 1 , pour que le produit scalaire soit positif.
x1
x1

Si maintenant, pour : 1 p n 1, on suppose tous les vecteurs i, pour : 1 i p, construits de faon


unique, alors les vecteurs i sont colinaires aux vecteurs ei prcdents et p+1 scrit :

p+1 = p+1. x p +1

i =1

(ei x p +1 )
ei

.ei = p+1.yp+1.

La fait que p+1 doit tre norm laisse deux possibilits pour p+1 (puisque le vecteur yp+1 est non nul,
comme on la vu prcdemment), savoir : p+1 =

1
y p +1

Si on fixe alors p+1 lune de ces valeurs, alors : 1 = (p+1|p+1) = p+1.(p+1|yp+1) = p+1.(p+1|xp+1),
puisque p+1 est orthogonal par construction aux vecteurs (1, , p).
Donc (p+1|xp+1) est non nul, et il suffit enfin de choisir : p+1 = +

1
y p +1

, pour garantir que le produit

scalaire (p+1|xp+1) est strictement positif.


Finalement, le vecteur p+1 ainsi obtenu est le seul possible et il convient (au rang p+1).
Par rcurrence, on vient bien de dmontrer lexistence et lunicit de la famille orthonormale annonce.
Dfinition 2.2 et thorme 2.4 : orthogonal dune partie dun espace vectoriel
Soit (E, (.|.)) un espace prhilbertien rel.
Soit A une partie de E.
On appelle orthogonal de A, not A, lensemble des vecteurs de E orthogonaux tous les vecteurs de
A, soit : A = {x E, y A, (x|y) = 0}.
Pour toute partie A de E, A est un sous-espace vectoriel de E.
En particulier : E = {0}, et : {0} = E.
Dmonstration :
Il est clair que A est inclus dans E.
De plus : y A, (0|y) = 0, et : 0 A.
Enfin : (x,x) (A)2, (,) 2, y A, (.x + .x|y) = .(x|y) + (x|y) = 0, (en rajoutant une barre
de conjugaison sur les scalaires dans le cas complexe, ce qui ne change pas le rsultat), et :
(.x+.x) A.
Finalement, A est bien un sous-espace vectoriel de E.
De plus si : x E, alors en particulier x est orthogonal lui-mme et : ( x x) = x

= 0 , do : x = 0.

De mme, tout vecteur est orthogonal 0.


Dfinition 2.3 : sous-espaces vectoriels orthogonaux, supplmentaires orthogonaux
Soit (E, (.|.)) un espace prhilbertien rel.
Soient F et G des sous-espaces vectoriels de E.
On dit que F et G sont orthogonaux si et seulement si : (x,y) FG, (x|y) = 0.
On note alors parfois : F G.
On dit que F et G sont supplmentaires orthogonaux dans E si et seulement si F et G sont

supplmentaires dans E et orthogonaux, et on note alors : E = F G .


Chapitre 11 : Produit scalaire cours complet.

-7-

Thorme 2.5 : cas de sous-espaces vectoriels de dimension finie


Soit (E, (.|.)) un espace prhilbertien rel.
Soient F et G des sous-espaces vectoriels de E de dimension finie, de bases respectives BF et BG.
F et G sont orthogonaux si et seulement si tout vecteur de BF est orthogonal tout vecteur de BG.
Dmonstration :
On peut procder par double implication.
[] si tout vecteur de F est orthogonal tout vecteur de G, cest en particulier vrai pour les vecteurs de
BF et de BG.
[] puisque : F = Vect(BF), et : G = Vect(BG), la bilinarit du produit scalaire montre qualors, tout
vecteur de F est orthogonal tout vecteur de G si cest vrai pour les vecteurs de BF et de BG.
Thorme 2.6 et dfinition 2.4 : somme directe orthogonale de sous-espaces vectoriels
Soit (E, (.|.)) un espace prhilbertien rel.
Soient F1, , Fn des sous-espaces vectoriels de E.
Si les sous-espaces vectoriels sont orthogonaux deux deux, alors la somme [F1 + + Fn] est directe.
On dit alors que les sous-espaces vectoriels sont en somme directe orthogonale, et on la note encore :

F1 F2 ... Fn , ou : Fi .
i =1

Dmonstration :
Soit un vecteur par exemple de lintersection : (F1 + + Fn-1) Fn.
Alors on peut lcrire : x = x1 + + xn-1 = xn, chaque xi appartenant lespace Fi correspondant.
On constate que : (x|x) = (xn|x1 + + xn-1) = (xn|x1) + + (xn-1|xn) = 0,
et ce rsultat est identique en intervertissant les rles de espaces.
Finalement, la somme est bien directe.
3. Projections orthogonales.
Dfinition 3.1 : projecteur orthogonal
Soit (E, (.|.)) un espace prhilbertien rel.
Soient F et G des sous-espaces vectoriels supplmentaires de E et p le projecteur de E sur F dans la
direction G.
On dit que p est un projecteur orthogonal de E si : G = F.
Thorme 3.1 : supplmentaire orthogonal dun sous-espace vectoriel de dimension finie
Soit (E, (.|.)) un espace prhilbertien rel de dimension finie ou non.
Soit F un sous-espace vectoriel de E de dimension finie m.
Alors F est un supplmentaire de F dans E, appel supplmentaire orthogonal de F dans E.
Dmonstration :
On va montrer que tout vecteur de E peut se dcomposer de faon unique comme somme dun vecteur
de F et de F.
Pour cela, soit (e1, , em) une base orthonormale BF de F et soit x un vecteur de E.
Si x peut scrire : x = xF + x, avec : xF F, et : x F, alors :
(x1, , xp) Kp, xF = x1.e1 + + xm.em, et x est orthogonal tout vecteur de F.
En particulier : 1 i p, (ei|x) = (ei|xF) + (ei|x) = xi, puisque la base BF est orthonormale.
Donc xF ne peut valoir que : x F =

(e
i =1

x).ei , et : x = x xF.

Rciproquement, cette unique dcomposition possible convient car on a bien :


xF F, puisque BF engendre F,
x = xF + x, par construction,
1 k m, (ek|x) = (ek|x) (ek|xF) = (ek|x) (ek|x) = 0, nouveau parce que la base BF de F est
orthonormale et en utilisant la linarit du produit scalaire par rapport sa premire variable.
Le troisime point permet de conclure plus gnralement que : y F, (y|x) = 0.

Chapitre 11 : Produit scalaire cours complet.

-8-

Thorme 3.2 : expression de la projection orthogonale sur un sous-espace vectoriel de dimension


finie
Soit (E, (.|.)) un espace prhilbertien rel ou complexe de dimension finie ou non.
Soit F un sous-espace vectoriel de E de dimension finie m.
Soit (e1, , em) une base orthonormale de F et pF la projection orthogonale de E sur F.
m

Alors pour tout vecteur x de E, on a : pF(x) =

(e
i =1

x).ei .

Dmonstration :
On vient de montrer quun vecteur x de E pouvait se dcomposer suivant la somme directe : E = F F,
en : x =

(e

i =1

x).ei + x , puisque la base choisie dans F est orthonormale.

Dans ce cas, la projection orthogonale pF(x) de x sur F scrit : p F ( x) =

(e
i =1

x).ei .

Dfinition 3.2 et thorme 3.3 : distance dun vecteur un sous-espace vectoriel de dimension finie
Soit (E, (.|.)) un espace prhilbertien rel ou complexe de dimension finie ou non et . la norme
associe.
Soit F un sous-espace vectoriel de E de dimension finie p.
Pour un vecteur x de E, on appelle distance de x F, note d(x,F), la quantit : d ( x, F ) = inf x z .
zF

Cette valeur est atteinte en un unique vecteur de F qui est pF(x), la projection orthogonale de x sur F.
On a donc : d(x,F) = x p F (x) .
Dmonstration :
Tout dabord, pour un vecteur x de E, lensemble { x z , z F} est non vide (il suffit de prendre : z = 0)
et il est constitu de rels positifs, donc il est minor et il admet une borne infrieure.
De plus, en notant xF la projection orthogonale pF(x) de x sur F, on a :
z F, x z

= x xF + xF z .
2

Or : (x xF) F, et : (xF z) F, donc ces deux vecteurs sont orthogonaux et le thorme de


Pythagore peut sappliquer pour donner : z F, x z

= x xF

+ xF z .
2

Il est alors clair que : z F, x z x x F , et : z F, (z xF) ( x z > x x F ).


Donc la valeur x x F

est le plus petit lment de lensemble { x z , z F}, donc aussi sa borne

infrieure, et cette dernire nest atteinte quen : z = xF = pF(x).


Thorme 3.4 : ingalit de Bessel
Soit (E, (.|.)) un espace prhilbertien rel de dimension finie ou non et .

la norme associe.

Soit F un sous-espace vectoriel de E de dimension finie m.


Soit (e1, , em) une base orthonormale de F.
m

Pour tout vecteur x de E, on a :

(e
i =1

x) x .
2

Dmonstration :
Soit x un vecteur de E, et : x =

(e

i =1

x).ei + x , sa dcomposition suivant la somme : E = F F,

puisque la base propose dans E est orthonormale.


Alors les deux vecteurs de cette dcomposition tant orthogonaux, le thorme de Pythagore sapplique
nouveau et la base de F tant orthonormale, lexpression de la norme au carr est alors canonique et :

(e
i =1

x).ei

+ x

(e
i =1

x).ei

Chapitre 11 : Produit scalaire cours complet.

= (ei x ) .
2

i =1

-9-

4. Espaces euclidiens.
Dfinition 4.1 : espace vectoriel euclidien
On appelle espace euclidien un espace vectoriel rel de dimension finie, muni dun produit scalaire.
Thorme 4.1 : existence de bases orthonormales dans les espaces euclidiens
Soit (E, (.|.)) un espace vectoriel euclidien.
Il existe dans E des bases orthonormales pour (.|.).
Dmonstration :
Il suffit de considrer une base de E (donc une famille libre) et de lui appliquer le procd
dorthonormalisation de Schmidt pour obtenir une nouvelle famille libre de n vecteurs de E (puisque
orthogonale sans le vecteur nul) donc une base orthonormale de E.
Thorme 4.2 : de la base incomplte orthogonale ou orthonormale
Soit (E, (.|.)) un espace vectoriel euclidien.
Soit (x1, , xp) une famille orthogonale de vecteurs de E, ne comportant pas le vecteur nul.
Alors il est possible de complter la famille (x1, , xp) en une base orthogonale de E.
De mme, si (e1, , ep) est une famille orthonormale de vecteurs de E, il est possible de complter cette
famille en une base orthonormale de E.
Dmonstration :
On utilise cette fois le thorme de la base incomplte appliqu la famille (x1, , xp) et une base de E.
La famille complte peut alors tre orthogonalise suivant le procd de Schmidt qui donne pour les p
premiers vecteurs, les vecteurs x1, , xp eux-mmes.
Dans le cas dune famille (e1, , ep) de dpart, orthonormale, on applique lorthonormalisation pour
obtenir une base de E orthonormale, dont les premiers vecteurs sont encore (e1, , ep).
Thorme 4.3 : caractrisation matricielle des bases orthogonales ou orthonormales
Soit (E, (.|.)) un espace vectoriel euclidien de dimension n.
Soit : B = (ei), une base de E.
On note M la matrice du produit scalaire dans la base (ei) dfinie par : 1 i,j n, mi,j = (ei|ej).
La matrice M est alors symtrique.
On a de plus les quivalences suivantes, que E soit un espace vectoriel euclidien ou hermitien :
(B est orthogonale) (M est diagonale),
(B est orthonormale) (M = In).
Plus gnralement, si M est la matrice dune forme bilinaire symtrique dun espace euclidien E, alors
M est symtrique.
Dmonstration :
Puisque : (i,j) n2, mi , j = (ei e j ) = (e j e j ) = m j ,i , la matrice M est bien symtrique.
De plus, les deux rsultats suivants sont presque immdiats puisque :
(B est orthogonale) ( 1 i j n, (ei|ej) = 0 = mi,j) (M est diagonale).
(B est orthonormale) ( 1 i,j n, (ei|ej) = i,j) (M = In).
Thorme 4.4 : expression matricielle du produit scalaire
Soit (E, (.|.)) un espace vectoriel euclidien de dimension n, et soit : B = (ei), une base de E.
Soient x et y des vecteurs de E, et X et Y les matrices colonnes de leurs coordonnes dans B.
Alors : ( x y )= t X .M .Y .
Si B est orthonormale, on a de plus :
( x y )= t X .Y =

x .y
i =1

x=
2

(forme canonique dun produit scalaire rel dans une base orthonormale),

(e
i =1

x).ei ,

i =1

i =1

= xi2 = (ei x) 2 .

Chapitre 11 : Produit scalaire cours complet.

- 10 -

Dmonstration :
Pour le premier point, il suffit de dvelopper :
On note pour commencer : Y = M.Y, et on a : 1 i n, y ' i =

m
k =1

i ,k

. yk .

Puis tX.M.Y est une matrice une ligne et une colonne et son seul coefficient vaut alors :
n

x . y' = m
i =1

i =1 k =1

i ,k

.x i y k .

Dautre part, en utilisant la bilinarit du produit scalaire, on obtient galement :


n

i =1

i =1

k =1

( x y ) = xi .(ei y ) = xi . y k .(ei ek ) = xi . y k .mi ,k ,


i =1 k =1

et les deux expressions sont gales si on confond la matrice 11 avec son unique coefficient.
Si la base est orthonormale alors : 1 i,j n, mi,j = i,j, la matrice M vaut In, et on a bien :
n

( x y )= t X .Y = xi . yi .
i =1

Soit : x = x1.e1 + + xn.en, la dcomposition de x suivant la base orthonormale B.


On peut alors calculer : (ei x) =
Enfin : x

x .(e
j =1

i =1

i =1

e j ) = xi , do lexpression de x.

= ( x x) = xi2 = (ei x) 2 , vu les expressions trouves prcdemment.

Thorme 4.5 : dimension de lorthogonal dun sous-espace vectoriel dans un espace euclidien
Soit (E, (.|.)) un espace vectoriel euclidien de dimension n.
Soit F un sous-espace vectoriel de E.
Alors : dim(F) = n dim(F).
De plus : (F) = F.
Dmonstration :
Puisque F est de dimension finie, F est un supplmentaire de F dans E et : dim(F) + dim(F) = n.
De plus : x F, y F, ( x y ) = 0 , donc : x (F), soit : F (F).
Et comme : dim((F)) = n dim(F) = n (n dim(F)) = dim(F), on en dduit que : F = (F).
Thorme 4.6 : caractrisation en dimension finie des supplmentaires orthogonaux
Soit (E, (.|.)) un espace prhilbertien rel.
Soient F et G des sous-espaces vectoriels de E.
F et G sont supplmentaires orthogonaux dans E si et seulement si on obtient une base orthogonale de
E en runissant une base orthogonale de F et une base orthogonale de G.
Dmonstration :
Travaillons par double implication :
[]
Si F et G sont supplmentaires orthogonaux dans E, alors en runissant des bases orthogonales de F et
de G, on obtient tout dabord une base de E, et tous les vecteurs de la base de F tant orthogonaux
tous ceux de la base de G, la base de E obtenue est bien orthogonale.
[]
Si la runion de deux bases orthogonales de F et de G donne une base orthogonale de E, alors les
vecteurs de la base de F et ceux de G sont orthogonaux entre eux et F et G sont orthogonaux daprs le
thorme 2.4.
De plus, il est clair que F et G sont supplmentaires dans E.
Thorme 4.7 : reprsentation dune forme linaire laide du produit scalaire
Soit (E, (.|.)) un espace vectoriel euclidien de dimension n.
Soit * une forme linaire sur E.
Alors il existe un unique vecteur : a E, tel que : x E, * ( x) = (a x) .

Chapitre 11 : Produit scalaire cours complet.

- 11 -

Dmonstration :
Soit : B = (e1, , en), une base orthonormale de E.
, x E, x =

Alors : (a1, , an)


Le vecteur : a =

a .e
i =1

i =1

i =1

xi .ei , * ( x) = ai .xi .

, est alors bien tel que : x E, * ( x) = (a x) , puisque B est orthonormale.

Puis si a rpond galement au problme, alors : x E, * ( x) = (a x) = (a ' x) , do : (a a ' x) = 0 .


On a donc : (a a) E, et : a a = 0, do : a = a.
Thorme 4.8 : vecteur normal un hyperplan dun espace euclidien
Soit (E, (.|.)) un espace vectoriel euclidien de dimension n.
Soit H un hyperplan de E, et : B = (e1, , en), une base orthonormale de E.
Une quation de H dans B fournit alors un vecteur orthogonal H, dit aussi vecteur normal H.
Dmonstration :
Si : B = (e1, , en), est une base orthonormale de E, et si : a1 .x1 + ... + a n .x n = 0 , est une quation de H
dans B, alors : H = ker(*), o * est la forme linaire dfinie par :
x E, x =

xi .ei , * ( x) = ai .xi .
i =1

Le vecteur : a =

i =1

a .e
i =1

, est alors orthogonal H puisque : x H, * ( x) = 0 = (a x) .

5. Automorphismes orthogonaux et matrices orthogonales.


Dfinition 5.1 et thorme 5.1 : endomorphisme orthogonal dans un espace vectoriel euclidien
Soit (E, (.|.)) un espace vectoriel euclidien et . la norme associe.
Soit : u L(E).
On dit que u est un endomorphisme orthogonal de E si et seulement si u conserve la norme ou le produit
scalaire de E, c'est--dire : (x,y) E2, (u ( x) u ( y )) = ( x y ) , ou : x E, u ( x) = x .
Ces deux dfinitions sont bien quivalentes.
Dmonstration :
Si u conserve le produit scalaire, alors :
x E, u ( x)

= (u ( x) u ( x)) = ( x x) = x , et u conserve bien la norme.


2

Si par ailleurs, u conserve la norme, alors lexpression du produit scalaire laide de normes (par le biais
des identits dites de polarisation (thorme 1.6)) et la linarit de u montrent que u conserve le
produit scalaire.
Thorme 5.2 : bijectivit des endomorphismes orthogonaux en dimension finie
Soit (E, (.|.)) un espace vectoriel euclidien et . la norme associe.
Soit : u L(E), un endomorphisme orthogonal de E.
Alors u est bijectif, et donc tout endomorphisme orthogonal dun espace vectoriel euclidien est un
automorphisme : on parle donc dautomorphisme orthogonal.
De plus, u ne peut admettre comme valeur propre que 1.
Dmonstration :
Puisque lon travaille dans un espace euclidien, il est de dimension finie et il suffit de dmontrer que
lendomorphisme u est injectif.
Or : x E, (x ker(u)) (u(x) = 0) ( x = 0 ) (x = 0).
Supposons maintenant que est valeur propre (donc relle) de u, et soit x un vecteur propre associ.
Alors : u(x) = .x, et : u ( x) = .x = . x , mais aussi : u ( x) = x , et comme x est non nul : || = 1.

Chapitre 11 : Produit scalaire cours complet.

- 12 -

Dfinition 5.2 : matrice orthogonale


Soit : n 1.
On dit que : A Mn( ), est une matrice orthogonale si et seulement si : tA.A = In, ou : A.tA = In.
Thorme 5.3 : caractrisation des matrices orthogonales par leurs vecteurs lignes ou colonnes
Soit : n 1.
Une matrice : A Mn( ), est orthogonale si et seulement si ses colonnes, considres comme des
vecteurs de n (ou ses lignes) forment une base orthonormale de n, pour le produit scalaire canonique
de n.
De plus, si : A Mn( ), est orthogonale, alors : det(A) = 1.
Dmonstration :
Soit : A Mn( ).
On peut tout dabord remarquer que :
(tA.A = In) (A-1 = tA) (A.tA = In) (A orthogonale).
Puis, si on note B la matrice : B = tA.A, ses coefficients sont :
1 i,j n, bi,j = (Ci|Cj), o le produit scalaire est ici le produit scalaire canonique de n, et o on a
not C1, , Cn les colonnes de A, considres comme des vecteurs de n.
Donc A est orthogonale si et seulement si : B = In, donc si et seulement si la famille (forme de n
vecteurs) (c1, , cn) est orthonormale dans n, donc en forme une base orthonormale.
De mme, en notant L1, , Ln les lignes de A, et : B = A.tA, on dmontre lautre quivalence.
Enfin, si A est orthogonale, alors : det(In) = 1 = det(tA.A) = det(tA).det(A) = (det(A))2.
Thorme 5.4 : caractrisations des automorphismes orthogonaux
Soit (E, (.|.)) un espace vectoriel euclidien et . la norme associe.
Soit : u L(E).
u est un automorphisme orthogonal si et seulement si sa matrice dans une base orthonormale de E est
une matrice orthogonale.
u est un automorphisme orthogonal si et seulement si limage dune base orthonormale de E par u est
une autre base orthonormale.
En particulier, si u est un automorphisme orthogonal, alors : det(u) = 1.
Dmonstration :
Soit A la matrice de u dans une base B orthonormale de E.
Si A est orthogonale, alors : x E, (u ( x) u ( x))= t ( A. X ).( A. X ) , en notant X la matrice des
coordonnes de X dans la base B et puisque cette mme base est orthonormale.
Donc : (u ( x) u ( x))= t X .t A. A. X = t X .I n . X = t X . X = ( x x) , et u est bien un automorphisme orthogonal.
Si maintenant on suppose u orthogonal, alors : (x,y) E2, on a : (u ( x) u ( y )) = ( x y ) .
En notant X et Y les matrices colonnes des coordonnes de X et de Y dans B, on obtient :
(X,Y) Mn( )2, t X .t A. A.Y = t X .Y .
Notons alors : B = tA.A, et soit Xk la matrice colonne forme de 0 sauf celui de la ligne k qui vaut 1.
Alors : 1 k,l n, t X k .t A. A. X l = t X k .B. X l = bk ,l , et : t X k . X l = k ,l .
On en dduit que : B = In, et donc : tA.A = In, autrement dit A est orthgonale.
Soit maintenant : B = (e1, en), une base orthonormale de E.
Si u est orthogonal alors par conservation du produit scalaire, la famille (u(e1), , u(en)) est clairement
une famille orthonormale (donc une base) de E.
Et si rciproquement, on suppose que (u(e1), , u(en)) est orthonormale, alors :
x E, x =

xi .ei , u ( x)

i =1

et donc : u ( x)

n
n
n
n
n n
= xi .u (ei ) x j .u (e j ) = xi .x j .(u (ei ) u (e j )) = xi .x j . i , j ,
i =1
i =1 j =1
j =1
i =1 j =1

= xi2 = x .
2

i =1

Puisque u conserve la norme, cest donc bien un automorphisme orthogonal.


En particulier, si u est orthogonal et si A est sa matrice reprsentative dans une base orthonormale de
Chapitre 11 : Produit scalaire cours complet.

- 13 -

lespace, alors : det(u) = det(A) = 1.


Thorme 5.5 : automorphisme orthogonal et sous-espaces vectoriels stables
Soit (E, (.|.)) un espace vectoriel euclidien.
Soient u un automorphisme orthogonal de E et F un sous-espace vectoriel de E, stable par u.
Alors F est galement stable par u.
Dmonstration :
Puisque F est stable par u, on a : u(F) F, et u tant bijectif, donc conservant la dimension : u(F) = F.
Pour : x F, on peut crire : y F, y F, y = u(y), et : (u ( x) y ) = (u ( x) u ( y ' )) = ( x y ) = 0 .
Donc : u(x) F, et F est donc galement stable par u.
Thorme 5.6 et dfinition 5.3 : les groupes (O(E),o), (O(n),), (SO(E),o) et (SO(n),)
Soit (E, (.|.)) un espace vectoriel euclidien de dimension n et . la norme associe.
Alors lensemble des endomorphismes orthogonaux de E, not O(E), forme un groupe pour la loi o,
appel groupe orthogonal de E et sous-groupe de (Gl(E),o).
De mme, lensemble O(n) des matrices orthogonales de Mn( ), forme un groupe pour la loi ,
appel groupe orthogonal dordre n, et sous-groupe de (Gl(n),).
Par ailleurs, les lments de O(E) dont le dterminant vaut 1 forment un sous-groupe de O(E) appel
Groupe spcial orthogonal de E, de mme les matrices de O(n) dont le dterminant vaut 1 forment un
sous-groupe de O(n) appel groupe spcial orthogonal dordre n.
Enfin, si on fixe une base orthonormale B de E, lapplication de L(E) dans Mn( ), qui un
endomorphisme u associe sa matrice dans la base B, induit un isomorphisme de groupes de (O(E),o)
dans (O(n),).
Dmonstration :
O(E) :
On a pour commencer : O(E) Gl(E).
De plus il est clair que idE conserve la norme donc cest un automorphisme orthogonal, et : O(E) .
Puis, si u et v conservent la norme dans E, alors : x E, uov( x) = u (v( x)) = v( x) = x .
Donc : (u,v) O(E)2, uov O(E).
Enfin, pour tout u dans O(E), u est bijectif et : x E, u 1 ( x) = u (u 1 ( x)) = x , soit : u-1 O(E).
O(n) :
De la mme faon, toute matrice orthogonale tant inversible, on a : O(n) Gl(n).
De plus : tIn.In = In, donc : In O(n), et : O(n) .
Puis : (A,B) O(n)2, t(A.B).(A.B) = tB.tA.A.B = tB.In.B = In, et : (A.B) O(n).
Enfin : A O(n), A-1 = tA, et : t(A-1).A-1 = t(t(A)).tA = A.tA = In, et : A-1 O(n).
SO(E) :
On a : idE O(E), puisque : det(idE) = 1, et : SO(E) .
Puis : (u,v) SO(E)2, alors : det(u o v) = det(u ). det(v) = 1 , et : uov SO(E).
Enfin, si : u SO(E), det(u 1 ) = (det(u )) 1 = 1 , et : u-1 SO(E).
SO(E) est bien un sous-groupe de O(E).
On montre de la mme faon que SO(n) forme un sous-groupe de O(n).
Lapplication propose est bien une application de O(E) dans O(n), daprs le thorme 5.4.
Cest un morphisme de groupes multiplicatifs, car : (u,v) O(E)2, mat(uov,B) = mat(u,B).mat(v,B).
Enfin, cest bien une application injective puisque lapplication de L(E) dans Mn( ) lest, et elle est
surjective puisque pour une matrice orthogonale donne A, lendomorphisme u de E tel que :
A = mat(u,B), est orthogonal, toujours daprs le thorme 5.4.
Thorme 5.7 : matrice de passage entre bases orthonormales
Soit (E, (.|.)) un espace vectoriel euclidien et . la norme associe.
Soit B une base orthonormale de E et B une autre base de E.
Si on note P la matrice de passage de B B, alors B est orthonormale si et seulement si P est
orthogonale.
Chapitre 11 : Produit scalaire cours complet.

- 14 -

Dmonstration :
Soit donc B une bas orthonormale de E et B une autre base de E en notant P la matrice de passage
de lune lautre.
Les coefficients de P sont (en colonne) les coordonnes des vecteurs de B exprims dans la base B.
Or dans ce cas : (j,j) {1, , n}2,
t
Cj.Cj = (Cj|Cj), pour le produit scalaire canonique (des colonnes Cj et Cj de P) dans n,
n

Cj.Cj =

p
k =1

k, j

. p k , j ' = (ej|ej), o les ek sont les vecteurs de B, et o le produit scalaire est cette fois

celui dans E : en effet, la base B tant orthonormale, la forme que prend le produit scalaire est encore
canonique.
Il est alors clair que : (tP.P = In) ( (j,j) {1, , n}2, tCj.Cj = i,j = (ej,ej)) (B orthonormale).
6. Espaces euclidiens de dimension 2 ou 3.
Dans ce paragraphe, E dsigne un espace euclidien de dimension 2 ou 3.
Dfinition 6.1 : orientation dun espace vectoriel, orientation induite par un sous-espace vectoriel
Une orientation de E correspond au choix dune base de E dcrte comme directe.
Toute base de E est alors soit directe, soit indirecte, suivant que le dterminant de la matrice de
passage de cette nouvelle base la base de rfrence est positif ou ngatif.
Si F est un sous-espace vectoriel de E (un plan ou une droite), orienter F permet alors de dfinir une
orientation induite dans tout sous-espace supplmentaire de F dans E de la faon suivante :
si BF est une base directe de F, une base dun supplmentaire G de F sera directe si la concatnation
de BF et de BG est une base directe de E.
Exemple :
3
Soit
muni de son produit scalaire canonique et de son orientation canonique (la base canonique est directe).
Soit : = Vect(e1), avec : e1 = (1,1,1)), et muni de lorientation donne par ce vecteur.
3
(puisque la runion des
Alors : = Vect(e2,e3), o : (e2,e3) = ((1,1,0), (1,0,1)), est un supplmentaire de dans
3
deux bases de et de forme une base de ), et (e2,e3) est une base indirecte de dans lorientation induite par

1 1 1
car la matrice de passage P de la base canonique (e1,e2,e3) vrifie :

1 1

det( P) = 1 1 0 = 1 1 1 = 1 .
1 0 1 1 0 0

Remarques :
Si on prend au dpart une base orthonormale comme base directe et quon examine les autres bases
orthonormales de E, alors le dterminant de la matrice de passage vaut toujours 1.
Orienter une droite (dans le plan ou lespace) correspond donc la donne dun vecteur de norme 1.
Orienter un plan dans 3 revient alors choisir une base orthonormale du plan comme base directe,
mais de faon quivalente choisir un vecteur de norme 1 et normal au plan.
En effet lorientation de 3 induit, par le choix de ce vecteur normal au plan, une orientation dans le plan.
Thorme 6.1 et dfinition 6.2 : produit mixte
Soit E est un espace euclidien de dimension 2 ou 3 orient.
Soient B et B deux bases orthonormales directes de E.
Alors :
si E est de dimension 2 : (u,v) E2, detB(u,v) = detB(u,v),
si E est de dimension 3 : (u,v,w) E3, detB(u,v,w) = detB(u,v,w).
Cette valeur invariante est note : [u,v] = detB(u,v), ou : [u,v,w] = detB(u,v,w), suivant le cas, et est
appel produit mixte de u et de v ou de u, v et w, suivant le cas.
Dmonstration :
Pour un vecteur x de E de matrice de coordonnes X et X dans B et B, on a : X = P.X, o P est la
matrice de passage de B B.
Si on note A et A les matrices des coordonnes de (u,v) (ou de (u,v,w)) dans les bases B et B, on a
alors, en utilisant un produit par blocs : A = P.A.
Chapitre 11 : Produit scalaire cours complet.

- 15 -

Donc : detB(u,v) = det(A) = det(P).det(A) = +1.det(A) = detB(u,v), de mme si E est de dimension 3.


Thorme 6.2 et dfinition 6.3 : produit vectoriel de deux vecteurs en dimension 3
Soit E est un espace euclidien de dimension 3 orient.
Soient u et v deux vecteurs de E.
Il existe un unique vecteur w de E, not uv et appel produit vectoriel de u et de v tel que :
x E, [u , v, x] = ( w x) .
Dmonstration :
Lapplication de E dans

dfinie par : x a [u , v, x] , est une forme linaire sur E, donc le thorme 4.6

garantit quil existe un unique vecteur w dans E tel que : x E, [u , v, x] = ( w x) .


Thorme 6.3 : proprits du produit vectoriel
Soit E est un espace euclidien de dimension 3 orient.
Le produit vectoriel a les proprits suivantes :
il est bilinaire : (u,u,v,v) E4, (,) 2,
u (.v + '.v' ) = .u v + '.u v' , et : ( .u + '.u ' ) v = .u v + '.u 'v ,
il est altern : (u,v) E2, v u = u v ,
(u,v) E2, u v est orthogonal u et v.
(u,v) E2, ( u v = 0 ) ((u,v) est lie) (u et v colinaires).
(u,v) E2, ((u,v) libre) (u et v non colinaires) ((u,v, u v ) est une base directe de E.
Dmonstration :
Soient u, v, et v dans E, et dans .
Alors : x E, (u ( .v + '.v' ) x) = [u , .v + '.v' , x] = .[u , v, x] + '.[u , v' , x] = .(u v x) + '.(u v' x) ,
do : (u ( .v + '.v' ) x) = (.u v + '.u v' x) , et par unicit : u (.v + '.v ' ) = .u v + '.u v ' .
On montre de mme la relation similaire par rapport la premire variable.
Soient u et v dans E.
Alors : x E, (v u x) = [v, u , x] = [u , v, x] = (u v x) = (u v x) , et par unicit : v u = u v .
Puis : (u v u ) = [u , v, u ] = 0 , de mme pour v, ce qui montre que u v est orthogonal u et v.
De plus :
- si (u,v) est lie, alors : x E, (u v x) = [u , v, x] = 0 , et comme 0 vrifie aussi : (0 x) = 0 , par unicit
on a : u v = 0 ,
- si (u,v) est libre alors : w E, tel que (u,v,w) est une base de E, et : (u v w) = [u , v, w] 0 , et donc
le vecteur u v est non nul.
Dans ce dernier cas, on a alors : [u , v, u v] = (u v u v) = u v

> 0 , et la base (u,v, u v ) est une

base directe de E.
Thorme 6.4 : expression du produit vectoriel dans une base orthonormale directe
Soit E est un espace euclidien de dimension 3 orient muni dune base orthonormale directe B.
Soient u et v deux vecteurs de E de coordonnes respectives (x,y,z) et (x,y,z) dans B.
Alors u v a pour coordonnes dans B ( y.z ' y '.z , z.x' z '.x, x. y ' y.x' ) .
Dmonstration :
Si on note (a,b,c) les coordonnes de u v dans : B = (i,j,k), alors :

x
a = (u v i ) = [u, v, i ] = y
z

x' 1
y ' 0 = y.z ' z. y ' .
z' 0

On obtient les deux autres coordonnes de la mme faon avec j et k.


Thorme 6.5 : expression gomtrique du produit vectoriel
Soit E est un espace euclidien de dimension 3.
Chapitre 11 : Produit scalaire cours complet.

- 16 -

Soient u et v deux vecteurs non colinaires de E et le plan engendr par u et v.


Si on oriente laide dun vecteur unitaire n normal (donc dirigeant et orientant : = ), alors :
u v = u . v . sin( ).n , o est langle orient (u,v).
Dmonstration :
Notons : i =

u
, et j tel que (i,j) soit une base orthonormale du plan telle que (i,j,n) soit directe.
u

Alors : u = u .i , et : ]0,[, v = v .(cos( ).i + sin( ). j ) .


En effet, avec : v = v .( x.i + y. j ) , alors : x + y =
2

v
v

2
2

= 1 , et : ! [0,2.], x = cos( ) , y = sin( ) .

Dans ce cas, est bien langle orient (u,v) et : u v = u .i ( v .(cos( ).i + sin( ). j )) = u . v . sin( ).n .
Remarque :
Pour trois vecteurs u, v et w de E, espace euclidien de dimension 3 orient on a :
u v reprsente la surface du paralllogramme dfini par les vecteurs u et v,
[u , v, w] reprsente le volume du paralllpipde construit sur les vecteurs u, v et w.
Thorme 6.6 : lments de O(2) : matrices orthogonales 22
Soit : A O(2), une matrice orthogonale de taille 22.

cos( ) sin( )
.
sin( ) cos( )

si : det(A) = +1, il existe un rel tel que : A =

cos( ) sin( )
.
sin( ) cos( )

si : det(A) = 1, il existe un rel tel que : A =


Dmonstration :

a c
O(2).
b d

Notons : A =

Alors dans tous les cas : a2 + b2 = c2 + d2 = 1, et : a.c + b.d = 0, puisque les vecteurs colonnes de A
constituent une base orthonormale de 2 muni de son produit scalaire canonique.
Donc il existe et rels tels que : a = cos(), b = sin(), c = sin(), d = cos().
De plus, on a aussi : cos().sin() + sin().cos() = 0 = sin( + ), soit : + = k., avec : k .

cos( ) (1) k . sin( )


.
k

sin(

)
(

1
)
.
cos(

On peut donc crire : A =


Enfin :

cos( ) sin( )
,
sin( ) cos( )
cos( ) sin( )
.
si : det(A) = 1, alors : (-1)k = 1, et : A =
sin( ) cos( )

si : det(A) = +1, alors : (-1)k = +1, et : A =

Remarque :
Si on identifie E au plan complexe , en reprsentant des vecteurs par leur affixe, alors la rotation
vectorielle dangle est reprsente par lapplication : z a z.ei..
Thorme 6.7 : automorphismes orthogonaux dun espace vectoriel euclidien de dimension 2
Soit (E, (.|.)) un espace vectoriel euclidien de dimension 2, orient.
Soit u un automorphisme orthogonal de E et A la matrice de u dans une base : B = (i,j), orthonormale
directe de E.

cos( ) sin( )
.
sin( ) cos( )

si : det(u) = +1, alors il existe un rel tel que : A =


Chapitre 11 : Produit scalaire cours complet.

- 17 -

Si u nest pas lidentit de E, u est la rotation de E dangle , tant donn par : 2.cos() = tr(u).

cos( ) sin( )
.
sin( ) cos( )

si : det(u) = 1, alors il existe un rel tel que : A =



y. cos = 0 , et
2
2

u est alors la symtrie orthogonale par rapport la droite D dquation : x. sin


langle de D avec la droite dirige par i est gal

Dmonstration :
Si u est un automorphisme orthogonal de E alors sa matrice reprsentative A dans une base
orthonormale de E est alors orthogonale et on se trouve dans lun des deux cas prcdents.
De plus, si :

cos( ) sin( )
.
sin( ) cos( )

det(u) = +1, alors : det(A) = +1, et : , A =

Distinguons alors deux cas.


Si : = 0 (2.), alors u est lidentit de E sinon u est une rotation de E dangle , et on obtient par :
tr(A) = 2.cos() = tr(u).
Si par ailleurs :

cos( ) sin( )
.
sin( ) cos( )

det(u) = 1, alors : det(A) = 1, et : , A =

Puisqualors A est symtrique relle, elle est diagonalisable et ses valeurs propres (relles) 1 et 2
vrifient, en utilisant trace et dterminant : 1 + 2 = 0, et : 1.2 = 1.
Donc 1 et 2 valent 1 et 1.

1 0
, et : u2 = idE.
0

La matrice de u dans une base de vecteurs propres est alors

u est donc bien une symtrie vectorielle.


Comme enfin, les espaces propres de u sont orthogonaux, cest une symtrie orthogonale.
La droite par rapport laquelle sopre cette symtrie est lensemble des vecteurs invariants de u



2. sin .sin .x cos . y = 0

(cos( ) 1).x + sin( ). y = 0

2 2
2
donns par : A.X = 0, soit :
, ou :
.
sin( ).x (cos( ) + 1). y = 0
+ 2. cos .sin .x cos . y = 0

2 2
2
Comme enfin, soit le sinus, soit le cosinus mis en facteur est non nul, on en dduit bien que la droite
invariante est la droite D dont lquation dans la base B est bien celle annonce.



, sin est alors directeur de D et langle de ce vecteur avec i est bien .
2
2
2

Le vecteur cos

Thorme 6.8 : produit de rotations, commutativit de SO(2) et SO(E), pour E de dimension 2


Le groupe SO(2) est commutatif.
Si E est un espace vectoriel euclidien de dimension 2, le groupe SO(E) est commutatif.
En particulier, deux matrices orthogonales de dterminant +1 commutent, tout comme deux rotations
dans un plan euclidien.
Dmonstration :
Si A et A sont deux matrices de rotation dangle et , alors :

cos( ) sin( ) cos( ' ) sin( ' ) cos( + ' ) sin( + ' )
.
=
= A'.A .
A. A' =
sin( ) cos( ) sin( ' ) cos( ' ) sin( + ' ) cos( + ' )

Si r et r sont deux rotations de E, de matrices respectives A et A dans une base orthonormale directe
de E, alors ror est la rotation dangle (+).
Thorme 6.9 : endomorphismes orthogonaux dun espace vectoriel euclidien de dimension 3
Soit (E, (.|.)) un espace vectoriel euclidien de dimension 3, orient.
Chapitre 11 : Produit scalaire cours complet.

- 18 -

Soit u un automorphisme orthogonal de E.


si : det(u) = +1, et si u nest pas lidentit de E, alors u admet une droite de vecteurs invariants.
Soit alors le plan orthogonal .
- Si : tr(u) = 1, alors u est la symtrie orthogonale par rapport (ou rotation dangle autour de ).
- Si : tr(u) 1, alors pour x un vecteur non nul de (ou orthogonal ), le vecteur : k = xu(x), est un
vecteur non nul de .
Si dans ce cas, on oriente avec k et avec lorientation induite par celle de , u est alors la rotation
daxe et dangle +, o est donn par la relation : 2.cos() + 1 = tr(u).
si : det(u) = 1, et si u nest pas idE, alors lensemble des vecteurs changs en leur oppos par u est
une droite de E.
Notons encore le plan orthogonal .
- Si : tr(u) = +1, u est la symtrie orthogonale par rapport .
- Si : tr(u) +1, alors pour x un vecteur non nul de (ou orthogonal ), le vecteur : k = xu(x), est
encore un vecteur non nul de .
Si dans ce cas, on oriente avec k,et avec lorientation induite par celle de , alors u est la compose
de la rotation daxe et dangle +, o est donn par la relation : 2.cos() 1 = tr(u), et de la symtrie
orthogonale de E par rapport .
Dmonstration :
Tout dabord, le polynme caractristique Pu de u est de degr 3 coefficients rels, donc il admet une
racine relle au moins.
Distinguons alors deux cas :
Pu admet trois racines relles et a ne peut tre que 1 ou 1,
Pu admet une racine relle et deux racines complexes conjugues : 1 = 1, , et .
Le produit des racines de Pu vaut par ailleurs det(u).
Deux cas alors se prsentent :
det(u) = +1.
Les racines de Pu sont donc (+1, +1, +1) ou (+1, 1, 1), si les trois racines sont relles, et (1, , ),
avec : || = 1, sil y a des racines non relles.
On constate donc que 1 est toujours valeur propre de u.
Si u nest pas lidentit, 1 est alors racine simple de Pu et lespace propre associ est de dimension 1
donc cest une droite de E.
Notons alors le plan orthogonal .
Alors P est stable par u, car : (x,y) , (u(x)|y) = (u(x)|u(y)) = (x|y) = 0, donc : u(x) = .
Or lendomorphisme u induit par u dans est encore une isomtrie de (puisquil conserve lui aussi la
norme, des vecteurs de cette fois).
Dans une base orthonormale : B = (e1, e2, e3), de E adapte alors la dcomposition : E = , on a :

mat (u ' , B' ) 0


, o B est une base orthonormale de .
0
1

mat(u,B) =

On constate alors que : det(u) = det(u), et donc : det(u) = +1.


Le thorme 7.2 montre alors que :

cos( ) sin( ) 0

cos( ) sin( )
, et : mat(u,B) = sin( ) cos( ) 0 .
, mat(u,B) =
sin( ) cos( )
0
0
1

Si maintenant : tr(u) = 1, cela signifie que : 2.cos() + 1 = -1, et : = 0 (2.).

1 0 0

La matrice de u dans la base prcdente est alors : 0 1 0 , et u est bien la symtrie orthogonale
0 0 1

par rapport la droite .


Si en revanche : tr(u) 1, alors u est la rotation de dangle + si est orient avec la base
prcdente, langle tant donn par : tr(u) = tr(mat(u,B)) = 2.cos() + 1.
Plus gnralement, si x est un vecteur non nul de , alors u(x) est non colinaire x puisque sinon u
admettrait des valeurs propres relles ce qui nest pas la cas.
Donc la famille (x, u(x), xu(x)) est une famille libre de E, donc une base de E, directe.
Chapitre 11 : Produit scalaire cours complet.

- 19 -

Si on oriente alors avec : k = x u(x), et avec lorientation induite par ce choix sur , la famille
(x, u(x)) est une base directe de et la rotation dans le plan seffectue dans le sens direct.
Reste examiner le cas :
det(u) = 1.
Les racines de Pu sont alors : ( 1, 1, 1), ( 1, +1, +1), ou : ( 1, , ).
1 est alors toujours valeur propre de u.
Si u nest pas idE, cette valeur propre est simple et lespace propre associ est de dimension 1, soit
une droite vectorielle de E.
Notons encore le plan orthogonal , et s la symtrie orthogonale de E par rapport .

1 0 0

Pour une base B adapte la dcomposition : E = , on a alors : mat(s,B) = 0 1 0 , et la


0 0 1

compose sou est une isomtrie de E, positive puisque : det(s) = det(u) = 1, tant de plus invariante
par cette isomtrie.
Daprs ce quon vient juste dtablir, on peut en dduire que :

cos( ) sin( ) 0

, mat(sou,B) = sin( ) cos( ) 0 , et : mat(u,B) =


0
0
1

cos( ) sin( ) 0

0 .
sin( ) cos( )
0
0
1

Dans le cas o : cos(u) = 1, u est alors idE, mais ce cas est cart ici, sinon deux cas se prsentent :
tr(u) = +1, (soit : cos() = 1) et u est alors la symtrie orthogonale par rapport ,
tr(u) +1, (soit : cos() 1) et u est la compose de s et dune rotation daxe .
Les lments gomtriques de cette rotation sobtiennent alors comme prcdemment, notamment pour
tout ce qui concernent les diffrentes orientations despaces, avec comme diffrence le fait que son
angle est cette fois donn par : tr(u) = tr(mat(u,B)) = 2.cos() 1.
Thorme 6.10 : lments de O(3) : matrices orthogonales 33
Soit : A O(3), une matrice orthogonale de taille 33.

cos( ) sin( ) 0

si : det(A) = +1, alors : , P O(3), A = P. sin( ) cos( ) 0 .t P .


0
0
1

cos( ) sin( ) 0

si : det(A) = 1, alors : , P O(3), A = P. sin( ) cos( )


0 .t P .
0
0
1

Dmonstration :
Si on appelle u lendomorphisme canoniquement associ (dans 3 muni de son produit scalaire
canonique), u est un endomorphisme orthogonal de 3, donc il existe comme on la vu dans la
dmonstration du thorme 7.3 une base orthonormale de 3 dans laquelle la matrice de u est dun des
deux types proposs (la diffrence se faisant par lexamen du dterminant de u).
Il suffit alors dappeler P la matrice de passage de la base canonique de 3 la base B voque
au-dessus : cette matrice est orthogonale, do le rsultat annonc.
7. Rduction des endomorphismes symtriques, des matrices symtriques relles.
Dfinition 7.1 : endomorphisme symtrique
Soit (E, (.|.)) un espace vectoriel euclidien.
On dit quun endomorphisme u de E est symtrique si et seulement si : (x,y) E2, (u ( x) y ) = ( x u ( y )) .
Thorme 7.1 : caractrisation matricielle des endomorphismes symtriques
Soit (E, (.|.)) un espace vectoriel euclidien.
Soit : u L(E).
Chapitre 11 : Produit scalaire cours complet.

- 20 -

Lendomorphisme u est symtrique si et seulement si sa matrice reprsentative dans toute base


orthonormale de E est symtrique.
Dmonstration :
La dmonstration est similaire celle du thorme 5.4.
Soient : B = (e1, , en), une base orthonormale de E, et : A = mat(u,B).
Si A est symtrique, alors pour x et y dans E, de matrices colonnes de coordonnes dans B notes X
et Y, on a : (u ( x) y )= t ( A. X ).Y = t X .t A.Y = t X . A.Y = t X .( A.Y ) = ( x u ( y )) , et u est symtrique.
Si u est symtrique alors :
1 i, j n, (ei u (e j )) = (ei

a
k =1

k , j .e k ) = a k , j .(ei e k ) = a i , j , et : (u (ei ) e j ) = (e j u ( ei )) = a j ,i .
k =1

Et puisque : (ei u (e j )) = (u (ei ) e j ) , on en dduit que : a i , j = a j ,i , et A est symtrique.


Thorme 7.2 : valeurs propres dune matrice symtrique relle, dun endomorphisme symtrique
Soit : n 1.
Soit : A Mn( ), une matrice symtrique relle.
Alors A, considre comme lment de Mn( ), est telle que toutes les racines de son polynme
caractristique sont relles et donc a toutes ses valeurs propres relles.
De mme, soit (E, (.|.)) un espace vectoriel euclidien, et soit : u L(E), symtrique.
Toutes les racines du polynme caractristique de u sont relles.
Dmonstration :
Soit une racine de PA ventuellement complexe, et X un vecteur propre (dans n) associ .
Alors : A.X = .X.
On peut crire :
t

X . A. X = . X . X = . x k
t

, mais aussi, puisque A est symtrique et relle et vrifie : A = A ,

k =1

X . A. X = X . A. X = ( A. X ). X = ( . X ). X = . X . X = . x k
t

k =1
n

Et comme X est un vecteur propre, il est non nul, donc :

x
k =1

.
2

0 , et : = .

Donc toute racine de PA est relle.


De mme, si u est un endomorphisme symtrique de E, sa matrice dans nimporte quelle base
orthonormale de E est symtrique relle, donc les racines de Pu qui sont celles de PA sont toutes relles.
Thorme 7.3 : orthogonalit des espaces propres dun endomorphisme symtrique
Soit (E, (.|.)) un espace vectoriel euclidien, et soit : u L(E), symtrique.
Si et sont des valeurs propres distinctes de u, les espaces propres associs E(u) et E(u) sont
orthogonaux.
Dmonstration :
Toutes les valeurs propres de u sont relles.
Soient et deux valeurs propres distinctes de u, et x et y des lments de E(u) et E(u).
Alors : ( x u ( y )) = ( x . y ) = .( x y ) , mais aussi : ( x u ( y )) = (u ( x) y ) = (.x y ) = .( x y ) .
Or : , donc : ( x y ) = 0 , et les sous-espaces propres E(u) et E(u) sont bien orthogonaux.
Thorme 7.4 : diagonalisabilit des endomorphismes symtriques
Soit (E, (.|.)) un espace vectoriel euclidien, et soit : u L(E), symtrique.
Il existe une base orthonormale de E dans laquelle lendomorphisme u est diagonalisable.
E est de plus la somme directe orthogonale des sous-espaces propres de u.
Dmonstration :
On effectue cette dmonstration par rcurrence sur la dimension n de lespace.
Si u est un endomorphisme symtrique dun espace euclidien de dimension 1, il est videmment
diagonalisable puisque sa matrice dans toute base de E est de taille 11, donc diagonale.
Chapitre 11 : Produit scalaire cours complet.

- 21 -

Supposons le rsultat acquis pour tout endomorphisme symtrique dun espace vectoriel de dimension :
n 1, donne.
Soit alors u un endomorphisme symtrique dun espace euclidien E de dimension (n+1).
Puisque Pu est scind dans , u admet au moins une valeur propre et un vecteur propre associ e1.
Notons alors E le supplmentaire orthogonal de Vect(e1) dans E.
E est stable par u :
En effet : x E, (e1|u(x)) = (u(e1)|x) = .(e1|x) = 0, puisque x est orthogonal e1.
Donc : u(x) Vect(e1), et : u(x) E.
Notons alors u lendomorphisme induit par u dans E : lespace E est de dimension n puisque
supplmentaire dans E de Vect(e1).
Lendomorphisme u de E est symtrique car : (x,y) E2, (x|u(y)) = (x|u(y)) = (u(x)|y) = (u(x)|y).
Donc il existe une base orthonormale (e2, , en+1) de E forme de vecteurs propres de u.
Mais ces vecteurs sont aussi vecteurs propres de u et en runissant cette famille e1, on obtient une
base orthonormale (e1, , en+1) de E, forme de vecteurs propres de E, ce qui termine la rcurrence.
Thorme 7.5 : diagonalisabilit des matrices symtriques relles
Soit : n 1.
Soit : A Mn( ), une matrice symtrique relle.
Alors A est diagonalisable et il est possible de la diagonaliser par lintermdiaire dune matrice
orthogonale.
Dmonstration :
Si u dsigne lendomorphisme de n canoniquement associ A, il est symtrique pour le produit
scalaire canonique de n, puisque la base canonique est orthonormale pour ce produit scalaire et A est
symtrique relle.
Donc u est diagonalisable et ses espaces propres sont orthogonaux.
Si on considre alors une base de vecteurs propres de u forme de la runion de bases orthonormales
des diffrents espaces propres de u, on obtient une base de vecteurs propres de u qui est une base
orthonormale.
La matrice de passage P de la base canonique cette base de vecteurs propres est alors orthogonale
et si on note enfin D la matrice P-1.A.P, elle est diagonale, autrement dit on vient de diagonaliser A par
lintermdiaire dune matrice orthogonale.

Chapitre 11 : Produit scalaire cours complet.

- 22 -

Das könnte Ihnen auch gefallen