Sie sind auf Seite 1von 69

M205 : ALGÈBRE BILINÉAIRE

Notes de cours de Clément BOULONNE


<clembou@gmail.com>

Université des Sciences et Technologies de Lille


U.F.R. de Mathématiques Pures et Appliquées

L2 Mathématiques
ii
Table des matières

Chapitre I Rappels 1
I.1 Théorème de la base incomplète . . . . . . . . . . . . . . . . . . . . . . 1
I.2 Sous-espace vectoriel engendrée par une partie . . . . . . . . . . . . . . 1
I.3 Quotient d’espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . 2

Chapitre II Dualité 5
II.1 Ensemble des applications linéaires . . . . . . . . . . . . . . . . . . . . . 5
II.2 Espace dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
II.3 Transposée d’une applicaion linéaire . . . . . . . . . . . . . . . . . . . . 6
II.4 Base duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
II.5 Bidual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
II.6 Relations d’orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . 10

Chapitre III Formes bilinéaires 15


III.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
III.2 Écriture matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
III.3 Formes bilinéaires non dégénérées . . . . . . . . . . . . . . . . . . . . . 19
III.4 Formes bilinéaires symétriques . . . . . . . . . . . . . . . . . . . . . . . 19
III.5 Formes quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
III.6 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

Chapitre IV Espaces euclidiens 25


IV.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
IV.2 Adjoint d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . 27
IV.3 Automorphismes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . 30
IV.4 Décomposition canonique d’une forme quadratique . . . . . . . . . . . . 31
IV.5 Classification des isométries . . . . . . . . . . . . . . . . . . . . . . . . . 36

Chapitre V Formes hermitiennes 41


V.1 Formes et espaces hermetiens . . . . . . . . . . . . . . . . . . . . . . . . 41
V.2 Automorphismes unitaires . . . . . . . . . . . . . . . . . . . . . . . . . . 51

iii
iv TABLE DES MATIÈRES

Chapitre VI Complexification d’un espace euclidien 53


VI.1 Complexifié d’un espace vectoriel réel . . . . . . . . . . . . . . . . . . . 53
VI.2 Complefixiée d’une forme bilinéaire symétrique . . . . . . . . . . . . . . 57
VI.3 Complexifié d’un espace euclidien . . . . . . . . . . . . . . . . . . . . . . 57
VI.4 Orientation d’un espace vectoriel réel et angle de rotation . . . . . . . . 60
CHAPITRE I

RAPPELS

La première étape de ce cours sera de démontrer le théorème suivant :

Théorème I.1. Soit K un corps, A ∈ Mn,m (K). On note la transposée de A, AT (si(1)


K = R). Alors rg A = rg AT .

Mais avant de commencer à travailler, on n’échappe pas à quelques rappels d’algèbre


linéaire.

I.1 Théorème de la base incomplète

Théorème I.2 (Théorème de la base incomplète). Soient I, J ⊂ N deux ensembles d’in-


dices, (ei )i∈I un système libre de vecteurs d’un espace vectoriel V et (fj )j∈J un système
générateur de V alors il existe J0 ⊂ J tel que le système (ei )i∈I ∪ (fk )k∈J0 soit une base de
V.

Exemple I.3. Soit V = R3 . On se fixe e1 = (1, 1, 1), f1 = (1, 0, 0), f2 = (0, 0, 1), f3 =
(0, 0, 1) et f4 = (1, 2, 3). Une base de V serait (e1 , f1 , f2 ) ou encore (e1 , f1 , f4 ).

Corollaire I.4. Tout espace vectoriel admet une base. On prend, dans le théorème I.2,
C = ∅.

Théorème I.5. Toutes les bases d’un espace vectoriel V ont le même cardinal.

I.2 Sous-espace vectoriel engendrée par une partie

Soit V un espace vectoriel sur le corps K et S ⊂ V.

Proposition I.6. Une intersection de sous-espaces vectoriels est un sous-espace vectoriel.

Proposition I.7. Il existe un plus petit sous-espace V contenant S qu’on note hSi (ou
Vect(S)). Ce sous-espace admet les descriptions suivantes :
(1)
On verra, par la suite, comment on nomme la transposée d’une matrice quand K = C

1
2 CHAPITRE I. RAPPELS

[
(i) hSi = W,
W sous-espace
vectoriel, S⊂W
 
 X 
(ii) hSi =  λi vi , λi ∈ K, vi ∈ S.
i∈I finie

I.3 Quotient d’espaces vectoriels

Soient V un K-espace vectoriel et W ⊂ V un sous-espace vectoriel.

Théorème I.8. L’ensemble V/W est muni d’une structure de K-espace vectoriel telle que
la surjection canonique s : V → V/W est linéaire et vérifie pour tout K-espace vectoriel V0
et toute application linéaire f V → V0 , s’il existe f˜ : V/W → V0 linéaire tel que f˜ ◦ s = f
alors W ⊂ Ker f .
f
V DD / V0
O
DD
DD f˜
s DD
"
V/W
De plus,
1. f˜ est surjective ⇒ f est surjective,
2. f˜ est injective ⇒ Ker f = W.

On peut ainsi définir une relation d’équivalence sur V.

Définition I.9. Soit v, v 0 ∈ V. On dit que v est équivalent à v 0 si et seulement si v 0 −v ∈ W,


c’est-à-dire :
v, v 0 ∈ V, v ∼ v 0 ⇐⇒ v 0 − v ∈ W.

On montre que la relation d’équivalence de la définition I.9 en est bien une :


Démonstration. (i) ∼ est reflexive : ∀v, v ∼ v,
(ii) ∼ est symétrique : v ∼ v 0 ⇒ v 0 ∼ v,
(iii) ∼ est transitive : v ∼ v 0 et v 0 ∼ v 00 ⇒ v ∼ v 00 . Cela veut dire :

v 0 − v ∈ W et v 00 − v 0 ∈ W =⇒ v| 0 − v 0 +v 00 − v ∈ W.
{z }
0

V admet une partition en classes d’équivalence, c’est-à-dire que l’ensemble des classes
d’équivalence constitue une partition de V (tout élément de V appartient à un et à un seul
des éléments d’une partie de V). On définit :

cl(V) = {v 0 ∈ V, v 0 = v} = {v 0 ∈ V, v 0 − v ∈ W} = v + W.
I.3. QUOTIENT D’ESPACES VECTORIELS 3

Fig. I.1 – Interprétation géométrique de l’ensemble v + W

Ainsi, V/W est l’ensemble des classes d’équivalence.


Soit l’application
s : V → V/W
.
v 7→ cl(v) = v + W
On va maintenant définir la somme et le produit scalaire d’éléments de V/W.

Définition I.10 (Somme et produit scalaire d’éléments de V/W). On définit l’addition


d’éléments de V/W :
(v + W) + (v 0 + W) = (v + v 0 ) + W
et le produit scalaire d’éléments de V/W :

λ ∈ K, λ(v + W) = (λv) + W.

On vérifie que cela ne dépend pas des représentants choisis.


Démonstration. On a :
s(v + v 0 ) = s(v) + s(v 0 )
et
s(λv) = λs(v).
Supposons qu’il existe f˜ : V/W → V linéaire et tel que f˜ ◦ s = f .

f
V DD / V0
O
DD
DD f˜
s DD
"
V/W

v ∈ W, f (v) = f˜(s(v)) = f˜(0V/W ) = 0V0 =⇒ v ∈ Ker(f ).


Réciproquement, si W ⊂ Ker(f ) et si v ∼ v 0 , c’est-à-dire si v − v 0 ∈ alors f (v − v 0 ) =
0V0 ⇒ f (v) = f (v 0 ). On définit f˜(v + W) = f˜(cl(v)) = f˜(s(v)). Mais f˜(v + W) = f (v)
(cela ne dépend pas du représentant). On peut alors vérifier que f˜ est linéaire.

v → cl(v) = v + W.
4 CHAPITRE I. RAPPELS

Proposition I.11. Soit W un sous-espace vectoriel de V, et W1 un supplémentaire dans


V tel que V = W ⊕ W1 . Alors la restriction s|W1 de la surjection canonique à W1 (W1 →
V/W) est un isomorphisme.

Démonstration. On montre que s|W1 est bijective. Soit v ∈ W et soient w ∈ W et w1 ∈ W1


tel que v = w + w1 . On a :

s(v) = v + W = w1 + v + W = w1 + W = s(w1 ).

Donc : s|W1 : W1 → V/W1 est surjective et comme

Ker(s|W1 ) = Ker(s) ∩ W1 = W ∩ W1 = {0V },

on a s|W1 est injective et donc bijective.


CHAPITRE II

DUALITÉ

II.1 Ensemble des applications linéaires

Définition II.1 (Ensemble des applications linéaires). Soient U et V deux K-espaces


vectoriels. On note L (U, V), l’ensemble des applications linéaires de U dans V. On sait
alors que L (U, V) a une structure de K-espace vectoriel.
1. ∀f, g ∈ L (U, V), (f + g)(u) = f (u) + g(u),
2. ∀f ∈ L (U, V), ∀λ ∈ K, (λf )(u) = λf (u).

Remarque II.2. On peut donner une interprétation matricielle à la II.1. Soit (ej )j∈J une
base de U et (fi )i∈I une base de V. Alors :
X
f (ej ) = aij fi .
i∈I

Soit la matrice représentant f dans les bases choisies :

A = (aij )i∈I, j∈J ,

où i est l’indice de ligne et j, l’indice de colonne. Maintenant, si on considère B = (bij )i∈I,j∈J


alors A + B = C = (cij )i∈I,j∈J avec :

cij = aij + bij ,

et pour λ ∈ K :
λA = (λaij )i∈I,j∈J .
On a aussi mat(f + g) = mat(f ) + mat(g) et mat(λf ) = λ mat(f ).

II.2 Espace dual

Proposition II.3. On suppose que dim U = n et dim V = n tel que n + m < +∞. Alors
L (U, V,) est isomorphe au K-espace vectoriel Mm,n (K) des matrices à coefficients dans
K à m lignes et n colonnes.

5
6 CHAPITRE II. DUALITÉ

Soit
φ : L (U, V) → Mm,n (K)
f 7→ A(f )
avec A(f ) la matrice représentant f dans les bases choisies. D’après la proposition II.3, φ
est un isomorphisme.

Corollaire II.4. On a dimK (U, V) = mn.

Remarque II.5. On va prendre un cas particulier du corollaire II.4. Soit V = K et


dim K = 1 alors
dimK L (U, K) = dim U.

Ainsi, on a la caractérisation d’un nouvel espace qui va nous servir tout au long de ce
cours.

Définition II.6 (Espace dual). L’espace dual de U noté U∗ est L (U, K) = U∗ . Cet espace
est de dimension dim U∗ = dim U.

II.3 Transposée d’une applicaion linéaire

Définition II.7. Soit f : U → V une application lin »aire, on associe à f une application
linéaire f ∗ : V∗ → U∗ , appelée transposée de f , définie par :

∀ϕ ∈ V∗ , f ∗ (ϕ) = ϕ ◦ f.

La définition II.7 se résume en le diagramme suivant :


f
U /V
~
~~
ϕ◦f ∈U∗
~~~ϕ
 ~~
K

Proposition II.8. (i) Soient U, V, W des espaces de dimensions finies et soient f : U →


V et g : V → W des applications linéaires. Alors :

(g ◦ f )∗ = f ∗ ◦ g ∗ ,

(ii) L’application
φ : L (U, V) → L (V∗ , U∗ )
f 7→ f ∗
est un isomorphisme de K-espaces vectoriels.

Avant de démontrer cette proposition, on a besoin d’un lemme :

Lemme II.9. Soit V un K-espace vectoriel et v ∈ V. Si ∀ϕ ∈ V∗ , ϕ(v) = 0 alors v = 0V .


II.3. TRANSPOSÉE D’UNE APPLICAION LINÉAIRE 7

Démonstration du lemme II.9. On montre la contraposée du lemme II.9. C’est-à-dire si


∀v ∈ V, v 6= 0 alors il existe ϕ ∈ V∗ tel que ϕ(v) 6= 0. Si v 6= 0 alors Vect(v) est libre.
D’après le théorème de la base incomplète, il existe une base (e1 , . . . , en ) avec e1 = v tel
que tout vecteur w de V s’écrit :

w = λ1 e1 + λ2 e2 + · · · + λn en .

On a alors que :
ϕ : V → K
w 7→ λ1
est une forme linéaire. Ainsi ϕ(w) = ϕ(e1 ) = 1. Pour finir la démonstration, on remarque
que v = e1 et donc ϕ(e1 ) = 1 = ϕ(v).

Démonstration de la proposition II.8. (i) On a le diagramme suivant :

f g
U / V2 /W
22
22
22
ψ◦g=g ∗ (ψ) 2
2 ψ∈W∗
22
22
 
(g◦f )(ψ)=ψ◦(g◦f )=(ψ◦g)◦f =f ∗ (g ∗ (ψ)) 2K

(ii) Soient f1 , f2 ∈ L (U, V,), on montre alors que (f1 + f2 )(u) = f1 (u) + f2 (u) et
(λf1 )(u) = λf1 (u). Soit ϕ ∈ V∗ , on a :

(f1 + f2 )∗ (ϕ) = ϕ ◦ (f1 + f2 ) = ϕ ◦ f1 + ϕ ◦ f2 = f1∗ (ϕ) + f2∗ (ϕ).


/
Uo V
ϕ

K
On peut aussi montrer de la même manière que (λf )∗ = λf ∗ . Donc : f → f ∗ est
linéaire. Or dim U = dim U∗ = n et dim V = dim V∗ = m. Donc :

dim L (U, V) = mn = dim L (V∗ , U∗ ).

Il suffit de montrer que f → f ∗ est injective, autrement dit, il faut vérifier que f ∗ =
0 ⇒ f = 0. Supposons alors que f ∗ = 0, pour tout ϕ ∈ V∗ , on a : f ∗ (ϕ) = ϕ ◦ f = 0.
Ainsi
∀ϕ ∈ V∗ , ∀u ∈ U, ϕ(f (u)) = 0. (II.1)
D’après le lemme II.9, l’égalité (II.1) que pour tout u ∈ U, f (u) = 0. Donc f = 0, ce
qui achève la preuve.
8 CHAPITRE II. DUALITÉ

II.4 Base duale

Soient V un espace vectoriel et n = dimK (V) < +∞. On a alors


dimK (V∗ ) = dimK (V) = n
.
Définition II.10. Soit (e1 , . . . , en ) une base de V. On définit e∗i ∈ V de la façon suivante :

 0 si i 6= j
e∗i (ej ) = δij =
 1 si i = j
où δij représente le symbole de Kronecker. Ainsi, (e∗1 , . . . , e∗n ) forme une base de V∗ et est
appelé la base duale de la base (e1 , . . . , en ).
Démonstration. On démontrer que (e∗1 , . . . , e∗n ) est une base de V∗ . Pour cela, il suffit de
montrer que (e∗1 , . . . , e∗n ) est un système libre. On considère donc l’égalité :
λ1 e∗1 + λ2 e∗2 + · · · + λn e∗n = 0,
où les λj ∈ K. Alors pour tout v ∈ V :
0 = (λ1 e∗1 + λ2 e∗2 + · · · + λn e∗n )(v)
= λ1 e∗1 (v) + λ2 e∗2 (v) + · · · + λn e∗n (v)
En particulier, si v = ej alors
n
λi e∗i = 0 = λi e∗i (ei ) = λi = 0.
X

i=1

On a montré alors que si


λ1 e∗1 + λ2 e∗2 + · · · + λn e∗n = 0V∗
alors pour tout i, λi = 0.
Proposition II.11. Soient U et V deux K-espaces vectoriels avec m = dimK U et n =
dimK V, E = (e1 , . . . , em ) une base de U et F = (f1 , . . . , fn ) une base de V. Soient
f : U → V une application linéaire et A la matrice de f dans les bases E et F :
n
X
1 ≤ j ≤ m, f (ej ) = aij fi .
i=1

A est alors une matrice à n lignes et m colonnes et aij correspond à l’élément de la ie ligne
et de la j e colonne.
f
U CC /V
CC
CC ϕ
f ∗ (ϕ)=ϕ◦f CC! 
K

U∗ o f∗
V∗
II.5. BIDUAL 9

Soit E ∗ = (e∗1 , . . . , e∗m ) et F ∗ = (f1∗ , . . . , fn∗ ) alors la matrice de f ∗ dans les bases F ∗ et
E ∗ est la transposée de f dans les bases E et F .

Démonstration. On a l’identité suivante :


n
f ∗ (f`∗ ) = f`∗ ◦ f = bk` e∗k .
X

k=1

On cherche alors les bk` . Comme f`∗ ∈ V∗ , on a f ∗ (fj ) ∈ U∗ . Donc :


n
f ∗ (f`∗ )(ek ) = f`∗ (f (ek )) = f`∗ (aij fi ) = a`k f`∗ (f` ) = a`k .
X

i=1

Mais aussi :
 
n n
f ∗ (f`∗ )(ek ) =  bp` e∗p  (ek ) = bp` e∗p (ek ) = bk` e∗k (ek ) = bk` .
X X

p=1 p=1

On a alors : bk` = a`k .

II.5 Bidual

Définition II.12. Soit V un K-espace vectoriel. Le bidual de V est défini comme V∗ ∗ =


(V∗ )∗ (le dual du dual).

Remarque II.13. On définit pour tout v ∈ V, un élément de v ∗ ∗ de V∗ ∗ de la façon


suivante :
∀ϕ ∈ V∗ , v ∗ ∗ (ϕ) = ϕ(v).
On a alors que v ∗ ∗ est une forme linéaire sur V∗ ,
1. ∀ϕ1 , ϕ2 ∈ V∗ , v ∗ ∗ (ϕ1 + ϕ2 ) = v ∗ ∗ (ϕ1 ) + v ∗ ∗ (ϕ2 ),
2. ∀λ ∈ K, ∀ϕ ∈ V∗ , v ∗ ∗ (λϕ) = λv ∗ ∗ (ϕ).
De plus, l’application
V →
7 V∗ ∗
v → v∗∗
est linéaire.

Proposition II.14. L’application

V →
7 V∗ ∗
v → v∗∗

est injective.
10 CHAPITRE II. DUALITÉ

Démonstration. On va montrer que le noyau de cette application linéaire est réduit au


vecteur nul. Soit v ∈ V tel que v ∗ ∗ = 0 et que pour tout ϕ ∈ V∗ , v ∗ ∗ (ϕ) = ϕ(v) = 0. v
vérifie alors pour tout ϕ ∈ V∗ :
ϕ(v) = 0 ⇒ v = 0
, d’après le lemme II.9.
Corollaire II.15. Si dim V < +∞ alors l’application
V →
7 V∗ ∗
v → v∗∗
est un isomorphisme d’espaces vectoriels.
Démonstration. On sait que dim V∗ = dim V et dim V∗ ∗ = dim(V∗ )∗ = dim V∗ alors
dim V = dim V∗ = dim V∗ ∗ et d’après la proposition II.14, v 7→ v ∗ ∗ est lin »aire et injective.
Cela implique donc que l’application v 7→ v ∗ ∗ est un isomorphisme.
Remarque II.16. Soient V un espace vectoriel de dimension n et E = (e1 , . . . , en ) est une
base de V. E ∗ = (e∗1 , . . . , e∗n ) une base de V∗ et (E ∗ )∗ = ((e∗1 )∗ , . . . , (e∗n )∗ ) la base duale de
E ∗ . On peut montrer alors que :
∀i, (e∗i )∗ = e∗i ∗

II.6 Relations d’orthogonalité

Soient V un espace vectoriel et V∗ son dual. Soient v ∈ V et ϕ ∈ V∗ . On note hv, ϕi =


ϕ(v).
Proposition II.17. h·, ·i a les propriétés suivantes :
(i) hv1 + v2 , ϕi = hv1 , ϕi + hv2 , ϕi,
(ii) hλv, ϕi = λ hv, ϕi,
(iii) hv, ϕ1 + ϕ2 i = hv, ϕ1 i + hv, ϕ2 i,
(iv) hv, λϕi = λ hv, ϕi.
Définitions II.18. 1. Soit U ⊂ V un espace vectoriel. L’orthogonal de U, noté U⊥ ,
est :
U⊥ = {ϕ ∈ V∗ , ∀v ∈ U, hv, ϕi = 0} = {ϕ ∈ V∗ , ∀v ∈ U, ϕ(v) = 0} ⊂ U∗ .
2. Soit U0 ⊂ V un sous-espace du dual. L’orthogonal de U0 :

U0 = {v ∈ V, ∀ϕ ∈ U0 , hv, ϕi = 0} = {v ∈ V, ∀ϕ ∈ U0 , ϕ(v) = 0} =
\
Ker(f ).
ϕ∈U0

Théorème II.19. Soit U ⊂ V et U0 ⊂ V∗ des sous-espaces. Alors :


(i) (U⊥ )⊥ = U,
(ii) (U0⊥ )⊥ = U0 .
Proposition II.20. Soit U ⊂ V un sous-espace vectoriel de V. Alors U∗ et V∗ /U⊥ sont
isomorphes(1) .
(1)
C’est-à-dire qu’il existe un isomorphisme de U∗ dans V∗ /U⊥ .
II.6. RELATIONS D’ORTHOGONALITÉ 11

Démonstration de la proposition II.20. Une application de restriction naturelle :


r : V∗ → U∗
ϕ 7→ ϕ|U
est une application linéaire.
U@ V où U ⊂ V
@@
@@ ϕ
ϕ|U @@ 
K
On a alors :
1. ϕ1 + ϕ2 |U = ϕ1 |U + ϕ2 |U ,
2. (λϕ1 )|U = λ|ϕ1 U.
De plus, Ker(r) ⊂ V avec Ker(r) = {ϕ ∈ V∗ , ϕ|U = 0}.

V∗
r / ∗
mmmm6 U
r̃mmmm
s
 ) mmmmm
V / Ker(r) = V∗ /U⊥

où s est une application linéaire surjective et r̃ une application linéaire injective. De plus,
r est surjective. Si ψ ∈ U∗ , soit U0 un supplémentaire de U dans V, alors V = U ⊕ U0 . On
définit ϕ : V → K avec ϕ|U = ψ et ϕ|U0 = 0. On sait que ϕ existe et est unique. On a alors
r(ϕ) = ψ et donc r est surjective.
En conclusion, r̃ est bijective et donc r̃ est un isomorphisme.
Corollaire II.21. Soit V un espace vectoriel de dimension finie et U ⊂ V un sous-espace
alors dim U + dim U⊥ = dim V.
Démonstration. On a démontré que dim U = dim U∗ . Or, d’après la proposition II.20, on
a U∗ = V∗ /U⊥ . Donc :
dim U∗ = dim(V∗ /U⊥ ) = dim V∗ − dim U⊥ = dim V − dim U⊥ = dim U.


Démonstration du théorème II.19. On a U ⊂ (U⊥ ) car pour tout u ∈ U et pour tout
ϕ ∈ U⊥ , on a ϕ(u) = 0. Or,

dim U⊥ + dim (U⊥ ) = dim V, (II.2)
et
dim U + dim U⊥ = dim V∗ . (II.3)
Si on fait (II.2) − (II.3), on trouve :

dim U⊥ − dim U⊥ + dim (U⊥ ) − dim U = 0.
⊥ ⊥
Donc : dim U = dim (U⊥ ) , d’où U = (U⊥ ) .
12 CHAPITRE II. DUALITÉ

Remarque II.22. Concretement :


(i) Soit u1 , . . . , uk ∈ V et u ∈ Vect(u1 , . . . , uk ) si et seulement ∀ϕ ∈ V∗ ,

ϕ(u1 ) = ϕ(u2 ) = · · · = ϕ(uk ) = 0 =⇒ ϕ(u) = 0.

(ii) Soit ϕ1 , . . . , ϕk ∈ V∗ , on a alors ϕ ∈ Vect(ϕ1 , . . . , ϕk ) si et seulement si


\
Ker ϕi ⊂ Ker ϕ.
1≤i≤k

Démonstration. On montre que la remarque II.22 est une traduction du théorème II.19.

(i) Soient U = Vect(u1 , . . . , uk ) et u ∈ V. Alors u ∈ U ⇒ u ∈ (U⊥ ) .

U⊥ = {ϕ ∈ V∗ , ∀j, 1 ≤ j ≤ k, ϕ(uj ) = 0}.

(ii) Soit U∗ = Vect(ϕ1 , . . . , ϕk ) ⊂ V∗ , alors :



U0 =
\
Ker ϕi .
1≤i≤k

Théorème II.23. Soient U et V deux K-espaces vectoriels tel que dim U < +∞ et dim V <
+∞. Soit f : U → V et f ∗ : V∗ → U∗ deux applications linéaires, l’une transposée de
l’autre. Alors rg(f ) = rg(f ∗ ).

Démonstration. On a :

Ker(f ∗ ) = {ϕ ∈ V∗ , f ∗ (ϕ) = 0} = {ϕ ∈ V∗ , ϕ ◦ f = 0}
= {ϕ ∈ V∗ , ∀u ∈ U, ϕ(f (u)) = 0} = Im(f )⊥ .

De plus, dim Im f ∗ + dim Ker f ∗ = dim V∗ . On a alors

dim Im f ∗ + dim (Im f )⊥ = dim V∗ =⇒ dim V = dim Im f + dim (Im f )⊥


=⇒ dim V∗ = dim Im f ∗ + dim (Im f )⊥ .

On en déduit que :
dim(Im f ) = dim(Im f ∗ ).

Corollaire II.24 (Rappel du théorème I.1). Soit A une matrice de dimension m × n à


coefficients dans un corps K. Alors rg(A∗ ) = rg(A).

Proposition II.25. Soit U un K-espace vectoriel de dimension finie.


II.6. RELATIONS D’ORTHOGONALITÉ 13

(i) Soient u1 , . . . , ud ∈ U et u ∈ U alors on a équivalence entre


∀ϕ ∈ U∗ , ϕ(u1 ) = · · · = ϕ(ud ) = 0 ⇒ ϕ(u) = 0 (II.4)
et u = Vect(u1 , . . . , ud ).
(ii) Soient ϕ1 , . . . , ϕd ∈ U∗ et soit ϕ ∈ U∗ alors :
\
Ker ϕi ⊂ Ker ϕ ⇐⇒ ϕ = Vect(ϕ1 , . . . , ϕk ).
1≤i≤k

Démonstration. (i) Soit W = Vect(u1 , . . . , ud ) alors :


ϕ(u1 ) = · · · = ϕ(ud ) ⇐⇒ ϕ ∈ W⊥ .
Ainsi,

(II.4) ⇐⇒ ∀ϕ ∈ W⊥ , ϕ(u) = 0 ⇐⇒ u ∈ (W⊥ ) ⇐⇒ u ∈ W.
(ii) La démonstration est similiaire à (i).

Exemple II.26 (Exemple pour l’assertion (ii) de la proposition II.25). Soit u ∈ R4 . On


définit :
ϕ1 (x1 , x2 , x3 , x4 ) = x1 − x2 ,
ϕ2 (x1 , x2 , x3 , x4 ) = x3 − x4 ,
ϕ3 (x1 , x2 , x3 , x4 ) = x1 + x2 + x3 + x4 ,
et U∗ ⊃ W0 = Vect(ϕ1 , ϕ2 , ϕ3 ).
a) On cherche à déterminer W0 ⊥ (qui est inclu dans U).

W0 = {(x1 , x2 , x3 , x4 ) ; (S )} .
avec 
 x1

 − x2 = 0

x3 − x4 = 0 (S )


x1 + x2 + x3 + x4 = 0
Ainsi,
 
= x2
 x1



= x2
 x1
0⊥
(x1 , x2 , x3 , x4 ) ∈ W ⇐⇒ x3 = x4 ⇐⇒ x3 = −x1

 


x1 + x2 + x3 + x 4 = 0 
x4 = −x1
et donc : W0 ⊥ = Vect(1, 1, −1, −1).
b) Soit ϕ(x1 , x2 , x3 , x4 ) = 2x1 − 3x2 + x3 − 2x4 . On cherche à déterminer si ϕ ∈ W0 (ou

encore ϕ ∈ (W0 ⊥ ) ).
⊥ ⊥
ϕ ∈ (W0 ) ⇐⇒ ϕ(1, 1, −1, −1) = 0.
c) (ϕ1 , ϕ2 , ϕ3 ) est libre. En effet dim(W0 ⊥ ) = 1 et dim W0 +dim W0 ⊥ = 4 donc dim W0 = 3.
14 CHAPITRE II. DUALITÉ
CHAPITRE III

FORMES BILINÉAIRES

III.1 Définitions

Définition III.1. Soient U, V, W trois K-espaces vectoriels et f : U × V → W, une


application. On dit que f est bilinéaire si f est linéaire par rapport à la première et à la
seconde variable séparement. C’est-à-dire :
1. ∀u ∈ U, ∀v1 , v2 ∈ V, ∀λ1 , λ2 ∈ K,

f (u, λ1 v1 + λ2 v2 ) = λ1 f (u, v1 ) + λ2 f (u, v2 ),

2. ∀v ∈ V, ∀u1 , u2 ∈ U, ∀λ1 , λ2 ∈ K,

f (λ1 u1 + λ2 u2 , v) = λ1 f (u1 , v) + λ2 f (u2 , v).

On a, par conséquence,

f (λ1 u1 + λ2 u2 , µ1 v1 + µ2 v2 ) = λ1 µ1 f (u1 , v1 ) + λ1 µ2 f (u1 , v2 ) + λ2 µ1 f (u2 , v1 ) + λ2 µ2 f (u2 , v2 ).

Exemples III.2. 1. Soient U = V = W = K et f l’application suivante :

f : K×K → K
.
(u, v) 7→ uv

f est une application bilinéaire.


2. Soient U = V = R2 et W = R. On pose u = (x1 , x2 ), v = (y1 , y2 ). L’application
f (u, v) = x1 y1 − 3x1 y2 + x2 y1 + 4x2 y2 est une application bilinéaire.

On note L2 (U, V; W), l’ensemble des applications bilinéaires de U × V vers W.

Remarque III.3. Si U, V et W sont trois K-espaces vectoriels alors L2 (U, V; W) est un


K-espace vectoriel.

Définition III.4. Si W = K, une application bilinéaire f : U × V → Kest appelée une


forme bilinéaire.

15
16 CHAPITRE III. FORMES BILINÉAIRES

Soit f ∈ L2 (U, V; K). On définit les applications

f (1) : U → V∗ f (2) : V → U∗
et ,
u 7→ f (1) (u) v 7→ f (2)

tels que f (1) (u)(v) = f (u, v) et f (2) (v)(u) = f (u, v).


Proposition III.5. (i) Les applications f (1) et f (2) sont linéaires.
(ii) Inversement, si g : U → V∗ est une application linéaire, l’application F : U × V → K
définie par F(u, v) = g(u)(v) est bilinéaire. De même avec une application linéaire
h : V → U∗ .
Démonstration. (i) On veut montrer que f (1) est linéaire. On a pour tout v ∈ V,

f (1) (u1 + u2 )(v) = f (u1 + u2 , v) = f (u1 + v) + f (u2 , v) = f (1) (u1 )(v).

Donc : f (1) (u1 + u2 ) = f (1) (u1 ) + f (1) (u2 ). Soit λ ∈ K, on veut montrer ensuite que
f (1) (λu) = λf (1) (u). Pour tout v ∈ V,

f (1) (λu)(v) = f (λu, v) = λf (u, v) = λf (1) (u)(v).

Donc : f (1) (λu) = λf (1) (u) et on a montré ainsi que f (1) est linéaire. On fait la même
démonstration pour montrer que f (2) est une application linéaire.
(ii) Soient g : U → V∗ une application linéaire et F : U → V → K une application telle
que F(u, v) = g(u)(v). On montre que F est une application bilinéaire. On a, pour
u∈U:

F(u, λ1 v1 + λ2 v2 ) = g(u)(λ1 v1 + λ2 v2 ) = λ1 g(u)(v1 ) = λ2 g(u)(v2 )


= λ1 F(u)(v1 ) + λ2 F(u, v2 ),

et pour v ∈ V,

F(λ1 u1 + λ2 u2 , v) = g(λ1 u1 + λ2 u2 )(v)


= λ1 g(u1 )(v) + λ2 g(u2 )(v) = λ1 F(u1 , v) + λ2 F(u2 , v).

Exemple III.6. Soient U = V = R2 , u = (x1 , x2 ) et v = (y1 , y2 ). Soit l’application


bilinéaire
f (u, v) = x1 y1 + x2 y1 + x1 y2 + 2x2 y2 ,
alors l’application f (1) (u) = {(y1 , y2 ) → y1 (x1 − x2 ) + y2 (x1 + 2x2 )}.
Remarque III.7 (Cas particulier). Si dim U = m et dim V = n alors L2 (U, V; W) '
L (U, V∗ ). Ainsi, comme dim V∗ = dim V = n et dim L (U, V∗ ) = mn, on a :

dim L2 (U, V; K) = mn.


III.2. ÉCRITURE MATRICIELLE 17

III.2 Écriture matricielle

Soient U et V deux K-espaces vectoriels tels que dim U = m et dim V = n. On considère


(e1 , . . . , em ) base de U et (f1 , . . . , fn ) une base de V.

Définition III.8. La matrice de f ∈ L2 (U, V; K) par rapport à ces bases est, par défini-
tion, la matrice :
A = (f (ei , fj ))1≤i≤m,1≤j≤n ,

où i est l’indice de ligne et j est l’indice de colonne.

Proposition III.9. Soient f ∈ L2 (U, V; K), f (1) ∈ L (U, V∗ ) et f (2) ∈ L (V, U∗ ).


Si (f1∗ , . . . , fn∗ ) est la base duale de (f1 , . . . , fn ), la matrice de f (1) dans (e1 , . . . , em ) et
(f1∗ , . . . , fn∗ ) est :
n
f (1) (ej ) = bij fi∗ ,
X

i=1

f (1) (ej )(fi ) = bij = f (ej , ei ).

On a montré que la matrice de f (1) dans les bases (e1 , . . . , em ) et (f1∗ , . . . , fm ∗


) est la transpo-
sée de la matrice de f dans les bases (e1 , . . . , em ) et (f1 , . . . , fn ) et la matrice de f (2) , dans
les bases (f1 , . . . , fn ) et (e∗1 , . . . , e∗m ) est égale à la matrice de f dans les bases (e1 , . . . , em )
et (f1 , . . . , fn ).

Proposition III.10. Soit u = x1 e1 + · · · + xm em et v = y1 f1 + · · · + yn fn . On définit alors


les vecteurs :    
x1 y1
 x2   y2 
   
X=  ..  , Y =  ..  .
  
 .  .
xm yn

On a ainsi f (u, v) = XT AY avec A matrice de f .

Exemple III.11. Soient U = R2 et V = R3 , u = (x1 , x2 ) et v = (y1 , y2 , y3 ). Soient (e1 , e2 )


la base canonique de R2 et (f1 , f2 , f3 ) la base canonique de R3 . On définit :
! !
f (e1 , f1 ) f (e1 , f2 ) f (e1 , f3 ) 1 0 0
= .
f (e2 , f1 ) f (e2 , f2 ) f (e2 , f3 ) 0 −1 2

On a ainsi :  
y
1 0 0  1
!
 
f (u, v) = x1 x2 y2  .
0 −1 2
y3
18 CHAPITRE III. FORMES BILINÉAIRES

Démonstration de la proposition III.10. On a :


m X
X n
f (x1 e1 + · · · + xm em , y1 f1 + · · · + yn fn ) = xi yj f (ei , fj )
i=1 j=1
 
m n
f (ei , fj )yj  = XT AY.
X X
= xi 
i=1 j=1

Proposition III.12 (Changement de bases). Soient (e1 , . . . , em ) et (e01 , . . . , em ) des bases


de U, (f1 , . . . , fn ) et (f10 , . . . , fn0 ) des bases de V. On considère P (resp. Q) matrice de
changement de base pour U (resp. pour V). Soient u = x1 e1 +· · ·+xm em = x01 e01 +· · ·+x0m e0m
et v = y1 f1 + · · · + yn fn = y10 f10 + · · · + yn0 fn0 avec :

x01 y10
       
x1 y1
 . 
 , X0 =  .. 
.
. .  , Y0 =  ..  .
   
X=
 .  . et Y=
 .  .
xm x0m yn0 yn0

On a ainsi X = PX0 , Y0 = QY0 et


T T
f (u, v) = XT AY = X0 (PT AQ)Y0 = X0 AY0 ,

avec A matrice de f dans (e1 , . . . , em ) et (f1 , . . . , fn ) et A0 matrice de f dans (e01 , . . . , e0m )


et (f10 , . . . , fn0 ) tel que A0 = PT AQ.
Corollaire III.13. On a les égalités suivantes :

rg f (1) = rg f (2) = rg(A).

Démonstration. On a vu que la matrice de f (2) = A et la matrice de f (1) = AT . Donc :

rg(f (1) ) = rg(AT ) = rg(A) = rg(f (2) ).

Définition III.14. Soit f ∈ L2 (U, V; K). On appelle noyau à gauche de f , Ker f (1) ⊂ U
et noyau à droite de f , Ker f (2) ⊂ V.
Si f (1) : U → V∗ et f (2) : V → U∗ , on a alors les propriétés suivantes :

dim(U) = dim Ker f (1) + rg(f ),

dim(V) = dim Ker f (2) = rg(f ).


Et ainsi :
dim(U) − dim Ker(f (1) ) = dim V − dim Ker f (2) .
Remarque III.15 (Cas particulier). Si dim U = dim V alors dim Ker f (1) = dim Ker f (2) .
III.3. FORMES BILINÉAIRES NON DÉGÉNÉRÉES 19

III.3 Formes bilinéaires non dégénérées

Soient U et V deux K-espaces vectoriels de dimensions finies.

Définition III.16. On dit que la forme bilinéaire f : U × V → K est non dégénérée


si Ker f (1) = {0} (ce qui équivaut à Ker f (2) = {0}). Autrement dit f (1) : U → V∗ et
f (2) : V → U∗ sont des isomorphismes.

III.4 Formes bilinéaires symétriques

Soit U un K-espace vectoriel.

Définition III.17. On dit que l’application bilinéaire f : U × U → K est symétrique si


pour tout u, v ∈ U, f (u, v) = f (v, u).

Définition III.18. On dit que l’application bilinéaire f : U × U → K est anti-symétrique


si pour tout u, v ∈ U, f (u, v) = −f (v, u).

Proposition III.19. Soient dim U = m < +∞ et soit A la matrice de la forme bilinéaire


dans une base de U.
(i) f est symétrique si et seulement si AT = A,
(ii) f est anti-symétrique si et seulement si AT = −A.

Démonstration. Soit A = (aij ) tel que aij = f (ei , ej ).


(i) Si f est symétrique alors f (ei , ej ) = f (ej , ei ) et donc : aij = aji . Inversement, si
AT = A alors :

f (u, v) = XT AY = YT AT X = YT AX = f (v, u).

(ii) La démonstration du (ii) est la même que (i).

Remarque III.20. Soient f ∈ L2 (U, V; K), f (1) ∈ L (U, V∗ ) et f (2) ∈ L (V, U∗ ). f est
symétrique si et seulement f (1) = f (2) .

Définition III.21. Si U est un K-espace vectoriel muni d’une forme bilinéaire symétrique
non dégénérée f , soit V ⊂ U un sous-espace de U, on appelle orthogonal de V par rapport
à U, le sous-espace Vx de U défini par :

Vx = {u ∈ U, ∀v ∈ V, f (u, v) = 0}.

C’est un sous-espace de U.

Proposition III.22. Sous les hypothèses de la définition III.21, f (1) x est un isomor-

V
phisme de Vx (⊂ U) vers V⊥ (⊂ U∗ ).
20 CHAPITRE III. FORMES BILINÉAIRES

On rappelle que :
V⊥ = {ϕ ∈ U∗ , ∀v ∈ V, ϕ(v) = 0}.
Démonstration. Soit l’application
U →
7 U∗
.
u → f (1) (u) ◦ v → f (u, v)
On a ainsi :
−1
Vx = {u ∈ U, ∀v ∈ V, f (1) (u)(v) = 0} = {u ∈ U, f (1) (u) ∈ V⊥ } = f (1) (V⊥ ).

Corollaire III.23. On a les égalites suivantes :


dim Vx = dim V⊥ = dim U − dimV.
Exemples III.24. Soient U = R2 et x, y ∈ U tel que x = (x1 , x2 ) et y = (y1 , y2 ).
1. L’application bilinéaire f (x, y) = x1 x2 + 2x1 y2 + 2y1 x2 + y1 y2 est symétrique.
2. L’application bilinéaire g(x, y) = x1 y2 − x2 y1 est anti-symétrique.
Proposition III.25. Si le corps K est de caractéristique(1) 6= 2 (par exemple, Q, R, C,
Z/pZ avec p 6= 2), toute forme bilinéaire f est un K-espace vectoriel U s’écrit de façon
unique :
f = f+ + f−
avec f+ (resp. f− ) une application bilinéaire symétrique (resp. anti-symétrique).
Soit L2+ (U, K) (resp. L2− (U, K)) l’ensemble des formes bilinéaires symétriques (resp.
anti-symétriques) sur U alors
L2 (U, K) = L2+ (U, K) ⊕ L2− (U, K).
Démonstration. Soit f ∈ L2 (U, K). On a :
f (u, v) + f (v, u) = g(u, v) ∈ L2+ (U, K) (III.1)
et
f (u, v) − f (v, u) = h(u, v) ∈ L2− (U, K) (III.2)
Si on fait (III.1) + (III.2), on obtient :
g(u, v) + h(u, v) = 2f (u, v).
Or, 2 est inversible sur le corps K considéré dans la proposition III.25 et donc :
1 1
f (u, v) = g(u, v) + h(u, v).
2 2

(1)
Soit p ∈ N. On dit qu’un corps K est de caractéristique p si p est inversbile dans le corps K
III.5. FORMES QUADRATIQUES 21

Proposition III.26. Soit U muni d’une forme bilinéaire symétrique non dégénéré, on
suppose que dim U = n < +∞. Soient (e1 , . . . , en ) une base de U et a1 , . . . , an ∈ K. Alors
il existe un unique u ∈ U tel que pour tout 1 ≤ i ≤ n, f (u, ei ) = ai .
Démonstration. On a l’équivalence suivante :

f (u, ei ) = ai ⇐⇒ f (1) (u)(ei ) = ai .

Il existe une unique application linéaire ϕ : U → K tel que ϕ(ei ) = ai . Par ailleurs, il existe
un unique u ∈ U tel que f (1) (u) = ϕ.

III.5 Formes quadratiques

Soit K un corps de caractéristique 6= 2.


Proposition III.27. Soit U un K-espace vectoriel de dimension finie et f, f 0 ∈ L2+ (U, K).
Si pour tout u, f (u, u) = f 0 (u, u) alors f = f 0 .
Démonstration. Posons q(u) = f (u, u) et q 0 (u) = f 0 (u, u) alors on a,

q(u + v) = f (u + v, u + v) = f (u, u) + f (u, v) + f (v, u) + f (v, v)

Or f est symétrique donc

= q(u) + 2f (u, v) + q(v)

On fait de même pour f 0 :

q 0 (u + v) = q 0 (u) + 2f 0 (u, v) + q 0 (v).

L’hypothèse est que q = q 0 donc si, pour tout u, v ∈ U, on a 2f (u, v) = 2f 0 (u, v), cela
entraîne que pour tout u, v ∈ U, f (u, v) = f 0 (u, v). De plus, on a :
1
f (u, v) = (q(u + v) − q(u) − q(v)).
2

Définition III.28. q(u) = f (u, u) est la forme quadratique associée à la forme bilinéaire
symétrique f et f est appelée la forme polaire de la forme quadratique q.
Proposition III.29 (Écriture matricielle). Soient (e1 , . . . , en ) une base de U et A la ma-
trice de f dans cette base. A s’écrit alors A = (f (ei , ej ))1≤i≤n,1≤j≤n = (aij ) avec aij = aji .
Soient u = x1 e1 + · · · + xn en et v = y1 e1 + · · · + yn en avec
   
x1 y1
 .  .
 .. 
X= et  ..  .
Y=
 
xn yn
22 CHAPITRE III. FORMES BILINÉAIRES

On a f (u, v) = YT AX = XT AY. Donc (q(u)) = XT AX, c’est-à-dire


n
aii x2i + 2
X X
q(u) = aij xi xj = Q(x1 , x2 , . . . , xn ),
i=1 i<j

avec Q(x1 , x2 , . . . , xn ) est un polynôme homogène de degré 2.


Remarque III.30 (Comment retrouver la forme polaire f ?). Soit
X X
f (u, v) = ai xi yi + aij (xi yj + yj xi ).
1≤i≤n i<j

On peut montrer que


!
1 ∂Q ∂Q
f (u, u) = x1 (y1 , . . . , yn ) + · · · + (y1 , . . . , yn ) .
2 ∂x1 ∂xn

III.6 Produit scalaire

On considère K = R.
Définition III.31. Soit U un R-espace vectoriel et q une forme quadratique. On dit que q
est positive si pour tout u ∈ U, q(u) ≥ 0. On dit q est définie positive si pour tout u ∈ U,
q(u) > 0.
Proposition III.32. Soit q une forme quadratique positive et f sa forme polaire. Si f est
non dégénéré alors q est définie positive.
Théorème III.33. Si q est une forme quadratique positive et f sa forme polaire alors :
q
|f (u, v)| ≤ q(u)q(v). (III.3)

Démonstration. L’équivalence entre (III.3) et

∀u, v ∈ V, f (u, v)2 = q(u)q(v) (III.4)

est évidente. Comme q est une forme quadratique positive alors pour tout t ∈ R, q(u+tv) ≥
0. Or :
Q(t) = q(u + tv) = q(u) + 2tf (u, v) + t2 ≥ 0.
Le déterminant du polynome Q(t) est

∆ = f (u, v)2 − q(u)q(v) ≤ 0

et entraîne la relation (III.4).


Démonstration de la proposition III.32. U ∈ Ker(f ) si et seulement si pour tout u ∈ V,
f (u, v) = 0, si et seulement si q(u) = 0. De plus, f est non dégénérée si et seulement si
Ker(f ) = {0} et si et seulement si q(u) = 0 ⇐⇒ u = 0.
III.6. PRODUIT SCALAIRE 23

Définition III.34. Une forme bilinéaire symétrique f sur un espace vectoriel réel U de
dimension finie, dont la forme quadratique associée est définie positive, est un produit
scalaire.

Exemples III.35. Soient U = R2 et u, v ∈ R2 tel que u = (x1 , x2 ) et v = (y1 , y2 ).


1. f (u, v) = x1 y1 + x2 y2 est un produit scalaire car q(u) = x21 + y12 .
2. Soit f 0 (u, v) = x1 y1 − x1 y2 − x2 y1 + x2 y2 dont sa forme quadratique est q 0 (u) =
x21 − 2x1 x2 + x22 = (x1 − x2 )2 ≥ 0. q 0 est positive mais pas définie positive car
q 0 (u) = 0 ⇐⇒ x1 = x2 . On a ainsi que f 0 est dégénéré et

Ker(f 0 ) = {(x1 , x2 ) ∈ R2 , y1 (x1 − x2 ) + y2 (x2 − x1 ) = 0} = {(x1 , x2 ) ∈ R2 , x1 = x2 }.


24 CHAPITRE III. FORMES BILINÉAIRES
CHAPITRE IV

ESPACES EUCLIDIENS

IV.1 Généralités

Définition IV.1. Un R-espace vectoriel U de dimension finie et muni d’un produit scalaire
est un espace euclidien.
On notera le produit scalaire :
U×U → 7 R
,
(u, v) → hu, vi

alors q(u) = hu, ui.


q q
Définition IV.2. On définit la norme kuk de u, la quantité q(u) = hu, ui.

Proposition IV.3. La norme kuk de u vérifie les quatre propriétés suivantes :


(i) ∀u, v ∈ U, ku + vk ≤ kuk + kvk,
(ii) kuk ≥ 0,
(iii) kuk = 0 ⇐⇒ u = 0,
(iv) kλuk = |λ|kuk.
Démonstration. On montre la propriété (i) et on peut faire de même pour les propriétés
(ii), (iii) et (iv).

ku + vk ≤ kuk + kvk ⇐⇒ ku + vk2 ≤ kuk2 + kvk2 + 2kukkvk


q
⇐⇒ q(u) + q(v) + 2hu, vi = q(u + v) ≤ q(u) + q(v) + 2 q(u)q(v)
q
⇐⇒ hu, vi = q(u)q(v).

Par conséquence, on peut alors définir une distance induite par la norme.
Définition IV.4. Soit U un espace euclidien muni d’une distance d définie par d(u, v) =
kv − uk ≥ 0. Cette distance vérifie les trois propriétés suivantes :

25
26 CHAPITRE IV. ESPACES EUCLIDIENS

1. d(u, v) = d(v, u),


2. d(u, v) = 0 ⇐⇒ u = v,
3. d(u, w) ≤ d(u, v) + d(v, w).
Lemme IV.5. Soit U un espace euclidien et soit V ⊂ U un sous-espace de U. Alors :
V ⊕ Vx = U.
Démonstration. On montre tout d’abord que V ∩ Vx = {0}. Soit u ∈ V ∩ Vx alors u ∈ V
et u ∈ Vx .
u ∈ Vx , ∀v ∈ V, hu, vi = 0.
En particulier : q(u) = hu, ui = 0 implique que u = 0.
De plus, dim Vx = dim U − dim V et donc dim(V ⊕ Vx ) = dim V + dim Vx = dim V.
Ainsi : V ⊕ Vx = U.
Définitions IV.6. Soit (u1 , . . . , um ) un système de vecteurs de l’espace euclidien U.
1. (u1 , . . . , um ) est orthogonal si pour tout i, j tel que i 6= j, on a : hui , uj i = 0,
2. (u1 , . . . , um ) est orthonormal s’il est orthogonal et kui k = 1, pour tout i tel que
1 ≤ i ≤ n.
3. (u1 , . . . , um ) est une base orthonormale si, de plus, (u1 , . . . , um ) forme une base.
Théorème IV.7. Tout espace euclidien U admet une base orthonormale.
Démonstration. La démonstration se fait par réccurence sur dim U.
Initialisation Soient dim U = 1 et u ∈ U tel que u 6= 0. On considère
u
u1 = .
kuk
Donc ku1 k = 1.
Hérédité Supposons la propriété vraie pour tout espace de dimension < n. Soit U eucli-
dien tel que dim U = n. Soit V un sous-espace de U de dimension n − 1. A l’espace V,
h·, ·i restreint à V associe une structure d’espace euclidien sur V. D’après l’hypothèse
de réccurence, il existe une base (e1 , . . . , en−1 ) orthonormal de V tel que hei , ej i = 0
pour tout i 6= j et kei k = 1 pour tout 1 ≤ i ≤ n − 1. Comme dim V = n − 1 alors
dim Vx = 1. On choisit u 6= 0, u ∈ Vx . On pose :
u
en = .
kuk
Alors (e1 , . . . , en−1 , en ) forme un système de vecteurs orthonormal de U car on a,
hej , en i = 0, pour tout j < n (car en ∈ Vx ) et ken k = 1. Il faut vérifier que (e1 , . . . , en )
forme une base de U. Or (e1 , . . . , en−1 ) est une base de V et (en ) est une base de Vx .
D’après le lemme , on a :
V ⊕ Vx = U.
Donc (e1 , . . . , en ) est une base de U.
IV.2. ADJOINT D’UN ENDOMORPHISME 27

IV.2 Adjoint d’un endomorphisme

Soit U un espace euclidien et f ∈ L (U, U,) une application linéaire de U dans U.

Proposition IV.8. Il existe une unique application linéaire f ∨ : U → U tel que :

∀u, v ∈ U, hu, f (v)i = hf ∨ (u), vi. (IV.1)

Définition IV.9. Dans la proposition IV.8, f ∨ est appelé l’adjoint de f .

Démonstration. Au produit scalaire h·, ·i est associé un isomorphisme α : U → U∗ tel que


α(u)(v) = hu, vi. On a :

hu, f (v)i = α(u)(f (v)) = f ∗ (α(u))(v)

et
hf ∨ (u), vi = α(f ∨ (u))(v).
f
U@ /U
@@
@@
f ∗ (α(u)) @@ 
α(u)

R
Ainsi :

(IV.1) ⇐⇒ ∀u, v ∈ U, f ∗ (α(u))(v) = α(f ∗ (u))(v)


⇐⇒ ∀u ∈ U, f ∗ (α(u)) = α(f ∨ (u))
⇐⇒ f∗ ◦ α = α ◦ f∨
⇐⇒ f ∨ = α−1 ◦ f ∗ ◦ α.

Pour bien comprendre la situation et pour en finir avec la démonstration,

U
α / U∗

f∨ f∗
 
U
α / U∗

Proposition IV.10. Soient (e1 , . . . , en ) une base orthonormée et A la matrice de f dans


cette base alors la matrice de f ∨ est A∗ .

Démonstration. Soit A = (aij )1≤i≤n,1≤j≤n matrice de f dans la base (e1 , . . . , en ) :


n
X
f (ej ) = aij ei .
i=1
28 CHAPITRE IV. ESPACES EUCLIDIENS

On a alors : * n +

X
hf (ej ), ei i = hej , f (ei )i = akj ek , ei = aij .
k=1

La matrice de f ∨ est B = (bij ) :

hei , f ∨ (ej )i = hf ∨ (ei ), ej i = bji .

Ainsi, pour tout i et j, aij = bji et donc B = A∗ .

Définition IV.11. Soient U un espace euclidien muni d’un produit scalaire h·, ·i et f :
U → U. On dit que f est autoadjoint si f = f ∨ .

Corollaire IV.12. f est autoadjoint si et seulement si sa matrice dans une base ortho-
normale est symétrique.

Proposition IV.13. Soit U un espace euclidien muni d’un produit scalaire h·, ·i.
(i) Soit f : U → U linéaire alors l’application

U × U 7→ K
(u, v) → hf (u), vi

est bilinéaire.
(ii) Tout forme bilinéaire sur U est de ce type. Précisement, si ϕ ∈ L2 (U, K), il existe
une application linéaire unique f : U → U tel que :

∀u, v ∈ U, ϕ(u, v) = hf (u), vi.

(iii) (u, v) 7→ hf (u), vi est symétrique si et seulement si f est autoadjoint.


(iv) (u, v) 7→ hf (u), vi est non dégénérée si et seulement si Ker(f ) = {0}.

Démonstration. (i) On pose ϕ(u, v) = hf (u), vi avec f : U → U linéaire et on montre


que ϕ est une application bilinéaire.

ϕ(λu + λ0 u0 , v) = hf (λu + λ0 u0 ), vi = hλf (u) + λ0 f (u0 ), vi


= λhf (u), vi + λ0 hf (u0 ), vi = λϕ(u, v) + λ0 ϕ(u0 , v).

ϕ(u, µv + µ0 v 0 ) = hf (u), µv + µ0 v 0 i = µhf (u), vi + µ0 hf (u), v 0 i


= µϕ(u, v) + µ0 ϕ(u, v 0 ).

(ii) On se donne ϕ ∈ L2 (U, R) tel que :

ϕ(1) : U → U∗
.
u 7→ (v 7→ ϕ(u, v))
IV.2. ADJOINT D’UN ENDOMORPHISME 29

Par ailleurs, on associe h·, ·i à

α : U → U∗
.
u 7→ (v 7→ hu, vi)

On a alors α(u)(v) = hu, vi et ϕ(1) (u)(v) = ϕ(u, v). On cherche f : U → U tel que

∀u, v ∈ U, hf (u), vi = ϕ(u, v). (IV.2)

Ainsi :

(IV.2) ⇐⇒ ∀u, v, α(f (u))(v) = ϕ(1) (u)(v)


⇐⇒ ∀u ∈ U, α(f (u)) = ϕ(1) (u)
⇐⇒ α ◦ f = ϕ(1) ⇐⇒ f = α−1 ◦ ϕ(1) .

On a ainsi le diagramme suivant :

f
U / U
α / U ∗
?

ϕ(1)

Autre méthode pour démontrer (ii). On cherche la matrice de f dans une base or-
thonormale. La matrice de f est égale à la matrice de ϕ. Soit u = x1 e1 + · · · + xn en
et v = y1 e1 + · · · + yn en avec :
   
x1 y1
 .   . 
X =  .. 

 et Y =  .. 


xn yn

On a ainsi : hu, vi = Y∗ X et ϕ(u, v) = Y∗ AX = Y∗ X0 où A est la matrice de ϕ dans


la base (e1 , . . . , en ) et avec X0 = AX. Donc : v 0 = x01 e1 + · · · + x0n en = f (u) avec :

x01
 

X0 =  .
 .. 


x0n

(iii) En exercice.
(iv) En exercice.
30 CHAPITRE IV. ESPACES EUCLIDIENS

IV.3 Automorphismes orthogonaux

Définition IV.14. Soit U un espace euclidien muni d’un produit scalaire h·, ·i. Une appli-
cation linéaire f : U → U est dite orthogonale si et seulent si :

∀u, v ∈ U, hf (u), f (v)i = hu, vi.

Proposition IV.15. (i) f est orthogonale si et seulement si pour tout u ∈ U, kf (u)k =


kuk.
(ii) Si f est orthogonale, f est un automorphisme de U.
(iii) f est orthogonale si et seulement si f ◦ f ∨ = idU = f ∨ ◦ f .

Démonstration. (i) Supposons que pour tout u ∈ U, q(f (u)) = q(u), où q(u) = hu, ui.
On veut montrer que pour tout u, v ∈ U, q(f (u + v)) = q(u + v). On a alors

q(u + v) = q(u) + q(v) + 2hu, vi, (IV.3)

et :

q(f (u, v)) = q(f (u) + f (v)) = q(f (u)) + q(f (v)) + 2hf (u), f (v)i. (IV.4)

Or q(f (u)) = q(u), donc

(IV.3) = (IV.4) ⇐⇒ hf (u), f (v)i = hu, vi.

(ii) Conséquence de (iii).


(iii) Pour tout u, v ∈ U, on a :

hf (u), f (v)i = hu, f ∨ (f (v))i = hu, vi ⇐⇒ hu, (f ∨ ◦ f )(v) − vi = 0


⇐⇒ ∀u ∈ U, f ∨ ◦ f (v) = v ⇐⇒ f ∨ ◦ f = idU .

Proposition IV.16. Soit f un automorphisme orthogonal.


(i) Si (e1 , . . . , en ) est une base orthonormale de U, il en est de même de

(f (e1 ), . . . , f (en )).

(ii) Si (e1 , . . . , en ) et (f1 , . . . , fn ) sont des bases orthonormales, il existe une unique ap-
plication f : U → U tel que f (ei ) = fi pour tout 1 ≤ i ≤ n. De plus, f est un
automorphisme orthogonal.

Démonstration. (i) Comme on a hei , ej i = δij et hf (ei ), f (ej )i = hei , ej i, l’assertion est
évidente.
IV.4. DÉCOMPOSITION CANONIQUE D’UNE FORME QUADRATIQUE 31

(ii) Soit f définie par f (ei ) = fi . Soient u = x1 e1 + · · · + xn en et v = y1 e1 + · · · + yn en .


On a alors :

f (u) = x1 f (e1 ) + · · · + xn f (en ) = x1 f1 + · · · + xn fn ,


f (v) = y1 f (e1 ) + · · · + xn f (en ) = y1 f1 + · · · + yn fn .

Donc :
n
X
hf (u), f (v)i = xi yi = hu, vi.
i=1

On rappelle que si ϕ : U × U → R est bilinéaire et si (e1 , . . . , en ), (f1 , . . . , fn ) sont des


bases de U, P est la matrice de passage :

B = PT AP,

avec A (resp. B) matrice de ϕ dans la première (resp. seconde) base.

Remarque IV.17. Si (e1 , . . . , en ) et (f1 , . . . , fn ) sont deux bases orthogonales. P, la ma-


trice de passage est une matrice orthogonale (represantant un automorphisme orthogonal
dans une base orthogonale ⇐⇒ P∗ P = I) :

B = PT AP = P−1 AP.

IV.4 Décomposition canonique d’une forme quadratique

Théorème IV.18. Soit U un espace vectoriel réel de dimension n. Alors toute forme
quadratique q sur U s’écrit sous la forme :

∀u ∈ U, q(u) = ϕ1 (u)2 + · · · + ϕr (u)2 − (ψ(u)2 + · · · + ψs (u)2 ),

où les ϕi , ψj ∈ U∗ , (ϕ1 , . . . , ϕr , ψ1 , · · · , ψs ) forme un système indépendant. De plus r et s


ne dépendant que de q et r + s est le rang de la forme polaire associée.

Démonstration. Pour montrer l’existence des ϕi et ψj , on aura besoin du théorème IV.19.


Comme q est quadratique, on peut lui associer ϕ une forme polaire symétrique. Il existe
une unique application linéaire f : U → U tel que

∀u, v ∈ U, ϕ(u, v) = hf (u), vi.

ϕ est symétrique ⇔ f est autoadjoint. Il existe donc une base orthonormale (e1 , . . . , en ) de
U formée de vecteurs propres de f :

∀i, 1 ≤ i ≤ n, f (ei ) = λi ei .
32 CHAPITRE IV. ESPACES EUCLIDIENS

Soient u = x1 e1 + · · · xn en et v = y1 e1 + · · · + yn en . Alors :

ϕ(u, v) = hf (u), vi = hx1 λi ei + · · · xn λn en , y1 e1 + · · · + yn en i


= λ1 x1 y1 + λ2 x2 y2 + · · · + λn xn yn .

Ainsi, pour xi = yi ,
q(u) = λ1 x21 + · · · + λn x2n , λi ∈ R. (IV.5)
Quitte à réordonner la base, on peut supposer que λ1 , . . . , λr > 0, λr+1 , . . . , λr+s < 0
et λr + s + 1 = · · · = λn = 0. On pose pour 1 ≤ i ≤ r, λi = µ2i , pour r ≤ j ≤ r + s,
2
λj = νj−r . Alors :

µ1 x1 = ϕ1 (u)
..
.
µr xr = ϕr (u)
ν1 xr+1 = ψ1 (u)
..
.
νs xr+s = ψs (u).

Ainsi, (IV.5) s’écrit

q(u) == ϕ1 (u)2 + · · · + ϕr (u)2 − (ψ(u)2 + · · · ψs (u)2 ).

Maintenant, on montre l’unicité de r et s. Si ϕ est non dégénérée. On note :

U+ = {u ∈ U, ϕ1 (u) = · · · = ϕr (u) = 0},


U− = {u ∈ U, ψ1 (u) = · · · = ψs (u) = 0},

tel que U+ ∩ U− = Ker(ϕ). En effet :

ϕ(u, v) = ϕ1 (u)ϕ1 (v) + · · · + ϕr (u)ϕr (v) − ψ1 (u)ψ(v) − · · · − ψs (u)ψs (v).

Donc : U+ ∩ U− = {0}. On a alors : U+ ⊕ U− = U. En effet,

U+ ∩ U− = Vect(ϕ1 , . . . , ϕr , ψ1 , . . . , ψs )⊥ = {0}.

Donc : Vect(ϕ1 , . . . , ϕr , ψ1 , . . . , ψs ) = U∗ . Or :

U+ = Vect(ϕ1 , . . . , ϕr )⊥ ,
U− = Vect(ψ1 , . . . , ψs )⊥ .

et ainsi :

U+ + U− = (Vect(ϕ1 , . . . , ϕr ) ∩ Vect(ψ1 , . . . , ψr ))⊥ = {0}⊥ = U.


IV.4. DÉCOMPOSITION CANONIQUE D’UNE FORME QUADRATIQUE 33

On a alors que r + s = n. Supposons qu’on ait deux décompositions :

q(u) = ϕ(u)2 + · · · + ϕr (u)2 − (ψ1 (u)2 + · · · + ψs (u)2 )


= ϕ0 (u)2 + · · · + ϕ0r (u)2 − (ψ10 (u) + · · · + ψs0 (u)2 ).

On veut montrer que r = r0 et s = s0 . Soit U = U+ ⊕ U− = U0+ ⊕ U0− . Comme q|U0 , q|U+


+
sont définies positives et q|U0 et q|U− est définie négative, d’après le lemme IV.20,

U0+ ∩ U− = {0}.

On a dim U− = n − s et dim U0+ = n − r0 . On a ainsi que

n − s + n − r0 ≥ n ⇐⇒ s + r ≥ n = s + r
⇐⇒ r0 ≥ r.

De même, r ≥ r0 donc r = r0 et s = s0 .
Enfin, on montre l’unicité dans le cas général, c’est-à-dire r + s ≤ dim U∗ . Soit f la
forme bilinéiare symétrique polaire de q.

f (u, v) = ϕ1 (u)ϕ1 (v) + · · · + ϕr (u)ϕr (v) − ψ1 (u)ψ1 (v) − · · · − ψs (u)ψs (v).

Ainsi,

Ker(f ) = {u ∈ U, ∀u ∈ U, f (u, v) = 0}
= {u ∈ U, ∀v ∈ U, ϕ1 (u)ϕ1 (v) + · · · + ϕr (u)ϕr (v)
− ψ1 (u)ψ1 (v) − · · · − ψs (u)ψs (v)}
= {u ∈ U, ϕ1 (u)ϕ1 + · · · + ϕr (u)ϕr − ψ1 (u)ψ − · · · − ψs (u)ψs }
= {u ∈ U, ϕ1 (u) = · · · = ϕr (u) = ψ1 (u) = · · · = ψs (u)}
 
r s
!
\ \
= Ker ϕi ∩  Ker ψj  .
i=1 j=1

Le diagramme suivant
ψj
U MMM /84 R
MMM D
MM ϕi
s MMM&
ϕ̃i
&
Ũ = U/ Ker(f ) ψ̃j

ϕ̃i ◦ s = ϕi .
nous dit que Ker(f ) ⊂ Ker(ϕi ) ⇔ ψ̃i existe et Ker(f ) ⊂ Ker(ψj ) ⇔ ψ̃j existe. On définit
f˜ : Ũ × Ũ → R,

f˜(ũ, ṽ) = ϕ̃1 (ũ)ϕ̃1 (ṽ) + · · · + ϕ̃r (ũ)ϕ̃r (ṽ) − ψ̃1 (ũ)ψ̃1 (ṽ) − · · · − ψ̃s (ũ)ψ̃s (ṽ)
q̃(ũ) = ϕ̃1 (ũ)2 + · · · + ϕ̃r (ũ)2 − ψ̃1 (u)2 − · · · − ψ̃s (ũ)2 .
34 CHAPITRE IV. ESPACES EUCLIDIENS

f˜ est non dégénérée car


 
r s
!
Ker(f˜) =
\ \
Ker ϕ̃i ∩  Ker ψ̃j  = s(X) = {0̃},
i=1 j=1

 T T 
où X = ( ri=1 Ker ϕi ) ∩ sj=1 Ker ψj . Soit k = dim Ker(f ) et m − k = rg(f ). Comme
(r, s) ne dépendant que de q̃ et que

B = (ϕ̃1 , . . . , ϕ̃r , ψ̃1 , . . . , ψ̃s )

est une base de U∗ , on a :


 
r s
!
Vect(B)⊥ =
\ \
Ker(ϕ̃i ) ∩  Ker(ψ̃j ) = {0̃}
i=1 j=1

et donc Vect(B) = Ũ∗ et

r + s = dim Ũ∗ = dim Ũ = dim U − dim Ker(f ) = m − k.

Donc : r + s = rg(f ).

Théorème IV.19. Soit U un espace euclidien et f : U → U, il existe une base orthogonale


dans laquelle la matrice de f est diagonale.

Démonstration. Admis pour l’instant.

Lemme IV.20. Soient U1 et U2 deux sous-espace de U tel que q|U1 est définie positive et
q|U2 est définie négative alors U1 ∩ U2 = {0}.

Démonstration. Soit u ∈ U1 ∩ U2 . Si u 6= 0, alors q(u) > 0 (car u ∈ U1 ) et q(u) < 0 (car


u ∈ U2 ). Ce qui est absurde !

Définition IV.21. (r, s) est la signature de la forme quadratique.

Exemple IV.22. Soient U = R3 et q(x, y, z) = x2 + (x + y − z)2 + (z − y)2 . La forme


polaire associée est :

f ((x, y, z), (x0 , y 0 , z 0 )) = xx0 + (x + y − z)(x0 + y 0 − z 0 ) + (z − y)(z 0 − y 0 )


= x(2x0 + y 0 − z 0 ) + y(x0 + 2y 0 − 2z 0 ) + z(−x0 − 2y + 2z 0 ).

Ainsi, la matrice A de f s’écrit :


 
2 1 −1
A= 1

2 −2
−1 −2 1
IV.4. DÉCOMPOSITION CANONIQUE D’UNE FORME QUADRATIQUE 35

q(x, y, z) = 2x2 + 2y 2 + 2z 2 + 2xy − 2xz − 4xz


En laissant le lecteur faire les calculs,
1 1 2 3
 
= 2 x + y − z + (y − z)2 .
2 2 2
La signature est donc (2, 0) = (r, s) et r + s = rg(f ) = 2.
Exemple IV.23. Soit q(x, y, z) = 2(xy + yz + zx). On change les variables :
 
x

 =X+Y = 21 (x + y)
X


y =X−Y ⇐⇒ Y = 21 (x − y)

 


z=Z 
Z=z

q(X, Y, Z) = 2((X + Y)(X − Y) + (X − Y)Z + (X + Y)Z)


= 2(X2 − Y2 + 2XY)
= 2((X + Y)2 − Z2 − Y2 ).
Donc : rg(f ) = 3 et la signature (r, s) = (1, 2). Soit A la matrice de q dans les bases
canonique de R3 .  
0 1 1
A = 1 0 1
 

1 1 0
On cherche les valauers propres de A :
 
−λ 1 1
A − λI = 

1 −λ 1 

1 1 −λ
Le polynôme caratéristique de A est P(λ) = −(λ+1)2 (λ−2) (car pour λ = −1, rg(A+I) = 1
donc dim Ker(A+I) et tr(A) = 0 = −1−1+2). Il existe donc P une matrice de changement
de base orthogonale inversible pour le produit scalaire usuel tel que :
 
−1 0 0
−1
B = P AP =  0 −1 0


0 0 2
Comme on a : P−1 = P∗ , B = P∗ AP est la matrice de la forme bilinéaire f dans la nouvelle
base (f1 , f2 , f3 ) consitutée de vecteurs propres. Soit u = xe1 + ye2 + ze3 = Xf1 + Yf2 + Zf3 ,
alors :
 0  0
  x   X
0  0  0
f (u, u ) = x y z A y  = X Y Z B Y 
z0 Z0
X0
  
 −1 0 0

= X Y Z  0 1 0 Y  = XX0 − YY0 + 2ZZ0
   0

0 0 2 Z0
36 CHAPITRE IV. ESPACES EUCLIDIENS

et donc si on considère q la forme quadratique :

q(u) = f (u, u) = X2 − Y2 + 2Z2 = ϕ1 (u)2 − ϕ2 (u)2 + 2ϕ3 (u)2 .

IV.5 Classification des isométries

Soit V un espace euclidien, h·, ·i un produit scalaire. On rappelle que f est orthogonal
si et seulement si pour tout u, v ∈ V, hu, vi = hf (u), f (v)i.

Théorème IV.24. Soit f : V → V un automorphisme orthogonal.


(i) Les valeurs propres de f sont des nombres complexes λ avec |λ| = 1. En particulier,
les seules valeurs propres réelles sont +1 ou −1.
(ii) Soient V1 = Ker(f − id) et V−1 = Ker(f + id). On note m+ = dim V1 et m− =
dim V−1 . Il existe une base orthogonale

B = (e1 , . . . , em+ , em+ + 1, . . . , em+ +m− , em+ +m− +1 , . . . , em ),

où m = dim V, dans laquelle la matrice de f s’écrit


 
1

 ... 

 
1
 
 
 

 −1 

 .. 

 . 

−1
 
 
 

 A1 


 ... 

 
Ak
avec :
 
cos θi − sin θi
 sin θi cos θi
 

.. ..
 
..
 
 
∀1 ≤ i ≤ k, Ai = 
 ... ...
.

 
 

 cos θi − sin θi 

sin θi cos θi

Ainsi, (e1 , . . . , em+ ) est une base de V+ et em+ +1 , . . . , em+ +m− est une base de V− .

Définition IV.25. On dit que f est une isométrie vectorielle si f est un automorphisme
orthogonal.
IV.5. CLASSIFICATION DES ISOMÉTRIES 37

Définitions IV.26. 1. Si m = m− + m+ , f est la symétrie orthogonale par rapport à


V1 (et V−1 = V1 ⊥ ). Ainsi,
V = V1 ⊕ V−1
et pour tout u ∈ V, il existe un unique u1 ∈ V1 et un unique u−1 ∈ V−1 tel que
u = u1 + u−1 et f (u) = u1 − u−1 .
2. Si m+ = n − 1 et m− = 1, f est un retournement par rapport à l’hyperplan V1 .
3. Si m+ = n − 2 et m− = 0 alors f est la rotation autour de V1 d’angle θ et la matrice
de f s’écrit :  
1

 ... 

 
.
 

 1 

 cos θ − sin θ 

sin θ cos θ
Remarques IV.27. 1. Il résulte du théorème que det(f ) = (−1)n .
2. f est dit isométrie directe ou déplacement si det(f ) = 1.
3. f est dit isométrie indirecte ou anti-déplacement si det(f ) = −1.
4. On peut montrer que toute rotation est produit de deux retournements et en déduire
que toute isométrie de dimension n est produit d’au plus n retournements.

Définition IV.28. On note O(V), l’ensemble des isométries de V et SO(V), le groupe


spécial orthogonal, l’ensemble des isométries directes de V.

Soit U un espace euclidien de dimension n = 2, on va classifier les isométries.

Proposition IV.29. (i) Si m+ = 2 et m− = 0 alors la matrice de f s’écrit :


!
1 0
A=
0 1

f est donc une rotation d’angle 0.


(ii) Si m+ = 0 et m− = 2 alors la matrice de f s’écrit :
!
−1 0
A=
0 −1

f est donc une rotation d’angle π2 .


(iii) Si m+ = m− = 1 alors la matrice de f s’écrit :
!
1 0
A=
0 −1

f est donc une symétrie indirecte.


38 CHAPITRE IV. ESPACES EUCLIDIENS

(iv) Si m+ = m− = 0 alors la matrice de f s’écrit :


!
cos θ − sin θ
A=
sin θ cos θ
f est donc une rotation d’angle quelconque.
On fait de même pour un espace euclidien U de dimension n = 3.
Proposition IV.30. (i) Si m+ + m− = 3,
a) Si m+ = 3 alors f = id et :  
1 0 0
A= 0 1 0 .

0 0 1
b) Si m− = 3 alors f = − id et :
 
−1 0 0
 0 −1 0  .
A= 

0 0 −1

c) Si m+ = 1 et m− = 2, f est une symétrie orthogonale par rapport à la droite V1


ou une rotation d’axe V1 et d’angle π2 .
 
1 0 0
A = 0 −1 0 
 

0 0 −1

d) Si m+ = 2 et m1 = 1, on a :
 
1 0 0
A = 0 1 0 
 

0 0 −1

(ii) Si m+ + m− = 1 alors
a) si m+ = 1 et m− = 0 alors f est une rotation d’axe V1 et d’angle θ.
 
1 0 0
A = 0 cos θ − sin θ


0 sin θ cos θ

b) Si m+ = 0 et m− = 1 alors
    
−1 0 0 −1 0 0 1 0 0
 0 cos θ − sin θ  =  0 1 0 0 cos θ − sin θ 
    

0 sin θ cos θ 0 0 1 0 sin θ cos θ


Ainsi f est la composée d’une symétrie et d’une rotation.
IV.5. CLASSIFICATION DES ISOMÉTRIES 39

θ
v

Fig. IV.1 – Toute rotation est le produit de deux retournements

On montre maintenant que toute rotation est le produit de deux retournements.


Démonstration. On peut tout d’abord voir une illustration de la proposition par la figure
IV.1. Soient U un espace euclidien de dimension 2, f une rotation d’angle θ et (e1 , e2 ) une
base orthogonale dans laquelle la matrice f est :
!
cos θ − sin θ
.
sin θ cos θ

Soit u unitaire et arbitraire et v l’image de u par la rotation 2θ . On considère gu (resp. gv )


les retournements par rapport aux droites vecteurs (resp. Vect(v)). Ainsi : f = gu ◦ gv .
Remarque IV.31. Si dim V = 2, SO(V) est commutatif.En effet, si on pose :
!
cos θ − sin θ
A(θ) = ,
sin θ cos θ

on a : A(θ1 )A(θ2 ) = A(θ2 )A(θ1 ) = A(θ1 ) + A(θ2 ), c’est-à-dire, en terme de matrices :


! ! ! !
cos θ1 − sin θ1 cos θ2 − sin θ2 cos θ2 − sin θ2 cos θ1 − sin θ1
=
sin θ1 cos θ1 sin θ2 cos θ2 sin θ2 cos θ2 sin θ1 cos θ1
!
cos(θ1 + θ2 ) − sin(θ1 + θ2 )
=
sin(θ1 + θ2 ) cos(θ1 + θ2 )

Soit f, g des isométries directes, il existe (e1 , e2 ) une base orthonormale telle que f =
A(θ1 ) et il existe (e01 , e02 ) une base orthonormale telle que la matrice de g = A(θ2 ). On peut
40 CHAPITRE IV. ESPACES EUCLIDIENS

supposer que det(e1 ,e2 ) (e01 , e02 ) > 0, c’est-à-dire que la matrice de passage est de la forme
A(α). La matrice de g dans la base (e1 , e2 ) est aussi A(θ2 ). f et g sont représenté par A(θ1 )
et A(θ2 ) dans la même, ainsi g ◦ f est représentée par A(θ1 ) ◦ A(θ2 ) = A(θ1 + θ2 ) et f ◦ g
par A(θ2 ) ◦ A(θ1 ) = A(θ1 + θ2 ).
CHAPITRE V

FORMES HERMITIENNES

V.1 Formes et espaces hermetiens

Soit K = C et V un C-espace vectoriel.


Définition V.1. Une forme hermitienne sur V est la donnée d’une application V×V → C
telle que :
1. la forme est linéaire par rapport à la première variable,
2. pour tout (u, v) ∈ V × V, on a : f (v, u) = f (u, v).
Par conséquent,
Proposition V.2. (i) f (u, v1 + v2 ) = f (v1 , u) + f (v2 , u) = f (u, v1 ) + f (u, v2 ).
(ii) f (u, λv) = λf (u, v).
Démonstration. – (i)

f (u, v1 + v2 ) = f (v1 , u) + f (v2 , u) = f (u, v1 ) + f (u, v2 ).

– (ii)
f (u, λv) = f (λv, u) = λf (v, u) = λ f (v, u) = λf (u, v)

Proposition V.3. Pour tout u ∈ V, f (u, u) ∈ R.


Démonstration. En effet, f (u, u) = f (u, u).
Définition V.4. q(u) = f (u, u) est appelée la forme quadratique assoicée à la forme
hermitienne de f .
Proposition V.5. Soient f et g deux formes hermitiennes. Si f (u, u) = g(u, u) pour tout
u ∈ V alors f = g.
Définition V.6. Soit f une forme hermitienne et q sa forme quadratique telle que q(u) =
f (u, u). On dit alors que f est la forme polaire de q.

41
42 CHAPITRE V. FORMES HERMITIENNES

Exemple V.7. Soient ϕ1 , ϕ2 , . . . , ϕk des formes linéaires sur V. On a alors :


k
X
f (u, v) = ϕi (u)ϕi (v)
i=1

est une forme linéaire.

Exemple V.8. Soit V un C-espace vectoriel tel que dim V = n. Soient (e1 , . . . , en ) une
base de V et (e∗1 , . . . , e∗n ) sa base duale. f , définie comme suit :
n
e∗i (u)e∗i (v)
X
f (u, v) :
i=1

est une forme hermtienne. Plus explicitement, soit u = x1 e1 + · · · + xn en et v = y1 e1 + · · · +


yn en . On a :
n
X
f (u, v) = x i yi
i=1

et n n
x2i .
X X
q(u) = f (u, u) = xi xi =
i=1 i=1

On va maintenant décrire l’écriture matricielle d’une forme hermitienne f .

Définition V.9. Soient V un C-espace vectoriel tel que dim V = n et (e1 , . . . , en ) une base
de V. Soient u = x1 e1 + · · · + xn en et v = y1 e1 + · · · + yn en avec :
   
x1 y1
 .  .
X =  .. 

 et Y =  .. 

.
xn yn

Soit f une forme hermitienne alors sa matrice dans la base (e1 , . . . , en ) est

A = (f (ei , ej ))1≤i≤n,1≤j≤n .

Remarque V.10. D’après la définition V.1-2, on a f (ej , ei ) = f (ei , ej ) et donc : AT = A.

Proposition V.11. On a :
(f (u, v)) = XT AY.

Démonstration. La démonstration se résume en un simple calcul :


 
Xn n
X n X
X n
f (u, v) = f  xi ei , yj ej  = xi yj f (ei , ej ).
i=1 j=1 i=1 j=1
V.1. FORMES ET ESPACES HERMETIENS 43

Corollaire V.12. De plus, comme f (u, u) = q(u), on a alors :

(q(u)) = XT AX.

Proposition V.13 (Changement de base). Soit P une matrice de passage tel que :

X0 = PX et Y0 = PY.

Soient A matrice de f dans la base (e1 , . . . , en ) et A0 matrice de f dans la base (e01 , . . . , e0n ).
On a :
T
f (u, v) = XT AY = X0 AY0 = XT PT A0 PY.
Ainsi, A = PT A0 P

Proposition V.14. Soit f une forme hermitienne alors l’orthogonal de V :

V⊥ = {u ∈ V, ∀v ∈ V, f (u, v) = 0} = {u ∈ V, ∀v ∈ V, f (v, u) = 0}

est un espace vectoriel de V.

Définition V.15. Comme f (v, u) = f (u, v), alors :

f (v, u) = 0 ⇐⇒ f (u, v) = 0.

Définition V.16. Une forme hermitienne non dégénérée est une forme dont le noyau est
nul.

Exemple V.17. Soient ϕ1 , . . . , ϕk ∈ V∗ et


n
X
f (u, v) = ϕj (u)ϕj (v).
j=1

On suppose que ϕ1 , . . . , ϕk sont indépendantes. Soit u ∈ Ker(f ) alors pour tout v ∈ V,


k
X k
X
ϕj (v)ϕj (u) = 0 ⇐⇒ ϕj (u)ϕj = 0V∗
j=1 j=1
\
⇐⇒ ∀j, 1 ≤ j ≤ k, ϕj (u) = 0 ⇐⇒ u ∈ Ker(ϕj ).
1≤j≤k

Donc : f est non dégénérée si et seulement si :

Ker ϕi = {0} = Vect(ϕ1 , . . . , ϕk )⊥ ⇐⇒ Vect(ϕ1 , . . . , ϕk ) = V∗


\

1≤i≤k

⇐⇒ (ϕi , . . . , ϕk ) est une base de V∗


⇐⇒ k = dim V.
44 CHAPITRE V. FORMES HERMITIENNES

Définition V.18. Soit f une forme hermitienne et W ⊂ V un sous-espace vectoriel de V.


On définit l’orthogonal par rapport à V, l’ensemble
Wx = {u ∈ V, ∀v ∈ W, f (u, v) = 0} = {u ∈ V, ∀v ∈ W, f (v, u) = 0}.
C’est un sous-espace de V.
Proposition V.19. On suppose que f est non dégénérée alors :
dim W + dim Wx = dim V.
Remarque V.20. Soient (e1 , . . . , en ) une base de V, f hermitienne. Soient A la matrice
de f dans la base (e1 , . . . , en ) et u ∈ V tel que u = x1 e1 + · · · + xn en . Alors :
 
0
.
u ∈ Ker(f ) ⇐⇒ AX = . .
.
0
En effet,
u ∈ Ker f ⇐⇒ ∀v ∈ V, f (v, u) = 0
   
y1 0
 .  T
  .
⇐⇒ ∀Y =  .  , Y AX = 0 ⇐⇒ AX =  .. 
 .  
.
yn 0
En l’occurence, f est non dégénérée si et seulement si A est inversible.
Démonstration. Soit u ∈ Wx . Par définition, pour tout v ∈ W, on a :
f (u, v) = 0 = YT AX. (V.1)
On pose v = y1 e1 + · · · + yn en tel que :
x01
   
y1
 .   . 
Y =  .. 

 et  ..  .
AX =  
yn x0n
On a ainsi pour tout v ∈ W :
x0
 
  1
.

(V.1) ⇐⇒ YT AX = y1 · · ·  .. 
yn ·  =0
x0n
⇐⇒ y1 x01 + · · · + yn x0n = 0
Donc : u ∈ Wx ⇔ AX ∈ W0 . Mais comme f est supposée non dégénérée, A est inversible
et on a ainsi :
dim W0 = dim V − dim V =⇒ dim(A−1 W0 ) = dim W0 = dim Wx .
V.1. FORMES ET ESPACES HERMETIENS 45

Définition V.21. Soient f une forme hermitienne et q sa forme quadratique associée.


1. On dit q est une forme quadratique positive si pour tout u ∈ V, q(v) ≥ 0.
2. On dit q est une forme quadratique définie positive si pour tout u ∈ V, q(u) > 0 et
q(u) = 0 ⇔ u = 0.
Proposition V.22. Soit f une forme hermitienne. On suppose que q(u) = f (u, u) est
positive. Alors : q
∀u, v ∈ V, |f (u, v)| ≤ q(u)q(v).

Démonstration. Soient u, v ∈ V et λ ∈ C avec |λ| = 1 et tel que λf (u, v) ≥ 0. Pour tout


t ∈ R, on a :

q(u + tλv) = f (u + tλv, u + tλv)


= q(u) + t2 q(v) + tλf (u, v) + tλf (u, v)
= q(u) + t2 q(v) + 2t(f (u, v)).

Comme le polynôme est toujours positive (à cause de la positivité de f ), on a alors que le


discriminant est négative. Ainsi :
q
|f (u, v)|2 − q(u)q(v) ≤ 0 ⇐⇒ |f (u, v)| ≤ q(u)q(v).

Corollaire V.23. Sous les hypothèses de la proposition V.22, f est non dégénérée si et
seulement si q est définie positive.
Démonstration. (⇒) On veut montrer que f non dégénérée implique q définie positive.
Supposons que q(u) = 0, alors d’après la proposition V.22 :

∀u ∈ V, |f (u, v)| = 0.

Donc :
∀v ∈ V, f (u, v) = 0 =⇒ u = 0.
(⇐) On veut montrer enfin que q définie positive implique que f est non dégénérée.
Soit u ∈ V alors
∀v ∈ V, f (u, v) = 0.
En particulier, si u = v, on a :

q(u) = f (u, u) = 0 =⇒ u = 0.

Définition V.24. Une forme hermitienne dont la forme quadratique associée est définie
positive est un produit scalaire hermitien.
46 CHAPITRE V. FORMES HERMITIENNES

Définition V.25. On dit que ϕ est hermitienne ou auto-adjointe si et seulement si


hϕ(u), vi = hu, ϕ(v)i.

Proposition V.26. Soit V un C-espace vectoriel de dimension finie, muni d’un produit
scalaire hermitien h·, ·i.
(i) Soit ϕ : V → V linéaire hermitienne alors f (u, v) = hϕ(u), vi est hermitienne.
(ii) Soit f : V × V → C une forme hermitienne alors il existe une unique V → V
hermitienne (ou auto-adjointe) tel que :

∀u, v, f (u, v) = hϕ(u), vi.

De plus, f est non dégénérée si et seulement si Ker ϕ = {0V }.

Démonstration. (i) On vérifie que f est hermitienne.


a)

hϕ(λu + λu0 ), vi = hλϕ(u) + λ0 ϕ(u0 ), vi


= λhϕ(u), vi + λ0 hϕ(u0 ), vi
= λf (u, v) + λ0 f (u0 , v).

b) On a :
f (v, u) = hϕ(u), vi = hv, ϕ(u)i = ϕ(u), v = f (u, v).
(ii) On se donne f : V × V → C hermitienne. On cherche ϕ : V → V tel que f (u, v) =
hϕ(u), vi. On choisit donc une base (e1 , . . . , en ) orthonormale de V, u = x1 e1 +· · · xn en
et v = y1 e1 + · · · + yn en tel que :
   
x1 y1
 .   . 
X =  .. 

 et Y =  .. 

.
xn yn

On a donc l’écriture matricielle suivante :


T
(f (u, v)) = XT AY = (XT A)Y = Y ,

avec X0 T = XT A (donc X0 = AXT ). On définit ϕ comme l’application linéaire V → V


dont la matrice par rapport à la base (e1 , . . . , en ) est AT . Si u0 = x01 e1 + · · · + x0n en
avec
x01
 

X0 =  .
 ..  ,


x0n
on a : ϕ(u) = u0 ,
T
(f (u, v)) = X0 Y,
V.1. FORMES ET ESPACES HERMETIENS 47

et :

hϕ(u), vi = hx01 , e1 + · · · + x0n en , y1 e1 + · · · + yn en i


n
T
x0i yi = X0 Y = f (u, v).
X
=
i=1

On montre maintenant l’unicité de ϕ. Soient ϕ1 et ϕ2 tel que hϕ1 (u), vi = hϕ2 (u), vi.
Alors pour tout u, v, on a :

hϕ1 (u) − ϕ2 (u), vi = 0.

À cause de la non-dégénérence de ϕ1 et ϕ2 , pour tout u ∈ V, ϕ1 (u) = ϕ2 (u) implique


que ϕ1 = ϕ2 . Donc on a bien unicité de ϕ et :

f (u, v) = hϕ(u), vi.

On a :
f (v, u) = hϕ(v), ui = f (u, v) = hϕ(u), vi = hv, ϕ(u)i.
Donc :
∀u, v, hϕ(u), vi = hv, ϕ(u)i.
On a bien ϕ auto-adjointe et :

Ker f = {u ∈ V, ∀v ∈ V, f (u, v) = 0}
= {u ∈ V, ∀v ∈ V, hϕ(u), vi = 0}
= {u ∈ V, ϕ(u) = 0} = Ker ϕ.

Proposition V.27. Soit V un C-espace vectoriel muni d’un produit scalaire h·, ·i. Soit
ϕ : V → V linéaire. Il existe une unique application ϕ∗ : V → V linéaire telle que :

∀u, v, hϕ(u), vi = hu, ϕ∗ (u)i.

Définition V.28. Dans la proposition V.27, l’application ϕ∗ est appelée l’adjoint de ϕ.

Définition V.29. ϕ est dite hermitienne ou auto-adjointe si ϕ∗ = ϕ.

Démonstration. On se fixe une base (e1 , . . . , en ) orthonormale. Soit A la matrice de ϕ dans


cette base. Soient u = x1 e1 + · · · + xn en , ϕ(u) = x01 e1 + · · · + x0n en et v = y1 e1 + · · · + yn en
avec :
x01
     
x1 y1
 . 
 , Y =  .  , et X0 =  ..  .
 . 
.
 
X=   .  .  .
xn yn x0n
48 CHAPITRE V. FORMES HERMITIENNES

On a ainsi :
n
T
x0i yi = X0 Y = XT AT Y = XT (AT Y)
X
hϕ(u), vi =
i=1

T
On pose A∗ = A . Soit ϕ∗ l’application linéaire dont la matrice est A∗ dans la base
(e1 , . . . , en ). Alors :

T
= XT A Y) = XT (A∗ Y) = hu, ϕ∗ (v)i.

On peut aussi montrer l’unicité de ϕ de la même façon que dans la démonstration


précédente.

Proposition V.30. Soient V un C-espace vectoriel muni d’un produit scalaire hermitien
h·, ·i et une application ϕ : V → V linéaire. ϕ est hermitienne (ou auto-adjointe) si et
seulement si pour tout u ∈ V, hϕ(u), ui ∈ R.

Avant de démontrer la proposition, on aura besoin de ce lemme :

Lemme V.31. Soit ϕ : V → V une application linéaire. On a :

hϕ(u + v), u + vi − hϕ(u − v), u − vi = 2(hϕ(u), vi + hϕ(v), ui).

Démonstration du lemme V.31. On se sert essentiellement de la bilinéarité du produit sca-


laire.

hϕ(u + v), u + vi − hϕ(u − v), u − vi = hϕ(u), ui + hϕ(u), vi + hϕ(v), ui + hϕ(v), vi


− (hϕ(u), ui − hϕ(u), vi − hϕ(v), ui + hϕ(v), vi)
= 2(hϕ(u), vi + hϕ(v), ui)

De cela, on en déduit un corollaire :

Corollaire V.32. Si une application ϕ : V → V linéaire vérifie : ∀u, v ∈ V, hϕ(u), vi = 0


alors ϕ ≡ 0.

Démonstration du corollaire V.32. D’après le lemme V.31,

hϕ(u), vi = −hϕ(v), ui ⇐⇒ hϕ(iu), vi = −hϕ(v), iui


⇐⇒ ihϕ(u), vi = ihϕ(v), ui ⇐⇒ hϕ(u), vi = hhvi, ui.

DOnc si pour tout u, v ∈ V, hϕ(u), vi = 0 alors pour tout u ∈ V, ϕ(u) = 0. Cela implique
que ϕ ≡ 0.
Passons maintenant à la démonstration de la proposition V.30.
V.1. FORMES ET ESPACES HERMETIENS 49

Démonstration de la proposition V.30. a) Si ϕ = ϕ∗ , on a alors pour tout u, v ∈ V :


hϕ(u), vi = hu, ϕ(v)i.
En particulier,
hϕ(u), vi = hu, ϕ(u)i = hϕ(u), ui =⇒ hϕ(u), ui ∈ R.

b) Supposons maintenant que pour tout u ∈ V, hϕ(u), ui ∈ R. Alors, pour tout u, v ∈ V,


hϕ(u), vi = hu, ϕ∗ (v)i =⇒ hϕ(u), ui = hu, ϕ∗ (u)i = hϕ∗ (u), ui ∈ R.
Ainsi, pour tout u ∈ V, hϕ(u) − ϕ∗ (u), ui =⇒ ϕ = ϕ∗ .

Proposition V.33. Soit V un C-espace vectoriel muni d’un produit scalaire hermitien
h·, ·i de dimension finie (dim V = n). Soit W un sous-espace vectoriel de V. On a alors :
dim W + dim Wx = dim V.
Démonstration. Voir la démonstration de la proposition V.19. La proposition reste valable
pour tout forme hermitienne non dégénérée. En particulier : V = W ⊕ Wx .
Théorème V.34. Un espace V muni d’un produit scalaire hermitien de dimension finie
admet une base orthonormée.
Démonstration. La démonstration se fait
qpar réccurence sur la dimension de V. On rappelle
que la norme d’un vecteur v est kvk = hv, vi.
Initialisation Soient dim V = 1 et e ∈ V tel que e 6= 0. On définit :
e e
e1 = q =
he, ei kek

qui est bien de norme 1.


Hérédité Supposons que tout espace de dimension ≤ n − 1 muni d’un produit scalaire
admet une base orthonormale. Soit e1 ∈ V tel que ke1 k = 1. On considère W =
Vect(e1 ). Comme V = dim W ⊕ dim Wx , on a bien : dim Wx = n − 1. La restriction
de h·, ·i à Wx est un produit scalaire h·, ·iWx sur Wx , c’est-à-dire pour u, v ∈ Wx , on
a:
hu, viWx = hu, vi. (V.2)
De plus :
hλu + λ0 u, viWx = hλu + λ0 u, vi
= λhu, vi + λ0 hu0 , vi
= λhu, viWx + λ0 hu0 , viWx ,
et
hv, uiWx = hv, ui = hu, vi = hu, viWx
50 CHAPITRE V. FORMES HERMITIENNES

De part la propriété (V.2), on a les propriétés suivantes, pour tout u, v ∈ V, :

hu, viWx = hu, vi ≥ 0 et hu, viWx = 0 ⇐⇒ hu, vi = 0.

Par hypothèse de réccurence, il existe (e2 , . . . , en ) base orthogonale de Wx . Alors la base


(e1 , . . . , en ) est une base orthogonale de V. On remarque qu’elle est aussi orthonormée car
on a prit kei k = 1.

Définition V.35. Un espace hermitien est un C-espace vectoriel de dimension finie et


muni d’un produit scalaire hermitien.

Théorème V.36. Soit V un espace hermitien et ϕ : V → V une application linéaire


hermitienne.
(i) Les valeurs propres de ϕ sont réelles.
(ii) Si λ, µ sont des valeur propres tels que µ 6= λ et si Vλ = Ker(ϕ − λ id) et Vµ =
Ker(ϕ − µ id) alors :

∀u, v, u ∈ Vλ , v ∈ Vµ , hu, vi = 0.

(iii) Si W ⊂ V est stable par ϕ (c’est-à-dire ϕ(W) ⊂ W) alors Wx est stable par ϕ.
(iv) ϕ est diagonalisable dans une base orthonormale.

Démonstration. (i) Comme ϕ est hermitienne, c’est-à-dire que A est inversible, il existe
u ∈ V, u 6= 0 tel que ϕ(u) = λu. Ainsi,

hϕ(u), ui = hλu, ui = λhu, ui.

Comme hϕ(u), ui ∈ R et hu, ui =6 0 car u 6= 0, on a ainsi : λ ∈ R.


(ii) Soient λ 6= µ deux valeurs propres disctintes, u ∈ Vλ (c’est-à-dire ϕ(u) = λu) et
v ∈ Vµ (c’est-à-dire ϕ(v) = µv). On a :

λhu, vi = hϕ(u), vi = hu, ϕ(v)i = hu, µvi = µhu, vi = µhu, vi.

Donc :
(λ − µ)hu, vi = 0.
Or, comme on avait λ 6= µ, cela implique que hu, vi = 0.
(iii) On suppose que ϕ(W) ⊂ W. Soit v ∈ Wx . Alors pour tout u ∈ W :

hϕ(v), ui = hv, ϕ(u)i = 0.

Or comme v ∈ Wx et ϕ(u) ∈ W, on a : ϕ(v) ∈ Wx .


V.2. AUTOMORPHISMES UNITAIRES 51

(iv) Le polynôme caractéristique de ϕ se décompose totalement sur C. Soit λ1 une


valeur propre et :
Vλ1 = Ker(ϕ − λ1 id) 6= {0}.
On a ainsi Vλ1 x est un espace supplémentaire de Vλ1 et dim Vλ1 x < dim V. Par
réccurence sur la dimension, on pose p = dim Vλ1 , q = dim Vλ1 x et n = p+q = dim V,
il existe une base orthonormale de Vλ1 x , (e1 , . . . , eq ) formée de ecteur propres, c’est-
à-dire pour tout 1 ≤ j ≤ q, ϕ(ej ) = µj ej . Il existe aussi une base (f1 , . . . , fp )
orthonormale de Vλ1 tel que ϕ(fi ) = λi fi . Ainsi, (f1 , . . . , fp , e1 , . . . , eq ) forme une
base orthonormale de V. La matrice de ϕ dans cette base est :
 
λ1
 .. 

 . 

λp
 
 
 .

 µ1 


 ... 

 
µq

Corollaire V.37. Soit V un espace hermitien et f : V × V → C une forme hermitienne.


Alors il existe une base (e1 , . . . , en ) orthonormale pour le produit scalaire tel que f s’exprime
de la façon suivante :
n
X
f (u, v) = λ j xj y j
j=1

avec u = x1 e1 + · · · + xn en et v = y1 e1 + · · · + yn en .
Démonstration. Il existe ϕ autoadjoint tel que pour tout u, v ∈ V, f (u, v) = hϕ(u), vi. Il
existe une base orthonormale (e1 , . . . , en ) tel que ϕ(ej ) = λj ej . Soit : u = x1 e1 + · · · + xn en
et v = y1 e1 + · · · + yn en . On a ainsi :
n
X
f (u, v) = hx1 λ1 e1 + · · · + xn λn en , y1 e1 + · · · + yn en i = λj xj yj .
j=1

V.2 Automorphismes unitaires

Définition V.38. Soit U un espace hermitien, f : U → U un endomorphisme. f est


unitaire si et seulement si pour tout u, v ∈ U, hf (u), f (v)i = hu, vi.
Remarque V.39. Cela implique que pour tout u ∈ U,

kf (u)k2 = hf (u), f (u)i = hu, ui = kuk2 .

Un endomorphisme unitaire conserve la norme.


52 CHAPITRE V. FORMES HERMITIENNES

Lemme V.40. Un endomorphisme unitaire est un automorphisme.


Démonstration. Si u ∈ U tel que f (u) = 0, on a :

0 = kf (u)k = kuk =⇒ u = 0.

Ainsi, Ker(f ) = {0} donc f est une application linéaire U → U injective donc, comme U
est de dimension finie, bijective.
Théorème V.41. Soit f : U → U un automorphisme unitaire :
(i) Les valeurs propres de f sont des nombres complexes de module 1.
(ii) Si λ et µ sont deux valeurs propres distinctes de f alors Uλ et Uµ sont en somme
directe.
(iii) Si V ⊂ U tel que f (V) ⊂ V alors f (V⊥ ) ⊂ V⊥ .
(iv) Il existe une base orthonormale de U formée de vecteurs propres.
Démonstration. (i) Si λ est une valeur propre de f alors il existe u ∈ U, u 6= 0 tel que
f (u) = λu. On a alors :

hf (u), f (u)i = hu, ui ⇐⇒ hλu, λui = hu, ui


⇐⇒ λλhu, ui = hu, ui ⇐⇒ λλ = 1.

– (ii) Soient λ et µ deux valeurs propres distinctes. Il existe donc u 6= 0 tel que f (u) =
λu et v 6= 0 tel que f (v) = µv. On a :

hf (u), f (v)i = hu, vi ⇐⇒ hλu, µvi = hu, vi


⇐⇒ λµhu, vi = hu, vi

Comme λ 6= µ alors λµ−1 6= 1 donc :

⇐⇒ hu, vi(1 − λµ) = 0 ⇐⇒ hu, vi = 0.

(iii) Soit V ⊂ U. Si f (V) ⊂ V alors f (V) = V. Soient u ∈ V⊥ et w ∈ V = f (u). Donc


il existe v ∈ V tel que f (v) = w. On a ainsi :

hf (u), wi = hf (u), f (v)i = hu, vi = 0.

Or, comme u ∈ V⊥ et v ∈ V, on a bien : f (u) ∈ V⊥ .


(iv) La démonstration se fait par réccurence sur les dimensions en utilisant les pro-
priétés (ii) et (iii). Soient λ1 une valeur propre et Uλ1 = Ker(f − λ1 id). Comme
U = Uλ1 ⊕ U⊥ ⊥ ⊥
λ1 , on a : f (Uλ1 ) = Uλ1 =⇒ f (Uλ1 ) = Uλ1 . On considère g = f |U⊥ est
λ1
un automorphisme unitaire. On applique finalement l’hypothèse de réccurence à g et
U⊥ ⊥
λ1 (dim Uλ1 = dim U − dim Uλ1 < dim U).
CHAPITRE VI

COMPLEXIFICATION D’UN ESPACE EUCLIDIEN

VI.1 Complexifié d’un espace vectoriel réel

On considère C comme un R-espace vectoriel de dimension 2 et de base (1, i). C’est-à-


dire que tout nombre complexe s’écrit de façon unique comme x + iy avec x, y ∈ R.
Maintenant soit U un R-espace vectoriel, on considère LR (U, C). On a ainsi :

dimR LR (U, C) = 2 dimR U.

On montre que LR (U, C) est un C-espace vectoriel. Soit λ ∈ C et f : U → C, R-linéaire.


On veut savoir si λf ∈ LR (U, C). Soit α ∈ R :

(λf )(αu) = λf (αu) = λαf (u) = α(λf (u)) = α(λf )(u).

Lemme VI.1. On a :
dimC LR (U, C) = dimR U.
Précisément, soit (e1 , . . . , en ) une base de U sur R et (e∗1 , . . . , e∗n ) ∈ LR (U, C) définie
par e∗i (ej ) = δij . On a (e∗1 , . . . , e∗n ) est une base de LR (U, C).
Démonstration. 1. On montre que (e∗1 , . . . , e∗n ) est une partie génératrice de LR (U, C).
Soit ϕ ∈ LR (U, C) et λi = ϕ(ei ) ∈ C. Alors :

ϕ = λ1 e∗1 + · · · + λn e∗n .

2. On montre enfin que (e∗1 , . . . , e∗n ) est une famille libre de LR (U, C). On suppose que :

λ1 e∗1 + · · · + λn e∗n = 0.

Alors, soit 1 ≤ i ≤ n, l’image de ei s’exprime :

λ1 e∗1 (ei ) + · · · + λi−1 e∗i−1 (ei ) + λi e∗i (ei ) + λi+1 e∗i+1 (ei ) + · · · + λn e∗n (ei ) = 0

implique que λi e∗i (ei ) = 0 et implique ainsi que λi = 0. Ce qui fait que (e∗1 , . . . , e∗n )
est une famille libre de LR (U, C).

53
54 CHAPITRE VI. COMPLEXIFICATION D’UN ESPACE EUCLIDIEN

Définition VI.2. Soit U un R-espace vectoriel. On appelle le complexifié de U :

UC = (LR (U, C))∗C .

UC est un C-espace vectoriel de même dimension que U.

Définition VI.3. On définit l’application :

∗∗ : U → UC
u 7→ u∗ ∗

telle que pour tout ϕ ∈ LR (U, C,),

u∗ ∗ (ϕ) = ϕ(u).

Théorème VI.4. (i) L’application

∗∗ : U → UC
u 7→ u∗ ∗

est R-linéaire et injective. De plus, l’image d’un système libre de R est un système
libre sur C. En particulier, si (e1 , . . . , en ) est une base de U sur R, (e∗∗ ∗∗
1 , . . . , en ) est
une base de UC sur C.
(ii) Tout vecteur de UC s’écrit de façon unique : u∗ ∗ + iv ∗ ∗ avec u, v ∈ C.
(iii) Pour tout C-espace vectoriel W et toute application R-linéaire f : U → W, il existe
une une application C-linéaire f˜ : UC → W tel que le diagramme suivant est com-
mutatif :
f
U /W .
{{=
{{
∗∗ {{
 {{ f˜
UC

(iv) Soit f : U → V une application R-linéaire où U et V sont des espaces vectoriels réels
de dimension finie sur R, il existe alors une unique application C-linéaire fC : UC →
VC tel que :
f
U /V

∗∗ ∗∗
 fC 
UC / VC

Démonstration. (i) Soient α, β ∈ R et u, v ∈ U. On montre que (αu + βv)∗ ∗ = αu∗ ∗ +


βv ∗ . On a, par définition, si ϕ ∈ LR (U, C,) :

(αu + βv)∗ ∗ (ϕ) = ϕ(αu + βv) = αϕ(u) + βϕ(v) = αu∗ ∗ (ϕ) + βv ∗ ∗ (ϕ).
VI.1. COMPLEXIFIÉ D’UN ESPACE VECTORIEL RÉEL 55

Ainsi, ∗∗ est R-linéaire. Soient (e1 , . . . , en ) un système libre sur R et λ1 , . . . , λk ∈ C :

λ1 e∗1 ∗ + · · · + λk e∗k ∗ = 0.

On pose λj = αj + iβj avec αj , βj ∈ R. Alors pour tout LR (U, C),

λ1 ϕ(e1 ) + · · · + λk ϕ(ek ) = 0 =⇒ (α1 + iβ1 )ϕ(e1 ) + · · · + (αk + iβk )ϕ(ek ) = 0


=⇒ α1 ϕ(e1 ) + · · · + αk ϕ(ek ) + i(β1 ϕ(e1 ) + · · · + βk ϕ(ek )).

On a alors, pour tout ϕ ∈ U∗ :

ϕ(α1 e1 + · · · + αk ek ) = 0
ϕ(beta1 e1 + · · · + βk ek ) = 0.

Ainsi,  
α + · · · + αk ek = 0
1 e1
α = α2 = · · · = αk = 0
1
=⇒ .
β1 e1 + · · · + βk ek = 0 β1 = β2 = · · · = βk = 0

Cela implique que pour tout j, λj = 0.


(ii) Soient w ∈ UC = (LR (U, C))∗C et (e1 , . . . , en ) une base de U sur R. Il existe
λ1 , . . . , λn ∈ C tel que :
w = λ1 e∗1 ∗ + · · · + λn e∗n ∗ .
On pose λj = αj + iβj , αj , βj ∈ R.

w = (α1 + iβ1 )e∗1 ∗ + · · · + (αn + iβn )e∗n ∗


= (α1 e∗1 ∗ + · · · + αn e∗n ∗ ) + i(β1 e∗1 ∗ + · · · + βn e∗n ∗ )
= u∗ ∗ + iv ∗ ∗ ,

avec u = α1 e1 + · · · + αn en et v = β1 e1 + · · · + βk ek ∈ U. On montre maintenant


l’unicité de l’écriture . Soit u∗ ∗ + iv ∗ ∗ = 0 dans UC avec u, v ∈ U alors u = v = 0. En
effet, pour tout ϕ ∈ LR (U, C) :

(u∗ ∗ + iv ∗ ∗ )(ϕ) = 0 =⇒ ϕ(u) + iϕ(v) = 0.

En particulier, pour tout ϕ ∈ U∗ ,

ϕ(u) + iϕ(v) = 0 =⇒ ϕ(u) = ϕ(v) = 0 =⇒ u = v = 0.

(iii) Nécessairement : f˜(u∗ ∗ ) = f (u). On définit f˜ par les relations :

∀u, v, f˜(u∗ ∗ + iv ∗ ∗ ) = f (u) + if (v).

f˜ ainsi définie est bien C-linéaire.


56 CHAPITRE VI. COMPLEXIFICATION D’UN ESPACE EUCLIDIEN

(iv) Soit g définie par le diagramme suivant :

f
U DD /V .
DD g
DD
DD
 ! 
UC /V
C

On a ainsi g R-linéaire.

Remarque VI.5. Pour (iv), si on a f1 : U → V et f2 : V → W R-linéaire. On a :

(f2 ◦ f1 )C → (f2 )C ◦ (f1 )C .

f2 ◦f1
U EE /W
EE yy<
EE y
E yy
f1 EE yyy f2
" y
V


= VC D DD f
{{ DD 2 C
{{
f1 C
{{ DD
 {{ D" 
UC(f /W
C
1 )C ◦(f2 )C =(f2 ◦f1 )C

Remarque VI.6. Si (e1 , . . . , en ) est une base de U et (f1 , . . . , fn ) est une base de V. Soit
A la matrice de f : U → V dans ces bases. La matrice de fC dans les bases (e∗1 ∗ , . . . , e∗n ∗ )
et (f1∗ ∗ , . . . , fn∗ ∗ ) est encore A.

Démonstration. On a :
n
X
f (ej ) = aij fi , aij ∈ R,
i=1

n n
!
∗∗
fC (e∗j ∗ ) aij fi∗ ∗ aij fi∗ ∗ .
X X
= f (ej ) = =
i=1 i=1

Dans la suite, on identifiera U et son image dans UC .

U →
7 UC
u → u∗ ∗

On posera uC = u. Tout vecteur de UC s’écrit de façon unique u + iv avec u, v ∈ U.


VI.2. COMPLEFIXIÉE D’UNE FORME BILINÉAIRE SYMÉTRIQUE 57

VI.2 Complefixiée d’une forme bilinéaire symétrique

Proposition VI.7. Soit f : U × U → R bilinéaire symétrique alors il existe une unique fC


une forme hermitienne qui va de UC ×UC → C qui prolonge f , c’est-à-dire ∀u, v ∈ U ⊂ UC
qui prolonge f , c’est-à-dire pour tout u, v ∈ U ⊂ UC , fC (u, v) = f (u, v).

Démonstration. Si g : UC × UC → C est auto-adjointe et vérifiant g(u, v) = f (u, v) pour


u, v ∈ U. Nécessairement,

g(u + iu0 , v + iv 0 ) = g(u, v) − ig(u, v 0 ) + ig(u0 , v) + g(v, v 0 )


= f (u, v) − if (u, v 0 ) + if (u0 , v) + f (u0 , v)

Donc on a unicité. Inversement on vérifie que cette formule définie bien une forme hermi-
tienne qui répond à la question.

Proposition VI.8. Soit (e1 , . . . , en ) une base de U, f bilinéaire symétrique U × U → R.


(i) La matrice de fC dans la base (e1 , . . . , en ) de UC est égale à la matrice de f dans la
base (e1 , . . . , en ) de U.
(ii) rg(fC ) = rg(f ). En particulier, fC est non dégénérée ⇔ f est non dégénérée.
(iii) qC est positive si et seulement si q est positive et qC est définie positive si et seulmenet
si q est définie positive.

Démonstration. (i) La matrice de fC est caractérisée par (fC (ei , ej )) mais d’après la
proposition VI.7, pour tout 1 ≤ i, j ≤ n, fC (ei , ej ) = f (ei , ej ). Donc : (fC (ei , ej )) =
(f (ei , ej )). C’est donc égale à A la matrice de f .
(ii) On a alors rg fC = rg(A) = rg(f ). Si le rang est maximal alors Ker f = Ker fC = 0.
(iii)

qC (u + iu0 ) = fC (u + iu0 , u + iu0 ) = fC (u, u) − ifC (u, u0 ) + ifC (u0 , u) + fC (u0 , u0 )


= f (u, u) − if (u, u0 ) + if (u0 , u) + f (u0 , u0 ) = q(u) + q(u0 ).

VI.3 Complexifié d’un espace euclidien

Soit U un espace euclidien muni de son produit scalaire h·, ·i. On note h·, ·iC la forme
hermitienne associée à h·, ·i. D’après la proposition VI.8, h·, ·iC est un produit scalaire
hermitien. On a que (UC , h·, ·iC ) est un produit scalaire hermitien.

Proposition VI.9. Soit V ⊂ U un sous-espace de l’espace euclidien. On considère

(V⊥ )C ⊂ UC .
⊥UC
(i) (V⊥U )C = VC .
58 CHAPITRE VI. COMPLEXIFICATION D’UN ESPACE EUCLIDIEN

(ii) Si (e1 , . . . , en ) est une base orthonormale de U alors (e1 , . . . , en ) une base orthonor-
male de UC .
Démonstration. Soit u, v ∈ U alors on a : hu, viC = hu, vi. En particulier, u ⊥ v ∈ U ⇔
u ⊥ v ∈ UC .
Proposition VI.10. Soient U un espace euclidien et f : U → U une application.
f ∗ C = (fC )∗ ,
avec f ∗ l’autoadjoint de f . Les propositions suivantes sont équivalentes :
(i) f auto-adjoint,
(ii) fC auto-adjoint,
(iii) f = f ∗ ,
(iv) fC = (f ∗ )C = (fC )∗ .
Démonstration. Pour tout u, v ∈ U,
hf (u), vi = hu, f ∗ (v)i ⇐⇒ hf (u), viC = hu, f ∗ (v)iC
⇐⇒ hfC (u + iu0 ), v + iv 0 iC = hu + iu0 , (f ∗ )C (v + iv 0 )iC ,
et ceci pour tout u + iu0 et v + iv 0 . Cela implique que (f ∗ )C = (fC )∗ .
Proposition VI.11. Soient U un espace euclidien et f : U → U auto-adjoint. On lui
associe fC : UC → UC auto-adjoint (d’après la proposition VI.10). Soient (λ1 , . . . , λr ) des
valeurs réelles propres de fC , W et pour tout 1 ≤ i ≤ r, Wi = Ker(fC − λi id) ⊂ fC ,
Vi = Ker(f − λi id) ⊂ U. Alors pour tout 1 ≤ i ≤ n, Wi est engendré par Vi . On a de
plus :
1. dimC Wi = dimR Vi ,
L
2. U = 1≤i≤r Vi est en somme directe orthogonale,
3. f est diagonalisable dans une base orthogonale de U.
Démonstration. On a tout d’abord Vj ⊂ Wj . Soit u + iv ∈ Wj :
f (u + iv) = f (u) + if (v) .
| {z } | {z }
=λj (u+iv) =λj u+iλj v

Cela implique que f (u) = λj u et f (v) = λj v. Donc pour tout u, v ∈ V, Wj est bien
engendré sur C par Vj .
Soit (e1 , . . . , ek ) une base de Vj sur R alors (e1 , . . . , ek ) est un système générateur de
Wj sur C. (ei , . . . , ek ) est libre dans U implique que (e1 , . . . , ek ) est libre dans UC . On
a alors (e1 , . . . , ek ) est une base de Wj sur C. Donc k = dimR Vj = dimC Wj . Comme
UC = ⊕1≤i≤r Wj est en somme directe orthogonale, on a alors :
X X
dimC UC = dimC Wj = dimR U = dimR Vj .
1≤j≤r 1≤j≤r
VI.3. COMPLEXIFIÉ D’UN ESPACE EUCLIDIEN 59

Proposition VI.12. Soit U un espace euclidien, f : U → U. f est orthogonale si et


seulement fC est unitaire.
Démonstration. f est orthogonale si et seulement si f ◦ f ∗ = idU ⇔ fC = (fC )∗ si et
seulement si fC est unitaire.
Proposition VI.13. Soient f : U → U automorphisme orthogonale et λ = eiθ ∈ C tel que
λ2 6= 1 une valeur propre de fC . Soit w = u + iv ∈ fC un vecteur propre de fC pour λ.
Alors :
(i) (u, v) est un système libre dans U et hu, vi = 0.
(ii) VectU (u, v) est stable par f et la matrice de f dans la base (u, v) de Vect(u, v) est :
!
cos θ sin θ
.
− sin θ cos θ

Démonstration. (i) Soit λ une valeur propre de fC et w ∈ fC tel que fC (w) = λw. On
pose w = u + iv. On a alors :

fC (w) = λw = fC (w.

Si λ2 6= 1, cela voudrait dire que λ 6= λ. On a alors hw, wiC = 0.

hu + iv, u − iviC = hu, ui + iu, v + iv, u − hv, vi


= hu, ui − hv, vi + 2ihu, vi = 0

Cela implique donc que hu, vi et kuk = kvk. D’autre part, VectUC (w, w) est engendré
sur C par v et v. Cela entraine que (u, v) est un système libre.
(ii)
w+w 1 1
 
f (u) = f = (fC (w) + wC ) = (λw + λw).
2 2 2
Comme |λ| = 1, on peut écrire λ = cos θ + i sin θ et :

λw = λ(u + iv) = (cos θ + i sin θ)(u + iv)


= u cos θ − v sin θ + i(v cos θ + u sin θ).

On a ainsi :

f (u) = u cos θ − v sin θ,


f (v) = v sin θ + v cos θ

et la matrice de f dans la base (u, v) de Vect(u, v) est :


!
cos θ sin θ
− sin θ cos θ
60 CHAPITRE VI. COMPLEXIFICATION D’UN ESPACE EUCLIDIEN

Théorème VI.14. Soient U un espace euclidien, f : U → U orthogonal. Alors U peut se


décomposer en somme directe orthogonale :
M
U= Uθi ⊕ U1 ⊕ U−1 ,
θi

avec
U1 = Ker(f − id), U−1 = Ker(f + id),
et pour tout i, dim Uθi = 2ri est paire. De plus, pour tout i, il existe une base orthonormale
de Uθi dans laquelle la matrice f s’écrit
 
1

 ... 

 
1
 
 
 

 −1 

 .. 

 . 

−1
 
 
 

 B1 


 ... 

 
Bn
tel que, pour tout 1 ≤ i ≤ n :
 
A(θi )

 A(θi ) 

Bi =  ..  et dim Bi = 2ri × 2ri .

 . 

A(θi )
Démonstration. On considère le complexifié de f , fC . Soient p = dim Ker(fC − id) et q =
dim ker(fC + id). Soient λ1 , . . . , λr des valeurs propres de fC tel que, pour tout 1 ≤ i ≤ r,
λi 6= 1, on définit :
Wλj = Ker(f − λj id) et kj = dimC Wλj .
On choisit une base orthonormale (w1 , . . . , wkj ) de Wλj . On a ainsi W = Wλj ⊕ Wλj tel que
λj 6= λj . Une base de cet espace est (w1 , . . . , wkj , w1 , . . . , wkj ). Si on considère w0 = u0 + iv0
alors la base précédente devient (u1 , v1 , u2 , v2 , . . . , ukj , vkj ) et le matrice de f dans cette base
est Bj .

VI.4 Orientation d’un espace vectoriel réel et angle de rotation

Soient U un espace vectoriel réel tel que dimR U = n et (e1 , . . . , en ), (e01 , . . . , e0n ) deux
bases de U. On définit la relation ∼ d’équivalence suivante :
(e1 , . . . , en ) ∼ (e01 , . . . , e0n ) ⇐⇒ det (e01 , . . . , e0n ) > 0.
(e1 ,...,en )
VI.4. ORIENTATION D’UN ESPACE VECTORIEL RÉEL ET ANGLE DE ROTATION61

Définition VI.15. On a deux classes d’équivalence pour ∼. Si on choisit une de ces deux
classes, on définit une ortientation dans l’espace U. Si on se limite à des bases orthogonales
alors :
det (e01 , . . . , e0n ) = ±1.
(e1 ,...,en )

On dit que l’orientation choisit est directe si

det (e01 , . . . , e0n ) = 1,


(e1 ,...,en )

et indirecte si
det (e01 , . . . , e0n ) = −1.
(e1 ,...,en )

Si (e1 , . . . , en ), (e01 , . . . , en ) sont deux bases orthonormales, on redéfinira la relation ∼


d’équivalence précédente par :

(e1 , . . . , en ) ∼ (e01 , . . . , e0n ) = det (e1 , . . . , en ) = 1.


(e01 ,...,e0n )

Définition VI.16. Une orientation étant choisie, on définit le produit mixte de n vecteurs
(v1 , . . . , vn ) comme étant :

[v1 , . . . , vn ] = det (v1 , . . . , vn ).


(e1 ,...,en )

où (e1 , . . . , en ) est une base orthonormale directe.

Remarques VI.17. 1. Si (e01 , . . . , e0n ) est une autre base orthonormale directe alors :

det (v1 , . . . , vn ) = det (e1 , . . . , en ) det (v1 , . . . , vn ) = dim(e1 ,...,en ) (v1 , . . . , vn ).


(e01 ,...,e0n ) (e01 ,...,e0n ) (e1 ,...,en )
| {z }
1

On a l’équivalence suivante :

(v1 , . . . , vn ) libre ⇐⇒ [v1 , . . . , vn ] = 0.

Proposition VI.18. Soit v1 , . . . , vn−1 ∈ U et dim U = n. Il existe un unique vecteur


v1 ∧ v2 ∧ · · · ∧ vn−1 ∈ U tel que pour tout u ∈ U :

hv1 ∧ v2 ∧ · · · ∧ vn−1 , ui = [v1 , . . . , vn−1 , u].

De plus, on a l’équivalence suivante :

v1 ∧ · · · ∧ vn−1 = 0 ⇐⇒ (v1 , . . . , vn−1 ) est un système de vecteurs liés.


62 CHAPITRE VI. COMPLEXIFICATION D’UN ESPACE EUCLIDIEN

v2

e2

θ
e1 v1

Fig. VI.1 – Angle θ de v1 et v2

Exemple VI.19. Soit U = R3 et v1 , v2 deux vecteurs dans R3 . On prend e1 tel que


v1 = kv1 ke1 , e2 tel que (e1 , e2 ) est une base orthonormale de Vect(v1 , v2 ) et e3 tel que
(e1 , e2 , e3 ) soit une base orthonormale directe. L’angle θ de (v1 , v2 ) est tel que :

v2 = kv2 k(cos θe1 + sin θe2 ).

On a ainsi :

v1 ∧ v2 = kv1 kkv2 ke1 ∧ (e1 cos θ + e2 sin θ) = kv1 kkv2 k(e1 ∧ e2 ) sin θ. (VI.1)

e1 ∧ e2 = e3 car :
1. e1 ∧ e2 ∈ Vect(v1 , v2 )⊥ = Vect(e1 , e2 ), he1 ∧ e2 i = [e1 , e2 , e1 ] = 0 et he1 ∧ e2 , e2 i =
[e1 , e2 , e2 ] = 0.
2. [e1 , e2 , e1 ∧ e2 ] = he1 ∧ e2 , e1 ∧ e2 i = 1 ⇔ (e1 , e2 , e1 ∧ e2 ) est une base orthonormale
directe.
Donc :
(VI.1) ⇐⇒ v1 ∧ v2 = kv1 kkv2 ke3 sin θ.

Remarque VI.20 (Angle d’une rotation). Soient V un espace euclidien de dimension 2


et (u, v) une base orthonormale directe de V. Si f est une rotation alors la matrice de f
dans (u, v) est !
+ cos θ − sin θ
A = .
sin θ cos θ
VI.4. ORIENTATION D’UN ESPACE VECTORIEL RÉEL ET ANGLE DE ROTATION63

f (u)

θ
u

−v

Fig. VI.2 – Angle entre u et f (u)

On appelle θ l’angle de la rotation mais cela dépend de l’orientation. Si (u, v) est directe
alors (u, −v) est indirecte. La matrice de f dans (u, −v) est :
!
− cos θ sin θ
A =
− sin θ cos θ

Si (u, v) et (u0 , v 0 ) sont deux bases orthonormales directes et f une rotation alors A+
(u,v) =
+
A(u0 ,v0 ) .
Index

adjoint, 27, 47 positive, 22, 45


anti-déplacement, 37 signature, 34
application forme polaire
bilinéaire, 15 rang, 31
anti-symétrique, 19
symétrique, 19 groupe
linéaire spécial orthogonal, 37
orthogonale, 30 isométrie
auto-adjointe (ou hermitienne), 46 directe, 37
autoadjoint, 28 indirecte, 37
automorphisme vectorielle, 36
unitaire, 51
noyau
base duale, 8 à droite, 18
bidual, 9 à gauche, 18
complexifié, 54 orientation
d’un espace euclidien, 61
déplacement, 37
directe, 61
espace indirecte, 61
dual, 6 orthogonal, 43
euclidien, 25 d’un sous-espace, 10
hermitien, 50 du dual, 10
par rapport à un espace, 19, 44
forme
bilinéaire, 15 produit
non dégénérée, 19 mixte, 61
hermitienne, 41 produit scalaire, 23
non dégénérée, 43 hermitien, 45
polaire relation
euclidienne, 21 d’équivalence, 2
hermitienne, 41 retournement, 37
quadratique rotation, 37
définie positive, 22, 45
euclidienne, 21 symétrie orthogonale, 37
hermitienne, 41 symbole

64
INDEX 65

Kronecker, 8
système de vecteurs
base orthonormale, 26
orthogonal, 26
orthonormale, 26

théorème
de la base incomplète, 1
transposée, 6

Das könnte Ihnen auch gefallen