Beruflich Dokumente
Kultur Dokumente
MATRICES
1. Matrices
1.1. Premières définitions. Les matrices sont des tableaux de nombres très pra-
tiques pour résoudre divers problèmes d’algèbre liés à l’étude d’applications linéaires
ou de systèmes linéaires. Elles interviennent aussi de manière fondamentale dans
des problèmes de géométrie et de topologie (via les groupes de matrices). Les ma-
trices peuvent être à coefficients dans un corps quelconque. Rappelons quelques
définitions de base :
Définition 1.1. Une matrice de taille m × n à coefficients dans K est un tableau
d’éléments de K à m lignes et n colonnes. Elle est représentée sous la forme
a1,1 a1,2 · · · a1,j · · · a1,n
a2,1 a2,2 · · · a2,j · · · a2,n
··· ··· ··· ··· ··· ···
A=
ai,1 ai,2 · · · ai,j · · · ai,n
··· ··· ··· ··· ··· ···
am,1 am,2 · · · am,j · · · am,n
ou A = (ai,j )1≤i≤m,1≤j≤n = (ai,j ). Le scalaire ai,j est le coefficient situé à la i-ème
ligne et à la j-ème colonne.
On note Mm,n (K) l’ensemble des matrices à coefficients dans K. Certaines ma-
trices ont une dénomination particulière, notamment :
• La matrice nulle, notée 0, est la matrice dont tous les coefficients sont nuls.
• Lorsque m = n, la matrice est dite matrice carrée, et l’ensemble des matrices
carrées de taille n × n est noté Mn (K). Sur une telle matrice
a1,1 a1,2 · · · a1,n
a2,1 a2,2 · · · a2,n
.. .. .. ..
. . . .
an,1 an,2 · · · an,n
les coefficients ai,i forment ce que l’on appelle la diagonale de cette matrice.
Notons par ailleurs que l’on appelle matrice diagonale une matrice carrée
dont tous les coefficients hors de la diagonale sont nuls.
1
CHAPITRE 2. MATRICES 2
• Une matrice carrée dont tous les coefficients situés en-dessous de sa diagonale
sont nulle est une matrice triangulaire supérieure. Une matrice carrée dont
tous les coefficients situés au-dessus de sa diagonale sont nulle est une matrice
triangulaire inférieure.
• La matrice identité, un cas particulier de matrice diagonale notée
1 0 ··· 0
0 1 · · · 0
I = . . .
.. .. . . ...
0 0 ··· 1
Son nom vient du fait qu’il s’agit de la matrice associée à l’application identité
sur un espace vectoriel de dimension n.
• Une matrice à une seule colonne est appelée matrice colonne ou vecteur co-
lonne, et une matrice à une seule ligne est appelée matrice ligne ou vecteur
ligne.
Proposition 1.2. L’ensemble Mm,n (K) forme un espace vectoriel, avec la multi-
plication par un scalaire définie coefficient par coefficient
(λA)ij = λaij
Proposition 1.4. (1) Le produit de matrices est associatif et distributif par rapport
à l’addition.
(2) Pour toute matrice A on a A.0 = 0.A = 0.
(3) Pour toute matrice A on a AI = IA = A (où I est la matrice identité définie
plus haut).
Pp
Le coefficient d’indice (l, j) de la matrice BC est k=1 blk ckj , donc le coefficient
d’indice (i, j) de A(BC) est
p
n
!
X X
ail blk ckj .
l=1 k=1
La multiplication est associative et distributive dans K donc les coefficients de
(AB)C et A(BC) coïncident.
Remarque 1.5. Attention ! Le produit de matrices n’est pas commutatif, en général
AB 6= BA. De plus, toute matrice n’est pas inversible pour la multiplication. Il
existe des matrices A, B, C telles que AB = AC mais B 6= C, et des matrices A, B
telles que A 6= 0, B 6= 0 et AB = 0.
Remarque 1.6. Le produit d’un vecteur ligne u = u1 · · · un par un vecteur
v1
..
colonne . est le scalaire u1 v1 + · · · + un vn . Lorsque K = R, on verra dans le
vn
chapitre sur les espaces euclidiens qu’il s’agit en fait du produit scalaire canonique
de u et v vus comme vecteurs de Rn .
Lorsqu’on restreint la multiplication aux matrices carrées n × n, on obtient une
application linéaire Mn (K) × Mn (K) → Mn (K). En particulier, il y a un sens à
parler de puissances d’une matrice carrée A0 = I, A1 = A, · · · , Ap+1 = Ap × A, · · · ,
et celles-ci vérifient la formule du binôme de Newton :
Proposition 1.7. Soient A, B ∈ Mn (K), alors pour tout entier naturel p on a
p
X
p
k Ap−k B k .
(A + B) = p
k=0
1.2. Transposition.
Définition 1.8. La transposée d’une matrice de taille m × n
a1,1 a1,2 · · · a1,n
a2,1 a2,2 · · · a2,n
A= .
.. .. ..
.. . . .
am,1 am,2 · · · am,n
est la matrice t A de taille n × m définie par
a1,1 a2,1 ··· am,1
a1,2 a2,2 ··· am,2
t
A= . .. .
.. ..
.. . . .
a1,n a2,n ··· am,n
L’opération de transposition satisfait les propriétés suivantes :
Proposition 1.9. Soient A et B deux matrices n × n. Alors
(1) t (A + B) = t A + t B
(2) t (λA) = λt A
(3) tt A = A
(4) t (AB) = t B t A
CHAPITRE 2. MATRICES 4
Remarque 1.11. Les éléments diagonaux d’une matrice antisymétrique sont forcé-
ment nuls, puisqu’on a aii = −aii pour tout 1 ≤ i ≤ n.
Exemple 1.12. Toute matrice est la somme d’une matrice symétrique et d’une
matrice antisymétrique. En effet, soit A une matrice, posons
1
B= (A + t A)
2
et
1
C= (A − t A).
2
Alors on a
1
B+C = (A + t A + A − t A) = A,
2
1t 1 1
tB = (A + t A) = (t A + tt A) = (t A + A) = B
2 2 2
et
t 1t 1 1
C= (A − t A) = (t A − tt A) = (t A − A) = −C.
2 2 2
1.3. Conjugaison. Dans cette sous-section, on suppose que K = C (les matrices
sont donc à coefficients complexes). On peut alors introduire la notion de conjugai-
son pour une matrice :
Les matrices invariantes par rapport à (−)∗ forment une classe importante des
matrices à coefficients complexes sur lesquelles on reviendra plus tard dans le cours :
Définition 1.15. (1) Une matrice A ∈ Mn (C) est dite hermitienne ou auto-adjointe
si A = A∗ .
(2) Une matrice A ∈ Mn (C) est dite antihermitienne si A = −A∗ .
Lorsqu’on effectue des opérations élémentaires sur les colonnes d’une matrice,
cela affecte le déterminant de la manière suivante :
Proposition 2.7. (1) Echanger deux colonnes change le signe du déterminant.
(2) Ajouter à une colonne donnée une combinaison linéaire des autres colonnes
ne change pas le déterminant.
(3) Multiplier une colonne par un réel λ multiplie le déterminant par λ.
Sur certaines matrices, le déterminant est particulièrement simple à calculer :
Proposition 2.8. Le déterminant d’une matrice triangulaire supérieure (ou infé-
rieure) est égal au produit de ses termes diagonaux :
a1,1 a1,2 · · · a1,n
0 a2,2 · · · a2,n
.. = a1,1 · · · an,n .
.. .. ..
.
. . .
0 ··· 0 an,n
Enfin, voici comment se comporte le déterminant par rapport à d’autres opéra-
tions sur les matrices :
Proposition 2.9. (1) Soient A et B deux matrices carrées, alors det(AB) =
det(A)det(B).
(2) Soit A une matrice carrée, alors det(t A) = det(A).
(3) Soit A ∈ Mn (C), on a det(A∗ ) = det(A).
Remarque 2.10. On déduit du point (3) de la Proposition ci-dessus que le détermi-
nant d’une matrice auto-adjointe est un nombre réel.
Puisque la transposition transforme les colonnes de A en lignes, ce résultat im-
plique que les opérations élémentaires sur les lignes d’une matrice affectent le dé-
terminant de la même manière que les opérations élémentaires sur les colonnes :
(1) Echanger deux lignes change le signe du déterminant.
(2) Ajouter à une ligne donnée une combinaison linéaire des autres lignes ne
change pas le déterminant.
(3) Multiplier une ligne par un scalaire λ multiplie le déterminant par λ.
CHAPITRE 2. MATRICES 7
et
1 1 −1
1
A−1 = −1 1 1 .
2
1 −1 1
2.3. Trace.
Définition 2.21. La trace tr(A) d’une matrice carrée A est la somme de ses coef-
ficients diagonaux, i.e. tr(A) = a11 + · · · + ann .
Proposition 2.22. Soient A et B deux matrices n × n, alors
(1) tr(A + B) = tr(A) + tr(B)
(2) tr(AB) = tr(BA)
(3) tr(λA) = λtr(A)
(4) tr(t A) = tr(A)
2.4. Rang.
Définition 2.23. Le rang d’une matrice est le rang du système de vecteurs formé
par ses vecteurs colonnes, c’est-à-dire la dimension de l’espace vectoriel engendré
par ses vecteurs colonnes.
On peut déterminer le rang d’une matrice en étudiant des déterminants de ma-
trices extraites de A appelés mineurs :
Définition 2.24. Soient A = (aij ) une matrice de taille m × n, et k un entier
inférieur à m et à n. Un mineur d’ordre k de A est le déterminant d’une matrice
obtenue à partir de A en supprimant m − k lignes et n − k colonnes.
Il s’agit de la généralisation naturelle des mineurs d’ordre n−1 (pour une matrice
carrée de taille n × n) que l’on a déjà vu auparavant dans le développement des
déterminants le long d’une ligne ou d’une colonne.
Proposition 2.25. Le rang d’une matrice A de taille m×n est le plus grand entier
k tel qu’il existe un mineur d’ordre k non nul extrait de A.
On peut généraliser ce que l’on avait vu auparavant sur le lien entre bases et
déterminants (un système libre de n vecteurs dans un espace vectoriel de dimension
est une base si et seulement si son déterminant est non nul) à tout système libre
de vecteurs. Soient E un espace vectoriel de dimension n et B = {e1 , · · · , en } une
base de E. Soient v1 , · · · , vk des vecteurs de E, avec k ≤ n. Chaque vecteur de ce
système se décompose dans B en
Xn
vj = aij ei .
i=0
Les opérations élémentaires que nous avons vues dans les sections précédentes
ne changent pas le rang :
Proposition 2.27. Le rang d’une matrice de vecteurs colonnes C1 , · · · , Cn est
invariants sous les opérations élémentaires
(1) Ci 7→ λCi pour λ 6= 0 ;
(2) Ci 7→ Ci + λCj pour λ 6= 0 et i 6= j ;
(3) Ci ↔ Cj .
De plus, l’espace vectoriel engendré par les vecteurs colonnes est préservé par ces
opérations.
On peut donc déterminer le rang d’une matrice en appliquant la méthode de
Gauss sur les colonnes pour la ramener à une matrice triangulaire. Son rang est
alors le nombre de coefficients non nuls sur la diagonale.
Dans la résolution de systèmes linéaires, on a appliqué la méthode de Gauss
sur les lignes. On peut aussi l’appliquer sur les lignes pour calculer le rang d’une
matrice, car celui-ci est invariant sous l’opération de transposition :
Proposition 2.28. Le rang de A est égal au rang de t A.
Le rang d’une matrice est donc égal au rang de son système de vecteurs lignes.
Ainsi, l’espace vectoriel engendré par les vecteurs lignes a la même dimension que
l’espace vectoriel engendré par les vecteurs colonnes. On peut donc bien calculer le
rang d’une matrice en appliquant des opérations élémentaires à ses lignes.
Remarque 2.29. Attention à ne pas s’emmêler les pinceaux entre lignes et colonnes :
• Si l’on part d’un système de vecteurs et qu’on lui associe une matrice dont les
lignes sont les coordonnées de ces vecteurs, le sous-espace vectoriel engendré
par les lignes de la matrice obtenue après méthode de Gauss, lorsque celle-ci
est appliquée sur les lignes, est bien celui engendré par ce système de vecteurs.
• Si l’on part d’un système de vecteurs et qu’on lui associe une matrice dont
les colonnes sont les coordonnées de ces vecteurs, le sous-espace vectoriel
engendré par les colonnes de la matrice obtenue après méthode de Gauss,
lorsque celle-ci est appliquée sur les lignes, n’est alors plus le même que celui
engendré ce système de vecteurs. Ils ont seulement même dimension.
Pour conclure cette section, voici le lien entre inversibilité et rang d’une matrice :
Proposition 2.30. Une matrice carrée de taille n est inversible si et seulement si
elle est de rang n.
Démonstration. Ce résultat se base sur le lien entre matrices et applications li-
néaires développer dans la section suivante. Une matrice carrée réelle A = (aij ) de
taille n définit une application linéaire Kn → Kn : une application linéaire est en
effet déterminée, comme nous l’avons vu dans le Chapitre 1, par ses valeurs sur les
vecteurs d’une base de l’espace vectoriel de départ. L’application linéaire associée
à A est tout simplement définie par
m
X
f (ej ) = aij ei
i=1
où (e1 , · · · , en ) est la base canonique de Kn . Le rang d’une telle matrice A est égal
au rang de l’application f : Kn → Kn associée. Le rang de A est n si et seulement
si le rang de f est n, c’est-à-dire dim(Im(f )) = n, ce qui revient à dire que f est
CHAPITRE 2. MATRICES 10
surjective. Une application linéaire surjective entre deux espaces vectoriels de même
dimension est bijective, et f est bijective si et seulement A est inversible.
3. Systèmes linéaires
Définition 3.1. (1) Une équation linéaire d’inconnues x1 , · · · , xn est une relation
de la forme a1 x1 + · · · + an xn = b où a1 , · · · , an ∈ K. Un système linéaire de m
équations à n inconnues est une liste de m équations linéaires à n inconnues.
(2) Une solution d’un tel système linéaire est un n-uplet de scalaires (s1 , · · · , sn )
tel que si l’on remplace les variables x1 , · · · , xn dans le système par s1 , · · · , sn , alors
les égalités définissant les équations du système sont vérifiées.
(3) Deux systèmes linéaires sont équivalents s’ils ont le même ensemble de solu-
tions.
(4) Un système linéaire tel que tous les seconds membres bi de ses équations sont
nuls est dit homogène.
Un système linéaire est donc de la forme
a11 x1 + · · · + a1n xn = b1
a21 x1 + · · · + a2n xn = b2
... ..
.
ai1 x1 + · · · + ain xn = bi
.. ..
. .
a x + · · · + a x =
m1 1 mn n bm
On remarque directement que l’on peut, de manière équivalente, écrire un tel sys-
tème sous forme matricielle. En effet, en notant
a11 · · · a1n
a21 · · · a2n
.. .. b1 x1
. ··· . .. ..
A=
,B = . ,X = .
ai1 · · · ain
. .. bn xn
.. ··· .
am1 · · · amn
on voit que le système linéaire ci-dessus revient à l’égalité AX = B. On dit que
A est la matrice associée au système, et résoudre ce système correspond donc à
trouver les vecteurs X de Kn satisfaisant cette égalité. La i-ème ligne de A est aussi
appelée la i-ème ligne du système, et on la notera Li . La résolution d’un système
linéaire se conclut toujours sur les trois possibilités suivantes :
Théorème 3.2. Un système d’équations a soit une seule solution, soit aucune
solution, soit une infinité de solutions.
Dans la pratique, on cherchera à remplacer le système que l’on veut résoudre
par des systèmes équivalents plus simples, jusqu’à ce qu’on obtienne un système
équivalent dont on peut déterminer explicitement les solutions (et l’on sera alors
dans l’un des trois cas de figure ci-dessus). Pour ce faire, on effectue sur les lignes
de ce système des opérations dites élémentaires, qui ne changent pas l’ensemble des
solutions (et transforment donc le système en un système équivalent) :
CHAPITRE 2. MATRICES 11
(1) Remplacer Li par λLi avec λ 6= 0 (on peut multiplier une équation par un
scalaire non nul). Cette opération sera notée Li 7→ λLi .
(2) Remplacer Li par Li + λLj avec λ 6= 0 et i 6= j (on peut ajouter à l’équation
Li un multiple d’une autre équation Lj ). Cette opération sera notée Li 7→
Li + λLj .
(3) Echanger deux lignes Li et Lj (on peut permuter deux équations). Cette
opération sera notée Li ↔ Lj .
On peut utiliser ces opérations élémentaires pour transformer un système linéaire
en un système échelonné, c’est-à-dire un système dont la matrice associée est trian-
gulaire supérieure (le nombre de coefficients nuls du système commençant une ligne
croit strictement ligne après ligne). Le procédé qui consiste à transformer A en une
matrice triangulaire supérieure par des opérations élémentaires sur ses lignes est
appelé la méthode du pivot de Gauss. Le fait que l’on puisse toujours se ramener à
un système échelonné implique de plus le résultat suivant :
Proposition 3.3. Un système linéaire homogène ayant strictement plus d’incon-
nues que d’équations admet une infinité de solutions.
Dans le cas d’un système de n équations à n inconnues avec une unique solution,
on peut aussi la déterminer en inversant la matrice associée :
Proposition 3.4. Si A est inversible, alors il existe une unique solution au système
AX = B donnée par X = A−1 B.
On a vu plus haut la formule permettant d’inverser une matrice en toute géné-
ralité. La formule de l’unique solution X à ce système est alors donnée par la règle
de Cramer. Pour cela, notons Aj la matrice définie par
a11 · · · a1,j−1 b1 a1,j+1 · · · a1n
a21 · · · a2,j−1 b2 a2,j+1 · · · a2n
Aj = . .. ,
.. .. ..
.. . . . .
an1 ··· an,j−1 bn an,j+1 ··· ann
c’est-à-dire la matrice obtenue à partir de A en remplaçant sa j-ème colonne par
B. On a alors
Proposition 3.5 (Règle de Cramer). Soit AX = B un système de n équations à n
inconnues. Supposons que det(A) 6= 0. Alors ce système admet une unique solution
(x1 , · · · , xn ) donnée par
det(Aj )
xj = .
det(A)
Ce n’est néanmoins pas toujours la manière la plus rapide de résoudre le système.
On préfèrera selon la situation la méthode de Gauss (qui fonctionne dans tous les
cas, que la matrice soit inversible ou non).
d’une base de E. Supposons que F est de dimension finie m et muni d’une base
C = (f1 , · · · , fm ). L’application f est déterminée de manière unique par les vecteurs
f (e1 ), · · · , f (en ), et chacun de ces vecteurs se décompose de manière unique dans
la base C en
m
aij fi = a1j a2j ... anj .
X
f (ej ) =
C
i=1
L’application f est donc entièrement déterminée, et de manière unique, par les
coefficients aij pour 1 ≤ i ≤ m et 1 ≤ j ≤ n, d’où la notion de matrice associée à
une application linéaire :
Définition 4.1. La matrice de l’application linéaire f par rapport aux bases B et C
est la matrice de taille m × n dont la j-ème colonne est constituée des coordonnées
f
du vecteur f (ej ) dans la base C. On note cette matrice MC,B .
Remarque 4.2. Attention, les coefficients de cette matrice dépendent du choix d’une
base de E et d’une base de F !
L’écriture matricielle d’une application linéaire se fait donc comme suit : si f :
E → F est une application linéaire entre deux espaces vectoriels E et F munis
respectivement de bases B et C, alors l’équation f (x)= y pour x ∈ E et y ∈ F
se traduit par l’égalité AX = Y , où A = MC,B f
, X = x1 ... xn est le vecteur
B
colonne des coordonnées de x dans la base B et Y = y1 ... ym est le vecteur
0
En particulier, si F = E et qu’on considère deux bases BE , BE de E, on a
MBf 0 = PB−1 E
f
0 ,B MB PB 0 ,BE .
E E
E E
On se restreint à présent aux matrices carrées de taille n. On peut définir sur les
matrices carrées la relation suivante :
Définition 4.9. Soient A et B deux matrices carrées de taille n. On dit que B est
semblable à A s’il existe une matrice inversible P telle que B = P −1 AP .
Proposition 4.10. Cette relation est une relation d’équivalence sur Mn (K).
On voit que la formule définissant cette relation est similaire à celle de la Pro-
position 4.8, et ceci pour une bonne raison : deux matrices exprimant un même
endomorphisme dans deux bases sont semblables, et inversement deux matrices
semblables déterminent le même endomorphisme, mais exprimé dans deux bases.