Beruflich Dokumente
Kultur Dokumente
INDICE
Matrici e vettori
1.1
9
10
1.1.1
Notazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
1.1.2
Matrici e Vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
1.1.3
12
1.1.4
Confronto di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
1.1.5
Norme di vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
1.1.6
Prodotti scalari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19
1.1.7
25
1.1.8
. . . . . . . . . . . . . . . . . . . . .
28
1.1.9
Ortonormalizzazione di Gram-Schmidt . . . . . . . . . . . . . . . . . .
30
Matrici e Vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
34
Sistemi Lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
41
1.2.1
41
1.2.2
43
1.2.3
47
1.2.4
49
1.2.5
50
1.2.6
Regola di Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
50
INDICE
1.2.7
58
1.2.9
59
61
63
64
67
68
Autovalori ed autovettori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
70
1.3.1
73
1.3.2
79
1.3.3
81
1.3.4
81
Norme di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
86
1.4.1
86
1.4.2
88
1.4.3
1.4
52
1.2.8
1.3
Norme compatibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
91
96
2.1.1
2.1.2
2.1.3
2.1.4
2.2
2.1
95
2.2.2
INDICE
125
Generalizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
3.1.3
3.1.4
3.1.5
4
Zeri di funzioni
138
4.1
Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
4.2
4.3
4.4
4.5
4.6
4.7
4.7.3
5
Interpolazione polinomiale
5.1
164
Generalizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
5.1.2
5.1.3
5.1.4
5.1.5
INDICE
5.1.6
5.1.7
5.1.8
5.1.9
5.2
5.2.2
5.2.3
6 Integrazione numerica
190
6.1
6.2
6.2.2
6.2.3
Accuratezza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
6.2.4
6.2.5
PREFAZIONE
Questa raccolta di appunti e frutto dellattivit` didattica svolta negli ultimi anni dagli autori presso
`
a
le Universit` di Trento e di Pavia.
a
Gli argomenti trattati riguardano essenzialmente lAlgebra Lineare, che viene presentata sia da
un punto di vista teorico che computazionale, ed alcuni settori classici dellAnalisi Numerica,
come linterpolazione, lapprossimazione ai Minimi Quadrati, lintegrazione numerica, il calcolo
di zeri di funzione.
Gli appunti sono stati raccolti in questa forma per essere proposti sia agli studenti dei corsi di Laurea che di Diploma in Ingegneria. Di fatto, sono stati variamente utilizzati negli anni come materiale didattico di supporto alle lezioni di Analisi Numerica, Calcolo Numerico, e Geo-Calcolo.
Questi appunti sono stati quindi pensati come materiale di lavoro che si rivolge a studenti che non
saranno formati per essere professionisti della matematica, ma piuttosto utenti della matematica. Si e cos` privilegiato nella impostazione laspetto procedurale, cio` di utilizzo nella pratica
e
dei risultati teorici.
Si e comunque cercato di mantenere un minimo di rigore formale nella esposizione, per esempio
`
sviluppando i vari argomenti attraverso lintroduzione di denizioni, osservazioni, proposizioni,
lemmi, e teoremi con relative dimostrazioni.
Ci rendiamo conto, tuttavia, che alcune scelte didattiche potrebbero disturbare i puristi del settore;
per esempio, pur trattando argomenti teorici di algebra lineare con il linguaggio dei vettori, e
quindi pur parlando di combinazioni lineari, dipendenza ed indipendenza lineare, basi, etc etc non
viene mai introdotta una denizione formale di spazi vettoriali.
Inne, si sono esposte nel testo quasi tutte le dimostrazioni dei risultati importanti proposti (evitando soltanto quelle che ci sono sembrate troppo tecniche o comunque non essenziali nelleconomia di questo materiale didattico). Ci rendiamo conto che ci` ha prodotto conseguentemente un
o
7
INDICE
testo con molto piu` materiale di quello che pu` essere ragionevolmente esposto per esempio in
u
o
un corso semestrale di Calcolo Numerico per i Diplomi. Tuttavia, ci e sembrato importante farlo,
`
quanto meno per lasciare agli studenti pi` interessati la possibilita di un approfondimento (quasi)
u
immediato degli argomenti trattati nelle lezioni.
Inne, vogliamo ringraziare tutte le persone che ci hanno consigliato e dato suggerimenti, segnalato errori ed imprecisioni nel testo, aiutandoci a migliorare la qualit` del nostro lavoro.
a
Enrico Bertolazzi,
Gianmarco Manzini.
CAPITOLO
UNO
MATRICI E VETTORI
10
1.1
Matrici e vettori
Matrici e Vettori
1.1.1 Notazioni
In questi appunti i vettori saranno indicati con lettere in grassetto minuscole, ad esempio
sono vettori. Le componenti dei vettori saranno indicate con la stessa lettera del vettore in corsivo,
ad esempio
sono matrici. Le componenti delle matrici saranno indicate con la stessa lettera in corsivo, ad
esempio
! #
!
"
))
00)
('
&
$
Con il simbolo indicheremo sia il campo dei numeri reali che il campo dei numeri complessi
. Questo signica che si pu` sostituire a sia che ed evitare duplicazioni nelle denizioni.
o
B @
CA9
86
7 5
3
4
`
Denizione 1. Una matrice
e un insieme di
organizzati in -righe ed -colonne. Ad esempio
P
I
R
SQ
G F D
H4E
`
`
e una matrice
cioe una matrice con righe e colonne. Di solito si indica con
`
quando la matrice e a valori reali. Analogamente si indica con
85
7
3
2 T
P @ I
U5
7
3
T
Matrici e Vettori
11
U6
7 5
`
quando la matrice e a valori complessi. Deniremo con
una matrice sia a
valori reali che complessi. Se non diversamente specicato le matrici e i vettori devono
intendersi a valori reali.
Denizione 2. Una matrice con lo stesso numero di righe e di colonne si dice matrice
quadrata.
`
Esempio 1. Le piu semplici matrici sono la matrice nulla, indicata con , cioe la matrice
`
`
`
con tutti gli elementi nulli e la matrice identita indicata con , che e una matrice quadrata
con tutti gli elementi nulli tranne quelli sulla diagonale che valgono :
..
..
.
.
.
.
.
.
..
Q
Q
A
.
..
..
Q
A
.
.
.
.
.
.
..
`
e detta vettore riga di dimensione . In modo analogo
Denizione 3. Una matrice
`
e detta vettore colonna di dimensione . Normalmente saranno conuna matrice
siderati vettori colonna, cos`, quando faremo riferimento ad un vettore senza specicare
B @ G
G @ 9
P
P
D
vettore colonna di
Quando si indica una componente di un vettore riga, si usa omettere lindice di riga.
`
Analogamente, si fa con i vettori colonna. Ad esempio,
e la seconda componente
del vettore , ma si scrive . In modo analogo dato un vettore colonna ad esempio
`
volendo indicare la terza componente che sarebbe
si omette lindice di colonna cioe
si scrive .
!
!
12
Matrici e vettori
D
Q
per ogni
`
`
e lindice di colonna. Si puo visualizzare come segue
..
..
.
.
.
..
.
.
.
`
dove e lindice di riga e
D
E
dove sono indicati esplicitamente gli elementi che sono sicuramente zero, detti anche
`
zeri strutturali, mentre indica un qualunque elemento che puo assumere valori diversi
1 . In modo analogo si denisce
da zero, detto per lappunto un non-zero della matrice
una matrice triangolare inferiore.
Esempio 3. Le matrici
Q
G
Q
Q
D
P
Q
D
I
Q
G
Q
D
E
`
e anche triangolare inferiore.
essere
85
7
la matrice in
dove
) )
B 0) 0 I G D
9 ) 0) I G
)
D
3
e
si denisce con
HD
(#
U5
7
D $
Si noti bene, tuttavia, che la propriet` di un elemento di essere un non-zero non esclude necessariamente che tale
a
elemento possa essere nullo.
Matrici e Vettori
13
P @ I
R I
Q F
D
R Q
G F
D
E
otteniamo
D
F
G
si denisce con
dove
% D
R I
3 %
R I
U5
7
B ) ) 0 I G
)
D
3
4
U5
7
I G
9 ) 0)
)
D
3
! 7
I
P
I
R Q
D
I
G F
G F
% D (#
e lo scalare
con la matrice
D
otteniamo
) I
D
E )
F
R Q
I F
D
I
con la scrittura
si intende
I G
) B ) 0) D
)
85
7
3
1
9 ) ) 0 I G
)
D
(#
In questa denizione sono inclusi i vettori riga e colonna come casi particolari di matrici
e
.
B @ G
G @ 9
G
R G
QF
G
Q
D
R G
D
G F
mentre
Q
G F
D
E
e
abbiamo
14
Matrici e vettori
con la scrittura
si intende
I G
) B ) ) 0 D
)
U5
7
3
1
9 ) 0) I G
)
D
#
Esempio 7. Date le matrici
Q F
Q
R G
I
G F
R I
3
T
85
7
D
D
.
si denisce con
la matrice2 le cui com`
e a valori complessi) delle componenti della
I G
) B 00) D
))
abbiamo
9 ) 00 I G
))
D
S
D (#
D
P
G
D
G
I
I
G
I
D
E
abbiamo
P
I
G
I
I
G
I
I
2
Per denire il determinante si usa a volte la stessa notazione. In ogni caso dovrebbe essere chiaro dal contesto se
indica la matrice dei valori assoluti o il suo determinante.
3
e un numero complesso allora
`
Ricordiamo che se
) $ "
%($'&% # !
Matrici e Vettori
15
Dato un vettore
le sue tre componenti , , si possono interpretare come coordinate
di un punto in . La distanza di questo punto dallorigine e la lunghezza del segmento che unisce
`
o
lorigine con il punto . Questa lunghezza pu` essere interpretata come la lunghezza del vettore
4 questa lunghezza e:
. Osserviamo che dal teorema di Pitagora
`
) !
e chiamare questo numero lunghezza del vettore. Questa funzione gode delle seguenti propriet` :
a
. Inoltre
solo se
B ) 00 I G
))
D
2. dilatando o contraendo il vettore cio` moltiplicando ogni sua componente per una
e
costante (rispettivamente maggiore o minore di ) otteniamo:
%
D
3. per ogni
(1.1)
detta disuguaglianza triangolare. Il nome disuguaglianza triangolare deriva dalla nota disuguaglianza sui lati dei triangoli. In particolare la lunghezza di un lato e sempre minore o
`
uguale alla somma degli altri due. Questo fatto e schematizzato in gura 1.1.
`
4
Pitagora 580a.c500a.c.
16
Matrici e vettori
G
D G G
G
(1.2)
D
' %
#!
& ! ! D $"
allora
G
5
6 ' 2 %
& ! 4 G D ' 2! G D
&
. Quindi
per
. Quindi
G!
per
D !
G
# Q
`
e
G D
$" (
#!
#!
$"
G
per
e
e di conseguenza
& !
' % !
8Q
# $#"!
Q
#!
$"
Q#
#!
'1 (
2
3 ! G D '10)
#! (
&
'
poiche
abbiamo che
in
un punto di minimo per
G 3G
7
da cui
(1.3)
G
!
!
&
'
Matrici e Vettori
17
`
Osserviamo che se
o
la disuguaglianza e banalmente vera. Consideriamo
quindi
e calcoliamo (1.3) in
ottenendo:
D ! Q
2
2 G
D
2
&
D !
D
7
7
3G 3G
D
, ...,
&
$
&
'
)
tali che
&
$
&
'
)
Dimostrazione. Siano
QD
D G G D
Q D
cosicche
18
Matrici e vettori
, allora
2
3 #
D #
D
G
&
'
&
'
D #G
2
3 #
&
'
D
I
#
# #
&
'
D
G
7G
&
'
#
e osservando che
otteniamo la disugua-
e proprio la (1.1).
`
D
Q
`
e una norma se per ogni
`
Denizione 11. Utilizzando la disuguaglianza di Minkowski e facile dimostrare che per
la seguente funzione
)
&
'
2 #
Dividendo per
glianza cercata.
denito dalla
7G
2
) 3 #
&
'
`
e banale. Supponiamo
. Allora
&
'
, ...,
)
Dimostrazione. Il caso
, ...,
Teorema 3. Sia
&
'
(1.4)
10)('% $#"
& !
Il prodotto scalare tra due vettori e molto usato in sica ed ha la seguente denizione
`
G I
G
G
D
G
P
G
I
I
G
D
D
G G I
G
G
G
D
I I G
I
I
P
D
GGGI
D
G
G G
D D
I I G D I I G D
otteniamo
G
G
I
`
Con un procedimento di passaggio al limite si puo anche denire
I G
D
`
`
e una norma. Tale norma e chiamata -norma. Due casi di particolare interesse della
norma si hanno per
Matrici e Vettori
19
20
Matrici e vettori
10 &(
dove
e .
a-b
a+b
H
a
10)( %
&
(1.5)
(1.6)
D #
D #
10$(& % $#!
10$('% $#"
& !
D
D
Osserviamo che
e non
)
(1.7)
per ragioni esclusivamente tipograche
Matrici e Vettori
21
Osserviamo che la formula che abbiamo ricavato vale per vettori reali e inoltre
cio` il prodotto scalare di un vettore con se stesso restituisce il quadrato della sua lunghezza. Se
e
e un vettore complesso la formula (1.7) non restituisce il quadrato della sua lunghezza infatti se
`
sono numeri complessi:
Si pu` comunque modicare la denizione (1.7) in modo che applicata a vettori reali sia equivao
lente a (1.4) e nel caso di vettori complessi valga
.
restituisce
(1.8)
D
Ricordiamo che
$ $ $
)
da cui
abbiamo
$! # 0#'%! $2'1 0 ) $ ( '
&# & %! $!'& $#"! &&
inoltre
$!
22
Matrici e vettori
otteniamo
D
D
D
D
Q
D
D #
% D
% D %
D
otteniamo
)
otteniamo
D
Q
)
(
B ) ) 0 I G
)
D
e quindi
4 Calcolando
3 Calcolando
con
2 Calcolando
se e solo se
inoltre
1 Calcolando
# %
# %
)
Per
Matrici e Vettori
23
se e solo se
per ogni
D #
#
Q
3
D #
D #
# % D # %
3 %
soddisfa:
`
e un prodotto scalare se per
@ #
`
Osservazione 1. Nella denizione assiomatica appena enunciata, si e indicato il prodotto scalare tra due vettori
utilizzando la simbologia
, mentre nella
discussione precedente il prodotto scalare era stato indicato con
. Ovviamente ne
`
la denizione del prodotto scalare ne le sue proprieta dipendono dalla notazione scelta.
`
Esiste una terza notazione di uso abituale e cioe
. Questa notazione assume impli-
#
citamente che tutti i vettori siano vettori colonna ed indica con lapice loperazione di
trasposizione che trasforma un vettore colonna in un vettore riga. La denizione gene`
rale di trasposto di una matrice e di un vettore, di cui abbiamo anticipato lidea, sara
introdotta tra poco.
Esempio 10. E facile vericare che anche la seguente funzione
reale positivo.
`
si puo esprimere tramite il prodotto sca-
24
Matrici e vettori
`
che ha le proprieta di una norma. Questa applicazione prende il nome di norma indotta
dal prodotto scalare.
(1.9)
' D
#
dove
e la norma indotta dal prodotto scalare e la disuguaglianza e stretta a meno che
`
`
per uno scalare , cio` i vettori sono allineati.
e
'
`
Dimostrazione. Se
o
la disuguaglianza e banale. Supponiamo quindi che
`
entrambi i vettori siano non nulli. Applicando la proprieta 1 della denizione 13 al vettore
otteniamo
# % %
da cui segue
#
) #
#
% #
% % # % #
%
%
% # % #
Q
#
#
Scegliendo
(1.10)
D %
otteniamo
11
10
`
che e equivalente alla (1.9). Osserviamo che se
`
(1.10) e stretta e di conseguenza anche la (1.9).
allora la disuguaglianza in
Matrici e Vettori
25
`
1.1.7 Ortogonalita e angolo tra vettori
Tramite il concetto di prodotto scalare e possibile introdurre il concetto di ortogonalit` e angolo
`
a
tra vettori. Dal prodotto scalare euclideo (1.8) nella forma (1.4) otteniamo che langolo formato
tra due vettori e e dato dalla seguente formula
`
% $#$!! D 10 &(
G
Q
G
I
0G
I
D
Q P
10$(& % $#!
Q
D
Q
% $#!
G
P I ) Q
radianti, infatti
o circa
`
Osservazione 3. Mentre la denizione di angolo tra vettori e valida solo per vettori rea` `
li, la denizione di ortogonalita e valida anche per vettori complessi e prodotti scalare
`
qualunque. Infatti la denizione e puramente algebrica.
Esempio 12. I vettori
I
G
I
P
) infatti
D
G
#
I
G G
`
sono ortogonali (cioe
26
Matrici e vettori
analogamente i vettori
G
G
G
sono ortogonali infatti
)
Q
D #
#
G
# 3#
D
Prodotto vettoriale
3
1
ortogonale ad
tale che
D
Q
trovare
)
D ! !
D ! !
Una possibile soluzione, che si pu` vericare per sostituzione diretta, e data da
o
`
) D !
! ! D
! ! D
Questa soluzione prende il nome di prodotto vettoriale e si indica normalmente con lespressione
(1.11)
D #
Matrici e Vettori
27
10$( %
&
Per mezzo del prodotto vettoriale e facile risolvere alcuni problemi di geometria nello spazio,
`
come ad esempio il calcolo del piano passante per punti. Siano infatti , e tre punti distinti,
allora i vettori
D
diventa semplicemente
G
I
Q
I
G
Q
28
Matrici e vettori
e . Calcoliamo innanzitutto
Q
I
G
Q
G
I
D D
I
G
Q
I
D D
G
da cui
I
I
Q
e inne
I
!
D
D
D
G
ponendo
scalari
% ) 0 % %
))
se esistono
D
Q
% D
Matrici e Vettori
29
` `
Denizione 16. Se questa proprieta e vera per ogni vettore di
, allora diremo che i
vettori , ,. . . ,
formano una base. Necessariamente, si deve avere
. Questa
`
, purche
condizione e anche sufciente, nel senso che scelti vettori qualunque di
.
linearmente indipendenti, essi formano sempre una base di
Q
.
.
.
G
Q
.
.
.
in
.
.
.
,. . . ,
vettori
B 0) 0 I G
) )
D
per
D %
Q
,. . . ,
La base
`
e detta base canonica.
G
G
I
G
I
`
e la combinazione lineare e nulla se e solo se
.
.
.
D
I
30
Matrici e vettori
,. . . ,
vettori
Teorema 5. I
, tali che
D
Q
I G
))
) 00
S %
S %
per
scalari
S%
% D
% D
D %
segue che
e quindi poiche
Denizione 17. Dati vettori , ,. . . , , diremo che gli stessi formano un sistema
`
ortogonale se sono a due a due ortogonali, cioe
) D
Denizione 18. Dati vettori , ,. . . , , diremo che gli stessi formano un sistema
`
ortonormale se sono a due a due ortogonali e di norma , cioe
) D
D
G
% ) 0) % %
)
D 0)0))
span
0)) 0)
lo spa-
Matrici e Vettori
31
,. . . ,
0)0))
0)0))
D
span
span
vettori
span
D
) 0)0)
e
D
span
dove
D
D
per
I G
) )
0) 0 D
I G
))
D
) 00 S
per
0)) 0)
per ogni
4.
3.
2.
1.
I G
)
) ) 0
D
G
I G
))
00) D
come segue
D
& 2
(1.12a)
&
% D
(1.12b)
I G
) )
D
0) 0
ed il vettore
vettori
`
Se
, assumiamo come ipotesi induttiva di avere gia determinato
ortonormali , ,. . . ,
tali che
`
il teorema e ovviamente vero con
Se
G
I G
)
) 0) D
&
D
& 2
D
12
32
Matrici e vettori
si ottiene
come segue
% D
% D
,. . . ,
'
'
' 2
`
, cioe un generico vettore
,. . . ,
7
3G
2
D
D %
scalari
tali
(1.13)
D & 2
& 2
,
'
e mostriamo che
che
scalari
esisterebbero
`
e poiche per lipotesi induttiva
per cui
D
G
D &
da cui risulta
se fosse
I G
)
) 0) D
imponiamo che
Per determinare
D
Q
ed imponendo
(1.14)
(1.15)
& 2
Matrici e Vettori
33
%
2 D
& 2
`
e arbitrario segue che
allora
& 2
,. . . ,
&
D # S%
tali che
`
`
. Poiche e arbitrario,
, permette di concludere che
scalari
)
# S%
&
e quindi
Viceversa sia
`
e poiche
)
" # &
Quindi
7
2 I
7
34
Matrici e vettori
0)
)
)
0
D
7
85
la matrice rettangolare in
le cui colonne sono i vettori colonna
prodotti dal
`
`
procedimento di Gram-Schmidt, lortonormalita tra i vettori si puo esprimere con
3
1
`
`
Tuttavia si osservi che se
, non si ha lortogonalita tra le righe, cioe non vale
`
`
. In realta si puo osservare che per la matrice prodotto
`
valgono le proprieta seguenti:
`
e un proiettore ortogonale.
5 U5
7
I G
) ) ) 0 D
)
I G
9 ) 0) D
)
86
7 5
#
D
D $
`
e il prodotto scalare della -esima riga di
85
7
$
Osserviamo che
di .
7 3
Matrici e Vettori
35
P @ I
Q
G @ P
D
R Q
G F
I
I
D
E
otteniamo
G F
R I
Q
G
R Q
G F
D
`
Osservazione 6. Data una coppia di matrici e qualsiasi, non e detto che si possano
`
`
sempre moltiplicare tra loro. Infatti, esse devono essere compatibili, cioe il prodotto
e
`
denito solo se ha tante colonne quante sono le righe di . Analogamente e richiesto
per il prodotto
. Si noti che potrebbe essere denito il prodotto
ma non
o
viceversa, ed inoltre le matrici prodotto
e
se denite entrambe possono tuttavia
avere dimensioni differenti, quindi un diverso numero di righe e colonne. Nel seguito,
ogni volta che si parla di prodotto di matrici, anche se non esplicitamente dichiarato, si
`
intendera sempre che si tratta di matrici compatibili.
`
Esempio 18. Esemplichiamo il fatto che la moltiplicazione di matrici non e commutativa,
considerando le due seguenti matrici
I @ I
I
G F
R G
D
R G
D
H
G F
P
R Q
D
E
I F
D
R G
, ma si vede che
D
Q F
G
che il prodotto
G
Q
D
36
Matrici e vettori
D
D
G
G
Q
`
e una matrice
G @ G
I
abbiamo che
Q
P
G
Q
G
Q
`
e una matrice
P @ P
mentre
Osservazione 7. Non vale per le matrici la regola di annullamento, nel senso che se
`
e sono due matrici e
non e detto che
o
. Infatti basta considerare
il seguente esempio
D
D
E
Q F
R G
D
D
G F
R Q
D
G
per il quale abbiamo
QF
Q
I
R Q
D
H
Q F
Q
R Q
D
D
Osserviamo che in
caso piu generale.
`
conferma la non commutativita del prodotto di matrici nel
`
Esempio 20. Nellinsieme delle matrici la matrice identita rappresenta lelemento neu`
tro della moltiplicazione. Infatti sia
e
la matrice identita allora
Q
.
.
.
G
Q
5
2 5
3
A
D
D
se
..
..
se
85
7
2 5
2 2 5
G
Q
D
dove
..
.
.
.
.
.
.
..
5 U5
7
..
.
.
.
D
osserviamo che
..
Matrici e Vettori
37
`
e il simbolo di Kroneker13 , e quindi
D
5 85
7
D
D
E
D
D #
Denizione 21 (Inversa). Si denisce matrice inversa di una matrice quadrata la ma. La matrice inversa se esiste si
trice quadrata (se esiste) che soddisfa
denota con
. La matrice di dice invertibile.
D
H D
&
%
'
3
2
D
E
'
& D
`
con
, allora si puo vericare direttamente che sia linversa destra che linversa
sinistra sono date dalla matrice
)
R
%
&
'
'
&
G
2
'
S& D
La situazione dellesempio precedente, in cui linversa destra e quella sinistra coincidono, e del
`
tutto generale. Infatti, vale il seguente teorema.
Teorema 7. Linversa di una matrice invertibile e unica.
`
Dimostrazione. Dimostriamo prima di tutto che linversa destra e sinistra di una matrice
invertibile coincidono. Sia
una matrice quadrata,
e
le sue due inverse destra e
sinistra. In tal caso abbiamo
D
D
Leopold Kronecker 18231891.
13
otteniamo
38
e quindi
`
, cioe assumiamo che valgano le relazioni
`
e anche inversa
D
E
D
2 2 D 2#
3
Teorema 8. Siano
vale la formula
D
D
Siano ora
)
D
D
E
ma
Matrici e vettori
2 2 D 5 25
D
4
4
2 2 D 25 5
4
4
`
`
Lunicita dellinversa e garantita dal teorema precedente.
U5
7
3
I G
) B 0) 0 D
) )
86
7 5
I G
9 ) 0)
)
D
P @ I
P
R
I
I
G F
I
Q
I
P
5
4
D
E
I @ P
`
la sua trasposta e la seguente matrice
Matrici e Vettori
39
U5
7
2 3
9 ) ) 0 I G
)
D
a valori complessi
R
85 3
7
85 T
3
7
)
I @ I
I
D
I G
) B ) 0) D
)
9 0) 0 I G
) )
D
I @ I
a valori complessi
5
Q
I @ I
)
3
G F D
4E
I
I
I
G F
D
`
la sua trasposta coniugata e la seguente matrice
I
I
D
4
Ovviamente si ha
si denisce matrice
denita come segue
5 U5
7
4
5
G F D
4E
I G F
I @ I
`
la sua coniugata e la seguente matrice
E
D
B ) 0) I G
)
D
U5
7
Ovviamente se le componenti di
si dice simme-
E
D
40
Matrici e vettori
5 86 3
7 5
si dice hermitia-
D
H
D
Sistemi Lineari
1.2
41
Sistemi Lineari
Per semplicare lesposizione introduciamo una notazione matriciale per colonne. Indicheremo
con
la colonna -esima della matrice ,
.
.
.
D
..
..
.
.
.
.
.
.
..
D
E
in modo che la si possa pensare partizionata per colonne, cio` scritta come segue
e
)
) 0)
D
E
Ogni colonna
della matrice e un vettore colonna e quindi si pu` esprimere come combina`
o
zione lineare dei vettori della base canonica di
,
D
dove i coefcienti sono le stesse componenti della matrice sulla colonna considerata. La dipendenza della funzione determinante dalle colonne della matrice si scrive con la notazione
)
) 0)
D
Enunciamo ora le tre propriet` fondamentali che deniscono assiomaticamente la funzione detera
minante.
42
Matrici e vettori
Denizione 27 (Determinante). .
`
1. Il determinante e una funzione multi-lineare nelle colonne
) 0) ) 0)
) )
) ) )
))
0) 0 0) ) D 00)
) ) ) 0 0) )
)
)
)) )
D ) 00 0) )
)
) 0)
`
2. Il determinante e nullo se due colonne consecutive sono uguali
)) )
D ) 00 ) 0)
Q
`
3. Il determinante della matrice identita vale :
00)
))
dove
Queste tre propriet` sono sufcienti per determinare lesistenza e lunicit` della funzione determia
a
nante. Esse inoltre implicano un gran numero di conseguenze importanti, che verranno man mano
discusse. Molte tra queste propriet` conseguenti dipendono tuttavia solo dalle prime due condia
zioni enunciate e sono indipendenti dalla terza. Per meglio evidenziare questo fatto introdurremo
, che rappresenta una funzione determinante pi generale. La
u
un simbolo alternativo, e cio`
e
funzione
soddisfa le propriet` 1 e 2, ma non necessariamente la 3, potendo assumere un
a
qualsiasi valore non nullo invece che lunit` . Useremo il simbolo
a
al posto di
ogni volta
che non sar` necessaria la propriet` 3.
a
a
`
Osservazione 8. Mostriamo che in alcuni casi particolari e possibile denire facilmente
`
una formula che esprime una funzione con le proprieta di un determinante.
D
I
D
B
Sistemi Lineari
43
P
!
!
D !
!
"
!
"
!
) !
!
!
!
!
!
!
!
"
)0) )
)
0) )
) 0)
)
.
.
.
)
0) )
`
Il determinante e il prodotto degli elementi sulla diagonale. Lo stesso vale per le
matrici triangolari inferiori e per le matrici diagonali.
`
Si lascia per esercizio al lettore la verica che tutte e tre le proprieta assiomatiche dei
determinanti sono vericate dalle tre formule appena esposte.
`
1.2.2 Alcune proprieta dei determinanti
Lemma 9 (Prodotto per uno scalare). Dalla propriet` 1 segue immediatamente che per ogni
a
e per ogni scalare vale
matrice
#
D #
3
) )
# 0) 0 !
))
# 00) !
) )
# 0) 0
D #
))
00) !
) 0) D
)
D
da cui il lemma segue immediatamente.
44
Matrici e vettori
`
Osservazione 9 (Somma di matrici). Sempre dalla multilinearita espressa nella pro`
prieta 1 si ricava un risultato negativo ma assai importante a proposito del determinante
`
di una somma di matrici, e cioe
#
#
D #
Infatti, se la somma di due matrici si esprime mediante una matrice partizionata per
colonne come segue
))
00)
D
`
`
dalla proprieta 1 di multilinearita si ha che
))
# ) 00 ! !
) )
# 0) 0 ! !
) )
# 0) 0 ! !
))
# ) 00 !
) )
0) 0 ! !
) )
0) 0 ! !
D #
)
0) ) D
`
`
ed e evidente che la relazione che ne risulta e in generale assai piu complicata di quella
) )
0) 0
D #
#
) 0)
)
# ) 00
))
# 0) )0 )0) )
)
Q
)
0) )
) ) )
D # 0) 0 ) 0)
)
Q
Dimostrazione. Se
)#
Sistemi Lineari
45
Dalla propriet` e combinando insieme le propriet` e si hanno una serie di conseguenze sul
a
a
comportamento del determinante per scambio di colonne.
Lemma 11. Se due colonne consecutive sono scambiate, il determinante cambia segno.
`
Dimostrazione. Basta osservare che per la proprieta 2
) )
D # 0) 0
Q
) 0)
)
`
ed usando la multilinearita
) 0)
)
)
)
# )0) )0 ) 0)
# ) ) 0
# ) )00 )00)
)
)
)
# ) 0)
# 0) 0
) )
# 0) 0 00)
) )
))
)
# ) ) 0
) ))
D # ) ) 0 00)
)
D # ) ) 0
Q
) 0)
)
) 0)
)
) 0)
)
Q
D
`
osserviamo che per la proprieta
(1.16)
) 0)
)
# ) 0)
)
) 0)
)
)
)
# ) ) 0 0) )
D
Q
`
cioe
) # ) ) 0
)
) 0)
)
)
D # ) ) 0
0) )
)
Questa propriet` pu` essere estesa anche allo scambio di due colonne in qualunque posizione e non
a o
necessariamente adiacenti. Osserviamo prima di tutto che vale il seguente, utilissimo, risultato.
Lemma 12. Se due colonne sono uguali, il determinante e nullo.
`
# ) 0) ) 00
)
))
# ) 0)
)
) 0)0 S 0) ) # G
)
)
"S 00) # G
))
) )
))
)
# 0) 0 00) 0) )
)) )
D # 00) 0 ) 0)
))
00) D
" 0) )
Matrici e vettori
. Ma allora se sostituiamo
, per la
2 G
) 0)
)
Lemma 13. Se due colonne qualunque, ad esempio la colonna -esima e -esima (con
sono scambiate, il determinante cambia segno.
) ) ))
D # 0) 0 ) 00
Q
#
`
`
dove
, cioe puo essere solo
`
proprieta 2 dei determinanti, si ha che
D
46
),
Dimostrazione. Si ripete lo stesso argomento utilizzato nel caso delle colonne consecutive.
) # ) 00 0) 0
)) ) )
)
) 0) ) 0)
)
)
) )
)
)
# 0) )0 ) ) 0 ) 0)
# ) 0) ) 0)
# 0) 0 )0) 0 ) 0)
) )
)
)
))
)
# 00) ) 0)
# 0) 0 00)
) )
))
)
# ) 0)
0) )
)
Q
D
0) )
)
0) )
)
0) )
)
Il primo e lultimo termine sono nulli per il lemma 12, per cui si ritrova lespressione
0) 0
) )
0) )
)
)) )
)
# ) 00 ) 0) 0) )
# ) 0)
)
`
dove pero ora
D
scalari qualsiasi. Allora
) 0)
)
0 2 0) )
)
$
%
#
)))
))
D # 00)
))
00)
2
&
) 00 "S 0) )
) )
)
#
2
&
escluso
!
"
)
) 0)
) # ) 00
))
Il simbolo
14
&
con
Sistemi Lineari
47
per
))
D # ) 00
Q
0 2 00)
))
si ottiene
) # ) 0)
)
2 S ) 0)
)
))
D # 00)
)
S 0) )
`
1.2.3 Esistenza ed unicita del determinante
Teorema 15. Esiste una unica funzione determinante che soddisfa le propriet` , ,
a
indica col simbolo
.
e che si
P I G
` `
`
Dimostrazione. Poiche, come si e gia osservato nellintroduzione, si puo scrivere
D
`
dalla multi-linearita del determinante segue che
(1.17)
) # 0) 0
) )
)
) 0)
$ $
$ $
)
) 0)
D #
)
) 0)
`
Non e difcile rendersi conto che la sommatoria nale ottenuta in (1.17) coinvolge
ter`
mini, di cui pero soltanto sono non nulli. Infatti tutti i termini del tipo
con e tali che
sono determinanti di matrici con almeno due colonne uguali e
quindi nulli per il lemma 13. Gli unici termini non nulli sono quindi quelli per cui gli indici
`
sono compresi tra ed ma sono tutti distinti, cioe formano una permutazione
`
dei primi numeri interi. Dato che ogni permutazione puo essere ottenuta tramite una
serie di scambi, si ha dal lemma 12 che
)) ) ) )
# 00) 0) 0 ) 0)
) )
0) 0
))
# ) 00
))
D # ) 00
00)
))
48
Matrici e vettori
))
# 00)
`
`
dove
puo assumere solo i valori
o
ed e chiamata segno della per`
mutazione
. Osserviamo che il segno della permutazione e semplicemente
elevato al numero (minimo) di scambi necessari per trasformare la sequenza , ,
`
che si sta
. . . , in , ,. . . , ed e dunque indipendente dalla particolare funzione
considerando. Indichiamo con
linsieme di tutte le possibili permutazioni degli interi
`
. La (1.17) puo essere riscritta come
I G
)#
) )
0) 0
00)
))
# B
# 0) 0
) )
#
# ) 00
))
D #
) )
0) 0
) #
B ) 00 G
))
D #
Q
Essendo
`
`
Si puo vericare immediatamente che le tre proprieta assiomatiche dei determinanti sono
automaticamente vericate dalla funzione
. Le prime due seguono dal fatto che
`
coincide con
a meno di una costante moltiplicativa, mentre la terza e conseguenza
della normalizzazione per
.
#
Si noti che la dimostrazione e in effetti costruttiva, in quanto suggerisce una formula, che, sebbene
`
non praticissima, permette il calcolo del determinante di una matrice. Riprendiamo questo fatto
enunciandolo come un corollario separato.
si ha
# 0) 0
) )
3
) )
# 0) 0
dove
ma.
Inne, dalla dimostrazione segue anche unaltra propriet` interessante che sar` utilizzata in seguia
a
to.
allora
)#
soddisfa le propriet` e
a
D #
#
Corollario 17. Se
) 00 ) 00
))
))
))
) 00
) )
0) 0 #
00) 00)
))
))
00) 00)
))
))
))
) 00
))
) 00
))
) 00
) )
0) 0
))
00)
D
D
D #
0) 0
) )
) )
0) 0
0) 0
) )
D
D #
D #
0) 0
) )
) )
0) 0
0) 0
) )
)
) 0)
0) 0
) )
#
15
tale che
Se consideriamo la matrice
D
`
Il determinante della matrice prodotto e dunque
#
, sono
#
#
D D
) 0)
)
D
0) 0
) )
D
D D
.
.
.
la matrice prodotto
Siano
15
per colonne,
49
50
Matrici e vettori
ed ancora
) )
) 0) 0) 0
D #
) 00 ) 0)
)) )
`
e . Per il corollario del teorema 15 e vero che
D #
0) 0
) )
`
soddisfa le proprieta
Quindi
) )
0) 0
)
) 0)
D #
) )
0) 0
D
D
si ottiene inne
D #
D #
D
2
2 D
G
da cui si deduce che
G D
2
I determinanti hanno la loro applicazione principe nella regola di Cramer16 , che permette di formulare in maniera teorica la soluzione di un sistema lineare ad equazioni in incognite e matrice
dei coefcienti non singolare.
16
Sistemi Lineari
51
)
D
D
come coefcienti.
Calcoliamo ora
) )
0) 0
))
) 00
) )
0) 0
))
) 00
) )
0) 0
)
) 0)
)
) 0)
)
# ) 0) 2
))
) )
# 00) 0) 0
))
00)
D #
perch per
e
ogni termine della sommatoria coinvolge il determinante di una matrice con due
colonne della ripetute ed e quindi nullo. La regola di Cramer ha senso, cio` e possibile calcolare
`
e`
gli , solo se la matrice
dei coefcienti e non singolare (cio` le colonne sono linearmente
`
e
indipendenti). Quindi si richiede che sia
)
Q
D #
D #
) )
0) 0
#!B
&
'%$#
! #
!
"#
1
#
#
per
e
`
#
con
, con
1
18
17
52
Matrici e vettori
`
di somma e prodotto la soluzione desiderata. Il costo della regola di Cramer e tale che
`
`
gia per
ne e sconsigliabile luso, mentre per piu grandi la crescita del fattoriale
D #
Q
) 0)
)
&
&
&
, , ...,
siano linearmente dipendenti, per cui
,. . . ,
non tutti simultaneamente nulli tale che
in
, ...,
vettori
&
&
& D
`
Senza perdere in generalita possiamo supporre che almeno li-esimo coefciente sia non
`
nullo, cioe
, e quindi ottenere
) &
&
G D
&
&
& &
2
2 & &
&
D &
& D
0) 0 &
) )
&
)
G ) 0)
)
0) )
) 00 ) 0)
)) )
1
0) 0
) )
D #
$1
Sistemi Lineari
53
B 0) 0 G
) )
D
#
) )
# 0) 0
) )
0) 0
) 0)
)
0) 0
) )
$ $
#
#
$
$
) )
# 0) 0
G
D
0) 0
) )
`
dove si e dapprima utilizzato lo stesso argomento del teorema 15 per ridurre la somma`
`
toria alle permutazioni degli interi
e quindi si e introdotta la quantita
B ) 00 G
))
) )
# 0) 0
`
`
che e ovviamente nita essendo somma di un numero nito di prodotti di quantita nite.
Risulta evidentemente che
e che
.
D #
0) 0
) )
`
E possibile generalizzare il risultato appena visto nel caso i vettori siano meno di ? La risposta e
`
positiva, ma richiede lintroduzione di qualche strumento ulteriore.
$
$
54
Matrici e vettori
,. . . ,
,. . . ,
Q
G
D
E
P
possiamo estrarre la sottomatrice
P
G F
Ovviamente una sottomatrice e ancora una matrice e quindi pu` essere indicata al solito da una
`
o
qualsiasi lettera maiuscola.
3
T
3
$ $
19
,. . . ,
vettori ,
con
Teorema 20. Se i
della matrice
3
0) 0 H
) )
D
sono nulli.
ha la forma seguente
0) 0 D
) )
$ S
# D
`
dove
e il vettore composto solo dalle componenti con indice di riga , ,
&
#
&
& D
!
#
Perch si suppone
e
19
Sistemi Lineari
55
&
&
, ...
& D
vettori in
.
Vogliamo mostrare ora che la relazione che lega lesistenza di un qualche minore di ordine per
vettori colonna di
con la loro indipendenza lineare e di fatto una equivalenza, perch vale
`
e
anche il seguente teorema.
linearmente indipendenti,
con
3A
B
con sono
della matrice
)
00)
))
) 0) H
)
D
, ,
,. . . ,
,. . . ,
, si ha che i vettori
& ))
) 00 &
Dimostrazione. Sia
'
, allora la negazione di
2 2
' ' '
implica
'
' D
20
implica la
&
,. . . ,
56
Matrici e vettori
`
che puo essere riscritto come
'
'
&
& '
'
'
& '
'
& '
'
D '
'
'
'
' D
, ...,
poiche
D
& ' '
Q
e quindi
,. . . ,
D
Q
'
, ,
, ...,
I G
) )
0) 0 D
o in altre parole
Lemma 23. Sia una matrice le cui colonne sono costituite dei vettori , ,. . . ,
allora i
minori di ordine restano invariati se all -esimo vettore si aggiunge una combinazione lineare
degli altri vettori cio` se si sostituisce al vettore il vettore
e
) &
0) 0
) )
0) 0 D
) )
&
ed
$ S
#
dove
`
e quindi per il lemma 14 il determinante non e cambiato.
I lemmi 22 e 23 ci danno la possibilit` di semplicare la dimostrazione dellinverso del teorema 20,
a
infatti potremmo cambiare le colonne della matrice con opportune combinazioni lineari che non
cambiano il valore dei determinanti dei minori ne la dipendenza o indipendenza lineare dei vettori
colonna e portano la matrice in una forma opportuna che semplica la dimostrazione.
Sistemi Lineari
57
Lemma 24. Sia una matrice le cui colonne sono costituite dai vettori , ,. . . ,
linearmente indipendenti allora tramite opportune combinazioni lineari dei vettori colonna che non
cambiano il valore dei minori di ordine pu` essere messa nella forma
o
..
.
.
.
D
E
I G
Q
) )
D
0) 0
D
,
con
.
.
.
`
Dimostrazione. La dimostrazione e fatta per costruzione. Supponiamo infatti che sia
Q D
#
Q
))
# 00) ! # # D
della forma
Q Q
# S
D
.
.
.
e quindi la matrice
D #
Q
D
58
Matrici e vettori
`
Osservazione 11. Il lettore smaliziato21 notera che stiamo utilizzando senza dirlo esplicitamente un processo di eliminazione di Gauss sulla matrice
. La triangolarizzazione
`
con scambio di righe puo essere effettuata per i passi necessari proprio perche la ma`
trice e supposta di rango massimo, il che garantisce lesistenza dellelemento pivotale
non nullo. Questo procedimento fornisce anche una tecnica operativa per determinare il
rango di una matrice in alternativa a quella ingenua di cercare a occhio la sottomatrice
quadrata non singolare piu grande possibile.
I teoremi n qui dimostrati forniscono un procedimento per determinare il rango di una matrice.
Dimostrazione. Sia
5 0) 0
) )
D
E
e siano
00)
))
vettori linearmente indipendenti, allora per teorema 25 tra tutti i minori di ordine che
sono formati dalle colonne
,
,. . . ,
ne esiste almeno uno con determinante non
`
nullo. Viceversa se e un minore con determinante non nullo costruito dalle colonne
,
,. . . ,
sempre per il teorema 25 segue che i vettori
,
,. . . ,
sono linearmente
indipendenti.
21
Un lettore smaliziato e per esempio uno studente brillante che ha letto e capito gli argomenti presentati nel capitolo
`
successivo.
Sistemi Lineari
59
`
1.2.9 Il teorema di Rouche-Capelli
Utilizzando i teoremi che sono stati n qui introdotti e dimostrati e possibile denire dei criteri per
`
sapere se un dato sistema di equazioni lineari ammette o meno soluzioni. Consideriamo il sistema
lineare
(1.18)
U5
7
dove
,
e
. Supponiamo che sia una possibile soluzione, senza
preoccuparci in questo momento della sua unicit` . Allora sappiamo che si pu` scrivere
a
o
0
D
) )
0) 0
pi il vettore colonna .
u
dove con
`
Viceversa se il sistema (1.18) non ammette soluzioni, allora il vettore non e una combinazione
lineare dei vettori colonna della matrice . Quindi il vettore e linearmente indipendente dai
`
vettori colonna di e quindi il numero di vettori colonna linearmente indipendenti dellinsieme
,
, ...,
e pi piccolo del numero di vettori linearmente indipendenti dellinsieme
` u
,
, ...,
, . Questo in simboli si pu` scrivere come
o
)
0
)
0
85
7
3
dove
60
Matrici e vettori
I risultati sui determinanti permettono di dare una forma operativa del teorema 27, infatti
Teorema 28. Sia dato il sistema
85
7
dove
,
e
. Allora il sistema ha soluzione se e solo se il massimo
ordine dei minori non nulli della matrice e lo stesso della matrice
`
.
Dimostrazione. Basta applicare il teorema 26 per il calcolo del rango di una matrice.
U5
7
3
e
, con
`
. E interessante notare che
,e
e
`
) D
D #
Sia
Quindi, data una soluzione particolare del sistema lineare non omogeneo
per
ogni soluzione del sistema lineare omogeneo si ottiene una diversa soluzione del problema non
`
omogeneo della forma
. E intuitivo che la soluzione di un sistema lineare non omogeneo
una volta che ne sia ammessa lesistenza e unica solo nei casi in cui possiamo garantire che sia
`
sempre
, cio` che lunica soluzione possibile del sistema lineare omogeneo
e
sia il
vettore nullo.
, tale che
. Allora la soluzione
vettore assegnato, esiste ed e unica.
`
3
4
del problema
`
Dimostrazione. Dimostriamo separatamente prima lesistenza e poi lunicita.
Esistenza. Poiche in
possiamo avere al massimo vettori linearmente indipendenti,
implica che
, e lesistenza segue dal teorema 27.
`
Unicita. Essendo la matrice quadrata di ordine uguale al suo rango, si deduce
immediatamente che le sue colonne
, sono vettori linearmente
indipendenti. Supponiamo ora di avere due soluzioni possibili del sistema lineare
e , per cui possiamo scrivere
non omogeneo, che indichiamo con
. Per differenza si ottiene
, da cui segue che
,
`
cioe
.
)
)0) 0
B
D #
0
0
Sistemi Lineari
61
lu`
`
`
nicita non e sicuramente possibile. Infatti il massimo rango possibile e almeno
colonne sono linearmente dipendenti dalle altre, per cui esistono almeno
vettori linearmente indipendenti di
, corrispondenti alle combinazioni lineari dei vettori colonna
della matrice , che sono soluzione del problema omogeneo.
B
B
Osservazione 13. Nel caso di matrici rettangolari con piu righe che colonne
il
`
massimo rango possibile e ovviamente . Tuttavia, il sistema lineare ammette soluzione
soltanto nel caso si abbia
. Viceversa il sistema lineare sarebbe infatti
sovradeterminato. Questo signica che possiamo eliminare un certo numero di equazioni
e ridurre la matrice nale a quadrata o rettangolare con piu colonne che righe. Nel caso
sia
eliminando opportunamente
equazioni siamo nella situazione del
teorema 29. Altrimenti dovremo eliminare un numero maggiore di equazioni e saremo
proprio nel caso dellosservazione precedente.
B 0
0
0
))
) 00
D
E
))
00)
D
))
) 00
qualsiasi
))
00)
) )
0) 0
D S%
))
) 00
))
) 00
Sia
e li
))
) 00
D %
62
Matrici e vettori
%
2%
sostituiamo il cofattore
%
D
` `
cioe e la matrice in cui al posto dell elemento
..
..
.
.
.
cft
..
))
) 00
"
))
00)
D %
dove con
si indica la matrice uguale ad tranne per la -esima colonna che e sostituita
`
con il vettore . Con questa notazione la regola di Cramer si pu` scrivere come segue
o
Con questa notazione tramite la linearit` il determinante si pu` calcolare con lo sviluppo sulla
a
o
prima colonna
S%
D
oppure, in maniera del tutto analoga, con lo sviluppo sulla -esima colonna
) %
Sistemi Lineari
63
) %
D
%
D
C
Dimostrazione. Per
il lemma fornisce esattamente la formula dello sviluppo del
, si ha
determinante sulla colonna . Invece, se
D
D
Q
D %
Infatti la matrice
si ottiene sostituendo nella matrice la colonna -esima con
la colonna -esima. Se
riotteniamo la matrice , altrimenti otteniamo una matrice
`
con due colonne uguali, il cui determinante e nullo per il lemma 12.
D
H
cft
Dimostrazione. Scriviamo esplicitamente il prodotto della trasposta della matrice cofattore di per la matrice . Si ottiene
S%
D #
cft
D
D #
cft
22
con
Si noti bene che si sta parlando di rappresentazione formale e non di calcolo della matrice inversa.
Matrici e vettori
64
e
`
G
cft
2
D
E
cft
`
Lunicita dellinversa destra e sinistra conclude la dimostrazione del teorema.
Osservazione 14. Questa relazione fornisce una rappresentazione esplicita della matri`
ce inversa; in particolare si osservi che linversa si puo costruire solo se il determinante
`
`
`
della matrice e non nullo, cioe la matrice e di rango massimo.
`
Vale anche in questo caso la stessa osservazione fatta per la regola di Cramer, e cioe
che questa formula ha un signicato essenzialmente teorico, ma, dipendendo dal calcolo
di cofattori, che, come vedremo nella prossima sezione, comporta il calcolo di minori di
`
`
, e troppo costosa per essere di qualche utilita computazionale. Anticipiamo,
ordine
`
come si e fatto per la regola di Cramer, che esistono tecniche numeriche che calcolano il
determinante di una matrice con un costo computazionale assai inferiore.
2 2
#
2 G
D
2 2
#
D %
dove con
si intende la sottomatrice ottenuta sopprimendo la riga -esima e la colonna
-esima della matrice .
2 2
. Possia-
,. . . ,
2
) 0) 2 00)
)
))
D S%
%
2
Q
2 2
Q
2
Q
2
Q
2
Q
Q
2
.
.
.
2
.
.
.
2
2 2
, ...,
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
`
e funzione dei vettori
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
D S%
.
.
.
D S%
2
Q
2
2 2
2
Q
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
65
I G
) B ) 0) D
)
) )
0) 0
) )
0) 0
))
00)
2 2
#
G
) 2
#
G
2 #
2
) )
0) 0
) )
0) 0
D
D
D #
2
) )
0) 0
2
2
) 0)0
)
7
)
) 0)
) 00
))
D #
2
) )
0) 0
) )
0) 0
) 0)
)
2 2
2 2
2
00) "
))
) )
0) 00
2
.
.
.
.
.
.
scambi si ottiene
.
.
.
.
.
.
; con
.
.
.
.
.
.
base canonica di
abbiamo
.
.
.
.
.
.
23
Supponendo ad esempio
0) 0
) )
osserviamo che
2
2
# 00) ) 00
))
))
00) 2 ) 00
))
))
D
D S%
B @ B
e la funzione
soddisfa i primi due assiomi sui determinanti. Introduciamo per sempli`
care le notazioni il simbolo
che rappresenta la matrice identita di dimensioni
. Quindi per il corollario del teorema 15
66
Matrici e vettori
Sistemi Lineari
67
I G
) B ) 0)
)
D
(1.19)
# G
2 2
))
) 00
) )
0) 0
D
dove
.
.
.
`
ed usando la multilinearita del determinante
) )
0) 0
) )
0) 0
))
) 00
)
) 0)
))
) 00
D
) )
0) 0
))
00)
)
) 0)
%
%
.
.
.
68
Matrici e vettori
D
`
Dimostrazione. Si puo dimostrare per induzione sullordine della matrice.
`
ovviamente non ce nulla da dimostrare;
assumiamo come ipotesi induttiva che lenunciato del teorema sia vero per
e verichiamo che segue . Consideriamo lo sviluppo del determinante di
sulla
prima colonna e lo sviluppo del determinante di
sulla prima riga. In entrambi i
`
casi abbiamo una somma di termini ognuno dei quali e il prodotto di un elemento
della colonna di o della riga di
che quindi coincidono per i corrispondenti
si elimina
cofattori. Ma questi sono determinanti di sottomatrici di ordine
sempre una riga ed una colonna e di
a due a due una trasposta dellaltra,
per cui dallipotesi induttiva sono uguali. Il teorema segue immediatamente.
G
G
F
R
D
E
7 3
, allora
)
7 3
D
dove
`
e funzione
)#
0) 0
) )
D
`
soddisfa i primi due assiomi dei deterE immediato vericare che
minanti e quindi per il corollario del teorema 15 si ha
)
) 0)
0) 0
) )
D
D #
) 00
))
D
)
) 0)
0) 0
) )
69
70
Matrici e vettori
Autovalori ed autovettori
sono singolari?
non siano di
di ordine .
D #
e un polinomio in
`
e quindi anche
ed
D
e la sua trasposta
dalla
la matrice
e consideriamo la matrice
Sia
relazione
1.3
#
3# ) 00
))
di grado al piu .
Dato che una matrice e singolare quando il determinante e nullo, la condizione di singolarit` per
`
`
a
ci porta alla seguente denizione.
D #
`
e detto polinomio caratteristico della matrice
Autovalori ed autovettori
71
$ #
.
zeri distinti che sono
`
compete una molteplicita
D #
G
D
B
se
dove
Se la matrice
e singolare per un dato valore dello scalare , allora deve esistere almeno un
`
vettore
tale che
cio` , trasponendo,
e
D #
D
`
e un autovettore destro
)
(
`
e un autovettore sinistro
D
`
e autovettore di
`
cioe
#
D #
In generale si ha che
e
.
Analogamente se la matrice
esistere almeno un vettore
Osservazione 16. Ricordando la denizione di kernel di una matrice, possiamo dire che
gli autovettori destri risp. sinistri di
rispetto ad un autovalore
sono tutti e
risp. del ker
.
soli gli elementi del ker
Matrici e vettori
72
Lemma 39. Se , , . . . ,
sono autovettori dello stesso autovalore , allora ogni loro
combinazione lineare e ancora un autovettore rispetto allo stesso autovalore.
`
si ha che
&
D &
D
&
scalari qualsiasi
&
Dimostrazione. Scelti
`
`
Denizione 38 (Molteplicita geometrica). Deniamo come molteplicita geometrica delil massimo numero di autovettori linearmente indipenlautovalore , indicata con
denti che possiamo scegliere nello spazio di vettori ker
associato allautovalore
.
)
Dimostrazione. Siano , , . . . ,
gli autovettori corrispondenti a , che possiamo
sempre considerare ortonormali (altrimenti si applica Gram-Schmidt).
Se
aggiungiamo altri
vettori per completare una base ortonormale. Sia
la matrice le cui colonne sono questi vettori.
)
) ) ) 0
2
) 00 !
))
da cui
che verica
))
) 00
D
D
..
Autovalori ed autovettori
73
`
ma puo
`
`
e una radice del polinomio caretteristico di molteplicita almeno
quindi
essere superiore se
. Concludendo
.
..
`
Osservazione 17. Se un autovalore, per esempio l -esimo, ha molteplicita
,
allora, poiche
, non ci sono abbastanza autovettori linearmente
indipendenti per formare una base.
`
`
e a valori reali e e un numero reale allora possiamo trovare
i cui vettori hanno componenti reali.
Osservazione 19. Se
una base di ker
`
e non singolare se e solo se non ammette lo zero
H
D
H
D
Osservazione 20. Per matrici reali (tutte le componenti sono reali), i concetti di simme`
tria e hermitianeita coincidono, mentre differiscono per matrici complesse (almeno una
`
componente e complessa).
Esempio 25.
G
Q
I
G
G
P
D
G
G
Q
`
non lo e.
D
H
`
e una matrice simmetrica, mentre
74
Matrici e vettori
Esempio 26.
G
G
Q
G
G
Q
D
G
G
Q
G
I
G
D
E
D
P
`
non lo e.
`
non lo e.
D
si dice normale se
Esempio 27.
G
D
E
Q
`
`
e una matrice normale (e anche hermitiana).
Le propriet` di simmetria per matrici reali o di hermitianeit` per matrici complesse, inducono
a
a
propriet` molto forti su autovalori ed autovettori. Vale infatti il seguente teorema.
a
Teorema 41. Una matrice reale simmetrica o hermitiana ha solo autovalori reali.
reale e simmetrica
hermitiana. Supponiamo che
sia hermie
un autovalore ed il suo autovettore. Moltiplicando a sinistra
Dimostrazione.
tiana e che siano
per
si ottiene
Autovalori ed autovettori
75
`
Dalla denizione di norma e di autovettore segue che il denominatore e sicuramente un
`
numero reale strettamente positivo. Anche il numeratore e un numero reale, come si
vede dalla sequenza di uguaglianze
e un numero]
`
#
#
D
`
un rapporto tra numeri reali, e a sua volta un numero
. Essendo
quindi
reale.
Teorema 42. Per ogni autovalore di una matrice reale simmetrica esiste un autovettore che ha
solo componenti reali.
un suo autovet-
D #
D
D
`
`
e non nullo ed e
)
Q
Dimostrazione. Osserviamo che
Teorema 43. Sia matrice reale simmetrica o hermitiana, e due autovalori distinti e
due corrispondenti autovettori. Allora e sono ortogonali, cio`
e
)
(
D
D
76
Matrici e vettori
segue che
perche
`
Osservazione 21. Se e una matrice simmetrica o hermitiana, allora segue immedia`
tamente dalle denizioni che ogni autovettore destro e anche autovettore sinistro. Per
esempio, per simmetrica
[trasposizione]
H
D
D
E
Inne, una propriet` fondamentale delle matrici reali simmetriche o hermitiane consiste nella posa
sibilit` di diagonalizzarle mediante opportune trasformazioni dette trasformazioni di similitudine
a
che coinvolgono (ma solo in questo caso particolare) matrici ortogonali o unitarie, di cui diamo
di seguito la denizione.
`
e ortogonale se la sua trasposta
) 2 D
`
e unitaria se la sua trasposta coniu-
) 2 D
`
sia a valori reali allora il concetto di unitarieta
Autovalori ed autovettori
,. . . ,
D
E
..
ortogonale tale
con
77
`
`
Dimostrazione. La dimostrazione e per induzione. Il teorema e vero per matrici
.
un autovalore di (reale per il teorema 41) ed
un corrispondente autovettore
Sia
di norma (che possiamo assumere a valori reali per la osservazione 19). Possiamo
completare
ad una base ortonormale
,
,. . . ,
per la osservazione 5. Sia la
matrice le cui colonne sono i vettori
,
,. . . ,
. Allora avremo
, infatti
G @ G
)
D
D
D #
avremo
dove e
sono rispettivamente un vettore riga e una matrice quadrata non ancora
specicate. Moltiplicando a sinistra per
otteniamo
`
e simmetrica. Quindi la matrice a
`
e simmetrica. Applicando
e
`
e simmetrica segue che
e dal fatto che
`
blocchi a destra in (1.20) e simmetrica e quindi
(1.20)
D
H
`
e la matrice ortogonale cercata.
.
abbiamo che
Quindi ponendo
..
..
..
`
linduzione esistera una matrice
78
Matrici e vettori
Autovalori ed autovettori
,. . . ,
D
E
..
tale che:
con
79
`
Dimostrazione. La dimostrazione e praticamente identica a quella del teorema prece
dente, purche si sostituiscano i termini simmetrico e ortogonale con hermitiano e
unitario e tutte le trasposizioni di matrici reali che coinvolgono la notazione
I G
B ) 0)
)
D
D
#
G
Q
G
I
D
E
con autovalori
`
e detto raggio spettrale della matrice
si chiama spettro
#
,. . . ,
)
0) ) D
#
3#
3#
D #
80
Matrici e vettori
G G G D #
D
3
sta in .
esima componente
D
Q
alla
lindice della
Calcoliamo la relazione
, e
Dimostrazione. Sia ,
una coppia autovalore, autovettore di
componente di modulo massimo di
Esempio 29.
Q
)
D
) )
G Q
I I
) )
G
Q G
I Q
D
x
D #
D
E
Autovalori ed autovettori
81
D
#
G I
#
G I
D #
Q
I
D
E
si dice a diagonale
B ) 00 I G
))
D
S
`
Dimostrazione. Basta osservare che lo zero non puo appartenere allunione dei cerchi
di Gerschgorin, e quindi la matrice non ha lautovalore nullo.
82
Matrici e vettori
D
Q
D
Q
`
allora diremo che e denita positiva. Se la condizione 2 viene a mancare allora diremo
`
che e semidenita positiva.
Teorema 48. Se
`
allora esistera un autovettore
abbiamo
moltiplicando per
tale che
un autovalore di
Dimostrazione. Sia
da cui
D
D
H
autovalori di
)
# ) 0)
D
2 D
2 D
D
24
[Binet]
,e
con
reale simmetrica
Dimostrazione.
e SPD allora
`
Teorema 49. Se
tale che
Autovalori ed autovettori
allora le matrici
5 U6 3
7 5
7 5
3
con
83
sono SPD.
)
(
2 7 2 1 3
25
e SPD,
`
dove
Sia
25
,e
`
e SPD. In
.
segue che
per ogni
. Quando
si ha anche
`
# 2
2
2
2
D
2 D
2
2# 2
si ha che
Osserviamo che
G
2# 2
e deniamo
la matrice
Partizioniamo la matrice
(ipotesi induttiva).
`
`
e uno scalare ed il teorema e banalmente vericato.
B
B
per
`
e SPD e quindi
B ) 00 I G
))
D
Dimostrazione. 1
84
Matrici e vettori
Autovalori ed autovettori
Q
2
come
F
D
%
`
e uno scalare. Allora avremo che
)# 2
quindi
ed
D %
2
D
D
`
e SPD, quindi
2
Sia ora
conseguenza
componenti ed
`
e un vettore di
dove
e partizionando
2
e poiche
85
. Di
86
Matrici e vettori
1.4
Norme di matrici
Vogliamo mostrare che la nozione di norma introdotta per i vettori si pu` estendere al caso delle
o
matrici. Dato che lidea di lunghezza di una matrice non e intuitiva, svilupperemo largomento
`
in maniera formale. Iniziamo introducendo alcune propriet` interessanti delle norme vettoriali.
a
`
1.4.1 Alcune proprieta delle norme vettoriali
`
Teorema 52 (Continuita delle norme). La norma vettoriale e una applicazione (uniforme`
mente) continua dallo spazio dei vettori
in .
`
Dimostrazione. Luniforme continuita delle norme segue immediatamente dalla relazione
, allora
&
%
&
%
D
`
Dimostrazione. Se
il teorema e banalmente vericato. Se
si proce`
de dimostrando che lenunciato e vero per
ed il caso generale segue
immediatamente per confronto.
G
`
Consideriamo linsieme
. Si osservi che e chiuso e livericano la condizione
mitato (per esempio tutte le componenti di ogni vettore
`
`
), quindi e un compatto in
. La funzione norma
e continua e quindi assume in il suo minimo (nito) strettamente positivo ed il suo massimo che indicheremo
rispettivamente con e . Per ogni vettore
si ha che
&
e quindi vale
& D
D
&
da cui si ottiene
Norme di matrici
87
valgono le diseguaglianze
Si prenda
e si osservi che ogni vettore
deve avere almeno una
componente di modulo uno, diciamo quella corrispondente allindice con
, e tutte le altre per
di modulo
. Si ha che
D
G
D
D &
D %
Q
D
se
se
denito da
#
ed al vettore ausiliario
al generico vettore
88
Matrici e vettori
$ #
D
D #
`
1.4.2 Cosa e la norma di una matrice?
U5
7
Per
la diseguaglianza precedente e vericata banalmente per qualsiasi costante . Per
`
questa ragione possiamo considerare solo vettori
, per i quali vale sicuramente lespressione
che ci permette di identicare con lestremo superiore tra parentesi quadre. Nel seguito dimostreremo che nelle condizioni in cui ci siamo posti questo estremo superiore esiste sempre nito.
Per ora osserviamo che questa quantit` dipende soltanto dalla matrice e dalla scelta delle norme
a
vettoriali fatta allinizio, come del resto e ragionevole aspettarsi. Questa quantit` e quindi una
`
a`
caratteristica della matrice
e che si comporta come una norma, nel senso che soddisfa le tre
propriet` fondamentali che intervengono nella denizione assiomatica delle norme.
a
85
7
3
vale
`
Teorema 54 (di esistenza ed unicita). Per ogni matrice
D
con
Norme di matrici
89
Ragionando come nella dimostrazione del teorema di equivalenze delle norme, introdu, che abbiamo detto essere un compatciamo ancora linsieme
`
`
e ovviamente
to in
. La funzione che associa ad ogni vettore
la quantita
continua (composizione di funzioni continue) e quindi assume in il suo massimo. Sia
il vettore tale che
G D
Essendo lestremo superiore un maggiorante e non potendo essere strettamente maggiore di altri maggioranti (per esempio il max appena trovato) ne consegue che
soddisfa le tre propriet` assiomatiche delle norme. Questo ci giustica nellusare il simbolo
a
che indicher` la norma della matrice .
a
3
`
`
ovviamente non puo essere negativa. Dobbiamo vericare dunque che e nulla
se e solo se
. Se consideriamo la matrice nulla
allora si ha che
per ogni
e quindi
D
E
ragionando per
. Sia infatti
D
H
ma ovviamente
. Dimostriamo che
implica
`
e verichiamo che
negazione, cioe supponiamo che
D
E
D
1.
90
Matrici e vettori
D
per almeno
)
Q
85
7
3
5 U5
7
3. Sia
2. Siano
allora,
, allora possiamo
(1.21)
, ricaviamo che
3
scalare e
U6
7 5
Norme di matrici
D
%
`
`
verra imposta lulteriore proprieta
4. Se
e solo se
3.
D
E
2.
1.
91
85
7
vale
(1.22)
denita da
5 D
85
7
3
vale
`
e compatibile con le norme vettoriali
Denizione 48. Una norma matriciale
se per ogni vettore e matrice
vale la relazione
5 D
85
7
5
`
e denita come segue
vale
Teorema 57.
In modo analogo si dimostra il seguente teorema:
e questo implica la (1.22).
5 D
D
D #
se
se
D
G
D
il vettore denito da
la riga per cui
e sia
allora avremo
sia ora
quindi
92
Matrici e vettori
Norme di matrici
93
)#
(1.23)
`
La matrice
e una matrice hermitiana e quindi per il teorema 45 esiste una matrice
unitaria che la diagonalizza
,. . . ,
D
E
dove
(1.24)
..
dalla (1.24)
e
00)
))
D
'
#
le matrici
D
D
sono simili,
#
2
94
Matrici e vettori
e quindi
)#
D #
le matrici
e
non possono essere simili in quanto
`
. Si puo comunque provare che la (1.25) vale anche in questo
5 85
7
D
Nel caso
e
caso.
(1.25)
CAPITOLO
DUE
95
96
2.1
Eliminazione di Gauss
D
D
D
.
.
.
.
.
.
detta forma triangolare. Un sistema in forma triangolare si pu` risolvere immediatamente tramite
o
sostituzioni allindietro, cio` partendo dallultima incognita, il cui valore, si osservi, e gi` noto.
e
` a
2
2$
2
2
2 2$ 2
2 $ 2
$
2$ 2
2 $2
D
G
D
I
D
$
.
.
.
(2.1)
Eliminazione di Gauss
97
)
Q
D I G
D I
I
G D
Q D I
D
D
Q
G
D I
D
G
G
D
I
D
Q
D
D
G
I
P
`
in cui abbiamo numerato le equazioni a destra in parentesi quadra per facilita di riferimento. Trasformeremo questo sistema in forma triangolare eliminando di volta in volta le
incognite , , 2 per mezzo di opportune combinazioni lineari delle equazioni.
;
;
G
I
P
(
( I
(
lequazione
P
I
lequazione
I
sostituiamo allequazione
sostituiamo allequazione
lequazione
P
sostituiamo allequazione
dalle equazioni
98
Si ottiene
G
P
D
G
D
G
I
I
(
( P
( I
I
G
G
(
(
(
G
G
D ((
(
P
((
I
( G ((
(
(((
((
((
D
G
P
I
G
G
GG D
I
I
D
G
(
D
G
D (((
lequazione
I
( G ((
I
I
G
(
G
sostituiamo allequazione
lequazione
dallequazione
sostituiamo allequazione
dallequazione
I
I
Eliminazione di Gauss
99
`
Il sistema e ora in forma triangolare e tramite il procedimento allindietro (2.1) possiamo
calcolare la soluzione:
GG
G G D
D I
G G D G
G G
G
G G
G G
D
D
G
D
Osservazione 26. Per trasformare un sistema lineare di forma qualsiasi in forma triangolare sono sufcienti solo due tipi di operazioni:
sommare ad una equazione unaltra equazione moltiplicata per un opportuno scalare;
scambiare due equazioni.
Si noti che la soluzione di un sistema non cambia se scambiamo due equazioni oppure
se sostituiamo ad una equazione la stessa equazione sommata ad unaltra equazione 3 .
L algoritmo di Gauss si pu` quindi descrivere come segue:
o
Algorithm Metodo di eliminazione di Gauss
Input: Dato il sistema lineare
.
.
.
Perch succede questo? Il lettore verichi che e una conseguenza della linearit` .
e
`
a
.
.
.
..
..
.
.
.
.
.
.
..
100
B 0) 0 G
) )
D
) &
7
dove
2
2
2 2
2
2 2
!
&
!
"
G
.
.
.
&
.
.
.
.
.
.
..
.
.
.
..
6.
7.
8.
9.
for
to n
10.
do
11. ( Alla ne di queste operazioni otterr` il sistema equivalente
o
come
esima
to n-1
do ( Sia il primo intero con
per cui
. )
if
then ( scambio la esima equazione con la
esima )
( Costruisco il sistema
equivalente al sistema
esima con
sottraggo lequazione
segue: Alla equazione
moltiplicata per
che porta alla seguenti formule: )
to n
for
do
Q D
for
1.
2.
3.
4.
5.
A questo punto il sistema e in forma triangolare ed e facile risolverlo con le seguenti formu`
`
le: )
7
12.
13. for
downto 1
14.
do
15.
for
to
16.
do
17.
18. return
C & &
B G
7 &
&
Eliminazione di Gauss
tale che
)
Se
allora scambio la riga esima con la riga
esima della matrice
componente esima con la componente
esima del vettore
.
Sia
101
e la
`
Questo procedimento di scambio si chiama pivoting. Lo scopo del pivoting e di migliorare
`
laccuratezza della soluzione calcolata. Infatti si puo mostrare che la divisione per un
`
numero molto piccolo (in modulo) puo essere estremamente inaccurata.
L algoritmo di Gauss si pu` quindi descrivere anche come segue:
o
Algorithm Metodo di eliminazione di Gauss (in loco)
Input: La matrice dei coefcienti e il vettore dei termini noti
1. ( Eliminazione )
2. for
to n-1
3.
do ( Pivoting: determinare tale che
con
. )
4.
5.
for
to n
6.
do if
then
7.
( e scambiare la riga esima equazione con la
esima. )
8.
if
9.
then
10.
for
to n
11.
do
12.
( Eliminazione )
13.
for
to n
14.
do
15.
16.
for
to n
17.
do
18. ( Sostituzione allindietro )
19.
20. for
downto 1
21.
do
22.
for
to
G
&
7
&
&
B
7
&
102
do
C & &
7 &
return
23.
24.
25.
! D
D
D
!
2 2
0) 0
) )
))
) 00
Q
D
! !
2 2
H
D
! !
dove
.
.
.
`
cioe tale che
I G
)
D
) 0)
D
Q
Q
..
.
.
.
Q
G
.
.
.
G
Q
Q
.
.
.
Q
Q
.
.
.
.
.
.
.
.
.
..
Eliminazione di Gauss
103
D
E
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
`
e
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
il prodotto
D
Leffetto della moltiplicazione consiste quindi nel sostituire alla riga -esima, della matrice
, con
, la riga -esima sommata alla riga -esima moltiplicata per lo scalare
. Con la stessa simbologia utilizzata nella presentazione dellesempio della sezione
precedente, stiamo quindi modicando la matrice come segue:
;
#
(#
( # G
G
I
B ( B
`
e la matrice
lequazione
sostituiamo allequazione
...
lequazione
sostituiamo allequazione
lequazione
sostituiamo allequazione
I G
)
D
) 0)
2
4 5
2
)
`
, cioe
D #
4 D
2
D
3#
Q
Q
)
) )
# ) 0) 0) 0
poiche
Al primo passo
5
D
5
4
4
Q
ne consegue che
5
D
ed osservando che
4
Infatti
104
Eliminazione di Gauss
105
della forma:
..
# #
D
G
Q
G
Q
..
..
.
.
.
.
.
.
D
E
.
.
.
D
E
.
.
.
, leffetto
`
cioe scambia la riga
`
e la riga
.
.
.
.
.
.
dove
esima.
Osservazione 31. Scambiando due volte le stesse righe di una matrice riotteniamo la
`
`
e una matrice di scambio allora
matrice iniziale. Quindi, se
cioe
coincide
con la sua inversa.
D
`
Osservazione 32. Il prodotto di due matrici di scambio e una matrice di permutazione,
che modica lordinamento delle righe di una matrice. Le matrici di permutazione sono
matrici ortogonali, per cui la loro inversa coincide con la trasposta.
Le due operazioni fondamentali richieste dal procedimento di eliminazione di Gauss somma ad
una equazione di unaltra equazione moltiplicata per uno scalare e scambio di due equazioni si
possono esprimere tramite applicazioni successive di opportune matrici di Frobenius e matrici di
scambio elementari.
!
P I
) B ) ) 0 D
)
B ) 0) P I
)
D
D
.
.
.
B ) ) 0 P I
)
Q
Q
G
Q
D
!
!
!
!
"
otteniamo il
.
.
.
.
.
.
..
..
.
.
.
.
.
.
..
..
.
.
.
.
.
.
D
.
.
.
dove,
se
se
deniamo
poniamo
ed inoltre si ha
Moltiplicando il sistema
sistema trasformato
Supponendo
Dato il sistema
G
Q
Q
G
Q
Q
G
B 0) 0 I
) )
D
I G
)
) ) 0 D
22
2
2
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
2 2
.
.
.
.
.
.
se
se
.
.
.
e ponendo
.
.
.
.
.
.
Supponendo
.
.
.
..
2.1.3
Eliminazione di Gauss
107
2 Le matrici
1 Le matrici
Inoltre
D
E
allora
2 2
2! 2 2 D
chiamando
D
E
Q
D
B @ B
e supponiamo
per ogni . Dopo
Come si vede lalgoritmo di Gauss ripete lo stesso procedimento ad ogni passo a matrici sempre
pi` piccole no ad arrivare alla triangolarizzazione della matrice originale.
u
I
G
) B 0) 0
) )
D
G
B ) 0) I
)
D
dove
2 2
2 2
2 2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
otteniamo
108
Eliminazione di Gauss
109
3 Applicando il lemma 59
2 2
2 2
2 2
#
3#
2 2
2 2 D
`
e una matrice triangolare inferiore.
Si vede che
`
`
La matrice e una matrice triangolare inferiore, quindi la matrice e stata decomposta
nel prodotto di una matrice triangolare inferiore e una matrice triangolare superiore .
Tale decomposizione prende il nome di decomposizione o fattorizzazione LU.
Q
G
!
"
2 2
2
2 2
!
.
.
.
..
.
.
.
D
4
.
.
.
D
..
"
.
.
.
.
.
.
..
Q
.
.
.
.
..
`
e quindi chiaro che si possono memorizzare sia la matrice che la matrice
in una
unica matrice (la diagonale di non viene memorizzata). Analizzando il metodo di Gauss
si vede che le matrici e
possono essere memorizzate nella matrice originale .
Questo permette di scrivere il seguente algoritmo che calcola la decomposizione
di
una matrice e salva il risultato nella matrice stessa.
Algorithm Decomposizione
110
Input: La matrice
Output: La matrice contenente i fattori della decomposizione
1. for
to n-1
to n
2.
do for
3.
do
4.
for
to n
5.
do
6.
&
G
7
&
&
)
(
D (
`
Dimostrazione. Il risultato e conseguenza immediata dei seguenti passaggi
# #
5 # 3#
D
4 D
`
e ortogonale al vettore
D (
4
`
dove si e anche sfruttato il fatto che il vettore
Lalgoritmo di Gauss con pivoting pu` quindi essere messo in questa forma:
o
(2.2)
D
E
2 2
2 2
dove
e una matrice di scambio o la matrice identit` a seconda che sia necessario o meno
`
a
scambiare delle righe al esimo passo dellalgoritmo di Gauss. Osserviamo che
per
e quindi applicando il lemma 60 otteniamo
. Possiamo quindi
spostare i prodotti per le matrici di scambio a destra nella (2.2) ottenendo
2 (
D #
2 2 ( (
Eliminazione di Gauss
D (
dove la matrice
111
B ) ) 0 I G
)
D
Ponendo dunque
2 2
2#
2
(
D
E
2 # ! 2 # (
(
2 #
(
otteniamo
`
Osservazione 35. Si e illustrato il funzionamento dellalgoritmo di fattorizzazione con pi`
voting considerando la possibilita di scambi di righe, detto pivot parziale, che corrisponde
`
sul sistema lineare a scambiare tra loro le equazioni, cioe a numerarle in ordine diverso.
`
Si puo introdurre un pivoting piu generale, detto pivot totale, che ammetta sia scambi di
(2.3)
D
`
In (2.3) e la matrice di permutazione delle righe, ottenuta come prodotto delle matrici di
`
scambio elementari delle righe e
e la matrice di permutazione delle colonne ottenuta
come prodotto delle matrici elementari di scambio delle colonne.
e il vettore
Algorithm Decomposizione
con pivoting
Input: La matrice
Output: La matrice contenente la decomposizione
ne
1. ( Inizializza il vettore della permutazione )
contenente la permutazio-
112
2. for
to n
3.
do
4. for
to n-1
5.
do
6.
( Pivoting: trovo tale che
con
. )
7.
8.
for
to n
9.
do
10.
if
11.
then
12.
13.
( scambio la riga esima equazione con la
esima. )
14.
15.
( Eliminazione )
16.
for
to n
17.
do
18.
19.
for
to n
20.
do
21.
22. return ,
G
&
&
G
7
&
`
Osservazione 36 (Pivot numerico). Se lelemento pivotale e non nullo, in teoria non sa`
rebbe necessario operare uno scambio di righe. Tuttavia, se lelemento pivotale e molto
`
piccolo in valore assoluto, lalgoritmo di fattorizzazione tendera a produrre dei comple`
menti di Schur molto grandi, e questo potrebbe originare problemi di stabilita numerica.
Nella pratica si controlla questo effetto scegliendo comunque lelemento pivotale in valore
assoluto maggiore nella colonna pivot parziale o nella sottomatrice pivot totale
formate dagli elementi che devono ancora essere fattorizzati, quando lelemento pivotale
corrente ha un valore inferiore ad una soglia pressata. E possibile dimostrare che con
`
questa tecnica, detta pivot numerico, si garantisce la stabilita numerica dellalgoritmo di
fattorizzazione nel senso sopra esposto.
Osservazione 37 (Pivot simbolico). Esiste unaltra ragione molto importante per operare una scelta di pivot diversa da quella legata al valore dellelemento pivotale, che
accenniamo brevemente per completezza. Nella pratica si ha spesso a che fare con
Eliminazione di Gauss
113
`
matrici sparse, cioe con matrici che hanno un numero di elementi non nulli dellordine
della dimensione della matrice, e non del suo quadrato. E importante mantenere la
`
sparsita della matrice durante il processo di fattorizzazione. Infatti, il meccanismo del
complemento di Schur tende a produrre non-zeri, e se il numero di non-zeri che vengono
prodotti diventa enorme la memoria del calcolatore potrebbe non essere sufciente per
memorizzare i fattori ed . Un semplice scambio di righe, che equivale a scambiare
le equazioni del sistema, permette di controllare la formazione dei non-zeri. Mostriamo
questo effetto con il seguente esempio.
Q
Q
Q
Q
Q
1
Q
Q
Q
Q
Q
Q
Q
Q
D
E
1 1
3
1 1
della matrice
`
e della matrice che si ottiene prendendo righe e colonne nellordine inverso, cioe
Q
Q
Q
Q
1 1
1 1
Q
Q
Q
Q
Q
Q
Q
Q
Q
1 1
Q
1
1 1
114
Nella pagina successiva mostriamo la struttura dei non-zeri della matrice e della matrice permutata simmetricamente,
, e la struttura dei non-zeri dei loro rispettivi fattori
triangolare superiore ed inferiore prodotti dallalgoritmo di Gauss, dove supponiamo che
non sia necessario fare un pivot numerico.
Eliminazione di Gauss
115
10
11
10
5
6
nz = 28
10
11
11
10
11
5
6
nz = 55
10
11
5
6
nz = 19
10
11
5
6
nz = 28
10
10
11
5
6
nz = 55
10
11
11
8
9
10
11
5
6
nz = 19
10
11
11
10
e di
116
tale che
) D
e vogliamo determinare
non-singolare e
3
Sia
Fattorizzazione di Cholesky
2.2
D
H
D
)
D
Il costo computazionale di questo procedimento e non solo il costo della soluzione dei due sistemi,
`
ma anche e soprattutto il costo necessario per determinare e . Inoltre il calcolatore deve
avere una capacit` di memoria sufciente per memorizzare entrambi i fattori. Ci` non produce
a
o
normalmente problemi se la matrice e piena, dato che si sfrutta lo stesso spazio di memoria
`
gi` occupato per la matrice. Se la matrice e sparsa, a causa del processo di formazione di nona
`
zeri di cui si e discusso nella sezione precedente, la memoria del calcolatore potrebbe non essere
`
sufciente per memorizzare entrambi i fattori.
Per queste ragioni e interessante capire quando e possibile una fattorizzazione del tipo
`
`
con
Poich` si richiede di calcolare un solo fattore invece che due, e sensato aspettarsi sia un costo
e
`
computazionale che unoccupazione di memoria forse non dimezzati ma sicuramente inferiori5.
Il seguente teorema caratterizza le matrici per cui esiste la fattorizzazione di Cholesky.
Teorema 61. Le matrici quadrate non-singolari per cui e possibile una fattorizzazione della
`
forma
con matrice triangolare superiore sono tutte e sole le matrici simmetriche e
denite positive, (SPD).
H
D
`
`
Dimostrazione. Mostriamo innanzitutto la necessita, cioe che la fattorizzazione di Cho`
lesky e possibile solo per matrici simmetriche e denite positive. Mostreremo in seguito la
`
` `
sufcienza, cioe che data una matrice che ha tali proprieta e sempre possibile calcolare
il suo fattore di Cholesky .
Il gioco vale la candela!
Fattorizzazione di Cholesky
con
`
Necessita
Sia
decomposizione
117
non singolare ed
.
H
D
Simmetria
. Quindi,
D
`
e non-singolare, si ha
Inoltre, se
) E
D
`
Positivita
`
Se e non-singolare, allora anche
segue
Sufcienza
`
La dimostrazione procede per induzione sullordine della matrice, ma e anche in parte
costruttiva. Illustreremo un algorimo di riduzione, che permette di ricondurre il problema
della fattorizzazione di una matrice SPD di ordine a quello di una matrice SPD di ordine
`
. Per induzione, si trovera che tutte le matrici SPD sono fattorizzabili.
3 %
e lo scalare
2 1 3
D %
D
E
2 7 2 1 3
, il vettore
.
.
.
.
.
.
..
.
.
.
% F
..
3
D
E
Scriviamo la matrice
.
.
.
introducendo la sottomatrice
.
.
.
.
.
.
118
D
(
D
F E
e sviluppiamo il prodotto
)
R
D
R
`
si puo esprimere uguagliando i blocchi nelle posizioni
ed
(
(
R
La fattorizzazione
corrispondenti di
% F
( D
%
%
G D (
`
ed , cioe
D %
(2.4)
o equivalentemente
3 (
2 7 2 1
G D (
6
Se fosse strettamente negativo, il ragionamento che segue avrebbe ancora senso ammettendo di calcolare la
radice quadrata in campo complesso. Questo tuttavia non produrrebbe una algoritmo numerico efciente. Se fosse
nullo, il ragionamento che segue non sarebbe possibile. Il problema, in realt` , non si pone, perch dimostreremo tra un
a
e
a
attimo che lipotesi SPD assicura la positivit` stretta di questo scalare.
Fattorizzazione di Cholesky
119
di Cho-
in cui la prima riga sarebbe completamente determinata e resterebbe da calcolare il fatdella matrice
di ordine
. Di fatto, avremmo ridotto
tore triangolare superiore
`
di uno la dimensione del problema ed e evidente che se si potesse ripetere questo procedimento volte, arriveremmo alla ne ad una matrice di ordine la cui fattorizzazione
sarebbe banalmente
(
D
`
Mostreremo che lipotesi che sia SPD garantisce che tutto il procedimento ipotizzato e
`
`
in realta ben denito. Innanzitutto, osserviamo che valgono le seguenti proprieta.
#
`
Se e SPD, allora
.
Il risultato si ottiene applicando la denizione di matrice denita positiva ad
vettore della base canonica:
#
`
`
Se e SPD, allora
e SPD.
`
La simmetria di
e evidente dalla sua denizione. Vogliamo mostrare inoltre che
non nullo si ha
per ogni vettore
, primo
D %
(
2 1 3
5 2 %
4
(
2 1 3
(
cio`
e
Q
)
Q
% D
R
F
R
(
% F
`
La positivita di questo trinomio di secondo grado in
del trinomio sia negativo, per cui sicuramente vale
4 D
120
`
e questa e proprio la condizione che dobbiamo vericare!
`
Sfruttando le due proprieta (a) e (b) possiamo concludere la dimostrazione procedendo
per induzione sullordine della matrice. Assumiamo che
sia SPD, e che si
abbia
`
`
una matrice SPD si fattorizza come gia riportato prima, e cioe
D
(
D
G
per
( (
D (
`
`
`
Allora, le proprieta (a) e (b) implicano che se e SPD e possibile operare la riduzione, e
`
dalle ipotesi induttive segue subito che la matrice e fattorizabile in forma di Cholesky.
Step 1
Il teorema appena dimostrato ci informa che possiamo scrivere anche una decomposizione del tipo
(
R
G F
R
% F
D
E
G D (
(
%
e
e il complemento
`
Fattorizzazione di Cholesky
121
Step 2
Poich la matrice ridotta
e
e ancora SPD, possiamo ripetere su di essa lo step precedente.
`
Iniziamo riscrivendo la matrice a blocchi
(
R
( (
F D (
( ( %
)
( %
"
((
R
( %
2
(
G F
"
F
( ( %
(
R
2 7 2 1 3 ((
La matrice ridotta
%
( ( ( G ( D ((
(
( %
ottenuta
al primo step
( %
( G
"
( %
(
(( G
"
2
( ( %G
( %
( (
( ( %
dove le matrici
e
sono introdotte in maniera ovvia. Dopo due step di fattorizzazione, la
matrice e stata cos` decomposta
`
Step k generico
)
0) )
)
0) ) H
D
Dopo
122
dove
R
3
2 F D
2
2 %
G
2
2
2
%
%
G
2 %
2 %
)
) 0)
))
00) E
D
2
)
)
0) ) ) 0) E
D
B 0) ) I G
)
D
(
Le matrici
non solo sono triangolari inferiori ma sono anche matrici di Frobee matrice di Frobenius di indice e dato che il prodotto di
`
nius. Pi precisamente, la matrice
u
Step n
Procedendo in questo modo e evidente che dopo
`
della matrice originale,
Dopo
introducendo le matrici
,
, dove il blocco interno
e il complemento di Schur della
`
matrice
rispetto allelemento pivotale
, ed e ancora una matrice SPD.
`
Fattorizzazione di Cholesky
123
queste matrici (e delle trasposte) appare nellordine giusto, esso e una matrice triangolare inferiore
`
che ha nella colonna -esima l -esima colonna di
. Possiamo introdurre la
e quindi la
come
)
) 0) D
e concludere che ad ogni passo dellalgoritmo stiamo effettivamente calcolando una colonna (o
una riga) del fattore di Cholesky (o del suo trasposto).
Osservazione 38. Si noti che la simmetria della matrice permette di risparmiare nel
calcolo degli elementi dei vari complementi di Schur, perche anche questi risulteranno
simmetrici come conseguenza del teorema generale. Nel metodo di fattorizzazione di
`
Cholesky si opera quindi sempre sulla diagonale e sulla meta superiore (o inferiore) della
matrice, essendo il resto degli elementi noto per trasposizione.
&
%
%
G
&
D
R
(
&
(% F
&
(%
`
dove ora
a
e lelemento pivotale e e rappresentano la prima riga e colonna di
partire dal secondo elemento, e supponiamo che esistano due matrici triangolari inferiore
e superiore
e
tali che
( (
D #(
( D(
D %
G
E
D
& D %
D
E
D (
&
(%
G ( (
,e
se
e diag
se
;
con
124
((
B ) 00 I
))
D
6
`
Osservazione 40. Dato che il teorema generale garantisce che lelemento pivotale e
`
sempre strettamente positivo, si potrebbe pensare che non e necessario operare alcun
pivoting. Valgono tuttavia le stesse considerazioni fatte a proposito del pivot numeri`
co e del pivot simbolico per lalgoritmo di Gauss. Nel caso di matrici sparse e sempre
consigliabile operare un pivot simbolico per controllare la formazione dei non-zeri.
CAPITOLO
TREE
125
126
D #
tale che
D #
7
1
3
#
D #
D #
3
1
Questioni da denire
)
`
che annulla il residuo, cioe tale che
.
, determinare
non-singolare e
3
1
Problema: dati
non-singolare e
Sia
3.1
una successione di
127
come
..
..
.
.
.
.
.
.
..
3
A
1
Scriviamo
D
E
D
H
Q
Q
Q
Q
#
#
#
H
D
il sistema
D
E
decomponiamo la matrice
..
..
.
.
.
.
.
.
..
ed
..
.
.
.
..
..
.
.
.
..
.
.
.
..
Con le matrici
.
.
.
..
e triangolare inferiore ed in
`
128
Metodo di Jacobi
in (i)
`
Tuttavia si noti che questultimo essere riscritto come lo schema di Gauss-Seidel, cioe
lo schema ottenuto da (ii), sul problema lineare in cui equazioni ed incognite sono state
prese in ordine inverso. Si tratta quindi uno schema di Gauss-Seidel allindietro.
1
2
129
Metodo SOR
D
H
reale e
, cio`
e
noto come Successive Over Relaxation method, da cui lacronimo SOR. Si noti che il metodo SOR dipende da un parametro
che deve essere individuato correttamente per garantire
convergenza ed efcienza.
2 D 2
4
2
D 5
Scriviamo , matrice quadrata non singolare di ordine , come differenza di due matrici
in cui e non singolare e facile da invertire.
`
3.1.2 Generalizzazione
130
# 2
Osservazione 43. Tutti i metodi precedenti introdotti nora, Jacobi, Gauss-Seidel, SOR,
sono casi particolari del metodo generale.
SOR
G 2
Jacobi
2#
Osservazione 45. Uno schema convergente nel senso della denizione precedente ha
`
convergenza globale. Per problemi non-lineari uno schema iterativo puo essere convergente solo per un sottoinsieme di vettori di
. In tal caso si parla di convergenza locale.
Per problemi lineari, si assume sempre che la convergenza sia globale.
e la soluzione
Questione:
131
quindi la condizione che lo schema iterativo sia convergente si pu` esprimere anche chiedendo
o
che lerrore sia innitesimo in norma
4 D
5 2
)
D ) 0) D
5 2 D
4
5 2 D
. Invece si
D
Q
D
D
noti che
`
Quindi studiare la convergenza di un metodo iterativo e equivalente a studiare quando il
residuo tende a zero.
132
5 2
D
4 D E
# 2
2 2
2
2 5 2 4
2
D
) 2
D
2 #
2 D 2
D
D
2
) 2 D
2 D
2 D
D
E
ed una decomposizione
G
G
#
con
non
133
se e solo se
#
# 2
# 2
# 2
D
Il residuo
# 2
# 2 D
# 2
per ogni
# 2 D
# 2
134
# 2
# 2
per ogni
G 5
G 5
2#
Teorema 67. Il raggio spettrale della matrice di iterazione del metodo SOR soddisfa
G
)
I Q
# 3
`
e condizione necessaria
Osservazione 47. Questo risultato dice che scegliere
per la convergenza del metodo SOR, indipendentemente dalla matrice
,
dato che
D
H
I Q
# 3
.
2
G
G
) #
D
`
e una qualsiasi matrice con autovalori
e raggio spettrale
) #
G
)
Prendendo
135
Se
, la quantit`
a
esprime la riduzione dellerrore al -esimo passo. La
media geometrica delle riduzioni dellerrore sui primi passi
))
00)
# 2
# 2
# 2
4
Quindi stima la velocit` di convergenza sulle prime iterazioni ed e controllato da una quantit`
a
`
a
che dipende dalla matrice di iterazione dello schema. Come possiamo stimare questa quantit` ?
a
136
)#
U6
7 5
`
Osservazione 48. La quantita
non dipende dalla norma matriciale utilizzata e
`
nemmeno dallindice di iterazione . Possiamo assumerla come una stima della velocita
`
, cioe uguale alla matrice
di convergenza sui nostri metodi iterativi ponendo
di iterazione.
Denizione 56 (Tasso asintotico di convergenza). Si denisce tasso asintotico di convergenza di uno schema iterativo la costante
)#
, cio`
e
) #
Q0G
G
5# 2
4
Criteri di Arresto
Sia ssata una tolleranza sullerrore. I criteri pi` comunemente usati sfruttano un controllo sulla
u
variazione assoluta e relativa delle iterate al generico passo
THEN STOP
IF
THEN STOP
IF
Tuttavia e importante rendersi conto che queste condizioni non garantiscono che la soluzione sia
`
stata approssimata con accuratezza
137
Infatti, si ha che
2 5 2
4
2
2
D
) 5 2
5 2 D 2
4 2
4
Dalla relazione
5 2 D 2
4 2
4
si ha
2# 2
lerrore in norma
per cui se
5 2
(ripetiamo)
CAPITOLO
QUATTRO
ZERI DI FUNZIONI
4.1
Introduzione
#
che
D #
. Se la
D # %
7 D %
D #
#
Q
dove
funzione
dove
soddis
tale che
trovare
D #
#
7
"
D %
139
#
4.2
e un
`
Il metodo dicotomico e una diretta applicazione del seguente teorema che ricordiamo senza dimo`
strazione.
#
D # %
# 3 %
Q
# #
#
Se
e continua ed e sono due punti tali che
`
, allora
ed
segno discorde. Il teorema 69 implica lesistenza di almeno una radice nellintervallo
Consideriamo ora il punto medio del suddetto intervallo,
; allora
hanno
.
#
#
e tale che
# #
Q
)
D
#
# 0
D #
Q
# 6#
Q
# 6#
3.
2.
1.
.
.
Escludendo il primo caso, si pu` sempre dimezzare lintervallo di ricerca nel quale esiste una
o
radice. Lo schema dicotomico permette, data una tolleranza , di trovare un intervallo di lunghezza
che contiene una radice. Lalgoritmo si pu` scrivere come segue:
o
140
Zeri di funzioni
Q
# Q 6#
I
D #
Q
3.
do
4.
if
then return
5.
if
6.
then ( esiste almeno una radice nellintervallo
;
7.
8.
else ( esiste almeno una radice nellintervallo
;
9.
10.
11. ( contiene lapprossimazione della radice cercata. )
12. return
. )
#
. )
Si pu` calcolare il numero minimo di passi necessari per approssimare una radice con laccuratezo
za richiesta. Infatti,
2
2
2I D
.
.
.
I
# 2 D
I
# 2 D
si ottenie
quindi posto
2I
#
e di conseguenza
#
per cui la parte intera del membro di destra fornisce il numero minimo di iterazioni necessarie per
stimare una radice a meno di un errore minore o uguale ad .
Sia data
supposta funzione continua sullintervallo di denizione, e con
, per cui l intervallo
contiene almeno uno zero di
.
# #
4.3
141
R
#
F
R
#
F
cio`
e
# # #
(4.2)
# D
f(a)
f(x)
y=f(a)+(x-a)[f(b)-f(a)]/(b-a)
b
a
f(b)
Lo zero della retta in (4.2) fornisce la seguente stima dello zero della funzione
) # # D
# #
# # #
Q
# D
A questo punto potremmo utilizzare un procedimento simile a quello per il metodo dicotomico
e ripetere il procedimento per lintervallo
o
. Se usassimo lo stesso algoritmo dello
schema dicotomico avremo che in generale la regula falsi non costruisce intervalli convergenti a
zero come si vede dalla gura 4.2
142
Zeri di funzioni
f(b)
a0
a1
a2
a3
b=b1=b 2=...
0
f(a)
0
dove
# #
perci` descriveremo landamento della regula falsi come la successione di due punti
o
e una approssimazione della radice e e tale che
`
`
.
Q
# 6#
# #
# #
#
Q
do
if
return
;
;
then
else
4.
5.
6.
7.
8.
3.
#
;
;
#
per ogni
#
#
#
(( #
143
I G
)) )
0) 0 D
((
implica che la
)
# '!
G
. Sia
#
. Calcoliamo ora
Q
#
# #
) #
D #
Q
3
#
Q
#
"
!
G
Q
#
# #
# # D
D
# '%
#!
%
segue che
# '!
#
segue che
3
#
#
Q
`
. Inoltre dalla convessita segue
# G
Q
D # #
# # #
#
#
# # G
# #
D #
#
#
Q
#
Poiche
che
`
Ovviamente dalla continuita di
Inoltre poiche
in
per
) D
D D
))
00)
e di conseguenza
G Q
) 0) D
)
`
Quindi
per
e una successione monotona crescente e quindi convergente.
Indichiamo il suo limite col simbolo ; allora avremo che
# # D
# #
`
Inoltre varra
144
Zeri di funzioni
e di conseguenza
Q D
# #
D #
`
`
cioe il metodo e convergente.
segue che
Metodo di Newton-Raphson
4.4
poiche
#
) # ( 6#
(4.3)
# D
#
f(x0)
y=f(x0)+(x-x )f(x )
0
0
f(x 2)
x1
x0
x2
f(x 1)
) # (
#
#
# 1) #
(
Lo zero
Q
# D
(4.4)
I G
) 00 D
))
(
#
Metodo di Newton-Raphson
145
D # % (
#
#
3
con
2.
P I G
) 0) D
)
%
P I G
))) D
#
1.
per
# %
%
I #
((
) #
# (
%
# # ( D
Q
( # D # % D
% #
(( #
( D
#
%
(( D
% 3#
(( #
da cui
# ( )
(
# % (
% Q %
(4.5)
)#
#
3
% (
# ( I
%
) # (
# (
% (
punto ,
# % % 3
(
`
. Inoltre, per la continuita di
. Se
(
) #
otteniamo
146
Zeri di funzioni
% (
4.5
Inoltre ponendo
# 6#
I G
) ))
) 00 S
D
(4.6)
2
#
2
2 # # 2
# #
#
, per cui ci
Nel metodo delle secanti quando si arriva a convergenza si ha che
possono essere problemi di cancellazione. Osseviamo che ci` non si verica nella regula falsi,
o
dato che per quel procedimento vale
. Inoltre, se non e sufcientemente vicino
`
alla radice, non e detto che lo schema converga. Studiamo quindi la convergenza locale dello
`
schema. Sia una radice di
, sottraendo a entrambi i membri della (4.6) otteniamo
# #
2
2
2 #
% # % 3# %
2
#
2
# #
2
2
# # % 2 # # %
# %
# # 2
2
#
# #
2
2 # # 2
# #
%
# 2
#
2
2
2
2
% 2
# #
# % # 2
#2
% 2
# % #
) %#
D %
D
D # %
# % #
Inoltre poich
e
(4.7)
# % #
2
#
# 2 #
D %
%
%
2
# #
147
(4.9)
)
2
2
# #
# 0) D
(
% % 3
# % # % # % # %
(( G D
3
) ) 0
)
3
) 0)
)
Lemma 72. Se
dove con
(4.8)
# % # % % # % # ! %
!
`
e proprio (4.9). La funzione
$#
!
#!
$"
D '"
#!
D $"
#!
G Q
G Q #
D !
D # (
#!
# % % ( # ! % ( D $" (
!
!#
I
G
(4.10)
otteniamo
I
) # 1( ) G D
(
( #
( G
% ( D # 1
D #
#!
'" (
D '" (
#!
% D
# (
2
I
2
# ( ) G D
(
% 2
%
# % # # % #
e calcolando la (4.10) in
D
6
D
Q
Ponendo
si annulla per
punto
`
e immediato vericare che
(4.11)
# ( # %
# ((
3# %
D %
(4.12)
) 0)
)
) 0)
)
P Q
G Q
)
P Q G
## 2
otteniamo
) G
D
$D #
abbiamo
per
G D
$ # $D #
2
per
#
Q
per
) 0)
)
P Q
%
D # (
% (
$D
((
(
G Q
I G
) ) 0 D
)
G D
# % (
# ( G
# ((
# ((
# D
I
# % ( G #
# (
I
G G
)
avremo
per cui vale
`
`
e continua esistera un
D # % (
I G Q
) 0) D
)
% D
%
`
`
e continua esistera una costante
`
e uno zero semplice e
) allora esiste un
il metodo delle secanti e
`
otteniamo
ed
((
inoltre poiche
Dimostrazione. Poiche
cui vale
#
3
148
Zeri di funzioni
149
$D
$D
) D #
$ %
$D
$D
$D
avremo che
$D
$D
4.6
e ponendo
scegliendo
una soluzione particolare della relazione di ricorrenza
`
e la seguente:
Vogliamo ora dare una formulazione pi` generale alle iterazioni del tipo Newton-Raphson.
u
`
e un punto sso se vale:
)# %
D %
#
) #
D #
diremo che
Un modo molto naturale per cercare i punti ssi e quello di usare delle iterazioni. Ad esempio
`
dato un punto iniziale costruendo la successione
I G
) 00 D
))
(4.14)
(
#
D #
150
Zeri di funzioni
fondamentale per lo studio di schemi iterativi della forma (4.14) e il seguente teorema:
`
# %
D %
(4.15)
, dove la costante
(#
soddisfa:
%
in un intervallo chiuso
. Sia
per ogni ,
Q
allora
I G
) ) 0 D
)
Posto
#!
(4.16)
# %
# %
2
D
) & %
& %
segue che
# %
# &
& D %
%
# %
& %
&
`
e nellintervallo
(iii) siano
.
.
.
e quindi
in
Dimostrazione.
(unicit` )
a
) % D
151
`
e differenziabile possiamo scrivere
(# S 3
(#
(#
# (
3# 1( D (#
% 3
# (
`
e un punto sso di
dove
convergono ad .
e quindi se abbiamo
## (
(( 6# D # (
allora
D # %
Q
#
# (
D #
#
`
`
e una funzione
e continua nellintorno di
se
allora
sufcientemente piccolo di avremo
## % ( 0
%
# % (( # % D # (
D
(
#
`
cioe
`
e una radice semplice di
Se
e scegliendo un intorno
% 3
# (
`
e quindi per il teorema precedente lo schema di Newton-Raphson e convergente per
lomeno purche si parti da una approssimazione sufcientemente vicina alla radice e la
radice sia semplice.
D # % (
`
`
Osservazione 50. Se e un punto sso di
e inoltre
e chiaro che nella
`
`
`
iterazione (4.14) piu ci avviciniamo alla radice piu piccola e la costante e quindi piu ra`
pidamente ci avviciniamo al punto sso. Supponiamo ora che
esista e sia continua,
otteniamo:
allora sviluppando con Taylor attorno al punto sso la funzione
# ((
((
# %
I
# %
D #
152
Zeri di funzioni
e da questa
(4.17)
((
# %
((
D # %
`
Da questa equazione segue che lerrore alla iterata successiva e proporzionale al quadra`
to dellerrore precedente. In tal caso diremo che il metodo e del secondo ordine. Quindi in
`
particolare il metodo di Newton-Raphson e del secondo ordine nel caso di radici semplici.
`
un intervallo in cui lo schema e convergente e
# ((
%
Sia ora
% !
%
G
2 I
in modo che
D
I
# %
5 % !2
e quindi
) %
5 % 2
sufcientemente vicino ad
2 4
Scegliamo
osserviamo che
.
.
.
allora possiamo calcolare il numero di iterazioni necessarie per ridurre lerrore iniziale
di ad esempio
ponendo
Q
0G
5 2
# %
(4.18)
Q
2 0G
# %
153
## %
(4.19)
# I
73G
`
e proporzionale al numero di cifre esatte nella approssimazione di . quindi la (4.19)
signica che ad ogni iterazione un metodo al secondo ordine circa raddoppia le cifre
esatte.
e inoltre
D # %
con
2
3
# %
D # % ((
# %
D # % (
D #
un punto sso di
# %
#
esima
`
cioe
B
G
D #
segue che
(( # %
# (
2 # % B I #
# ( # %
2 #
2 # % 3# G B B D # ( )
(
(
)
%
D #
D # %
Q
dove
`
e una radice multipla di
`
Da questa equazionesegue che lerrore alla iterata successiva e proporzionale alla
`
potenza dellerrore precedente. In tal caso diremo che il metodo e di ordine .
e di conseguenza
# ((
# %
# ( # %
## ( # %
#
B I
#G
B B
B G
G D
#
D
## (
(( # D # (
# %G B
%
# % # B B D # (
154
Zeri di funzioni
quindi
G B G
G D # % (
`
e lo schema iterativo converge localmente anche se ora la convergenza e solo al primo
ordine.
4.7
Zeri di polinomi
D #
2 #
# D # (
D #
infatti
I G
)
) ) 0 D
D #
D #
# ( #
D #
Quindi il polinomio
e
hanno in comune solo le radici di
con molteplicit` maggiore
a
di . Se e una radice comune con molteplicit`
`
a
allora la sua molteplicit` in
a
sar`
a
.
escluso
# (
nella formula
Zeri di polinomi
155
, cio`
e
D #
D #
(4.20)
allora
divide
cio`
e
D #
D # %
#
e
# %
D #
divide sia
D # %
D # %
Q
# %
D #
# % 3#
e una
`
`
che
cioe
e se
allora necessariamente
opportuno polinomio.
Teorema 75. Se
radice comune a
per
2. Se
dove
divide
1.
D # %
# %
D # %
# %
D # %
D # %
D # %
Conseguenza di questi due teoremi e che il massimo comun divisore tra due polinomi e costituito
`
`
dal prodotto delle radici in comune con molteplicit` il minimo tra le due.
a
156
Zeri di funzioni
!#
!#
D #
P
D #
I
`
il loro massimo comun divisore e
# ( #
e
2 #
D #
)#
D #
Sia
vale
Allora il polinomio
#
#
2 #
# #
D #
G
2
G
5
! 4
G
5
! 4
`
il massimo comun divisore e
I0G
G
G
) 5
IG
# ! D #
! 4
I G I
! #
I
I
I
D
D #
D #
P
D
5P
#
P
:
:
5. Poiche
4. Calcolo
3. Calcolo
D #
D #
2. Calcolo
1. Inizializzazione:
3#
D # 1(
!#
D #
157
158
Zeri di funzioni
`
e poiche e unico a meno di una costante moltiplicativa scegliamo
! D #
9
otteniamo
per
dividendo
Per questioni computazionali (ad esempio nella costruzione di successioni di Sturm) a volte e pi`
` u
conveniente usare una versione modicata dellalgoritmo tenendo cento del fatto che se
e il
`
massimo comun divisore tra due polinomi anche
lo e dove e un qualunque scalare non
`
`
nullo. La versione e la seguente
`
e
Algorithm Algoritmo di Euclide per il M.C.D. di
Input:
,
1. if
2.
then
;
3.
else
;
4.
5. repeat
6.
(
e il resto della divisione di
`
con . )
7.
(
)
8.
9. until
10. (
e il massimo comun divisore )
`
(versione modicata)
2# # #
D #
2
Q
G
produce effettiva-
#
e
Zeri di polinomi
159
`
in questo caso estremo l algoritmo termina. Lalgoritmo puo essere quindi scritto come
segue
(4.20.0)
(4.20.1)
D #
D #
.
.
.
#
#
(4.20.m-1)
# !
5
# 5
#
2 # 2 5
,. . . ,
e
e
, allora dalla
divide
e cos`
`
e il
e quindi
D #
5 #
5 # 5 D #
2
5 D #
2 5
# 5
2 5
(4.20.m)
.
.
.
(4.20.k)
5 ) 00 #
))
se vale:
;
D #
, allora
# % # %
D # %
tale che
3 %
3. per ogni
non ha zeri su
2.
1.
160
Zeri di funzioni
#
5 ) 0) #
)
D #
# % (
, allora
# %
D # %
Q
tale che
3 %
4. per ogni
G Q P
G Q P
Q G
#
5 ) 0) #
)
D #
#
#
#
8Q
# 3
D #
oppure
in ogni caso il passaggio da non cambia il numero di variazioni di segno. Sia ora
uno zero di
e vediamo la variazione di segno nellintorno di , osserviamo che dalla
condizione della denizione 58 avremo
#
Q
oppure
Zeri di polinomi
161
e
procedimento termina. Abbiamo cos` la successione:
# !
D #
D #
.
.
.
#
#
5#
)#
D #
.
.
.
(4.21)
5 #
D #
D #
2 5
Questa successione a parte il segno di e esattamente la successione per il calcolo del massimo
`
comun divisore di un polinomio, e
e il massimo comun divisore tra e . La successione di
`
polinomi
9 ) 00 G Q
))
D
S
# D #
)# %
# % ( D # %
# % (
D # %
Q
# %
D # %
Q
D # %
, allora
3 %
D # %
D # %
tale che
3 %
4. per ogni
Osserviamo che se
, allora
tale che
# % # %
3. per ogni
abbiamo
non ha zeri su
2.
1.
162
Zeri di funzioni
Q
Q
Q
Q
Q
Q
Q
D
2 # G
G
..
..
.
.
.
.
.
.
2 2 # G
Q
(4.22)
D #
(basta sviluppare lungo l ultima riga). Applicando il teorema di Gershgorin alla matrice otteniamo
che le radici del polinomio (4.22) soddisfano
Applicando il teorema di Gershgorin alla matrice trasposta otteniamo che le radici del polinomio
(4.22) soddisfano
G
2
D #
2
oppure
Zeri di polinomi
163
CAPITOLO
CINQUE
INTERPOLAZIONE POLINOMIALE
164
Interpolazione polinomiale
Interpolazione polinomiale
punti distinti ed
per cui vale
B 1 3
) )
0) 0
5.1
165
#G
# D #
B
B ) 0) G Q
)
D
#
6#
per
D #
B ) 00 G Q
))
D
B
G
. Si
# D
# D
.
.
.
.
.
.
.
.
.
# D
#
#
#
.
.
.
.
.
.
.
.
.
con
.
.
.
`
e
`
e nota col nome di matrice di Vandermonde1 ed il suo determinante ha la
La matrice
forma seguente:
#
(5.1)
Interpolazione polinomiale
Dallipotesi che
per
(punti distinti) segue che il determinante di
nullo ed il problema ha una unica soluzione.
166
`
e non
.
.
.
.
.
.
(5.2)
D #
2
))
) 00
)
G
B 0) 0 G Q
) )
D
D #
Q
2
) )
0) 0
Cio accade perche si sta calcolando il determinante di una matrice con due righe uguali,
. Le ascisse , , . . . ,
sono radici del polinomio
lultima e di volta in volta la
`
, che puo essere quindi fattorizzato nella forma
9
3#
2
) )
0) 0
dove lo scalare
(5.3)
`
e il coefciente del termine di grado massimo.
D #
2
) )
0) 0
`
e il coefciente che moltiplica
)
) 0)
(5.4)
D #
) )
0) 0
2
) )
0) 0
2#
D #
3# 2
) )
0) 0
)#
D #
2
00)
))
2
)
) 0)
00)
))
3#
in (5.3) abbiamo
.
.
.
.
.
.
2
) )
0) 0
2 #
G
#
`
in cui e facile riconoscere una relazione di ricorrenza
Sostituendo questa espressione per
.
.
.
.
.
.
2
))
) 00
D #
.
.
.
.
.
.
otteniamo
Interpolazione polinomiale
167
168
Interpolazione polinomiale
# 1
# D
# D
B ) 00 G Q
))
`
Denizione 61 (Gradi di liberta). Gli
coefcienti
per
che deter`
minano il polinomio di grado si indicano normalmente col termine di gradi di liberta. Il
`
numero
si chiama coefciente del termine di grado massimo, ed e ovviamente assunto
`
non nullo quando il polinomio e di grado .
`
come combinazione lineare dei polinomi , , ,. . . , . Tuttavia puo essere scritto
anche come combinazione lineare di funzioni polinomiali generali, che indicheremo con i
,
,. . . ,
.
simboli
5.1.1 Generalizzazione
Esaminiamo cosa succede se consideriamo una funzione della forma:
B ) ) 0 G Q
)
D
D #
.
.
.
.
.
.
D #
D #
D #
#
#
#
#
#
.
.
.
Interpolazione polinomiale
169
#
#
#
#
.
.
.
.
.
.
.
.
.
con
) )
# 0)
nelle incognite
ha determinante non nullo.
#
D
B ) ) 0 G Q
)
D
( #
D #
di grado
3#
D #
la cui derivata prima e 3
`
D #
(
Lapice
) #
#
nellespressione
170
Interpolazione polinomiale
Si noti che
, cio` la derivata prima di
e
calcolata nellascissa del -esimo nodo di
interpolazione assume una forma particolarmente semplice,
) #
`
e un polinomio di gra-
Ogni
D #
( #
D #
)
#
Si ha quindi che
ed il problema della interpolazione si riduce a
. Il polinomio interpolante di grado si scrive immediatamente come
B 0) ) G Q
)
( #
D #
D #
)#
3#
D
Q
per lindice
D #
B ) 00 I G
))
D
# D #
Interpolazione polinomiale
#
#
.
.
.
D #
.
.
.
D #
#
#
con
#
Q
) )
# 0) 0 0
G
dove
)#
# D
D #
La matrice
nelle incognite
D #
D #
Q
.
.
.
.
.
.
D #
per
Osservando che
lineare
171
Se assumiamo come sempre che i nodi di interpolazione hanno ascisse distinte, cio`
e
per
, allora il determinante e non nullo ed il problema di interpolazione ammette una unica
`
soluzione.
D #
##
##
# # D #
##
,. . . ,
interpolano i nodi
D
B 0) ) I G Q
)
D
Ovviamente, per
))
# 0) 00
per
-upla di coefcienti
polinomi
172
si ha
)
D ) 0) D #
D #
Infatti, se per esempio esaminiamo il primo di questi polinomi, quello con indice
che
D #
Q
Per
Interpolazione polinomiale
, notiamo
)
0) )
3#
D #
# D #
I G
) ) ) 0
)
D
Possiamo esprimere questa propriet` per mezzo delle seguenti relazioni di ricorrenza per
a
#
)#
D #
D #
D #
La condizione di interpolazione
permette di ricavare immediatamente
unespressione per
, cio` per il coefciente del termine di grado massimo del polinomio
e
che sostituita nelle relazioni di ricorrenza permette di scrivere un algoritmo di calcolo per il
polinomio di interpolazione.
Interpolazione polinomiale
173
D #
si calcoli
)#
#
#
#
D #
B ) 0) G Q
)
D
D #
D #
G
2. e per
1. Si inizializzi
D #
D #
D #
#
#
D #
.
.
.
e triangolare inferiore e pu` essere risolto esplicitamente con la tecnica delle sostituzioni in avanti.
`
o
La soluzione del sistema lineare pu` essere scritta come
o
per
G Q
))
) 00 D
##
#
#
.
.
.
e non dai
`
Osservazione 55. Questo tipo di dipendenza non deve stupire, perche e ancora un
` `
modo per descrivere le relazioni di ricorrenza di cui si e gia parlato.
174
Interpolazione polinomiale
) 0)
)
D
))
) 00
D #
del
)
) 0)
0) 0 #
) )
D
) )
0) 0
))
) 00
))
) 00
G Q
)
) 0)
dove
) )0)0
Propriet` 2
a
La differenza divisa
interpolazione, cio`
e
Propriet` 1
a
La differenza divisa
e il coefciente del termine di grado massimo
`
polinomio interpolatore che interpola i
nodi di ascisse
.
Come conseguenza della propriet` 2 si ha che permutando la sequenza dei nodi di interpolazione
a
il polinomio non cambia. Il problema di interpolazione sui nodi di ascissa
ha
) )
0) 0
#
#
#
3#
)
) 0)
)
) 0)
D #
In maniera analoga possiamo costruire lo stesso polinomio interpolatore per i nodi di ascissa
,. . . , , con un ordine di interpolazione diverso, ad esempio , ,. . . , ,
.
)
" 0) )
)
))
)
00) ) 0) D
D
Propriet` 3
a
Ripetendo il ragionamento con un ordinamento qualsiasi dei nodi di interpolazione si ottiene
una denizione ricorsiva delle differenze divise di ogni ordine
) )
0) 0
2
#
) )
0) 0
00)
))
D
D
) )
0) 0
00)
))
2
2
2
)0) 0
0) 0
)
) )
2
2
Q
) )
0) 0 D
2
si ottiene
) )
0) 0
3#
2
) )
0) 0
) )
0) 0
D #
175
e
`
, che e dato dalla
$
# #
# #
D #
G Q
) ) 0) D
)
#
di grado
# D #
# #
associamo il polinomio
I G Q
) ) 0 D
)
#
D $
B ) 0) G Q
)
D
G
B ) I G Q
D
D ) ) 0 # #
D
1 @ 1
punti di
))
) 00
2 2
2
.
.
.
2
.
.
.
.
.
.
Tabella 5.1: Schema graco del procedimento ricorsivo per il calcolo delle differenze divise del
polinomio interpolatore di ordine n
176
Interpolazione polinomiale
B ) 00 G Q
))
D
S
# D #
B ) 0) G Q
)
D
con
))
# ) 00 # #
I polinomi
; cio` :
e
) # D
$ #
# #
$ #
#
#
) # #
# #
#
#
# #
D
D #
D #
D # 6#
# #
# #
# #
# #
# # #
#
D #
D #
# #
# #
# #
# D
# #
abbiamo
abbiamo
D #
D #
I G
)
) 0) D
#
vale ovviamente
Nel caso
Nel caso
Per
Interpolazione polinomiale
177
178
Interpolazione polinomiale
Analogamente
# #
D #
B ) 00 G Q
))
D
S
per
# D #
G Q
B
D
) ) )0
B ) ) 0 I G
)
D
B ) ) 0 G Q
)
D
2. Per
si pone
1. Per
si calcola
(a) Per
D #
3.
!
.
.
.
2 2
B ) 0) G Q
)
D
) #
D #
#
Interpolazione polinomiale
179
3
#
#
,. . . ,
D #
G
B
# D #
)#
))
) 00
3#
))
) 00
D #
D #
)
# ) 0)
))
# ) 00
) )
0) 0
dove
(5.5)
B ) ) 0 G Q
)
D
D #
Q
D #
)#
D #
B ) 0) G Q
)
D
D #
Q
D #
Q
D #
dove con
intendiamo una funzione in
mente per questa funzione abbiamo
(5.6)
per costruzione
D #
# D #
si annulla in
punti. Grazie al teorema di Rolle7 la sua derivata priquindi
`
))
# 00)
D #
Interpolazione polinomiale
#
G
B 3#
D #
Ricordiamo che
, per cui si ottiene
D #
180
Q
e quindi
G
B
D #
B
#
#
) #
#
5.2
181
85
7
3
D
)
Che cosa sappiamo dire su questo nuovo problema? Osserviamo che la matrice prodotto
e
`
ha rango massimo]
4 D
D
Q
Poich
e
U5
7
3
F
D
F
D
Problema
Trovare la retta che passa al meglio per gli
&
182
Interpolazione polinomiale
`
per
, si ha un solo punto assegnato sul piano cartesiano, che e il centro di un
fascio formato da innite rette;
per
due punti assegnati, esiste una ed una sola retta che passa esattamente
per i due punti dati;
per
piu di due punti, non esiste alcuna retta che passa esattamente per gli
punti dati.
Dato che non esiste una retta che passa esattamente per tutti i punti assegnati, cercheremo una
retta che, come enunciato nel problema, passi al meglio, qualcosa tipo ci` che e mostrato in
o
`
gura 5.2.2
y
(xn ,axn + b)
y=ax + b
yn
axn + b - y n
y4
y3
y2
y1
x1
x2
x3
x4
xn
# "
D #
)
D #
D #
D #
)
) 0)
D #
&
# %
#
#
#
# & %
e scegliamo
183
#
D
#
#
D #
Q
D
#
Q
#
D #
#
Ricordando la denizione di
D
Q
BI
I
#
D #
I
#
I D #
I
I D
D #
184
Interpolazione polinomiale
Osservazione 60. Il procedimento dei minimi quadrati di fatto risolve un sistema lineare
D #
D
D
) 0)
)
D #
D #
D
D #
G
R
D
E
F
#
G
D R
F
.
.
.
`
e la colonna di tutti , e le altre colonne sono ovvie.
dove
.
.
.
`
Il sistema e sovra-determinato, quindi scriviamo le equazioni normali
R
F
R
F
da cui si ricava
, si riottiene il sistema
F
R
185
Esempio 38. Trovare la retta che approssima nel senso dei minimi quadrati i seguenti
,
,
,
.
punti:
I G
G
I P
# # # #
D R &
G
G
&
G
G
D
D
%
&
&
&
&
D
D
&
%
D
&
R
F
R
I
F
D #
invece che con una retta come nel caso precedente. Dato che un polinomio di grado ha
gradi di libert` , deve ovviamente essere
a
, afnch il problema sia sovradeterminato 9 .
e
Ripetendo le argomentazioni della sezione precedente, dobbiamo determinare i coefcienti con
B G
Altrimenti?
I
5
5 I
I
5
I D
))
# 5 0 00) 0
.
.
.
5 I
I
5
5 I
I D
I B I
D
))
# 5 0 00) 0
))
# 5 0 00) 0
Dato che
D 5 0) 0)
# )
.
.
.
) Q
(5.7)
5 0) )0)
D
#
Q
D
)
# 5 0) 0)
Quindi , ,. . . ,
sono un punto di minimo della funzione errore quadratico
. Poich
e
in un punto di minimo il gradiente si annulla, imponiamo la condizione di annullamento delle
derivate parziali
)
# ) 0)
) # 5 % 0) 0 % %
) )
# 5 % 0) 0 % %
) )
))
# 5 00) 0
9 ) 00 G Q
))
D
S
# 5 ) 0) 0
) )
D # 5 0) 0 0
D #
Diremo che
polinomio
per
in modo tale che gli errori siano minimizzati. Introduciamo la funzione errore
quadratico, che indicheremo col simbolo
, attraverso la seguente relazione
9 ) 00 G Q
))
D
186
Interpolazione polinomiale
D
H
9 ) 0) G Q
)
D
9 ) ) 0 G Q
)
D
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
denita
come segue
.
.
.
..
.
.
.
. Se introduciamo la matrice
e il vettore
..
la matrice
del sistema (5.8) si scrive semplicemente come
delle matrici
il sistema (5.8) si pu` scrivere come
o
come
.
.
.
(5.8)
187
Interpolazione polinomiale
9 D
188
La matrice
e invertibile se e solo se ha rango massimo cio`
`
e
, dato che abbiamo
supposto
. La matrice ha rango
se e solo se esistono almeno
colonne
tra i punti assegnati abbiano ascisse
linearmente indipendenti. Se assumiamo che almeno
distinte, le rispettive colonne formano una matrice un po speciale, per lappunto la matrice
di Vandermonde. Nella sezione dedicata allinterpolazione polinomiale e stato mostrato che la
`
matrice di Vandermonde e non singolare e quindi ha rango massimo se e costruita partendo da
`
`
nodi di interpolazione le cui ascisse sono distinte. Possiamo concludere che lapprossimazione ai
minimi quadrati nel caso polinomiale ammette una ed una sola soluzione.
B G
Tabella 5.3:
2.0
3.0
4.0
5.0
6.0
7.0
8.0
9.0
10.0
1.5
1.8
3.0
4.1
5.6
6.1
6.0
8.1
10.0
5.0
Q) Q
P P Q G
) D #
1.0
189
11
11
10
10
0
0
10
11
Figura 5.2: Approssimazione ai minimi quadrati dei dati nella tabella 5.3 con un polinomio di
secondo grado.
CAPITOLO
SEI
INTEGRAZIONE NUMERICA
190
6.1
191
D #
Si parla di stima numerica perch in realt` non si sta chiedendo di calcolare il valore esatto dele
a
lintegrale che e denito come differenza dei valori assunti negli estremi di integrazione dalla
`
primitiva della funzione integranda . Siamo infatti interessati a determinare un valore, ovviamente approssimato, dellintegrale che coinvolga soltanto la conoscenza della funzione integranda
e non della sua primitiva.
Il problema e di particolare interessa perch , pur esistendo nito lintegrale, la funzione integran`
e
da potrebbe non ammettere una primitiva esprimibile in maniera analitica, oppure la primitiva
potrebbe essere molto complessa da determinare e molto costosa da calcolare. Addirittura, la stessa funzione integranda potrebbe non essere nota in forma analitica, ma solo tabulata in certi
punti dellintervallo
, rendendo quindi di fatto impossibile il cercarne una primitiva.
Riprendendo una vecchia idea dellintegrale come di una sorta di somma generalizzata, cercheremo di stimare il valore dellintegrale di per mezzo di espressioni del tipo:
#
3
e lintegrale con
#
$
D #
)
$
denita da
si chiama formula di quadratura. I punti
nodi della formula di quadratura ed i coefcienti
sono i pesi.
sono i
$
Ripetiamo ancora che la formula di quadratura fornisce giusto una stima e non il valore dellintegrale, il che implica un errore di approssimazione, che potr` in certe situazioni essere signicativo.
a
Ci porremo dunque la questione di quanto una data formula di quadratura sia precisa nella stima
192
Integrazione numerica
dellintegrale di una funzione generica e da quali fattori sia inuenzata laccuratezza del risultato
numerico.
Per denire una formula di quadratura e necessario
`
$
$
scegliere i pesi
scegliere i nodi
Quindi e ovvio che il criterio con cui si scelgono nodi e pesi e fondamentale nel caratterizzare
`
`
laccuratezza di una formula di quadratura.
Inoltre, e ragionevole aspettarsi che la precisione del valore stimato dipenda anche dalla funzione
`
che stiamo cercando di integrare. In altre parole, la stessa formula di quadratura potrebbe produrre
un risultato molto accurato o addirittura il valore esatto dellintegrale per alcune famiglie di
funzioni e fornire un cattivo risultato in altri casi.
Questi argomenti saranno oggetto di discussione nel presente capitolo.
Strategia interpolatoria
con un polinomio interpolatore di grado scegliendo con
nodi di interpolazione con ascisse distinte
per
3
)
S #
B ) 0) G Q
)
D
stimiamo lintegrale di
approssimiamo la funzione
un criterio da stabilire
;
6.2
Denizione 67. Le formule di quadratura costruite con la strategia interpolatoria prendono il nome di formule di quadratura interpolatorie
Strategia interpolatoria
193
D
D
formule chiuse :
6
D
! D
D
B
Q
B 3 !
G Q
B 0) 0
) )
D
generico punto
) 3
nodo
D #
# # # D #
2
)
)
# 0) ) # 3# 2 ) 0)
)
)
# ) 0) # 3# 0) )
#
#
D #
)
) 0) #
dove gli
sono i polinomi elementari di Lagrange, deniti dalla relazione
Ricordiamo la denizione data nel capitolo sullinterpolazione,
#
Sia
passo di integrazione
# D # #
# " D # # !
!
D
D
) # $ # 0
D #
Denizione 68. Si chiama errore di integrazione la differenza tra il valore esatto dellintegrale ed il suo valore stimato con la formula di quadratura
6.2.3 Accuratezza
)!
B ) ) 0 G
)
!
Q
D
D
)!
#
#
D #
$ "
)!
#
#
#
#
S #
S #
si ha dalla denizione dei polinomi di Lagrange unespressione particolare per nodi di interpolazione equidistanti
194
Integrazione numerica
Strategia interpolatoria
#
`
puo dipendere dalla funzione
e dallintervallo di integrazione
#
Ovviamente
.
195
`
Denizione 69. Lordine di accuratezza o di precisione della formula di quadratura e
dato dal massimo grado dei polinomi che sono integrati esattamente dal metodo. Piu
ha ordine almeno
)
0) )
2
D #
si scrive come
0) 00
))
00)
))
2
2
)
0) )
G Q
) B 0) 0
) )
D
per
B ) 0) G Q
)
D
e si impone che
Integrazione numerica
B ) ) 0 G Q
)
D
equazioni per
nelle
B
G
196
incognite
) 0)
)
D
D
D
D
!2
$ 2 $
D
Q
)
0) )
.
.
.
)
0) )
)
0) )
)
) 0)
G
B
dove
I !
D
D
B
) )
0) 0
#
D #
00)
))
La matrice
nelle incognite
.
.
.
.
.
.
G Q
B ) ) 0 D
)
per
e sicuramente diverso da zero se i nodi sono scelti a due a due distinti, cio` vale
`
e
per
.
La non singolarit` della matrice garantisce lesistenza di una ed una sola soluzione formata da
a
una
-upla di pesi
.
) )
0) 0
`
Osservazione 61. La formula di quadratura cos` costruita ha ordine almeno . Quale il
`
massimo ordine che puo avere?
Strategia interpolatoria
197
I
B
I
B
Lenunciato del teorema mostra la forma generale dellerrore di integrazione per formule interpolatorie alla Newton-Cotes che interpolano esattamente polinomi di ordine no ad sia pari che
dispari. Ricordiamo tuttavia che nella pratica non si usano formule di Newton-Cotes con grandi,
maggiori di 7-8, per ragioni di stabilit` numerica.
a
)
#
#
D #
D #
)
#
D #
su
tale che
# 3
#
#
D #
I
# G B
3#
D #
#
#
, con
D #
B
sia
, con
# 3
dove
sia
tale che
Integrazione numerica
BIBLIOGRAFIA
[1] Roberto Bevilacqua, Dario Bini, Milvio Capovani, and Ornella Menchi. Metodi Numerici.
Zanichelli, 1992.
199
200
BIBLIOGRAFIA
INDICE ANALITICO
Cauchy-Schwarz, 24
Holder, 17
Minkowski, 18
Young, 16
accuratezza
ordine di, 195
Aitken-Neville
algoritmo di, 176
autovalore, 70
molteplicit` algebrica, 72
a
molteplicit` geometrica, 72
a
autovettore, 70
destro, 71
sinistro, 71
Cholesky
fattorizzazione di, 116
coefcienti indeterminati
metodo dei, 195
cofattore, 61
Cramer
regola di, 50
criteri di arresto, 136
decomposizione LU, 109
determinante, 41
della matrice trasposta, 67
di matrici diagonali a blocchi, 68
di Vandermonde, 165
matrice inversa, 50
prodotto, 49
differenze divise, 173
disuguaglianza di
Haar
condizione di, 169
integrazione
errore di, 194
integrazione gaussiana
201
202
INDICE ANALITICO
unitaria, 76
matrici
triangolare inferiore, 12
triangolare superiore, 12
trasposta, 38
trasposta coniugata, 39
SPD, 82
spettro di una, 79
residuo, 126
sistema triangolare, 96
SOR
schema iterativo, 129
span, 30
Sturm
successione di, 159
teorema di, 160
teorema
rango di, 58
simmetrica, 39
quadrata, 11
raggio spetrale di una, 79
pivot
numerico, 112
simbolico, 112
pivoting, 101
polinomio caratteristico, 70
prodotto scalare, 19, 23
euclideo, 21
notazione, 23
prodotto vettoriale, 26
normale, 74
nulla, 11
ortogonale, 76
indentit` , 11
a
inversa, 37
di Vandermonde, 188
hermitiana, 40
denita positiva, 81
di iterazione, 129
confronto, 13
coniugata, 39
a diagonale dominante, 81
cofattore, 62
matrice
Lagrange
interpolazione di, 169
Newton, 170
Newton
interpolazione di, 170
Newton-Cotes
formule di, 192
nodi di interpolazione, 168
norma
indotta, 23
matriciale
,
,
, 91
norme classiche, 87
vettoriale, 15, 18
,
,
,
norme
compatibili, 91
interpolazione di
Lagrange, 169
interpolazione
errore di, 179
prodotto di, 34
minimi quadrati, 181
formule, 192
, 18
INDICE ANALITICO
203