Beruflich Dokumente
Kultur Dokumente
Mauro Lo Schiavo
Dipartimento di Scienze di Base e Applicate per l’Ingegneria
Sezione Matematica
Universitá degli Studi di Roma ”La Sapienza“
Via A. Scarpa, 16 00161 Roma
mauro.loschiavo@sbai.uniroma1.it
Vol. 12 - 2013
ISBN-A: 10.978.88905708/58
Licensed under
Attribution-Non-Commercial-No Derivative Works
Published by:
SIMAI - Società Italiana di Matematica Applicata e Industriale
Via dei Taurini, 19 c/o IAC/CNR
00185, ROMA (ITALY)
Prefazione V
Notazione VII
A 379
A.1 Richiami di Analisi Funzionale. ( I ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
A.2 Richiami di Analisi Funzionale. ( II ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394
A.3 Richiami di Analisi Funzionale. ( III ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422
A.4 Richiami di Geometria Differenziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434
A.5 Richiami di Algebra Lineare. ( I ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 443
A.6 Richiami di Algebra Lineare. ( II ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 459
A.7 Richiami di Analisi Reale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 465
A.8 Richiami di Analisi Complessa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471
A.9 Disuguaglianza generalizzata di Gronwall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 481
III
IV INDICE
Prefazione
Queste Note hanno avuto origine dall’esperienza fatta impartendo lezioni di matematica applicata, ed in particolare
il corso di Sistemi Dinamici, presso la facoltà di Ingegneria della “Sapienza” ormai fin dall’A.A. 1987/88.
Un’esperienza che, per il tipo ed il livello degli argomenti trattati, ha costituito una rara fortuna. Rara, perché
è opinione di molti che le attuali discipline scientifiche “standard”, ed in particolare quelle specificatamente rivolte
alla formazione matematica dell’ingegnere, siano ben più che sufficienti; fortuna, perché il dover presentare, e far
gradire, argomenti di matematica avanzata a giovani ben convinti della superiorità del fare rispetto al dire, mi ha
costantemente stimolato a svilupparne l’aspetto concreto a scapito di quello puramente speculativo.
I miei pochi ma fortemente motivati studenti mi hanno fatto chiaramente sentire che il loro interesse e perfino la
loro presenza in aula erano un premio, e che questo era rivolto non già alla materia, certo interessante soprattutto
se nelle mani dei suoi cultori, ma a quello che la materia avrebbe potuto in futuro rendere loro.
In tal modo mi sono trovato costretto ad un particolare impegno per mettere in luce gli aspetti essenziali, e
formativi, che potessero far loro rapidamente acquisire quella sensibilità matematica che non dovrebbe mancare a
chi, dal difficile mondo della matematica applicata vuole acquisire, o vorrà in seguito, i metodi talvolta avanzati
che sono indispensabili a risolvere problemi concreti.
Con questo spirito ho impartito il mio corso per tutti questi anni, anche in risposta alle richieste a me fatte dai
colleghi ingegneri.
Non trovando alcun testo adeguato a tale scopo, ed anche a causa della mia scarsa memoria che mi costringe
a preparare ogni argomento riscrivendolo quasi integralmente, iniziai a suo tempo a riempire pagine e pagine di
fitti appunti che si sono via via arricchiti ed ampliati. Di nuovo i miei studenti, dopo aver vanamente tentato di
interpretare il manoscritto, e disperati del dovere non solo decodificare il linguaggio matematico ma anche il mio
personale, mi convinsero della necessità di “ricopiare in bella” questa raccolta, e di trasformarla in qualcosa che
fosse di facile interpretazione e, possibilmente, di ancor più facile manipolazione.
L’esistenza dell’onnipresente computer, qui usato principalmente come compositore di stampa e per produrre
accettabili grafici, ed il piacere di rimaneggiare con poche battute tutto un argomento, hanno fatto il resto.
Di conseguenza, anno dopo anno, ed alla luce delle considerazioni fatte l’anno prima, mi sono scoperto rima-
neggiare, ampliare e rifinire un qualcosa che da disomogenea raccolta di lezioni è in definitiva diventato uno (spero)
comodo promemoria. Esso si rivolge, oltre che agli allievi del corso di Sistemi Dinamici, anche a chi voglia iniziare
a sopravvivere nella vasta ed intricata foresta delle metodologie proprie della matematica applicata; ed in parti-
colare a quelli che, senza farsi scoraggiare da qualche termine tecnico e “per soli introdotti”, vogliono raggiungere
una visione sintetica di alcuni dei principali argomenti della matematica (deterministica) applicata ai sistemi in
evoluzione.
Non mi è facile, dopo tanto rimaneggiare, rendermi conto dell’effettiva bontà del prodotto: alcuni argomenti
sono rimasti molto simili a quelli originari trovati sui vari libri in circolazione, altri invece sono stati rielaborati più
volte; e non tanto per partito preso, quanto perché a posteriori mi rendevo conto, dall’occhio triste e depresso della
mia platea, che l’approccio adottato, seppur squisito ed ineccepibile dal punto di vista teorico e formale, era stato
in realtà poco assaporato ed ancor meno digerito.
Va detto che a mia volta non mi sono facilmente arreso, e non credo di aver fatto illecite concessioni né al
rigore matematico né allo spessore della presentazione. Inoltre sapendo che, per molti dei miei studenti, alcuni
degli argomenti qui trattati lo sarebbero stati solo in questo corso, per favorirne la lettura ho talvolta indugiato
inserendo brevi e sintetici richiami a vasti e doviziosi aspetti delle corrispondenti teorie, dall’enorme profondità
concettuale ma dall’impossibile inserimento in piani di studio applicativi.
È evidente pertanto che queste note non hanno pretese di completezza o di dettaglio, viceversa cercano in
generale solo di rendere l’idea nel modo più semplice possibile pur rimanendo corretto. Gli argomenti trattati sono
stati solo rielaborati ed opportunamente tradotti, e non è stata mia intenzione apportare sostanziali modifiche
ad una materia già largamente codificata. Essi sono tutti presenti in monografie di ben altra ampiezza alle quali
si rimanda il lettore interessato. Tuttavia, la mole di esse e l’impegno necessario ad una loro anche solo iniziale
lettura, sono generalmente spaventevoli. Per avvicinarsi a queste note, invece, i prerequisiti sono assai modesti: un
buon corso di analisi matematica e le nozioni fondamentali di geometria sono sufficienti ad iniziarne la lettura, e
permettono di procedere con quelle ulteriori idee di analisi funzionale, algebra, e geometria, necessarie nel corso di
esse.
Roma 29 Maggio 2009
V
VI Prefazione
Notazione
Caratteri normali
a, b, c, d, f, . . . costanti reali (o funzioni)
x, y, z, v, w punti su varietà (eventualmente vettori)
ψ, φ, χ, . . . funzioni reali di variabile reale, o funzioni su varietà;
i, j, k, n, ν indici interi
A, B, C, D, J, V, Γ insiemi (senza struttura) di punti o di funzioni
N (x) intorno del punto x
Br (x) sfera di centro x e raggio r
B Cap. a base di intorni
C(R1 , R2 ) insieme delle funzioni continue da R1 in R2
L1 (R1 , R2 ) insieme delle funzioni R1 → R2 con modulo Lebesgue-integrabile
L2 (R1 , R2 ) spazio di Hilbert delle funzioni con modulo quadro integrabile
ΓF 0 := F −1 (F 0 ) insieme di livello F 0 della funzione F
ε costante reale piccola
ϵ vettore (di base)
j(x) funzioni di Bessel
hn (x) polinomi di Hermite
p(x) polinomio
Γ(x) funzione speciale Γ
Φ(t) sistema fondamentale
Ψ(t) sistema delle evoluzioni dei vettori di base
Tx M spazio tangente la M in x
Altri caratteri
∂ operatore di derivata
T Cap. 1,2,3,4,5,6 periodo (durata) di tempo
[D] chiusura dell’insieme D
∂D frontiera dell’insieme D
{x} insieme costituito dal solo elemento x
⟨ a, b ⟩ prodotto scalare fra a e b
π i i-ma proiezione: π i (x) = xi
VII
VIII Notazione
Caratteri calligrafici
A, B, C, D, T , P operatori su varietà; (op. lineari se su spazi vettoriali)
G Cap. 1,2,3,a applicazione di avanzamento
I Cap. 3 applicazione di avanzamento
Caratteri grassetto
a, b, c, e, f , g n-ple di numeri reali: coordinate di vettori
α Cap. 2 n-pla di numeri reali
γ Cap. 2,a n-pla di numeri reali
ϵ Cap. 2,a n-pla di numeri reali
ζ Cap. 2,a n-pla di numeri reali
η Cap. 1,2.a n-pla di numeri reali
θ Cap. 2,5 n-pla di numeri reali
κ Cap. 2 n-pla di numeri reali
ν Cap. 1,2,3,5,a n-pla di numeri reali
Notazione IX
Sistema dinamico := la famiglia delle trasformazioni dello spazio delle fasi in sé che fanno passare da un certo
stato “attuale” ad un altro, “passato” o “futuro”, e che ha come indice il parametro “tempo”. Questo ha valori
reali t ∈ R per sistemi continui ed ha valori interi t ∈ Z per sistemi discreti, ed entrambi sono minori o maggiori
di zero, rispettivamente, per passato e futuro.
Sistema, o processo, deterministico := un sistema per il quale è possibile individuare, ed univocamente, il
passato ed il futuro a partire dal suo stato attuale. Si pretende cioè che il modello matematico che ne regola
l’evoluzione ammetta Esistenza ed Unicità della soluzione uscente da ogni possibile dato iniziale.
Di natura diversa sono, per esempio, i seguenti due processi.
Processo stocastico := una famiglia di funzioni definite sullo spazio delle fasi (con struttura di spazio di misura),
dette variabili casuali, integrabili su comodi insiemi, detti eventi, indiciata dal parametro temporale t. Le
transizioni fra due istanti, cosı̀ come il valore degli integrali, possono essere regolati da convenienti misure di
probabilità (stabilite apriori o dedotte da osservazioni di esperimenti quali, per esempio, il lancio di un dado, la
lunghezza di un messaggio, l’applicazione di una qualche matrice di transizione, etc.). Tuttavia, tali transizioni
possono anche essere deterministiche, e solo le variabili non esserlo.
Processo ereditario := l’intero passato del sistema determina (o influisce) sul suo futuro.
1
2 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici
Processo differenziabile := un sistema deterministico con spazio delle fasi avente la struttura di Varietà dif-
ferenziabile, o “Manifold”: M, (si veda: Appendice A.4), e la cui evoluzione è in esso descritta da funzioni:
g : (t, x0 ) ∈ R &→ g(t, x0 ) ∈ M differenziabili.
Più spesso con questo aggettivo si intende la prima di queste proprietà, e la seconda solo rispetto al dato:
x0 ∈ M.
Verranno ora introdotte, con maggiori dettagli, le proprietà essenziali di un possibile modello per un processo
differenziabile a dimensione finita che sia stazionario, e cioè tale da non contenere un transitorio dipendente dal
particolare istante iniziale.
Si considera innanzi tutto una varietà M come spazio delle fasi, ed un punto x ∈ M che rappresenti lo stato
del sistema in un certo istante t0 .
Come si è detto, l’evoluzione fra t0 e t è modellata da una trasformazione dello spazio delle fasi in sé, detta
onto
Applicazione d’avanzamento o Operatore d’evoluzione Gtt0 : M −→M :=
una mappa univocamente definita su tutto M ed a valori su tutto M, che fa corrispondere a ciascun x ∈ M il suo
evoluto Gtt0 x dopo l’intervallo di tempo [t0 , t].
Affinché una famiglia {Gtt0 }t∈R di tali applicazioni d’avanzamento possa rappresentare una evoluzione del
sistema con le proprietà richieste, è necessario che su tutto M
per il determinismo, sussista la: Gtt01 = Gtt1 Gtt0 , ∀t0 , t1 , t ∈ R;
per la stazionarietà, sussista la: Gtt+τ = G0τ =: G τ , ∀τ, t ∈ R.
Queste proprietà insieme forniscono:
Un buon modello per un sistema differenziabile deterministico stazionario a dimensione finita è allora dato da
un:
Flusso di fase differenziabile := una funzione g : R × M → M definita per ogni t ∈ R ed x ∈ M dalla
g : (t, x) &→ G t x, con le ipotesi che g sia differenziabile ovunque in R × M e che {G t }t∈R sia un gruppo ad un
parametro di trasformazioni dello spazio delle fasi in sé.
Ne segue che G t è, per ogni t, un
Diffeomorfismo := una corrispondenza biunivoca differenziabile con inversa differenziabile.
Per esempio G t x := xt , con x ∈ R e t = 3 , non lo è perché (x1/3 )′ (0) non esiste.
Spazio delle fasi ampliato := lo spazio R × M delle coppie (t, x).
M. Lo Schiavo
1.1. I termini del problema 3
Curva integrale := il Grafico del moto, e cioè la curva nello spazio delle fasi ampliato (R × M) costituita dalla
famiglia di coppie {(t, Gtt0 x0 )}t∈J⊆R .
N.B. 1.1.3 Il determinismo fa sı̀ che due curve integrali non si intersechino, e che ciascuna abbia una e una sola
intersezione con i piani t = cost. ♦
Nel caso in cui M ≡ R è lo spazio delle configurazioni, la curva integrale è il ben noto diagramma orario.
Se, ma non solo se (si veda: §III.1), {G t }t∈R è un gruppo, le curve integrali sono invarianti per traslazioni:
t → t + τ , (si veda: [Arnold I]):
Proposizione 1.1.1 Sia Hτ : (t, x) &→ (t + τ, x) l’operatore di traslazione lungo l’asse dei tempi nello spazio
delle fasi ampliato e {(t, G t x)}t∈R una curva integrale, con G t verificante la proprietà di gruppo: G t+τ = G t G τ .
Allora
{Hτ (t, G t x)}t∈R = {(t + τ, G t x)}t∈R è anch’essa una curva integrale.
Dimostrazione Dato che {G t }t∈R è un gruppo, esiste unico y = G −τ x, e quindi x = G τ y . Inoltre la stessa
t+τ
composizione G = G t G τ assicura l’esistenza di: G t x = G t+τ y . Quindi {(t + τ, G t x)}t∈R ≡ {(σ, G σ y)}σ∈R con
σ := t + τ .
G t+¿y
x
0 t ¿ (t+¿) 0 t ¿ (t+¿)
G ty
y= G -¿x
"
Curva di fase, o Orbita, uscente da x, o Traiettoria per x := l’Immagine del moto, e cioè il sottoinsieme di
M dato da γ := {Gtt0 x}t∈J ⊂ M.
N.B. 1.1.4 Se {G t }t∈R è un gruppo, le curve di fase non si intersecano (perché in caso contrario si potrebbero
sempre trovare due curve integrali che ad esse corrispondono e che si intersecano). ♦
Le seguenti definizioni (si veda anche: [Arnold I]) riassumono le varie possibilità.
Sistema dinamico (deterministico stazionario differenziabile a dimensione finita) := la coppia (M, g) con M una va-
rietà differenziabile e g un flusso differenziabile.
Tuttavia, perfino nei casi di stazionarietà, ci si deve spesso limitare a:
Sistemi dinamici locali := (M, J0 , V0 , g) dove: M è una varietà differenziabile, J0 un intorno dell’origine
in R, V0 ⊆ M un conveniente intorno di un arbitrario punto x0 dello spazio delle fasi M, e g una funzione da
J0 × V0 in M tale che:
(iii) per ogni x ∈ V0 si ha G t+τ x = G t G τ x per quei t, τ ∈ J0 per i quali il secondo membro è definito. Inoltre,
per ogni x ∈ V0 esistono N (x) ⊂ V0 e δ > 0 tali che G t G τ x′ è definito per ogni x′ ∈ N (x) e
|τ |, |t| < δ .
Nel caso non stazionario, il flusso di fase non è più invariante per traslazioni temporali: le curve integrali non è
detto siano più le traslate rigide l’una dell’altra secondo l’asse delle t (e le funzioni φ(t + c, t0 , x0 ) siano soluzioni
della stessa equazione della quale è soluzione la φ(t, t0 , x0 )). Per ogni applicazione d’avanzamento occorre allora
fissare l’esplicita coppia degli istanti di riferimento, e specificare il particolare intorno J × V0 ⊂ R × M del punto
(t0 , x0 ) vicino al quale si studia il sistema.
Un buon modello per l’evoluzione di un sistema deterministico non stazionario, nell’intorno di un punto (t0 , x0 ) ∈
R × M, consiste allora in una
Famiglia locale di applicazioni d’avanzamento su R × M := (M, J, V0 , &
g)
dove: M è una varietà differenziabile, J × V0 ⊆ R × M è un intorno del punto (t0 , x0 ) e g& , che verrà chiamato
Avanzamento locale, una funzione & g : J × J × V0 → R × M tale che, indicando con {t1 } il singleton {t′ ∈ R | t′ =
t1 } , si abbia:
(i) per ciascun (t, t1 ) ∈ J × J l’applicazione G&tt1 : ({t1 } × V0 ) → J × M definita da G&tt1 (t1 , x) := &
g(t, t1 , x) è un
diffeomorfismo da {t1 } × V0 in {t} × M;
(ii) per ciascun (t1 , x) ∈ J × V0 , il Moto uscente da x ∈ M in t1 , e cioè la mappa x !:t∈J ⊆R→x !(t) ∈ M
!(t)) := g&(t, t1 , x), è una funzione differenziabile su J e tale che x
definita nella (t, x !(t1 ) = x;
(iii) sussiste la: G&tt13 (t1 , x) = G&tt23 G&tt12 (t1 , x) se t1 , t2 , t3 ∈ J ed x ∈ V0 sono tali che il secondo membro è definito.
In tal caso, per ciascun (t1 , x) ∈ J × V0 esiste un intorno N (t1 ) × N (x) tale che il secondo membro continua
ad essere definito per ogni x′ ∈ N (x) e t2 , t3 ∈ N (t1 ).
Identificando con un unica M ogni “copia” dello spazio delle fasi, data per ogni t ∈ J da {t} × M, si ha che la
mappa G&tt12 : {t1 } × V0 → {t2 } × M individua la mappa Gtt12 : M → M di cui si è parlato precedentemente, e che
si riduce a G t2 −t1 quando il sistema è stazionario.
M. Lo Schiavo
1.1. I termini del problema 5
Velocità di fase, nel punto x, individuata dal moto := la velocità ẋ che tale elemento rappresentativo possiede
nel punto x ed all’istante t; e cioè il valore della derivata
' '
d '' d ''
ẋ = !
x(t + τ ) = G t+τ x
dτ 'τ =0 dτ 'τ =0 t
essa dipende, come si vede, da x e da t e quindi, per ogni (t, x) ∈ J × V0 , durante una certa evoluzione individuata
da {Gtt0 }t∈J sussiste la
ẋ = v(t, x) , x ∈ M, v ∈ Tx M (1.2)
da interpretarsi come un legame (eventualmente dipendente dal tempo) che durante quella evoluzione sussiste
fra la posizione all’istante t e la velocità che in quello stesso istante compete ad un elemento in quella posizione.
Quando queste si intendano quali valori di funzioni del tempo, la (1.2) può essere interpretata come un’equazione
funzionale avente come incognita la funzione moto, ed infatti in tutti gli istanti t di definizione il moto risulta
verificare l’identità, ' '
d d '' t+τ d ''
!(t) ≡
x G x= G t+τ Gtt0 x0 ≡ v(t, x
!(t)). (1.3)
dt dτ 'τ =0 t dτ 'τ =0 t
In particolare, se la famiglia di trasformazioni forma un gruppo locale, e cioè se il sistema è stazionario, questa
velocità dipende solo dal punto e non dipende esplicitamente dal tempo; si ha infatti
' '
d '' t+τ d ''
G x≡ G τ x = v(x) .
dτ 'τ =0 t dτ 'τ =0
d'
'
N.B. 1.1.5 Per il momento, la funzione v : x &→ v(x) è individuata per componenti: v i (x) = dt t=0
xi (G t x);
e quando nel seguito si vorrà distinguere il caso scalare: dim M = 1 dal caso: dim M > 1 , lo si farà con la (usuale)
notazione: ẋ = v(x) nel primo caso e ẋ = v(x) nel secondo. Come già accennato tuttavia, (si veda: Appendice A.4
ed [Arnold 1]) questa differente notazione avrà anche il compito di distinguere l’equazione sul tangente alla varietà
dalla sua rappresentazione in coordinate. ♦
Con ciò si intende che esso è una funzione x ! : J ∈ R → M, differenziabile, tale che x
!(t0 ) = φ(t0 , t0 , x0 ) = x0 , e
!(t)) è definito per ogni t ∈ J e vi risulta
tale che v(t, x
d
!(t) = v(t, x
x !(t)) ∀t∈J .
dt
Memento 1.1.1 Dominio:= aperto, connesso, non vuoto. Qui, “aperto” nella topologia indotta dalla metrica
euclidea in R1+n .
Sotto queste ipotesi infatti, la famiglia delle soluzioni x ! dell’equazione ẋ = v(t, x) uscenti in t1 dai punti x1
di V0 individua, al variare di (t1 , x1 ) in J × V0 , una funzione φ : J × J × V0 &→ M atta a definire mediante la
(t, φ(t, t1 , x1 )) =: g&(t, t1 , x1 ) un avanzamento locale g& in quanto si vedrà che:
(iii) g&(t3 , t2 , g&(t2 , t1 , x)) = g&(t3 , t1 , x) lı̀ dove tali operazioni sono definite.
Nel seguito, purché ciò non dia adito a dubbi, non solo la x ! ma anche la funzione φ verrà chiamata soluzione
dell’equazione ẋ = v(t, x). Ciò per motivi di brevità, e vuole ricordare non solo che per (t0 , x0 ) fissati in J × M
!(t) := φ(t, t0 , x0 ) = Gtt0 x0 ∈ M verifica su J la (1.2) e la condizione x
! il cui valore in t è x
la x !(t0 ) = x0 ∈ M, ma
anche che al variare di (t0 , x0 ) ∈ J × V0 e per t fissato, il punto x = x !(t) varia in modo (almeno) continuo in M.
Inoltre, come si è già accennato, la notazione con il superscritto “ ! ” verrà abbandonata a meno che essa sia
strettamente indispensabile. Per esempio, quando non vi siano dubbi sul punto (t0 , x0 ), si preferirà indicare la x !(t)
con x(t).
x
v(x)
x0
x t
#
ẍ = k , con k ∈ R (1.4)
La sua soluzione generale si può trovare integrando direttamente due volte l’equazione stessa. Scelti t0 , x0 , ẋ0
arbitrari in R si ha
1
ẋ(t) = k(t − t0 ) + ẋ0 , e x(t) = k(t − t0 )2 + ẋ0 (t − t0 ) + x0 . (1.5)
2
La (1.4) può essere trasformata nella seguente equivalente equazione, con ẋ0 ≡ y0 ∈ R,
) * ) x * ) * ) *) * ) *
ẋ v (x, y) y 0 1 x 0
ẋ ≡ = v(x) ≡ := = + , (1.6)
ẏ v y (x, y) k 0 0 y k
M. Lo Schiavo
1.1. I termini del problema 7
y
y
(2)
y2 vx k
(1) x
y vx1
vx
Tale curva non è la traiettoria in uno spazio fisico, nel quale sia fissato un riferimento (o, ⃗e1 , ⃗e2 , ⃗e3 ), di un
−̈
→
elemento che si muova a partire da velocità iniziale nulla secondo l’equazione op = k⃗e1 ; infatti la parabola di volo,
che in questo caso degenera in una retta, e la parabola sul piano delle fasi sono curve in spazi diversi.
Si noti che con l’aggettivo generale qui sopra ricorda il fatto che le costanti (t0 , x0 , ẋ0 ) si riferiscono ai dati
iniziali del cosiddetto “problema di Cauchy” relativo all’equazione data, e per un flusso devono poter essere scelte
arbitrariamente in R × R2 .
È facile verificare che la soluzione (1.7) della (1.4) non solo è compositiva in modo deterministico:
ma è anche stazionaria:
) * ) *
1 t −1 0
con la quale è possibile esprimere la soluzione (1.7) con Φ(t) = , Φ (s) ≡ Φ(−s), b(s) = , che
0 1 k
.t −1
danno: η(t) = 0 Φ(t)Φ (s) b(s) ds insieme con:
φ(t2 , t1 , φ(t1 , t0 , x0 ))
- t2
−1
= Φ(t2 )Φ (t1 )φ(t1 , t0 , x0 ) + Φ(t2 )Φ−1 (s) b(s) ds
t1
) - t1 * - t2
= Φ(t2 )Φ−1 (t1 ) Φ(t1 )Φ−1 (t0 )x0 Φ(t1 )Φ−1 (s) b(s) ds + Φ(t2 )Φ−1 (s) b(s) ds
t0 t1
- t2
−1
= Φ(t1 )Φ (t0 )x0 + Φ(t2 ) Φ−1 (s) b(s) ds .
t0
#
Note di Sistemi Dinamici
8 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici
) *
y
Si ricordi comunque che il campo non è lineare: v(t, x1 + x2 ) ̸= v(t, x1 ) + v(t, x2 ), ed infatti la soluzione
k
(1) (2) (1) (2)
dell’equazione (1.4) non è somma di soluzioni: φ(t, x0 + x0 ) ̸= φ(t, x0 ) + φ(t, x0 ).
Esempio 1.1.8 Con k ∈ R e t0 , x0 ∈ R arbitrari si consideri l’equazione
Innanzi tutto, l’equazione implica che, comunque siano stati scelti t0 , x0 ∈ R, risulta costante la differenza
Poi, e mediante la costante t̃ assegnata dalla equazione, si vede che la (1.11) assume la forma: ẋ = k(t − t̃) e
quindi ha soluzione:
1 1
x(t) = k(t − t̃)2 − k(t0 − t̃)2 + x0 (1.13)
2 2
o anche, introdotta nella (1.13) la costante (arbitraria) x̃ := −k(t0 − t̃)2 /2 + x0 ,
1
x(t) = k(t − t̃)2 + x̃ . (1.14)
2
La soluzione della (1.11), che dipende in modo essenziale dalle (sole) due costanti (t0 , x0 ) entrambe arbitrarie, è
compositiva ma non stazionaria; infatti dalla (1.13) segue la compositività
) *
1 1 1 1
k(t2 − t̃)2 − k(t1 − t̃)2 + k(t1 − t̃)2 − k(t0 − t̃)2 + x0
2 2 2 2
1 1
= k(t2 − t̃)2 − k(t0 − t̃)2 + x0 ,
2 2
ma anche che la condizione di stazionarietà: φ(t + c, t0 + c, x0 ) = φ(t, t0 , x0 ) non è verificata, in quanto
1 1 1 1
k(t + c − t̃)2 − k(t0 + c − t̃)2 ̸= k (t − t̃)2 − k (t0 − t̃)2
2 2 2 2
visto che (t2 − t20 ) ̸= (t − t̃)2 − (t0 − t̃)2 = (t2 − t20 ) + 2t̃(t0 − t).
In questa equazione le (t∗ , ẋ∗ ) non sono arbitrarie, come invece erano nella prima delle (1.5) trovata durante
il procedimento di risoluzione dell’equazione (1.4), e quella, come tale, non può essere risolta da sola ma solo
come seconda componente della (1.7). In primo luogo ciò comporta, tramite la (1.12), che la ẋ0 non può essere
scelta arbitrariamente, come invece accadeva nel caso della (1.5), in secondo luogo si ha che il valore della ascissa
temporale non è più scelto arbitrariamente in R, ma occorre riferirlo al valore assegnato t∗ , e l’istante in cui la ẋ
si annulla esiste, unico, ed è indipendente dalle scelte arbitrarie dei dati iniziali.
x
x0
x0
e
x
et t0 t
#
Questa equazione si può facilmente ricavare come conseguenza sia della (1.11) che della prima delle (1.5); a tale scopo
è sufficiente riscrivere queste ultime nella forma ẋ = k(t−t̃) che dà la (1.14) dalla quale segue k 2 (t−t̃)2 = 2k(x−x̃).
Tuttavia, anche qualora la costante x̃ venga considerata come una costante arbitraria, la (1.15) non è equivalente
né alla (1.11) né alla (1.4). Infatti
• essa contiene solo una delle due possibili determinazioni della radice quadrata;
M. Lo Schiavo
1.1. I termini del problema 9
• un qualunque valore prescelto per la x̃ permette come soluzione possibile della (1.15) la funzione costante
x(t) = x̃, cosa questa non vera per le altre due citate equazioni;
Ove possibile, la sua soluzione generale si ricava per separazione di variabili (vedi oltre) dalla
√ - x 0√ / 1
dξ
(t − t0 ) 2k = √ = 2 x − x̃ − x0 − x̃ .
x0 ξ − x̃
/ √
Ponendo ẋ0 := 2k(x0 − x̃) e moltiplicandola per k/ 2 questa fornisce (insieme con la (1.15)) la ẋ = ẋ0 /2 +
k(t − t0 ) e cioè la prima delle (1.5), da cui segue senz’altro la seconda:
1
x(t) = x0 + ẋ0 (t − t0 ) + k(t − t0 )2
2
la quale, come si è visto, è compositiva e stazionaria. Tuttavia essa, come soluzione della (1.15), non è unica a
meno di ridursi a considerare solo tempi t per i quali è x(t) > x̃ , e quindi in particolare localmente vicino a dati
per i quali x0 > x̃ . Si osservi d’altra parte che per ricavare la2(1.15) dalla (1.11), e cioè dalla (1.14), occorre derivare
/ / /
la k(t − t̃) = 2k(x − x̃) ovvero “semplificare” la k = k ẋ 2k(x − x̃) proprio per il termine ẋ ≡ 2k(x − x̃) .
Se, invece, la si vuole ricavare direttamente dalla (1.4) occorre moltiplicare quest’ultima per ẋ .
e
x
t
#
Esempio 1.1.10 Nuovamente come conseguenza sia della (1.11) che della prima delle (1.5) e con k, t0 , x0 , ẋ0 ∈ R
si può ricavare la
ẋ − ẋ∗
ẍ = , per fissati t∗ , ẋ∗ ∈ R (1.16)
t − t∗
La sua soluzione generale si trova per separazione di variabili (vedi oltre): dalla ln |ẋ − ẋ∗ | = ln |t − t∗ | + c si
ottiene (localmente)
ẋ0 − ẋ∗
ẋ = ẋ∗ + (t − t∗ ) (1.17)
t0 − t∗
che quindi:
• non assegna necessariamente il valore k alla costante c = (ẋ − ẋ∗ )/(t − t∗ ) che, inoltre, dipende dai dati
iniziali e muta con essi: ciascuna soluzione evolve in modo da lasciare costante il rapporto d := (ẋ0 − ẋ∗ )/(t0 −
t∗ );
• impedisce che il dato t0 possa essere scelto uguale al valore t∗ presente nell’equazione.
t0 t
Tuttavia il campo è lineare rispetto alla variabile ξ& := ξ − ξ∗ , e la d2 /dt2 di ciascuna soluzione è costante. #
Esempio 1.1.11 Con un procedimento analogo al precedente, dalla seconda delle (1.5) si può ricavare la
2(x − x∗ ) 2ẋ∗
ẍ = − , con k, t0 , x0 , ẋ0 , t∗ , ẋ∗ ∈ R . (1.18)
(t − t∗ )2 t − t∗
La soluzione di questa (siano t∗ = x∗ = 0 ) va trovata separando la parte omogenea (che è lineare) da quella
non omogenea (vedi oltre). La prima: ẍ = 2x/t2 è un caso particolare dell’equazione di Eulero e si trasforma,
con la posizione: τ := ln |t| e quindi t∂t = ∂τ e t∂t + t2 ∂tt 2
= ∂τ2 , nella x′′ − x′ − 2x = 0 la cui soluzione è
x(τ ) = c1 e−τ + c2 e2τ . Se ne deduce la soluzione dell’equazione omogenea (per t > 0 ):
) * ) * ) *
xom (t) c 1/t t2
= Φ(t) 1 con Φ(t) := .
ẋom (t) c2 −1/t2 2t
Analogamente a quanto visto nell’Esempio 1.1.7, e secondo quanto si vedrà più in dettaglio nel seguito, una soluzione
particolare della (1.18) è allora data da
- t ) *
0
xp (t) = Φ(t)Φ−1 (τ ) dτ
−2ẋ∗ /τ
- ) *) *) *
1 t 1/t t2 2τ −τ 2 0
= dτ
3 −1/t2 2t 1/τ 2 1/τ −2ẋ∗ /τ
M. Lo Schiavo
1.1. I termini del problema 11
e quindi
- t) *
2ẋ∗ τ t2
xp (t) = − 2 dτ = ẋ∗ t .
3 t τ
La soluzione della (1.18) risulta quindi (indicando semplicemente t, t0 , x, x0 invece di t−t∗ , t0 −t∗ , x−x∗ , x0 −x∗ )
) * ) * ) *
x(t) c1 ẋ∗ t
= Φ(t) + con
ẋ(t) c2 ẋ∗
) * ) * ) *
c1 x − ẋ∗ t0 1 2t0 x0 − t20 (ẋ0 + ẋ∗ )
= Φ−1 (t0 ) 0 = .
c2 ẋ0 − ẋ∗ 3 [x0 + t0 (ẋ0 − 2ẋ∗ )]/t20
È facile rendersi conto che questa soluzione non è certo stazionaria, dato che Φ(t)Φ(τ ) ̸= Φ(t + τ ); essa tuttavia è
compositiva, come si può facilmente controllare. Inoltre, la sua derivata seconda non è detto sia costante salvo che
per quei dati iniziali per i quali la c1 risulta nulla. Anche in tal caso, non è certo detto che la costante sia proprio k ,
salvo che solo per opportuni dati iniziali, infatti c1 = 0 implica x(t) = c2 t2 + ẋ∗ t con t20 c2 = ẋ0 t0 − x0 ≡ x0 − t0 ẋ∗
e quindi la residua arbitrarietà dei dati certo permette c2 ̸= k/2 . #
Nota 1.1.1 Si vede bene, dagli esempi precedenti, che il trasformare un’equazione in un’altra spesso non è una
operazione semplice o gratuita. Per ottenere equazioni equivalenti a quelle dalla quale si è partiti occorre che la
trasformazione sia di tipo particolare (si veda la discussione sulla equivalenza fra campi, nel Cap.3). ◃
Memento 1.1.1 La velocità che compare a secondo membro della (1.2) è quella euleriana: è un campo vettoriale
dipendente esplicitamente dal tempo e dalla posizione. La soluzione t &→ x !(t) := φ(t, t0 , x0 ) ∈ R3 descrive il moto
di un elemento che, avendo attraversato in t0 il punto x0 ∈ R , all’istante t si trova nel punto φ(t, t0 , x0 ) = x
3
sono in ogni istante delle eliche cilindriche. Per vederlo, si scelgano gli assi in modo che sia ω = (0, 0, ω), e siano
z
vΩ la velocità di un punto Ω dello spazio mobile, e vΩ ̸= 0 . L’equazione è
⎛ ⎞ ⎛ x⎞ ⎛ ⎞ ⎛ ⎞
ẋ vΩ −ω(y − yΩ ) −ω(y − yC )
⎝ẏ ⎠ = ⎝vΩ y⎠
+ ⎝ ω(x − xΩ ) ⎠ =: ⎝ ω(x − xC ) ⎠
z z
ż vΩ 0 vΩ
( y
xc : = xΩ − vΩ /ω, x y z z
ove si è posto x Si osserva innanzi tutto che vc = vc = 0 e che vc = vΩ =: µ, e ciò per
yc : = yΩ + vΩ /ω.
(
ξ : = x − xc
qualsiasi zc arbitrario. Poi, introdotte le si vede che l’equazione diviene
η : = y − yc
(
ξ̇ = −ω η
insieme con z(t) = µ (t − t0 ) + zc
η̇ = ω ξ
ovvero
d(x − xc ) d(y − yc ) d(z − zc ) dt dθ
= = = =: .
−ω(y − yc ) ω(x − xc ) µ 1 ω
Pertanto essa può essere trasformata nella
d2 ξ ω
+ξ =0 con θ=(z − zc ) .
dθ2 µ
) * ) *) * ) *
ξ cos θ − sin θ ξ0 xc + ξ0
In definitiva, tramite l’Esempio 1.1.13 si ottiene = , e si osservi che
η sin θ cos θ η0 yc + η0
sono le coordinate dei punti intersezioni delle linee di flusso con il piano (arbitrario ma fissato) z = zc . Le
corrispondenti linee di flusso hanno equazioni parametriche date dalle
x(θ) = xc + ξ0 cos θ − η0 sin θ ω
con θ = θ(z) = (z − zc )
y(θ) = yc + ξ0 sin θ + η0 cos θ µ
In entrambi i casi, invece, le linee di corrente sono curve varie, almeno una delle quali arbitraria. Se il sistema
è stazionario le due famiglie di linee coincidono.
In ogni caso ed in ogni istante esse risultano tangenti fra loro perché tangenti alle velocità.
! dato da x
Risolvere l’equazione significa determinare il moto x !(t) := φ(t, t0 , x0 ), o alternativamente tracciare la
curva integrale, che per un qualunque t0 passa per un (arbitrario) x0 , e che, in x, è inclinata di v(x).
Teorema 1.2.1 (si veda: [Arnold 1]) Sia v : R → R definita su un intervallo V0 := (x1 , x2 ) ⊆ R, e differenziabile
con derivata limitata in V0 . Per ogni (t0 , x0 ) ∈ R × V0 , l’equazione ẋ = v(x) ammette una soluzione t &→ x !(t) :=
φ(t, t0 , x0 ) tale che φ(t0 , t0 , x0 ) = x0 .
Se v(x0 ) = 0 la soluzione è t &→ φ(t, t0 , x0 ) = x0 . Se v(x0 ) ̸= 0 , esiste un intorno N (x0 ) ⊂ V0 nel quale la
soluzione è definita implicitamente dalla
- x
dξ
t − t0 = =: ψ(x) − ψ(x0 ). (2.21)
x0 v(ξ)
M. Lo Schiavo
1.2. Equazioni scalari autonome 13
Dimostrazione (inizio)
Se v(x0 ) = 0, x !(t) := φ(t, t0 , x0 ) = x0 verifica equazione e condizioni iniziali.
Se v(x0 ) ̸= 0 , la funzione 1/v(x) è definita e continua in un conveniente N (x0 ). La sua primitiva ψ(x) esiste,
unica, differenziabile in N (x0 ), ed è ψ ′ (x) = 1/v(x) ̸= 0 . Esiste quindi, su un certo N (t0 , x0 ), la funzione inversa
x=x !(t) := ψ −1 (t − t0 + ψ(x0 )) che vale x0 in t = t0 (ovvero ψ(! x(t)) = t − t0 + ψ(x0 )). Tale funzione ha derivata
'
d 1 '
'
!(t) = d
x ' = v(!x(t)).
dt dx ψ(x)
'
x=x̂(t)
"
In tal modo è stata dimostrata l’unicità locale solo se v(x0 ) ̸= 0 ; e non è stata usata la differenziabilità della v .
In effetti, in tale ipotesi più debole, se v(x0 ) = 0 la soluzione t &→ x !(t) := φ(t, t0 , x0 ) =
. xx0 può non essere unica.
Può accadere infatti che, sebbene sia v(x0 ) = 0 , eppure l’integrale (improprio) t − t0 = x0 dξ/v(ξ) =: ψ(x) − ψ(x0 )
esista finito per x ∈ V0 ; in tal caso le due funzioni x!1 (t) := ψ −1 (t − t0 + ψ(x0 )) ed x !(t) = x0 risultano entrambe
soluzioni del problema (2.20).
√
Esempio 1.2.1 ẋ = 1 − x2 , t0 , x0 ∈ R, con |x0 | ≤ 1 .
Sia (t0 , x0 ) = (t0 , −1). Il problema ha soluzioni per non solo:
t &→ x
!(t) = −1 per ogni t,
ma anche : ⎧
⎪
⎨−1 per t − t0 ≤ 0
t &→ x
!(t) = − cos(t − t0 ) per t − t0 ∈ [0, π]
⎪
⎩
+1 per t − t0 ≥ π ,
x
t0 t
È chiaro d’altra parte che la perdita di unicità della soluzione non dipende dal dato iniziale t0 = x0 = 0 che qui
si è scelto,
. x̄ma solo dal fatto che in un qualche x̄ il campo si annulla in modo tale da rendere convergente l’integrale
t̄ − t0 = x0 dξ/v(ξ) =: ψ(x̄) − ψ(x0 ). In tal caso la ψ −1 (t − t0 + ψ(x0 )) e la funzione costante in x̄ sono soluzioni
dell’equazione ed hanno medesimo valore: x̄ nel medesimo istante: t̄
Esempio 1.2.3 (continuazione dell’Esempio 1.2.2)
1/3
Per t0 ed x0 arbitrari (sia per esempio x0 > 0 ), scelto comunque τ ∈ R tale che τ ≥ x0 , la funzione
⎧7 83
⎪ t−t0
⎪ +τ per t − t0 ≤ −3τ
⎨ 3
1/3
!(t) = 00
x per t − t0 ∈ [−3τ, −3x0 ]
⎪
⎪ 13
⎩ t−t0 + x1/3 per t − t0 ≥ −3x0
1/3
3 0
è soluzione dell’equazione e verifica le condizioni iniziali. Il problema però non è deterministico in quanto esistono
1/3
istanti (ciascuno degli istanti nell’intervallo [t0 − 3τ, t0 − 3x0 ]) nei quali due distinte soluzioni assumono lo stesso
valore x̄ = 0 , e pertanto tale punto evolve in modo non univoco.
x
x0
t0{3¿ t0{3x01/3 t0 t
In modo analogo si riconosce che sono non univoche, per t > 0 , tutte le soluzioni dell’equazione ẋ = x1/3
per le quali x0 = 0 . Esse infatti possono valere x(t) = 0 per t ≤ τ , per un qualsiasi fissato τ > 0 , e x(t) =
3/2
± (2(t − τ )/3) per t > τ . #
Se si confrontano gli esempi 1.2.1 e 1.2.2 con l’esempio 1.1.6 si osserva che, pur avendo tutti in comune il fatto
che i loro campi ammettono un punto x̄ tale che v(x̄) = 0 , tuttavia il campo dell’esempio 1.1 è, in tale punto, del
tutto regolare; viceversa i campi degli esempi 1.2.1 e 1.2.2 non solo si annullano in qualche punto x̄ dell’aperto D
ma, in più, sono in esso non differenziabili. Essi sono critici per quanto riguarda l’unicità.
In particolare non esiste k ∈ R+ tale che
Lemma 1.2.1 Siano x̄ ∈ R ed N (x̄) un intorno di x̄. Siano poi v1 , v2 ∈ C 0 (N (x̄)) e tali che v1 (x̄) = v2 (x̄) =
0 e che v1 (x) < v2 (x), ∀x ∈ N (x̄)\ {0}. Se φ1 e φ2 sono soluzioni rispettivamente di ẋ = v1 (x) per
t ∈ J1 e di ẋ = v2 (x) per t ∈ J2 tali che φ1 (t0 ) = φ2 (t0 ) = x0 ∈ N (x̄) allora risulta:
Ne segue che se v ammette una costante che verifichi la (2.22), ed a maggior ragione se la v è differenziabile con
derivata limitata in N (x̄), allora le curve integrali {(t, φ(t, t0 , x0 ))}t∈J che in t0 passano per (t0 , x0 ), sia x0 > x̄,
rimangono per t < t0 inferiormente limitate dalla curva integrale, passante per lo stesso punto, dell’equazione
ẋ = k(x − x̄). Questa ha soluzione:
ed è quindi strettamente maggiore di x̄ per ogni t > −∞ se tale è stata in t0 , e cioè se, come si è supposto,
x0 > x̄.
M. Lo Schiavo
1.2. Equazioni scalari autonome 15
Á=Á2
x Á=Á1
x0
x
t0 t
Dimostrazione (del Teorema 1.2.1 fine) Si riconosce cosı̀ che se il campo v verifica la (2.22) allora la
soluzione costante x = x̄(t) := φ(t, t0 , x̄) = x̄ rimane separata da qualunque altra soluzione t &→ x(t) := φ(t, t0 , x0 )
che in qualche istante sia stata diversa da x̄ , e quindi consegue che essa rimanga unica.
[La condizione dell’esistenza della costante k, che è la Lip (x̄), è più debole della condizione che il campo sia loc.Lip (N (x̄)) (che
coincide (si veda: [Royden V.4.16]) con l’esistenza q.o. in N (x̄) e limitatezza della |v′ | ); quest’ultima, più agevole, condizione è quella
che verrà richiesta nel caso generale, non autonomo o con dim M > 1 , vedi oltre. Qui si sfrutta il fatto che per un’equazione autonoma
in R la non unicità può avvenire solo in punti fissati, nei quali il campo si annulla]. "
In definitiva, se v(x̄) = 0 l’unicità dipende dalla rapidità con cui v(x) → 0 per x → x̄ . Se v si annulla
abbastanza rapidamente (cioè se |v(x)| ≤ O(|x|)) ciò non accade a φ(t) − x̄; l’unica soluzione per x̄ è la costante,
e ogni altra “non raggiunge in tempo” il valore x̄. La funzione 1/v(x) risulta non integrabile su (x0 , x].
N.B. 1.2.4 Quanto visto non permette di indurre che la soluzione sia definita per ogni t ∈ R, e di conseguenza
che G t , per un arbitrario fissato t, abbia come dominio l’intera retta. È però palese dalla (2.21) la proprietà di
gruppo (locale) della famiglia degli evolutori della (2.20). ♦
N.B. 1.2.5 Se il campo è regolare, e quindi c’è l’unicità, gli equilibri sono vere e proprie barriere che separano il
piano delle fasi ampliato e verso cui le soluzioni tendono asintoticamente per |t| → ∞. Inoltre è chiaro che fra un
equilibrio e l’altro la soluzione è monotona. ♦
x
(n +1)¼
(n {1)¼
#
Diverso è il caso degli asintoti “verticali” (cioè paralleli all’asse x) che sono invece barriere, rispetto all’ascissa
temporale, per la validità della soluzione: la soluzione è locale , senza necessariamente contraddire l’unicità. Essi
provengono da singolarità del campo, o da campi troppo rapidi , e se il campo è autonomo possono dipendere dalle
condizioni iniziali.
Esempio 1.2.7 ẋ = x2 , t0 , x0 ∈ R, x0 ̸= 0 .
) *−1
1 1 1
Risulta t − t0 = − + , x = − t − t0 − , e si hanno due rami distinti, divisi da una singolarità che
x x0 x0
dipende dalle condizioni iniziali : se x0 > 0 la soluzione esiste ed è unica, compositiva e stazionaria, ma solo per
1 1
tempi t < + t0 , se invece x0 < 0 , la soluzione ha tali proprietà solo per t > + t0 .
x0 x0
x00
x0 t{t0
0
1=x00 1=x0 x00 1=x0 1=x0
x0
x2 − 1
Esempio 1.2.8 ẋ = , t0 , x0 ∈ R.
2
- x - x ' '
2 1 1 dξ dξ ' x0 − 1 '
Siccome = − , si ha t − t0 = − '
e quindi posto d := ' ' e
x2 − 1 x−1 x+1 x0 ξ − 1 x0 ξ + 1 x0 + 1 '
chiamati J− ed J+ rispettivamente gli intervalli (−∞, t0 − ln c) ed (t0 − ln c, +∞), si ricava
x−1 1 + c exp(t − t0 )
x0 > +1 ⇒ = +ce(t−t0 ) ⇒ x= , ∀t ∈ J−
x+1 1 − c exp(t − t0 )
x−1 1 + c exp(t − t0 )
x0 < −1 ⇒ = +ce(t−t0 ) ⇒ x= , ∀t ∈ J+
x+1 1 − c exp(t − t0 )
x−1 1 − c exp(t − t0 )
x0 ∈ (−1, 1) ⇒ = −ce(t−t0 ) ⇒ x= , ∀t ∈ R
x+1 1 + c exp(t − t0 )
x0 = +1 ⇒ ⇒ x = +1, ∀t ∈ R
x0 = −1 ⇒ ⇒ x = −1, ∀t ∈ R
1
0.5
-3 -2 -1 1 2 3
-0.5
-1
M. Lo Schiavo
1.3. I teoremi fondamentali 17
e si vede che anche qui, fissato comunque t − t0 , il valore x0 può essere scelto arbitrariamente in R, che anche
questa famiglia di applicazioni di avanzamento verifica la proprietà gruppale, e che è costituita da diffeomorfismi.
In effetti, fissati t e t0 , l’operatore G t−t0 :
È chiaro che il problema non si semplifichi se l’equazione non è scalare, o se non è autonoma: ẋ = v(t, x),
anche con x ∈ R. Già per questa equazione infatti non esistono metodi generali di risoluzione. Anche per essa
la soluzione:
Sussistono tuttavia i seguenti basilari teoremi, tutti “locali” intorno alle assegnate condizioni iniziali: (t0 , x0 ) ∈
! : t ∈ R &→ x = x
R × Rn , e relativi alla più generale equazione differenziale ordinaria nell’incognita funzione x !(t) ∈
Rn
ẋ = v(t, x) , !(t0 ) = x0 ∈ Rn .
x (3.23)
La loro validità locale implica che essi sussistano limitatamente a ciascuna carta anche quando lo spazio delle fasi
è, più in generale, una varietà differenziabile M di dimensione finita n (vedi oltre) sulla quale sia stato scelto un
sistema di coordinate reali. In tutti i seguenti enunciati si indicherà con D un Dominio di uno spazio reale, e cioè
un insieme aperto (nella topologia indotta dalla metrica euclidea), connesso, non vuoto.
Teorema 1.3.1 (Peano) (si veda: [Hale p.14]) Sia D ⊂ R × Rn un dominio in R1+n . Se v ∈ C 0 (D), e (t0 , x0 )
è dato comunque in D , esiste almeno una soluzione della (3.23) passante per x0 nell’istante t0 .
Dimostrazione (cenno) Applicazione del teorema di punto fisso di Schauder su un sottoinsieme convesso compatto di uno
spazio di Banach. Alternativamente [Michel p.46 opp. Coddington teor.1.2] si può usare il metodo di Newton-Eulero ed il teorema di
Ascoli Arzelà.
In ogni caso il problema differenziale dato viene modificato in un equivalente problema integrale:
- t - t
d
! (t) − x0 =
x ! (τ ) dτ =
x ! (τ )) dτ .
v(τ, x (3.24)
t0 dt t0
Per esso si definisce, su un opportuno sottoinsieme dello spazio C 0 (N (t0 ), Rn ) , l’operatore S+ dato dalla
- t
S+ [!
x](t, t0 , x0 ) := x0 + ! (τ )) dτ ,
v(τ, x (3.25)
t0
e, nel primo dei due procedimenti su accennati, si studiano le condizioni per le quali esso risulta ammettere un punto unito: φ, e cioè
un punto tale che S+ [φ] = φ.
Nel secondo dei due procedimenti detti, ci si limita a costruire la famiglia delle
con |tj+1 − tj | ≤ δm ove {δm }m=1,2,... è una successione di numeri reali convenientemente piccoli rispetto alla rapidità di crescita
m
del campo |v| e tali che (δ1 , δ2 , . . . , δm , . . .) −→ 0 . La famiglia delle Spezzate di Eulero è precompatta in quanto equicontinua
∞7 8
uniformemente limitata come sottoinsieme di C [t0 , t0 + a′ ], R : ∥·∥∞ . Esiste pertanto in C almeno un punto di accumulazione di
tali spezzate; esso sarà tale da verificare la (3.24) punto per punto. (Certo sarà soluzione. Se però questa non è unica, non è detto che
queste siano tutte ottenibili in questo modo. Per esempio per la ẋ = |x|1/2 con x0 = 0 , il metodo fornisce solo la soluzione nulla). "
N.B. 1.3.2 Il teorema è locale nel senso che scelto un qualsiasi (t0 , x0 ) ∈ D e fissato comunque un compatto
Γ ⊂ D del quale (t0 , x0 ) è punto interno, si può garantire l’esistenza della soluzione uscente da (t0 , x0 ) solo per
tempi t ∈ J := Ba′ (t0 ) con a′ che dipende: dall’ampiezza del compatto Γ, dalla posizione di (t0 , x0 ) all’interno di
Γ, e da un parametro a(v) ∈ R che a sua volta dipende dalla ) rapidità di crescita
* del campo nell’intorno di (t0 , x);
′ ∆b(Γ) 1−ε
per esempio nel successivo Teorema 1.3.1 è a (v) ≤ min , , con ε > 0 e ∆b := b − b′ che
maxΓ |v| kLip (v)
dipende anch’essa da Γ e dalla posizione di (t0 , x0 ) in Γ. ♦
Nel seguito si continuerà ad indicare con D ⊂ R × Rn l’insieme aperto di regolarità del campo.
Prolungabilità := Fissato (t0 , x0 ) ∈ D , una soluzione φ = φ(t, t0 , x0 ) ∈ Rn dell’equazione (3.23), definita su
[t0 , b] si dice prolungabile (come soluzione, non come funzione) nella φ+ = φ+ (t, t0 , x0 ) ∈ Rn definita su [t0 , b+ ]
quando accade che φ+ è soluzione della equazione sull’intervallo [t0 , b+ ], con b+ > b , e risulta φ+ (t) = φ(t), per
ogni t in [t0 , b]. Analoghe considerazioni valgono naturalmente per l’intervallo di definizione precedente l’istante
iniziale: [a, t0 ].
Quando il procedimento di prolungabilità non è ulteriormente possibile, l’estremo superiore dei b e l’estremo
inferiore degli a, che verranno indicati con m1 , ed m2 rispettivamente, individuano il:
Massimo Intervallo JM ≡ (m1 , m2 ) di esistenza contenente t0 . Esso è senz’altro aperto in quanto, per il teorema
di esistenza, il suo “sup”, (per esempio), non può essere un “max” visto che se lo fosse la soluzione esisterebbe in
tutto un suo intorno (aperto).
Teorema 1.3.1 (di prolungabilità) (si vedano: [Hartman p.13], [Michel II.3.1], [Coddington p.13]) Con le stesse
notazioni del Teorema 1.3.1, sia v ∈ C 0 (D) e limitata in un aperto U ⊂ D , e sia φ : t &→ φ(t, t0 , x0 ) una
soluzione uscente da (t0 , x0 ) ∈ U e definita su un qualche intervallo (a, b) =: J ⊂ JM , con t0 ∈ J , e tale che
J × φ(J) ⊂ U . Allora esistono i limiti: φ(a+ ) e φ(b− ). Inoltre, posto (ad esempio) xb := φ(b− ), se il punto
(b, xb ) appartiene a D (ne è interno) allora φ può essere definita su (a, b], e quindi essere prolungata oltre b.
M. Lo Schiavo
1.3. I teoremi fondamentali 19
Dimostrazione Sia λ := sup(t,x)∈U |v(t, x)| e sia {tn }n∈N una successione monotona: a < tn ↗ b . Vale la
maggiorazione - th
|φ(th ) − φ(tk )| = | v(t, φ(t))dt| ≤ λ|th − tk | .
tk
Pertanto {φ(tn )}n∈N è di Cauchy, e ciò assicura l’esistenza di xb := φ(b− ) in Rn . Poi, se (b, xb ) è in U si
definisce, per ε > 0 e t ∈ [t0 , b + ε),
(
& φ(t, t0 , x0 ) per t ∈ [t0 , b)
φ(t, t0 , x0 ) :=
una soluzione per (b, xb ) per t ∈ [b, b + ε).
.
& = t v(τ, φ(τ
Essa è soluzione su tutto [t0 , b + ε) poiché per costruzione è φ(t) & ))dτ per ogni t ∈ [t0 , b + ε). In più,
t0
& &
la sua continuità implica quella di v(t, φ(t)) e quindi quella della derivata d φ(t)/dt. "
Si indichi con la notazione: |t| + |φ| → ∞ l’eventualità che φ sia definita per |t| comunque grandi, oppure che
il vettore x := φ(t, t0 , x0 ) assuma lunghezza comunque grande.
Corollario 1.3.1 Sia v ∈ C 0 (D) . Allora
t
o è |t| + |φ| → ∞, oppure (t, φ(t, t0 , x0 )) −→∂D . La prima eventualità accade se ∂D = ∅ .
∂JM
Dimostrazione Se non si verifica la prima eventualità, e detto per esempio m2 < ∞ l’estremo destro di JM ,
◦
si supponga che sia (m2 , φ(m− −
2 )) ∈D ≡ D ̸= [D]. Certo esisterebbe un U := N (m2 , φ(m2 )) ⊂ D sul quale il
campo è limitato, contraddicendo la massimalità di m2 . "
Ci si ricorda di tutto ciò affermando che: φ può essere prolungata fino alla frontiera di un qualunque compatto K
che, contenente (t0 , x0 ), sia contenuto in D ; ove:
φ è prolungabile fino ad un insieme F ⊂ R × M := la soluzione φ della (3.23) è definita su [t0 , τ ] e si ha che
(τ, φ(τ, t0 , x0 )) ∈ F .
Per discutere l’unicità delle soluzioni in corrispondenza a ciascun dato iniziale risultano utili le seguenti consi-
derazioni.
Condizioni di Lipschitz := Quando, per ciascun compatto Γ ⊂ D ⊆ R1+n esiste kΓ ∈ R+ tale che |v(t, x) −
v(t, y)| ≤ kΓ |x−y| per ogni (t, x), (t, y) ∈ Γ, allora il campo v si dice localmente Lipschitz su D , o “loc.Lip (D )”,
relativamente a x. v si dice Lipschitz su D , o “uniformemente Lipschitz continua su D ”, (relativamente a x)
se il numero k è unico su tutto D .
N.B. 1.3.3
v ∈ C 1 (D) ⇒ v ∈ loc.Lip (D) relativamente ad x.
v ∈ Lip(D) ⇒ v uniformemente continua rispetto ad x, e per ogni t. ♦
Teorema 1.3.1 (di unicità) (si veda: [Michel Teor. 4.2]] Con le stesse notazioni del Teorema 1.3.1, sia v ∈ C 0 (D).
Se v è anche loc.Lip (D) allora la soluzione φ : t &→ φ(t, t0 , x0 ) ∈ Rn dell’equazione ẋ = v(t, x) uscente da un
(arbitrario) dato iniziale (t0 , x0 ) ∈ D è unica.
"
Più precisamente: se una soluzione t &→ φ(t) := φ(t, t0 , x0 ) è definita su [a, b] ∋ t0 allora la soluzione t &→
φ′ (t) := φ(t, t′0 , x′0 ) uscente da un (t′0 , x′0 ) scelto comunque in un conveniente W ′ := (a, b) × Bη (x′ ) ⊂ D , ove si è
chiamato x′ := φ(t′0 , t0 , x0 ), esiste almeno su (a, b) ed è tale che: dato comunque ε > 0 , esiste δ(ε, a, b; t′ , t′0 , x′0 )
per il quale
|x′0 − x′′0 | + |t′0 − t′′0 | + |t′ − t′′ | < δ implica |φ(t′ , t′0 , x′0 ) − φ(t′′ , t′′0 , x′′0 )| < ε .
x
Á(t )
Á (t )
(t0,x0 )
(t0,x )
8
>
< (t0,x0 )
´1 >:
K
t
a t0 t0 b
Dimostrazione
' Chiamata ancora, per brevità, φ(t) := φ(t, t0 , x0 ), sia η1 > 0 tale che l’insieme compatto K :=
{(t, x) ' t ∈ [a, b], |x − φ(t)| ≤ η1 } sia in D , e si ponga η := η1 exp(−kK (b − a)). Per (t′0 , x′0 ) ∈ (a, b) × Bη (x′ )
il teorema di esistenza assicura che φ′ (t) := φ(t, t′0 , x′0 ) esiste per t prossimo a t′0 e, fintanto che esiste, verifica la
- t
φ(t, t′0 , x′0 ) = x′0 + v(τ, φ(τ, t′0 , x′0 )) dτ .
t′0
e quindi dal Lemma di Gronwall segue che, finché esiste, φ(t, t′0 , x′0 ) verifica la
|φ(t, t′0 , x′0 ) − φ(t, t0 , x0 )| ≤ |x′0 − x′ | exp (kK |t − t′0 |) < η exp (kK (b − a)) = η1 .
Il Teorema di prolungabilità assicura allora che φ(t, t′0 , x′0 ) esiste per ogni t ∈ [a, b].
Per provare la continuità si può usare o il seguente procedimento oppure, vedi oltre, far ricorso al Teorema di
Ascoli-Arzelà.
Primo modo (si veda: [Coddington Teor. I 7.1]).
Si definisca la successione di funzioni:
⎧ ′
⎨ φ0 (t) :=
⎪ φ0 (t, t′0 , x′0 ) := x′0 + φ(t) − x′
- t
(3.26)
⎪ φ′j+1 (t) := φj+1 (t, t′0 , x′0 ) := x′0 +
⎩ v(τ, φ′j (τ )) dτ
t′0
M. Lo Schiavo
1.3. I teoremi fondamentali 21
Per (t′0 , x′0 ) ∈' W ′ si ha |φ′0 (t) − φ(t)| = |x'′0 − x′ |' < η e quindi per t' ∈ (a, b) si ha (t, φ′0 (t)) ∈ K . Inoltre
'. t ' '. t '
|φ′1 (t) − φ′0 (t)| = ' t′ v(τ, φ′0 (τ )) − v(τ, φ(τ ))dτ ' ≤ kK ' t′ φ′0 (τ ) − φ(τ )dτ ' = kK |t′0 − t| |x′0 − x′ | e questo implica
0 0
|φ′1 (t) − φ(t)| ≤ (1 + kK |t′0 − t|)|x′0 − x′ | < exp(kK |t′0 − t|) |x′0 − x′ |, e la (t, φ′ (t)) ∈ K .
Induttivamente si ricava
⎧ j+1 ′
⎪ j+1
⎨ |φ′ (t) − φ′ (t)| ≤ kK |t0 − t| |x′0 − x′ |
j+1 j
(j + 1)! (3.27)
⎪
⎩
|φ′j+1 (t) − φ(t)| < exp(kK |t′0 − t|) |x′0 − x′ | < η1 ,
Secondo modo
È istruttivo qui riportare anche il secondo dei due procedimenti cui si è accennato per la dimostrazione del
teorema di continuità, in quanto esso fa uso del seguente importante
allora esiste una sottosuccessione {φmj }j∈N ed una soluzione φ del problema
ẋ = v(t, x) , φ(t0 , t0 , x0 ) = x0
Se, inoltre, la soluzione φ è unica allora la successione {φm }m∈N ammette φ come limite uniforme.
Dimostrazione Applicazione del Teorema di Ascoli-Arzelà dopo aver mostrato che {φm }m∈N è equicontinua
uniformemente limitata. "
Corollario 1.3.2 (si veda: [Michel Cor. II.5.4]) Con la stessa notazione del Teorema 1.3.1, sia dato il problema
ẋ = v(t, x; ε) , φ(t0 , t0 , x0 ; ε) = x0
con v ∈ C 0 (D × Dε ) ove Dε ⊂ Rℓ aperto, e si 0 supponga che, per (t0 , x01) ∈ D, ε ∈ Dε , esso abbia soluzione unica
φ(t, t0 , x0 ; ε) con intervallo massimale J := m1 (t0 , x0 ; ε), m2 (t0 , x0 ; ε) .
'
Detto W := {(t, t0 , x0 ; ε) ' (t0 , x0 ) ∈ D, ε ∈ Dε , t ∈ J} allora φ è continua su W , m1 (t0 , x0 ; ε) è
semicontinuo superiormente e m2 (t0 , x0 ; ε) semicontinuo inferiormente in (t0 , x0 ; ε) su D × Dε .
Memento 1.3.1
lim inf xj := sup inf xk o anche lim inf f (y) := lim sup f (y) .
j→∞ k∈N j>k y→x ε→0 y∈B (x)
ε
Semicontinua inferiormente su D := una funzione f (x) tale che per ogni y ∈ D sia: f (y) ≤ lim inf x→y f (x);
ovvero quando dato ε esiste Nε (x) tale che per ogni y ∈ Nε (x) si ha f (y) > f (x)−ε ; o anche quando f −1 (α, +∞)
è aperto per ogni α ∈ R.
d
x = ν(τ, x) := v(τ + t0 , x; ε) , ψ(0, 0, x0 ; ε) = x0 .
dτ
m
Sia {(tm , t0,m , x0,m ; εm ) ∈ W }m∈N −→ (t, t0 , x0 ; ε). Il teorema precedente sussiste per la successione dei campi
∞
νm (τ, x) := v(τ + t0,m , x; εm ), ed assicura che
m
φ(τ + t0,m , t0,m , x0,m ; εm ) −→ φ(τ + t0 , t0 , x0 ; ε0 )
∞
uniformemente sui sottoinsiemi compatti di (m1 (t0 , x0 ; ε) − t0 , m2 (t0 , x0 ; ε) − t0 ). In particolare, quindi, si può
scegliere τ + t0,m = tm per ciascun m, e dedurne che la convergenza per tm → t è uniforme in m. In definitiva,
tramite la
|φ(tm , t0,m , x0,m ; εm ) −φ(t, t0 , x0 ; ε0 )| ≤
|φ(tm , t0,m , x0,m ; εm ) − φ(tm , t0 , x0 ; ε0 )| + |φ(tm , t0 , x0 ; ε0 ) − φ(t, t0 , x0 ; ε0 )| ,
m
si conclude che φ(tm , t0,m , x0,m ; εm ) −→ φ(t, t0 , x0 ; ε0 ).
0 ∞ 1
Per la (i) inoltre si ha: lim inf m→∞ m1 (t0,m , x0,m ; εm ), m2 (t0,m , x0,m ; εm ) ⊃ J0 . "
Sussiste infine anche la seguente estensione agli ordini superiori, (si veda il Teorema 1.3.1 per un enunciato
meno forte):
Teorema 1.3.3 (si veda: [Arnold §32.9], opp. [Lefschetz p.40]) Sia v(t, x, ε) ∈ C r≥1 (D×Dε ) con D ⊆ R1+n aper-
to, e Dε ⊆ Rm aperto. Allora la soluzione φ = φ(t, t0 , x0 ; ε), è di classe C r rispetto a (t0 , x0 , ε) ∈ D × Dε , e
C r+1 rispetto a t, nel suo dominio di definizione.
Ne segue che v ∈ C 1 (D) determina una ed una sola soluzione uscente da una qualsiasi coppia (t′0 , x′0 ) ∈
N (t0 , x0 ); tale soluzione è definita in tutto un intorno N (t0 , x0 ) delle condizioni iniziali ed è ivi differenziabile
rispetto a (t, t′0 , x′0 ). Risulta quindi determinata una famiglia locale di applicazioni d’avanzamento in N (t0 , x0 ).
Quanto segue, enunciato in Rn , vale anche in Cn pur di considerare accoppiate le equazioni per le parti ℜe ed
ℑm; e costituisce un parziale riassunto di quanto detto, secondo un’alternativa linea di dimostrazione: Cauchy-
Picard. In questo caso, esistenza ed unicità vengono provate simultaneamente, e sotto la più stretta ipotesi:
v ∈ C 1 (D), (si veda: [Arnold, cap.IV]).
Si consideri dapprima uno spazio metrico (X, d) ed una mappa S : X → X.
S è una contrazione := esiste una costante reale non negativa k , strettamente minore di uno, tale che:
x, y ∈ X ⇒ d(Sx, Sy) ≤ k d(x, y).
Si osservi che per poter parlare di contrazioni è fondamentale il fatto che il dominio di S e l’immagine di S
siano sottoinsiemi di uno stesso spazio metrico.
Una contrazione è un caso particolare di:
& Lipschitz := esiste k > 0 : per ogni x, y ∈ X si ha:
& d)
S : (X, d) → (X,
&
d(Sx, Sy) ≤ k d(x, y) .
Teorema 1.3.4 (delle contrazioni, o C.M.P.) Sia (X, d) uno spazio metrico completo ed S : X −→ X una
contrazione. Esiste, ed è unico, un punto x̄ ∈ X che è punto unito per S , e cioè: S x̄ = x̄ .
n
Esso inoltre è anche tale che preso comunque x0 ∈ X si ha: S n x0 −→ x̄ .
∞
M. Lo Schiavo
1.3. I teoremi fondamentali 23
Dimostrazione
Unicità: Se fosse x′ = Sx′ e simultaneamente x′′ = Sx′′ , con x′ ̸= x′′ , si avrebbe: d(x′ , x′′ ) = d(Sx′ , Sx′′ ) <
d(x′ , x′′ ), e ciò non è lecito.
Esistenza: Sia xn := S n x0 . Risulta: d(xn+1 , xn ) ≤ k n d(x1 , x0 ).
Pertanto, se m > n si ha
d(xm , xn ) ≤ d(xm , xm−1 ) + d(xm−1 , xm−2 ) + · · · + d(xn+1 , xn )
≤ (k m−1 + k m−2 + · · · + k n )d(x1 , x0 )
(1 − k m−n ) kn
= kn d(x1 , x0 ) ≤ d(x1 , x0 ) .
(1 − k) 1−k
Ne segue che la successione {S n x0 }n∈N è di Cauchy, e la completezza dello spazio X assicura l’esistenza in X di
un punto limite x̄ := lim xn . Tale punto è unito per S , infatti dalle definizioni di limite e di operatore contrattivo
segue che: x̄ è punto limite anche della successione {xm }m∈N con m = n + 1 la quale, d’altra parte, ha come limite
anche il punto S x̄ dato che è
d(xm , S x̄) = d(xn+1 , S x̄) = d(Sxn , S x̄) ≤ k d(xn , x̄) .
L’unicità del limite implica necessariamente la S x̄ = x̄ . "
kn
N.B. 1.3.4 Si è anche valutato l’errore: d(x̄, xn ) ≤ d(x1 , x0 ).
1−k
S x
S2 x
3
S x
S 2 x Sx x x S 2 x Sx
♦
(si ricordi che con la notazione [A] si intende la chiusura dell’insieme A) e si supponga che a e b siano scelti in
modo tale che l’insieme (compatto)
; ' <
'
Γ := [Ba (t0 )] × [Bb (x0 )] := (t, x) ∈ R1+n ' t ∈ [Ba (t0 )] , x0 ∈ [Bb (x0 )]
risulti appartenere al dominio D . Siano poi
λ := max |v(t, x)|, kΓ := max ∥∂x v(t, x)∥ ,
(t,x)∈Γ (t,x)∈Γ
N.B. 1.3.5 a e b dipendono dalla posizione di (t0 , x0 ) ∈ D . I valori a′ , b′ sono tali che a′ ≤ a, b′ ≤
b, b′ + λa′ ≤ b . Per l’unicità occorrerà che a′ < 1/kΓ ; b′ è l’ultimo ad essere fissato tale che b′ + λa′ ≤ b . ♦
Qualora esista, la soluzione φ dell’equazione assegnata: ẋ = v(t, x), che esce dal dato (t0 , x), è una funzione
φ : t &→ φ(t, t0 , x) =: x + h(t, x) , h(t0 , x) = 0
che (equivalentemente) risolve il problema integrale
- t
φ(t, t0 , x) = x + v(τ, φ(τ, t0 , x)) dτ =: S+ [φ](t, t0 , x) .
t0
Essa quindi individua una curva integrale (t, φ(t, t0 , x)) =: (t, x + h(t, x)) che non potrà essere esterna a Kx finché
t < a′ , giacché in tutto Γ accade che |v| < λ.
x0+b
¡ Kx0+b¶ ¸
x0+b¶
¡¶
Kx x0 h
Á
x
x0{b¶ Kx0{b¶
x0{b
t0{a t0{a¶ t0 t0+a¶ t0+a
Sia Γ′ := [Ba′ (t0 )] × [Bb′ (x0 )], con b′ fissato come detto ed a′ ancora da specificare, e si definisca lo spazio
funzionale ; <
A(a′ , b′ ) := h ∈ C 0 (Γ′ , Rn ) tali che |h(t, x)| ≤ λ|t − t0 |, , ∀ (t, x) ∈ Γ′
o, equivalentemente, lo spazio A+ (a′ , b′ ) delle funzioni φ ∈ C 0 (Γ′ , Rn ) tali che |φ(t, x)−x| ≤ λ|t−t0 |, ∀ (t, x) ∈
Γ′ . Lo spazio A(a′ , b′ ) contiene certamente la funzione costante h : (t, x) &→ h(t, x) = 0 . Si doti tale insieme
di funzioni della norma: ? ? ' '
? ? ' '
?h1 − h2 ? := max ′ 'h1 (t, x) − h2 (t, x)' .
∞ (t,x)∈Γ
N.B. 1.3.6 Siccome Γ′ è compatto il valore che si ottiene è un massimo, cioè è un numero reale che viene assunto
dalla funzione a secondo membro. In questa norma la convergenza implica l’uniforme convergenza delle funzioni
appartenenti a C(Γ′ , Rn ). Pertanto, se una successione {hn }n=1,2,... di funzioni in A ammette limite in questa
norma, si può dedurre che la funzione limite non solo appartiene a C (Γ′ , Rn ) , ma appartiene addirittura ad A,
giacché la condizione sulla massima crescita della funzione continua a sussistere anche nel limite. Si ha cioè che
(A; ∥·∥∞ ) è un sottoinsieme chiuso, convesso, di uno spazio di Banach ed è pertanto esso stesso uno spazio di
Banach e, come tale, completo rispetto alla norma ∥·∥∞ . Analoghe affermazioni sussistono per lo spazio A+ . ♦
Proposizione 1.3.1 Per a′ sufficientemente piccolo l’operatore S : A → A è una contrazione su (A, ∥·∥∞ ).
il che implica che la funzione S[h] appartiene ad A; (si osservi infatti che x è definitivamente fissato in
Bb′ (x0 ), e che t varia in Ba′ (t0 ); quindi la S[h] verifica tutte le condizioni per la sua appartenenza ad A);
M. Lo Schiavo
1.3. I teoremi fondamentali 25
|v(τ, x + h1 (τ, x)) − v(τ, x + h2 (τ, x))| ≤ kΓ |h1 (τ, x) − h2 (τ, x)|
≤ kΓ ∥h1 − h2 ∥∞ ,
da cui segue
|(S[h1 ] − S[h2 ]) (t, x)| ≤ kΓ |t − t0 | ∥h1 − h2 ∥∞ ≤ kΓ a′ ∥h1 − h2 ∥∞ .
Posto allora kΓ a′ =: k si ottiene
Pertanto, purché sia k < 1, si ha che S è una contrazione su (A, ∥·∥∞ ) . Equivalentemente: S+ è
contrattivo su A+ . "
Scelto x prossimo a x0 , per esempio |x − x0 | < b′ , e se a′ verifica la limitazione kΓ a′ < 1 , ne segue che in A
esiste ed è unico il punto unito di S :
- t
h̄ = S[h̄] ≡ v(τ, x + h̄(τ, x))dτ ,
t0
si riconosce cosı̀ che, per t0 ed x ∈ Bb′ (x0 ) fissati e per t ∈ Ba′ (t0 ), la funzione t &→ φ(t) := φ(t, t0 , x) verifica su
Ba′ (t0 ) l’identità
φ̇(t) = v(t, φ(t)) , con φ(t0 ) = x .
Si noti anche che
φ = S+ [φ] implica che φ = lim φn ,
n→∞
ove si è posto
φ0 (t, t0 , x) := x, e, per n = 0, 1, . . .
- t
n
φn+1 (t, t0 , x) := x + v(τ, φn (τ, t0 , x)) dτ = S+ [φ0 ] .
t0
Lemma 1.3.1 Sia L(Rn ) lo spazio degli operatori lineari reali su Rn , sia T : t &→ T (t) ∈ L(Rn ), con T ∈ C 1 (I ⊆
R), e sia T (t) la matrice che una data base assegna all’operatore T (t). L’equazione
ammette soluzione Ψ(·, t0 , 1I ) : JM ⊃ I → L(Rn ), ed in tal caso esse sono tali che x0 è l’unico vettore in Rn
tale che φ(t, t0 , x0 ) = Ψ(t, t0 , 1I )x0 .
Dimostrazione Indicata brevemente con Ψ = Ψ(t, t0 ) la detta soluzione di (3.29), dato comunque x0 si ha che
Ψ̇(t, t0 )x0 = T (t)Ψ(t, t0 )x0 , e pertanto φ(t, t0 , x0 ) := Ψ(t, t0 )x0 è soluzione di (3.28). D’altra parte, tale x0 è
ovviamente unico data l’unicità della soluzione di (3.28) ed il fatto che Ψ(t0 , t0 ) = 1I .
Per quanto riguarda il viceversa, si dimostrerà (si veda: Cap.II) che la famiglia delle soluzioni di (3.28) è dotata
della proprietà di essere esprimibile, mediante una Ψ & t0 )x0 , con x0
& : JM → L(Rn ), secondo la φ(t, t0 , x0 ) = Ψ(t,
il vettore (arbitrario) che ne individua la condizione iniziale. Pertanto deve necessariamente essere Ψ & = Ψ. "
Nel seguito, all’occorrenza, i ruoli di (3.28) e di (3.29) verranno scambiati senza ulteriori commenti.
Teorema 1.3.1 (di regolarità) Sotto le stesse ipotesi del Teorema 1.3.1, se il campo è differenziabile due volte con
continuità, la soluzione, localmente, è differenziabile con continuità.
Come si è detto, questo enunciato non esprime il migliore risultato ottenibile, (si veda: Arnold §32.6), ma è
relativamente facile da dimostrare.
) *
2 1 ∂v .. .. ∂v
Dimostrazione Se v è in C (D) allora ∂x v è in C (D), ove si è posto: ∂x v =: . · · · . n ; per
∂x1 ∂x
cui, per il Lemma 1.3.1, il sistema
(
ẋ = v(t, x) (t, x(t)) ∈ D
(3.30)
Ẋ = ∂x v(t, x)X X : t &→ X(t) ∈ L(Rn ) ,
è anch’esso un sistema come nel Teorema 1.3.1. Si noti anche che le due equazioni sono accoppiate: la seconda
non va considerata
) * come indipendente dalla prima, bensı̀ come quella relativa alla seconda componente di un unico
x
vettore: . Posto allora φ0 := x e ∂x φ0 ≡ Ψ0 = 1I , si riconosce che il sistema delle iterate successive
X
del problema (3.30)
⎧ - t
⎪
⎪
⎪ φ
⎨ n+1 (t, t 0 , x) := x + v(τ, φn (τ, t0 , x))dτ
t0
- t (3.31)
⎪
⎪
⎪
⎩ Ψn+1 (t, t0 , x) := 1I + ∂x v(τ, t0 , φn (τ, t0 , x))Ψn (τ, t0 , x)dτ ,
t0
individua due successioni delle quali, come è facile riconoscere, la seconda ha gli elementi ordinatamente uguali alle
derivate (rispetto alla variabile x) degli elementi della prima: ∂x φn = Ψn . Per il Teorema 1.3.1, d’altra parte, tali
successioni convergono, simultaneamente ed entrambe uniformemente, la prima verso la soluzione φ = φ(t, t0 , x)
dell’equazione ẋ = v(t, x), come già detto precedentemente, e la seconda verso la soluzione Ψ = Ψ(t, t0 ; x) della
sua corrispondente
Equazione Variazionale := Ẋ = ∂x v(t, φ(t, x))X, X(t0 , t0 ; x) = 1I .
Inoltre, ricordando che la seconda delle (3.31) uguaglia la derivata (rispetto alla variabile x) della prima, si
osserva che Ψ è limite uniforme delle derivate Ψn = ∂x φn . Quindi, il limite φ delle φn è senz’altro derivabile
ed ha come derivata il limite Ψ delle derivate: Ψ(t, t0 , x) ≡ ∂x φ(t, t0 , x). In definitiva:
la derivata ∂x φ di quella funzione φ = φ(t, t0 , x) che vale x all’istante t0 e che come funzione della t è
soluzione dell’equazione ẋ = v(t, x), esiste, è continua, ed è la soluzione uscente dal dato iniziale: Ψ(t0 ) = 1I
dell’equazione Ẋ = ∂x v(t, φ(t, t0 , x))X variazionale della ẋ = v(t, x) nel punto φ = φ(t, t0 , x).
Infine, siccome la convergenza è uniforme su [Ba′ (t0 )] × [Bb′ (x)], la derivata ∂x φ è anche tale che
uniformemente rispetto a t ∈ [Ba′ (t0 )] (questo ultimo fatto, ancora più esplicitamente rimarcato nel Teorema 1.3.2,
è di importanza fondamentale per tutto ciò che riguarda i procedimenti di calcolo approssimato). "
N.B. 1.3.7 Tutto ciò è valido in insiemi limitati. In particolare a′ , se anche può a volte essere arbitrario, deve
comunque essere fissato e finito. ♦
M. Lo Schiavo
1.4. Esempi e casi notevoli 27
N.B. 1.3.8 Si osservi che la seconda delle (3.31) individua la successione delle derivate delle φn e converge verso
la derivata della φ(t, t0 , x) soluzione della ẋ = v(t, x) solo se quest’ultima viene considerata accoppiata con
la Ẋ = ∂x v(t, x)X . In caso contrario, la soluzione di Ẋ = ∂x v(t, x)X potrebbe non coincidere con quella di
Ẋ = ∂x v(t, φ(t, t0 , x))X , e la successione
- t
Ψn+1 (t, t0 , x) = 1I + ∂x v(τ, t0 , φn (τ, t0 , x))Ψn (τ, t0 , x)dτ
t0
M0 V M
(t0;x(t)) (t;x(t))
Get0t
G t0t
'
V0
t0 t
(t0;x0) (t;x0)
Gb t0t
Infatti: posto t − t0 := ψ1 (x) − ψ1 (x0 ) si ha che ne esiste l’inversa x(t) = ψ1−1 (t − t0 + ψ1 (x0 )) in N (y0 , x0 ), e
questa è soluzione di ẋ = v x (x) , x(t0 ) = x0 ; (giacché v x (x0 ) ̸= 0 ). Analogamente esiste unica la y(t) =
−1
ψ2 (t−t0 +ψ2 (y0 )) tale che: ψ2 (y(t)) = t−t0 +ψ2 (y0 ). Pertanto, definita ψ3 (x, x0 , y0 ) := ψ1 (x)−ψ1 (x0 )+ψ2 (y0 ),
la soluzione del problema è data dalla: y(x) := ψ2−1 (ψ3 (x, x0 , y0 )). Essa infatti ha per derivata
'
dy(x) 7 −1 8′ dψ2−1 (η) '' dψ1 (x)
= ψ2 (x) = =
dx dη 'η=ψ3 (x,x0 ,y0 ) dx
@ ' A−1
dψ2 '' 1 v y (y(x))
= ' x
=
dy y=ψ−1 (ψ3 (x,x0 ,y0 )) v (x) v x (x)
2
-1 +1
t
1
Esempio 1.4.2 ẋ = t0 , x0 ∈ R, t0 ̸= 0 .
t
Fissato comunque τ > 0 , non possono esistere soluzioni in J := (−τ, τ ), perché ln |τ | + c è discontinua in zero.
L’equazione ha però soluzioni date da
x0
t
M. Lo Schiavo
1.4. Esempi e casi notevoli 29
x
Esempio 1.4.3 ẋ = t0 , x0 ∈ R, t0 ̸= 0 .
t
Per t > 0 e per t < 0 le soluzioni sono date da x !(t) = c0 t con c0 := x0 /t0 . Tuttavia nessuna di esse passa
per la retta t = 0 che rappresenta la frontiera del dominio D di regolarità del campo. Quindi anche se (t0 , x0 ) e
(t′0 , x′0 ) sono tali da avere lo stesso rapporto, qualora fosse t0 t′0 < 0 le due semirette non fanno parte di una stessa
soluzione, pur facendo parte di una stessa retta.
x
Ciò è per dire che quando v non è regolare, anche se la soluzione “sembra” regolare essa va comunque considerata
come formata dalle varie parti dalle quali risulta composta e che separatamente sono soluzioni della equazione su
diversi domı́ni.
Si noti che il teorema di esistenza non dice che la soluzione è certamente singolare su ∂D , dice solo che non lo
◦
è in D .
Esempio 1.4.4 t2 ẋ + 2tx − 4t3 = 0 , (t0 , x0 ) = (1, 1).
2 4
L’equazione implica t x − t = c, e le condizioni iniziali danno c = 0 . La soluzione pertanto è contenuta in una
funzione regolare su tutto R pur non essendo, la soluzione stessa, definita su tutto R. Infatti essa è comunque
composta da due rami disgiunti su t < 0 e t > 0 . Ciò è immediato se si pensa al fatto che l’equazione data è, in
2
reatà, la ẋ = 4t − x, le cui soluzioni sono riassunte dalla x !(t) = t2 + c/t2 .
t
x
t
Esempio 1.4.5 ẋ = −, t0 , x0 ∈ R, x0 ̸= 0 .
x
L’equazione implica x + t = c = x20 + t20 . La soluzione quindi cessa di esistere per t2 > c. In particolare, se
2 2
c=0, la funzione φ(t, 0, 0) : {0} &→ {0} non è certo differenziabile, (e non è la costante R → {0} ).
x
t
#
∆p ṗ
Ipotesi di lavoro però è che sia p : R → R, ed inoltre = .
p∆t p
Un primo modello si ottiene ponendo n(t)−m(t) ∼ cost = α, con α dipendente dalla quantità di cibo disponibile
per individuo σ . Può essere plausibile supporre α = β(σ − σ0 ), con β una costante positiva e con σ0 la minima
quantità di cibo sufficiente al sostentamento: si ha cioè σ ≤ ≤
>σ0 ⇐⇒ α>0. In tal modo risulta
Con tale schema, (σ indipendente da p), la popolazione p potrebbe crescere in modo indefinito. È chiaro
che generalmente questo non è accettabile; come correzione è necessario assegnare qualche fenomeno sociale, il cui
modello sia σ = σ(p), e che impedisca la crescita indefinita.
A questo scopo si può tenere conto della lotta per il cibo: σ = (& σ − kp) con σ & > σ0 . Risulta allora α =
σ − σ0 ) − βkp =: c(η − p). Questo secondo modello dà luogo alla
β(&
Gli equilibri sono p = 0, e p = η che viene chiamata popolazione endemica. Si noti poi che −cp2 è proporzionale
al numero di incontri, e rappresenta gli attriti sociali. Ci si aspetta anche che per piccole popolazioni tali attriti
siano piccoli, e cioè η ≫ 1 . Per p piccole allora si ha ṗ ≃ cηp da cui si vede che lo zero è instabile in quanto la p
segue l’evoluzione vista sopra. Viceversa, se p > η risulta ) ṗ/p < 0 e di *
conseguenza si ha che η è stabile.
1 1 1/η b/η
Più in dettaglio, mediante la relazione ≡ + si ricava
cp(η − bp) c p η − bp
' ' ' ' ' '
1 'p' 1 ' η − bp) ' ' p(η − p0 ) '
c(t − t0 ) = ' '
ln ' ' − ln ' ' ' , e quindi '
cη(t − t0 ) = ln ' ' .
η p0 η η − bp0 ' p0 (η − p) '
Pertanto, se η − p0 > 0 allora (per continuità) è anche η − p > 0 almeno fino a che p = η ; e ciò non può accadere
in un tempo finito. Analogamente, se: η − p0 < 0 allora η − p < 0 per ogni t ≥ t0 . Risulta infatti esplicitamente:
η
p!(t) = ,
1 + ( pη0 − 1) exp(−cη(t − t0 ))
che implica, dato p0 > 0 , che lim p(t) ↑ η se p0 < η , e lim p(t) ↓ η se p0 > η . Si ha cioè la curva
t→∞ t→∞
logistica:
0
t
N.B. 1.4.7 Attenzione alle forme implicite. Con x : t ∈ R &→ x(t) ∈ R si hanno per esempio:
• ẋ2 + x2 = 0 non ha soluzioni: l’insieme aperto D di definizione del campo è vuoto. Al più si può estendere il
concetto di soluzione (vedi qui sotto) ed accettare l’unica x = x(t) = 0 in corrispondenza dell’unica possibile
scelta delle condizioni iniziali: (t0 , x0 ) ≡ (t0 , 0) ∈ ∂D .
Definizioni desuete:
M. Lo Schiavo
1.4. Esempi e casi notevoli 31
Soluzione generale := Una funzione Φ : (t, t0 ; c) &→ Φ(t, t0 ; c) ∈ Rn , con c := (c1 , . . . , cn ) ∈ Rn , definita
su un aperto J × U ⊆ J × D ⊆ R2+n e tale che ogni possibile soluzione x = φ(t, t0 , x0 ) dell’equazione ẋ = v(t, x),
con x ∈ Rn e (t0 , x0 ) ∈ U , si possa ricavare come caso particolare della Φ per una qualche scelta dei parametri
c1 , c2 , · · · , cn . Lo spazio dei parametri deve pertanto poter essere posto in corrispondenza biunivoca con quello dei
dati iniziali (a t0 fissato).
Soluzione singolare := una soluzione che non è ottenibile dalla soluzione generale per alcun valore reale finito
◦
dei parametri. (Spesso appartiene con la ∂D se il campo è loc.Lip in D ).
Queste possono dar luogo a casi dubbi: ẋ = −2x3/2 , che è Lip in R, dà
1 −1/2
(x−1/2 − x0 ) = −2(t − t0 )
(1 − 3/2)
da cui (
(t + c)−2 se ̸ 0
x0 =
!(t) =
x
0 se x0 = 0
e si noti che la x = 0 non è ottenibile dalla prima per alcun valore reale di c. Se però si pone k := 1/c la funzione
!(t) = k 2 /(1 + kt)2 che è del tutto regolare, ma che non contiene il caso c = 0 .
che si ottiene è : x
Conviene in definitiva riferirsi sempre alla soluzione locale per (t0 , x0 ).
Esempio 1.4.8 L’equazione di Clairaut
ẋ2
x = ẋt − t0 , x0 ∈ R .
2
√ '
In realtà queste sono due equazioni: ẋ = t ± t2 − 2x entrambe con campo loc.Lip in D := {(t, x) 'x < t2 /2 },
1
infatti ivi è finita la ∂x v = ∓(t2 − 2x)− 2 . La frontiera del dominio D è la parabola x = t2 /2 che è soluzione,
singolare.
La funzione x !(t) = x0 + λ(t − t0 ) è soluzione purché λ verifichi la:
B
1
x0 + λ(t − t0 ) = λt − λ2 , e cioè se λ± = t0 ± t20 − 2x0 .
2
A sua volta quest’ultima individua due rette (una per equazione) per ciascun (t0 , x0 ) ̸∈ ∂D ; esse passano per la
∂D nei punti (x± , t± ) tali che
t2± λ2
= x± = x0 + λ± (t± − t0 ) = λ± t± − ±
2 2
che implica (t± − λ± )2 = 0 e quindi t± = λ± . D’altra parte il coefficiente angolare della tangente in t alla
parabola ∂D vale: d(t2 /2)/dt ≡ t, per cui le rette soluzione sono tangenti alla parabola nei punti (x± , t± ).
Come nell’Esempio 1.4.3 però queste soluzioni vanno considerate in modo separato: l’una o l’altra delle due
semirette il cui punto di separazione è quello di tangenza con la frontiera ∂D del dominio di regolarità del campo.
x=t2=2
x
t
(t0;x0)
Nella figura il tratto unito rappresenta le soluzioni per l’equazione con il segno positivo, quello tratteggiato le
soluzioni dell’equazione con il meno. #
Memento 1.4.1 Una funzione f : R2 → R si dice omogenea di grado α ∈ R se, per ogni x > 0 , si ha
(si veda: [Petrovskj p.18]); tutte le curve integrali sono simili, con l’origine come centro di similitudine: y → cy, x →
cx, con c ̸= 0 .
È evidente che questo metodo si applica anche ad equazioni del tipo: y ′ = g(x, y) con g : R2 → R funzione
omogenea di grado zero.
) *
dy ax + by + c
Esempio 1.4.9 =g x0 , y0 ∈ R, dx0 + ey0 ̸= 0 con g : R → R, funzione regolare, e
dx dx + ey + f
con a, .' . . , f '∈ R , tali che |c| |f | ̸= 0.
'a b'
Se '' ' ̸= 0 esiste un unico punto (x̄, ȳ) intersezione delle due rette. Posto x =: ξ + x̄, y =: η + ȳ si ricava
d e'
facilmente ) * ) *
dη aξ + bη dζ a + bζ
=g =⇒ ζ + ξ =g .
dξ dξ + eη dξ d + eζ
' '
'a b'
Se invece ' ' ' = 0 , (pur restando |a| + |b| > 0, e |d| + |e| > 0), esiste σ ∈ R tale che a = σd, b = σe, e si
d e'
ha con z = (ax + by) = σ(dx + ey) :
) *
dy dz z+c
b = − a = bg z+f .
dx dx 1/σ
#
N.B. 1.4.10 Nel seguito di questo paragrafo si assumeranno x, y, z ∈ R; le funzioni v , v , µ, ν : R → R verranno x y 2
tutte considerate appartenenti a C 1 (D) per un conveniente aperto D ⊆ R2 , D ∋ (x0 , y0 ); e si supporrà che in
D entrambi i valori di v x , v y e di µ, ν siano non simultaneamente nulli.
Inoltre, la seguente notazione si intenderà valida con l’intesa di scegliere come variabile dipendente quella per
la quale la condizione iniziale (x0 , y0 ) ∈ R2 rende la corrispondente componente del campo determinata e non
nulla. Per esempio se v x (x0 , y0 ) è in R\{0} allora si intenderanno localmente equivalenti in N (x0 , y0 ) ⊆ R2 le
due espressioni
dy v y (x, y)
= x e v y (x, y) dx = v x (x, y) dy , (4.33)
dx v (x, y)
il che comporta che nell’intorno di punti nei quali è invece v y (x, y) ̸= 0 l’equazione che si pensa di risolvere è la:
dx v x (x, y)
= y e non la prima delle (4.33). Allo stesso modo, se ν : R2 → R, è tale che ν(x0 , y0 ) ̸= 0 , allora si
dy v (x, y)
equivarranno in N (x0 , y0 ) ⊆ R2 le
dy
ν(x, y) + µ(x, y) = 0 e µ(x, y)dx + ν(x, y)dy = 0 . (4.34)
dx
Questa notazione si può generalizzare al caso n ≥ 2 , e cioè con x := (x1 , . . . , xn ) ∈ Rn e con v := (v1 , . . . , vn ) : D ⊆ Rn → Rn ,
v ∈ C 1 (D) . Tuttavia ciò dà luogo a due possibili “estensioni”, diverse l’una dall’altra. Da un lato si può considerare la (4.33) come
un caso particolare di un’espressione del tipo
dx1 dx2 dxn
= = ... = , (4.35)
v1 (x1 , . . . , xn ) v2 (x1 , . . . , xn ) vn (x1 , . . . , xn )
da intendersi equivalente al sistema (per esempio)
dxi vi (x1 , . . . , xn )
= j 1 , i = 1, . . . , j − 1, j + 1, . . . , n
dxj v (x , . . . , xn )
M. Lo Schiavo
1.4. Esempi e casi notevoli 33
Sia γ un Cammino generalmente regolare in Rn dato da x(t) = (x1 (t), .., xn (t)).
“Integrare una funzione scalare f : D9 → R,
' f=
1 n
: f (x , . . . , x ) lungo γ” significa sommare i valori ottenuti su
ciascuno degli archi regolari: γ i := γ(t) t ∈ Ii mediante la
'
- - ti /
f ds ≡ f (x(τ )) |ẋ(τ )|2 dτ ;
γi ti−1
si dice esatta su un dominio D ⊂ R2 quando esiste su D una funzione F : D → R che sia F ∈ C 1 (D) con
@ A @ A
∂x F (x, y) µ(x, y)
∇F (x, y) := = , (x, y) ∈ D .
∂y F (x, y) ν(x, y)
In tal caso, scelto un qualunque cammino semplice e generalmente regolare γ : [t0 , t] → D , la cui rappresentazione
parametrica sia x(τ ) ≡ (x(τ ), y(τ )) con x(t0 ) = p0 ≡ (x0 , y0 ) e x(t) = p ≡ (x, y), si ha:
- - t - t
dF
µdx + νdy := (µẋ + ν ẏ)dτ = dτ = F (x, y) − F (x0 , y0 ) .
γ t0 t0 dτ
Equivalentemente, lungo un qualunque cammino semplice e chiuso γ0 ⊂ D risulta, con T il periodo del ciclo γ 0,
- - t0 +t
µdx + νdy ≡ (µ(x(t))ẋ(t) + ν(x(t))ẏ(t)) dt
γ0 t0
- t0 +t
dF (x(t))
= dt = F (x(t0 + T)) − F (x(t0 )) ≡ 0 .
t0 dt
Le precedenti considerazioni si estendono al caso generale, e cioè per una forma differenziale del tipo (4.37)
con n > 2 ed x ∈ Rn . Anche questa si dice esatta quando esiste una funzione (scalare) F = F (x) ∈ R il cui
differenziale totale uguaglia la forma stessa; e pertanto essa è tale che ∇F (x) = (f1 (x), . . . , fn (x)) . Come si vedrà
più diffusamente nel Cap.III, se n > 2 l’esattezza di una forma implica “solo” che il valore F (t) := F (! x(t)) non
muta lungo ciascuna delle soluzioni x : t &→ x !(t) := (x1 (t), . . . , xn (t)) di una qualsiasi delle equazioni ẋ = v(x)
che hanno campo v(x) che verifica
n
=
∇F (x) · v(x) ≡ fi (x1 , . . . , xn )v i (x1 , . . . , xn ) = 0,
i=1
e cioè quelle con campo v tangente in ogni suo punto a una superficie: F (x) = F0 .
Esempio 1.4.11 (continuazione dell’Esempio 1.4.5) ) *
−y/x
La funzione F (x, y) := x2 + y 2 ha valori costanti non solo lungo le soluzioni del campo , ma anche
) * ) * 1
y yx
lungo quelle dei campi: oppure , etc, (ma solo il secondo dei tre verifica la condizione di Shwartz,
−x −x2
cfr. oltre). #
Viceversa, nel caso n = 2 (ovvero 1 variabile scalare dipendente ed 1 indipendente), sussiste la seguente
Proposizione 1.4.1 Sia D ⊆ R2 aperto, x, y ∈ R, e µ, ν ∈ C 1 (D) a valori reali e non simultaneamente nulli.
* + ν(x, y)dy è esatta, e quindi esiste una funzione F : D → R, F ∈ C (D), tale che su D
1
Se la forma µ(x,) y)dx
µ
si abbia: ∇F = , allora il teorema della funzione implicita permette di risolvere la F (x, y) = c = F (x0 , y0 )
ν
e di ricavare la soluzione (generale) in D dell’equazione µ(x, y)dx + ν(x, y)dy = 0 , e cioè di una (qualsiasi)
) *
x
delle equazioni ẋ = v(x), con x(t) ∈ R , che hanno campo v(x) ortogonale a ∇F (x) nel punto x =
2
, per
y
esempio: dy/dx = v x /v y = −ν/µ, e sempre che sia µ(x, y) ̸= 0 , la x = x(y) tale che F (x(y), y) = F0 := F (x0 , y0 )
è la soluzione di
Dimostrazione Supposto, per esempio, che sia ∂x F (x0 , y0 ) ≡ µ(x0 , y0 ) ̸= 0, la: F (x, y) = F0 = F (x0 , y0 )
definisce implicitamente x = x(y) tale che:
• x(y0 ) = x0 ;
• x = x(y) è soluzione di
dx ν(x, y)
=− (4.38)
dy µ(x, y)
perché x = x(y) è tale che
+ ,
d dx
0= (F (x(y), y)) = µ(x, y) + ν(x, y) . (4.39)
dy dy x=x(y)
M. Lo Schiavo
1.4. Esempi e casi notevoli 35
1 7 8
Dimostrazione L’operatore S[φ] := φ − f ◦1 φ è contrattivo su C 0 ([a, b]), ∥ · ∥∞ . Infatti, siccome è
m2
possibile scrivere 0 1
f ◦1 φ = f ◦1 ψ + ∂x f ◦1 ψ& (φ − ψ)
e quindi
m1
∥S[φ] − S[ψ]∥∞ ≤ k ∥φ − ψ∥∞ con k =1− < 1.
m2
"
Teorema 1.4.2 (del Dini) , (si veda: [Avantaggiati II.2.1]) Siano f, ∂x f ∈ C 0 (D) con D ⊂ R2 aperto, e sia
(x0 , y0 ) ∈ D tale che
f (x0 , y0 ) = 0, ed ∂x f (x0 , y0 ) ̸= 0 .
Allora esistono h, k ∈ R+ ed una sola φ! : [Bh (y0 )] → [Bk (x0 )] tali che
! 0 ) = x0 ,
φ(y e che f ◦1 φ! = 0 su Bk (y0 ).
Dimostrazione Si supponga ∂x f (x0 , y0 ) > 0 . Esistono δ, h, m > 0 tali che [Bh (x0 )] × [Bδ (y0 )] =: Γ ⊂ D , e
che su Γ risulti ∂x f ≥ m > 0 .
Ma allora è f (x0 − h, y0 ) < 0 ed f (x0 + h, y0 ) > 0 , e quindi esiste 0 < k ≤ δ tale che f (x0 − h, y) < 0 ed
f (x0 + h, y) > 0 su Bk (y0 ).
Pertanto per ciascun ȳ ∈ Bk (y0 ) esiste x̄ ∈ Bh (x0 ) tale che f (x̄, ȳ) = 0 , e tale x̄ è unico giacché ∂x f > 0 .
Infine, la continuità della corrispondenza è provata, punto per punto, scegliendo h e k opportunamente piccoli.
"
Prendono il nome di esatte quelle equazioni differenziali che risultano le derivate totali di un’equazione di ordine
d
inferiore. Per esempio, l’equazione di Lighthill: ẍ+tẋ+x = 0 è del tipo dt (ẋ+tx) = 0 . Esse danno luogo, mediante
quadratura, ad un’equazione di ordine più basso, e consistono in un caso particolare di ortogonalità fra il vettore
f (x) := ∇F (x) di una forma esatta ed un vettore ẋ = (ẋ1 , . . . , ẋn ) espressi in funzione di un’unica variabile
dipendente e delle sue derivate di ordine superiore. Nell’esempio della equazione 7 di Lighthill si ha ∇F 8 (t, x) ≡
f (t, x) := (Ft ; Fx ; Fẋ ; . . . ; Fx(n) ) = (x; t; 1) che è ortogonale al vettore 1 ; ẋ ; ẍ ; . . . ; x(n+1) , e quindi
!(t))/dt = 0 .
dF (t, x
N.B. 1.4.12 Se µ(x, y) si annulla in qualche punto in D occorre cambiare il ruolo delle due variabili dipendente ed
indipendente: per la forma vista nell’Esempio 1.4.11: xdx + ydy vanno presi in considerazione quattro domı́ni;
ciò non toglie tuttavia che la funzione F (x, y) = x2 + y 2 sia del tutto regolare. ♦
N.B. 1.4.13 Per definizione, la funzione F è F ∈ C 1 (D), e quindi risulta necessariamente verificata la
In generale non è immediato capire se esista o meno una tale funzione F anche al di fuori del “conveniente
intorno” delle condizioni iniziali. A volte invece può succedere che se ne possa stabilire l’esistenza in modo semplice:
è ciò che accade quando la funzione δ(x, y) := ∂y µ(x, y) − ∂x ν(x, y) si annulla in tutti i punti di un aperto
semplicemente connesso: A.
Memento 1.4.1 Semplicemente connesso := Un aperto A ⊂ R2 si dice semplicemente connesso quando ogni
curva generalmente regolare semplice e chiusa contenuta in A è frontiera, in R2 , di un aperto connesso totalmente
contenuto in A.
Ciò è l’equivalente in dimensione due di quello che in dimensione tre si chiama:
Connessione lineare semplice := Un aperto A ⊂ R3 si dice a connessione lineare semplice quando ogni curva
generalmente regolare semplice e chiusa contenuta in A è frontiera, in R3 , di una superficie S generalmente
regolare totalmente contenuta in A.
Entrambi si possono anche enunciare richiedendo che ogni curva semplice chiusa sia “contraibile” ad un punto
in modo continuo senza uscire dall’insieme A.
Se A è semplicemente connesso, dato comunque un cammino semplice chiuso γ 0 ⊂ A si può assicurare
l’esistenza di un insieme regolare Γ ⊂ A ⊂ R2 che lo ha per frontiera, ove:
Insieme regolare := Un chiuso Γ ⊂ Rn che ammette una decomposizione finita: Γ = ∪ni=1 Γi fatta con Insiemi
normali o semplici {Γ1 , . . . , Γn } rispetto ad un (qualche) piano coordinato, e frontiera costituita da porzioni di
superficie regolari aventi a coppie al più punti (isolati) in comune.
Insieme in R3 normale rispetto al piano (x, y), o: z -semplice := un compatto Γ ⊂ R3 espresso da
⎧ ' ⎫
⎨ ' α(x, y) ≤ z ≤ β(x, y); α, β ∈ C 1 (D ⊂ R2 ), ⎬
'
Γ := (x, y, z) ∈ R3 '' ◦ .
⎩ ' α(x, y) < β(x, y) ⎭
∀(x, y) ∈D, D normale
nelle quali ω = (µ, ν, σ) ∈ C 1 (A, R3 ), n dS = (dy dz, dz dx, dx dy), e τ dλ = (dx, dy, dz). Inoltre, +∂S è una
curva semplice chiusa generalmente regolare, bordo di una superficie S orientata regolare e contenuta in A ⊆ R3 ;
quest’ultima esiste certamente purché A sia a connessione lineare semplice.
M. Lo Schiavo
1.4. Esempi e casi notevoli 37
Pertanto, se rot ω = 0 su un qualche insieme D a connessione lineare semplice, dal Teorema di Stokes segue
.p
che p0 ω · τ ds = F (p) − F(p0 ) qualsiasi sia il percorso semplice generalmente regolare che unisce p0 a p .
Allora necessariamente si ha ω = ∇F . Infatti, facendo passare il percorso per un arbitrario p′ := (x′ , y, z) con
.p
p′ ∈ Γ(p) ⊂ D ed x′ < x, si riconosce che ∂x F (p) = ∂x p0 ω x dx + 0 ≡ ω x ; ed analogamente per le altre derivate
parziali.
è condizione sufficiente (oltre che necessaria) perché si annulli l’integrale di linea della forma lungo una qualsiasi
curva semplice chiusa γ 0 contenuta in A. Quest’ultima condizione equivale all’esistenza della funzione F = F (x)
il cui differenziale totale uguaglia la forma su A. In particolare, in dim = 2 è garantita l’esistenza di F = F (x, y)
tale che (
) *
µ ∇F ∥ ω
∇F = , ovvero , e quindi tale che ∇F · τ dλ = dF .
ν ∇F ⊥ ω
Nota 1.4.1 Sapendo che la forma è esatta, e quindi che la funzione F esiste, per calcolarla è opportuno scegliere
percorsi convenienti; per esempio, per ogni (x0 , y0 ), (x0 , y) ∈ D ⊆ R2 si ha
- x - y
F (x, y) − F (x0 , y0 ) = µ(ξ, y)dξ + ν(x0 , η)dη ;
x0 y0
La derivata parziale rispetto ad y del secondo membro di quest’ultima deve uguagliare ν(x, y). Si risolve rispetto
a dr/dy e si integra in modo indefinito la funzione della sola y cosı̀ ottenuta; infatti
) * ) - x *
∂ dr ∂ ∂
= ν− µ(ξ, y)dξ = ∂x ν − ∂y µ = 0
∂x dy ∂x ∂y
Si ha in tal modo: - + - ,
y x
r(y) = ν(x, η) − ∂η µ(ξ, η)dξ dη.
dr
−x sin y + = −x sin y + y 2 , che implica r(y) = (y 3 + c)/3
dy
xdy − ydx
Esempio 1.4.16 , (x, y) ∈ R2 .
x2 + y 2
La forma è definita in un aperto D := R2 \{(0, 0)} . Tuttavia, anche se verifica la condizione di Schwartz ed esiste
arctan xy di cui essa risulta il differenziale totale:
) ′ * '
d 1 xy − y x2 d 0y 1 d '
'
arctan ξ = ⇒ = arctan ξ '
dξ 1 + ξ2 x2 x2 + y 2 dx x dξ ξ=y/x
c’è il problema che arctan(·) non è regolare, addirittura non è una' funzione, su tutto D . Occorre pertanto “tagliare”
il piano R2 \{(0, 0)} con, per esempio, l’insieme D− := {(x, y) ' y = 0, x < 0} e la forma resta allora esatta nel
complementare R2 \D− che risulta infatti semplicemente connesso. (Per definirvi in modo opportuno la funzione
F è opportuno procedere per quadranti; e tuttavia, per poterla adoperare ai fini della risoluzione di (una delle)
equazioni compatibili con essa, occorre far salve le usuali cautele su quale dei suoi coefficienti possa annullarsi: si
vedano anche i successivi due N.B.). #
Fattore integrante := una funzione ϖ : D → R per la quale si moltiplica la forma differenziale lineare
rendendola cosı̀ esatta. Per esempio, se n = 2 , ϖ è fattore integrante quando
Se µ, ν ∈ C 1 (D), ogni forma µ(x, y)dx + ν(x, y)dy ammette, localmente, un fattore integrante (cosı̀ come ogni
ẋ = v(t, x) con x ∈ Rn ammette n integrali primi dipendenti dal tempo ed indipendenti fra loro, come si vedrà
nel seguito); ma non sono noti metodi generali per trovarlo.
N.B. 1.4.18 Se ϖ è un fattore integrante, e quindi tale che ϖµ = ∂x F , ϖν = ∂y F , e se g : R → R è una
funzione regolare, allora ϖ g ◦ F è un altro fattore integrante, infatti in tal caso la condizione di esattezza diviene
∂y (ϖµ g ◦ F ) = ∂x (ϖν g ◦ F ) e fornisce ϖµ ∂y (g ◦ F ) = ϖν ∂x (g ◦ F ) che è una identità, data l’ipotesi su ϖ . ♦
Qualche idea sul come trovare il fattore integrante. Dovendo essere ∂y (ϖµ) = ∂x (ϖν), si ha:
1
∂y µ − ∂x ν = δ = (ν∂x ϖ − µ∂y ϖ) , (4.43)
ϖ
e allora, con un pò di fortuna, possono darsi i seguenti casi:
• δ/ν funzione solo di x, (oppure δ/µ funzione solo di y), ed allora si può scegliere ϖ funzione solo di x (o
di y ), e dalla (4.43) si ricava
- x ) - y *
δ δ
ln ϖ = + , oppure ln ϖ = − .
ν µ
δ
• funzione solo di x y ; posto allora ϖ = ϖ(x y), e quindi con
yν − xµ
- xy
δ
∂x ϖ = ϖ′ y, ∂y ϖ = ϖ′ x, si ha ln ϖ = + .
yν − xµ
δy 2
• funzione solo di x/y; posto allora ϖ = ϖ (x/y), e quindi con
yν + xµ
- x/y
1 −x δy 2
∂x ϖ = ϖ′ , ∂y ϖ = ϖ′ 2 , si ha ln ϖ = + .
y y yν + xµ
M. Lo Schiavo
1.4. Esempi e casi notevoli 39
−δx2
• funzione solo di y/x; posto allora ϖ = ϖ (y/x) , e quindi con
yν + xµ
- y/x
−y 1 −δx2
∂x ϖ = ϖ ′ , ∂y ϖ = ϖ ′ , si ha ln ϖ = + .
x2 x yν + xµ
N.B. 1.4.21 È chiaro che anche se può sembrare il contrario, l’equazione non muta quando viene moltiplicata
per ϖ , infatti essa rimane definita dal rapporto µ/ν e gli eventuali casi particolari vanno trattati direttamente su
questo rapporto. Per esempio xdy − ydx con ϖ = (x2 + y 2 )−1 dà F (x, y) = arctan xy , mentre con ϖ = x12 dà
1 y y y
x dy − x2 dx e cioè F (x, y) = x . Comunque il luogo di punti che contiene la soluzione è dato da x = cost, ed in
tutti i casi, l’equazione (nella variabile indipendente x) ha soluzioni fuori da x = 0 . ♦
µ
x
Sussistono le: θ = 2α,/ tan θ = 2 tan α/(1 − tan α), e cioè y/x = 2y /(1 − y ′2 ).
2 ′
Se ne ricava l’equazione
omogenea y ′ = (−x ± x2 + y 2 )/y da cui
/ y x
ydy + xdx = ± x2 + y 2 dx o anche / dy + / dx = ±dx ,
2
x +y 2 x + y2
2
0 / 1
che dà d x ± x2 + y 2 = 0 , e dunque la parabola: x2 + y 2 = x2 + c2 + 2cx.
È opportuno osservare che il campo che si è trovato è omogeneo di grado zero. #
(la costante di integrazione si può scegliere nulla perché rappresenta solo un fattore moltiplicativo per tutta
l’equazione). Di conseguenza si ha, per t, t0 ∈ [a, b] , la nota relazione:
.t
+ . - t0 .τ 1 ,
t0
x(t) = e− p(σ)dσ x0 e p(σ)dσ + q(τ )e p(σ)dσ dτ =
t0
) - t * - t ) - t * (4.45)
= x0 exp − p(σ)dσ + q(τ ) exp − p(σ)dσ dτ .
t0 t0 τ
Si noti che il fattore integrante si può ottenere con le tecniche viste prima, infatti in questo caso si ha
µ(x, t) = 1, ν(x, t) = p(t)x − q(t), δ(x, t) = ∂t µ(x, t) − ∂x ν(x, t) ,
e quindi
δ(t, x) ϖ̇(t)
≡ −p(t) che implica = p(t) .
µ(t, x) ϖ(t)
.t
Si noti infine che la funzione Φ(t) := ϖ−1 (t) ≡ exp −( p(τ )dτ ) è soluzione della equazione “omogenea associata”:
ẋ + p(t) x = 0 , e che il prodotto Φ(t)Φ−1 (t0 ) x0 è la soluzione, dell’omogenea associata, che vale x0 in t = t0 .
.t
Allo stesso modo si vede che il secondo addendo della (4.45), e cioé y&(t) := t0 Φ(t)Φ−1 (τ )q(τ ) dτ è soluzione
particolare della (4.44) che vale zero in t = t0 . #
M. Lo Schiavo
1.4. Esempi e casi notevoli 41
N.B. 1.4.26 Vi possono essere più modi alternativi per risolvere una stessa equazione: ad esempio la (x2 + y 2 )dy +
2xydx = 0 è omogenea, è esatta, ed è anche risolubile “a occhio” osservando che equivale a d(x2 y) = −d( 13 y 3 ). ♦
d2 y 1 dλ ρ(λ) /
2
= ρ(λ) = 1 + (y ′ )2 ,
dx τ0 dx τ0
che è risolubile per separazione di variabili. Per il ponte sospeso si ha x &→ ρ(x) = cost, e quindi la prima
′′
di queste due equazioni / dà immediatamente y = cost. Invece, con l’ipotesi λ &→ ρ(λ) = cost e posto
′ 2
y =: η/ , si ricava (1/ 1 + η )dη = kdx, da cui (usare un’ottima tavola di integrali o un computer) segue
ln(η + 1 + η 2 ) = kx. Essendo η(0) = 0 risulta infine η = 12 (ekx − e−kx ), ovvero y(x) = k1 cosh kx. #
p ¸ p0
q0
o x
Con le posizioni:
) * ) * /
−
→ 0 −
→ x(t)
oq(t) = , op(t) = , a = cost, b := |λ̇| = ẋ2 + ẏ 2 = cost,
at y(t)
dy a(t − t0 ) − (y − y0 )
y ′ := = .
dx −x
Ne segue: x y ′ = −a(t − t0 ) + (y − y0 ), e quindi x y ′′ = −a dt/dx .
D’altra parte, detta λ l’ascissa curvilinea decrescente con x, e detti ⃗τ il versore tangente alla curva, ⃗e1 quello
dell’asse delle x, e θ l’angolo che essi formano, si riconosce che sussiste anche la relazione
dx dλ dx −1
= = λ̇ / .
dt dt dλ 1 + (y ′ )2
Pertanto
dη a
/ = dx ,
1+η 2 b
che dà ) *
/ a x
2
ln(η + 1 + η ) = ln
b x0
e cioè I) *a/b ) *−a/b J
dy 1 x x
:= η = − .
dx 2 x0 x0
#
Esempio 1.4.29 Una barca punta verso un faro, con velocità (locale) di modulo v costante, ma subisce una
corrente al traverso di velocità costante: w .
y
µ
v
w
O´ F
x
( −̇
→ ) * ) *
op = v vers ⃗v + w ⃗e2 ẋ −v cos θ
−
→ ⇒ = .
−vers ⃗v = vers op = cos θ⃗e1 + sin θ⃗e2 ẏ −v sin θ + w
Si ottiene l’equazione omogenea:
/
′ w y w x2 + y 2
y = tan θ − = −
v cos θ x v x
′
√
che si risolve ponendo y =: zx e quindi xz = −w 1 + z 2 /v . Ne seguono
/ / 0 x 1−w/v
ln(z + 1 + z 2 ) = ln x−w/v =⇒ z + 1 + z2 = =⇒
)0 1 * ) a *
1 x −w/v 0 x 1+w/v a 0 x 11−w/v 0 x 11+w/v
z= − =⇒ y = − ,
2 a a 2 a a
e cioè
a
7 8
(i) w = v, ⇒ y = 2 1 − x2 /a2 , una parabola che non passa per l’origine;
x
(ii) w > v, ⇒ y −→ ∞, eventualità peggiore della precedente;
0
x
(iii) w < v, ⇒ y −→ 0 , e si ha successo solo in questo caso.
0
#
M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 43
b q
z
Per derivazione si ottiene ∆tmin per x tale che
x c−x sin α1 sin α2
B = / ; e quindi = .
v2 b + (c − x)2
2 v1 v2
v1 a2 + x2
sin α
Si assume allora = cost come legge di minimo tempo.
v
√ ẋ 1
D’altra parte la conservazione dell’energia dà v = 2gz, mentre è sin α = B = / . Si
ẋ2 + ż 2 1 + (z ′ )2
) *
dz 2
ottiene cosı̀: 1 + ( ) z = k, da cui:
dx
- x - z ) *1/2
ζ
dξ = dζ .
0 0 k−ζ
) *1/2
ζ .θ
Posto =: tan φ, ovvero ζ = k sin2 φ, si ha infine x=k 0
(1 − cos 2φ)dφ la cui soluzione è la
k−ζ
cicloide: ⎧
⎪ k
⎨ x = (2θ − sin 2θ)
2
⎪ k
⎩ z = (1 − cos 2θ) .
2
#
lineari, in generale non può essere risolto in forma chiusa ed in termini di funzioni elementari, a meno che sussistano
particolari condizioni sui coefficienti o che sia possibile ricorrere a sviluppi in serie di convenienti funzioni.
È chiaro però che valgono i teoremi generali per i quali, se f, ∂x f, ∂ẋ f sono continue in un aperto D ⊂ R3 ,
allora dato comunque (t0 , x0 , ẋ0 ) ∈ D esiste una ed una sola soluzione: φ : (t, t0 , x0 , ẋ0 ) &→ φ(t, t0 , x0 , ẋ0 ), continua
rispetto alle ultime tre variabili in un conveniente intorno di (t0 , x0 , ẋ0 ), definita e differenziabile almeno in un
conveniente intorno di t0 , e tale che φ(t0 , t0 , x0 , ẋ0 ) = x0 , φ̇(t0 , t0 , x0 , ẋ0 ) = ẋ0 ; essa inoltre risulta prolungabile fino
alla frontiera di un qualunque sottoinsieme di D che sia chiuso e limitato (in norma) e che contenga (t0 , x0 , ẋ0 ).
L’unico altro caso “quasi
. x semplice” è quello in cui l’equazione si riduce a: ẍ = f (x). Questa dà senza troppa
difficoltà la nota: 12 ẋ2 − f (ξ)dξ = cost, che permette un’ampia discussione qualitativa. Ciò non toglie però che
anche in questo caso non è possibile, in generale, fornire la soluzione x = x(t) in forma chiusa; infatti l’integrale
- x - ξ
dξ
/ , con V (ξ) := − f (η)dη ,
2(E − V (ξ))
non è quasi mai esprimibile con funzioni elementari, o comunque con funzioni facilmente invertibili. Il caso
ẍ = f (x) verrà trattato in dettaglio nel Cap.III.
È opportuno invece anticipare qui la discussione delle equazioni lineari in R2 :
ÿ + p(t)ẏ + q(t)y = r(t), p, q, r ∈ C 0 (I); I chiuso ⊂ R , y ∈ R .
A tale scopo, sarà opportuno pensare ai punti di R2 in modo astratto, e cioè non conseguente alla scelta di una
specifica base, e quindi riconoscere ad R2 (o più in generale ad Rn ) la struttura di spazio vettoriale.
Memento 1.5.1 Uno Spazio vettoriale V è un gruppo commutativo che è un modulo su un campo K (con
operazioni “ + ”, “ · ”). Esso cioè è un gruppo commutativo con operazione “ ⊕ ”, distributivo rispetto alle
operazioni “ + ”, “ · ”, e “ ⊕ ”, e che accetta l’unità moltiplicativa del campo. L’operazione “ ⊕ ” viene
perciò generalmente indicata anch’essa con “ + ”.
Una Base e per uno spazio V è un insieme e := {e1 , . . . , en } di vettori linearmente indipendenti e che sia
massimale: ogni x ∈ V può essere espresso (in modo unico) come combinazione lineare degli elementi {ei }i=1,...,n .
In tal caso, lo spazio V si dice n-dimensionale, ed i numeri {xi }i=1,...,n tali che x = xi ei formano la n-pla
x ∈ Rn che la base e fa corrispondere in Rn al vettore x ∈ V.
Scelta in esso una base, uno spazio vettoriale reale (e cioè con campo K ≡ R) resta cosı̀ rappresentato da Rn e
ciò permette di agire su di esso mediante le usuali operazioni per componenti e regole di trasformazione fra n-ple di
numeri reali. In queste note si tratterà regolarmente con spazi vettoriali reali, e solo saltuariamente (per esempio
nel Cap.II e nelle appendici) sarà opportuno considerare V come “parte reale” n-dimensionale di un conveniente
spazio C V ≡ R2n sul campo C dei numeri complessi.
Dati due spazi vettoriali V e V′ sullo stesso campo numerico K si definisce
Operatore lineare T := una funzione T : x ∈ V &→ T [x] ∈ V′ tale che
M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 45
Dimostrazione Dato che il campo è del tutto regolare rispetto ad x ∈ V, la frontiera al dominio D può essere
generata soltanto da eventuali non regolarità rispetto alla variabile indipendente t.
D’altra parte, come si vedrà, il campo v = T x ha lunghezza (indotta da un qualche prodotto scalare su
V) che cresce meno di c|x|, ove c ≡ ∥T ∥ è una conveniente costante reale positiva dipendente dall’intervallo di
regolarità: I dei coefficienti). È pertanto possibile effettuare la stima
' ' ' '
'd '
' |φ(t)|2 ' = ''2⟨ φ(t), φ̇(t) ⟩'' = 2 |⟨ φ(t), T (t)φ(t) ⟩|
' dt '
2
≤ 2 |φ(t)| |T (t)φ(t)| ≤ 2cI |φ(t)| ,
Quest’ultima implica che la soluzione φ : (t, t0 , x0 ) &→ φ(t, t0 , x0 ) non può raggiungere la superficie laterale del
cilindro (ad esempio):
; ' <
'
(τ, x) ∈ R × V ' τ ∈ [t0 , t]; |x| ≤ 2 |x0 | ec(t−t0 ) , ε > 0 .
Se ne conclude che essa arriva fino al disco τ = t, e quindi rimane definita fintanto che lo sono i coefficienti
T (t) ∈ L(V). Pertanto nel seguito si assumerà senz’altro I ⊂ JM ⊆ R. "
Anche se per certi versi il caso delle equazioni lineari è particolarmente semplice, tuttavia anche per esso lo
studio esplicito delle loro soluzioni richiede metodi non banali quali per esempio metodi approssimati, qualitativi,
o addirittura perturbativi. A questo fa eccezione il solo sotto-caso particolare delle equazioni lineari a coefficienti
costanti, per le quali infatti (e solo per esse) esiste un algoritmo generale di risoluzione che verrà esaminato in
seguito.
Quando i coefficienti dipendono esplicitamente dal tempo, si può “solo” dire che le soluzioni sono esprimibili
per mezzo di altre soluzioni, e ne bastano poche.
Siano n ≥ 2 ed ℓ ≥ 0 . Sullo spazio C n≥2 (I) delle funzioni t ∈ I ⊂ R &→ x(t) ∈ R di regolarità n, si consideri
l’operatore
L : C n (I) → C m (I), I chiuso ⊆ R, m = inf{ℓ, n − 2},
) 2 *
d d
L[ · ](t) := + p(t) + q(t) , p, q : I → R, p, q ∈ C ℓ (I).
dt2 dt
L’operatore L è un Operatore lineare sullo spazio (vettoriale) C n≥2 (I), e quindi tale che, identicamente rispetto
a t ∈ I , si ha che
Ne segue che se x1 è tale che L[x1 ] = 0 anche L[c2 x1 ] = 0 , e che se anche x2 è tale che L[x2 ] = 0 allora
L[c x1 + c2 x2 ] = 0 per ogni scelta c1 , c2 ∈ R. (Ovviamente, lo zero a secondo membro sta per la funzione
1
identicamente nulla su I ).
Si supponga ora di conoscere una (particolare e possibilmente comoda) soluzione dell’equazione
sia essa:
y& : J ⊃ I → R, y& ∈ C n (J), y (t0 ), y&˙ (t0 )) = (&
(& y0 , y&˙ 0 ) ∈ R2 ,
(5.47)
y&(t) := φ(t, t0 , y&0 , y&˙ 0 ) e cioè L[&
y ](t) = r(t), per t∈J ⊃I .
Ci si domanda come possano essere espresse le altre soluzioni y : J ⊃ I → R
L[y] − L[&
y ] = L[y − y&] = r − r = 0 ,
e si noti che y, y& sono arbitrarie, e cioè sono arbitrarie le quattro costanti relative ai dati iniziali y0 , ẏ0 , y&0 , y&˙ 0 ∈ R.
Di queste le seconde due sono scelte secondo criteri di convenienza, le prime due sono imposte dal problema concreto
che si deve risolvere.
Si ricava quindi facilmente il seguente criterio.
Nota una soluzione particolare y& : t &→ y&(t) := φ(t, t0 , y&0 , y&˙ 0 ) su J ⊃ I dell’equazione L[y] = r , si conosce
y : t &→ y(t) := φ(t, t0 , y0 , ẏ0 ) soluzione generale della stessa equazione L[y] = r , se e solo se si conosce
x : t &→ x(t) := φom (t, t0 , x0 , ẋ0 ) soluzione ) * )su J ⊃ *
generale I dell’equazione omogenea associata L[x] = 0 , con
x0 y0 − y&0
(x0 , ẋ0 ) arbitrarie, “per esempio” tali che: = , e risulta y(t) = y&(t)+x(t) per ogni t ∈ J ⊃ I .
ẋ0 ẏ0 − y&˙0
Infatti
Sempre per le proprietà di linearità ed unicità delle soluzioni, se x1 , x2 sono certe due funzioni note, soluzioni
particolari ma non nulle della L[x] = 0 , e cioè se si ha
un’arbitraria x : t &→ x(t) := φom (t, t0 , x0 , ẋ0 ) (e cioè con x0 , ẋ0 arbitrari) è esprimibile nella specifica forma la:
x(t) = c1 x1 (t) + c2 x2 (t), se e solo se essa verifica le condizioni iniziali, e cioè se e solo se esistono le costanti
c1 , c2 ∈ R tali che i sei numeri (x0 , ẋ0 , x1 |0 , ẋ1 |0 , x2 |0 , ẋ2 |0 ) , (non banali ma, per il resto, qualsiasi), verificano le
(
x0 = c1 x1 |0 + c2 x2 |0
(5.50)
ẋ0 = c1 ẋ1 |0 + c2 ẋ2 |0 ,
(anche in questo caso gli ultimi quattro dei sei valori detti sono fissati secondo criteri di convenienza, ed i primi
due sono invece quelli che devono verificare le condizioni imposte dal problema); in tal caso infatti, con un
ragionamento analogo a quello visto sopra, si prova che tale x(t) è soluzione della (5.48), e verifica le date condizioni
iniziali (5.50).
Si osserva che, affinché per un’arbitraria scelta del dato (x0 , ẋ0 ) possano esistere unici i coefficienti c1 , c2 è
necessario e sufficiente che: posto ' '
'x1 (t) x2 (t)'
'
W (t) := ' ',
ẋ1 (t) ẋ2 (t)'
si abbia ' '
'x1 |0 x2 |0 ''
' = W (t0 ) ̸= 0 (5.51)
'ẋ1 |0 ẋ2 |0 '
ed allora le due soluzioni x1 ed x2 si dicono linearmente indipendenti.
Dunque, siccome per entrambe le equazioni (5.48),(5.46) la soluzione è unica (per quei t per i quali esiste), si
è provato che per assegnati comunque (y0 , ẏ0 ) ∈ R2 la soluzione della (5.46) uscente da tali condizioni iniziali sarà
certamente ed univocamente esprimibile con:
purché x1 , x2 siano tali da verificare la (5.48) con dati iniziali che verificano la (5.51), ciò implicando l’esisten-
za di c1 , c2 tali da verificare la (5.50), e sempre che y& sia una certa soluzione nota, ma per il resto qualsiasi,
dell’equazione di partenza L[y] = r .
Lo spazio delle fasi V dell’equazione lineare omogenea L[x] = 0 e quello delle sue soluzioni sono spazi vettoriali
isomorfi, [Arnold]; le soluzioni si combinano fra loro linearmente cosı̀ come lo fanno i vettori (x0 , ẋ0 ) ∈ R2 che
ne esprimono le condizioni iniziali; se in t0 c’è una certa dipendenza lineare fra le condizioni iniziali di certe
soluzioni, la stessa dipendenza rimane valida fra i valori assunti all’istante t dai corrispondenti evoluti (x(t), ẋ(t)).
M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 47
Data l’unicità delle funzioni soluzioni in corrispondenza a ciascuna scelta in V delle condizioni iniziali, la stessa
dipendenza lineare sussiste allora fra le funzioni soluzioni.
D’altra parte, sebbene la scelta delle soluzioni di base possa dipendere dal particolare istante iniziale t0 , l’essere
queste linearmente indipendenti non muta al variare di t. Per convincersene, siano x1 , x2 ∈ C n (J ⊃ I) soluzioni
di L[x] = 0 e tali da verificare (5.51). Queste stesse soluzioni possono essere usate per rappresentare la generica
x = x(t) anche qualora per essa si scelga un altro & t0 , e cioè esse stesse continuano ad essere funzioni soluzione
linearmente indipendenti. Basta notare infatti che dalle L[x1 ] = L[x2 ] = 0 segue subito
d
W = (x1 ẍ2 − x2 ẍ1 ) = x1 (−pẋ2 − qx2 ) + x2 (pẋ1 + qx1 )
dt
= −p (x1 ẋ2 − x2 ẋ1 ) = −p W ,
Per cui se W (t0 ) ̸= 0 ed x1 , x2 sono soluzioni di L(x) = 0 allora per ogni t si ha W (t) ̸= 0 : due soluzioni che
in un istante sono linearmente indipendenti lo saranno in ogni altro istante (immediata conseguenza, d’altra parte,
del teorema di unicità).
Ciò implica in particolare che il problema dato: (5.48) ammette almeno ed al più due soluzioni che sono
linearmente indipendenti: per esempio quelle) * che, fissata arbitrariamente
) * la base nello spazio delle fasi V ≡ R2 ,
1 0
nell’istante iniziale valgono: x1 |0 = e1 = , ed x2 |0 = e2 = .
0 1
In definitiva il problema è quello di determinare x1 , x2 , y& .
Nel caso particolare di un operatore del secondo ordine, come quello in esame:
+ 2 ,
d d
L[x](t) ≡ + p(t) + q(t) x(t) ,
dt2 dt
pur non essendo disponibile una formula risolvente generale come quella vista nell’Esempio 1.4.23 per l’equazione
del primo ordine, tuttavia ci si può ricondurre ad essa in casi speciali. Per esempio sussiste il seguente importante
risultato: qualora sia nota una soluzione dell’equazione omogenea associata, la si scelga come una delle due funzioni
di base: x1 , è possibile ricavarne un’altra: x2 con W (t0 ) ̸= 0 . Basta a questo scopo definire la funzione v mediante
la x2 =: vx1 e ricavare:
L[vx1 ] = v̈x1 + 2v̇ ẋ1 + vẍ1 + p(v̇x1 + v ẋ1 ) + qvx1 =
(5.53)
= v̈x1 + (2ẋ1 + px1 ) v̇.
Si introduca la - t) * - t
ẋ1 (τ )
ϖ(t) := exp 2 + p(τ ) dτ ≡ x21 (t) exp p(τ )dτ .
x1 (τ )
d
Si riconosce che la funzione ϖ è un fattore integrante per la (5.53), mediante il quale: L[vx1 ]ϖ/x1 = dt (ϖv̇) .
Risulta pertanto
L[vx1 ] ≡ L[x2 ] = 0 purché sia v̇ ϖ = κ1 = cost .
Segue - - ) - *
t t τ
dσ
v(t) = κ2 + κ1 := κ2 + κ1 x−2
1 (τ ) exp − p(ξ)dξ dτ ,
ϖ(σ)
ed è lecito scegliere κ1 = 1 dato che si tratta di una costante moltiplicativa inessenziale, e κ2 = 0 perché altrimenti
si avrebbe nuovamente l’addendo x1 .
Per la funzione x2 si ottiene in tal modo l’espressione:
- t - t ) - τ *
dτ −2
x2 (t) = x1 (t) = x1 (t) x1 (τ ) exp − p(ξ)dξ dτ ,
ϖ(τ )
e questa in effetti fornisce, per ogni t ∈ J ,
) - t *
W (t) = (x1 v̇x1 + vx1 ẋ1 − vx1 ẋ1 )(t) = exp − p(ξ)dξ ̸= 0 .
Nota 1.5.1 Il procedimento può essere applicato anche ad equazioni non omogenee (si veda: [Tenenbaum p.244]).
Infatti data l’equazione L[y] = r , e nota x1 soluzione dell’equazione omogenea L[x1 ] = 0 , se si impone y := vx1
si ricava la condizione: L[y] = v̈x1 + (2ẋ1 + px1 )v̇ = r che è lineare in v̇ . Lo stesso fattore integrante del caso
omogeneo: - t) * ) - t *
ẋ1 1 ϖr
ϖ(t) := exp 2 +p fornisce : v̇(t) = κ1 + .
x1 ϖ(t) x1
Ne segue che la funzione y definita da
+ - t) - σ * ,
κ1 1 ϖ(τ )r(τ )
y(t) = v(t)x1 (t) = x1 (t) κ2 + + dτ dσ
ϖ(σ) ϖ(σ) x1 (τ )
La cosa è assai utile quando si è in presenza di equazioni che abbiano almeno una soluzione facilmente
riconoscibile:
Esempio 1.5.2 f (t)ẍ + tẋ − x = 0 , t0 , x0 ∈ R .
.t 2
x1 (t) = t è soluzione; quindi ϖ(t) = t2 exp τ f −1 (τ )dτ ; per esempio se f (t) = 1 si ha ϖ(t) = t2 et /2 , e si ricava
. t −2 −τ 2 /2
x2 (t) = t τ e dτ . #
che dà
d2 x τ̈ dx pτ̇ dx q
L[x] −→ + 2 + 2 + 2x
dτ 2 τ̇ dτ τ̇ dτ τ̇
con i coefficienti espressi in funzione di τ . Se allora p, q sono tali che per qualche particolare τ = τ (t), questi
nuovi coefficienti hanno una forma più agevole, allora si è riusciti ad ottenere qualcosa. Per esempio se esiste
una costante c tale che (cq̇ + 2cpq)/(2(cq)3/2 ) = cost allora la sostituzione τ̇ 2 = cq è tale da rendere costanti tutti
i coefficienti, infatti in tal caso si ha (2τ̇ τ̈ + 2pτ̇ 2 )/(2τ̇ 3 ) = cost . #
κ1 1 κ1 1
v̇(t) = 3
+ , ed y(t) = κ2 t − + t ln t.
t 2t 2t 2
In questo caso è anche (q̇ + 2pq)/(2q 2/3 ) = cost e la sostituzione τ = ln t dà la facile equazione: y ′′ − y = e3τ . #
Prima di esaminare qualche metodo per cercare le soluzioni particolari, è qui opportuno introdurre una simbo-
logia più snella anche perché essa risulta valida, come si vedrà, anche per sistemi di equazioni di ordine maggiore al
secondo (si veda §II.3). Inoltre ne sarà discusso l’aspetto geometrico, dopo aver introdotto il concetto di sistemi
equivalenti, e cioè l’aspetto invariante al cambio di coordinate.
Chiamata x1 la variabile x, si introduca l’ulteriore variabile: x2 := ẋ. L’equazione
equivale alla ) 1* ) *
ẋ x2
ẋ = = =: v(t, x) .
ẋ2 f (t, x1 , x2 )
M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 49
Si scelga, nello spazio delle fasi V ≡ R2 , la particolare base e # = (e1 , e2 ) tale che e1 sia il versore relativo alle
coordinate, ed e2 quello relativo alle loro derivate. In tale base la precedente equazione si specializza nella
)d * ) * ) x *
dt x ẋ v (t, x, ẋ)
ẋ = = ≡ = v(t, x).
d
dt ẋ
f (t, x, ẋ) v ẋ (t, x, ẋ)
Queste, per la scelta della base e # , posseggono la particolare proprietà di avere seconda coordinata identicamente
d
uguale alla derivata dt della prima In virtù dei teoremi fondamentali visti in precedenza, per poter determinare
un particolare vettore soluzione x = x(t) occorre assegnare, oltre che l’istante iniziale t0 , anche i valori di tutte le
sue componenti x0 nello stesso istante.
L’operatore di evoluzione Gtt0 è rappresentato in coordinate da un Gtt0 : R2 → R2 che trasforma, a t e t0 fissati,
il punto ) * ) *
x0 x(t, t0 , x0 )
x0 := nel punto x(t) = Gtt0 x0 ≡ .
ẋ0 ẋ(t, t0 , x0 )
Nel caso particolare di equazioni lineari l’operatore di evoluzione ha una forma eccezionalmente semplice, ed
ancora più semplice è quello relativo ad una equazione scalare di ordine n. Infatti, per esempio nel caso n = 2 ,
secondo le considerazioni fatte sopra, la soluzione della (5.48) è espressa mediante le (5.49), e cioè risulta x =
c1 x1 + c2 x2 dove x1 ed x2 sono due arbitrarie funzioni soluzione della (5.48). Scelta la base e # := {e1 , e2 }
come sopra, e cioè con il primo versore nella direzione delle coordinate ed il secondo in quella delle loro derivate,
ed espresse le due prescelte x1 (t) ed x2 (t) in tale base mediante la
Pertanto l’equazione:
) *
d2 d
L[x](t) := + p(t) + q(t) x=0, p, q : I → R, p, q ∈ C ℓ≥0 (I) (5.54)
dt2 dt
o meglio la ⎧ ) *
⎪ x(t)
⎪
⎨ ẋ = T (t)x , x : t &→ x(t) := ∈ R2 , con
ẋ(t)
) * (5.55)
⎪
⎪ 0 1
⎩ T : t &→ T (t) := ∈ L(R2 ), T ∈ C ℓ≥0 (I) ,
−q(t) −p(t)
ha come operatore di evoluzione Gtt0 l’operatore lineare Φ(t)Φ−1 (t0 ) ∈ L(V) che, nella base e# scelta su R2 in
modo che sia x0 = (x0 , ẋ0 ), è rappresentato dalla matrice
) *) *−1
−1 x1 (t) x2 (t) x1 |0 x2 |0
Gtt0 = Φ(t)Φ (t0 ) = =: Φ(t)Φ−1 (t0 ) ∈ L(R2 ).
ẋ1 (t) ẋ2 (t) ẋ1 |0 ẋ2 |0
Il fatto che l’equazione provenga da una del secondo ordine si riscontra nella particolare forma (5.55) della matrice
T ; questa è, invece, del tutto arbitraria nel caso di una generica equazione lineare del primo ordine in R2 , cosı̀
come è del tutto arbitraria la base B nello spazio delle fasi V. Se ne consideri una, fissata, che coincida con la e #
nel particolare caso in esame, e si indichi con T (t) l’operatore cui la base detta assegna matrice T (t). Nello spazio
delle soluzioni dell’equazione ẋ = T (t)x una possibile base naturale e ! := {!
e1 , e!2 } è quella consistente
) * delle) due
*
1 0
soluzioni !ei : t &→ e!i (t), i = 1, 2 , che in t = t0 hanno e -componenti rispettivamente e1 =
#
ed e2 = ,
0 1
che quindi rappresentano le evoluzioni della base e # = {e1 , e2 } di V, ed il cui valore in t è rappresentato dalla
e # -matrice: ⎛ ⎞
..
.
Ψ(t, t0 ) := ⎝e!1 (t) .. e!2 (t)⎠ .
..
Si osservi infine come la matrice Ψ(t, t0 ) sia la migliore rappresentante Gtt0 dell’operatore Gtt0 . Mediante essa,
infatti, si esprimono non solo le e
! -componenti della soluzione x uscente da (x0 , ẋ0 ) con la semplice espressione
) * ) *
x(t) x
x(t) = Ψ(t, t0 ) x0 ovvero = Ψ(t, t0 ) 0
ẋ(t) ẋ0
ma si esprime anche la soluzione Φ = Φ(t) uscente da Φ0 := Φ(t0 ) dell’equazione Ẋ = T (t)X mediante l’espres-
sione Φ(t) = Ψ(t, t0 )Φ0 . Di questa, ciascuna colonna rappresenta una soluzione: xi (t), i = 1, 2 , dell’equazione
ẋ = T (t)x, come si può verificare immediatamente applicando sul dato ei tale equazione.
Con la notazione appena introdotta è particolarmente agevole, fra l’altro, scrivere ed interpretare il cosiddetto
metodo della variazione della costante per la ricerca di una soluzione particolare dell’equazione non omogenea
(5.46): ) *
y(t)
ẏ = T (t)y + b(t), y(t) := ∈ R2 , T , b ∈ C ℓ≥0 (I) ,
ẏ(t)
) *
0
dove la matrice T (t) è stata definita come nella (5.55) e dove b(t) := ∈ R2 .
r(t)
Esso consiste nel cercare la soluzione y : J ⊃ I → R2 della (5.46) tale che y(t0 ) = y0 = x0 esprimendola sotto
la speciale forma
y(t) = x(t) + y&(t) = Ψ(t, t0 )(x0 + c(t))
7 1 2 8T
con c ≡ c , c ∈ C 2 (J) × C 1 (J) tale che c(t0 ) = 0 , e con Ψ(t, t0 ) la matrice che la base detta fa corrispondere
all’operatore di evoluzione Gtt0 dell’equazione (5.55), o meglio della ẋ = T (t)x. In altre parole si cerca,
dell’equazione non omogenea, la soluzione particolare y&(t) := Ψ(t, t0 )c(t) che esce da condizioni iniziali nulle:
y&(0) = 0 , ed espressa proprio come combinazione lineare, a coefficienti c = c(t) dipendenti dal tempo, delle due
soluzioni di base)(! e*1 , !
e2)
) dell’equazione
* omogenea associata (5.55) e cioè quelle che, all’istante iniziale, valgono
1 0
rispettivamente e . È altresı̀ ovvio che, qualora queste non fossero note, ma lo fossero altre due: x1 ed
0 1
x2 , la matrice Ψ(t, t0 ) potrebbe essere facilmente calcolata mediante il prodotto Φ(t)Φ−1 (t0 ).
Si ottiene cosı̀ la condizione necessaria:
Φ̇(t)Φ−1 (t0 )(x0 + c(t)) + Φ(t)Φ−1 (t0 )ċ(t) = T (t)Φ(t)Φ−1 (t0 )(x0 + c(t)) + b(t) ;
ma è ) * ) *
ẋ1 (t) ẋ2 (t) ..
Φ̇(t) = = T (t)x1 (t) . T (t)x2 (t) =
ẍ1 (t) ẍ2 (t)
) *
..
= T (t) x1 (t) . x2 (t) = T (t)Φ(t)
pertanto rimane Φ(t)Φ−1 (t0 )ċ(t) = b(t) al quale assegnare come condizioni iniziali c(t0 ) = 0 . Si ricava
- t
c(t) = Φ(t0 )Φ−1 (τ )b(τ )dτ
t0
M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 51
che dà come soluzione generale dell’equazione (5.46) la funzione y tale che
) * ) * - t ) *
y(t) y 0
y(t) =: = Φ(t)Φ−1 (t0 ) 0 + Φ(t)Φ−1 (τ ) dτ,
ẏ(t) ẏ0 t0 r(τ )
N.B. 1.5.7 Se ciò che si cerca è una qualunque soluzione particolare, l’integrale può essere considerato indefinito
e la soluzione espressa mediante la
+) * - t ,
k1 −1
y(t) = Φ(t) + Φ (τ ) b(τ ) dτ .
k2
Si osservi inoltre che il procedimento si può ripetere per una equazione lineare non omogenea di ordine n ≥ 2 :
Anche per essa il vettore b(t) ha nulle tutte le componenti salvo l’ultima, ed anche di essa l’unica componente
che interessa calcolare è la prima. Visto poi che le prime componenti del vettore b(t) sono nulle per costruzione,
l’unico elemento interessante della matrice integranda è l’elemento (1, n). Una soluzione particolare è allora: y&(t) =
) *−1
.t a b
[Φ(t)Φ−1 (τ )](1,n) r(τ )dτ. In particolare, il caso che si sta qui trattando ha n = 2 , e siccome =
c d
) *
d −b
(ad − bc)−1 , si ha:
−c a
0 1 - t ) *
1 −x2 (τ )r(τ )
y&(t) = x1 (t), x2 (t) dτ
W (τ ) x1 (t)r(τ )
- t ' '
1 ''x1 (τ ) x2 (τ )''
= r(τ ) dτ ,
W (τ ) ' x1 (t) x2 (t) '
da cui si riconosce la forma speciale del nucleo risolvente. Ciò dà anche, per la (5.52),
- t' ' )- τ *
'x1 (τ ) x2 (τ )'
y&(t) = c ' ' exp p(σ)dσ r(τ )dτ.
' x1 (t) x2 (t) '
♦
Se l’operatore L[x] è a coefficienti costanti, un metodo che a volte è più veloce per trovare la soluzione particolare
è detto “dei coefficienti indeterminati”. Esso consiste nell’ipotizzare la forma della soluzione, e cercarne la specifica
espressione imponendo l’equazione come condizione necessaria. Un modo per formulare l’ipotesi detta è quello
di derivare ripetutamente il termine noto (o meglio la parte di esso che non compare già nella soluzione della
omogenea associata) fino ad ottenere termini ripetitivi, o zero. In definitiva, si cerca una soluzione dell’equazione
(non omogenea) sotto forma di una combinazione lineare dei termini (diversi) cosı̀ ottenuti più quelli di un’opportuna
soluzione dell’omogenea associata e del termine noto stesso.
Esempio 1.5.8 ÿ + ẏ + y = t3 et , t0 , y0 ∈ R .
t e dà luogo a t e , tet , et . Ipotizzata una forma del tipo:
3 t 2 t
da cui
3a = 1, 9a + 3b = 0, 6a + 6b + 3c = 0, 2b + 3c + 3d = 0 .
#
Note di Sistemi Dinamici
52 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici
e poi si può provare con una combinazione lineare delle funzioni cosı̀ trovate. #
Ancora nel caso di una equazione lineare di ordine n in una variabile scalare, ed a coefficienti costanti, talvolta
può convenire non usare la teoria generale, che verrà esposta nel Cap.II, ma ricorrere a una simbologia ancora più
compatta.
Alla base di tutto c’è il fatto che l’equazione
d
ẏ + ay =: (∂ + a)y = f (t), t0 , y0 ∈ R, ∂ := , (5.56)
dt
ha fattore integrante: ϖ(t) = eat per cui è eat (∂ + a)y = ∂(eat y), e quindi l’equazione (5.56) ha soluzione
- t
−at −1 at −at
y(t) = e ∂ (e f (t)) := e eaτ f (τ )dτ ;
(qui si parla solo di soluzioni particolari, quindi tutte le costanti di integrazione sono irrilevanti: esse specificano
infatti l’una soluzione particolare rispetto ad un’altra e quindi, per quanto visto all’inizio del paragrafo, la loro
presenza serve ad introdurre nella soluzione l’addendo consistente nella soluzione dell’omogenea associata. In tal
senso, tutti i risultati si intenderanno noti a meno di una arbitraria traslazione nel Ker (L)).
Nascita del metodo: scrivere il fatto qui sopra nel seguente modo:
l’equazione (∂ + a)y = f (t) ha soluzione particolare data da:
.τ
ed osservare che, posto h(τ ) := ea1 σ f (σ)dσ , un’integrazione per parti fornisce
- t
y(t) = e−a2 t e(a2 −a1 )τ h(τ )dτ =
+ - t ,
e−a2 t
= h(t)e(a2 −a1 )t − e(a2 −a1 )τ ea1 τ f (τ )dτ =
a2 − a1
1 K L
= (∂ + a1 )−1 − (∂ + a2 )−1 f (t) .
a2 − a1
(i) Sia p(ξ) un polinomio di grado n nell’indeterminata ξ ∈ R, con il coefficiente della potenza di grado massimo
1 α1 αn
uguale ad uno e tutte le radici distinte: a1 , a2 , . . . , an . Se si vuole porre p(ξ) = (ξ−a 1)
+ · · · + (ξ−a n)
si può
(ξ−aj ) C αi (ξ−aj ) −1 ′ 1 C n 1
sfruttare la: p(ξ)−p(aj ) = αj + i̸=j (ξ−ai ) per determinare αj = p (aj ) e quindi p(ξ) = i=1 p′ (ai )(ξ−ai ) .
Se invece gli zeri sono molteplici va considerata la decomposizione p(ξ) = (ξ − a1 )n1 (ξ − a2 )n2 · · · e poi
uguagliato ad uno il polinomio che si ottiene a numeratore avendo posto
1 α1 αn1 β1 βn2
= + ···+ n
+ + ··· + + ··· .
p(ξ) (ξ − a1 ) (ξ − a1 ) 1 (ξ − a2 ) (ξ − a2 )n2
M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 53
(ii) In modo analogo, se si considera la ∂ come un simbolo e si ha p(∂) = (∂ + a1 )n1 (∂ + a2 )n2 · · · , si possono
determinare i coefficienti αi , βi , . . . in modo tale che sia
α1 (∂ + a1 )n1 −1 (∂ + a2 )n2 · · · + α2 (∂ + a1 )n1 −2 (∂ + a2 )n2 · · · +
+β1 (∂ + a1 )n1 (∂ + a2 )n2 −1 · · · + · · · = 1
che, in base al punto precedente, sono quelli per i quali risulta unitario il prodotto (non operatoriale ma per
ora solo formale) fra p(∂) ed
) *
α1 αn1 β1 βn2
+ ··· + + + · · · + + · · · .
(∂ − a1 ) (∂ − a1 )n1 (∂ − a2 ) (∂ − a2 )n2
(iii) Un polinomio p = p(∂) di grado n intero non negativo ed a coefficienti costanti è senz’altro un operatore
lineare P := p(∂) ben definito su C m purché m ≥ n .
Inversamente: si conviene di definire P −1 (∂) come quell’operatore che trasforma f ∈ C m−n in quella funzione
y =: P −1 (∂)f che è soluzione dell’equazione P(∂)y = f . L’operatore esiste in quanto esiste la soluzione,
e questa è “unica” se si conviene di trattare sempre con quella “senza” costanti d’integrazione, cioè con
(y0 , ẏ0 , . . . , y0n−1 ) ∈ Rn scelte nulle;
(iii.1) l’operatore P −1 (∂) cosı̀ definito può essere considerato come operatore inverso di P(∂), (fatte salve
le precauzioni sul fatto che il suo dominio dovrà essere contenuto nell’immagine di P(∂), e che delle
soluzioni va scelta sempre quella con costanti di integrazioni banali);
(iii.2) la linearità di P(∂) implica che anche l’operatore P −1 (∂) è un operatore lineare, infatti la relazione di
linearità di P(∂) dà luogo alla:
P(∂)(αP −1 (∂)f1 + βP −1 (∂)f2 ) = αP(∂)P −1 (∂)f1 + βP(∂)P −1 (∂)f2 ,
e l’asserto segue applicando P −1 (∂) ad ambo i membri dell’uguaglianza.
(iv) La linearità dell’operatore ∂ permette inoltre:
(iv.1) di fattorizzare l’operatore P(∂) nel prodotto (questa volta sı̀, operatoriale):
(∂ + a1 )n1 (∂ + a2 )n2 · · · (∂ + am )nm ;
(iv.2) di fare lo stesso con P −1 (∂);
(iv.3) di riconoscere che su essi valgono le usuali regole algebriche, giustificando cosı̀ il punto (ii).
(v) Tutto ciò rende leciti, sempre fatte salve le debite cautele di esistenza nell’immagine ed unicità nel kernel, i
seguenti passaggi:
P −1 (∂)f (t)
α1 (∂ + a1 )n1 −1 (∂ + a2 )n2 · · · + α2 (∂ + a1 )n1 −2 (∂ + a2 )n2 · · · +
=
(∂ + a1 )n1 (∂ + a2 )n2 · · ·
+β1 (∂ + a1 )n1 (∂ + a2 )n2 −1 · · ·
f (t) =
= α1 (∂ + a1 )−1 f (t) + α2 (∂ + a2 )−2 f (t) + · · · .
'
In particolare si ritrova, dato che [(ξ + a1 )(ξ + a2 )]′ '(−a ) = (a2 −a1 ) che la soluzione della (∂+a1 )(∂+a2 )y =
1
f (t) si può esprimere mediante la
y(t) = ((∂ + a1 ) (∂ + a2 ))−1 f (t) =
1 7 8
= (∂ + a1 )−1 − (∂ + a2 )−1 f (t) =
(a2 − a1 )
) - t - t *
1 −a1 t a1 τ −a2 t a2 τ
= e e f (τ )dτ − e e f (τ )dτ .
(a2 − a1 )
'
N.B. 1.5.12 Sempre con p : a ∈ R → p(a) ∈ R un polinomio a coefficienti costanti, e con P(∂) := p(a) '(∂) , si ha
P(∂)eat ≡ p(a)eat . Pertanto se un numero a è tale che p(a) = 0 detta equazione ausiliaria , si vede subito che
eat è senz’altro soluzione dell’equazione omogenea P(∂)x = 0 . Nel caso di tutte radici distinte si può ottenere in
questo modo la soluzione generale. ♦
(∂ + a)n y = 0 ⇐⇒ ∂ n (eat y) = 0
Raggio di convergenza r := l’estremo superiore dei valori |x − x0 | ∈ R per i quali il limite detto esiste finito.
e quindi
|an |
r ≡ lim .
n→∞ |an+1 |
Sussiste il seguente, generale, criterio di convergenza per una qualsiasi serie di funzioni un = un (t).
Weiestrass m-test o convergenza totale := Sia {un }n=0,1,... una successione di funzioni un : R → R tale che:
C∞
allora la serie n=0 un (x) si dice totalmente convergente su A. La convergenza totale implica sia la convergenza
assoluta che quella uniforme.
M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 55
;C <
N n
Dimostrazione sN }N ∈N :=
Dato che la successione {& n=0 a n &
x delle somme ridotte è di Cauchy si
'C ' N ∈N
' j+1 ' n
ha ' i=j ai x &n −→ 0 . In particolare esiste σ ∈ R tale che |an ||&
&i ' < ε e quindi an x xn | < σ per ogni n. Sia
∞
n
x|; allora per |x| ≤ |ξ| si ha: |an ||xn | ≤ |an |ξ n = |an x
0 ≤ ξ < |& &n |ξ n /|&
x|n < σ |ξ/&
x| .
C∞ n
Ma la serie geometrica n=0 |ξ/& x| converge, e siccome maggiora la serie data questa converge assolutamente
ed uniformemente su [−ξ, ξ] .
Analogo risultato si ottiene per la serie delle derivate, infatti sussiste la stima
|nan xn−1 | ≤ |n||an ||ξ n−1 | = n|an ||& x|n |1/ξ| < |σ/ξ| n |ξ/&
x|n |ξ/& x|n ;
la serie di cui quest’ultima è il termine n-mo converge per il criterio del rapporto, per cui (eventualmente rinomi-
nando i coefficienti) si può nuovamente agire con l’m-test. Ne segue anche che la somma delle derivate è continua
ed è proprio la derivata della somma della serie, (metodo “3 ε ”). Infine, lo stesso ragionamento si può ripetere
per la k -esima derivata, per la quale si ha
n
x|n |ξ/&
n(n − 1) · · · (n − k + 1)|an ||& x| |1/ξ k | <
' '
x|n
< 'σ/ξ k ' n(n − 1) · · · (n − k + 1) |ξ/&
Funzione (reale) analitica in x0 : f (x) ∈ C ω (x0 ) := una funzione f : R → R che ammette derivate f [n] (x0 )
di ogni ordine, e per la quale esista un c > 0 tale che: per ogni x ∈ Bc (x0 ) si ha
=n
1 [m] n
f (x) − f (x0 )(x − x0 )m =: rn (x) −→ 0.
m=0
m! ∞
La sola condizione f ∈ C ∞ (x0 ), e cioè l’esistenza in x0 delle derivate f [n] (x0 ) di ogni ordine n, comporta
“solo” (Teorema di Taylor, [Spivak 19.4]) l’esistenza di un conveniente punto x̄ ∈ B|x−x0 | (x0 ), dipendente da
1
L
x, x0 , n, f, tale che (per un qualsiasi n) rn (x) = (n+1)! f [n+1] (x̄)(x − x0 )n+1 .
C∞Le proprietà nasintotiche e di derivabilità viste sopra implicano che: la somma s(x) di una serie di potenze
n=0 an (x − x0 ) è una funzione analitica all’interno dell’intervallo di convergenza Br (x0 ), e verifica la relazione
1 [n]
an ≡ n! s (x0 ). Quest’ultima uguaglianza inoltre implica l’unicità dello sviluppo della somma.
Più debolmente: se una funzione f = f (x) è infinitamente differenziabile per |x − x0 | minore di un certo c ∈ R+ è possibile che,
in Bc (x0 ) , essa sia uguale alla somma della sua serie di Taylor
∞
= f [n] (x0 )
f (x) = s(x) := an (x − x0 )n con an = ;
n=0
n!
tuttavia ciò non è necessario; non è detto infatti che la somma s(x) della serie sia l’unica funzione che
0 ha nel punto
1 tutte le derivate
ordinatamente uguali ai coefficienti della serie (si veda: [Spivak p.398]). Per esempio la funzione f ∈ C ∞ (R)
( 2
e−1/x per x ̸= 0
f (x) :=
0 per x=0
non è analitica in zero: ha infatti tutte le derivate nulle nell’origine pur non essendo la funzione nulla.
Le funzioni analitiche sono invece per definizione quelle identicamente uguali alla somma della loro serie di
Taylor nel suo intervallo di convergenza.
Stante l’uniforme convergenza, sulle serie di potenze convergenti si può agire come sui polinomi:
∞
= ∞
=
n
an (x − x0 ) = bn (x − x0 )n ⇐⇒ an = b n ∀n;
n=0 n=0
=∞ =∞ ∞
=
an (x − x0 )n + bn (x − x0 )n = (an + bn )(x − x0 )n ;
n=0 n=0 n=0
=∞ =∞ ∞
=
an (x − x0 )n bn (x − x0 )n = s1 (x)s2 (x) = cn (x − x0 )n ,
n=0 n=0 n=0
= n
=
ove cn := ak b j ≡ ak bn−k = a0 bn + a1 bn−1 + . . . + an b0 .
k+j=n k=0
In più si riconosce che lo spazio delle funzioni analitiche è chiuso rispetto alla somma, prodotto, composizione
funzionale, limite uniforme, inversa continua (si veda: [Simmons §25; Flanigan V.2.3])
In virtù di tali proprietà, le serie di potenze risultano idonee ad essere usate come funzioni “campione” per
problemi differenziali lineari in quei casi nei quali si sappia per altra via, o si assuma, che la soluzione del problema
sia una funzione analitica in un certo punto x0 . È chiaro che in tal modo il risultato è da intendersi locale
all’interno del cerchio di convergenza centrato nel punto di analiticità. C∞
Il procedimento consiste nell’assumere l’incognita soluzione del tipo y(x) =: n=0 an (x − x0 )n , e nel ricercare
le condizioni necessarie sui coefficienti {an }n∈N affinché tale y sia soluzione del problema originario: equazione e
dati iniziali. L’unicità della soluzione implica che tali condizioni risultano anche sufficienti all’interno del cerchio
di convergenza.
Esempio 1.6.1 y ′ = k y , con k ∈ R
Il metodo fornisce, con x0 = 0 , la seguente condizione necessaria
∞
= ∞
= ∞
=
m am xm−1 = (n + 1)an+1 xn = k an xn
m=1 n=0 n=0
Il metodo è utile particolarmente quando non si hanno a disposizione funzioni elementari che siano somma
delle serie cosı̀ trovate. Inoltre il procedimento può essere applicato anche per ottenere lo sviluppo di un’assegnata
funzione, purché analitica e soluzione di una qualche equazione differenziale ordinaria.
Esempio 1.6.2 y(x) = (1 + x)α , α∈R.
La funzione data è soluzione particolare, per x ∈ Bc (0) con c < 1 , della
(
′ α−1 −1 (1 + x)y ′ = αy
y = α(1 + x) = α(1 + x) y e cioè della
y(0) = 1 .
C∞
Con y(x) = n=0 an xn si ha, scrivendo i termini fino al grado (n − 1) ,
M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 57
Pertanto, dato che la condizione iniziale fissa y(0) = a0 = 1 , la soluzione del problema è necessariamente
espressa dalla serie
= 1
1+ α(α − 1) · · · (α − (n − 1)) xn
n=1
n!
nella
' 'quale, ovviamente, si riconosce lo sviluppo di Taylor in x = 0 della funzione (1 + x)α . Siccome poi
' an ' ' α−n+1 '
' an−1 ' = ' n ' −→ 1 , tale funzione è la somma di una serie di potenze convergente in |x| < 1 e quindi
y ∈ C ω (B1 (0)) e tutti i passaggi effettuati sono leciti. Il teorema di unicità infine garantisce che la funzione iniziale
y(x) e la somma della serie trovata sono necessariamente coincidenti. #
con esso, i coefficienti trovati sopra si possono anche scrivere come segue
1
an = an (α) = α(α − 1) · · · (α − n + 1)
n!
(−1)n
= (−α)(−α + 1) · · · (−α + n − 1)
n!
1
= (−1)n (−α)n .
n!
◃
In qualsiasi forma vengano espressi, i coefficienti an hanno le seguenti proprietà. Nel caso particolare in cui il
numero α =: m è un numero intero positivo ciascuno dei coefficienti an (m) è nullo se n > m, infatti (−m)m+1 ≡ 0 ,
e quindi la serie dell’esempio precedente termina in una somma finita. Invece, per n ≤ m si ha
) *
1 (m − n)! m! m
an (m) = m(m − 1) · · · (m − n + 1) = = .
n! (m − n)! n!(m − n)! n
Nel caso generale, e facendo riferimento a quanto trovato nel caso m ∈ N, si nota che la) prima* delle due
α
espressioni ottenute per i coefficienti an può essere usata per definire il Coefficiente binomiale anche per α
n
non necessariamente interi positivi; esso si definisce mediante la:
) * ) *
α 1 1 α
:= (−1)n (−α)n = α(α − 1) · · · (α − n + 1) ; := 1 .
n n! n! 0
In tal modo dall’Esempio 1.6.2 si può dedurre la formula cercata per α reale; essa è
∞ ) *
=
α α
(1 + x) = xn .
n
n=0
Esempio 1.6.4 La funzione θ(x) := arcsin x, definita per |x| < 1 , è soluzione della
) *−1
dθ d sin θ '' 1
= ' = = (1 − x2 )−1/2 . (6.57)
dx dθ θ(x) cos θ(x)
Ma dalla (1.6) con α = 1/2 segue che il secondo membro è esprimibile come segue
∞ )
= * =∞
−1/2 1
(1 − x2 )−1/2 = (−x2 )n = (1/2)n x2n .
n n!
n=0 n=0
1
Da questa si ricavano le due relazioni a2k = 0 , ed a2k+1 = k!(2k+1) (1/2)k , e quindi una delle forme note per il
calcolo di π : ) * ) * ) *3
1 1 1 1 1 1
π = arcsin = 1 + + ... .
6 2 2 3 2 2
#
ω
Il metodo si applica ad equazioni differenziali lineari omogenee con coefficienti C (Br (x0 )) infatti (si veda:
[Bender - Orszag cap.III, opp. Simmons §27]) anche ogni loro soluzione è C ω (Br (x0 )).
Qui verrà trattato il caso delle equazioni lineari omogenee del secondo ordine con primo coefficiente uguale ad
uno, e cioè
y ′′ + p(x)y ′ + q(x)y = 0 , con x0 , y0 , y0′ ∈ R ; (6.58)
e si mostrerà come se p, q ∈ C ω (Br (x0 )) allora anche la y è in C ω (Br (x0 )).
Un siffatto punto x0 viene detto Punto ordinario, o non singolare.
Se invece x0 è tale che p, q sono non analitici in x0 , ma lo sono le due funzioni
Sia per il momento x0 un punto ordinario per la (6.58) con r il (più piccolo) raggio di analiticità dei coefficienti
e condizioni iniziali y(x0 ) = y0 ed y ′ (x0 ) = y0′ arbitrarie. Si cerca la soluzione sotto forma di uno sviluppo locale
intorno al punto x0 , che risulta anche globale qualora r = ∞. Il procedimento è costruttivo. [Qui di seguito si
supporrà x0 = 0 , maC∞ C∞ facilmente sostituendo x con (x − x0 )].
il caso generale si può ottenere
Siano: p(x) =: n=0 pn xn e q(x) =: n=0 qn xn ; e si ponga
⎧ ∞
⎪ =
⎪
⎪ y ′
(x) = (n + 1)an+1 xn ,
∞ ⎪
⎨
= n=0
y(x) =: an xn , e quindi ∞
⎪
⎪ =
n=0 ⎪
⎪ ′′
(n + 1)(n + 2)an+2 xn .
⎩ y (x) =
n=0
M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 59
Si ricavano le @ A@ A
∞
= ∞
= ∞
= n
=
n n
q(x)y(x) = qn x an x = xn ak qn−k ;
n=0 n=0 n=0 k=0
@∞ A@ ∞ A ∞ n
= = = =
′ n n
p(x)y (x) = pn x (n + 1)an+1 x = xn (k + 1)ak+1 pn−k .
n=0 n=0 n=0 k=0
Tali relazioni permettono di determinare in modo univoco il termine an+2 quando siano noti i precedenti:
(n = 0) −→ 2a2 = −(a1 p0 + a0 q0 )
(n = 1) −→ 3 · 2a3 = −(a1 p1 + a0 q1 ) − (2a2 p0 + a1 q0 )
··· ··· ··· ···
Di conseguenza rimangono da assegnare solo i due coefficienti a0 , a1 , ed è palese che ciò si possa fare in modo
del tutto arbitrario. In funzione delle condizioni iniziali si esprimono allora a0 = y0 = y(0) ed a1 = y1 = y ′ (0)
e quindi quella trovata rappresenta l’unica “soluzione” che passa per esse.
Occorre però dimostrare che tale soluzione esiste, e cioè che esista un qualche r > 0 per il quale la serie converge
almeno in Br (0). Se questo è il caso, tutte le operazioni effettuate risultano lecite, e la soluzione del problema è
trovata, stante l’unicità, ed è analitica in Br (0); (in tal modo, le (6.59) risultano condizioni anche sufficienti).
C∞ n
Questo è il caso; la dimostrazione della convergenza in Br (0) di n=0 an x quando le an verificano le (6.59)
e purché i coefficienti p, q siano analitici in Br (0), è di routine: (si veda: [Simmons p. 183]).
Nota 1.6.2 Se l’equazione è a coefficienti costanti, e quindi pn = qn = 0 per ogni n > 0 la (6.59) si riduce a
Si osservi che tale definizione è consistente con il modello di un punto che percorra di moto uniforme una circon-
ferenza; esso ha infatti vettore posizione ed accelerazione paralleli e discordi, e posizione totalmente individuata
dall’“angolo” x. #
Naturalmente il difficile è determinare non certo la forma (6.59) ma la formula ricorrente che ne consegue:
in questo esempio è stata a due termini, ma potrebbe essere peggiore, e ciò anche in base alla forma che si dà
all’equazione di partenza.
Esempio 1.6.7 L’equazione di Schrödinger stazionaria unidimensionale
!2 ′′
ψ + (E 0 − V (ξ)) ψ = 0 , ξ∈R. (6.60)
2m
Quando siano
k 2 k mω 2
V (ξ) = ξ , =: ω 2 , !ω =: hν, ξ =: x2 ∈ R ,
2 m !
e si vede subito che è r = limk→∞ (k + 1)(2k + 1)/|ϱ − 2k| = ∞. Inoltre, con il porre nulli prima tutti i termini
dispari e poi quelli pari, e cioè scegliendo, come fatto nel precedente esempio, (a1,0 , a1,1 ) := (1, 0) e, rispettivamente,
(a2,0 , a2,1 ) := (0, 1), si trova che la soluzione generale della (6.60) è
2 2 2
ψ(x) = e−x /2
y(x) = e−x /2
y1 (x) + e−x /2
y2 (x) , (6.67)
ove le funzioni y1 ed y2 sono espresse mediante le serie di potenze aventi i coefficienti (6.65), (6.66) rispettivamente
e gli altri tutti nulli. Infatti, tali funzioni sono convergenti per ogni x < ∞ poiché tali sono i coefficienti di (6.62),
e certo fra loro linearmente indipendenti poiché di diversa parità.
Nel problema fisico, tuttavia, non basta che la serie converga per ogni x ∈ R; occorre anche che la soluzione sia
|x|
ψ ∈ L2 (R), e quindi che sia soggetta al vincolo: |ψ| −→ 0 . Per studiare l’avverarsi di tale condizione, si ricordi
∞
C
innanzi tutto che ex /2 = ∞
2
n=0 b2n x
2n
con b2n := (2n n!)−1 . Pertanto, il primo addendo della (6.67) ammette
la seguente espressione
2 a0 + a2 x2 + · · · + a2n x2n + · · ·
e−x /2 y1 (x) = .
b0 + b2 x2 + · · · + b2n x2n + · · ·
Si può esaminare cosa accade per |x| → ∞ osservando il rapporto |a2n |/|b2n | .
Se per n ≫ 1 risultasse |a2n |/|b2n | > 1 allora, dato che tutti i coefficienti hanno lo stesso segno (positivo) per
|x|
n sufficientemente grandi, senz’altro non potrebbe essere |ψ| −→ 0 . Analogo risultato si ottiene studiando il
∞
rapporto |a2n+1 |/|b2n |. Perché anche la y2 possa verificare la condizione al contorno occorre escludere la possibilità
che sia |a2n+1 |/|b2n | > 1 .
Per assicurarsene si usi il seguente procedimento. Dalla (6.64) segue che
M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 61
e pertanto
a2n+2 /a2n (−2)(ϱ − 2n)2(n + 1)
= −→ 2.
b2n+2 /b2n (2n + 1)(2n + 2)
Se allora n è sufficientemente grande tale rapporto è maggiore per esempio di 3/2, e quindi se ne deduce
a2n+2 /b2n+2 > (3/2) a2n /b2n . Da questa si ricava, per n maggiori di un qualche n0 , la stima: a2n0 +2n /b2n0 +2n >
n 2
(3/2) a2n0 /b2n0 > 1 . Se ne conclude che la soluzione e−x /2 y1 (x) è fisicamente inaccettabile a meno che la
serie termini, e cioè a meno che (ϱ − 2n) si annulli per qualche n. Allo stesso modo si riconosce che il secondo
2
addendo della (6.67): e−x /2 y2 (x) diverge all’infinito a meno che (ϱ − 2n + 1) = 0 si annulli per qualche n. In
conclusione, affinché il problema fisico ammetta soluzione occorre che sia ϱ ∈ N.
N.B. 1.6.8 Questo è un modo di mostrare la condizione ϱ ∈ N alternativo
) a quello che*sfrutta l’autoaggiunzione
7 d 8 1 7 d 8 |x|
∗ 1
dell’operatore T T = √2 − dt + x · √2 + dt + x nello spazio L2 (R), |ψ| −→ 0 . ♦
∞
In altre parole il problema fisico risulta un problema agli autovalori, le cui autofunzioni sono date dalle
2
ψm (x) = e−x /2
hm (x), m ∈ N,
nelle quali gli hm (x) sono polinomi, detti Polinomi di Hermite, autosoluzioni delle (6.62), (6.63) corrispondenti
agli autovalori ϱ = 2m e ϱ = 2m + 1 . Per quanto si è visto, tali polinomi sono dati rispettivamente dalle
⎧ m
⎪ = (−2)k
⎪
⎪ h (x) = c (2m)(2m − 2) · · · (2m − 2k + 2)x2k
⎪
⎨ 2m 2m
(2k)!
k=0
⎪ m
=
⎪
⎪ (−2)k
⎪ h
⎩ 2m+1 (x) = c 2m+1 (2m − 1)(2m − 3) · · · (2m − 2k + 1)x2k+1
(2k + 1)!
k=0
ove le cm sono costanti di normalizzazione. Per varie ragioni, queste vengono scelte in modo tale che il termine di
grado massimo sia 2n xn , e quindi sono
per esempio, i primi valori sono {1, −2, −12, 12, 120, · · ·}, e forniscono finalmente
Alternativamente, detto an il termine più alto del polinomio e cioè con ϱ = n, si sarebbe potuto anche usare
le (6.64) per trovare
1 n!
an−2k = (−1)k k an
2 (2k)! (n − 2k)!
ed allora con an := 2n si ottiene
[n/2]
= (−1)k (2x)n−2k
hn (x) =n! .
k! (n − 2k)!
k=0
2
0 2
1
È utile notare che la (6.63) è autoaggiunta: (2n − 1)e−x y = − e−x y ′ ′ e quindi in tal caso, per le proprietà
2
N 2
O∞
dell’esponenziale e con r := e−x , si ha ⟨ ψn , ψm ⟩ = 2(n − m) ⟨ hn , hm ⟩ r = e−x W(hn , hm ) = 0 . Un
−∞
2 2
calcolo diretto, con l’uso delle formile di Rodriguez: hn (x) = (−1)n ex dn (e−x )/dxn , mostra poi che invece
- ∞ - ∞
−x2 2 dn 2
⟨ hn , hn ⟩r = e hn (x)dx = (−1)n hn (x) n e−x dx
−∞ −∞ dx
- ∞ n−1
d 2
= (−1)n+1 h′n (x) n−1 e−x dx = . . .
−∞ dx
- ∞
2 √
= 2n n! e−x dx = 2n n! π ̸= 0
−∞
λ−1 E 1
Si osservi il profondo significato fisico della limitazione trovata per il parametro ϱ ≡ = − ∈ N.
2 hν 2
Essa rende discreto numerabile lo spettro dei valori accettabili per l’energia di un oscillatore armonico descritto
E 1
dalla equazione di Schrödinger, che pertanto è detto quantistico: = + n con n = 0, 1, . . . . #
hν 2
x2 y ′′ + xy ′ + (λ2 x2 − ϱ2 )y = 0 , λ, ϱ ∈ R . (6.68)
Di questa generalmente si cercano soluzioni per x ∈ (0, l] con y(0+ ) < ∞ e per λ = λ(ϱ) ∈ R tale che y(l) = 0 ;
(in questo esempio, ϱ è una costante reale fissata a priori).
L’origine è palesemente
C∞ un punto singolare regolare. Come tale non è possibile sperare, a priori, in soluzioni
analitiche: y(x) = n=0 an xn . #
Osservazione.
Nel caso λ = 0 , la (6.68) si riduce alla nota equazione di Eulero, vedi Esempio 1.5.5, nella quale le p& e q& sono costanti reali e si badi
che qui la variabile x è positiva; nel caso generale i prossimi risultati vanno intesi validi con |x| ove occorra.
p& ′ q&
y ′′ + y + 2 y=0 (6.72)
x x
1 1 1 1 0 1
la quale, con ξ := ln x , e quindi con ∂x = ∂ξ e ∂x2 = − ∂ξ + ∂x ∂ξ = 2 ∂ξ2 − ∂ξ , diviene l’equazione lineare a
x x2 x x
coefficienti costanti:
d2 d
p − 1)
y + (& y + q& y = 0 . (6.73)
dξ 2 dξ
Come è noto, e come si rivedrà nel seguito, a seconda che le radici dell’equazione caratteristica:
α2 + (&
p − 1) α + q& ≡ [α(α − 1) + α&
p + q&] = 0 (6.74)
siano reali distinte, coincidenti, o complesse coniugate, l’equazione (6.73) ammette soluzioni del tipo eα1 ξ ed eα2 ξ , oppure eαξ
e ξeαξ ,
oppure e(ρ+iθ)ξ ed e(ρ−iθ)ξ , e quindi la (6.72) avrà in loro corrispondenza soluzioni contenenti potenze algebriche (e
cioè non necessariamente intere) della |x| oppure prodotti di queste con logaritmi, oppure potenze della |x| moltiplicate per funzioni
trigonometriche del logaritmo.
L’equazione di Bessel è un caso particolare della seguente forma generale (del secondo ordine)
p&(x) ′ q&(x)
y ′′ + y + y=0, con x0 singolare regolare (6.75)
x − x0 (x − x0 )2
e cioè x0 tale che: i coefficienti p(x) = p&(x)/(x − x0 ) e q(x) = q&(x)/(x − x0 )2 possono essere non analitici
in x0 , ma sono analitiche le due funzioni p&(x), q&(x).
Motivati dalla precedente osservazione sull’equazione di Bessel, viene spontaneo cercare soluzioni, nell’intorno
di x0 ,
o della forma y(x) = (x − x0 )α s(x), α ∈ C,
oppure della forma y(x) = (x − x0 )α s(x) ln |x − x0 |, α ∈ R,
C∞
dove si è posto s(x) = n=0 an (x − x0 )n , con a0 ̸= 0 ,
M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 63
e nell’ipotesi che i coefficienti a0 , a1 , . . . , an , . . . ∈ R siano tali che la serie di potenze s(x) abbia raggio di
convergenza non nullo.
La prima di tali rappresentazioni quando α è un numero reale prende il nome di Serie di Frobenius, della quale
α è detto l’Esponente indiciale.
Sia, per semplicità, x0 = 0, e siano
∞
= ∞
=
p&(x) =: p&n xn ed q&(x) =: q&n xn
n=0 n=0
È opportuno notare che se α ̸= 0 il coefficiente a0 non rappresenta il valore y(0); d’altra parte con le attuali
ipotesi il punto x = 0 è addirittura non appartenente dal dominio di regolarità del campo.
In base alla posizione fatta, risultano
∞
= ∞
=
y ′ (x) = (α + n)an xα+n−1 , y ′′ (x) = (α + n)(α + n − 1)an xα+n−2
n=0 n=0
da cui @ A@ A
∞
= ∞
=
p&(x) ′
y (x) = x−1 p&n x n
(α + n)an x α+n−1
=
x n=0 n=0
∞
@ n A
= =
= p&n−k (α + k)ak xα+n−2
n=0 k=0
ed in modo analogo si ha
@ ∞
A@ ∞
A ∞
@ n A
q&(x) = = = =
y(x) = x−2 q&n x n
an x α+n
= q&n−k ak xα+n−2 .
x2 n=0 n=0 n=0 k=0
che si è ottenuta per un punto regolare nel quale p&0 = q&0 = q&1 = 0 ; il passaggio da p, q a p&, q& comporta uno
spostamento in avanti negli indici: un posto per la p, due per la q ; vedi anche la seguente Nota 1.6.3. ♦
Per rendere più agevole la discussione delle (6.77) si definisca la funzione (già incontrata nella (6.74))
C
e l’equazione (6.75) calcolata per y(x) = n=0 an xn (e moltiplicata per x2 ) assumerà la forma
∞
I n−1
J
= =
α
a0 ind(α) x + ind(α + n) an + pn−k (α + k) + q&n−k ) ak
(& xα+n = 0 . (6.80)
n=1 k=0
(n = 0) −→ ind(α)a0 =0
(n = 1) −→ ind(α + 1)a1 = −(&
p1 α + q&1 )a0
(n = 2) −→ ind(α + 2)a2 = −(&
p2 α + q&2 )a0 − (&
p1 (α + 1) + q&1 )a1
L’assunto a0 ̸= 0 rende non ambigua la determinazione dell’esponente α ; esso dovrà essere una delle radici della:
e quindi, generalmente si avrà: α ̸∈ N. Tuttavia non è questa l’unica differenza con il caso dei punti regolari.
Diversamente dalla (6.78), infatti, le (6.77) permettono di determinare in modo ricorsivo tutti i coefficienti ai =
ai (a0 , a1 , . . . , ai−1 ) = ai (α; a0 ), i = 1, 2, . . ., solo se, in corrispondenza a quel valore di α , non esista alcun
intero positivo n̄ tale che
Inoltre, anche ammettendo che per qualche α un tale n̄ non esista e sia quindi possibile determinare l’intera
successione {ai (α; a0 )}i=0,1,... , la soluzione che cosı̀ si determina in corrispondenza della prescelta radice α dell’e-
quazione indiciale (6.81) non potrà di regola essere la soluzione generale del problema; essa infatti dipende da una
sola costante arbitraria a0 .
Siano α1 , α2 le radici di ind(α) = 0 , e si suppongano entrambe reali ed ordinate secondo la α1 ≥ α2 .
Certamente ind(α1 + n) sarà non nullo per ogni n > 0 , infatti l’altra radice di ind(α) = 0 è α2 che, per
costruzione, cade a sinistra di α1 . Pertanto almeno una prima soluzione si potrà trovare con questo metodo, ed
avrà la forma
=∞
α1
y1 (x) = x a1,n xn , con a1,n = a1,n (α1 ; a1,0 ) .
n=0
È di routine (si veda: [Simmons p.185, opp. Tenenbaum 40.b]) la dimostrazione del fatto che la serie cosı̀
trovata è convergente almeno all’interno del cerchio di raggio r di analiticità dei termini p&, q&. Ne segue che la
soluzione y1 (x), analitica o meno a seconda del valore α1 , è certamente definita per x ∈ (0, r).
Sfortunatamente, siccome la (6.77) è condizione necessaria per gli an , si riscontra qui un
Primo caso sfavorevole: se α1 = α2 non esiste alcun’altra serie di Frobenius linearmente indipendente da quella
già trovata. Per trovare un’altra soluzione y2 indipendente dalla y1 , e quindi la soluzione generale del problema,
occorrerà inventare qualcos’altro.
Siano α2 ̸= α1 . Se è anche (α2 − α1 ) ̸∈ N allora ind(α2 + n) è anch’esso non nullo per ogni n > 0 , e quanto
appena fatto a partire dalla α1 può essere ripetuto per questa seconda radice α2 . Si trova cosı̀ una seconda serie
di Frobenius y2 , la quale per la condizione (α2 − α1 ) ̸∈ N ∪ {0} risulta evidentemente indipendente dalla y1 .
Quando invece esiste un intero positivo n̄ tale che α1 = α2 + n̄, allora accade che ind(α1 ) = ind(α2 + n̄) = 0
e ciò fa sı̀ che la (6.79), inizializzata con α2 e con un qualche a2,0 , termini con la:
n̄−1
=
0an̄ + pn̄−k (α2 + k) + q&n̄−k ) ak = 0 .
(& (6.82)
k=0
M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 65
D’altra parte, quando si impongano sulla y(x) arbitrarie condizioni iniziali si nota che solo due delle tre costanti
a1,0 , a2,0 , ed an̄ sono realmente arbitrarie.
Nota 1.6.3 Si osservi, (si veda: [Bender-Orszag p.83]), che l’ultimo caso preso in esame contiene quello dei punti
ordinari. Per essi si ha p&0 = q&0 = q&1 = 0 , e quindi ind(α) = α(α − 1) che fornisce α1 = 1 ed α2 = 0 . In questo
C0
caso la (6.82), per n̄ = 1 ed α2C= 0 , fornisce 0a2,1 + k=0 (0& p1 + q&1 ) a2,0 ≡ 0 . Si hanno pertanto: una prima
serie di Frobenius y1 (x) = x ∞ n=0 a 1,n xn
, e quindi tale
C∞ che y1 (0) = 0 , ed una seconda serie di Frobenius,
sicuramente indipendente dalla prima, data da y2 (x) = n=0 a2,n xn con a2,0 ̸= 0 ed an̄ ≡ a2,1 arbitrario, per
esempio nullo se si richiede a1,0 = y ′ (0). ◃
Resta a questo punto solo da inventare qualcosa di diverso nei due possibili casi sfavorevoli. Ciò che si sfrutta
è il fatto che l’equazione che si sta studiando è del secondo ordine: come si è fatto in precedenza, visto che ormai
una soluzione è nota, si tenta di determinarne un’altra con il metodo della variazione della costante moltiplicativa.
Posto cioè y2 = vy1 , questa verifica la (6.75) se e solo se la funzione u := v ′ è soluzione della
) *
′ p&(x) ′
y1 (x)u + y1 (x) + 2y1 (x) u = 0 .
x
.x
Moltiplicando tale equazione per y1 (x) exp p̃(ξ)/ξ dξ si deduce che
) - x *
′ −2 p&(ξ)
v (x) = y1 (x) exp − dξ
ξ
@∞ A ) *
= x2
= x−2α1 a1,n xn −2 exp −& p0 ln x − p&1 x − p&2 − ···
n=0
2
@∞ A ) *
= x2
−(2α1 +&p0 ) n −2
=x a1,n x exp −& p1 x − p&2 − ··· . (6.83)
n=0
2
Si noti che in entrambi i due casi sfavorevoli si ha che α1 = α2 + n̄ per un qualche n̄ = 0, 1, . . . . Tuttavia,
siccome α1 , α2 sono soluzioni dell’equazione indiciale ind(α) ≡ α2 −(1− p&0 )α+ q&0 = 0 , è anche α1 +α2 = (1− p&0 ),
e quindi (sommandole) si ha 2α1 + p&0 = n̄ + 1 . Pertanto, il primo dei tre fattori della (6.83) ha come esponente
il numero intero: −(n̄ + 1). D’altra parte, l’intero coefficiente di x−(2α1 +&p0 ) nella (6.83) è senz’altro analitico in
zero giacché vale (a1,0 )−2 . Si ottiene cosı̀, con β0 ̸= 0 ,
7 8
v ′ (x) = x−(n̄+1) β0 + β1 x + β2 x2 + . . . ,
da cui
β0 β1
v(x) = x−(n̄+1)+1 + x−(n̄+1)+2 + . . . .
−(n̄ + 1) + 1 −(n̄ + 1) + 2
In questa somma, siccome n̄+1 è intero positivo, ci sarà uno ed un solo termine non algebrico: il termine βn̄ ln x.
Si ha cioè 9 :
y2 (x) = βn̄ y1 (x) ln x + x−n̄ y1 (x) [v(x) − βn̄ ln x] xn̄
con il termine fra parentesi graffe, e quindi anche il suo prodotto con y1 (x), ormai analitici in zero.
In definitiva, se α1 = α2 + n̄, risulta
∞
=
y2 (x) = βn̄ y1 (x) ln x + xα2 cn xn . (6.84)
n=0
Si osservi che se α1 = α2 si ha βn̄ = β0 non nullo per costruzione, e quindi in tal caso il termine logaritmico
è sicuramente presente, e c0 = 0 . Può invece essere presente se è α1 − α2 =: n̄ > 0 (e allora c0 ̸= 0 ) ma può
anche non esserlo, a dipendere dal fatto che sia bn̄ ̸= 0 oppure bn̄ = 0 , come nel caso accennato sopra nel quale la
sommatoria in (6.82) risulta nulla.
Infine, si consideri il caso α1 , α2 ∈ C. Dall’ipotesi che l’equazione assegnata sia reale segue che anche i coefficienti
dell’equazione indiciale sono reali, e pertanto le sue due radici saranno, nel caso, complesse coniugate: α1 =: ρ+ iθ ,
α2 =: ρ − iθ . Ricordando l’identità x(ρ+iθ) ≡ xρ (cos(θ ln |x|) + i sin(θ ln |x|)), lo studio che si è fatto nel primo
dei casi esaminati: α1 ̸= α2 può essere ora ripetuto, e dà luogo alle seguenti due serie di Frobenius certamente
indipendenti ed atte ad essere determinate con il metodo visto
∞
= ∞
=
y1 (x) = +xρ cos(θ ln x) cn xn ed y2 (x) = +xρ sin(θ ln x) cn xn ;
n=0 n=0
queste, tuttavia, presentano entrambe una singolarità nel punto singolare regolare.
È bene notare che comunque, in tutti i casi discussi, per trovare esplicitamente i coefficienti delle serie è
sicuramente preferibile sostituire la forma ipotizzata per la soluzione direttamente nella equazione di partenza. A
tale proposito, anzi, dalla (6.80) si possono trarre le seguenti considerazioni (si veda Boyce-Di Prima § 5.7).
Nel caso α1 = α2 , se si suppone di risolvere tutte le infinite equazioni (6.79) mantenendo indeterminato il
parametro α e di sostituire le an = an (α; a0 ) cosı̀ trovate nella (6.80), questa diviene necessariamente:
a0 ind(α) xα = a0 (α − α1 )2 xα = 0 (6.85)
in quanto la α1 = α2 è l’unica radice (doppia) della equazione ind(α) = 0 , e conferma che y1 = y1 (x) è soluzione
della (6.75). Ricordando poi la formula: d(xα )/dα = xα ln x, si derivi rispetto ad α la (6.85); si ottiene
l’identità:
∂ N O K L
a0 (α − α1 )2 xα = a0 xα 2(α − α1 ) + (α − α1 )2 ln x = 0 .
∂α
Ma i coefficienti della (6.75) non dipendono (ovviamente) da α e quindi quest’ultima espressione coincide necessa-
riamente con quello che si ottiene sostituendo nella (6.75) al posto della y le derivate rispetto ad α della y1 (α; a0 ).
Se ne deduce che anche la derivata ∂y1 (α; a0 )/∂α risulta soluzione della stessa equazione (6.75) quando la si calcoli
per α = α1 . In breve, si è provato che è soluzione della stessa equazione (6.75) anche la funzione
+ ,
∂
y2 (x) := y1 (α; x)
∂α α=α1
⎡ ⎤
= ∂) * =
= ⎣ an (α; a0 ) xα+n + ln x an (α; a0 ) xα+n ⎦
∂α (6.86)
n≥1 n≥0
α=α1
=
= a′n (α1 ; a0 ) xα1 +n + y1 (x) ln x
n≥1
dove la a′n (α1 ; a0 ) indica la derivata, rispetto alla α e valutata per α = α1 , della an (α; a0 ) soluzione
C della (6.79).
Anche in questo caso si ha che spesso la sostituzione diretta della espressione y2 (x) = y1 (x) ln x + k≥0 bk xα1 +k
nella equazione (6.75) è preferibile al calcolo delle derivate a′n (α1 ; a0 ) giacché non è sempre immediata la forma di
queste funzioni della α .
Il caso della differenza intera α1 − α2 ∈ N dà luogo a considerazioni simili alle precedenti (si veda Coddington
Cap.4) e fornisce per i coefficienti cn della (6.91) qui sotto l’espressione (per n ≥ 1 )
∂ '
'
cn (α2 ) = ((α − α2 ) an (α; a0 )) 'α=α2
∂α a0 =1
p&(x) q&(x)
y ′′ + y′ + y=0 , (6.87)
x − x0 (x − x0 )2
con x0 singolare regolare, e cioè con p&(x), q&(x) ∈ C ω (N (x0 )). Sia r il (più piccolo) raggio di convergenza dei
suoi coefficienti p& e q&, e siano α1 e α2 ≤ α1 le soluzioni (supposte reali) dell’equazione indiciale (6.81):
ind(α) := α(α − 1) + p&0 α + q&0 = 0 . Allora in uno dei due intervalli −r < x < 0 o 0 < x < r esiste una
soluzione della forma ⎛ ⎞
=
y1 (x) = |x|α1 ⎝1 + an (α1 ) xn ⎠ (6.88)
n≥1
M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 67
ove le an (α1 ) sono date dalle relazioni di ricorrenza (6.79) con a0 = 1 ed α = α1 , e la serie converge almeno
per |x| < r .
Se inoltre l’altra radice α2 è tale che α1 −α2 ̸∈ N∪{0} allora nello stesso intervallo esiste una seconda soluzione
avente la medesima forma della prima e linearmente indipendente da essa:
⎛ ⎞
=
y2 (x) = |x|α2 ⎝1 + an (α2 ) xn ⎠ (6.89)
n≥1
con le an (α2 ) date dalle (6.79) con a0 = 1 ed α = α2 , e la serie converge almeno per |x| < r .
Se α1 = α2 la seconda soluzione della (6.75) ha la forma
=
y2 (x) = y1 (x) ln |x| + |x|α1 bn (α1 ) xn (6.90)
n≥1
I coefficienti an , bn , cn , γ vanno cercati sostituendo direttamente nella equazione (6.75) tali espressioni e usan-
do l’uniforme convergenza delle serie e le relazioni di identità dei loro coefficienti, oppure, all’occasione,mediante
le ⎧ 1'
⎪ ∂ 0 '
⎪
⎨ bn (α1 ) = an (α; a0 ) 'α=α1 ,
n̄ = α2 − α1 ∂α a0 =1
e 0 1'
γ = lim (α − α2 ) an̄ (α) ⎪
⎪ ∂ '
α→α2 ⎩ cn (α2 ) = (α − α2 )an (α; a0 ) 'α=α2 .
∂α a0 =1
Si parte dalla equazione (supposta del secondo ordine) scritta nella forma
p&(x) q&(x)
y ′′ +
y′ + y=0 (6.92)
x − x0 (x − x0 )2
e si decide se il punto x0 nell’intorno del quale si sviluppa è regolare, singolare regolare, singolare irregolare. Sia, per semplicità,
x0 = 0 . Quanto segue vale in particolare per il caso singolare regolare.
N O N O
(1) Si individuano i valori p&0 = x p(x) e q&0 = x2 p(x) .
x=0 x=0
(2) Si scrive l’equazione indiciale α(α − 1) + α&
p0 + q&0 = 0 e se ne trovano le due radici α1 e α2 .
(3) Si scrivono le
∞
= ∞
=
y(x) = ak xα+k , y ′ (x) = ak (α + k) xα+k−1 ,
k=0 k=0
=∞
y ′′ (x) = ak (α + k) (α + k − 1) xα+k−2 ,
k=0
e si sostituiscono nella (6.92) scritta nella forma
r1 (x) y ′′ + r2 (x) y ′ + r3 (x) y = 0 (6.93)
con i coefficienti r1 , r2 , r3 senza denominatori.
(4) Si eseguono le operazioni di prodotto per i coefficienti ri e si raccolgono a fattore comune i vari termini (per opportuni
n1 , n2 , . . . ):
= 0 1 = 0 1
... xα+k+n1 + ... xα+k+n2 + . . . = 0 .
k≥0 k≥0
(5) A partire dall’ordine più basso si annullano i primi coefficienti: nei primi si deve ritrovare l’equazione indiciale come condizione
necessaria. Ciò fa crescere l’indice dei primi termini non banali.
(6) Si rinominano i vari indici k in modo da riconoscere l’uguaglianza fra le potenze della x e da poter raccogliere tutto in
un’unica somma (in generale con k0 = 0 )
= 0 1
xα+k = 0 .
k≥k0
Poi si sostituisce α = α1 (la maggiore delle due radici) e si annullano i vari coefficienti.
(7) Si ricavano i coefficienti ak in funzione dei precedenti (a partire dai primi), poi si cerca un’unica relazione di ricorrenza per la
prima delle due soluzioni: y1 (x) , quella relativa alla α1 , la radice (reale) maggiore.
(8) Si ricomincia dal Punto (6) per α = α2 , e si cerca una y2 (x) indipendente dalla y1 (x) .
(9) Se non si riesce (certamente quando α1 = α2 ; eventualmente quando (α1 − α2 ) ∈ N ) si prova con una delle
(
y2 (x) = v(x) y1 (x) quando la y1 è “facile”
C
y2 (x) = γ y1 (x) ln |x| + k≥0 bk xα2 +k quando la y1 è una serie
Il fattore γ è .certamente presente se α1 = α2 , può essere nullo se α1 − α2 ∈ N ; l’equazione risolvente per la v è: v′ (x) =
y1−2 (x) exp − x r2 (s)/r1 (s) ds .
Se il punto è singolare regolare almeno una delle due riesce certamente.
(10) Si confermano i risultati rimettendo le yi (x) nell’equazione di partenza (6.93) e controllando che esse ne siano soluzioni.
Si trovano: 0 1 0 1
α(α − 1) + α − ϱ2 a0 = 0 , e α(α + 1) + (α + 1) − ϱ2 a1 = 0 ,
e per n ≥ 2 si ritrova la (6.77), con p&0 = 1 , q&0 = −ϱ2 , q&2 = 1 , e gli altri tutti nulli. Se ne deduce, con a0
arbitrario, la ⎧ 0 1
⎪
⎨ (α + 1)2 − ϱ2 a1 = 0 ,
0 1 (6.95)
⎪
⎩ (α + n)(α + n − 1) + (α + n) − ϱ2 an + an−2 = 0, n = 2, 3, . . .
#
M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 69
1.0
J0 cos
0.5 J1
J2
5 10 15 20
-0.5
-1.0
Curiosità: per ϱ = 0 il coefficiente di (−x2 )k è (2k k!)−2 e quindi vale (22 · 42 · · · 4k 2 )−1 ; questo può essere
paragonato a quello di un coseno che è ((2k)!)−1 = (2 · 4 · · · 2k)−1 .
Nota 1.6.4 Per il momento, la (6.97) è priva di significato a meno che non si definisca il simbolo ϱ! nel caso in
cui ϱ ̸∈ N. .∞
Esiste una funzione, e precisamente la Γ(ϱ) := 0 tϱ−1 e−t dt che quando venga calcolata sugli interi positivi ha
le stesse proprietà del fattoriale, e cioè
(ii) Γ(1) = 1 .
In definitiva, salvo che sugli interi negativi, la funzione Γ è atta a rappresentare il simbolo fattoriale: ϱ! := Γ(ϱ + 1)
per ogni ϱ ∈ R\N− .
10
-4 -2 2 4
-5
-10
Per trovare un’altra soluzione dell’equazione di Bessel, indipendente C∞dalla (6.97), si supponga dapprima che sia
ϱ ̸∈ {0, 1, 2, . . .}, e la si ricerchi nuovamente della forma y2 (x) = x−α n=0 an xn con α = α2 = −ϱ. Si ricava la
⎧
⎨ (1 − 2ϱ) a1 = 0 ,
0 1
⎩ (−ϱ + n)(−ϱ + n − 1) + (−ϱ + n) − ϱ 2
an + an−2 = 0, n = 2, 3, . . .
Anche in questo secondo caso quindi, la scelta a−1 := 0 permette di porre nulli tutti i coefficienti di ordine dispari,
e di ricavare tutti i coefficienti di ordine pari in funzione dell’unico, arbitrario, primo coefficiente a2,0 :
Diversamente dal caso precedente, in questo secondo caso il coefficiente n(n − 2ϱ) nella (6.98) potrebbe creare
delle difficoltà qualora le radici dell’equazione indiciale fossero tali che α1 − α2 ≡ ϱ − (−ϱ) = 2ϱ ∈ N, e cioè: o
quando ϱ ∈ {0, 1, 2, . . .} , oppure quando per qualche k̄ ∈ N si ha 2ϱ = 2k̄ + 1 . È però solo il primo di questi
due casi che fa realmente terminare il procedimento ed impedisce che i coefficienti vengano determinati per mezzo
della (6.98). La seconda eventualità infatti potrebbe far terminare la determinazione dei soli coefficienti di ordine
dispari e non può impedire, come è stato fatto, che essi siano posti tutti nulli.
In definitiva, se 2ϱ è un intero positivo dispari o non è intero, e cioè se ϱ ̸∈ {0, 1, 2, . . .} , dalla (6.98) si ricavano
(−1)k a2,0
a2,2k+1 = 0; a2,2k = 2k
; k = 1, 2, . . . . (6.99)
2 k!(−ϱ + 1) · · · (−ϱ + k)
−1
Scegliendo a2,0 = (2−ϱ Γ(−ϱ + 1)) si ottiene un’altra soluzione particolare, e cioè l’altra Frobenius di cui si è
parlato sopra:
∞
= (−1)k 0 x 12k−ϱ
j−ϱ (x) = (6.100)
k!Γ(−ϱ + k + 1) 2
k=0
e siccome questa è non limitata in x = 0, (infatti il primo termine è certamente divergente in zero), essa è certo
indipendente da jϱ . Si osserva che la singolarità in zero è di tipo algebrico.
Rimane la difficoltà ϱ = m ∈ N ∪ {0} , che è però il caso fisicamente significativo. Applicando a ritroso la
(6.98) si conferma che necessariamente (e ancora usando x! in luogo di Γ(x + 1))
(−1)k a2,0
a2k = =0 per k = 0, 1, . . . , m − 1 ,
22k k!(k − m)!
(−1)n+m 0 x 12n+2m−m
=∞
= = (−1)m jm (x)
n=0
n!(n + m)! 2
si ha che quando ϱ ∈ N ∪ {0} la y2 ≡ j−ϱ non fornisce una soluzione indipendente dalla y1 , e la y = c1 jϱ + c2 j−ϱ
non è la soluzione generale.
Nel caso dell’equazione di Bessel è parso opportuno usare, come seconda soluzione di base nel caso ϱ ∈
{0, 1, 2, . . .} e qualora sia necessaria, invece della y2 logaritmica come visto sopra, la seguente (Bessel di seconda
specie)
jϱ (x) cos ϱπ − j−ϱ (x)
Ym (x) := lim .
ϱ→m sin ϱπ
Si possono constatare le seguenti proprietà delle funzioni di Bessel jϱ :
0 1
(p1) x+ϱ jϱ (x) ′ = +x+ϱ jϱ−1 (x) per ϱ > 0 ;
0 1
(p2) x−ϱ jϱ (x) ′ = −x−ϱ jϱ+1 (x) per ϱ > 0 ;
M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 71
◃
Note di Sistemi Dinamici
72 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici
e quindi con
β3 + β4 t β3 + β4 [(β2 − β1 )x + β1 ]
− =− = c − (a + b + 1)x,
β2 − β1 β2 − β1
la (6.102) si trasforma nella Equazione ipergeometrica di Gauss:
e quindi la ricorrente
(a)k (b)k
ak = a0 , k = 1, 2, . . . .
(c)k k!
La somma y1 della serie cosı̀ trovata, con a0 = 1 , prende il nome di
Funzione Ipergeometrica di Gauss e si indica con
∞
= (a)k (b)k
y1 (x) = xk =: F (a, b, c; x) ,
(c)k k!
k=0
definita ed analitica per |x| < 1, dato che è questo il polo dei coefficienti più vicino all’origine, e sempre che
(1 − c) ̸∈ {0, 1, 2, . . .}. In particolare è un polinomio se a, b sono interi negativi.
Inoltre, qualora sia (1 − c) ̸∈ {0, −1, −2, . . .} , c’è anche un’altra soluzione
∞
=
y2 (x) = x1−c ak xk .
k=0
Per trovarla esplicitamente conviene porre y(x) =: x1−c z(x) nella (6.103) ed ottenere
7 8
(x(1 − x)) (1 − c)(−c)x−1−c z + 2(1 − c)x−c z ′ + x1−c z ′′ +
7 8
+ (c − (a + b + 1)x) (1 − c)x−c z + x1−c z ′ − abx1−c z = 0 ,
M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 73
da cui K
(x(1 − x)) z ′′ + [2(1 − c)(1 − x) + c − (a + b + 1)x] z ′ + (−c)(1 − c)(1 − x)x−1 +
L
+ c(1 − c)x−1 − (a + b + 1)(1 − c) − ab z =
= (x(1 − x)) z ′′ + [(2 − c) − (a + b + 1 + 2 − 2c)x] z ′ −
− [(1 − c)(a + b + 1 − c) + ab] z = 0 ,
che ha soluzione
F (a − c + 1, b − c + 1, 2 − c; x) .
Ne segue
y2 (x) = x1−c F (a − c + 1, b − c + 1, 2 − c; x)
e si noti che 1 − (2 − c) ̸∈ N per l’ipotesi che sia (1 − c) ̸∈ {0, −1, −2, . . .}.
Tutto ciò è valido in un intorno dello zero. Se si vuole uno sviluppo valido nell’intorno di x = 1 basta porre
t := (1 − x) nella (6.103) ed ottenere la
y(t) = c1 F (a, b, a + b + 1 − c; t) + c2 F (c − b, c − a, c − a − b + 1; t) .
◃
La flessibilità delle funzioni ipergeometriche è notevole:
Esempio 1.6.16
∞ ) *
= ∞
=
α (−1)k (−α)k
(1 + x)α = xk = xk = F (−α, 1, 1; −x).
k k!
k=0 k=0
#
ln(1 + x)
Esempio 1.6.17 La funzione =: y verifica l’equazione
x
) *
′ x y 2 2
y = − x e quindi x(1 + x)y ′′ + (2 + 3x)y ′ + y = 0 .
1+x x
ab = 1, a + b + 1 = 3, c=2.
M. Lo Schiavo
Capitolo 2
ẋ = v(x), x0 ∈ M, (1.1)
con campo sufficientemente regolare, per esempio C 1 (D), in un aperto D ⊆ M di una varietà n-dimensionale M.
Scelto un sistema di coordinate h(x) su M, resta definito su un aperto di Rn un sistema di equazioni che verrà
indicato con la notazione ẋ = v(x), x ∈ Rn .
Nell’intorno di punti non di equilibrio, come si vedrà, il campo può essere rettificato, e quindi le linee di flusso
risultano localmente “pettinate”. Di conseguenza la maggior parte dell’informazione qualitativa circa il diagramma
di fase proviene dagli intorni dei punti di equilibrio e dalla struttura e forma delle traiettorie in essi.
D’altra parte se si pensa allo sviluppo di Taylor del campo v(x), in un intorno sufficientemente piccolo del
punto critico xe e nell’ipotesi ∥∂v(xe )∥ > 0 , si ha che il suo termine principale risulta essere quello lineare:
∂v(xe )(x − xe ) in quanto v(xe ) = 0 .
Un metodo che a volte, si badi bene, e non sempre è utile a fornire informazioni sul diagramma di fase
nell’intorno di un punto di equilibrio isolato: xe , consiste nello studiare, invece che l’equazione di partenza (1.1) in
generale non lineare, la sua variazionale o “linearizzata” in x !(t) = xe , e cioè
A parziale ed euristica giustificazione del procedimento, si possono considerare i seguenti punti, (un teorema
più dettagliato verrà richiamato nel § IV.1).
(• ) Una funzione f : M → M′ è differenziabile in x ! ∈ M quando risulta differenziabile una sua qualche rappre-
sentazione in coordinate. In tal caso, ciò resta vero (si veda: Appendice A.4 N.B.1.4.13) in tutte le carte (U, hξ ) che
x) : Tx̂ M → Tf (x̂) M′
siano C r≥1 -compatibili con la prima, ed è quindi possibile definire l’operatore lineare T := f∗ (!
come quello che, nelle coordinate che rappresentano f con f , è rappresentato dalla matrice Jacobiana T := ∂f (! x).
Pertanto, scelto comunque x in un intorno N (! x) ⊂ M sufficientemente piccolo, in tali coordinate risulta
f (x) ≡ f (!
x + χ) = f (! x)χ + |χ|κ(f ) (!
x) + ∂f (! x, χ) (1.3)
|χ|
! può essere pensato come χ = εν con ν arbitrario finito e
x, χ) −→ 0 . L’incremento χ = x − x
con κ(f ) (!
0
0 < ε ≪ 1 . A partire da questi, sulla varietà V = Rn resta definito il corrispondente vettore ν .
A tale scopo, indicate con h(x) le coordinate su M , e detto X := (h(x) )∗ l’isomorfismo da esse indotto fra Tx̂ M ed Rn , innanzi tutto
si considera quel vettore w ∈ h(x) (U ) ⊆ Rn per il quale (si veda: Appendice A.4 N.B.1.4.16) x = h(x) (x) =: h(x) (! x) + εw = x̄ + εw,
e poi, a partire da questo, si definisce su Tx̂ M il vettore ν = X −1 w. Esso contiene la curva γ : N (0) ⊂ R → M che, al variare di ε ,
resta definita dalla γ(ε) := h−1 (h (!
(x) (x)
! , contiene x , ed è tale che γ̇(0) = ν , e quindi [γ]x̂ = ν che,
x) + εw) . Tale curva è basata in x
tuttavia, dipende dal sistema di coordinate scelto su M .
Inoltre, ciò giustifica l’espressione
0 ' 1 (f(!x + εν) − f(! x)) d ''
'
h(x) Lν f ' = lim ≡ ' f(!
x + εν) = f∗ (! x)ν
x̂ ε→0 ε dε ε=0
che vuole interpretare la
' d '' '
' '
Lν f ' = ' (f ◦ γ) = f∗ ' ν
x̂ dε ε=0 x̂
ove γ : ε ∈ R &→ γ(ε) ∈ M è una curva tale che γ(0) = x ! e γ̇(0) = ν .
(• ) Si assuma che la (1.1) abbia campo v : M → T M almeno C 2 (D), e che sia nota la sua soluzione t &→ x =
!0 ) uscente da un certo x
φ(t, t0 , x !0 ∈ D ⊆ M; l’istante t0 è arbitrario ma fissato, per esempio t0 = 0 . Detta
t &→ φ(t, t0 , x0 ) la soluzione uscente da un qualunque x0 ∈ N (! x0 ) la regolarità del campo v impone che sulla
varietà V ≡ Rn esista una funzione (vettoriale) χ = χ(t, t0 , x0 , x
!0 ) soluzione del seguente problema, ancora non
lineare e sostanzialmente equivalente al problema (1.1), detto
75
76 Capitolo 2. Sistemi differenziali lineari
!0 ))
Problema alle variazioni (relativo alla φ(t, t0 , x
(
!0 ))χ + |χ| κ(v) (t, χ),
χ̇ = v∗ (φ(t, t0 , x
(1.4)
χ0 = χ(t0 ) arbitrario in V ,
ed è
κ(v) (t, χ) ∈ C 0 (N (t0 ) × N (0)) con N (t0 ) × N (0) ⊂ R × V
|χ|
κ(v) (t, χ) −→ 0 uniformemente per t0 ≤ t ≤ τ < ∞.
0
(• ) Il teorema di dipendenza continua (si veda: Teorema 1.3.2 Cap. I) afferma che χ : t &→ χ(t) è definita su
tutto [t0 , τ ], e che per χ0 −→ 0 anche χ(t) −→ 0 in modo uniforme sui compatti rispetto a t, (risulta cioè
limχ0 →0 supt∈[t0 ,τ ] |χ(t)| = 0 ).
(• ) Si ponga χ0 = x0 − x !0 =: εu0 con u0 ∈ Tx̂0 Rn arbitrario finito ed ε > 0 e, per ciascun t ∈ JM , sulla
varietà V = R si consideri l’operatore
n
Sotto l’ipotesi v ∈ C 2 (D), il teorema di regolarità, (si veda: Teorema 1.3.2 Cap. I), non solo dichiara la φ
derivabile rispetto a x0 , e quindi dichiara lecita la
! 0 + εu0 ) = φ(t, t0 , x
φ(t, t0 , x !0 ) + ∂φ(t, t0 , x
!0 )εu0 + |εu0 |κ(φ̂) (t, ε) ,
con κ(φ̂) (t, ε) = o(|ε|) e per arbitrari t0 , u0 , ma in più individua nella soluzione u : t &→ u(t) del problema (1.5)
la funzione
!0 ) u0
u(t) = φ∗ (t, t0 , x o, in coordinate, ! 0 ) u0 .
u(t) = ∂φ∗ (t, t0 , x
Nota 2.1.1 Nel caso più generale nel quale la (1.1) ha campo v = v(t, x; σ) non autonomo, dipendente da un ulteriore parametro
σ ∈ G con dim G = ℓ , e sufficientemente regolare rispetto alle sue tre variabili, e chiamata t &→ φ0 (t) := φ(t, t0 , x !0 , 0) la soluzione
nota di ẋ = v(t, x; 0) , si ricava che la t &→ u(t) soddisfacente la (1.6) e relativa a una variazione di condizioni iniziali per esempio date
x0 , 0) &→ (x0 , σ0 ) ≡ (x0 , ε1ℓ ) , è la soluzione della
da (!
⎧
⎪
⎨ u̇ = T (t)u + b(t) , T (t) : = v∗ (t, φ0 (t); 0) ,
con: b(t) : = vσ (t, φ0 (t); 0) 1ℓ , (1.7)
⎪
⎩ u(t0 ) = u0 ∈ V ,
φ (t) : = φ(t, t , x
0 0 0! ).
Notazione
M. Lo Schiavo
2.1. Il procedimento di linearizzazione 77
in base alla teoria generale, la sua soluzione uscente dalle condizioni iniziali Φ0 = 1I n+ℓ è riassunta dalla
) *' ) *
∂x φ ∂σ φ '' !∗ φ
φ !σ
!0 ; σ
Φ(t, t0 , x !0 ) = ≡ .
∂x σ ∂σ σ '(φ̂,σ̂) 0 1I ℓ
!∗ , φ
ovvero: le (φ !σ ) sono soluzioni dell’equazione
(
φ̇∗ = v∗ φ∗ (n × n), con condizioni iniziali φ∗ |0 = 1I n ;
φ̇σ = v∗ φσ + vσ (n × ℓ), con condizioni iniziali φσ |0 = 0.
!0 = 0 e x
Di speciale interesse è il caso in cui σ !0 =: x0 è arbitrario. Per esso si ha
) *' ) *
φ(t, t0 , x !0 ) ''
!0 ; σ φ0 (t, t0 , x0 )
' =:
!0
σ σ̂0 =0 0
x̂0 =x0
In tal caso, la u(t) è soluzione del problema “all’ordine 1 ” dato dalla (1.7).
Queste considerazioni permettono di sviluppare (si veda: Cap. VI) molti e diversi metodi di risoluzione approssimata dei sistemi
nonlineari il cui campo dipende da un parametro σ che, rispetto agli altri coefficienti presenti, possa essere considerato sufficientemente
“piccolo”. In tali metodi il teorema appena ricordato è solo uno (e non il migliore) dei teoremi che permettono di giustificare le varie
tipologie di soluzioni approssimate. ◃
(• ) Sia xe ∈ M tale che v(xe ) = 0 . La quiete t &→ φ(t, t0 , xe ) ≡ xe nel punto di equilibrio xe (supposto isolato)
è allora la soluzione della (1.1) uscente da x0 = xe .
Contrariamente al caso generale, nel quale all’operatore T (t) resta associata (in coordinate) una matrice T di
dimensione (n × n), generalmente dipendente dal tempo, individuata dalla:
) i *
∂v
∂v(φ(t)) =: T (t) ∈ L(Rn ), T i j (t) = (t) ,
∂xj
se la soluzione di riferimento è la quiete l’operatore T (t) := vx (φ(t, t0 , xe )) risulta indipendente dal tempo, e lo
stesso accade a ogni sua matrice ∂v(xe ) =: T .
Sotto tali ipotesi, il sistema (1.5) (in coordinate) risulta allora un sistema lineare a coefficienti costanti:
(
u̇ = T u , T = ∂v(xe ) ∈ L(Rn )
(1.8)
u(t0 ) = u0 , arbitrario in Rn .
È quest’ultimo il sistema del quale, nel paragrafo seguente, si cercheranno i diagrammi di fase nell’intorno di
xe .
(• ) Quanto detto assicura che per tempi limitati ogni orbita del sistema (1.5) (o del sistema (1.8) se vicino a un
equilibrio) presa singolarmente è prossima a quella del sistema non lineare (1.4) e lo è in misura tanto maggiore
quanto più lo è stata in t = t0 e secondo un scarto che dipende dalla durata dell’intervallo dopo il quale avviene il
confronto.
È ben vero che questo non implica che il diagramma nel suo insieme del sistema lineare sia “simile” al
diagramma del sistema nonlineare, anche se solo vicino al punto di equilibrio xe . Tuttavia come si vedrà
(teorema di Hartman e Grobman) ciò accade, pur se al costo di accettare somiglianze non più che topologiche fra
certe classi di diagrammi per il resto diversi, nel caso in cui il punto di equilibrio sia un
Punto Iperbolico := un punto di equilibrio xe ∈ M tale che le parti reali degli autovalori (λ1 , . . . , λn ) dell’o-
peratore T := v∗ (xe ) siano tutte non nulle.
In modo analogo si definiranno i punti iperbolici per le mappe f : Rn → Rm dei sistemi dinamici discreti; per essi andranno però
tenute presenti le relative modifiche: per esempio per una mappa f ∈ L(Rn ) un punto è unito quando verifica la xe = f xe . Un tale
punto è allora detto iperbolico se accade che |λi | ̸= 1, ∀i , e ciò perché in questo caso la proprietà di iperbolicità si riconosce dallo lo
studio degli autovalori di f e non di quelli del suo esponenziale, visto che per una mappa l’evoluzione è governata dalla sua tangente,
mentre per un flusso dalla exp(tv∗ (xe )) (si veda: Cap.V).
(• ) Fortunatamente i casi di iperbolicità sono generici, (si veda: Cap.IV), e quindi lo studio del sistema lineare
(1.8) ha comunque un rilevante interesse.
Nota Dato che v(xe ) = 0 , l’operazione di linearizzazione (non quello di sviluppo di Taylor) nell’intorno di un
punto di equilibrio xe non dipende dal particolare sistema di coordinate scelto su M nel' seguente senso.
∂v '
Se, in un sistema di coordinate, a v∗ (xe ) corrisponde una certa matrice: ∂v(xe ) := ∂x x
allora, in un nuovo
e
sistema
' di coordinate ξ = ϕ(x) nel quale 'l’equazione (non lineare) equivalente a quella data è ξ̇ = ν(ξ) :=
∂ϕ v 'x=ϕ−1 (ξ), la matrice ∂ν(ξe ) ≡ ∂ν '
∂ξ ξe che regola l’evoluzione linearizzata nelle nuove coordinate è la
∂ϕ-trasformata della ∂v :
K L ''
∂ν(ξe ) = ∂ϕ ∂v (∂ϕ)−1 ' −1 xe =ϕ (ξe )
ed è quindi unico l’operatore lineare v∗ che assegna l’avanzamento locale nell’intorno di un equilibrio, come si
poteva, d’altra parte, leggere direttamente dalla (1.5).
[Questa precisazione è necessaria dato che il cambio di coordinate avviene sulla varietà e non solo nello spazio V . In questo secondo
caso infatti, e cioè nel caso in cui v∗ rappresentasse una qualunque assegnata trasformazione lineare, l’osservazione sarebbe conseguenza
dell’essere questa lineare (si veda: Appendice A.4, N.B.1.4.15)].
Se invece il campo nel punto non è nullo, la variazionale risente anche della curvatura delle linee ϕ = cost, (a
meno che la ϕ sia lineare).
Dimostrazione
Dalla ν(ξ) := ∂x ϕ v ◦ ϕ−1 (ξ), e indicate rispettivamente con ∂x e con ∂ξ le operazioni di derivazione
nelle coordinate x e ξ , si ricava
'
'
∂ξ ν(ξe ) = ∂x (∂x ϕ v) ' · ∂ξ ϕ−1 (ξe )
x=ϕ−1 (ξe )
'
'
= (∂x2 ϕ v + ∂x ϕ ∂x v) ' · ∂ξ ϕ−1 (ξe )
x=ϕ−1 (ξe )
'
'
= ∂x ϕ ∂x v ∂x ϕ−1 ' −1 x=ϕ (ξe )
' '
giacché v(xe ) = v(ϕ−1 (ξe )) = 0 e 1 = ∂x ϕ 'x · ∂ξ ϕ−1 'ϕ(x ) . "
e e
Si osservi che per la generalità del risultato l’essere nullo il campo v(xe ) è condizione necessaria, come si può
vedere nel seguente
M. Lo Schiavo
2.1. Il procedimento di linearizzazione 79
Esempio L’equazione ) * ) * ) x *
ẋ −y(x2 + y 2 ) v (x, y)
= ≡ , x 0 , y0 ∈ R
ẏ +x(x2 + y 2 ) vy (x, y)
) x* ) * ) *
u x x̄
ha linearizzata in (x̄, ȳ) ̸= (0, 0) data sul vettore := − dalla:
uy y ȳ
) x* ) * ) x*
u̇ −2x̄ȳ −x̄2 − 3ȳ 2 u
u̇ ≡ y = 2 2 ≡ v∗ (x̄, ȳ)u .
u̇ 3x̄ + ȳ 2x̄ȳ uy
) *
cos θ −ρ sin θ
Si osserva che, essendo ∇ϕ−1 = , e quindi
sin θ ρ cos θ
) * ) 2 *
0 −ρ sin θ −ρ3 cos θ
∇2 ϕ−1 = ,
ρ2 ρ2 cos θ 3
−ρ sin θ
fra i due campi ∂v e ∇ν sussiste il legame su indicato:
) ) * * ) ) * *
0 0 0
∇2 ϕ−1 2 · ∂ϕ + ∇ϕ−1 · · ∂ϕ
ρ x̄,ȳ
2ρ̄ 0 x̄,ȳ
) * ) *
0 −(x̄2 + ȳ 2 ) −2x̄ȳ −2ȳ 2
= + .
x̄2 + ȳ 2 0 2x̄2 2x̄ȳ
#
Prima di iniziare lo studio sistematico dei sistemi lineari a coefficienti costanti verrà qui brevemente accennato
uno dei più importanti esempi di linearizzazione: quella che si esegue nell’intorno di una posizione di equilibrio rego-
lare di un sistema meccanico conservativo, e cioè a vincoli indipendenti dal tempo e forze posizionali a potenziale.
Memento 2.1.1 Una funzione f : Rn → R si dice convessa su A ⊆ Rn convesso quando per ogni x, y ∈ A e
α ∈ [0, 1] accade che
f (x + α(y − x)) ≤ f (x) + α (f (y) − f (x)) .
Se f è di classe C 2 su A ne segue che f (x) ≥ f (y)+∂f (y) (x−y) e quindi la forma B := 12 (y−x)T ∂ 2 f (x)(y−x)
è definita positiva.
Sia G la varietà delle configurazioni di un sistema lagrangiano generalizzato (vedi oltre) di dimensione n, e
sia (U, h(q) ) un sistema di coordinate (o carta) di classe C k locale nell’intorno di un qualche punto q0 in G ,
dal quale quest’ultima è resa localmente omeomorfa ad Rn . Sia V ≡ Tq0 G il suo tangente. Sia M la varietà
delle fasi (fibrato tangente di G ) di dimensione 2n del sistema. In corrispondenza alle coordinate scelte, nello
spazio V resta individuata la base naturale e = {ei }i=1,...,n dei vettori tangenti alle curve coordinate, e questa
(ad esempio) rende V isomorfo a Rn . Lo spazio V ≡ Tq0 G , inoltre, sia reso metrico da un certo prodotto scalare
reale ⟨ ·, · ⟩ : V2 → R ∪ {0} , e quindi tale che risulta definita per ciascuna coppia x, y ∈ V la forma bilineare
simmetrica K : V2 → R (o tensore della metrica) individuata da
K (x, y) := ⟨ x, y ⟩ = ⟨ y, x ⟩ ≡ xi ⟨ ei , ej ⟩y j ,
⟨ x, αy ⟩ = α⟨ x, y ⟩, ⟨ x, x ⟩ > 0 se x ̸= 0 ,
della quale sia κ hk := ⟨ eh , ek ⟩ la matrice (in quella base) e κ hk la sua inversa: κ jk κ kh = κ hk κ kj = δjh .
Si denoti con (q, q̇) il vettore che in R2n rappresenta (in tal modo, localmente, e in queste coordinate) il punto
(q, q̇) ∈ M.
Sia L : R × M → R una funzione di classe C 2 , e si continui a indicare con L = L (t, q, q̇) : R × R2n → R
la sua rappresentazione in coordinate.
Il sistema si dice Lagrangiano generalizzato, e la L si dice Lagrangiana del sistema quando ciascuna delle
funzioni q̇ &→ L (t, q, q̇) è convessa su Rn , e quando le equazioni del moto del sistema, minimizzando l’integrale
.t
d’azione a estremi fissati: t0 L (τ, q(τ ), q̇(τ )) dτ , risultano le
d ∂L ∂L
− = 0 h = 1, . . . , n . (1.9)
dt ∂ q̇ h ∂ qh
Certo ogni sistema meccanico a potenziale è un sistema Lagrangiano generalizzato con la L = T − V , ove la
V = V (t, q) è la sua energia potenziale (generalizzata), e T = T2 + T1 + T0 è la sua energia cinetica, con Ti
forme di grado i = 0, 1, 2 rispetto alle q̇ e coefficienti dipendenti da (t, q), e con T2 definita positiva.
N.B. 2.1.2 Nel caso qui in esame il sistema è reale, meccanico, a vincoli bilaterali olonomi, regolari, perfetti,
indipendenti dal tempo, e forze strettamente conservative. Come tale, sussistono i seguenti fatti.
sono rispettivamente le componenti lagrangiane Qh delle forze, e la matrice reale simmetrica a della forma
quadratica T2 dell’energia cinetica T ;
⟨ T2 x, y ⟩ = xT AT κ ȳ ed ⟨ x, T2∗ y ⟩ = xT κ Ā∗ ȳ ,
a = AT κ = κ̄ Ā = κ A, e quindi A = κ −1 a .
La scelta più comune è certo κ = 1I .
♦
∂L
z : (t, q, q̇) ∈ R1+2n &→ (t, q, q̇) ∈ Rn ,
∂ q̇
si definiscono:
M. Lo Schiavo
2.1. Il procedimento di linearizzazione 81
Momenti Coniugati delle q := le variabili p := (p1 , . . . , pn ) ∈ Rn (che nella riduzione d’ordine delle equazioni
(1.9) verranno considerate ulteriori variabili, indipendenti dalle q ) definite dalla
∂L
pk = pk (t, q, q̇) ≡ (t, q, q̇), k = 1, . . . , n .
∂ q̇ k
Il fatto che la L sia funzione convessa delle q̇ assicura che è anche possibile invertire le p = z(t, q, q̇) rispetto
alle q̇ . In altre parole, il considerare i momenti coniugati come variabili alla stessa stregua delle (q e delle) q̇
permette di definire (localmente) una trasformazione di coordinate ϕ : x &→ ξ = ϕ (x) espressa da
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
t t t
⎝q ⎠ ϕ
&−→ ⎝q ⎠ := ⎝ q ⎠.
q̇ p z(t, q, q̇)
È possibile dare una forma più espressiva alle (1.11). Per farlo si inizi con il notare che le funzioni q̇ = ζ(t, q, p)
possono essere usate per definire la
Funzione Hamiltoniana H : R × TG → R definita dalla:
+ ,
∂L k
H (t, q, p) := q̇ − L = p · ζ(t, q, p) − L (t, q, ζ(t, q, p)). (1.12)
∂ q̇ k q̇=ζ(t,q,p)
N.B. 2.1.3 Sulla funzione H non è difficile riconoscere la validità dei seguenti punti.
• tramite queste ultime identità è possibile dare all’equazione (1.11) una forma più interessante. Essa infatti si
trasforma nelle
Equazioni di Hamilton: ⎧
⎪ k ∂H
⎪
⎨ q̇ = + (t, q, p)
∂pk
k = 1, . . . , n ; (1.14)
⎪
⎪ ∂H
⎩ ṗk = − (t, q, p)
∂q k
∂Π
• le posizioni di equilibrio per il sistema lagrangiano: (qe , q̇ = 0) ∈ M con (qe ) = 0 , si trasformano nelle
∂q
particolari posizioni di equilibrio: (qe , p = 0) per quello Hamiltoniano.
• nel particolare caso in esame, e facendo uso della (1.12), la funzione Hamiltoniana è data da
U2 (q, p) + Π(q) ,
H (q, p) : = T dove si è posto
1 1
U2 (q, p) : = (a−1 )hk ph pk =: ⟨ p, T −1 p ⟩ .
T 2
2 2 ♦
o anche (se κ ̸= 1I ) 0 1
q̇ k = a−1 kj pj = 7A−1 8ki κij pj = 7A−1 8ki pi
) *
∂ 1 k 7 −1 8l m
ṗi = −κih p κ kl A m
p + Π
∂q h 2
M. Lo Schiavo
2.1. Il procedimento di linearizzazione 83
Le equazioni variazionali delle equazioni di Hamilton (1.14), di centro la quiete in ue := (qe , 0), sono le
In definitiva, per un sistema meccanico come quello del caso in esame la variazionale in (qe , 0) del sistema
Hamiltoniano è data da
M ) * ) *) *
q̇ = a−1
e p q̇ 0 A−1e q
o anche
ṗ = −κBe q κ−1 ṗ = −Be 0 κ−1 p
nelle quali A−1
e è definita positiva e Be è simmetrica, e il cui determinante vale Det (A−1
e Be ). (L’ipotesi che il
punto di equilibrio
) sia regolare
* ) * ) * consiste nell’assumere che,
) inoltre,
* Det B ̸
= 0 ).
q qe r r(t)
κ−1 p = 0 + s e cioè con u(t) = s(t) ∈ R la (1.16) fornisce
2n
Posto
(
ṙ = A−1e s
(1.17)
ṡ = −Be r
ovvero l’equivalente
Ae r̈ + Be r = 0 . (1.18)
Nota 2.1.2 Lo stesso risultato si sarebbe potuto ricavare anche direttamente dalle equazioni di Lagrange, sempre nel caso ∂L /∂ q̇ =
a (q)q̇ , e quindi con (qe , 0) che annulla sia il campo dell’equazione di Lagrange che quello dell’equazione di Hamilton.
A questo scopo si consideri che le equazioni
) *
d 1 T
dt
a
(q)q̇ − ∂q
2
q̇ a
(q)q̇ = −∂q Π(q)
divengono
a (q)q̈ = f(q, q̇) := −∂q a (q)q̇q̇ + 12 q̇ ∂q a (q)q̇ − ∂q Π(q)
e cioè
fi = −
a
∂ ij h j 1
q̇ q̇ + q̇ h
a
∂ hk k
q̇ −
∂Π
.
∂q h 2 ∂q i ∂q i
Nell’ipotesi che f sia regolare in G ⊆ R2n , e cioè che sia valido lo sviluppo:
f(x, y) = f(! ! + ∂x f(!
x, y) !
x, y)(x −x! ) + ∂y f(! !
x, y)(y !
− y)
1 2 1 2
+ (x − x ! )∂xx f(! !
x, y)(x −x ! ) + (y − y)∂ ! yy f(! !
x, y)(y !
− y)
2 2
2
+ (x − x! )∂xy f(! !
x, y)(y ! + o(x, y, x
− y) ! , y)
! , ove
! , y)
o(x, y, x !
lim = 0, con ! , y)
(x, y, x ! )2 + (y − y)
! := (x − x ! 2 ,
x→x̂ ! , y)
d(x, y, x !
y →ŷ
È chiaro che le coordinate r non sono le migliori per risolvere il sistema Ae r̈ = −Be r . Infatti, in generale,
la matrice A−1 e Be non solo non è diagonale, ma nemmeno simmetrica, (ovvero corrispondente a un operatore
⟨ ·, · ⟩ -autoaggiunto). È quindi giustificata la ricerca di una trasformazione di coordinate ϱ := P −1 r che possa
ridurre il sistema
r̈ = − A−1 e Be r (1.19)
in uno più semplice, e in particolare in un sistema disaccoppiato:
ϱ̈j + λ(j) ϱj = 0, j = i, . . . , n. (1.20)
Sostituendo direttamente r = Pϱ nella (1.18) si ricava la (1.20) purché esista P −1 tale che il prodotto
−1 −1
P Ae Be P dia luogo a una matrice diagonale.
N.B. 2.1.5 Lo stesso risultato si ottiene tenendo presente che sia il sistema di equazioni differenziali che la
trasformazione di coordinate sono entrambi lineari (si veda: Appendice A.4 N.B.1.4.12). In effetti il sistema
) * ) * ) *) *
ṙ s 0 1I r
= =:
ṡ −A−1e B e r −A −1
e B e 0 s
può essere trasformato, preservandone la struttura di sistema del secondo ordine, mediante la
) * ) −1 *) *
ϱ P 0 r
:=
σ 0 P −1 s
nell’equivalente sistema ) * ) −1 *) *) *) *
ϱ̇ P 0 0 1I P 0 ϱ
=
σ̇ 0 P −1 −A−1
e B e 0 0 P σ
) −1 *) *) *
P 0 0 P ϱ
=
0 P −1 −A−1
e B e P 0 σ
) *) *
0 1I ϱ
= .
−P −1 A−1
e B e P 0 σ
♦
Proposizione 2.1.1 L’operatore Te−1 π e individuato dalla {e} -matrice A−1e Be è diagonalizzabile.
Esiste cioè (almeno) un operatore non singolare P , avente e -matrice P , tale che P −1 A−1
e Be P = Λ con Λ
una matrice diagonale.
M. Lo Schiavo
2.1. Il procedimento di linearizzazione 85
Dimostrazione
Per semplicità di notazione, il prodotto ⟨ ·, · ⟩ verrà supposto reale, e la base e := {ei }i=1,...,n ortonormale
rispetto a esso: ⟨ ei , ej ⟩ = κ ij = κ ij = δij . In tal modo si può confondere la matrice A con la a , e affermare
che se T2 è simmetrico allora lo è anche la sua {e} -matrice A. (Il caso: κ̄ = κ T ̸= 1I , d’altra parte, è poco
∂2L ∂2Π
dissimile dato che la simmetria di e di implica l’autoaggiunzione sia di Te che di π e (entrambi reali).
∂ q̇∂ q̇ ∂q∂q
−1/2
(• ) Esiste Ae , simmetrica reale definita positiva dato che tale è Ae .
(• ) L’equazione
P −1 A−1
e Be P ≡ P
−1 −1/2
Ae (A−1/2
e Be A−1/2
e )A1/2
e P = Λ
−1/2 −1/2
ammette soluzione rispetto all’incognita P . Infatti la matrice Ae Be Ae è simmetrica e, come tale, corri-
sponde a un operatore autoaggiunto e quindi normale. È noto allora che esiste almeno un sistema ortonormale di
!,
suoi autovettori abbastanza ricco da formare una base per lo spazio Rn . Ciò implica l’esistenza di un operatore P
avente e -matrice P! =: Ae P , reale, ortogonale (o, se occorre, κ -ortogonale) e tale che
1/2
P! −1 A−1/2
e Be A−1/2
e P! = Λ , con Λ diagonale.
1/2 1/2
(• ) L’ortogonalità della matrice P! = Ae P e la simmetria di Ae permettono di ricavare l’espressione
P T A1/2
e = P! T = P! −1 = P −1 A−1/2
e e quindi P −1 = P T Ae .
Ne segue la P T Ae P = 1I o anche Te = P −∗ P −1 . Ciò implica il fatto che i versori della nuova base {ϵi :=
Pei }i=1,...,n , le cui e -componenti sono ordinatamente uguali alle colonne della matrice P , sono ( κ -) ortonor-
(e)
mali rispetto al prodotto scalare definito dall’energia cinetica T ≡ T2 . Valgono cioè le
(P T Ae P )ij = δij ≡ κ ij = ⟨ ϵi , ϵj ⟩ T e
(e)
:= ⟨ ϵi , Te ϵj ⟩ = T2 (ϵi , ϵj )
giacché la Te = P −∗ P −1 implica
⟨ ϵi , Te ϵj ⟩ = ⟨ ϵi , P −∗ P −1 ϵj ⟩ = ⟨ P −1 ϵi , P −1 ϵj ⟩ = ⟨ ei , ej ⟩.
Si nota in particolare che l’operatore P , rappresentato in base {ei }i=1,...,n dalla matrice P , non è né 1I -ortogonale,
né Te -ortogonale, perché trasforma la base 1I -ortonormale: e in quella Te -ortonormale: ε ≡ {ϵj }j=1,...,n .
(• ) Allo stesso modo si riconosce che il cambio di base rende simultaneamente diagonali i prodotti
1I = P −1 P = P T Ae P ≡ P T P α e e Λ = P T Be P ≡ P T P β e ,
(e) (e)
e quindi entrambe le forme quadratiche T2 (q̇, q̇) e Π2 (q, q). Infatti, esprimendo le due forme nelle nuove
coordinate: ξ := P −1 x, si ha:
(e)
⟨ x, Te y ⟩ = xT Ae y = xT P −T P −1 y = ξ T η ≡ 2T2 (x, y)
⟨ x, π e y ⟩ = xT Be y = xT P −T ΛP −1 y = ξ T Λη ≡ 2Π2 (x, y),
(e)
(• ) Indicando con {λh }h=1,...,n gli autovalori dell’operatore Te−1 π e , si ha che Λih = δhi λ(h) , e si osservi che
essi sono generalmente diversi da quelli sia di Te sia di π e . Tali autovalori {λh }h=1,...,n possono essere determinati
come radici dell’equazione secolare:
Det (Be − λAe ) = 0 ,
(• ) La nuova base {ϵi = Pei }i=1,...,n è composta da autovettori dell’operatore Te−1 π e in quanto la A−1e Be
viene diagonalizzata dalla trasformazione P . D’altra parte si può controllare anche direttamente, per esempio
lungo ej , che:
−1 j j
(A−1 j h k j m j
e Be ϵi ) = Ae h Bk Pi = Pm Λi = λ(i) Pi = (λ(i) ϵi ) .
Essa pertanto è anche tale che Be ϵ = λAe ϵ. Si osservi che la base 1I -ortonormale fatta con gli autovettori di Te
di regola non coincide né con la base degli autovettori di Te
−1/2
π e Te−1/2 (che dipende da π e ), né con la nuova
base {ϵi = Pei }i=1,...,n che generalmente non è nemmeno 1I -ortonormale. Queste ultime due sono a loro volta
correlate dal fatto che la prima è A1/2 volte la seconda. D’altra parte, dalla Be ϵ = λAe ϵ segue che se gli ϵi
fossero autovettori di Te dovrebbero esserlo anche di π e che è invece del tutto indipendente dalla Te . "
Siccome la (1.20) è disaccoppiata, si vede facilmente che lungo ciascun autovettore ϵj la j -ma componente della
soluzione ϱ = ϱ(t), e cioè la t &→ ϱj (t) ha la forma
B B
c1 exp |λj | t + c2 exp − |λj | t oppure la forma
/ /
c3 cos λj t + c4 sin λj t
a seconda che λ sia negativo oppure positivo. Infatti, se fosse nullo si avrebbe Rank ∂v(qe , 0) < n contrariamente
all’ipotesi che (qe , 0) sia di equilibrio regolare, e cioè che Det Be ̸= 0 il che implica Det ∂v(qe , 0) = Det (A−1
e Be ) ̸=
0.
Infine, il teorema degli assi principali (ovvero: la Te -autoaggiunzione dell’operatore Te−1 π e ) assicura che gli
{ϵj }j=1,...,n sono in numero sufficiente a formare una base, con ciò escludendo la possibilità, anche/nel caso in cui
un qualche autovalore
/ λj avesse molteplicità maggiore di uno, di soluzioni del tipo: t &→ p(t) exp |λj | t oppure
t &→ p(t) cos λj t con p(t) un polinomio in t.
Nota 2.1.3 Si osservi che pur non essendo autovalori di Be le λ ne hanno la stessa segnatura. Ciò permette
di affermare che se la forma xT Be y è definita positiva, e quindi il punto (qe , 0) è di minimo per l’energia
potenziale Π(q), allora le λi sono tutte positive, dando cosı̀ luogo a soluzioni oscillanti intorno all’origine. Si
parla in tal caso di piccole
√ oscillazioni intorno alla posizione di equilibrio, descritte dalle coordinate normali: ϱi ,
con pulsazioni proprie λi .
Si noti però che non è stato dimostrato che il comportamento delle t &→ ϱ(t), e quindi delle t &→ r(t) = P ϱ(t)
oscillanti intorno all’origine “bene approssima” il comportamento delle t &→ q(t). Ciò si può fare solo parzialmente
e usando il “Secondo metodo di Liapunov” (si veda: Cap.IV) nella misura in cui si mostra che sotto le ipotesi fatte,
e in particolare quella sulla conservatività del sistema, le q = q(t) rimangono indefinitamente limitate in un intorno
dell’equilibrio e senza contrarre i volumi nello spazio delle fasi, anzi con traiettorie che appartengono alle superfici
H = cost. Ad esempio non si riesce a dire nulla di definitivo sui periodi “veri” delle oscillazioni, i quali restano
dipendenti dai termini superiori dello sviluppo in serie del campo; né si può dire molto nel caso, generale, non
conservativo. ◃
• (v) i modi normali ϱi , legati alle coordinate rj dalle: r = P ϱ, e le t &→ r(t), a loro volta definite
(localmente) dalla q = qe + r .
M. Lo Schiavo
2.1. Il procedimento di linearizzazione 87
Si considerino due pendoli fisici di uguale lunghezza l e stesso punto di sospensione, vincolati senza attri-
to
0 a oscillare su un piano verticale x, z1, (z verticale ascendente), e accoppiati da una sollecitazione elastica
−−→ −−→ ⃗ −−→ −−→
p1 p2 , p2 p1 , f12 = k p1 p2 , f⃗21 = −f⃗12 , e quindi V ≡ Πel = k|p1 p2 |2 /2 .
z
µ1
µ2
Date le ⎛ ⎞ ⎛ ⎞
l sin θ2 l sin θ1
−−→ −−→
op2 = ⎝ 0 ⎠ op1 = ⎝ 0 ⎠
−l cos θ2 −l cos θ1
si riconoscono nelle θ delle convenienti variabili lagrangiane q := (θ1 , θ2 ). Di conseguenza, le energie cinetica e
potenziale del sistema risultano espresse da:
1 1 1 1
T = m1 (ẋ21 + ż12 ) + m2 (ẋ22 + ż22 ) = m1 l2 θ̇12 + m2 l2 θ̇22
2 2 2 2
1 1
Π = c + m1 gz1 + m2 gz2 + k(x2 − x1 ) + k(z2 − z1 )2
2
2 2
= −g(m1 l cos θ1 + m2 l cos θ2 ) − kl2 cos(θ1 − θ2 ).
Se ne traggono le @ A
) *
∂Π/∂θ1 gm1 l sin θ1 + kl2 sin(θ1 − θ2 )
= ,
∂Π/∂θ2 gm2 l sin θ2 − kl2 sin(θ1 − θ2 )
e quindi le equazioni di Lagrange
⎧
⎪ d ∂T ∂T
⎪
⎨ dt − = m1 lθ̈1 = −gm1 l sin θ1 − kl2 sin(θ1 − θ2 )
∂ θ̇1 ∂θ1
⎪
⎪ d ∂T ∂T
⎩ − = m2 lθ̈2 = −gm2 l sin θ2 + kl2 sin(θ1 − θ2 )
dt ∂ θ̇2 ∂θ2
Si riconosce
7 innanzi tutto
8 che la posizione ce := (θ1 = 0, θ2 = 0) è di equilibrio per il sistema. Poi, essendo la
matrice B = ∂ 2 Π/∂θi ∂θj data da:
@ A
gm1 l cos θ1 + kl2 cos(θ1 − θ2 ) −kl2 cos(θ1 − θ2 )
B=
−kl2 cos(θ1 − θ2 ) gm2 l cos θ2 + kl2 cos(θ1 − θ2 )
@ A
gm1 l + kl2 −kl2
si vede che la posizione è anche di equilibrio stabile, giacché la matrice: Be = è
−kl2 gm2 l + kl2
definita positiva. Infine si ricavano le forme ridotte dell’energia cinetica e potenziale ancora nell’intorno della
posizione θ1 = θ2 = 0 :
(e) 17 8
Π2 := gm1 lθ12 + gm2 lθ22 + kl2 (θ1 − θ2 )2
2
(e) 10 1
T2 := m1 l2 θ̇12 + m2 l2 θ̇22 .
2
In definitiva, e ponendo per semplicità m1 = m2 = l = g = 1 , si ha
) *
1+k −k
Be = ed Ae = 1I .
−k 1+k
che fornisce λ1 = 1 , λ2 = 1 + 2k ; e quindi le equazioni per determinare gli autospazi span{ϵi } divengono
rispettivamente
(1 + k)α1 − kβ1 = α1 , e (1 + k)α2 − kβ2 = (1 + 2k)α2
) * ) *
1 1
da cui: ϵ&1 = , ed ϵ&2 = .
1 −1
Affinché la matrice A1/2 P sia ortogonale, questi vettori vanno normalizzati secondo la ⟨ ϵi , ϵj ⟩ Te = δij e cioè
√
in questo caso,
) dato che
* qui la A è diagonale, moltiplicati per 1/ 2 . Di conseguenza la matrice di trasformazione
1 1
è P = √12 che, di nuovo giacché in questo semplice esempio la matrice Ae vale 1I , risulta qui anche
1 −1
ortogonale.
Le coordinate normali ϱ sono quelle per le quali
) * ) * ) * ) e* ) * ) * ) *
θ1 0 q1 q1 ϱ1 1 1 1 1
− ≡ − e =P = √ ϱ1 (t) + √ ϱ2 (t) ,
θ2 0 q2 q2 ϱ2 2 1 2 −1
ed evolvono secondo le (
ϱ̈1 + ϱ1 = 0
ϱ̈2 + (1 + 2k)ϱ2 = 0
• (i) condizioni
) * iniziali tali
) * che ϱ2 (t) = 0 , ovvero ϱ2 (0) = ϱ̇2 (0) = 0 .
θ1 1 1
Si ha = √ ϱ1 e cioè i pendoli oscillano, in fase, con pulsazione ω1 = 1 , e la forza elastica non
θ2 2 1
lavora;
) * ) * ) * ) *
θ1 (0) 0 θ̇1 (0) v
• (iii) condizioni iniziali = , = , che la
θ2 (0) 0 θ̇2 (0) 0
) * ) * ) * ) * ) *
1 1 1 ϱ1 (0) 0 ϱ̇1 (0) v 1
P −1 =√ trasforma nelle: = , = √ . Se ne ricava:
2 1 −1 ϱ 2 (0) 0 ϱ̇ 2 (0) 2 1
) * @ √v sin t
A
ϱ1 (t) 2 √
= √ v sin( 1 + 2kt) .
ϱ2 (t) 2(1+2k)
√
Con l’ipotesi k << 1 , e la ben nota approssimazione: 1 + 2k ≃ (1 + k), questa fornisce ϱ2 (t) ≃ √v sin(1 +
2
p±q p∓q
k)t, e formule le sin p ± sin q = 2 sin 2 cos 2 danno
) * ) * ) *
θ1 (t) v sin t + sin(1 + k)t sin t cos 12 kt
= ≃ v
θ2 (t) 2 sin t − sin(1 + k)t − cos t = sin 12 kt
e cioè il primo pendolo oscilla con pulsazione ω1 ≃ 1 e ampiezza a1 ≃ v cos 12 kt, mentre il secondo ha un
moto analogo, sfasato di π , e con ampiezza sfasata di un tempo (lungo): τ /4 = π/k .
Si rammenti che le soluzioni trovate sono relative al sistema lineare e non sono conclusive per quello non lineare,
in special modo per quanto riguarda i periodi di oscillazione; questi, come si è visto, rappresentano solo il primo
termine di uno sviluppo perturbativo i cui termini successivi hanno valori che dipendono dalla scelta dei dati iniziali.
#
L’esempio precedente è ottenuto come semplificazione, parzialmente esasperata, del seguente e più corretto,
caso fisico.
Esempio 2.1.8
M. Lo Schiavo
2.1. Il procedimento di linearizzazione 89
Si considerino due pendoli fisici di lunghezze l1 ed l2 rispettivamente, con punti di sospensione posti su una retta
x orizzontale a distanza d l’uno dall’altro, vincolati senza attrito a oscillare sul piano verticale x, z (con z verticale
ascendente), e accoppiati da una sollecitazione elastica
0 0 1 1
−−→ −−→ ⃗ −−→ −−→
p1 p2 , p2 p1 , f12 = k |p1 p2 | − ℓ vers p1 p2 , f⃗21 = −f⃗12 ,
/ 0 12
−−→
tale che ℓ = d2 + (l2 − l1 )2 sia la lunghezza di riposo della molla. Ne consegue la V ≡ Πel = k |p1 p2 | −ℓ /2 ,
0 1
→ π el = k
−−→ −−→
per la quale è, correttamente, ∇− op |p p
1 2 | − ℓ ∇−
op |p1 p2 |.
→
x
d
µ1 µ2
l1
l2
Date le 0 1
−−→ −−→ −−→ −−→ −−→ −−→
2| p p |∇ |p p | ∇q p1 p2 · p1 p2 p1 p2 · ∇q p1 p2
−−→ 1 2 q 1 2
∇q |p1 p2 | = −−→ = −−→ = −−→
2|p1 p2 | 2|p1 p2 | |p1 p2 |
@ A (1.21)
−−→ −−→
vers p1 p2 · ∂ p1 p2 /∂ θ1
= −−→ −−→
vers p1 p2 · ∂ p1 p2 /∂ θ2
e le ⎛ ⎞ ⎛ ⎞
l2 sin θ2 + d l1 sin θ1
−−→ −−→
op2 = ⎝ 0 ⎠ op1 = ⎝ 0 ⎠
−l2 cos θ2 −l1 cos θ1
si riconoscono nelle θ delle convenienti variabili lagrangiane q := (θ1 , θ2 ) per le quali si hanno le
⎛ ⎞ ⎛ ⎞
−−→ −−→ cos θ2 −−→ −−→ cos θ1
∂ p1 p2 ∂ op2 ∂ p1 p2 ∂ op1
= = l2 ⎝ 0 ⎠ ; = − = −l1 ⎝ 0 ⎠ .
∂ θ2 ∂ θ2 ∂ θ1 ∂ θ1
sin θ2 sin θ1
Queste e la (1.21) forniscono la
@ −−→ A @ −−→ A
−−→ ∂|p1 p2 |/∂ θ1 (+l1 l2 sin(θ1 − θ2 ) − dl1 cos θ1 )/|p1 p2 |
∇q |p1 p2 | = −−→ = −−→
∂|p1 p2 |/∂ θ2 (−l1 l2 sin(θ1 − θ2 ) + dl2 cos θ2 )/|p1 p2 |
e quindi, in particolare, le
∂ π el 7 0 1
−−→ 8
= k 1 − ℓ/p1 p2 | l1 l2 sin(θ1 − θ2 ) − dl1 cos θ1
∂θ1
∂ π el 7 0 1
−−→ 8
= k 1 − ℓ/p1 p2 | l1 l2 sin(θ2 − θ1 ) + dl2 cos θ2 .
∂θ2
Pertanto ⎛ 7 0 1⎞
@ A −−→ 8
∂Π/∂θ1 gm1 l1 sin θ1 + k 1 − ℓ/|p1 p2 | l1 l2 sin(θ1 − θ2 ) − dl1 cos θ1
⎜ ⎟
=⎝ 7 0 1⎠
∂Π/∂θ2 −−→ 8
gm2 l2 sin θ2 + k 1 − ℓ/|p1 p2 | l1 l2 sin(θ2 − θ1 ) + dl2 cos θ2
da cui insieme con la
1 1 1 1
m1 (ẋ21 + ż12 ) + m2 (ẋ22 + ż22 ) =
T = m1 l12 θ̇12 + m2 l22 θ̇22 ,
2 2 2 2
seguono le corrispondenti equazioni di Lagrange:
⎧ 7 0 1
⎨ m1 lθ̈1 + gm1 l1 sin θ1 + k 1 − ℓ/|−
⎪ −→ 8
p1 p2 | l1 l2 sin(θ1 − θ2 ) − dl1 cos θ1 = 0 ,
7 0 1
⎩ m2 lθ̈2 + gm2 l2 sin θ2 + k 1 − ℓ/|−
⎪ −→ 8
p1 p2 | l1 l2 sin(θ2 − θ1 ) + dl2 cos θ2 = 0 .
Esempio 2.1.9 Il seguente calcolo mostra come il normalizzare a 1 i prodotti ϵh · Ae ϵh non sia rilevante ai
fini della scrittura delle soluzioni del problema linearizzato, quando queste si esprimano tramite le loro condizioni
iniziali. ) *
0 1
Sia A1 la matrice reale data da A1 := . Risulta
−ω 2 0
) * ) * ) *
0 −ω 1 0 1 0
P1−1 A P
∼ 1 1∼ = con P 1∼ = ; P −1
1∼ = .
ω 0 0 −ω 0 −1/ω
Pertanto la soluzione ρ(t) ≡ (ρ1 (t), . . . , ρn (t)) del sistema disaccoppiato di equazioni
⎛ ⎞
ω1 0
⎜ .. ⎟
ρ̈ + Ωρ = 0 con Ω=⎝ . ⎠
0 ωn
Esprimendo con tale notazione le coordinate x := (x1 , . . . , xn ) di un sistema del quale si cercano i modi normali
ρ = (ρ1 , . . . , ρn ), e cioè chiamando P la matrice che ha come colonne gli (ϵ1 , . . . , ϵn ) soluzioni della equazione
Be ϵ = λAe ϵ, si ricava quindi la
) * ) *) * ) * ) −1 *) * ) *
x P 0 ρ P 0 P 0 x0 x0
= = E =: Ξ
ẋ 0 P ρ̇ 0 P 0 P −1 ẋ0 ẋ0
M. Lo Schiavo
2.1. Il procedimento di linearizzazione 91
per ottenere la quale si è usato il fatto che le Ω, C , e Ω−1 commutano fra loro.
Se allora, invece di una certa n-pla (ϵ1 , . . . , ϵn ) di autovettori dell’equazione Be ϵ = λAe ϵ se ne usa un’altra:
(ϵ1 ′ , . . . , ϵn ′ ), ancora di autovettori della stessa equazione, ciascuno dei quali proporzionale al suo corrispondente:
ϵi ′ ∝ ϵi , i = 1, . . . , n, si ricava da questi la matrice P ′ data dalla
⎛ ⎞ ⎛ ⎞ ⎛k 0
⎞
.. .. .. .. 1
P ′ = ⎝k1 ϵ1 .. . k ϵ ⎠ = ⎝ϵ .
.. n n 1 .
.. ϵn ⎠ ⎜
⎝ ..
.
⎟
⎠ =: P K.
. . .
. . . . 0 kn
Ripetendo lo stesso procedimento seguito nel caso precedente, si arriva in tal modo alla matrice
@ A
P KCK −1 P −1 P KSΩ−1 K −1 P −1
Ξ′ = .
−P KΩSK −1 P −1 P KΩCΩ−1 K −1 P −1
Tuttavia, il fatto che tutte le matrici K, Ω, C, S, Ω−1 , K −1 siano diagonali permette di concludere che Ξ′
coincide con Ξ . Le x := (x1 , . . . , xn ) non dipendono quindi dalle costanti (k1 , . . . , kn ), e sono date dalla
) * @ P CP −1 A
P SΩ−1 P −1 )x0 *
x
=
ẋ −P ΩSP −1 P CP −1 ẋ0
nella quale le colonne della matrice P non sono necessariamente normalizzate a uno secondo la Ae , pur restando
necessariamente Ae -ortogonali fra loro. In altre parole la matrice P è (una qualsiasi matrice) fatta da n vettori
ϵ1 , . . . , ϵn linearmente indipendenti e tali da verificare le
Be ϵi = λ(i) Ae ϵi per i = 1, . . . , n , ed ϵk · Ae ϵh = 0 se k ̸= h .
La teoria assicura che essi esistono e che le seconde di queste relazioni sono conseguenza delle prime quando i
corrispondenti autovalori λh e λk sono diversi fra loro.
Esempio di linearizzazione di un sistema, non necessariamente Hamiltoniano.
Si è già introdotta (si veda: § I.4 Es. 5) l’equazione logistica per una specie, e cioè la ṗ = β(σ − σ0 )p ove σ0 è la
minima quantità di cibo per individuo. Con le ipotesi: σ = σ & −kp, σ & > σ0 , e posto η := (&σ −σ0 )/k, c := βk ,
si è ottenuto il modello per una specie singola:
ṗ = c(η − p)p , t ∈ R, p 0 ∈ R+ .
Se si vuole estendere il modello e considerare la presenza di due specie di cui una rappresenti il cibo per l’altra
e che abbia essa stessa scorte più che sufficienti di cibo, la preda x avrà mortalità proporzionale al numero di
incontri con il predatore y , e quindi l’equazione
ẋ = ax − bxy, a, b > 0 ,
mentre il predatore avrà riserva di cibo proporzionale alla popolazione delle prede, sua unica fonte di sussistenza:
Si ha cioè il campo ) *
ax − bxy
v(x) = ,
cxy − dy
del quale la linearizzata è
) * ) *) *
u̇ a − by −bx u
u̇ = ∂v(x)u ovvero = (1.23)
ẇ cy cx − d w
del quale è soluzione la t &−→ (x(t), y(t)) = (eat x0 , e−dt y0 ) che mostra come, in prossimità di un disastro ecologico,
le prede siano insufficienti a sostenere i predatori: anche se x cresce, localmente y decresce.
che rappresenta, come si è accennato nella Nota 2.1.3 più sopra, un caso in cui il sistema linearizzato non dà
sufficienti informazioni, per tempi grandi, sulle soluzioni del sistema iniziale. Per quanto possibile sarà allora
opportuno affrontarne lo studio tramite metodi qualitativi simili a quelli già visti per i sistemi conservativi. #
ẋ = T x con x0 ∈ R2 , T ∈ R4 ; ovvero
) 1* ) * ) 1* ) 1*
ẋ a b x x0 (2.26)
= x0 = , a, b, c, d ∈ R .
ẋ2 c d x2 x20
Per poter fare uso del concetto di sistemi coniugati, e operare convenienti trasformazioni di coordinate, si
ricorrerà al fatto che l’equazione data può essere considerata come una particolare rappresentazione in coordinate
di un’equazione quale la
ẋ = T x , x0 ∈ V, T ∈ L(V), (2.27)
assegnata su uno spazio vettoriale (reale) V al quale, per esempio, può essere identificato lo spazio tangente Tx̄ M
relativo ad un punto x̄ di una varietà M di ugual dimensione n = 2 . Le coordinate scelte su M (o un’arbitraria
scelta) individuano su V una certa base e := {ei }i=1,...,n dalla quale esso è reso isomorfo a Rn . Su V si definisce
l’operatore lineare T ∈ L(V) come quello al quale la base e assegna la matrice T ∈ Rn .
2
Quando M ≡ V (e quindi per la (2.27) stessa) non lede la generalità identificare la famiglia dei {Tx̄ M}x̄∈M con un unico spazio
V al quale è stata identificata anche la stessa varietà delle fasi M (e cioè lo spazio delle condizioni iniziali u0 := x̄0 − x̄ =: x0 ); in
caso contrario l’isomorfismo dipenderà dal punto xe oltre che dalle coordinate scelte e le identificazioni dette saranno locali. Tuttavia,
fintanto che non viene variato il punto xe per il quale v(xe ) = 0 e v∗ (xe ) = T , e cioè a partire dal quale la (2.27) è l’equazione
variazionale in x(t) = xe di una qualche equazione non lineare ẋ = v(x) , le identificazioni dette rimangono valide. In particolare lo
saranno per tutto il resto di questo capitolo.
Una volta determinate le soluzioni t &→ φ(t, 0, x0 ) ≡ G t x0 dell’equazione ẋ = T x, la loro rappresentazione in
coordinate fornirà nelle coordinate assegnate le soluzioni del sistema dato.
M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 93
G t determina T Come si è visto nel Cap.I, ogni gruppo a un parametro {G t }t∈R di trasformazioni, non
necessariamente lineari, determina un flusso g : (t, x) &→ g(t, x) ':= G t x (differenziabile rispetto a entrambe le sue
d '
variabili), che determina un campo vettoriale v : x &→ v(x) = dt t=0
G t x. Questo è tale che le funzioni φ : R → M,
definite per ciascun x ∈ M dalla t &→ φ(t, 0, x) := G x, sono soluzioni dell’equazione associata, e cioè: per ogni
t
τ ∈ R si ha
d ''
φ̇(τ ) := ' G t (G τ x) = v(φ(τ )) .
dt t=0
Se, in particolare, le trasformazioni G t : M → M sono lineari certo anche il campo v risulta lineare e, come si è già accennato, non
lede la generalità identificare (nell’intorno di un x̄ ∈ M fissato) le varietà M e Tx̄ M con un unico spazio vettoriale V di dimensione
n sul quale agiscono gli operatori G t .
Inoltre, la linearità degli operatori G t permette di raccogliere a fattore moltiplicativo la parte evolutiva rispetto
a quella attuale ) ' *
d '' t τ d ' t
' G (G x) = ' G G τ x =: T G τ x ; (2.28)
dt t=0 dt t=0
e cioè di operare la derivazione direttamente su L(V) anziché su V, (vedi oltre).
Riassumendo: un gruppo a un parametro di trasformazioni lineari su V determina univocamente un flusso ' g
d '
definito da g(t, x) := G t x il quale determina un campo lineare (e cioè un operatore T ) tramite la T := dt t=0
G t
.
Quest’ultimo è tale che il moto φ : R → V definito da φ(t, 0, x) := G t x è soluzione dell’equazione ẋ = T x. Per
ogni fissata base in V, al moto φ corrisponde, in coordinate, un vettore di funzioni x : t &→ x(t) 1 n
' :=7 (x (t), .t. .8, x (t))
d '
soluzione dell’equazione ẋ = T x, ove T = cost è definita in coordinate dalla T x := dt t=0
h (x) ◦ G x . #
T determina G t Inversamente: in dim = 1 ogni funzione lineare, e cioè ogni costante moltiplicativa k ,
determina l’equazione ẋ = kx, che a sua volta determina un flusso g(t, x) = ekt x che determina l’operatore ekt ,
lineare sulle x ed evolutore della soluzione uscente
9 : dal dato x0 = 1 . Pertanto essa determina il gruppo a un
parametro di trasformazioni lineari della retta ekt t∈R .
Si vuole estendere questa proprietà a un numero qualunque di dimensioni, tale estensione potendo essere ottenuta
in due modi, equivalenti nello stesso senso in cui la (2.27) è equivalente alla
X˙ = T X , X0 , T ∈ L(V) (2.29)
• è lineare, in quanto lo è T ,
d ''
• verifica l’equazione (2.28): ' G τ +t x = T G τ x giacché, in coordinate,
dt t=0
d '' '
'
' Ψ(t)x = T Ψ(t) x ' =T x,
dt t=0 t=0
• in conseguenza di una qualsiasi trasformazione lineare di coordinate: x′ = P −1 x (e quindi con campo che
varia secondo la: T ′ = P −1 T P ) ha matrice che varia secondo la Ψ′ = P −1 ΨP , e ciò fornisce la soluzione
nelle nuove coordinate: x′ (t) = Ψ′ (t)x′ ,
• fra tutti i sistemi di coordinate (lineari) su V, resta allora possibile scegliere quello ottimale alla risoluzione
del dato problema cercandolo come quello per il quale la corrispondente matrice T ′ equivalente alla T risulta
particolarmente semplice.
Riassumendo: un campo lineare T x determina univocamente una famiglia {G t }t∈R di trasformazioni G t che è un
gruppo a un parametro; gli' operatori G t sono lineari su V e sono rappresentati, in coordinate, da una matrice
d '
Ψ : t &→ Ψ(t) tale che dt t=0
Ψ(t) = T . Tale matrice T rappresenta (in quelle coordinate) l’operatore di campo
T . Il sistema che si risolve è un conveniente ẋ′ = T ′ x′ .
L’unicità della soluzione di ẋ = T x per ciascun x0 garantisce anche che ogni gruppo a un parametro di
trasformazioni lineari su V è esprimibile in questo modo. Infatti l’equazione 7 da esso determinata è unica, ed è
unico il flusso g associato al8 gruppo. Ma il flusso generato dall’equazione o anche, per ogni dato iniziale x ∈ V,
la sua soluzione t &→ φ(t, x) è esso stesso unico e quindi, siccome anche il flusso associato al gruppo deve esserne
soluzione, essi non possono che coincidere.
In definitiva, conseguenza delle unicità della soluzione e del gruppo associato a un flusso è che: due gruppi a un
parametro di trasformazioni lineari V → V sono identici se e solo se hanno uguali generatori T . #
Si osservi che per determinare esplicitamente le rappresentazioni Ψ(t) degli operatori del gruppo, il metodo per
componenti passa necessariamente attraverso la soluzione esplicita corrispondente ai vari possibili sistemi lineari
(e cioè alle varie T ′ ), e non ne permette un’espressione generale, valida apriori dagli specifici dati iniziali e matrici
di campo.
Nell’illustrare il secondo dei due procedimenti citati sopra si farà riferimento alla più generale equazione lineare,
anche non autonoma:
e la discuterà in forma generale, anche se solo formale. In un secondo momento, e nel solo caso T = cost, si
esprimeranno le soluzioni in un qualche conveniente sistema di coordinate.
A tale scopo, innanzi tutto occorre attribuire significato all’operazione di derivazione in L(V). Verrà poi di-
scussa, direttamente in questo spazio, la soluzione Gtt0 dell’equazione X˙ = T (t) X . Infine, e solo dopo aver
fissate le coordinate e attribuita all’operatore T (t) una matrice T (t), verrà esaminato il problema di determinare
esplicitamente la matrice che quelle coordinate assegnano all’operatore Gtt0 .
La prima parte è introduttiva, e mostra come molte delle considerazioni fatte nel caso autonomo sussistono
anche in quello, più generale, di operatori di campo dipendenti dal tempo. In esse infatti si usa solo la linearità
dell’operatore T (t) e non la sua indipendenza o meno dal tempo.
Si danno le seguenti definizioni
Matrice fondamentale dell’equazione (2.30) := una matrice Φ(t, t0 ) che ha per colonne le coordinate di una
n-pla di vettori soluzioni linearmente indipendenti della (2.30). In tal modo essa fornisce il valore attuale x(t)
della “soluzione generale” secondo la x(t) = Φ(t, t0 ) c , ove c è un vettore numerico.
Matrice principale dell’equazione (2.30) := quella matrice fondamentale Ψ che ha per colonne le coordinate
degli n vettori, soluzioni della (2.30), che hanno come dati iniziali i versori della base dello spazio delle fasi. Essa
è pertanto la matrice Ψ = Ψ(t, t0 ) tale che Ψ(t0 , t0 ) = 1I , e fornisce il valore attuale x(t) che parte dal dato
iniziale x0 secondo la x(t) = Ψ(t, t0 ) x0 .
La matrice principale Ψ(t, t0 ) rappresenta, nella base scelta, l’operatore di evoluzione Gtt0 dell’equazione (2.30).
Infatti applicandola a un qualsiasi vettore x0 di Rn , che rappresenti le condizioni iniziali di un moto che evolve
secondo la (2.30), si ottiene la soluzione φ(t, t0 , x0 ) uscente da x0 .
In particolare, a partire da una n-pla di condizioni iniziali x1 |0 , x2 |0 , . . . xn |0 che siano vettori linearmente
indipendenti di Rn , e formata con essi la matrice (invertibile) (n × n) :
⎛ ⎞
.. .. ..
C ≡ Φ0 := ⎝x1 |0 .. x2 |0 .. .. xn |0 ⎠ ,
. . .
. . .
M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 95
Si può notare che ogni colonna della C è formata dalle componenti degli (arbitrari purché linearmente indipen-
denti) vettori numerici φ0 , condizioni iniziali dei vettori soluzioni φ che formano la Φ(t, t0 , Φ0 ); e anzi, le colonne
della C sono le n-ple dei coefficienti delle combinazioni lineari che si operano sui vettori colonne della Ψ(t, t0 ) (e
cioè le soluzioni uscenti dai versori di base) per ottenere i vettori colonne della Φ(t, t0 , Φ0 ).
Considerando che la matrice C ≡ Φ0 è non singolare se e solo se tale è la Φ, si conclude che tutte e sole le
matrici fondamentali sono esprimibili in questa forma purché C sia non singolare.
Osservazione importante. La matrice fondamentale Φ(t) ha derivata (fatta elemento per elemento) tale che
Φ̇(t) = T (t)Φ(t), essa ha quindi come colonne le derivate di altrettante funzioni vettoriali che sono soluzioni
della (2.30). Si vuole sfruttare la linearità dell’operatore di derivazione per interpretare una matrice che abbia
come colonne le derivate di altrettante funzioni vettoriali come derivata della matrice le cui colonne siano le
funzioni vettoriali stesse (il tutto naturalmente su una base che non dipenda dal parametro), e pensare a ciò
come alla rappresentazione in (quelle) coordinate di un procedimento fatto sull’operatore di cui quella matrice è
l’espressione in coordinate. Si vuole cioè interpretare la matrice Φ(t, t0 , Φ0 ) come la rappresentazione in coordinate
di quell’operatore lineare che verifica nello spazio L(V) l’equazione
con condizioni iniziali (non singolari) X0 = X (t0 ), rappresentate da X0 = X(t0 ). Di questa equazione, la matrice
Ψ : t &→ Ψ(t, t0 ) esprime in particolare la soluzione uscente dal dato X0 = 1I .
Inoltre, la (2.31) è omogenea, e quindi se X = X(t) è soluzione uscente da X0 e se C è non singolare
allora anche X(t)C è soluzione uscente da X0 C . Ne segue che per ogni C ≡ Φ(t0 ) = Φ0 non singolare la
Φ(t) = Ψ(t, t0 )Φ0 è soluzione non singolare.
Infine, ogni soluzione non singolare della (2.31) è esprimibile in questo modo, infatti anche per essa vale il
teorema di unicità, e certo la Ψ(t, t0 )X0 è soluzione uscente dall’arbitrario dato X0 .
In definitiva, e sempre che si dia senso alla (2.31), si ha che le due equazioni:
sono equivalenti nel senso che le soluzioni non banali di questo sono i sistemi fondamentali di quello. Risolvere la
(2.32) equivale a trovare l’operatore Ψ che risolve la (2.33). #
Le proprietà che si sono appena riconosciute circa i sistemi fondamentali Φ della (2.32) non sono conseguenze
della particolare struttura dell’operatore T (diagonalizzabile o meno) né del fatto che esso dipenda o meno dal
tempo (e cioè che il sistema sia a coefficienti costanti), ma solo del fatto che è lineare. È tuttavia solo nel caso di
autonomia che il procedimento di costruzione esplicita dell’operatore di evoluzione (lineare) Ψ(t, t0 ) riesce in modo
semplice. Nel caso generale infatti, lineare non autonomo: ẋ = T (t)x, la determinazione esplicita della matrice
Ψ : t &→ Ψ(t, t0 ) è problema assai arduo, almeno in forma chiusa.
Quando invece l’operatore di campo T , e quindi i coefficienti dell’equazione ẋ = T x, sono costanti, le matrici
t &→ Φ(t) soluzioni della X˙ = T X assumono una forma particolarmente significativa.
Nel caso scalare, l’unico operatore che agisce linearmente sui punti della retta e li trasforma in modo da avere
campo proporzionale al valore nel punto, ovvero tale che x(t) = G't x =⇒ ẋ = kx è l’operatore che moltiplica
d ' d t
per la funzione esponenziale: G t ≡ ekt . Per esso infatti si ha dt t=0
(G t x) = kx o anche dt G = kG t . Si
vuole generalizzare questa osservazione al caso dim V = n, e chiamare e Tt
la matrice Ψ(t) e interpretarla come
rappresentazione, nella base in cui T è rappresentato
' da T , dell’operatore G t
∈ L(V). Inoltre si vuole dare senso
d ' t
alla richiesta che questo abbia derivata tale che dt t=0 G = T , e confermare il fatto che esso appartiene a un gruppo
ad un parametro di trasformazioni lineari invertibili: G t+τ = G t G τ . Solo in tal caso esso potrà essere la soluzione
d t
uscente dalle condizioni iniziali X (0) = 1I dell’equazione Ẋ = T X , e quindi essere tale che dt G = T G t , G 0 = 1I .
Ciò giustifica indicarlo con e , e interpretare come flusso in L(V) l’espressione (t, X ) &→ G(t, X ) = eT t X .
Tt
Esempio pilota. Si consideri il caso dim = 2 . Sia T un operatore costante e con autovalori entrambi reali
e distinti. Dette P la matrice individuata dagli autovettori di T ed Ehi (t) = eλ(i) t δhi (non sommare su i ) si
riconosce facilmente che la matrice che rappresenta l’operatore G t è la matrice
) λt *
e 1 0
Ψ(t) = P E(t)P −1 = P P −1 . (2.34)
0 eλ2 t
Ne segue che la soluzione generale può essere scritta come x(t) = Φ(t)c con Φ(t) = P E(t)P −1 C , ove C = Φ0
è non singolare e P è individuata dagli autovettori di T .
L’espressione esplicita (2.34) permette innanzi tutto l’immediato controllo del fatto che Ψ(t) è soluzione della
(LO2) uscente dalle condizioni iniziali Ψ(0) = 1I : basta a tale scopo derivare direttamente (elemento per elemento)
la Ψ e ottenere @ A
λ1 ϵ11 eλ1 t . λ2 ϵ12 eλ2 t
Ψ̇(t) = . P −1 = P ΛE(t)P −1 = T Ψ(t) .
λ1 ϵ21 eλ1 t . λ2 ϵ22 eλ2 t
Allo stesso modo essa permette l’immediata verifica della proprietà di gruppo per la famiglia degli evolutori, e
cioè la
Ψ(t)Ψ(τ ) = P E(t)E(τ )P −1 = Ψ(t + τ ).
In altre parole si riconosce che l’operatore moltiplicativo Ψ(t) rappresentato dalla (2.34) ha tutte le proprietà
richieste qui sopra per un possibile operatore eT t : è lineare, è elemento di un gruppo a un parametro, assegna
velocità trasformata lineare della posizione secondo la moltiplicazione per T .
t
In più
) essa
λ1 t
mostra* che nella base propria di T , (in quanto esistente), la matrice di G è la matrice diagonale
e 0
E(t) := .
0 eλ2 t
Se allora, formalmente, si definisse
) λt * ) *
Λt e 1 0 λ1 0
e := , ancora con Λ := ,
0 eλ2 t 0 λ2
essa potrebbe a tutti gli effetti essere considerata come la matrice che rappresenta, in base propria, un operatore
avente alcune delle caratteristiche dell’operatore eT t esponenziale dell’operatore T t. Questo anche considerando
il fatto che, siccome la base {ϵi }i=1,...,n propria per T esiste ed è tale che Λ ≡ τ = P −1 T P se ϵi = Pei ,
i = 1, . . . , n, allora la eΛt si trasforma come deve, (si veda la Proprietà 2.2.1)
−1
la matrice e(P ΛP )t ≡ eT t := Ψ(t) = P eΛt P −1 che fa evolvere le
componenti x è la P -trasformata della matrice eΛt dei vettori espressi
mediante le loro componenti in base propria ξ(t) := P −1 x(t).
Tuttavia:
• affinché quella appena data sia una corretta definizione per un operatore esponenziale di un operatore T , cioè
non dipenda dal sistema di coordinate;
• affinché sia valida non solo per operatori diagonalizzabili, ma anzi assuma su tutto lo spazio L(V) le proprietà
della funzione esponenziale;
M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 97
occorre che tale definizione coincida, ancheCper L(V) cosı̀ come è per R, con quella che si ottiene richiedendo che
uno sviluppo in serie di potenze X (t) = ∞ m
m=0 Cm t , Cm ∈ L(V), possa esprimere la soluzione in L(V) di
˙
X = T X . Dovrà esistere un C ∈ L(V) tale che:
∞
= ∞
= Tm
mCm tm−1 = T C m tm ⇒ mCm = T Cm−1 ⇒ Cm = C0 .
m=1 m=0
m!
Se si introduce in L(V) un criterio di convergenza cheCrenda sensate le operazioni di derivazione e di somma
∞ Tm
di serie, e lo si usa per dimostrare la sensatezza della:
C m=0 m! , e cioè l’esistenza in L(V) di un operatore
∞ m
T
eT := m=0 m! , si dà significato all’affermazione secondo la quale
=∞
T m tm
eT t := è la soluzione della X˙ = T X con X0 = 1I .
m=0
m!
Si ottiene lo scopo proposto: o sfruttando il fatto che lo spazio L(V) degli operatori lineari a valori reali definiti
su V è esso stesso uno spazio vettoriale a dimensione finita (e quindi sommando mediante la convergenza elemento
per elemento) ma ciò è poco opportuno dato che gli elementi di T m non sono le potenze degli elementi di T
, oppure introducendo una norma ∥T ∥ specifica per lo spazio L(V), e converrà una norma piuttosto che una
metrica giacché lo spazio è lineare. Rispetto
;C ad essa <si potranno introdurre le operazioni di limite e di derivazione, e
k Tm
ci si potrà assicurare che la successione m=0 m! ammette limite in L(V). L’essere L(V) a dimensione
k=1,2,...
finita assicura l’equivalenza dei due procedimenti.
D’altra parte è certo conveniente, se possibile, introdurre una norma rispetto alla quale L(V) sia uno spazio
completo; in tal modo, infatti, si potrà decidere se il limite ?della successione
? esiste e appartiene allo spazio L(V)
?Ck Tm?
solo osservando il comportamento dei numeri ∥Sk − Sh ∥ := ? m=h m! ?, e cioè osservando delle somme finite.
L’essere L(V) a dimensione finita assicura che tutte le norme definite su di esso sono (uniformemente) equiva-
lenti, ed esso è completo rispetto ad ognuna (si veda: Appendice A.7). Tuttavia la più conveniente, perché di facile
interpretazione e uso, è la Norma spettrale, definita su L(V) da:
∥T ∥ := sup ∥T x∥2 .
∥x∥2 =1
?C ? Ck ?T m ?
? k Tm? ? ?
Servendosi poi della disuguaglianza ? m=0 m! ? ≤ m=0 m! , si osserva che l’assoluta convergenza di
? m?
una serie ne implica la convergenza; e cioè: la convergenza della serie delle norme degli addendi: ? T ? implica la
m!
m
convergenza in norma della serie degli addendi: Tm! . Ma la prima è una serie di numeri tutti non negativi, quindi
per il criterio di Weiestrass essa risulta convergente se tale è una serie di numeri ordinatamente maggiori dei suoi
addendi. In tal caso, anzi, la convergenza risulta assoluta e uniforme, e ciò permette di inferire utili conseguenze
quali, per esempio, l’esistenza dei prodotti fra serie di operatori:
∞
= ∞
=
dati A := Ak e B := Bk entrambi in L(V)
k=0 k=0
∞
= ∞ =
=
esiste C ∈ L(V) tale che C := A B := Ck := Aj Cl .
k=0 k=0 j+l=k
e di questa si indicherà con eT la matrice che la rappresenta nella stessa base nella quale T ha matrice T .
N.B. 2.2.1 Per controllo, si può anche operare direttamente sulle matrici:
Proposizione 2.2.1 Siano A, B, C, P matrici reali (n× n) e P non singolare. Se B = P A P −1 allora esiste
=∞ =∞
Bm Am −1
eB := =P P =: P eA P −1 ,
m=0
m! m=0
m!
=∞ =∞ =∞
1 m −1 1 1 m
P eA P −1 = P ( A )P = (P A P −1 )m = B = eB .
m=0
m! m=0
m! m=0
m! "
Corollario 2.2.1 Ciò conferma che le precedenti definizioni sono ben date e indipendenti dalla base: se in una
certa base T ed eT sono rappresentati dalle matrici T ed eT , al cambio di base la trasformata della matrice
esponenziale è la matrice esponenziale della trasformata.
È opportuno poi verificare direttamente che l’operatore eT cosı̀ definito abbia tutte le proprietà necessarie
a poter essere l’evolutore dell’equazione ẋ = T x. In particolare, sugli operatori eT si assicurano le seguenti
proprietà.
eB ◦ eA = eA+B
Corollario 2.2.2
etT · eτ T = e(t+τ )T , t, τ ∈ R, T ∈ L(V) .
Corollario 2.2.3
) * =∞
tT 1 hT 1
lim e (e − 1I ) = etT lim T T m−1 hm−1 ;
h→0 h h→0
m=1
m!
e siccome la serie a secondo membro è certo (assolutamente) convergente in quanto limitata da ehT , si possono inver-
tire il limite e la somma ottenendo per la serie il valore 1I , che dimostra la: d/dt(eT t ) = T eT t . Alternativamente
si può sfruttare l’assoluta convergenza delle
=∞ =∞
d 1 1
T m tm = T T m−1 tm−1 .
m=0
dt m! m=1
(m − 1)!
M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 99
Riassumendo
C∞ si è mprovato che: fissato comunque T ∈ L(V) l’operatore eT t esiste, è ottenibile come somma
m
della serie: m=0 T t /m!, è elemento di un gruppo a un parametro di operatori lineari, ed è tale che
d Tt d ''
(e ) = T eT t o anche ' (eT t ) = T .
dt dt t=0
Ciò conclude il problema della risoluzione di un qualunque sistema di equazioni lineari a coefficienti costanti.
Rimane da risolvere quello di scrivere la matrice esponenziale di un dato operatore in almeno una base, magari
scelta convenientemente.
Esempio 2.2.2 Se esiste una
@ base {ϵi }i=1,...,n
A = {Pei }i=1,...,n rispetto alla quale l’operatore T è diagonale (reale)
λ1 0
e quindi ha matrice Λ = .. , e cioè se T ha un sistema di autovettori {ϵ1 , . . . , ϵn } sufficientemente
.
0 λn
ricco da essere V = span {ϵ1 , . . . , ϵn } allora è chiaro, per la definizione appena data e l’osservazione: T ϵ = λϵ ⇒
T k ϵ = λk ϵ , che eT ha matrice in quella base data da
@ λ1 A
e 0
Λ
e = . ..
0 eλn
e questo conferma la definizione formale data precedentemente. #
allora essa è tale da conservare invarianti i due sottospazi W1 = span {e1 , . . . , en1 } e W2 = span {en1 +1 , . . . , en } .
Infatti scomponendo il generico vettore x mediante la
) * ) * ) * =n1 =n
x1 x1 0
x= = + , con x1 = xi ei , x2 = xi ei ,
x2 0 x2
i=1 i=n1 +1
In taluni casi (si veda per esempio la Nota 2.2.7 più oltre) non è nemmeno necessario eseguire il calcolo in tutti
i suoi dettagli. Può essere infatti sufficiente fare uso della seguente osservazione che si limita a sfruttare l’esistenza
dei singoli sottospazi e le proprietà che l’operatore ha in essi e che non dipendono dalla particolare (sotto)-base
scelta nei sottospazi in questione.
Osservazione
Riconosciuta l’esistenza di (due) sottospazi W1 e W2 tali che V = W1 ⊕ W2 e invarianti rispetto a un operatore
T , e detta P∼ la e -matrice dell’operatore P∼ che cambia la base data: e = {ei }i=1,...,n in una (qualsiasi)
e& = {&ei}i=1,...,n fra quelle tali che W1 = span {&e1 , . . . , e&n1 } e W2 = span {&en1+1 , . . . , e&n } , mentre la
matrice T& = P∼−1 T P∼ è certo diagonale a blocchi ciò non accade in generale anche alla matrice T . Quest’ultimo
fatto, tuttavia, non preclude la possibilità, comunque lecita, di separare un qualsiasi vettore x ∈ V, e quindi anche
x0 , nella somma
=n1 n
= n
= n
=
x1 |0 + x2 |0 := &h1 e&h +
x &h2 e&h =
x xh1 eh + xh2 eh
h=1 h=n1 +1 h=1 h=1
La Nota 2.2.1 mostra che tale separazione rimane vera anche per gli evoluti dei vettori xi |0 , che si mantengono
indipendentemente e separatamente negli spazi Wi , e ciò è vero a prescindere dalla base scelta.
) * @ T& t A
&
x (t) e 1
&
x |
In particolare, l’espressione in base e
& del vettore x(t), e cioè la 1
= &
1 0
diviene, in base e ,
&2 (t)
x e T2 t x
& 2 |0
la seguente @ & A
e T1 t 0
x(t) = P∼ x&(t) = P∼ &
P∼−1 (x1 |0 + x2 |0 ) = eT t x1 |0 + eT t x2 |0
0 e T2 t
ove xi |0 = (x1i |0 , . . . , xni |0 ), i = 1, 2 , hanno coordinate generalmente tutte non nulle sebbene, come questa
stessa espressione conferma, i due vettori x1 e x2 appartengano per ogni t rispettivamente ai (due) sottospazi
W1 e W2 . Questi sottospazi infatti sono invarianti sia rispetto all’operatore T che all’operatore G t , e ciò a
prescindere dal particolare sistema di coordinate scelto. #
Il caso che si è esaminato all’inizio del paragrafo ha Wi = span {ϵi } per i = 1, 2 , e quindi
) 1* ) 1*
P1 2 P2
x = x1 |0 + x2 |0 = ξ01 ϵ1 + ξ02 ϵ2 = ξ01 + ξ = P ξ,
P12 0 P2
2
le costanti {ξ0k }k=1,...,n sono le componenti del dato iniziale in base propria: ξ0 = P −1 x0 , e gli ϵk = P ek sono
gli n autovettori distinti di T . Pertanto: Wi := span{ϵi } , i = 1, . . . , n, sono gli n sottospazi invarianti nei
quali V resta diviso da T . Le {e}-componenti di x(t) sono esplicitamente date (vedi anche la (2.38) più oltre)
da ⎛ λ1 t 1 ⎞ ⎛ ⎞⎛ 1⎞
e ξ0 .. .. ξ0
7 8 . .
x(t) = P eΛ t ξ0 = P ⎝ . . . ⎠ = ⎝eλ1 t ϵ1 .. · · · .. eλn t ϵn ⎠ ⎝. . .⎠ .
eλn t ξ0n .. .. ξ0n
M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 101
W1 := span{&
e1, . . . , e&n1 } = span{ϵ1, . . . , ϵn1 }
W2 := span{&
en1 +1 , . . . , . . . , e&n } = span{ϵn1 +1 , . . . , ϵn } .
e dalle
T eh = Thj ej , T ϵh = τ jh ϵj , T e&h = T&hj e&j ,
si ricavano le: 0 1
T = P τ P −1 = P∼ T& P∼−1 = P∼ Υ& τ Υ
& −1 P −1 .
∼
Il fatto che l’operatore Υ trasformi le due sotto basi {ϵ1 , . . . , ϵn1 } , {ϵn1 +1 , . . . , ϵn } separatamente in altre due
sottobasi: {& e1 , . . . , e&n1 } e {& en1 +1 , . . . , e&n } degli stessi due sottospazi invarianti W1 e W2 rispettivamente fa sı̀
che la matrice Υ τ Υ
& & −1
sia anch’essa diagonale a blocchi.
Corollario 2.2.2 La matrice dell’operatore di evoluzione di un operatore T diagonalizzabile (nello spazio reale), e
quindi tale che τ ≡ Λ, può essere scritta come segue
@ & A
0 1 e T1 t 0
Λt
P e P −1 &
= P∼ Υ e Υ Λt & −1 −1
P∼ = P∼ P∼−1 .
&
0 e T2 t
ciò mostra ulteriormente che gli xi |0 , i = 1, 2 definiti come sopra, restano separatamente confinati nei due
sottospazi W1 e W2 .
Per mettere in atto quanto detto sopra, estenderlo al caso degli autovettori complessi, e rendersi conto di come
determinare la trasformazione di coordinate ottimale alla risoluzione del problema, verrà qui nuovamente usato
come esempio pilota il caso dim = 2 .
Esempio 2.2.4 Del sistema ẋ = T x si cercano soluzioni particolari del tipo: ! ϵ(t) = ξ(t)ϵ , con ξ(t) ∈ R. Per la
nota proprietà delle equazioni lineari scalari tali soluzioni dovranno necessariamente essere della forma
ϵ(t) = eλt!
ϵ : t &→ !
! ϵ(0) =: eλt ϵ, λ ∈ R, ϵ∈V, (2.35)
e quindi ) 1 * ) λt 1 * ) λt 1 *
!
ϵ (t) e !
ϵ (0) e ϵ
ϵ!(t) = eλt ϵ!(0) =: eλt ϵ o anche = λt 2 =: λt 2 .
ϵ2 (t)
! e !
ϵ (0) e ϵ
Qualunque sia il sistema di coordinate (e cioè la base e = (e1 , e2 )) adottato, una tale soluzione è rappresentata
da un vettore ϵ!(t) che evolve in R2 rimanendo in ogni istante parallelo al vettore ϵ!(0) = ϵ; in particolare esso
risulta identicamente parallelo alla sua velocità, e cioè al suo T -trasformato. In altre parole, si hanno soluzioni di
questo tipo se e solo se lo scalare λ e il vettore ϵ sono legati dall’equazione
) 1*
ϵ
(T − λ1I ) 2 = 0 ovvero ϵ ∈ Ker (T − λ1I )
ϵ
I risultati del precedente esempio possono essere usati come guida per la loro generalizzazione al caso n dimen-
sionale. A tale scopo, si ponga ∆ := T r2 − 4Det. Nel piano (T r, Det) la curva ∆ = 0 è dimensioni ovviamente
una parabola. A seconda dei valori dei suoi parametri, l’operatore T appartiene a una delle dieci zone indicate in
figura
Det
¢ 0
¢ =0
¢<
>0
IIIs VI IIIi
IIs Vs Vi IIi
IVs IVi Tr
Zona I (
λ1 < 0
Sia Det < 0 e quindi ∆ > 0 . Si hanno due radici reali distinte:
λ2 > 0.
L’operatore T ammette due autospazi distinti e non vuoti: span(ϵi ), i = 1, 2 , individuati dai due corrispondenti
autovettori ϵ1 ed ϵ2 che, essendo fra loro non linearmente dipendenti, possono formare una base nello spazio delle
fasi V, attualmente identificato con R2 , e permettono di concludere che (singolarmente) span(ϵi ) = Ker(T −λi 1I ),
i = 1, 2 .
N.B. 2.2.5 Il risultato che si è visto nell’Esempio 2.0 si estende anche a sistemi di dimensione n ≥ 2 purché
tutti gli autovalori {λ1 , λ2 , . . . , λn } dell’operatore T siano reali e distinti. Questa è infatti condizione sufficiente
(non necessaria) affinché gli autovettori di T formino una base in V: se un autovettore & ϵ , corrispondente a
&
un autovalore λ , fosse combinazione lineare di altri k < n autovettori, fraCloro indipendenti e corrispondenti
ad autovalori λ1 , . . . , λk tutti diversi da λ & , si avrebbe (T − λ1
& I )& & i , e ciò contraddice
ϵ = 0 = ki=1 ci (λi − λ)ϵ
l’indipendenza lineare dei k vettori {ϵ1 }i=1,...,k . Se ne deduce che un operatore reale Xn con tutti gli autovalori reali
distinti è diagonalizzabile, e ha Ker(T − λi 1I ) = span(ϵi ), i = 1, . . . , n, e V = i=1 (Ker(T − λi 1I )) . ♦
Giacché gli autovettori di T sono abbastanza numerosi da formare una base in V, la matrice P definita da tali
i
autovettori mediante la: ϵh =: Peh ≡ Phi ei , e cioè la matrice Phi := (ϵh ) , può individuare una trasformazione di
−1
coordinate (lineare, indipendente dal tempo) ξ := P x. Le ξ sono le componenti in base {ϵh }h=1,2 di quel vettore
che in base {ej }j=1,2 ha componenti x. Ad esempio la k -esima ϵ -coordinata del versore ϵh vale (P −1 )ki Phi = δhk .
N.B. 2.2.6 Nel seguito di questo capitolo non si userà alcuna struttura euclidea sullo spazio vettoriale, e i vettori di base non verranno
di conseguenza normalizzati. Tutti i risultati saranno validi a meno di una trasformazione omogenea della base che si intende fissata,
seppure in modo arbitrario. In tal senso si parlerà “degli n autovettori di T ” invece che: “di n , indipendenti, degli autovettori
di T ” (si veda il successivo N.B. 2.2.8). Inoltre, le componenti dei vettori saranno numerate mediante un esponente variabile in
{1, 2, . . . , n} , con n = dim V , e qualora ripetute (e senza parentesi) in una stessa espressione sottintendono l’operazione di somma
(righe per colonne). I deponenti invece sono degli ordinali per i vettori o per i loro coefficienti, mentre il deponente 0 indica il valore
relativo al dato iniziale. In tal senso una espressione del tipo x1 |0 indica il vettore numerico di componenti (x11 |0 , x21 |0 , . . . , xn
1 |0 ) ed
esprime il valore x1 (t0 ) dato al vettore x1 all’istante t0 . ♦
Si osservi che come versori della nuova base sono stati scelti proprio gli autovettori di T , dunque la matrice
nella quale la base {ϵ1 , ϵ2 } trasforma la T secondo l’espressione τ := P −1 T P è diagonale per costruzione:
M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 103
) *
λ1 0
τ := Λ =
0 λ2
. In tal modo, l’equivalente equazione diviene (nel caso dim V = 2 )
) ) * ) ** ) * ) 1*
1 1 2 0 λ1 0 ξ
ξ̇ = Λ ξ = Λ ξ +ξ = ,
0 1 0 λ2 ξ2
e siccome questa fornisce un sistema di 2 = dim V equazioni disaccoppiate, se ne conclude che le ε -coordinate ξ
evolvono secondo le (non sommare su h)
) *
λ1 0
Con l’ipotesi che la matrice τ sia diagonale: τ ≡Λ=
0 λ2
risulta facile esprimere l’evoluzione delle
coordinate iniziali x0 = P ξ0 :
) 1 * ) 1 * ) λ t 1* ) 1*
x (t) ξ (t) e 1 ξ0 Λt ξ0
=P =P = Pe ,
x2 (t) ξ 2 (t) eλ2 t ξ02 ξ02
) λt *
Λt e 1 0
ove si è posto e := . Si ha in definitiva
0 eλ2 t
Da questa espressione si vede chiaramente che, in generale, ciascuna delle componenti x1 (t) e x2 (t) contiene sia
entrambe le componenti del dato iniziale x10 ed x20 , sia entrambe le funzioni eλ1 t ed eλ2 t che costituiscono
l’evolutore G t ≡ Ψ(t). Invece, per costruzione, ciò non accade alle componenti ξ 1 (t) e ξ 2 (t), ciascuna delle quali
contenente solo i corrispondenti ξ01 o ξ02 , ed eλ1 t o eλ2 t , rispettivamente.
Il caso n-dimensionale con tutti gli autovalori reali distinti è analogo: detta P la matrice le cui colonne sono
gli autovettori di T : Pji := (ϵj )i , si ha
@ A
eλ1 t 0
x(t) = P e P Λt −1
x0 con: e Λt
= .. . (2.38)
.
0 eλn t
L’arbitrarietà del vettore x0 implica che la (2.38) rappresenta, in coordinate e quando tutte le radici del-
l’equazione secolare sono reali distinte, la soluzione generale t &→ φ(t, 0, x0 ) ≡ x(t) = G t x0 , dell’equazione
(2.27).
N.B. 2.2.8 Come si è già accennato, la matrice T determina univocamente i numeri {λi }i=1,...,n (si suppongano
distinti fra loro) ma non univocamente la matrice P . Essa però determina univocamente la matrice Ψ(t) :=
P eΛt P −1 che esprime nelle coordinate assegnate l’operatore di evoluzione. Infatti se invece di scegliere un insieme
di autovettori {ϵi }i=1,...,n se ne fosse scelto un altro: {&
ϵi := k(i) ϵi }i=1,...,n , (non sommare su i ), si sarebbe trovato
& Λt &
che la matrice P∼ tale che x(t) = P∼ ξ(t) = P∼ e ξ0 = P∼ eΛt P∼−1 x0 ha la forma
@ A
k1
P∼ := P K := P . .. ,
kn
infatti eΛt è diagonale sia in base {ϵi }i=1,...n che in base {&
ϵi }i=1,...n . Pertanto si ha nuovamente
&
Ψ(t) = P∼ eΛt P∼−1 = P KeΛt K −1 P −1 = P eΛt P −1 = Ψ(t).
D’altra parte è noto che se più autovettori linearmente indipendenti corrispondono a uno stesso autovalore,
risultano autovettori ad esso corrispondenti anche tutte le loro combinazioni lineari, e viceversa. ♦
È ormai agevole concludere lo studio della prima delle zone considerate all’inizio del paragrafo per il caso
dimV = 2 , e cioè Det < 0, ∆ > 0 . Per disegnare il diagramma di fase si osserva che essendo ) 1P invertibile
* ) λ tesso *
ξ (t) e 1 ξ01
trasforma spazi trasversali in spazi trasversali, e quindi trasforma il diagramma standard di =
ξ 2 (t) eλ2 t ξ02
) 1 *
x (t)
in quello (omeo- e anzi diffeo-morfo) delle senza mutarne le caratteristiche topologiche. Il diagramma
x2 (t)
quindi consiste in quattro semirette distinte uscenti dall’origine, e in tutte le traiettorie che sono deformazioni
(lineari) dei semi-archi di iperboli
) 2 *k
ξ 1 (t) ξ (t) λ1
= , k := <0;
ξ01 ξ02 λ2
secondo quanto si è detto nel § II.3 un punto di equilibrio di questo tipo è un esempio di Sella standard.
²2
x = P»
e2 ²2
e1
²1
²1
M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 105
quindi in un intorno di (π, 0) si ha il seguente diagramma, come d’altronde già visto nel Cap.II.
x
#
( ) *
ẋ = x + y x0
Esempio 2.2.10 ∈ R2 ,
ẏ = 4x − 2y y0
) *
1 1
T = , λ2 − (−1)λ + (−2 − 4) = 0 =⇒ λ1,2 = (−3; 2).
4 −2
) *
r
Ancora con la notazione ϵ ≡ , si ha
s
) * ) *
1 1
r1 + s1 = −3r1 =⇒ ϵ1 = , r2 + s2 = 2r2 =⇒ ϵ2 =
−4 1
da cui ) *
) −3t *
1 1 e 0 Λt
P = , e = ,
−4 1 0 e2t
) * ) −3t *
.. λ2 t e e2t
Λt
P e = eλ1 t ϵ1
. e ϵ2 = ;
−4e−3t e2t
) * ) * ) *
ξ0 ξ0 x0
e quest’ultima viene applicata sul vettore soluzione di P = . #
η0 η0 y0
Esempio 2.2.11 ⎛ ⎞ ⎛ ⎞⎛ ⎞ ⎛ ⎞
ẋ 1 0 0 x x0
⎝ẏ ⎠ = ⎝1 2 0 ⎠ ⎝y ⎠ , ⎝ y 0 ⎠ ∈ R3 .
ż 1 0 −1 z z0
Si trovano λ1,2,3 = 1, 2, −1 . Poi, dalla seconda colonna segue ϵ2 = e2 e dalla terza ϵ3 = e3 . Per determinare
ϵ1 si ha ⎧ ⎛ ⎞
⎪
⎨ x=x 2
x + 2y = y e questa dà ϵ1 = ⎝−2⎠ .
⎪
⎩
x−z =z 1
Infine, è conveniente chiamare ξ0 , η0 , ζ0 le tre componenti in base propria del dato iniziale, e usare la
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
ξ0 2ξ0 x0 2 0 0
P ⎝η0 ⎠ = ⎝−2ξ0 + η0 ⎠ = ⎝ y0 ⎠ per ricavare P −1 = ⎝−2 1 0 ⎠ .
ζ0 ξ0 + ζ0 z0 1 0 −1
#
la tangenza cioè si ha lungo l’autovettore corrispondente all’autovalore di minimo modulo. Un punto di equilibrio
di questo tipo si chiama
Nodo stabile se ℜe λ < 0 e Nodo instabile se ℜe λ > 0;
e non può presentarsi in sistemi che siano conservativi (si veda oltre).
²1 e2
²2 e1
²2
²1
Esempio 2.2.12 L’oscillatore lineare fortemente smorzato:
ẍ + k ẋ + x = 0, (x0 , ẋ0 ) ∈ R2
) * ) *) * ) *
ẋ 0 1 x x0
equivalente a = , ∈ R2 .
ẏ −1 −k y y0
1
L’equazione λ2 − (−k)λ + 1 = 0) fornisce
* ∆ =)k 2 −* 4 > 0 se |k| > 2 . Sia, per esempio, k = 3 + 3 . Se ne
1 3
ricava: λ1,2 = (−3; − 31 ); ϵ1 = , ϵ2 = e quindi
−3 −1
) * ) * ) * ) * ) −3t * ) 1*
x x0 x 1 3 e 0 c
= P eΛt P −1 ⇒ = .
y y0 ẋ −3 −1 0 e−t/3 c2
Dal diagramma di fase si vede subito che l’oscillatore fortemente smorzato ha al più una inversione di moto.
Si può anche osservare che le seconde componenti dei versori di base {ϵi }i=1,2 sono λi -volte le prime (cosa
questa già accaduta nell’Esempio 2.2 e che dipende dalla provenienza del sistema da una equazione di ordine
superiore).
È facile riconoscere che lo stesso diagramma di fase si ottiene per la soluzione locale nell’intorno della posizione
di equilibrio (stabile) di un pendolo fisico fortemente smorzato. #
M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 107
I vettori xµ e yµ sono in V, e di certo linearmente indipendenti e reali giacché β ̸= 0 . Data la loro indipendenza
lineare, e cioè dato che P∼ è non singolare, la coppia {xµ , yµ } può essere assunta come base: e & nel piano
V := R- span{xµ , yµ } . In tal modo un vettore x le cui e -componenti sono (x , x ) avrà e -componenti date da
1 2 &
)µ * ) 1*
ξ& x
:= P∼−1 . Il sistema coniugato dell’iniziale sistema (2.26) è allora
η& x2
) * ) * ) *
d ξ& −1 ξ& & ξ&
:= P∼ T P∼ =T (2.41)
dt η& η& η&
ed è anche ) *
α −β
T& = ΥΛ
& Υ& −1 = = Rµ
β α
N.B. 2.2.13 Infatti: le (ξ, & η&), se considerate numeri complessi a parte immaginaria nulla, sono anche le com-
ponenti (reali) nella base e ≡ {(1 + i0)xµ , (1 + i0)yµ } ⊂ C V del vettore reale x ≡ x + i0 ∈ C V che in base
C &
e := {(1 + i0)e1, (1 + i0)e2 } ⊂ C V ha componenti (x1 , x2 ) ∈ C2 . Inoltre, stante la definizione (2.39) dei due
C &
vettori xµ e yµ , esistono:
Υ invertibile, tale che ε ≡ {ϵµ , ϵ̄µ } = Υ C {xµ , yµ } ≡ ΥC e
& , con e & ed e -matrice Υ = P∼ ΥP
& -matrice Υ & −1 ;
∼
P invertibile, tale che {ϵµ , ϵ̄µ } = P {e1 , e2 } con e -matrice: P ;
C
• P = Υ ◦ P∼ ha e ed C
e -matrice P &
= Υ P∼ = P∼ Υ;
• il generico vettore x ∈ C V reale, e quindi tale che x̄ = x, ammette le seguenti rappresentazioni cartesiane
& µ + η&yµ
x = C x = x1 C e1 + x2 C e2 = ξx (2.42)
1 &0 1 1 0& 1
= η ϵµ +
ξ + i& η ϵ̄µ =: ξ 1 ϵµ + ξ 2 ϵ̄µ
ξ − i& (2.43)
2 2
1 1
=: z ϵµ + z̄ ϵ̄µ ≡ ℜe (z ϵµ ) , (2.44)
2 2
e quindi tali che
ξ& = P∼−1 x = Υ
& ξ, e z ≡ ℜe z + iℑm z := ξ& + i&
η.
Si osservi che siccome la base C e ⊂ C V2 è composta da vettori reali (in quanto a parte immaginaria nulla)
un vettore x è reale se e solo se ha in essa componenti reali: x = xi C ei = x̄ = x̄i C ei e, analogamente, un
vettore y = −ȳ implica C T y = C T y ; pertanto non solo le x ma anche le ξ& sono tutte reali;
• in quanto complessificato di un operatore reale T , l’operatore C T non modifica il carattere, se puramente reale
o puramente immaginario, del vettore sul quale opera: x = x̄ implica C T x = C T x̄ ≡ C T x e, analogamente,
y = −ȳ implica C T y = −C T y ;
'
• indicato con Vµ := R- span {xµ , yµ } e detto Tµ := C T 'V si ha
µ
⎧ 1 1
⎪
⎪ Tµ xµ = C Tµ xµ = C T (ϵµ + ϵ̄µ ) = (µϵµ + µ̄ϵ̄µ )
⎪
⎪ 2 2
⎪
⎪
⎨ = + ℜe (µϵµ ) = +αxµ + βyµ
⎪
⎪ i i
⎪
⎪ Tµ yµ = C Tµ yµ = C T (ϵµ − ϵ̄µ ) = (µϵµ − µ̄ϵ̄µ )
⎪
⎪ 2 2
⎩
= − ℑm (µϵµ ) = −βxµ + αyµ .
) * ) *
µ1 0 µ 0
Ciò conferma che se una matrice τ = è del tipo particolare: Λ = (questo è quanto
0 µ2 0 µ̄
avviene nella base propria di un operatore C T reale) allora la matrice ΥΛ & Υ& −1 è reale e ha la forma
) *) *) *
& & −1 1 1 1 µ 0 1 i
ΥΛΥ =
2 −i +i 0 µ̄ 1 −i
) *) * ) *
1 1 1 µ iµ α −β
= = = T& .
2 −i +i µ̄ −iµ̄ β α
In definitiva,)l’operatore
*
C
T , che ha autovalori α±iβ e che in base C e ha matrice reale T , in base C e
& ≡ C {xµ , yµ }
α −β
ha matrice , e questa stessa matrice compete all’operatore Tµ nella base e & ≡ {xµ , yµ } . ♦
β α
Si osservi che il piano (complesso) C Vµ ≡ C- span {xµ , yµ } , coincidente con il piano C- span {ϵµ , ϵ̄µ } può essere
decomplessificato in uno spazio reale a dimensione quattro, e ha come parte reale lo spazio Vµ ≡ R- span {xµ , yµ } ,
(e come parte immaginaria iVµ ). Infatti, se un vettore ς ∈ C2 ha espressione ς = x + iy con x, y vettori
reali, e se è anche ς = z1 xµ + z2 yµ con z1 , z2 ∈ C e con xµ e yµ anch’essi reali, allora si ha necessariamente
x = (ℜe z1 )xµ + (ℜe z2 )yµ e y = (ℑm z1 )xµ + (ℑm z2 )yµ . Pertanto, chiamati z r := ℜe z1 + iℜe z2 e
z i := ℑm z1 + iℑm z2 si nota che x = ℜe (z r ϵµ ) e che y = ℜe (z i ϵµ ), e quindi che ℑm ς = ℜe (z i ϵµ ) ∈ Vµ .
Tutto ciò mostra che il sottospazio Vµ di C Vµ formato della sole parti reali dei vettori è T -invariante giacché
su di essa agisce (un operatore reale T rappresentato da) una matrice reale T& . Esso quindi contiene tutta la
dinamica reale 0la cui1 forma esplicita si ricava dalla (2.41) scrivendo nella base e & l’espressione esplicita della
α −β
& t
matrice eT t = e β α , per esempio mediante la sua stessa definizione:
@∞ ) A
0
α −β
1
t = 0 −1*k β k tk
β α αt
e =e
1 0 k!
k=0
I∞ @∞ A) *J
= 2k 2k = 2k+1 2k+1
αt k β t k β t 0 −1
=e (−1) 1I + (−1)
(2k)! (2k + 1)! 1 0
k=0 k=0
M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 109
N.B. 2.2.14 Alternativamente, ci si può servire della posizione (2.44) per riconoscere nuovamente che il piano
reale Vµ è il piano dei vettori (reali) di C V aventi la forma x = 12 (zϵµ + z̄ϵ̄µ ) = ℜe (zϵµ ), con z = ξ& + i&
η ∈ C, e
si riconosce che il sistema assegnato fà evolvere le coordinate scalari complesse z(t) e z̄(t) mediante le
Da questa è agevole ottenere l’evoluzione di & µ + η&yµ = (ℜe z)xµ + (ℑm z)yµ ; essa è data da
ℜe (zϵµ ) = ξx
µt µt µt
ℜe (z(t)ϵµ ) = ℜe (e z0 ϵµ ) = ℜe (e z0 ) xµ + ℑm (e z0 ) yµ con
7 8
ℜe eµt z0 = eαt cos βt ξ&0 − eαt sin βt η&0
7 8 ♦
ℑm eµt z0 = eαt sin βt ξ&0 + eαt cos βt η&0 .
In entrambi i casi si riconosce che, nella base {xµ , yµ } , si ha
) * ) * ) *) * ) *
&
ξ(t) & ξ& cos βt − sin βt ξ&0 cos(βt + θ0 )
= eT t 0 = eαt = eαt ρ0
η&(t) η&0 sin βt cos βt η&0 sin(βt + θ0 )
y¹ := -= m ²¹ y¹ := -= m ²¹
²¹ ²¹
²¹ ²¹
ricavando ( ) *
a + bp3 = α + β 1 1
da cui P∼ = .
a + bp4 = α − β (α − a + β)/b (α − a − β)/b
Nota 2.2.2 Le considerazioni fatte nel N.B. 2.2.13 sono suscettibili di estensione al caso n-dimensionale quando
gli autovalori dell’operatore reale T , siano essi reali o complessi, sono tutti distinti. Infatti secondo quanto si è
visto sopra dall’essere x reale ed {ϵµ , ϵ̄µ } complessi coniugati segue che x = x1 C e1 + x2 C e2 = ξϵµ + ξ̄ϵ̄µ e ciò
) * ) *
ξ &
implica: x =: ℜe (zϵµ ) con z := 2ξ = ξ& + i η& e con ¯ = Υ & −1 ξ . D’altra parte, ciò sussiste per ciascuna
ξ η&
coppia distinta di autovalori complessi coniugati. Ne segue che, dette µh e µ̄h , con h = 1, . . . , τ , le coppie di
autovalori complessi, e λ1 , . . . , λk , con k = 1, . . . , ν quelli reali, e quindi con ν +2τ = n, si ha la semplice relazione
ν
@ τ A
= =
k λk t h µh t
x(t) = ξ0 e ϵk + ℜe z0 e ϵµh ,
k=1 h=1
Cν 7Cτ 8
ove x0 =: k
k=1 ξ0 ϵk + ℜe h
h=1 z0 ϵµh . ◃
Nota 2.2.3 Seguendo la traccia vista nell’Esempio 2.1, il problema si sarebbe potuto anche risolvere direttamente in C V , (si veda
anche il N.B.2.2.13). Indicate con C e:= {(1)+ i0)e1 , (1 + i0)e*2 } la base data, con ε
:= {ϵµ , ϵ̄µ } la base degli autovettori di C T ,
α + iβ 0
con Ue la base {ℜe ϵµ , −ℑm ϵµ } , e con Λ =
0 α − iβ
C
la matrice di T in base ε
, per la matrice T di C T in base data
si ha, con la consueta notazione, T = P Λ P −1 , ove: ε
=P . e
Come si è già accennato sopra, l’operazione P può essere suddivisa in un prodotto di operazioni. Sia Υ l’operatore che diagonalizza
in C V l’operatore C
) T a*partire dalla e
U . Essendo l’operatore che estrae i vettori {ϵµ , ϵ̄µ } dai vettori {ℜe ϵµ , −ℑm ϵµ } , esso ha U - e
& = 1 1
matrice: Υ . L’operatore Υ−1 è allora quello che estrae la parte reale xµ e l’opposto yµ di quella immaginaria dei
−i i
) * ) *
e
versori della base U ; di conseguenza esso ha ε
-matrice: Υ & −1 = 1 i −1 = 1 1 +i .
2i i +1 2 1 −i
) * ) 1* ) *
ξ& −1 x ξ
Corrispondentemente, un vettore (reale) x , che abbia U e
-componenti (reali)
η&
= P∼
x 2 , ha anche -componenti ε ξ̄
tali
che @ A
) * ) * ) 1* ) 1*
& &
ξ
=Υ & −1 ξ = 1 ξ + i& η
; o anche
ξ
= &
Υ −1 −1 x
P ∼
ξ̄ η& 2 ξ& − i& η ξ2 x2
dato che la base ε ha i suoi versori l’uno complesso coniugato dell’altro. Pertanto è possibile porre
1 &
[ξ(ϵµ + ϵ¯µ ) + i η&(ϵµ − ϵ¯µ )] = ξ& xµ + η& yµ
x = ξϵµ + ξ̄ϵ̄µ =
2
1
=: (z ϵµ + z̄ ϵ̄µ ) ≡ ℜe (zϵµ ) ,
2
e cioè @ A @ A
0 1 ) * ) * ) *
ξ& &
ξ1
& ξ = ξ + ξ̄ ℜe z
xU = =Υ =: Υ =: ,
e η& ξ2 ξ̄ −i(ξ − ξ̄) ℑm z
7 8
provando cosı̀ che, in tal caso, ξ& ed η& sono entrambe reali. (Si badi che le ε
-componenti del vettore x sono ξ, ξ̄ ≡ (z/2, z̄/2)
&
quando si chiama z = ξ + i& &
η , essendo (ξ, η&) le U e
-componenti dello stesso vettore x . )
Allo stesso modo si ha
) *
T = P Λ P −1 = P∼ T& P∼ −1
, con T& = Υ & ΛΥ & −1 ≡ P −1 T P∼ = α −β .
∼ β α
Va tenuto presente tuttavia che in tal modo si ottengono le componenti di un vettore complesso a parte immaginaria nulla, e che
occorre servirsi delle considerazioni sulla evoluzione uscente da condizioni iniziali reali, o alla invarianza separata dei due piani Vµ ed
iVµ delle parti reale e immaginaria dei vettori in C - span {ϵµ , ϵ̄µ } , per poter ritornare alla sola parte reale di C V .
In modo analogo e sfruttando il fatto che un operatore reale ha complessificato che ammette autovettori a coppie complessi coniugati,
si può diagonalizzare in C Rn un qualunque operatore semisemplice, e cioè con autovalori anche non reali purché distinti, mediante un
operatore invertibile con matrice P = P∼ Υ & con P∼ quella che manda la base {(1 + i0)eh }h=1,...,n nella {(1 + i0)ϵλ1 , . . . , (1 +
& quella che esprime in tale base la {ϵλ , . . . , ϵλ , ϵµ , ϵ̄µ , . . . , ϵ̄µτ } .
i0)ϵλk , ℜe ϵµ1 , −ℑm ϵµ1 , . . .} e con Υ ◃
1 ν 1 1
M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 111
) * ) *
ẋ −2y
Esempio 2.2.18 = , x0 , y0 ∈ R.
ẏ x + 2y
) *
0 −2
Essendo T = si ha λ2 − 2λ + 2 = 0 e quindi µ1,2 = 1 ± i . Ne segue il problema agli au-
) 1 * +2
) * ) * ) * ) *
0 −2 r r r 1−i
tovettori: = (1 + i) =⇒ −2s = r + ir =⇒ = da cui P∼ =
1 +2 s s s −1
) * ) *
+1 1 0 −1
, P∼−1 = . Di conseguenza:
−1 0 1 +1
) * ) *) *) *) *
x(t) t 1 1 cos t − sin t 0 −1 x0
=e .
y(t) −1 0 sin t cos t 1 1 y0
) * ) * ) * @ A ) *
ξ0 −1 x0 &
&
−1 ξ0 1 ξ&0 + i&
η0 1 z0
=P =Υ = =
ξ¯0 y0 η&0 2 ξ&0 − i&
η0 2 z̄0
) *
x0 + i0
sono le componenti di
y0 + i0
in base ε.
Si può controllare esplicitamente che:
) * ) * ) * @ A
1 z(t) t eit 0 & −1 ξ0
& et eit (ξ&0 + i&
η0 )
=e Υ =
2 z̄(t) 0 e−it η&0 2 e−it (ξ&0 − i& η0 )
@ A
et (cos t + i sin t)(ξ&0 + i&
η0 )
=
2 (cos(−t) + i sin(−t))(ξ&0 − i& η0 )
@ A
et ξ&0 cos t − η&0 sin t + i(ξ0 sin t + η0 cos t)
=
2 ξ&0 cos(−t) + η&0 sin(−t) + i(ξ&0 sin(−t) − η&0 cos(−t))
e che ) * ) * ) *) * ) *
ℜe z(t) 1 & z(t) cos t − sin t ξ&0 &
ξ(t)
= Υ = et =
ℑm z(t) 2 z̄(t) sin t cos t η&0 η&(t)
è la somma di due vettori reali et (ξ&0 cos t − η&0 sin t)xµ + et (ξ&0 sin t + η&0 cos t)yµ . #
ẍ + k ẋ + x = 0, x0 , ẋ0 ∈ R .
)*
1 0 /
Sia |k| < 2 . Si ha T = , con autovalori µ1,2 = α ± iβ := − k2 ± i 1 − k 2 /4. Dalla equazione agli
−k −1
) * ) *
1 1 0
autovettori: s = (α + iβ)r si ricava ϵµ = , e cioè P∼ = . Pertanto, il moto lineare con
α + iβ α −β
piccola dissipazione ha un numero infinito di inversioni, infatti la (2.45) fornisce:
) * ) *) *) *) *
x(t) 1 0 cos βt − sin βt 1 0 x0
= eαt .
y(t) α −β sin βt cos βt α/β −1/β y0
x¹
y¹ #
Nota 2.2.4 Nel caso di un problema piano, il verso di rotazione si può trovare anche nel seguente modo.
Siano x, y, r, ϕ ∈ R; la trasformazione x = r cos ϕ e y = r sin ϕ dà
) *
1 cx2 + (d − a)xy − by 2 a b
ϕ̇ = (−y ẋ + xẏ) = ove = T.
r 2 r2 c d
Dalla ∆ = T r2 − 4Det = (a + d)2 − 4(ad − bc) = (a − d)2 + 4bc segue che se è ∆ < 0 allora è anche bc < 0 .
Siano, per esempio, b < 0 e c > 0 .
2
Per y = 0 è ϕ̇ > 0; né può annullarsi per alcun y ̸= 0 perché la condizione ϕ̇ = 0 implica la c (x/y) + (d −
a) (x/y) − b = 0 che ha discriminante (d − a)2 + 4bc < 0 . Pertanto ϕ̇ resta sempre strettamente positivo (sotto
l’ipotesi b < 0, c > 0 ) e quindi x, y cambiano segno infinite volte. ◃
Nota 2.2.5 Come si è accennato, l’intero procedimento di risoluzione avrebbe potuto trarre spunto dai risultati
visti nel Cap.I. Posto infatti, con x, y ∈ R, u := y/x, si ha xu′ = y ′ − u e la
cx + dy
y′ = =: f (x, y)
ax + by
diviene integrabile:
du dx
= .
f (1, u) − u x
Ad esempio nel caso
(
a=d=α
e cioè f (1, u) − u = (1 + u2 )/( α
β − u)
c = −b = β
α 1
si ottiene β arctan u − 2 ln(1 + u2 ) − ln x = cost ovvero
x2 + y 2 2α y
ln x2 + ln − arctan = cost,
x2 β x
e quindi
y
x2 + y 2 = cost · e2αθ/β , θ := arctan .
x
È chiaro però che in questo modo la complessità del calcolo è molto superiore, anche perché occorre tener presente
il cambio di carta ogni volta che la variabile a denominatore si annulla. ◃
Per esaurire lo studio dei diversi casi che si verificano sul sistema (2.26), al variare dei parametri T r e Det,
rimangono ancora da esaminare i casi non generici.
Zona V I
L’operatore T di campo nell’equazione (2.26), la cui matrice è T , abbia T r = 0 e ∆ < 0 ; e quindi Det > 0 .
L’operatore T ha ancora due autovalori complessi coniugati, ma ora essi hanno entrambi parte reale nulla:
(
µ := +iβ 1√ √
con β := −∆ = Det > 0 .
µ̄ := −iβ 2
M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 113
Le considerazioni fatte per le Zone III rimangono valide per quanto riguarda la complessificazione e i seguenti
risultati algebrici: i due autovettori {ϵµ , ϵ̄µ } individuano il piano reale { 12 (ϵµ + ϵ̄µ ); 2i (ϵµ − ϵ̄µ )} sul quale però ora
le traiettorie non sono più trasformate lineari di spirali, bensı̀ di circonferenze concentriche nell’origine, dato che
α = ℜe µ = 0
) * ) *) *
&
ξ(t) cos βt − sin βt ξ&0
=
η&(t) sin βt cos βt η&0
dx du (u + ab )(−1)du
= c+du
= 7 8
x a+bu − u u2 − d−a b u − cb
(
a+d=0 1
che nella zona IV, e cioè con dà − ln x = 2 ln(u2 + 2 ab u − cb ) + cost ovvero:
∆<0
a c
y 2 + 2 xy − x2 = cost
b b
a2 c
e questa individua un’ellissi dato che b2 + b risulta negativo in conseguenza del fatto che la a2 = −ad fornisce
a2 + bc = −Det < 0 ◃
Conviene ricordare ancora una volta che nel caso in cui gli autovalori della matrice del campo abbiano parti
reali nulle (e immaginarie diverse da zero) la linearizzazione in generale non dà risultati attendibili sul sistema
non lineare di partenza. Talvolta però, per esempio nel caso di sistemi conservativi, l’informazione ottenuta dallo
studio del sistema lineare è sufficiente a tracciare un corretto diagramma di fase:
x = x¹
x¸1
y¹ #
e quindi ) *
b b
P =
−a d
certamente non singolare dato che T r = a + d ̸= 0 .
) *
d c ′
N.B. 2.2.24 Se fosse b = 0 basterebbe scambiare x ↔ y ottenendo T = mediante la quale, nell’ipotesi
) * b a
c c
c ̸= 0 , si ottiene P ′ = e i seguenti calcoli sarebbero analoghi. D’altra parte il caso b = c = 0 verrà
−d a
esaminato nelle Zone V, se a = d, oppure è già noto. ♦
Risulta evidentemente
) * ) *
1 d −b 0 0
P −1 = da cui P −1 T P =
b(a + d) a +b 0 k
ove si è posto
k := (a + d)−1 (a2 + bc + ad + d2 ) ≡ (a + d) .
Pertanto il sistema equivalente è ) * ) *
ξ̇ 0
=
η̇ kη
Le rette ξ = ξ0 , e cioè le rette dx − by = cost sono senz’altro linee che contengono traiettorie. Queste saranno
le due semirette e il punto di equilibrio individuati dalle intersezioni di queste rette con la (unica) η = 0 , ovvero la
ax + by = 0 .
d/b x
-a/b
»
#
Zone Vi e Vs
È questo il caso più difficile, sopratutto se si pensa al caso dei sistemi di dimensioni superiori a due. Nel caso
bidimensionale (2.26) si ha ∆ = 0 e l’operatore T ha autovalori (reali) coincidenti: λ1 = λ2 =: λ = T r/2 . D’altra
parte, siccome questa λ è soluzione dell’equazione Det (T − λ1I ) = 0 se ne conclude che il sistema omogeneo
(T − λ1I ) x = 0 ammette soluzioni reali non banali, e quindi che esiste in V almeno un autovettore di T : ϵ1 ∈
Ker (T − λ1I )\ {0} .
Si scelga un qualsiasi ϵ2 non parallelo a ϵ1 . Siccome si sta considerando il caso dim = 2 si avrà senz’altro
T ϵ 2 = c1 ϵ 1 + c2 ϵ 2
) *
λ c1
I due vettori {ϵ1 , ϵ2 } formano una base in V ≡ R e, rispetto a questa, l’operatore T ha matrice T =
2
. ′
0 c2
Ma il determinante dell’operatore non dipende dalla base, e quindi
M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 115
Sottocaso 1 ϵ2 sia anch’esso autovettore di T , e cioè ϵ2 ∈ Ker (T − λ1I ) pur non essendo linearmente
dipendente da ϵ1 . Necessariamente c1 = 0 , e il Ker (T − λ1I ) coincide con tutto lo spazio delle fasi V. Inoltre
la base {ϵ1 , ϵ2 } disaccoppia le due equazioni e siccome la matrice 1I commuta con ogni altra, la matrice di T è in
questo caso diagonale in ogni base. L’uguaglianza degli autovalori fa sı̀ che il punto di equilibrio sia un particolare
nodo: e cioè una stella .
Ad esempio con λ > 0 si ha
In effetti si ha
ϵ2 ∈ Ker (T − λ1I )2 \Ker (T − λ1I )1
ϵ1 ∈ Ker (T − λ1I )1 \Ker (T − λ1I )0
e Ker (T − λ1I ) è l’unico sottospazio di V che sia T -invariante.
La matrice eJ t e la matrice eE2 t si calcolano agevolmente mediante la definizione stessa di esponenziale di un
operatore dopo aver osservato che E2n≥2 = 0 :
+) * ) * ,
(λ1I +E2 )t λt E2 t 1
λt 0 0 1
e = e e = e + t . (2.46)
0 1 0 0
Un’istruttiva interpretazione del comportamento di un operatore di questo tipo è fornita (si veda: [Arnold 1]), dal seguente:
Esempio 2.2.25 Sia Pn ([a, b]) lo spazio n -dimensionale dei polinomi di grado minore di n definiti su [a, b] ⊂ R :
n−1
(
= τ ∈ [a, b] ⊂ R
p = p(τ ) := p&h τ h
h=0
p h ∈ R, h = 0, . . . , n − 1 .
d
N : Pn → Pn dato da N p := p.
dτ
d
L’operatore è evidentemente lineare, ha immagine data da Pn−1 , ha un solo autovalore e un solo autovettore: p = λp ⇐⇒
( dτ
λ = 0,
Inoltre (con gli esponenti ad indicare potenze algebriche dello scalare τ ) si ha
p(τ ) = τ 0 .
Ker N ≡ span{τ 0 }
Ker N 2 ≡ span{τ 0 , τ 1 }
Ker N 3 ≡ span{τ 0 , τ 1 , τ 2 }
···
Ker N n ≡ span{τ 0 , τ 1 , . . . , τ n−1 } ≡ Pn .
M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 117
Pertanto l’operatore Ht : Pn → Pn coincide con l’esponenziale di N t . La sua matrice, in quella base {ϵi }i=1,...,n nella quale
l’operatore N ha matrice En , sarà eE n t , e questa la si può ricavare o calcolando direttamente le potenze della matrice En , oppure
osservando che la sua (j + 1) -esima colonna, j = 0, 1, . . . , n − 1, si può ricavare dalla espressione:
) * =j
τj (τ + t)j τ k tj−k
Ht = = =
j! j! k=0
k! (j − k)!
j+1
= j+1
= tj−i+1
τ (i−1) tj−i+1
= = ϵi
i=1
(i − 1)! (j − i + 1)! i=1
(j − i + 1)!
0 1i
=: eE n t ϵi ;
j+1
quindi si ha
⎛ ⎞
t2 tn−1
1 t 2!
··· (n−1)!
⎜ ⎟
⎜ .. ⎟
⎜0 1 t . ⎟
⎜ ⎟
⎜ ⎟ n−1 h
⎜ ⎟ = t
eE n t =⎜ .
⎜ .. .. t2
⎟=
⎟ (En )h .
⎜ . ⎟ h=0 h!
2!
⎜. ⎟
⎜. .. ⎟
⎜. . t ⎟
⎝ ⎠
0 ··· 0 1
#
A volte, quando si lavora sui polinomi, l’operatore N mantiene la sua notazione originaria d/dτ e il suo esponenziale viene scritto
d
con et dτ (l’operatore di derivazione è il generatore del gruppo delle traslazioni), ma è evidente che se, più in generale, un certo
operatore agisce su uno spazio vettoriale V a dimensione finita n in modo che in qualche base la sua matrice è En allora, come si è
già osservato, esso condivide tutte le caratteristiche dell’operatore N appena visto, e in quella stessa base il suo esponenziale eN t ha
matrice data dalla eE n t .
In tal modo si è risolto il problema della determinazione della matrice esponenziale di un operatore elementare nilpotente.
Esempio (terza parte)
Si fissi ora un numero reale λ ̸= 0 (o complesso, e allora lo spazio vettoriale qui di seguito è da intendersi complessificato di uno reale)
e si consideri lo spazio vettoriale APn
λ dei “quasi–polinomi” di esponente λ e grado minore di n , e cioè funzioni del tipo e
λτ p(τ ) con
p(τ ) ∈ Pn come sopra. Anche APn λ è uno spazio a dimensione finita n ; una sua possibile base è
M Z
τ τ2 τ n−1
{ϵi }i=1,...,n := eλτ , eλτ , eλτ , . . . , eλτ ,
1! 2! (n − 1)!
Ht manda APn λ in sé, infatti anche quest’ultimo è un quasi–polinomio in APλ e come tale ammette serie di Taylor di punto iniziale
n
d
e cioè anche qui l’operatore di traslazione Ht : APn n
λ → APλ è l’esponenziale dell’operatore t dτ
.
D’altra parte il calcolo di eλ(τ +t) p(τ + t) è assai agevole:
n−1
= =j
τ k tj−k
eλ(τ +t) p(τ + t) = eλτ eλt pj
j=0 k=0
k! (j − k)!
n
= j
= tj−i τ i−1
= pj−1 eλt eλτ
j=1 i=1
(j − i)! (i − 1)!
n =
= n
=: pj−1 (eJ t )ij ϵi
j=1 i=1
Si ricordino ora i noti risultati della teoria generale degli operatori lineari secondo la quale ciascun arbitrario
operatore T ∈ L(V) ammette altrettanti sottospazi Mj ⊂ V, T -invarianti, detti autospazi generalizzati, quanti
sono i suoi autovalori λ1 , . . . , λr distinti. Ciascuno degli Mj ha dimensione
' pari alla molteplicità algebrica a(λj )
del corrispondente autovalore λj , ed è tale che l’operatore (T − λj 1I ) 'M è nilpotente di ordine qj ≤ aj .
j
In virtù della Nota che segue l’Esempio 2.0 tali proprietà, unite a quanto fatto nell’esempio appena visto,
risolvono la determinazione della matrice esponenziale di un qualsiasi operatore T quando sia nota la base che gli
assegna la forma di Jordan TJ ; e cioè, quando sia nota la base che gli assegna una matrice avente non nulli solo
dei blocchi elementari di Jordan disposti lungo la diagonale principale.
Esempio 2.2.26 L’oscillatore ẍ + k ẋ + x = 0 al punto critico: |k| = 2 .
Si assuma k = +2 , il caso k) = −2 essendone
* diverso solo per il verso con il quale le traiettorie vengono descritte.
0 1
All’equilibrio si ha T = e quindi λ1,2 = −1 .
−1 −2
) *
1
Dalla prima equazione agli autovettori si ricava ϵ1 = e cioè un vettore nel Ker (T − λ1I ). Poi, dal fatto
−1
che per qualsiasi r, s ∈ R si ha
) * ) *) * ) *
r +1 +1 r 1
(T − λ1I ) = ≡ (r + s) , (2.47)
s −1 −1 s −1
si deduce che il Ker (T − λ1I ) ospita solo il versore ϵ1 e non altri ad esso linearmente
) * indipendenti.
0
Scelto per esempio come secondo versore di base il vettore ϵ2 ≡ e2 = dalla (2.47) si riconosce che
1
(T − λ1I 2 )ϵ2 = ϵ1 . Di conseguenza nella base {ϵ1 , ϵ2 } la matrice di T è proprio il blocco di Jordan J = λ1I2 + E2
che implica (T − λ1I )2 = 0 .
Si ha cioè ) * ) *
1 0 −1 −1 1
P = , P TP = = λ1I 2 + E2 .
−1 1 0 −1
Chiamate ξ, η le componenti del vettore x in base {ϵ1 , ϵ2 } , il sistema equivalente alla ẋ = T x nel caso di
radice doppia: λ è allora dato da: (
ξ˙ = λξ + η
η̇ = λη .
Come già visto nella (2.46) più sopra, in base {ϵ1 , ϵ2 } , l’evolutore eT t ha matrice data da
⎛ ⎞
) * ..
1 t ⎜ . ⎟
eJ t = eλt = eλt (1I2 + tE2 ) = eλt ⎝ϵ1 .. tϵ1 + ϵ2 ⎠ (2.48)
0 1 ..
.
M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 119
-¸
»
Nota 2.2.7 L’osservazione che ha portato alle (2.46), (2.48) si può perfezionare. Si può notare infatti la validità
dei seguenti passaggi:
P (1I + t E2 )P −1 = 1I + t P E2 P −1 = 1I + t (T − λ1I )
leciti in quanto l’anti–trasformata di E2 = J − λ1I 2 , in questo esempio, è proprio la matrice T − λ1I che esprime
nella base assegnata l’operatore T − λ1I elementare nilpotente di ordine q = 2 . ◃
In base alla Nota 2.2.7 la soluzione dell’oscillatore critico è data, più semplicemente della (2.49), dalla
) * +) * ) *, ) *
x(t) −t 1 0 1 1 x0
=e +t
ẋ(t) 0 1 −1 −1 ẋ0
) *) *
1+t t x0
= e−t
−t 1 − t ẋ0
Curiosità: Il versore ϵ1 coincide con il vettore ϵµ del caso |k| < 2 quando lo si calcoli per |k| = 2 , ed è
proporzionale a ciò che diviene il versore ϵ1 del caso k > 2 nel limite k → 2 .
Nota 2.2.8 Con lo stesso metodo visto nella Nota 2.2.4, e con x, y, ϕ ∈ R, si riconosce che ϕ̇ = 0 per i punti tali
che cx2 + (d − a)xy − by 2 = 0 , e cioè, siccome qui ∆ = (a − d)2 + 4bc = 0 , lungo le due semirette xy = − d−a
2c .
) *
r
D’altra parte l’autovalore λ = a+d2 fornisce per l’autovettore ϵ = la condizione cr = a−d
2 s. Se ne ricava
s
che ϕ̇ rimane strettamente diverso da zero, (positivo se c > 0 e b < 0 ), salvo che per i vettori paralleli ad ϵ . ◃
Con tale risultato si esaurisce lo studio dei i possibili equilibri per un sistema lineare a coefficienti costanti e
dimensione due. Essi possono essere ricordati mediante la figura qui di seguito disegnata sul piano (T r T , Det T )
dell’operatore T di campo.
In essa i diagrammi indicati sono globali per il sistema lineare; verrà poi ricordato (si veda: § IV.1 teor.2]) che
ad eccezione del caso ℜe λ = 0 essi sono anche “simili”, per ogni t, ma solo localmente intorno al punto di
equilibrio a quelli del sistema non lineare ẋ = v(x) con v(0) = 0, v∗ (0) = T . In tale affermazione si devono
considerare simili i nodi e le spirali; si tratta cioè di una semplice similitudine topologica.
Det
Tr
con ⎛ ⎞
.. ..
⎜Jsj−1 +1 . 0 . ⎟
⎜ ··· ··· ··· ⎟
⎜ ⎟
⎜ .. .. ⎟
⎜ 0 . Jsj−1 +2 . ⎟
⎜ ⎟
τj =⎜
⎜ ··· ··· ··· ⎟
⎟
⎜ .. .. .. ⎟
⎜ . . . ⎟
⎜ ⎟
⎜ ···⎟
⎝ ⎠
..
. Jsj
nella quale si sono indicati, in modo analogo al precedente paragrafo,
⎛ ⎞
λj 1 0 0
⎜ 0 λj 1 ⎟
⎜ ⎟
⎜ .. .. ⎟
Jij := λj 1Ikij + Ekij ≡ ⎜
⎜ . . ⎟
⎟
⎜ .. ⎟
⎝ . 1⎠
0 λj
Cj−1
con: s0 := 0 , sj−1 := h=1 gh , ij ∈ {sj−1 + 1, sj−1 + 2, . . . , sj−1 + gj =: sj } , con kij ≤ qj ≤ aj ,
j = 1, . . . , r , e dove (si veda anche l’Appendice A.6 e la Nota 2.3.1 qui di seguito):
'
• qj ≤ aj := a(λj ) è l’ordine di nilpotenza dell’operatore (T − λ1I ) 'M ;
j
• almeno uno dei Jij nella rappresentazione di Jordan τ J , ha dimensione ki j uguale al corrispondente qj .
Nota 2.3.1 [importante] Se lo scopo è solo quello di risolvere l’equazione ẋ = T x e non quello di trovare
esplicitamente la base propria dell’operatore T , rappresentato dalla matrice T nell’assegnata base, non conviene
eseguire tutto il calcolo necessario ad individuare la base di Jordan. Infatti, dalla teoria è sufficiente estrarre i
seguenti risultati (si veda: Appendice A.6, e Nota 2.2.7). ◃
V = M1 ⊕ · · · ⊕ Mr , (3.50)
Mj : = Ker(T − λj 1I )qj
1 ≤ qj ≤ a(λj ) ≡ dim Mj
Ker (T − λj 1I )qj −1 ⊂ Ker (T − λj 1I )qj = Ker (T − λj 1I )qj +1 ;
Ciò permette di osservare che per la determinazione della dinamica sono questi sottospazi e non i singoli autovettori
generalizzati ad essere gli equivalenti degli autovettori di un operatore diagonalizzabile. Infatti, cosı̀ come nel caso
di diagonalizzabilità (e cioè di autovalori tutti divisori elementari semplici: gj = aj per ciascun j = 1, . . . , r ) per
scrivere la dinamica occorre e basta trovare gli autovettori dell’operatore, per scrivere la dinamica nel caso generale
occorre e basta la conoscenza degli Mj e di un’arbitraria base {& ϵsj−1 +i }i=1,...,aj in essi (e non necessariamente
quella di Jordan: (T − λj 1I )ϵj = ϵj−1 ). Ciò perché una volta individuati per ciascun j = i, . . . , r gli autospazi
generalizzati Mj e una base in essi, in virtù della (3.50) ciascun x ∈ V ammette un’unica rappresentazione come
combinazione lineare di altrettanti vettori: xj ∈ Mj , per j = 1, . . . , r ; e siccome Mj è un sottospazio T -invariante,
e quindi T k -invariante, se un x0 è in Mj anche il suo evoluto eT t x0 sarà in Mj
• Decomporre il dato iniziale nei suoi addendi, uno per ciascuno degli spazi Mj :
r
=
x0 =: xj |0 , xj |0 ∈ Mj , j = 1, . . . , r .
j=1
A tale scopo si può cercare la matrice P∼ che esprime nella base data: {ei }i=1,...,n gli r gruppi di vettori:
{&ϵσj−1 +i }i=1,..,aj tali che: σ0 := 0 , σj = σj−1 + aj , e Ker (T − λj 1I )qj = span {&ϵσj−1 +1 , &
ϵσj−1 +2 , .., & ϵσj } ,
j = 1, . . . , r . Le colonne ϵ&h , h = 1, . . . , n, della P∼ sono composte dalle e -componenti dei vettori & ϵh ,
determinate in base alle corrispondenti (n − aj ) relazioni lineari su tali {e} -componenti che impongono
l’appartenenza del j -mo gruppo al sottospazio Mj . Si determinano cosı̀ le {& ϵ}-componenti (& x10 , . . . , x
&n0 ) dei
vettori xj |0 ∈ Mj mediante la
⎛ ⎞
r r hj
= = =
x j |0 = ⎝ &h0 ϵ&h ⎠ = x0 .
x
j=1 j=1 h=hj−1 +1
7 8
• Per ciascun xj |0 fare uso della nilpotenza di (T − λj 1I ) su Mj e dell’identità eλt x = eλt 1I x = eλ1I t x
per ottenere
∞
= tk
eT t xj |0 = e(T −λj 1I )t xj |0 eλj t = (T − λj 1I )k xj |0 eλj t
k!
k=0
qj −1
= t k
= (T − λj 1I )k xj |0 eλj t .
k!
k=0
• Ricavare infine ⎧
r
Iqj −1 J
⎪
⎪ = = tk
⎪
⎪ x : t &→ x(t) = (T − λj 1I )k xj |0 eλj t
⎪
⎨ k!
j=1 k=0
(3.51)
⎪
⎪ r
=
⎪
⎪ x =: x j |0 , xj |0 ∈ Ker (T − λj 1I ) qj
=: Mj
⎪
⎩ 0
j=1
(j)
e cioè il vettore soluzione uscente da xqj (0) = ϵqj primo vettore di una catena di lunghezza qj e certamente
esistente in Mj . #
M. Lo Schiavo
2.3. Sistemi differenziali lineari a coefficienti costanti, in Rn 123
ẋ = T x x 0 ∈ Rn n>2 (3.52)
si ha che:
(• ) Se Det (T − λ1I ) = 0 ha tutte le radici {λi }i=1,...,n distinte (in Cn ), ogni soluzione è del tipo
x(t) = P eΛt P −1 x0 =
⎛ ⎞ ⎛ξ1 ⎞
.. .. .. 0
= ⎝eλ1 t ϵ1 .. eλ2 t ϵ1 .. .. eλn t ϵn ⎠ ⎜
⎝
.. ⎟ .
. . . .⎠
. . . ξn 0
Più esplicitamente: se Det (T − λ1I ) = 0 ha ν radici reali: {λk }k=1,...,ν , e τ coppie di radici complesse:
{µh , µ̄h }h=1,...,τ , e quindi ν + 2τ = n, allora:
ν
@ ν+τ A
= =
k λk t h µh t
x(t) = ξ0 e ϵk + ℜe z0 e ϵµh
k=1 h=ν+1
ν
= ν+τ
= 7 8 7 8
= ξ0k eλk t ϵk + ℜe z0 h eµh t xµh + ℑm z0 h eµh t yµh =
k=1 h=ν+1
ν
= ν+τ
= N
= ξ0k eλk t ϵk + eαh t (ξ&0h cos βh t − η&0h sin βh t)xµh +
k=1 h=ν+1
O
+ (ξ&0h sin βh t + η&0h cos βh t)yµh
ove le colonne della matrice P contengono le {e} -componenti dei vettori (reali, individuati da T ) {ϵk }k=1,...,ν
e {xµh , yµh }h=1,...,τ ; e dove {ξ0k , ξ0h , η0h } sono le n costanti (scalari) reali arbitrarie (le z0 h sono complesse)
corrispondenti alle condizioni iniziali.
(• ) Se Det (T − λ1I ) = 0 ha ν radici reali distinte {λk }k=1,...,ν , eventualmente con molteplicità a(λk ) ≥ 1 ,
e τ coppie di radici complesse distinte {µh , µ̄h }h=1,...,τ , eventualmente con molteplicità a(µh ) ≥ 1 , e allora è
ν + 2τ = r < n, ogni soluzione ha la forma
x(t) = P eτ J t P −1 x0 =
⎛ ⎞⎛ ⎞
.. .. .. ξ01
⎜ . . . ⎟⎜ . ⎟
⎜ λ1 t (1) .. λ t (1) (1) .. λ t 1 2 (1) (1) (1) .. ⎟⎝ . ⎠
⎝e ϵ1 . e 1 (tϵ1 + ϵ2 ) . e 1 ( 2 t ϵ1 + tϵ2 + ϵ3 ) . ··· ⎠ .
.. .. ..
. . . ξ0n
Si nota che i vettori con componenti costanti (reali o complesse) arbitrarie del caso precedente vengono sosti-
tuiti da (certe) loro combinazioni polinomiali, di grado minore delle molteplicità algebriche, esse stesse combinate
linearmente con coefficienti arbitrari.
Caso particolare è quello di un’unica equazione di ordine n in una variabile scalare x : t &→ x(t) e cioè,
dh
indicando con x[h] := dth x, l’equazione:
Le soluzioni di tale equazione consistono ovviamente in una famiglia di funzioni scalari ma, per poter usare
lo studio fatto finora, esse verranno cercate come componenti di vettori funzioni, in effetti speciali vettori: tali da
avere le componenti successive uguali alle derivate di quelle precedenti. Posto cioè
per cui: le funzioni che verificano la (3.53) sono tutte e sole quelle corrispondenti alla prima componente di un
vettore x := (x1 , . . . , xn ) ≡ (x[0] , . . . , x[n−1] ), e cioè x : t &→ x(t) ∈ V ≡ Rn , che verifica il particolare sistema
lineare omogeneo: ⎛ ⎞
0 1 0 ··· 0
⎜ 0 0 1 0 0 ⎟
⎜ ⎟
ẋ = T x ove T := ⎜ . . . ⎟ . (3.56)
⎝ .. .. .. 0 ⎠
−an −an−1 ··· −a1
Sistemi di questo tipo formano ovviamente solo un sottoinsieme dei possibili sistemi a dimensione n, e quindi
essi avranno proprietà speciali e caratteristiche. Per essi, per esempio, il polinomio caratteristico pT (λ) :=
Det (T − λ1I ) ha la speciale forma
Infatti, se si pretende che il sistema (3.56) abbia soluzioni della forma ! ϵ(t) = eλt ϵ relative a un vettore
ϵ : t &→ !
d
ϵ ∈ C , sulle componenti del vettore !
n
ϵ occorre imporre la condizione, proveniente dalla (3.54), ϵh = !
dt ! ϵ h+1 ,
per h = 1, . . . , n − 1 , che fornisce le n − 1 condizioni necessarie
d 1 d n−1
! ϵ 1 (t) = !
ϵ (t) = λ! ϵ 2 (t), ..., !
ϵ ϵ n−1 (t) = !
(t) = λ! ϵ n (t), t ∈ R. (3.58)
dt dt
Pertanto le componenti del vettore ϵ (autovettore di T ) verificano necessariamente la condizione: ϵ = (ϵ1 , . . . , ϵn ) =
(1, λ, λ2 , . . . , λn−1 )κ, con κ ∈ R, e la (3.55) scritta per !
ϵ(t) fornisce subito la (3.57).
Viceversa, se una λ# esiste soluzione di pT (λ) = 0 , allora certo T ammette in sua corrispondenza almeno un
autovettore (magari complesso) ϵ . Data la forma della (3.56), questo risulta tale che nota la sua prima componente
risultano note tutte le altre e verificanti la relazione (3.58). Ciò implica, in particolare, che fissato un autovalore
λ# ∈ C, ad esso non possa che corrispondere un solo autovettore, infatti ogni altro vettore soluzione che si evolva
#
in modo parallelo al dato sarebbe ancora del tipo eλ t ξ0 e risulterebbe diverso dal primo per solo un’inessenziale
costante moltiplicativa presente in tutte le componenti.
Pertanto ad ogni autovalore λj corrisponde un solo blocco elementare di Jordan: Jj = λj 1Iaj + Eaj il quale
avrà dimensione uguale alla molteplicità algebrica dell’autovalore stesso, e cioè
mentre risulta
g(λj ) = 1 = n − rank (T − λj 1I ) .
La (3.53) avrà allora soluzioni (facendo le necessarie sostituzioni se qualche autovalore è complesso, e si ricordi
che qui la x è scalare) della forma
=r k −1
a=
λk t
x : t &→ x(t) = e pk,j tj
k=1 j=0
nella quale tutte le n costanti pk,j sono scalari arbitrarie, giacché all’interno dell’autospazio Mj ogni vettore
può essere un’accettabile dato iniziale. La linearità dell’operatore T implica quindi che ciascuna delle funzioni
tm eλk t , 0 ≤ m ≤ a(λk ), sia soluzione particolare dell’equazione. Si noti che queste affermazioni non sono vere
per ciascuna delle coordinate, separatamente, del generico vettore soluzione nel caso generale in quanto m può non
raggiungere a(λk ).
Il teorema di esistenza e unicità può essere invocato per concludere che:
M. Lo Schiavo
2.4. Sistemi differenziali lineari a coefficienti variabili, in Rn 125
le n costanti scalari pk,j stabiliscono un isomorfismo fra lo spazio delle soluzioni x : t &→ x(t) di un’equazione di
ordine n quale la (3.53), che è a sua volta isomorfo a quello V ≡ Rn delle condizioni iniziali, e lo spazio APn
a
somma diretta degli spazi APλjj dei quasi-polinomi con esponenti λ1 t, . . . , λr t e gradi minori di a(λ1 ), . . . , a(λr );
i quali formano pertanto una base per lo spazio delle soluzioni dell’equazione (3.53).
Anche questa affermazione non è vera per il generico sistema di ordine n; per esempio una stessa funzione del
tipo ceλt può essere soluzione anche di tutte le equazioni “componenti”. Sono infatti, in questo caso, i possibili
vettori di base ad essere più diversificati di quelli di una equazione di ordine n, dato che le loro componenti non
devono verificare la condizione di compatibilità (3.58).
D’altro canto i vettori soluzione non hanno componenti arbitrarie nello spazio dei quasi-polinomi poiché devono
essere ottenuti, mediante una trasformazione invertibile P determinato da T , combinando linearmente i possibili K
vettori soluzione pk (t)eλk t che hanno i polinomi pk (t) fissati dalle colonne di P e dalla degenerazioneCn di T . Se
anche tutte le radici sono distinte e ogni componente di ciascun vettore soluzione è del tipo k=1 ck eλk t non è vero
che ogni n-pla di tali combinazioni
7 lineari8 è una possibile soluzione del sistema: essa deve essere una P -trasformata
di un vettore del tipo ξ01 eλ1 t , . . . , ξ0n eλn t con P invertibile fissato da T e ξ0j ∈ R per j = 1, . . . , n. Ad esempio,
tutteL le componenti potranno essere uguali fra loro: ceλj t solo se il vettore (1, . . . , 1) è autovettore di T relativo
a λj .
Si osservi infine che l’equazione (3.57) determina una sola equazione differenziale di grado n ma certo non un
solo sistema di grado n che la ammetta come equazione secolare. Essa infatti determina univocamente le sue
radici e la loro molteplicità, ma ciò non è sufficiente a determinare gli autovettori di una delle molte matrici T con
essa compatibili.
Dimostrazione
• ∥T (t)∥ < c per un certo c dipendente da a, b, I , e certamente finito.
• Il teorema sul prolungamento della soluzione permette di dire che la soluzione è definita almeno fino all’istante
t1 in cui (t1 , φ(t1 , t0 , x0 )) raggiunge la frontiera di un qualsiasi compatto di R1+n che, contenente (t0 , x0 ),
sia contenuto nel dominio D di regolarità del campo. Essendo poi questo lineare nella variabile spaziale
x, si ha che D può avere frontiera non vuota soltanto a causa di limitazioni dovute alla non regolarità dei
coefficienti: T (t), e quindi certo il dominio D di regolarità del campo contiene una striscia dello spazio delle
fasi ampliato di estensione infinita rispetto alla variabile spaziale e contenente il segmento I lungo quella
temporale.
• Siano: |x0 |2 =: ℓ > 0 ed
; ' <
'
K := (t, x) ∈ R1+n ' t ∈ I; |x|2 ≤ (1 + ε) ℓ e2c(b−a) , ε>0 .
Il Lemma afferma che il punto (t1 , φ(t1 , t0 , x0 )) non può essere sulla parete |x|2 = (1 + ε)ℓe2c(b−a) del
cilindro K , e quindi deve necessariamente essere t1 = t, che è qualunque in I . "
Una dimostrazione simile ma un pò più laboriosa (si veda: [Hale Cor.I.6.1]) assicura che se I è tale che entrambe
le funzioni T e b sono almeno continue su I allora è anche JM ⊃ I .
Come si è ricordato, in virtù della linearità del campo lo spazio di tutte le possibili soluzioni di (4.60) è
uno spazio funzionale lineare: una combinazione lineare di soluzioni è ancora soluzione, ed è uscente da quelle
condizioni iniziali che si ottengono operando la stessa combinazione lineare sulle rispettive
7 condizioni
8n iniziali. Tale
spazio lineare è in corrispondenza con quello delle fasi V mediante l’applicazione Bt : C 1 (JM ) → V che associa
a una soluzione φ : JM → V il suo valore attuale x := φ(t, t0 , x0 ) ∈ V. In effetti, per i teoremi visti nel Cap.I,
onto
tale corrispondenza è 1 ←→ 1 , in quanto l’immagine è tutto V per il teorema di esistenza, e il Ker è {0} perché,
per il teorema di unicità, alla condizione iniziale x0 = 0 corrisponde la sola soluzione φ(t, t0 , x0 ) = 0; inoltre
siccome entrambi gli spazi sono lineari essa è un isomorfismo: le combinazioni lineari commutano con l’evoluzione.
e3 G t0t e3 e3(t)
x0 e2 x(t)
e1(t) e2
e1 eb3 e1 e2(t)
B -1
t0
e2
b Bt
M. Lo Schiavo
2.4. Sistemi differenziali lineari a coefficienti variabili, in Rn 127
Sistema fondamentale Φ = {φi }i=1,...,n per l’equazione (4.60) := una n-pla di funzioni a valori in V: φi :
t &→ xi = φi (t, t0 , xi |0 ) ∈ V, i = 1, . . . , n, che siano soluzioni linearmente indipendenti della (4.60).
Il teorema di esistenza e unicità, ovvero l’esistenza dell’isomorfismo detto, assicura che n-pla di vettori (solu-
zione) {t &→ φi (t, t0 , xi |0 )}i=1,...,n uscenti dall’arbitraria n-pla di vettori: {xi |0 }i=1,...,n ⊂ V purché linearmente
indipendenti forma certamente una base nello spazio delle soluzioni. Ciò in particolare accade a quella uscente dai
versori {xi |0 := ei }i=1,...,n della base scelta in V; il problema è determinarli.
Quando sia noto un sistema fondamentale, e scelta una base in V, si definisce la corrispondente:
Matrice fondamentale per l’equazione (4.60) :=
la rappresentazione in coordinate di un sistema fondamentale
) *
.. ..
Φ; essa pertanto è una matrice Φ : t &→ Φ(t, t0 , Φ0 ) ≡ φ1 . · · · . φn avente per colonne i vettori φi =
φi (t, t0 , xi |0 ), i = 1, . . . , n, rappresentanti in quelle coordinate le funzioni {φi }i=1,...,n . Giacché Φ risolve in
L(V) l’equazione: Ẋ = T (t)X ed è uscente da un dato Φ0 non singolare, la matrice Φ verifica in L(Rn )
l’equazione
) *
. .
Ẋ = T (t) X , X(t0 ) = x1 |0 .. · · · .. xn |0 ≡ Φ0 , (4.61)
L’esistenza dell’isomorfismo detto assicura che per ogni coppia di matrici fondamentali esiste una matrice invertibile
C tale che Φ2 (t) = Φ1 (t)C , e viceversa: se C è costante, non singolare, e se Φ1 (t) è una matrice fondamentale
della (4.60) allora tale è anche la Φ2 (t) := Φ1 (t)C . In particolare ne segue che: non solo ogni sistema fondamentale
della (4.60) forma una matrice soluzione della (4.61), ma, viceversa, ogni soluzione della (4.61) uscente da un dato
non singolare è una matrice fondamentale della (4.60). Per ciascuna fissata base si ha quindi che: tutte e sole le
matrici fondamentali della (4.60) sono soluzioni non singolari della (4.61) e sono proporzionali fra loro mediante
delle matrici C non singolari:
Φ2 (t) = Φ1 (t) C . (4.62)
In particolare, per ciascuna scelta della base {ei }i=1,...,n dello spazio V, e cioè per ciascuna scelta delle coordinate
si può definire una:
Matrice principale del sistema (4.60) := la matrice Ψ : t &→ Ψ(t, t0 ) che ha per colonne le soluzioni uscenti
dai versori dello spazio, e quindi che vale 1In nell’istante t = t0 .
In quel che segue, salvo contrario avviso, la scelta della base verrà supposta eseguita una volta per tutte e non
più modificata. Ciò permetterà di limitare la notazione alle sole componenti.
Ad esempio, nel caso particolare dei coefficienti costanti risulta
è la soluzione generale del sistema (4.60) se e solo se i vettori φi = φi (t, t0 , xi |0 ) sono)le colonne di una*matrice
. ..
Φ = Φ(t, t0 , Φ0 ) che sia la soluzione Φ : I → L(Rn ) della (4.61), uscente dalla Φ0 = x1 |0 .. · · · .x |
n 0 scelta
non singolare.
Nota 2.4.1 Un sistema fondamentale non è una qualunque n-pla di vettori linearmente indipendenti nello spazio
funzionale; essa deve essere formata da vettori che siano vettori soluzione. Infatti:
Memento 2.4.1 m funzioni vettoriali {t &→ ψi (t)}i=1,...,m , ciascuna delle quali avente come componenti n fun-
1 m
zioni continue
Cmsu Ii , si dicono linearmente dipendenti se esistono m costanti reali α , . . . , α non tutte nulle tali
che risulti i=1 α ψi (t) = 0 per ogni t ∈ I .
Affinché n funzioni vettoriali siano linearmente dipendenti occorre quindi ma non basta che esista qualche istan-
te t∗ nel quale i vettori numerici {ψi (t∗ )}i=1,...,n siano linearmente dipendenti; né basta a garantire la dipendenza
lineare dei vettori {t &→ ψi (t)}i=1,...,n il fatto che sia identicamente nullo il determinante
⎛ 1 ⎞
ψ1 ψ21 · · · ψn1
⎜ 2 .. ⎟
⎜ ψ1 ψ22 . ⎟
W : t &→ W (t) := Det ⎜ ⎜ .
⎟
⎟
⎝ .. .. ⎠
.
ψ1n · · · ψnn
) * )* ' '
1 t ' 1 t'
Esempio: e pur avendo '' ' ≡ 0 non sono linearmente dipendenti.
1 t 1 t'
Queste condizioni sono invece sufficienti, oltre che necessarie se, in più, si sa che i vettori in questione sono
soluzioni di un qualche sistema differenziale del tipo ẋ = T (t)x, e ciò ancora per l’unicità della soluzione identi-
camente nulla e per la linearità del sistema. Viceversa in ogni caso basta che i loro valori in un qualche istante
{ψi (t∗ )}i=1,...,n siano linearmente indipendenti per assicurare l’indipendenza lineare dei vettori {t &→ ψi (t)}i=1,...,n
◃
Nota 2.4.2 Come si è visto, se T è una matrice costante, o addirittura se ha la forma semplice proveniente da
un’equazione di ordine n, la ricerca dei possibili vettori di base è molto facilitata. Con riferimento alla precedente
nota, se T è costante e, per esempio, con autovalori reali distinti, un sistema fondamentale di vettori è certamente
dato dagli evoluti ϵ!h (t) = eλh t ϵh . Più in generale, formano un sistema fondamentale gli evoluti
di un sistema di vettori {ξ1 |0 , . . . , ξn |0 } che sia una base in Rn , per esempio i trasformati dei vettori di base
eh = (0, 0, . . . , 0, 1, 0, . . . , 0)T (e quindi colonne della matrice P −1 ). Se poi T proviene da un’equazione di ordine
n (con autovalori λh tutti reali distinti) allora si sa in più che la matrice P deve avere la speciale forma
⎛ ⎞⎛ 1 ⎞
1 1 ··· 1 P1 0 0
⎜ λ1 λ2 λn ⎟ ⎜ 2 ⎟
⎜ ⎟ ⎜ 0 P2 ⎟
P = ⎜ .. .. .. ⎟ ⎜ .. ⎟
⎝ . . . ⎠ ⎝ . ⎠
λn−1
1 λn−1
2 λn−1
n 0 Pnn
L’essere quest’ultimo diverso da zero è allora equivalente a che le λ siano radici semplici di una equazione di
grado n e quindi è sempre non nullo purché le λ siano tutte distinte. ◃
Si osservi ora che la (4.62) mette in relazione le varie matrici fondamentali della (4.60) con i loro dati iniziali e
la matrice principale. Infatti (con t0 fissato, e per ogni t ∈ JM ) si riconosce che
Φ−1 −1
1 (t)Φ2 (t) = C = Φ1 (t0 )Φ2 (t0 ), da cui Φ(t)Φ−1 (t0 ) = Ψ(t, t0 ). (4.64)
Quest’ultima esprime la matrice che nelle coordinate scelte su V rappresenta l’operatore Gtt0 , e implica che
Det Gtt0 = Det Ψ(t, t0 ) = Det Φ(t)/Det Φ(t0 ). Infatti la x(t) = Φ(t)c permette il calcolo di c = Φ−1 (t0 )x0 con
x0 := x(t0 ), e in virtù della (4.63) la soluzione generale è data da
M. Lo Schiavo
2.4. Sistemi differenziali lineari a coefficienti variabili, in Rn 129
Il caso non omogeneo, espresso dalla (4.59), è solo di poco più complicato. Se y& : t &→ y&(t), y&(t0 ) = y&0 , è
una sua soluzione particolare, allora ogni altra si può esprimere, ed univocamente, mediante la
y : t &→ y(t) = x(t) + y&(t) , y(t0 ) = y0 ∈ V (4.65)
ove t &→ x(t) è la soluzione della (4.60) che in t0 verifica la x(t0 ) = x0 := y0 − y&0 . Se in special modo si riesce
a trovare come soluzione particolare proprio quella che ha y&(t0 ) = 0 allora la corrispondente x “assorbe” tutte
le condizioni iniziali: x0 = y0 ed è x(t) = Φ(t)Φ−1 (t0 )x0 ove t &→ Φ(t) è un qualsiasi sistema fondamentale di
soluzioni del sistema omogeneo associato: (4.60).
Ciò è quello che si fa regolarmente nel cosiddetto metodo della variazione della costante, che consiste nel cercare
la soluzione generale della (4.59) mediante la posizione:
y(t) = Φ(t)Φ−1 (t0 )(x0 + c(t)), con c(t0 ) = 0 ,
esso cioè consiste nel cercare la soluzione particolare della (4.59) sotto la speciale forma y&(t) = Φ(t)Φ−1 (t0 )c(t),
con c(t0 ) = 0 .
Si ricava la condizione necessaria
ẏ(t) = Φ̇(t)Φ−1 (t0 )(x0 + c(t)) + Φ(t)Φ−1 (t0 )ċ(t) = T (t)y(t) + b(t)
.t
che implica ċ(t) = Φ(t0 )Φ−1 (t)b(t) da cui c(t) = t0 Φ(t0 )Φ−1 (τ )b(τ )dτ e cioè
- t
y&(t) = Φ(t) Φ−1 (τ )b(τ )dτ.
t0
La soluzione y : t &→ y(t) ∈ V della (4.59) che vale x0 = y0 in t = t0 è allora data da (salvo esprimere il tutto
in coordinate)
y : t &→ y(t) = x(t) + y&(t)
- t
≡ Φ(t)Φ−1 (t0 )x0 + Φ(t) Φ−1 (τ )b(τ )dτ (4.66)
t0
[ \] ^ [ \] ^
risposta libera risposta della forzante
funzione W : t &→ W (t) := Det Ξ(t); per altri invece il Wronskiano è il determinante che cosı̀ si ottiene nel caso
particolare di una equazione di ordine n, e che quindi proviene da una matrice che ha le righe ciascuna uguale alla
derivata della riga precedente. Qui di seguito si userà la prima delle due definizioni.
Se Ξ = Ξ(t) è una matrice fondamentale di un sistema (4.60) allora W (t) o è identicamente nullo oppure
è identicamente non nullo. Infatti W (t) si annulla o se una delle equazioni è combinazione lineare delle altre,
e quindi una coordinata in ogni istante linearmente dipendente dalle altre; oppure se le colonne sono linearmente
dipendenti in un certo istante t∗ , ed essendo soluzioni di un sistema (4.60) lo rimangono per ogni t.
Proposizione 2.4.1 Se Φ : t &→ Φ(t) è una matrice fondamentale di un sistema omogeneo (4.60) allora
)- t *
W (t) = exp T r T (τ )dτ W (t0 ).
t0
Dimostrazione Se W (t0 ) = 0 le colonne della matrice Φ, e cioè gli n vettori Cφ1 (t), . . . , φn (t) rimangono
n i j
linearmente dipendenti. Altrimenti, il calcolo del determinante fornisce W (t) = j=1 φj (t)Mi (t), avendo
indicato con φij la i -ma componente della j -ma soluzione fondamentale φj , e con Mij il complemento algebrico
(o cofattore) di φij nella matrice Φ. Derivando ambo i membri della relazione precedente si può notare che
Mij ≡ ∂W /∂φij . Si osservi ora che, in qualunque modo W dipenda da ciascuno dei φij , la derivata dt d
W (t) non
può che essere:
d = ∂W = j = j =
W = i φ̇ij = Mi φ̇ij = Mi Tki φkj =: Tki D ki
dt i,j
∂φj i,j i,j,k i,k
(k)
ove D ki è il determinante della matrice Ξ(i) ottenuta sostituendo nella Φ alla i -esima riga (φi1 , . . . , φin ) la k -esima
(k)
(φk1 , . . . , φkn ). Ne segue che gli unici scalari D ki a essere non nulli (in corrispondenza del fatto che la matrice Ξ(i)
non ha due righe proporzionali) sono i termini con k = i , che quindi valgono W . Per cui si ha
= =
Ẇ (t) = Tki (t)δik W (t) = Tii (t)W (t) = W (t) T r(T (t)).
i,k i
Nota 2.4.4 Il sistema ẏ + T ∗ (t)y = 0 si dice aggiunto del sistema ẋ = T (t)x quando T e T ∗ sono le matrici
che una stessa base {ek }k=1,...,n ⊂ V assegna all’operatore T e, rispettivamente, al suo aggiunto T ∗ rispetto a un
fissato prodotto scalare ⟨ ·, · ⟩ definito su V.
Sul sistema aggiunto è possibile ripetere quanto detto per l’equazione (4.60), e quindi: cosı̀ come alla (4.60)
(con arbitrarie condizioni iniziali) corrisponde l’equazione in L(Rn ) data da Ẋ = T X con X0 = 1I , all’equazione
aggiunta ẏ = −T ∗ y (e arbitrarie condizioni iniziali) corrisponde in L(Rn ) il sistema aggiunto Ẏ = −T ∗ Y con
Y0 = 1I .
Nell’ipotesi che base e prodotto scalare siano tali che ⟨ eh , ek ⟩ = δhk , il sistema aggiunto può anche essere
scritto nella forma:
Ẏ T = −Y T T con Y T0 = 1I .
T T
Una matrice fondamentale di un tale sistema è una matrice Y : t &→ Y (t) che ha le righe soluzioni
indipendenti dell’equazione (fra righe)
ẏ T = − y T T .
T
Limitandosi al caso reale, e chiamate X e Y matrici fondamentali dei due sistemi rispettivamente, si ha
allora che esse sono legate dalla relazione
d T T T T T
(Y X) = Ẏ X +Y Ẋ = −Y TX + Y TX = 0 ,
dt
dunque: esiste una matrice numerica C tale che Y T X = C −1 , e quindi tale che X −1 = CY T , e la matrice
C è non singolare perché tali sono entrambe le due matrici.
Viceversa: se X è una matrice fondamentale per il sistema (4.60) e se C è numerica non singolare, allora
la matrice Y := X −T C −T è matrice fondamentale del sistema aggiunto. Infatti si ha: Y T X = cost e quindi
ne segue Ẏ T X = −Y T T X che implica l’asserto, data l’invertibilità della X . In particolare: se X è una
M. Lo Schiavo
2.4. Sistemi differenziali lineari a coefficienti variabili, in Rn 131
matrice fondamentale per il sistema (4.60) allora X −T è matrice fondamentale per il sistema ẏ + T T y = 0 , e
quindi tale che: Ẋ −1 = −X −1 T .
Pertanto, ancora con Φ una matrice fondamentale dell’equazione omogenea associata, per la generica equazione
lineare non omogenea: ẏ = T (t)y + b(t) si ricava la relazione Φ−1 ẏ = Φ−1 T y + Φ−1 b. Questa, sommata alla
Φ̇−1 y = −Φ−1 T y , fornisce
d
(Φ−1 y) = Φ−1 b
dt
che conferma la (4.66):
- t
Φ−1 (t)y(t) = Φ−1 (t0 )x0 + Φ−1 (τ )b(τ )dτ .
t0 ◃
Un’importante caso particolare è quello (si veda anche: § I.5) di un’equazione scalare di ordine n; e cioè, con
y : t &→ y(t) ∈ R,
y [n] + a1 (t)y [n−1] + . . . + an (t)y = b(t), a1 , . . . , an , b ∈ C ℓ≥0 (I). (4.67)
È questo un sistema non omogeneo con la speciale matrice di campo T : t &→ T (t) ∈ L(Rn ) come nella (3.56), e
termine noto b = (0, 0, . . . , 0, b)T . Si definisce
7 8
Nucleo Risolvente dell’equazione (4.67) := l’elemento (1, n) della matrice Φ(t)Φ−1 (s) , ove Φ : t &→ Φ(t)
è una matrice fondamentale della equazione omogenea associata (4.60).
Si osservi che il nucleo risolvente e, tramite la (4.66), l’intera soluzione generale dell’equazione completa (4.67)
sono, almeno in linea di principio, totalmente determinati una volta che sia nota la matrice Φ, problema questo
non indifferente e che spesso non è risolubile in forma chiusa.
Dato che l’i -ma colonna della matrice Φ(t)Φ−1 (τ ) esprime la soluzione dell’equazione omogenea associata che
in t = τ vale ei , il nucleo risolvente è la soluzione t &→ x(t) ∈ R tale che x(τ ) = en . La sua espressione esplicita
è ⎛ ⎞
x1 (τ ) ··· xn (τ )
⎜ .. .. ⎟
7 81 1 ⎜ . . ⎟
Φ(t)Φ−1 (τ ) n = Det ⎜ ⎜
⎟
⎟ (4.68)
W (τ ) ⎝x[n−2] (τ ) [n−2] ⎠
1 · · · xn (τ )
x1 (t) ··· xn (t)
7 −1 8i 7 8 h 7 81
infatti Φ j
(τ ) = Mji (τ )/W (τ ) dà Φ(t)Φ−1 (τ ) k = φhm (t)Mkm (τ )/W (τ ), e si ottiene Φ(t)Φ−1 (τ ) n =
xm (t)Mnm (τ )/W (τ ) che è proprio lo sviluppo rispetto alla sua ultima riga del determinante nella (4.68).
Esempio 2.4.5 ÿ = y + b(t), con t0 , y0 , ẏ0 ∈ R.
) * ) *
0 1 0
Si hanno T = , b(t) = . Risultano, con la stessa notazione usata nella (4.66),
1 0 b(t)
) * ) t *
1 1 e e−t
λ1,2 = ±1; P = ; Φ(t) = P eΛt = t ;
1 −1 e −e−t
) * ) *
1/2 1/2 cosh t sinh t
eT t = P eΛt P −1 = Φ(t) = .
1/2 −1/2 sinh t cosh t
Queste, insieme con la Φ(t)Φ−1 (t0 ) = eT (t−t0 ) , forniscono
) *
y0 cosh(t − t0 ) + ẏ0 sinh(t − t0 )
x(t) =
y0 sinh(t − t0 ) + ẏ0 cosh(t − t0 )
- ) *) *) * - t) *
1 t et−τ eτ −t 1 1 0 sinh(t − τ )b(τ )
y&(t) = dτ = dτ.
2 t0 et−τ −eτ −t 1 −1 b(τ ) t0 cosh(t − τ )b(τ )
#
(
t2 ÿ + tẏ − y = u(t)
Esempio 2.4.7 t0 , y0 , ẏ0 , ∈ R, u ∈ C 1 (R);
y(1) = 1, ẏ(1) = −1
) * ) *
0 1 0
ovvero T (t) = −2 , b(t) = ; e risulta JM = (0, ∞).
t −t−1 u(t)/t2
Prima parte: l’equazione omogenea associata.
Si suppongano soluzioni del tipo tα . Dovrà essere t2 α(α − 1)tα−2 + tαtα−1 − tα = 0 da cui α1,2 = ±1; pertanto si
chiamino x1 (t) := t, x2 (t) := t−1 .
Primo controllo: ' '
' t t−1 '
W (t) = '' ' = −2t−1 ̸= 0 in JM .
1 −t−2 '
Secondo controllo:
)- t *
−1 −1
T r T = −t ; e quindi: W (t) = c exp −t ∝ t−1 = c t−1 .
Ne segue ) * ) −2 * ) −1 *
t t−1 −1 1 −t −t−1 1 t 1
Φ(t) = e Φ (t) = = .
1 −t−2 −2t−1 −1 t 2 t −t2
Seconda parte: l’equazione completa.
) *T ) * ) *T - t ) *
1 1 1 u(τ ) 0
y(t) = Φ(t)Φ−1 (1) + Φ(t)Φ−1 (τ ) 2 dτ
0 −1 0 1 τ 1
) *T ) *) *) *
1 t t−1 1/2 1/2 1
= +
0 1 −t−2 1/2 −1/2 −1
) *T - t ) * ) −1 *) *
1 t t−1 τ /2 1/2 0
+ dτ
0 1 1 −t−2 τ /2 −τ −2 /2 1
) *T ) −1 * - ) *T ) *
1 t 1 t t 1
= + u(τ )dτ
0 −t−2 2 1 t−1 τ2
-
1 t
= t−1 + u(τ )(tτ −2 − t−1 )dτ
2 1
) *' '
u(τ ) 1 'τ τ −1 '
e nell’integrando si può riconoscere il nucleo: ' '. #
τ2 −2τ −1 ' t t−1 '
ove si è indicata con Pert (L(V)) la famiglia delle funzioni Q definite su R e a valori nello spazio L(V) degli
operatori lineari su V, regolari e periodiche di (minimo) periodo T :
M. Lo Schiavo
2.5. La teoria di Floquet 133
Innanzi tutto si osservi che non è detto che le sue soluzioni siano periodiche; ad esempio: ẋ = (1 + sin t)x ha
soluzioni x(t) = cet e− cos t che è periodica solo se c = 0 .
In virtù del teorema del prolungamento però si può affermare che le sue soluzioni esistono per ogni t reale.
Ciò inoltre permette, senza ledere la generalità, di fissare come istante di riferimento t0 un valore arbitrario in R,
ad esempio t0 = 0 .
Per facilitare lo studio della (5.69) è opportuno premettere il seguente:
Lemma 2.5.1 Un operatore C ∈ L(V) che abbia non nulli tutti i suoi autovalori {λj ∈ C}j=1,...,n individua
(almeno) un operatore B ∈ L(C V) tale che C = eB .
Dimostrazione Dato che l’esponenziale di un operatore è già stato definito, sarà lecito mostrare l’esistenza del
logaritmo in modo costruttivo e cioè, fissata un’opportuna base, producendo esplicitamente una matrice B la cui
esponenziale è uguale alla matrice C di C in quella base, e poi definendo logaritmo di C quell’operatore B che,
rappresentato in quella base dalla matrice B cosı̀ trovata, è in ogni altra base rappresentato dalla trasformata
di questa secondo la P BP −1 (ove P esprime il cambio di base in V e, come tale, un’arbitraria trasformazione
lineare di coordinate su V).
Che tale definizione per un operatore B = ln C sia ben posta è conseguenza della seguente osservazione:
−1
Siccome per P arbitraria non singolare si ha P −1 eT P = eP T P , se B è tale che eB = C e se C & = P CP −1
& −1 &
B &
allora certamente B := P BP è tale che e = C . Occorre tuttavia notare esplicitamente che con tale
definizione si rinuncia ad ogni forma di unicità del risultato: ciò che si mostra è l’esistenza di almeno un B il cui
′
esponenziale uguaglia l’operatore C dato: basta che B ′ sia tale che eB = 1I e che B B ′ = B ′ B per riconoscere che
B e B + B ′ hanno lo stesso esponenziale.
A prescindere dal come venga esplicitamente determinato, non lede la generalità cercare un B , del quale sia dato
l’esponenziale C , in modo che ne condivida la base propria (di Jordan). Infatti l’esponenziazione di un operatore
non ne muta i sottospazi invarianti. In particolare, le (5.70),..,(5.72) più oltre dimostrano l’esistenza di un B con
gli stessi spazi invarianti e gli stessi autovettori generalizzati di C .
In definitiva sarà sufficiente determinare una matrice B il cui esponenziale C abbia forma di Jordan: CJ =
diag (J1 , . . . , Jr ) con Jj = λj 1I aj + Nqj , ove Nqj è un nilpotente (non necessariamente elementare) di ordine
qj ≤ a(λj ) sull’autospazio generalizzato Mj = Ker (C − λj 1In )qj , la dimensione del quale, come è noto, è la
molteplicità algebrica a(λj ) dell’autovalore λj .
Anzi, siccome ciascuno dei blocchi elementari di Jordan lascia il proprio sottospazio7invariante,8 e siccome λj ̸= 0 ,
basterà far vedere che esiste B tale che C = eB per una sola matrice del tipo C = λ 1Im + Eλm con Em il blocco
elementare nilpotente di ordine m.
Si ottiene la tesi, e cioè che
) *
Em
C = λ1I m · 1Im + = eBλ · eBm = eB
λ
purché siano valide, in C
Rm , le
B : = Bλ + Bm (5.70)
Bλ : = (ln λ)1I m (5.71)
) * m−1
= (−Em )j
Em
Bm : = ln 1I m + := − . (5.72)
λ j=1
jλj
C∞ xk C∞ (−x)k
La (5.72) si giustifica osservando che, se si pone ex := k=0 x! e ln(1 + x) = − k=1 k
(con x qualsiasi tale che
|x| < 1 ), allora sussiste l’identità formale
0 2 3
1
(1 + x) = exp ln(1 + x) = exp x1 − x2 + x3 − . . . =
0 2 3
1 0 2 3
12
1 + x1 − x2 + x3 − . . . + 12 x1 − x2 + x3 − . . . +
0 2 3
13
1 x
+ 3! 1
− x2 + x3 − . . . + . . . .
Data l’assoluta convergenza delle serie qui coinvolte, l’uguaglianza fra primo e secondo membro può essere provata per componenti; e
siccome il primo membro ha componenti: 1, 1, 0, 0, 0, . . . tali devono essere quelle del secondo membro qualunque sia il valore della
indeterminata x , sia che essa appartenga ad R , sia che essa sia tale che: xm = xm+1 = · · · = 0 , cosa questa che ne trasforma tutte
le serie in semplici somme, e toglie quindi ogni dubbio circa la loro convergenza.
D’altra parte, la nilpotenza di Em e la commutatività di Em k con Eh permettono la sostituzione di x con E /λ . Quest’ultimo
m m
quindi verifica l’identità
⎛ ⎞k
) * m−1
= 1 m−1
= (−Em )j
Em ⎝ ⎠ .
1I m + = exp(Bm ) = − (5.73)
λ k=0
k! j=1
jλj
Servendosi della (5.73) si prova direttamente che B , definito nella (5.70), verifica la
⎛ ⎞
=∞ k =∞ = k k−j j =∞ =∞ k−j j
B (ln λ) (Bm ) ⎝ (ln λ) ⎠ (Bm )
= =
k! j=0
(k − j)! j! j=0
(k − j)! j!
k=0 k=0 k=j
∞
= )∞
= *
(Bm )j (Bm )j Em
= (exp ln λ) =λ· = λ 1Im + .
j=0
j! j=0
j! λ "
) * ) *
1 1 0 1
Esempio 2.5.1 C = 1I 2 + E2 = implica B = B2 = E2 = . #
0 1 0 0
Nota 2.5.1 Cosı̀ come l’operazione di estrazione del logaritmo di un numero complesso µ ∈ C\{0} non è univoca:
anche la specifica costruzione del logaritmo di un operatore vista nel precedente lemma non determina un unico
B = ln C . Ad esempio, in virtù della (5.70), già si vede che ciascuno dei ln µ =: σ + i(θ + 2kπ), k = 1, 2, . . ., può
essere assunto come autovalore di altrettanti B , tutti aventi lo stesso esponenziale eB = µ1I e tali che
B := (σ + iθ)1I m + Bm + i 2kπ1Im ,
Nota 2.5.2 Se C , che è reale, ha qualche autovalore complesso: µ = α + iβ esso ammette come autovalore anche il suo complesso
coniugato µ̄ = α − iβ . Ciò permette di assumere che B sia reale. Per convincersene, si supponga (come già accennato, e senza
perdita di generalità) che una tale coppia di autovalori abbia molteplicità geometrica uguale ad uno, molteplicità algebrica m ≥ 1 , e
che l’intero V sia autospazio generalizzato per la coppia (µ, µ̄) . Esiste allora una base reale per V che dà a C la matrice (2m × 2m)
⎛R ⎞
µ 1I 2 02 · · · 02
⎜ 02 R µ 1I 2 · · · ⎟
⎜ ⎟
⎜ .. .. ⎟
⎜ . . 0 ⎟
⎜ 2⎟
⎝ 1I 2 ⎠
02 02 R µ
con θ := Arg µ , σ := ln ρ ,ρ := |µ| , ed
) * ) * ) *
Rµ =
α −β cos θ − sin θ σ −θ − 2kπ R (ln µ)
=: ρ = exp =e .
β α sin θ cos θ θ + 2kπ σ
Nella stessa base si ricava allora, per la matrice B (2m × 2m) ,
⎛R ⎞
(ln µ) 02 ··· 02
⎜ 02 R (ln µ) 02 ··· ⎟
⎜ ⎟
B=⎜ .. . ⎟ + Bm,2
⎝ . .. ⎠
02 ··· R (ln µ)
M. Lo Schiavo
2.5. La teoria di Floquet 135
con
⎛ ⎞j
a b ) ) ** j
7 8 j ⎜ a2 + b2 a2 +b ⎟
2 R µ̄
R µ−j R
= µ −1
= ⎝ −b a ⎠ = 2
.
|µ|
a2 + b2 a2 + b2
Si osservi inoltre che è opportuno considerare come coppie di autovalori complessi a parte reale nulla le (eventuali) coppie di
autovalori negativi, uguali, e di uguali molteplicità. Ad esempio:
) * ) * ) *
−1 0 cos π 0 R 0 −π
−1I 2 = = = R (eiπ ) = e (iπ) = exp ;
0 −1 0 cos π π 0
) *
0 −π
tale matrice ha, correttamente, logaritmo reale dato da R (iπ) = .
π 0
Anche più semplicemente si nota che se C ha autovalori reali e positivi allora B è reale.
Ciò non accade invece se l’operatore C ha autovalori negativi, a meno dei casi accennati in quest’ultima osservazione. In tal caso
infatti, cosı̀ come ez = −1 implica z = iπ , la matrice B relativa al logaritmo di un tale operatore è, in generale, complessa anche
se in base reale. In particolare, l’operatore B può avere qualche autovalore complesso che (non proviene da una coppia di autovalori
complessi coniugati (µ, µ̄) e che) non fa parte di alcuna coppia di numeri complessi coniugati.
Tuttavia, l’essere C reale assicura non solo che l’operatore C! := C 2 è reale, ma in più che quest’ultimo ha autovalori
!
λ = λ2 >0 reali positivi se λ era autovalore reale di C;
!
µ = µ2 = ρ2 ei2θ se µ = ρeiθ era autovalore complesso di C, insieme con
!
µ = µ̄2 = ρ2 e−i2θ che ne è il corrispondente autovalore coniugato.
Pertanto, se anche C2può avere autovalori reali negativi essi sono presenti a coppie e vale l’osservazione qui sopra.
L’assenza di (un numero dispari di) autovalori negativi per l’operatore C 2 permette di concludere che: se C è reale esistono non
solo una matrice reale C! = C2 che rappresenta C! = C 2 nella base in cui C è rappresentato da C , ma anche una matrice B ! tale che
! ! = C2 che può essere scelta reale. La matrice B ! è data dalla (5.70) con λ
! al posto di λ qualora l’autovalore λ di C sia reale.
eB = C
Qualora invece C ammetta autovalori complessi coniugati µ, µ̄ ∈ C , la matrice B ! è data dalla
⎛ ⎞
2 R (ln µ) 02 ··· 02
⎜ ⎟
⎜ 02 2 R (ln µ) 02 ··· ⎟
⎜ ⎟
⎜ .. .. ⎟
! =⎜
B ⎜ . .
⎟ ! m,2
⎟ +B
⎜ ⎟
⎜ .. ⎟
⎜ . 02 ⎟
⎝ ⎠
02 ··· R
2 (ln µ)
C m−1 7 8
! m,2 la matrice
avendo chiamato B ! m,2 = −
B 1
!−j (−Em,2 )j ,
µcon ! := µ2 .
µ
j j=1
!
In definitiva è lecito assumere che il logaritmo B del quadrato di un operatore reale C è reale e quindi privo di “frequenze proprie”
non multiple di 2π .
Osservazione La matrice −1I 2 si può considerare come il quadrato, in C R2 , non solo degli operatori complessi +i1I2 e −i1I 2 , ma
anche degli operatori
) reali
* (entrambi
) aventi
* autovalori µ = i = eiπ/2 e µ̄ = −i = e−iπ/2 ) che nella base reale di partenza C {e1 , e2 }
0 −1 0 1
hanno matrici e . A loro volta, questi secondi hanno rispettivamente matrici +i1I 2 e −i1I2 nella base degli
1 0 −1 0
autovettori (complessi coniugati) {ϵµ = e1 − i e2 ; ϵ̄µ = e1 + i e2 } .
Corrispondentemente, come si è detto, il logaritmo di −1I 2 è (reale e) dato da:
) *
B! = 2 R (ln eiπ/2 ) = R (iπ) = 0 −π .
π 0 ◃
È possibile ora enunciare il seguente teorema, valido per sistemi lineari con operatore di campo Q : R → L(V)
regolare e T -periodico e agente su uno spazio vettoriale reale V, (ma il teorema vale, a fortiori, se V è complesso),
di dimensione n < ∞.
& t0 − T, Φ0 ) =: Φ(t,
Φ(t + T, t0 , Φ0 ) =: Φ(t, & t0 , Φ
& 0) .
D’altra parte, per ipotesi, il sistema Φ è soluzione per ogni t ∈ R della (5.75), e sono pertanto valide per ciascun
t ∈ R le seguenti identità (per semplicità, Φ(t, t0 , Φ0 ) verrà indicato con Φ(t))
Si ponga: etBΦ := CΦ . Risulta Φ(t + T) = Φ(t)etBΦ . Tale relazione, moltiplicata (a destra) per la matrice
non singolare e−(t+t)BΦ ∈ C2n , fornisce
Nota 2.5.4 Nel caso dei sistemi a coefficienti costanti, e cioè se Q(t) = T = cost, si ha Φ(t) = Ψ(t)Φ(0) =
eT t Φ(0),
7 −1e quindi ogni
8 PΦ è Bcostante, e ogni BΦ è simile ad T . Infatti si può sempre porre eT t Φ(0) =
Tt t
Φ(0) Φ (0)e Φ(0) =: PΦ e Φ . In particolare BΦ è la matrice di Jordan TJ se Φ(0) ≡ P è la matrice
individuata dagli autovettori di T e cioè se il sistema fondamentale Φ è quello degli evoluti della base propria di
(ϵ)
T , e in tal caso si ha che PΦ (t) = 1I . ◃
Il teorema di Floquet si può cosı̀ rileggere: le soluzioni del sistema (5.75) sono le PΦ -trasformate delle soluzioni
di un associato sistema a coefficienti costanti:
ξ̇ = BΦ ξ , ξ0 ∈ Cn . (5.77)
Per enunciare in forma più generale questa proprietà si può anche introdurre la seguente relazione di equivalenza
fra sistemi a coefficienti T -periodici.
M. Lo Schiavo
2.5. La teoria di Floquet 137
che abbiano operatori di campo Q, S periodici dello stesso periodo T , e siano tali da ammettere (in un qualche
sistema di coordinate) una coppia di matrici fondamentali: Φ : t &→ Φ(t) e Ξ : t &→ Ξ(t) rispettivamente, che
definiscono una stessa matrice monodroma:
Questa definizione implica che anche gli altri sistemi fondamentali di soluzioni dei due sistemi possono essere
resi corrispondenti a coppie: Φ# = Φ K e Ξ# = Ξ K rispettivamente, con K ∈ R2n non singolare, e ciascuna
coppia individua una stessa matrice monodroma:
Lemma 2.5.1 Due sistemi lineari a coefficienti T -periodici (5.78) e (5.79) sono equivalenti se e solo se esiste un
(qualche) operatore non singolare Pt ∈ Pert (L(Cn )) tale che x = Pt (t)ξ , con t ∈ R; e cioè se e solo se esiste
un gruppo a un parametro di operatori invertibili: {Pt (t)}t∈R anch’esso T -periodico e tale che: Φ(t) = Pt (t) Ξ(t);
(o anche: . . . se e solo se esiste una trasformazione di coordinate lineare e T -periodica che collega i due sistemi).
Dimostrazione
(⇐)
CΦ = Φ−1 (t)Φ(t + T) = Ξ−1 (t)Pt−1 (t)Pt (t + T)Ξ(t + T)
= Ξ−1 (t)Ξ(t + T) = CΞ .
Scelto un sistema fondamentale Φ per l’equazione (5.78), e fissato il sistema di coordinate, si chiamino CΦ , BΦ ,
e PΦ le matrici del teorema. Restano garantite le ipotesi del Lemma 2.5.1 nel caso particolare in cui Pt e Ξ siano
rappresentati da PΦ ed etBΦ rispettivamente. Queste infatti verificano la: Φ(t) = Pt (t)Ξ(t) ≡ PΦ (t)etBΦ .
In un altro sistema di coordinate: x′ = P x, come si è visto, non muta la matrice BΦ
′ = B , e quindi invece dell’operatore B
Φ Φ
′ = P −1 B P .
viene usato l’operatore BΦ Φ
La matrice PΦ cambia come le componenti: PΦ′ = P PΦ e cosı̀ fanno anche le matrici Φ′ = P Φ che individuano il sistema
fondamentale Φ . Rimane tuttavia vera la relazione:
Corollario 2.5.1 Il sistema (5.75) è equivalente a un sistema (una famiglia di sistemi) a coefficienti costanti:
ξ˙ = BΦ ξ . L’operatore BΦ è quello che nel prescelto sistema di coordinate ha matrice BΦ .
Nota 2.5.5 L’equazione PΦ (t) = Φ(t)e−tBΦ implica che PΦ verifica l’equazione: ṖΦ = QPΦ − PΦ BΦ . ◃
Come si è visto, anche se la realtà dello spazio V e dell’operatore di campo Q(t) assicurano che anche il sistema
fondamentale Φ e quindi la matrice CΦ sono reali, ciononostante può accadere che la matrice BΦ := ln CΦ , e
quindi anche PΦ , siano complesse. Sussiste tuttavia la seguente
Proposizione 2.5.1 Se V è reale e quindi isomorfo ad Rn , se l’operatore di campo Q(t) dell’equazione (5.75) è
! := 2T , allora, qualunque sia il sistema fondamentale
reale, e se esso viene considerato periodico di periodo T
scelto Φ, in corrispondenza ad esso possono essere considerate reali: sia la matrice PΦ : t &→ PΦ (t) (considerata
2T -periodica) sia la matrice B! Φ ∈ L(Rn ) tale che e2tB̂Φ = C 2 .
Φ
Dimostrazione Q reale e condizioni iniziali reali implicano Φ reale, e questa a sua volta implica CΦ reale.
Inoltre è
!Φ .
! ) := Φ(t + 2T) = Φ(t + T)CΦ = Φ(t)CΦ2 =: Φ(t)C
Φ(t + T
Ne segue che esiste B ! Φ tale che et̂B! Φ ≡ e2tB! Φ := C 2 ; e tale B ! Φ , come si è visto all’inizio del paragrafo, può
Φ
!Φ
essere scelta reale. Inoltre e tB
è l’evolutore di ξ˙ = B!Φ ξ , che può allora essere considerato come un sistema
2T -periodico reale ed equivalente al sistema 2T -periodico: ẋ = Q(t)x. Dal teorema infine segue che PΦ (t) =
! !Φ .
Φ(t)e−tBΦ = PΦ (t + T ! ) è 2T -periodica e reale, perché tali sono Φ e B "
Nota 2.5.6 Siano Φ e Φ# due qualsiasi matrici fondamentali di una stessa equazione (5.75); e siano CΦ =
−1
Φ−1 (0)Φ(T) =: etBΦ e, rispettivamente, CΦ# = Φ# (0)Φ# (T) =: etBΦ# le due corrispondenti matrici
monodrome. Siccome senz’altro esiste K ∈ L(R ) non singolare e tale che Φ# (t) = Φ(t) K , se ne deduce
n
che:
−1
CΦ# = Φ# (0)Φ# (T) = K −1 Φ−1 (0)Φ(T)K = K −1 CΦ K , (5.82)
e cioè: tutte le matrici CΦ ≡ Φ−1 (0)Φ(T) pur dipendendo dai particolari sistemi fondamentali Φ che le definiscono,
sono però simili fra loro. In particolare hanno tutte gli stessi autovalori, mentre hanno come autovettori i K -
trasformati degli autovettori.
La stessa considerazione vale, modulo 2iπ , per le matrici BΦ e BΦ# .
Si ricordi, ora, che la matrice principale del sistema (5.75) relativa all’istante t0 è esprimibile mediante la Ψ(t, t0 ) := Φ(t)Φ−1 (t0 ) ≡
Φ(t, t0 , Φ0 )Φ−1
0 che rappresenta nelle coordinate scelte l’operatore di evoluzione Gtt0 del sistema (5.75). Se allora, nella (5.82) si sceglie
K = Φ (t0 ) =: Φ−1
−1
0 con t0 comunque fissato, e si ricorda che CΦ = Φ−1 (t, t0 , Φ0 )Φ(t + T, t0 , Φ0 ) , si riconosce che: la matrice
CΨ d’avanzamento di un periodo a partire dall’istante t0 resta individuata da
Φ C Φ−1 = Ψ−1 (t, t )Ψ(t + T, t ) = C = Ψ(t + T, t ) = etB Ψ .
0 Φ 0 0 0 Ψ 0 0
Si definiscono
Moltiplicatori (o numeri) caratteristici := gli autovalori µ1 , . . . , µn ∈ C, (eventualmente, reali) di una
(qualsiasi) delle matrici monodrome della (5.75).
Esponenti caratteristici := i numeri ηh ∈ C, h = 1, . . . , n, tali che
Corollario 2.5.1 Per ciascuno degli autovalori distinti µ1 , . . . , µr ∈ C di una (qualunque) delle matrici monodrome
di (5.75): CΦ = Φ−1 (0)Φ(T), esiste (almeno) una soluzione non banale φ !j : t &→ φ
!j (t) di (5.75) tale che
!j (t + T) = µ(j) φ
φ !j (t), t ∈ R, j = 1, . . . , r .
Tali soluzioni, dette Soluzioni Normali, sono gli equivalenti delle autosoluzioni ϵ!(t) = ξ(t)ϵ(0), con ϵ ∈
Ker (T − λ1I ), dei sistemi a coefficienti costanti. Almeno una di esse esiste certamente in C Rn .
Dimostrazione Sia ϵµ ∈ C Rn un autovettore della CΦ corrispondente all’autovalore µ. ! := Φ(t)ϵµ
La φ(t)
è tale che
! + T) := Φ(t + T)ϵµ = Φ(t)CΦ ϵµ = µφ(t)
φ(t ! .
"
Se Q(t) è reale esistono coppie di soluzioni normali in corrispondenza a ciascuna coppia di moltiplicatori
complessi µ, µ̄ , e quindi coppie di soluzioni reali (ξ, η) ∈ R2n tali che, in R- span{ℜe ϵµ, −ℑm ϵµ } si ha
(
ξ(t + T) = αξ(t) − βη(t) = eσ (ξ(t) cos θ − η(t) sin θ) ;
η(t + T) = βξ(t) + αη(t) = eσ (ξ(t) sin θ + η(t) cos θ) .
In generale, non è detto che le soluzioni normali siano periodiche; lo sono se la corrispondente µ è una qualsiasi
radice dell’unità: µm = 1 , con m ∈ N, e cioè se µ = e2iπ/m con m ∈ N. La corrispondente soluzione normale
è allora periodica di periodo mT .
M. Lo Schiavo
2.5. La teoria di Floquet 139
Ma PΦ (t)etB Φ è non singolare e x0 non nullo; quindi 1 è autovalore di et(B Φ −η1I ) , il che comporta l’esistenza di un (auto)vettore
ϵ tale che etB Φ ϵ = etη ϵ =: µϵ, e cioè la tesi.
Nota 2.5.7 Gli esponenti caratteristici ηh := (ln |µh | + i(θh + 2kπ)) /T hanno solo le parti reali univocamente
determinate. Essi, come i µh , non dipendono dalla scelta del sistema fondamentale e, come si è visto nella Nota 2.5.1,
ciascuno di essi può essere considerato autovalore di un (qualche) BΦ . In loro corrispondenza si hanno le soluzioni
normali φ !h (t) = Φ(t)ϵh = PΦ (t)etηh ϵh .
Si osservi infine che, analogamente al caso dei coefficienti costanti, la periodicità di Q(t) assicura che ognuna
delle matrici Q(t) ha elementi limitati; e ciò implica che la crescita di ogni soluzione della (5.75) è limitata da una
funzione esponenziale, moltiplicata al più per un polinomio a coefficienti T -periodici. Infatti, anche nel caso in cui
qualche autovalore avesse molteplicità maggiore di uno, ricorrendo al sistema Φ che ha etBΦ in forma di Jordan
si trova che le matrici Φ(t) hanno colonne con elementi che sono combinazioni lineari di esponenziali moltiplicati
per polinomi in t, a coefficienti T -periodici.
È possibile allora (si veda: Cap V e [Hale § III.11]) associare ad ogni soluzione x = x(t) un numero λ detto
Esponente di Liapunov della soluzione := λ := lim supt→∞ 1t log |x(t)|;
esso ne caratterizza la crescita asintotica in |t| → ∞ . ◃
La proprietà vista in precedenza (si veda la Proposizione 2.4.1 § II.4) circa il Wronskiano
0. di una matrice
1
t
fondamentale , e cioè la Ẇ (t) = (T r Q(t)) W (t), o equivalentemente la Det Ψ(t, t0 ) = exp t0 T r Q(τ )dτ , dà
senz’altro )- t *
Det Φ(T)
exp T r Q(τ )dτ = Det Ψ(T, 0) = = Det CΦ = µ1 · · · µn ,
0 Det Φ(0)
ove i moltiplicatori µ1 · · · µn sono gli autovalori di una qualsiasi delle matrici CΦ := Φ−1 (0)Φ(T). Ne segue
-
1 t
T r Q(τ )dτ = η1 + . . . + ηn .
T 0
Un problema di Meccanica
Si consideri un pendolo semplice libero di oscillare in un piano verticale e vincolato ad un punto di sospensione che
si muove di moto periodico su un asse verticale di tale piano con legge nota: ζ = ζ(t) = ζ(t + T).
³(t)
l
µ
m
g
z
Si hanno I) *2 ) *2 J
1 d d
T (t, θ, θ̇) = m (ζ(t) + l cos θ) + (l sin θ) ;
2 dt dt
V (t, θ) = −mg (ζ(t) + l cos θ) + c
L (t, θ, θ̇) = T (t, θ, θ̇) − V (t, θ),
d ∂L ∂L
− ≡ lθ̈ + (g − ζ̈(t)) sin θ = 0 .
dt ∂ θ̇ ∂θ
Supposto che sia ∥θ∥∞ = θmax ≪ π , e posto θ =: θmax x, si ricava (si veda: Cap. VI) che l’equazione per x è
g − ζ̈(t)
ẍ + x = 0.
l
Ad una equazione della stessa forma si giunge con un sistema che sia il modello per il moto di un’altalena:
l(t)
µ
m
g
per la quale un plausibile schema è quello di un pendolo semplice di lunghezza variabile: l = l(t) = l(t + T) e
quindi tale che:
1 0 1
T (t, θ, θ̇) = m l˙2 (t) + l2 θ̇2 , V (t, θ, θ̇) = −mgl(t) cos θ + c .
2
Ne segue ˙ θ̇ + g sin θ = 0 . Sommando e sottraendo il termine ¨lθ , e definendo x(t) := l(t)θ(t) e
l(t)θ̈ + 2l(t)
g−l̈(t)
c(t) := l(t) , si ricava un’equazione locale di moto simile alla (2.5)
ẍ + c(t)x = 0
Di questa si cercano soluzioni limitate per ogni t, in quanto si vedrà che sono anche quelle stabili. Visto il
teorema di Floquet, esse si avranno in corrispondenza a quelle limitate di un certo sistema a coefficienti costanti:
ξ̇ = BΦ ξ , e quindi necessariamente in corrispondenza ad esponenti caratteristici ηh con ℜe ηh ≤ 0 ovvero, essendo
T ℜe ηh = ln |µh |, a moltiplicatori caratteristici che abbiano |µh | ≤ 1. La condizione però non è sufficiente:
qualora si verifichi il caso µ1 = µ2 = 1 occorre l’ulteriore la richiesta che entrambe le soluzioni escano da autovettori
e non da autovettori generalizzati, ovvero che l’operatore BΦ abbia in loro corrispondenza divisori semplici.
L’equazione di Hill ha T r Q(t) = 0 , per cui è anche Det Ψ(t, 0) = 1 , e quindi
µ1 µ2 = Det Ψ(T, 0) = 1 .
Questa è l’unica relazione nota a priori sui moltiplicatori caratteristici, che tuttavia riduce il numero dei parametri
del sistema e permette lo svolgimento di una soddisfacente discussione qualitativa.
Qui di seguito verrà esaminato il caso particolare, e più semplice, della
Equazione di Mathieu:
) *
2πt
ẍ + α + β cos x=0, x0 , ẋ0 ∈ R, α, β ∈ R \ {0} , (5.86)
T
M. Lo Schiavo
2.5. La teoria di Floquet 141
e cioè una equazione lineare a parametri oscillanti con legge sinusoidale e pulsazione ωparm := 2π/T . Il caso della
(5.85) è, d’altronde, strettamente simile.
Per il teorema di Floquet, entrambe queste equazioni hanno soluzioni del tipo
t &→ x(t) = c1 p1 (t)eη1 t + c2 p2 (t)eη2 t
= c1 p1 (t)eσ1 t/t ei (θ1 +2k1 π)t/t + c2 p2 (t)eσ2 t/t ei (θ2 +2k2 π)t/t
dove c1 , c2 ∈ R, e dove si è usata la notazione
Tηh = ln µh = ln |µh | + i(θh + 2kh π) =: σh + i(θh + 2kh π), h = 1, 2, kh ∈ Z,
con le µ1,2 autovalori (ad esempio) di CΨ = etBΨ = Ψ(T, 0), e con le p1,2 funzioni a valori complessi T -periodiche
o eventualmente, se η1 = η2 , polinomi rispettivamente di ordine zero e uno a coefficienti T -periodici. Anzi, dalla
1 = µ1 µ2 = etη1 etη2 segue la forma speciale per le soluzioni dell’equazione di Mathieu
x(t) = c1 p1 (t)ei 2k1 πt/t e(σ+iθ)t/t + c2 p2 (t)e−i 2k2 πt/t e−(σ+iθ)t/t (5.87)
2
1 incognite!). Le µ1,2 sono radici della µ −
Si chiami ϱ(α, β) := T r Ψ(T, 0) = x1 (T) + ẋ2 (T)0 (evidentemente
/
ϱ(α, β)µ + 1 = 0 ; esse quindi sono date da µ1,2 = ϱ ± ϱ2 − 4 /2. Di conseguenza si riconoscono i seguenti
casi:
• ϱ > +2 . Le due radici µ1,2 sono reali, entrambe positive, diverse fra loro, e almeno una di esse: µ1 > 1 .
Ne segue θ = 0 e σ > 0 . La (5.87) diviene pertanto
x(t) =: c1 q1 (t)eσt/t + c2 q2 (t)e−σt/t c1,2 = cost , con
q1,2 (t) := p1,2 (t)ei 2k1,2 πt/t , funzioni T−periodiche reali.
Quando i parametri (α, β) danno luogo a questa eventualità, vi sono soluzioni non limitate e non vi sono
soluzioni periodiche.
• ϱ < −2 . Le due radici µ1,2 sono reali, entrambe negative: µh ≡ |µh |eiπ , diverse fra loro, e almeno una di
esse: µ1 < −1 . Ne segue θ = π , e σ > 0 . La (5.87) diviene pertanto
x(t) =: c1 q1 (t)eσt/t + c2 q2 (t)e−σt/t c1,2 = cost , con
i(2k1,2 +1)πt/t
q1,2 (t) : = p1,2 (t)e , funzioni 2T−periodiche reali.
Anche in questo caso vi sono soluzioni non limitate e non vi sono soluzioni periodiche.
• ϱ = 2 . Si presenta una radice doppia µ1 = µ2 = 1 e quindi Tη1 = Tη2 = 0 + i 2kπ . Pertanto, almeno una
soluzione è T -periodica, e come tale può essere considerata anche 2T -periodica, mentre le altre soluzioni sono
o non sono anch’esse periodiche a seconda che la Ψ(T, 0) sia 1I oppure sia simile a un blocco elementare di
Jordan (si può mostrare che per “quasi tutti” i valori dei parametri (α, β) per i quali ϱ = 2 le soluzioni sono
non periodiche).
• ϱ = −2 . Si presenta una radice doppia µ1 = µ2 = −1 = eiπ e quindi Tη1 = Tη2 = 0+i (2k+1)π . Almeno
una soluzione è 2T -periodica, e non può essere considerata anche T -periodica, mentre le altre soluzioni
possono o meno essere 2T -periodiche (ma certo non possono essere T -periodiche) a seconda che la Ψ(T, 0)
sia −1I oppure simile a un blocco elementare di Jordan; anche qui si può mostrare per quasi tutti i valori
dei parametri (α, β) per i quali ϱ = −2 esse saranno non periodiche.
• −2 < ϱ < 2 . Le due radici µ1,2 sono complesse coniugate: µ1 = µ̄2 ̸∈ R, semplici e diverse fra loro.
Insieme con la µ2 = µ−1
1 queste forniscono µ1 = µ̄−1
1 da cui: σ + iθ + i 2kπ = −σ + iθ + i 2kπ con θ/π ̸∈ Z,
e quindi: σ = 0 e θ ∈ (0, π). Le due radici cadono sul cerchio unitario, fuori dall’asse reale, e simmetriche
rispetto ad esso. Posto allora ω = θ/T ne segue che Tη1,2 = 0 ± i (ω T + 2kπ) e la (5.87) diviene
x(t) =: c1 q1 (t)ei ω t + c2 q2 (t)e−i ω t c1,2 = cost , con
q1,2 (t) := p1,2 (t)ei2kπt/t , funzioni (complesse) T−periodiche.
Le soluzioni sono tutte limitate, non T -periodiche né 2T -periodiche, e neppure periodiche di periodi superiori
a 2T , a meno che sia θ = Arg µ = 2kπ/n, o anche ω = (k/n)(2π/T), con k, n ∈ Z, n > 2 . Si hanno cioè
due pulsazioni (in generale non razionalmente dipendenti fra loro): la ωparm := 2π/T propria dei coefficienti,
e la ω := θ/T propria della dinamica.
Il moto è per definizione quasi-periodico.
1/¹
¹2 {
¹
Le seguenti considerazioni e definizioni hanno carattere generale e si riferiscono a un qualsiasi sistema lineare a
coefficienti periodici.
Quando l’operatore di campo Q : t &→ Q(t) è reale, anche ogni matrice monodroma C = etB è reale, ed entrambi µ e µ̄
sono moltiplicatori. La condizione di reciprocità consiste, in questo caso, nel richiedere che l’insieme dei moltiplicatori coincida con
l’insieme dei loro inversi, e cioè che etB ed e−tB abbiano uguali autovalori. Ciò accade per esempio se le corrispondenti matrici
C := etB e C−1 := e−tB sono simili, o anche se una delle due è simile alla trasposta dell’altra. Sussiste inoltre il seguente:
Lemma 2.5.1 Sia Q(t) reale, e si indichi con Ψ : t &→ Ψ(t, 0) la matrice principale ( Ψ(0) = 1I ) del sistema ẋ = Q(t)x. Se esiste
F ∈ L(Rn ) non singolare e tale che:
(i) F Q(t) = −Q(−t) F , t ∈ R; oppure tale che
(ii) F Q(t) = −QT (t) F , t ∈ R;
allora il sistema ẋ = Q(t)x è reciproco, in quanto nei due casi detti si ha rispettivamente
(i’) Ψ−1 (−t, 0) F Ψ(t, 0) = F , t ∈ R;
(i”) ΨT (t, 0) F Ψ(t, 0) = F , t ∈ R.
Dimostrazione Si ricordi (si veda: Nota 2.4.4 § II.4) che, nell’ipotesi che base e prodotto scalare siano tali che ⟨ eh , ek ⟩ = δhk e
detta Y T (t) la soluzione dell’equazione aggiunta Ẏ T = − Y T Q(t) , sussiste la Y T (t)Ψ(t, 0) = cost = Y T (t0 ) quando . In
particolare, la matrice Ψ−1 (t, 0) verifica tale equazione: Ψ̇−1 (t, 0) = −Ψ−1 (t, 0)Q(t) .
Se sussiste la (i) , anche Ψ−1 (−t, 0)F è soluzione dell’equazione aggiunta, infatti
Ψ̇−1 (−t, 0)F = Ψ−1 (−t, 0)Q(−t)F = −Ψ−1 (−t, 0)F Q(t) .
Se ne ricava la relazione Ψ−1 (−t, 0)F Ψ(t, 0) = cost = F e questo implica che Ψ(T, 0) e Ψ(−T, 0) sono simili e in particolare che
hanno gli stessi autovalori.
In modo analogo, dalla Ψ̇ + T = ΨT QT segue che se sussiste la (ii) allora si ha che
Ψ̇T (t, 0) F = ΨT (t, 0) QT (t) F = −ΨT (t, 0) F Q(t) .
Se ne ricava la ΨT (t, 0) F Ψ(t, 0) = cost = F . Da qui segue la similitudine fra ΨT (t, 0) e Ψ−1 (t, 0) , e va tenuto presente che
una matrice e la sua trasposta hanno gli stessi autovalori. "
1
7 8
con H (q, p) = pA−1 p +
2) *
qBq + 2pCq ed A, B, C, D ∈ Pert (L(Rn )) regolari e T -periodiche.
q
Ponendo x := , e chiamate
p
) * ) *
0 +1I B C
I := = −I T = −I −1 , H(t) := = HT (t)
−1I 0 C A−1
M. Lo Schiavo
2.5. La teoria di Floquet 143
) *
C A−1
e QH (t) := I H(t) = , tali sistemi si possono porre sotto la forma:
−B −C
La parte (ii) del Lemma 2.5.1 conferma che QH è reciproca e quindi che la sua matrice principale ΨH è I -ortogonale:
ΨT
H (t, 0) I ΨH (t, 0) = I .
Una matrice che verifichi quest’ultima condizione, con I definito come sopra, si dice appartenere al gruppo simplettico reale. Ne
segue che: un operatore Hamiltoniano QH (t) lineare e periodico è reciproco, e ha come matrice principale di avanzamento su un periodo
etB H = ΨH (T, 0) una matrice reale simplettica, (e cioè I -ortogonale). #
In base all’Osservazione fatta più sopra si riconosce che per sistemi (periodici, lineari) reciproci: le soluzioni sono limitate per
t → ±∞ se e solo se tutti i moltiplicatori caratteristici hanno |µ| = 1 e divisori elementari semplici. D’altra parte si vedrà nel
seguito che per sistemi genuinamente lineari, e cioè lineari omogenei, non necessariamente autonomi, (tutte) le soluzioni limitate sono
(tutte) stabili, e viceversa. Pertanto si conclude che: per sistemi reciproci la limitatezza delle soluzioni equivale alla loro stabilità
(semplice, in quanto |µ| = 1 ). Questa osservazione fa sı̀ che qui di seguito si possa ugualmente parlare di soluzioni stabili, malgrado
non se ne sia ancora introdotta la definizione generale, pur di limitarsi alle soluzioni limitate di sistemi reciproci. Anzi, su questi si
potrà riconoscere una proprietà anche più forte della stabilità.
Si premetta la seguente nozione, che si riferisce alla stabilità di (tutte) le soluzioni di sistemi lineari a coefficienti regolari e periodici,
diversi da un certo 7assegnato 8sistema ma opportunamente “vicini” ad esso.
Si indichi con Qt , ∥·∥∞ lo spazio di Banach delle funzioni Q ∈ Pert (L(V)) (reali, regolari, T -periodiche, a valori in L(V) )
dotato della norma ∥·∥∞ := supt∈[0,t] ∥·∥ , ove ∥·∥ è la norma spettrale.
Lemma 2.5.1 Per ogni fissato t ∈ R , il sistema fondamentale ΨQ (t, 0) dell’equazione ẋ = Q(t)x è funzione continua di Q ∈ Qt in
quanto lo è la matrice ΨQ (t, 0) ∈ L(Rn , ∥·∥)
Dimostrazione Siano ẏ1 = Q1 (t)y1 e ẏ2 = Q2 (t)y2 . Posto u := y1 − y2 si ha ovviamente u̇ = Q1 (t)u + (Q1 (t) − Q2 (t)) y2 .
Si valuta allora - t
|u(t)| ≤ |u0 | + (∥Q1 (τ )∥ |u(τ )| + ∥Q1 (τ ) − Q2 (τ )∥ |y2 (τ )|) dτ
0
e mediante la disuguaglianza generalizzata di Gronwall (si veda: Appendice A.9) si ottiene
- t
|u(t)| ≤ |u0 | exp ∥Q1 (τ )∥ dτ
0
- t 0 1) - t *
+ ∥Q1 (τ ) − Q2 (τ )∥ |y2 (τ )| exp ∥Q1 (σ)∥ dσ dτ .
0 τ
che implica ) - * -
? ? ? ? t t
? ΨQ (t) − ΨQ (t)? ≤ sup ? ΨQ (ξ)? exp ∥Q1 (τ )∥ dτ · ∥Q1 (τ ) − Q2 (τ )∥ dτ .
1 2 2
ξ∈[0,t] 0 0
.t
Pertanto,
? siccome ?è 0
∥Q1 (τ ) − Q2 (τ )∥ dτ ≤ t ∥Q1 − Q2 ∥∞ , a t fissato e per ∥Q1 − Q2 ∥∞ convenientemente piccola si ha che
? ΨQ (t) − ΨQ (t)? è arbitrariamente piccola. "
1 2
Teorema
; < 2.5.1 Se R ∈ Rt è reciproco e se una sua matrice monodroma CR := ΨR (T, 0) ha tutti i moltiplicatori
(R) (R)
µh semplici e di modulo unitario: |µh | = 1 per ogni h = 1, . . . , n, allora R è (stabile e) fortemente
h=1,...,n
stabile rispetto ad Rt .
Dimostrazione Sia R verificante l’ipotesi. È possibile scegliere ε > 0 sufficientemente piccolo e, per l’enunciata
continuità, determinare in sua corrispondenza un δ > 0 tali che, per ogni Q ∈ Rt che verifichi ∥R − Q∥ < δ , accada
che in ciascun disco sul piano complesso: Bε (µR ) cade uno e un solo moltiplicatore µQ relativo alla ΨQ (T, 0).
Ma Q ∈ Rt implica che anche µ̄−1 −1
Q è un moltiplicatore, e questo dovrà appartenere a Bε (µ̄R ). D’altra parte se R
−1 2
ha autovalori (semplici e) di modulo unitario si ha µ̄R = µR /|µR | = µR . Per cui, affinché in Bε (µR ) vi sia un
solo moltiplicatore µQ , è necessario che anche Q abbia autovalori semplici e tali che µ̄−1
Q = µQ ; ciò che implica
|µQ | = 1 e quindi la stabilità di Q e la tesi. "
Corollario 2.5.2 Nell’ultimo dei casi considerati per i valori dei parametri dell’equazione di Mathieu tale equazione
è fortemente stabile rispetto all’insieme Rt . Pertanto se un qualunque sistema in Rt è prossimo nel senso della
∥·∥∞ a uno di Mathieu che abbia valori dei parametri come nel quinto dei casi considerati sopra, esso ne condivide
le proprietà di stabilità.
Dalle precedenti considerazioni si ricava che, sul piano (α, β) relativo all’equazione di Mathieu, le zone di
stabilità e di non stabilità (ovvero di limitatezza o non limitatezza delle soluzioni) sono dominii regolari sepa-
rati fra loro dalle regioni (varietà unidimensionali): ϱ(α, β) = ±2 , che contengono i valori di “separazione”
corrispondenti a soluzioni, rispettivamente, T -periodiche e 2T -periodiche. In più, le soluzioni T -periodiche e
2T -periodiche possono aversi solo in queste regioni, giacché per |ϱ| > 2 si hanno ℜe (ln µ) ̸= 0 , e per |ϱ| < 2 si
hanno ℑm (ln µ) ̸= kπ .
Per determinare esplicitamente queste zone sarà allora conveniente imporre l’esistenza di soluzioni rispettiva-
mente T -periodiche e 2T -periodiche.
C∞Affinché il’equazione
2nπt/t
di Mathieu ẍ + (α + β cos(2πt/T))x = 0 abbia come soluzione la funzione x(t) =
n=−∞ c n e è necessario che sia
∞
= + 2
,
2 π β
− 4n cn + αcn + (cn+1 + cn−1 ) ei 2nπt/t = 0,
T2 2
n=−∞
M. Lo Schiavo
2.5. La teoria di Floquet 145
β
ove γ2n+1 := .
2(α − 2(n + 1)π/T)2
Sfruttando relazioni di ricorrenza sui troncamenti dei ∆H , ∆ & H (si veda: [Jordan]) si riesce, numericamente, a
valutare le coppie (α, β) che annullano, in via approssimata, i determinanti di Hill; queste individuano le regioni
del piano (α, β) caratteristiche dei valori dei parametri per i quali esistono soluzioni T -periodiche o 2T -periodiche.
Per la continuità della traccia T r ΨQ (T, 0) rispetto all’operatore di campo Q, queste zone arrivano a toccare i
punti corrispondenti alle soluzioni T -periodiche e 2T -periodiche del “caso limite”: β = 0 , e cioè: ẍ + αx = 0 .
È chiaro che su questo ultimo caso si sa dire
√ tutto: ci sono soluzioni periodiche se α è (reale) positiva; in tal
caso esse hanno pulsazione ωnat := ω(α, 0) = α , e si ha
@ √ √ A
cos α t √1 sin α t
α
Ψnat (t, 0) = √ √ √ .
− α sin α t cos α t
√ B √ √
ϱ ϱ2
Inoltre: T r Ψnat (T, 0) =: ϱ(α, 0) = 2 cos α T , e quindi µnat 1,2 = 2 ± 4 − 1 = cos α T ± i sin α T e
√
±i α t
ne segue: µnat1,2 = e .
Esse
√ sono soluzioni T -periodiche, o 2T -periodiche (ma non T -periodiche), se e solo se accade rispettivamente
che α T è un multiplo intero positivo (rispettivamente pari o dispari) di π ; e cioè quando ωnat T = 2nπ ,
oppure ωnat T = 2(n + 1)π , con n in N+ .
In definitiva, il caso limite β = 0 ha
⎧
⎪
⎨ϱ = +2 per ωnat T = 2nπ, e cioè ωnat /ωparm = n
ϱ = −2 per ωnat T = (2n + 1)π, e cioè ωnat /ωparm = (2n + 1)/2
⎪
⎩
ϱ ∈ (−2, 2) negli altri casi.
Se ne deduce che i punti dell’asse β = 0 sono tutti corrispondenti a soluzioni limitate e, come tali, fortemen-
te stabili, qualunque siano le loro condizioni iniziali e in particolare quindi le soluzioni statiche, salvo quelli in
corrispondenza ai valori
ωnat ωnat 2n + 1
=n oppure = , n ∈ N.
ωparm ωparm 2
Nell’intorno di tali punti si hanno soluzioni T -periodiche (rispettivamente: 2T -periodiche) insieme a soluzioni non
limitate giacché i moltiplicatori sono non semplici.
instabili
¯ fortemente stabili
2T- periodiche
T - periodiche
!nat/!
parm
1/2 1 3/2 2 5/2
Si vede quindi che è possibile rendere instabile la posizione di riposo di un’altalena mediante una pur piccola
variazione periodica della sua lunghezza (equivalente) purché il periodo dei parametri sia proporzionale a un numero
semi-intero di periodi naturali.
Fenomeni di questo tipo sono noti con il nome di Risonanza parametrica, e non vanno confusi con quelli di
Risonanza forzata, presente in sistemi non omogenei.
Si possono paragonare questi risultati con quelli (si veda: [Arnold 1]) che si ottengono per l’equazione
ẍ + (ω 2 + ε2 sin t)x = 0
Per la discussione del caso generale dell’equazione di Hill si veda [Hale]. Questa non è comunque concettual-
mente diversa da quella più semplice vista qui, né dà risultati qualitativamente diversi.
M. Lo Schiavo
Capitolo 3
147
148 Capitolo 3. Equazioni Differenziali Ordinarie:Metodi Qualitativi
si ha
) *−1
1 1
φ(t, t0 , x0 ) = − t − t0 − su JM (x0 ) = (−∞, t0 + ),
x0 x0
) *−1
1 (c) 1
ψ(t, t0 − c, x0 ) = − t + c − t0 − su JM (x0 ) = (−∞, t0 − c + ).
x0 x0
M
y0
0)
{c, x ,x 0)
t
à (t, 0 x0 Á (t,t 0
t
t0{c t0 t0{c+1/x0 t0+c t0+1/x0
N.B. 3.1.3 Se due soluzioni, qualunque e distinte, φ e ψ di un’equazione autonoma sono tali da assumere
uno stesso valore x0 := φ(t0 , t0 , x0 ) = ψ(t1 , t1 , x0 ) in due diversi istanti t0 ̸= t1 allora: siccome la ψ& definita da
& t1 , x0 ) := φ(t + c, t0 , x0 ) è anch’essa soluzione dell’equazione, e siccome scelto c tale che t1 + c = t0 si ha
t &→ ψ(t,
& 1 ) = x0 , dal teorema di unicità si deduce che la ψ è identica alla ψ& , e cioè che la ψ è necessariamente ottenuta
ψ(t
dalla φ tramite un semplice incremento dell’ascissa temporale.
Il caso particolare in cui una stessa soluzione (massimale) ammetta uno stesso valore in due diversi istanti, e
cioè il caso in cui fin dall’inizio si abbia φ ≡ ψ , verrà esaminato più avanti. ♦
Al variare del valore della costante c in R si ha evidentemente che le corrispondenti curve integrali sono le
traslate le une delle altre lungo l’asse dei tempi. Al variare invece del valore della costante c in (m1 − t0 , m2 − t0 ),
con un fissato t0 , il punto iniziale varia in tutti i modi possibili lungo una stessa traiettoria.
Per un sistema autonomo la dinamica non dipende dallo specifico valore assunto dalla variabile indipendente,
ma solo dalla differenza fra questo e quello iniziale: l’evoluzione di un dato punto è la stessa sia che lo si consideri
punto iniziale in un particolare istante sia che lo si consideri tale in un istante che disti dal primo un arbitrario
intervallo di durata c.
Le precedenti considerazioni sono equivalenti ad osservare che l’autonomia (e la regolarità) del campo comportano che esso individui
una famiglia {Gtt0 }t∈(m1 ,m2 ) di evolutori Gtt0 : M → M dati da Gtt0 x0 := φ(t, t0 , x0 ) , che è un gruppo, locale, ad un parametro. Infatti,
ove definiti, gli evoluti di x0 verificano la
in quanto risulta
Gtτ0 −c x0 = ψ(τ, t0 − c, x0 ) = φ(τ + c, t0 , x0 ) = Gtτ0+c x0 per τ + c ∈ (m1 , m2 ).
y0 = G c x0 = φ(c, 0, x0 ), ed & 0, y0 ) ,
y& = G t y0 = φ(t,
allora esiste anche y = G t+c x0 (si hanno cioè t+c ∈ [0, m2 ) , e: −c ∈ (−m′1 , 0] ) e risulta coincidere con y& = G t (G c x0 ) = φ(t+c, 0, x0 ) .
Infatti la funzione ⎧
⎨ φ(t + c, 0, x0 ) per t ∈ [−c, 0]
t &→ ψ(t, −c, x0 ) :=
⎩ φ(t,
& 0, y0 ) pert ∈ [0, m′2 )
è soluzione dell’equazione per t ∈ [−c, m′2 ) , e vale y0 per t = 0 . Ciò mostra che ψ(t, −c, x0 ) esiste almeno su [−c, m′2 ) . Se allora si
considera, per t ∈ [0, m′2 + c) , la funzione ψ& : t &→ ψ(t
& + c, 0, x0 ) := φ(t, −c, x0 ) , si osserva che essa è soluzione dell’equazione e vale
y0 in t = 0 . Pertanto la ψ& necessariamente coincide con la φ e ne garantisce la definizione almeno su [0, m′2 + c) .
M. Lo Schiavo
3.1. Il piano delle fasi 149
0)
,x
0)
c,0
,y
M
+
,0
(t
eÁ
(t
eÃ
y
e
G t y0 G t+cx0
y0
G cx0
)
à (t,-c,x 0 x0
)
Á(t,0,x 0
t
-c 0 t c t+c
In definitiva, la soluzione generale di un sistema autonomo verifica la relazione
da intendersi come funzione della sola variabile t, nella quale senza ledere la generalità si è posto t0 = 0 e nella
quale c è fissato tale che φ(c, 0, x0 ) esista; (si veda anche [Hirsh Teor. VIII.7.2]).
N.B. 3.1.4 Come si è visto nel N.B. 3.1.3, l’uguaglianza φ(t2 ) = ψ(t1 ) implica che le due soluzioni sono diverse
solo per una traslazione dell’origine dei tempi. Ne segue che due qualunque moti di un’equazione autonoma che
passino per uno stesso punto (anche se in istanti diversi), hanno la medesima traiettoria:
Per ogni punto dello spazio delle fasi di un sistema autonomo passa quindi una e una sola curva di fase massimale;
(questa proprietà è posseduta dalle curve integrali nello spazio delle fasi ampliato, in virtù del determinismo).
Nel seguito quando si dirà traiettoria si intenderà sempre l’immagine di uno qualunque dei moti massimali
passanti per uno qualunque dei suoi punti. In tal senso il teorema del prolungamento si può anche ricordare
dicendo che: se una traiettoria è interamente contenuta in un compatto contenuto nel dominio di regolarità del
campo allora la funzione moto è definita per ogni t ∈ R, infatti essa risulta definita per ogni t ∈ [a, b] qualunque
siano a, b ∈ R.
Da ciò segue anche che, a parte possibili differenze nei comportamenti dinamici dovute solo ad una diversa
parametrizzazione dell’ascissa temporale rispetto all’ascissa curvilinea lungo la traiettoria, sono le traiettorie nello
spazio delle fasi più che le curve integrali in quello ampliato che ben rappresentano l’evoluzione del sistema auto-
nomo, ed è per questo che spesso lo studio di tali sistemi si intende esaurito quando se ne dia il grafico di fase.
Occorre tuttavia ricordare che sono le traiettorie, e non altre curve che le contengano, gli oggetti che descrivono il
sistema. ♦
Ancora per un sistema autonomo, si consideri ora il caso particolare φ = ψ , e cioè il caso in cui esistano
t1 , t2 ∈ R tali che risulti φ(t2 , 0, x0 ) = φ(t1 , 0, x0 ). Ne segue che esiste c ∈ R per il quale
N.B. 3.1.6 Siccome φ è definita in (m1 , m2 ) mentre ψ lo è in (m1 − c, m2 − c) e giacché i due intervalli devono
coincidere malgrado c sia strettamente positiva, si ha che l’unica possibilità lecita in questo caso è che entrambi
gli intervalli coincidano con tutto l’asse reale. In particolare ne segue che se c verifica l’assunto, anche −c lo fa.♦
N.B. 3.1.7 L’insieme dei possibili numeri c forma un sottogruppo (additivo) G di R, ed è un sottoinsieme chiuso
di R. Infatti φ(t + c1 ) = φ(t) e φ(t + c2 ) = φ(t) danno φ(t ± c1 ± c2 ) = φ(t); e inoltre, siccome φ è continua,
N.B. 3.1.8 Il sottoinsieme degli elementi positivi del sottogruppo ammette un estremo inferiore T detto
Periodo del moto, che per la chiusura appartiene esso stesso a G, e che non può essere nullo a meno che la funzione
φ sia la funzione costante. Infatti, se l’estremo inferiore fosse nullo potrebbero esistere c ∈ G comunque piccoli.
Ma, considerato che per ciascun c che appartiene a G anche mc appartiene a G per un qualunque m ∈ Z, dati
arbitrariamente k, ε > 0 , potrebbe esistere un elemento c̄ ∈ G tale che |k − mc̄| < ε . La chiusura di G implica
che anche k dovrebbe appartenere a G che allora, data l’arbitrarietà di k , dovrebbe coincidere con R. ♦
N.B. 3.1.9 Ogni altro elemento di G è un multiplo intero del periodo T . Infatti se vi fosse un c ∈ G non multiplo
intero di T , esisterebbe m ∈ Z tale che mT < c < (m + 1)T , ovvero tale che 0 < c − mT < T malgrado il fatto
che anche c − mT debba essere un elemento di G. ♦
N.B. 3.1.10 Il punto precedente esclude che una traiettoria possa ammettere punti doppi o contenere archi che
non siano chiusi. In definitiva: i moti periodici soluzioni di una equazione autonoma sono tutti e soli quelli che
ammettono come traiettorie, nello spazio delle fasi, delle curve di Jordan. ♦
In R1 la famiglia dei diagrammi di fase è assai esigua; data la ridotta dimensione dello spazio delle fasi, ciascun
punto di equilibrio è estremo (non contenuto) di solo due traiettorie, rispetto alle quali esso è: o attrattivo per
entrambe (“pozzo”), o repulsivo per entrambe (“sorgente”), o attrattivo per l’una e repulsivo per l’altra (“sella”),
a meno che esso sia contenuto in un intervallo fatto tutto da punti di equilibrio.
Questa affermazione, naturalmente, sfrutta il fatto che diagrammi di fase omeomorfi danno identiche informa-
zioni qualitative, a meno di una diversa parametrizzazione delle traiettorie stesse.
Già nel caso di sistemi a due gradi di libertà, invece, l’insieme delle possibili traiettorie è estremamente più ricco.
È però vero che non ogni curva, anche se regolare, può essere traiettoria di un sistema differenziale regolare. Per
esempio un cammino può entrare (o avvicinare) un punto di equilibrio soltanto per t → ∞ cioè con un “estremo”,
e più in generale non può tendere verso un punto di una traiettoria (regolare) per alcun t → t1 < ∞. Si deve tener
presente che un punto di equilibrio è esso stesso una traiettoria, e non appartiene quindi ad alcuna delle eventuali
traiettorie che gli si avvicinano.
Esempio 3.1.11 Nella figura sono accennati tre diagrammi di fase ottenuti per tre distinti valori di un parametro di
controllo di un sistema 2 -dimensionale che, malgrado siano localmente uguali, danno luogo a dinamiche totalmente
diverse.
M. Lo Schiavo
3.1. Il piano delle fasi 151
N.B. 3.1.12 Sulle traiettorie viene generalmente indicato il verso naturale di crescita del parametro tempo, che
naturalmente coincide con il verso del vettore tangente v(x) ♦
Lo studio dei diagrammi di fase comincia di regola con la ricerca dei punti di equilibrio e con l’esame locale
delle traiettorie in prossimità di questi; ciò sempre dal punto di vista qualitativo, e quindi identificando fra loro
diagrammi che, seppure diversi, sono tuttavia fra loro omeomorfi, (cfr. oltre). Pertanto generalmente questo studio
consiste innanzi tutto nel tracciare, localmente intorno a ciascun equilibrio, il diagramma di fase di un più semplice
sistema (possibilmente lineare) che sia “equivalente” a quello dato. Successivamente, con l’aiuto dello studio diretto
del campo vettoriale assegnato, si raccordano fra loro i vari diagrammi trovati. Purtroppo questa tecnica non
sempre determina il diagramma completo, e si deve far ricorso a teoremi e metodi di natura globale per eliminare
le possibili ambiguità. È questa la parte più difficile degli studi qualitativi e per la quale sono spesso utili metodi
numerici.
Lo stabilire possibili equivalenze fra flussi è già argomento di profondo interesse (si veda anche l’Appendice A.4).
Ad esempio, con equivalenza “topologica” fra due sistemi si intende che esiste un omeomorfismo f : U ⊂ M → M
che coniuga fra loro due possibili evolutori G t e I τ di M in sé secondo la
f −1 ◦ I τ ◦ f = G t con U ∋ x0 , t ∈ N (t0 ), τ = τ (t, x0 ) invertibile rispetto a t.
In tal caso, le due evoluzioni su M sono dette topologicamente equivalenti: il omeomorfismo f e la funzione invertibile
τ assicurano che per ogni t ∈ N (t0 ):
(
ξ0 = f (x0 )
⇐⇒ ξ := I τ ξ0 = f ◦ G t x0 ≡ f (x).
τ = τ (t, x0 )
Più in generale (si veda: [Wiggins 1 p.24; Guckenheimer p.38]) si definiscono:
v, w campi vettoriali C k - coniugati := due campi per i quali esiste un C k - diffeomorfismo: f : M → L che
trasforma le soluzioni φ dell’equazione ẋ = v(x) nelle soluzioni ψ dell’equazione ẏ = w(y) secondo la
ψ◦f =f ◦φ ovvero ψ(t, t0 , f (x0 )) = f (φ(t, t0 , x0 )) .
A tale proposito, sussiste la
Proposizione 3.1.1 (fondamentale) Siano D un aperto di M, v : M → T M un campo in C r (D), ed f : M → L
un diffeomorfismo C r+1 .
Dato comunque x0 ∈ D , l’equazione ẋ = v(x) ha soluzione
φ : I → M data da: x = x(t) := φ(t, t0 , x0 ) su I ∈ R aperto contenente t0 ,
se e solo se posto w = f∗ v|f −1 , l’equazione ẏ = w(y) ha soluzione
ψ : I → L data da: y = y(t) := ψ(t, t0 , y0 ) su I ∈ R aperto contenente t0 ,
7 7 88
ed allora ψ è tale che ψ(t, t0 , y0 ) ≡ f φ t, t0 , f −1 (y0 ) e y0 = f (x0 ).
f
Á Gt Ã
It y
x
x0 y0
f{1
v(x) w(y)
f¤
"
N.B. 3.1.14 Si osservi che nella letteratura la notazione f∗ può avere significato leggermente diverso da quello
qui usato. Di frequente infatti (si veda ad esempio [Abraham-Marsden]) il campo w è di per sé indicato con f∗ v ;
l’operazione f∗ è allora chiamata “push forward” dal campo v al campo w ed è definita solo per diffeomorfismi
f. ♦
Ne segue in particolare che la coniugazione fra due campi v e w è assicurata dall’esistenza di un diffeomorfismo
f tale che
w(y) = [f∗ v(x)]x=f −1 (y) .
In tal caso, le traiettorie del flusso individuato da v , e in particolare i punti fissi o le orbite periodiche, vengono
trasportate dal morfismo f in quelle del flusso di w , o anche: i due flussi sono C k - coniugati.
Più debolmente si possono considerare sistemi che condividono solo le traiettorie nello spazio delle fasi e non
anche le curve integrali, o solo luoghi di punti che contengono traiettorie; per essi la parametrizzazione non è la
stessa. Come si è accennato si tratta allora solamente di
v, w campi vettoriali C k - equivalenti := campi vettoriali per i quali accade che
ψ(τ (t, x0 ), τ0 , f (x0 )) = f (φ(t, t0 , x0 ))
per un qualche diffeomorfismo f : M → L e una qualche funzione τ : R × M → R monotona rispetto a t (in
generale: non decrescente).
In questi casi ad esempio le orbite periodiche, pur essendo conservate, possono non mantenere lo stesso periodo,
(si vedano gli esempi più oltre).
M. Lo Schiavo
3.1. Il piano delle fasi 153
v, w campi vettoriali topologicamente equivalenti := individuano flussi che sono solo topologicamente equiva-
lenti, e cioè la mappa f è un omeomorfismo.
v, w campi vettoriali linearmente equivalenti := la mappa f è lineare.
N.B. 3.1.15 Nel seguito, quando sia fissato un sistema di coordinate, l’equazione
ẋ = v(x) , (1.3)
con campo definito sulla varietà M, e valida nel fibrato tangente T M, verrà generalmente scritta “per coordinate”:
ẋ = v(x) := X v(x) ≡ X [φ]x ,
ed anzi si riserverà la notazione x, v a corrispondenti grandezze scalari: in R1 .
D’altra parte, se nella Proposizione Fondamentale 3.1.1 si intende f come la funzione identità sulla varietà M,
7 8−1
rappresentata dalle h(ξ) ◦ h(x) , e della quale la ΞX −1 rappresenta la tangente, allora è lecito concludere che il
N O
∂ξ
sistema ẋ = v(x) resta trasformato nel sistema ξ̇ = ν(ξ) con ν(ξ) = ∂x v(x) −1
entrambi rappresentanti
x=ξ (ξ)
su due diverse carte la stessa equazione: ẋ = v(x)
In definitiva è possibile scegliere, per ciascuna classe di coniugio di campi (secondo la definizione data qui sopra),
un solo sistema del tipo (1.3) da trattarsi risolvendo una qualunque delle sue rappresentazioni in coordinate. Tale
soluzione va poi interpretata sulla varietà, e trasformata mediante la Proposizione Fondamentale.
In definitiva non è troppo restrittivo pensare al diffeomorfismo f della Proposizione Fondamentale come ad
una qualsiasi trasformazione di coordinate fra sistemi del tipo ẋ = v(x), e che non lede limitarsi alla notazione
per coordinate purché si tenga presente che essa può rappresentare anche intere classi di sistemi. ♦
Nota 3.1.2 Se v e w sono coniugati da un diffeomorfismo f , e se v(x0 ) = 0 , allora la matrice ∂v(x0 ) risulta
simile alla ∂w(f (x0 )) := ∂w(y)|y=f (x0 ) . Le due matrici sono solo proporzionalmente simili in caso di semplice
equivalenza.
'
'
Infatti la (T C ′ ) implica: w(f (x)) = f∗ ' v(x) dalla quale si ricava
x
' ' ' '
' ' ' '
w∗ ' f∗ ' = f∗∗ ' v(x) + f∗ ' v∗ (x),
f (x) x x x
Si noti d’altra parte che la condizione di avere uguali gli autovalori delle linearizzate non è sufficiente per un
C k - coniugio; occorre infatti che esse condividano anche la ricchezza dei loro rispettivi autospazi.
Esempio 3.1.17 Con x0 , y0 ∈ R si ha che
( M
ẋ = x ẋ = x + y
è topologicamente equivalente a
ẏ = y ẏ = y
Tuttavia si vedrà nel seguito che per la sola equivalenza topologica fra due sistemi lineari che abbiano tutti gli
autovalori con parti reali non nulle basta che esse abbiano la stessa segnatura.
Nei seguenti esempi verrà usata la familiare notazione delle coordinate cartesiane sul piano: (x, y), (ξ, η) ∈ R2
e polari: (ρ, θ) ∈ R+ × R1 .
(
ẋ = y
Esempio 3.1.18 x0 , y0 ∈ R.
ẏ = x,
Sia ) * ) * ) * ) *) *
x ξ x+y 1 1 x
f: &→ = = .
y η x−y 1 −1 y
) *
1 1
Come ci si aspetta, si ricava ∂f = , che dà, in coordinate,
1 −1
) * ) *
x+y ξ
w(f (x)) = ∂f (x)v(x) = e quindi w= .
y−x −η
#
(
ẋ = y
Esempio 3.1.19 x0 , y0 ∈ R.
ẏ = −x,
) * ) * )/ *
x ρ x2 + y 2
Sia f: &→ = , per x > 0 e θ ∈ (−π/2, +π/2).
y θ arctan xy
Dato che ∂ arc tan α = (1 + α2 )−1 , risulta (in coordinate):
@ x y A
√ 2 2 √
∂f = x +y x2 +y 2
−y x
x2 +y 2 x2 +y 2
e quindi ) * ) *) * ) *
ρ̇ cos θ sin θ ρ sin θ 0
= ∂f v(f −1 (ρ, θ)) = − sin θ cos θ =
θ̇ ρ ρ −ρ cos θ −1
da cui, localmente, ρ(t) = ρ0 , θ(t) = −t + θ0 .
Al crescere di t occorrerà cambiare carta. Ad esempio, si può introdurre la coordinata: θ1 ∈ (−π/2, π/2) data
da θ1 := arctan −x/y per y > 0; per cui nel primo quadrante) ) θ1 = θ − π/2*. La ∂f rimane la stessa e
*risulta
−1 ∂ ρ cos θ cos θ −ρ sin θ
definita; in effetti essa è l’inversa della ∂f = ∂(ρ,θ) = e cioè della tangente della
ρ sin θ sin θ ρ cos θ
) * ) * ) *
ρ x ρ cos θ
trasformazione f −1 : &→ = che, per la periodicità delle funzioni seno e coseno, è definita
θ y ρ sin θ
su (0, +∞) × (−∞, +∞) ma che è invertibile solo su striscie di larghezza minore di 2π .
La trasformazione prosegue con θ2 := arctan y/x per x < 0; e la θ2 = θ1 − π/2 può essere usata per definire
θ = θ2 + π = arctan y/x + π nella striscia x < 0 . Questa, con la θ := π/2 per x = 0 , genera una corrispondenza
continua fra i punti del piano tagliato in {x = 0, y < 0} e i valori ρ ∈ (0, +∞), θ ∈ (−π/2, 3π/2). (Di qui in
poi: se si prosegue si ha la continuità perdendo la biunivocità; se si smette si ha la biunivocità a scapito della
continuità). #
Esempio 3.1.20
⎧ η
⎨y = + x tan α
cos α con x, y ∈ R ,
⎩ ξ = x + η tan α
cos α
e con α fissato e indipendente da t.
y
»
´
® x
M. Lo Schiavo
3.1. Il piano delle fasi 155
e pertanto ) *
cos α sin α
∂ℓ = ,
− sin α cos α
come deve visto che la trasformazione è lineare. #
Nel Capitolo II si è visto come tutti gli esempi qui sopra facciano parte di una stessa forma generale: l’equazione
ẋ = T x con T ∈ L(V).
Nota 3.1.3 È bene osservare esplicitamente che non è certo sufficiente che due sistemi abbiano le stesse traiettorie,
o addirittura traiettorie che appartengano a medesime curve, per far sı̀ che i sistemi siano coniugati o equivalenti.
◃
Si osserva che tutti e quattro tali sistemi hanno traiettorie appartenenti alle circonferenze concentriche (x2 +
y ) = (x20 + y02 ). Tuttavia essi non possono certo essere coniugati giacché il secondo ha fissi tutti i punti dell’asse
2
delle y , gli ultimi due hanno periodi dipendenti dal raggio, cioè dalle condizioni iniziali, e l’ultimo ha campo non
definito nell’origine.
Può essere interessante notare che le trasformazioni che portano direttamente l’oscillatore armonico lineare negli
altri (ancora in coordinate cartesiane) possono tutte essere espresse da
) * ) * ) *
x ξ ρ(x, y) cos ϕ(x, y)
h: &→ =
y η ρ(x, y) sin ϕ(x, y)
/
ove ρ(x, y) := x2 + y 2 e dove ϕ = ϕ(x, y) è rispettivamente nei vari casi, e con θ := arctan y/x:
) *
exp(ρ(x, y)θ(x, y)) − 1
ϕ1 (x, y) = θ(x, y) ϕ2 (x, y) = +2 arctan
exp(ρ(x, y)θ(x, y)) + 1
ϕ3 (x, y) = +ρ2 (x, y)θ(x, y) ϕ4 (x, y) = −ρ−2 (x, y)θ(x, y)
e mediante la f& determinare la f . Ad esempio mediante il terzo e primo dei casi visti si ottiene
) * ) * ) *' ) *
0 ρr ρθ 0 '' −ρθ
= =
−ρ 2 ϕr ϕθ −1 'f˜−1 (ρ,ϕ) −ϕθ
Il precedente esempio mostra che trasformare le coordinate dipendenti può non essere il metodo migliore per
disegnare un diagramma di fase. Spesso, cambiare parametrizzazione risulta più conveniente.
Esempio 3.1.23 Sia D un dominio di Rn , e sia data, in coordinate, la
dx
= v(x) κ(x) ; x 0 ∈ D ⊂ Rn , v : D → Rn , κ:D→R, (1.4)
dτ
con κ ∈ C 1 (D) e κ = 0 al più nei punti in cui v(x) = 0 .
Le traiettorie individuate dalla (1.4) sono le stesse di quelle della:
dx
= v(x) ; x 0 ∈ D ⊂ Rn , v : D → Rn ; (1.5)
dt
l’unica loro differenza è che esse corrispondono ad una diversa parametrizzazione. Per rendersene conto, si consideri
la soluzione φ : t &→ x = φ(t) della (1.5) che vale x0 in t0 . L’ipotesi sulla κ permette (in linea di principio) di
risolvere la - t
dτ 1 dη
= ovvero la τ − τ0 =
dt κ(φ(t)) t0 κ(φ(η))
nella t = β(x0 ) (τ ) =: β(τ ). Per esempio, nel caso dell’Es.3.1.22 questo metodo fornisce subito la relazione
ρ cos ϕ = ∂ϕ/∂θ , in cui θ gioca il ruolo di τ e ϕ quello di t. È importante osservare che in tal modo è possibile
ottenere le soluzioni di (1.4) a partire da quelle di (1.5). Infatti la funzione ψ := φ ◦ β è tale che
' N O
dψ dφ '' dβ
= = v(φ(t)) κ(φ(t)) = v(ψ(τ )) κ(ψ(τ )).
dτ dt 't=β(τ ) dτ t=β(τ )
Il procedimento poi si può estendere, ad esempio per le curve contenenti più di una traiettoria, nei casi in cui
la funzione κ si annulla anche in altri punti oltre che gli equilibri, e ciò pur di suddividere i cammini in archi
aventi per estremi le loro intersezioni con la Superficie singolare κ(x) = 0 . (Come si è visto, le funzioni ϕi
dell’Esempio 3.1.22 possono anche essere trovate in questo modo, in coordinate polari). #
M. Lo Schiavo
3.1. Il piano delle fasi 157
Un ulteriore caso di trasformazione della variabile indipendente è quello nel quale il sistema iniziale è il (1.5), e
quello che viene discusso o risolto è il sistema (1.4) nel quale come funzione κ viene scelta una specifica, comoda,
funzione.
È di interesse il caso in cui come funzione κ sia scelta l’inverso di una delle componenti del campo v . Nel-
l’ipotesi che in x0 sia v n (x0 ) ̸= 0 , si consideri, ad esempio, κ := 1/v n . Chiamando anche in questo caso
φ : t &→ φ(t) la soluzione (incognita) della (1.5) tale che x0 = φ(t0 ), e ψ : τ &→ ψ(τ ) la soluzione (nota) della (1.4)
−1
con κ(x) := (v n (x)) , si vede che il legame fra i due sistemi è dato dalla
dxn
ẋn (t) = v n (φ(t)) =: 1/κ (φ(t)) =: τ̇ ovvero =1,
dτ
- t - t
dt′
e quindi dalla τ − τ0 ≡ xn − xn0 =: v n (φ(t′ )) dt′ =: ′
.
t0 t0 κ(φ(t ))
Il procedimento consiste in definitiva nello scegliere una delle componenti della variabile dipendente come
indipendente (localmente dove ciò sia possibile: se è v n (x0 ) ̸= 0 si può scegliere xn (τ ) = τ + c, o anche
xn ≡ τ ), e fornisce, con la notazione usata in questo esempio, la
Equazione differenziale associata:
dxi v i (x1 , . . . , xn ) dxn
= con i = 1, . . . , n − 1, e con = 1. (1.6)
dxn v n (x1 , . . . , xn ) dτ
Si paragoni questa equazione con la 4.35 del §I.4: il metodo di risoluzione è lo stesso.
Come si è detto, la particolare scelta della n-ma coordinata è conseguenza dell’assunto che nel punto x0 il
campo sia “trasverso” al piano xn = xn0 , e cioè che sia v n (x0 ) ̸= 0 . Tale ipotesi assicura che la (incognita)
funzione φn : t &→ xn = φn (t) che, in virtù della (1.5), verifica l’identità: φ̇n (t) = v n (φ(t)), sia localmente
invertibile nella t = β(x0 ) (xn ) =: β(xn ). Quest’ultima è allora tale che
dβ dφn dβ n
t0 = β(xn0 ) con 1= n
= v (φ(t)) .
dx dt dxn
Si ritrova cosı̀ che la soluzione ψ = ψ(xn ) dell’equazione associata (1.6), tale che ψ(xn0 ) = x0 e che esiste per
l’ipotesi di trasversalità e di regolarità locale vicino a xn0 , è legata alla soluzione φ della (1.5) dalla relazione
ψ = φ ◦ β e cioè ψ(xn ) := φ(β(xn )); infatti, per costruzione, è φn (t0 ) = xn0 , e inoltre
'
dψ i dφi dβ v i (x) '' dψ n
= = ' , i = 1, . . . , n − 1, := 1 .
dxn dt dxn v n (x) x=φ◦β dxn
La curva integrale dell’equazione associata, o parte di essa, coincide con la traiettoria del sistema di partenza
(1.5) parametrizzata con xn . La xn &→ ψ(xn ) è, semplicemente, la rappresentazione cartesiana (locale) della curva
t &→ φ(t) soluzione della (1.5).
Ovviamente si deve essere pronti a cambiare i ruoli della xn con una delle altre quando ci si avvia verso
punti in cui v n = 0 ; inoltre in tal modo si è anche perso l’orientamento sulla traiettoria che va deciso osservando
direttamente il verso del vettore v(x).
I quattro i sistemi dell’Esempio 3.1.22 danno tutti luogo alla stessa Equazione associata, benché con diverse
vn .
Nota 3.1.4 Non ci si deve aspettare che qualora anche si riesca, spesso per pura fortuna, a risolvere implicitamente
l’equazione associata (per esempio se n = 2 per separazione di variabili) il problema sia risolto esplicitamente.
Ciò che infatti si trova è una relazione ad esempio del tipo f1 (y) = f2 (x) + cost che in generale non si riesce ad
esplicitare rispetto ad una delle variabili. Se però ciò che si vuole è solo l’andamento qualitativo di questa funzione,
allora può essere d’aiuto il Metodo di Volterra (si veda: [Simmons p.286]), o, meglio, un comodo computer.
y
y) 1
f 1(
v=
2 2
3 3
2 2
1
v x
c =c1
w = f 2(x) c =c2
w
=
v
w {c
Quando invece la funzione ψ : xn &→ ψ(xn ), soluzione dell’equazione associata, sia esplicitamente nota può
accadere che sia anche possibile determinare esplicitamente (in linea di principio lo è) la funzione φn : t &→ xn =
φn (t). Essa infatti è, necessariamente, soluzione della
7 8
ẋn = v n (φ(β(xn ))) ≡ v n ψ 1 (xn ), . . . , ψ n−1 (xn ), xn ; xn (t0 ) = xn0 .
Quest’ultima, sempre risolubile (in forma implicita) per separazione di variabili, con la sua soluzione t &→ xn = φn (t)
(inversa della β ) assegna finalmente tutte le altre xi = φi (t) ≡ ψ i (φn (t)), i = 1, . . . , n − 1 . È questo il caso che
si presenta quando una delle equazioni è disaccoppiata dalle altre.
) * ) *
ẋ x2
Esempio 3.1.25 = , x0 , y0 ∈ R.
ẏ y(2x − y)
Si può notare che l’equazione associata è una particolare equazione di Riccati, e cioè del tipo: y ′ + p(x)y =
q(x)y 2 + r(x) che in questo caso specifico può addirittura essere risolta analiticamente con il metodo visto nel
Capitolo I, (Es.1.4.25). Posto infatti
dy 2 y2
− y=− 2
dx x x
una soluzione è senz’altro y1 (x) = x. D’altra parte, il metodo visto a suo tempo porta a cercare v tale che
y = y1 + 1/v . Si ottiene
1 dv 2 1 2 dv 1
+ = 2 2+ e cioè = 2
v 2 dx vx x v vx dx x
da cui v(x) = −1/x + 1/k per un’opportuna costante k ∈ R ∪ {∞} , e quindi
kx x
y(x) = x + = .
x−k 1 − k/x
Infine, il caso x0 = 0 va risolto separatamente osservando che la y(t) è allora soluzione della ẏ = −y 2 . Si ricava
cosı̀ y(t) = y0 /(1 + y0 (t − t0 )). #
Talvolta, a prescindere dalla sua esplicita risoluzione, il ricorrere all’equazione associata è di aiuto immediato
nello studio della geometria del sistema. Ad esempio, il seguente metodo è del tutto diverso dal ricercare la
soluzione esatta del problema, come si è fatto nell’esempio precedente, ma raggiunge se non lo stesso risultato
almeno una sufficiente idea del come sia tracciato il diagramma di fase del sistema.
A partire dal fatto che [φ]x contiene senz’altro x + vt, si osserva che: nello spazio delle fasi M, ed in ogni sua
rappresentazione in coordinate, le rette parallele al campo dell’equazione associata coincidono con quelle parallele
al campo del sistema di partenza e sono pertanto tangenti sia alla curva φ che alla curva ψ nel loro (generico)
punto x. In particolare, nel caso bidimensionale x ≡ (x, y) ∈ R2 , le rette individuate dalla direzione del campo
sono quelle con coefficiente angolare v x (x, y)/v y (x, y) . Si definiscono
Isocline := le curve, nel piano delle fasi R2 , lungo le quali v x (x, y)/v y (x, y) = cost .
Isocline principali := le curve, nel piano delle fasi R2 , lungo le quali è rispettivamente v x (x, y) = 0 oppure
v y (x, y) = 0 .
Le intersezioni delle isocline principali sono i punti di equilibrio del sistema.
Esempio 3.1.26 (continuazione dell’Esempio 3.1.25) Si osserva che:
(ii) v(x, y) = v(−x, −y) pertanto le traiettorie saranno curve simmetriche rispetto all’origine e basta studiarle
nel semipiano x ≥ 0 ;
M. Lo Schiavo
3.1. Il piano delle fasi 159
(iii) l’isoclina ẋ = 0 è proprio l’asse delle y . Questo potrà allora contenere archi di traiettorie. Anzi, essendo su
di esso ẏ = −y 2 ̸= 0 se fuori dell’equilibrio, tale asse è costituito da tre traiettorie, e i due semiassi |y| > ε
sono percorsi in un tempo finito se ε > 0 ;
(iv) le altre isocline sono√y(2x − y)/x2 = cost =: tan θ , o anche x2 − (x − y)2 = c x2 da cui necessariamente
c ≤ 1 e y = x(1 ± 1 − c). Ma c esprime l’inclinazione del campo v sull’asse delle x. In particolare,
c = 0 sulle y = 0 e y = 2x; c = 1 su y = x; c = 0.5 su y = (1 ± √12 )x; e cosı̀ via.
c= 2
c ={3
/
c=
c= 0
1
+1
c=
+
{3
c=
{2
c =0
1/2
c =+
Il passaggio poi dalla prima alla seconda di queste figure è conseguenza della proprietà (si veda §3) che, lontano
dagli equilibri, il flusso si può “pettinare”.
e quindi chiamando
v y (x, y) vfy (x, y)
tan θ := x ; tan θf := tan α := f (x, y) ,
v (x, y) vfx (x, y)
l’equazione associata risulta
y
v (x,y)
ẏ v x (x,y) + f (x, y) tan θ + tan α
tan θf = = v y (x,y) = = tan (θ + α) .
ẋ 1 − f (x, y) vx (x,y) 1 − tan θ tan α
e questo mostra ulteriormente che il diagramma di fase è simile (a meno del verso dei tempi) a quello del precedente
esempio. Per entrambi, esso è un “deformato” di quello dell’oscillatore lineare che è, infatti, il sistema ridotto sia
dell’uno che dell’altro. #
1 3 2
C:/Mauro/note/testo/cap3/esIII1.eps
Per entrambi questi esempi si ha che la curva ρ = 1 , e cioè una curva semplice e chiusa, non solo risulta essere
una traiettoria ma in particolare è un
M. Lo Schiavo
3.2. Gli integrali primi 161
Ciclo limite := una traiettoria chiusa e tale che tutte le traiettorie passanti per punti sufficientemente vicini
ad essa si avviano definitivamente verso di essa per t → +∞ oppure (anche) per t → −∞. (Una definizione più
rigorosa verrà data nel seguito)
N.B. 3.2.2 La funzione Lv f è indipendente dalla particolare scelta della φ nel vettore [φ]x in quanto, dato un
=m
∂f i
certo sistema di coordinate, il suo valore si esprime con la Lv f = i
v che non dipende dalla φ. Al cambio
i=1
∂x
di coordinate, sia le ξ = ϕ−1 (x) su D sia la η = η(y) su R, tale valore muta (si veda Appendice A.4 N.B.1.4.15)
∂η ∂f ∂xi j '
secondo la: i j
ν (ξ) essendo ν(ξ) = ∂ϕ−1 v 'ϕ(ξ) il trasformato di v . Nelle nuove coordinate il valore
∂y ∂x+ ∂ξ ,
& ∂η ∂f i
di Lv f è Lν f = v . ♦
∂y ∂xi x=ϕ(ξ)
N.B. 3.2.3 La funzione Lv f Derivata direzionale di f è definita sulla varietà M, diversamente dalla f∗ che è
d
definita sullo spazio tangente, dalla Lv che è definita su C 1 (D) (cfr. oltre), o dalle dt f ◦ φ che sono definite su un
qualche intervallo I ⊂ R.
La f∗ è, per ciascun x, un operatore lineare tra Tx M e Tf (x) L e cioè agisce linearmente sui vettori. La funzione
Lv f non è in generale lineare rispetto ad x; e, d’altra parte, v è un ben preciso e fissato campo vettoriale. La
funzione Lv : C k≥1 → C k−1 è però lineare sulle f ∈ C k , (e di qui la notazione Lv ); inoltre sui prodotti di funzioni
agisce come un operatore di Leibniz: Lv (f g) = f Lv g + gLv f (e di qui il nome di derivata). ♦
C 0 1
N.B. 3.2.4 Come si è detto, fissate le coordinate la Lv f ha in x valore (Lv f )(x) = m i=1 v i ∂f /∂xi (x); e
∂ ''
cioè, nel sistema di vettori ' , la funzione Lv : C ∞ → C ∞ ha componenti date da v i In questo senso i campi
∂xi x
vettoriali possono essere considerati come degli operatori di derivazione lineari sulle “funzioni prova” f ∈ C ∞ . In
tal caso a volte (Lv f )(x) si indica con vx (f ), o addirittura con v(f ), lineare su f . ♦
Sia ancora v : x ∈ M &→ v(x) ∈ Tx M un campo vettoriale (autonomo) liscio su un aperto D ⊂ M. Si definisce:
Integrale primo del campo autonomo v := una funzione F : x ∈ D &→ F (x) ∈ R che sia in C 1 (D) e la quale,
pur non essendo una funzione costante: F (D) = c, è tale che Lv F (x) = 0 per ogni x ∈ D .
N.B. 3.2.5 Si noti che l’ipotesi che sia F ∈ C 1 (D) è molto forte. Sono possibili, e si trovano in letteratura,
ipotesi anche più deboli e generali di questa. Tuttavia, per semplicità, nel seguito di queste note si manterrà questa
richiesta, seppure leggermente limitativa. ♦
Sia assegnato un campo autonomo v liscio su D ⊂ M, e si consideri l’equazione ẋ = v(x). Se in qualche punto
x ∈ D si ha che Lv F (x) = 0 , allora senz’altro la soluzione φ che in t ha valore x e derivata v(x) (che appartiene
al vettore v ) è tale che Lv F (φ(t)) = 0 . Quando ciò accade per tutti i punti di D la Lv(x) F (x) è nulla per ogni
x ∈ D , ed allora il campo ammette su D l’integrale primo F . In tal caso, fissato arbitrariamente x0 ∈ D , e detti
F 0 := F (x0 ) il valore che la F assume in x0 , e φ : I ⊆ JM → M, φ : t &→ φ(t, 0, x0 ) la soluzione, uscente
da x0 , dell’equazione ẋ = v(x), si potrà affermare che sussiste l’uguaglianza
d per ogni t ∈ JM
(Lv F ) (φ(t)) ≡ (F ◦ φ) ≡ (F ∗ v) (φ(t)) = 0
dt ed ogni x0 = φ(t0 ).
Infatti il valore φ(t) individua l’evoluto x = G t x0' ∈ M del punto x0 all’istante t, e quindi se per ciascun punto
x della traiettoria {G t x0 }t∈JM la derivata Lv F 'x viene calcolata (ad esempio) mediante la curva φ : I → M, e
se cosı̀ si accade per ogni altro x0 e corrispondente traiettoria in M, si riconosce che l’uguaglianza detta sussiste
lungo una qualsiasi traiettoria soluzione dell’equazione considerata.
Se ne conclude che
x∈D
(Lv F ) (x) ≡ 0 , con F ∗ = ̸ 0, se e solo se
0 d 1 '
'
(Lv F ) = (F ◦ φ) ' φ(t)=x = 0 per ogni soluzione φ : φ(t) = x,
dt φ̇(t)=v(x)
Pertanto, (F ◦ φ) (t) = F 0 implica che φ(t) ∈ F −1 (F 0 ) per ogni t ∈ JM , o anche [φ]x ∈ Tx {F −1 (F 0 )} per
ogni x ∈ M ∩ F −1 (F 0 ) tale che x = φ(t, 0, x0 ).
In definitiva, la definizione data è equivalente alla:
Integrale primo del campo autonomo v := -2pt una funzione F : x ∈ D &→ F (x) ∈ R che sia in C 1 (D) e la
quale, pur non essendo una funzione costante su D : F (D) = c, sia però tale che ne rimane costante il valore
F (φ(t)) assunto lungo ciascuna soluzione del sistema ẋ = v(x).
Sussiste cioè il
Teorema di conservazione ogni curva di fase di un sistema ẋ = v(x) che ammetta un integrale primo F
necessariamente appartiene (in D ) ad una e una sola superficie di livello della F :
Corollario 3.2.1
x∈D
(Lv F ) (x) ≡ 0 se e solo se v(x) ∈ Tx {F −1 (F 0 )} ∀x ∈ M ∩ F −1 (F 0 ).
Si definisce
M. Lo Schiavo
3.2. Gli integrali primi 163
Sistema conservativo := un sistema ẋ = v(x) che ammette almeno un integrale primo (pleonastici: globale,
non banale, indipendente dal tempo).
N.B. 3.2.6 Si osservi che la condizione di esistenza di un integrale primo e la sua definizione sono date direttamente
sulla varietà M. Ciò è per rimarcare, in base al N.B. 3.2.2, che se una funzione F è tale che Lv F ≡ 0 , ciò
sussiste in ogni sistema di coordinate.
Si può infatti fare la seguente osservazione. Si supponga che, nel sistema di coordinate h(x) , la relazione
F ◦ φ = F 0 dia luogo all’identità F (φ(t)) = F (x0 ), ove t &→ x = φ(t) è la soluzione in coordinate del sistema
ẋ = v(x), e si denoti con ξ = ϕ−1 (x) una trasformazione
' di coordinate (differenziabile) per la quale il nuovo
sistema di equazioni è ξ̇ = ν(ξ) := ∂ϕ−1 v(x) 'x=ϕ(ξ) di cui è soluzione la t &→ ψ(t, t0 , ξ0 ) = ϕ−1 (φ(t, t0 , ϕ(ξ0 ))).
Allora è anche
In effetti, la funzione FU := F ◦ ϕ ha valore costante lungo ciascuna delle soluzioni dell’equazione ξ̇ = ν(ξ)
giacché
) k *
d '' ∂F ∂ϕ ∂F ∂xi ∂ξ h
' (F ◦ ϕ ◦ ψ) = ν(ξ) = v (ϕ(ξ))
dt ψ̇(t)=ν(ξ)
ψ(t)=ξ
∂x ∂ξ ∂xi ∂ξ k ∂xh
' '
∂F h '' d '' '
'
= v (x)' = ' ϕ̇(t)=v(x) (F ◦ φ).'
∂xh x=ϕ(ξ) dt φ(t)=x
'
x=φ(ξ)
Sostanzialmente lo stesso calcolo conferma che se due sistemi sono diffeomorfi secondo un morfismo ϕ −1 :
x ∈ M → ξ ∈ L, e se uno di essi ammette un integrale primo F , allora anche l’altro ammette l’integrale primo:
U := F ◦ ϕ .
F ♦
L’esistenza di una o più funzioni integrali non banali dipende naturalmente dalle proprietà globali in D del
campo. Le curve di fase hanno in generale una struttura ben più complicata di quella delle linee di livello di una
funzione C 1 su tutto D . Questo accade, per esempio, se tutte le traiettorie “entrano” in un punto o si avviano
definitivamente verso un qualche sottoinsieme di traiettorie di D ; in tal caso la continuità di F impone che il
valore che F assume sul punto, o sulle traiettorie in questione, sia lo stesso ovunque in D : se il flusso ammette
qualche insieme che globalmente attrae tutte le traiettorie questo non può essere un sistema conservativo.
D’altra parte sussiste il:
Dimostrazione Sia x0 ∈ U ⊂ D ⊂ M con v(x0 ) non banale, e sia data una carta tale che, ad esempio,
v n (x0 ) ̸= 0 . Chiamato H il piano (n − 1)-dimensionale xn = xn0 , esiste certamente un aperto S ⊂ H ∩ U , e
contenente x0 , che è trasverso al campo, e cioè tale che v(x̄) ̸∈ H per alcun x̄ ∈ S (qui si è identificato H con il
suo spazio tangente).
xn
x x0 S H
t (x,t) ' x
La ϕ è differenziabile se tale è v (cfr. Arnold 1). In particolare essa ha derivata in (x̄, 0) che è rappresentata,
nella carta detta, dalla matrice ⎛ ⎞
..
1
I
⎜ n−1 . ⎟
⎜ .. ⎟
∂ϕ(x̄, 0) = ⎜ · · · . v(x̄)⎟
⎝ ⎠
..
0 .
Infatti: indicata con hi la i− ma funzione coordinata, i = 1, . . . , n, per j = 1, . . . , n − 1 si ha
' ) ' *
∂ i t ' ∂ i ' ∂ x̄i
j
h (G x̄) ' = j
x ' = = δji .
∂ x̄ (x̄,0) ∂ x̄ (0,0,x̄) ∂ x̄j
'
D’altra parte è chiaro che ∂t x '(x̄,0) = v(x̄).
N.B. 3.2.7 Nel caso non autonomo, detti D l’aperto di regolarità del campo v(x, t) e U0 × I ⊂ D un intorno
di (x0 , t0 ), la corrispondente
) applicazione
* è ϕ : M × R → D ⊆ M × R definita su U0 × I da (x̄, t) &→ (Gtt0 x̄, t).
1In v
Quest’ultima ha derivata e mostra come il caso autonomo “sopprima” una coordinata: x̄n = xn0 e la
0 1
sostituisca con quella temporale usando in tal modo come spazio delle fasi ampliato quello delle fasi.
Si noti che in entrambi i casi l’applicazione ϕ non modifica il valore della ascissa t, cosa che fa, invece,
l’applicazione G&tt0 introdotta alla fine del paragrafo I.3 : quest’ultima la si ottiene infatti come composizione, a
t, t0 fissati: di quella (banale) che trasforma in (x̄, t0 ) il punto (x, t0 ) tale che x = Gtt00 x̄, di quella che lasciando x̄
invariato fa evolvere t0 fino a t, e di questa, infine, che porta (x̄, t) in (x, t) essendo x = Gtt0 x̄ .
L’autonomia del sistema fa solo sı̀ che, fissando x̄ su un certo insieme trasversale al campo, la t stessa possa
essere usata come variabile di stato, e quindi che la mappa ϕ sia definita nello spazio delle fasi non ampliato:
(x̄, t) &→ x. ♦
'
Dato che la matrice ∂ϕ trasforma linearmente en := (0, . . . , 0, 1) in v(x̄), l’operatore ϕ ∗ '(x̄,0) del quale
la matrice ∂ϕ è la rappresentazione in coordinate trasforma linearmente en in v(x̄). Inoltre esso è l’identità
su H ≡ Tx̄ S , S ∋ x̄ , che è un sottospazio (n − 1)-dimensionale di V := Tx̄ M trasverso sia allo span(en ) che
allo span(v(x̄)). Ne segue che ϕ ∗ (x̄, 0) trasforma i sottospazi trasversi (H, span(en )) nei sottospazi trasversi
(H, span(v(x̄))). Essendo un operatore lineare con Jacobiano J = |v n (x̄)| ̸= 0 , essa è allora un isomorfismo da
V in sé. In particolare ciò è valido nel punto (x0 , 0). Il teorema del Dini assicura allora che la mappa ϕ , di cui
esso è la derivata, è un diffeomorfismo da S × I a tutto un intorno V ⊂ U ⊂ M contenente G t x0 , e ciò comporta
che le curve di fase che passano per i punti di S risultano iniettive su V e cioè hanno solo la base x̄ in comune
con S e non hanno punti uniti. Di conseguenza risulta definito, inversamente, a partire da un qualunque x ∈ V
e in modo univoco, il punto
x̄ ∈ S = V ∩ H tale che x̄ = x̄(x) := G −t(x) x ,
ove t = t(x) è il punto in I tale che x = G t(x) x̄ . Restano in tal modo definite le funzioni ξ i : V → R date da
⎧
⎪ ξ 1 (x) : = h1 ◦ x̄(x) = x̄1 (x),
⎪
⎪
⎨ ...
ξ = ϕ−1 ◦ x ovvero n−1
⎪
⎪
⎪ ξ (x) : = hn−1 ◦ x̄(x) = x̄n−1 (x),
⎩
ξ n (x) : = t(x).
Per come sono state costruite, queste funzioni sono un sistema di coordinate su V dette: Coordinate adattate
al flusso. Le prime (n − 1) coincidono con le coordinate nello spazio H del punto x̄ , unico punto che nell’aperto
S trasversale al campo corrisponde al punto x, e l’ultima rimane ovviamente t = t(x1 , . . . , xn ).
Le coordinate (ξ 1 , . . . , ξ n ) := (x̄1 , . . . , x̄n−1 , t) hanno la importante e particolare caratteristica di evolvere in
modo banalmente semplice: rispetto ad esse il flusso è rettilineo. Infatti l’iniziale sistema ẋ = v(x) resta trasformato
dal cambio di coordinate x &→ ξ = ϕ−1 (x) nell’equivalente sistema
'
'
ξ̇ = ν(ξ) con ν(ξ) = ∂ϕ−1 v ' = en (ξ) e cioè
x=ϕ(ξ)
M. Lo Schiavo
3.2. Gli integrali primi 165
Le funzioni ξ i = ξ i (x) con i ≤ (n − 1) sono un esempio di Integrali primi locali, funzionalmente indipendenti
per costruzione, ma dallo scarso uso pratico a causa di quest’ultima osservazione.
N.B. 3.2.8 (continuazione del 3.2.6).
Naturalmente, una qualunque funzione F U ∈ C 1 (V ) delle (ξ 1 , . . . , ξ n−1 ), e cioè indipendente dalla ξ n , fornisce un
altro integrale primo locale. Infatti una tale funzione ha valore costante lungo le soluzioni dell’equazione trasformata,
che sono: ξ j = cost, per j = 1, . . . , n − 1 , ed ξ n = t; quindi la sua rappresentante in coordinate: F := F& ◦ ϕ−1
è integrale primo del sistema ẋ = v(x).
Ragionando nel secondo dei modi visti, e cioè introducendo un diffeomorfismo x &→ ξ = ϕ −1 (x), si nota che
per il sistema trasformato la condizione Lv F = 0 equivale alla Len (F ◦ ϕ ) = ∂ F& /∂ξ n = 0 , dove F& := F ◦ ϕ
rappresenta la F ◦ ϕ nelle coordinate ξ .
In definitiva, il valore di ogni integrale primo F si mantiene costante sulla intersezione {ξ 1 = cost} ∩ · · · ∩
n−1
{ξ = cost} delle n − 1 sottovarietà {ξ i = cost} adattate al flusso. Tali intersezioni sono le linee ξ n =
ξ (ξ0 , . . . , ξ0n−1 , t) con tangente nel punto zero il vettore con componenti v i (0) = 0, i = 1, . . . , n − 1.
n 1
♦
La n-esima di queste equazioni è disaccoppiata dalle precedenti ed è quindi risolubile per quadrature mediante
separazione di variabili. Di qui seguono tutte le altre per integrazione semplice. Naturalmente anche la conoscenza
di k < n − 1 integrali primi è d’aiuto: si ottiene infatti un sistema ad un ridotto numero di dimensioni: n − k .
Nel caso di campi non autonomi può anche venire introdotta la nozione di integrali primi dipendenti dal tempo,
che sono poi gli integrali primi del sistema
( ) *
ẋ = v(t, x) x
∈M×R
ṫ = 1 , t
v · ∇x F + ∂t F = 0 .
Localmente ne esistono sempre n indipendenti fra loro. Come accennato nel N.B.3.2.7 ne sono un esempio le
funzioni x0 = x0 (t, x). In tal senso, la ricerca della più generale soluzione dell’equazione v(t, x)∇F + ∂t F = 0
“equivale” alla risoluzione della ẋ = v(t, x) = 0 .
Nota 3.2.1 Si osservi che le due precedenti considerazioni implicano che per risolvere almeno in forma implicita
il caso non autonomo a dimensione n = 1 :
dx
= u(x, y), x, y ∈ R ,
dy
basta trovare una funzione da R2 in R che si continuerà ad indicare con F = F (x, y) tale che
∂F ∂F
u(x, y) (x, y) + (x, y) = 0 . (2.7)
∂x ∂y
D’altra parte, con la notazione u(x, y) =: −ν(x, y)/µ(x, y), si riconoscerà nella (2.7) la richiesta che sia: ∂y F =
(ν/µ) ∂x F =: ν ϖ , e cioè che sussistano
∂F ∂F
µ(x, y) ϖ(x, y) = (x, y) e ν(x, y) ϖ(x, y) = (x, y) ,
∂x ∂y
che come si è visto nel §I.4 è la condizione affinché la forma
µ
ϖµ dx + ϖν dy , o anche dx + dy
ν
sia esatta ed ammetta come funzione invariante proprio la F . L’esistenza locale di quest’ultima equivale all’e-
sistenza locale del fattore integrante ϖ e risolve l’equazione in forma implicita assegnando le curve cui devono
appartenere le traiettorie di fase di un possibile sistema associato, ad esempio:
(
ẋ = v x (x, y) v x (x, y) ν(x, y)
y con := u(x, y) = − ,
ẏ = v (x, y) v y (x, y) µ(x, y)
(
ẋ = x,
Esempio 3.2.10 x, y ∈ R;
ẏ = y,
segue xdy = ydx che non ammette integrali primi globali, malgrado localmente equivalga a d(x/y) = 0; le
traiettorie infatti sono i raggi per l’origine. #
Esempio 3.2.11 Sistemi conservativi di enorme importanza sono i Sistemi Hamiltoniani autonomi, e cioè quelli
con ∂H /∂t ≡ 0 :
∂H ∂H
q̇ = , ṗ = − ; con q, p ∈ Rn ;
∂p ∂q
un loro integrale primo è certo la funzione H = H (q, p). #
y0 H
x
µ0 x
Come coordinata hn si scelga la: y := ẋ, e lo spazio H sia il piano y = y0 . Si ottengono allora (per x̄ ̸= 0 )
( (
x = +x̄ cos t + y0 sin t cos t = (x̄2 + y02 )−1 (+xx̄ + yy0 )
=⇒
y = −x̄ sin t + y0 cos t sin t = (x̄2 + y02 )−1 (−x̄y + xy0 )
/ /
Si osservi che ad esempio la r = x2 + y 2 , se intesa come funzione di x̄ : r = x̄2 + y02 , è anch’essa un integrale
primo locale, e che t = t(x, y) è il tempo che, sulla circonferenza passante per (x̄, y0 ), è necessario per passare dal
punto (x̄, y0 ) al punto (x, y); infatti, dividendo la seconda delle (2.9) per x̄ x, si riconosce subito che essa fornisce
⎧ 0y 1
⎪
⎨ θ0 (x, y) := arctan
0
,
t = t(x, y) = (θ0 − θ), ove x̄
0y 1
⎪
⎩ θ(x, y) := arctan .
x
M. Lo Schiavo
3.2. Gli integrali primi 167
Quest’ultima mostra inoltre che la t = t(x, y) si riduce alla t = β(x0 ) (y) del precedente paragrafo quando si calcoli
t = t(x(y;
/ x0 , y0 ), y). Infatti lı̀ si considerava la (sola) traiettoria per (l’unico fissato) punto (x0 , y0 ), di equazione
x = x20 + y02 − y 2 .
Si noti infine che tutto quanto si è detto vale localmente dove le inversioni sono lecite. #
Anche per punti x distanti da H , la funzione t(x) introdotta nel Teorema 1 è una funzione continua fintanto
che il flusso è continuo, e in particolare finché non ci sono equilibri; sussiste infatti il seguente
Teorema 3.2.1 ((di primo ritorno)) Sia dato un sistema autonomo ẋ = v(x) con campo v regolare su un insieme
aperto D di una varietà n-dimensionale M. Per x0 ∈ D e, ad esempio, con ! t > 0 , sia t &→ φ(−t, 0, x!) la
soluzione del sistema tale che φ(−! ! = x0 , e si indichi con γ l’arco di traiettoria {φ(−t, 0, x
!) = G −t̂ x
t, 0, x !)}t∈[0,t̂]
che unisce x0 con x !.
Se esiste un intorno aperto U ⊆ D di γ che non contiene equilibri, esistono: una sezione S ⊂ U, S ∋ x0 ,
di dimensione n − 1 e trasversa a v(x0 ), un intorno V! di x ! contenuto in U , e una funzione t : V! → R regolare
quanto v , tali che t(! !
x) = t e G −t(x)
x ∈ S per ogni x ∈ V . !
Dimostrazione Sia h : U → R, h ∈ C 1 (D), tale che h∗ v(x0 ) ̸= 0 e cioè tale che il campo sia trasverso al
−1
piano Tx0 (h (cost)). Nel caso del teorema appena visto si ha h ≡ hn .
'
Si ricordi che, per definizione di piano tangente, h∗ [φ]x = 0 con h∗ 'x ̸= 0 se e solo se [φ]x ∈ Tx {h−1 (cost)} . Per cui, quando
h∗ v(x0 ) ̸= 0 , si ha che H := h−1 (cost) è (localmente) trasverso a v in x0 ∈ H , ed equivale a dire che H non è tangente alle superfici
equipotenziali di alcun integrale primo (locale) del sistema, o anche che h ◦ φ non è stazionario in x0 .
x V
en
x0 S °
H
x 0
x f=
t t
Per ogni x ∈ V! si ricava allora x̄ := G −t(x) x ∈ H ⊂ Rn−1 , e qualora V! sia abbastanza piccolo addirittura
G−t(x)
x ∈ S . Esiste cioè un cilindro di traiettorie con “asse” γ := {G −t x
!}t∈[0,t̂] e “base” contenuta in H , lungo
il quale individuare i punti mediante: il punto base x̄ := G −t(x) x ∈ H e l’ascissa t = t(x) ∈ N (! t) ⊂ R. "
°b
°
U x x0
Ã
x x V
Dimostrazione ! l’asserto è vero per ipotesi. Successivamente si osserva che il sistema φ(−t, 0, x)−
Per x = x
ψ(u) = 0 ha determinante Jacobiano di rango due in (! !), infatti è
t , u0 , x
' 1 '
' ∂φ dψ '
1
' ∂t − du '
' ∂φ2 dψ 2 ''
= |v(x0 ) ∧ ψ ′ (u0 )| .
' − du
∂t
Sempre limitandosi a sistemi bidimensionali, si deve esaminare il caso, assai importante anche se particolare,
in cui la curva ψ è un segmento (chiuso) e trasverso ad un’orbita γ chiusa percorsa con periodo T : φ(t + T) =
φ(t), ∀t ∈ [0, T].
Siccome l’orbita γ interseca in x0 la sezione ψ negli istanti t = 0 e t = T , dato x1 ∈ ψ sufficientemente
vicino a x0 si avrà che l’orbita uscente da x1 nell’istante t1 = 0 dovrà intersecare il segmento ψ anche in t2 ∼ T
e non in altri istanti intermedi; in più, essa lo dovrà fare in un punto x2 prossimo ad x0 data la continuità delle
due curve.
u
x1 x2
x0
M. Lo Schiavo
3.3. Il Teorema di Poincaré - Bendixon 169
Inoltre u = u(x2 ), e cioè la coordinata di x2 lungo ψ , è funzione continua (per il teorema di dipendenza
continua) e monotona (per il teorema di unicità e giacché la dimensione dello spazio è due) di u(x1 ). In tal modo,
dalla x2 = G t2 x1 con t2 = t(x1 ) ∼ T , si ricava u2 = χ(u1 ) con χ continua, monotona, e tale che u0 = χ(u0 ). Si
definisce:
Ciclo isolato := un’orbita chiusa e tale che, detta u0 la sua intersezione con una qualsiasi sezione ad essa
trasversa, si abbia che in un intorno di u0 l’unica soluzione della χ(u) = u è u0 stessa.
Si supponga che il ciclo in esame sia isolato. Su ciascuno dei due lati di x0 , localmente lungo ψ , è possibile
una sola delle: χ(u) < u oppure χ(u) > u .
ui+1=Â(ui)
u1
u2
u0
instabile
stabile Âs
Âu ui
u0 u1
Sul lato di ψ esterno al ciclo sia ad esempio il primo caso, e sia ψ orientata in maniera tale che le u > u0
individuino punti x ∈ ψ esterni al ciclo. La successione delle uk definite da φ(tk , x(uk−1 )) = xk = ψ(χ(uk−1 ))
i
è monotona decrescente e inferiormente limitata da u0 ; e dato che ui+1 = χ(ui ) −→ u∗ = χ(u∗ ) (necessariamente
∞
(+)
esistente), per l’unicità locale di u0 si ha che u∗ ≡ u0 ; inoltre ciò accade qualunque sia x1 ∈ ψ := {x ∈
'
ψ ' u(x) > u0 } e cioè x1 esterno al ciclo ma convenientemente vicino ad esso. Pertanto, (cambiando t in −t
(−) '
nell’altro caso: χ(u) > u e ripetendo il discorso nella parte interna al ciclo e cioè sull’arco ψ := {x ∈ ψ ' u(x) <
u0 } ) si è provato che:
Per sistemi autonomi a dimensione due ogni orbita chiusa isolata è anche un ciclo limite; inoltre le traiettorie
vicine ad esso “spiralizzano” infinite volte.
L’essere γ un ciclo limite, in dim=2 lo si può allora anche controllare mostrando che esiste ε0 ∈ R+ tale che, per ogni x che
abbia dist(x, γ ) < ε0 si ha che φ(t, x) è non periodica.
Âu
ui+1
u0
instabile
Âs
stabile
ui
u0
Ragionamenti qualitativi dello stesso genere di quello appena visto permettono, sempre in dimensione due, di
riconoscere la presenza di cicli, come verrà mostrato nel teorema di Poincaré-Bendixon.
Si premettano, innanzi tutto, le seguenti definizioni valide anche a dimensioni superiori.
Punto ω -limite per una traiettoria γ := {φ(t)}t∈R+ := un punto p ∈ M per il quale esiste una successione
di istanti {t0 = 0, t1 , t2 , . . .} tali che:
i i
ti < ti+1 , ti −→ ∞ , e φ(ti ) −→ p .
∞ ∞
Insieme ω -limite per una traiettoria γ := la totalità dei punti ω -limite per la traiettoria stessa.
N.B. 3.3.1 Se la traiettoria viene indicata con un suo punto x, ad esempio il punto iniziale, si parla di punto
ω -limite per x; l’insieme ω -limite si indica con ω (x). ♦
N.B. 3.3.2 Non è difficile rendersi conto che la definizione data per l’insieme ω -limite equivale alla ω (x) :=
∩τ ≥0 [∪t≥τ φ(t, 0, x)], ed è quindi l’intersezione totale della chiusura delle code, nel futuro, delle traiettorie. ♦
Quando queste proprietà risultano valide per t′ := −t in luogo di ω (x) si parla di α -limite: α (x). Analoghe
evidenti sostituzioni vanno anche fatte, in questo caso, nelle definizioni qui seguenti.
N.B. 3.3.3 Un insieme limite, che sia α ovvero ω o entrambi (a seconda dei punti x), non è necessariamente
costituito da una sola orbita, come si vede dalle seguenti figure:
N.B. 3.3.4 La definizione data alla fine del §2 per un ciclo limite è consistente con il fatto che esso sia un insieme
limite. ♦
Insieme attrattivo Ad := un insieme chiuso, invariante, che può essere decomponibile, tale da ammettere un
intorno positivamente invariante e del quale contenere l’insieme ω -limite. Esiste cioè un qualche intorno U ⊃ Ad
per il quale: preso comunque x ∈ U si ha che φ(t, 0, x) ∈ U per un qualsiasi t > 0 , e ω (x) ⊂ Ad .
Qui con decomponibile si intende che non è necessariamente “non decomponibile”, proprietà questa che si richiede
invece agli attrattori, (si veda: Cap. V).
Bacino di attrazione di un insieme attrattivo Ad := l’insieme BA dato da BA := ∪t≤0 φ(t, U ) ove U è
uno qualunque degli intorni definiti qui sopra. L’insieme BA è l’unione al variare di x ∈ Ad dei punti x !∈M
che hanno x ∈ ω (! x).
N.B. 3.3.6 Un bacino di attrazione BA è senz’altro un insieme aperto e invariante. Infatti, per ogni x ∈ U ,
esiste tutto un intorno N (x) positivamente invariante, per cui dato y ∈ N (x) si ha non solo che G τ y ∈ N (x)
per ogni τ ∈ R+ ma anche, per costruzione, che ∪t≤0 G t y ∈ BA e pertanto G −τ (N (x)) è un aperto contenuto nel
bacino. In definitiva, il bacino di attrazione di un Ad coincide con il più grande insieme invariante i punti del
quale hanno insiemi ω -limite in Ad . ♦
Corollario 3.3.1 Se lo spazio è connesso esso stesso non può essere unione di due o più bacini di attrazione; inoltre
devono esistere soluzioni (sulle frontiere di ciascun bacino) che non sono convergenti verso i punti che attraggono
il bacino.
Ne segue
) *1/2
y x20 (1 − x2 )
= e−(t−t0 ) =
y0 x2 (1 − x20 )
e si vede che il segmento [−1, 1] × {0} è fatto quasi tutto da punti erratici, è decomponibile nei tre insiemi
[−1, 0) × {0} , (0, 0), (0, 1] × {0} , è attrattivo, e contiene due attrattori: i punti (±1, 0) (si veda oltre per queste
definizioni).
M. Lo Schiavo
3.3. Il Teorema di Poincaré - Bendixon 171
N.B. 3.3.8 La considerazione fatta a proposito dei valori degli integrali primi si può ora dare in forma generale:
un sistema conservativo in dimensione due non può ammettere cicli limite, né insiemi limite, né insiemi attrattivi.
♦
N.B. 3.3.9 I risultati visti per i sistemi bidimensionali si possono rienunciare: un ciclo limite di un sistema
bidimensionale è un’orbita chiusa che appartenga, (e quindi coincide, come si vedrà), all’insieme ω -limite o all’in-
sieme α -limite di un qualche punto x esterno al ciclo. Si noti che un ciclo limite può non essere né attrattivo
né repulsivo. ♦
Il teorema del prolungamento sui compatti implica poi (si veda: [Hale § I.8]) che per sistemi autonomi di
dimensione qualunque n ≥ 1 sussiste la
Dimostrazione
i
(• ) ω (x) è chiuso. Infatti: se ω (x) ∋ {pk }k∈N → p& esiste una sottosuccessione &tk : φ(&tk ) −→
∞
i p& e quindi
i
p& ∈ ω (x). Inoltre, siccome γ appartiene a K che è compatto, si ha che p& ∈ K , e che ω (x) ⊂ K è limitato.
+
(• ) ω (x) è connesso. Altrimenti potrebbero esistere due aperti disgiunti U1 e U2 tali che ω (x) ⊂ U1 ∪ U2 ,
e almeno una successione {φ(tk )}k∈N necessariamente contenuta nell’insieme K\(U1 ∪ U2 ). Ma questo è com-
patto e non contiene punti di ω (x), in contraddizione con l’esistenza di almeno una sottosuccessione {φ(tki )}i∈N
convergente.
(• ) ω (x) verifica la seguente proprietà. Se p ∈ ω (x) allora G t p ∈ ω (x), ∀t ∈ R; e cioè: l’intera orbita
γ p := {φ(t, 0, p)}t∈R è definita per ogni t ∈ R, e appartiene ad ω (x). Infatti: se p appartiene ad ω (x) è anche,
necessariamente, p = limk→∞ φ(tk , 0, x). Ma allora, come si è visto, φ(t + c) è definito per c > 0 comunque
grande, e appartiene a γ p . Segue che G t̄ φ(tk ) è definito per qualunque t̄ > 0 e quindi, detti x &k := G t̄ φ(tk ), per
t̄
il teorema di dipendenza continua si ha che: limk→∞ x &k = G p. Ciò significa che φ(t, 0, p) esiste per ogni t > 0
ed è G t p ∈ ω (x) per t > 0 .
D’altra parte, dato t̄ ∈ [−tk , 0], con k = 1, 2, . . ., è anche definito (si veda § III.1) l’evoluto G t̄ φ(tk ) = φ(t̄+tk ).
Anche per ogni t < 0 si ha allora che φ(t, 0, p) esiste ed è in ω (x). "
Con queste premesse si può finalmente enunciare il seguente celebrato teorema valido, si noti bene, per sistemi
bidimensionali autonomi e almeno Lipschitz: (si veda: [Michel 7.2], o anche [Hartman], [Pontryagin], [Coddington])
Teorema 3.3.1 ((Poincaré-Bendixon)) Sia D un aperto di una varietà M bidimensionale; sia v un campo
regolare su D , e sia t &→ φ(t, 0, x) la soluzione del sistema ẋ = v(x) uscente da x ∈ D .
Se la semiorbita γ + := {φ(t, 0, x)}t≥0 è contenuta in un compatto K ⊂ M allora il suo insieme ω -limite:
ω (x) o contiene almeno un punto di equilibrio oppure è una (sola) orbita chiusa: γ 0 .
Un enunciato alternativo è ([Hirsh §XI.4]):
Un insieme ω -limite compatto non vuoto di un sistema piano e C 1 , che non contenga equilibri, è un’orbita
chiusa γ 0 . Tale orbita chiusa è un ciclo limite per γ + , oppure coincide con γ + stessa.
Dimostrazione Per la Proposizione che segue, basta notare che se ω (x) non contiene equilibri, e se γ + ̸⊂
ω (x), allora ω (x) è un ciclo limite. Siano p0 ∈ ω (x), φ non periodica, ψ una sezione chiusa trasversale a
v(p0 ) e sufficientemente piccola da essere trasversale alle traiettorie in ogni suo punto. È chiaro allora che queste
traiettorie la attraversano tutte nello stesso verso.
à Á(t)
Vb
!(x)
p
b
p0
Visto che p0 è un punto di ω (x) ⊂ D e non di γ + , e che ψ è trasversa al campo, si può ricorrere al Teorema
2 nel quale si considerino: come traiettoria di riferimento la traiettoria per p0 (la quale come si è visto appartiene
tutta ad ω (x)), come centro dell’intorno V! un punto p! = G δ p0 , con δ > 0 convenientemente piccolo e, come
evoluti di altrettanti punti {x̄k }k∈N sulla sezione trasversa ψ , una successione {! xk := φ(tk , 0, x)}k∈N convergente
a p!. Se ne ricava che esistono infiniti istanti ti > ti−1 , con i = 1, 2, . . ., tali che i punti xi := φ(ti , ti−1 , xi−1 )
sono dei particolari punti x̄k ∈ ψ e sono distinti dato che φ è non periodica e γ + ̸⊂ ω (x).
Inoltre, per ψ opportunamente piccola, dati due successivi xi , xi+1 possono accadere solo le due eventualità
descritte in figura, e ciò perchè p0 è in ω (x) e la regione racchiusa dal “segmento” [xi , xi+1 ] ⊂ ψ e dall’arco
{φ(t, ti , xi )}t∈[ti ,ti+1 ] ⊂ γ + è positivamente invariante:
p0
xi xi+1
xi+1
xi
p0
G G
Si proseguirà qui nel primo di questi casi, ma l’altro si tratta in modo del tutto analogo.
Si vede in definitiva che gli xi sono ordinati (non solo sulla traiettoria γ := {φ(t, 0, x)}t∈R ma anche) sulla
sezione ψ , e quindi sono tutti dallo stesso lato, su ψ , rispetto a p0 . Inoltre, siccome ψ stesso è chiuso, essi
ammetteranno limite: p& ∈K ψ . Ma p& non può che appartenere a ω (x), infatti la successione {tk }k∈N necessaria-
mente tende a infinito Infatti: se fosse tk → τ < ∞ si avrebbe lim φ(ti , ti−1 , xi−1 ) = φ(τ, τ, p&) = p& = lim xi , e quindi
0 1 L
tangente a ψ dando luogo ad una contraddizione. Pertanto p
φ(τ )−φ(tk )
v(&
p) = limk→∞ τ −tk
risulterebbe & coincide con p0 se
questo è l’unica intersezione di ψ con ω (x).
D’altra parte:
Proposizione 3.3.2 L’insieme ω -limite ω ( γ ) (compatto non vuoto) di una traiettoria γ di un sistema che
verifichi le ipotesi del Teorema 3 non può contenere alcuna traiettoria γ 0 (contenuta in un compatto) che non sia
chiusa o che abbia insieme ω -limite ω ( γ 0 ) privo di punti di equilibrio.
Infatti: γ 0 e l’insieme ω ( γ ) avessero punti in comune si è visto che tutta l’orbita γ 0 apparterrebbe
se una tale traiettoria
`
a ω ( γ ) . Di conseguenza sarebbe possibile trovare una sezione ψ distinta da γ 0 e trasversa ad essa in un punto p! ∈ ω ( γ 0 ) ,
e su di essa si potrebbero trovare i punti {x̄0i }i∈N = γ +
0 ∩ ψ , come fatto precedentemente, che non sono equilibri. Essi però, in tal
caso, risulterebbero ciascuno punto di accumulazione di punti {xi,k }k∈N di γ , i quali pertanto darebbero un insieme non ordinato
`
su ψ .
Questo ragionamento assicura anche che un insieme ω -limite taglia in al più un punto ogni sua sezione trasversa (e sufficiente-
mente piccola da essere trasversale al campo in ogni suo punto). #
Assumendo che γ 0 sia la traiettoria {φ(t, 0, p0 )}t≥0 si ha, in particolare che: giacché la traiettoria γ 0
appartiene ad un insieme ω (x) non vuoto limitato e senza equilibri, non può che essere chiusa, ed intersecare ψ
solo in p0 .
Il teorema è dimostrato quando si provi che: se ω (x) contiene un’orbita chiusa γ 0 e punti regolari, allora
ω (x) ≡ γ 0 .
Infatti: se ci fossero altri punti inω (x) oltre quelli diγ 0 , non potendo essi essere isolati dato che ω (x) è connesso, si avrebbe
che γ 0 dovrebbe contenere un loro punto limite sulla cui sezione trasversa si avrebbero le intersezioni di tutta la successione di orbite
ad esso convergenti, e comunque tutte appartenenti ad ω (x) che avrebbe allora molte intersezioni con la sezione trasversa stessa. "
M. Lo Schiavo
3.4. La discussione sul piano delle fasi 173
Un tale sistema è sempre conservativo, infatti senz’altro ammette come integrale primo la funzione Energia:
E ∈ C 1 (D) definita da - x
1 2
E (x, y) := T (y) + V (x) := y + (−f (ξ)) dξ .
2
Per rendersene conto basta calcolare la
Lv E = v x ∂x E + v y ∂y E = y(−f ) + f y = 0 .
D’altra parte, qui la funzione x &→ V (x) rappresenta un caso particolare (dimensione 1 ) della funzione energia
potenziale q &→ Π(q) che si definisce per un generico sistema meccanico strettamente conservativo (si veda il §.II.1).
Le precedenti affermazioni sussistono per un qualsiasi sistema bidimensionale conservativo di integrale primo
F = F (x, y). Nel caso particolare, invece, in cui il sistema è un sistema scalare meccanico conservativo l’integrale
primo F = F (x, y) ha la particolare espressione: E (x, y) = T (y) + V (x) := y 2 /2 + V (x). In questo caso la
specifica forma di tale funzione permette una discussione dei diagrammi di fase ben più dettagliata di quella fatta
finora. Ancora per semplicità, si supporrà V ∈ C 2 (D).
(1) Un tale sistema ha equilibri nelle intersezioni di y = 0 ed f (x) = 0 (isocline principali), e solo in questi punti.
Quindi gli equilibri non solo appartengono tutti all’asse delle x ma anche, in quanto zeri della f = −dV /dx,
essi corrispondono ai punti di stazionarietà, o: punti critici, del potenziale V .
(2) Sia xm un punto di minimo relativo proprio della funzione V = V (x). Dato che il primo addendo della
E := T + V = y 2 /2 + V (x) è essenzialmente positivo, localmente le linee di livello ΓE 0 sono definite dalla
E (x, y) = E 0 solo per E 0 ≥ V (xm ) Sia, ad esempio, xm = 0 . Non lede la generalità scegliere V (0) = 0 e
limitarsi quindi a considerare E 0 ≥ 0 .
(3) La regolarità del sistema garantisce che la soluzione t &→ x(t) dell’equazione del moto esiste regolare (e
conserva il valore della funzione E ). Si fissi un (arbitrario) dato iniziale (x0 , y0 ) ∈ D , e sia E 0 = E (x0 , y0 )
il valore della funzione E nel punto (x0 , y0 ). La soluzione uscente da (x0 , y0 ) individua (localmente) un
insieme di punti {(x(t), y(t))}t∈J0 ove J0 è un intervallo che contiene t0 e sul quale la soluzione t &→ x(t) è
definita. Per la regolarità del moto, tali punti riempiono localmente un arco di linea regolare e questo, come
si è detto, necessariamente appartiene alla linea di livello ΓE 0 definita dalla equazione E (x, y) = E 0 .
D’altra parte, in un qualsiasi punto (x, y) ∈ D esterno all’asse y = 0 si ha ∂E /∂y = y ̸= 0 , e quindi in esso
si ha ∇E ̸= 0 ; e anche sull’asse y = 0 si ha ∂E /∂x ≡ dV /dx ̸= 0 a meno che tali derivate siano calcolate in
qualcuno dei punti critici xc della funzione V (x). Se ne traggono i seguenti risultati che specificano quelli
del caso generale discusso sopra.
(3.1) Nell’intorno di punti (x, y) ̸= (xc , 0), e cioè in punti nei quali si ha |∇E | ̸= 0 , il teorema della funzione
implicita assicura che ciascun insieme di livello E (x, y) = E 0 è una linea semplice e liscia, la cui
tangente è univocamente definita e parallela a (y, f (x)) in quanto ortogonale al vettore (non nullo)
d
∇E = ( dx V (x), y). Tali linee contengono, interi, gli archi {(x(t), y(t))}t∈J0 corrispondenti a moti con
condizioni iniziali (x0 , y0 ) scelte su di essi. La tangente a una qualunque di tali linee in un suo qualsiasi
punto di regolarità, in quanto parallela a (y, f (x)) è parallela alle velocità (ẋ, ẏ) ≡ (y(t), f (x(t))) assunta
all’istante t.
(3.2) L’unicità della soluzione passante per ciascun dato iniziale implica che le curve {x(t), y(t)}t∈J0 non
si possano intersecare. Quindi, le soluzioni sono tutte rappresentazioni parametriche di archi semplici.
Questi si possono intersecare (senza essere il prolungamento l’uno degli altri) al più nei punti (xc , 0).
I punti di equilibrio del sistema sono allora necessariamente gli unici punti che possono corrispondere ai
punti di non regolarità delle linee E (x, y) = cost, e cioè i punti (xc , 0) nei quali |∇E | = 0 .
(3.3) Sia (x̄, 0) ∈ D con x̄ non critico per la V (supposta derivabile due volte). In esso si ha f (x̄) ̸= 0 e
quindi ∇E ̸= 0 . Tale stato corrisponde ad un istante di arresto in un punto x̄ che non è di equilibrio.
Pertanto, pur essendo un punto singolare per la rappresentazione esplicita y = y(x) delle curve di livello
ΓE 0 , esso è invece ordinario sia per quanto riguarda la loro rappresentazione x = x(y), sia per quanto
riguarda la rappresentazione parametrica del moto. Sebbene y(x̄) risulti nullo, il tempo necessario a
raggiungere lo stato (x̄, 0) è finito, e il moto percorre in tale intervallo di tempo l’arco della linea ΓE 0
che congiunge (x0 , y0 ) con (x̄, 0).
In (x̄, 0) il campo v = (0, f (x̄)) è non nullo, pertanto la traiettoria per (x̄, 0) attraversa l’asse delle x
con tangente definita e parallela a quello delle y ; e sempre per il fatto che il punto non è di equilibrio
essa stessa prosegue nel semipiano opposto, unica per il teorema di unicità dato che v ̸= 0 . L’istante t̄
in cui x(t̄) = x̄ e y(t̄) = 0 è di arresto per la x(t) ma non lo è per la φ(t) = (x(t), y(t)) .
Ancora per il fatto che x̄ non è critico per la V , la traiettoria si allontana poi dall’asse delle x tanto
più quanto più diminuisce il valore della energia potenziale V (x) a favore della cinetica.
(3.4) Congiungendo fra loro i vari segmenti (locali) che vengono in tal modo descritti al variare di t nel-
l’intervallo massimale di definizione, si ha che per ogni fissato E 0 := E (x0 , y0 ) la corrispondente linea
ΓE 0 consiste o di archi semplici, o di linee chiuse (non necessariamente regolari). Ciascuna di tali li-
nee individua, in quanto contiene, l’intera famiglia {x(t), y(t)}t∈JM dei punti che una qualche soluzione
φ(t, t0 , x0 ), con x0 tale che E 0 = E (x0 ), descrive al variare di t ∈ JM . Tale soluzione riempie un intero
arco regolare della linea ΓE 0 ed è individuata da una qualsiasi delle condizioni iniziali che, compatibili
con quel valore E 0 , appartengono a quello stesso arco della linea ΓE 0 .
Si noti che altri x0 , pur appartenenti alla stessa linea ΓE 0 , se non appartengono anche allo stesso arco
regolare non individuano la stessa soluzione in esso contenuta. La linea E = E 0 può infatti contenere
anche molte diverse traiettorie, tutte relative a condizioni iniziali che danno luogo allo stesso valore E 0 .
(4) In particolare, in virtù della speciale forma delle funzioni T (x) = y 2 /2 e E = E (x, y), qualunque linea ΓE 0
(e cioè qualunque sia il valore E 0 che la individua) è composta da due rami simmetrici rispetto allo scambio
M. Lo Schiavo
3.4. La discussione sul piano delle fasi 175
y ↔ −y e dai punti nei quali essi raggiungono l’asse y = 0 . Per ogni x tale che y(x) ̸= 0 , essi consistono
evidentemente nei grafici delle due funzioni
/ /
y(x) = + 2(E 0 − V (x)) e y(x) = − 2(E 0 − V (x)) , (4.10)
(5) I due rami y(x) < 0 e y(x) > 0 si congiungono in punti (x̄, 0) dove la corrispondente linea ΓE 0 raggiunge
l’asse y = 0 . I punti x̄ sono quelli nei quali la funzione ẋ(t) si annulla e quindi, necessariamente, per essi
V (x) = E 0 .
V (x) dV (x)
= {f(x)
dx
E0
E0 {V (x)
x
x x
y
2 (E0 {V (x)) x
x
f(x)
Detti x̄1,2 due zeri distinti successivi di E 0 − V (x), eventualmente comprendendo x̄1,2 = ∞, all’interno
dei quali risulti : (E 0 − V (x)) > 0 , per ciascuno di essi si danno solo due casi possibili:
(5.1) la funzione E 0 − V (x) si annulla in modo tangente e quindi x̄1 (o x̄2 ) è anche un punto critico xc
per la V (x) (massimo locale o flesso), e come tale è di equilibrio per il sistema;
(5.2) la funzione E 0 − V (x) non solo tocca, ma attraversa l’asse E 0 = V (x).
Nel primo caso, e cioè se in x̄ ≡ xc la V (x) è stazionaria, il punto xc è un punto di equilibrio, e la
soluzione non prosegue per il teorema di unicità: la linea di livello ΓE 0 può anche proseguire al di là del
punto critico, ma i vari rami incidenti il punto corrispondono a soluzioni diverse, nel senso che non si
raccordano per tempi finiti, anche se tutte con la stessa energia E 0 .
Nel secondo caso, la curva di livello per (x̄, 0) – e la soluzione cui essa corrisponde – attraversa
l’asse y = 0 con tangente definita e parallela all’asse x = 0 giacché la prima componente del vettore
tangente è y che è ivi nulla. Sempre per il fatto che il punto non è di equilibrio la stessa soluzione
φ(t) = (x(t), y(t)) prosegue nel semipiano opposto descrivendo (localmente) un arco simmetrico a
quello ottenuto scambiando y ↔ −y , e si allontana dall’asse delle x tanto più quanto più diminuisce il
valore dell’energia potenziale V (x).
Ancora, per il teorema di unicità relativo al dato iniziale (x̄, 0) , la stessa soluzione prosegue nel
semipiano opposto fino a raggiungere l’altro punto: x̄1,2 nel quale è nuovamente E 0 = V (x).
A sostegno e ulteriore specifica della discussione appena fatta, è utile notare che l’equazione ẋ = y permette,
almeno in linea di principio, di risolvere (totalmente, anche se in forma implicita e per quadrature) l’equazione
assegnata. In particolare, è possibile calcolare il tempo necessario affinché il sistema passi dalla configurazione x̄1
a quella x̄2 :
- x̄2
dξ
T/2 := / ,
x̄1 2(E 0 − V (ξ))
K
e l’integrale è convergente se |x̄1,2 | < ∞ e se questi non sono equilibri infatti, in tal caso, il denominatore è diverso da
L
zero fuori da x̄1,2 , e siccome V ′ (x̄1,2 ) ̸= 0 , i poli x̄1 ed x̄2 sono solo dell’ordine di ξ −(1/2) , e quindi l’integrale (improprio) converge.
L’area racchiusa tra i due rami y > 0 e y < 0 della traiettoria {x(t), y(t)}t∈J è
- x̄2 / dS
S=2 2(E 0 − V (ξ))dξ , che implica T = .
x̄1 dE 0
Se 2
invece una o entrambe le due intersezioni x̄1,2 sono di equilibrio, o all’infinito, allora o l’integrale
. x̄2 /
x̄1 dξ 2(E 0 − V (ξ)) o la traiettoria stessa sono necessariamente divergenti.
In definitiva, se esistono entrambi x̄1 e x̄2 tali che V (x̄1,2 ) = E 0 con f (x̄1,2 ) ̸= 0 , e se V (x) > −∞ per
ogni x ∈ [x̄1 , x̄2 ], allora l’equipotenziale E (x, y) = E 0 = V (x̄1,2 ) è una curva chiusa che non contiene equilibri;
come tale essa è una traiettoria, percorsa in senso orario, che rappresenta un moto periodico. In particolare, se
. x̄ 2 /
la traiettoria chiusa racchiude l’origine, e se V è una funzione pari, allora: T = 4 0 dξ 2(E 0 − V (ξ)) .
V (x) .
x
x x
x1 xc x2 x1 xc x2
Qualora invece una o entrambe le due radici x̄1,2 corrispondano a punti di equilibrio o siano all’infinito, allora
. x̄2 2 /
risultano necessariamente divergenti o l’integrale x̄1 dξ 2(E 0 − V (ξ)) o la traiettoria stessa.
.
V (x) x
V = E0
x x
q̈ = −k 2 sin q , (t, q) ∈ R × T .
h
In coordinate: (q, q̇) &−→ (x, y) ∈ R2 si ha ovviamente Π(q) ≡ V (x) = −k 2 cos x + V& e si riconosce che il sistema
è Hamiltoniano:
ẋ = v x (x, y) = ∂y E = y , ẏ = v y (x, y) = −∂x E = −k 2 sin x ,
con Hamiltoniana E (x, y) := T (y) + V (x), integrale del moto,
1 2 1
E (x, y) = y − k 2 cos x + V& = y02 − k 2 cos x0 + V& =: E 0 .
2 2
Dato il significato della funzione
1 2 1 E0
2
y (x) = 2 (E 0 − V (x)) := 2 + cos x =: E& 0 + cos x,
2k k k
i valori della costante E 0 , e di conseguenza delle condizioni iniziali, possono essere suddivisi in cinque distinti
insiemi:
M. Lo Schiavo
3.4. La discussione sul piano delle fasi 177
V (x)
(4)
(5)
(3)
x
(2)
{¼ x1 0 x2 +¼
(1)
(1) È vuoto l’insieme dei dati iniziali per i quali E& 0 < −1 .
(2) Se (x0 , y0 ) è tale che E& 0 = −1 , non può che essere (x0 , y0 ) =: (xc,s , 0) = (0, 0) e la soluzione è la quiete in
(x0 , y0 ). Ma xc,s è di minimo per l’energia potenziale V (x) quindi, per la discussione appena fatta, (xc,s , 0)
è un punto circondato da traiettorie chiuse e risulta pertanto di equilibrio stabile, (si veda oltre).
(3) Se (x0 , y0 ) è tale che E& 0 ∈ (−1, +1) l’equazione (nella variabile x̄ )
1 2
y − cos x0 = E& 0 = − cos x̄
2k 2 0
ammette due soluzioni: x̄1,2 , distinte, simmetriche rispetto all’origine, appartenenti all’intervallo aperto
(−π, +π), e tanto più lontane da essa quanto maggiore è il valore E 0 . In tale intervallo, la funzione
x &→ V (x) = −k 2 cos x non ha punti critici diversi dall’origine, e quindi nessuno dei due punti (x̄1,2 , 0) è un
punto di equilibrio. La traiettoria, attraversando l’asse delle x, lo fa in punti non di equilibrio e quindi essa
prosegue nel semipiano in cui y ≡ ẋ ha il segno opposto. La coordinata x rimane limitata fra i due valori
x̄1 e x̄2 e la traiettoria è chiusa. In definitiva risulta E 0 − V (x) = k 2 (cos x − cos x̄), con x̄ una delle
radici x̄1 , x̄2 sopra dette e che individuano l’ampiezza1massima dell’oscillazione. Per quanto detto, il moto è
. x̄ 2 0/
periodico di periodo T = 4 0 dx 2(E 0 − V (x)) .
(4) Se y0 è cosı̀ grande che E& 0 > +1 allora |ẋ| è sempre strettamente positivo, e il moto non ha istanti di arresto:
le traiettorie non attraversano mai l’asse delle x e la “striscia” corrispondente a queste condizioni iniziali è
tutto il piano. La coordinata x cresce in R, mentre il punto q descrive infinite volte il toro T. In particolare:
. 2π
La coordinata x cresce non limitata e tale che x(t + T) = x(t) + 2π per ogni t ∈ R e con T := 0 dx/h(x),
/
nella quale si è posto h(x) = 2(E 0 − V (x)) .
K .x
Infatti: La funzione h è 2π -periodica, mai nulla. Quindi, la t(x) − t(x0 ) = x dσ/h(σ) è funzione monotona ed invertibile.
0
Pertanto si trova - x+2π - 2π
t(x + 2π) − t(x) = dσ/h(σ) = dσ/h(σ) =: T
x
L 0
ovvero: t(θ + 2π) = t(θ) + T , la cui inversa dà θ(t + T) = θ(t) + 2π .
(5) Se (x0 , y0 ) è tale che E& 0 = +1 = − cos xc,u , allora xc,u è un punto critico: di stazionarietà per la funzione
x &→ V (x), ma non di minimo; e possono darsi i due sotto-casi:
(5.1) (x0 , y0 ) = (xc,u , 0), e cioè xc,u = +π , oppure xc,u = −π solo fisicamente coincidenti, (e cioè coincidenti
solo sul toro T); e allora il moto è la quiete nel punto iniziale (xc,u , 0) che, per la discussione appena
fatta, è un punto di equilibrio instabile.
(5.2) (x0 , y0 ) ̸= (xc,u , 0) e y0 ̸= 0 ; e allora il moto si svolge lungo la corrispondente (parte di) Separatrice.
Il punto (3) può essere ulteriormente approfondito. Si osservi innanzi tutto che il valore indicato per il periodo
- x̄
4 dx
T = /
k 0 2(cos x − cos x̄)
è un valore esatto. Tuttavia può essere di interesse valutarlo in casi particolari nei quali le condizioni iniziali siano speciali. Uno di
questi si presenta quando il valore x̄ è molto piccolo rispetto al suo possibile massimo: π . In tal caso, dalla
/ B
ẋ(x) = 2 (E 0 − V (x)) = 2k 2 (cos x − cos x̄)
e con le seguenti posizioni:
) * 0
x̄ x x1 7 8
2(cos x − cos x̄) = 4 sin2 − sin2 =: 4 a2 − sin2 =: 4a2 1 − sin2 ψ ,
2 2 2
1 x 1 x dx dψ
sin =: sin ψ, cos dx = cos ψ dψ, / = / ,
a 2 2a 2 2a 1 − sin2 ψ 1 − a2 sin2 ψ
nell’ipotesi di piccoli valori per l’ampiezza massima x̄ dell’oscillazione, e quindi per a := | sin x̄/2| ≪ 1 , si ottiene successivamente:
-
4 x̄ dx
T = /
k 0 2(cos x − cos x̄)
-
4 π/2 dψ
= / , (per la (4.11) qui appresso);
k 0 1 − a2 sin2 ψ
- ) *
2 π a2 sin2 ψ
≃ 1+ dψ , (per la (4.12) qui appresso);
k 0 2
) *
2π a2
= 1+ , (per la (4.13) qui appresso);
k 4
) *
2π x̄2
≃ 1+ , (per la (4.14) qui appresso),
k 16
che, contrariamente a quanto accade per l’oscillatore lineare, evidentemente dipende dall’ampiezza massima dell’oscillazione e cioè
dall’energia iniziale.
Nei passaggi qui sopra sono state usate le seguenti relazioni, (delle quali la (4.12) e la (4.14) sono tanto più vere quanto più ε > 0
è vicino allo zero, e quindi, in questo caso, quanto più è piccola l’ampiezza massima dell’oscillazione):
- x̄ - π/2
dx dψ
B = / ; (4.11)
0 4(a2 − sin2 x2 ) 0 1 − a2 sin2 ψ
) *'
1 1 ' ε
√ ≃ 1 + ε − (1 − ε)−3/2 (−1) ' =1+ ; (4.12)
1−ε - π
2 ε=0 2
π
sin2 ψdψ = ; (4.13)
0 2
ε 2 ε 3
sin ε ≃ 0 + ε − 0+ . (4.14)
2 6
Il cosiddetto Integrale ellittico di prima specie che compare nella (4.11), convergente quando a := | sin x̄/2| < 1 , si sarebbe potuto
esprimere anche con l’aiuto delle funzioni ipergeometriche, (si veda § I.6):
- π/2 ) * ∞
dψ 1 1 π = (1/2)n (1/2)n 2n
/ =: K(a) ≡ F , , 1; a2 := a , (4.15)
0 1 − a2 sin2 ψ 2 2 2 n=0 n!(1)n
7 8
e fornisce il valore esatto del periodo del pendolo fisico T = 4K(a)/k . Il valore che si è stimato: 2π k
1 + x̄2 /16 ne è una prima
approssimazione valida solo nel caso in cui l’ampiezza massima dell’oscillazione: N x̄ sia piccola
O (e ciò accade quando è piccola l’energia
2
E 0 ). In tal caso sin x̄/2 ∼ x̄/2 e i primi due termini della serie (4.15) sono 1 + ( 12 )( 12 ) x̄4 .
k2 2
N.B. 3.4.2 Il caso lineare q̈ = −k 2 q (si veda l’Esempio 3.2.12) è ben diverso da questo. Per esso si ha V (x) = 2
x + V& e quindi
1 2 k2 k2
E 0 − V (x) = y + (x2 − x2 ) =: (x̄2 − x2 ) ,
2 0 2 0 2
che dà - - -
4 x̄ dx 4 1 dη 4 π/2 d sin ψ 2π
T= √ = / = =
k 0 x̄2 − x2 k 0 1−η 2 k 0 cos ψ k
indipendente dall’ampiezza massima e, più generalmente, dai dati iniziali. ♦
. .
µ µ
µ µ
{¼ +¼
M. Lo Schiavo
3.4. La discussione sul piano delle fasi 179
1 2 k2 2 ε 4 k4
y + x − x = E (x± , 0) = , con V& := 0.
2 2 4 4ε
Essa contiene anche in questo caso due eterocline ma, oltre ad esse e ai due punti di equilibrio, ora contiene anche
quattro traiettorie “aperte” verso infinito.
2
Le varie altre evenienze si presentano a seconda dei diversi valori della costante E 0 = 12 y02 + k2 x20 − 4ε x40 . Esse
si possono suddividere nei seguenti casi (sempre con V& = 0 ) e in corrispondenza ad altrettanti gruppi di valori
iniziali. Si chiamino x̄− + +
1 e x̄2 la minore e la maggiore delle soluzioni (se reali) della E 0 − V (x) = 0 , e x̄1 < x̄2
−
(4) E 0 > (k 4 /4ε). Qualunque sia il valore di x0 si hanno moti progressivi con nessuna inversione.
(5) Risultati analoghi all’esempio precedente qualora E 0 = k 4 /4ε.
V (x) y
x x
x{ xc,s x+
x1{ x{ xc,s x+ x2+ x1{ x1+ x2+
x2{
x
x
x{ xc,u x+ x{ xc,u x+
c2
ρ̈ − = −φ(ρ) con (t0 , ρ0 , ρ̇0 ) ∈ R × R+ × R .
ρ3
Per scrivere tale equazione si è riconosciuto che il moto, nello spazio fisico, di un elemento soggetto ad una forza
−−→ −− ¨→
centrale, in particolare Newtoniana, è piano e tale che ρ2 θ̇ = cost =: c. Infatti: dalla OP × OP = 0 se ne trae
−−→ −−→ ˙ −−→
facilmente la OP × OP = ⃗k0 = cost ≡ c⃗n , che fornisce ⃗n · OP (t) = 0 . Pertanto, con la notazione usuale in R3 :
(
−−→ ⃗ϵ = + cos θ⃗e1 + sin θ⃗e2 ,
OP = ρ ⃗ϵ con
⃗τ = − sin θ⃗e1 + cos θ⃗e2 ,
e indicato con ⃗ϵ × ⃗τ = ⃗n il versore rispetto al quale θ è positivo se contato in senso antiorario, ne seguono le
( ⎧
⃗ϵ˙ = +θ̇⃗τ ⎨− −→˙
OP = ρ̇⃗ϵ + ρθ̇⃗τ
ed
⃗τ˙ = −θ̇⃗ϵ ⎩ −− ¨→
OP = (ρ̈ − ρθ̇2 )⃗ϵ + (ρθ̈ + 2ρ̇θ̇)⃗τ
L’espressione f⃗ = −(km/ρ2 ) ⃗ϵ per l’attrazione Newtoniana fornisce quindi, sulla varietà L := R+ , l’equazione:
k c2 c2 /2 k
ρ̈ = − + che ha V (ρ) = + − .
ρ2 ρ3 ρ2 ρ
Al crescere dell’energia iniziale si riconoscono, nello spazio fisico,
(1) una traiettoria stazionaria circolare, con ρ = ρc,s , stabile ma non attrattiva;
(2) traiettorie periodiche descritte con θ̇ = c/ρ2 e comprese fra un afelio e un perielio ;
(3) traiettorie che provenienti dallo spazio vi tornano dopo essere passate all’interno delle possibili orbite stazio-
narie.
1
1.5
1 0.5
0.5 %s
0
2 4 6 8 10
-0.5
-0.5
-1
-1
2 4 6 8
%s
Si osservi che la “quiete” in ρc,s non individua posizioni di equilibrio!
N.B. 3.4.6 Sia ρ = ρ(t) funzione a valori reali, T -periodica mai nulla; risulta T -periodica e mai nulla anche la
.t
funzione θ̇(t) = c/ρ2 (t) =: λ(t); entrambe definite per ogni t ∈ R. Pertanto, la funzione θ(t) − θ0 = t0 λ(σ) dσ
è funzione monotona crescente, invertibile, e tale che
- t - t0
θ(t) − λ(σ) dσ = θ(t0 ) − λ(σ) dσ per ogni t0 ∈ R .
Ma è - - - t -
t+t 0 t+t
λ(σ) dσ = λ(σ) dσ + λ(σ) dσ + λ(σ) dσ,
t t 0 t
. t+t .t
e la periodicità di λ impone che sia t λ(σ) dσ = 0
λ(σ) dσ ; pertanto si ha
- t+t - t
λ(σ) dσ = & .
λ(σ) dσ =: Θ
t 0
M. Lo Schiavo
3.4. La discussione sul piano delle fasi 181
Tuttavia la grandezza Θ & potrebbe non essere commensurabile con π . Ciò implica che l’essere ρ una funzione T -
periodica, e il sussistere della legge delle aree, non bastano ad assicurare che il moto (fisico) sia periodico. Infatti,
&
dalla 2π -periodicità del versore ⃗u segue che se Θ/2π ̸ non è un numero razionale, certo non può esistere alcun
tempo finito dopo il quale la traiettoria (nello spazio fisico) si possa chiudere. Se invece esistono n, m ∈ N tali che
.
& = t λ(σ) dσ = 2π n allora le due condizioni precedenti implicano il chiudersi della traiettoria e la periodicità
Θ 0 m
del moto. Si può dimostrare che questo è ciò che in effetti accade ai moti di un corpo soggetto ad una forza di tipo
gravitazionale. ♦
Qualora, a causa di eventuali altri effetti secondari da parte del resto del sistema gravitazionale, a questo schema
ε2 ρ
si aggiunge un termine del tipo Vep (ρ) = ε+(ρ−ρ +)
2 , con ε > 0 , si ottiene un sistema con traiettorie come le
(1), (2), (3) e in più: (4) traiettorie che tornano allo spazio dopo essere passate all’esterno delle possibili orbite
stazionarie; (5) un’orbita stazionaria (circolare) instabile e tre (aperte) che le sono asintotiche.
1
1.5
1 0. 5
0.5
0
2 4 6 8 10
-0.5
-0.5
-1
% %+ -1
2 4 6 8
% %+ #
Allo scopo di studiare il comportamento dei sistemi conservativi nell’intorno dei loro punti di equilibrio è
conveniente premettere (si veda: [Arnold 1]) la seguente discussione:
Lemma 3.4.1 (di Hadamard) Sia κ : R → R, κ ∈ C r≥1 (N (0)), e κ(0) = 0 . Per ciascun x ∈ N (0) si può
porre
- x - 1
′
κ(x) = κ (ξ)dξ = xκ′ (tx)dt =: xρ(x) con ρ ∈ C r−1 (N (0)) .
0 0
′
.1
In particolare si ha che ρ(0) = κ (0) ≡ 0
κ′ (0)dt.
. Sia V : R → R, V ∈ C r≥2 (N (0)), e si assuma che essa rappresenti una funzione energia potenziale V (x) =
x
− f (ξ)dξ di un sistema: ẍ = f (x). Si assuma anche che essa abbia un punto di stazionarietà il quale, senza
ledere la generalità, si porrà nell’origine; si abbia cioè V (0) = V ′ (0) ≡ f (0) = 0 . Si ponga poi:
- 1 - 1
V (x) = xV ′ (tx)dt , insieme con V ′ (tx) = txV ′′ (σtx)dσ .
0 0
Sia V ′′ (0) ̸= 0 ; il punto di equilibrio xe = (0, 0) dell’equazione ẍ = f (x) si definisce allora di equilibrio regolare
o iperbolico, e la funzione x &→ f (x) = −V ′ (x) risulta (nulla in zero ed) invertibile in un conveniente intorno N (0).
Si osservi, a questo riguardo, che i risultati che seguono sono validi localmente, ma ciò solo nella misura in cui è locale l’invertibilità
della f e cioè la permanenza del segno della V ; l’intorno N (0) non è necessariamente “piccolo”, ed i risultati non sono tanto più veri
quanto più N (0) è piccolo, come viceversa accade nel caso dei procedimenti di linearizzazione.
In definitiva in U , e cioè localmente vicino ad un punto di equilibrio regolare xe =: (xc , 0), le curve di livello
della E (x, y) = 12 y 2 + V (x) sono diffeomorfe a:
η2 ξ 2
(i) Ellissi: + =E0 se V ′′ (0) > 0 , e cioè se xc = xc,s = 0 è un punto di minimo relativo proprio per
2 2
V (x);
η2 ξ2
(ii) Iperboli: − =E0 se V ′′ (0) < 0 , e cioè se xc = xc,u = 0 è un punto di massimo relativo proprio
2 2
per V (x).
M. Lo Schiavo
3.4. La discussione sul piano delle fasi 183
Nel secondo caso gli asintoti dell’iperbole sono individuati dalla relazione:
@ A) * ) *
' ) * ) * √ 1′′ 0
−1 ' u± ±1 |V (0)| ±1 u±
∂ψ ' := e quindi dalla = .
0 w± 1 0 1 1 w±
´ 0
0
E0
0
=
<
>
= E0
E0
0
E0
»
0
0
<
>
E0
E0
N.B. 3.4.9 Se V è definita su tutto R ed è inferiormente limitata, non lede la generalità supporla ovunque
positiva o nulla, e quindi ogni valore T0 + V0 = E/ 0 risulta positivo o nullo. Si supponga che la soluzione sia
definita per |t − t0 | ≤ τ ∈ R. In virtù della y = ± 2(E 0 − V (x)) si ha allora che per |t − t0 | ≤ τ risulta anche
√ √ √ .t .t
|y(t)| ≤ 2E 0 . Pertanto |x(t) − x0 | ≤ 2E 0 |t − t0 | ≤ 2E 0 τ , in quanto è | t0 ẋ(ρ)dρ| ≤ t0 |y(ρ)|dρ. Il teorema
del prolungamento sui compatti garantisce allora che la soluzione t &→ x(t) è definita e limitata per ogni t ∈ R. Il
risultato sulla limitatezza si può anche estendere al caso: V definita e inferiormente limitata su D ⊂ R connesso.
♦
N.B. 3.4.10 Ancora nel caso (i), sia xc,s il punto di minimo per V , e si chiami Vs il valore
7 minimo V (xc,s ) ≥
0 . Per E 0 sufficientemente 8prossimo a Vs l’area della corrispondente curva di fase, che è diffeomorfa alla
circonferenza ξ 2 + η 2 = 2E 0 è prossima a
√
π( 2E 0 )2 2πE 0
S(E 0 ) = = / .
det( ∂ψ|xc,s ) |V ′′ (xc,s )|
Pertanto
/ il periodo delle piccole oscillazioni intorno ad una posizione di equilibrio stabile è dato da T =
2π/ |V ′′ (xc,s )| . Per il pendolo, V ′′ = k 2 cos x implica T = 2π/k . ♦
Si osservi che il caso (ii) è un caso particolare, in quanto il sistema ha dimensione due ed è xe := (xc,u , 0), della
più generale definizione che qui segue e che è valida per sistemi di dimensione n ≥ 2 .
Sella standard := un punto di equilibrio xe , isolato sulla varietà delle fasi M, che ammette un intorno N (xe ) ⊆
M nel quale si possono definire due sottovarietà (non vuote) Wloc
s
, Wlocu
con le seguenti caratteristiche:
s u
(i) Wloc , Wloc sono trasversali in xe , e lo sono in modo tale che
s u s u
Wloc ∩ Wloc = {xe } ; Txe Wloc ⊕ Txe Wloc = Txe M ;
s u
(ii) Wloc è positivamente invariante, Wloc è negativamente invariante, ovvero:
( s
x ∈ Wloc ⇒ G t x ∈ Wloc
s
per ogni t ≥ 0,
u
x ∈ Wloc ⇒ G t x ∈ Wloc
u
per ogni t ≤ 0,
s u
(iii) Wloc (rispettivamente Wloc ) è l’unico sottoinsieme di N (xe ) che sia positivamente (risp. negativamente)
s u
invariante, e cioè ogni orbita uscente da punti non appartenenti a Wloc (rispettivamente Wloc ) esce prima
o poi da N (xe ), (risp. proviene dal complementare di N (xe )); in sintesi:
( t s
G x ∈ N (xe ) , ∀t > 0 ⇒ x ∈ Wloc ,
G t x ∈ N (xe ) , ∀t < 0 ⇒ u
x ∈ Wloc ,
Si noti che le due varietà sono locali; risultano infatti definite (come grafico di funzioni regolari di punti nei
corrispondenti spazi Es ed Eu ) solo su N (xe ).
Nel Cap. II si è visto che per un campo lineare: T (x − xe ), con T ∈ L(V), il punto di equilibrio xe è una
sella (k) quando l’operatore T ha autovalori tutti con parti reali non nulle e, di queste, k positive ed n − k
negative. Nel Cap. IV si ricorderà (teorema di persistenza delle selle o della varietà stabile) che ciò accade anche
per punti di equilibrio di sistemi non lineari (autonomi) se aventi derivata v∗ (xe ) con le stesse proprietà enunciate
per l’operatore T .
Si definiscono poi le corrispondenti varietà globali (non necessariamente sottovarietà regolari di M) prolungando
l’unione delle traiettorie uscenti dai punti di quelle locali, considerati come punti iniziali:
(
ẋ = x
Esempio 3.4.11 x0 , y0 ∈ R.
ẏ = x3 − y,
Si ha subito x(t) = x0 et e quindi
)- t *
1 3 3t 1
y(t) = e−t x30 e4σ dσ + y0 = x0 e + (y0 − x30 )e−t .
0 4 4
' '
Pertanto: s
Wloc {(x, y) ' x = 0} e u
Wloc = {(x, y) ' y = 14 x3 }. Infatti:
Anzi le due varietà trovate in questo esempio sono globali, in quanto definite ovunque e verificanti (i)–(iv) anche
fuori da N (0, 0). Come si è accennato, la parte' lineare del sistema ha anch’essa
' due varietà (anzi due spazi)
trasversali nel punto di equilibrio: Vs = {(x, y) ' x = 0} , e Vu = {(x, y) ' y = 0} ; quest’ultimo è tangente,
u
nell’equilibrio, alla Wloc del sistema non lineare e in questo senso, per ∥x∥ convenientemente piccoli, può essere
u
considerata come deformata della Wloc del sistema.
M. Lo Schiavo
3.4. La discussione sul piano delle fasi 185
Si può notare che il sistema è hamiltoniano con H = H (x, y) := xy − 14 x4 + c pur non essendo un sistema
meccanico con l’hamiltoniana canonica H = T + V .
Quelle in figura sono le linee H = cost
y
=
4
3
x
y= x
Gli equilibri sono (0, 0) e (4, 0); il potenziale V (x) = −12x2 + 2x3 + V& , e la separatrice per (0, 0) :
1 2 2 3
2 y + (−12x + 2x ) = 0 .
V (x)
y
x
4 6
La separatrice è costituita da quattro orbite, tutte di periodo infinito, delle quali una: l’omoclina è la traiettoria
che parte e arriva in (0, 0). I moti uscenti da condizioni iniziali all’interno dell’omoclina sono tutti periodici. Le
traiettorie vicine all’omoclina hanno periodi
- x̄2 - x̄2 - x̄2
dx dx dx
T =2 / ≃2 √ =2 √ ,
x̄1 2(E 0 − V (x)) x̄1 12x2 − 2x3 x̄1 2x 6 − x
(
ẋ = −4x + y + x2
Esempio 3.4.13 x0 , y0 ∈ R .
ẏ = (1/6) y − 6x(x − 4),
Posto f := 1/6 , e chiamato (v x , v y ) il campo dell’Esempio 3.4.12, si nota che quello del presente esempio si può
riscrivere nella forma (
ẋ = v x (x, y) − f v y (x, y) := y − f · (24x − 6x2 ) ,
ẏ = v y (x, y) + f v x (x, y) := (24x − 6x2 ) + f y .
In modo analogo a quanto fatto nell’Esempio 3.1.28, si riconosce che il sistema ha campo ruotato di θf = arctan 16
rispetto a quello definito nel precedente esempio. I cammini chiusi di quello sono quindi trasversi ai cammini
di questo e individuano regioni positivamente o negativamente invarianti a seconda del verso del campo, e cioè a
seconda del segno di f . Nel caso f > 0 si ha:
le traiettorie subiscono una “corrente al traverso” diretta verso quelle traiettorie dell’Esempio 3.1.25 che hanno
energia maggiore. Viceversa, come verrà dimostrato più diffusamente nel seguito, nella regione in cui queste ultime
curve sono tutte cicli non isolati, si ha che le traiettorie del presente esempio contraggono e spiralizzano verso il
punto di equilibrio da esse racchiuso.
#
(
ẋ = y
Esempio 3.4.14 t0 , x0 , y0 ∈ R.
ẏ = 8x − 8x3 ,
Come si è già visto questa è una particolare equazione di Duffing, con potenziale V (x) = −4x2 + 2x4 + V& e
separatrice 12 y 2 −4x2 +2x4 = 0 (si veda l’Esempio 3.1.20). Essa può allora servire di “riferimento” per l’equazione,
con µ ∈ R, ⎧ ) *
⎪ 1 2 2 4
⎪
⎨ ẋ = y − µ y − 4x + 2x (8x − 8x3 )
2
) * (4.18)
⎪
⎪ 1 2
⎩ ẏ = (8x − 8x3 ) + µ y − 4x2 + 2x4 y
2
Infatti, stante il fatto che la funzione F = F (x, y) = 12 y 2 − 4x2 + 2x4 è integrale primo del sistema assegnato, e che
è ad esso che il sistema (4.18) si riduce quando il dato (x0 , y0 ) è tale che F (x0 , y0 ) = 0 , l’omoclina F (x, y) = 0 è
costituita da traiettorie anche di (4.18); per esse la F è un invariante. Pertanto, per µ > 0 , e rispettivamente
µ < 0 , si hanno i due seguenti casi:
in cui appare evidente l’esistenza di insiemi limite che non sono cicli limite.
Un altro esempio dello stesso tipo è ẍ + (x2 + ẋ2 − 1)ẋ + x = 0 , in cui si ha
1 2
E (x, y) = (x + y 2 ) , Lv E (x, ẋ) = −ẋ2 (x2 + ẋ2 − 1) .
2
Si hanno orbite (entranti) uscenti dalle circonferenze con centro in (0, 0) solo se si è (all’esterno) all’interno del
cerchio unitario. La circonferenza x2 + y 2 = 1 , che è una orbita possibile, risulta cosı̀ un ciclo limite. #
In effetti, negli ultimi due esempi si è considerato il campo assegnato come “variato” di un campo conserva-
tivo. Si è già detto che questo metodo è spesso usato per intuire in primissima approssimazione l’andamento del
diagramma di fase:
Esempio 3.4.15 ẍ + κ(x, ẋ) + g(x) = 0 , t0 , x0 , ẋ0 ∈ R,
e si assuma che κ non contenga termini additivi dipendenti solo dalla x. Si ponga, “arbitrariamente”,
- x
1
E (x, y) = y 2 + g(ξ)dξ , y := ẋ .
2
In generale questa funzione non è un integrale primo; infatti Lv E := y∂x E + (−κ − g)∂y E = −yκ(x, y) ̸= 0 .
Tuttavia è talvolta possibile stimare il segno della Lv E in particolari regioni dello spazio delle fasi, e da ciò risalire,
M. Lo Schiavo
3.4. La discussione sul piano delle fasi 187
conoscendo la forma delle equipotenziali E (x, y) = cost, al diagramma di fase del sistema (non conservativo)
assegnato. Dalla definizione di Lv E si deduce infatti (si veda anche § IV.2) che nei punti in cui è Lv E > 0 , le linee
di flusso del sistema non conservativo sono trasverse (e quindi attraversano) le linee E = cost, puntando verso la
regione nella quale le altre equipotenziali corrispondono a valori della costante maggiori di quello in esame. #
I precedenti esempi tuttavia dimostrano palesemente che non è detto che due sistemi con campi “vicini” abbiano
anche diagrammi di fase “simili”. Per convincersene ulteriormente, si considerino ancora i seguenti tre esempi.
Con E (x, y) := 12 (x2 + y 2 ) risulta Lv E (x, y) = −|y|3 µ ≤ 0 . Si ha allora che, per quanto piccolo sia il valore
di µ, le traiettorie sono trasversali non uscenti dalle circonferenze con centro l’origine. In effetti sono entranti
ovunque ad eccezione dei punti sull’asse delle x, nei quali esse sono tangenti alle circonferenze. Ma allora, siccome
questi non sono equilibri, il teorema di unicità assicura che la stessa traiettoria prosegue nel semipiano opposto
e, per continuità, non può che definitivamente entrare nella circonferenza cui era tangente sull’asse. Inoltre la
traiettoria non può terminare in alcun punto diverso dall’origine, perché è definita e finita per ogni t. Pertanto
è non vuoto il suo insieme ω -limite. D’altra parte non può ammettere un ciclo limite, perché non essendo le
circonferenze orbite possibili si avrebbero delle curve chiuse almeno parzialmente uscenti da qualche circonferenza.
Una dimostrazione più semplice e generale verrà data nel capitolo sulla stabilità, (si veda: [Hale cap. X Teor 1.3]).
In definitiva il punto di equilibrio attrae tutte le orbite, cosı̀ come le respingerebbe se fosse µ < 0 , e ciò a
prescindere dal suo valore assoluto, seppur piccolo.
Il metodo però non permette di stabilire il numero di giri che la traiettoria compie intorno al punto fisso. #
Scelte delle coordinate tali che (q, q̇) &→ (x, y) ∈ R2 , e posto
1 2
E (x, y) := ẋ − k 2 cos x + V& ,
2
si ha:
Lv E (x, y) = (k 2 sin x)ẋ + ẋ(−k 2 sin x − µẋ) = µẋ2 ≤ 0 .
Questa proprietà, come si vedrà nel citato teorema di stabilità, è sufficiente anche in questo caso a dimostrare che
il diagramma del pendolo fisico si modifica, e diviene il seguente:
y
{¼ 0 +¼
ẍ = k 2 x − x3 − δ ẋ , con δ>0.
M. Lo Schiavo
Capitolo 4
Cenni di stabilità
"
x0 ±
t
t0 t0+T
x0
t0 t0+T
In definitiva la continuità rispetto ai dati iniziali risulta dare informazioni significative solo per tempi finiti, e
cioè informazioni “locali” in t; (naturalmente la qualità di tali informazioni e la durata degli intervalli dipende dal
sistema in esame e dalla particolare soluzione prescelta, ma sono comunque informazioni esclusivamente locali).
189
190 Capitolo 4. Cenni di stabilità
L’esame globale rispetto a t dei divari fra le soluzioni, e del come essi dipendano dalle condizioni iniziali, è
argomento della stabilità (rispetto alle condizioni iniziali).
Si noti che la stabilità è una proprietà del tutto eccezionale per una soluzione: quasi sempre i sistemi non lineari
mostrano una sensibile dipendenza dalle condizioni iniziali, come si vedrà nel seguito.
Una prima forma di stabilità che si adatta bene ai sistemi autonomi, o all’equazione variazionale di un sistema
autonomo calcolata rispetto ad una soluzione di riferimento x̂ che sia periodica [Coddington 13.2], è la Stabilità
orbitale, e cioè puramente geometrica. In particolare, quindi, essa trova la sua utilità per lo studio della stabilità
di soluzioni di equilibrio e di cicli limite
N.B. 4.1.2 Fintanto che per valutare la stabilià di una soluzione x̂(t) = φ(t, t̂0 , x̂0 ) dell’equazione: ẋ = v(t, x)
ci si serve del valore del divario puntuale: |x(t) − x̂(t)| fra essa ed una sua “variata”: x(t) = φ(t, t0 , x0 ), è chiaro
che lo studio della stabilità su [t̂0 , ∞) della soluzione x̂(t) è del tutto equivalente a quello della stabilità della
soluzione nulla della seguente equazione, nella variabile u := x − x̂(t),
u̇ = v(t, φ(t, t̂0 , x̂0 ) + u) − v(t, φ(t, t̂0 , x̂0 )) =: w(t, u) . (1.1)
Infatti studiare l’andamento di |x(t) − x̂(t)| equivale a studiare quello di |u(t) − 0|.
Da un lato, il campo w dell’equazione (1.1) è generalmente altrettanto complicato di quello dell’equazione di
partenza; ed inoltre, siccome esso dipende dal dato (t̂0 , x̂0 ), il risultato che cosı̀ si ottiene si può applicare al solo
divario x(t) − x̂(t), e cioè allo studio della stabilità della sola specifica soluzione φ̂ : t &→ φ(t, t̂0 , x̂0 ).
Dall’altro, per enunciare
K i vari teoremi sulla stabilità è spesso più conveniente riferirsi ad equazioni scritte
nella forma L(1.1), ed in più questo modo di riscrivere il problema è già a metà strada nell’uso dello sviluppo
di Taylor... . Pertanto, in generale, gli enunciati dei teoremi sono relativi alla stabilità della soluzione nulla
t &→ φ(t, t̂0 , x̂0 ) = φ(t, t̂0 , 0) = 0 (che si suppone esistere per ogni t a partire almeno da t̂0 ) dell’equazione
Tuttavia ciò non avviene, in particolare, per la seguente forma di stabilità, che viene valutata a partire da
una forma di divario diversa da quello detto sopra. Per essa, verrà data la definizione di stabilità relativa ad una
qualsiasi soluzione, non necessariamente la quiete). ♦
N.B. 4.1.3 Generalmente si è interessati a studiare la stabilità “in avanti”, e cioè per tempi t successivi ad un
certo prefissato t0 . È pertanto naturale fare riferimento alle
Semiorbite := γ + = γ + (t0 , x0 ) := {φ(t, t0 , x0 )}t≥t0 .
A questo proposito si ricordi che la loro appartenenza ad un insieme compatto dello spazio delle fasi M è condizione
sufficiente affinché la corrispondente soluzione t &→ φ(t, t0 , x0 ) di un’equazione autonoma esista per ogni t > t0 ,
(vedi la seconda proposizione del §III.4]). Tuttavia può essere di interesse anche lo studio della stabilità di
soluzioni le cui semiorbite γ + siano non limitate, e la cui esistenza globale sia quindi provata in altro modo. ♦
Fissata una distanza nello spazio delle fasi M, ad esempio la distanza euclidea standard, per ogni ε > 0 resta
+ +
definito un intorno Bε ( γ̀ ) della semiorbita γ̀ := {φ(t, t̂0 , x̂0 )}t≥t̂0 mediante la:
'
+ ' +
Bε ( γ̀ ) := {x ∈ Rn ' d(x, γ̀ ) < ε},
ove si è indicata con d : M × 2M → R+ ∪ {0} , data da d(x, Γ) := inf y∈Γ d(x, y), la distanza di un punto x ∈ M
da un insieme Γ dello spazio delle fasi.
Si definisce:
M. Lo Schiavo
4.1. La stabilità lineare 191
Stabile secondo Poincarè (o orbitalmente) := una soluzione x̂ : t &→ x̂(t) := φ(t, t̂0 , x̂0 ), esistente per ogni
+
t ≥ t̂0 , e la cui semi-orbita γ̀ := {φ(t, t̂0 , x̂0 )}t≥t̂0 è tale che, dato ε > 0 , esiste un δ(ε) > 0 per il quale la
soluzione x : t &→ x(t) := φ(t, t0 , x0 ) uscente da un qualsiasi x0 ∈ Bδ (x̂0 ) esiste per ogni t > t0 ed ha semiorbita
γ + := {φ(t, t0 , x0 )}t≥t0 contenuta in Bε ( γ̀ + ) .
°+
x0
°b+
x0
b
x
²
y
In questa definizione, gli istanti t0 e t̂0 hanno il solo scopo di individuare l’insieme Bδ (x̂0 ) e quindi le
+
semiorbite γ + ed γ̀ ; in più, nel caso di sistemi autonomi, essi possono essere fissati arbitrariamente.
Le condizioni richieste dalla definizione data si possono agevolmente verificare se si introduce la seguente nozione
di Divario fra due insiemi
D (A, B) := sup d(x, B) := sup inf d(x, y), A, B ∈ 2M .
x∈A x∈A y∈B
N.B. 4.1.4 Si noti l’asimmetria della funzione D : generalmente D (A, B) ̸= D (B, A) e ciò implica che D non
sia una distanza, (potrebbe esserlo l’inf{D (A, B), D (B, A)} ). Essa inoltre è diversa da altre, più usuali, nozioni
di divario fra insiemi. Ad esempio due rette non parallele hanno D = ∞ anche nel caso in cui esse siano incidenti.
°1
°2
D (°1 ,°2)
D (A,B)
D (B,A)
D(
°2
,° 1
A
)
Affinché γ̀ + sia orbitalmente stabile deve avvenire che, dato ε esista δ tale che
+
x0 ∈ Bδ (x̂0 ) =⇒ D ( γ + , γ̀ ) < ε ,
+
e quindi che per ogni x ∈ γ+ si abbia d(x, γ̀ ) < ε , ciò che comporta l’esistenza di almeno un x̂ ∈ γ̀ + tale che
x̂ ∈ Bε (x).
Per verificare tale condizione, dato x0 ∈ Bδ ( γ̀ +
) ed assegnate le due curve + e γ γ̀ +
ad esempio in forma parametrica e
tale da preservare il verso dei tempi crescenti: x = x(t), x̂ = x̂(τ ) , si dovrà innanzi tutto trovare, per ciascun t , il valore
' '
∆(t) := inf d(x(t), x̂(τ )) ≡ inf 'x(t) − x̂(τ )' ,
τ >t̂0 τ >t̂0
e poi, di questo, calcolare il sup per t > t̂0 . A tale scopo, se possibile, potrà essere utile trovare: τ = τ (t) tale che
) *
d d
(x(t) − x̂(τ ))2 = 0 o anche x̂(τ ) · (x(t) − x̂(τ )) = 0 ,
dτ dτ
e cioè quel valore per il quale il vettore differenza x(t) − x̂(τ ) risulta ortogonale alla tangente a (e non a γ̀ γ) nel punto x̂(τ (t)) .
Successivamente, occorre controllare che:
' '
γ γ̀
D ( +,
+
) ≡ sup ∆(t) = sup 'x(t) − x̂(τ (t))' sia minore di ε .
t>t̂0 t>t̂0
) *
x
I seguenti esempi si riferiscono ad equazioni autonome in R ; in essi si indicherà con x :=
2
il vettore
y
in R2 che, rispetto all’assegnata base, ha componenti x, y ∈ R. Si indicherà poi con t &→ x̂(t) := φ(t, 0, x̂0 ) la
soluzione di riferimento (non necessariamente nulla) della quale si studierà la stabilità orbitale, con la particolare
scelta t0 = 0 .
) * ) * ) *
ẋ x x0
Esempio 4.1.6 ẋ := = =: v(x) ; x0 := ∈ R2 , a > 0.
ẏ ay y0
) * ) * ) t*
x0 et x̂0 x̂0 e
Le soluzioni sono: x(t) = . Si consideri x̂0 = con x̂0 > 0 . Risulta x̂(t) = , e quindi
y0 eat 0 0
) *
'
γ̀ + = {(x̂, y(x̂)) ' x̂ ≥ x̂0 , ŷ = 0} . Si consideri poi la la semi traiettoria che evolve da un generico x0 = xy0
' 0
con x0 > 0 . Posto c := y0 /xa0 essa ha equazione γ + = {(x, y) ' x > x0 ; y = cxa }. Per ciascuna curva di tale
famiglia risulta inf x̂≥x̂0 |x(x) − x̂(x̂)| = |cxa | e quindi si vede che, dato ε > 0 , non esiste alcun δ > 0 tale che
|x0 − x̂0 | < δ possa implicare |cxa | < ε per ogni t > 0 (e cioè per ogni x > x0 ).
y
#
) * ) * ) * ) *
ẋ y x0 r cos ϕ0
Esempio 4.1.7 ẋ := = ; x0 := =: 0 ∈ R2 .
ẏ −x y0 r0 sin ϕ0
) * ) *
+r0 cos(t − ϕ0 ) r̂ cos ϕ̂0 +
Le soluzioni sono: x(t) = . Si consideri x̂0 := 0 ; le curve γ + e γ̀ sono
−r0 sin(t − ϕ0 ) r̂0 sin ϕ̂0
circonferenze concentriche. In base alla ortogonalità dei raggi alle circonferenze, la funzione τ = τ (t) è quella per
la quale si ha t − ϕ0 = τ (t) − ϕ̂0 e quindi
') *'
' (r0 − r̂0 ) cos(t − ϕ0 ) '
sup |x(t) − x̂(τ (t))| = '' ' = |r0 − r̂0 |
t>0 (r0 − r̂0 ) sin −(t − ϕ0 ) '
che è indipendente da t. Basta allora porre |x0 − x̂0 | < ε per riconoscere che la soluzione x̂ (che, si noti, è
qualsiasi) è orbitalmente stabile. #
) * ) * ) *
ẋ +y(x2 + y 2 ) r0 cos ϕ0
Esempio 4.1.8 ẋ := = ; x 0 := ∈ R2 .
ẏ −x(x2 + y 2 ) r0 sin ϕ0
) * ) *
+r0 cos(r02 t − ϕ0 ) r̂0 cos ϕ̂0 +
Le soluzioni sono: x(t) = . Si consideri x̂ 0 := ; le curve γ + e γ̀ sono
−r0 sin(r02 t − ϕ0 ) r̂0 sin ϕ̂0
circonferenze concentriche. In base alla ortogonalità dei raggi alle circonferenze si ha r02 t − ϕ0 = r̂02 τ (t) − ϕ̂0 e
quindi ') *'
' (r0 − r̂0 ) cos(r02 t − ϕ0 ) '
sup |x(t) − x̂(τ (t))| = ' ' ' = |r0 − r̂0 |
t>0 (r0 − r̂0 ) sin −(r02 t − ϕ0 ) '
che è indipendente da t. Basta allora porre |x0 − x̂0 | < ε per riconoscere che la soluzione x̂ (che è qualsiasi) è
orbitalmente stabile. #
) * ) * ) *
ẋ c x0
Esempio 4.1.9 ẋ := = ; x0 := ∈ R2 .
ẏ 0 y0
) * ) *
ct + x0 x̂0 +
Le soluzioni sono: x(t) = . Si consideri x̂0 := ; le curve γ + e γ̀ sono rette parallele.
y0 ŷ0
Affinché x(t) − x̂(τ (t)) sia ortogonale a tali rette è necessario che ct + x0 = cτ (t) + x̂0 e cioè inf τ |x(t) − x̂(τ )| =
|y0 − ŷ0 | che è indipendente da t. Basta allora porre |x0 − x̂0 | < ε per riconoscere che la soluzione x̂ (che è
qualsiasi) è orbitalmente stabile. #
M. Lo Schiavo
4.1. La stabilità lineare 193
) * ) * ) *
ẋ y x0
Esempio 4.1.10 ẋ := = ; x0 := ∈ R2 .
ẏ 0 y0
) * ) *
y0 t + x0 x̂0 +
Le soluzioni sono: x(t) = . Si consideri x̂0 := ; le curve γ + e γ̀ sono rette
y0 ŷ0
parallele. Affinché x(t) − x̂(τ (t)) sia ortogonale a tali rette è necessario che y0 t + x0 = ŷ0 τ (t) + x̂0 e cioè
inf τ |x(t) − x̂(τ )| = |y0 − ŷ0 | che è indipendente da t. Basta allora porre |x0 − x̂0 | < ε per riconoscere che la
soluzione x̂ (che è qualsiasi) è orbitalmente stabile. #
) * ) * ) *
ẋ −x x0
Esempio 4.1.11 ẋ := = ; x0 := ∈ R2 .
ẏ +y y0
) −t * ; <
x0 e '
+t , e si hanno γ = (x, y) ' xx0 =
+ y0
Le soluzioni sono: x(t) = , oppure uno dei quattro semiassi
y
y0 e
) *
x̂0
coordinati. Si noti che le x decrescono al crescere del tempo. Si consideri x̂0 := , per esempio nel
ŷ0
primo quadrante. Anche se si usa la coordinata x come parametro per esprimere le traiettorie, la distanza
a ) *2
+ y0 x0 ŷ0 x̂0
∆(x) = d(x(x), γ̀ ) = inf 2
(x − x̂) + −
x̂<x̂0 x x̂
∆(t) := inf |x(t) − x̂(τ )| ≤ inf (|x(t) − σ(t, τ )| + |σ(t, τ ) − x̂(τ )|)
τ ≥0 τ ≥0
Successivamente si osserva che l’ inf τ ≥0 è a sua volta minore o uguale del particolare valore che si ottiene calcolando
l’argomento per un opportuno valore di τ ≥ 0 , per esempio quella che si ottiene scegliendo τ̃ tale che y0 et = ŷ0 eτ̃ ,
e cioè τ̃ (t) = t + ln(y0 /ŷ0 ), [ovvero
' anche x̂(x) =' ŷ0 x̂0 x/(y0 x0 ) purché
'0 y0 abbia 1 ' lo stesso segno di ŷ0 ]. Si ottiene
' −t x̂0 ŷ0 −t ' ' ŷ0 x̂0 '
cosı̀ ∆(t) ≤ |x(t) − x̂(τ̃ (t))| = 'x0 e − y0 e ' , ovvero ∆(x) = ' 1 − y0 x0 x' . Queste ultime decrescono al
crescere di t. Ne segue che tutte le traiettorie sono orbitalmente stabili ad eccezione di quelle contenute nella
retta y = 0 , ed in particolare che è instabile la quiete nell’origine.
y
¢(t)
b
x(¿)
e
x(t)
¾(t,¿) b
x(¿)
) * ) / * ) *
ẋ +y − x sin /x2 + y 2 x0
Esempio 4.1.12 ẋ := = ; x0 := ∈ R2 .
ẏ −x − y sin x2 + y 2 y0
In coordinate polari si ha che
1 d d
(ρ2 ) = −ρ2 sin ρ θ = −1 ,
2 dt dt
pertanto ρ̇ cambia segno per ρ = kπ , con k ∈ N, il che significa che si hanno cicli limite per questi valori di ρ;
essi saranno stabili se k è pari, ed instabili se k è dispari; tutte le altre traiettorie sono orbitalmente stabili. #
Si esaminino ora i seguenti grafici, nello spazio delle fasi ampliato, relativi ai precedenti esempi.
y y
t t
x x
Esempio 3 Esempio 4
x x
t t
y y
Esempio 5 Esempio 6
x
y Esempio 7
È facile convincersi che la stabilità orbitale è per molti aspetti troppo debole. Se si vuole che i punti rappre-
sentativi di x(t), x̂(t), e cioè i due stati relativi ad un medesimo istante, siano vicini fra loro e che ciò accada in
ogni medesimo istante è necessario ricorrere ad una forma più forte di stabilità.
Esempio
) *4.1.13
) (continua*l’esempio 4.1.8)
) *
ẋ +y(x2 + y 2 ) r0 cos ϕ0
ẋ := = ; x 0 := ∈ R2 .
ẏ −x(x2 + y 2 ) r0 sin ϕ0
) * ) *
+r0 cos(r02 t − ϕ0 ) r̂0 cos ϕ̂0
Le soluzioni sono: x(t) = . Si consideri x̂0 := e si scelgano, per semplicità,
−r0 sin(r02 t − ϕ0 ) r̂0 sin ϕ̂0
ϕ̂0 = 0 = ϕ0 . Ne segue che il divario fra i due stati relativi ad un medesimo istante è dato da
') *'
' +r0 cos r02 t − r̂0 cos r̂02 t '
|x(t) − x̂(t)| = '' '
−r0 sin r02 t + r̂0 sin r̂02 t '
B
= |(r0 − r̂0 )2 + 2r0 r̂0 (1 − cos(r02 − r̂02 )t)|
che è dipendente da t. Se ne conclude che per riuscire a limitare il divario per t > 0 e considerare x̂ stabile non
basta porre |x0 − x̂0 | < ε , a meno che sia r0 = r̂0 . In ogni altra eventualità, infatti, per piccolo che sia il divario
iniziale |xo − x̂0 |2 dopo un tempo sufficientemente lungo: T ∼ π(r02 − r̂02 )−1 , esso diviene dell’ordine di grandezza
di (r0 + r̂0 )2 . Ciò può essere accettabile solo se r̂0 ∼ 0 e cioè se si studia la stabilità della soluzione identicamente
nulla. #
Questo comportamento è ben diverso da quello dell’oscillatore armonico lineare (Esempio 3) per il quale la
frequenza non dipende dalle condizioni iniziali; è invece analogo a ciò che accade per il pendolo fisico. Analogamente,
per l’Esempio 5 si ha |x(t) − x̂(t)| = |x0 − x̂0 |, mentre per l’Esempio 6 è
/
|x(t) − x̂(t)| = (y0 − ŷ0 )2 (1 + t2 ) + 2(x0 − x̂0 )(y0 − ŷ0 )t + (x0 − x̂0 )2
che cresce con il tempo a meno che y0 = ŷ0 . Ciò avviene anche nell’Esempio 7:
/
|x(t) − x̂(t)| = (x0 − x̂0 )2 e−2t + (y0 − ŷ0 )2 e2t .
M. Lo Schiavo
4.1. La stabilità lineare 195
Allo scopo di formalizzare queste osservazioni, si consideri un sistema ẋ = v(t, x) con v : (t, x) &→ v(t, x) liscio
in D ∈ R × M, e, come si è accennato, si fissi una norma: |·| sullo spazio Rn che localmente rappresenta M.
Si definisce
Stabile, secondo Liapunov, su [t0 , ∞) := una soluzione x̂ : t &→ x̂(t) := φ(t, t̂0 , x̂0 ) avente intervallo di de-
finizione JM (x̂) ⊇ [t0 , ∞) ∪ [t̂0 , ∞) e tale che, dato ε > 0 , esiste δ(ε, t0 ) per il quale x0 ∈ Bδ (x̂(t0 )) implica
che ⎧
⎨ φ(t,t0 , x0 ) esiste per ogni t > t0 , ed è tale che
(1.2)
⎩ sup |φ(t, t0 , x0 ) − φ(t, t0 , x̂(t0 ))| < ε .
t≥t0
N.B. 4.1.14 Si osservi che la stabilità non dipende da t0 nel senso che: se x̂ : t &→ x̂(t) = φ(t, t̂0 , x̂0 ) è stabile
su [t0 , ∞) allora lo è anche su [t′0 , ∞), sempre che essa sia definita nell’intervallo fra i due istanti t0 , t′0 . In
altre parole: se esiste δ := δ(ε, t0 ) tale che |x0 − x̂(t0 )| < δ implica la (1.2), allora per ogni t′0 ∈ JM (x̂) esiste il
corrispondente δ ′ := δ ′ (ε, t′0 ) che assicura in t′0 una condizione analoga alla (1.2). Infatti, siccome |t0 − t′0 | < ∞,
la continuità delle applicazioni d’avanzamento rispetto al dato iniziale x′0 e la loro compositività: Gtt′ = Gtt0 Gtt′0
0 0
assicurano l’esistenza di un δ ′ tale che |x′0 − x̂(t′0 )| < δ ′ implica |x0 − x̂(t0 )| < δ ed |x(t) − x̂(t)| < ε per ogni t
fra i due istanti t′0 e t0 , (con t′0 & t0 ).
Pertanto la definizione di stabilità su [t0 , ∞) equivale alla richiesta che la (1.2) sussista per un qualsiasi arbitrario
t0 ∈ JM (x̂) . ♦
N.B. 4.1.15 La stabilità alla Liapunov è la continuità nel punto t0 , x̂0 (t0 ), ed uniforme rispetto a t ∈ [t0 , +∞),
della corrispondenza (t0 , x0 ) &→ φ(t, t0 , x0 ); [o anche: l’equicontinuità su [t0 , ∞) della famiglia di funzioni φ = φ(t, ·, ·) ]. ♦
N.B. 4.1.16 Nessuna soluzione degli Esempi 6 e 7 è stabile. Solo la soluzione nulla dell’Esempio 4 è stabile. Tutte
le soluzioni degli Esempi 3,5,8 sono stabili fatta eccezione, per quest’ultimo, per quelle con dati sulle traiettorie
r̂0 = (2k + 1)π . ♦
N.B. 4.1.17 Neanche la soluzione nulla dell’equazione ẋ = x2 (vedi: [Esempio 1]) è stabile. ♦
In questo secondo sistema di coordinate, naturalmente, l’equazione è del tipo dell’Esempio 5 e si ha pertanto
stabilità, ma non cosı̀ nelle coordinate (x, y), (ρ, φ). Se però la trasformazione di coordinate non dipende dal tempo
e se la metrica si trasforma in modo uniformemente continuo, la stabilità si conserva nell’intersezione delle due
carte. ♦
Tuttavia può accadere che δ ′ = δ(ε, t′0 ) ̸= δ(ε, t0 ), e può perfino succedere che δ(ε, t′0 ) → 0 per t′0 → ∞. È
noto il seguente
Esempio 4.1.19 La famiglia delle soluzioni di una equazione differenziale in R sia data da
c (c2 −1)t
φ(t, 1, x0 ) = e ,
t
2 7 8
con c = c(x0 ) tale che: x0 = ce(c −1)
∈ R. L’equazione è ẋ = c2 − 1 − 1/t x, t ≥ 1.
1
c>1
c<1 c=1
0
t
1
La soluzione t &→ x̂(t) = 0 uscente dal valore c = 0 ha “vicino” a sé, rispettivamente per |c| < 1 e per |c| > 1 ,
sia soluzioni x tali che limt→∞ |x(t)| = 0 , sia soluzioni per le quali limt→∞ |x(t)| = +∞. Il valore δ(ε, t0 ), che
garantisce la prima eventualità purché sia x0 ∈ Bδ (0), è senz’altro non maggiore di 1 per t0 = 1 , ma deve essere
non maggiore di 1/t0 per t0 > 1 , né basta che sia minore di ε , con ε > 0 piccolo a piacere ma fissato. #
Qualora sia possibile fissare definitivamente un qualche intervallo [β, ∞) ⊆ JM (x̂) sul quale la funzione δ(ε, ·)
ammetta estremo inferiore positivo, la x̂ risulta verificare la seguente definizione:
Uniformemente stabile su [β, ∞) := una soluzione t &→ x̂(t) := φ(t, t̂0 , x̂0 ) che sia stabile su [β, ∞) ⊆ JM (x̂),
e per la quale è possibile fissare il δ della stabilità indipendente dal particolare istante t0 , purché questo sia in
[β, ∞).
È chiaro che per sistemi autonomi (che sono invarianti per traslazioni sull’asse dei tempi) se una soluzione è
stabile essa sarà anche uniformemente stabile.
Asintoticamente stabile su [t0 , ∞) := una soluzione t &→ x̂(t) := φ(t, t̂0 , x̂0 ) che oltre che essere stabile è
anche tale da essere attrattiva.
Essa cioè è tale che, dato ε > 0 , esiste un δ(ε, t0 ) per il quale |x0 − x̂(t0 )| < δ implica che φ(t, t0 , x0 ) esiste
per ogni t > t0 ed è tale che ⎧
⎨ sup |φ(t, t0 , x0 ) − φ(t, t0 , x̂(t0 ))| < ε,
t≥t0
⎩ lim |φ(t, t0 , x0 ) − φ(t, t0 , x̂(t0 ))| = 0.
t→∞
Anche in questo caso, se δ può essere scelto indipendente da t0 , la asintotica stabilità è detta uniforme.
N.B. 4.1.20 Il seguente diagramma di fase mostra un esempio di punto di equilibrio attrattivo ma non stabile;
esso quindi non è asintoticamente stabile. Ciò può avvenire però solo per sistemi non lineari.
y
Degli Esempi 2-8 visti precedentemente solo le soluzioni con r ̸= (2k + 1)π dell’Esempio 8 sono asintoticamente
stabili.
N.B. 4.1.21 Per un sistema autonomo la stabilità della quiete in una posizione di equilibrio coincide con la stabilità
orbitale: infatti il parametro τ può sempre essere scelto uguale a t dato che x̂(τ (t)) = x̂(t) = xe . Pertanto, per
esempio nel caso dim = 2 , la stabilità dell’origine può essere “letta” dal diagramma di fase: un centro è stabile ma
non asintoticamente; un nodo o un fuoco sono asintoticamente stabili o non sono stabili; una sella non è stabile.
In ogni caso la stabilità è anche uniforme, data l’autonomia. ♦
Come si è detto nel N.B.1, studiare la stabilità della t &→ x̂(t) := φ(t, t̂0 , x̂0 ) equivale a studiare la stabilità della
soluzione nulla dell’equazione:
e si noti che la stabilità di u(t, t0 , x0 − x̂(t0 )) = 0 è la stessa, in generale, della sola soluzione x̂ dalla quale si era
partiti.
M. Lo Schiavo
4.1. La stabilità lineare 197
(anche se non necessariamente “genuinamente” lineari, e cioè omogenei) sussistono le seguenti proposizioni:
Proposizione 4.1.1 La stabilità della soluzione nulla dell’equazione omogenea associata: ẋ = T (t)x è la stessa di
ogni altra soluzione del sistema, sia omogeneo che non omogeneo.
Non cosı̀ per la limitatezza delle soluzioni. Ad esempio, si veda oltre, un sistema lineare non omogeneo (e cioè
un sistema non “genuinamente” lineare) può avere soluzioni non limitate e ciononostante stabili; si veda l’esempio
1.5 più sopra.
Dimostrazione Nel caso lineare il sistema u̇ = v(t, ŷ(t) + u) − v(t, ŷ(t)), che assegna la stabilità della (generica)
soluzione ŷ , non dipende dalla soluzione ŷ scelta, e cioè dai particolari (t̂0 , ŷ0 ) ∈ R × M. Infatti, detta y = ŷ + u
la soluzione variata della ŷ , per la funzione u si ha la
u̇ = v(t, ŷ(t) + u) − v(t, ŷ(t)) = T (t)ŷ(t) + T (t)u + b(t) − T (t)ŷ(t) − b(t) = T (t)u ,
e ciò a prescindere non solo da quale sia ŷ , soluzione di ẏ = T (t)y + b(t), ma anche da b = b(t). Se ne deduce che
la stabilità della soluzione nulla di quest’ultima è quella della (arbitraria) soluzione ŷ dell’equazione non omogenea.
"
Solo per sistemi lineari quindi si può parlare di stabilità del sistema e non solo di una sua specifica soluzione.
Si ricordi, a questo proposito, che per essi l’avere soluzioni definite per ogni t è una diretta conseguenza della
regolarità per t → ∞ dei coefficienti, cosa questa che nel seguito verrà sempre supposta.
N.B. 4.1.22 [continuazione del N.B.4.1.2] In riferimento a quanto si è già accennato nel N.B.4.1.2, si osservi che
la precedente proposizione è vera solo in quanto questo tipo di stabilità è costruito valutando il divario isocrono
|y(t) − ŷ(t)|. L’esempio 1.7, infatti, mostra che ciò non avviene nel caso della stabilità orbitale. ♦
Si ricordi poi che in uno spazio vettoriale a dimensione finita quale è L(V) e quelli ad esso isomorfi (fra i quali è
quello delle soluzioni dell’equazione Ẋ = T (t)X ) tutte le norme sono equivalenti fra loro. Pertanto un eventuale
cambio di base può cambiare (quando non ortogonale) il valore numerico della norma di un operatore, ma non può
mutarne le proprietà di limitatezza.
Osservazione.
La limitatezza di una (qualsiasi) matrice fondamentale ∥Φ∥∞ ≤ κ < ∞ equivale alla limitatezza di ogni soluzione
del sistema.
Infatti la condizione è certo sufficiente. Viceversa, se per ogni x0 finito si ha che ∥x∥∞ è finito, e cioè se per
ciascun x0 ∈ V la condizione |x0 | ≤ ℓ1 < ∞ è sufficiente ad assicurare che per ogni t ≥ t0 si ha
allora
? per ogni
? |x0 |/ℓ1 = |x0 /ℓ1 | =: |ξ| ≤ 1 si ha |Φ(t)Φ−1 (t0 )ξ| ≤ ℓ2 /ℓ1 per ogni t ≥ t0 . Ne segue
?Φ(t)Φ−1 (t0 )? ≤ ℓ2 /ℓ1 per ogni t ≥ t0 e quindi (moltiplicando per ∥Φ(t0 )∥ ) se ne ricava la ∥Φ∥ ≤ ∥Φ(t0 )∥ ℓ2 /ℓ1
∞
in virtù della ∥T1 T2 ∥ ≤ ∥T1 ∥ · ∥T2 ∥ .
Proposizione 4.1.1 Il sistema ẋ = T (t)x, x0 ∈ V, ed in particolare la soluzione nulla del sistema, è (almeno)
stabile su [t0 , ∞) se e solo se, detto Φ un suo sistema fondamentale, esiste 0 < κ0 < ∞ tale che ∥Φ(t)∥ ≤ κ0
per ogni t ∈ [t0 , ∞).
Ovvero: un sistema lineare omogeneo (e cioè genuinamente lineare) ha soluzioni (tutte) stabili se e solo se
(tutte) limitate.
Dimostrazione
(s ⇒ l) Per ipotesi esiste δ(ε, t0 ) tale che |x0 | < δ implica |Φ(t)Φ−1 (t0 )x0 | < ε per ogni t ≥ t0 . Una
dimostrazione analoga a quella fatta nell’Osservazione qui sopra, con ℓ1 ≡ δ ed ℓ2 ≡ ε , fornisce κ0 := ∥Φ(t0 )∥ ε/δ .
? ?? ? ? ?
(s ⇐ l) Se ∥Φ∥∞ < κ0 , per t ≥ t0 si ha |x(t)| ≤ ?Φ(t)? ?Φ−1 (t0 )? |x0 | ≤ κ0 ?Φ−1 (t0 )? |x0 |, e quest’ultimo è
? −1 ?−1 ? −1 ?−1
minore di ε purché sia |x0 | < δ(ε, t0 ) := ?Φ (t0 )? ε/κ0 . Si osservi che può essere ?Φ (t0 )? ≪ ∥Φ(t0 )∥ .
"
In effetti si è mostrato che l’esistenza di una conveniente κ0 = κ0 (t0 ), che renda vera la condizione
? ?
sup ∥Ψ(t, t0 )∥ ≡ sup ?Φ(t)Φ−1 (t0 )? ≤ κ0 (t0 ) ,
t≥t0 t≥t0
Dimostrazione
? ?
(us ⇒ κ̃) Come nella Osservazione, si ricava ?Φ(t)Φ−1 (σ)? ≤ ε/δ .
(us ⇐ κ̃) Come nella Proposizione 1 si può ottenere facilmente la stima |x(t)| ≤ κ̃|x0 | per t e t0 arbitrari purché
β ≤ t0 ≤ t. "
Dimostrazione
(ua ⇐ κ, α) Per la Proposizione 2, il sistema è uniformemente stabile, con κ̃ = κ. Esiste quindi il δ(ε, β) = ε/κ
della uniforme stabilità. Sia |x0 | < δ . Per ipotesi risulta
per t ≥ t0 ≥ β . Dato η > 0 piccolo a piacere, è allora sufficiente che sia t−t0 ≥ T con T tale che κe−αt δ := η ,
per ottenere che: |x(t)| ≤ η .
(ua ⇒ κ, α) Per ipotesi, esiste δ(ε, β) > 0 tale che: t ≥ t0 ≥ β ed |x0 | < δ implicano |x(t)| < ε . Inoltre, dato
comunque η > 0 esiste T(ε, η, β) per il quale t ≥ t0 + T implica |x(t)| < η . Mediante ? quest’ultima
? stima, e
procedendo come nella Osservazione, con ℓ1 = δ ed ℓ2 = η si ottiene la valutazione ?Φ(t)Φ−1 (t0 )? ≤ η/δ purché
t ≥ t0 + T , e non lede la generalità supporre η/δ < 1 . La condizione di uniformità, e cioè l’indipendenza di δ e di
T da t0 , garantisce poi che:
? ?
• ∥Ψ(σ + T, σ)∥ = ?Φ(σ + T)Φ−1 (σ)? ≤ η/δ per qualunque σ ≥ β ;
? ?
• esiste ed è finito, anche se può essere grande, κ̃(ε, β) > 0 tale che: ?Φ(t)Φ−1 (σ)? < κ̃ per ogni t ≥ σ ≥ β .
M. Lo Schiavo
4.1. La stabilità lineare 199
Si pongano α e κ tali che η/δ =: e−αt , κ̃ =: κe−αt ; e sia m ∈ N tale che t − t0 ∈ [mT, (m + 1)T].
Risulta, con σ := t0 + (m − 1)T ,
? ? ? ? ? ?
?Φ(t)Φ−1 (t0 )? ≤ ?Φ(t)Φ−1 (t0 + mT)? ?Φ(t0 + mT)Φ−1 (t0 )?
? ?
≤ κ̃ ?Φ(t0 + mT)Φ−1 (t0 )?
? ?
=: κ̃ ?Φ(σ + T)Φ−1 (σ)Φ(σ)Φ−1 (t0 )?
? ?
≤ κ̃η/δ ?Φ(t0 + (m − 1)T)Φ−1 (t0 )?
≤ ···
0 η 1m
≤ κ̃ = κ̃(e−αt )m =: κ(e−αt )m+1 ≤ κe−α(t−t0 ) .
δ
? ?
In breve: l’evoluzione contrae, quindi dopo una durata T si ha una riduzione valutabile con ?Φ(σ + T)Φ−1 (σ)? ≤
η/δ , e questo è uniforme, cioè accade definitivamente per σ ≥ β , e senza che δ dipenda da σ . Se allora si misura
l’ascissa temporale t a passi T , e si sceglie α tale che η/δ =: e−αt , si ha che la crescita della norma, essendo limitata
da κ̃(η/δ)m , è valutabile da κ̃ =: κe−αt nell’intervallo [t0 + mT, t], e da m fattori e−αt su [t0 , t0 + mT]. Al
crescere di m si descrive tutto R. T dipende dalla velocità di convergenza fissata da η e non da t0 . L’andamento
esponenziale proviene dalla struttura di prodotto delle Φ. "
Nel caso particolare di sistemi lineari a coefficienti costanti: ẋ = T x, dalle Proposizioni precedenti si deduce
che: (
ℜe λ ≤ 0 per ogni a-valore di T
ẋ = T x è stabile (almeno) se e solo se
ℜe λ = 0 solo con divisori semplici
ẋ = T x è asintoticamente stabile se e solo se ℜe λ < 0 per ogni a-valore di T ;
tutto ciò in modo uniforme, data l’autonomia.
Le precedenti considerazioni mostrano che la stabilità di ẏ = T (t)y + b(t) è determinata dalla sua parte
omogenea, e quindi prescinde dal termine forzante, anche se questo dovesse portare a soluzioni non limitate, vedi
l’Esempio 5 per il quale il sistema omogeneo è ẋ = 0 , ed è quindi stabile. Diverso è invece il caso dell’Esempio
6 nel quale il sistema è già omogeneo, ma la radice λ = 0 ha (molteplicità due e) divisori non semplici. Se ne
deduce, ad esempio, che il moto di un elemento materiale pesante libero nel vuoto non è stabile.
Sono stabili, se ω 2 > 0 , tutte le soluzioni dell’equazione ẍ + ω 2 x = f (t) pur potendo risuonare. Viceversa
l’equazione di Hill: ẍ + (c + p(t))x = 0 con p periodica, che è omogenea, ha soluzioni stabili (almeno) se e solo
se sono limitate; anzi, l’essere reciproco dà l’impossibilità di avere le soluzioni che siano asintoticamente stabili, e
pertanto per l’equazione di Hill la stabilità semplice equivale alla limitatezza delle soluzioni.
Proposizione
.∞ 4.1.5 Se ẋ = T (t)x, x0 ∈ V, è uniformemente stabile su [β, ∞),
e se β
∥B(t)∥ dt < ∞ con B : t &→ B(t) ∈ L(V), B ∈ C ([β, ∞)) ,
allora ẋ = (T (t) + B(t))x è anch’esso uniformemente stabile su [β, ∞).
Dimostrazione Indicando con Φ un qualsiasi sistema fondamentale del sistema (omogeneo) ridotto ẋ = T (t)x
si ha - t
x(t) = Φ(t)Φ−1 (t0 )x0 + Φ(t)Φ−1 (τ )B(τ )x(τ )dτ ;
t0
"
Questo è il caso, ad esempio, se T e B , entrambi costanti, sono tali che ℜe λ(T ) < 0 e che ∥B∥ < ∥T ∥B,max ,
con B la base ε -quasi propria di T . Allora si ha χ = ∥B∥.
Dimostrazione Per l’uniforme ed asintotica stabilità di ẋ = T (t)x si ha:
- t
|x(t)| ≤ κe−α(t−t0 ) |x0 | + κe−α(t−τ ) ∥B(τ )∥ |x(τ )|dτ,
t0
da cui
|x(t)| ≤ |x0 |κ exp (−(α − κχ)(t − t0 ) + κσ) .
"
Contrariamente ai casi visti, nei quali le equazioni esaminate erano lineari, lo studio della stabilità della soluzione
nulla di un generico sistema non lineare
ẋ = v(t, x) , x ∈ M, v(t, 0) = 0, ∀t ≥ t0
Teorema 4.1.1 (1 o teorema di Liapunov sulla stabilità lineare) Sia T : t &→ T (t) ∈ L(V ≡ T0 M), T ∈
C 0 ([β, ∞)) .
Sia ẋ = T (t)x, x0 ∈ V, uniformemente ed asintoticamente stabile su [β, ∞) .
Se h ∈ C 0 ([β, ∞) × N (0)) è tale che lim|x|→0 |h(t,x)|
|x| =0 uniformemente per t ∈ [β, ∞), e cioè: se,
dato ε > 0 , esiste δ(h) = δ(h) (ε, β) > 0 tale che quando |x| < δ(h) e t ≥ β accade che |h(t, x)| < ε|x|,
allora: la soluzione nulla di ẋ = T (t)x + h(t, x) esiste per t ≥ β ed è uniformemente ed asintoticamente stabile
su [β, ∞).
Dimostrazione Per ipotesi esistono α, κ > 0 , dipendenti al più da β e dalle tolleranze ε̃ richieste dalla sta-
bilità
? del sistema
? omogeneo ridotto ẋ = T (t)x (del quale si è chiamato Φ un sistema fondamentale), tali che
?Φ(t)Φ−1 (τ )? ≤ κe−α(t−τ ) . Ciò permette la stima
- t
−α(t−t0 )
|x(t)| ≤ κe |x0 | + κe−α(t−τ ) |h(τ, x(τ ))| dτ.
t0
Si fissi ora ε ≤ ε̃ tale che α > κε, e sia |x0 | < δ(h) (ε, β). Sia poi t > t0 l’estremo superiore degli istanti τ ∈ [t0 , t]
per i quali |x(τ )| < δ(h) , (e quindi certamente |h(τ, x(τ ))| < ε|x(τ )|). Si ha
- t
|x(t)| ≤ κe−α(t−t0 ) |x0 | + κe−α(t−τ ) ε|x(τ )|dτ.
t0
M. Lo Schiavo
4.1. La stabilità lineare 201
Ma è stato fissato α − εκ > 0 e quindi, purché si scelga |x0 | < min {δ(h) /κ, δ(h) } , risulterà senz’altro |x(t)| < δ(h)
e ciò per ogni t > t0 . Il teorema del prolungamento implica infine l’esistenza della soluzione per ogni t > t0 . "
N.B. 4.1.25 Il risultato è locale in x nel senso che la stabilità che si dimostra è solo quella della soluzione nulla
del sistema. Inoltre si osservi che la richiesta proprietà di stabilità è stata qui mostrata usando come tolleranza sul
dato iniziale quel δ(h) per il quale |h(t, x)| < ε|x|. Tale δ(h) va paragonato con le tolleranze δε richieste per la
stabilità. ♦
.N.B.
∞
4.1.26 È valido anche il seguente enunciato (vedi: [Cesari § 6.2]) Se h è tale che |h(t, x)| < |c(t)||x| con
β |c(t)|dt < ∞ allora l’origine è uniformemente stabile per ẋ = T (t)x e la soluzione nulla di ẋ = T (t)x + h(t, x)
è uniformemente stabile; essa inoltre è anche asintoticamente stabile se tale era la soluzione nulla di ẋ = T (t)x.
♦
N.B. 4.1.27 Le proprietà richieste alla funzione h affinché sussista il precedente teorema sono più forti di quelle
che sono senz’altro garantite dal teorema della media quando il campo T (t)u + h(t, u) viene calcolato a partire da
un generico v = v(t, x), v ∈ C 0 (R × M) ∩ C 1 (M), mediante le:
⎧
⎪ u : = x − x̂, u0 = (x0 − x̂0 )
⎪
⎪
⎨ w(t, u) : = v(t, x̂(t) + u) − v(t, x̂(t)) =: T (t)u + h(t, u),
⎪
⎪ T (t) = v∗ (t, x̂(t)) ≡ w∗ (t, 0),
⎪
⎩
h(t, u) : = w(t, u) − w∗ (t, 0)u.
Infatti, in tal caso, sulla funzione h si sa solo che |h(t, u)| = o(|u|) limitatamente ai compatti β ≤ t ≤ T < ∞.
Vi sono però degli importanti casi in cui la h ottenuta in tal modo riesce a verificare le ipotesi necessarie a che
il teorema sussista. In particolare, esse sussistono se la parte lineare di un sistema a campo liscio e autonomo ha
punto di equilibrio che è un pozzo, in tal caso risulta un pozzo anche il punto di equilibrio del sistema non lineare.
Inoltre, esse sussistono quando sia il campo v che la soluzione x̂ sono costanti o periodiche. Tuttavia, se il campo
della linearizzata è costante e la soluzione di riferimento periodica, il fatto che essa ammetta n − 1 moltiplicatori
negativi (oltre a quello nullo relativo alla soluzione periodica) non garantisce l’asintoticità alla Liapunov, ma solo
quella orbitale: la soluzione variata tende alla x̂ ma con uno sfasamento finito ([Coddington § 13.2]). ♦
Divagazione
Quest’ultima considerazione si può perfezionare. Verrà qui accennato (seguendo Arnold 1) il caso dei sistemi
lineari a coefficienti costanti, e richiamati due importanti risultati sui non lineari. Il metodo di dimostrazione è
di tipo “diretto” (vedi oltre).
Punto n o 1. Qualunque
⎛ sia l’operatore
⎞ T ∈ L(V), esso ammette una base ε -quasi propria reale nella quale T
(1)
Jε 0
ha matrice: τ ε := ⎝ .. ⎠ ove le varie Jε(h) sono del tipo (rispettivamente nel caso di autovalori reali
. (k)
0 Jε
o complessi) ⎛ ⎞ ⎛R ⎞
λ ε 0 µ ε 1I2 0
⎜ .. . ⎟ ⎜ .. .. ⎟
⎜
⎜ . .. ⎟
⎟
⎜
⎜ . . ⎟
⎟
⎜ ⎟ oppure ⎜ ⎟
⎝ .. ..
. ε⎠ ⎝ . ε 1I2 ⎠
R
0 λ 0 µ
con ε ) * a piacere, λ autovalore reale, µ =: α + iβ autovalore complesso dell’operatore T , e con
> 0 piccolo
α −β
R
µ := . Essa si ottiene dividendo ciascun versore della base di Jordan per il numero εk essendo k
β α
l’indice di “livello” dell’autovettore generalizzato nella catena di Jordan cui esso appartiene: k è massimo per gli
autovettori, e vale zero per i vettori iniziali delle catene nel Ker(T − λj 1I )qj .
Punto n o 2. Chiamata B := {ϵ1 , . . . , ϵn } la base definita nel punto precedente, essa è tale che (K B )hk =
⟨ ϵh , ϵk ⟩ B = ⟨ eh , ek ⟩ = δhk = κ hk . Rispetto ad essa la B-lunghezza di x risulta
ν
= ν+τ
=
r2 = r2 (x) := ⟨ x, x ⟩ B = (ξ i )2 + (ξ&i )2 + (&
η i )2
i=1 i=ν+1
ove (vedi Cap II) si intendono presenti ν autosoluzioni reali {λj }j=1,...,ν e τ coppie di autosoluzioni complesse
{µh , µ̄h }h=ν+1,ν+τ , e quindi ν +2τ = n, non tutte necessariamente distinte; e dove si sono indicate con (ξ 1 , . . . , ξ ν )
le B-componenti (reali) di x nello span{ϵ1 , . . . , ϵν } dei (nuovi) autovettori generalizzati relativi agli autovalori reali,
e con {(ξ&k , η&k )}k=ν+1,...,ν+τ le B-componenti (reali) di x nella parte reale R- span{xµ , yµ } dello span complesso
dei (nuovi) autovettori generalizzati {ϵµk , ϵµk }k=ν+1,...,ν+τ relativi alle coppie autovalori complessi coniugati.
Ne segue che, per costruzione, le B-coordinate di T x sono della forma, ad esempio,
0 1
T x = (λ1 ξ 1 + εξ 2 , λ1 ξ 2 + εξ 3 , . . . , λ1 ξ q1 , . . . , (α1 ξ&1 − β1 η&1 ), (β1 ξ&1 + α1 η&1 ), . . . )
B
ν
= ν+τ
= 0 1
Q ε (ξ) = λ(i) (ξ i )2 + ℜe µ(i) (ξ&i )2 + (&
η i )2 + O(ε)
i=1 i=ν+1
C
Punto n o 3. Le forme quadratiche su Rn : Q (x) ≡ h k
h,k x Bhk x , (ove Bhk è una matrice simmetrica
reale n × n) sono funzioni continue. Ciò comporta che: le Forme quadratiche non degeneri, cioè quelle con rango
massimo (ed uguale ad n), sono un insieme aperto nello spazio delle Q reso metrico ad esempio dalla norma:
∥Q ∥ := maxh,k |Bhk |. In particolare è aperto il loro sottoinsieme di quelle di segno definito. [Infatti: sia ad
? ?
esempio Q definita positiva. È strettamente positivo il valore m := min∥x∥=1 |Q (x)| . Se allora ? Q ′ − Q ? < η < m/n2 , sulla
' ′ '
superficie della sfera unitaria si ha 'Q (x) − Q (x)' < n2 η < m e quindi anche Q ′ è definita positiva. La separazione di Rn nei due
sottospazi sui quali Q è separata in parte positiva e parte negativa garantisce l’asserto].
Pertanto se
ν
= ν+τ
= 0 1
Q 0 (ξ) := λ(i) (ξ i )2 + ℜe µ(i) (ξ&i )2 + (&
η i )2
i=1 i=ν+1
ha segno definito, si può scegliere ε tanto piccolo da far sı̀ che anche la Q ε qui sopra sia di segno definito, e del
medesimo segno di quello di Q 0 .
M. Lo Schiavo
4.1. La stabilità lineare 203
Punto n o 4. Dal Punto 3 segue che se esistono c1 , c2 ∈ R tali che: c1 < ℜe λ < c2 < 0 per tutti gli autovalori
(reali o complessi) di T , non solo risulta definita negativa la forma Q 0 , ma lo è anche la Q ε .
d 2
Posto: r2 := ⟨ x, x ⟩ B , dall’uguaglianza dt r := LT x (r2 ) = 2 ⟨ x, T x ⟩ B = 2Q ε (x) si deduce che le soluzioni
dell’equazione ξ̇ = τ ε ξ rappresentano quelle di ẋ = T x e verificano la stima
1 d 2
c1 r 2 ≤ r ≤ c2 r 2 < 0 che implica ec1 t |x0 |B ≤ |x(t)|B ≤ ec2 t |x0 |B .
2 dt
In tal modo, mediante la norma ∥T ∥B,max := maxi,j (| τ ε ij |), ove B è la base ε -quasi propria per T , (e quindi
? ?
gli τ ε ij sono gli elementi della matrice τ ε introdotta al Punto 1), si ottiene la stima ?etT ?B,max ≤ ec2 t . In
particolare ciò mostra che le costanti κ ed α viste nel teorema 1 sono, per il caso T (t) = cost ed in questa norma,
rispettivamente 1 e −c2 .
Si noti che la relazione sulle B-lunghezze: |x(t)|B < |x0 |B , valida come si è visto per t > 0 e perché c2 < 0 ,
può non essere vera, per ogni t > 0 , sulle lunghezze nella base originaria.
Punto n o 5. L’ipotesi c1 < ℜe λ < c2 < 0 comporta che la funzione ln r2 (x) ≡ ln ⟨ x, x ⟩ B sia monotona
decrescente in quanto con derivata minore di 2c2 < 0 . Pertanto, qualunque sia il punto x(t0 ) = x̃0 , esiste ed è
γ := {x̃(t) := φ(t, t0 , x̃0 )}t∈R è tale da avere r2 (x̃(τ )) = ⟨ x̃(τ ), x̃(τ ) ⟩ B =
unico l’istante τ ∈ R in cui la traiettoria U
1 . Si ha cioè che ogni traiettoria non banale attraversa, in uno ed un solo suo punto: x0 , la superficie sferica S di
centro il punto di equilibrio x = 0 e raggio r = 1 , (in coordinate B).
Punto n o 6. I due sistemi ẋ = T x, ed ξ˙ = −ξ , entrambi lineari, ammettono una funzione f : x &→ ξ = f (x)
che ne coniuga i flussi. Essa è definita dalla
f (eT t x0 ) := e−t1I f (x0 ) , f (0) = 0, ξ0 := f (x0 ) := x0 ,
ove x0 è un qualunque punto della superficie sferica S . Inoltre, f è un omeomorfismo, esso infatti è un “morfismo”
per quanto detto al punto precedente e per il teorema di esistenza ed unicità, ed è un “omeo” per il teorema di
dipendenza continua.
[Il fatto che nell’origine si perda la differenziabilità impedisce alla f di essere un “diffeo” di rettificazione (radiale). Si ricordi a
questo proposito che ξ = xa con a ̸= 1 non è una trasformazione di coordinate in quanto o la funzione o la sua inversa sono non
differenziabili in zero].
Il non essere f un diffeomorfismo conferma il fatto che né la medesima segnatura degli autovalori degli operatori di campo, e
nemmeno i medesimi autovalori, bastano ad assicurare l’equivalenza (differenziale e quindi lineare) tra due sistemi ẋ = T1 x ed
ẋ = T2 x , T1 , T2 ∈ L(V) , per la quale è necessaria la similitudine fra le rispettive matrici. [Infatti (vedi anche [Arnold 1 §21]) i due
sistemi sono linearmente coniugati quando sono trasformati da un isomorfismo non singolare, e cioè quando esiste H ∈ L(V) invertibile
e tale che He τ 1 t H−1 = e τ 2 t ].
Punto n o 7. L’esistenza dell’omeomorfismo f comporta che il sistema dato risulti topologicamente coniugato
al sistema “rettificato”: ξ˙ = −ξ , e ciò, data la sua linearità, in modo globale nello spazio delle fasi. A sua volta ciò
implica facilmente che una qualsiasi coppia di sistemi ẋ = T1 x ed ẋ = T2 x, T1 , T2 ∈ L(V), sono (globalmente)
topologicamente coniugati quando hanno (la stessa dimensione e) ℜe λ < 0 per ogni loro autovalore λ.
Punto n o 8. Ricordando la definizione di sella- k si noti che per un sistema lineare ẋ = T x l’origine è una
sella- k quando l’operatore T , avendo tutte le parti reali degli autovalori non nulle, ne ammette di esse k ≥ 0
positive. In tale eventualità esiste un operatore invertibile )P ∈ L(V)*(e siano T e P le matrici di T e di P ,
T+ 0
rispettivamente, nella {e} -base data) tale che P −1 T P = con T+ una matrice k × k con tutti gli
0 T−
autovalori aventi ℜe λ > 0 , ed T− una matrice (n − k) × (n − k) con tutti gli autovalori aventi ℜe λ < 0 . In
particolare P può coincidere con la {e} -matrice della base ε -quasi propria vista nel Punto 1.
Dette ξ = P −1 x le coordinate in tale base ed x quelle nella base data, è evidente che lo spazio lineare
; ' <
'
V+ := x ' x = P ξ+ , ξ+ = (ξ 1 , . . . , ξ k , 0, . . . , 0)T
è un sottospazio k -dimensionale di V, invariante rispetto all’operatore T (varietà instabile del punto di equilibrio),
ed analogamente lo è lo spazio V− complementare di V+ . Ma per il Punto 7 esistono due omeomorfismi ) f− *ed
1Ik 0
f+ , definiti su V− ed V+ rispettivamente, che coniugano il sistema dato con uno avente matrice ;
0 −1In−k
e ciò implica che
Viceversa, sempre che il punto xe sia iperbolico, e cioè tale che tutti gli autovalori dell’operatore T hanno
parti reali non nulle, sussiste anche l’affermazione inversa: se i due flussi lineari sono coniugati l’omeomorfismo di
coniugio conserva il limite per t → ∞ e (quindi) conserva i sottospazi V+ , V− , varietà stabile ed instabile dei due
sistemi, e cioè trasforma in modo biunivoco e bicontinuo ciascuno di essi nel suo corrispondente senza pertanto
mutare la struttura di sella-k .
Punto n o 9. Definendo gli intorni degli operatori lineari mediante la norma ∥·∥B,max vista sopra, si ha che nello
spazio L(Rn ) l’insieme degli operatori semisemplici (:= diagonalizzabili nel campo complesso) non è, ma contiene
un insieme denso e aperto in L(V). Analoga proprietà è posseduta dall’insieme degli operatori che hanno tutti
gli autovalori diversi fra loro. In effetti è denso e aperto l’insieme degli operatori che hanno tutti gli autovalori
diversi fra loro e con ℜe λ ̸= 0.
[Si ricordino le definizioni di: Insieme denso, la sua chiusura contiene lo spazio; e di Insieme aperto, è fatto tutto da punti interni.
Pertanto, se un insieme è denso ed aperto, in un qualsiasi intorno di un punto che non appartiene all’insieme si trovano punti dell’insieme,
i quali sono contenuti in intorni fatti tutti da punti dell’insieme, e ciò preclude al complementare di essere denso. Pertanto: se un
insieme di punti di uno spazio metrico ne contiene uno denso ed aperto, o più debolmente, ne contiene uno Insieme residuo (e
cioè un’intersezione numerabile di insiemi densi ed aperti) si dice che quell’insieme è un Insieme generico nello spazio ospite. Ad
L
esempio, gli operatori lineari con ℜe λ ̸= 0 sono generici in L(V) .
Ciò che si è fatto vedere sopra è che i sistemi lineari autonomi con ℜe λ ̸= 0 (e quindi genericamente in L(V))
si possono raggruppare in classi di equivalenza ciascuna delle quali costituita dai sistemi che hanno una sella dello
stesso ordine, e che pertanto sono topologicamente coniugati gli uni con gli altri; essi inoltre si possono considerare
variati, l’uno rispetto all’altro, mediante perturbazioni lineari autonome tali da non modificare la segnatura delle
ℜe λ.
Si chiama: persistenza delle selle- k relativamente ad una famiglia F di campi il fatto che un certo punto xe
non solo sia di equilibrio per una qualunque delle equazioni ẋ = f (x), con f in F , ma in particolare che esso sia
una sella- k , per uno (stesso) k . Come si è visto, tale persistenza (ed in più l’esistenza del coniugio fra i flussi)
sussiste relativamente a campi lineari autonomi ed aventi le ℜe λ tutte non nulle e con la stessa segnatura.
In tal senso si ha che nodi e fuochi, purché con le stesse caratteristiche di stabilità, sono “indistinguibili”.
Punto n o 10. La persistenza delle selle- k vale, ben più in generale, anche relativamente a campi non lineari
(e perfino non autonomi) purché con parte lineare v∗ (xe ) avente autovalori con ℜe λ ̸= 0 (o, se periodica,
con esponenti caratteristici: ℜe η ̸= 0 ), e parte perturbativa continua, anche non lineare purché opportunamente
piccola. Per completezza viene qui richiamato, [Hale §III.6], l’enunciato del teorema di persistenza delle selle- k
(o della “varietà stabile”) valido per sistemi autonomi con campo almeno differenziabile e punto di equilibrio
iperbolico.
Sia η : [0, ∞) → R+ ∪ {0}, η(0) = 0 , continua, non decrescente; e sia
; '
'
Lip(η) := h ∈ C 0 (Cn ) ' h(0) = 0, ed
<
|h(x) − h(y)| < η(τ )|x − y|, per ogni |x|, |y| ≤ τ ∈ R+
[La condizione è verificata se h ∈ C 1 con h∗ (0) = 0 , ed è più forte di quella di Lipschitz semplice, per la quale basta che sia η = cost .
Quest’ultima a sua volta, quando h(0) = 0 , implica ma non equivale alla |h(x)| ≤ cost |x| . Entrambe, salvo per il comportamento
tangente delle varietà, sono sufficienti al teorema. La condizione h(x) = o(|x|) è anche lei meno forte della Lip(η) perché implica
|h(x)| < η(τ )|x| ma non lo estende alle coppie x, y; con essa il comportamento tangente si riesce a provare, ma non è più garantita la
condizione sulle dimensioni.]
Teorema 4.1.1 Sia dato un sistema ẋ = T x, con x0 ∈ V, che abbia una sella- k nell’origine. Allora, per ogni
h ∈ Lip(η), il sistema ẋ = T x + h(x)
(i) ha anch’esso una sella- k nell’origine;
s u
(ii) ammette due varietà differenziabili Wloc , Wloc , trasversali nell’origine, di dimensioni n − k e k rispettiva-
mente:
s
Wloc = {(x, f s (x))}x∈N (0)∩Vs ed u
Wloc = {(x, f u (x))}x∈N (0)∩Vu
entrambe grafico di altrettante funzioni differenziabili f s : Vs → Rk ed f u : Vu → Rn−k definite
rispettivamente sui due sottospazi invarianti Vs ed Vu con i quali il sistema lineare ripartisce V ≡ T0 M;
(iii) le due varietà sono rispettivamente tangenti ai corrispondenti autospazi del sistema lineare;
(iv) esistono certi κ1 , κ2 ∈ R+ per i quali
(
∀x0 ∈ W s si ha che |x(t)| ≤ κ1 e−κ2 t |x0 |, ∀t ∈ [0, +∞)
u +κ2 t
∀x0 ∈ W si ha che |x(t)| ≤ κ1 e |x0 |, ∀t ∈ (−∞, 0] .
M. Lo Schiavo
4.1. La stabilità lineare 205
(v) le due varietà sono invarianti (rispettivamente nel verso t > t0 e t < t0 ) giacché:
(
∀x0 ̸∈ W s si ha che |x(t)| ̸∈ N (0), per qualche t̄ < +∞ ,
f orallx0 ̸∈ W u si ha che |x(t)| ̸∈ N (0), per qualche t̄ > −∞ .
N.B. 4.1.28 Un enunciato simile sussiste anche per sistemi del tipo ẋ = Q(t)x + q(t, x) con q ∈ C ℓ≥1 (R × V)
opportunamente piccola e Q ∈ Pert (L(V)) un campo regolare, T -periodico, e con tutti gli esponenti caratteristici
aventi parti reali non nulle. In tal caso la persistenza della selle avviene sul sistema PΦ -equivalente (vedi: §II.5):
ξ˙ = BΦ ξ + ϕ(t, ξ) con ξ := PΦ−1 x, PΦ ∈ Pert (L(V)) e ϕ(t, ξ) := PΦ−1 (t) q (t, PΦ (t)ξ) . ♦
N.B. 4.1.29 Si noti che, nell’ipotesi che h ∈ C 1 , la condizione h = o(|x|) non è troppo restrittiva purché
|x|
∥h∗ ∥ −→ 0 , e ciò equivale ad assumere che la parte lineare del campo sia tutta rappresentata dall’operatore
0
T := v∗ (0). Se questo è il caso esiste δ > 0 tale che |x| < δ implica che (T + h∗ ) ha la stessa segnatura di
T e pertanto per il teorema del Dini esiste un unico x0 = x0 (h) tale che T x0 + h(x0 ) = 0 . Si può quindi porre
x =: x0 (h) + u ed ottenere
ove B := T + h∗ (x0 ) ha la stessa segnatura di T e |g(u)| := T x0 −Lh∗ (x0 )u + h(x0 + u) = o(|u|). In definitiva se
h = o(|x|) non lede la generalità supporre x0 (h) = 0 ed h(x0 ) = 0 . ♦
Punto n o 11. A prescindere dall’esistenza e dalle proprietà geometriche degli insiemi invarianti, è poi di enor-
me importanza il fatto che: genericamente, l’approssimazione lineare è (localmente) topologicamente equivalente
all’equazione non lineare autonoma da cui essa proviene.
Sussiste a tale proposito il seguente importante risultato generale.
Si noti che per ottenere questo risultato occorre che la costante κ > 0 , per quanto piccola, sia maggiore di zero,
infatti non vale l’enunciato alternativo del N.B. 14. Anche il Teorema 2, se κ = 0 , non dice nulla neanche circa la
semplice stabilità. #
Viceversa sussiste il seguente teorema di instabilità, (la dimostrazione del quale è ancora di tipo “diretto”, vedi
oltre)
Dimostrazione Sia B la base ε -quasi propria dell’operatore T individuato dalla matrice T , e sia P la matrice
che trasforma la base data nella base B, e che quindi trasforma T nella matrice τ ε (vedi Punti 1 e 8). Siano
V+ ed V− (con dim V+ =: k ≥ 1 ) i due sottospazi T -invarianti sui quali la restrizione di T ha matrici T+
ed T− rispettivamente, con autovalori: ℜe λ > 0 e ℜe λ ≤ 0 rispettivamente. Sia h(t, x) il rappresentante di
h(t, x) in {e} -coordinate, e sia b(t, ξ) := P −1 h(t, P ξ). Ne risulta che il sistema localmente equivalente a quello
dato è 7 8
ξ̇ = P −1 T P ξ + P −1 h(t, P ξ) = τ ε ξ + b(t, ξ), ) (1.3)
la cui parte lineare ha le prime (ad esempio) k coordinate che evolvono in V+ secondo la eT+ t , e le altre (n − k) in
V− secondo la eT− t . Esso infatti si può pensare scritto, mediante le ξ + ≡ (ξ 1 , . . . , ξ k ) ed ξ − ≡ (ξ k+1 , . . . , ξ n ),
come segue ) +* ) * ) +*
ξ̇ T+ 0 ξ
= + b(t, ξ).
ξ̇ − 0 T− ξ−
Detta ξ(t) = P −1 x(t) una generica soluzione del sistema (1.3) si pongano
⎧
⎪
⎪ ' k
=
⎪ 2 '
⎪
⎪ r (t) := ⟨ x(t), x(t) ⟩B ' = (ξ i (t))2
⎨ + x∈V+
i=1
⎪
⎪ ' n
=
⎪ 2 '
⎪
⎪ r (t) := ⟨ x(t), x(t) ⟩B ' = (ξ i (t))2 .
⎩ − x∈V−
i=k+1
Infine, si scelga c+ > 0 tale che c+ < ℜe λ per tutti gli autovalori di' T+ . Fissato
' ε1 ≪ c+ , siano δ1 e T tali che se
'Ck i i'
t > T e |ξ| < δ1 allora |b(t, ξ)| ≤ ε1 |ξ|. In tali condizioni si ha ' i=1 ξ b ' ≤ r+ |b| ≤ ε1 r+ |ξ| ≤ ε1 r+ (r+ + r− )
per cui, procedendo come ai Punti 2 e 4 si ottiene
= k =k
1 d 2
r+ = ξ h δhi T+ i j ξ j + ξ i bi ≥ c+ r+
2
− o(ε) − ε1 r+ (r+ + r− )
2 dt i,j=1 i=1
che implica la stima ṙ+ ≥ 12 c+ r+ − ε1 r− . Allo stesso modo si ricava (per c− = 0 ) la stima ṙ− ≤ ε1 (r+ +
r− ) + o(ε).
Ne segue che è possibile scegliere ε tanto piccolo da rendere valida la
) *
d 1 1
(r+ − r− ) ≥ c+ − ε1 r+ − 2ε1 r− − o(ε) ≥ c+ (r+ − r− ), da cui
dt 2 4
r+ (t) − r− (t) ≥ [r+ (T) − r− (T)]ec+ (t−t)/4 .
Si ragioni ora per assurdo. Se la soluzione nulla fosse stabile, esisterebbe δ(δ1 ) tale che ogni soluzione con r+ (T) +
r− (T) < δ per t = T dovrebbe avere r+ (t) + r− (t) < δ1 per ogni t > T . Di queste se ne potrebbe scegliere una con
r− (T) convenientemente piccolo: 0 < r− (T) ≤ r+ (T)/2 . Tuttavia, la stima trovata implica che per essa risulterebbe
r+ (t) ≥ r− (T)ec+ (t−t)/4 , che cresce oltre δ1 . "
Il risultato si estende al caso periodico: T : t &→ T (t) ∈ Pert (L(V)) pur di sostituire gli autovalori λ(i) con gli
esponenti caratteristici η(i) .
I precedenti teoremi hanno un immediato riscontro, ad esempio, in equazioni di tipo meccanico. Per semplicità
si assumerà anche qui la metrica banale.
Esempio 4.1.32 Con x0 , y0 ∈ Rn si consideri l’equazione
M. Lo Schiavo
4.1. La stabilità lineare 207
ovvero * ) ) *
y x0
u̇ = v(u) := con u0 := ∈ R2n .
f (x, y) y0
) *
xe
L’equazione ha linearizzata in ue := data da:
0
) * ) *) *
ẋ 0 1In x − xe
= =: ∂v(ue ) (u − ue ) . (1.5)
ẏ ∂x f (xe , 0) ∂y f (xe , 0) y
Siano {ℓj }j=1,...,2n i 2n autovalori di ∂v(ue ), e cioè le 2n radici (nel campo complesso) dell’equazione secolare:
Det(ℓ2 1I n − ℓ∂y f (xe , 0) − ∂x f (xe , 0)) = 0 . Su di esse è noto solo il fatto che se ℓ è radice allora lo è anche la sua
complessa coniugata ℓ̄ ; infatti l’equazione secolare ha coefficienti reali.
Pertanto, nel caso generale, le ℜe ℓ avranno segni vari. Qualora queste siano tutti negative, il Teorema 1 di
Liapunov garantisce stabilità asintotica; qualora ve ne sia anche una sola positiva il Teorema 4 assicura l’instabilità;
negli altri casi i teoremi di stabilità lineare non sono in grado di fornire una risposta definitiva. #
ovvero ) * ) *
y x0
u̇ = v(u) := con u0 := ∈ R2n .
f (x) y0
) *
xe
L’equazione ha linearizzata in ue := data da:
0
) * ) *) *
ẋ 0 1I n x − xe
u̇ = = =: ∂v(xe ) (u − ue ) . (1.7)
ẏ ∂f (xe ) 0 y
Si chiami Be la matrice −∂f (xe ) e si supponga che sia (reale e) tale che Be = BeT . Ciò è quanto avviene per
∂2Π
l’Hessiano ∂x∂x (xe ) dell’energia potenziale Π = Π(x) nel caso in cui la f sia conservativa, e cioè provenga da un
potenziale posizionale secondo la f (x) = −∇Π(x) . ) *
0 1I
Siano {ℓj }j=1,...,2n i 2n autovalori di ∂v(ue ) := ; essi sono ciò che si ottiene imponendo che la
−Be 0
(1.7) abbia soluzioni del tipo u(t) = ue + eℓt (u0 − ue ). In quanto radici dell’equazione 0 = Det(Be + ℓ2 1I ) =:
Det(Be − λ1I ), i loro quadrati coincidono con gli opposti degli autovalori λ della matrice Be , e cioè: −ℓ2 = λ.
Per studiare la stabilità della (1.6) mediante la segnatura delle ℜe ℓ della (1.7) conviene ricordare innanzi
tutto che un operatore Be reale simmetrico ha solo autovalori λ reali. Di conseguenza gli {ℓj }j=1,...,2n hanno
necessariamente la forma
−ℓ2 = λ = |λ|eikπ =: ω 2 eikπ con k ∈ Z.
(i) Esiste qualche −ℓ2 = λ strettamente negativa; per essa si ha ω ̸= 0 e k dispari. Allora ℓ+ = ω ed ℓ− = −ω
sono autovalori reali di v∗ (se ), e quindi in tal caso esiste almeno un autovalore di ∂v(ue ) con ℜe ℓ > 0 .
(ii) Tutte le −ℓ2 = λ sono o nulle o positive; e siccome la radice quadrata di un numero reale negativo è puramente
immaginaria si ha che tutte le ℜe ℓ sono nulle. In altre parole, per esse o è ω = 0 oppure k è pari, e quindi
tutti gli autovalori di ∂v(ue ) sono del tipo ℓ, ℓ̄ = ω exp ±i( π2 + hπ) = ±iω con ω ≥ 0 .
Si noti che in questo esempio l’equazione Det(Be + ℓ2 1I ) = 0 non ammette alcun autovalore ℓ2 > 0 e quindi il teorema lineare
non è conclusivo neanche in forma negativa. #
Più in generale, un sistema meccanico strettamente conservativo: vincoli indipendenti dal tempo ) e forze −1
a poten-
*
0 Ae
ziale posizionale ha linearizzata nel punto di equilibrio (qe , 0) con campo espresso da ∂v(qe , 0) = ove
−Be 0
Be è l’Hessiano in q = qe dell’operatore π e dell’energia potenziale Π = Π(q), ed Ae è la matrice dell’operatore
T2 dell’energia cinetica T = T2 calcolata nel punto qe . L’equazione agli autovalori diviene Det(A−1 2
e Be +ℓ 1I ) = 0
−1 −1
ovvero Det(Be − λAe ) = 0 avendo chiamato anche qui −ℓ2 = λ = ω 2 . La simmetria di Ae 2 Be Ae 2 implica che
le λ sono tutte reali; inoltre la loro segnatura è la stessa degli autovalori di Be ([Gantmacher §X.2]) [infatti dato che
−1
2
−1
2 T
−1
2
−1
2
Ae è definita positiva si ha che Ae = (Ae ) , e quindi Ae Be Ae è congruente con Be e si possono “riscalare” gli assi con la
−1/2
matrice Ae ]. Pertanto:
Condizione sufficiente (ma non necessaria) per la instabilità di un sistema meccanico, strettamente conservativo
a vincoli indipendenti dal tempo e forze a potenziale posizionale, è che l’operatore della parte bilineare dell’energia
potenziale: Be ammetta qualche autovalore λ negativo, e quindi che Be non sia definita positiva né semidefinita po-
sitiva; o anche: che l’energia potenziale non ammetta un minimo nel punto di equilibrio, e che ciò sia riconosciuto
tramite lo studio della forma quadratica associata alla funzione energia potenziale: Π(q).
Equivalentemente si ha la:
Condizione necessaria (ma non sufficiente) per la stabilità di un sistema meccanico, strettamente conservativo
a vincoli indipendenti dal tempo e forze a potenziale posizionale, è che tutti gli autovalori di Be (e di A−1 e Be )
siano positivi o nulli. Se positivi, gli autovalori di A−1 e B e assumono il significato di quadrati −ℓ 2
≡ λ =: ω 2
delle cosiddette “Pulsazioni proprie” con le quali oscillano i “Modi normali”. Ciò accade se, per per l’energia
potenziale, il punto xe è: o di minimo, o di stazionarietà qualunque e di ordine superiore al secondo. In entrambi
i casi, la stabilità non può essere assicurata, mediante il ricorso alla stabilità lineare, da queste condizioni perché
l’essere ℜe ℓ = 0 fa cadere in difetto la linearizzazione. In effetti i due moti: quello dell’equazione non lineare e quello
della sua linearizzata non è detto che siano, alla lunga, “vicini”. Potrebbero non esserlo a dipendere dagli ordini
superiori dello sviluppo del campo; e generalmente ciò accade almeno per quanto riguarda i loro valori simultanei,
le loro traiettorie potendo invece rimanere “vicine”.
L’essere ℓ2 ∈ R implica:
Caso I Caso II
esiste −ℓ2 = ω 2 < 0 , e cioè ogni −ℓ2 = ω 2 ≥ 0 , e cioè
∃ un a-valore di Be negativo; a-valori di Be tutti positivi;
vi sono ℓ+ > 0 ed ℓ− < 0 ; vi sono (ℓ, ℓ̄) = (iβ, −iβ);
l’instabilità è certa; la stabilità è possibile;
Π(q) è stazionario, non minimo, Π(q) è minimo o stazionario,
2
e lo si riconosce mediante le ∂ . e lo si riconosce mediante le ∂ ℓ≥2 .
(
ẋ = y
Esempio 4.2.2 con x0 , y0 ∈ R ed n > 1 .
ẏ = −xn
M. Lo Schiavo
4.2. Il metodo diretto di Liapunov 209
) * ) *) *
ξ˙ 0 1 ξ
L’equazione linearizzata nella soluzione nulla è = , che è instabile. L’equazione assegnata, avendo
η̇ 0 0 η
energia E (x, y) = 12 y 2 + n+1
1
xn+1 ha soluzione nulla che è stabile se n è dispari mentre è instabile se n è pari o
nullo. Lo si riconosce facilmente mediante lo studio delle linee di livello della funzione energia sullo spazio delle fasi,
studio che, si ricordi, è uno studio globale contrariamente a quello dell’Hessiano che è solo locale ed il cui valore in
questo caso è zero. #
( / (
ẋ = +y + xf ( x2 + y 2 ) x0 ,y0 ∈ R, f (0) = 0,
Esempio 4.2.3 / con 1 +
ẏ = −x + yf ( x2 + y 2 ) f ∈ C (R ∪ {0}).
/
La
( linearizzata nell’origine è l’oscillatore lineare. Tuttavia, con ρ := x2 + y 2 ̸= 0 , il sistema equivale a
ρ̇ = ρf (ρ),
per cui se, ad esempio, f (ρ) = cρn−1 allora si ha ρ̇ = cρn , e la stabilità della soluzione nulla
θ̇ = −1;
è decisa dal segno di c qualunque sia n > 1 . Infatti, essendo ρ0 > 0 , la funzione ρ : t &→ ρ(t) ≡ ρ(x(t), y(t))
cresce o decresce con la t a seconda del segno della sua derivata, e quindi di c. #
) * ) *) * ) *
ẋ 0 1 x 0
Esempio 4.2.4 = −ε 2 , con x0 , y0 ∈ R.
ẏ −1 0 y x y
L’origine è un centro se ε = 0 ed è una spirale debole se |ε| ≪ 1 , attrattiva o repulsiva a seconda che ε ≷ 0 .
Infatti posto F : (x, y) &→ F (x, y) := 12 (x2 + y 2 ) si ha Lv F = xy + y(−x − εx2 y) = −εx2 y 2 e pertanto le
traiettorie sono trasversali alle circonferenze (vedi oltre). #
(
ẋ = x3 − 3xy 2
Esempio 4.2.5 con x0 , y0 ∈ R .
ẏ = −3x2 y + y 3 ,
0 2 2
1
Per discutere l’equazione è opportuno ricorrere all’equazione associata, che è (ad esempio) dx dy
= xy yx2−3x
−3y 2 . Se
si ricercano soluzioni del tipo y = αx si ricavano le condizioni necessarie: α = 0 , oppure α = 1 , oppure α soluzione
di α = α(α2 − 3)/(1 − 3α2 ) da cui α = ±1. D’altra parte su tali rette si ha: ẋ = x3 nel caso α = 0 ; ẏ = y 3
nel caso α = ∞; ẋ = (1 − 3α2 )x3 = −2x3 nel caso α = ±1 .
7 8−1/2
Siccome ẋ = kx3 si risolve nella x : t &→ x(t) = x0 1 − 2kx20 (t − t0 ) , l’origine è chiaramente un punto di
instabilità per il sistema non lineare, mentre è di stabilità per quello lineare.
L’Esempio4.2.3 indica un metodo affrontare lo studio della stabilità dei punti fissi (di sistemi non lineari) anche
nel caso in cui non siano delle selle- k . Il metodo “diretto” verrà qui esposto per sistemi autonomi ma si applica
anche a sistemi non autonomi. Esso è di primaria importanza perché, qualora si riesca ad utilizzare, fornisce
informazioni anche non locali rispetto ad x. La sua caratteristica inoltre è di far uso solo della forma del campo
(assegnato) e non delle soluzioni (incognite) del sistema, neanche se valutate in modo approssimato. D’altra parte
non sono noti algoritmi generali che lo rendano applicabile in generale, e caso per caso va usata a tale scopo la
propria esperienza e la propria inventiva.
L’idea di base è quella di determinare delle opportune funzioni definite sullo spazio delle fasi e tali che, ge-
neralizzando il ruolo che l’energia totale svolge nella discussione dei sistemi conservativi, abbiano un andamento
qualitativo noto
/lungo le incognite traiettorie delle soluzioni. Nell’Esempio 3 la funzione in questione è stata la
ρ = ρ(x, y) := x2 + y 2 e si è osservato il fatto che, lungo le soluzioni, essa assume valori crescenti (o decrescenti)
con t a seconda del/segno della costante c; le soluzioni stesse quindi, al crescere di t, saranno tali da congiungere
regioni in cui ρ := x2 + y 2 è minore (maggiore) con regioni in cui è maggiore (minore).
Esempio 4.2.6
) * Van Der Pol: ẍ + e(x2 − 1)ẋ + x = 0 , x0 , ẋ0 ∈ R, e < 0 .
x
Con x := , l’equazione equivale alla
y
) * ) *
ẋ y
ẋ ≡ = =: v(x), con x0 ∈ R2 , (2.8)
ẏ −x − e(x2 − 1)y
ed ha punto fisso xe = (0, 0)T . Nell’esempio 1.11 si è visto che il sistema linearizzato è uniformemente ed
asintoticamente stabile, e quindi tale è il punto di equilibrio della (2.8); qui lo si vuole confermare con il metodo
diretto.
Si scelga in modo del tutto arbitrario, e per ora ingiustificato, la funzione F : (x, y) &→ F (x, y) := x2 + y 2 .
Lungo le soluzioni x : t &→ x(t) ≡ (x(t), y(t)) dell’equazione data, si calcola
d '
'
Lv F (x) : = F (x(t)) ' x(t)=x
dt ẋ(t)=v(x)
che è)senz’altro
* negativa all’interno della striscia x ∈ [−1, 1], salvo che sull’asse delle x. Ma su tale asse il campo
0
vale e quindi su tutti questi punti, tranne il punto di equilibrio, esso è non nullo e tangente alle circonferenze
−x
2 2
x + y = cost. Le traiettorie tuttavia non possono “uscire” da queste ultime perché in tal caso, in un intorno
destro dell’istante in cui avviene la tangenza, la Ḟ (x(t)) dovrebbe necessariamente assumere valori positivi; né
possono “restarvi sopra” perché queste non sono traiettorie possibili; pertanto non può che dedursi il fatto che le
traiettorie “entrano” nelle circonferenze dette.
Infine, dato che l’unico punto di equilibrio è l’origine, e che se ci fosse un ciclo (limite) nella striscia x ∈ [−1, 1]
esso attraverserebbe le circonferenze di centro l’origine in entrambi i versi, se ne conclude che ogni orbita ha
l’origine come unico possibile insieme ω -limite: di qui l’asintotica stabilità, uniforme per l’autonomia.
La discussione sarebbe stata ancora più semplice se al posto di F si fosse adottata la funzione
F 1 : (x, y) &→ F 1 (x, y) := x2 − exy + y 2
) *
2 −e
la quale ha derivata direzionale Lv F 1 = e(x2 + y 2 − exy − 2x2 y 2 + ex3 y) . Quest’ultima ha Hessiano: e che è definito
−e 2
2
negativo in zero purché 4 − e > 0 , ed in tal caso si ha Lv F 1 < 0 in N (0) . Con questa funzione lo studio è immediato e conclusivo
per −2 < e < 0 ; infatti, in tale eventualità, il segno definito della Lv F 1 assicura che le curve di fase si dirigeranno, per t crescenti,
verso punti sui quali F 1 ha valori più bassi, attraversando trasversalmente e definitivamente le linee di livello F 1 = cost e cioè le
ellissi x2 − exy + y 2 = cost , e dirigendosi verso la zona interna a ciascuna di esse. ) *
0 1
Si noti che nell’ipotesi −2 < e < 0 i due autovalori della matrice T := ∂v(xe ) = sono complessi coniugati: λ1 := µ̄ :=
−1 e
/
α − iβ := 2e − i 1 − e2 /4 , e λ2 = λ̄1 . In questo caso, siano: B := {ϵµ , ϵ̄µ } la base propria in C R2 dell’operatore C T che nella base
) *
& = {xµ , yµ } la base reale formata dalle parti ℜe ϵµ e −ℑm ϵµ ; 1 1
data ha matrice T ; B P := la matrice che in C2
λ1 λ2
) * ) * ) *
diagonalizza C T (vedi §II.2); ξ, & -componenti di x, ed 1 z := 1 ξ̃ + iη̃ := P −1 x l’espressione del vettore x nelle
& η& le B
2 z̄ 2 ξ̃ − iη̃ y
coordinate proprie. Si riconosce (vedi oltre) che la
F 2 (ξ) ≡ r 2 := ⟨ x, x ⟩ B& = ξ&2 + η&2 ≡ z z̄
è un’altra funzione, oltre alle F e F 1 , con la quale è possibile ripetere la stessa discussione, (si osservi che la r 2 è stata già usata
nei Punti 2,3,4 e nel Teorema 4 del §1). Infatti si calcola Lν r 2 = ż z̄ + z z̄˙ = µr 2 + µ̄r 2 + o(r 2 ) = 2ℜe µr 2 + o(r 2 ) = er 2 + o(r 2 ) e quindi
con essa si possono trarre le stesse conclusioni trovate mediante la F 1 : le curve di fase si dirigeranno, per t crescenti, verso punti sui
quali r 2 ha valori più bassi ) *
1 λ2 −1
D’altra parte, siccome è P −1 = λ −λ e quindi z/2 = [µx − y]/(2iβ) , esprimendo la F 2 = r 2 nelle coordinate
2 1 −λ1 1
iniziali, e con ∆ := T r 2 T − 4DetT = e2 − 4 = −4β 2 , risulta:
1 K L
F 2 (x, y) = z z̄ = 2 µµ̄ x2 + y 2 − (µ + µ̄)xy
β
4 4
= (x2 Det T + y 2 − xy T r T ) = (x2 + y 2 − exy),
−∆ 4 − e2
e quindi, ai soli fini della discussione vista sopra, essa è del tutto equivalente alla F 1 . (Per ulteriori possibilità si veda anche l’Esempio
2.20 più oltre). ) 1* ) *
B B
e2 ξ λ2 x − y
Nel caso reale: e < −2 , si hanno λ1,2 = T rT ± ∆
= e
± − 1 e coordinate proprie = 1
,
2 4 2 4 ξ2 λ2 −λ1 y − λ1 x
per cui la F 2 = ⟨ x, x ⟩ B fornisce
1 7 2 8 2
r 2 (x, y) = (λ1 + λ22 )x2 + 2y 2 − 2(λ1 + λ2 )xy = 2 ((e2 /2 − 1)x2 + y 2 − exy).
+∆ e −4
Comunque, per e < 0 , si conferma il risultato dell’Esempio 4.1.30. #
M. Lo Schiavo
4.2. Il metodo diretto di Liapunov 211
Per poter formalizzare il metodo, è opportuno richiamare alcune semplici nozioni di analisi. Esse fanno
riferimento a studi locali nell’intorno di qualche fissato punto dello spazio delle fasi M (localmente omeomorfo ad
Rn ) che verrà, senza perdita di generalità, considerato l’origine: x = 0 ; un suo intorno sarà indicato con N (0), e
la chiusura di questo con [N (0)].
F : M → R definita positiva su N (0) := una funzione F ∈ C 0 (N (0)) tale che
Equivalentemente:
Se una funzione F : M → R, F ∈ C 0 (N (0)), è tale che: F (0) = 0 , ed esiste r > 0 per la quale:
∀ ε ∈ (0, r) ∃ δ(ε): 0 <(ε ≤ |x| ≤ r ⇒ F (x) ≥ δ(ε),
definita positiva quando δ(ε) > 0
allora la F si dice:
semidefinita positiva quando δ(ε) ≥ 0.
N.B. 4.2.7 Si possono dare analoghe definizioni per funzioni F (t, x) richiedendo che esista una F (x) di segno
definito e che limiti per ogni t ≥ t0 quella dipendente dal tempo. Con esse si estendono i teoremi seguenti anche a
sistemi non autonomi. Qualche attenzione, tuttavia, va esercitata per le funzioni semidefinite (vedi [Hahn § V.41],
opp.[Cesari § 7.1]). ♦
Esempio 4.2.8
x2 + y 2 def. pos. in R2 ; semidef. pos. in R3 ;
; ' <
'
x2 + y 2 − x3 def. pos. in (x, y) ∈ R2 ' x < 1 ;
; ' <
'
−2y 2 (x2 − 1) semidef. pos. in (x, y) ∈ R2 ' x2 < 1 ;
x2 + y 2 + z 4 def. pos. in R3 ;
meno immediato è il fatto che x2 + y 2 − exy − 2x2 y 2 + ex3 y sia definita positiva in N (0) ⊂ R2 quando e ∈ (−2, 0)
(vedi oltre). Si noti infine che né (x + a)2 + y 2 né (x + a)2 + y 2 − a2 hanno segno definito in N (0) ⊂ R2 . #
Usando quanto si è visto in questa nota si può risolvere l’ultimo caso dell’Esempio 5, quando si faccia anche
ricorso alla seguente:
Nota 4.2.2
Particolari funzioni omogenee sono i polinomi omogenei, o forme, di grado p ∈ N; e cioè funzioni F p : M → R
definite (in coordinate) da
C
F p : x &→ F p (x) := |h|=p ah xh , con ah ∈ R e dove
1 n
x = (x1 , . . . , xn ) ∈ Rn , xh := (x1 )h · · · (xn )h ∈ R,
h = (h1 , . . . , hn ) ∈ Nn , |h| := (h1 + . . . + hn ) ∈ N.
Se p è dispari la forma F p non può avere segno definito in N (0). Infatti, chiamando ξ ad esempio la
n-ma coordinata: xn = ξ , e ponendo xh =: ξ uh per le altre h = 1, . . . , n − 1 , se ne ricava l’espressione
F p = ξ p F (u1 , . . . , un−1 , 1) e quindi al variare della n-ma coordinata la funzione cambia segno.
Se p è pari e p > 2 non sono noti metodi generali per assicurare la definitezza in segno della forma.
Se p = 2 , e cioè con Q := F p=2 : M → R una forma quadratica (reale), detti B = B T la matrice reale
2
simmetrica dell’Hessiano: Bij := ∂x∂ i ∂x Q
j della forma Q , e detti (λ1 , . . . , λn ) gli autovalori di B i quali, come è
noto, sono tutti reali, si hanno i seguenti fatti.
Il rango r di Q è il numero dei suoi autovalori non nulli; la segnatura di Q la differenza fra il numero dei
suoi autovalori positivi e quello dei suoi autovalori negativi. Si definiscano, inoltre, le seguenti matrici.
) *
1 ≤ i1 ≤ i2 ≤ . . . ≤ ik ≤ n
Minori principali di Q := le matrici quadrate B che si ottengono estraendo dalla
1 ≤ i1 ≤ i2 ≤ . . . ≤ ik ≤ n
matrice B i suoi elementi intersezioni delle colonne 1 ≤ i1 ≤ i2 ≤ . . . ≤ ik ≤ n della matrice B e delle righe
(con i medesimi indici:) 1 ≤ i1 ≤ i2 ≤ . . . ≤ ik ≤ n.
) *
1, 2, . . . , k ≤ n
Minori principali ordinati di Q := le matrici quadrate Dk := B , definite per k = 1, .., n.
1, 2, .., k ≤ n
Sussiste la proprietà (Jacobi): se tutte le Dk hanno determinante non nullo allora il numero degli autovalori positivi
è pari al numero di permanenze di segno dei Det Dk , per k = 1, 2, . . . , n, ed il numero degli autovalori negativi
è pari al numero delle variazioni di segno dei Det Dk .
Pertanto, indicato con il simbolo |B| il Det B , si ha che:
Tuttavia, se qualche Det Dk è nullo non si può determinare il segno della forma, semidefinita, Q mediante
lo studio dei segni dei Det Dk , k = 1, . . . , n.
Ci si può servire, in tal caso, delle seguenti proprietà che danno informazioni più specifiche.
⎧' ) *'
⎪ ' '
⎨ 'B 1 ≤ i1 ≤ i2 ≤ . . . ≤ ik ≤ n ' ≥ 0
Q semidefinita positiva ⇔ ' 1 ≤ i1 ≤ i2 ≤ . . . ≤ ik ≤ n '
⎪
⎩∀ 1 ≤ i ≤ i ≤ ... ≤ i ,
1 2 k k = 1, 2, . . . , n
⎧ ' ) *'
⎪ ' '
⎨ (−1)k 'B 1 ≤ i1 ≤ i2 ≤ . . . ≤ ik ≤ n ' ≥ 0
Q semidefinita negativa ⇔ ' 1 ≤ i 1 ≤ i 2 ≤ . . . ≤ i k ≤ n '
⎪
⎩∀ 1 ≤ i ≤ i ≤ ... ≤ i ,
1 2 k k = 1, 2, . . . , n
Osservazione.
Condizione sufficiente affinché una forma quadratica reale Q non sia definita positiva né semidefinita positiva
∂2Q
è che
) la matrice reale simmetrica * dell’Hessiano: Bij := ∂xi ∂xj della forma Q abbia qualche minore principale:
1 ≤ i1 ≤ i2 ≤ . . . ≤ ik ≤ n
Be con determinante negativo. ◃
1 ≤ i1 ≤ i2 ≤, . . . , ik ≤ n
M. Lo Schiavo
4.2. Il metodo diretto di Liapunov 213
Nota 4.2.3 Sia F = F (x) definita positiva su un intorno N (0) ⊆ M dell’origine e sia ε > 0 tale che
[Bε (0)] ⊂ N (0). Allora esiste un c0 (ε) > 0 per il quale: ogni curva continua γ parametrizzata da
Nota 4.2.4 Giacché in generale lo studio è locale nell’intorno di un punto xe di un sistema assegnato su una
varietà M, si può senza perdita di generalità considerarne una rappresentazione in coordinate nella quale il punto
xe sia fatto corrispondere all’origine della carta. I risultati che seguono sono invarianti al variare della carta solo se
(vedi §1 N.B.9) la trasformazione di coordinate è indipendente dal tempo e muta la metrica in, al più, una ad essa
equivalente (vedi Cesari §1.9). Infine, qualora nel seguito
Cn se ne presenti la necessità, Rn verrà considerato euclideo
T
con il prodotto scalare standard: ⟨ x, y ⟩ := x y = h=1 x y . h h
◃
Sia assegnato un campo v : Rn → R, liscio su un aperto D ⊂ Rn contenente l’origine, e tale che v(0) = 0 .
Si indichi con φ = φ(t, 0, x) la soluzione dell’equazione ẋ = v(x) uscente dal punto x ∈ Rn . In particolare la
φ(t, 0, 0) = 0 è certamente soluzione ed è anche definita per ogni t > 0 .
Sia poi F : G → R, F ∈ C 1 (G) con G aperto e contenuto in D ; e si denoti (più brevemente ma con
abuso di notazione) con Ḟ : Rn → R la funzione derivata direzionale di F lungo il campo dato:
d ''
Ḟ : x ∈ G &→ Ḟ (x) := ' F (φ(t, 0, x)) ≡ Lv F (x) ≡ (v · ∇F )(x).
dt t=0
Nota 4.2.5
Molti dei seguenti teoremi si potrebbero enunciare con solo F ∈ C 0 (G) . Infatti al posto della Lv F (x) si può usare la
1
L+
v F (x) : = lim sup [F (g ε x) − F (x)] = (se F ∈ loc.Lip) =
ε→0+ ε
1
= lim sup [F (x + εv(x)) − F (x)];
ε→0+ ε
d+
in effetti [L+v F (ξ)]ξ=φ(t,0,x) = dt
[F (φ(t, 0, x))] , e l’essere quest’ultima non negativa implica che F (φ(t, 0, x)) è non decrescente
(rispetto a t ). ◃
Funzione di Liapunov, per ẋ = v(x), in N (0) := una funzione F : x ∈ Rn &→ F (x) ∈ R, regolare su
G ⊆ Rn , e che abbia Ḟ : x ∈ Rn &→ Ḟ (x) ∈ R semi-definita in segno in un intorno dell’origine N (0) tale che
[N (0)] ⊆ G.
Funzione di Liapunov “stretta”, per ẋ = v(x), in N (0) := una funzione F : x ∈ Rn &→ F (x) ∈ R, regolare
su G ⊆ Rn , e che abbia Ḟ : x ∈ Rn &→ Ḟ (x) ∈ R definita in segno in un intorno dell’origine N (0) tale che
[N (0)] ⊆ G.
N.B. 4.2.14 Non è possibile parlare di funzioni di Liapunov senza aver preventivamente introdotto un certo campo
v ; e cioè senza riferirsi ad uno specifico sistema ẋ = v(x). ♦
N.B. 4.2.16 Un integrale primo è per definizione tale che Ḟ : x ∈ N (0) &→ Ḟ (x) = 0 , pertanto è senz’altro una
funzione di Liapunov, mai stretta. ♦
N.B. 4.2.17 In riferimento al N.B. 0, una qualsiasi funzione F ∈ C 1 (N (0)) che sia semidefinita in N (0), o anche
solo con un punto di stazionarietà nell’origine, ha certo Ḟ (0) = 0 e qualunque sia v in quanto ha nullo il ∇F (0),
ma ciò evidentemente non basta a dire che la funzione è di Liapunov e cioè che Ḟ sia semidefinita in tutto un
intorno N (0). Quest’ultima proprietà evidentemente dipende dal campo v = v(x) mentre la prima no. ♦
N.B. 4.2.18 È bene ribadire esplicitamente che (per sistemi autonomi) sia la F che la Ḟ sono funzioni della
posizione x e non del tempo. ♦
N.B. 4.2.19 Per definizione, una funzione di Liapunov è (almeno) continua in N (0). ♦
Teorema 4.2.1 (Dirichlet - Laplace - Liapunov) Sia v : Rn → R un campo liscio su un aperto D ⊂ Rn conte-
nente l’origine, e tale che v(0) = 0 . Se il sistema ẋ = v(x) ammette una funzione di Liapunov F in N (0), e se
la F ha segno definito in N (0), ed opposto a quello della sua derivata Ḟ (quando questo sia definito), allora
l’origine è punto di equilibrio stabile.
Se inoltre la F è “stretta” allora l’origine è asintoticamente stabile.
Dimostrazione Per fissare le idee si consideri la F : G → R definita positiva. Sia N (0) ⊆ G un intorno di
definitezza di entrambe le F e Ḟ , e sia r > 0 tale che Br (0) ⊆ N (0). Fissato ε ∈ (0, r) , siccome ∂Bε (0)
è compatta esiste ed è strettamente positivo il valore m(ε) := min|x|=ε F (x). Ancora, la F è continua e nulla
nell’origine, quindi esiste δ(m) > 0 tale che |x| < δ implica F (x) < m, ed è certamente δ ≤ ε perché altrimenti
si avrebbe [Bε (0)] ⊂ Bδ (0) e quindi Bδ (0) conterrebbe punti sui quali F (x) = m.
7 d Dato comunque
8 x0 ∈ Bδ (0), finché φ : t ≥ 0 &→ φ(t, 0, x0 ) è definita ed è in N (0) essa, in virtù della
dt F ◦ φ (x) =: Ḟ ≤ 0 , è tale che F (φ(t, 0, x0 )) ≤ F (x0 ) < m. Quindi, ragionando come nella Nota 3, si
conclude che φ(t, 0, x0 ) non può raggiungere ∂Bε (0). Essa pertanto è definita per ogni t ≥ 0 ed appartiene a
Bε (0), che è la definizione di stabilità della soluzione φ : t ≥ 0 &→ φ(t, 0, 0) = 0 .
m
F > x
m
F=
m
<
F
x
²
±
@B
± (0)
@B
² (0)
r
Conseguenza: dato x0 ∈ Bδ (0), siccome la (F ◦ φ)(t) è monotona non crescente e positiva, esiste il
limt→∞ F (φ(t, 0, x0 )) =: !c con 0 ≤ ! c ≤ F (x0 ) < m.
Sia Ḟ di segno definito ed opposto a quello della F ; si supponga quindi definita negativa su N (0). In tali
ipotesi, dato comunque x0 ∈ Bδ (0) si ha necessariamente limt→∞ F (φ(t, 0, x0 )) =: ! c = 0.
Infatti: si assuma !c > 0 . Ancora per la continuità della F certo esiste δ1 = δ1 (! c/2) > 0 tale che |y| < δ1 ⇒
F (y) < ! c/2 . In più, δ1 è strettamente minore di ε , perché altrimenti in Bδ1 (0) la F (y) potrebbe assumere
valori arbitrariamente
' vicini ad m e quindi maggiori di ! c/2 < !c < m. Pertanto è non vuoto l’insieme compatto
K1 := {x ∈ Rn ' δ1 (!c/2) ≤ |x| ≤ ε} , sul quale la F può assumere valori maggiori di ! c/2. D’altra parte dalla sua
definizione: !c = limt→∞ F (φ(t, 0, x0 )), segue che esiste almeno un istante t′ ≥ 0 nel quale F (φ(t′ , 0, x0 )) > ! c/2;
ed il fatto che F (φ(t, 0, x0 )) si diriga monotona verso ! c implica che ciò continua ad essere vero per ogni t ≥ t′ .
Pertanto per ogni t ≥ t′ si ha che φ(t, 0, x0 ) esiste ed appartiene al compatto K1 , né può uscirne giacché deve
essere definitivamente ! c/2 < F (φ(t, 0, x0 )) < m. Per ipotesi la Ḟ (x) è funzione continua e definita negativa
in N (0), quindi essa ammette su K1 un massimo: −ℓ , strettamente negativo. Tale massimo è certo maggiore o
uguale del valore massimo raggiunto dalla Ḟ (φ(t, 0, x0 )) su [0, ∞). Ma Ḟ (φ(t, 0, x0 )) ≤ −ℓ per ogni t ≥ t′
implica F (φ(t, 0, x0 )) ≤ −ℓ(t − t′ ) + F (φ(t′ , 0, x0 )) per ogni t ≥ t′ , e pertanto il suo limite non può essere !
c > 0.
M. Lo Schiavo
4.2. Il metodo diretto di Liapunov 215
La prima parte del teorema contiene ovviamente il Teorema di Dirichlet nella sua forma comunemente usata in
Meccanica.
Sussiste infatti, innanzi tutto, la seguente:
Proposizione 4.2.1 Sia G ⊂ R2n un aperto contenente l’origine e, su di esso, sia assegnato un sistema meccanico
del tipo: ⎧
(
ẍ = −∇Π(x) + g(x, ẋ) ⎨ ẋ = y
⎪
ovvero : ẏ = −∇Π(x) + g(x, y)
x0 , ẋ0 ∈ Rn ⎪
⎩
x 0 , y0 ∈ R n ,
con g ∈ C 0 (G), g T (x, y) y ≤ 0 , e Π(x) definita positiva in N (0).
Allora: l’origine (0, 0) è stabile.
In tali ipotesi infatti la funzione E (x, y) := y 2 /2 + Π(x) è definita positiva in N (0, 0) ed è Liapunov non
stretta in quanto Ė (x, y) = g T (x, y)y ≤ 0 , ed Ė (0, 0) = 0 .
Allo stesso modo, per sistemi meccanici strettamente conservativi:
(
q̇ = ∂H /∂p
H (q, p) := T2 (q, p) + Π(q), H (0, 0) = Π(0) = 0,
ṗ = −∂H /∂q ,
si riconosce che se l’origine delle q è un minimo relativo proprio per la funzione Π(q), la H (q, p) è di segno
definito in N (0, 0); ed essendo un integrale primo è anche Liapunov non stretta. Di conseguenza l’origine è un
punto di stabilità.
Ancora, per un sistema meccanico a potenziale ed autonomo, e cioè con Lagrangiana:
1 T
L (q, q̇) = T2 (q, q̇) − V (q, q̇) = q̇ a (q)q̇ − Π(q) − q̇ T π(q) ,
2
se q = 0 è un punto di minimo relativo proprio per Π(q) allora il punto (qe , 0) è di equilibrio stabile per le
equazioni di Lagrange, ed il punto (qe , −π(qe )) è di equilibrio stabile per il corrispondente sistema Hamiltoniano.
Infatti, il punto (qe , 0) è di minimo per la funzione T2 + Π che è un integrale primo delle equazioni di Lagrange,
cosı̀ come il punto (qe , −π(qe )) lo è per la H (q, p) = 12 (p + π)T a −1 (p + π) + Π(q) che è anch’essa un integrale
primo per le equazioni di Hamilton.
In presenza di forze dissipative conviene ricorrere alle equazioni di Lagrange piuttosto che a quelle di Hamilton,
ed anche in questo caso si ha che T2 (q, q̇) + Π(q) è funzione di Liapunov (vedi: [Gantmacher p.50])
Nel caso di vincoli dipendenti dal tempo (ma ancora autonomo), la funzione H (q, p) = T2 − T0 + Π è
Liapunov non stretta cosı̀ come l’equivalente funzione delle (q, q̇) lo è per le equazioni di Lagrange.
La seconda parte del teorema può essere trasformata nel seguente teorema, che dà informazioni sulle regioni
“asintotiche”, (vedi anche [Hirsh §Teor. 9.3.2]) ed è di grande importanza dato che non confina il corrispondente
dato x0 ad un “convenientemente piccolo” intorno dell’origine Bδ (0).
Teorema 4.2.2 (del sottoinsieme invariante) (si veda: [La Salle, Teor. VI §1.3])
Sia v : Rn → R un campo liscio su un aperto D ⊂ Rn contenente l’origine, e tale che v(0) = 0 . Se il sistema
ẋ = v(x) ammette una funzione di Liapunov F ∈ C 1 (Rn ) tale che: F (0) = 0 , e che esista l ∈ R+ per il quale
'
(1) dell’insieme {x ∈ Rn ' F (x) < l} sia limitata la componente connessa Ωl che contiene l’origine;
(2) F (x) > 0 sia definita positiva su Ωℓ ;
(3) Ḟ (x) ≤ 0 sia semidefinita negativa su Ωℓ ;
'
allora, detti N := {x ∈ Ωl ' Ḟ (x) = 0} , ed IN il suo massimo sottoinsieme invariante rispetto al flusso,
t
si riconosce che: ogni x0 in Ωl ha evoluzione tale che φ(t, 0, x0 ) −→ IN , e cioè: IN contiene l’insieme
∞
ω -limite di x0 .
Dimostrazione L’essere F ◦ φ non crescente ed x0 in Ωl implicano, come visto prima, che F (φ(t, 0, x0 )) ≤
l0 := F (x0 ) < l per ogni t > 0 in cui φ è definita. Quindi, finché è definita, la φ(t, 0, x0 ) appartiene ad Ωl ; ed
anzi, esistendo certamente un compatto che contiene Ωl , essa è definita per ogni t > 0 ed ammette ω (x0 ) non
vuoto e contenuto in Ωl . Ne segue che F : t &→ F (φ(t, 0, x0 )) è monotona su [0, ∞), varia in [0, l0 ] ⊂ [0, l),
ed ha pertanto limite limt→∞ F (φ(t, 0, x0 )) =: ! c ∈ [0, l0 ]. Se ne conclude che preso comunque x ! ∈ ω (x0 )
esistono per definizione t comunque grandi nei quali |φ(t, 0, x0 ) − x !| < ε e quindi, per continuità, F (! x) = !c.
Inoltre il fatto che l’insieme ω -limite di una traiettoria di un sistema autonomo contenga intere le traiettorie
γ := {φ(t, t1 , x1 )}t∈JM uscenti dai suoi punti x1 ∈ ω (x0 ) implica che F (φ(t, t1 , x1 )) = !c per ogni t, e quindi
che Ḟ (x1 ) = 0 per ogni x1 ∈ ω (x0 ). L’invarianza di quest’ultimo assicura che ω (x0 ) ⊆ IN ⊆ N . "
(
F (x) → ∞ per |x| → ∞,
N.B. 4.2.20 Sia F (x) > 0 se x ̸= 0 , e siano Allora N è l’insieme di
Ḟ (x) ≤ 0 su tutto Rn .
tutti i punti di Rn tali che Ḟ (x) = 0 . In particolare si supponga che la Ḟ (x) si annulli solo su una linea
γ , e che su di essa l’unico insieme invariante sia proprio il punto di equilibrio xe del sistema (come accade se il
campo è ovunque trasverso a γ \{xe } ). Allora il punto xe è globalmente ed asintoticamente stabile. ♦
I seguenti esempi mostrano alcune idee sul come procurarsi una funzione di Liapunov per un dato sistema.
(
ẋ = −x − 2y 2
Esempio 4.2.23 con x0 , y0 ∈ R.
ẏ = xy − y 3 ,
) *
−1 0
L’equazione linearizzata ha matrice ∂v(0) = , pertanto l’origine non è punto iperbolico. Si consideri
0 0
allora, con a ∈ R, la famiglia di funzioni F (x, y) := x2 + ay 2 . Si ha 12 Ḟ (x, y) = −x2 − 2xy 2 + axy 2 − ay 4 =
−(x2 + 2y 4 ) se a = 2 . In virtù del Teorema 1 si ha che lo zero è globalmente ed asintoticamente stabile. #
(
ẋ = sin y
Esempio 4.2.24 con x0 , y0 ∈ R.
ẏ = −2x − 3y,
) *
0 1
L’equazione linearizzata ha matrice ∂v(0) = , pertanto T r < 0 , Det > 0 e l’origine è punto
−2 −3
iperbolico asintoticamente stabile. Per confermarlo con il metodo diretto si provi con la famiglia di funzioni
F (x, y) := ax2 + bxy + cy 2 . Si ha Ḟ (x, y) = 2ax sin y + by sin y − 2bx2 − (4c + 3b)xy − 6cy 2 , e quindi la matrice
dell’Hessiano nell’origine è ) *
−4b 2a − (4c + 3b)
H(0, 0) = .
2a − (4c + 3b) 2b − 12c
F è definita positiva se a > 0 e b2 − 4ac < 0;
(
2a = (4c + 3b)
Ḟ è definita negativa se b > 0 e, ad esempio,
2b − 12c < 0.
Ne segue la condizione sufficiente ( 12 b)2 < ac = 2c2 + 32 bc, e cioè, ad esempio, 12 b = c ed a = 5c, la quale assicura
le ipotesi del Teorema 1 e permette di riconoscere che lo zero è globalmente ed asintoticamente stabile. #
M. Lo Schiavo
4.2. Il metodo diretto di Liapunov 217
7 8
L’incognita è il vettore ω : t &→ ω(t) del quale le (ωξ , ωη , ωζ ) := ω i i=1,2,3 ≡ (ωi )i=1,2,3 ∈ R3 sono le
componenti rispetto ad una base ortonormale solidale al corpo rigido e, per esso, principale d’inerzia; a, b, c > 0
sono i corrispondenti momenti d’inerzia.
Il sistema, e non il corpo, ha equilibri in ωi = ωi+1 = 0 ed ωi+2 ̸= 0 per i = 1 oppure 2 oppure 3 . Sia, ad
esempio, ωξ (t) = ωξ (0) =: ωξ |0 ̸= 0 , e si ponga ωe := (ωξ |0 , 0, 0).
La linearizzata in ωe ha campo:
⎛ ⎞⎛ ⎞
0 0 0 ω ξ − ω ξ |0
∂v(ωe )(ω − ωe ) = ⎝0 0 c−a
b ω ξ |0
⎠ ⎝ ωη ⎠
a−b
c ω ξ |0
0 0 ωζ
T0 1
(c−a)(a−b)
dalla quale si ricavano λ1 = 0 , λ2,3 = ± bc ωξ |0 2 . Pertanto se c < a < b , oppure b < a < c, per il
Teorema 4 del precedente paragrafo si ha instabilità. Negli altri casi la linearizzata ha tutte ℜe λ = 0 , e quindi il
1 o teorema di Liapunov non è di aiuto.
Si rinomini la variabile ωξ ponendo ωξ =: ωξ |0 + δωξ . Il sistema (2.9) si può riscrivere nella forma ẋ =
T x + h(t, x), che ha l’origine come punto di equilibrio:
⎧
⎪ b−c
⎪
⎪ δ̇ωξ = ωη ωζ
⎪
⎪ a
⎨
c−a
ω̇η = ωζ (δωξ + ωξ |0 )
⎪
⎪ b
⎪
⎪
⎩ ω̇ζ = a − b ωη (δω + ωξ |0 ).
⎪
ξ
c
Il fatto che la funzione h sia non lineare impedisce anche di servirsi delle varie proposizioni viste nel precedente
paragrafo e riservate ai sistemi lineari. Si può invece ricorrere al metodo diretto.
È noto che sussistono i seguenti integrali primi (come d’altronde si riconosce immediatamente con un pò di
algebra sulle equazioni di partenza):
(
2T = a (δωξ + ωξ |0 )2 + bωη2 + cωζ2 = 2T0
2 2 2 2
K = a (δωξ + ωξ |0 ) + b ωη2 +c 2
ωζ2 = K02 ,
queste funzioni però non hanno segno definito nell’intorno dell’origine, infatti non valgono zero in zero, né baste-
rebbe toglierci il loro valore in zero perché rimarrebbe comunque un termine dispari, (vedi Esempio 2.7). Un
certo guadagno lo si ottiene considerando la funzione F 1 := (K2 − 2aT ) = b(b − a)ωη2 + c(c − a)ωζ2 che è, almeno,
semidefinita positiva in N (0) qualora a < b < c oppure a < c < b (negli altri due casi, simmetrici di questi, lo è
−F 1 ). Si supponga, ad esempio, a < b < c. Tuttavia, per poter ricorrere al teorema è necessario che la funzione
F 1 abbia segno definito. [Se si vuole concludere il ragionamento senza fare ricorso al teorema, a questo punto si può notare che
la particolare forma dell’integrale primo (K2 − 2aT ) = cost permette di concludere che |ωη |, |ωζ | rimangano piccole se tali sono in
t = 0 , e quindi T = T0 implica che anche |δωξ | rimane piccola].
Per poter trovare una funzione di segno definito sarà conveniente cercare un’altra funzione degli integrali primi,
e che (quindi potrà essere una Liapunov e) sia anche lei semidefinita positiva, ma che risulti strettamente positiva
lı̀ dove la precedente era nulla. Occorre cioè che sia (nulla nell’origine e) positiva nei punti (δωξ , 0, 0). Ha questa
caratteristica la funzione F 2 := (2T − 2T U)2 , con 2T U := a(ωξ |0 )2 . Se ne conclude che la funzione F :=
K2 − 2aT + (2T − 2T U)2 è Liapunov, e per mezzo di essa il teorema assegna stabilità:
0 12
F = b(b − a)ωη2 + c(c − a)ωζ2 + a(δω2 ξ + 2δωξ ωξ |0 ) + bωη2 + cωζ2
Il metodo diretto di Liapunov può essere usato anche per verificare l’instabilità della soluzione nulla di ẋ = v(x)
come già si è visto nell’Esempio 2.
Teorema 4.2.1 (di Chetaiev) Sia v : Rn → R un campo liscio su un aperto D ⊂ Rn contenente l’origine, e tale
che v(0) = 0 . Se esistono un intorno dell’origine N (0) ⊂ Rn , un aperto U ⊂ Rn sulla cui frontiera ∂U ⊂ Rn
è l’origine, ed una funzione F : x ∈ Rn &→ F (x) ∈ R tali che:
(i) F (x) = 0 su N (0) ∩ ∂U ;
(ii) F , Ḟ ∈ C 0 (N (0) ∩ [U ]) e definite dello stesso segno su N (0) ∩ U ;
allora l’origine è instabile, e cioè per qualche x0 ∈ U la φ : t &→ φ(t, t0 , x0 ) esce da qualunque [Bε (0)] ⊂
N (0) in un tempo finito.
Dimostrazione Si suppongano F e Ḟ entrambe positive su N (0)∩U , e sia Br (0) ⊂ N (0) e tale che [Br (0)] ⊆
N (0). Fissato δ ∈ (0, r), esiste x0 ∈ Bδ (0) ∩ U tale che F (x0 ) > 0 . Inoltre, siccome anche Ḟ è ivi non
negativa, fintanto che φ(t, ' t0 , x0 ) rimane in Br (0) ∩ U si ha che F (φ(t, t0 , x0 )) ≥ F (x0 ) > 0 , e quindi è anche
φ(t, t0 , x0 ) ∈ {x ∈ N (0) ' F (x) ≥ F (x0 )} .
N ; '
La funzione Ḟ è continua, e pertanto assumerà un minimo ℓ > 0 sull’insieme compatto Br (0) ∩ U ∩ x '
<O
F (x) ≥ F (x0 ) e questo, per la continuità di F , è separato da quella parte della ∂U che è in N (0) e sulla
quale F = 0 . Ciò implica che F (φ(t, t0 , x0 )) ≥ F (x0 ) + ℓ(t − t0 ) fintanto che φ(t, t0 , x0 ) ∈ [Br (0) ∩ U ].
Si fissi ora un qualunque ε ∈ (δ, r); o accade che φ(t, t0 , x0 ) ∈ Bε (0) ∩ U per ogni t ≥ t0 , oppure deve esistere
t′ > t0 tale che φ(t′ , t0 , x0 ) ∈ ∂(Bε (0) ∩ U ). Ma la prima eventualità è esclusa dalla continuità di F su Br (0) ∩ [U ]
che implica la sua limitatezza sul sottoinsieme [Bε (0) ∩ U ]. Pertanto esiste t′ < ∞ tale che in t0 + t′ la soluzione
φ(t, t0 , x0 ) raggiunge (ed attraversa) ∂(Bε (0) ∩ U ) ⊂ (∂Bε (0) ∩ [U ]) ∪ ([Bε (0)] ∩ ∂U ). Siccome la φ(t, t0 , x0 )
non può attraversare [Bε (0)] ∩ ∂U poiché ivi è F (x) = 0 , essa dovrà necessariamente passare attraverso la parte
della ∂Bε (0) che è in U . "
M. Lo Schiavo
4.2. Il metodo diretto di Liapunov 219
Br(0) 0
F< =0
N (0) F 0
B²(0) F>
B±(0)
F = F (x )
0
0 x0
U
Questo teorema viene usato, come già in parte visto nel Teor. 1.3, per invertire il teorema di Dirichlet (almeno
parzialmente).
Nel caso di sistemi Hamiltoniani a vincoli indipendenti dal tempo e forze strettamente conservative si ha in
particolare
Teorema 4.2.2 Sia dato un sistema meccanico strettamente conservativo, (e tensore della metrica: κ hk ≡ δhk ):
(
q̇ = +∂H /∂p ,
q0 , p0 ∈ Rn (localmente), con
ṗ = −∂H /∂q ,
1 T −1
H := T2 + Π, T2 : (q, p) &→ p a (q)p, Π : q &→ Π(q), Π ∈ C 1 (N (0)).
2
Sia Π : q &→ Π(q) = Πk (q) + Πk+1 (q) + · · · con Πk : q &→ Πk (q) omogenea di grado k ≥ 2 , e
Πk+1 (q) + · · · = o(|q|k ); pertanto, Π(0) = 0 .
Se q = 0 è di stazionarietà per Π(q), e quindi l’origine (q, p) ≡ (0, 0) lo è per la funzione H (q, p), ma
Π(0) non è un minimo;
o, equivalentemente: se q = 0 è di stazionarietà per Π(q) e tale che per N (0, 0) sufficientemente piccolo è non
vuoto l’aperto H − definito da ; ' <
'
H − := (q, p) ∈ N (0, 0) ' H (q, p) < 0 ,
K
9N.B. e quindi, siccome
' T2:è definita positiva Lin N (0, 0) e si annulla per p = 0 , è non vuoto l’aperto P − :=
'
(q, p) ∈ N (0, 0) Π(q) < 0 , ed è H − ⊆ P − ;
e se l’insieme H − è, in particolare, contenuto nell’insieme Pk− definito da
; ' <
'
Pk− := (q, p) ∈ N (0, 0) ' Πk (q) < 0 ,
N.B. 4.2.28 In breve: si ha instabilità se l’origine è estremale non di minimo per l’energia potenziale e se i
punti in N (0, 0) sui quali la H è negativa sono quelli stessi sui quali è negativa (strettamente) la parte principale
dell’energia potenziale. ♦
N.B. 4.2.29 L’insieme Pk− è non vuoto se esiste un intorno di q = 0 sul quale Πk è definita negativa, semidefinita
negativa, oppure indefinita; ed è invece vuoto se Πk è definita positiva o semidefinita positiva. Alla condizione
Pk− ̸= ∅ va poi aggiunta quella sulla inclusione di H − . Per N (0, 0) convenientemente piccolo l’insieme H − è
certamente contenuto in Pk− se Πk è definita negativa, e può esservi contenuto se Πk è semidefinita negativa o
indefinita. Quindi, in particolare: (2o teor. di Liapunov) ...Se Π ha un massimo isolato e questo lo si riconosce
tramite la Πk , allora l’origine è instabile. ♦
N.B. 4.2.30 Per Π = Π2 + . . . la condizione Π2 < 0 su (tutto) N (0, 0) ∩ H − ̸= ∅ è più forte di quella che richiede
che la forma 12 ⟨ q, π q ⟩ abbia seppure una sola direzione sulla quale essa è negativa. Nel caso (conservativo)
iperbolico questo è un metodo alternativo al Teorema 1.4 per provare che se ci sono autovalori di π con parti reali
negative allora l’instabilità è assicurata. ♦
Dimostrazione La funzione F : (q, p) &→ F (q, p) := −q T p H (q, p) verifica le ipotesi del teorema di Chetaiev.
Infatti:
(i) se (q, p) è in H − , allora anche (q, −p) è in H − ; e quindi dall’essere
' non vuoto l’insieme N (0, 0) ∩ H − segue
che è anche non vuoto l’aperto U := {(q, p) ∈ N (0, 0) ∩ H − ' pT q > 0} , e su di esso F (q, p) > 0 ;
(ii) la continuità di H su N (0, 0) implica F (q, p) = 0 su quella parte della frontiera di U che è in N (0, 0);
su di essa o è H (q, p) = 0 oppure q T p = 0 ; a tale insieme appartiene anche il punto (0, 0);
(iii) per i punti di U è valida la stima
0 1 ) *
∂H ∂H
Ḟ (q, p) = − q T ṗ + q̇ T p H (q, p) = − −q T + pT H (q, p)
∂q ∂p
) *
∂T2 ∂Π
= + qT + qT − 2T2 H (q, p)
∂q ∂q
0 7 8 1
= O |q| · |p|2 + kΠk (q) + O(|q|k+1 ) − 2T2 H (q, p) .
¦ p
0
H= U
q q
-
H
H=
0
[Più debolmente: l’origine è instabile se l’intersezione U − := H − ∩ Pk− è non vuota e localmente positivamente invariante [:= e
cioè ∀x ∈ U − si ha che φ(t, 0, x) ∈ U − almeno finché φ(t, 0, x) appartiene a N (0, 0) ]. In tal caso infatti, la parte della frontiera di
U − che è in N (0, 0) non viene raggiunta per costruzione, e su U − ̸= ∅ le F ed Ḟ sono positive]. "
Esempio 4.2.31 Con la notazione del Teorema 4, ove q = (x, y, z) ∈ R3 , siano Π : (x, y, z) &→ 12 c(x4 + y 4 ) − hz 4 ,
e T2 : (x, y, z) &→ 12 (ẋ2 + ẏ 2 + ż 2 ), con c, h > 0 .
Lo studio della linearizzata non è sufficiente a trarre conclusioni giacché ∂v(0, 0) ha solo autovalori nulli; questo
teorema garantisce l’instabilità. #
Esempio 4.2.32 Con la notazione del Teorema 4, ove q = (x, y, z) ∈ R3 , siano Π : (x, y, z) &→ 12 c(x2 + y 2 ) − hz 4 ,
e T2 : (x, y, z) &→ 12 (ẋ2 + ẏ 2 + ż 2 ), con c, h > 0 .
Lo studio della linearizzata non è sufficiente a trarre conclusioni giacché ∂v(0, 0) ha un autovalore nullo e non ha
autovalori positivi; tuttavia neanche questo teorema garantisce l’instabilità. Infatti la Π2 (x, y, z) = 12c(x2 + y 2 )
è semidefinita positiva, e quindi non è strettamente negativa sull’insieme (non vuoto)
M ' Z
− ' 4 1 2 2 2 1 2 2
H := (x, y, z, ẋ, ẏ, ż) ∈ N (0, . . . , 0) ' hz > (ẋ + ẏ + ż ) + c (x + y ) .
2 2
Né si potrebbe usare il teorema nel caso c < 0 a meno di riconoscere che esso disaccoppia le coordinate e quindi
che esistono intorni dell’origine localmente invarianti sui quali Πk < 0 .
In casi come questo la stabilità o la instabilità vanno provate, secondo la definizione, per verifica diretta, come
fatto nell’Esempio 1.13, oppure mediante l’uso di una qualche altra funzione di Liapunov (ammesso che esista). #
N.B. 4.2.33 Si consideri un sistema lagrangiano a potenziale autonomo, e cioè soggetto a forze indipendenti dal
tempo, conservative o anche giroscopiche:
⎧ n ) *
⎪
⎪ ∂Π(q) = ∂πh ∂πk k ∂Π(q) ''
⎪
⎪ Q h (q, q̇) = − + − q̇ ; ' =0;
⎨ ∂q h ∂q k ∂q h ∂q q=0
k=1
⎪ n
=
⎪
⎪
⎪
⎩ V (q, q̇) = πk (q)q̇ k + Π(q); π(q) = (π1 (q), . . . , πn (q)) .
k=1
M. Lo Schiavo
4.2. Il metodo diretto di Liapunov 221
si trova che Ḟ non risulta strettamente minore di zero su U ; infatti, in questo caso, il risultato non sussiste!
È noto il seguente controesempio (vedi: [Levi Civita 2o .1 p.471]). Un elemento vincolato ad un piano liscio è
soggetto a una forza effettiva totale della forma (k − mω 2 )x, con x = (x, y, z) ∈ R3 , k, ω ∈ R, costanti
positive. Si vede facilmente che l’origine è attrattiva se k < mω 2 . Detto ⃗e3 un versore ortogonale al piano, in
un riferimento uniformemente rotante con velocità angolare ω := (0, 0, ω) parallela all’asse (o, ⃗e3 ), l’equazione di
moto è: mξ̈ = (k − mω 2 )ξ + mω 2 ξ − 2mω × ξ̇ ). Ma* la)trasformazione dalle
* ) coordinate
* assolute a quelle relative
ξ cos ωt sin ωt x
è una trasformazione ortogonale: ζ = z ed = , e pertanto se l’origine è stabile
η − sin ωt cos ωt y
per le une lo è anche per le altre. Ciò implica che la presenza della forza giroscopica −2mω × ξ̇ nell’equazione
mξ̈ = kξ − 2mω × ξ̇ ne stabilizza la soluzione ξ(t) = η(t) = ζ(t) = 0 che, per ω = 0 , sarebbe instabile. Si noti
inoltre che la centrifuga: mω × (ω × ξ) non è una forza centrale in R3 , e quindi ogni ricorso al Teorema 4 è vano.
♦
Esempio 4.2.34 Nel caso di sistemi lineari autonomi ẋ = T x, con x0 ∈ V ≡ Rn si è costruita precedentemente
(vedi §1, Punti 1,. . .,4) la funzione F ≡ r2 espressa da ⟨ x, x ⟩ B ≡ F (x) = xT P −T P −1 x, ove B := {ϵh =
P eh }h=1,...,n è la base ε -quasi propria di T . Tale funzione è una funzione di Liapunov stretta in CνN (0) quando
1 2 i 2
tutte le parti reali
0 degli autovalori
1 di T sono strettamente negative; infatti si è visto che 2 ṙ = i=1 λ(i) (ξ ) +
Cν+τ
i=ν+1 ℜe µ(i) (ξ&i )2 + (& η i )2 + O(ε) e quindi, nel caso detto, essa può essere resa strettamente negativa. #
Un’analoga funzione di Liapunov, alternativa alla ⟨ x, x ⟩ B , la cui forma può dare notizie sugli insiemi
positivamente invarianti è la seguente.
Si supponga anche ora che la base data sia ortonormale rispetto al prodotto ⟨ ·, · ⟩ , e si pongano
- ∞
T
C = C T := + eT t eT t dt ed F C : x &→ F C (x) := xT Cx .
0
(i) La definizione è ben data se la matrice T ha tutti gli autovalori con ℜe λ < 0 . Infatti, in tal caso, entrambi i
sistemi lineari ẋ = T x, ed ẋ = T T x sono asintoticamente
? Tstabili,
? giacché T , T T hanno gli stessi autovalori.
Pertanto
? ? (vedi §1) esistono κ, α ∈ R positivi e tali che ?e ? < κe−αt ; ed un’analoga proprietà sussiste per
t
? T T t?
?e ?; ciò che implica l’integrabilità di C .
0 T 1 0 T 1 0 T 1
d T t Tt T T t Tt T t Tt
(ii) Sussiste la dt e e = T e e + e e T, ma il primo membro è continuo e fornisce
. ∞ d 0 T T t T t1
0 dt
e e dt = −1I , per cui è T T C + CT = −1I .
Si supponga che (la metrica sia banale e che), ad esempio, T sia normale: T T T = T T T . In tal caso lei e la sua trasposta sono
diagonalizzabili in una stessa base ortonormale BA ; e pertanto, in tale base, la matrice di C diviene
⎛ . ∞ 2λ1 t ⎞
0 e dt 0
⎜ .. .. ⎟
⎜ . ⎟
⎜ . ∞ 2ℜe µ t . ⎟
⎜ ⎟
⎜ 0
e i dt 0 ⎟
⎜ ⎟
C&=⎜ . ∞ 2ℜe µ t ⎟
⎜ 0 e i dt ⎟
⎜ 0 ⎟
⎜ .. .. ⎟
⎜ . ⎟
⎜ . ⎟
⎝ ⎠
..
0 .
⎛ 1 ⎞
− 2λ1
0
⎜ .. .. ⎟
⎜ ⎟
⎜ . . ⎟
⎜ 1 ⎟
⎜ − 1I
2ℜe µi 2
⎟
=⎜ ⎟.
⎜ .. .. ⎟
⎜ ⎟
⎜ . . ⎟
⎝ ⎠
..
0 .
Per cui, detta P la matrice (ortogonale) del cambio di base {e} → BA , e posto ξ := P −1 x, dalla ortogonalità di P segue che
⎛ ⎞
T −1 T & 1 ⎝ = ξi2 = ξ&i2 + η&i2 ⎠
F C (x) = ⟨ x, Cx ⟩ = ξ P CP ξ = ξ Cξ = − + .
2 i
λi µ
ℜe µi
Si paragoni questa forma con la F T (x) := ⟨ x, x ⟩ BT ≡ ⟨ x, x ⟩ . La derivata di questa, ancora per l’ortogonalità di P , vale (vedi
C C
§.1 Punto 2) Ḟ T = 2 i λ(i) ξi2 + j ℜe µ(j) (ξ&j2 + η&j2 ) ≡ − 12 ⟨ x, C −1 x ⟩ B . L’osservazione fa intuire che la funzione F C benché
diversa dalla F T , le sia strettamente analoga. #
Esempio 4.2.35 La funzione F C : x &→ xT Cx del’Esempio precedente può essere usata anche nello studio della
stabilità dell’origine di sistemi autonomi quasi lineari purché l’operatore T del campo (linearizzato) abbia ancora
autovalori con parti reali negative. Sia dato ẋ = T x + h(x) con T verificante tale ipotesi ed h(x) = o(|x|).
(iv’) Stante il fatto che C = C T , dalla Nota 1 vista sopra segue che la derivata Ḟ C è definita negativa; infatti:
La differenza con il caso lineare è che ciò avviene certamente solo entro un qualche intorno N (0) anziché in
tutto lo spazio. Di conseguenza, tale intorno N (0) gioca il ruolo di bacino di attrazione dell’origine.
Esempio 4.2.36 Sempre nel caso di punto di equilibrio iperbolico, il ragionamento si applica anche nel verso
della instabilità. Infatti sia B la base in cui la matrice di campo
) T =*∂v(0), che si suppone abbia k autovalori
T− 0
con ℜe λ+ > 0 ed n − k con ℜe λ− < 0 , assume la forma (vedi Punto 8 §1). Sia P la matrice del
0 T+
corrispondente cambio di base: B := {ϵj = P ej }j=1,...,n ; e siano x+ = P ξ+ , con ξ+ := (ξ+ 1 k
, . . . , ξ+ , 0, . . . , 0)T ,
k+1
) , i vettori che descrivono i due sottospazi W+ ed W− ,
n T
ed x− = P ξ− , con ξ− := (0, . . . , 0, ξ− , . . . , ξ−
rispettivamente invarianti relativamente ad T+ ed T− . Risulta allora, sempre con l’ipotesi di {e} -base ortonormale,
k
= n
=
i 2 i 2
⟨ x, x ⟩ B = ⟨ x+ , x+ ⟩ B + ⟨ x− , x− ⟩ B = (ξ+ ) + (ξ− ) .
i=1 i=k+1
.∞ T
Posto C∓ := 0
e±T∓ t e±T∓ t dt, per la forma
F : x &→ F (x) := − ⟨ x− , C− x− ⟩ B + ⟨ x+ , C+ x+ ⟩ B
espressa da K T −1 L'
F (x) = − ξ− P C− P ξ− + ξ+ P C+ P ξ+ 'ξ(x)
T −1
= − xT− P −T P −1 C− x− + xT+ P −T P −1 C+ x+
si ricavano le seguenti proprietà
Ḟ (x) = −⟨ A− x− , C− x− ⟩B − ⟨ x− , C− A− x− ⟩B
+ ⟨ A+ x+ , C+ x+ ⟩B + ⟨ x+ , C+ A+ x+ ⟩B
(
⟨ x, x ⟩B se ẋ = T x
=
⟨ x, x ⟩B + o(|x|2 ) se ẋ = T x + h(x) con h = o(|x|);
M. Lo Schiavo
4.2. Il metodo diretto di Liapunov 223
Quest’ultimo risultato è un caso particolare (autonomia) dei più forti teoremi di stabilità ed instabilità lineare
già visti, però a differenza di quelli dà informazione sui bacini di attrazione del punto fisso, in quanto fornisce una
funzione di Liapunov.
N.B. 4.2.37 Al punto (i) si è usato il fatto che l’uguaglianza
d 0 −T+T t −T+ t 1 0 T
1 0 T
1
e e = −T+T e−T+ t e−T+ t − e−T+ t e−T+ t T+
dt
implica che C+ è soluzione di −1I = −T+T C+ − C+ T+ , anzi quest’ultima ha soluzione definita positiva se e solo
se T è tale che ℜe λ > 0 . ♦
Giacché le componenti (r, s) dell’autovettore di e/2 + iβ verificano l’espressione s = (e/2 + iβ)r , si ricava la
) * ) * ) *
. 1 0 1 0
xµ .. yµ = P = ; e quindi P −1 = .
e/2 −β e/(2β) −1/β
per cui è possibile calcolare esplicitamente la matrice C . Il semplice, (anche se non immediato) risultato è:
- ∞ ) *
T −1 e2 + 2 −e
C= eT t eT t dt =
0 2e −e 2
e conferma il più veloce calcolo che cerca le soluzioni della T T C + T C = −1I . Si ottiene in definitiva la funzione
di Liapunov (stretta): )) 2 * *
−1 e
F C : (x, y) &→ F C (x, y) = + 1 x2 + y 2 − exy .
e 2
) *
1 β − e2
Alternativamente si possono calcolare le altre Liapunov, notando ad esempio che anche la P1−1 =
1 −(β + 2e
verifica la (2.10). Con essa si ottiene:
1 2 ' 1
'
(ξ + η 2 ) '
F 1 (x, y) = = xT P1−T P1−1 x =
e ξ=P1−1 x e
) *T ) *) *) *
1 x 1 1 1 β − e/2 x
=
e y β − e/2 −(β + e/2) 1 −(β + e/2) y
2
= (x2 + y 2 − exy).
e
) *
x
O anche, vedi Esempio 2.6 e posto x := , la lunghezza ⟨ x, x ⟩ B che fornisce la F (x, y) = β12 (x2 +y 2 −exy).
y
È facile verificare
7 che tali funzioni di Liapunov
8 sono “strette”. Ad esempio, si ha: Ḟ C (x) = −xT x < 0 ed
Ḟ (x) = e x2 + y 2 − exy − 2x2 y 2 + ex3 y = eF (x) + o(|x|2 ) > 0 . #
Esempio
) *4.2.39 L’equazione di Lienard: ẍ + f (x)ẋ + g(x) = 0 , con x0 , ẋ0 ∈ R, e g ∈ C 1 (N (0)). Posto
x
x := , l’equazione equivale alla
y
) * ) *
ẋ η
ẋ ≡ = =: v(x), x 0 ∈ R2 .
η̇ −g(x) − f (x)η
Si supponga che: g(x) ≷ 0 se x ≷ 0 , ed f (x) > 0 in N (0); e cioè, qualitativamente, che g(x) agisca “come una
forza elastica”, e che f (x)ẋ sia dissipativa. Tale sistema ha l’origine xe = (0, 0) come punto di equilibrio, e le
sue caratteristiche qualitative
.x lasciano supporre che l’origine sia un punto di asintotica stabilità. Tuttavia per esso
la funzione E = 12 η 2 + g(τ )dτ non è una funzione di Liapunov stretta. In effetti Ė = −f (x)η 2 non è definita
positiva in N (0, 0).
In questo esempio, l’asintotica stabilità dell’origine viene riconosciuta, più agevolmente, ricorrendo ad un altro
sistema di equazioni, equivalente al primo e ottenuto da esso mediante una diversa definizione della seconda variabile;
esso è ⎧ - x
⎨ ẋ = y − f (τ )dτ
⎩
ẏ = −g(x) .
.x
Per questo secondo sistema la funzione E : (x, y) &→ E (x, y) = 12 y 2 + g(τ )dτ non
. x solo è definita positiva in
N (0, 0), ma ha anche derivata definita negativa; infatti f (y) > 0 in N (0) implica che f (τ )dτ ≷ 0 ⇐ x ≷ 0 .
#
Il punto di equilibrio x0 := (0, 0) è una sella avente l’asse delle x come varietà instabile, e quello delle y come
varietà stabile. L’altro punto di equilibrio è xe := (d/c, a/b)T nel quale la linearizzata
) *
ha ℜe λ = 0 (vedi: [§II.1])
) * ) *
ξ cx ξ̇
Tutto ciò si può vedere anche più facilmente ricorrendo alla trasformazione di variabili: := , che fornisce =
η by η̇
) *
ξ(a − η)
.
η(ξ − d)
Per utilizzare il metodo diretto si cerca una funzione di Liapunov della speciale forma F : (x, y) &→ F (x, y) =
f (x) + g(y). Risulta
Ḟ (x, y) = f ′ (x)(ax − bxy) + g ′ (y)(cxy − dy) ,
e si nota che è possibile risolvere l’equazione che impone alla F (x, y) di essere un integrale primo: infatti l’equazione
Ḟ (x, y) = 0 è a variabili separabili e dà
xf ′ (x) yg ′ (y)
= = cost. = (ad esempio) = 1.
cx − d by − a
Tale scelta impone f ′ (d/c) = g ′ (a/b) = 0 e quindi c’è la possibilità che F abbia segno definito in N (xe ). Si
ricavano f (x) = cx−d ln x, g(y) = by−a ln y ; e si nota che la funzione F (x, y) = f (x)+g(y) è un'integrale primo
solo localmente in un intorno N (xe ) contenuto, o al più uguale, al 1 o quadrante (aperto): {(x, y) ' x > 0, y > 0} ,
cosa che, d’altra parte, è del tutto inessenziale dato il significato fisico delle variabili.
Qualora su N (xe ) la funzione F = F (x, y) risultasse anche definita in segno, si avrebbe la stabilità (sempli-
ce)
) dell’equilibrio
* xe . È questo il caso, come si prova facilmente mediante lo studio dell’Hessiano: ∂v(x, y) =
d/x2 0
, che è definito positivo in N (xe ).
0 a/y 2
Diversamente dal caso lineare, questo procedimento ha in più potuto fornire la forma delle traiettorie di fase:
esse devono appartenere alle linee di livello della funzione F (x, y) cosı̀ trovata.
Per esaminare l’andamento delle traiettorie, e verificare che le linee di livello della funzione cosı̀ trovata sono tutte curve chiuse,
corrispondenti a moti periodici non asintotici, aventi il punto di equilibrio come centro, si può (vedi [Hirsh]) procedere come segue.
Siano M ' Z ; ' <
' d a '
x0 ∈ Q1 := (x, y) ' x > , y > , τ := sup t ' φ(t, t0 , x0 ) ∈ Q1 .
c b
(
ẋ0 = x0 (a − by0 ) < 0
Per t = t0 è e tali rimangono anche ẋ, ẏ per t < τ.
ẏ0 = y0 (cx0 − d) > 0
M. Lo Schiavo
4.2. Il metodo diretto di Liapunov 225
e si distinguono due casi (iperbolici con autovalori: −a e −d + ac/λ, ed autovettori: (1, 0)T ed (r, s)T tale
che [(−d + ac/λ) + a]r + (ab/λ)s = 0 ):
Caso n o 1. ac > λd che dà Det < 0 e cioè una sella- (1).
. <0 0
y .y=. 0
L y>
x
b
0
x1 .
. x<
M x.> x=0 0
0
M
L
x1
x.
. =0 x =0
b
y
Tale x0 esiste, e l’orbita per (x0 , 0) senz’altro non contiene (0, 0) perché su essa E = 12 ẋ2 + Π(x) = E 0 < 0. Se
allora appartenesse all’intorno N (0, 0) per ogni t > 0 , essa dovrebbe avere insieme ω -limite in [N (0, 0)].
Per il teorema di Poincaré, tale ω -limite può essere o un punto di equilibrio o un ciclo, magari limite. La prima
eventualità è esclusa dall’essere (0, 0) isolato, cosı̀ come l’esistenza dell’integrale primo impedisce l’esistenza di un
ciclo limite. Rimane da escludere la possibilità che l’orbita per (x0 , 0) sia essa stessa orbita chiusa e contenuta in
[N (0, 0)]. Se lo fosse, essa racchiuderebbe una zona (limitata) di energia E < E 0 [ciò accade su ogni ciclo del sistema
vista la forma della funzione E : si pensi al suo andamento lungo le linee x = cost ed al fatto che un qualunque ciclo deve intersecare
l’asse delle x ].
Vi sarebbe allora, in contraddizione con l’ipotesi, un altro punto di equilibrio nella regione racchiusa dal ciclo
stesso; sussiste infatti il seguente Lemma che, pur se valido solo in R2 , lo è anche per sistemi non conservativi:
Lemma 4.2.1 Se la regione U ⊂ R2 racchiusa da un ciclo γ (e cioè tale che K := U ∪ γ sia un compatto in R2 )
appartiene tutta al dominio di regolarità del campo, essa contiene (almeno) un equilibrio.
M. Lo Schiavo
Capitolo 5
g(xn)
g¶(xn)
xn+1 xn
Sistemi discreti si presentano in modo naturale non solo autonomamente nella descrizione di sistemi evolutivi i
cui incrementi temporali sono naturalmente modulari, quali ad esempio sistemi biologici, economici, sociali, etc.,
ma anche nello studio di quelli continui sia come loro “discretizzazioni” sia in procedimenti di calcolo mediante
approssimazioni successive. I seguenti casi ne sono alcuni esempi.
• Mappe di Poincarè, sia con periodi naturali che stroboscopici; si veda oltre.
• Approssimazioni numeriche. Ne sono un esempio i vari metodi che cercano le soluzioni di un’equazione del
tipo ẋ = v(t, x) valutandone i valori più plausibili su un ristretto insieme, discreto, di punti opportunamente
scelti nello spazio della variabile indipendente. Di essi quello forse più usato è il metodo di Runge-Kutta,
che valuta la soluzione x : t &→ x(t) ∈ Rn della
fornendone i valori, nella famiglia di istanti {ti := t0 + hi}i=1,2,... , ottenuti a partire da x0 mediante la
mappa
xi+1 = x(ti + h) := f (ti , xi ; h), ovvero xi+1 = fi (xi ),
dove ⎧
⎪
⎪ f (t, x; h) = x + h ϕ(t, x; h)
⎪
⎪
⎪
⎪ ϕ(t, x; h) := 16 [k1 + 2k2 + 2k3 + k4 ](t, x; h)
⎪
⎪
⎪
⎨ k1 (t, x; h) := v(t, x)
⎪
⎪
⎪ k2 (t, x; h) := v(t + h2 , x + h2 k1 (t, x; h))
⎪
⎪
⎪
⎪ k3 (t, x; h) := v(t + h2 , x + h2 k2 (t, x; h))
⎪
⎪
⎩
k4 (t, x; h) := v(t + h , x + hk3 (t, x; h))
227
228 Capitolo 5. Comportamento caotico dei Sistemi
xn+1
k4
k3
k2
'
xn
k1
t0+nh t0+(n+1/2)h t0+(n+1)h
Studiare la dinamica di un sistema discreto definito su una varietà M significa studiare la famiglia di operatori
di evoluzione definiti su M ed indiciati con il parametro n ∈ Z che fanno corrispondere, per ciascun fissato n per
il quale l’operazione sia lecita, al valore iniziale x0 ∈ M quello attuale xn . Nel caso autonomo, il valore attuale
è dato dalla
xn = f ◦n (x0 ) = f ◦ f ◦ f ◦ · · · ◦ f (x0 ) .
[ \] ^
n volte
In tal senso il moto Z → M, definito dalla n &→ xn ∈ M, è soluzione della xn+1 = f (xn ) . Nel seguito per
brevità si scriverà xn =: f n (x0 ), dato che le potenze algebriche di una funzione non compariranno.
Pur di apportarvi alcune (evidenti) modifiche, molte delle definizioni già date per i campi si possono rienunciare
in modo del tutto analogo per le mappe.
Anche per queste si definiscono traiettorie, orbite periodiche, punti di equilibrio, varietà stabili o instabili, bacini
di attrazione, etc. Tuttavia in tali analogie va tenuto presente il fatto che
Esse, pur potendo risultare dense in varietà regolari ed unidimensionali, possono anche non essere in alcun modo
ordinate su esse; ed in particolare, se anche una traiettoria γ di un sistema discreto appartiene ad una linea ℓ ∈ M
individuata da una ℓ ∈ C(R, M), è certamente distinta da essa e non la può riempire.
Inoltre è importante notare che il passaggio da un’equazione differenziale ordinaria ad un’equazione discreta
che in qualche modo le corrisponda non è affatto immediato. Per rendersene conto basta pensare al diverso
comportamento delle soluzioni, in particolare per b < 0, dei due sistemi lineari
il secondo dei quali ha un comportamento che, almeno per il prescelto passo temporale: h = 1 , è ben diverso dal
primo (si veda l’Esempio 1 qui di seguito).
Nota 5.1.1 Si osservi che le costanti b nelle due equazioni non sono grandezze “omogenee” fra loro. Inoltre si noti che l’aggiungere
al campo della seconda il termine xn proveniente dall’uso della “derivata discreta” nella prima ∂xn := xn+1 − xn non è di grande
aiuto, a meno che tale discretizzazione venga effettuata a passi temporali h > 0 convenientemente piccoli. La discretizzazione infatti
può seguire sia lo:
Schema esplicito: xn+1 = x((n + 1)h) = xn + hẋn + h2 ẍn /2 + · · · che, ad esempio nel caso dell’equazione ẋ = b x fornisce
1
∂x(nh) = (xn+1 − xn ) = b xn da cui xn = (1 + bh)n x0 ;
h
sia lo:
Schema implicito: xn = x((n + 1)h − h) = xn+1 − hẋn+1 + h2 ẍn+1 /2 − · · · , che per la stessa equazione ẋ = b x fornisce
1
∂x((n + 1)h) = (xn+1 − xn ) = bxn+1 da cui xn = (1 − bh)−n x0 .
h
C→
Queste sono le soluzioni che nel limite: n ∞ , h → 0 , nh =: t = O(1) , vanno paragonate
Cn con la x(nh) = (ebh )n x0 , e
∞ 1 1
ciò paragonando l’espressione di enbh = k k
k=0 k! (nh) b con quelle di (1 + bh)n = k
k=0 k! [nh(nh − 1) · · · (nh − k + 1)] b , o,
rispettivamente, con la sua analoga per (1 − bh)−n . ◃
M. Lo Schiavo
5.1. La mappa quadratica 229
In quel che segue, lo studio delle mappe verrà fatto senza che esse rivestano alcun significato di soluzioni
approssimate di altrettanti eventuali schemi continui, e se ne indagheranno le proprietà in modo specifico ed
indipendente dal loro uso. Inoltre si esamineranno in particolare le proprietà della dinamica generata da una
funzione f : R → R almeno derivabile, anche se per alcune di esse la continuità è sufficiente.
Si hanno le seguenti definizioni.
Punto fisso, per una mappa f : M → M := un punto x∗ tale che f (x∗ ) = x∗ .
Punto periodico, per una mappa f : M → M := un punto x∗ che sia fisso per una qualche iterata f k della
9 :
mappa. In tal caso k è detto il periodo del punto e di tutta la traiettoria x, f (x), f 2 (x), . . . , f k−1 (x) .
Punto critico, per una mappa f : M → M := un punto c tale che ∂f (c) = 0 .
Punto' iperbolico, per una mappa f : M → M := un punto fisso per la mappa, tale che la matrice jacobiana
∂f (x) 'x=x∗ non abbia autovalori di modulo uno.
∀y ∈ B ⇒ ∃x ∈ D : y = f (x) .
x ̸= x′ ⇒ f (x) ̸= f (x′ ) .
Mappa f : D ⊂ X → B ⊂ Y invertibile, o “Bijettiva” := una mappa che sia una funzione suriettiva ed
onto
iniettiva: e cioè che sia 1 ←→ 1 da D a B .
Per una funzione, sussistono le seguenti proprietà (si vedano anche le Appendici). Sia {Eα }α∈A ⊂ 2X una
famiglia di insiemi, e B ⊂ Y. Allora
e la f (A ∩ B) ⊂ f (A) ∩ f (B) è stretta se esistono x ∈ A\B ed y ∈ B\A tali che f (x) = f (y). Per altre
utili relazioni si veda [Royden Cap. I.3] e [Kelley Cap. IV teor.1]
Nel seguito, si pensi all’Esempio 1 quando la proprietà: “parte reale degli esponenti caratteristici ≶ 0 ” verrà
modificata nella “moduli dei moltiplicatori ≶ 1 ”.
È opportuno ribadire che se il passo di discretizzazione non è sufficientemente piccolo, fra i due tipi di sistemi
dinamici si possono presentare differenze che non sono solo formali. Ad esempio l’equazione logistica ṗ = kp(1 − p),
anche se con k > 0 , non è cosı̀ analoga come sembra alla pn+1 = µpn (1 − pn ). Infatti mentre la prima ha una
facile soluzione, del tutto regolare lı̀ dove esiste e ciò in modo indipendente dal parametro k , (vedi § 1.4)
0 1−1
p(t) = p0 p0 + (1 − p0 ) e−k(t−t0 )
la seconda presenta comportamenti assai più complessi, almeno per certi valori del parametro µ.
Sarà anzi proprio quest’ultima l’esempio-guida che verrà qui usato per introdurre alcuni dei comportamenti “
difficili ” comuni a molti dei sistemi non lineari, sia discreti che continui.
Una delle cause di tale complessità risiede (come si vedrà tra breve) nel fatto che la mappa fµ (x) := µx(1 − x)
d
non solo non è monotona, ma ammette valori del parametro µ per i quali il valore della derivata dx fµ (x) può
non appartenere all’intervallo [−1, 1]. A ciò si aggiunge il fatto che la dinamica generata da n &→ f n , mentre
ha comportamento banale al di fuori di un certo compatto (che per essa è l’intervallo [0, 1]), si mantiene invece
viva ed interessante all’interno dell’intervallo stesso; ciò rende questo sistema paragonabile con quelli definiti solo
su varietà compatte, la dinamica dei quali è generalmente assai più complicata di quelli su varietà aperte.
N.B. 5.1.3 Come esempio di varietà topologica compatta si consideri il toro Tn sui punti del quale, considerati
come elementi di Rn , sia definita un’operazione che lo rende gruppo. Ad esempio, con l’usuale notazione si ha
; ' <
'
Tn := θ ' θ := (θ1 , . . . , θn ) ∈ [0, 2π)n ≡ Rn /2πZn ; con θ1h + θ2h = θ3h mod(2π)
sul quale la metrica è la usuale metrica su Rn /2πZn , ovvero quella invariante per rotazioni:
@ n
A1/2
= K L2
d(θ1 , θ2 ) := (θ1h − θ2h ) mod (2π) .
h=1
con la nota operazione di prodotto: z1h · z2h = exp i(θ1h + θ2h + 2kπ). Nel seguito verrà usata la prima di queste
notazioni. ♦
G (x ◦1 y) = G (x) ◦2 G (y), ∀ x, y ∈ G2 .
Un endomorfismo G del toro è un’operazione iniettiva da Tn in sé che ne conserva la struttura: ossia trasforma
aperti in aperti e commuta con l’operazione di somma delle θ . Esso è quindi un’operazione continua e genuinamente
lineare. Ad esempio: ogni sottogruppo chiuso di T1 , e che sia distinto da T1 , è un gruppo ciclico finito dato dai
divisori dell’unità: {θ&k := 2πk/m}k=0,...,m−1 per qualche m intero. (dimostrazione analoga a quella vista nel
§ III.1 per l’esistenza del periodo di un moto).
Sussistono inoltre (vedi: [Walters]) le seguenti proprietà:
• Gli endomorfismi del toro Tn sono le mappe lineari A : TnC → Tn rappresentate da matrici n × n: A ad
n
elementi interi: Aj ∈ Z per i, j = 1, . . . , n , (Aθ) = j=1 Aij θj mod 2π . La condizione Aij ∈ Z è
i i
quella che elimina le discontinuità nei punti θ = (2πm1 , . . . , 2πmn ) con (m1 , . . . , mn ) ∈ Zn . Tali morfismi
risultano suriettivi quando det A ̸= 0 , e sono anche iniettivi (=: automorfismi) quando det A = ±1 ,
[Walters, Teor. 0.15]. Tutti gli endomorfismi (continui) su Tn conservano la misura di Haar (e cioè il volume
normalizzato di Rn /2πZ).
M. Lo Schiavo
5.1. La mappa quadratica 231
• Si ricordi che, in uno spazio di misura, una trasformazione T che conserva la misura si dice ergodica quando
ogni insieme misurabile e T -invariante ha misura banale, (o anche quando ogni funzione misurabile ed
invariante lungo le traiettorie della trasformazione T è costante quasi ovunque). In particolare si ha che,
relativamente alla “lunghezza” del toro (misura di Haar): d(θ1 , θ2 ) = |θ1 − θ2 | mod (2π), un endomorfismo
θ &→ aθ del toro T1 è ergodico quando a è (intero e) tale che |a| > 1 . Un endomorfismo suriettivo del
toro Tn è ergodico quando non esiste y ∈ Zn tale che y T Ak = y T per alcun k ∈ N+ , e pertanto quando
spct(A) ̸∋ {eiqπ } per alcun q ∈ Q .
Una rotazione θ &→ θ + φ del toro T1 in sé è ergodica quando φ/2π ̸∈ Q .
f2
2π/3
f
2π/3 f3
f2
ϕ 2π/3
f
traiettoria, e cioè l’insieme degli evoluti di ogni fissato θ0 iniziale, ha punti distinti (e non periodici), perché se ve
ne fossero due coincidenti dovrebbero esistere n1,2,3 ∈ N tali che n1 ν = n2 ν + n3 , e ciò è contrario all’ipotesi.
L’essere T1 compatto fa sı̀ che ogni traiettoria ammetta almeno un punto di accumulazione. Ne segue che, per ogni
ε > 0 , esistono θ1 , θ2 tali che d(θ1 , θ2 ) < ε e quindi esistono (n1 , n2 , n3 ), eventualmente dipendenti da θ0 , tali
che 0 < |θ0 + 2πνn2 + 2πn3 − θ0 − 2πνn1 | < 2π ε , ovvero 0 < |n ν + n3 | < ε con n := n2 − n1 . Se allora si
considera la successione: θ&0 := θ0 , θ&1 := θ1 = θ0 + 2πνn1 , {θ&m := θ&m−1 + 2πνn = 2πmν(n2 − n1 ) + θ0 }m=2,3,... ,
si riconosce che essa è fatta di punti, tutti appartenenti alla traiettoria uscente da θ0 , e distribuiti uniformemente
su T1 in quanto si conservano le lunghezze degli archi d(θ&m , θ&m+1 ), e queste sono tali che 0 < d(θ&m , θ&m+1 ) < ε.
Come si è detto, per le rotazioni del toro T1 la condizione ν ̸∈ Q equivale all’ergodicità (vedi Walters Teor. 1.8).
#
esiste k ∈ Z tale che θ∗ = 2kπ/(an − 1) . Essi sono quindi gli an − 1 punti del toro T1 individuati da questa
espressione al variare di k = 0, 1, 2, . . . , an − 1 ove, come si è detto, il coefficiente a è un numero intero.
Si fissi ad esempio a = 3 . Sono n-periodici tutti i punti θ∗ tali che θ∗ /2π è un numero razionale della forma
k/(3n − 1) con k ∈ Z. Pertanto se ci si domanda dell’esistenza di punti periodici aventi un periodo comunque
grande, si trova che l’insieme di tali punti è 'denso sul toro,' dato che fissato un qualunque intervallo di lunghezza
' '
ε > 0 esistono certamente n, m ∈ N tali che ' 3n1−1 − 3m1−1 ' < ε . D’altra parte, quando a è intero e con |a| > 1 ,
esistono punti con traiettoria densa in T1 . In più, l’insieme dei punti periodici ha misura nulla, e quasi tutti i
punti (tutti salvo i periodici) hanno traiettorie dense in T1 (euristicamente: per n grande l’immagine inversa di
T1 secondo f n è una famiglia di segmenti arbitrariamente piccoli ed uniformemente sparsi su tutto T1 ; pertanto
comunque preso θ̄ ∈ T1 non periodico, si troveranno sue k -controimmagini, per k grande, quasi ovunque sul toro).
2π/3 2π/9
Per affrontare lo studio sistematico dei sistemi dinamici discreti è bene iniziare dal caso più semplice: il sistema
definito in R da una funzione f : R → R.
Fintanto che la funzione f : R → R è semplice, il modo più facile per studiarne le proprietà, anche dinamiche,
è l’analisi grafica . Con ciò si intende la costruzione, direttamente sul piano contenente il grafico della f , della
spezzata:
(x0 , 0), (x0 , f (x0 )), (f (x0 ), f (x0 )), (f (x0 ), f 2 (x0 )),
(f 2 (x0 ), f 2 (x0 )), (f 2 (x0 ), f 3 (x0 )), (f 3 (x0 ), f 3 (x0 )), ...
ovvero della spezzata:
di estremi:
(x0 , 0), (x0 , x1 ), (x1 , x1 ), (x1 , x2 ), (x2 , x2 ), (x2 , x3 ), . . . .
attractor attractor
x0 k
f (x0) t -k
f (x0) x0 t
repulsor repulsor
Le proprietà di questa fanno risalire ad alcuni dei comportamenti caratteristici della dinamica del sistema in esame.
Ciò, d’altra parte, si era già notato in occasione della discussione sulla mappa di primo ritorno, (vedi: [§ III.4]).
repulsore repulsore
attrattore attrattore
xn+1 xn+1
xn xn
2-periodico 3-periodico
M. Lo Schiavo
5.1. La mappa quadratica 233
xn+1 xn+1
xn xn
4-periodico 4-periodico
In particolare: un punto fisso x̄ nel quale |∂f (x̄)| ̸= 1 , come si è detto, si chiama iperbolico; esso è asintotica-
mente stabile o attrattivo se |∂f (x̄)| < 1 (in tal caso la f è localmente una contrazione in quanto |f (x) − f (x̄)| =
|∂f (ξ)(x − x̄)| < |x − x̄|), mentre è repulsivo se |∂f (x̄)| > 1 ; si noti però che tali condizioni non sono necessarie
per l’attrattività (repulsività) di un generico punto fisso.
I seguenti sono alcuni esempi di non iperbolicità:
Siano dati un chiuso [a, b] ⊂ R ed una f : [a, b] → R che abbia un numero finito nc di punti di stazionarietà, o
“punti critici”, e che sia continua (e si noti che questa è una forte ipotesi). Sono opportune le seguenti
Osservazioni.
(i) Se f è tale che f ([a, b]) ⊆ [a, b] oppure tale che f ([a, b]) ⊇ [a, b], (e non se si sovrappongono solo
parzialmente o affatto), allora in [a, b] la f ammette un punto unito. Infatti f (x) − x è continua ed è (nel
primo dei due casi) non negativa in a e non positiva in b . Pertanto, o è f (a) = a, oppure f (b) = b , oppure
esiste c ∈ (a, b) tale che f (c) = c. Il secondo dei due casi è del tutto analogo: necessariamente esistono a′ ≥ a
e b′ ≤ b tali che f (a′ ) ≤ a ed f (b′ ) ≥ b ed il risultato segue come sopra: f (x) − x è non positiva in a′ e
non negativa in b′ . In questo secondo caso inoltre si deduce l’esistenza di a′′ ≥ a′ ≥ a e di b′′ ≤ b′ ≤ b tali
che f ([a′′ , b′′ ]) = [a, b].
f(b)
b¶
f(a)
f(a¶)
a a¶ b
(ii) Se, in più, f è derivabile su [a, b] e se, dato x0 ∈ [a, b], la traiettoria {xm := f m (x0 )}m∈N appartiene ad
[a, b], allora la derivata di f m (x0 ) esiste per ogni m ∈ N, e vale
In particolare si ha
∂f m (xi ) = ∂f (xm−1+i ) · ∂f (xm−2+i ) · · · ∂f (xi ) ,
con, generalmente,
Conseguenza importante.
I possibili punti critici (o di stazionarietà) delle mappe f m , m ∈ N, sono i punti x0 tali che ∂f (xk ) = 0
per qualche 0 ≤ k ≤ m, ovvero tali che f k (x0 ) = c con c un punto critico di f . Essi sono quindi i punti le
cui traiettorie passano per (contengono) i punti critici della f . Come tali, essi formano l’insieme
b b
C(f m ) = γ −m (c) := {f −k (c)}k=0,...,m−1 ,
c c
ove l’unione è estesa all’insieme dei punti critici c della f . Nel seguito si supporrà che il numero nc dei punti
critici c della f sia finito: nc < ∞.
Dalla f (A ∪ B) = f (A) ∪ f (B) segue subito che l’insieme M (f m ) = f m (C(f m )) dei valori di stazionarietà
per la funzione f m è dato dalla:
b9 7 8: b9 : b
M (f m ) = f m f −k (c) k=0,...,m−1 = f k (c) k=1,...,m =: γ m (c)
c c c
(iii) Un punto unito per la mappa f m corrisponde ad una intera orbita periodica per la mappa f
Il numero m è detto minimo periodo se tutti gli xi sono distinti fra loro. (Si noti che un insieme f m -
invariante può contenere punti di più orbite periodiche per la f , eventualmente anche di periodi diversi fra
loro).
(iv) Se f ammette un’orbita periodica di periodo (minore o uguale ad) m, sussistono per i = 1, . . . , m le relazioni:
e la
∂f m (xi ) = ∂f (xm+i−1 ) · · · ∂f (xm ) · ∂f (xm−1 ) · · · ∂f (xi )
= ∂f (xi−1 ) · · · ∂f (x0 ) · ∂f (xm−1 ) · · · ∂f (xi )
= ∂f i (x0 ) ∂f m (x0 ) (∂f i (x0 ))−1 .
Nel caso generale, invece, si ha solo la
d '
'
∂f m (xi ) · ∂f i (x0 ) = ' f m ◦ f i (ξ)
dξ ξ=x0
d '
'
= ' f i (f m (ξ)) = ∂f i (xm ) · ∂f m (x0 ).
dξ ξ=x0
Nel caso periodico, quindi, le (matrici) ∂f m (xi ) e ∂f m (x0 ) (entrambe generalmente diverse da 1I ) sono
simili, e ciò implica che gli autovalori dello Jacobiano di f m sono gli stessi su ogni punto della traiettoria
periodica. Ne segue che se per qualche i∗ ∈ {1, . . . , m} avviene che tutti gli autovalori di (∂f m ) (xi∗ )
hanno moduli minori di 1 allora l’orbita periodica è attrattiva in ogni suo punto, e tutta repulsiva se i moduli
sono maggiori di 1 .
Prendono il nome di orbite periodiche superstabili quelle per le quali la ∂f m (xi ) ha autovalori nulli, e di neutre
quelle per le quali la ∂f m (xi ) ha autovalori di modulo unitario.
Esempio pilota.
1
La mappa quadratica : fµ (x) := µx(1 − x). La mappa quadratica ha al più due equilibri: x̄0 = 0 e x̄µ = 1 − µ ;
essa verrà qui studiata per valori positivi del parametro, e cioè con il vertice della parabola a destra dell’origine.
Si può osservare che il caso µ ∈ [0, 1] e cioè quello nel quale il punto fisso x̄µ cade alla sinistra dell’origine può
essere ricondotto al caso µ ≥ 1 (in cui x̄µ è alla destra dello zero) mediante la trasformazione di variabili che porta
M. Lo Schiavo
5.1. La mappa quadratica 235
l’origine nel punto fisso instabile e rinormalizza gli assi rendendo unitario il nuovo segmento di base. Essa è data
dalla ( (
ξ = α(x − x̄) x̄ = (1 − 1/µ) , λ := 2 − µ,
con
η = α(y − x̄) α = (2 − λ)/λ ≡ µ/(2 − µ)
Per µ > 1 , x̄µ resta fissato alla destra di x̄0 ed alla sinistra di 1 . Ne segue che tutta la dinamica interessante
avviene sull’intervallo [0, 1]. Infatti, siccome µ > 1 implica che fµ (x) < x per ogni x < 0 , (l’altro punto di equilibrio
n
x̄µ è maggiore di x̄0 = 0 ), un qualunque x0 < 0 evolve necessariamente in xn −→ −∞.
∞
D’altra parte, per x > 1 si ha fµ (x) < 0 , e quindi anche il semiasse a destra di 1 evolve verso −∞. Invece,
almeno per µ < 4 , l’intervallo [0, 1] è invariante; in particolare l’unica immagine inversa dell’origine x̄0 è il punto
x = 1.
La ∂fµ (x) = µ(1 − 2x) fornisce ∂fµ (x̄0 ) = µ e ∂fµ (x̄µ ) = 2 − µ e quindi |∂fµ (x̄µ )| < 1 purché 1 < µ < 3 ,
il che comporta che per questi valori del parametro il punto di equilibrio x̄µ è attrattivo mentre l’origine x̄0 è
instabile.
Si chiami xµ = 1/µ l’altra radice dell’equazione fµ (x) ≡ µx(1 − x) = x̄µ = 1 − 1/µ . Si nota che i due punti
xµ , x̄µ sono simmetrici rispetto al punto critico c = 1/2 nel quale la fµ ammette valore massimo fµ (c) = µ/4.
Inoltre, se µ è maggiore (minore) di 2 , entrambe fµ (c) = µ/4 ed x̄µ risultano maggiori (minori) del punto
critico c = 1 − 2 , ed è non vuoto (vuoto) l’insieme {fµ−1 (c)}.
Per studiare le caratteristiche del sistema individuato dalla mappa fµ è allora opportuno suddividere ulterior-
mente i valori del parametro nei seguenti intervalli:
µ 1
• 1 < µ ≤ 2. Si ha fµ (c) = ≤ c := e xµ ≥ x̄µ
4 2
xn+1
f¹(c)
xn
{
x {
x c x¹
0 ¹ I+
I-
Chiamati:
' ' '
' ' '
I− := {x ' 0 < x < x̄µ }, I0 := {x ' x̄µ < x < xµ }, I+ := {x ' xµ < x < 1},
si vede facilmente che la fµ è monotona crescente su I− e decrescente su I+ , che fµ ([I+ ]) = [I− ], e che
x ∈ I− (e µ > 1 ) implicano x < fµ (x) < x̄µ . Ne segue che per x ∈ I− si ha x < fµ (x) < fµ2 (x) < . . . < x̄µ .
Né vi possono essere su I− altri punti di accumulazione diversi da x̄µ perché questi è l’unico punto unito
della fµ che possa essere attrattivo. D’altra parte, la x ∈ I0 (e µ4 < 12 ) implicano f ([c, xµ ]) = fµ ([x̄µ , c]) =
[x̄µ , f (c)] ⊂ [x̄µ , c], e siccome la fµ è monotona su (x̄µ , c) e su di esso è x̄µ < fµ (x) < x, si può ripetere su
questo l’argomento appena discusso per I− .
In definitiva su I− ∪ I0 ogni successione x0 , x1 , . . . , xn := fµn (x0 ) ammette x̄µ come limite, e cioè x̄µ ha
come bacino di attrazione tutto l’intervallo aperto (0, 1).
µ 1
• 2 < µ ≤ 3. Si hanno, ora, le relazioni: fµ (c) = >c= e xµ < x̄µ ,
4 2
(ma ancora fµ (c) < 1 ed x̄µ attrattivo).
xn+1
x0=0.1
¹ =2.9
xn
{
x x¹ c {
x
0 I ¹ I+
-
Infatti:
Innanzi tutto si nota che per µ > 2 si ha c < x̄µ < fµ (c), e che la fµ è decrescente su [c, fµ (c)] e quindi che
fµ2 (c) ≤ c. D’altra parte il minimo di µ &→ fµ2 (c) = (4µ2 − µ3 )/16 per µ ≥ 2 si ha per µ = 2 e vale c.
Poi si osserva che su I− la fµ è monotona ed ha valore massimo x̄µ , che è definitivamente maggiore di xµ .
Pertanto ogni successione x0 , x1 , x2 , . . . con x0 ∈ I− ammetterà un n < ∞ tale che xn ∈ I0 , né può convergere
prima data l’assenza in I− di punti fissi (attrattivi) per la fµ . (Si pensi alla traiettoria inversa del punto xµ ).
A sua volta, su I0 si ha x̄µ ≤ fµ (x) ≤ fµ (c) < 1 e cioè la fµ ha valori in I+ , e su questo la fµ è monotona
decrescente. Ne segue 0 < fµ2 (c) ≤ fµ2 (x) ≤ x̄µ . Per cui su I0 si ha x < f 2 (x) < x̄µ , e ciò implica che f 2 contrae
I0 verso x̄µ .
Infine su [c, x̄µ ] non solo la fµ ma anche la fµ2 sono monotone, ed anzi:
∂fµ2 (x) = µ(1 − 2fµ (x))µ(1 − 2x) = µ2 (1 − 2(1 + µ)x + 6µx2 − 4µx3 ) < 1
e tale derivata è massima in x̄µ ove vale ∂fµ2 (x̄µ ) = (2 − µ)2 e diminuisce retrocedendo, con le x, fino a c. "
Tali funzioni hanno finita, per ogni m ∈ N, la cardinalità dell’insieme f −m (c), ed f m è strettamente mo-
notona su ciascuno degli intervalli nei quali il dominio [0, 1] resta suddiviso dai punti dell’insieme γ −m (c) :=
{f −k (c)}k=0,...,m−1 , unici possibili punti di stazionarietà per la f m . ♦
Tuttavia, per µ ∈ (2, 3] il comportamento della fµ vicino al punto x̄µ è ben diverso dal caso µ ∈ (1, 2]. Infatti
risulta ∂fµ (x̄µ ) = 2 − µ e quindi per µ < 2 i punti della successione che costituiscono la traiettoria convergente ad
x̄µ sono ordinati, mentre per µ > 2 tale successione, composta da due sottosuccessioni ordinate, è fatta da punti
che cadono alternativamente l’uno a destra l’altro a sinistra del punto limite x̄µ ,
M. Lo Schiavo
5.1. La mappa quadratica 237
xn+1 xn+1
–
x –
µ xn x µ xn
0 <Dfµ(xµ)< 1 -1 <Dfµ(xµ)< 0
resta immutato invece, al variare di µ da (1, 2] a (2, 3], il comportamento qualitativo di fµ2 .
Quest’ultimo cambia a sua volta al passaggio di µ per il valore 3 , valore oltre il quale la fµ2 acquista,
in aggiunta al punto x̄µ =: x̄√ µ,1 , altri due punti fissi xµ,2 ed x̄µ,2 l’uno a destra e l’altro a sinistra di x̄µ,1 .
Successivamente, per µ = 1 + 5 la fµ2 (c) diviene inferiore a c; ed fµ (c), che come si è detto è anche valore di
massimo per la fµ2 , supera (il maggiore dei) fµ−1 (c). Quando µ transita per il valore µ2 := 3 il modulo della
∂fµ (x̄µ ) = 2 − µ attraversa il valore uno, e quindi il punto x̄µ da equilibrio stabile per la fµ (e per la fµ2 ) diventa
instabile:
xn+1 xn+1
f
2 <µ< 3 3 <µ< 4
f2 f2
f
xn xn
f -1(c) c – µ f -1(c)
x xµ,2 – x
x –
µ µ,2
2
È questo l’inizio di una lunga storia: quando µ supera 3 sia la ∂fµ (x̄µ ) = 2 − µ sia la ∂fµ2 (x̄µ ) = (∂fµ (x̄µ ))
attraversano e superano il valore 1 e quindi (per entrambe) il punto x̄µ perde la sua stabilità (nel valore di transito:
µ2 = 3 si ha che ancora x̄µ è attrattivo, ma solo debolmente). Restano invece stabili, per valori di µ vicini a 3 ,
i due punti xµ,2 , x̄µ,2 che, essendo fissi per la mappa fµ2 e non per la fµ , sono punti 2 -periodici per la mappa
iniziale fµ . Se anzi essi sono estremali per fµ2 si ha che il ciclo è un ciclo superstabile. Si noti che tali punti non
avevano alcun significato per µ ≤ 3 .
1 1
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
µ = 2.7 ; µ = 2.8 .
1 1
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
µ = 2.9 ; µ = 3.0 .
Proseguendo, con l’aumentare di µ oltre il valore 3 il punto x̄µ rimane comunque punto fisso (instabile) per
la mappa fµ ; ma gli xµ,2 , x̄µ,2 , che dapprima sono stabili per fµ2 , a partire da un certo µ4 ∈ (µ2 , 4) perdono la
loro stabilità e contemporaneamente per ciascuno di essi una coppia di punti xµ,4 , x̄µ,4 si aggiunge ai precedenti.
I ragionamenti fatti per x̄µ ed fµ si ripetono, rispettivamente, per ciascuno dei due xµ,2 , x̄µ,2 ed fµ2 : pur
rimanendo punti uniti per fµ2 , con il diventare instabili essi danno luogo ad altrettante coppie di punti uniti per
fµ4 : xµ,4 , x̄µ,4 che a loro volta perderanno la stabilità per un qualche µ8 ∈ (µ4 , 4).
1 1
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
µ = 3.1 ; µ = 3.2 .
1 1
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
µ = 3.3 ; µ = 3.4 .
1 1
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
µ = 3.5 ; µ = 3.6 .
1 1
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
µ = 3.7 ; µ = 3.8 .
M. Lo Schiavo
5.1. La mappa quadratica 239
xn+1
¹ =3.5
x0=0.1
xn
{
x x¹,2 { x{
x
0 ¹,1 ¹,2
Si noti che per tale valore del parametro il ciclo 2 -periodico è instabile.
f5
f3
f4
f2
µ = 3.5
¹=3
¹=3.2
¹=3.4
¹=3.6
grafico di f¹4
Questo comportamento, noto con il nome di period doubling, (vedi oltre), può essere facilmente verificato a
calcolatore almeno per i primi valori di µ valutando la traiettoria di un qualche punto (ad esempio x0 = 0.5 ) per
vari valori del parametro. Posti in ordinata i valori di xn per n grandi, ed in ascissa i vari valori del parametro,
si ottiene il seguente
Diagramma dei punti: (µ, x∞ ) ∈ [3, 3.9] × [0, 1]
Per µ = µ∞ il sistema mostra un comportamento non regolare, e la frequenza di visita nei punti del segmento
[0, 1] risulta come nella seguente figura
La figura mostra che, a tempi lunghi, vengono visitati solo i punti di un certo insieme (chiuso, invariante) che
prende il nome di attrattore di Feigenbaum .
[Si noti che tale attrattore non è un insieme attrattivo (perché arbitrariamente vicine ad esso si trovano traiettorie 2n -periodiche anche
se instabili ); né è “strano”, e cioè espansivo, (perché µ non è sufficientemente grande); né ha dipendenza sensibile dal dato; è però
non decomponibile, (perché in esso si trovano traiettorie non periodiche dense); e su di esso la dinamica è non periodica, ergodica,
non mescolante, con esponenti di Liapunov nulli; per tutte queste proprietà si veda oltre].
Dal punto di vista geometrico tale attrattore mostra sensibilmente proprietà di totale disconnessione (:= gli unici
connessi contenuti sono i punti ), proprietà questa che condivide con gli insiemi di Cantor, (vedi oltre).
Quando µ > µ∞ l’attrattore scompare. Per illustrare meglio ciò che accade converrà ricordare i seguenti teoremi,
che pur se validi solo per mappe f : R → R, fanno luce sul tipo di comportamenti cui si può andare incontro.
Verranno anzi qui accennati solo in forma schematica.
′′′
0 ′′ 12
Teorema 5.1.1 Se una funzione f : R → R ha derivata di Schwartz ∂S f (x) := ff ′ − 32 ff ′ negativa (o anche
∂S f (x) = −∞), ed un numero finito nc di punti critici allora essa è tale da ammettere al più nc + 2 orbite
periodiche attrattive.
M. Lo Schiavo
5.1. La mappa quadratica 241
0 12
In particolare la mappa quadratica fµ ha ∂S fµ (x) = − 23 1
x−1/2 <0, ed essendo unimodale ha nc = 1;
essa in effetti (per µ sufficientemente piccolo) ha una sola orbita periodica attrattiva
Dimostrazione (cenno; vedi Devaney e Collet-Eckmann)
Una funzione f : R → R (definita ovunque e) che abbia derivata di Schwartz negativa: ∂S f (x) < 0 possiede le
seguenti proprietà:
(i) È finito l’insieme dei punti y tali che y = f −k ({x}) per qualsiasi fissato k ∈ N ed x ∈ R. Infatti: in
ogni intervallo [y1 , y2 ] tale che f (y1 ) = f (y2 ) = x cade
9 'almeno un punto
: critico per la f ; per cui dall’ipotesi
nc < ∞ segue 'che è necessariamente finito l’insieme y ' y = f −1 ({x}) per qualsiasi x ∈ R, e di conseguenza
9 :
lo è anche y ' y = f −k ({x}) per ogni fissato k ∈ N.
(ii) È
c finito l’insieme dei punti critici per ( f ed) f m . Infatti: come si è visto, tale insieme è dato da C(f n ) :=
−k
c {f (c)}k=0,...,n−1 , e quindi l’ipotesi che il numero nc dei punti critici di f sia finito, ed il punto precedente,
implicano la tesi per ogni m ≥ 1 .
(iii) Anche la f n ha derivata
' di Schwartz negativa: ∂S (f n ) < 0 . Infatti: se ∂S f < 0 ed ∂S g < 0 allora anche
′ 2 '
∂S (f ◦ g) = (g ) ∂S f g + ∂S g è negativa.
(iv) La f ′ non può avere minimi (relativi) positivi né massimi (relativi) negativi; in particolare la f ′ ha segni
opposti in due suoi punti critici adiacenti. Infatti: la condizione f ′′ = 0 insieme con la ∂S f < 0 implicano
f ′′′ e f ′ di segni opposti in due punti critici adiacenti di f ′ . Ma la f ′′ si annulla agli estremi di tale
intervallo, e quindi in esso la (f ) cambia segno, e di conseguenza anche la f ′ . Ne segue in particolare che
′′ ′
(1) (2)
(3) (3)
Nel caso (1) si può riconoscere, anche graficamente, che esistono a, b tali che p ∈ (a, b) ⊂ W (p), e nei quali
f ′ (a) = f ′ (b) = 1 , e quindi essendo f ′ (p) < 1 la (iv) implica che in (a, b) e quindi in W (p) c’è (almeno)
uno zero per la f ′ e quindi almeno un punto critico per la f .
Nel caso (2) si ottiene lo stesso risultato per f 2 , in virtù della (iii), e quindi per f data l’invarianza di W (p).
Nel caso (3) i classici teoremi sulle funzioni continue garantiscono direttamente l’esistenza di un punto critico
per f in W (p).
(vii) Ogni bacino di attrazione W (pm ) di un punto fisso pm della f m contiene almeno un punto critico della f .
Infatti: se m > 1 la (iii) permette di ripetere per la f m il ragionamento fatto per la f. Ma l’esistenza di un
punto critico per f m in W (pm ) implica l’esistenza di un punto critico per f , visto che W (pm ) è invariante
e, come si è detto, se x è critico per f m allora sull’orbita di x c’è almeno un punto critico per f .
Riassumendo: ciascun bacino di attrazione dei punti m-periodici di f , se attrattivi, deve contenere almeno un
punto critico per f . Pertanto punti periodici con bacini di stabilità limitati attraggono almeno un c, e quindi sono
al più nc . Le ultime due orbite periodiche attraggono al più le due semirette x → −∞, x → ∞, e non ci sono per
la mappa fµ che ivi diverge. "
Il seguente teorema, pur se valido solo in R, è comunque interessante per spiegare il comportamento di sistemi
quali la fµ .
Teorema 5.1.2 [Sarkowski] Se f : R → R è continua ed ammette una traiettoria 3 -periodica allora ammette
traiettorie n-periodiche per ogni n ∈ N. Esiste infatti un ordinamento dei numeri naturali secondo il quale se il
sistema ammette una traiettoria di periodo k allora ammette senz’altro traiettorie di periodi h ≺ k “precedenti” a
k in tale ordinamento:
rccccc3 ≻ 5 ≻7 ≻ ······ ≻
≻2 · 3 ≻ 2 · 5 ≻2 · 7 ≻ · · · · · · ≻
≻22 · 3 ≻ 22 · 5 ≻22 · 7 ≻ ······ ≻
3 3 3
≻2 · 3 ≻ 2 · 5 ≻2 · 7 ≻ ······ ≻
4 3 2
≻2 ≻ 2 ≻2 ≻ 2 ≻1 .
[In particolare quindi se per un certo µ∗ la fµ (x) = µx(1 − x) ha qualche dato iniziale x0 la cui traiettoria è un ciclo 3 -periodico
(n)
allora per quello stesso valore µ∗ il sistema descritto dalla fµ∗ ha certamente dati iniziali x0 che appartengono a cicli di periodo
n per ogni intero n ∈ N . Dal Teorema 1 segue poi anche che se l’orbita (periodica, stabile) della quale si riconosce la presenza è
un’orbita di periodo tre, allora tutte le altre (di qualsiasi periodo), che sono certamente presenti per quello stesso valore del parametro
Inoltre se un tale sistema ha un’orbita diversa da una potenza di due allora ammette infinite
µ , sono tutte instabili].
orbite periodiche; e se invece ha un numero finito di orbite periodiche allora il loro periodo è necessariamente una
potenza di due.
Dimostrazione (cenno solo della prima parte)
Si noti che un ciclo 3 -periodico di una mappa continua su R ha necessariamente, salvo inversioni di parità, forma
come in figura (nella quale si è tracciato il grafico della fµ solo per esempio)
f(x) A2
A3
∼
A1 µ=3.9
A1
B0 A0 x
x0 x1 x2
Detti B0 := [x0 , x1 ], A0 := [x1 , x2 ], con x1 := f (x0 ), ed x2 := f (x1 ), per la continuità della f si ha che
f (B0 ) ⊇ A0 , ed f (A0 ) ⊇ B0 ∪ A0 ⊇ A0 .
Ma nella Osservazione (i) si è provato che se per un qualsiasi A ⊂ [0, 1] accade che A ⊆ f (A) allora, per il teorema
degli zeri, esiste un punto fisso per f in A, ed un A′ ⊆ A tale che f (A′ ) = A. Pertanto esiste un punto fisso
per f in A0 , ed un punto fisso per f 2 in B0 giacché f 2 (B0 ) ⊇ f (A0 ) ⊇ B0 ∪ A0 ⊇ B0 .
M. Lo Schiavo
5.1. La mappa quadratica 243
Per dimostrare che esistono anche periodi superiori si noti che, siccome in A0 la f assume (decrescendo,
almeno una volta) tutti i valori fra x2 ed x0 , e cioè f (A0 ) ⊇ A0 , esiste un sottoinsieme A1 ⊆ A0 tale che
f (A1 ) = A0 ⊇ A1 . Per lo stesso motivo allora esiste un sottoinsieme A2 ⊆ A1 tale che f (A2 ) = A1 ⊇ A2 .
Procedendo in tal modo si costruiscono
Am ⊆ Am−1 ⊆ . . . ⊆ A2 ⊆ A1 ⊆ A0 ⊆ A0 ∪ B0 tali che
f (Am ) ⊇ Am−1 ⊇ Am m = 0, 1, . . .
f (A0 ) ⊇ A0 ∪ B0 ⊇ A0
f (A0 ∪ B0 ) ⊇ A0 ∪ B0 ⊇ Am .
Quindi per ogni m ∈ N si ha f m+1 (Am ) ⊇ B0 ∪ A0 ed esiste un sottoinsieme A &m di Am tale che f m+1 (A &m ) =
m+2 & & & m+2
B0 , e f (Am ) ⊃ A0 ⊃ Am . Esiste allora almeno un punto p ∈ Am tale che f (p) = p; d’altra parte m + 2
è un periodo minimo perché la (m + 1)-esima iterata cade in B0 , mentre tutte le precedenti sono in A0 . Se poi
qualche iterata finisse sul bordo {x0 , x1 , x2 } , allora m = 2 oppure m = 3 .
Mediante questo risultato, e con ragionamenti di compatibilità aritmetica, si ottiene poi lo specifico ordinamento
accennato. "
Queste considerazioni fanno intuire cosa accada nell’intervallo di valori µ ∈ (µ∞ , µ3 ) dove con µ3 ≃
3.828427 . . . si è indicato il primo valore per il quale si manifesta un’orbita 3 -periodica.
Per µ = µ3 + ε , ad esempio µ = 3.839 , si hanno due orbite 3 -periodiche, di cui solo una: la γ s := {a1 ≃
.15, a2 ≃ .49, a3 ≃ .96} è attrattiva in quanto (f 3 )′ (ai ) = −.78 ; e ciò accade anche per un qualsiasi µ in un
intorno (destro) di µ3 .
xn+1
ciclo 3-periodico
instabile
ciclo 3-periodico
stabile
{ { {
b1 b1 b2 b2 b3 xn
a1 a2 a3 b3
Siano γ u := {b̄1 ≃ .17, b̄2 ≃ .54, b̄3 ≃ .95} i punti dell’orbita periodica instabile e bi ̸= b̄i i loro tre
primi vicini tali che f 3 (bi ) = b̄i ; si riconoscono i tre bacini di attrazione rispetto alla fµ3 dei tre punti della γ s :
W (a1 ) := (b1 , b̄1 ) W (a2 ) := (b2 , b̄2 ) e W (a3 ) := (b̄3 , b3 ).
Detti I0 := [0, b1 ], I1 := [b̄1 , b2 ], I2 := [b̄2 , b̄3 ], I3 := [b3 , 1], la dinamica è tale che f (I0 ) ⊂ I0 ∪ I1 ∪
W (a1 ), f (I1 ) = I2 , f (I2 ) ⊂ I1 ∪ I2 ∪ W (a2 ), f (I3 ) = I0 . [Infatti: per motivi di simmetria si vede che f (b2 ) =
f (b̄2 ) = b̄3 ed f 3 (b1 ) = b̄1 = f (b̄3 ) = f 2 (b2 ) . Sia c1 := f −1 (c) ∩ [0, c] . f 2 è monotona su [c1 , c] ed è b2 ∈ [c1 , c] ed anche
f (b1 ) ∈ [c1 , c]; ciò implica f (b1 ) = b2 ed f 2 (b1 ) = b̄3 = f 3 (b3 ) che conduce a f (b3 ) = b1 ].
È possibile in tal caso rappresentare tale comportamento con una matrice di raggiungibilità
⎛ ⎞
1 1 0 0
⎜ ⎟
& := ⎜0 0 1 0⎟ .
A ⎝0 1 1 0⎠
1 0 0 0
Siccome poi su I0 si ha f (x) > x, dato x0 ∈ I0 o si ha ω (x0 ) = {a1 } oppure esiste n tale che f n (x0 ) ∈ I1 ; ed
analogo ragionamento vale per x0 ∈ I3 .
Tutta la dinamica definitivamente periodica, (e cioè almeno tutte le orbite periodiche di cui il Teorema di Sarko-
wski, salvo lo zero) ed i punti
* a1 , a2 , a3 ), appartiene allora all’insieme I1 ∪ I2 sul quale la matrice di raggiungibilità
0 1
è data da A = . In più (vedi: [Devaney § 1.13]) si può mostrare che tale insieme ne contiene uno: Λ
1 1
invariante non vuoto e formato da quei punti la cui dinamica rimane in Λ e risulta topologicamente coniugata ad
un subshift finito di matrice A (vedi: [oltre]).
Per µ abbastanza maggiore di µ3 ma ancora minore di 4 il procedimento del raddoppio dei periodi si può
nuovamente innescare.
1 1
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0.5 0.6 0.7 0.8 0.9 0.5 0.6 0.7 0.8 0.9
Un drammatico cambio di comportamento si verifica dopo il valore µ = 4 , per il quale il massimo della fµ
supera il valore uno. Infatti si riconosce, in tal caso, l’esistenza di tutta una successione di intervalli i cui punti al
crescere delle iterazioni si perdono verso −∞.
Si chiami A0 l’intervallo (aperto e non vuoto se µ > 4 ) dei punti sui quali fµ (x) > 1 :
; ' <
'
A0 := x ∈ [0, 1] ' fµ (x) > 1 .
La successione delle controimmagini fµ−k (A0 ) è fatta di punti che hanno traiettorie definitivamente destinate verso
−∞. Ne segue che l’unico insieme che conta ai fini della dinamica asintotica, e che è invariante secondo la fµ , è
dato dal seguente insieme A chiamato, seppure impropriamente,
Attrattore della mappa quadratica
∞
b ∞
d
A := [0, 1] \ fµ−j (A0 ) = fµ−j ([0, 1]) . (1.3)
j=0 j=0
Si noti che A è chiuso, dato che fµ è continua e che A0 è aperto (se µ > 4 ).
Per mostrare l’uguaglianza fra il secondo ed il terzo membro della (AT ), per provare che x appartiene ad
A se e solo se fµj (x) appartiene a [0, 1] per ogni j ∈ N, e, più in generale, per esprimere convenientemente
la dinamica su [0, 1], è opportuno innanzi tutto ricordare le seguenti relazioni, valide per una qualsiasi funzione f
fra due spazi di punti X ed Y:
M. Lo Schiavo
5.1. La mappa quadratica 245
Giacché µ > 4 , tutti gli insiemi Km ed Am sono composti da intervalli, rispettivamente: chiusi quelli di
Km ed aperti quelli di Am , disgiunti e non vuoti. In particolare: I0 ed I1 sono intervalli chiusi, disgiunti, non
vuoti, e tali che:
K1 = fµ−1 ([0, 1]) = [0, 1] \ A0 = I0 ∪ I1 .
Infatti: se µ è maggiore di 4 il punto critico c della fµ è (unico e) tale che fµ (c) > 1 . Allora, detto J un
qualsiasi sottoinsieme di [0, 1], si traggono le seguenti considerazioni.
• fµ−1 (J) consiste di due sottoinsiemi l’uno di I0 l’altro di I1 in quanto ogni punto in [0, 1] ammette una ed
una sola immagine inversa in ciascun I0 ed I1 ; ciò perché fµ è continua, monotona su I0 ed I1 , e tale che
fµ (I0 ) = fµ (I1 ) = [0, 1].
• Qualunque sia σ ∈ {0, 1} , l’insieme Iσ ∩ fµ−1 (J) è non vuoto se tale è J .
• La precedente proprietà si può poi estendere alle iterazioni successive della mappa fµ−1 nel seguente modo.
Si definiscano, per m = 1, 2, . . . e j = m − 1, m − 2, . . . , 1, 0 , gli insiemi
Allora, qualsiasi sia m ∈ N, l’insieme Iσm è non vuoto e, essendo non vuoto Iσj+1 ···σm , tale risulta
Iσj ···σm := Iσj ∩ fµ−1 (Iσj+1 ···σm ).
• Nessun punto y di [0, 1] ammette immagine inversa che sia in A0 . Infatti la (R1) con D ≡ [0, 1] impone
fµ fµ−1 ([0, 1]) ⊆ [0, 1]. Ma ciò non accade ai punti x ∈ A0 , per cui deve essere fµ−1 ([0, 1]) ∩ A0 = ∅ .
• La fµ−1 (A ∪ B) = fµ−1 (A) ∪ fµ−1 (B) implica che se A ⊃ B allora fµ−1 (A) ⊃ fµ−1 (B). Per cui, dato che
K0 = [0, 1] ⊃ A0 , si ha senz’altro: Km ⊃ Am per ciascun m = 1, 2, . . ..
• La: fµ−1 (A0 ) ∩ A0 = ∅ (provata qui sopra), l’essere fµ−1 (∅) = ∅ , e la fµ−1 (A ∩ B) = fµ−1 (A) ∩ fµ−1 (B),
7 8
fanno concludere che anche Am+1 ∩ Am = fµ−1 (Am ) ∩ Am = fµ−m fµ−1 (A0 ) ∩ A0 = ∅ .
rccclK1 := fµ−1 ([0, 1]) = fµ−1 (K0 ) = K0 \fµ−0 (A0 ) = [0, 1]\A0
1
b
K2 := fµ−2 ([0, 1]) = fµ−1 (K1 ) = K1 \fµ−1 (A0 ) = [0, 1]\ Aj
j=0
2
b
K3 := fµ−3 ([0, 1]) = fµ−1 (K2 ) = K2 \fµ−2 (A0 ) = [0, 1]\ Aj
j=0
... ......
In secondo luogo si ha che ciascuno degli insiemi Km consiste esattamente di 2m intervalli chiusi, e ciò verrà
anche confermato nella (KI) per induzione su m = 0, 1, . . . . In effetti, cosı̀ come l’insieme fµ−m (c) delle controim-
magini di ordine m del punto critico c è costituito esattamente da 2m punti, l’insieme Am = fµ−m (A0 ) è costituito
da 2m intervalli aperti non vuoti; ciascuno di essi cade internamente ad uno ed uno solo dei 2m intervalli, chiusi
disgiunti non vuoti, che costituiscono l’insieme Km = fµ−m ([0, 1]), e da questo vengono sottratti lasciandone 2m+1
intervalli ancora chiusi non vuoti. L’unione di tali sottointervalli, risultato della m-esima iterazione della mappa
fµ−1 , forma (per costruzione) l’insieme Km = fµ−m ([0, 1]) e, sempre per il fatto che µ > 4 , ciascuna delle unioni
nella (EK) è fra insiemi disgiunti, cosı̀ come ciascuna delle immagini inverse è da insiemi non vuoti in insiemi non
vuoti.
D’altra parte sussistono la fµ−1 ([0, 1]) = I0 ∪ I1 e la fµ−1 (J) = fµ−1 ([0, 1] ∩ J) = fµ−1 ([0, 1]) ∩ fµ−1 (J). Se ne
conclude che:
7 8 7 8
fµ−1 (J) = I0 ∩ fµ−1 (J) ∪ I1 ∩ fµ−1 (J) , (F U 1) (1.5)
J = fµ fµ−1 (J) = fµ (I0 ∩ fµ−1 (J)) ∪ fµ (I1 ∩ fµ−1 (J)); (F U 2) (1.6)
ed anzi, per ogni J ⊆ [0, 1] si ha fµ (I0 ∩ fµ−1 (J)) = fµ (I1 ∩ fµ−1 (J)), giacché ciascun punto di J ha una ed
una sola immagine inversa in I0 ed una ed una sola immagine inversa in I1 . In altre parole, la (F U 2) si specializza
nella
J = fµ (I0 ∩ fµ−1 (J)) = fµ (I1 ∩ fµ−1 (J)) . (1.7)
Dalla (F U 1) si hanno in particolare le (unioni disgiunte)
7 8 7 8
fµ−1 (I0 ) = I0 ∩ fµ−1 (I0 ) ∪ I1 ∩ fµ−1 (I0 ) =: I00 ∪ I10
7 8 7 8 (1.8)
fµ−1 (I1 ) = I0 ∩ fµ−1 (I1 ) ∪ I1 ∩ fµ−1 (I1 ) =: I01 ∪ I11
M. Lo Schiavo
5.1. La mappa quadratica 247
In tal modo si riconosce che il valore dell’indice σj ∈ {0, 1} mostra quale sia l’insieme I0 o I1 , rispettivamente,
nel quale il sottointervallo Iσ0 σ1 ···σj ··· viene trasportato dalla j -ma iterazione della mappa fµ .
I0 I1
I00 I01 10
I11 I10
xn+1
11
01
A1 00
A1 xn
A2 A2 A0 A2 A2
m
In definitiva, ciascuno dei 2 sotto-intervalli che costituiscono fµ−m ([0, 1])
viene monotonamente trasformato
dalla fµm esattamente su tutto l’intervallo [0, 1]. Anzi la fµm è alternativamente crescente e decrescente su di essi
[la fµ lo è in I0 , I1 ; la fµ2 lo è negli intervalli {I00 , I10 } = fµ−1 (I0 ) , ed {I01 , I11 } = fµ−1 (I1 ) ; etc.], e pertanto fµm+1 ha
esattamente 2m massimi su [0, 1], ed interseca la retta y = x in almeno 2m+1 punti, essendo fµm+1 (1/2) < 0.
Se µ è abbastanza grande, √ gli intervalli Iσ0 ···σm hanno certamente tutti lunghezza decrescente al crescere di
m. Ad esempio µ > 2 + 5 rende ogni x ∈ I0 ∪ I1 tale che |∂f (x)| > λ per un certo λ > 1 e quindi la lunghezza
di ciascun sottointervallo è ridotta almeno di 1/λ ad ogni applicazione della mappa fµ−1 ]. In tal caso, è possibile
mostrare in modo semplice che A è un esempio di
Insieme di Cantor := un insieme (non numerabile) chiuso e non contenente punti interni né punti isolati.
Equivalentemente: un chiuso, totalmente disconnesso, perfetto; ove, si ricordi,
Insieme perfetto := un insieme che coincide con il suo derivato: ogni suo punto è di accumulazione di punti
dell’insieme.
Infatti:
(i) A non contiene punti interni. Come si è detto, i due segmenti I0 ed I1 vengono monotonamente trasportati
in tutto [0, 1] e ciò è vero, dopo m passi, per ciascuno dei 2m intervalli chiusi dai quali è composto fµ−k ([0, 1]).
Pertanto se A contenesse intervalli, (e quindi punti interni ad A stesso) siccome, iterando la fµ , ogni
intervallo contenuto in I0 ∪ I1 ha lunghezza crescente almeno secondo il fattore λ > 1 , se la sua lunghezza
fosse positiva esso finirebbe per coprire tutto [0, 1] dopo un numero finito di iterazioni, e quindi avere una
sua parte che si perde in A0 contrariamente all’ipotizzata definitiva appartenenza a [0, 1].
(ii) A non contiene punti isolati. Se A contenesse qualche punto isolato p, tutti i punti vicini ad esso dovreb-
bero cadere in qualche fµ−m (A0 ). Allora il punto p, che certo non può essere interno ad alcuno degli intervalli
dai quali è composto fµ−m (A0 ) e che hanno lunghezza decrescente con m, o è punto di accumulazione degli
estremi di tali intervalli oppure coincide definitivamente con uno di essi. Tali estremi però sono anch’essi
punti di A in quanto immagini inverse dello zero, e l’ipotesi esclude la prima eventualità. Rimane la possibi-
lità che esistano m& ed ε > 0 tali che: fµm̃ (p) ≥ 0 e che (dovendo essere isolato) per ogni x ∈ Bε (p)\{p} sia:
fµ (x) ̸∈ [0, 1], e cioè fµm̃ (x) < 0 . Dovrebbero allora essere nulle sia fµm̃ (p) che ∂fµm̃ (p); ma si è visto che
m̃
in tal caso p dovrebbe necessariamente avere traiettoria passante per il punto critico c, e quindi per l’interno
di A0 .
Ciò fa intuire come variazioni per quanto piccole delle condizioni iniziali portino sicuramente a delle traiettorie
definitivamente diverse; [si pensi che ogni intervallo J ⊂ [0, 1] che contenga punti di A contiene anche controimmagini del
punto c , il quale separa le traiettorie che passano per I0 da quelle che passano per I1 ]. Tutte queste proprietà verranno più
oltre dimostrate simultaneamente ed in modo alternativo facendo ricorso alla coniugazione topologica del sistema
(A , fµ ) con un più comodo ed equivalente sistema dinamico.
Una proprietà simile, ma più debole, dell’ultima vista qui sopra è quella posseduta da sistemi per i quali ci sia
solo la sicurezza di trovare, arbitrariamente vicino ad ogni punto, qualche altro la cui dinamica sia definitivamente
diversa, e cioè sistemi per i quali variazioni per quanto piccole delle condizioni iniziali possano dar luogo a traiettorie
definitivamente diverse. Ciò accade se l’attrattore contiene qualche
Direzione di espansività := per ogni x ∈ A esiste m0 ∈ N tale che
Si osservi che l’introduzione degli indici σm tali che f m (Iσ0 ···σm ) = Iσm ed il fatto che I0 ed I1 sono disgiunti
permette di generare univocamente per ogni x ∈ A una successione σ = σ(x) := [σ0 , σ1 , σ2 , . . . ) unilateralmente
infinita di simboli σm che valgono zero o uno a seconda che l’evoluto al passo m-mo del dato x si trovi nell’in-
tervallo I0 oppure nell’intervallo I1 . Viceversa, il fatto che la lunghezza degli intervalli Iσ0 ,...,σm tende a zero
per m → ∞ lascia sperare (come verrà provato più avanti) che sia possibile far corrispondere ad ogni successione
σ0 , σ1 , . . . , σm , . . . uno ed un unico x ∈ A .
In definitiva, si intende individuare i punti di A mediante la loro storia evolutiva, e studiare le proprietà che
caratterizzano la traiettoria corrispondente a ciascuno di essi fra tutte quelle √ possibili. Un comodo metodo per
descrivere in questo modo l’evoluzione del sistema fµ (nel caso µ > 2 + 5 ) è fornito dalla cosiddetta
Dinamica Simbolica
Con questo nome ci si riferisce alla dinamica di un modello, realizzato mediante simboli astratti, la cui storia
evolutiva sia “la stessa” del sistema originario in esame. La potenza del metodo risiede nel fatto che lo studio del
modello simbolico è generalmente semplice, e che esso si adatta a molti diversi sistemi con le stesse caratteristiche
di moto. A tale scopo si consideri il seguente
Esempio 5.1.9 Lo shift di Markov (topologico, discreto).
M. Lo Schiavo
5.1. La mappa quadratica 249
1−1
Sia Y := {y1 , . . . , yN } ←→ {1, . . . , N } un alfabeto finito sul quale si introduca la topologia discreta τ d . La
topologia τ d può essere definita sugli interi, come sottoinsieme dei reali, tramite il valore assoluto; per essa ogni
singleton {yn } è aperto e chiuso, e la convergenza avviene solo per definitiva uguaglianza). Lo spazio i cui punti
sono le successioni σ := [σ0 , σ1 , σ2 , . . . ), unilateralmente infinite, di elementi σi presi in Y, e dotato della topologia
prodotto, verrà indicato con
(YN , τ p ) := (Y, τ d ) × (Y, τ d ) × · · · .
[ \] ^
infinite volte
Si ricordi che la topologia prodotto [Kelley § 3.2, Heisemberg3.28] τ p è quella generata dagli insiemi prodotto di un numero finito di
aperti scelti negli spazi fattori e, per il resto, di infiniti termini costituiti dai rimanenti spazi fattori. La convergenza rispetto a τ p
è la convergenza ”per coordinate”. Si noti inoltre che nel caso in esame il singleton {yj ∈ Y} è aperto e chiuso nella topologia discreta
τ
(Y, d ) , pertanto sono aperti e chiusi nella topologia prodotto
9 '
τ
p i cilindri a base finita, o cilindri finiti.
:
Si definisce
N
Cilindro di base Sk := σ ∈ Y ' σi1 = yi1 , σi2 = yi2 , . . . , σik = yik
l’insieme di tutte le successioni σ ∈ YN delle quali siano stati assegnati certi k valori {yij ∈ Y}j=1,...,k alle sue
coordinate nei siti i1 , . . . , ik , (l’insieme
) dei quali è detta* base Sk := {i1 , . . . , ik } del cilindro).
i1 , i2 , · · · , ik
I cilindri verranno indicati con .
yi1 , yi2 , · · · , yik
) *
0, 1, ··· , k
Cilindri del tipo possono essere una base per la topologia prodotto; sono infatti definite le
y0 , y1 , · · · , yk
seguenti operazioni:
) * ) *
i1 , i2 , · · · , ik c j1 , j2 , · · · , jh
Unione, o OR logico: :=
yi1 , yi2 , · · · , yik zj1 , zj2 , · · · , zjh
⎧ ' ⎫
⎪ ' almeno una delle seguenti è vera : ⎪
⎨ ' ⎬
'
σ ∈ YN ' σin = yin per ogni n = 1, . . . , k .
⎪
⎩ ' ⎪
⎭
' σjm = zjm per ogni m = 1, . . . , h
anch’esso chiuso ed aperto nella topologia detta in quanto complementare di un insieme che è chiuso ed aperto.
[Si noti, tuttavia, che la topologia prodotto
) τ
p non è la topologia
* discreta poiché i punti non sono aperti giacché non contengono
c 0, 1, ··· , n
alcun cilindro finito; né d’altra parte n∈N
y0 , y1 , · · · , yn
appartiene alla τ
p , infatti questa è chiusa rispetto a unioni
) *
0, 1, ··· , k
qualunque di insiemi che le appartengano, e ciò non avviene per l’insieme quando k → ∞ ].
y0 , y1 , · · · , yk
7 8
Si voglia ora definire su YN , τ p una metrica; sarà conveniente sceglierla in modo tale che la topologia indotta
dalle sfere coincida con quella prodotto, e quindi tale che le sfere siano cilindri. A questo scopo, si consideri Y
nuovamente come sottoinsieme di (N ⊂ R, | · |)N , e cioè si assumano le σi in (N ⊂ R, | · |); inoltre, per semplicità,
si consideri dapprima il caso Y =: Y2 con dim Y2 = 2 .
Si definisce la funzione d : YN N
2 × Y2 → R ∪ {0} data da
+
=∞
1
d(σ, σ ′ ) := |σ − σi′ | ,
i i
i=0
2
e d’altra parte se esistesse i′ < i∗ tale che |σi′ − σi′′ | = 1 sarebbe σ ̸∈ Bε (σ ′ ), in quanto in tal caso
′
risulterebbe d ≥ 2−i > ε.
) *
0, 1, ··· , k
(iii) Le sfere Bε (σ ′ ) sono allora cilindri del tipo , con k = i∗ ed yj = σj′ per ogni
y0 , y1 , · · · , yk
) *
∗ ′ 0, 1
j ≤ i . Ad esempio la sfera B1/2 (σ ) è il cilindro con y0 = σ0′ e y1 = σ1′ .
y0 , y1
In base ai tre punti qui sopra si può osservare che la convergenza in questa metrica equivale alla convergenza
per coordinate. 7 8
Risultati del tutto analoghi si ottengono nel caso generale YN , τ p con card Y = N > 2 e con una delle
seguenti metriche (ove δ(x − y) = 0 se x = y , ed uno altrimenti)
∞
= ∞
=
|σi − σ ′ | δ(σi − σ ′ )
rcccd(σ, σ ′ ) = i
, d(σ, σ ′ ) = i
,
i=0
Ni i=0
2i
) * ' '
=∞
1 |σi − σi′ | '= ∞
σi − σi′ ''
′ ′ '
d(σ, σ ) = , d(σ, σ ) = ' '.
i=0
2i 1 + |σi − σi′ | '
i=0
(N + 1)i '
7 8
Infine, su YN , d si definisce una
Mappa d’avanzamento o Operatore di shift := S : YN → YN definito da
M. Lo Schiavo
5.1. La mappa quadratica 251
• Ai,j = 1 ⇒ YN N
A ≡ Y ;
• Ai,j = δi,j ⇒ YNA , e cioè consistente solo di N punti fissi;
) * ) * ) *
0 0 0 1 0 0
• (nel caso dim Y = 2 ), A = , opp. , opp. , implicano che nessun punto è permesso; infatti, ad
1 0 0 0 0 0
esempio la prima implica che la successione σ non può contenere zeri perché non evolvono, né uni perché evolverebbero in zeri;
) * ) *
0 1 0 0
A= , opp. , danno solo un punto fisso: tutti uni; la prima inoltre ammette anche il punto: 01111 . . . ;
0 1 0 1
) *
1 1
A= , per la quale 1 può seguire lo zero, ma non il viceversa. Sono allora possibili tutte le successioni tali che, per
0 1
qualche k , abbia
σ0 = 0, σ1 = 0, . . . , σk = 0, σk+1 = 1, σk+2 = 1, . . . ;
• la mappa) quadratica
* fµ (x) per µ3 < µ < 4 e purché ristretta ad un conveniente sottoinsieme di I1 ∪ I2 (vedi: sopra) con
0 1
matrice
1 1
coordinate di σ , per essere sicuri che questo “pacchetto” di coordinate compaia prima o poi nella storia di
! basta costruire σ
σ ! in modo che contenga ogni pacchetto finito di coordinate:
! := [0, 1, 00, 01, 11, 000, 001, 010, . . ., 0000, 0001, . . . , 00000, 00001, . . .) .
σ
(v) L’essere denso l’insieme dei punti periodici esclude che possa esistere un’orbita periodica attrattiva, cosı̀ come
l’esistenza di anche una sola traiettoria densa rende YN 2 Topologicamente transitivo e quindi in particolare
non decomponibile in sottoinsiemi S -invarianti (vedi oltre).
(vi) Pensando alla rappresentazione dei numeri ξ ∈ [0, 1] in base due, ci si rende conto che la cardinalità del-
l’insieme dei punti periodici è al più quella del numerabile, mentre la cardinalità dei punti non periodici è
quella del continuo, potendo far corrispondere gli irrazionali ai non-periodici ed i razionali a quelli periodici.
C∞ σj (k ) (kn )
Infatti ξ = j=0 2j+1 assegna ad un punto periodico σ (kn ) , [e quindi tale che per esso σh n = σh+in per
Cn−1 C∞ σin+h Cn−1 σh 0 1
2n
ogni i ∈ N ed h = 1, 2, . . . , n ] il valore ξ̄ = h=0 i=0 2in+h+1 = h=0 2h+1 2n −1 che è razionale.
(vii) Si osserva che l’insieme YN è perfetto: ogni punto σ ∈ YN è un punto di accumulazione di altri punti di YN ;
infatti per ogni ε > 0 si ha che Bε (σ) \ {σ} ̸= ∅ .
(viii) Dati (comunque) due punti distinti σ e σ ′ , per vicini che essi siano, la loro storia è tale da presentare un
n < ∞ nel quale i loro iterati [σn , σn+1 , . . .) e [σn′ , σn+1
′
, . . .) hanno distanza superiore all’unità: il sistema
presenta dipendenza sensibile dal dato.
Le stesse caratteristiche sostanziali che si sono trovate per lo spazio (YN 2 , d) nel caso dim Y2 = 2 , ottenuto ad
esempio come prodotto di infinite copie di ({0, 1}, τ |·| ), si ritrovano anche per (YN , d) ottenuto come prodotto su
uno spazio Y di N > 2 simboli equipaggiato ad esempio con una delle metriche viste sopra.
In ogni caso, YN può essere costruito come prodotto di infinite copie dello spazio ({1, . . . , N }, | · |), e questo è
totalmente disconnesso, compatto, metrico.
[Si ricordi che queste due ultime proprietà implicano la completezza, (vedi: [Kolmogorov]); e si rammenti che uno spazio, (od un suo
sottoinsieme), si dice connesso se non esiste alcuna coppia di insiemi aperti non vuoti e disgiunti la cui unione sia lo spazio, (o l’insieme
in esame); e si dice totalmente disconnesso se i più grossi (per inclusione) insiemi connessi sono i punti. La topologia discreta e la τ p
su YN ad esempio, rendono lo spazio totalmente disconnesso].
Pertanto, YN è totalmente disconnesso, perfetto, compatto, metrico.
Equivalentemente, siccome perfetto e completo implicano non numerabile, esso è un Insieme di Cantor, e come
tale è uno spazio privo di punti interni, privo di punti isolati, e non numerabile.
Se ne conclude che risulta un insieme di Cantor anche ogni insieme omeomorfo a YN . In particolare, è
omeomorfo a YN 2 con dim Y2 = 2 lo spazio dei risultati di un processo di lancio ripetitivo di una moneta, (a
prescindere dall’essere questa più o meno “onesta”, ma solo con l’ipotesi che entrambe le facce siano possibili).
Analogamente, le considerazioni che qui seguono confermano le proprietà (già viste prima) del sistema (A , fµ ) ed
che: risulta un insieme di Cantor l’attrattore A della mappa quadratica fµ := µx(1 − x)
in particolare il fatto √
quando µ > λ := 2 + 5, valore questo per il quale |∂fµ | > λ > 1 in ogni punto dell’insieme I0 ∪ I1 . (Qui con
“attrattore” si intende l’insieme dei punti di [0, 1] che vi rimangono sotto qualunque iterazione della mappa; in
seguito si preciserà meglio tale concetto e se ne darà una definizione più restrittiva).
√
Proposizione 5.1.1 La dinamica, sull’insieme A , del sistema definito dalla mappa fµ con µ > 2 + 5 , può essere
rappresentata in modo simbolico mediante il sistema definito dallo shift di Markov su (YN 2 , τ p ), con dim Y2 = 2 .
In effetti: i due sistemi dinamici: (YN 2 , S) ed (A , f µ ) sono topologicamente coniugati.
Dimostrazione
Ogni x ∈ A individua una ed una sola successione σ ∈ YN 2. Infatti: per ogni x ∈ A esiste una (ed una
sola) traiettoria γ := {x0 = x, x1 = f (x), . . .} tutta contenuta in A ⊂ I0 ∩ I1 . Pertanto, e mediante la
⎧
⎨0 se xi := fµ+i (x) ∈ I0
σi = e cioè: fµ+i (x) ∈ Iσi ∀i ≥ 0, (1.13)
⎩1 se x := f +i (x) ∈ I
i µ 1
ogni x ∈ A individua univocamente la successione σ unilateralmente infinita di indici detta “storia” del punto x.
Viceversa:
Ogni successione σ ∈ YN 2 individua uno ed un solo punto x ∈ A , e da questo parte una traiettoria che è totalmente
contenuta in A . Infatti, considerato che la lunghezza di un qualsiasi sottointervallo non vuoto J contenuto in
I0 o in I1 risulta λ volte più grande della lunghezza di uno qualsiasi dei due intervalli non vuoti formanti la sua
controimmagine fµ−1 (J), si ha che:
Ma ciascuno dei 2m+1 intervalli Iσ0 ···σm chiusi disgiunti non vuoti la cui unione costituisce l’insieme Km+1 =
cm −(m+1)
[0, 1] \ j=0 fµ−j (A0 ) = fµ ([0, 1]) è tale che Iσ0 ···σm−1 ⊃ Iσ0 ···σm , (vedi l’ultima delle (EI)). Pertanto,
per ciascuna fissata σ ∈ YN 2 , la famiglia: {Iσ0 ···σm }m∈N di sottoinsiemi (chiusi, inclusi) di [0, 1] ha la proprietà
che: ogni intersezione finita di suoi elementi e∞ è non vuota (“sistema centrato”). La compattezza di [0, 1]
implica allora che esiste (almeno un) x ∈ i=0 Iσ0 ···σi che rende vere tutte le:
le quali mostrano che la successione σ è la storia di x definita dalla (OS) e che x ∈ A giacché f j (x) ∈ [0, 1]
per ogni j = 0, 1, . . . .
M. Lo Schiavo
5.1. La mappa quadratica 253
Esiste allora una mappa invertibile H che assegna tale corrispondenza biunivoca
H : A → YN
2, H : x &→ σ = H(x) ,
S ◦ H = H ◦ fµ ;
e cioè, si veda il § III.1 e la seconda delle (SF ), σ ′ = Sσ è la successione che corrisponde a x′ = fµ (x)
quando σ è quella che corrisponde a x.
(i) la mappa H : A → YN ∗
2 è∗ continua. Infatti: dato ε > 0 , si fissi i come il più piccolo dei j tali che 2
−j
≤ ε.
−(i +1) i∗
+1
L’insieme Ki∗ +1 = fµ ([0, 1]) è formato dai 2 intervalli chiusi disgiunti non vuoti Iσ0 ···σi∗ , e
contiene A . Esiste, positivo, il valore minimo: δ(ε) delle distanze fra due qualsiasi di tali intervalli. Dati
comunque |x − x′ | < δ essi necessariamente appartengono ad uno, ed il medesimo, di questi intervalli, e cioè
x, x′ ∈ Iσ0 ···σi∗ per una qualche i∗ -pla (σ0 , . . . , σi∗ ). Ne segue che i primi i∗ passi delle storie dei punti x, x′
∗
coincidono, e che d(σ, σ ′ ) ≡ d(H(x), H(x′ )) < 1/2i ≤ ε .
(ii) la mappa H−1 : YN 2 → A è continua. Infatti: la lunghezza degli intervalli Iσ0 ···σm decresce con m; e pertanto
dati comunque σ ′ ∈ YN ∗ ′
2 ed ε > 0 , è possibile fissare i tale che |Iσ0′ ···σi′∗ | < ε . Ma ogni σ ∈ Bδ (σ ) con
∗
δ ≤ 1/2i ha le prime coordinate σi = σi′ per almeno tutti i siti i = 0, 1, . . . , i∗ ; e quindi tale σ individua
un x che appartiene all’intervallo Iσ0′ ···σi′∗ . Questo x ha storia simile a quella di x′ = H−1 (σ ′ ) sino alla
i∗ -ma iterazione della mappa fµ , e verifica la |H−1 (σ) − H−1 (σ ′ )| = |x − x′ | < ε .
"
In definitiva si ha che:
A prescindere dalla struttura geometrica di A , le tre proprietà dette si riassumono dicendo che
Il sistema dinamico, ovvero la sua evoluzione su A , sono caotici.
“Benché il moto sia, strettamente parlando, deterministico, ciononostante da un punto di vista pratico esso è
del tutto casuale: anche approssimativamente, lo stato a tempi grandi dipende in modo sensibile da dettagli non
osservabilmente fini di quello al tempo zero” (O.Lanford).
Si ricordi infatti che lo shift su YN
2 è equivalente al sistema di testa e croce ripetuti, che è il più classico gioco
in cui si assume vi sia totale casualità e non causalità, e ciò a prescindere dalla probabilità “di vincita” con cui la
moneta mostra una delle sue due facce, purché tale probabilità
√ sia non banale.
Qui sopra si è mostrato che (A , fµ ), con µ > 2 + 5 , è caotico.
Esempio 5.1.10 La “tent-map su T1 ”, e cioè la trasformazione di T1 in sé data da θ &→ 2θ , per θ ∈ [0, π], e
θ &→ 2(2π − θ) per θ ∈ [π, 2π) è espansiva su tutto T1 (e quindi ha dipendenza sensibile dal dato); in base a quanto
visto nell’Esempio 4 si ha che tale mappa è caotica su T1 . In più ciò implica che anche la mappa f4 := 4x(1 − x)
è caotica su [0, 1]. Infatti, come è mostrato qui di seguito, è possibile stabilire una corrispondenza, anche se non
invertibile, fra queste due mappe. Si noti che in questi due casi l’attrattore non è un insieme di Cantor, visto che
coincide con T1 e con [0, 1] rispettivamente, e che quindi la coniugazione topologica con (YN , τ p ) non è l’unica
possibilità per un sistema di esibire comportamento caotico.
Dimostrazione Talvolta la tent-map viene anche definita su [0, 1] in sé, valendo 2y su [0, 12 ] e 2(1 − y) su [ 12 , 1]
√
mediante la θ := 2πy ∈ T1 . Si ponga y =: 2π 1
arcsin x ; si ha sin2 θ = x. Allora, la x &→ 4x(1 − x) comporta
la sin2 θ &→ 4 sin2 θ cos2 θ ≡ (2 sin θ cos θ)2 ≡ sin2 (2θ). In tal modo si vede che l’endomorfismo θ &→ 2θ del toro T1
in sé che si è visto nell’Esempio 4 produce sulla x la stessa dinamica della mappa quadratica fµ con µ = 4. Il
morfismo θ &→ 2θ coincide con quello della tent-map salvo che per l’inessenziale parità, che è invece la stessa di
quella di un’altra f : [0, 1] → [0, 1], la “mappa del panettiere” o “baker’s map”: 2y e 2y − 1 su [0, 12 ] e [ 12 , 1]
rispettivamente, e che ha proprietà del tutto analoghe alla precedente. "
[La seguente è pura divagazione. La tent-map abbia distribuzione p(y)dy ≡ c · dy con |c| = 1 ; essa cioè sia uniforme su [0, 1] .
Se si pensa ad una rappresentazione in base due, si ha che il sistema dinamico della tent-map può essere usato come generatore casuale
di numeri uniformemente distribuiti su [0, 1]. Se p(y) è la densità assegnata su [0, 1], p è invariante sotto la dinamica quando
p(y)dy = p(z1 )dz1 + p(z2 )dz2 con z1 , z2 le due controimmagini di y .
bc bc
Le due controimmagini secondo la tent-map di y = b21 + 2b22 +. . . (con bj ∈ {0, 1} ) sono z1 = 2b12 + 2b23 +. . . e z2 = 1
2
+ 212 + 223 +. . .
e quindi anche loro uniformemente distribuiti su [0, 1]. La distribuzione per la x su [0, 1] diviene
dy 2 1 1 1
p(x)dx := p(y(x)) dx = √ · √ dx = / dx.
dx π 1−x 2 x π x(1 − x)
L’esponente di Liapunov (vedi: [§ 3]) della tent vale
n−1 ' '
1 = ' df '
η := lim log '' (f n (y))''
n→∞ n k=0 dy
(• ) Se q è omoclino per p0 = 0 , e quindi q ∈ W u (0), proseguendo nelle controimmagini fµ−n (q) ci si avvicina
sempre di più a zero stesso, che, si ricordi, non è attrattivo. In più, se µ > 4 , nessuna delle traiettorie omocline
o eterocline può avere punti nei quali ∂fµ = 0 , perché l’unico punto critico 1/2 esce definitivamente dall’intervallo
di definizione.
Omocline degeneri := orbite omocline che ammettono punti q nei quali ∂f (q) = 0 . [Nel caso della mappa fµ si
hanno omocline degeneri se µ = 4 ].
(• ) Le due considerazioni precedenti sussistono anche per l’altro punto fisso della fµ anch’esso instabile dato che
µ > 3.
√
(• ) La caoticità della dinamica anche per µ ∈ [4, 2 + 5] è conseguenza (vedi: [Devaney ]) del seguente teorema,
nel quale con insieme iperbolico (in dim = 1 ) si intende un insieme I ⊂ R compatto non vuoto invariante, e tale
che per ogni x ∈ I esiste n0 ∈ N tale che o è |∂f n (x)| > 1 per n > n0 oppure è |∂f n (x)| < 1 per n > n0 .
[La definizione è un caso particolare ( dim = 1 ) di quella che verrà data nel seguito].
M. Lo Schiavo
5.1. La mappa quadratica 255
Teorema 5.1.1 Sia f : R → R, f ∈ C 1 (R), e sia p un punto fisso (iperbolico) instabile che ammetta un’orbita
omoclina non degenere. Allora per ogni intorno N (p) esiste un intero m tale che la mappa f m ammette un
attrattore iperbolico (invariante) contenuto in N (p) e sul quale essa risulta coniugata allo shift (YN
2 , S)
Corollario 5.1.1 L’essere coniugato allo shift implica l’esistenza di infiniti punti periodici in ogni intorno per
quanto piccolo del punto fisso omoclino, i quali naturalmente avranno orbite “vicine” alla omoclina.
Si vedrà che, in dimensione maggiore di uno, questo tipo di comportamento è il principale responsabile della
generazione di caos.
Risulta in effetti anche interessante lo studio dei sistemi in cui le caratteristiche di maggiore o minore “me-
scolamento” vengono studiate in media a seconda della densità di probabilità legata all’evoluzione del sistema.
Questo tipo di descrizione risulta imposto dalla stessa complessità del sistema non appena questi comincia ad
evolvere dallo stato di riferimento. Essa permette di studiare la dinamica al di là della semplice visione puntuale
deterministica (geometrica), e ciononostante di mantenere significativo il concetto di evolutore nello spazio delle
fasi. In altre parole, dato il fatto che un sistema si comporta come il lancio di un dado, ci si chiede anche se questo
sia, o meno, truccato, e si fa a meno di dare importanza a quei casi che pur essendo possibili sono a tutti gli effetti
assai improbabili (ovvero il cui effetto cessa presto di avere rilevanza).
Tale studio è però al di là della presente esposizione; qui invece si vogliono ricordare alcuni dei concetti principali
legati ai sistemi dinamici topologici la cui evoluzione avviene su insiemi compatti.
Sia (X, d) uno spazio metrico compatto, sia H0 lo spazio degli omeomorfismi (=: corrispondenze biunivoche e
bicontinue) da (X, d) in sé, e sia H un elemento di H0 .
H minimale := per ogni x ∈ X l’orbita γ (x) := {Hn (x)}n∈Z è densa in X.
Equivalentemente := non esistono sottoinsiemi E ⊂ X chiusi ed H -invarianti che non siano X o ∅ . [ E ⊂ X deve
contenere la chiusura di una qualunque orbita nata dentro di sé, e questa chiusura è, per ipotesi, X ].
c∞
Equivalentemente := ogni aperto non vuoto U ⊂ X è tale che n=−∞ Hn (U ) = X. [Per il punto precedente, il
complementare dell’unione è un chiuso invariante e non può essere X ].
[Quest’ultima proprietà, infine, implica la definizione di minimalità perché impone che ciascun arbitrario x ∈ X appartiene ne-
cessariamente a Hk U per qualche k ∈ Z , e quindi che H−k (x) ∈ U . Siccome U è arbitrario, ciò significa che x ha orbita
densa].
È evidente che se H ammette sia punti periodici (o fissi), sia punti con orbite dense in X, allora H non è
minimale né è possibile decomporlo in più trasformazioni che siano minimali anche se solo su opportuni sottoinsiemi
di X.
È anche evidente che un omeomorfismo H che sia minimale non ammette né traiettorie periodiche né integrali
primi, e cioè funzioni invarianti non costanti (ma per questo è già sufficiente che esista anche solo un’orbita densa).
Estendendo il concetto di insieme ω -limite, con una trasformazione F : X → X che sia (solo) continua si
definiscono
Punto non erratico, o “nonwandering”, per la F := un punto x per il quale, dato comunque un aperto U
contenente x, esiste n ≥ 1 tale che F −n (U ) ∩ U ̸= ∅ .
Non è necessario che F −n (U ) ∩ U contenga x stesso; se ciò accade il punto si dirà
Punto ricorrente per la F := un punto x per il quale esiste una successione nj ↗ ∞ tale che F nj (x) → x;
ed è evidente che x ∈ Ω(F ), ove:
Insieme non erratico := l’insieme Ω(F ) dei punti non erratici per la F .
L’insieme Ω(F ) è fatto di punti o ricorrenti o dotati di una certa ricorrenza; in effetti il numero n della
definizione è arbitrariamente grande.
Inoltre si ha che Ω(F ) è chiuso e non vuoto, in quanto contiene tutti gli insiemi ω -limite di X (che si sta
supponendo compatto), e quindi tutti gli insiemi periodici; inoltre risulta F (Ω) ⊆ Ω. [Un’orbita densa, o un’orbita
periodica, è composta da punti ricorrenti e quindi non erratici. Per un punto ricorrente le immagini si “sovrappongono” su se stesse.
Punti omoclini per un qualche insieme invariante I sono non erratici ma non ricorrenti. In qualche senso l’insieme non erratico
rappresenta il sistema a tempi lunghi, mentre il suo
√ complementare ne descrive il transiente].
Per la mappa quadratica con µ > 2 + 5 si ha che Ω(fµ ) ∩ [0, 1] = A .
N.B. 5.1.11 Se F conserva la misura di Borel (e cioè la “lunghezza”, che è positiva sugli aperti non vuoti),
' allora
Ω ≡ X perché altrimenti potrebbe esistere in X\Ω una famiglia numerabile di aperti disgiunti {F −n (U )} 'n=0,1,...
e questo contrasta con la finitezza della misura di X. ♦
'
N.B. 5.1.12 Se H è (un omeo) minimale, (o se esiste E ⊂ X chiuso invariante e tale che H 'E è minimale), allora
Ω(H) = X (o E = Ω). In caso contrario infatti X, (o E ), potrebbe ' contenere punti x ∈ U tali da ammettere
una famiglia numerabile di intorni aperti disgiunti {H−n (U )} 'n∈Z . Pertanto X, (o E ) sarebbero ricoperti da una
famiglia non finita di aperti disgiunti, e ciò contrasta con la compattezza di X. ♦
Dalle due precedenti note si capisce come la proprietà di minimalità sia una proprietà assai forte per una
generica mappa continua. Ad esempio, lo shift su YN è minimale se e solo se N = 0 (vedi: [Walters ]), infatti non
deve ammettere punti periodici.
Più debole è la seguente proprietà di Transitività topologica, enunciata assumendo ancora che (X, d) sia uno
spazio metrico compatto e H : X → X un omeomorfismo. [Se H non fosse invertibile si potrebbe introdurre il concetto di
transitività topologica unilaterale]. Si premetta innanzi tutto la seguente definizione:
Insieme E affatto denso in X := un sottoinsieme E ⊂ X la cui chiusura non contiene alcun aperto; essa cioè
non contiene punti interni: in ogni sfera di X si trovano punti di X \ E . Esempi: sono affatto densi gli interi
come sottoinsieme dei reali; lo è l’insieme ternario di Cantor in [0, 1]; l’insieme A della mappa fµ per µ > 4 ; il
complementare di un insieme denso e aperto è (la chiusura di un insieme) affatto denso.
H è topologicamente transitivo := quando per qualche x ∈ X l’orbita
{Hn x, n ∈ Z} è densa in X.
Equivalentemente := quando gli unici sottoinsiemi E ⊂ X chiusi e H -invarianti sono X o sono affatto densi in
X. [L’insieme E , se non contiene qualche punto dell’orbita densa, e quindi alcun punto di essa, non può contenere aperti].
c∞
Equivalentemente := quando ogni aperto non vuoto U ⊂ X, se non è tale che n=−∞ Hn U = X, è almeno tale
c∞
che X \ n=−∞ Hn U è affatto denso. [Per il punto precedente, il complementare dell’unione è un chiuso invariante affatto
denso].
[Quest’ultima proprietà, d’altra parte, implica la definizione di transitività topologica perché un x ∈ X che non sia nell’insieme affatto
denso appartiene necessariamente a Hk U per qualche k ∈ Z , e quindi, poiché U è arbitrario, ciò significa che x ha un’orbita densa].
Equivalentemente := quando dati comunque due insiemi U, V ⊂ X non vuoti, aperti, esiste n ∈ Z per il quale
Hn U ∩ V ̸= ∅ .
Si osservi che la transitività topologica, contrariamente alla minimalità, permette l’esistenza di orbite periodiche;
essa tuttavia non permette che X sia decomponibile in sottoinsiemi invarianti che siano aperti non vuoti.
Si può inoltre mostrare che queste proprietà implicano anche la densità dello stesso insieme dei punti con
traiettorie dense.
Sia X compatto metrizzabile, e si denoti ancora con H0 lo spazio degli omeomorfismi su X. Sussistono le
seguenti proposizioni (vedi ancora: [Walters § 5.5]), ove con “ergodico” si intende un omeomorfismo H ∈ H0 che
conserva la misura ed è tale che ogni aperto invariante ha misura banale.
M. Lo Schiavo
5.1. La mappa quadratica 257
Proposizione 5.1.1 Se H ∈ H0 è ergodico rispetto ad una certa misura finita su X che sia positiva sugli aperti
non vuoti, allora H è topologicamente transitivo e quasi tutti i punti di X hanno traiettorie dense.
Dimostrazione (Walters Teor. 5.15) Sia {Un }n∈N una base numerabile per la topologia su X. Una traiet-
toria γ (x) è densa se ha intersezione non vuota con ciascuno degli Un , pertanto si ha che
' ∞
d ∞
b
'
D := {x ∈ X ' [ γ (x)] = X} = H k Un .
n=1 k=−∞
c∞
Ma l’ergodicità di H implica che per ciascun n l’aperto k=−∞ Hk Un è H -invariante ed ha misura 0 oppure 1 ;
e, d’altra parte, m(Un ) ̸= 0 poiché Un ̸= ∅ . Pertanto m(D) = 1 . "
Proposizione 5.1.2 Se H ∈ H0 è topologicamente transitivo e se esiste una metrica d su X che sia conservata da
H allora H è minimale.
Dimostrazione (Walters Teor. 5.13) Per ipotesi si ha che d(Hx, Hy) = d(x, y) per ogni x, y ∈ X, ed esiste
x0 tale che l’orbita γ (x0 ) per x0 è densa in X. Si vuole dimostrare che è anche [ γ (x)] = X. Dato ε > 0
esistono m, n ∈ Z tali che d(x, Hm (x0 )) < ε ed d(y, Hn (x0 )) < ε . Ne segue che
d(y, Hn−m (x)) ≤ d(y, Hn (x0 )) + d(Hn (x0 ), Hn−m (x))
≤ d(x, Hn (x0 )) + d(Hm (x0 ), x) < 2ε
e ciò implica la tesi. "
Sono topologicamente transitivi, ad esempio, lo shift su YN e gli automorfismi A : Tn → Tn del toro (vedi:
Esempio 4, ed anche [Walters ] e [Devaney ]), che siano ergodici (in misura di Haar); gli endomorfismi lo sono
unilateralmente.
La prima delle proposizioni qui sopra tuttavia lascia vedere che un insieme può essere topologicamente transitivo
e ciononostante ammettere un insieme addirittura denso di punti periodici.
Esempio ) 5.1.13
* Il gatto di Arnold, (vedi oltre: § 3 Esempio 4) è un automorfismo ergodico di T2 in sé, infatti
2 1 √
A := ha determinante Det A = 1 ed autovalori λ1,2 = 12 (3 + 5) e quindi tali che |λ1,2 | ̸= 1. Esso
1 1
pertanto è topologicamente transitivo; inoltre è iperbolico ed invertibile con inversa iperbolica. D’altra parte, come
si è visto, ha un insieme denso di punti periodici, e quindi non è minimale. #
Esempio 5.1.14 La rotazione del toro F (θ) = θ+ϕ, θ ∈ T1 , è topologicamente transitiva, (ed anche minimale),
se ϕ = 2πν , con ν ̸∈ Q. #
La seguente discussione estende la (EI) e segue strettamente la teoria svolta su [Walters] al quale si rimanda
per i debiti dettagli.
Generatore g per H ∈ H0 := un ricoprimento finito {A1 , . . . , Am } di X , fatto con insiemi aperti {Ai }i=1,2,... , e tale che per
e
ogni successione {Akn }n∈Z , Akn ∈ g si abbia che l’insieme ∞n=−∞ H
−n [A
kn ] contiene al più un punto di X . (ove [ · ] indica la
chiusura).
N.B. 5.1.15 È evidente che se H e ammette un generatore ammette anche un generatore “debole”, e cioè un ricoprimento (aperto)
finito {O1 , . . . , Om } di X tale che ∞
n=−∞ H
−n O
kn contiene al più un punto di X .
Inoltre si può mostrare che vale anche il viceversa: se esiste un generatore debole, il ricoprimento {O1 , . . . , Om } è finito, e quindi
è anche finito il suo numero di Lebesgue:= ν ; basta allora scegliere diam[Ak ] < ν e sfruttare la compattezza di X per concludere che
esiste un ricoprimento {Ak }k=1,...,m1 che è un generatore per H .
Si ricordi la definizione di
numero di Lebesgue per un ricoprimento {Ok }k∈N di X := un numero positivo ν tale che ogni insieme V ⊂ X con diam V ≤ ν
appartiene propriamente a qualche Ok . Tale numero esiste finito se lo spazio è compatto metrizzabile (vedi: [Walters]). ♦
Un generatore è un ricoprimento dello spazio la cui dinamica separa i punti dello spazio stesso; ad esempio un generatore per la
dinamica della fµ su A può essere l’insieme {I&0 , I&1 }, con I&0 ed I&1 aperti disgiunti, contenenti rispettivamente I0 ed I1 , e non
contenenti c = 1/2 . (Si intende che l’intersezione nella definizione di generatore è solo per n ≥ 0 dato che fµ non è un omeo).
Proposizione 5.1.1 Se (X, d) è compatto metrico e H ∈ H0 ammette generatore g
, allora g
individua la topologia su (X, d) nel
senso che:
Y
(i) dato ε > 0 esiste m > 0 tale che ogni A ∈ m n=−m H
−n g ha diam A < ε ;
0 1
e
(ii) per ogni m > 0 esiste δ > 0 tale che d(x, y) < δ implica x, y ∈ m n=−m H
−n A
kn per qualche Ak−m , . . . , Ak+m , A kj ∈ . g
Y
Con g1
g
2
si intende la famiglia costituita dalle intersezioni G1 ∩ G 2 con G 1 ∈ 1
egG 2 ∈ 2
. g
Dimostrazione
e
(i) Se non fosse, per ogni j esisterebbero xj , yj , {Akn (j) ∈ g
}n=−j,...,j tali che xj , yj ∈ jn=−j H−n Akn (j) eppure tali che
d(xj , yj ) > ε > 0. La compattezza dello spazio implica l’esistenza di una sottosuccessione {jk }k=1,2,... tale che xjk →
x, yjk → y , eppure x ̸= y; la finitezza del ricoprimento implica che infiniti degli xjk e degli yjk sono contenuti in uno
stesso A0 fra gli Ak0 , in uno stesso A1 fra gli Ak1 , etc. e
Ne segue che i punti di accumulazione x, y appartengono a ∞ n=−∞ H
−n [A ] e pertanto devono coincidere.
n
(ii) La continuità di H permette di scegliere δ tale che per un certo fissato m si abbia che la d(x, y) < δ implica d(Hi x, Hi y) < ν per
ogni i ∈ [−m, m] . Se allora si è scelto ν proprio il numero di Lebesgue del ricoprimento g si ha anche che H−i x, H−i y ∈ Aki
per qualche Aki ∈ . g "
Dimostrazione
e∞
(⇒) Sia s
δ un ricoprimento di X costituito da sfere di diametro non superiore a δ , ed x, y ∈ n=−∞ H
−n [A
kn ] con Akn ∈ δ; s
per costruzione si ha che d(Hn x, Hn y) ≤ δ per ogni n ∈ Z . Ma per ipotesi H è espansivo, per cui x = y ; ne segue che
Rδ ≡ g
è un generatore.
Ovvero: un qualunque ricoprimento aperto di X con sfere di raggio δ/2 è un generatore di H se questi è espansivo, con
costante di espansività δ .
(⇐) Si supponga che esistano x, y ∈ X, ν < ∞ tali che ∀n ∈ Z si abbia d(Hn x, Hn y) ≤ ν. Se, in particolare,
e ν è un numero
di Lebesgue per g
si può anche supporre che ∀n ∃Akn ∈ g
con Hn x, Hn y ∈ Akn ; e cioè che x, y ∈ ∞ n=−∞ H
−n A
kn . Ma
per ipotesi g
è un generatore e quindi x = y; ciò implica che H sia espansivo.
"
N.B. 5.1.16 Malgrado cambi il valore della costante δ , una eventuale variazione della metrica su X che però conservi la topologia
non cambia le proprietà di espansività; esse risultano inoltre conservate dagli omeomorfismi. La definizione di generatore infatti è
esclusivamente topologica. ♦
In particolare:
g
Proposizione 5.1.1 H ∈ H0 espansivo su X compatto implica che un qualunque ricoprimento finito U di X con insiemi aventi
Y
diametri d ≤ δ è tale che diam mj=−m H
m
−j U −→ 0. g ∞
N.B. 5.1.17 H ∈ H0 espansivo implica che esiste N ∈ N ed un sottoinsieme chiuso Ω ⊂ YN tale che, detto S lo shift su YN , si ha
che
• SΩ = Ω;
onto
• esiste F : Ω −→ X , continua e tale che F S(ω) = HF (ω) per ogni ω ∈ Ω .
N.B. 5.1.18 H ∈ H0 espansivo implica che, detta ξ una partizione finita di X in Boreliani {Bi } con |Bi | ≤ δ , si ha
∞
f
H−n α (ξ) = β (X)
n=∞
N.B. 5.1.19 Sia A ∈ L(n, Z) : Tn → Tn con det A = ±1 . A è espansivo se e solo se ogni autovalore λA di A è tale che
|λA | ̸= 1 . Infatti A è espansivo se e solo se lo è il corrispondente operatore lineare su Rn . Se un automorfismo A : Tn → Tn ha
spct(A) = {eiνπ } con ν ∈ R\Q allora è ergodico ma non espansivo; se però è espansivo certo è ergodico. ♦
La presenza dell’espansività fa sı̀ che ogni tentativo di risoluzione numerica del problema sia sicuramente destinata ad un incerto
risultato, almeno per quanto riguarda i tempi “lunghi”.
√
Esempio 5.1.20 La mappa quadratica è espansiva su I0 ∪ I1 se µ > 2 + 5 , ed infatti una qualunque coppia di punti x = ̸ y ha
traiettorie che, prima o poi, si trovano da bande opposte rispetto ad A0 . (Qui δ = diam A0 ). #
M. Lo Schiavo
5.2. Cenni di teoria delle biforcazioni 259
Esempio 5.1.21 Non è espansiva, invece, la rotazione irrazionale del toro T1 , pur essendo topologicamente transitiva. #
Esempio 5.1.22 Lo shift su YZ costruito con le successioni doppiamente infinite di simboli in un alfabeto Y di cardinalità finita, è
espansivo.
Infatti
b )0* M) *'
0 ''
Z
X=
σ0
, e g := σ0 '
σ0 ∈ Y
σ0 ∈Y
) *
e∞ 0
è un generatore per lo shift S , giacché se x ∈ n=−∞ S
−n allora x corrisponde ad uno ed un solo σ ∈ YZ . Alternativamente
yn
si ha che, se σ ̸= σ′ , allora esiste un primo n∗ : ′
σn∗ ̸= σn ∗ e quindi
∞
=
∗ ∗ 1 '' ' ' '
d(S n σ, S n σ′ ) = ∗ ' ≥ ' σn∗ − σn∗ ' ≥ 1.
′ ′
|n|
σn+n∗ − σn+n
n=−∞
N
Definendo in modo ovvio la positiva espansività con solo indici temporali positivi, si ha anche che lo shift positivo sulle successioni
unilateralmente infinite è positivamente invariante. #
1
Esempio 5.2.2 La mappa f : x ∈ R &→ f (x) = 2 x∈R è C 1 -strutturalmente stabile su [0, 1]. Notando
infatti che '1 '
' − g ′ (x)' < 1
se e solo se g ′ (x) ∈ (0, 1) e che
2 2
'1 '
' x − g(x)' < 1
se e solo se 1
− 1) < g(x) < 12 (x + 1) ,
2 2 2 (x
si riconosce che se ϵ < 1/2 una qualunque mappa g che sia in Bϵ (f ) ⊂ C 1 è monotona crescente, ha un unico
punto di equilibrio attrattivo (per il teorema della media), e come tale individua un dominio sul quale genera la
stessa dinamica di f . [Per costruire esplicitamente l’omeo della coniugazione ci vuole qualche sforzo in più: occorre infatti trovare
esplicitamente un compatto che si trasformi in modo commutativo con la f ; vedi: [Devaney ]]. #
Diversamente dallo studio della stabilità strutturale, l’esame del come varia la risposta del sistema al variare dei
soli valori dei parametri di struttura in una assegnata legge funzionale è di maggior interesse per quei modelli per
i quali la forma del campo è fissata apriori. In tale ámbito può accadere che, nello spazio nel quale i parametri
assumono valori, esista un qualche specifico punto di transizione, attraversando il quale il comportamento del
sistema subisce una radicale modifica e mostra caratteristiche del tutto diverse da quelle esibite in punti seppur
vicini ad esso. L’insieme dei valori dei parametri che individuano tale comportamento “discontinuo” si dice
rappresentino un punto di biforcazione; trovarli e determinare il comportamento del sistema nell’intorno di tali
punti è argomento della teoria delle biforcazioni.
Esempio 5.2.4 La mappa quadratica fµ : x ∈ R &→ fµ (x) = µx(1 − x) ∈ R presenta un’infinità (numerabile) di
punti di biforcazione: sono i valori µ2n nei quali si ha il raddoppio del periodo dell’orbita periodica (vedi anche
più avanti). Essa presenta inoltre valori (µ = 4) oltre i quali tutta la sua dinamica si modifica drasticamente e
globalmente. #
e cioè dalla
g ω2l
θ̈ = ν(θ, µ) := sin θ(µ cos θ − 1), µ := , θ∈R, (2.14)
l g
1 g µ
che come è ben noto implica 2 θ̇2 − l cos θ(1 − 2 cos θ) = cost .
!
µ
m! l sin(µ)
mg
Dallo studio degli zeri del campo, o anche graficamente dallo studio della funzione θ̇ = θ̇(θ), si riconoscono le
due possibilità:
(
θe = 0 equilibrio stabile,
• 0≤µ≤1 che dà:
θe = ±π equilibri instabili;
:
µ
µ
-¼ +¼
(
θe± := arccos(1/µ) equilibri stabili,
• µ>1 che dà:
θe = 0, ±π equilibri instabili.
M. Lo Schiavo
5.2. Cenni di teoria delle biforcazioni 261
:
µ
-¼ +¼ µ
Si può pertanto tracciare il seguente grafico biforcativo nel “piano” (xe ; µ), nel quale il tratto continuo
rappresenta un equilibrio stabile e quello tratteggiato uno instabile:
+¼
s(1/¹)
µe arcco
F<0 F>0
0 ¹
F>0 1 F<0
-¼
In esso si riconosce la presenza di un punto di equilibrio: l’origine, che pur rimanendo tale per ogni valore del
parametro, modifica la sua stabilità quando il parametro attraversa il particolare valore µ = 1 e la cede ad altri
due punti che risultano di equilibrio solo a partire da tale valore del parametro. #
Dagli esempi si vede che biforcazioni possono darsi sia di natura locale, quelle cioè che esaminano il cambio di
comportamento del sistema nell’intorno di un suo specifico punto (fisso o periodico), sia di natura globale, quello
cioè per le quali è tutta la struttura topologica del diagramma di fase che cambia e ciò non può essere riconosciuto,
in generale, da un esame della dinamica “in intorni piccoli” di qualche punto. Questo è quello che accade ad esempio
quando si perde o si acquista la trasversalità fra due varietà invarianti, ad esempio W u e W s di uno stesso punto
di equilibrio, o quando si interrompono delle omocline o delle eterocline, o quando si innescano dei meccanismi di
“auto-sovrapposizione” o di sdoppiamenti.
In questo paragrafo ci si occuperà di biforcazioni della prima specie, lasciando al prossimo paragrafo la discus-
sione delle seconde. Inoltre si prenderanno in considerazione solo casi in cui il parametro di controllo µ sia uno
scalare reale. Per una trattazione più estesa si rimanda alla bibliografia.
Tuttavia, prima di procedere ulteriormente con la discussione delle principali biforcazioni di un sistema, è
opportuno premettere la presentazione di una importante benché particolare famiglia di mappe che trae origine
direttamente dai sistemi continui, e che risulta essere uno dei più potenti procedimenti di indagine nel campo dei
sistemi non lineari.
Le Mappe di Poincarè
o mappe di primo ritorno, relative ad un sistema ẋ = v(t, x), x ∈ M.
Va subito rimarcato che esse hanno significato quasi esclusivamente per quei sistemi che ammettono una qualche
forma di periodicità: di una soluzione vicino alla quale si effettua l’indagine, dei coefficienti dell’equazione che
governa il moto, o della dinamica globale del sistema; (insomma è necessario che esista un “primo ritorno”).
Quando si possano definire, le Mappe di Poincarè si riferiscono ad un numero di coordinate minore di quello
necessario a descrivere tutto il sistema; inoltre è di grande chiarezza visto che la descrizione della proprietà orbitali
si riduce allo studio di mappe discrete. Il loro svantaggio sta nel fatto che è necessario operare delle scelte apriori,
per le quali spesso occorre conoscere o ipotizzare qualcosa della soluzione, e dalle quali dipendono i conseguenti
risultati e considerazioni.
In sintesi il procedimento si può riassumere nei seguenti passi:
(i) In base a quanto si conosce del sistema si sceglie un intorno dello spazio delle fasi, o dello spazio delle fasi
ampliato, contenente traiettorie dotate di una qualche forma di periodicità, e si fissa un periodo di riferimento
T che può essere quello delle soluzioni, o quello dei coefficienti, o quello del sistema globale.
(ii) Si sceglie una porzione di superficie regolare Σ, di opportuna codimensione (generalmente uguale a uno), che
sia trasversa al campo in ogni suo punto, in modo tale che le traiettorie l’attraversino, localmente, in un solo
istante.
(iii) L’insieme dei punti di un certo intorno scelto su questa superficie viene preso come insieme delle condizioni
iniziali per altrettante traiettorie, delle quali però non si memorizza tutta l’evoluzione bensı̀ solo quella relativa
al primo istante vicino a T in cui esse ripassano per la superficie.
(iv) Si dà il nome di Mappa di Poincarè alla trasformazione che in tal modo resta definita sulla superficie Σ.
Caso A.
Sia data l’equazione ẋ = v(x, t), x0 ∈ M, con campo regolare; e sia Σ una porzione di superficie (n − 1)-
dimensionale contenente un punto x∗ di un’orbita periodica e tale che v(x∗ ) non sia tangente a Σ in alcun suo
punto. Per il teorema di primo ritorno esiste un aperto V ∈ Σ, V ∋ x∗ , tale che le traiettorie delle soluzioni
x = φ(t, t0 , x0 ) passanti all’istante t = t̄ per un qualsiasi x ∈ V tornano su Σ dopo un intervallo di tempo
τ (x) ≃ T := τ (x∗ ). La mappa di Poincarè è la mappa P : V ∈ Σ → Σ, data da
P : x &−→ P(x) := φ(t̄ + τ (x), t̄, x) .
In figura è mostrata una traiettoria “subarmonica” periodica di periodo 3T , e la mappa P è tale che 2 = P(1), 3=
P(2) = P 2 (1), 1 = P(3) = P 3 (1)
x2 x2 §
§
2
2
3
3
1 x1 1
x1
Esempio 5.2.6
( (
ẋ = +x − y − x(x2 + y 2 ) + ṙ = r(1 − r2 )
ovvero, su R × R,
ẏ = +x + y − y(x2 + y 2 ) θ̇ = 1
È evidente che il sistema ammetta un ciclo (stabile, vedi la (SH) ) in r∗ = 1 , e che ' θ(t) = t − t0 + θ0 . Scelto
'
t0 = 0 e con θ̄ := t̄ + θ0 fissato, una buona sezione trasversa può essere Σ := {(x, y) ' x > 0, y = 0} = {(r, θ) ' r >
0, θ = θ̄ := 0} . Dato poi che ẋ = 2x(1 − x) implica c|1 − 1/x| = e−2t , la soluzione del sistema è
@) ) * *−1/2 A
1 −2t
φ(t, 0, r0 , θ0 ) = 1+ −1 e ; t + θ0 .
r02
D’altra parte, la definizione di Σ implica che il tempo di volo è τ (r, θ̄) = T = 2π (periodo intrinseco delle coordinate
polari: pertanto in questo esempio il tempo di ritorno τ (x) è indipendente da x0 ). In definitiva si conclude che la
mappa di Poincarè P : V ∈ Σ → Σ, è data da
) ) * *−1/2
1 −4π
P : r &→ P(r) = 1 + − 1 e
r2
nella quale si nota in primo luogo la riduzione del numero di coordinate, e poi la proprietà di ammettere punti
fissi che sono in corrispondenza biunivoca con le traiettorie periodiche del sistema originario: r∗ = 1 . Si ha in
più (vedi oltre) che lo studio della stabilità lineare di tali punti fissi fornisce direttamente la stabilità di tali orbite
dP ''
periodiche. In questo esempio risulta ∂P(1) = ' = e−4π ∈ (0, 1) e questo assicura la stabilità del ciclo
dr r=1
r∗ = 1 , cosa che, in questo caso, è facilmente riconoscibile dalla stessa equazione iniziale. #
M. Lo Schiavo
5.2. Cenni di teoria delle biforcazioni 263
N.B. 5.2.7 Non è troppo difficile convincersi che se Σ1 , Σ2 sono due sezioni trasverse al campo, ed h : Σ1 → Σ2 è il
diffeo generato dal flusso del sistema, allora le immagini P1 , P2 corrispondenti alle due sezioni sono topologicamente
coniugate dal diffeo h.
§1 §2
P2
P1
Caso B.
Sia data l’equazione ẋ = v(x, t), x0 ∈ M, con campo v regolare e T -periodico rispetto alla t. Posto ω := 2π/T
e g(x, θ) := v(x, t(θ)), e quindi con g(x, ·) : T → V ≡ Tx M e θ : R → T definita da θ(t) := ω(t − t0 ) +
θ0 (mod 2π) (o, in coordinate: θ(t) := (ω(t − t0 ) + θ0 ) ∈ R e t(θ) = t0 + (θ − θ0 )/ω ) l’equazione equivale, in
coordinate, alla (
ẋ = g(x, θ) (x0 , θ0 ) ∈ Rn+1
con :
θ̇ = ω g(x, θ + 2π) = g(x, θ) ∀θ ∈ R
) *
x(t, t0 , x0 , θ0 )
e le sue soluzioni sono del tipo φ : (t, t0 , x0 , θ0 ) &→ ∈ Rn+1 .
θ(t, t0 , x0 , θ0 )
Nello spazio M × T si definisce
9 ' :
Sezione stroboscopica Σθ̄ := la superficie (x, θ) ∈ M × T ' θ = θ̄ .
Dato che ω ̸= 0 , nello spazio delle fasi ampliato M × T essa è senz’altro trasversa al campo, e permette di
introdurre la Mappa di Poincarè P : Σθ̄ → Σθ̄ data in coordinate da
7 8
P : (x, θ̄) ∈ Rn+1 &−→ x(t̄ + T, t̄, x); θ̄ + 2π con t̄ := t(θ̄) = t0 + (θ̄ − θ0 )/ω .
Osservazione.
Le traiettorie della P non sono traiettorie del sistema a tempo continuo, anche perché esse sono famiglie solo
numerabili di punti. Esse appartengono alle proiezioni sullo spazio M delle curve integrali di quello, e cioè delle
linee definite in M × R come grafico delle funzioni moto. Queste ne contengono i valori (le sezioni) relative agli
istanti t̄ + k T per k = 0, 1, 2, . . .. Se il sistema è autonomo, tali proiezioni costituiscono delle varietà P -invarianti
sulla sezione di Poincaré. In generale, invece, tali proiezioni non è detto siano invarianti ed i loro punti possono
evolvere in modo diverso da quelli che vengono proiettati.
Si noti inoltre che la sezione Σθ̄ sulla quale è definita la mappa ha dimensione n, ed infatti P(x) non dipende
dalla variabile “temporale” θ .
Anche questa mappa ha punti fissi che corrispondono ad orbite (2π/ω)-periodiche, ed anche ora due mappe
relative a due diverse sezioni Σθ̄1 , Σθ̄2 sono C r -coniugate dal flusso:
H 7 8
(x, θ̄) &−→ x(t̄2 , t̄1 , x); θ̄2 ; con t̄i := t0 + (θ̄i − θ0 )/ω , i = 1, 2.
Si noti infine che in questo secondo caso si è “arbitrariamente” attribuito il valore T = 2π/ω al tempo di ritorno
τ (x) di ognuna delle traiettorie. È questa la parte più difficile del procedimento, e che spesso dà luogo a risultati
di non immediata interpretazione. #
/
Con ω la frequenza della forzante, θ0 := ωt0 , e ωκ := − ω02 − κ2 /4 , l’equazione equivale a
⎧
⎪ ẋ = y
⎨
ẏ = −ω02 x − κy + f cos θ
⎪
⎩
θ̇ = ω
⎛ ⎞
) * ) x* x0 − ax
cos ϕ c ⎝ 1 0κ 1⎠
c = =
− sin ϕ cy (x0 − ax ) + (y0 − ωay )
ωκ 2
e con a + ,2
f x0 − a1 y0 − ωa2 y0 − ωa2
r := / 2 ; c := 2
ω0 + +κ ;
(ω0 − ω 2 )2 + (κω)2 ωκ x0 − a1 x0 − a1
+ , (2.16)
κω 1 κ y0 − ωa2
ψ := arctan 2 ; ϕ := arctan + .
ω0 − ω 2 ωκ 2 x0 − a1
Infatti, il secondo addendo della (2.15) esprime la ben nota soluzione dell’equazione omogenea associata; e una
funzione della forma r cos(ωt − ψ) è certo soluzione particolare purché le costanti siano scelte in modo opportuno.
Per farlo, e cioè per trovare il valore del vettore a , si è fatto uso del metodo delle ampiezze complesse. Esso consiste
(vedi anche § VI.1 Nota 4) nello sfruttare il fatto che i coefficienti dell’equazione sono reali e l’equazione lineare, e
quindi la sua dinamica rimane reale. Considerata allora la data equazione eq(x) come ℜe (eq(z)), a causa della
forzante armonica ωt si è cercata una soluzione particolare sotto la forma a exp(iωt), con a = ax − iay , e quindi
con (ax − iay )(cos ωt + i sin ωt) = ax cos ωt + ay sin ωt. Si è trovata la condizione
7 2 8
2 2 (ω0 − ω 2 ) − iκω
a[(ω0 − ω ) + iκω] = f ovvero a=f
(ω02 − ω 2 )2 + κ2 ω 2
Alternativamente, l’equazione può essere scritta fin dall’inizio in forma vettoriale (vedi: Esempio II 2.7)
) * ) *) * ) *
ẋ 0 1 x 0
ẋ = = + =: Aκ x + b(t).
ẏ −ω02 −κ y f cos ωt
M. Lo Schiavo
5.2. Cenni di teoria delle biforcazioni 265
Da un lato la soluzione dell’equazione omogenea associata uscente dalle condizioni iniziali: xom (0) =: P&κ c
con c = (cx , cy )T ∈ R2 e con P&κ la matrice che trasforma i vettori della base {e1 , e2 } nei due vettori ℜe ed ℑm
di ϵµ , si calcola anche ora in base alla teoria generale mediante la:
xom (t) = Ψκ (t, 0)xom (0) = e−κt/2 P&κ C &κ (t)P&κ−1 P&κ c,
) * ) * ) *
1 0 cos ωκ t sin ωκ t 1 0
P&κ = , &
C κ (t) = &
P −1
= κ 1 .
− κ2 ωκ − sin ωκ t cos ωκ t κ
2ωκ ωκ
Dall’altro si tenta di esprimere la soluzione (particolare) uscente dalle condizioni iniziali: xp (0) =: P& a con
a = (ax , ay )T mediante l’analoga, sebbene particolare, espressione:
Affinché xp (t) rappresenti effettivamente una soluzione, occorre che sia vera la
0 1
˙
P& C(t)
& − Aκ P& C(t)
& a = b(t)
e l’invertibilità della matrice a primo membro permette il calcolo di a . La condizione infatti è verificata purché a
sia tale che K 2 L K L
(ω0 − ω 2 ) cos ωt − κω sin ωt ax + (ω02 − ω 2 ) sin ωt + κω cos ωt ay = f cos ωt
e questa fornisce le prime due relazioni della (CO). Infine, la condizione
fornisce: ) * ) * ) x*
x0 − ax 1 0 c
(x0 − P& a) = = = P&κ c ,
y 0 − ωay −κ/2 ωκ cy
ovvero le seconde della (CO).
Delle due notazioni usate, quest’ultima è particolarmente significativa: infatti l’espressione
−
→ −→ −
→
da leggersi come una espressione del tipo op(t) = oΩ(t) + Ωp(t), permette di costruire agevolmente la famiglia ad
un parametro di trasformazioni: x0 &→ x(t). Data la particolare forzante, si scelgono θ̄ = t̄ = 0 e T = 2π/ω ,
e si ricava la mappa di Poincaré P : Σ0 → Σ0 che sulle coordinate assegna la
ovvero ) 0* ) * ) x * ) 0 *
x x(2π/ω, 0, x0 , y 0 ) a −κπ/ω x − ax
→
& = + e M κ ,
y0 y(2π/ω, 0, x0 , y 0 ) ω ay y 0 − ω ay
con @ A
cos 2π ωωκ + κ
2ωκ sin 2π ωωκ 1
ωκ sin 2π ωωκ
Mκ := ω2 .
− ωκ0 sin 2π ωωκ cos 2π ωωκ − κ
2ωκ sin 2π ωωκ
Dunque la mappa P è una mappa affine, con un solo punto fisso x0 = P& a = (ax , ω ay )T , attrattivo giacché
κ > 0 e la mappa (e la sua derivata) ha autovalori µ1,2 = exp(−κπ/ω ∓ i2πωκ /ω); pertanto tale punto è un fuoco
(stabile). #
Esempio 5.2.9 In particolare, per l’equazione dell’oscillatore armonico non smorzato: κ = 0 e non risonante:
ω0 ̸= ω , si ottengono: ωκ = ω0 , ay = 0 , e quindi
⎧
⎪ ẋ = y ) * ) *) * ) *
⎨
2 ẋ 0 1 x 0
ẏ = −ω0 x + f cos θ ovvero = +
⎪
⎩ ẏ −ω02 0 y f cos ωt
θ̇ = ω
ovvero la
Queste alcune curve integrali nel caso particolare κ = 0, c = (1.0, 0.0), ax = 3.0 ; in esse la “portante”
è tratteggiata, e l’altra è spesso una curva aperta.
8
5
6
4
2 0
-3 -2 -1 1 2 3 4
-2
-5
-4 4
2
-6 0
-5 0 -2
-8 5
ω = 2.0 ; ω0 = 1.0
8
5
6
4
2 0
-2 2 4
-2
-5
-4 4
2
-6 0
-5 0 -2
-8 5
√
ω= 2; ω0 = 1.0
8
5
6
4
2 0
-3 -2 -1 1 2 3 4
-2
-5
-4 4
2
-6 0
-5 0 -2
-8 5
ω = 0.5 ; ω0 = 1.0
M. Lo Schiavo
5.2. Cenni di teoria delle biforcazioni 267
8
5
6
4
2 0
-3 -2 -1 1 2 3 4
-2
-5
-4 4
2
-6 0
-5 0 -2
-8 5
ω = 1.0 ; ω0 = 0.5
8
5
6
4
2 0
-3 -2 -1 1 2 3 4
-2
-5
-4 4
2
-6 0
-5 0 -2
-8 5
√
ω = 1.0 ; ω0 = 2
8
5
6
4
2 0
-3 -2 -1 1 2 3 4
-2
-5
-4 4
2
-6 0
-5 0 -2
-8 5
ω = 1.0 ; ω0 = 2.0
Anche in questo caso è agevole riconoscere le proprietà delle varie traiettorie se si pensano come descritte dai
punti che sono estremo dei vettori
) *
x(t)
x = x(t) = = xom (t) + xp (t), x(0) = x0
y(t)
con
xp (t) = P& C(t)
& a0 e &0 (t)P& −1 (x0 − P& a0 ) .
xom (t) = P&0 C 0
Le traiettorie quindi si avvolgono sulle superfici aventi come “asse” la traiettoria T -periodica corrispondente al
punto fisso P& a0 ≡ (ax0 , 0)T . Quest’ultima (nello spazio delle fasi ampliato) è un’elica di passo 2π/ω e la cui
proiezione su M è una ellisse di semiassi ax0 , ωax0 . Ogni traiettoria si appoggia sulla particolare superficie, fissata
dalle proprie coordinate iniziali (x0/
, y 0 ), tale che la sua sezione con il piano di Poincaré è una ellisse di centro il punto
0 0 0
a0 e semiassi ρ , ω0 ρ , ove ρ := (x0 − ax0 )2 + (y 0 /ω0 )2 . Su tale superficie essa compie un giro “longitudinale”
in un tempo T = 2π/ω ed uno “trasversale” in un tempo 2π/ω0 . '
La mappa di Poincaré è immediata: scelto anche ora θ̄ = 0 , e con la posizione: M0 := Mκ 'κ=0 si ha la
mappa P : Σ0 → Σ0 data da
) 0* ) x*
x a0
x0 &→ P& a0 + M0 (x0 − P& a0 ) ovvero →
& M 0
y0 0
) *) 0 *
cos 2πω0 /ω (1/ω0 ) sin 2πω0 /ω x − ax0
con M0 := .
−ω0 sin 2πω0 /ω cos 2πω0 /ω y0
La mappa è tuttora una mappa affine, con un solo punto fisso (x∗ , y ∗ ) := (a1 , ωa2 ) attrattivo.
1 2 3 4 5
-1
-2
-3
√
mappa di Poincaré nel caso: c = (.7, .7); ax = 3.0 ; ω = 2 ; ω0 = 1.0 .
Il sistema compie un giro “longitudinale” in un tempo T = 2π/ω ed un “trasversale” in un tempo 2π/ω0 .
• con q =: n ∈ N le traiettorie del sistema (continuo) percorrono più volte il circuito longitudinale prima di
tornare al punto iniziale (subarmoniche ),
• con 1/q =: m ∈ N esse percorrono più volte il circuito trasversale prima di tornare al punto iniziale
(ultraarmoniche ),
• con q =: n/m ∈ Q si parla di ultrasubarmoniche. Nel primo caso e nel terzo si hanno, per ogni traiettoria,
esattamente n punti sulla sezione Σ0 uscenti da uno stesso punto iniziale: sono i punti fissi della mappa P n
o punti n-periodici.
• se invece il rapporto q è un numero irrazionale allora le traiettorie riempiono in modo denso la superficie
del corrispondente arco di elica e, sulla Σ0 , l’ellisse di centro a0 e semiassi (x0 − ax0 , y 0 /ω0 ).
Per agevolare lo studio del terzo dei casi citati per le Mappe di Poincaré, si premetta ora la seguente definizione,
da non confondere con quella di “almost periodic function”.
Funzione quasi periodica := una funzione f : R → M per la quale esistono:
• una m-pla ω ∈ Rm di costanti reali {ω i =: 2π/Ti }i=1,...,m non fra loro razionalmente dipendenti;
Alternativamente: una funzione f per la quale esiste una g! : Rm → M periodica in ciascuna delle sue m
variabili con periodi non fra loro razionalmente dipendenti e tale che, identificate le m variabili con l’unica t,
verifichi la f (t) = g!(t, . . . , t), ∀t ∈ R.
M. Lo Schiavo
5.2. Cenni di teoria delle biforcazioni 269
Caso C.
Sia data l’equazione ẋ = v(x, t), x0 ∈ M, con campo regolare e quasi periodico rispetto alla variabile t; e se
ne consideri una rappresentazione in coordinate: ẋ = v(x, t), x0 ∈ Rn . Questa equivale all’equazione su Rn+m
data da ( (
ẋ = g(x, θ) θ = (θ1 , . . . , θm )
con
θ̇ = ω ω = (ω 1 , . . . , ω m ).
Ponendo θi : t &→ θi (t) := ω i (t − t0 ) + θ0i , i = 1, . . . , m, le sue soluzioni sono del tipo
t &−→ φ(t, t0 , x0 , θ0 ) := (x(t, t0 , x0 ), θ(t)) .
ℓ ℓ
Nota 5.2.1 È importante riconoscere che una mappa di Poincarè x → & P (x) preserva l’orientamento. Infatti,
scelto t0 = t essa è data da P : x &→ P (x) := φ(t + τ (x), t, x) e quindi si ha che
• la sua derivata è ∂P (x) ≡ φ∗ (t + τ (x), t, x);
• qualora il tempo di primo ritorno τ (x) dipenda esplicitamente da x, detti xe un punto (fisso) per la mappa
x→x
e τ (xe ) =: T il tempo di primo ritorno (periodo) della corrispondente traiettoria, si ha che τ (x) −→e T ,
x∈Σ
e ciò comporta φ∗ (t + τ (x), t, x) ≃ φ∗ (t + T, t, x) per x sufficientemente vicino a xe ;
• tale matrice è il valore in t + T della soluzione dell’equazione variazionale
d
X = v∗ (φ(t′ , t, x), t′ )X, X(t) = 1I ;
dt′
come tale essa è la matrice principale del sistema lineare dtd′ y = v∗ (φ(t′ , t, x), t′ )y , e quindi ha determinante
(Wronskiano) mai nullo, ed anzi positivo perché positivo in t:
- t′
W (t′ ) = exp T r v∗ (φ(s, t, x), s)ds .
t
Si noti inoltre che se la mappa è una mappa relativa al Caso A, la sua derivata avrà solo dimensione (n − 1),
mancando in essa la direzione della tangente alla traiettoria in xe e che corrisponde all’autovalore 1 della φ∗ (t +
T, t, xe ) . #
Nota 5.2.2 In generale (vedi: [Cap. I]) una qualunque mappa f da Rn in sé è contrattiva quando |f (x) − f (y)| ≤
k|x−y| con k < 1 , ed in tal caso nel suo punto unito xe si ha |f (x)−xe | ≤ k|x−xe |, il che implica ∥∂f (xe )∥ < 1 .
Più debolmente, [si ricordi infatti, [Voyevodin § 83], che il modulo di un qualunque autovalore non supera il valore
della sua norma], l’andamento della mappa f può essere paragonato con quello della xn+1 := kxn + (1 − k)xe , e
la sua stabilità decisa paragonando il modulo degli autovalori di ∂f con l’unità.
In particolare, nel caso di una mappa di Poincaré P = P (x) con punto fisso xe e relativa ad un campo anche
non autonomo purché T periodico, gli stessi motivi che si sono visti nella Nota 1 implicano che la derivata ∂P (x∗ )
dia informazioni anche sulla stabilità lineare della corrispondente traiettoria T periodica t &→ φ(t, 0, x∗ ).
Infatti il sistema lineare ẏ = v∗ (φ(t, 0, xe ), t)y , risulta essere lineare a coefficienti periodici, e di esso la matrice
∂P (xe ) = ∂x φ(T, 0, xe ) è una matrice monodroma come quelle viste nella teoria di Floquet. Come in quel caso ha
interesse lo studio dei moltiplicatori caratteristici: detti λ1 , . . . , λm gli autovalori della matrice (reale) ∂P (xe ), si
ha che la traiettoria φ(t, 0, xe ) è stabile se |λj | < 1 per ogni j ∈ (1, . . . , m), ed è instabile se |λj | > 1 per anche
un solo j ∈ (1, . . . , m). ◃
Caso D.
La costruzione delle mappe di Poincaré nel quarto dei casi citati, e cioè quello nel quale il sistema ammetta orbite
omocline, od eterocline che diano luogo ad fenomeni di ritorno, verrà rinviata al prossimo § 4.
È ora agevole ritornare alla discussione dei principali tipi di biforcazioni per un sistema a parametro scalare.
Qui di seguito, per illustrare tali biforcazioni, verrà principalmente usata la notazione e terminologia dei sistemi a
tempo continuo, ma l’intera discussione si ripete per quelli a tempo discreto, salvo evidenti modifiche. Lo schema
generale è il seguente (vedi: Guckenheimer § 3.4).
Per x ∈ M, sia data la ẋ = v(x, µ) con v(·, µ) una famiglia di campi regolari dipendente in modo regolare dal
parametro µ. Quando si esamina il comportamento del sistema vicino ad un equilibrio, si cercano le soluzioni
µ &→ xe (µ) della v(x, µ) = 0. Il teorema del Dini assicura per esse un andamento regolare rispetto al parametro,
espresso da una funzione regolare xe = xe (µ), salvo che per qualche valore µ = µ∗ del parametro e del conseguente
punto di equilibrio x∗ = xe (µ∗ ) per i quali lo Jacobiano ∂x v(x∗ , µ∗ ) ha qualche autovalore nullo. In effetti, per
avere una significativa modifica del comportamento dinamico del sistema, ed in particolare della stabilità delle
soluzioni di equilibrio, già basta che qualcuno di questi autovalori abbia parte reale che attraversa lo zero.
I punti (x∗ , µ∗ ) in cui ciò avviene sono i punti di diramazione o di biforcazione. In essi o avviene che la
dipendenza della xe dalla µ non è più compatibile con una (sola) funzione µ &→ xe (µ) regolare, oppure che cambia
la stabilità degli equilibri.
[Nell’Esempio 4 il campo ha componenti (θ̇, ν(θ, µ)) con ν definita nella (P R) , pertanto l’equazione agli autovalori per lo Jacobiano
∂x v(xe (µ), µ) è:
∂ν g 7 8
λ2 = (θe ) = cos θe (µ cos θe − 1) − µ sin2 θe =: λ2 (θe , µ) .
∂θ l
In corrispondenza ai punti di equilibrio che cosı̀ si trovano: θe = 0, ±π oppure θe = arc cos 1/µ , si ricavano le determinazioni
l λ2 /g = (1 − µ2 )/µ se θe = arccos 1/µ ̸= 0, ±π ;
l λ2 /g = µ − 1 se θe = 0 ,
l λ2 /g = µ + 1 se θe = ±π .
In ogni caso, vi sono autovalori nulli per (0 ≤) µ∗ = 1 e quindi relativi a θ ∗ := θe± (1) = 0 ].
I punti di biforcazione possono prendere nomi diversi, vedi oltre, anche a a seconda del numero delle soluzioni
della v(x, µ) = 0 , e cioè del numero di curve xe = xe (µ) che passano per il punto di diramazione, della forma
e relativa posizione di queste, nonché delle caratteristiche di stabilità degli equilibri (delle quali generalmente si
tiene memoria sui grafici biforcativi variando il tratto con cui la curva stessa viene disegnata). Inoltre, come già
accennato, le varie definizioni si estendono in modo naturale alle mappe f (·, µ) : x &→ f (x, µ) ed alla loro dinamica
definita dalla xn+1 = f (xn , µ), e quindi ai loro punti periodici.
In particolare si osservi che i punti di biforcazione sono punti non iperbolici e, in ogni caso, punti di non stabilità
strutturale per il sistema; in effetti essi possono essere anche definiti in questo modo. Cosı̀ facendo si generalizza
il concetto di biforcazione, ammettendo anche quei punti per i quali non c’e un “cambio” di struttura, ma che siano
solo “estremali” per essa.
Le seguenti definizioni specificano quanto sopra anticipato.
Punto di biforcazione per ẋ = v(x, µ), x ∈ M := una determinazione dei parametri, dai quali dipende il siste-
ma, attraversando la quale il diagramma di fase (ed il sistema in generale) presentano caratteristiche di non
equivalenza topologica (locale o globale) tra le adiacenti configurazioni.
Più in generale si chiama
Insieme di biforcazione per ẋ = v(x, µ), x ∈ M := un insieme nello spazio dei parametri sul quale il sistema è
strutturalmente instabile.
Nel caso specifico di equilibri del sistema si hanno i seguenti casi particolari.
Punto regolare, o non biforcativo, per ẋ = v(x, µ), x ∈ M := un punto (x∗ , µ∗ ) per il quale la matrice Jacobia-
na ∂x v(x∗ , µ∗ ) non ha autovalori con parte reale nulla.
In un intorno di esso esiste una funzione regolare xe = xe (µ) tale che:
⎧
⎪ xe (µ∗ ) =: x∗ ,
⎨v(xe (µ), µ) = 0,
⎪ ed
⎪
⎪ dxe
⎩∂x v(xe (µ), µ) (µ) + ∂µ v(xe (µ), µ) = 0 in N (µ∗ ).
dµ
Punto regolare, o non biforcativo, per f (·, µ) : x &→ f (x, µ), x ∈ M := un punto (x∗ , µ∗ ), fisso per la mappa f ,
e per il quale lo Jacobiano ∂x f (x∗ , µ∗ ) non ha alcun autovalore di modulo unitario.
M. Lo Schiavo
5.2. Cenni di teoria delle biforcazioni 271
Qualora ciò non avvenga, si hanno diversi casi possibili. Il più semplice di essi è rappresentato da un
Punto di gomito per ẋ = v(x; µ), x ∈ M := un punto (x∗ , µ∗ ) per il quale:
⎧
∗ ∗
⎪
⎪v(x , µ ) = 0;
⎪
⎪
⎪
⎪∂x v(x , µ∗ )
∗
ha un solo autovalore λ = 0 e semplice;
⎪
⎪
⎨∂ v(x∗ , µ∗ ) non appartiene allo span {∂x v(x∗ , µ∗ )} ed ha ℜe λ ̸= 0;
µ
⎪
⎪ xe = xe (µ) ammette una qualche parametrizzazione σ &→ x(σ), µ(σ)
⎪
⎪
⎪
⎪ per la quale, con x(σ ∗ ) = x∗ e µ(σ ∗ ) = µ∗ , si ha
⎪
⎪
⎩ dv ∗
dσ (σ ) = 0 con µ′ (σ ∗ ) = 0, e µ′′ (σ ∗ ) ̸= 0.
dv
[Per interpretare queste condizioni caratteristiche, o di “non degenerazione”, si pensi alla dσ = vx x′ + vµ µ′ ≡ 0 . L’annullarsi di ∂x v
′
nel punto non deve implicare l’annullarsi di ∂µ v ed in tal modo sarà necessariamente µ = 0 ; lo jacobiano ampliato: (∂x v , ∂µ v) ha
allora rango n (mentre è minore di n nella biforcazione a forchetta, vedi oltre). Inoltre si richiede che il contatto con µ = cost sia del
secondo ordine affinché il punto sia di gomito e non di flesso].
In definitiva, quando la variabile x è anch’essa scalare le condizioni affinché il punto sia singolare e di gomito
si riassumono nel richiedere che le seguenti derivate, calcolate nel punto (x∗ , µ∗ ), valgano:
∂v ∂v ∂2v
= 0, ̸= 0, e ̸= 0.
∂x ∂µ ∂x2
Altri possibili nomi per questo tipo di biforcazione sono:
biforcazione tangente, o nodo-sella, o “turning point”, o “fold-bifurcation”.
Si può mostrare (vedi: [Guckenheimer Teor. 3.4.1 ]) che questo tipo di biforcazione appare genericamente se si
perturba di poco un sistema che ha Jacobiano (nel punto fisso) con un qualche autovalore nullo e semplice, e che
quindi tale biforcazione è strutturalmente stabile, come biforcazione.
∂v
Si osservi che ∂x cambia segno nel punto di gomito che allora è un “punto di cambio di stabilità” per l’equilibrio.
Analoghe definizioni si danno per le mappe f (·, µ) : x &→ f (x, µ) pur di effettuare le evidenti modifiche (quali
ad esempio cambiare “autovalore a parte reale nulla ” con “autovalore di modulo unitario”) conseguenti al fatto
che il punto di equilibrio per un flusso diviene quello di una mappa se alla derivata ẋ si sostituisce la “derivata
discreta”: ∂x = xn+1 − xn ; in tal modo si studia l’andamento di una mappa f (x, µ) paragonandolo con quello del
campo f (x, µ) = v(x, µ) + x, e viceversa. Si vedrà tuttavia che le mappe, permettendo l’alternanza del segno
della derivata, possono dar luogo ad un ulteriore tipo di biforcazione non presente nei campi.
Esempio 5.2.13 ẋ = +µ − x2 , x0 ∈ R, µ ≥ 0 .
√ √
Gli equilibri sono xe = ± µ ; e si ha ∂x v(x, µ) = −2x. Quest’ultima, calcolata negli equilibri, vale −2 µ oppure
√ √ √
+2 µ. Per cui il punto (x∗ , µ∗ ) := (0, 0) è un nodo-sella, infatti xe = + µ è un nodo stabile, mentre xe = − µ
è una sella. #
Esempio 5.2.14 La mappa f (·, µ) : x ∈ R &→ µ + x − x2 ∈ R ha anch’essa lo stesso diagramma biforcativo nel
punto (x∗ , µ∗ ) = (0, 0).
f(x,µ) xc
µ>0 bile
o s ta
µ=0 nod
µ<0 0 µ
x s el
l a in
stab il e
0
Esempio 5.2.15 La mappa f (·, µ) : x ∈ R &→ µex ∈ R, µ > 0 , ha un analogo diagramma biforcativo nel punto
(x∗ , µ∗ ) = (1, 1/e). [Si osservi infatti che la differenza µex − x è minima in x = ln(1/µ) ed il suo valore in tale punto è 1 + ln µ ].
f(x,µ) sella in
stab
ile
1 µ
µ >1/e
le
µ =1/e n o do st a b i
µ <1/e
x
1/e
Nota 5.2.3 Nell’intorno del punto di tangenza, e dal lato in cui non si presentano punti di equilibrio, si può
poi innescare un procedimento che secondo alcuni è alla base delle cosiddette “intermittenze”. È questo uno dei
modi possibili con cui si schematizza un tipo di transizione al caos dei sistemi, qui intendendo con “caos” un
comportamento non periodico né quasi periodico. Detto µT il valore del parametro per il quale si ha la tangenza,
in un intorno di tale valore e dal lato di µT senza equilibri, si stabilisce una sorta di tempo caratteristico, di scala
assai diversa da quella che il sistema mostra per valori di µ molto diversi da µT ; per cui se il sistema torna più
volte a passare per tale “imbuto”, si genera un comportamento intermittente di imprevedibile cambio del tempo
caratteristico del fenomeno.
f(x)
◃
(
ẋ = µ − x2
Esempio 5.2.17 Il sistema x0 , y0 ∈ R, µ > 0,
ẏ = cy
ha diagramma, nel punto (x∗ , µ∗ ) = (0, 0), dato da
c>0 c<0
xc xc
instabi
le stabile
sella nodo
0 µ 0 µ
n o do s e lla
instabil instabile
e
0 0
Punto di biforcazione a forchetta per ẋ = v(x, µ), x ∈ M := un punto (x∗ , µ∗ ) tale che:
⎧
⎪
⎪
⎪v(x∗ , µ∗ ) = 0;
⎪
⎪ ∗ ∗
⎪
⎨∂x v(x , µ ) ha un solo autovalore λ = 0 e semplice;
∂µ v(x , µ∗ )
∗
appartiene allo span {∂x v(x∗ , µ∗ )};
⎪
⎪
⎪
⎪xe = xe (µ) consiste di due curve con tangenti in (x∗ , µ∗ )
⎪
⎪
⎩ distinte ed opportunamente trasversali.
M. Lo Schiavo
5.2. Cenni di teoria delle biforcazioni 273
Si consideri ad esempio il caso in cui la variabile x è anch’essa scalare. Affinché il punto sia singolare (di tipo superiore alla biforcazione
a gomito) occorre innanzi tutto che, in esso, siano: ∂x v = ∂µ v = 0 . Poi, parametrizzate con x = x(σ) e µ = µ(σ) le curve xe = xe (µ) ,
dal teorema del Dini si ricava la seguente condizione, locale, necessaria per la loro esistenza
) *2 ) *2
∂2v dx ∂ 2 v dx dµ ∂2v dµ
+2 + =0;
∂x2 dσ ∂x∂µ dσ dσ ∂µ2 dσ
le loro tangenti devono allora essere tali che (valutando le derivate nel punto (x∗ , µ∗ ) ) sia:
a
dx/dσ vxµ ∆ 2
= − ± 2
, ove ∆ := vxµ − vxx vµµ .
dµ/dσ vxx vxx
Perché possa avvenire una qualche intersezione fra le due curve, ed anzi affinché in (x∗ , µ∗ ) vi sia una bi-forcazione, regolare, devono
essere vere le
∆>0 e vxx ̸= 0 ,
oppure (se vµµ = 0 , o quando può essere µ′ = 0 )
Il punto (x∗ , µ∗ ) è un punto di biforcazione a forchetta quando non solo le tangenti alle due curve verificano le condizioni dette, ma
anche quelle necessarie al non verificarsi di un punto di flesso ed al non cambiar segno della dµ/dσ .
In definitiva, quando la variabile x è anch’essa scalare le condizioni affinché il punto sia un punto di biforcazione
a forchetta richiedono che le seguenti derivate, calcolate nel punto (x∗ , µ∗ ), valgano
Altri possibili nomi per questo tipo di biforcazione sono: biforcazione a forchetta o “pitchfork”.
xc
x* µ
µ* forchetta supercritica
Esempio 5.2.20 La mappa f (·, µ) : x ∈ R &→ +µx − x3 ∈ R, µ ∈ R, ha un analogo diagramma biforcativo nel
punto (x∗ , µ∗ ) = (0, +1). #
xc xc
x* µ x* µ
µ* µ*
forchetta subcritica forchetta instabile
Esempio 5.2.22 La mappa f (·, µ) : x ∈ R &→ +µx + x3 ∈ R, µ ∈ R, ha un analogo diagramma biforcativo nel
punto (x∗ , µ∗ ) = (0, 1). #
Punto di biforcazione transcritica := per ẋ = v(x, µ), x ∈ M, un punto (x∗ , µ∗ ) tale che:
⎧
⎪
⎪
⎪ v(x∗ , µ∗ ) = 0;
⎪
⎪ ∗ ∗
⎪
⎨∂x v(x , µ ) ha un solo autovalore λ = 0 e semplice;
∂µ v(x∗ , µ∗ appartiene allo span {∂x v(x∗ , µ∗ )};
⎪
⎪
⎪
⎪ xe = xe (µ) consiste di due curve con tangenti in (x∗ , µ∗ )
⎪
⎪
⎩ distinte ed opportunamente trasversali.
Se la variabile x è scalare, le ultime condizioni si specializzano nelle seguenti (le derivate valutate in (x∗ , µ∗ ) ):
∂v ∂v ∂2v ∂2v ∂3v
= = 0, ̸= 0, ̸= 0, = 0.
∂x ∂µ ∂x2 ∂x∂µ ∂x3
Altri possibili nomi per questo tipo di biforcazione sono: cambio di stabilità.
xc
pozzo sorgente
x* µ
µ*
Esempio 5.2.23 ẋ = µx − x2 , x0 , µ ∈ R.
Gli equilibri sono xe = 0 ed xe = µ; e si ha che ∂x v calcolato negli equilibri vale µ oppure −µ. Essa si annulla in
(x∗ , µ∗ ) = (0, 0); il punto xe = 0 è stabile per µ ≤ 0 , e non lo è per µ > 0 mentre il contrario avviene per la
soluzione xe = µ Nel punto (x∗ , µ∗ ) = (0, 0) si ha una biforcazione transcritica. #
inoltre, sia possibile verificare le condizioni qui sotto esposte sugli andamenti della ṙ e della θ̇ .
M. Lo Schiavo
5.2. Cenni di teoria delle biforcazioni 275
Il sistema non solo ammette un punto di equilibrio xe (µ) che vale x∗ per µ = µ∗ [e cioè, nello spazio delle coppie
(x, µ), un arco di linea {x(µ), µ}µ∈N (0) tutto corrispondente a punti di equilibrio e passante per il punto (x∗ , µ∗ )],
ma in aggiunta e vicino ad esso, per un qualunque valore del parametro µ scelto da uno solo dei due lati rispetto a
µ∗ , si manifesta una traiettoria periodica il cui “raggio” aumenta all’allontanarsi del valore del parametro da quello
di biforcazione: µ∗ . Il punto di equilibrio varia di stabilità quando µ attraversa il valore µ∗ e generalmente la
cede alla soluzione periodica.
Il sistema ammette localmente un sistema di coordinate due delle quali: ξ, η ∈ R descrivono una varietà
localmente invariante; su di essa, la loro dinamica è data da:
(
ξ˙ = α(µ)ξ − β(µ)η + (a(µ)ξ − b(µ)η)(ξ 2 + η 2 ) + O(|ξ 5 |, |η 5 |)
η̇ = β(µ)ξ + α(µ)η + (b(µ)ξ + a(µ)η)(ξ 2 + η 2 ) + O(|ξ 5 |, |η 5 |)
(si veda: [Wiggins II ]) ove λ =: α + iβ ∈ C1 , ed a, b ∈ C 0 (R).
Questo sistema ridotto può essere trasformato in coordinate polari e fornisce, in prima approssimazione,
⎧
⎪ ν := µ − µ∗ ;
⎧ ⎪
⎪
ṙ = α(µ)r + a(µ)r3 + O(r5 ) ⎪
⎪ d
⎪
⎪ ⎪
⎪ c1 := dµ (ℜe λ(µ∗ )) ;
⎪
⎪ ⎪
⎪
⎨ ≃ c1 νr + c2 r3 ⎨ c := d (ℑm λ(µ∗ )) ;
4 dµ
con
⎪
⎪ θ̇ = β(µ) + b(µ)r 2
+ O(r 4
) ⎪
⎪ c2 := a(µ∗ ) ;
⎪
⎪ ⎪
⎪
⎩ 2 ⎪
⎪
≃ c3 + c4 ν + c5 r ⎪
⎪
⎪ c5 := b(µ∗ ) ;
⎩
c3 := ℑm λ(µ∗ ) ;
ed è facile quindi riconoscere la presenza della linea di equilibri r = 0 e della (famiglia di) soluzione periodica
corrispondente alla radice di c1 ν + c2 r2 = 0 .
La loro stabilità la si può riassumere nella tavola:
c1 c2 ν origine ciclo
+ + + u
+ + − s u
+ − + u s
+ − − s (2.17)
− + + s u
− + − u
− − + s
− − − u s
La seguente figura si riferisce al caso c4 = c5 = µ∗ = 0; c1 = c3 = 1; c2 = −1
y
Come si è visto, la condizione di biforcazione di un punto di equilibrio per un flusso si traduce, in modo analogo,
in quella sulla biforcazione di un punto unito per una mappa. D’altra parte, queste ultime possono presentare
un ulteriore tipo di comportamento biforcativo che è loro proprio e che non si manifesta con i flussi. Il successivo
esempio di biforcazione non riguarda i campi, ma specificamente le mappe, ed in particolare non è raro che ne
sia interessata una famiglia di mappe di Poincarè P (x, µ). Con esso si conclude qui l’esame dei principali tipi di
biforcazioni che possono presentarsi nei punti fissi di una famiglia di mappe (regolari) dipendente in modo regolare
dai parametri di controllo.
Si ricordi, come già osservato all’inizio del paragrafo, che la condizione che rende biforcativo: (x∗ , µ∗ ) un punto
di equilibrio (xe , µ) per una famiglia di campi v(x, µ), e cioè che sia
v(x∗ , µ∗ ) = 0, insieme con: ∃λ ∈ spct(∂x v(x∗ µ∗ )) con ℜe λ = 0 ,
si trasforma, per una famiglia di mappe, f (·, µ) &→ f (x, µ) nell’analoga condizione:
⎧
⎪
⎨ f (x∗ , µ∗ ) − x∗ = 0; insieme con
∃λ ∈ spct(∂x f (x∗ µ∗ ) − 1I ) con ℜe λ = 0, ovvero
⎪
⎩
∃λ ∈ spct(∂x f (x∗ µ∗ )) con ℜe λ = 1.
Per le mappe, e solo per esse, risulta biforcativo anche un punto che, pur non essendo come quelli detti qui
sopra, è tuttavia tale da produrre un cambio di stabilità: anche in esso si ha f (x∗ , µ∗ ) − x∗ = 0 , ma ora è
−1 ∈ spct(∂x f (x∗ , µ∗ )). Più in generale, risulta una biforcazione di questo tipo un punto (x∗ , µ∗ ) per il quale la
∂x f (x∗ , µ∗ ) ha qualche autovalore λ il cui modulo attraversa il valore uno quando µ attraversa il valore µ∗ .
Se infatti si esamina una famiglia ad un parametro di mappe, siano ad esempio delle mappe di Poincaré
P (x, µ), e si studia il modo in cui un qualche autovalore λ dell’operatore ∂x f (x∗ , µ∗ ) varia al variare dei parametri
di controllo µ del sistema, si riconosce che esso ha più modi con i quali |λ| attraversa il valore uno, i più semplici
dei quali sono:
(i) λ attraversa il valore +1 per µ = µ∗ , ed è ℑm λ = 0 ;
(ii) λ attraversa il valore −1 per µ = µ∗ , ed è ℑm λ = 0 ;
(iii) λ fa parte/di una coppia di autovalori complessi coniugati, per la quale accade che ℑm λ = ℑm λ̄ ̸= 0 , e
che ρ := (ℜe λ)2 + ℑm λ)2 attraversa la circonferenza unitaria per µ = µ∗ .
Caso (i). La funzione ν(x, µ) := f (x, µ) − x ha uno zero nel punto (x∗ , µ∗ ) e la ∂x ν(x∗ , µ∗ ) ≡ ∂x f (x∗ , µ∗ ) − 1I
ha un autovalore nullo e semplice, e quindi si ha un normale caso di diramazione. Esso consiste di uno dei possibili
tipi di diramazione, quali ad esempio quelli visti precedentemente. In figura è un sistema continuo la cui mappa
di Poincaré ammette un punto di gomito.
¹<¹* ¹=¹* ¹>¹*
[Si noti che se l’autovalore non fosse semplice si potrebbero avere più traiettorie periodiche coesistenti, delle quali una è quella cui
la mappa si riferisce, mentre le altre non ne fanno parte. Ad esempio può essere avvenuto un fenomeno di biforcazione (semplice) alla
Hopf. (vedi: [Seydel ])].
Caso (ii). La funzione ν(x, µ) := f (x, µ)−x pur annullandosi nel punto (x∗ , µ∗ ) non ha in esso una biforcazione,
perché il suo Jacobiano è non singolare: ha autovalore −2 e non 0 . Tuttavia, il fatto che −1 sia autovalore di
∂x f (x∗ , µ∗ ) fa sı̀ che la mappa f ◦f abbia (lo stesso punto di equilibrio (x∗ , µ∗ ) ed in più) Jacobiano con autovalore
2
unitario; infatti ∂x (f ◦ f )(x, µ) = ∂x f (f (x, µ), µ) · ∂x f (x, µ), e quindi ∂x (f ◦ f )(x∗ , µ∗ ) = (∂x f (x∗ , µ∗ )) . Si
riconosce allora che, nel valore µ∗ , il sistema presenta un
Punto di raddoppio di periodo per f (·, µ) : x &→ f (x, µ), x ∈ M := un punto (x∗ , µ∗ ) per il quale è la
mappa f 2 ad avere una biforcazione a forchetta:
⎧
⎪
⎪
⎪ f (x∗ , µ∗ ) = x∗ ;
⎪
⎪ ∗ ∗
⎪
⎨∂x f (x , µ ) ha un solo autovalore λ = −1 e semplice;
2 ∗ ∗
∂µ f (x , µ ) appartiene allo span {∂x f 2 (x∗ , µ∗ ) − 1I };
⎪
⎪
⎪xe = xe (µ)
⎪ (soluzione della: f 2 (xe ) = xe ), consiste di due curve con
⎪
⎪
⎩ tangenti in (x∗ , µ∗ ) distinte ed opportunamente trasversali.
Si genera in tal modo, e per valori della µ “da un solo lato” del punto µ∗ , una famiglia di traiettorie periodiche
di periodo due.
Quando la variabile x è scalare, le ultime condizioni si specializzano nelle (valutate nel punto (x∗ , µ∗ ) ):
∂f 2 ∂2f 2 ∂2f 2 ∂3f 2
= 0, = 0, ̸= 0, ̸= 0.
∂µ ∂x2 ∂x∂µ ∂x3
Altri possibili nomi per questo tipo di biforcazione sono: period doubling, o “flip-bifurcation”.
Esempio 5.2.25 (continuazione dell’Esempio 5.2.24) La mappa quadratica nel punto µ∗ = 3 #
M. Lo Schiavo
5.3. “Classici” esempi di mappe caotiche 277
Esempio 5.2.26 La mappa f : x ∈ R &→ −(1 + µ)x + x3 ∈ R, ha lo stesso diagramma biforcativo: nel punto
√
(x∗ , µ∗ ) = (0, 0) nasce un ciclo di periodo 2 dato da x = ± µ. #
Si osservi infine che, qualora la mappa che presenta un punto di raddoppio di periodo sia una mappa di Poincaré
P , il corrispondente sistema continuo è tale da avere un ciclo che da T -periodico diviene 2T -periodico al passaggio
della µ attraverso il valore biforcativo µ∗ .
Caso (iii). La ∂x f (x, µ) ammette due autovalori complessi coniugati λ0 , λ̄0 i quali, al passaggio del parametro
µ per µ∗ , attraversano la circonferenza unitaria nel piano di Gauss. Esiste allora un piano sul quale la restrizione
della famiglia di mappe di Poincaré risulta convenientemente rappresentata da
) * ) ′* ) *
r r r + r3 ℜe c/λ0
f: &→ ≃ 1 2 con c, λ0 , ϕ dipendenti da µ.
θ θ′ θ + ϕ + 2π r ℑm c/λ0
Come visto nel caso della biforcazione alla Hopf per i flussi, al passaggio di µ per µ∗ (supposto in R), si può
generare da uno dei lati di µ∗ un ciclo invariante che può o meno essere stabile. La mappa f (x, µ) ammette cioè
una curva chiusa invariante, nel senso che trasporta ogni punto della curva in un punto che sta sulla curva stessa.
Quando la mappa sia una Poincaré possono allora verificarsi, limitatamente a condizioni iniziali sulla curva in
questione, i vari casi di armoniche visti in precedenza o, se ϕ/2π ̸∈ Q , ognuna delle corrispondenti traiettorie
riempie in modo denso il toro la cui sezione con la superficie Σ definisce la curva. In tal caso il sistema di cui la
f è Poincaré, mostra una
Biforcazione secondaria alla Hopf := l’orbita periodica cede stabilità ad un toro invariante che può o meno
essere stabile, che la circonda, e che per µ → µ∗ tende alla traiettoria periodica x(t, t∗ , x∗ )
Altri possibili nomi per questo tipo di biforcazione sono: “torus biforcation”.
Cosı̀ come la cascata di raddoppi di periodi, anche questo tipo di biforcazione può dar luogo a fenomeni caotici.
che sono equivalenti, giacché la seconda si ottiene dalla prima mediante la trasformazione (x, y) := (αξ, αβ −1 η),
e dove α ≡ a e β ≡ −b < 1 sono costanti positive.
Si nota che lo Jacobiano vale in ogni punto −β = cost e quindi, a meno che sia β = 1 , la mappa non conserva
l’area.
Essa può essere considerata come la composizione successiva di:
( ( (
ξ′ = ξ ξ ′ = βξ ξ′ = η
′
⇒ ′
⇒
η = 1 + η − αξ 2
η =η η′ = ξ
+3 +3 +3
0 0 0
-3 -3 -3
-6 -6 -6
-6 -3 0 +3 -6 -3 0 +3 -6 -3 0 +3
Non è difficile verificare che, per opportuni valori di α, β , esiste un’ampia zona del piano formata dai punti
i quali, al crescere del numero di iterazioni della mappa, non si perdono verso l’infinito. Essi, al contrario, hanno
dinamica che dopo un breve transiente, ed indipendentemente dal punto di partenza (purché scelto nella zona
detta), si svolge su una tipica figura “di area nulla” sulla quale la dinamica rimane viva ed erratica.
Tale insieme prende il nome di Attrattore di Henon . Esso naturalmente contiene i due punti fissi della mappa
e cioè i punti ξe± = (ξe± , ηe± ) dati da
1−β 0 √ 1 4α
ξe± := − 1± 1+δ ; ηe± = βξe± ; δ := ;
2α (1 − β)2
/
Studiando la linearizzata in ξe± , che ha autovalori λ1,2 = −αξe ± α2 ξe2 + β , ed esaminando le condizioni per
le quali una delle due autodirezioni sia espansiva (e l’altra contrattiva),
7 si riconosce
8 che la posizione (ξe+ , ηe+ ) è
comunque instabile, mentre l’altra lo è solo se α > α1 := 3α0 := 3 14 (1 − β)2 .
Si ottiene un attrattore dalle caratteristiche ben distinte con il valore β = 0.3 e quindi α0 ∼ 0.12 . Inoltre,
chiamati α2 := 1.06, ed α3 := 1.55 , si ha
0.4
0.3
0.2
0.1
0
-0.1
-0.2
-0.3
-0.4
-1.5 -1 -0.5 0 0.5 1 1.5
nella quale si riconosce che l’attrattore ha sensibilmente una struttura di prodotto fra una varietà unidimensionale
regolare (e tangente all’autovettore instabile relativo all’autovalore λ = −1.923 . . .) ed un insieme di Cantor.
Per confronto, si veda qui di seguito l’effetto della mappa dopo una sola iterazione nel caso β = 0.3, α = 1.3 ;
in essa è anche mostrato l’attrattore che, in questo caso, è costituito da sette punti periodici, e quindi del tutto
regolare.
+3
A
B
C
B
0
D C
A
D
-6
-1.5 0 +1.5
Sempre numericamente si nota che l’errore (e quindi l’incertezza) cresce rapidamente con il numero di iterate:
d(ξn , ξn′ ) ∝ αn d(ξ0 , ξ0′ ), a ≈ 1.52 .
Pertanto per quasi tutti gli ξ0 , e con l’ipotesi che d(ξ0 , ξ0′ ) ≪ 1 , si ha che l’esponente di Liapunov λ(ξ) :=
limn→∞ n1 ln ∥df n (ξ)∥ vale λ ≈ 0.42 ed il fatto che esso sia positivo fa dichiarare espansivo (o “strano”) l’attrattore.
M. Lo Schiavo
5.3. “Classici” esempi di mappe caotiche 279
Va detto però che l’attrattore si ripiega su se stesso e non interseca trasversalmente alcuna varietà stabile: esso
è non iperbolico (vedi oltre).
Si può notare inoltre che per α ∈ (1.052, 1.082) si genera una cascata di raddoppi di periodi nel piano (ξ; α)
del tutto analoga a quella della mappa quadratica.
La storia di questo modello si può riassumere nel seguente grafico:
¹-1
1 1
D
H1
C f(V0)
1-1/¹
V0 V1 f(V1)
1/¹
H0
0 A B 0 0 00
A B A0 B C0 D B00 D
1 0 ¸ 0 ¸ 1-¸ 1 A00 C00
f(D) f2(D)
1 f-1(D) 1
H1
1-1/¹
V0 V1
1/¹ 1/¹
¸ 1 1 1/¸-1 1/¸
H0 1
0 0 0
La prima cosa da notare è che segmenti “orizzontali” e “verticali” vengono trasformati in segmenti aventi gli
stessi caratteri; e ciò a causa della linearità della mappa e del fatto che essa ha matrice diagonale. Inoltre, se V
è un qualsiasi rettangolo verticale di altezza unitaria, dato che esso interseca totalmente entrambi i rettangoli H0
ed H1 si riconosce che f (V ) ∩ D è costituito esattamente da due rettangoli verticali: l’uno in V0 l’altro in V1 ,
di ampiezza orizzontale λ volte quella di V ed altezza unitaria. Analoghe conclusioni valgono per i rettangoli
orizzontali H := µ & × [0, 1] con µ& ≤ µ e le loro preimmagini f −1 (H) ∩ D .
Si osservi che, pur esistendo unica l’immagine inversa f −1 (x) ∈ D di ogni x ∈ V0 ∪ V1 , la mappa f non
è invertibile su D giacché tutti i punti che sono in D \ (V0 ∪ V1 ) si perdono sotto l’azione delle f −1 ; ed allo
stesso modo, un qualsiasi V (o, rispettivamente, H ) non può essere l’immagine inversa (l’immagine) di alcun
sottoinsieme di D . Ad esempio:
Per lo stesso motivo, ad esempio i punti del rettangolo [b′′ , c′′ ] × [0, 1] non sono f 2 − immagini di alcun punto in D ;
infatti la loro f −1 − immagine è una striscia verticale, contenuta in H0 , e fatta da punti che non sono f − immagini
di alcun x ∈ D giacché essa ha intersezione non vuota con la striscia [λ, 1 − λ] × [0, 1]. L’unica invertibilità valida
è quella per la quale
esso infatti coincide esattamente con quei punti che erano in H0 o in H1 sia per t = −1 che per t = −2 .
Introducendo un deponente per ogni iterazione, tale insieme può essere scritto sotto la forma:
c
σ−1 ,σ−2 ∈{0,1} Vσ−1 σ−2 ; ciò mette in risalto il fatto che f −1 (Vσ−1 σ−2 ) ⊆ Hσ−1 e che f −2 (Vσ−1 σ−2 ) ⊆ Hσ−2 .
Risulta in definitiva Vσ−1 σ−2 = Vσ−1 ∩ f (Vσ−2 ) = f (Hσ−1 ) ∩ f 2 (Hσ−2 ).
• Induttivamente, osservando che le Vσ′ \f (Vσ ) ⊂ Vσ′ e f (Vσ )\Vσ′ ⊂ Vσc′ implicano, tramite la (R3) del
§ V.1, che f (Vσ′ ∩ f (Vσ )) = f (Vσ′ ) ∩ f 2 (Vσ ), si prova che l’insieme
b 7 8
◦k
(D) = Vσ−1 ∩ f Vσ−2 ∩ f (· · · ∩ f (Vσ−k+1 ∩ f (Vσ−k ))) · · ·
σ−i ∈{0,1}
i=1,··· ,k
b
= Vσ−1 ∩ f (Vσ−2 ) ∩ f 2 (Vσ−3 ) ∩ · · · ∩ f k−1 (Vσ−k )
σ−i ∈{0,1}
i=1,··· ,k
consiste di 2k strisce verticali; esso è formato da quei punti che erano in H0 o in H1 sia per t = −1 , che
per t = −2 , . . . , che per t = −k . Indicando tali strisce con
M. Lo Schiavo
5.3. “Classici” esempi di mappe caotiche 281
g
si ottiene (con “ ” indicante la condizione di “AND” logico)
b
◦k
(D) = Vσ−1 ...σ−k
σ−i ∈{0,1}
i−1,...,k
⎧ ⎫
⎨ 'hk b ⎬
'
= x∈D' f −i+1 (x) ∈ Vσ−i
⎩ ⎭
i=1 σ−i ∈{0,1}
⎧ ⎫
⎨ 'hk b ⎬
'
= x∈D' f −i (x) ∈ Hσ−i .
⎩ ⎭
i=1 σ−i ∈{0,1}
Ciascuna striscia Vσ−1 ...σ−k è di larghezza λk ed altezza unitaria; la famiglia {Vσ−1 ...σ−k }k=1,2,... è una
famiglia di compatti, non vuoti, che forma un sistema centrato. Pertanto, per k → ∞, l’intersezione totale è
non vuota. Infine, dato che limk→∞ λk = 0 , ogni successione σ := (σ−1 , σ−2 , . . . , σ−k ) ∈ YN
2, σ−i ∈ {0, 1} ,
individua (una ed) una sola linea verticale.
• In modo del tutto analogo si ragiona per la mappa f −1 , cambiando cioè tempi positivi con tempi nega-
tivi e corrispondentemente H con V . Ad esempio, definiti per σk ∈ {0, 1} ed h = 0, 1, . . . i rettangoli
Hσ0 ...σk := Hσ0 ∩ f −1 (Hσ1 ...σk ) si ha
b
D ∩ f −1 (D) ∩ f −2 (D) = Hσ0 σ1
σ0 ,σ1 ∈{0,1}
⎧ ⎫
⎨ 'h1 b ⎬
'
= x∈D' f +i (x) ∈ Hσi
⎩ ⎭
i=0 σi ∈{0,1}
• Ne segue che una successione bilatera (· · · , σ−1 , σ0 , σ+1 , · · · ) individua uno ed un solo punto x nel quadrato
D: ; ' <
'
x := Vσ−1 σ−2 ···σ−k ··· ∩ Hσ0 σ+1 ···σ+k ··· = x ∈ D ' f i (x) ∈ Hσi , i ∈ Z ;
sotto l’azione della mappa f esso è tale da restare nel quadrato per ogni t ∈ Z, si trova al tempo “attuale”
nel rettangolo Hσ0 , e si muove come indicato dall’operatore di shift S secondo la successione σ ad esso
associata. La posizione dell’evoluto di x al tempo j , ovvero l’appartenenza di f j (x) ad H0 o ad H1 , viene '
riconosciuta spostando lo zero di j posti verso destra se j > 0 , ed esaminando il nuovo valore σ0′ ≡ S +j (σ)'0 .
Questa struttura è estendibile a vari altri casi (vedi: [Wiggins 2 teor.3.3] opp. [Guckenheimer ]), e si possono
incontrare modelli in cui è presente anche una matrice di raggiungibilità A. Esiste allora A ⊂ D sul quale la
dinamica è coniugata ad un subshift finito (YZA , S) e, se A è irriducibile (vedi: [Walters]), A è un insieme di
Cantor. C∞ |σi −σi′ |
Scelta infine una metrica su YZ2 , ad esempio la d(σ, σ ′ ) = i=−∞ 2|i|
, si riconosce che lo shift S è
continuo, e siccome nel caso delle successioni bilatere S è anche invertibile su YZ2 , esso risulta un omeomorfismo
su ZN 2 , cosı̀ come f lo è (non su D , ma) su A . È proprio questo omeo che rappresenta su A la dinamica
di Smale che è pertanto caotica (punti periodici densi, orbite dense, dipendenza sensibile dal dato), infatti i due
sistemi costituiti dallo shift S su YZ2 e dalla f su D sono coniugati.
Si noti che in ogni caso A non è un attrattore, esso infatti non è un insieme attrattivo: infinitamente vicino
ad ogni suo punto c’è qualche orbita periodica; tuttavia esso è il più grande insieme invariante dell’insieme D . In
definitiva, la presenza di una horseshoe in un sistema fa sı̀ che (quasi tutti) i punti di A abbiano dinamiche che,
seppure raggiungono un qualche moto periodico, comunque instabile, lo fanno dopo un non prevedibile transiente.
L’essere dim > 1 d’altronde permette qualche ulteriore complicazione. Può succedere ad esempio che esistano
punti che ammettono contemporaneamente direzioni lungo le quali il sistema espande ed altre lungo le quali contrae.
Può anzi accadere che ciò si verifichi per molti o addirittura per tutti i punti di D .
Per rendersene conto in questo specifico caso si consideri ad esempio un punto fisso: x0 := (. . . 00.000 . . .). Si ha
che tutto il segmento orizzontale h0 ∋ x0 è parte della W s (x0 ), e certo non solo lui: lo sono anche le controimmagini
f −n di questo (che sono esattamente 2n segmenti orizzontali); per esse infatti accade che se m > n allora
|f m (f −n (y0 )) − x0 | < 1 per ogni y0 ∈ h0 , e quindi i punti di f −n (h0 ) collassano in x0 . Analogamente le
mappe future del segmento verticale v0 ∋ x0 sono nella W u (x0 ). Queste due infinità di segmenti si intersecano in
infiniti punti (omoclini per x0 ), che risultano essere una infinità numerabile e densa in A (vedi: [Guckenheimer]),
e ciascuno tale da ammettere una varietà stabile ed una instabile (coincidenti con le famiglie di segmenti di cui
sopra). #
Per il volo (a potenziale) l’ipotesi di piccole ampiezze di oscillazione da parte del tavolo dà con buona approssi-
mazione u− (tj+1 ) = −u+ (tj ), che insieme con la u− (tj+1 ) = −(tj+1 − tj )g + u+ (tj ) fornisce 2u+ (tj ) =
(tj+1 − tj )g . A sua volta, la condizione d’urto fornisce u+ (tj+1 ) − αu+ (tj ) = w(tj+1 )(1 + α).
In definitiva, introducendo le
2 2 2
φj := ωtj + φ0 , vj := ωu+ (tj ), γ= ω r(1 + α),
g g
e quindi det ∂f = α . Numericamente si trova che esistono condizioni iniziali per le quali il moto rimane limitato,
e non periodico, anche se α = 1 .
Se α < 1 , siccome per ogni φ& è certamente |αv − γ cos φ|& ≤ α|v| + γ , e siccome α|v| + γ diviene minore di |v|
non appena |v| > γ(1 − α)−1 , se |vj | verifica questa 'limitazione si ha |vj+1 | < |vj |. A lungo andare, la striscia
D ⊂ T × R definita dalla condizione: D := {(φ, v) ' |v| ≤ ϵ + γ(1 − α)−1 } , risulta una regione positivamente
invariante, (infatti non ci può essere fuori di essa alcun punto di accumulazione perché esso sarebbe anche punto
fisso, e quindi risolvere v = αv − γ cos φ& che invece dà punti dentro D ).
e
Esisterà quindi un attrattore compatto non vuoto A := n≥0 f n (D).
Sia n0 il più grande intero tale che 2π n0 < γ(1 − α)−1 . È facile verificare che f ammette allora 2(n0 + 1)
punti fissi su T × R, le coordinate dei quali sono soluzioni dell’equazione
(
φ + 2nπ = φ + v
(φ, v) ∈ R2 ,
(1 − α)v = −γ cos(φ + v)
La loro stabilità si determina mediante lo studio degli autovalori della ∂f (φ̄n , v̄n ) e l’eventuale passaggio dei loro
moduli attraverso il valore uno. In tal modo, oltre agli evidenti punti di gomito che si hanno per i valori di γ tali
che 2nπ(1 − α)/γ = 1 , si trovano ulteriori biforcazioni in corrispondenza ai cambi di stabilità dei punti fissi (dal
lato φ̄n > π e cioè se sin(φ̄n + v̄n ) < 0 ).
Chiamati
/
γ1,n := 2nπ(1 − α) e γ2,n := 2 n2 π 2 (1 − α)2 + (1 + α)2
M. Lo Schiavo
5.3. “Classici” esempi di mappe caotiche 283
n=0
{ 3¼/2 n=1
n=2
n=3
Án n=4
n=5
°2,0
°2,1
¼ °
°1,1
°1,2
¼/2
che mostra come in γ1,n si generino dei nodi-selle, mentre in γ2,n si hanno raddoppi di periodi.
In figura, z = z(t) con v = 2nπ , sono accennati alcuni dei possibili moti fisici corrispondenti a possibili punti
fissi della mappa o a cicli periodici per essa.
periodo 1
n = 1 , γ>γ1,1
φj φj+1 = φj + 2π
periodo 1
n = 2 , γ>γ1,2
φj φj+1 = φj + 4π
periodo 2
n = 1 , γ>γ2,1
φj φj+1
Quando α = 1 la mappa non contrae (gli equilibri stabili sono centri). La sua azione può essere ricostruita
sul piano (φ, v) osservando che l’immagine della famiglia dei segmenti di retta φ + v = cost = κ, κ ∈ [0, 2π], è la
famiglia di segmenti
φ = κ, v = ξ − γ cos φ con ξ ∈ (κ − 2π, κ] ,
e quindi il parallelogramma R := abcd viene trasformato nella figura a′ b′ cic′ d′ .
v
5¼ ° =3¼
® =1
D
2¼
C Á
0
D
-¼
-2¼ B
-3¼ A C
-5¼ B ¼ 2¼
La presenza di infinite orbite periodiche può essere riconosciuta con un ragionamento simile a quello dell’esempio
precedente; infatti se γ = 2ω 2 r(1 + α)/g è sufficientemente grande (γ > 4π per α = 1 , e cioè se il punto d′ è al
di sotto del punto b) le intersezioni di R con f (R) sono una coppia di “rettangoli” disgiunti V1 , V2 contenuti in
strisce le cui controimmagini sono proprio due parallelogrammi disgiunti H1 , H2 per cui f (Hi ) ⊃ Vi ; ne segue la
classica struttura di horseshoe sulle intersezioni f 2 (H) ∩ f 1 (H) ∩ H ∩ f −1 (H) ∩ f −2 (H) etc.
Anche in questo caso sembra esistere, oltre alle possibili orbite periodiche, un attrattore “strano”, localmente
Cantor × varietà-1-dim, che è la chiusura delle W u della horseshoe. #
Esempio 5.3.4 Gli automorfismi del toro (vedi Es.1.4) sono le trasformazioni
i
e cioè le trasformazioni agenti sui vettori θ ∈ Rn identificati dalle relazioni: θ ∼ θ ′ quando (θi − θ′ )/2π ∈ Z,
i = 1, . . . , n, e rappresentate da matrici A, n × n e ad elementi interi e determinante unitario.
Limitandosi al caso dim=2, sono allora trasformazioni lineari (e quindi dei diffeo del piano in sé) con A ∈
L(2, Z), Det A = 1 , e condizioni periodiche. Essi si dicono iperbolici (ed in tal caso sono anche ergodici) se
accade che |λ1,2 | ≷ 1 , e cioè se ammettono direzioni (rispettivamente) di espansività
) e di*contrattività. Come si è
m/k
già detto i punti periodici per tali morfismi sono densi su T . [Basta che sia p =
2
∈ Q2 per vedere che tale
n/k ) ′ *
m /k
2
punto è periodico di periodo al più k (tante sono le coppie (m, n), n, m ≤ k) dato che Ap = ∈ Q2 ].
n′ /k
#
Sotto-Esempio 3.4.1
Esempio 5.3.5 (continuazione dell’Esempio 5.3.4)
) *
2 1
Il gatto di Arnold : A= .
1 1
(
1
√ 2.6
L’operatore A ha autovalori λ1,2 = 2 (3± 5) ≃ entrambi reali e tali che λ1 ·λ2 = Det A = 1 . L’equazione
0.4
√
agli autovettori (r + s) = λ1,2 · s implica che gli autovettori sono (si ponga λ := 12 (3 + 5))
) * ) * ) * ) *
λ−1 1.6 1 − λ1 0.6
ϵu = ≃ ; ϵs = ≃ ,
1 +1 −1 −1
(0, 0) &→ (0, 0), (0, 1) &→ (1, 1), (1, 1) &→ (3, 2), (1, 0) &→ (2, 1) ;
pertanto si ha
4
3
2 2
1
4
3
Le due rette passanti per l’origine, che è l’unico punto fisso della mappa, e parallele rispettivamente ad ϵs ed ϵu ,
rappresentano in R2 le varietà W s,u (0, 0), e si avvolgono in modo denso sul toro T2 ; esse infatti hanno inclinazioni
che sono irrazionali, e come si è visto solo i punti con coordinate razionali sono periodici. Pertanto le dette varietà
si intersecano trasversalmente sul toro, e lo fanno in una infinità di punti, omoclini per l’origine. D’altra parte
la linearità della trasformazione impone che tali linee rette siano anche varietà stabile ed instabile per ciascuno di
questi punti, ed anzi la coppia di rette parallele ad ϵs,u e che si interseca in un qualunque punto di (0, 1] × (0, 1]
rappresenta le varietà stabile ed instabile di quel punto su T2 (e si avvolgono anch’esse in modo denso su T2 ).
La presenza di un insieme denso di punti omoclini, ad esempio per l’origine, permette di verificare facilmente
la transitività topologica della mappa: basta infatti, dati i due aperti U, V della definizione, scegliere in ciascuno
di essi un omoclino a zero, far evolvere l’intorno instabile di uno di essi e vederne l’intersezione, che sarà vicina
all’origine, con l’evoluto per tempi negativi dell’intorno sulla varietà stabile dell’altro; tale intersezione appartiene
ad una traiettoria che congiunge i due aperti.
La dipendenza sensibile dal dato è, infine, banalmente verificata data l’espansività. La mappa pertanto è
caotica su tutto T2 . #
M. Lo Schiavo
5.3. “Classici” esempi di mappe caotiche 285
l’uno nella direzione di espansività, l’altro di contrattività della mappa. Anche questa trasformazione è lineare,
e quindi trasforma segmenti in segmenti (su R2 ).
È agevole in questo caso riconoscere la coniugazione topologica con lo shift su YN 3 . A tale scopo si chiamino
a, b, c, d i “primi” omoclini dell’origine, e cioè le intersezioni, più vicine all’origine, delle rette y − δ1 = −λ1,2 (x −
δ2 ), δ1,2 ∈ {0, 1} , e si considerino i tre rettangoli 1, 2, 3 , che hanno per vertici i punti 0, a, b, c, d, (ed i loro
identificati modulo 1). Tali rettangoli, (ed i loro identici mod 1), ripartiscono il piano ed hanno immagini future
che sono totalmente e separatamente contenute nei rettangoli stessi.
Nella figura qui sotto sono stati messi in evidenza due gruppi di punti e, rispettivamente, i loro trasformati
(a, b, c, d) &→ (α, β, γ, δ) ed (o, e, f, k) &→ (o, ϵ, φ, κ)
k
2 ²f 2 Á
c c
d ¯ d
1 b®
1 3 3° 1 b 3
a ± a
2 3 1 ·
o 2 e 2
3 2
b ´ ® ¯
d´ ° 1 3 1 3
±
Ciò permette di scrivere la matrice di raggiungibilità di Markov (prescindendo dai bordi, per i quali sarà
necessario un procedimento di identificazione quando si hanno delle ripetizioni) data da
⎛ ⎞
0 0 1
A = ⎝1 0 1⎠ .
0 1 0
In definitiva si ottiene un sub-shift finito su YN3 , in quanto la presenza di una direzione di contrattività fa sı̀ che le
intersezioni infinite selezionino i punti di T2 . #
[È facile vedere che per ogni θ̄ ∈ T l’insieme f (θ̄, B) := {f (θ̄, b)}b∈B è un cerchio di raggio 1/10 , e che il termine 12 e2πiθ colloca
il centro di f (θ, B) nel punto 12 (cos θ, sin θ) del cerchio B situato in θ ′ = 2θ ; in questo stesso cerchio c’è poi anche l’immagine di
f (θ + π, B) con centro in − 12 (cos θ, sin θ) ].
µ=µ0
f(µ0 ,B)
µ=2µ0 f(µ0+¼,B)
e
È evidente che le iterazioni successive della mappa selezionano un insieme invariante A ⊂ D := n>0 f n (D)
chiuso e non vuoto perché intersezione di immagini compatte di compatti. L’insieme A è invariante anche per
tempi negativi: ogni suo punto necessariamente ammette un’intera storia. Inoltre su ogni disco B di fissato
θ si ha che l’insieme B ∩ A è un insieme di Cantor (l’evoluto al passo n-esimo è costituito da 2n dischi di
raggio 10−n , e per ciascun punto di essi il disco stesso rappresenta la varietà stabile W s ). Per ogni punto di
A passa poi una varietà W u di dimensione uno e tangente ad A stesso in quel punto. È questa iperbolicità
che assicura la dipendenza sensibile dal dato, mentre la densità dell’insieme dei punti f -periodici e la transitività
topologica di A si dimostrano sfruttando le proprietà di contrazione della mappa su un arbitrario settore cilindrico
C(θ0 , b0 ) := Bϵ1 (θ0 ) × Bϵ2 (b0 ) (vedi: [Devaney ]). #
In questo ultimo esempio si vede con molta chiarezza perché l’insieme A venga chiamato attrattore. In
generale infatti si definisce:
Attrattore A per un sistema dinamico := un insieme non decomponibile, compatto, invariante, contenuto in
un intorno (Lebesgue positivo) che sia positivamente invariante e del quale contenere l’insieme ω -limite.
Talvolta si accettano, per la definizione di attrattore, anche proprietà meno restrittive: ad esempio si permette
che l’insieme attratto non sia tutto un intorno di A ma solo un insieme di misura positiva e contenente A ;
o addirittura può accadere di chiamare attrattore un insieme che, nemmeno essendo attrattivo, risulti chiuso
invariante non decomponibile né costituito solo da orbite periodiche, (ad esempio l’attrattore di Feigenbaum o
quello di Henon).
Comunque si assume che prendendo a caso condizioni iniziali nell’intorno di A la probabilità di trovarsi su A
sia strettamente positiva.
N.B. 5.3.8 Si ricordino le definizioni di
Insieme non decomponibile V ⊂ M := per ogni p, q ∈ V ed ϵ > 0 esiste una ϵ -catena fatta di punti di V
che connette p con q .
ϵ -catena che connette p, q := un insieme finito {x0 , x1 , . . . , xn } , con x0 = p, xn = q , ed i punti
{xi }i=0,1,...,n tali che esistano altrettanti istanti {ti }i=0,1,...,n per i quali è d(φ(ti , ti−1 , xi−1 ), xi ) < ϵ .
Si osservi che questa proprietà è conseguenza della più forte: Transitività topologica, (che, si ricorderà, è
l’esistenza di almeno una traiettoria densa nell’insieme), in quanto è chiaro che un’orbita è una particolare ϵ -catena.
♦
In ogni caso si richiede che l’attrattore sia “quasi tutto” interessato alla dinamica. Si consideri ad esempio
il seguente diagramma:
M. Lo Schiavo
5.3. “Classici” esempi di mappe caotiche 287
Un “buon” modo per misurare tale espansività è calcolare gli esponenti di Liapunov (vedi: [Guckenheimer ], opp.
[Seydel, Cap.5]) e vedere se sono maggiori di zero.
1
[Si è già richiamata nel paragrafo 1, la nozione di esponente di Liapunov η := limn→∞ m ln |∂f m (x)| per una mappa f ; esso
vuole essere una misura della capacità di amplificazione che ha la mappa, nel senso che vuole approssimativamente verificare la
|f m (x + δ) − f m (x)| ≃ |δ|emη , e tutto ciò per tempi lunghi. Per una equazione differenziale, se r è il raggio di una sfera' intorno
' ad
' r (t) '
x0 ed ri (t) gli assi principali del “ellissoide” che essa diviene al variare di t , si ha che ηi (x0 ) := limt→∞ limr→0 1t ln ' ir ' . Essi
risultano pertanto anche dei misuratori del quanto orbite vicine siano mutuamente convergenti o divergenti. Per ulteriori particolari si
suggerisce [Guckenheimer § 5.8]
La presenza di almeno un esponente di Liapunov strettamente positivo lascia supporre che il sistema ammetta dinamica caotica
(eventualmente intesa, più semplicemente, come una dinamica con dipendenza sensibile dal dato)].
Nei vari esempi visti qui sopra si nota che molti attrattori, ad esempio quello della mappa di Smale, hanno in
comune il fatto di ammettere definite direzioni di dilatazione e di contrazione in ogni punto dell’insieme. Ciò si
riassume brevemente dicendo che essi hanno proprietà di iperbolicità. Si rammenti la seguente definizione formale
valida, (vedi: [Guckenheimer ]), nel caso di un diffeomorfismo F di classe C r con r ≥ 1 .
Insieme iperbolico per un diffeomorfismo F : M → M := Un insieme I ⊂ M che sia: chiuso, non vuoto, F -
invariante, per il quale
(i) per ogni p ∈ I , esistono spazi vettoriali Es (p), Eu (p) tali che
⎧ s u
⎨ E (p) ⊕ E (p) = Tp I,
⎪
F∗ (p) E (p) = Es (F (p)),
s
⎪
⎩
F∗ (p) Eu (p) = Eu (F (p));
e cioè F∗m (p) contrae i vettori di Es , per tempi futuri, almeno esponenzialmente ed uniformemente rispetto
ad p ∈ D ; e contrae quelli di xu ∈ Eu per tempi passati;
(iii) gli spazi Eu (p), Es (p) sono almeno continui al variare di p in I , e ciò accade ad esempio se cosı̀ sono le
loro basi.
Se il sistema ammette un attrattore iperbolico allora sussiste un teorema simile a quello visto per un solo punto
iperbolico di equilibrio:
Teorema 5.3.1 Sia I ⊂ M iperbolico per un diffeomorfismo F . Allora, dato ϵ > 0 , per ogni p ∈ I esistono
; ' <
s '
Wloc (p) := q ∈ I ' d(F +n (p), F +n (q)) ≤ ϵ, ∀n ≥ 0
; ' <
'
u
Wloc (p) := q ∈ I ' d(F −n (p), F −n (q)) ≤ ϵ, ∀n ≥ 0
tali che
s
(i) Wloc u
(p), Wloc (p) sono due varietà di regolarità C r tangenti rispettivamente a Es (p), Eu (p) e con le stesse
dimensioni (e quindi la linearizzazione è significativa);
(ii) esistono c > 0 , e ρ ∈ (0, 1) tali che
s
q ∈ Wloc (p) ⇒ d(F +n (q), F +n (p)) ≤ cρn d(p, q)
q∈ u
Wloc (p) ⇒ d(F −n (q), F −n (p)) ≤ cρn d(p, q)
s u
(iv) Tp Wloc (p), e Tp Wloc (p) variano in modo continuo al variare di p.
c∞
Varietà instabile W u (p) := n=0 F +n (Wloc
u
(F −n (p))) ed è
M ' Z
' 1
W u (p) ≡ q ∈ I ' lim ln d(F −n (p), F −n (q)) < 0 .
n→∞ n
N.B. 5.3.9 Le varietà W s (p), W u (p), malgrado localmente regolari, hanno spesso l’abitudine di ripiegarsi su se
stesse ed accumularsi in modo infinito. ♦
N.B. 5.3.10 Le varietà W s (p), W u (p) si hanno in corrispondenza rispettivamente al più grande negativo ed al più
piccolo positivo degli esponenti caratteristici (vedi: [Ruelle p.635]), nel senso che ad esempio, per η ≤ maxi {ηi < 0} ,
; ' <
'
W s (p) = W s (p, η) := q ∈ I ' d(F n (p), F n (q)) ≤ ϵ eηn , n≥0 ,
Nel caso di mappe bidimensionali, il teorema di Morse [Guckenheimer Teor 5.2.4] è utile per mostrare quando
un insieme I , invariante per la mappa, è anche iperbolico. Esso, in breve, riconosce iperbolico l’attrattore I quando
esistono campi di coni Sα (di apertura α < 1 )
b b
S := Sα (p), S& := Sαc (p)
p∈I p∈I
tali che
∂F S ⊂ S pur espandendo ogni vettore in S
∂F S& ⊂ S& pur contraendo ogni vettore in S& .
DS®(p)
S®(p) S®(f(p))
f
p f(p)
L’interesse nello stabilire se un attrattore sia o meno iperbolico risiede nel fatto che queste condizioni, se unite a
quelle di “ritorno” per esempio conseguenti alla presenza di orbite omocline, sono sufficienti (vedi: [Wiggins p.130])
ad assicurare la coniugazione con lo shift su YN . Sussistono a tale proposito i due teoremi di Moser e di Smale.
Quando non tutte le direzioni sono fortemente espansive o contrattive, ci può ancora essere la coniugazione
con lo shift su YN , però si ottengono degli insiemi di Cantor fatti con superfici e non con punti, in quanto tali
risultano essere le intersezioni tra le W s , W u , rimanendo “scoperte” delle direzioni e delle intere varietà sulle quali
la dinamica non è facilmente determinabile.
M. Lo Schiavo
5.4. “Classici” esempi di flussi caotici 289
Caso D.
Costruzione della mappa di Poincaré relativa ad un sistema di equazioni differenziali che ammetta (almeno)
un’orbita omoclina ad un qualche punto di equilibrio (iperbolico).
In tutto questo paragrafo si seguirà da vicino, anche nella notazione, i due citati testi [Wiggins 1] e [Wiggins
2], ai quali si rimanda per una più ampia discussione dell’argomento
Sia F : M → M un flusso (o una mappa) che ammette un insieme invariante I ; ad esempio, uno o più punti
di equilibrio: I = {pe , p′e , . . .} . Si definisce
Punto omoclino per I := un qualunque punto q ∈ M \ I tale che
lim φ(t, q) ∈ I e lim φ(t, q) ∈ I .
t→+∞ t→−∞
Se I ≡ pe è un singleton che possiede varietà stabile W s (pe ) ed instabile W u (pe ), dire che q è omoclino
per pe equivale a dire che q ∈ W s (pe ) ∩ W u (pe ) e quindi, per loro stessa definizione, tutta l’orbita γ (q) :=
{φ(t, q)}t∈R appartiene a W s (pe ) ∩ W u (pe ), (o, nel caso di mappe, γ (q) := {F n (q)}n∈Z ). Tale orbita si
chiamerà orbita omoclina a pe .
In modo analogo si hanno le definizioni di punti eteroclini e di orbite eterocline fra due punti di equilibrio pe
ed p′e . In questo secondo caso la somma delle dimensioni di W s (pe ) e di W u (p′e ) può anche essere maggiore di
n.
Si osservi che l’intersezione W s (pe ) ∩ W u (p′e ), cui l’eteroclina (o l’omoclina) necessariamente appartiene, può
sia coincidere con le varietà stesse sia esserne solo un sottoinsieme.
Intersezione trasversa fra W s (pe ) e W u (p′e ) := un’intersezione tale che
in ogni q ∈ W s (pe ) ∩ W u (p′e ) si ha Tq M = Tq W s (pe ) ⊕ Tq W u (p′e ) ;
e dovrà pertanto essere
n = dim Tq W s + dim Tq W u − dim (Tq W s ∩ Tq W u ) .
N.B. 5.4.1 In dim = 2 , due varietà (di dimensione uno) W u (pe ) e W s (pe ) di uno stesso punto pe possono
intersecarsi in modo trasverso, pur rispettando l’unicità della dinamica, solo se il sistema dinamico è discreto,
mentre ciò non è possibile per i sistemi continui. Il motivo dipende dal fatto che ciascuna orbita di una mappa
è una famiglia discreta di punti, mentre per un flusso essa stessa è un (arco connesso di) varietà regolare di
dimensione uno. Quindi il sapere che una traiettoria discreta {F n (q)}n∈N appartiene totalmente a un arco V
di una varietà regolare di dimensione uno invariante per una mappa F , non basta a concludere che essa coincida
con l’arco V . Questo invece è il caso se il sistema è continuo, se l’arco V è privo di equilibri, e se φ(t, t0 , x0 ) esiste
localmente ed è in V .
Nel caso particolare delle due varietà W s (pe ) e W u (pe ), il fatto che esse siano invarianti assicura che {F n (q)}n∈Z
appartiene a W s (pe ) ∩ W u (pe ) se q ∈ W s (pe ) ∩ W u (pe ); tuttavia questo non implica che la traiettoria coincida né
con la W s (pe ) né con la W u (pe ), né che siano W s (pe ) ≡ W u (pe ); ed anzi, per continuità, se l’intersezione in q è
trasversa tali saranno le intersezioni fra le due varietà in ciascun punto della traiettoria γ (q), che allora prende il
nome di omoclina trasversa, e può ancora essere sia contenuta che coincidere con tutto l’insieme W s (pe ) ∩ W u (pe ).
♦
• L’equazione
C3 di Eulero non forzata nelle variabili pi := ai ωi , i = 1, 2, 3. Se a1 > a2 > a3 , sulla sfera
|K2 | = i=1 a2i ωi2 = l2 = cost si hanno selle in (0, ±l, 0) con quattro orbite eterocline che le connettono.
Piccole forzanti possono dare luogo ad eterocline trasverse.
i
• Vortici puntiformi nello spazio fisico, distanti 2ℓ , con circolazione c := ⃗v · d⃗τ , e che traslano con velocità
c
⃗v = 4πℓ ⃗e1 ∈ R3 . Nel sistema relativo al profilo delle linee di flusso si hanno tre eterocline che si rompono
facilmente se forzate con un potenziale periodico (vedi: [Wiggins 1]).
Per poter studiare l’andamento asintotico della dinamica in presenza di omocline e deboli forzanti (periodiche)
è spesso conveniente costruire una Mappa di Poincaré che sfrutti il fenomeno di ritorno dovuto alla presenza
dell’omoclina. A tale scopo si consideri il seguente “esempio guida”, espresso in coordinate.
Sia σ̇ = v(σ), σ ∈ Rn , v ∈ C r≥1 (D), D ⊆ Rn aperto, un sistema con un punto di equilibrio iperbolico:
pe , individuato in coordinate dal vettore σe , e sia γ (σ0 ) := {φ(t, t0 , σ0 )}t∈R una sua omoclina (non erratica).
La mappa verrà costruita come composizione di due mappe: una che agisce solo nelle immediate vicinanze del
punto fisso pe , l’altra che trasporta, lungo l’omoclina, punti di un intorno del punto di equilibrio fino a tornare
nell’intorno stesso. Questa seconda, non risentendo degli effetti dovuto al punto di equilibrio, è sostanzialmente
una “rettificazione” quale quella vista nel Cap. III.
La costruzione della mappa di Poincaré può procedere secondo i seguenti passi, i primi quattro dei quali sono
solo preliminari semplificativi:
Passo 1. Si trasporta il punto fisso pe nell’origine. Si agisce cioè con una traslazione: σ =: σe + w , tale che
Passo 2. Si opera una trasformazione lineare, cosa possibile in virtù dell’iperbolicità dell’origine, che cambi la
base in una rispetto alla quale la matrice ∂ve (0) sia della forma:
) s *
A 0
∂ve (0) = ,
0 Au
M ) * ' Z M ) * ' Z
s ξs ' u u ξs ' s
E (0) := ξ≡ ' ξ =0 ed E (0) := ξ≡ ' ξ =0
ξu ξu
sono invarianti rispetto alla dinamica dell’equazione variazionale, ed il teorema della varietà stabile (vedi § IV.1 e
s u
§ V.3) assicura l’esistenza delle varietà Wloc , Wloc relative all’origine, localmente invarianti rispetto alla dinamica
M. Lo Schiavo
5.4. “Classici” esempi di flussi caotici 291
ψ s : N s (0) ⊂ Rs → Ru e ψ u : N u (0) ⊂ Ru → Rs
; <
s
Wloc = graph ψ s (ξ s ) := (ξ s , ψ s (ξ s ))
ξs ∈N (0)∩Es
; <
u
Wloc = graph ψ u (ξ u ) := (ξ u , ψ u (ξ u ))
ξu ∈N (0)∩Eu
Per poter meglio paragonare il flusso lineare con quello non lineare converrà poi usare come sistema di coordinate
locali proprio le ψ s e ψ u , e cioè introdurre le coordinate
( ) s*
xs = ξ s − ψ u (ξ u ), ξ
∈ N (0)
xu = ξ u − ψ s (ξ s ) ξu
s ´Ã
W »s xs
§s² §s²
§u²
s u
Passo 4. Si definiscono ora due sezioni che siano trasverse alle Wloc e Wloc rispettivamente, e cioè due
porzioni di superfici (n − 1)-dimensionali:
M ) s* ' Z
x ' s
Σsε : = x ≡ ∈ Rs × Ru ' |x | = ε, |xu | < ε
xu
M ) s* ' Z
x ' s
Σuε : = x ≡ ∈ Rs × Ru ' |x | < ε, |xu | = ε
xu
con ε tale che [Σsε ] ∪ [Σuε ] ⊂ N s (0) × N u (0), ove quest’ultimo è contenuto nell’intorno di definizione delle ψ s , ψ u .
s
Chiamati ns (x), nu (x) i versori normali)alle*sezioni, si è certi) s che la Σ* sia in ogni suo punto trasversa al campo
s s s
s ẋ A x +ν
per ogni x ∈ Σε se accade che ns (x) · ≡ ns (x) · ̸= 0 , (ed analoga per Σuε ). Ciò accade
ẋu Au xu + ν u
senz’altro se ε è sufficientemente piccolo data l’assunta iperbolicità dell’origine, ed anzi il campo è entrante su Σsε
ed uscente su Σuε .
s u
Sulle sezioni trasverse si definiscono poi le (superfici) sezioni di queste con le varietà Wloc (0, 0), Wloc (0, 0) e
quindi di dimensioni rispettivamente (n − 1 − mu ) = (ms − 1) ed (n − 1 − ms ) = (mu − 1), date da
M ) s* ' Z
x s '
Sεs : = Σsε ∩ Wloc
s
= x≡ ∈ Σ ' |x s
| = ε, |x u
| = 0
xu ε
M ) s* ' Z
x u '
Sεu : = Σuε ∩ Wloc
u
= x≡ ∈ Σ ' |x s
| = 0, |x u
| = ε .
xu ε
Passo 5. Sia x0 ∈ Σsε \ Sεs . Il flusso φ : t &→ φ(t, x0 ) =: (xs (t, x0 ); xu (t, x0 )) , soluzione della (CA), per
le proprietà dei punti fissi iperbolici trasporta, dopo un certo tempo τ0 = τ0 (x0 ) i punti x0 ∈ Σsε \ Sεs in punti
appartenenti a Σuε \ Sεu , (e si ha, evidentemente, limxu0 →0 τ0 (x0 ) = ∞).
Si definisce innanzi tutto la mappa di Poincaré risultato di tale evoluzione, e cioè
) s* ) s *
s s u u x0 x (τ0 (x0 ), x0 )
P0 : Σε \ Sε → Σε \ Sε data da x0 ≡ &→ .
xu0 xu (τ0 (x0 ), x0 )
Passo 6. Chiamati p e q i (punti) intersezioni dell’omoclina con le sezioni Σuε , Σsε rispettivamente, e quindi
contenuti in Sεu , Sεs rispettivamente, siano Up ⊂ Σuε ed Uq ⊂ Σsε due intorni di tali punti nelle Σuε , Σsε
rispettivamente. Dato che entrambi p e q sono su una stessa orbita che non contiene equilibri, e cioè l’arco della
omoclina “lontano” dall’origine, esiste un tempo finito T tale che φ(T, p) = q , ed inoltre, dato che la soluzione
φ è regolare almeno di classe r ≥ 2 , si può scegliere Up cosı̀ piccola che per ogni x1 ∈ Up esista τ1 (x1 ) tale che
φ(τ1 (x1 ), x1 ) ∈ Uq ; ed è chiaro che τ1 (p) = T .
xu
P1
Up S u² x1
§u²
p x0
P0
Ss² xs
q
Vq
Up S u² Uq
§u² s
§²
Si definisce la mappa individuata da questa seconda evoluzione mediante le
) s* ) s *
x1 x (τ1 (x1 ), x1 )
P1 : Up → Uq data da x1 ≡ →
& .
xu1 xu (τ1 (x1 ), x1 )
Passo 7. Si supponga esista un aperto Vq ⊂ Uq tale che P0 (Vq ) ⊂ Up . Ciò è possibile date le ipotesi di
regolarità e di iperbolicità. In tal modo si verifica la Vq ⊆ P1 (P0 (Vq )).
Passo 8. La mappa di Poincaré completa resta definita dalla composizione delle due
P
0 1 P
P := P1 ◦ P0 : Vq → Uq Vq −→ Up −→ Uq .
È chiaro che per conoscere l’esatta forma di tale mappa è necessario conoscere il flusso φ e quindi conoscere il
moto.
Il procedimento, tuttavia, è in parte locale nell’intorno di un equilibrio iperbolico e per il resto non risente
di altri equilibri; si può perciò agire in modo variazionale e sostituire alla P0 la sua linearizzata P0ℓ , calcolata
mediante il flusso linearizzato. Si ottiene
P0ℓ : Vq ⊂ Σsε → Σuε data, con τ0 = τ0 (x0 ), da
) s* ) As τ s *
x0 ℓ s u ℓ s u e 0 x0
x0 ≡ u →
& P 0 (x 0 , x 0 ) :=φ (τ0 , x 0 , x 0 ) := u .
x0 eA τ0 xu0
e si noti che, siccome per costruzione x1 ≡ (xs1 , xu1 )T =: p + u è scelto in Σuε , e siccome è p = (0, xu1 )T , il vettore
u ha necessariamente espressione: u = (xs1 , 0)T , (con xs1 convenientemente piccolo ed |xu1 | = ε ).
M. Lo Schiavo
5.4. “Classici” esempi di flussi caotici 293
Si può mostrare (vedi: [Wiggins 1]) che tutte le approssimazioni fatte sono lecite all’ordine ε2 data l’iperbolicità
del punto pe , che se la mappa P ℓ := P1ℓ ◦ P0ℓ ha un punto fisso iperbolico allora ciò accade, all’ordine ε2 anche
alla P , e che le due mappe hanno corrispondenti proprietà di stabilità strutturale rispetto ai parametri, (almeno
per regolarità superiore a due).
Esempio 5.4.2 Equazioni differenziali ordinarie autonome in dimensione due.
Siano dati λ1 , λ2 , µ ∈ R, λ1 < 0 < λ2 , λ1 ̸= −λ2 , ed
(
ẋ = λ1 x + ν x (x, y; µ)
ẏ = λ2 y + ν y (x, y; µ)
xu
¦u ¦s
p
xs q
¹<0 ¹=0 ¹>0
Sulle sezioni Σsε , Σuε si specializzano i sottoinsiemi
M ) * ' Z
s x s '
Π := x≡ ∈ Σε ' x = ε, y ∈ (0, ε] ⊂ Σsε \ Wloc
s
y
M ) * ' Z
u x u '
Π := x≡ ∈ Σε ' |x| ≤ ε, y = ε ⊂ Σuε \ Wloc
u
.
y
x0 individua un punto che è in Πs se x0 = (xs0 , xu0 )T ≡ (ε, y0 )T con 0 < y0 ≤ ε . Per esso il flusso linearizzato
7 8T
è φℓ (t, x0 , y0 ) = eλ1 t x0 , eλ2 t y0 , e quindi l’istante τ0 = τ0 (ε, y0 ) per il quale φℓ (τ0 (ε, y0 ), ε, y0 ) appartiene a
Πu è soluzione della eλ2 τ0 y0 = ε , e ciò indipendentemente dal parametro µ purché piccolo. Pertanto è non vuoto
l’insieme Uq ∩ Πs sul quale definire la
) * ) λτ * ) *
ℓ s u ε e 1 0ε ε(ε/y0 )λ1 /λ2
P0 : Uq ∩ Π → Π è data da &→ = .
y0 eλ2 τ0 y0 ε
Per le citate proprietà di regolarità si ha che esiste a sua volta Up ⊂ Πu , intorno di p ≡ (0, ε)T , tale che
P1 (x, ε; µ) ⊂ Σsε per ogni punto
) * ) *
T 0 x
x1 ≡ (x, ε) = + =: p + u ∈ Up ;
ε 0
ed in particolare si ha P1 (0, ε; 0) = (ε, 0)T ≡ q . Con uno sviluppo di Taylor di centro il punto (p; 0) ≡ (0, ε; 0)
con incremento spaziale u ≡ (x, 0)T e per µ piccoli, si valuta allora
P1ℓ (p + u; µ) = P1ℓ (p) + ∂ P1ℓ (p) u + ∂µ P1ℓ (p) µ = q + s + b
ed è necessariamente s ≡ (0, ·)T e b ≡ (0, ·)T affinché il punto P1ℓ (p + u; µ) possa essere un punto di Σsε ; più
esplicitamente si ha: ) *
ℓ ℓ ℓ x
P1 (x, ε; µ) = P1 (0, ε; 0) + ∂P1 (0, ε; 0) + ∂µ P1ℓ (0, ε; 0)µ
0
) * ) *) * ) * ) *
ε 0 · x 0 ε
= + + =
0 a · 0 bµ ax + bµ
(la matrice ha necessariamente nullo l’elemento (1, 1) in modo che i punti P1ℓ (x, ε; µ), cosı̀ come q ≡ (ε, 0)T , siano
tutti punti di Σs . Inoltre le ipotesi sul segno del parametro µ, e sul fatto che la W u è “meno curva” quando µ
aumenta, danno b > 0 ).
(i) δ > 1 , che dà ∂y P ℓ (0, 0) = 0 . Per µ > 0 e piccolo, la P ℓ ha un punto fisso con ỹ > 0 stabile ed iperbolico,
e quindi il sistema ammette un’orbita periodica attrattiva (un ciclo limite stabile)
P`(y) ¹>0
¹=0
¹<0
y
y
e
¹>0
(ii) δ < 1 , che dà (∂y P ℓ (0, 0))−1 = 0 , Per µ < 0 e piccolo in valore assoluto, la P ℓ ha un punto fisso
con ỹ > 0 instabile ed iperbolico, e quindi il sistema ammette un’orbita periodica repulsiva (un ciclo limite
instabile)
P`(y) ¹>0
¹=0
¹<0
y
ye ¹<0
Eventuali simmetrie del campo possono portare a coppie di orbite del genere detto ed anche ad altre orbite
periodiche esterne all’intorno in esame
¹<0 ¹>0
Comunque si vede che nel caso di flussi in dim = 2 non si generano comportamenti caotici, almeno per la
presenza di omocline. #
Esempio 5.4.3 Equazioni differenziali ordinarie autonome in dimensione tre, e con un’omoclina relativa ad un
punto fisso iperbolico.
La linearizzata può avere o tutte le λ1,2,3 reali, oppure l’una reale e le altre due complesse coniugate. Sia, ad
esempio, −, −, + la segnatura degli autovalori nel primo caso, e +, −, − la segnatura rispettivamente della terza
radice e delle parti reali delle altre due nel secondo caso; (e basta cambiare t con −t per vedere che questi due
casi sono esaustivi).
M. Lo Schiavo
5.4. “Classici” esempi di flussi caotici 295
con ν 1,2,3 ∈ C r≥2 ∩ O(x2 + y 2 + z 2 ). In questo caso si ha xs ≡ (x, y) ed xu ≡ z . Inoltre l’origine ammetta
per µ = 0 un’omoclina Γ tangente nell’origine agli assi z ed y , e che scompare per µ ̸= 0 in modo che si abbia
µ ≶ 0 ⇒ φz (T, 0, 0, 0+) ≶ 0 . Per convenienza, si userà la norma | · |∞ .
Wuloc z
¦u P1
p´Su² ¦s ¹<0
Up Uq Wsloc
P0 Vq
q y
Ss² x
¹>0
§s² §s²
; ' <
'
Πu : = (x, y, z) ∈ Σuε ' |x| ≤ ε, |y| ≤ ε, z = ε ⊂ Σuε \ Wloc
u
.
Un punto x0 è in Πs se x0 = (xs0 ; xu0 )T ≡ (x0 , ε; z0 )T con −ε < x0 ≤ ε e 0 < z0 ≤ ε ; per esso il flusso
linearizzato è
7 λ1 t 8
φℓ : (t, x0 , y0 , z0 ) &→ e x0 , eλ2 t y0 , eλ3 t z0 ,
e quindi l’istante τ0 = τ0 (x0 , ε, z0 ) per il quale φℓ (τ0 (x0 , ε, z0 ), x0 , ε, z0 ) appartiene a Πu è soluzione della eλ3 τ0 z0 =
ε . Pertanto è possibile definire la
⎛ ⎞ ⎛ ⎞
x0 x0 (ε/z0 )λ1 /λ3
P0ℓ : Uq ∩ Πs → Πu data da ⎝ ε ⎠ &→ ⎝ ε (ε/z0 )λ2 /λ3 ⎠ .
z0 ε
Per le assunte proprietà di regolarità, è non vuoto l’insieme Up ⊂ Πu , intorno di p ≡ (0, 0, ε)T , e tale che
P1 (x, y, ε; µ) ⊂ Σsε per ogni x1 ≡ (x, y, ε)T =: p + u ∈ Up ; ed in particolare si ha P1 (0, 0, ε; 0) = (0, ε, 0)T ≡ q .
Con uno sviluppo di Taylor si valuta allora
⎛ ⎞
x
P1ℓ (x, y, ε; µ) = P1ℓ (0, 0, ε; 0) + ∂P1ℓ (0, 0, ε; 0) ⎝y ⎠ + ∂µ P1ℓ (0, 0, ε; 0)µ
0
⎛ ⎞ ⎛ ⎞⎛ ⎞ ⎛ ⎞ ⎛ ⎞
0 a b · x eµ ax + by + eµ
= ⎝ε⎠ + ⎝0 0 ·⎠ ⎝y ⎠ + ⎝ 0 ⎠ = ⎝ ε ⎠
0 c d · 0 fµ cx + dy + f µ
(la matrice ha senz’altro nulli gli elementi della seconda riga per permettere che i punti P1ℓ (x, y, ε; µ), cosı̀ come
q ≡ (0, ε, 0)T , siano tutti punti di Σs . Inoltre le ipotesi sul segno del parametro µ danno f > 0 ).
Pertanto, con Vq := P0ℓ −1 Up ∩ Uq , e con & a := aελ1 /λ3 , &b := bελ2 /λ3 , &
c := cελ1 /λ3 , d& := dελ2 /λ3 ,
la mappa finale risulta essere (per z > 0 )
) * @ A
ℓ s s x axz |λ1 |/λ3 + &bz |λ2 |/λ3 + eµ
&
P : Vq ∩ Π → Π data da &→ & |λ2 |/λ3 + f µ .
z cxz |λ1 |/λ3 + dz
&
La condizione di punto fisso P ℓ (x, z) = (x, z), che permette di verificare la presenza di eventuali cicli nei quali
possa essersi biforcata l’omoclina, fornisce (con buona approssimazione vicino a questa) la relazione
az |λ1 |/λ3 )−1 (eµ + &bz |λ2 |/λ3 ) ∼ (eµ + &bz |λ2 |/λ3 )
x = (1 − &
0 1
z ∼ r(z; µ) := f µ + & cz |λ1 |/λ3 eµ + &bz |λ2 |/λ3 + dz
& |λ2 |/λ3 .
In definitiva si hanno, localmente, i seguenti quattro casi (generici) l’evenienza dei quali dipende da effetti
globali della dinamica:
(1) ∆ = 0 ed r(& z ; µ) < f µ. In tal caso, per µ > 0 e piccolo, la P ℓ ha un punto fisso z& > 0 stabile ed iperbolico,
e quindi il sistema ammette un’orbita periodica attrattiva (un ciclo limite stabile)
(2) ∆ = 0 ed r(& z ; µ) > f µ. In tal caso, per µ > 0 e piccolo, la P ℓ ha un punto fisso z& > 0 stabile ed iperbolico,
e quindi il sistema ammette un’orbita periodica attrattiva (un ciclo limite stabile)
(3) ∆ = ∞ ed r(& z ; µ) > f µ. In tal caso, per µ < 0 e piccolo, la P ℓ ha un punto fisso z& > 0 instabile ed
iperbolico, e quindi il sistema ammette un’orbita periodica repulsiva (un ciclo limite instabile)
(4) ∆ = ∞ ed r(& z ; µ) < f µ. In tal caso, per µ > 0 e piccolo, la P ℓ ha un punto fisso z& > 0 instabile ed
iperbolico, e quindi il sistema ammette un’orbita periodica repulsiva (un ciclo limite instabile).
il fatto che negli ultimi due casi la condizione di punto fisso si è potuta manifestare per valori di µ con entrambi
i segni, e cioè sia alla destra che alla sinistra (ma non in entrambe) del valore µ = 0 , si spiega osservando che
il meccanismo di ritorno può avvenire, nei due casi, secondo le seguenti due possibilità (a dipendere dagli effetti
globali della dinamica, che assegnano i segni delle costanti & a, &b, & &
c, d). Si osservi anzitutto che l’essere λ1 < λ2
implica che le mappe P0ℓ e P1ℓ agiscono, per µ = 0 , come in figura:
P 0` P1`
y
¦s ¦s
P0` (D)
z D x z
D
x ¦u x
oppure
P 0` P 1`
y
¦s ¦s
P0` (D)
z D x z
D
x ¦u x
Infatti: si denoti con T il tubo di flusso di basi Up , Uq che evolve intorno all’omoclina Γ, durante un “periodo
evolutivo” di durata ∆t ≈ τ1 necessario per passare da Πu a Πs ; e di questo si considerino solo le traiettorie che
passano per i punti x0 del “segmento” S := T ∩ Uq ∩ W s . Si congiungano poi (arbitrariamente e linearmente) i
punti di questo segmento con quelli del “segmento”: S ′ := Up ∩ W u ∩ {φℓ (−τ1 (x0 ), t0 , x0 )} . Come accennato
nella seguente figura, il risultato di tale costruzione è una superficie omeomorfa o ad un cilindro, oppure ad un
M. Lo Schiavo
5.4. “Classici” esempi di flussi caotici 297
nastro di Moebius. Più in generale, il sistema può “avvolgersi” intorno a Γ o un numero intero o un numero
semi-intero di giri rispettivamente, e corrispondentemente si ha r(z + ; µ) > f µ o r(z + ; µ) < f µ.
¦s ¦s
p
z
¦u ¦u
q
y
x
Ws S Ws S
Moebius cylinder
In tal modo si vede che la biforcazione può dar luogo a un ciclo solo se l’immagine P ℓ (D) viene spostata,
variando il parametro µ, verso le z positive (risp. negative) nel caso del nastro di Moebius (risp. del cilindro), e
quindi per valori di µ positivi (risp. negativi).
Anche in questo caso comunque il sistema biforca in una traiettoria periodica, e quindi il moto si mantiene
regolare.
Se però il campo è tale da ammettere per µ = 0 due omocline, (ad esempio perché simmetrico), e quindi una
delle due possibilità accennate qui in figura
¡+
¦u+
z ¦s+
y ¦s-
x
¦u-
¡-
Hl Hr
P`(Hr )
x
P`(Hl )
z
In tal caso, come è anche possibile mostrare direttamente, la mappa P ℓ ammette insiemi invarianti che sono
iperbolici. #
Per µ = 0 l’origine ammetta un’omoclina Γ che scompare per µ ̸= 0 e, come nel caso precedente, si abbia
µ ≶ 0 ⇒ φz (T, 0, 0, 0+) ≶ 0 ; tuttavia, diversamente dal caso precedente, l’omoclina deve seguire il campo nelle
sue rotazioni attorno all’asse z e quindi non sarà tangente ad alcun asse del piano (x, y) che passi per l’origine.
Si consideri dapprima µ = 0 . Sulle sezioni Σsε , Σuε , come primo tentativo, si specializzano le
; ' <
'
Πs : = (x, y, z) ∈ Σsε ' |x| ≤ ε, y = 0, z ∈ (0, ε] ⊂ Σsε \ Wloc
s
; ' <
'
Πu : = (x, y, z) ∈ Σuε ' |x| ≤ ε, |y| ≤ ε, z = ε ⊂ Σuε \ Wloc
u
.
; ' <
'
Πu : = (x, y, z) ∈ Σuε ' z = ε, ed ∃(x0 ) ∈ Πs : P0ℓ (x0 ) ∈ Πu ⊂ Σuε \ Wloc u
.
y
z
¦s
x
x=²
q
x=²e2¼½/!
Trasformando le coordinate su Πu in coordinate polari (r, θ) di centro il punto p, la mappa P0ℓ è più
opportunamente espressa dalla:
⎛ ⎞ @ A @ A
x0 r(x0 , z0 ) x0 (ε/z0 )ρ/λ
ℓ s
P0 : Uq ∩ Π → Πu
data da ⎝ 0 ⎠ &→ = ,
z0 θ(x0 , z0 ) (ω/λ) ln ε/z0
e quindi
ω ε
θ(x0 , z0 ) = ln appartiene a (2kπ, 2(k + 1)π)
λ z0
se e solo se
0 1
z0 appartiene a ε e−2(k+1)πλ/ω , ε e−2kπλ/ω .
P`0
z y
x x
ha
z=²e-2k¼¸/!
vl vr
z=²e-2(k+1)¼¸/! hb P`0(ha)
¦s ¦u
P`0(hb)
x=²e2¼½/! x=² P`0(vr) P`0(vl)
M. Lo Schiavo
5.4. “Classici” esempi di flussi caotici 299
D’altra parte, per le proprietà di regolarità del sistema, esiste un intorno Up ⊂ Πu di p ≡ (0, 0, ε)T , la cui
immagine secondo P1 cade in Σs , e cioè P1 (x, y, ε; 0) ∈ Σs quando (x, y, ε) ∈ Up , e per il quale P1 (0, 0, ε; 0) = q
≡ (q x , 0, 0)T := Γ ∩ Πs , ove: q x = 2ε (1 + e2πρ/ω ).
Con uno sviluppo di Taylor si ha allora
⎛ ⎞
x
P1ℓ (x, y, ε; 0) = P1ℓ (0, 0, ε; 0) + ∂P1ℓ (0, 0, ε; 0) ⎝y ⎠
0
⎛ x⎞ ⎛ ⎞⎛ ⎞
q a b · x
= ⎝ 0 ⎠ + ⎝ 0 0 ·⎠ ⎝ y ⎠ ,
0 c d · 0
(la matrice ha nulli gli elementi della seconda riga in modo che i punti P1ℓ (x, y, ε; µ) cosı́ come (q x , 0, 0), siano
punti di Σs ).
Pertanto la Poincaré lineare, per µ = 0 , sarà
ℓ
Pµ=0 :Vq ∩ Πs → Πs data da
⎛ ⎞ ⎛ ρ/λ K 7ω 8 7 8L ⎞
x x (ε z) a cos λ ln ε z + b sin ωλ ln ε z + q x
⎝ ⎠ &→ ⎝ ⎠
ρ/λ K 7ω 8 7ω 8L
z x (ε z) c cos λ ln ε/z + d sin λ ln ε/z
Si chiamino Qk i rettangoli
0 2π
O 0 2(k+1)π 2kπ
O
Qk := ε e ω ρ , ε × ε e− ω λ , ε e− ω λ ⊂ V ⊂ Πs .
ℓ
Intersezioni di Pµ=0 (Qk ) con altri rettangoli Qi si possono avere secondo le due modalità mostrate qui di seguito.
P` P`
λ
(• ) Sotto l’ipotesi λ > −ρ > 0 , fissato α ∈ [1, −ρ ) è possibile scegliere (vedi: [Wiggins 2 Lem. 4.8.3]) k0 ∈ N
ed N ∈ N abbastanza grandi da far sı̀ che ogni immagine P ℓ (Qk ) intersechi in (almeno) due disgiunte “striscie
verticali” ciascun rettangolo Qi avente i ≥ k0 α
+N
≥ k0 . Pertanto il rettangolo
0 O 0 O
Q := ε e2πρ/ω , ε × ε e−2(k0 +N )πλ/ω , ε e−2k0 πλ/ω ⊂ V ⊂ Πs
è coniugato ad un alfabeto a 2N simboli, (una coppia di simboli per ogni striscia Qk0 +h con 0 ≤ h < N ), e la
dinamica rimane coniugata allo shift su YZ2N .
(• ) Nel secondo dei due casi in figura, (vedi ancora [Wiggins 1 ]) l’alfabeto avrà infiniti simboli e lo shift sarà un
subshift finito. Inoltre l’arbitrarietà di N mostra che si ha un infinità numerabile di “ferri di cavallo” ciascuno
con la sua infinità numerabile di punti di equilibrio, e sue proprietà caratteristiche.
Quando il parametro µ venga fatto variare l’omoclina, come si è detto, varierà anch’essa
z y y
z
x x
) *
ℓ ℓ eµ
e corrispondentemente la P diviene con buona approssimazione Pµ=0 + con f > 0 . Rinominando le
fµ
costanti e ponendo δ := |ρ|/λ si ottiene
) * ) *
x αxz δ cos(γ ln z + ϕ1 ) + eµ + q x
Pµ̸ℓ =0 : Vq ∩ Πs → Πs data da &→ .
z βxz δ cos(γ ln z + ϕ2 ) + f µ
Imponendo poi la condizione di punto fisso P ℓ (x, z) = (x, z) allo scopo di verificare la presenza di eventuali
cicli nei quali possa essersi biforcata l’omoclina, si ottiene (in prossimità di questa) la relazione
0 0
0 0 0
¹> ¹ ¹<
¹> ¹= ¹<
=
r(z;¹) 0
r(z;¹)
z z
±<1 ±>1
Per cui, se δ < 1 e µ = 0 si hanno una infinità numerabile di orbite periodiche, (come si è detto), mentre solo
un numero finito se µ ≶ 0 . Viceversa, se δ > 1 si ha una sola orbita periodica e solo se µ > 0 , ed altrimenti la
sola omoclina. La loro stabilità non è banale. Nel caso δ > 1 si ha stabilità come per l’omoclina, e la si studia
con gli invarianti di ∂P ℓ . Per δ < 1 tale studio è complicato dalla presenza di possibili biforcazioni tangenti nel
grafico qui sopra (vedi: [Wiggins 1]). È chiaro infine che eventuali simmetrie peggiorano la situazione. #
N.B. 5.4.4 Il meccanismo di ritorno dovuto alla presenza di un’orbita omoclina, e che via la horseshoe innesca il
procedimento di generazione del caos, non si può realizzare se una sola eteroclina è presente. Se però le eterocline
sono più di una, esse possono essere collegate fra loro in modo tale da permettere tale innesco. Nella seguente
figura si accenna ad un caso che permette una infinità di horseshoes purché (λ2 ρ)/(λλ1 ) < 1 , ed altrimenti il ciclo
eteroclino è attrattivo con transienti caotici. Un’eventuale perturbazione poi dà luogo ad una infinità numerabile
di horseshoes. ♦
P`12
P`01 P`02
P`11
Come ultimo esempio, ma non meno importante, di innesco del procedimento di ritorno nel caso di mappe,
verrà qui accennato il caso in cui una coppia di varietà W s (p0 ) e W u (p0 ), relative ad un punto di equilibrio p0 ,
che per un certo valore del parametro di controllo hanno intersezione non trasversa, rompono tale tangenza ed
ammettono intersezione trasversa. In tal caso la loro invarianza genera la presenza di una traiettoria omoclina che
può portare ad una geometria capace di generare horseshoes. Il teorema di Smale-Birkhoff, (vedi: [Guckenheimer
p.188 e 252]), assicura allora l’esistenza di un insieme sul quale la dinamica è topologicamente coniugata allo shift
finito.
Esempio 5.4.5 Sia F un diffeomorfismo da R2 in sé, e sia p0 un suo punto fisso ed iperbolico. Ad esempio la F
può essere la mappa di Poincaré di un’equazione alle derivate ordinarie che ammette un ciclo iperbolico (instabile).
Si supponga inoltre che le due varietà (non locali) W s (p0 ) e W u (p0 ) si intersechino in qualche punto q ̸= p0 in
modo trasverso; sia cioè q ∈ W s (p0 ) ∩ W u (p0 ). Come si è già detto, siccome entrambe W s (p0 ), W u (p0 ) sono
invarianti, anche l’orbita {F n (q)}n∈N deve appartenere a W s (p0 ) ∩ W u (p0 ). Si genera pertanto una omoclina
“trasversa” relativa a p0 e comportamenti come quello in figura. Detta D una regione a forma di “lobo” che
contenga una sola “ansa” tra le due varietà, la sua F -immagine non può che essere anche lei un lobo da uno dei due
lati della varietà, (a seconda della parità di F ), magari con qualche salto. Dopo un numero finito di iterazioni
della mappa F si ha che, seguendo la W u (p0 ) prima e la W s (p0 ) poi, si ritorna nell’intorno di p0 dal quale si era
partiti.
È chiaro come questo comportamento inneschi le horseshoes.
M. Lo Schiavo
5.4. “Classici” esempi di flussi caotici 301
f2(D)
P
f1(D) 3
f (D)
D
P0
Esempio 5.4.6 Sia F un diffeomorfismo da R3 in sé, e sia (e cioè le direzioni iperboliche vengano espanse
e contratte più di quanto avvenga per quella tangente, [Wiggins 1 ]). Si assuma anche che le varietà stabile
ed instabile del toro si intersechino trasversalmente (per cui dim (Tq W s (p0 ) ∩ Tq W u (p0 )) = 1 per ogni punto
p0 ∈ T0 e per ogni q ∈ W s (p0 ) ∩ W u (p0 )), e che l’intersezione sia un altro toro T che risulta allora un toro
omoclino trasverso. Anche in questo caso l’invarianza di W s (p0 ), W u (p0 ) impone che le orbite di T appartengano
anch’esse a W s (p0 ) ∩ W u (p0 ), e quindi la presenza di un T ne implica infiniti altri. Su ciascun piano “radiale” si
ottiene una figura come quelle viste più sopra. Partendo cioè da un “lobo” D × T si ottiene un insieme invariante
che è un Cantor ×T. Naturalmente rimane incognita la dinamica relativa alla coordinata θ ∈ T.
M. Lo Schiavo
Capitolo 6
Come è noto, salvo aumentare la dimensione dello spazio delle fasi ed aggiungere l’equazione ε̇ = 0, tale famiglia
può essere riscritta nella forma
) * ) * ) *
x v(t, x; ε) x0
ṡ = V (t, s) , con s= , V = , s(t0 ) = ,
ε 0 ε
ed è quindi lecito fare ricorso al teorema di dipendenza continua dal dato iniziale sia per quanto riguarda il modo
con cui la soluzione del problema (1.1) dipende dal dato x0 , sia per come dipende dal parametro ε ; (si veda a
questo proposito anche il Teorema 3.1 del §I.3).
Si supponga di conoscere la soluzione φ0 : t &→ φ0 (t, t0 , x0 ) della
ci si vuole servire di tale conoscenza per individuare l’andamento delle soluzioni φ : t &→ φ(t, t0 , x0 ) della (1.1)
anche per valori non nulli del parametro ε , purché “convenientemente piccoli”: ∥ε∥ ∈ Bδ (0).
Segue dalle proprietà di dipendenza continua dal dato che, se ci si limita ad esaminare solo ciò che accade per
tempi limitati, si riconosce che la soluzione φ del sistema “perturbato”: (1.1) e quella φ0 del sistema non perturbato:
(1.2) non solo sono tanto più vicine fra loro quanto più piccola è la perturbazione, ma sono anche tali che la funzione
che esprime lo scarto è ben approssimata nell’intorno dell’istante iniziale dalla soluzione dell’equazione variazionale
• Metodi locali: quelli che fin dall’inizio abbandonano la speranza di essere significativi anche lontano dai dati
assegnati, e qualora ciò accada è cosa non facilmente dimostrabile a priori. Essi sviluppano le funzioni in esame
mediante tecniche la cui validità è, in generale, ristretta a regioni limitate dello spazio delle fasi ampliato
e contenenti il dato iniziale. Se ne possono considerare come esempio i metodi che esprimono le soluzioni
mediante serie di potenze rispetto alla variabile indipendente (vedi Cap. I) o, più in generale, i vari metodi
perturbativi che cercano sviluppi delle soluzioni mediante somme di funzioni di una variabile “piccola” ε , che
nel caso precedente può essere identificata con l’incremento: (t − t0 ) della variabile indipendente.
• Metodi globali: quelli che si occupano di raccordare fra loro parti di soluzioni che siano valide solo localmente
in certe zone dello spazio delle fasi, ampliato sia con quello delle variabili indipendenti sia con quello dei
parametri, e di costruirne in tal modo una valida globalmente, o almeno in regioni più ampie delle precedenti
e che le contengono. Per essi il criterio conduttore è di eliminare quelle inconsistenze che provengono dalla
inesattezza degli sviluppi locali, spesso ridefinendo i parametri e le variabili in uso. Ne sono esempi i metodi
di strato limite o di scale multiple, o di sviluppi in ampiezza/fase.
303
304 Capitolo 6. Alcuni Metodi Perturbativi
• Metodi di Media: che studiano sistemi dotati di una qualche forma di periodicità e di regolarità, e cercano
di valutare i vari contributi, qualitativamente e quantitativamente diversi fra loro, dai quali sono composte
le soluzioni, certo esistenti su tutto lo spazio di definizione delle variabili. Essi si servono di tale periodicità
per individuare i diversi andamenti, per esempio a “tempi brevi” ed a “tempi lunghi”, che si producono nelle
soluzioni come conseguenza dei termini di campo più o meno rapidamente variabili. In generale tuttavia tali
metodi rimangono comunque locali rispetto ai valori dei parametri dello sviluppo.
Nel seguito, per semplicità, il parametro ε verrà supposto reale scalare. Inoltre, per poter essere più precisi sul
significato del termine: “piccolo”, si userà la seguente nomenclatura che, d’altra parte, è del tutto indipendente dal
fatto che quelle che si cercano sono soluzioni di un problema differenziale; ciò mostra, anzi, che la logica di fondo
dei metodi perturbativi è utilizzabile per risolvere in modo approssimato anche problemi non differenziali o con
campo non C 1 rispetto al parametro ε che, nelle definizioni che qui seguono, non è necessariamente “piccolo” né
positivo.
f = O(g) per ε → ε0 significa che esistono ε+ > 0 ed M > 0 tali che per ε ∈ Bε+ (ε0 ) si ha |f (ε)| <
M |g(ε)| .
f = Os (g) per ε → ε0 (o: f è strettamente dell’ordine di g ), significa che: f = O(g) e non è f = o(g).
f ∼ g , o anche: f ≈ g per ε → ε0 (si legga: f e g sono asintotiche, oppure: f “va come” g ), significa
che f = O(g) e, simultaneamente, g = O(f ).
Esempi: ε sin(1/ε) ̸∼ ε in ε0 = 0, 3ε ∼ ε in ε0 = 0.
faa di f per ε → ε0 (si legga: faa è approssimazione asintotica di f ), significa che f = faa + o (faa )
e cioè che limε→ε0 (f /faa ) = 1 .
N.B. 6.1.1 Si osservi il cattivo uso di alcune locuzioni: ε e ε2 sono “circa” zero per ε → 0 ma non sono
asintotiche fra loro né lo sono a zero. La loro differenza ha la ε come approssimazione asintotica, infatti (ε −
ε2 ) − ε = o(ε); la loro differenza non ha la ε2 come approssimazione asintotica, infatti (ε − ε2 ) − ε2 ̸= o(ε2 ). In
ciò risiede il motivo per cui, nella definizione di approssimazione asintotica, si usa il rapporto (f − faa )/faa = o(1)
e non la differenza (f − faa ) = o(1) (vedi: [N.B. 6.1.4]).
Si ricordi, d’altra parte, che se lim f /g = 1 allora anche lim g/f = 1 ; dunque la relazione di approssimazione
asintotica tra f ed faa è simmetrica. Si noti, infine, che se g è monotona l’essere g = Os (1) equivale a che sia
1/g = Os (1).
M. Lo Schiavo
6.1. Gli sviluppi asintotici 305
ove naturalmente
⎧
⎪ O(1) significa |f /g| limitata per ε → ε0 ;
⎪
⎪
⎨ o(1) significa limε→ε0 f /g = 0;
f /g =
⎪ Os (1)
⎪ significa |f /g| limitata ma non infinitesima per ε → ε0 ;
⎪
⎩
∼1 significa ∃ L, M > 0 tali che L|f | < |g| < M |f | .
Attenzione. Si badi a non commettere errori di logica: 105 = O(1) è un nonsense, cosı̀ come anche 1.2 = O(1);
non si confondano, cioè, gli o.d.g. asintotici con “l’ordine di grandezza di un numero”, che è la parte intera del
log10 del numero, e non ha nulla a che fare con la ε . ♦
Infatti: f /h = (f /g) (g/h) lı̀ dove g ̸= 0 ; ed i valori per i quali è g = 0 sono anche tali che f = 0 . La prima
condizione implica subito la seconda. Per la terza occorre che i valori per i quali è |f | ≷ L|h| siano anche tali che
|g| ≷ M |h|, per certi L, M < ∞. Per l’ultima: |f | < M |g| < s|h|, per qualsiasi s > 0 comunque piccolo. ♦
N.B. 6.1.4 g = faa equivale a f = gaa ed implica f ∼ g che implica f = Os (g) ; tuttavia i viceversa
non sussistono: si pensi agli esempi visti sopra; è però vero che f ∼ g equivale a f = Os (g) quando esiste il
ℓ = limε→0 f /g .
Si osservi poi che
ε
f − g = o(g) equivale a (f − g)/g −→ 0
ε0
si pensi per esempio alle f (ε) = ε−1 + ε−2 e g(ε) = ε−2 per ε → 0 ; cosı̀ come
N.B. 6.1.5 La monotonia permette di escludere multipli zeri in N (ε0 ): si pensi agli esempi con sin(1/ε). ♦
N.B. 6.1.6 Se δ1 e δ2 sono due funzioni d’ordine (monotone nello stesso verso) allora anche δ1 · δ2 lo è. ♦
In questo capitolo si parlerà sempre di funzioni d’ordine monotone non decrescenti su (0, ε+ ], e l’asintoticità resta
intesa sempre per ε che tende a zero. Inoltre, sarà generalmente utile alla chiarezza indicare le funzioni con la
notazione generalmente riservata ai loro valori in un punto; per esempio, le funzioni d’ordine della ε potranno
essere anche indicate con δn (ε) per rimarcarne la variabile indipendente.
; <
Successione Asintotica di funzioni d’ordine := δn : (0, ε+ ] → R1 una successione di funzioni
n=0,1,2,...
d’ordine δn = δn (ε) tale che per ciascun n > 0 si abbia
Si dimostra che tale δ0 esiste sempre, e che è possibile sceglierlo o(1) se tutte
; le δn sono o(1).
<
n
Comoda famiglia di funzioni d’ordine è senz’altro quella dei monomi ε ma va tenuto presente che
n=0,1,..
queste non sono certo le uniche possibili funzioni d’ordine, né è necessario che le funzioni d’ordine siano funzioni
cosı̀ regolari.
; <
Successione Asintotica di funzioni fn (ε) := una successione fn : (0, ε+ ] → R1 di funzioni della
n=0,1,2,...
ε tali che per ogni n si abbia fn = Os (δn ) per una qualche successione asintotica di funzioni d’ordine δn .
Cm
Somma Asintotica di funzioni fn (ε) := una somma n=0 an fn (ε), con m ∈ N, con an ∈ R per ogni
n ∈ N, e tale che la {fn }n=0,1,... sia una qualche successione asintotica di funzioni della ε .
Le precedenti definizioni si estendono al caso di funzioni le quali, oltre che della ε , lo siano anche di altre variabili.
Sia φ = φ(ξ, ε) : D × (0, ε+ ] → Rm1 con D ⊆ Rm2 aperto; e siano fissati un certo ξ0 ∈ D ed un certo D0 ⊆ D ,
(e l’asintoticità resta intesa per ε → 0 ).
φ = O(δ) in ξ0 significa che tale è la f (ε) := φ(ξ0 , ε) .
φ = O(δ) in D0 significa che tale è ciascuna delle f (ε) := φ(ξ0 , ε) ottenute per ciascun fissato ξ0 nell’insieme
D0 .
φ = O(δ) uniformemente in D0 significa che tale è la famiglia delle f (ε) := φ(ξ, ε) in modo uniforme rispetto
alle ξ nell’insieme D0 .
Se φ = O(δ) in D0 , è generalmente possibile, eventualmente limitandosi a convenienti sottoinsiemi di D0 ,
scegliere una qualche norma ∥·∥D0 la cui scelta dipende da D0 rispetto alla quale individuare l’ordine della φ,
e cioè per la quale la funzione della ε data da f (ε) := ∥φ(ξ, ε)∥D0 risulta tale che f = O(δ). In particolare si
ha l’uniformità se la norma è la ∥·∥∞ su D0 . Per esempio ξε2 = o(ε) non uniformemente su R se la ∥·∥R
è quella del sup; in tal caso lo studio sui sottoinsiemi di R va ristretto ai sottoinsiemi compatti. Allo stesso
modo si può dichiarare ξ −1/2 ε2 = o(ε) addirittura in modo uniforme su (0, 1], se ci si accontenta della misura
. 1 −1/2 2
0 ξ ε dξ =: ∥φ(ξ, ε)∥(0,1] = 2ε2 .
Considerazioni analoghe si possono fare, ed analoghe definizioni vengono date, per le relazioni φ = Os (δ) e
φ = o(δ) .
A una funzione φ = φ(ξ, ε) si attribuisce un ordine di grandezza quando, fissati il modo (in particolare, per
il terzo di essi sia fissata una norma su D0 ) ed il tipo di asintoticità (ε → 0 ), si verifica una (rispettivamente)
delle relazioni di ordine stretto rispetto ad una qualche funzione d’ordine scelta in un qualche insieme di funzioni
d’ordine. In tal caso, tutto ciò viene riassunto con la locuzione “ φ è dell’ordine di δ ” o anche con: “ δ esprime
l’ordine di grandezza di g ” (nel modo prescelto in D0 , ed asintoticità per ε → 0 ):
g è dell’ordine di grandezza di δ := esiste una funzione d’ordine δ tale che
Data una funzione f = f (ε) continua e non identicamente nulla in ciascun (0, ς] con ς ∈ (0, ε+ ], si può
dimostrare (vedi: [Eckhaus Lemma 1.1.1]) che esiste una qualche δ0 tale che sia f = Os (δ0 ), e quindi f /δ0 = Os (1).
In altre parole, a una tale funzione è possibile attribuire un ordine di grandezza.
M. Lo Schiavo
6.1. Gli sviluppi asintotici 307
; <
Successione Asintotica, in D0 , di funzioni φn = φn (ξ, ε) := una successione φn (ξ, ε) tale che le
n=0,1,2,...
fn (ε) := ∥φn (ξ, ε)∥D0 diano luogo ad una successione asintotica di funzioni della ε ,
e cioè che si abbia {∥φn (ξ, ε)∥D0 }n=0,1,... = Os (δn ) per una comune ∥·∥D0 ed una certa successione asintotica
di funzioni d’ordine {δn (ε)}n=0,1,... ; e pertanto che per ciascun n ≥ 0 risulti φn (ξ, ε) = φn (ξ, ε)δn (ε), con
φ(ξ, ε = Os (1)), o almeno O(1).
Cm
Somma Asintotica (generalizzata), per ξ ∈ D0 := una somma n=0 φn (ξ, ε) tale che la successione di
funzioni {∥φn (ξ, ε)∥D0 }n=0,1,...,m risulti (appartenere a) una successione asintotica.
Cm
Somma Asintotica (ordinaria), per ξ ∈ D+ := D0 × Dp := una somma della forma: n=0 φn (ξ, p)δn (ε), nel-
la quale le φn sono funzioni della ξ ∈ D0 e di eventuali altri parametri p ∈ Dp , ma non della ε .
Le somme asintotiche vengono anche chiamate serie asintotiche, ma per ognuna di esse l’estremo superiore m della
somma è, di regola, finito.
La seguente è una restrizione della definizione data per le funzioni della ε .
Approssimazione Asintotica di φ(ξ, ε), in D0 := una funzione φaa (ξ, ε) tale che, una volta determinata una
funzione d’ordine δ0 (ε) che esprime in D0 l’ordine di grandezza della φ, in D0 risulti
φ(ξ, ε) − φaa (ξ, ε) = o(δ0 ), con δ0 tale che ∥φ(ξ, ε)∥D0 = Os (δ0 ) .
(0) (0)
Pertanto si ha che la φaa =: φaa è anche lei dell’ordine (stretto) δ0 e che φ0 := φaa /δ0 verifica la
φ
= φ0 + o(1) con φ0 = Os (1) .
δ0
Talvolta è utile ammettere la possibilità che la δ0 non sia O(1), e anzi che sia illimitata per ε → 0 . Quando anche
sia δ0 = O(1), è poi utile definire una approssimazione asintotica che sia “di ordine maggiore”, e cioè tale che
Nell’ipotesi che la φ e la φaa siano simultaneamente nulle tutto ciò equivale a dire che (φ − φaa ) = o(φaa ). È bene
osservare inoltre che la φaa è fortemente non univoca.
Il procedimento può essere iterato. Si chiami φ(1) tale o(1). Si definisca cioè
φ
φ(1) := − φ0 = o(1) .
δ0
Se ∥φ(1) ∥D0 è continua e non identicamente nulla in (0, ε+ ] si cerca, e si determina, il suo ordine di grandezza, e
quindi δ!1 tale che φ(1) = Os (δ!1 ). Per costruzione è certamente δ!1 = o(1).
(1) (1) (1)
Poi si cerca un’approssimazione asintotica della φ(1) , e cioè una φaa tale che φ(1) − φaa = o(δ!1 ). La φ1 := φaa /δ!1
risulta un’approssimazione asintotica della φ(1) /δ!1 , e verifica la
φ(1)
= φ1 + o(1) con φ1 = Os (1) .
δ!1
Al successivo passo si pone φ(2) := φ(1) /δ!1 − φ1 . Si troveranno δ!2 = o(1) e φ2 tali che
φ(2)
= φ2 + o(1) con φ2 = Os (1) .
δ!2
N N OO
Ne segue φ = δ0 φ0 + δ!1 φ1 + δ!2 [φ2 + o(1)] e quindi
la successione {δn (ε)}n=1,2,... infatti è una successione asintotica giacché, per costruzione, ciascuna delle δ!i , per
i = 1, 2, . . . , n, è o(1) .
Generalmente le funzioni φn (ξ, ε) si cercano indipendenti dalla ε; (si veda il N.B. 6.1.26).
Sviluppo di Taylor
Sia x(ε) ∈ C ∞ ((N (0)) (infinitamente differenziabile in ogni ε ∈ (−ε0 , +ε0 ) ). Si chiama Polinomio di Taylor
all’ordine k il polinomio:
1 dh x
pk (ε) = a0 + a1 ε + a2 ε2 + . . . + ak εk , con ah := , h = 0, .., k < ∞.
h! d εh
Teorema. Se x(ε) ∈ C r (N (0)) (derivate continue fino all’ordine r compreso in un intorno N (0) dell’origine)
allora per ogni k < r il resto Rk (ε) è definito su N (0) e vale:
- ε
dh x (ε − η)h
Rk (ε) := x(ε) − pk (ε) = (η) dη ;
0 d εh h!
con a0 ̸= 0 se
Cnf = Os (1), δ0 = 1, φ0 = a0 , δ1 = (ξ − ξ0 ), δ!k = (ξ − ξ0 ), δk = (ξ − ξ0 )k ; e cioè quando,
posto sn := k=0 an (ξ − ξ0 )k , si ha
(f (ξ) − sn )
lim = an+1 per n = 1, 2, . . . .
ξ→ξ0 (ξ − ξ0 )n+1
M. Lo Schiavo
6.1. Gli sviluppi asintotici 309
C K 7 8 L
Più in generale f (ξ) ∼ n=0 an (ξ − ξ0 )αn , con α > 0 , e quindi |an (ξ − ξ0 )αn | = o an−1 (ξ − ξ0 )αn−1 , se
accade che
N
= 7 8
rN (ξ) := f (ξ) − an (ξ − ξ0 )αn = o (ξ − ξ0 )αN .
n=0
N.B. 6.1.8 Si osservi che se f ammette una serie asintotica di potenze positive della (ξ − ξ0 ) i suoi coefficienti
sono univocamente determinati. Allo stesso modo si riconosce che se una certa funzione ammette uno sviluppo
asintotico ordinario rispetto ad una assegnata successione asintotica di funzioni d’ordine tale sviluppo è univoco.
Non è vero tuttavia il viceversa: una serie asintotica non individua una sola funzione φ. Esistono infatti funzioni
“trascendentalmente piccole”; ad esempio per le δn (ε) = εn tale risulta la e−ξ/ε che, come è noto, non ammette
sviluppo in serie di potenze della ε . Analogamente si ha che, ad esempio, ξ −1 non ammette in zero una serie
asintotica di potenze (positive). ♦
N.B. 6.1.9 Una data serie è asintotica a molte funzioni diverse. Una data funzione ammette molte diverse serie
asintotiche. ♦
N.B. 6.1.10 Una serie di Taylor è asintotica alla funzione che l’ha generata. Tuttavia lo è anche ad una che le sia
diversa per un addendo la cui serie asintotica di potenze sia nulla fino all’ordine prescelto. Per esempio, la funzione
somma ad m termini della serie stessa. ♦
N.B. 6.1.11 Se la serie, per esempio di potenze, è convergente certo il suo resto rN verifica, per ogni fissato ξ&
all’interno del cerchio di convergenza, la
∞
=
& = N
rN (ξ) an (ξ& − ξ0 )n −→ 0 ,
∞
n=N +1
ma ciò non è affatto necessario affinché la serie possa essere una serie asintotica: il resto di quest’ultima deve solo
tendere a zero più velocemente di (ξ − ξ0 )N per ξ → ξ0 ma non necessariamente per N → ∞. Anzi generalmente
accade che le serie asintotiche divergono per N grandi: si tratta quasi sempre di stimare il valore ottimale per N
per il quale l’approssimazione è la migliore possibile dati i valori delle funzioni d’ordine (e quindi del parametro
ε ) e dei loro coefficienti (e quindi della variabile ξ ) .
In effetti mentre la proprietà di essere convergente è una proprietà della sola serie, il fatto che una serie sia o
meno asintotica ad una certa funzione è una proprietà da verificare su entrambe, e quindi occorrerebbe conoscerle
entrambe. Se però si riesce in qualche modo a stimare quale sia il più piccolo dei coefficienti di una serie, che si
spera essere asintotica ad una certa incognita funzione, è opportuno interrompere la serie al termine precedente. ♦
due sviluppi asintotici ordinari e rispetto alla stessa successione asintotica di funzioni d’ordine. Sussistono le seguenti
proprietà.
• Generalmente la differenziazione termine a termine non è lecita, contrariamente alle operazioni elementari
viste qui sopra. Tuttavia, se si assume che la funzione φ(ξ, ε) sia 7C r (N (0)), e come 8tale ammetta sviluppo
di Taylor fino all’ordine r , e quindi un resto integrale con kernel ∂ r+1 φ(ξ, ε)/∂εr+1 ε=s (ε − s)r /r!, la sua
approssimazione asintotica può essere derivata fino all’ordine r − 2 (ed r − 1 se anche l’ultima derivata è
limitata).
Cosı̀, si può derivare una serie asintotica ordinaria che sia uniforme sui compatti rispetto alla ξ ; ad esempio
quella di una funzione periodica rispetto alla ξ .
Analogamente, quando la funzione φ(ξ, ε) sia soluzione di una qualche equazione lineare a coefficienti svi-
luppabili, si può usare a ritroso l’equazione stessa per trovare che le derivate della funzione hanno come serie
asintotiche proprio le derivate della serie asintotica della funzione, (vedi: [Bender §3.8]).
♦
Come prima applicazione del concetto di serie asintotica si cercherà ora di approssimare le radici di una equazione
algebrica “dipendente da un parametro”. Si indicheranno i punti sostanziali il metodo in forma generale, in modo
da poterli riconoscere, in seguito, anche nella risoluzione di problemi di altra natura.
Si consideri una famiglia di equazioni algebriche
0 1
φ(x, ϵ) = 0 , con φ(x, ε) ∈ C r D0 , (0, ε+ ] ;
ad esempio:
x2 + (ε − 4)x + (3 + 2ε) = 0 .
Ipotesi di lavoro. Si sa risolvere (o almeno stimare)la soluzione del caso “imperturbato”: ε=0
x2 − 4x + 3 = 0 ⇐⇒ (x − 1)(x − 3) = 0 ,
(1) (2)
dalla quale si legge che le due radici sono: x0 = 1 ed x0 = 3 .
Ipotesi aggiuntiva.
(1)
Le soluzioni: x(1) (ε) ed x(2) (ε) sono funzioni regolari della ε ∈ (0, ε+ ], e tali che limε→0 x(1) (ε) = x0 e
(2)
limε→0 x(2) (ε) = x0 . Esse pertanto ammettono uno sviluppo di Taylor in N (0).
Poi:
• Si ignorano le potenze superiori della ε , decidendo un qualche ordine k al quale fermare lo sviluppo.
Qui sia k = 2 .
!(1) (ε) ed x
• Si sostituiscono, una per volta, ciascuna delle due radici approssimate x !(1) (ε) nell’equazione
φ(x, ϵ) = 0 .
• Si sviluppa, totalmente rispetto alla variabile ε , ciascuna delle funzioni φ(! x(1) (ε), ε) e φ(! x(2) (ε), ε) cosı̀
(1)
ottenute. Cominciando con la prima: x !(ε) := x ! (ε), si calcola cioè la:
' ' '
' ' '
x(ε), ε) ∼
φ(! = φ' + ∂x φ ' ∆x + ∂ε φ ' ∆ε
(!
x(0),0) (!
x(0),0) (!
x(0),0)
1 ' 1 '
' '
+ ∂x (∂x φ ∆x + ∂ε φ ∆ε) ' ∆x + ∂ε (∂x φ ∆x + ∂ε φ ∆ε) ' ∆ε
2 (!
x(0),0) 2 (!
x(0),0)
' ' '
' ' '
=φ' + ∂x φ ' (x1 ε + x2 ε2 ) + ∂ε φ ' ε
(x0 ,0) (x0 ,0) (x0 ,0)
1 7 8 '' 1 7 8 ''
+ ∂x ∂x φ(x1 ε + x2 ε2 ) + ∂ε φ ε ' (x1 ε + x2 ε2 ) + ∂ε ∂x φ(x1 ε + x2 ε2 ) + ∂ε φ ε ' ε
2 (x0 ,0) 2 (x0 ,0)
' 17 8''
'
= φ(x(0), 0) + (φx x1 + φε ) ' ε+ φxx x21 + 2φxε x1 + φεε + 2φx x2 ' ε2 .
(x0 ,0) 2 (x0 ,0)
M. Lo Schiavo
6.1. Gli sviluppi asintotici 311
• L’unicità dello sviluppo di Taylor e le proprietà della φ fanno sı́ che in tal caso, e cioè nelle ipotesi dette, la
soluzione (ovvero ciascuna delle radici dell’equazione φ = 0 ) esista, unica, regolare, e tale che limε→0 x(ε) =
x0 . Pertanto, sempre in tali ipotesi, lo sviluppo x!(ε) esiste, unico, e con un errore O(εk+1 ) se la x !(ε) è stata
calcolata fino all’ordine k . Dunque tale x !(ε) è proprio una approssimazione asintotica (all’ordine k ) della
x(ε). Infatti (sia k = 1 ) il Teorema della funzione implicita e quello di Taylor assicurano che è possibile
stimare l’errore:
!(ε)| =: |R(ε)| ≤ M ε2 /2
|x(ε) − x con M := max |∂ε2 x(ε)| .
|ε|≤ε+
Esempio 6.1.13 Il seguente esempio è in qualche senso irragionevole dato che la x(ε) risulta facilmente calcolabile
in modo analitico. Tuttavia è utile per rendersi conto del metodo.
Sia data l’equazione
φ(x, ε) = x2 − 1 + ε = 0
√ √
che ha soluzioni (esatte) x(1) (ε) = + 1 − ε ed x(2) (ε) = − 1 − ε . Si imponga x !(1) 2
√(ε) = 1 − ε/2 − ε /8 + . . .,
(1)
che è la soluzione approssimata proveniente dallo sviluppo di Taylor della x (ε) = + 1 − ε , e l’errore è limitato
dalla derivata seconda di tale funzione nell’intorno [−ε+ , +ε+ ]. È chiaro che il ragionamento non può essere ripetuto
in generale quando la soluzione non è nota. Al variare di ε+ si ricava la seguente tabella (le due ultime colonne
sono l’errore valutato relativamente a ε = 0.37 e ε = 0.5 ).
+1 1 "
-1
Esempio 6.1.14 In questo esempio il problema è degenere; per esso il metodo non funziona, e vanno trovate altre
vie per trattarlo (cfr. oltre).
φ(x, ε) = x2 + ε = 0 .
È chiaro che per questa equazione il problema imperturbato non ha soluzione sviluppabile; infatti φ(x, 0) =
(1) (2)
x2 − 1 = 0 ha soluzioni x0 := x0 = x0 = 0 e quindi φx (x0 , 0) = 0 . Il seguente grafico mostra √ le due soluzioni
esatte ed è evidente che non si possano sviluppare in zero: la soluzione esatta, e cioè la funzione −ε, non ammette
sviluppo di Taylor nell’origine.
"
M. Lo Schiavo
6.1. Gli sviluppi asintotici 313
ed è ovvio che conviene scegliere la più semplice di tutte quelle che danno luogo a questi risultati,
e che occorre scegliere (ove possibile) quelle che hanno un ricco problema all’ordine zero, quindi in particolare che
non sia degenere, e che forniscono risposte e/o soluzioni univoche.
Esempio 6.1.16 Si introduca, come primo tentativo, x ∼
= 2 + x1 δ1 nell’equazione:
Se ne ricava la
−x21 δ12 + x31 δ13 + ε ∼
= 0.
Delle tre funzioni d’ordine: δ12 (ε), δ13 (ε), ε , la seconda rende il termine
√ subdominante, e quindi è da escludere.
Per bilanciare i due termini rimanenti è possibile
√ scegliere: δ 1 = ε . È chiaro che si sarebbe potuto scegliere
anche altre funzioni d’ordine, ad esempio: 2 ε + ε ln ε , etc. ma queste non sono altrettanto semplici. Ne seguono,
e solo per ε > 0 , le
√ √
x(1) ∼
=2+ ε , x(2) ∼=2− ε .
√
Per il termine del secondo ordine, e relativo alla prima di queste due, si sostituisce x ∼ = 2 + ε + x2 δ2 nella (1.3),
ottenendo:
√ √ √
−2x2 ε δ2 − x22 δ22 + ( ε)3 + 3x2 ε δ2 + 3x22 ε δ22 + x32 δ23 ∼
=0.
√ √
Si hanno δ23 ≪ δ22 , ε δ22 ≪ δ22 , εδ2 ≪ ε δ2 . Pertanto, omettendo i termini subdominanti (gli ultimi
due rispetto al secondo, il 4o rispetto al primo), si ricava
√ √
−2x2 ε δ2 − x22 δ22 + ( ε)3 ∼
= 0. (1.4)
A questo
√ punto vanno decisi i termini distintivi, qui: 1o e 2o ; 1o e 3o ; 2o e 3o ; che danno, rispettivamente:
3/4
δ2 = ε , δ2 = ε , δ2 = ε . Ne seguono sette possibilità per δ2 :
Di queste: la 1a e la 2a rendono δ2 ∼ δ1 e quindi da scartare. La 3a produce ε1/2 δ2 ≫ δ22 ≫ ε3/2 , e quindi solo
il primo termine dominante nella (1.4), che darebbe x2 = 0 e quindi in tal caso la successione non migliora. La 4a
implica che gli ultimi due termini della (1.4) bilanciano fra loro ma non sono dominanti, e quindi ancora x2 = 0 .
Anche la 5a assegna come dominante il solo primo termine, e la 7a assegna il solo secondo. Rimane pertanto solo
la 6a possibilità, che permette di porre (come scelta più semplice) δ2 = ε , scartare il secondo termine della (1.4),
e ricavare x2 = 1/2 . Se ne conclude la x(1) ∼= 2 + ε1/2 + ε/2 e, in definitiva, le tre radici
x(1) ∼
= 2 + ε1/2 + ε/2 , x(2) ∼
= 2 − ε1/2 + ε/2 , x(3) ∼
= 3 − ε/2 .
N.B. 6.1.17 Talvolta il metodo si applica anche a problemi per i quali la soluzione imperturbata: ε = 0 non esiste.
In tal caso può essere necessario ammettere limε→0 δ0 (ε) = ∞; il problema allora viene detto (generalmente)
singolare. ♦
N.B. 6.1.18 Il metodo può diventare molto laborioso, e quindi essere preferibile il ricorso ad altri, ancora più
potenti, quali ad esempio la stiramento (o “straining”) delle coordinate. Se ne esamineranno alcuni esempi più
avanti. Qui di seguito, invece, si accenna ad uno in particolare, di grande interesse anche per altri suoi sviluppi
successivi. ♦
Esempio 6.1.19 Un particolare straining di coordinate è quello che definisce a priori un cambio di coordinate, che
sembri il più opportuno e che magari sia suggerito da altri procedimenti quale il precedente Bilancio Dominato.
Per illustrarlo, si consideri l’equazione
φ(x, ε) = (x − 1)3 + ε x = 0 . (1.5)
Inserendovi la x ∼
= 1 + x1 δ1 si ricava x31 δ13 + ε = 0 da cui δ1 = ε1/3 ed x1 = −1 .
A questo punto, invece di considerare lo straining: x = 1 − ε1/3 , e cioè x1 costante, si introduce la
trasformazione di coordinate x↔y data da: x =: 1 + y ε1/3 .
Attenzione. La trasformazione vale in senso esatto, e non approssimato.
La trasformazione x = x(y) nella (1.5) fornisce εy 3 + ε + ε4/3 y = 0 ; per cui è opportuno introdurre una nuova
variabile asintotica: µ := ε1/3 ed un nuovo problema dato da:
ψ(y, µ) = y 3 + 1 + µ y = 0 . (1.6)
A partire dall’unica soluzione reale della (1.6) imperturbata, si prova con y! := −1 + y1 µ + y2 µ2 + ... + yk µk nella
(1.6) (non essendoci necessità di eventuali gauges µh ) i cui coefficienti restano valutati con facilità, e permettono
di esprimere la ricercata soluzione dalla (1.5) nella forma
All’occorrenza si possono usare più di una scala per studiare le diverse soluzioni, anche a seconda delle loro
caratteristiche, e adattare una propria scala a ciascuna di esse, come nel prossimo esempio.
Esempio 6.1.20 Si consideri l’equazione
φ(x, ε) = x3 + ε x + 2ε2 = 0 . (1.7)
√
Il metodo del bilancio dominato avrebbe necessità di due scelte per la prima gauge: δ1 = −ε e δ1 = ε . Infatti,
inserendovi la x ∼ = 0 + x1 δ1 si ricava x31 δ13 + x1 ε δ1 + 2ε2 = 0 da cui δ1 = ε1/2 (primi due termini), oppure
2/3
δ1 = ε (primo e terzo), oppure δ1 = ε (ultimi due). La seconda, pur distintiva perché permette di bilanciare
√
il primo ed il terzo termine, non è significativa perché entrambi
√ non dominanti.
√ La prima fornisce x1 = ± −1 e
quindi soluzioni accettabili solo per ε < 0 , ovvero x(1) ∼ = −ε e x(2) ∼ = − −ε; l’ultima fornisce x(3) ∼= −2ε .
Invece del precedente procedimento in questo esempio si può√ seguire il metodo del cambio di coordinate, che ha
necessità di una sola scala. Infatti, se si introducono la µ := −ε insieme con x =: µ y nella (1.7) questa diviene
ψ(y, µ) = y 3 − y + 2µ = 0 . (1.8)
La (1.8) imperturbata ammette tre soluzioni reali semplici: y = ±1 e y = 0 , a partire dalle quali si ricavano le
serie di potenze:
y (1) = 1 − µ + O(µ2 ) , y (2) = −1 − µ + O(µ2 ) , y (3) = 0 + 2µ + O(µ2 ) .
√
Queste permettono di esprimere le ricercate soluzioni della (1.7) nella forma x = ε y . Queste però contrariamente
alle y (1,2,3) sussistono solo per valori negativi della ε . A tale proposito si noti che, ad esempio se non si fosse riusciti
a determinare anche la terza radice con la stessa µ usata per le altre due, si sarebbe potuto ricorrere all’altra δ1 ,
e cioè porre µ := ε . Si sarebbe ottenuto y (3) = −2ε + O(ε2 ) e cioè un risultato migliore del precedente, dato che:
• ha errore più piccolo: O(ε2 ) invece di O(|ε|3/2 );
• non adopera potenze razionali ma solo intere;
• individua la y (3) anche per ε > 0 . #
M. Lo Schiavo
6.1. Gli sviluppi asintotici 315
Qui di seguito viene illustrato un ulteriore esempio di uso del metodo del bilancio dominato in un caso nel quale
la soluzione non ammette uno sviluppo in serie di potenze. Si tratta infatti di una E.D.O. ordinaria lineare con un
punto singolare irregolare. Il metodo si applica come segue.
cioè tale che almeno una delle due funzioni: la (ξ − ξ0 ) p(ξ) oppure la (ξ − ξ0 )2 q(ξ) è non analitica in ξ0 .
• Si pone x(ξ) =: eσ(ξ) , ove σ(ξ) è detto Fattore di Controllo, e si ottiene
σ ′′ + (σ ′ )2 + p(ξ)σ ′ + q(ξ) = 0 ;
• Di questa equazione si trascurano i termini piccoli per ξ → ξ0 e cioè si bilanciano i soli termini dominanti
[con ξ0 irregolare si può pensare ad un andamento in ξ0 del tipo: σ(ξ) ∼ (ξ − ξ0 )−α con α > 0 , e di
2
conseguenza σ ′′ /σ ′ ∼ (ξ − ξ0 )α = o(1)], e si risolve l’equazione cosı̀ ottenuta, controllando che la sua
2
soluzione σ0 (ξ) sia effettivamente tale da verificare l’assunto σ ′′ ≪ σ ′ , e/o le altre ipotesi fatte.
• Si pone σ0 := σ e calcola il termine correttivo sostituendo x(ξ) = eσ0 (ξ)+σ1 (ξ) nell’equazione iniziale, di nuovo
risolvendola rispetto a σ1 , (magari in modo approssimato)
• Si continua in tal modo fino a che il punto ξ0 risulti non più irregolare, oppure finché si sappia risolvere in
modo esatto ciò che rimane.
• Con un pò di fortuna la soluzione resta espressa o, almeno, localmente ben approssimata dalla
@∞ A
=
[σ0 (ξ)+σ1 (ξ)+...] α+n
x(ξ) ∼ e ai (ξ − ξ0 ) con a0 = 1, ed α > 0 .
n=0
ξ 3 x′′ = x , in ξ0 = 0 . (1.9)
C∞
Se esistesse una serie di Frobenius: n=0 an ξ α+n con a0 ̸= 0 e soluzione dell’equazione data, si avrebbe
∞
= ∞
=
(α + n)(α + n − 1)an ξ (α+n+1) = an ξ (α+n) ;
n=0 n=0
α
tuttavia, la presenza di un unico termine di grado α : a0 ξ contraddice l’assunto a0 ̸= 0 .
Se invece si prova con la x(ξ) ∼= eσ(ξ) si ha
2
ξ 3 (σ ′′ + σ ′ ) = 1 (1.10)
2
e questa fa sperare che sia plausibile il tentativo: σ0′ (ξ) ∼ ξ −3 . Se ne ricava σ0 (ξ) ∼ ±2ξ −1/2 , che in effetti
2
verifica la σ ′′ = ± 23 ξ −5/2 ≪ ξ −3 = σ ′ . Si sono cosı̀ trovate le due soluzioni indipendenti, e quindi la soluzione
generale, in via approssimata.
Si assume poi che per ciascuna delle due σ0 (si inizi con σ0 = +2ξ −1/2 ) la σ ammetta uno sviluppo del tipo:
Sostituendo ancora la x(ξ) = eσ(ξ) nell’equazione iniziale (1.9), e quindi in questo esempio sostituendo la (1.11)
nella (1.10), si ha
3 −5/2 2
ξ + σ1′′ + ξ −3 − 2ξ −3/2 σ1′ + σ1′ = ξ −3 . (1.12)
2
Ma è σ0 (ξ) ∼ ξ −1/2 , dunque ha senso assumere σ1 ∼ ξ β−1/2 con β > 0 e ricavarne la stima σ1′ ∼ ξ β σ0′ che
implica σ1′ ≪ ξ −3/2 . Pertanto non solo il secondo ma anche l’ultimo addendo nella (1.12) sono subdominanti, e
rimane la condizione
3 −5/2 3
ξ ∼ 2ξ −3/2 σ1′ che fornisce: σ1 (ξ) ∼ ln ξ .
2 4
Si controlla infine che questa stima fornisca σ1′′ (ξ) ∼ − 43 ξ −2 ≪ ξ −5/2 e che in effetti sia 3
4 ln ξ ∼ σ1 ≪ 2ξ −1/2 .
3 −2 2 3
− ξ + σ2′′ + σ2′ − 2ξ −3/2 σ2′ + ξ −1 σ2′ = 0.
16 2
3 1/2
In questa, il primo ed il quarto addendo sono dominanti, e si ricava quindi σ2 (ξ) ∼ − 16 ξ + cost .
Contrariamente ai termini già trovati, questa assegna alla x = x(ξ) un fattore indipendente dalla ξ ed uno correttivo
piccolo per ξ piccole.
Tale σ2 non viene compresa nello sviluppo di σ(ξ). Al contrario, prevedendo di dover trovare un termine
moltiplicativo del tipo w(ξ) = cost + o(ξ), si sostituisce nell’equazione (1.9) la particolare forma
) *
3
x(ξ) = w(ξ) · exp 2ξ −1/2 + ln ξ .
4
Di questa si calcola la soluzione mediante la sostituzione diretta di una serie sul tipo di quelle di Frobenius, ma
per intuire la quale occorre ancora un pò di lavoro, di nuovo mediante l’uso del bilancio dominato giacché l’origine
è ancora singolare irregolare.
Si ricava dapprima una stima dell’errore: e(ξ) := 1 − w(ξ) ed infine la
∞
= −1
w(ξ) = 1 + an ξ n/2 con an = Γ(n − 12 ) Γ(n + 32 ) .
n=1
π4n n!
√
È disperante a questo punto riconoscere, servendosi della identità Γ( 12 ) = π , che:
' ' ' '
' an ' ' 16(n + 1) '
tale serie ha raggio di convergenza '
ρ = lim ' ' '
= lim ' '=0.
n→∞ an+1 ' n→∞ (2n − 1)(2n + 3) '
che l’approssimazione ) *
√ 3 1/2
bd 2/ ξ 3/4
x (ξ) = e ξ 1− ξ ,
16
paragonata con la soluzione (in questo esempio) per x(1) = 6, x′ (1) = −0.3 , e calcolata in modo numerico,
sia particolarmente accurata. In figura è tracciato in tratteggio il grafico della funzione xbd (ξ) calcolata con il
bilancio dominato, e quello tracciato in linea continua della soluzione xnum (ξ) della stessa equazione, trovata con
metodi numerici.
500000
400000
300000
200000
100000
M. Lo Schiavo
6.1. Gli sviluppi asintotici 317
√ √
Il seguente grafico mostra i primi due termini correttivi: x(1) :=
√e
2/ ξ
e x(2) := e2/ ξ 3/4
ξ , insieme con il fattore
(3)
dovuto all’uso del procedimento di Frobenius: x := (1 − 3 ξ /16).
500000
x(2) x(1) 0.2 0.4 0.6 0.8 1
400000 0.975
0.95
300000
0.925
200000 0.9
0.875
100000
0.85
x(3)
0.825
0.02 0.03 0.04 0.05
0.8
#
Il successivo esempio applica il metodo del bilancio dominato a un caso nel quale esso non è strettamente
necessario, tuttavia mostra che, come nell’esempio precedente, con esso si possono ottenere informazioni ulteriori
non facilmente ricavabili con altri metodi.
C∞
Esempio 6.1.22 La funzione x(ξ) = n=0 ξ n /(n!)2 è definita per ogni ξ ∈ R, ma per ottenerne una buona
approssimazione per ξ grandi occorrono molti termini: per esempio per ξ ∼ 10000 occorrono circa 150 termini.
Se invece si nota che essa è soluzione dell’equazione
ξ x′′ + x′ = x
con ξ 1/2 ≫ 1 , e σ1 (ξ) ≪ ξ 1/2 ; per esempio: σ1 ∼ ξ 1/2−β con β > 0 implica le stime ξσ1′ (ξ) ≪ ξ 1/2 ,
′′ −1/2
e ξσ1 (ξ) ≪ ξ . o o
Pertanto sono dominanti il 3 e 4 termine, che forniscono σ1 = −ξ −1 /4 e cioè
′
l’approssimazione asintotica
1/2
xaa (ξ) ∼ c ξ −1/4 e2ξ
che è uno sviluppo assai più veloce della serie precedente.
Cm n 2 (1)
In figura sono tracciati i grafici di due somme n=0 ξ /(n!) , la x con m = 100 termini e la x(2) con
m = 110 termini; quest’ultima è praticamente identica a quelle che si ottengono per valori superiori della m.
1/2
Insieme con esse è tracciato il grafico dell’approssimazione
C∞ asintotica x(3) := cξ −1/4 e2ξ per c = x(1)/e2 , valore
che la rende in ξ = 1 uguale alla x(1) = n=0 1/(n!)2 .
x(2)
8·10
84
x(3) x(1)
84
6·10
84
4·10
84
2·10
Nelle espressioni appena viste, come d’altra parte nel metodo di Frobenius, la differenza (ξ − ξ0 ) fra la variabile
indipendente ed il suo valore di riferimento, ha il ruolo di parametro piccolo.
N.B. 6.1.23 In generale, nell’uso dei metodi perturbativi il primo problema da risolvere è proprio quello di
procurarsi il parametro piccolo, ε , rispetto al quale eseguire lo sviluppo asintotico. Spesso la natura stessa del
problema è tale da permettere di individuare la ε fin dall’inizio, ma questo non è sempre il caso, né è sempre
evidente quale debba essere la successione di funzioni d’ordine δn (ε) rispetto alle quali calcolare la serie asintotica.
A tale scopo, è buona pratica “riscalare” le coordinate in modo da scrivere il problema rispetto a delle variabili
adimensionali. Successivamente si cerca di stabilire quale dei parametri o dei coefficienti sia, o sia opportuno
considerare, nettamente più piccolo degli altri presenti. Si passa poi ad applicare il particolare metodo prescelto
mantenendosi costantemente in contatto con il problema iniziale, e ciò al fine anche di evitare vertiginosi quanto
inutili calcoli. ♦
Si riassumerà qui brevemente la logica del principale procedimento usato negli esempi visti sopra, per poi poterlo
correggere all’occorrenza quando esso si dimostri poco attendibile.
Si indichi con P un problema assegnato, e che dipenda dal parametro ε ; (solo per fissare le idee si può pensare
a quello delle (1.1) più sopra, ma la tecnica vale comunque purché sussista una qualche forma di dipendenza continua
dai parametri). Si chiami poi P 0 il problema che si ricava quando in P si pone ε = 0 .
Il problema P 0 si sa risolvere e fornisce una certa soluzione φ0 che si è in grado di valutare e può essere quindi
usata come punto di partenza.
Si noti che questa ipotesi può essere interpretata come un ulteriore vincolo sulla scelta della ε .
Accettata l’ipotesi detta, generalmente si inizia con il seguente metodo, del quale gli altri possono essere intesi
come “correzioni”.
(iv) Si sostituisce questo sviluppo nell’originario problema P e si eseguono le varie operazioni presenti in esso
(cosa lecita dato che lo sviluppo è ad un numero finito di termini).
(v) Si determinano “in cascata” le funzioni φn richiedendo che esse verifichino il problema singolarmente ad ogni
ordine delle δn : n = 1, 2, . . . , m.
Tale richiesta equivale ad assumere che il presunto sviluppo sia effettivamente un’approssimazione asintotica
alla φ almeno fino all’ordine m .
N.B. 6.1.24 Il procedimento è semplice; il difficile è decidere quale sia il migliore m al quale arrestarlo, e quale
ne sia la validità rispetto alla variabile ξ . ♦
M. Lo Schiavo
6.1. Gli sviluppi asintotici 319
♦
N.B. 6.1.26 Generalmente le funzioni φn (ξ, ε) si cercano indipendenti dalla ε; anzi si parla di:
Sviluppo Regolare, o Uniforme, in D0 := uno sviluppo per il quale esistono {φn }n=1,2,... dipendenti dalla
sola ξ , tali che le ∥φn (ξ)∥D0 siano limitate in D0 e per n = 1, ..., m, e che sussista la
m
=
φ(ξ, ε) = φn (ξ) δn (ε) + o(δm (ε)) , n = 1, 2, . . . m. (1.13)
n=0
Sviluppo Singolare, in D0 , (lo sviluppo non il problema), := uno sviluppo per il quale, da un certo n0 in
poi, la seconda delle (1.13) non è più verificata. Tipicamente ciò accade in certe regioni del dominio D0 nel
quale la variabile ξ assume valori; per esempio per ξ “grandi”, oppure lungo linee di frontiera, dette Zone di non
uniformità. In tal senso lo sviluppo si può indicare come “non uniforme”. ♦
Si esamini ora il seguente esempio, di natura quasi universale, nel quale si applica il metodo diretto. In esso e
nel seguito verrà usata la notazione: vε per indicare la ∂ε v(x, ε) e analogamente vx per indicare ∂x v(x, ε), etc.
Inoltre, la successione {δn }n=0,1,2,... è a priori la successione dei monomi {εn }n=0,1,2,... . Infine, si farà generalmente
riferimento alla risoluzione di una E.D.O. rispetto alla variabile temporale t, ma è chiaro che questo servirà solo a
titolo esplicativo.
ESEMPIO PILOTA
Sia x appartenente ad un opportuno spazio funzionale X il cui spazio dei valori abbia la struttura di varietà n-
dimensionale. Sia v(x, ε) : X × N (0) → Tx X una famiglia di campi vettoriali dipendente dal parametro ε ∈ R1 ;
e sia L : X → X un operatore lineare sulla x e indipendente dalla ε . L’operatore L sia regolare rispetto a una
variabile indipendente ξ che, anche in vista delle applicazioni che si faranno nel seguito, verrà qui assunta scalare
reale, e generalmente indicata con la lettera t per intendere il tempo in un problema dinamico; è chiaro tuttavia
che il procedimento si estende anche al caso di variabili più generali o vettoriali. Il caso ε ∈ Rm , cosı̀ come quello
non autonomo: v = v(t, x; ε) è meno semplice, anche se spesso solo nella notazione, e verrà tralasciato.
Sia dato il problema P , da risolversi nello spazio X:
(
L(x) = v(x, ε)
Problema P : (1.14)
b(x, ε) = 0
ove b(x, ε) = 0 indica un insieme di condizioni iniziali e/o al contorno necessarie affinché il problema P risulti ben
posto, e cioè ammetta in X soluzione (incognita, esatta) x = x &(·, ε) unica e dipendente in modo regolare dai dati.
&(·, 0) =: x0 (t), soluzione del problema “imperturbato”, generalmente non lineare,
(i) Si calcola la funzione x = x
(
L(x) = v(x, 0)
Problema P0 :
b(x, 0) = 0 .
; < ; <
(ii) Scelta, per cominciare, la comoda successione dei monomi δk (ε) = εk , si ipotizza
k=1,2,... k=1,2,...
(iv) Con l’aiuto del N.B. 6.1.27, più oltre, si ottiene (al secondo ordine e con tutte le derivate calcolate in (x0 , 0))
x) = L(x0 ) + εL(x1 ) + ε2 L(x2 )
L(!
0 1 1 0 N O 1
= v(x0 , 0) + ε x1 vx + vε + ε2 x21 vxx + 2 x2 vx + x1 vxε + vεε .
2
; <
(v) Di questa si cercano le soluzioni, e cioè le funzioni xi che rendono vera la presupposta identità
i=0,1,...
(1.15). A tale scopo occorre individuare le opportune condizioni ausiliarie, come segue.
(vi) Un analogo procedimento si esegue sulle condizioni ausiliarie, sulle quali si agisce come fatto sul campo v
ottenendo (al secondo ordine e con tutte le derivate calcolate in (x0 , 0))
(vii) Se ne ricava la successione di problemi tutti lineari, e distinti fra loro solo per i termini noti, nei quali le
derivate del campo sono tutte calcolate per x = x0 (t) e ε = 0 , e pertanto sono tutte funzioni note della
(sola) variabile indipendente t. Il primo, dopo il P 0 , è il problema
(
L(x1 ) = vx x1 + vε
Problema P1 : (1.16)
con condizioni ausiliarie sulla x all’ordine Os (ε)
dal quale si determina la particolare funzione x1 = x1 (t) che verifica le specificate condizioni iniziali. Questa,
insieme con la x0 = x0 (t) permette di scrivere il successivo problema al secondo ordine:
⎧ N O
⎨ L(x ) = v x + 1 x2 v + 2x v + v
2 x 2 1 xx 1 xε εε
Problema P2 : 2
⎩
con condizioni ausiliarie sulla x all’ordine Os (ε2 )
del quale si calcola la soluzione x2 = x2 (t). Poi, mediante le x0 (t), x1 (t), x2 (t), si scrive il problema al
terzo ordine:
⎧
⎪ 1N 3
⎪
⎪ L(x3 ) = vx x3 + x vxxx + 6x1 x2 vxx
⎨ 6 1 O
Problema P3 : +3x21 vxxε + 6x2 vxε + 3x1 vxεε + vεεε
⎪
⎪
⎪
⎩
con condizioni ausiliarie sulla x all’ordine Os (ε3 )
N.B. 6.1.27 La struttura dei calcoli è molto semplice: indicando brevemente con x(ε) la funzione x( · , ε), e
cioè sottointendendo l’insieme delle variabili indipendenti del problema L(x) = v(x), indicando con gli apici le
derivate totali rispetto alla variabile asintotica ε :
d d2
x′ := x(ε) , x′′ := x(ε) , etc,
dε dε2
indicando con i deponenti le derivate parziali, e con i campi calcolati in (x(ε), ε), quando v = v(x) si hanno le
⎧ ′
⎨ v (x(ε)) = vx xε
⎪
v ′′ (x(ε)) = vxx x2ε + vx xεε
⎪
⎩ ′′′
v (x(ε)) = vxxx x3ε + 3vxx xε xεε + vx xεεε .
M. Lo Schiavo
6.1. Gli sviluppi asintotici 321
!ε (0) = x1 ,
x !εε (0) = 2! x2 ,
x !εεε (0) = 3! x3 ,
x etc.
N.B. 6.1.28 La linearizzazione studia solo il termine x1 = x1 (t) con l’equazione variazionale (1.16). ♦
N.B. 6.1.29 Data la complessità della espressione generale, la cosa migliore è senz’altro ripetere volta per volta i
passaggi (i), . . . , (iv) sul particolare problema in esame. ♦
I seguenti due esempi mostrano che, sebbene la struttura vista sopra sia del tutto generale, tuttavia non è l’unica
possibile nell’uso degli sviluppi asintotici, e può essere ulteriormente adattata ai singoli problemi in esame.
Esempio 6.1.30 Trovare le soluzioni dell’equazione algebrica:
x3 − 4.001x + 0.002 = 0 .
x3 − (4 + ε)x + 2ε = 0
le cui soluzioni ordine zero sono: x0 = {−2, 0, +2}. Posto poi x = x0 + εx1 + ε2 x2 , si ricava (all’ordine
2)
x30 + 3x20 x1 ε + 3x0 x21 ε2 + 3x20 x2 ε2 − 4x0 − 4εx1 − 4ε2 x2 − εx0 − ε2 x1 + 2ε = 0 .
Per x0 = −2 , per esempio, questa fornisce
ẍ = εf (t)x
Se ne ricava: x0 = t + 1 ; e siccome d2 /dt2 è lineare ne segue la catena di equazioni, risolubili per integrazione
semplice,
ẍn = f (t) xn−1 n = 1, 2, . . . .
Per esempio si ha - t- - t-
s s
x1 (t) = (1 + ς)f (ς)dςds , xn+1 (t) = xn (ς)f (ς)dςds .
0 0 0 0
A solo titolo di esempio per mostrare la bontà delle approssimazioni cosı̀ trovate, in figura vi sono i grafici delle
funzioni trovate con il metodo detto (linea piena) e di quelle valutate numericamente (tratteggio) per tre diversi
valori della funzione coefficiente f (t).
2.2 2.2 2.2
2 2 2
0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1
m x′′ + η x′ + κ x = 0 , ove: “ ′
:= d/dτ ” , e con x(0) = 0, ẋ(0) = 1 .
/ η η
Si divida per m e si definiscano ω0 := k/m e (per futuri usi) ε := ≡ √ . Si ottiene la:
2mω0 2 mκ
η ′
x′′ + x + ω02 x = x′′ + 2 ε ω0 x′ + ω02 x = 0 . (1.17)
m
Successivamente, si può ulteriormente dividere tale equazione per ω02 , e riscalare la variabile temporale: ω0 τ &→ t.
In tal caso si ottiene il
(
ẍ + 2εẋ + x = 0
Problema P :
x(0) = 0 , ẋ(0) = 1 .
M. Lo Schiavo
6.1. Gli sviluppi asintotici 323
In definitiva, il metodo perturbativo diretto fornisce per l’incognita x &(t, ε) la seguente somma asintotica a tre
termini (e quindi a meno di o(ε2 )):
1 7 8
xdir (t, ε) := sin t − εt sin t + ε2 t2 sin t − t cos t + sin t .
2
Quello trovato è uno sviluppo regolare, ma solo fintanto che t sin t è dell’ordine dell’unità. Ciò significa che per
t > Os (1) lo sviluppo non è uniforme e l’errore commesso diviene sensibile.
In questo esempio il tutto si può paragonare alla soluzione esatta, infatti l’ansatz: zeαt con α2 + 2εα + 1 = 0
ed ε < 1 fornisce
0/ 1 /
&(t, ε) = ae−εt sin
x 1 − ε2 t + ϕ0 ove a = 1/ 1 − ε2 , ϕ0 = 0 , (1.18)
che è analitica in (t, ε) ∈ R × (0, 1) e pertanto ammette un’unico sviluppo in serie di potenze della ε e valido per
ogni t. I suoi primi termini sono forniti (si veda il prossimo N.B.) dalla:
) *) *) *
1 1 1
&app (t, ε) = 1 + ε2
x 1 − εt + ε2 t2 sin t − ε2 t cos t , (1.19)
2 2 2
la quale all’ordine O(ε2 ) uguaglia esattamente lo sviluppo xdir trovato sopra.
N.B. 6.1.34 In questo e nei seguenti calcoli verranno adoperati i noti sviluppi, validi per piccoli valori della
variabile:
1 2 1 3 1 4
ln(1 + ε) ∼ ε − ε + ε − ε + ...
2 3 4
1 3 1 5
sin ε ∼ ε − ε + ε − ...
3! 5!
√ 1 1
1 − ε ∼ 1 − ε − ε2 − . . .
2 8
1 1 3
√ ∼ 1 + ε + ε2 + . . .
1−ε 2 8
1
∼ 1 − ε + ε2 − . . .
1+ε
e quindi, in particolare
) 0 *
/ ε2 1 0 ε2 t 1 0 ε2 t 1 1
2
sin( 1 − ε t) ∼ sin t 1 − ∼ sin t cos − sin cos t ∼ sin t − ε2 t cos t .
2 2 2 2
♦
In figura sono riportati i grafici delle funzioni x0 , ε x1 , ed ε2 x2 /2 , valutate per ε = 0.01 ; la loro somma è xdir .
1 1 1
0.75 0.75 0.75
0.5 0.5 0.5
0.25 0.25 0.25
Nella successiva figura sono invece riportati, in corrispondenza a due valori della ε , i grafici delle due funzioni: la
&(t, ε) del problema, e lo sviluppo xdir (t, ε).
soluzione esatta x
1 3
0.75 2
dir
0.5 x xdir
1
0.25 e(t; ")
x e(t; ")
x
20 40 60 80 100 120 140 10 20 30 40
-0.25
-1
-0.5
-0.75 -2
-1 -3
" = 0:01 ; t 2 [0:0; 150:0] " = 0:1 ; t 2 [0:0; 40:0]
Nell’Esempio 6.1.32 si è incorsi in uno sviluppo non uniforme; ciò comporta che, per t grandi, è necessario
correggere il metodo diretto con altri metodi. Danno risultati accettabili, per quel sistema, i metodi di Media, di
Stiramento delle coordinate, di Scale Multiple (vedi oltre).
Esempio 6.1.35 L’equazione di Lighthill
(
(t + εx)ẋ + x = 1 t ∈ [0, 1]
(1.20)
x(1) = 2
L’equazione è debolmente non lineare, ma la ε moltiplica il termine di ordine massimo, e il problema perturbativo
rientra allora fra i cosiddetti Problemi di perturbazioni singolari; (quello in esame, tuttavia, è debolmente singolare
giacché non riduce l’ordine del problema differenziale).
Si noti subito, dal punto
' di vista qualitativo, che l’equazione permette di valutare esplicitamente la ẋ(1) =
[(1 − x(t))/(t + εx(t))] 't=1 < 0 e quindi di concludere che la x &(t, ε), che è positiva in t = 1 , cresce quando t
decresce dal valore 1 verso lo zero; infatti il denominatore non cambia segno né lo fa il numeratore. Tuttavia,
siccome su [0, 1] la ẋ è limitata (il valore minimo del suo denominatore in quella zona è 2ε ), ci si aspetta che tale
sia anche la x& . Si osservi poi che la parte non lineare della equazione è il solo termine
ε d 7 82
εxẋ = x0 + εx1 + ε2 x2 + . . .
2 dt) ) ** (1.21)
d x2 x2
= ε 0 + ε2 x0 x1 + ε3 x0 x2 + 1 + o(ε3 )
dt 2 2
circostanza, questa, che in questo esempio permette la risoluzione analitica dell’intera (1.20). È questo un caso
assai raro, che sarà di grande utilità per meglio interpretare alcuni dei metodi perturbativi che verranno usati per
correggere il metodo diretto.
Si cominci con quest’ultimo metodo. Servendosi della (1.21) il primo membro della (1.20) vale (all’ordine ε3 ):
) * ) *
d x20 d 0 1 d x2
t(ẋ0 + εẋ1 + ε2 ẋ2 + ε3 ẋ3 ) + (x0 + εx1 + ε2 x2 + ε3 x3 ) + ε + ε2 x0 x1 + ε3 x0 x2 + 1
dt 2 dt dt 2
M. Lo Schiavo
6.1. Gli sviluppi asintotici 325
1
ovvero tx2 + cost = −x0 x1 da cui x2 = (1 − t2 )(1 + 3t).
2t5
Allo stesso modo, e data la
) * ) 2 *
10 12 ξ2 ξ12 ξ2
ξ0 + ξ1 ε + ξ2 ε2 + ξ3 ε3 ∼ 0 + ξ0 ξ1 ε + 2 3
+ ξ0 ξ2 ε + (ξ1 ξ2 + ξ0 ξ3 )ε + + ξ1 ξ3 ε4 + O(ε5 )
2 2 2 2
si trovano:
tx3 + cost = −(x0 x2 + x21 /2) , e tx4 + cost = −(x0 x3 + x1 x2 ) ;
e quindi
1 1
x3 (t) = − (1 − t)(1 + 3t)(5 + 10t + t2 ) e x4 (t) = (1 − t2 )(1 + 3t)(7 + 14t − 5t2 ) .
8t7 8t9
In definitiva, e sostituendovi queste ultime relazioni, risulta
2
1+t (1 − t)(1 + 3t) 2 (1 − t )(1 + 3t)
xdir (t) = −ε + ε + ε3 x3 (t) + ε4 x4 (t) + o(ε4 ).
t 2t3 2t5
Nella seguente figura la xdir è tracciata insieme alle varie correzioni per ε = 0.01 , ed alla soluzione esatta x
&(t).
14 (0) x0
12 (2) x 0 + " x1 + "2x 2
(4)
10 (4) x 0 + " x1 + "2x 2
() (2) + " 3x3 + "4x 4
8 *
(*) x
e(t)
(0)
6 (1) x 0 + " x1
4 (3) x 0 + " x1 + "2x 2 + " 3x 3
2 (1) (3)
) *
d 1 2
soluzione esatta. Quest’ultima, come si è notato, si determina esplicitamente risolvendo la tx + εx − t = 0 ,
dt 2
ed è: a) *
2 ) *
t t 1+t
&(t, ε) = − +
x +2 +4 .
ε ε ε
Da questa si vede che la x &(t, ε) è del tutto regolare su [0, 1], è limitata (per ε ̸= 0 ), e diviene tanto più singolare
quanto più piccola è la ε . Il procedimento ha trasferito le singolarità della derivata ẋ, che si trovano sulla retta
t + εx = 0, alla “soluzione” stessa e all’interno della regione in esame, e cioè per t = 0 . Lo sviluppo diretto
fallisce per t ∼ 0 .
È opportuno d’altra parte riconoscere che in virtù della
/ ξ1 0 ξ2 ξ2 1 2 0 ξ13 ξ1 ξ2 ξ3 1 3
1 + ξ1 ε + ξ2 ε2 + ξ3 ε3 ∼ 1 + ε + − 1 + ε + − + ε + o(ε3 )
2 8 2 16 4 2
la soluzione esatta x&(t, ε) ammette il seguente sviluppo in serie rispetto alla ε e fintanto che la t rimane Os (1)
@ T A + ,
t 2ε 0 1 1 4ε2 t ε0 1 1 ε2 0 0 1 12 1
&(t, ε) =
x −1 + 1 + 1+ + 2 ∼ 1+ + 2 4− 1+
ε t t t ε t t 2t t
Metodo di Lindstet
Si inizierà qui con una breve giustificazione del metodo di Lindstet, un metodo che ha particolare rilievo in problemi
per i quali ci si aspetta una soluzione periodica, o strettamente o approssimativamente, rispetto a un qualche periodo
T . Il periodo stesso può essere noto a priori o incognito, e in entrambi i casi può o meno dipendere dal parametro
asintotico ε . Per tali sistemi le soluzioni (periodiche o approssimativamente tali) sono generalmente descritte in
modo non corretto dal metodo perturbativo diretto, che fornisce per esse soluzioni approssimate contenenti termini
non uniformi rispetto a t, e cioè termini secolari. Un tipico esempio può essere il seguente:
con la funzione f periodica di periodo T(ε) rispetto al tempo, o indipendente da esso, e quindi comunque f ∈
Per(T(ε)) per la variabile t; per quanto riguarda le altre variabili, la funzione f si intenderà regolare quanto basta.
N.B. 6.2.1 In via del tutto preventiva, è conveniente notare che una E.D.O. lineare del tipo ẍ + a ẋ + b x = 0
può essere convenientemente trasformata in una che, sebbene ad essa equivalente, non contiene il termine di
smorzamento (quello proporzionale alla derivata prima). Inoltre, se il secondo coefficiente: a è piccolo rispetto al
terzo: b , l’equazione equivalente ha carattere oscillatorio o iperbolico a seconda del segno del solo coefficiente b .
Si osserva infatti che
(
l’equazione ẍ + a ẋ + b x = 0
at/2
diviene: e−at/2 (z̈ + c z) = 0 .
con: z(t) := e x(t) , c := b − a2 /4 ♦
M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 327
N.B. 6.2.2 Sia φ(t, ε) una funzione regolare ed in Per(T) per ogni ε ∈ (0, ε+ ], con T indipendente dalla ε . Un
qualsiasi troncamento del suo sviluppo di Taylor (rispetto alla ε ) è anche uno sviluppo asintotico uniforme rispetto
alla t. Il metodo di Lindstet vuole servirsi di questa particolarità anche nel caso di periodi T = T(ε). A tale scopo,
ed in questo caso, il metodo propone una trasformazione della coordinata (indipendente):
mediante la quale si trasforma l’assegnata funzione φ nella ψ data da: ψ(τ, ε) := φ(τ /ω, ε). In tal modo
risulta
φ(t, ε) ∈ Per(T(ε)) ⇐⇒ ψ(τ, ε) ∈ Per(2π) ,
infatti:
τ (t) + 2π = ω t + 2π = (t + T)ω = τ (t + T) e quindi
φ(τ (t)/ω) = φ(τ (t + T)/ω) = ψ(τ + 2π) .
Ciò comporta che se uno sviluppo della funzione φ(t, ε) esiste (troncato a qualche k ) della forma:
Il fatto che la φ sia in Per(T(ε)) implica che tale sviluppo, pur non essendo uno sviluppo ordinario e cioè pur
avendo le funzioni ψk ancora dipendenti dal parametro asintotico ε , eppure risulta uno sviluppo (generalizzato)
uniforme rispetto alla τ (data la 2π -periodicità della ψ ) e quindi rispetto alla t. In più, e ancora per il fatto che
2π non dipende da ε , si conclude anche che ciascuna delle funzioni ψk (τ ) è in Per(2π). È chiaro però che la
pulsazione ω deve essere “esatta”, e cioè esattamente uguale alla pulsazione della funzione φ. ♦
Quando si voglia usare lo sviluppo di Lindstet in un problema del quale si ignori (insieme alla soluzione esatta
del problema anche) l’esatta pulsazione, il precedente N.B. può essere ancora di aiuto. Infatti, occorrendo ora
approssimare anche la pulsazione ω mediante la ω ! (ε) := ω0 + ε ω1 + ε2 ω2 + ... + εk ωk , in generale diversa dalla
esatta ω del problema, si conclude che la differenza fra la soluzione esatta x & e quella approssimata x ! non rimane
costante ma cresce, a partire dall’istante t0 = 0 , secondo la funzione lineare τ = ω t. Tuttavia ciò accade solo
all’interno dell’intervallo di periodicità, se questo esiste. D’altra parte, l’assunta regolarità della soluzione (anche
approssimata) ed il teorema di Taylor assicurano che
' '
! ''
'∂ x
esistono ℓ := max ' ' e una costante c0 > 0
τ ∈[0,2π] ∂ τ '
ε∈(0,ε+ ]
tali che |!
x(ω t) − x ω t)| < c0 ℓ εk+2 |t| .
!(!
|&
x(ω t) − x ω t)| < c1 εk+1 + c0 ℓ εk+2 |t| ≤ (c1 + c0 ℓ L)εk+1 ,
!(!
purché i tempi nei quali si osserva tale errore siano tali che |t| ≤ L/ε, e cioè siano all’interno di un Intervallo
espansivo di ordine O(1/ε). In altre parole, quando la pulsazione della soluzione approssimata è diversa da
quella della soluzione esatta, l’uniformità è assicurata, ma soltanto per tempi O(1/ε).
• Si riscala la variabile indipendente t mediante una funzione lineare τ := ωt per la quale si assume valido
uno sviluppo asintotico; di questo vanno determinati i vari termini
All’ordine 2 si ha ) *
7 8 ω1 2 ω2
τ = τ (t) = ω0 + εω1 + ε2 ω2 t = 1+ε +ε ω0 t . (2.24)
ω0 ω0
• Considerata la variabile τ come indipendente, si ricavano le corrispondenti relazioni fra gli operatori di
derivazione. Per esempio, con ∂t := d/dt, ed ∂τ := d/dτ , etc., si ricavano (all’ordine 2)
7 8
∂t = ω ∂τ = ω0 + εω1 + ε2 ω2 ∂τ ,
K 7 8L (2.25)
∂t2 = ω 2 ∂τ2 = ω02 + 2εω0 ω1 + ε2 2ω0 ω2 + ω12 ∂τ2 ,
e quindi
ẋ = (ω0 + ε ω1 + ε2 ω2 ) ∂τ (X0 + ε X1 + ε2 X2 )
= ω0 X0′ + ε(ω0 X1′ + ω1 X0′ ) + ε2 (ω2 X0′ + ω1 X1′ + ω0 X2′ )
7 8
ẍ = ω02 + 2ε ω0 ω1 + ε2 (2ω0 ω1 + ω12 ) ∂τ2 (X0 + ε X1 + ε2 X2 )
7 8 7 8
= ω02 X0′′ + ε 2ω0 ω1 X0′′ + ω02 X1′′ + ε2 2ω0 ω2 X0′′ + ω12 X0′′ + 2ω0 ω1 X1′′ + ω02 X2′′
• A partire dal problema iniziale si scrive il conseguente problema nella variabile τ , e su quest’ultimo problema
si applica il metodo perturbativo diretto:
• Si esprime la funzione X(τ ) cosı̀ determinata nuovamente mediante la variabile iniziale t servendosi della
x(t) ∼
= X0 (τ (t)) + ε X1 (τ (t)) + . . .
(
ω02 (X1′′ + X1 ) = f (X0 , ω0 X0′ ) − 2ω0 ω1 X0′′
Problema P 1: (2.26b)
X1 (0) = 0 , ω0 X1′ (0) + ω1 X0′ (0) = 0
⎧ 2 ′′ ′ ′ ′ ′
⎨ ω0 (X2 + X2 ) = ∂X f (X0 , ω0 X0 ) X1 + ∂ωX ′ f (X0 , ω0 X0 ) (ω0 X1 + ω1 X0 )
⎪
Problema P 2 : − 2ω0 ω2 X0′′ − ω12 X0′′ − 2ω0 ω1 X1′′ (2.26c)
⎪
⎩
X2 (0) = 0 , ω2 X0′ (0) + ω1 X1′ (0) + ω0 X2′ (0) = 0
nelle quali ci si è serviti dello sviluppo (con tutte le derivate calcolate in (X0 , ω0 X0′ )):
' 0 1
'
f (y, z) ' y=X ∼ = f X0 + ε X1 + ε2 X2 , ω0 X0′ + ε(ω0 X1′ + ω1 X0′ ) + ε2 (ω2 X0′ + ω1 X1′ + ω0 X2′ )
z=ωX ′
∼
= f (X0 , ω0 X0′ ) + fy X1 + ε [fz (ω0 X1′ + ω1 X0′ )]
+ ε2 [fyy X2 + fzz (ω2 X0′ + ω1 X1′ + ω0 X2′ ) + fyz X1 (ω0 X1′ + ω1 X0′ )] .
M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 329
Con il metodo di Lindstet si pone τ = (ω0 + εω1 + . . .)t, e all’ordine due si ricava
K 2 7 8L
ω0 + 2εω0 ω1 + ε2 2ω0 ω2 + ω12 (∂τ2 X0 + ε∂τ2 X1 + ε2 ∂τ2 X2 ) +
+2(ω0 + εω1 + ε2 ω2 ) ω0 ε (∂τ X0 + ε∂τ X1 + ε2 ∂τ X2 ) + ω02 (X0 + εX1 + ε2 X2 ) =0
da cui ⎧ 2 2
⎪
⎪ ω0 (∂τ X0 + X0 ) = 0
⎪
⎪
⎨ ω 2 (∂ 2 X + X ) = − 2ω ω ∂ 2 X − 2ω 2 ∂ X
0 τ 1 1 0 1 τ 0 0 τ 0
(2.27)
⎪ ω 2
(∂
⎪ 0 τ 2 2
X + X ) = − 2ω ω ∂ 2
X − ω 2 2 2
1 ∂τ X0 − 2ω0 ω1 ∂τ X1
⎪
⎪
2 0 2 τ 0
⎩
− 2ω0 (ω0 ∂τ X1 + ω1 ∂τ X0 ) .
consistenti con le (2.26) visto che in questo esempio
N.B. 6.2.4 Malgrado quanto appena visto sembri mostrare una scarsa utilità del metodo, è giusto notare che in
questo particolare esempio proprio il metodo di Lindstet avrebbe potuto dare un’ottima stima del risultato, e ciò
trasferendo tutto nel piano complesso.
Quando si cercano soluzioni periodiche infatti, se si ricorre a frequenze complesse (e quindi a correzioni che
possiedano ampiezze e fasi) si riesce spesso ad evitare termini non uniformi e a produrre un’ampiezza dipendente
dalla t. Va detto che tali adattamenti o funzionano bene o non funzionano affatto.
Nel caso in esame si pone X0 (τ ) = ℜe (Z0 (τ )) con Z0 (τ ) := α eiτ ed α ∈ C. Per trovare le opportune
condizioni iniziali da imporre sulla funzione Z0 occorre ripartire dalle x(0) = 0 ed ẋ(0) = 1 . Dato che t = 0
implica τ = 0 , e che ∂t = ω ∂τ , per la Z(τ ) le (2.25) forniscono le
K L
ℜe [Z(0)] = 0, e ℜe (ω0 + εω1 + ε2 ω2 + . . .)∂τ Z(0) = 1 .
All’ordine zero, e ponendo Z0 (0) ≡ α =: r0 eiϕ0 con r0 , ϕ70 ∈ R, dalla prima di queste
8 si può ricavare ϕ0 = ±π/2
e cioè α = ±i r0 ; ma allora dalla seconda risulta ∓ℜe ω0 + ε ω1 + ε2 ω2 + . . . r0 = 1 . Questa condizione non
basta a determinare una ω non banale, e quindi per calcolare i coefficienti dell’espansione asintotica della ω è
necessario proseguire nell’esame dei problemi agli ordini maggiori.
Di nuovo con Z0 = αeiτ , dalla seconda delle (2.27) si ricava, all’ordine uno,
7 8 7 8
ω02 ∂τ2 Z1 + Z1 = 2 ω0 ω1 − i ω02 α eiτ , con Z1 (τ ), ω0 , ω1 , α ∈ C .
Se allora si pone ω1 = i ω0 , si può assumere Z1 (τ ) = 0 e ottenere dalla terza delle (2.27) il semplice problema al
secondo ordine 7 8
∂τ2 Z2 + Z2 = 2ω0−1 ω2 − 1 + 2 α eiτ ,
che fornisce soluzioni non risonanti (e quindi τ -uniformi) purché si scelga ω2 = −ω0 /2 .
7 8
In definitiva τ = 1 + iε − ε2 /2 ω0 t e di conseguenza dalla α = ±i r0 si ricava
⎧ 0 1 0 1
⎨ x(t) = ℜe αei(1+iε−ε2 /2)ω0 t = e−εω0 t ℜe ±i r0 ei(1−ε2 /2)ω0 t
⎩ 77 8 8
= ∓r0 e−εω0 t sin 1 − ε2 /2 ω0 t ; con r0 = r0 (ε) ∈ R .
Questo esempio mostra che quando i metodi di stiramento delle coordinate funzionano, allora il loro risultato è
molto buono: si è trovata l’esatta dipendenza dal tempo (al secondo ordine in ε ) sia dell’ampiezza che della parte
oscillatoria. Purtroppo però questo non è facilmente prevedibile a priori e quindi conviene ricorrere comunque ad
altri metodi, se non altro che per controllo.
In ogni modo, per avere ulteriori informazioni su come affrontare il problema nel caso generale accennato nella
(2.22) è suggeribile la seguente strategia.
La “Determining Equation”
Passo 1. Si introducono opportune coordinate di fase che trasformino il problema in uno equivalente, del primo
ordine. Per l’equazione (2.22) opportune coordinate sono (u, v) tali che u ≡ x e
⎧
⎨ u̇ = ω0 v
ε (2.28)
⎩ v̇ = − ω0 u + f (u, ω0 v)
ω0
Ad esempio per l’oscillatore lineare la f si specializza nella fosc. = −2ω0 ẋ ≡ −2ω02 v e la seconda delle (2.28)
lin.
fornisce la nota ẏ = ω0 v̇ = −ω02 x − 2ε ω0 y .
Il problema imperturbato P 0 della (2.28) mostra chiaramente l’esistenza di un punto di equilibrio nell’origine:
(xe , 0) ≡ (0, 0), circondato da tutta un’infinità di traiettorie chiuse (e quindi periodiche).
Passo 2. Si introducono opportune coordinate “azione-angolo” che possano mettere in luce l’eventuale esistenza
di cicli, o di moti periodici, che in via asintotica si avvicinano a quelli del P 0 . In questo esempio le opportune
coordinate sono (r, θ) tali che (
u = r cos θ
v = r sin θ
Passo 3. Mediante le coordinate (r, θ) il problema (2.28) si trasforma in uno ad esso ancora equivalente dato da
⎧ ε
⎪
⎨ ṙ = f (r cos θ, ω0 r sin θ) sin θ
ω0
ε (2.29)
⎪
⎩ θ̇ = − ω0 + f (r cos θ, ω0 r sin θ) cos θ
ω0 r
Il problema imperturbato P 0′ del (2.29) mostra ancora chiaramente l’esistenza di un’infinità di traiettorie (r =
cost, θ = −ω0 t) che risultano “periodiche” nella varietà del toro unidimensionale (e cioè per identificazione dei
valori di θ “modulo 2π ”).
Passo 4. Per risolvere tale difficoltà, si deduce dal problema (2.29) un’equazione, solo conseguenza della (2.29) e
non ad essa equivalente, servendosi del fatto che, per ipotesi, è possibile di eliminare la variabile t dall’equazione
(2.29). Infatti si è assunto che la funzione f non dipende dalla t, e per ε convenientemente piccoli la θ(t) è
senz’altro invertibile in virtù della: θ(t) ∼ − ω0 t. La citata equazione si calcola sostituendo d/dt con −ω0 d/dθ
nella prima delle (2.29), ottenendo:
dr ε
= − 2 f (r cos θ, ω0 r sin θ) sin θ + O(ε2 ) (2.30)
dθ ω0
Passo 5. Il teorema della funzione implicita assicura che per ε ̸= 0 , purché convenientemente piccolo, anche il
sistema (2.28) ammette un punto di equilibrio vicino all’origine. Inoltre, siccome θ̇(ε = 0) è ben diverso da zero,
anche le traiettorie con dati iniziali (u(0), v(0)) = (α, 0) ed α piccolo, si avvolgono (per θ decrescenti) almeno
una volta intorno a tale equilibrio. Esiste cioè una funzione (regolare) Φ(α, ε) della α = r(θ = 0) che individua il
valore della r(θ = −2π, ε), ed è certo tale che α = Φ(α, 0). In particolare, se per qualche α0 = r(0) accade che
anche r(−2π) = α0 (almeno al primo ordine) allora essa individua una traiettoria r(θ, ε) ∼ cost per il sistema
(2.29) che per ε → 0 si avvicina alla sua corrispondente r(θ, 0) = α0 del problema imperturbato.
In altre parole, si assume di poter sviluppare la r(θ) soluzione della (2.30) a partire dalla condizione iniziale
r(0) = α in modo che (almeno al primo ordine) la sua approssimazione asintotica sia costante quando lo è quella
all’ordine zero. Dalla (2.30) e con la posizione r(θ) ∼ r0 (θ) + ε r1 (θ) + ... , si ottiene innanzi tutto la
r0 (0) = α = r0 (θ) , e (2.31a)
d r1 1
= − 2 f (α cos θ, ω0 α sin θ) sin θ (2.31b)
dθ ω0
Passo 6. Si usa poi la (2.31b) (il cui secondo membro non dipende dalla ε ) e la 2π -periodicità della funzione f
(che per ipotesi non dipende da t) per concludere che
- 2π
1 F (α)
r1 (−2π) = 2 f (α cos θ, ω0 α sin θ) sin θ dθ =:
ω0 0 ω02
Passo 7. La prima intersezione dell’orbita (u(t), v(t)) uscente dalle condizioni iniziali (α, 0) con l’asse v = 0
risulta ben approssimata già al primo ordine dalla cosiddetta Mappa di primo ritorno o
Mappa di Poincarè !
Φ(α, ε) := α + ε r1 (−2π) ,
e sono significative le seguenti osservazioni.
M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 331
• L’equazione F (α) = 0 , e cioè la Φ(α, ε) = α , individua le condizioni iniziali α0 sulla retta r(θ = 0)
per le quali anche la variata ha soluzione r ∼ cost. Essa prende il nome di
- 2π
Determining Equation F (α) = 0 = f (α cos θ, ω0 α sin θ) sin θ dθ . (2.32)
0
• La condizione
F (α0 ) = 0 insieme con F ′ (α0 ) ̸= 0
individua una soluzione semplice (non molteplice) della F (α) = 0 , e corrisponde a condizioni iniziali per le
quali la soluzione è del tipo r ∼ cost ed è isolata. Essa prende il nome di ciclo limite della (2.28). Il segno
della derivata F ′ (α0 ) dà inoltre informazioni sulla stabilità del ciclo stesso.
• Per ogni α0 soluzione semplice (non molteplice, positiva) della F (α) = 0 esiste α = α(ε) tale che
limε→0 α(ε) = α0 e che per ε piccoli la traiettoria (u(t), v(t)) uscente da (u(0), v(0)) = (α(ε), 0) è pe-
riodica con periodo T(ε) regolare e tale che limε→0 T(ε) = T(0) ≡ 2π/ω0 . Ciò implica che anche in questo
caso lo sviluppo di Lindstet sussiste, uniforme in intervalli O(1/ε).
• Dei problemi ricorsivi (2.26) relativi allo sviluppo di Lindstet vanno cercate le soluzioni 2π -periodiche rispetto
alla variabile τ , cosa possibile se α0 è soluzione semplice della (2.32).
Nel caso dell’oscillatore lineare: ẍ + 2εẋ + x = 0 visto nell’Esempio 6.1.32, la funzione f = f (x, ẋ) si specializza
nella: fosc. (x, ẋ) = −2ω0 ẋ ≡ −2ω02 v ; pertanto la determining equation risulta:
lin.
- 2π - 2π
F (α) = f (α cos θ, ω0 α sin θ) sin θ dθ = 2α ω02 sin2 θ dθ ,
0 0
che si annulla se e solo se α = 0 . In altre parole, l’oscillatore smorzato non ha soluzioni periodiche diverse dalla
soluzione costante. Diverso è il caso seguente.
e cioè la f dell’Eq. (2.22) si specializza per l’equazione di Van der Pol nella fV dP (x, ẋ) = ω0 (1 − x2 )ẋ .
È chiaro che la soluzione del problema P 0 è oscillatoria, pertanto ci si aspetta che, per ε convenientemente
piccoli lo sia anche quella del problema (2.33). Tuttavia, il termine di smorzamento cambia segno (non solo con
la ẋ stessa come nell’esempio 6.1.32, ma anche) con la |x| quando questa transita per 1 , ed anzi nell’intorno del
punto (x = 0, ẋ = 0) il segno è l’opposto di quello della 6.1.32. Pertanto è possibile, ma non cosı̀ evidente, che vi
sia una qualche oscillazione autonoma (e cioè non forzata).
Su di essa si agisce con le posizioni introdotte nella (2.25):
che forniscono 7 8
∂t = (ω0 + εω1 ) ∂τ , e ∂t2 = ω02 + 2ε ω0 ω1 ∂τ2 .
e quindi ⎧ ′ ′ ′
⎨ ẋ = (ω0 + εω1 ) ∂τ (X0 + ε X1 ) = ω0 X0 + ε(ω0 X71 + ω1 X0 )
⎪
8
ẍ = (ω02 + 2ε ω0 ω1 ) ∂τ2 (X0 + ε X1 ) = ω02 X0′′ + ε 2ω0 ω1 X0′′ + ω02 X1′′
⎪
⎩
X0 (0) + εX1 (0) = α , X0′ (0) + εX1′ (0) = 0 .
Il problema P 0 assegna X0 (τ ) = α cos(τ ) e quindi il problema P 1
diviene ⎧
⎨ X1′′ + X1 = 2 ω1 α cos τ − α (1 − α2 cos2 τ ) sin τ ,
ω0
⎩
X1 (0) = 0 , X1′ (0) = 0 .
2 2
1 1
-2 -1 1 2 -2 -1 1 2
-1 -1
-2 -2
Metodo di Rinormalizzazione
Si procede inizialmente come nel metodo di Lindstet, ma non si applica il perturbativo diretto sulla (assunta)
funzione x(t(τ )); si ricava invece lo sviluppo x(τ ) direttamente a partire dallo sviluppo (non uniforme) xdir (t) =
x0 (t) + εx1 (t) + . . . trovato con il metodo perturbativo diretto nel problema iniziale, e sostituendo in tale sviluppo
l’espressione inversa della (2.24)
) *−1
1 1 ω1 2 ω2
t = τ ∼ 1+ε +ε τ
ω ω0 ω0 ω0
) ) 2 * *
ω1 ω1 ω2 2 τ
∼ 1− ε+ − ε − . . . .
ω0 ω02 ω0 ω0
Infatti, data la forma presunta per la ω , si possono usare i seguenti sviluppi validi (all’ordine due) per ξ ≪ 1
M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 333
Alla base di questo metodo (e, in seguito, di altri simili) c’è la seguente idea. La scelta dei coefficienti ωn introdotti
dal procedimento va fatta seguendo la:
Regola di Lighthill: rendere ciascun termine dello sviluppo non più singolare del precedente.
Non è difficile rendersi conto che entrambi i metodi di Lindstet e di Rinormalizzazione, che suppongono τ = 0
quando t = 0 , sono inefficaci nel caso dell’equazione di Lighthill. Un’applicazione del metodo di rinormalizzazione
può essere vista nel prossimo § 3. Qui, invece, è preferibile estendere il procedimento dello stiramento delle coordinate
introducendo metodi sempre più potenti, in quanto sempre più elaborati, il primo dei quali è il seguente.
Metodo di Lighthill
Si riscala la variabile indipendente t mediante uno sviluppo in funzioni non necessariamente lineari e da determi-
narsi, di una nuova variabile τ :
t = t(τ ) ∼
= τ + εt1 (τ ) + ε2 t2 (τ ) + . . . con ti = ti (τ ) regolari, i = 1, 2, . . . . (2.35)
Poi, a partire dal problema iniziale si scrive il conseguente problema nella variabile τ, e su quest’ultimo problema
(come nel caso di Lindstet) si applica il metodo perturbativo diretto:
mostrano che il metodo di Lindstet è in realtà un caso particolare del metodo di Lighthill.
Considerata la variabile τ come indipendente, e con t′ = t′ (τ ) = ∂τ t = (1 + ε t′1 + ε2 t′2 + . . .), si ricavano le
relazioni ) *2 ) *
1 1 1 1 1 t′′
∂t = ′ ∂τ ∂t2 = ′
∂ 2
τ + ′
∂ τ ′
∂τ = ′ 2 ∂τ2 − ′ 3 ∂τ .
t t t t (t ) (t )
Queste, mediante le (2.34a), si possono specializzare (al secondo ordine) nelle
1 2
∂t = ∂τ ∼ (1 − ε t′1 + (t′1 − t′2 )ε2 )∂τ ,
(1 + ε t′1 + ε2 t′2 )
+ ,
2 1 2 (ε t′′1 + ε2 t′′2 ) (2.37)
∂t = ∂τ − ∂τ
(1 + ε t′1 + ε2 t′2 )2 (1 + ε t′1 + ε2 t′2 )
0 1N N O O
2
∼ 1 − 2ε t′1 + ε2 (3t′1 − 2t′2 ) ∂τ2 − εt′′1 + ε2 (t′′2 − 2t′1 t′′1 ) ∂τ .
2 = X0 (1 − εt1 (1)) + εX1 (1 − εt1 (1)) ∼ X0 (1) − ε (t1 (1)∂τ X0 (1) − X1 (1)) , (2.39)
dalla quale si inducono delle possibili condizioni iniziali sulla X(τ ), e cioè:
D’altra parte si è visto che il metodo diretto è non singolare all’istante iniziale t = 1, e che invece singolarità si
manifestano per t piccoli; ciò comporta che non è necessario stirare la coordinata t vicino al valore 1 e che quindi
non lede la generalità assumere t1 (1) = 0 e ottenere τ ∗ = 1 . Ciò finalmente assegna le necessarie condizioni
iniziali sulle X0 e X1 ; esse vengono fornite dalla (2.39) e sono: X0 (1) = 2 , X1 (1) = 0 . È opportuno notare a
questo punto che, qualora si fosse adoperato il metodo di Lindstet con t = (ν0 + εν1 )τ invece della (2.35), questo
ragionamento avrebbe portato alla scelta t1 (1) ≡ ν1 = 0 , la quale però avrebbe banalizzato il problema.
A partire dalla (2.38) si calcola il problema all’ordine zero per la X(τ ); esso è
τ ∂τ X 0 + X 0 = 1 1+τ
e dà X0 (τ ) = .
X0 (1) = 2 τ
Ancora dalle (2.38) segue quello all’ordine uno, con X1 (1) = 0 come condizioni iniziali,
) *
1 1 t′1
τ ∂τ X1 + X1 = − (t1 + X0 ) ∂τ X0 + (1 − X0 )t′1 = t1 + 1 + − . (2.40)
τ τ2 τ
Se fosse t1 (τ ) ≡ 0 si avrebbe il Metodo Diretto già visto, che dà una singolarità del terzo ordine. Per evitarlo
si può seguire la regola di Lighthill, che qui consiglia di scegliere t1 (τ ) in modo da annullare il secondo membro:
cosı̀ la X1 sarà singolare quanto la X0 e non di più.
Annullare il secondo membro significa imporre l’equazione differenziale
) * ) *
1 1 1 ′ 1 1 1
2
t 1 + 1 + = t 1 equivalente a ∂ τ t 1 = 2+ 3
τ τ τ τ τ τ
e quindi - ) *
τ
1 1 1 1
t1 (τ ) + cost = 2
+ 3 ds da cui t1 (τ ) = cτ − 1 − .
τ s s 2τ
Per la scelta fatta t1 (1) = 0 . Ne seguono
3 3τ 2 − 2τ − 1 3τ 2 − 2τ − 1
c= ; t1 (τ ) = ; t = t(τ ) = τ + ε . (2.41)
2 2τ 2τ
A sua volta, avendo annullato il secondo membro della (2.40), per la X1 si ha
c1
τ ∂τ X1 + X1 = 0 da cui X1 (τ ) = ,
τ
M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 335
da calcolare, ora, sulla τ = τ (t) inversa della t = t(τ ) trovata nella (2.41).
Si risolve quindi la (2 + 3ε)τ 2 − 2(ε + t)τ − ε = 0 ottenendo
1 0 / 1
τ (t) = t + ε + (t + ε)2 + ε(2 + 3ε) . (2.43)
2 + 3ε
A partire da questa, sembra corretto proseguire con la stessa logica di approssimazioni asintotiche che si è seguita
fin qui, e cioè: (con ξ := t + ε ) sostituire nella (2.42) lo sviluppo della (2.43)
@ A ) *
1 1 2 + 3ε 1 2 + 3ε
= / ∼
τ ξ 1 + 1 + ε(2 + 3ε)/ξ 2 ξ 2 + ε(2 + 3ε)/2ξ 2
) * ) * ) * ) ) **
2 + 3ε 2 + 3ε 1 3 1 1 3 1
∼ 1−ε ∼ +ε 1−ε 2 ∼ 1+ε −
2ξ 4ξ 2 ξ 2ξ 2ξ ξ 2 2ξ 2
In tal modo però si trova una singolarità in t = −ε (indipendente dalla x), e questa è poco convincente quanto poco
lo era quella in zero; quindi, se non si conoscesse la soluzione esatta, tutto il metodo sembrerebbe poco attendibile.
È invece stupefacente, in questo esempio, che sostituendo la (2.43) direttamente nella X(τ ) = 1 + τ1 + O(ε2 ) dà
luogo, con un pò di algebra, all’espressione esatta:
a) * ) *
2
t t t+1
&(t) = − +
x +2 + 4 ≡ xLig (t; ε) .
ε ε ε
Il metodo in esame, quando funziona, lo fa bene ma senza preavviso. In generale ciò non accade quando la ε
moltiplica la derivata di ordine massimo. (vedi anche: [Wasow]).
N.B. 6.2.7 Uguagliare a zero il secondo membro dell’equazione sulla ampiezza Xn (τ ) non è sempre la cosa migliore;
in questo esempio è conveniente, ma non è detto che lo sia in generale. Lo scopo è sempre quello di avere il termine
correttivo non più singolare del precedente, e le singolarità spostate possibilmente fuori dell’intervallo in esame. ♦
N.B. 6.2.8 Il fatto che lo sviluppo diretto abbia introdotto una singolarità per t = 0 avrebbe potuto suggerire
l’uso del metodo di Lindstet con la particolare scala τ = t/ε. Il suo uso in questo esempio, tuttavia, fornisce una
equazione indipendente dalla ε e sostanzialmente identica alla equazione iniziale. Per cui, seppure in questo caso
accade che tale equazione si sappia risolvere, ciò non è certo generale o prevedibile a priori. Infatti anche qui la
logica da seguire dovrebbe essere quella descritta per giungere alla (2.44). ♦
) *
ξ2 2 ξ
Per concludere, e in vista di futuri riferimenti, si osservi che per ξ = Os (ε) si ha 2 + ≫ 2 +2 , e
√ ε ε ε
√ √
quindi, mediante l’approssimazione a + δ ∼ a + δ/(2 a) (valida per a ≫ δ ), si calcola la stima
a) * ) * a) * ) *
2
t t+1 t2 2 t
+2 +4 = + +2 +2
ε ε ε2 ε ε
T ) *) *−1/2 T
t2 2 t t2 2 t2 2 t + 2ε
∼ + + +2 + = + +√ .
ε2 ε ε ε2 ε ε2 ε t2 + 2ε
#
I metodi fin qui introdotti sono di natura locale, e quindi talvolta inadatti a trattare casi di rilevante interesse.
Verranno ora citati due metodi di calcolo approssimato che si rivolgono a problemi di natura globale (o, almeno,
localmente più estesi).
Quando sembri sufficiente, si inizia con due: (t, t1 ). Poi, se non è presente alcuna potenza negativa della ε si
assume lo sviluppo
x(t; ε) ∼ [X0 (t, t1 ) + εX1 (t, t1 )]t1 =εt ;
altrimenti, se appare una potenza ε−1 , risulta più ragionevole tentare con
K L
x(t; ε) ∼ X0 (t, t1 ) + εX1 (t, t1 ) + ε2 X2 (t, t1 ) t1 =εt
le “costanti di integrazione” ad ogni passo risultano funzioni degli altri tempi caratteristici;
Si adoperi il Metodo delle Scale Multiple sebbene in questo esempio il metodo non si dimostrerà particolarmente
efficace; lo sarà invece molto di più in successivi Esempi.
Si considera, oltre a quello iniziale, un solo ulteriore tempo caratteristico: t∗ , e data l’analisi qualitativa fatta
sopra, sarà opportuno supporre che tale tempo sia un “tempo breve”, ovvero una variabile temporale che sia Os (1)
quando t ≪ 1 . Siano cioè
1 d 1
t∗ := t, e quindi = ∂t + ∂t∗ ,
ε dt ε
da imporre sulla ipotizzata
K L
x(t, ε) = X0 (t, t∗ ) + εX1 (t, t∗ ) + ε2 X2 (t, t∗ ) t∗ =t/ε
M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 337
Se ne ricava una successione di problemi ai vari ordini, dei quali il dominante è quello all’ordine O(1/ε):
t ∂t∗ X0 = 0 ;
questa equazione dichiara X0 funzione della sola t. Per determinarla si userà l’equazione all’ordine successivo.
Questa diviene
t ∂t X0 + t ∂t∗ X1 + X0 = 1 (2.48)
mentre quella all’ordine O(ε) è
Si osservi che l’equazione all’ordine O(ε2 ) non si può trovare partendo dalla (2.47); in essa infatti occorrerebbe
aggiungere non solo il termine ε3 X2 nel primo fattore ma anche l’addendo ε2 ∂t∗ X3 nel secondo.
La (2.48) implica
1 0 1
X1 (t, t∗ ) =
1 − X0 − tẊ0 t∗ + b(t) ,
t
nella quale la regola di Lighthill consiglia di annullare il coefficiente di t∗ , e cioè di ricavare la forma della funzione
X0 richiedendo che sia X0 t − t = cost =: a. Questa fornisce X0 = 1 + a/t, e la condizione iniziale assegna a = 1 .
Dalla (2.49) si ha allora ) *
1 1
t ∂t∗ X2 + t ḃ − 2 1+ +b = 0
t t
) *2 ) *2
1 d 1 c 1 1
sulla quale la regola di Lighthill fornisce tḃ + b = − 1+ da cui b= − 1+ ≡ X1 , e
2 dt t t 2t t
la condizione iniziale dà c = 2 .
In sintesi si ottiene di nuovo ed esattamente, quindi nulla di meglio, dello sviluppo perturbativo diretto.
Un’alternativa potrebbe essere quella di ricominciare tutto da capo sostituendo, nell’equazione iniziale, al posto
della variabile t la sua corrispondente εt∗ . Si ottiene cosı̀
0 1 )1
∗ 2 3
εt + εX0 + ε X1 + ε X2 ∂t∗ X0 + ∂t X0 + ∂t∗ X1
ε
*
7 8
+ ε∂t X1 + ε∂t X2 + ε ∂t X2 + X0 + εX1 + ε2 X2 = 1
∗
2
t∗ ∂t∗ X0 + X0 ∂t∗ X0 + X0 = 1
fornisce
√
∗ (t∗ + 1) t∗ 2 + 2t∗ − c
t ∂t∗ X1 + √ X1 + √ (−ċ) + X0 ∂t∗ X1 = 0
∗ 2
t + 2t − c∗ 2 t∗ 2 + 2t∗ − c
ovvero
/
2(t∗ 2
+ 2t∗ − c)∂t∗ X1 + 2(1 + t∗ )X1 − ċ t∗ 2 + 2t∗ − c ;
Quello in esame è un problema differenziale con condizioni al contorno e tuttavia con soluzione unica: verificata per
esempio la prima condizione, esiste unico il valore del parametro di integrazione affinché sia vera anche la seconda.
Infatti dopo una prima integrazione si ha
d 0 t/ε 1 d 0 t/ε 1
ε e ẋ = κ et/ε = ε κe
dt dt
dalla quale si ricava ẋ = c1 e−t/ε + κ. Questa, con la condizione x(0) = 0 , dà x(t) = c2 (1 − e−t/ε ) + κt, ed è
possibile verificare anche la seconda condizione se si pone c2 = (1 − κ)(1 − e−1/ε )−1 . Pertanto la soluzione esatta
risulta
1−κ 0 −t/ε
1
&(t; ε) = κt +
x 1 − e (2.52)
1 − e−1/ε
Come problema perturbativo esso è invece un problema singolare: qualora si proceda ad applicare il Metodo Diretto
si trova, all’ordine zero,
( (
ẋ0 = κ x0 (t) = κt + c3
che dà
x0 (0) = 0, x0 (1) = 1 x0 (0) = 0, x0 (1) = 1.
Contrariamente al problema iniziale che è del secondo ordine quello che si è ottenuto è un problema differenziale del
primo ordine, e dunque: il valore dell’unico parametro di integrazione che rimane libero non potrà in generale sod-
disfare entrambe le condizioni ausiliarie imposte nel problema assegnato (dato che esse sono fra loro indipendenti).
Se ne dovrà scegliere una sola, in base al suo significato fisico e/o ragionamenti qualitativi.
Sia per esempio κ < 1 . Se si preferisse la x0 (0) = 0 , e cioè se si accettasse x0 (t) = κt, si avrebbe x0 (1) =
κ < 1 ; quindi vicino a t = 1 prima o poi occorrerebbe ẋ > κ e perciò ẍ > 0 . Ma l’equazione afferma che
ẍ = (κ − ẋ)/ε e di conseguenza, per ẋ > κ, si ha ẍ < 0 . È più ragionevole perciò assumere, per la funzione x0 ,
la seconda delle condizioni ausiliarie.
x a
x dirett
ta
tta
un
esa
es
pr a
· dirett
t t
&(t; ε) per due valori della ε , con κ = 0.6 , e conferma la discussione appena
La figura mostra la soluzione x
fatta.
M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 339
1 1
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
1 K L
t∗ := t e x(t, ε) = X0 (t, t∗ ) + εX1 (t, t∗ ) + ε2 X2 (t, t∗ ) t∗ =t/ε .
ε
Si hanno:
d 1 d2 2 2 2 1 2
= ∂t + ∂t∗ , e = ∂tt + ∂tt∗ + ∂∗∗ ;
dt ε dt2 ε ε2 t t
e quindi
⎧ d 1
⎪
⎨ x ∼ ∂t∗ X0 + ∂t X0 + ∂t∗ X1 + ε (∂t X1 + ∂t∗ X2 )
dt ε
⎪
⎩ d2
1 1 7 2 8 7 2 8
2
x ∼ 2 ∂t2∗ t∗ X0 + 2∂tt∗ X0 + ∂t2∗ t∗ X1 + ∂tt 2
X0 + 2∂tt 2
∗ X1 + ∂t∗ t∗ X2 .
dt ε ε
Con tali posizioni il problema in esame (2.51) fornisce rispettivamente
Si noti che la prima equazione non rappresenta il problema all’ordine zero ma quello all’ordine massimo O(1/ε), e
come tale vale a tempi brevi, infatti la X0 si suppone Os (1) ad ogni tempo, e resta comunque il termine dominante
∗
della soluzione. Si ha facilmente et ∂t∗ X0 =: −a2 (t) e quindi
(
∗ −t∗ a1 (0) + a2 (0) =0
X0 (t, t ) = a1 (t) + a2 (t)e con
a1 (1) + a2 (1)e−1/ε = 1
e quindi
∗ ∗
X1 (t, t∗ ) = a4 (t) + a3 (t)e−t + (κ − ȧ1 (t))t∗ − ȧ2 (t)t∗ e−t .
Affinché per t = Os (1) fissato, e quindi per t∗ = t/ε ≫ 1 , non possa avvenire che X1 ≫ Os (1) ∼ X0 contrariamente
all’assunto sviluppo regolare, è opportuno porre
( (
ȧ1 = κ a1 (t) = κt + b1
e cioè
ȧ2 = 0 a2 (t) = b2 ;
Nel problema iniziale l’operatore differenziale contiene unicamente tempi O(1) (comunque t ≪ O(1/ε) e dunque
t1 ≪ 1 ), ciò conferma che il problema all’ordine zero è in realtà un problema alle derivate ordinarie, ed è pertanto
accettabile risolverlo mantenendo gli altri tempi caratteristici come parametri, lentamente variabili. Si ricava in
tal modo (
X0 (t, t1 ) = a(t1 ) cos ω0 t + b(t1 ) sin ω0 t
a(0) = 0, b(0) = 1
Le due funzioni a, b assegnano la dipendenza della X0 dal tempo t1 , e cioè da tempi con correzioni O(ε). D’altra
parte anche X1 è O(ε), e dunque per poter risolvere il problema all’ordine uno in tutti i suoi aspetti occorre ora
scrivere anche il problema concernente la X1 (t, t1 ) . Esso è
2
∂tt X1 + ω02 X1 = 2(a′ + ω0 a) sin ω0 t − 2(b′ + ω0 b) cos ω0 t ,
M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 341
Se ne ricava successivamente
X0 (t, t1 , t2 ) = a(t1 , t2 ) cos ω0 t + b(t1 , t2 ) sin ω0 t
a(0, 0) = 0, b(0, 0) = 1
e quindi
2
∂tt X1 + ω02 X1 = − 2 ω0 (−∂t1 a(t1 , t2 ) sin ω0 t + ∂t1 b(t1 , t2 ) cos ω0 t)
− 2 ω02 (−a(t1 , t2 ) sin ω0 t + b(t1 , t2 ) cos ω0 t) .
Come già all’ordine uno, la regola di Lighthill suggerisce di porre ∂t1 a + ω0 a = 0 e ∂t1 b + ω0 b = 0 , che si
risolvono nelle:
a(t1 , t2 ) = !a(t2 )e−ω0 t1 con !
a(0) = 0 ,
b(t1 , t2 ) = !b(t2 )e−ω0 t1 con !b(0) = 1 .
Anche in questo caso la scelta di annullare il secondo membro dell’equazione del problema al primo ordine fà
sı̀ che X0 ed X1 abbiano lo stesso andamento rispetto alla t, e cioè cos(ω0 t + ϕ) e quindi non lede scegliere
X1 (t, t1 , t2 ) = 0 .
Per determinare le funzioni ! a e !b occorre ora servirsi dell’equazione all’ordine successivo. Con queste posizioni,
a(t2 )e−ω0 t1 cos ω0 t + !b(t2 )e−ω0 t1 sin ω0 t, all’ordine ε2 si ottiene
e con X0 (t, t1 , t2 ) = !
2
∂tt a(t2 )e−ω0 t1 cos ω0 t − ω02 !b(t2 )e−ω0 t1 sin ω0 t
X2 + ω02 X2 = − ω02 !
+ 2ω0 ∂t2 !a(t2 )e−ω0 t1 sin ω0 t − 2ω0 ∂t2 !b(t2 )e−ω0 t1 cos ω0 t
a(t2 )e−ω0 t1 cos ω0 t + 2ω02 !b(t2 )e−ω0 t1 sin ω0 t
+ 2ω02 !
10 20 30 40 50 10 20 30 40 50 10 20 30 40 50
-0.25
-0.5 -0.01 -0.01
-0.75
-1 -0.02 -0.02
Il successivo metodo si presta a trattare problemi singolari, ed in special modo quelli per i quali il metodo
perturbativo diretto fallisce in determinate zone della regione di interesse, o anche aventi condizioni al contorno
che non possono essere totalmente verificate.
(1) Si individua il Problema Esterno, a partire da quello dato, e si risolve il suo problema all’ordine dominante,
determinandone la regione di regolarità.
(2) Si individua la Zona Interna, o: “Boundary Layer”, e cioè quella nella quale tale sviluppo non è uniforme,
o in cui qualche dato o condizione non possono essere verificati. Qui e nel seguito si supporrà che essa sia
unica, ma questo solo per semplicità di esposizione.
(3) Si introduce una variabile indipendente “Interna”, che possa essere Os (1) nella zona interna, e si definisce il
“Problema Interno”, relativo a una qualche (opportuna) funzione di tale variabile.
(4) Si completa l’identificazione delle variabili (e degli sviluppi asintotici) determinando le corrette funzioni
d’ordine con le quali riscalare i problemi cosı̀ trovati (e quelli relativi ai successivi ordini) in modo che essi
abbiano soluzioni non degeneri nelle rispettive regioni.
(5) La determinazione delle costanti di integrazione e strutturali va risolta (anche in base ai dati ausiliari)
mediante il matching, e cioè paragonando fra loro gli sviluppi delle variabili interna ed esterna, nella zona
nella quale esse si sovrappongono. Ciò comporta (almeno) una delle seguenti
(5a) Quando esse siano totalmente note, si richiede che il limite interno della soluzione esterna sia uguale al
limite esterno della soluzione interna, ovvero che
(5b) Introdotta una variabile intermedia, che sia Os (1) se valutata fra le due zone, si paragonano gli sviluppi
delle due trovate sopra: la soluzione interna e la soluzione esterna, entrambi espressi in funzione della
(stessa) variabile intermedia, e si richiede che essi abbiano lo stesso limite intermedio quando la variabile
intermedia sia mantenuta Os (1) ed ε tenda a zero.
(5c) Si esprimono ciascuna delle: soluzione interna e soluzione esterna rispetto alla variabile dell’ “altra”
soluzione (rispettivamente esterna e interna), poi se ne calcolano gli sviluppi asintotici (rispetto al
parametro), infine si paragonano i loro troncamenti, espressi rispetto una stessa variabile.
(6) Si individua la parte comune delle due soluzioni ricavandola da tale paragone (il: “matching”).
(7) Si scrive la Soluzione Composta, funzione della sola variabile esterna, mediante la:
M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 343
Per risolvere il problema, una volta riconosciuto il fatto che in una zona del dominio lo sviluppo diretto fallisce,
(nel caso in esame tale zona è una sola, quella nella quale t = Os (ε)), occorre scegliere le variabili interne adatte
a quella zona, sia dipendenti che indipendenti. Per quella indipendente, si vedrà che un primo tentativo viene
suggerito dal problema esterno all’ordine zero (cfr. il successivo N.B. 6.2.14) che suggerisce di assumere τ = t/ε;
è bene osservare tuttavia che non è affatto detto che essa debba coincidere con quella usata (o che si userebbe)
nel metodo delle scale multiple. Per quella dipendente, da intendersi funzione della sola variabile interna, si deve
introdurre una variabile X = X(τ, ε) che sia Os (1) quando la variabile interna τ è Os (1) e che risolva il
problema interno senza eccessiva degenerazione. In questo esempio, ancora in base ai N.B. 6.2.13 e 6.2.14, avviene
addirittura che la xest (t(τ ), ε) rimanga Os (1) anche nella zona interna, e quindi si proverà con X(τ, ε) = x(t(τ ), ε),
e cioè a definire il problema interno sostituendo nell’equazione data alla x la X senza ulteriori fattori di scala.
Le condizioni ausiliarie da assegnare sulla X(τ, ε) sono solo quelle che la riguardano, e cioè quelle imposte sulla
x nella regione interna: τ = Os (1); analogamente, le condizioni ausiliarie per il problema esterno sono da cercarsi
solo nella zona esterna.
Nel dettaglio, sulla funzione x(t, ε) si definisce innanzi tutto, e per t = Os (1), il
(
2
ε∂tt x + ∂t x = κ
Problema Esterno (2.54)
x(1, ε) = 1
da risolversi in generale mediante il metodo perturbativo diretto. In effetti, in questo particolare esempio è possibile
calcolare fin dall’inizio la soluzione esatta di tale problema, infatti si trova
κt + (1 − κ) + ε c1 (e−1/ε − e−t/ε ) ∼
= xest (t, ε) (2.55)
che dipende ancora dalla costante c1 , ed è chiaro che se si fa uso anche dell’altra condizione al contorno, quella in
t = 0 , il valore della costante viene determinato e la funzione (2.55) diviene la soluzione esatta del problema (2.53)
già trovata nell’Esempio 6.2.10. Tuttavia quando si usa il metodo del matching tale procedimento non è corretto,
giacché comporta imporre sulla variabile esterna una condizione fuori dalla zona esterna, e cioè nella zona di non
uniformità t ≪ 1 . Di conseguenza, a questo livello si può solo controllare che il troncamento 0 x della x ≡ xest
(valutato nuovamente per t = Os (1)) coincida con la soluzione x0 (t) = κt + (1 − κ) del problema esterno allo stesso
ordine, cosa che qui avviene indipendentemente dalla c1 .
Il passo successivo consiste nell’introdurre una variabile indipendente interna che sia Os (1) nella zona interna
e una dipendente da essa che sia anch’essa Os (1) nella zona interna. Per quanto riguarda la prima, qui si supporrà
del tipo τ = t/δ(ε), con δ(ε) ≪ 1 ; ed esempio τ := t/ε, da confermare. Per quanto riguarda l’altra, siccome
il primo troncamento della variabile esterna 0 x è Os (1) nella regione interna, si può sperare in una corretta
definizione della variabile dipendente interna evitando altri fattori di scala, e limitandosi a provare con la sostituzione
x(t(τ, ε), ε) ≡ X(τ, ε) nel problema dato. (In generale occorre determinare il fattore di scala in virtù del quale la
soluzione X del problema interno (che è per costruzione Os (1) nella zona interna) possa esprimere una variabile
interna xint dello stesso ordine di quella esterna (si veda il prossimo N.B.6.2.13). Infine, delle due condizioni
x(0) = 0 ed x(1) = 1 risulta accettabile (in quanto agente nella zona interna) solo quella conseguenza dalla prima
X(0, ε) = 0 ; l’altra infatti darebbe X(1/ε, ε) = 1 e cioè una condizione fuori della regione interna (t = 1 implica
τ = 1/ε ≫ 1 ).
Servendosi della ∂τ = ε∂t si conclude che il problema interno è dato, per τ = Os (1), da
(
∂τ2 X + ∂τ X = εκ
Problema Interno (2.56)
X(0, ε) = 0 ,
da risolversi in generale mediante il metodo perturbativo diretto. In questo particolare esempio accade invece che
la soluzione esatta anche di questo problema sia esplicitamente calcolabile:
e che il primo troncamento 0x della xint coincida con la soluzione del problema interno all’ordine zero.
N.B. 6.2.13 Come si è già accennato, nel caso in esame (2.53) la supposta uguaglianza fra la X(τ, ε) e la
x(t(τ ), ε) è plausibile perché la soluzione ordine zero trovata sopra, e cioè la κt + (1 − κ), calcolata per t = ετ
diviene κετ + (1 − κ) che è anch’essa (come la variabile esterna) Os (1) per τ = Os (1). Inoltre il problema che
si ottiene per la X è accettabilmente non degenere. In altri casi invece (si veda l’Esempio 6.2.23 più oltre) K può
accadere che la soluzione X0 = Os (1) del problema L interno all’ordine dominante sia solo proporzionale tramite
un coefficiente β0 (ε) non necessariamente Os (1) al primo troncamento interno 0 x della variabile x, e cioè che
sia β0 (ε)X0 (τ ) = 0 (x(τ, ε)), o anche: β0 (ε)X0 (τ ) + β1 (ε)X1 (τ ) + ... ∼
= xint (τ, ε). ♦
N.B. 6.2.14 La variabile interna va scelta con l’idea di diminuire quanto più possibile la degenerazione del problema
interno. Quando la zona interna è nell’origine, cosa che verrà indicata con t ≪ 1 , si può agire come segue. Si pone
τ := t/δ(ε) e si cerca la migliore δ(ε) ≪ 1 che verifichi le citate richieste: che il problema interno abbia soluzione
X non degenere ed Os (1) in tale zona. In questo esempio, e data la fortunata circostanza X(τ, ε) = Os (x(t, ε)) ,
si ottiene:
δ δ2
∂τ2 X + ∂τ X = κ ,
ε ε
; <
ε
e pertanto, delle tre possibilità: δ/ε −→ ∞, cost, 0 , si ha che la prima dà X ′ = 0 che è fortemente degenere;
0
l’ultima fornisce ∂τ2 X = 0 ovvero X = c1 τ + c2 , che diventa grande per τ → ∞ oppure è fortemente degenere,
e quindi non paragonabile con il limite interno della xest , che invece è finito. Rimane dunque la sola possibilità
δ ∼ ε , che conferma il tentativo fatto. ♦
N.B. 6.2.15 Il caso in esame è anche particolarmente fortunato perché, come si è detto, permette la risoluzione
esplicita dei problemi interno ed esterno con ε ̸= 0 . In generale si dovranno risolvere i loro sviluppi diretti che in
questo caso, invece, non sono disponibili: il metodo perturbativo diretto applicato all’equazione εẏ + y = κ fallisce
infatti miseramente, dato che fornisce xn (t) = cost = 0 per ogni n > 0 . ♦
Anche il problema interno (2.56) (cosı̀ come il (2.54)) è un problema non ben posto: l’equazione è del secondo
ordine e manca una condizione, iniziale o al contorno, che permetta la determinazione della costante c0 , e cioè
anche della sua parte Os (1).
Metodo del matching operare le scelte dei coefficienti o delle funzioni ancora incognite (qui si determina la
costante c0 ) in modo da rendere uguali gli andamenti dello sviluppo interno e dello sviluppo esterno quando si
effettua tale paragone in quella zona, l’intermedia, dove non si ha né t = Os (1) né τ = Os (1), e dove si presume
che i due sviluppi debbano coincidere.
A tale scopo si può:
• provare semplicemente a paragonare il limite (in questo esempio) per t → 0 della soluzione esterna con il
limite per τ → ∞ della soluzione interna (si veda il Punto 5a più sopra);
• (più correttamente) definire una variabile intermedia che sia Os (1) nella zona intermedia e paragonare gli
sviluppi in tale zona (si veda il Punto 5b);
• (ove necessario) valutare i primi termini che si ottengono troncando gli sviluppi (dei primi termini) interno
in funzione della variabile esterna ed esterno in funzione della variabile interna, e paragonando fra loro ciò
che tali termini forniscono quando valutati nella zona intermedia (si veda il Punto 5c).
Nell’esempio in esame si ha
x0 = κt + (1 − κ) valida in t = Os (1),
−τ
X0 = c0 (1 − e ) valida in τ = Os (1);
√ √
la variabile intermedia può essere η := t/ ε = ε τ ; ed infatti essa è Os (1) nella regione intermedia, (vedi
N.B. 6.2.16 più oltre). Fissata tale variabile intermedia, si richiede che sussista un unico
Limite intermedio lim xest (t(η, ε), ε) = lim xint (τ (η, ε), ε)
ε→0 ε→0
η=Os (1) η=Os (1)
Qui si sono indicate con xest ed xint le espressioni dei due sviluppi asintotici della medesima variabile dipendente
x(t, ε) (l’incognita del problema iniziale) validi rispettivamente nelle regioni esterna ed interna; essi quindi sono
generalmente le soluzioni perturbative dirette dei problemi esterno ed interno, possibilmente riscalati dopo il para-
gone con gli sviluppi che si ottengono a partire dai tentativi: xint (τ, ε) ∼
= xest (t(τ ), ε) ed xest (t, ε) ∼
= xint (τ (t), ε)
(cfr. oltre).
Come già detto nel N.B. 6.2.13, la xint può anche differire dalla X(τ (η, ε), ε) per una funzione di scala β0 (ε);
tuttavia ciò non accade nell’esempio in esame.
M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 345
Il calcolo dei due limiti intermedi delle soluzioni interna ed esterna fornisce in questo esempio rispettivamente:
√ √
lim xest (t/ ε, ε) = √lim κ ε + (1 − κ) = (1 − κ),
√ ε→0 ε→0
t/ ε=Os (1)
√ √
lim xint (τ ε, ε) = √lim c0 (1 − e−1/ ε
) = c0 ;
√ ε→0 ε→0
τ ε=Os (1)
est int
inoltre, tali valori coincidono rispettivamente con quelli dei limiti limt→0 0x e limτ →∞ 0x . Uguaglian-
doli fra loro si assegna alla costante c0 il valore (1 − κ).
Si costruiscono in tal modo i due sviluppi
mediante i quali si può infine costruire il primo termine di una soluzione unica:
In questa la xcom è la parte comune, il cui termine dominante è assegnato dal comune valore dei limiti determinato
con il matching; nell’esempio esso è 0 0 x = 0 0 x = (1 − κ). In definitiva per l’Eq. (2.53) si ha (al primo ordine)
la soluzione
xAMP (t) ∼ κt + (1 − κ)(1 − e−t/ε ) uniforme su tutto [0, 1] (2.57)
da paragonare con la soluzione esatta (2.52) trovata precedentemente nell’Esempio 6.2.10.
Qualora si voglia proseguire ed aumentare di ordine, e dato che sono stati trovati i due termini 0 x e 0 x,
occorre risolvere i problemi sia esterno sia interno relativi all’ordine successivo. Tuttavia, dalla X0 si ricava
X0 (τ (t)) = c0 (1 − e−t/ε ) che non ammette sviluppo per t = Os (1). Occorre quindi limitarsi a supporre che il
suo primo troncamento coincida con il termine dominante che si ottiene mantenendo t = Os (1), e cioè la costante
c0 :
0 x = κt + (1 − κ) = ε κ τ + (1 − κ)
0 0x = (1 − κ)
0x = c0 (1 − e−τ ) = c0 (1 − e−t/ε )
0 0 x = c0 .
In questo esempio, tuttavia, neanche questo è sufficiente a tale prosecuzione e occorre limitarsi allo sviluppo al primo
ordine (2.57) giacché, come si è notato, lo sviluppo perturbativo del problema esterno fornisce: ∂t x1 = −∂t2 x0 = 0
la cui risposta è banale e non permette ulteriori sviluppi. #
√
N.B. 6.2.16 Se come variabile intermedia si usa una η̃ := t/δ(ε), con δ(ε) non necessariamente la ε ma comunque
tale che Os (ε) ≪ δ(ε) ≪ 1 , il risultato deve rimanere lo stesso. È questa una delle richieste fondamentali: che la
soluzione intermedia non sia accettabile solo per un particolare specifico andamento della variabile intermedia ma,
al contrario, che il suo andamento sia comune alle soluzioni esterna e interna non per una sola scelta della scala
δ(ε), ma per tutto un insieme di suoi possibili valori che ne comprenda sia alcuni per i quali la soluzione esterna
rimane significativa, sia altri per i quali ciò accade a quella interna. ♦
N.B. 6.2.17 Come già accennato, ci sono altri due limiti che si sarebbero potuti adoperare in alternativa a quelli
intermedi. Essi sono: il “limite interno” della soluzione esterna ed il “limite esterno” della soluzione interna, si veda
oltre. In questo esempio essi coincidono con i limiti già calcolati, e cioè il limt→0 0 xest ed il limτ →∞ 0 xint . Il
sussistere dell’uguaglianza fra questi ultimi tuttavia non garantisce in generale che i due sviluppi siano entrambi
validi quando espressi nella prescelta variabile intermedia e questa è Os (1), ma certo lo lascia sperare. ♦
N.B. 6.2.18 Il metodo va abbandonato qualora i limiti necessari per il matching non esistano. Il procedimento
va interrotto o modificato qualora le funzioni che si determinano non siano sviluppabili. ♦
Glossario
Variabili esterne: (t, x) := variabili indipendenti o dipendenti (possibilmente adimensionali) basate sulle
grandezze originarie.
Regione esterna := la regione in cui le variabili esterne rimangono Os (1) quando ε → 0 , e che in tal modo è
di uniformità per lo Sviluppo esterno.
Problema esterno := il problema assegnato, del quale si cerca soluzione nella Regione esterna.
Sviluppo esterno xest (t, ε) := lo sviluppo asintotico
=
xest (t, ε) := αn (ε)xn (t)
n=0
della funzione delle variabili esterne che è soluzione del Problema esterno nella Regione esterna. Ove possibile,
esso viene determinato risolvendo con il metodo perturbativo diretto il Problema esterno.
Limite esterno := il limite per ε → 0 e con le variabili esterne che rimangono Os (1), e quindi con quelle
interne che si avviano verso la Regione esterna.
Variabili interne: (τ, X) := variabili indipendenti o dipendenti (possibilmente adimensionali) ottenute risca-
lando quelle esterne con opportune funzioni d’ordine della ε in modo tale che esse risultino Os (1) nella Regione
interna.
“Opportune” significa in modo tale da ottenere un Problema interno non degenere ed uno Sviluppo interno uniforme
nella Regione interna.
Regione interna := la regione di non uniformità per lo Sviluppo esterno, e di uniformità per quello interno. In
essa le variabili interne rimangono Os (1).
Problema interno := il problema che si definisce sulle variabili interne, opportunamente riscalate in modo che
esso abbia
soluzione X(τ, ε) uniforme ed Os (1) nella Regione interna.
Sviluppo della variabile interna X(τ, ε) :=lo sviluppo asintotico della soluzione X del problema interno
=
X(τ, ε) = X0 (τ ) + β&n (ε)Xn (τ ) , X0 (τ ) = Os (1)
n=1
Ove possibile esso viene determinato risolvendo con il metodo perturbativo diretto il Problema interno, quest’ultimo
inteso come problema nelle variabili interne.
Si noti che per costruzione β̃0 = 1 , e quindi, per esprimere la variabile originaria x mediante lo Sviluppo interno,
talvolta è necessario riscalare la variabile interna X con un’ulteriore funzione d’ordine β0 (ε) che renda il suo
termine dominante consistente con quello della x anche quando viene espresso in funzione delle variabili esterne.
Un iniziale tentativo può essere il richiedere che il termine β0 (ε)X0 (τ (t), ε) sia bilanciato da xest (t, ε), e cioè che
sia β0 (ε)X0 (τ (t), ε) = Os (xest (t, ε)). Il risultato di tale adattamento di scala è lo Sviluppo interno.
Sviluppo interno xint (τ, ε) := lo sviluppo asintotico
=
xint (τ, ε) := βn (ε)Xn (τ ), β0 non necessariamente Os (1)
n=0
della variabile dipendente x (incognita dell’iniziale problema assegnato) in funzione delle variabili interne, ottenuto
mediante la richiesta che il suo ordine di grandezza sia paragonabile a quello della xest .
Limite interno := il limite per ε → 0 e con le variabili interne Os (1), e quindi con quelle esterne che si
avviano verso la regione interna.
Affinché il metodo possa funzionare è necessario che il problema interno contenga ogni elemento essenziale scartato
dal problema esterno, ed inoltre che esso abbia minima degenerazione.
Sviluppo Composto := un qualunque sviluppo asintotico C(t, ε) che si riduca a quello esterno quando le
variabili esterne sono Os (1), e a quello interno quando le variabili interne sono Os (1); ad esempio si può scegliere:
⎧
⎨ sviluppo esterno quando le variabili esterne = Os (1)
⎪
C := sviluppo intermedio quando le variabili intmd. = Os (1)
⎪
⎩
sviluppo interno quando le variabili interne = Os (1)
e quindi costruirlo mediante la:
C(t, ε) := xest (t, ε) + xint (τ (t), ε) − xcom (η(t), ϵ) .
M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 347
Essi sono gli operatori che, agendo sulla stessa grandezza fisica x, (e quindi non necessariamente sulle espansioni
delle soluzioni dei problemi interno ed esterno), ne assegnano l’andamento stimato al prescelto ordine di grandezza.
Il Principio del Paragone Asintotico impone (per esempio)
N 0 1 O 0 1
q p x (t, ε) = p q x (τ, ε)
t=t(τ ) τ =τ (t) τ =τ (t)
Cp,q x := px + qx − q px ,
Analogamente a quanto si è fatto nell’Esempio 6.2.10, si inizia con il riconoscere che la regione interna è per t ≪ 1 .
Infatti, se si impone la condizione x(0) = 0 alla soluzione all’ordine zero si ricava x0 (t) = αe−t = 0 che non
permette alla x alcuna crescita verso il valore 1 a meno che da un certo punto in poi per t ∈ [0, 1] le tre funzioni
x, ẋ, ẍ diventino simultaneamente non negative, e ciò contrasta con l’equazione assegnata.
Si scrive quindi il Problema esterno
(
εẍ + 2ẋ + 2x = 0
Problema esterno
x(1) = 1 ,
Si nota che la x0 è Os (1) anche nella regione interna, e ciò giustifica il tentativo: X(τ, ε) = Os (x(t(τ, ε), ε)) e
τ := t/δ(ε), mediante le quali il Problema Interno assume la forma
ε 2
∂τ2 X + ∂τ X + 2X = 0, X(0) = 0 .
δ 2 (ε) δ(ε)
⎧
⎪ 0 alta degenerazione
ε ⎨
ε
Per trovare δ(ε), delle tre possibilità −→ 1 che implica alta degenerazione
δ 2 (ε) 0 ⎪ ⎩
∞ che implica soluzioni ragionevoli
P I.0 := X ′′ + 2X ′ = 0, X(0) = 0
7 8
del quale è soluzione X0 (τ ) = a 1 − e−2τ con τ = t/ε.
Per individuare la soluzione composta C0,0 si può sviluppare le due funzioni: la 0 x ≡ x0 (t) e la 0x ≡ X0 (τ ),
ciascuna espressa nella variabile “sbagliata” e cioè:
0 1
0x = e1−ετ ∼ e(1 − ετ + o(ε)) ⇒ 0 0 x = e
t=t(τ )
0 1 0 1
0x = a 1 − e−2t/ε ⇒ 0 0x = a
τ =τ (t)
e siccome la prima risulta già espressa in funzione della variabile esterna è immediato imporre l’A.M.P. che fornisce
0 0 = a = e = 0 0. Si calcola infine lo sviluppo composto sommando i tre contributi:
È istruttivo, a questo punto, paragonare il risultato ottenuto non solo con quello esatto:
1 0 1 1
1−t 1−2t/ε
&(t, ε) =
x e − e ≡ C0,0
1 − e(1−2/ε) 1 − e(1−2/ε)
ma anche con quello fornito dal metodo delle scale multiple, con la scala t∗ := t/ε e con β0 = 1 . Questo avrebbe
dato la seguente equazione sulle funzioni X0 = X0 (t, t∗ ) ed X1 = X1 (t, t∗ ):
) * ) *
2 1 2 2 1
ε ∂t + 2 ∂t∗ + ∂tt∗ (X0 + β1 X1 ) + 2 ∂t + ∂t∗ (X0 + β1 X1 ) + 2 (X0 + β1 X1 ) = 0
ε ε ε
con X0 (0, 0) = X1 (0, 0) = 0, X0 (1, 1/ε) = 1, X1 (1, 1/ε) = 0
dalla quale, con β1 = ε , si ricavano le
2.5 0.05
0.04
2
0.03
1.5
0.02
1
0.01
0.5
0.2 0.4 0.6 0.8 1
-0.01
0.2 0.4 0.6 0.8 1
M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 349
e ( 7 8
X ′′ + 2X ′ = −2X0 = −2e 1 − e−2τ ,
P I.1 :=
con X(0) = 0,
1 − t 1−t 7 8 7 8
x1 (t) = e e X1 (τ ) = −τ e 1 + e−2τ + c 1 − e−2τ
2
Questi confermano la scelta α1 = β1 = 1 , e implicano c = e/2 . Alternativamente si può fare ricorso a una
variabile intermedia η := t/δ(ε) con ε ≪ δ(ε) ≪ 1 e trovare, prima
1 − δη 1−δη 0 ε 1
xest ∼ e1−δη + ε e = e (1 − δη) + (1 − 2δη) ;
2 2
poi, sostituendo τ = δη/ε nella 1 x, il corrispondente sviluppo esterno: e(1 − δη) + εc. Ciò conferma: c = e/2 .
In conclusione lo sviluppo composto al primo ordine è
) * 0 1 0 1
1−t e 0 −2t/ε 1
C1,1 x = e 1−t
1+ε + e −e−2t/ε − et +e−2t/ε + ε −e
2 2
ε 0 1
= e1−t − (1 + t)e1−2t/ε + (1 − t)e1−t − e1−2t/ε .
2
&(t, ε) che qui risulta:
Anche in questo particolare esempio il tutto può essere confrontato con la soluzione esatta x
√ √
exp −t(1 + 1 − 2ε)/ε − exp −t(1 − 1 − 2ε)/ε
&(t, ε) =
x √ √
exp −(1 + 1 − 2ε)/ε − exp −(1 − 1 − 2ε)/ε
I seguenti grafici mostrano le tre funzioni: la soluzione esatta x &(t, ε), la composita all’ordine zero: C0,0 (t, ε) (la
linea a tratti), e quella all’ordine uno: C1,1 (t, ε) per i tre valori: ε = 0.3, ε = 0.1, ε = 0.01 .
2 .0 3.0 3.0
1.75 e
x
C1,1 2.5 2.5
1.5 C0,0
1.25 2.0 2.0
1 .0 1.5 1.5
0.75 1.0 1.0
0.5
0.25 0.5 0.5
0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1
N.B. 6.2.22 Tipicamente lo studio degli sviluppi viene effettuato nel seguente ordine: 0 x → 0 x → 1 x →
1x → 2 x . . . , a meno che si riesca a risolvere prima tutto il problema esterno poi quello interno: la parte
delicata del procedimento infatti è decidere quali debbano essere le corrette funzioni d’ordine αi (ε) e βi (ε). ♦
(
(t + εx)ẋ + x = 1
Esempio 6.2.23 (continuazione dell’Esempio 6.2.6)
x(1) = 2, t ∈ [0, 1] .
(
(t + εx)ẋ + x = 1 t ∈ (0, 1]
Problema Esterno
x(1) = 2
Tale soluzione, cosı̀ come tutto lo sviluppo diretto, non è uniforme per t → 0 . Si sceglie pertanto una variabile
interna “breve”, e cioè che sia Os (1) quando t = o(1); si assumerà della forma τ := t/δ(ε) con δ(ε) = o(1). Se
ne ricava un tentativo di sviluppo
1 1
xint (τ ) ∼ 1 + ∼ che è Os (δ −1 ) per τ = Os (1).
δτ δτ
Per introdurre una variabile interna X che sia Os (1) per τ = Os (1) si prova allora a porre β0 := δ −1 insieme
con ) *
d 1 1
X(τ, ε) := δ(ε)xint (t(τ, ε), ε), e x = ∂τ X .
dt δ δ
Queste, poste nel problema iniziale, danno
0 ε 1 1 1 0 ε 1
δτ + X 2 ∂τ X + X = 1, ovvero τ+ X ∂τ X + X = δ ,
δ δ δ δ2
sulla quale non si danno condizioni ausiliarie nella regione interna. Si hanno le tre possibilità:
⎧
⎪ 0 di nuovo l’equazione esterna
ε ⎨
ε
−→ ∞ che implica alta degenerazione
δ 2 (ε) 0 ⎪ ⎩
1 che implica soluzioni ragionevoli
Ricavati in tal modo δ(ε) := ε1/2 , τ := ε−1/2 t, e X := ε1/2 x , si può finalmente definire il
P I.0 := (τ + X)∂τ X + X = 0
M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 351
√
del quale è soluzione τ X0 + X02 /2 = cost, ovvero X0 (τ, ε) = −τ ± τ 2 + 2c .
Ne risulta una prima approssimazione:
⎧ ⎧ 0 / 1
⎨ xest (t, ε) ∼ 1 + 1 ⎨ xint (τ, ε) ∼ ε−1/2 −τ ± τ 2 + 2c
t
⎩ ⎩ β (ε) = ε−1/2
α0 (ε) = 1 0
che implica 0 0 x = ct−1 se il segno è positivo, oppure −2t/ε − c/t se il segno è negativo. Affinché l’A.M.P.
sia corretto, va scelto il segno positivo, ed il √
valore c = 1 .
In definitiva quindi si valuta X0 = −τ + τ 2 + 2 .
N.B. 6.2.24 Si noti che se le funzioni α0 e β0 sono state scelte correttamente, nell’operare il paragone si deve
ritrovare c = cost. ♦
1 0x = t−1 − εt−3 /2 ;
questo suggerisce α1 (ε) = ε anche se non lo assicura, dato che la α1 è assegnata dalla 1 x. Comunque è lecito
il tentativo:
1
xest ∼ 1 + + εx1 (t)
t
da sostituire nel problema esterno. Ne segue all’ordine ε (come d’altronde si era già visto nell’Esempio 6.1.35)
( @) *2 A
tẋ1 + x1 = −x0 ẋ0 1 1
PE.1 := che dà tx1 (t) = − 1+ −4
x1 (1) = 0 2 t
N.B. 6.2.25 Si badi a non confondere fra loro i seguenti termini (e ricordando che δ(ε) = ε1/2 ):
√
(i) X0 (τ ) = −τ + τ 2 + 2c , soluzione del problema interno all’ordine zero;
0 1
−1/2
(ii) 0 x (τ, ε) = ε X0 , primo troncamento di xint ;
0 1
−1/2 −1
(iii) 0 0 x (τ, ε) = ε τ ; primo troncamento intermedio;
0 1 7 −1 8
−1/2
(iv) 0 1 x (τ, ε) = ε τ − 2τ −3 .
Si osservi anche che β1 (ε) = 1 nella 1 1 x non implica né è implicato che tale sia anche nella 1 x (solo accennata
nella (2.61) e da confermare più oltre) né, a maggior ragione, nella 1 X ; ed infatti il coefficiente della X1 è
risultato ε1/2 . ♦
In tal modo, oltre al problema P I.0 , la (2.63) fornisce anche il problema:
P I.1 := (τ + X0 )∂τ X1 + X1 ∂τ X0 + X1 = 1 .
0 1
Quest’ultimo equivale a ∂τ τ X1 + X0 X1 − τ = 0 da cui
/
X1 (τ ) = (τ + c1 )(τ + X0 )−1 = (τ + c1 )/ τ 2 + 2 .
Per trovare il valore della costante c1 occorre uguagliare 1 1 x con 1 1x . Il primo è espresso nella (2.62)
che permette la trasformazione
0 1 + ) * ) *, ) * ) *
−1/2 1 1 1 1 1 1
1 1 x (t, ε) = ε − + 1 − = 1 + − ε + .
τ 2τ 3 τ 2 τ =τ (t) t t2 2t3
Per calcolare 1 1x occorre prima troncare la xint = ε−1/2 X(τ, ε):
0 1 0 0 11 0 / 1 τ + c1
−1/2 1/2 −1/2 2+2 + √
1 x (τ, ε) = 1 ε X 0 + ε X 1 = ε −τ + τ
τ2 + 2
poi trasformare quest’ultima come funzione della variabile esterna t, infine svilupparla come funzione esterna, e
cioè con t = Os (1). Lo sviluppo del primo addendo è stato calcolato nella (2.60); fermandosi al primo ordine
1 ε
esso vale ( − 3 ). Il secondo addendo fornisce
t 2t
t + c1 ε1/2 c1 1/2 1
√ ∼ 1+ ε − 2 2ε .
2
t + 2ε t 2t
Di conseguenza ) * ) *
0 1 1 c1 1/2 1 1
1 x (t, ε) ∼ 1+ + ε −ε 2 + 3
t t t 2t
e quindi l’A.M.P. impone c1 = 0 . Ciò conferma la (2.61), e fornisce
) / *
int −1/2 −1/2 2
τ
x (τ, ε) ∼ ε X(τ, ε) ∼ ε −τ + τ + 2 + √ .
τ2 + 2
M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 353
Per proseguire ulteriormente, si deve prolungare lo sviluppo di 1 x oltre i termini in ε1/2 ed ε già trovati, e
scrivendo 2 1 x avere un suggerimento su α2 (ε), coefficiente di x2 (t) da trovarsi mediante il problema esterno;
. . . etc.
Al passo successivo si ha
C1,1 x(t, ε) =
1x + 1x − 1 1x
) * @ T A
1 (1 − t)(1 + 3t) t t2 2 t
= 1+ −ε + − + + +√
t 2t3 ε ε2 ε t2 + 2ε
) ) **
1 1 1
− 1+ −ε 2 + 3
t t 2t
T
t t t2 2 3ε
= √ − + 2
+ +
t + 2ε ε
2 ε ε 2t
√
non è valida per t ≪ ε (ovvero τ ≪ ε ) a causa dell’ultimo termine che risulta grande in tale regione, ovviamente
contenuta in quella interna. Secondo quanto
√ si è trovato subito dopo il N.B. 6.2.8, per avvicinarsi alla soluzione
esatta tale termine dovrebbe valere 2ε/ t2 + 2ε . #
si ricava - τ ) ) * ) **
−s3/2 2 2 3/2
X0 (τ ) = c̃ e ds =: κ Γ −Γ ,τ .
0 3 3
Il matching richiede l’uguaglianza tra X0 (∞) = κ Γ(2/3)7 e x80 (0) = 1 + c0 ; e il fatto che X(∞) sia finito conforta
la scelta β0 = 1 . Ne seguono X0 (τ ) = (1 + c0 ) − κ Γ 2/3, τ 3/2 con κ = (1 + c0 )/Γ (2/3) e la soluzione composta
) *
√
t 2 t3/2
C0,0 = x0 (t) + X0 (τ (t)) − (1 + c0 ) = 1 + c0 e − κ Γ , .
3 ε
La seguente figura mostra le due soluzioni: quella calcolata numericamente e la C0,0 , valutate per ε = 0.1 ; per
tale valore di ε esse risultano manifestamente simili.
3
2.5
Num
2
C00
1.5
1
0.5
si ha infatti
) 1*
1/3 1/2 1 0 2/3 2 ε1/3
( 1 x)(τ, ε) = 1 + c0 exp(ε τ ) 1 + ε √ − −ε
6 τ τ
0 τ τ 3/2 1 0 ε1/3 ε2/3 ε 1
∼ 1 + c0 1 + ε1/3 τ 1/2 + ε2/3 + ε 1− + √ −
2 6 6τ 3 τ 6
+ 0 1 0 1 0 ,
1 τ 1 τ 3/2
1 1
∼ 1 + c0 1 + ε1/3 τ 1/2 − + ε2/3 + √ +ε +
6τ 2 6 τ 6 12
e quindi ) *
√ t t3/2 ε 0 2 2 1
( 1 1 x) (t, ε) = 1 + c0 1 + t+ + + 1+ √ − .
2 6 12 t t
M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 355
segue il ( √
4X1′′ + 6 τ X1′ − 3 (X0 − 1) = 0
P I.1 :=
X1 (0) = 0
3/2 3/2
Si ha 4d(eτ X1′ )/dτ = 3eτ (X0 − 1)
che fornisce, con τ0 un punto della zona interna (per esempio τ0 = 0 ),
) - 1*
′ −τ 3/2 3 τ s3/2 0 3/2
X1 = e c1 + e c0 − Γ(2/3, s ) ds
4 τ0
da cui segue - - -
τ
3/2 3 τ
3/2
s
3/2
0 1
X1 (τ ) = c1 e−s ds + e−s eσ X0 (σ) − 1 dσ ds .
0 4 0 τ0
e quindi le
=∞ =∞
2/3 1 3n/2
eσ Γ(2/3, σ 3/2 ) = Γ(2/3) σ +σ gm σ 3m/2
n=0
n! m=0
- s ∞
= ∞
=
3/2 3/2
e−s eσ Γ(2/3, σ 3/2 )dσ = Γ(2/3) ℓn s1+3n/2 + hn s2+3n/2
0 n=0 m=0
- τ - s =∞ =∞
3/2 3/2 ℓn hn
e−s eσ Γ(2/3, σ 3/2 )dσds = Γ(2/3) τ 2+3n/2 + τ 3+3n/2
0 0 n=0
2 + 3n/2 n=0
3 + 3n/2
ove
n
= n
=
(−1)(n−h) (−1)n−k
an : = ; ℓn : = ;
(n − h)!h!(1 + 3h/2) k!(1 + 3k/2)(n − k)!
h=0 k=0
=m =n
(−1)k+1 gm (−1)n−m
gm : = 2 ; hn : = .
k=0
k!( 3 + k)(m − k)! m=0
(n − m)! + 2 + 3m/2
Se ne conclude che ( 1 x)(t, ε) ∼ X0 (τ (t)) + ε1/3 X1 (τ (t)) non ha singolarità in t = 0 , cosa che invece accade
alla x1 (t), e che quindi per il primo ordine il metodo del matching non è accettabile. Ciò non produce alcun
miglioramento alla C0.0 .
Sperando di ottenere un risultato migliore si può provare con il Metodo delle scale multiple. Siano t =: δ(ε) t∗
ed
x(t, ε) = X0 (t, t∗ ) + β1 (ε)X1 (t, t∗ ) + β2 (ε)X2 (t, t∗ ) + β3 (ε)X3 (t, t∗ ).
d 1 d2 1 2
Si ottiene: = ∂t + ∂t∗ , ed = ∂t2 + 2 ∂t2∗ + ∂tt∗ . Ne segue
dt δ dt2 δ δ
⎧ ) * ) *
1 2 2 √ 1
⎪
⎪ 2
4 ε ∂t + 2 ∂t∗ + ∂tt∗ (X0 +β1 X1 + β2 X2 + β3 X3 ) + 6 t ∂t + ∂t∗
⎪
⎪ δ δ δ
⎪
⎨
× (X0 + β1 X1 + β2 X2 + β3 X3 ) − 3 (X0 + β1 X1 + β2 X2 + β3 X3 − 1) = 0
⎪
⎪
⎪
⎪ X0 (0, 0) = 0, X1 (0, 0) = 0, X2 (0, 0) = 0, X3 (0, 0) = 0
⎪
⎩
X0 (1, 1/δ) = 3, X1 (1, 1/δ) = 0, X2 (1, 1/δ) = 0, X3 (1, 1/δ) = 0.
√ √
Con ε/δ 2 = 1/ δ , ovvero nuovamente con δ = ε2/3 , e con β1 = δ , β2 = δ , β3 = δ 3/2 , si hanno le
equazioni 0 1
√ √
O(1/ δ) : 4∂t2∗ + 6 t∗ ∂t∗ X0 = 0
0 √ 1 √
O(1) : 4∂t2∗ + 6 t∗ ∂t∗ X1 − 3(X0 − 1) + 6 t ∂t X0 = 0
√ 0 √ 1 √
O( δ) : 4∂t2∗ + 6 t∗ ∂t∗ X2 − 3X1 + 6 t ∂t X1 + 8∂tt∗ X0 = 0
0 √ 1 √
O(δ) : 4∂t2∗ + 6 t∗ ∂t∗ X3 − 3X2 + 6 t ∂t X2 + 8∂tt∗ X1 = 0
72 8
Dalla prima segue X0 (t, t∗ ) = a(t)Γ 3, t∗3/2 + b(t) e quindi la seconda dà
0 √ 1 0 √ 1 )2 * 0
√ 1
4∂t2∗ + 6 t∗ ∂t∗ X1 + 6 t ȧ − 3a Γ , t∗3/2 + 6 t ḃ − 3b + 3 = 0
3
0 72 8 7 2 8 1−1
1
In definitiva, con le ulteriori posizioni γ := 1−Γ 3, ε /Γ 3 ed a∗ = −κ γ , al primo ordine si ricava
lo sviluppo + ) * ) *,
√ √ 2 ∗3/2 2
X0 (t, t∗ ) = 1 − e t
+ a∗ e t
Γ , t −Γ .
3 3
e quindi, all’ordine zero si trova
√ √ 0 1
xScMlt
0 (t, ε) = 1 + (c0 γ + (γ − 1)) e t
− κγe t
Γ 2/3, t3/2 /ε .
M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 357
3
2.5
2
1.5
1
0.5
Per il calcolo dei coefficienti a2 , b2 occorre servirsi della quarta equazione, quella all’ordine δ , sulla quale la regola
di Lighthill dà
+ ) * ) *, 0 1
√ 2 ∗3/2 2 √
0 = −3X2 + 6 t ∂t X2 = Γ , t −Γ 2a2 − 4 t ȧ2
3 3
√ ) + ) * ) *,*
0 √ 1 3a∗ e t √ −t∗3/2 1 1 ∗3/2 1
+ −3b2 + 6 t ḃ2 + ∗
t e + Γ , t −Γ .
t 3 3 3
Se ne conclude √ √
t t
a2 (t) = ae , b2 (t) = be
che dà √ ) + ) * ) *,*
∗ a∗ e t √ ∗ −t∗3/2 1 1 ∗3/2 1
X2 (t, t ) = − √ t e + Γ , t −Γ
t 3 3 3
√
) + ) * ) *,*
2 2 ∗3/2 2
+e t b− a Γ , t −Γ
3 3 3
L’esame degli sviluppi in serie del primo termine mostra che la condizione X2 (0, 0) = 0 è da esso verificata; quindi
occorre solo che sia b = 0 . D’altra parte si ha
) + ) * ) *,*
1 −δ−3/2 1 1 −3/2 1
X2 (1, 1/δ) = 0 = − a∗ e √ e + Γ , δ −Γ
δ 3 3 3
+ ) * ) *,
2 2 −3/2 2
− ea Γ , δ −Γ
3 3 3
che d’à ) + ) * ) *, 2 *
1 1 1
e−1/ε + ε1/3 Γ , −Γ 3
3 ε 3
a = −3 a∗ ε−1/3 c∗ con c∗ := ) ) * ) ** .
2 1 2
2 Γ , −Γ
3 ε 3
Pertanto + ) * ) *,
√
2 ∗3/2 2
2/3 ∗ 1/3 t
ε X2 (t, t ) = ε 2a∗ c∗ e Γ , t −Γ
3 3
√ ) + ) * ) *,*
2/3 e t √ ∗ −t∗3/2 1 1 ∗3/2 1
− ε a∗ √ t e + Γ , t −Γ .
t 3 3 3
xScMlt
1 xScMlt
2 xScMlt
3
3
2.5
xScMlt
1
+ xScMlt + xScMlt
2 3
2
1.5
1
² = 0.1
0.5
3
2.5
xScMlt
1+2+3
2 xScMlt
0
1.5 C00
Num
1
0.5
M. Lo Schiavo
6.3. Il pendolo fisico e l’equazione di Duffing 359
con ω02 := g/ℓ, e condizioni iniziali opportune affinchè sia ∥θ(t)∥∞ < ∞.
Come si è visto nel Cap.III § 4, la funzione 12 θ̇2 − ω02 cos θ è un integrale primo del moto; se ne deduce che
1 2 1
θ̇ = ω02 cos θ + θ̇02 − ω02 cos θ0 (3.65)
2 2
e che se E 0 := (1/2ω02 ) θ̇02 − cos θ0 è maggiore di +1 allora il valore della funzione θ̇2 (t) rimane strettamente
positivo per ogni t ∈ R, e quindi la θ(t) cresce indefinitamente. Se invece è −1 ≤ E 0 < 1 , risulta ben definito
ed in [0, π) il valore, massimo durante il moto, dell’arco θ
' ) *'
' 1 2 '
'
θM := 'arccos − θ̇ + cos θ0 '' ;
2ω02 0
e dovendo essere θ̇2 ≥ 0 , dalla (3.65) si ricava che |θ(t)| < θM , per ogni t.
Si ponga θ(t) =: αx(t); per costruzione risulta x ∈ [−1, +1] per ogni t ∈ R, e cioè risulta x = Os (1) . È
questa, in generale, la condizione da richiedere alle variabili sulle quali adoperare i vari metodi perturbativi. Tale
condizione risulta quindi verificata nella seconda delle eventualità viste, con α ≡ θM . Se poi le condizioni iniziali
sulla (3.64) sono addirittura tali che θM ≡ α ≪ 1 , allora la (3.64) stessa, sviluppata rispetto al parametro piccolo
α (si badi bene, e non rispetto all’incognita soluzione), diviene
) *
2 1 3 3 1 5 5 7
αẍ + ω0 αx − α x + α x + O(α ) = 0.
6 5!
Tutto ciò permette, ma solo dopo aver eseguito la discussione appena fatta ed essersi quindi serviti dell’integrale
primo del moto e di tutte le sue conseguenze circa la limitatezza e gli ordini di grandezza delle soluzioni, di concludere
che il sistema definito dalla (3.64) ha soluzioni che risultano descritto convenientemente bene, se localmente ed in
forma approssimata, dalla equazione del seguente esempio.
Esempio 6.3.1
l’Equazione di Duffing ẍ + ω02 x = εbx3 ; ε, b, ω0 ∈ R. (3.66)
Quando l’equazione (3.66) proviene dalla equazione (3.64), le costanti ε, b, ω0 sono legate a quelle del pendolo
fisico dalle relazioni:
α2 ω02 ω02 1 g
= εb con 0 < ε ≡ α2 ≡ θM
2
≪1 e b := := ∈ R+ . (3.67)
6 6 6 ℓ
I valori numerici che verranno usati per tracciare i grafici più avanti sono:
È la (3.66) l’equazione che si vuole ora studiare; e lo si farà anche per valori negativi di b, data l’importanza che
essa autonomamente ricopre in molte altre applicazioni.
Innanzi tutto si osserva che sulla (3.66) si può nuovamente usare la metodologia vista nel citato paragrafo § III.4,
e cioè la discussione con i Metodi Qualitativi. Infatti anche l’equazione (3.66) ammette l’integrale primo:
1 2 ω02 2 εb 4
E = E (x, ẋ) := ẋ + V (x) con V (x) := x − x + V& .
2 2 4
Per riferimento, si può paragonare quest’ultima equazione con l’equazione del pendolo fisico:
sin θM x
ẍ + ω02 = 0, (3.69)
θM
2
nella quale ε = θM e 6b = ω02 . L’energia potenziale VP F della (3.69), con la scelta VP F (0) = V (0) = 0 ,
risulta
) 2 * ) *
ω02 ω2 θM θ4 ω02 2 εb 4
VP F (x) := 2
(1 − cos(θM x)) ∼ 20 x2 − M x4 4
+ o(θM ) = x − x + o(ε2 ) .
θM θM 2 24 2 4
3000
2000
V PF (x) 1000
-2000
-3000
1000 1000
-1000 -1000
-2000 -2000
/
Il caso b > 0 ammette tre equilibri: xs = 0 ed xED 2
± = ± ω0 /εb, analogo a quello del pendolo per il quale si
hanno xs = 0 ed xP ±
F
= ±π/θ M
, cosı̀ disposti (se si assumono le (3.68)):
B √
ω02 /εb = 6/θM ∼ 28.1 < π/θM ∼ 36.0 ,
e si noti che entrambi sono |x± | ≫ 1 quest’ultimo essendo, sotto le attuali ipotesi, il massimo valore accettabile
per la |x| del pendolo.
In corrispondenza a condizioni iniziali tali che: x0 ∈ (x− , x+ ) e con
) * ) *
1 1 εb 4 ω4
E 0 := ẋ20 + V (x0 ) = ẋ20 + ω02 x20 − x0 tale che E 0 ∈ (0, V (x± )) ≡ 0 , 0 ,
2 2 2 4εb
si hanno traiettorie periodiche che racchiudono l’origine.
È interessante osservare che sussistono le valutazioni
ω04 3ω02 2ω02
V (|xED
± |) = = 2
∼ 1969.7 , VP F (|xP F
± |) = 2
∼ 2626.2 ,
4εb 2θM θM
e tali valori mostrano che le traiettorie del pendolo rimangono oscillazioni (limitate) anche se la E 0 è (un pò) più
grande di quanto necessario per l’analoga richiesta sulla (3.66). Per quest’ultima, tutte le traiettorie sono di questo
tipo nel caso b < 0 , e quindi quest’ultimo verrà inteso come un sottoinsieme dei precedenti.
Si assumano condizioni iniziali tali che ẋ0 = 0 e quindi con 0 < r0 := |x0 | che indica l’ampiezza massima
dell’oscillazione. Se b > 0 , o se si discute il pendolo, si assuma anche la condizione di periodicità del moto:
r0 < |x± |). Il caso particolare del pendolo si riconosce in r0 = 1 . Introducendo per brevità la (facile) funzione
d’ordine
δ = δ(ε) := εb/2ω02 , che nel pendolo fisico vale: δ P F = θM 2
/12 ∼ 0.00063 ,
si ottiene
/ B B
2(E 0 − V (ξ)) = ω0 r02 (1 − δ r02 ) − ξ 2 (1 − δ ξ 2 ) = ω0 (r02 − ξ 2 ) (1 − δ (r02 + ξ 2 )) .
M. Lo Schiavo
6.3. Il pendolo fisico e l’equazione di Duffing 361
ove si è chiamata
) *
δ 7 8 εb εb 2 εb
δε := ∼ δ 1 + 2δ r02 = 1+ r ∼ δ ≡ ,
2
1 − 2δ r0 2ω02 ω02 0 2ω02
e si osservi che la δε ha sensibilmente lo stesso valore della δ ; ad esempio nel caso del pendolo fisico esse sono
entrambe (all’ordine O(ε2 )) δε ∼ δ = ε/12 ∼ 0.00063 .
Tramite la (3.70) si può calcolare l’espressione esatta del periodo dei moti7 periodici
8 soluzioni della (3.66), e cioè
quelli uscenti da dati iniziali (se b > 0 ) tali che r0 < |x± | ed E 0 = r02 1 − δ r02 /2 . Essa è:
- π/2
4 dϕ
T = / B . (3.71)
ω0 1 − 2 δ r02 0 1 + δε r02 sin2 ϕ
Qualora invece sia sufficiente solo una stima del periodo, ed inoltre sussista l’ipotesi εb/ω02 ≪ 1 e quindi δ ∼ δε ≪ 1
jB
come nel caso (3.68), ci si può servire dello sviluppo: 1 1 + δε r02 sin2 ϕ ∼ 1 − (1/2)δε r02 sin2 ϕ mediante il
quale si valuta
4 0π π 1 4 7 8 0π π 1
2 2 2
T∼ / − δ ε r0 + . . . ∼ 1 + δ r 0 − δ r0 + . . .
ω0 1 − 2 δ r02 2 8 ω0 2 8
) * ) * (3.72)
4π 1 3 2 2π 3 εb 2
∼ + δ r0 + . . . ∼ 1+ r .
ω0 2 8 ω0 8 ω02 0
Ciò mostra che diversamente dal caso lineare il periodo delle oscillazioni della (3.66), anche se piccole, dipende in
modo esplicito dall’ampiezza massima r0 delle oscillazioni stesse.
Quando la (3.66) proviene dalla (3.69) la
) definizione di θM e la scelta ẋ0 = 0 assegnano r0 = 1 , e si ritrova il
2 *
2π θM
valore (già valutato nel §III.4) TP F ∼ 1+ ∼ 1.9869 × (1.0 + 0.000476).
ω0 16
N.B. 6.3.2 Ovviamente, anche il periodo esatto del pendolo fisico può essere calcolato a partire dal suo integrale
primo E = ẋ2 /2 + V = cost. Per esso si ha ẋ2 = 2ω02 (cos θM x − cos θM )/θM2
, da cui
- 1
4θM dx
TP F = / .
ω0 0 2(cos θM x − cos θM )
si ottiene una più conveniente espressione per il valore esatto del periodo del pendolo:
- 1 - π/2
4θM dx 4 dψ
TP F = / = B (3.73)
ω0 2(cos x − cos θM ) ω0
0 0
1 − δ&2 sin2 ψ
√
Nell’ipotesi di piccoli valori per la costante θM ≡ ε , e quindi per δ& := | sin θM /2| ≪ 1 , si può ottenere
la stima di tale periodo. Infatti, a partire dalle seguenti relazioni, (delle quali la (3.74a) e la (3.74c) sono tanto
più vere quanto più ε > 0 è vicino allo zero, e quindi, in questo caso, quanto più è piccola l’ampiezza massima
dell’oscillazione): ) *'
1 1 ' ε
√ ≃ 1 + ε − (1 − ε)−3/2 (−1) ' = 1+ ; (3.74a)
1−ε 2 ε=0 2
- π
π
sin2 ψ dψ = ; (3.74b)
0 2
ε2 ε3
sin ε ≃ 0 + ε − 0+ . (3.74c)
2 6
si ha, successivamente:
- @ A
4 π
δ&2 sin2 ψ
TP F ≃ 1+ dψ , (per la (3.74a));
ω0 0 2
@ A
2π δ&2
= 1+ , (per la (3.74b));
ω0 4
) *
2π θ2
≃ 1+ M , (per la (3.74c)),
ω0 16
ed è quindi evidente che, contrariamente a quanto accade per l’oscillatore armonico lineare, anche nel caso di piccole
oscillazioni il periodo del pendolo fisico dipende dall’ampiezza massima θM dell’oscillazione, e cioè dall’energia
iniziale.
Nei passaggi qui sopra sono state usate
Il cosiddetto Integrale ellittico di prima specie che compare nella (3.73), convergente quando δ& := | sin θM /2| < 1 ,
si sarebbe potuto esprimere anche con l’aiuto delle funzioni ipergeometriche, (si veda § I.6):
- ) * ∞
π/2
dψ & ≡ F 1 1 π = (1/2)n (1/2)n &2n
B =: K(δ) , , 1; δ 2 := δ , (3.75)
2 2 2 n=0 n!(1)n
0
1 − δ&2 sin2 ψ
e fornisce il valore esatto del periodo del pendolo fisico: TP F = 4K(δ)/ω & 0 . Il valore che si è stimato qui sopra:
7 2
8
2π 1 + θM /16 /ω0 ne è una prima approssimazione valida solo nel caso in cui l’ampiezza massima dell’oscillazione:
θM sia piccola (e ciò accade
+ quando è, piccola l’energia E 0 ). In tal caso sin θM /2 ∼ θM /2 e i primi due termini
θ2
della serie (3.75) sono 1 + ( 12 )( 12 ) M
4 .
Lo stesso procedimento permette di esprimere anche il periodo (3.71) dei moti oscillatori dell’equazione di
Duffing in modo alternativo a quanto fatto nella (3.72). Si ha infatti
) B * ) *
4 2 4 7 2
8 π 1 2
T = / K − δε r0 ∼ 1 + δ r0 1 − δε r0
ω0 1 − 2 δ r02 ω0 2 4
) * ) * (3.76)
2π 3 2 2π 3 εb 2
∼ 1 + δ r0 + . . . ∼ 1+ r .
ω0 4 ω0 8 ω02 0
Per poter procedere (in modo non numerico) a una stima anche delle soluzioni della (3.66) si può ricorrere ai
metodi perturbativi. Sia, come detto sopra, ẋ(0) = 0 ed |x(0)| < |x± |, e si inizi con il
Metodo Perturbativo Diretto.
Il problema P 0 per la (3.66) è ben noto, e dà soluzioni 2π/ω0 -periodiche:
Se si attribuiscono tutte le condizioni iniziali alla x0 (t, ε), la r0 ≡ |x0 (0)| coincide con la r0 ≡ |x(0)|, e corrisponde
all’ampiezza massima dell’oscillazione (e come tale vale 1 ) e quindi ϕ0 = 0 .
All’ordine uno si ha
) *
1 3
ẍ1 + ω02 x1 = br03 cos3 ω0 t = br03 cos 3ω0 t + cos ω0 t
4 4
infatti (con c.c ad intendere il complesso coniugato del termine che lo precede)
) *3 ) *
eiψ e−iψ e3iψ 3eiψ 1 3
cos3 ψ = + = + c.c. + + c.c. = cos 3ψ + cos ψ .
2 2 8 8 4 4
M. Lo Schiavo
6.3. Il pendolo fisico e l’equazione di Duffing 363
Date le risonanze, si prova con z1 e3iω0 t + z2 teiω0 t (si veda il N.B. 6.1.11 del paragrafo 1), ottenendo
) * ) *
1 3
0 = −9ω02 z1 + ω02 z1 − br03 e3iω0 t + 2iω0 z2 − br03 eiω0 t ,
4 4
da cui: z1 = br03 /(−32ω02), e z2 = 3br03 /(8iω0 ). Di conseguenza, la soluzione completa del problema P 1 è
3b 3 b
x1 (t) = r1 cos(ω0 t + ϕ1 ) + r t sin ω0 t − r3 cos 3ω0 t
8ω0 0 32ω02 0
nella quale si nota subito una non uniformità dello sviluppo asintotico per tempi grandi. Imponendo le condizioni
iniziali x1 (0) = ẋ1 (0) = 0 si ottiene ϕ1 = 0 e r1 = br03 /32ω02 , da cui infine
εb 0 1
xdir (t, ε) = r0 cos ω0 t + r0
3
cos ω 0 t − cos 3ω 0 t + 12ω 0 t sin ω 0 t . (3.77)
32ω02
Nel caso (3.67) si ha b/32ω02 = 1/192 e quindi il coefficiente della x1 , calcolato per ε = θM 2
∼ 0.0076 , vale
2
ε/192 = θM /192 = 0.00003967 .
La seguente figura mostra il grafico della soluzione x &(t, ε) dell’equazione (3.66) trovata numericamente in
corrispondenza ai valori detti sopra, e la differenza fra questa e la xdir .
1
0.0004
0.5 0.0002
5 10 15 20 5 10 15 20
-0.5 -0.0002
-0.0004
-1
e(t; ")
x e(t; ") ¡ xdir (t; ")
x
#
N.B. 6.3.3 Si osservi che il primo addendo dell’espressione trovata è la correzione O(ε) della soluzione del problema
omogeneo la quale, volendo, si può anche scrivere come xom (t) = r cos(ω0 t + ϕ) con
r = r0 + εr̃1 + ε2 r̃2 + . . . e ϕ = ϕ0 + εϕ̃1 + ε2 ϕ̃2 + . . . .
Nayfeh ([§4.1]), per esempio, prosegue risolvendo solo i problemi particolari e lascia le costanti in gioco ancora
dipendenti dal parametro ε . Si tratta di paragonare
r0 cos(ω0 t + ϕ0 ) + εr1 cos(ω0 t + ϕ1 ) + ...
= (r0 cos ϕ0 + εr1 cos ϕ1 + . . .) cos ω0 t
− (r0 sin ϕ0 + εr1 sin ϕ1 + . . .) sin ω0 t
con
r cos (ω0 t + ϕ) = (r0 + εr̃1 + . . .) cos(ϕ0 + εϕ̃1 + . . .) cos ω0 t
− (r0 + εr̃1 + . . .) sin(ϕ0 + εϕ̃1 + . . .) sin ω0 t .
Le condizioni ausiliarie sono comunque
d d d
x(0) = x0 (0), x(0) = x0 (0) e x1 (0) = 0, x1 (0) = 0
dt dt dt
e permettono la determinazione delle (r0 , r̃1 , ϕ0 , ϕ̃1 ) altrettanto bene quanto quella delle (r0 , r1 , ϕ0 , ϕ1 ).
Sotto l’aspetto del mantenere il contatto con quanto si sta facendo, il risolvere uno per uno i vari problemi P n
ai vari ordini ivi comprese le equazioni omogenee e le condizioni ausiliarie, può essere preferibile. ♦
Come si è osservato, nel correggere una soluzione periodica nelle coordinate (x, ẋ) il metodo diretto ha generato
una soluzione non valida per tempi grandi; in più la correzione risulta poco credibile anche per quanto riguarda la
periodicità, che si è persa.
Per tentare di evitare tali inconsistenze occorre usare qualche altro metodo, e l’intrinseca natura periodica dei
moti in esame consiglia di iniziare con il:
con f (1,2) = O(1) e 2π -periodiche nella loro seconda variabile. Per esempio
(
ṙ = ε(a + b cos θ)
con r0 , a, b, ω0 ∈ R . (3.79)
θ̇ = −ω0
Introdotta la nuova variabile ϕ := −ω0 t − θ la seconda delle (3.78) fornisce, per ε = 0 , la ϕ̇ = 0 , e quindi il
sistema iniziale può anche essere scritto come:
(
ṙ = ε f&(1) (t; r, ϕ; ε)
(3.80)
ϕ̇ = ε f&(2) (t; r, ϕ; ε)
per il quale ci si aspetta che le coordinate (r, ϕ) siano “lentamente variabili”, ed in cui la (f&(1) , f&(2) ) rappresenta
un campo quasi periodico rispetto a t, C 1 rispetto ad (r, ϕ, ε) e uniformemente rispetto a t. L’equazione (3.80)
risulta cioè del tipo: (
ẋ = ε f (t, x, ε) ,
Forma AP standard (3.81)
f : R1 × Rn × (0, ε+ ] → Rn ,
con
f (·, x, ε) ∈ AP ovvero: f “quasi-periodica” rispetto a t ∈ R,
uniformemente per x ∈ K, con K ⊂ Rn compatto, (3.82)
ed f (t, ·, ·) ∈ C 1 (K × (0, ε+ ]), uniformemente per t ∈ R1 .
Si supponga di avere un problema del tipo (3.80) con la f che verifichi le ipotesi (3.82).
Servendosi della trasformazione (3.85), l’equazione (3.80) diviene (rispetto alle nuove variabili) l’equivalente
equazione: 0 1
(1I + ε∂y u(t, y, ε)) ẏ = εf0 (y) + ε f (t, y, 0) − f0 (y) − ∂t u(t, y, ε)
0 1 (3.86)
+ ε f (t, y + εu(t, y, ε), ε) − f (t, y, 0) .
M. Lo Schiavo
6.3. Il pendolo fisico e l’equazione di Duffing 365
Su quest’ultima si può notare che, in virtù della regolarità della f e delle caratteristiche su elencate per la funzione
u , gli ultimi due addendi del secondo membro hanno le stesse proprietà della f ed in più sono o(ε) .
In conclusione: esiste una trasformazione di coordinate, che per ε piccoli è quasi l’identità, a seguito della
quale l’equazione che si ottiene a partire da quella data (3.81) ne è (al primo ordine) la media temporale:
infatti il termine correttivo f1 (t, y, ε) che si calcola dalla (3.86) ha le stesse proprietà della f ed è o(1). In più si
verifica che la soluzione x = x(t, ε) della (3.81) e la soluzione y = y(t, ε) della (3.87) restano, per tempi O(1/ε),
distanti fra loro O(ε) se tali sono stati i loro dati iniziali.
N.B. 6.3.4 Se la differenza f (t, x, 0) − f0 (x) è un polinomio trigonometrico avente per coefficienti funzioni intere
CN 1
della x, la corretta trasformazione è addirittura indipendente dalla ε ed è data dalla u(t, x) := k=1 ak (x) eiωk t
CN iω k
nella quale i coefficienti sono quelli per i quali f (t, x, 0) − f0 (x) = k=1 ak (x)eiωk t . ♦
'
Inoltre, se x0 è uno zero isolato della determining equation f0 (x) = 0 , e detta A0 la matrice ∂x f0 'x=x , mediante
0
l’ulteriore posizione y =: x0 + z si può trasformare il sistema dato nel sistema quasi lineare:
ż = ε A0 z + ε g(t, z, ε)
(ove g(t, z, ε) ha le stesse proprietà della f ed è o(1)), e sul quale è agevole usare i teoremi di continuità per
gli sviluppi perturbativi (vedi: [Hale §IV.4]). Se ne deduce (si osservi che in questo esempio la x rappresenta
grandezze lentamente variabili) la
'
Proposizione 6.3.1 Se la matrice A0 := ∂x f0 'x=x è iperbolica, allora:
0
con fb , fℓ regolari almeno quanto la precedente f , con fℓ almeno C 2 rispetto a x, con fb quasi periodica in t,
e con fℓ periodica di periodo T = O(1) nella sua prima variabile (il “tempo lento”: t1 = εt) e, come tale, quasi
costante sui tempi O(1). Sotto tali ipotesi si ottiene l’equazione mediata:
d
“Guiding equation” x = f&0 (x) + fℓ (t1 , x) (3.89)
dt1
che ha campo T -periodico nella variabile t1 . Se ne ricava la
ha le proprietà (i) come enunciate nella Proposizione 6.3.1, e la funzione z(εt, ε) è ora soluzione dell’equazione
quasi lineare:
ż = εA(εt)z + εg(t, εt, z, ε)
'
con A(εt) := ∂x (f&0 + fℓ ) 'x=!x e con g(t, εt, z, ε) quasi periodica nella sua prima variabile, T -periodica
0
nella seconda, ed o(1).
Nell’esempio (3.79) che si sta discutendo si ha f (t, x, ε) = a + b cos ω0 t e quindi l’equazione mediata per la
prima componente è ẏ = εa dalla quale risulta x(t, ε) = x0 + εat + o(ε).
Questa stessa espressione si sarebbe potuta ottenere anche come applicazione del secondo Corollario qui sopra,
e cioè considerando
fb (t, x) = b cos ω0 t ed fℓ (t, x) = a .
d
Se ne ricava f&0 = 0 ed A0 = 0 , e quindi il problema mediato !0 (εt) = x0 +aεt.
x = a , la cui soluzione è x
d(εt)
Pertanto in entrambi i modi si trova
x(t, ε) = x0 + εat + o(ε) .
Tale espressione va confrontata con la soluzione esatta del problema (3.79):
εb
&(t, ε) = x0 + εat +
x sin ω0 t .
ω0
Si noti che la differenza fra le due espressioni è un termine oscillatorio, piccolo per tempi grandi, cosı̀ come era
piccolo, in quanto rapidamente oscillante, il termine cos ω0 t rispetto al termine a, che invece è comunque presente
anche a tempi lunghi.
Si noti infine che, per la terza delle (3.83), la funzione u(t, x, ε) è (se non in modo esatto, almeno approssimato)
l’integrale rispetto al tempo della parte oscillante del campo, e cioè della differenza f (t, x, 0) − f0 (x); in questo
esempio risulta proprio u(t, x, ε) = (b/ω0 ) sin ω0 t . #
N.B. 6.3.5 In effetti è possibile applicare il metodo della media anche ad equazioni, quali ad esempio l’equazione
di Duffing (3.66), il cui campo non sia della forma (3.81), purchè per esse il problema all’ordine zero abbia soluzioni
periodiche. Per far ciò si introduce l’ulteriore trasformazione di coordinate che esprime le coordinate attuali relative
a tale evoluzione in funzione di quelle dei dati iniziali. Se anche queste ultime vengono assunte come, debolmente,
dipendenti dal tempo, si può studiare il sistema differenziale che ne regola l’evoluzione sfruttando il fatto che la
debole dipendenza dal tempo e le ipotesi sulla soluzione del problema all’ordine zero forniscono un campo O(ε) e
quasi periodico, e quindi adatto all’applicazione del metodo di media.
Per vederlo, si consideri un’equazione del tipo
ẋ = v(t, x, ε) := g1 (x) + ε g2 (t, x, ε) , con t &→ g2 ( · , x, ε) ∈ Per(T), (3.90)
e per la quale si sospettano soluzioni T -periodiche a meno di coefficienti “lentamente variabili”. La (3.90) può essere
trasformata mediante il seguente schema generale (salvo il caso in cui siano presenti risonanze) in una equazione
sulla quale usare il metodo di media. A tale scopo si indichi con q ∈ Rn il vettore dei dati iniziali, e con
x0 = x0 (t, q), x0 : R1 × Rn → Rn , la soluzione generale, T -periodica rispetto alla t, del problema all’ordine
zero della ẋ = v(t, x, ε). Sussista cioè l’identità
d
x0 (t, q) = v(t, x0 (t, q), 0) con q ∈ Rn .
dt
Si assuma poi che la q dipenda esplicitamente dal tempo (oltre che dalla ε che però qui va considerata solo come
un parametro, e non una variabile), e quindi che la derivata totale d/dt della x0 (t, q(t)) risulti, invece,
v(t, x0 (t, q(t)), 0) + ∂q x0 (t, q(t)) q̇(t) .
Quest’ultimo vettore è ciò che si eguaglia a quello assegnato: v(t, x0 (t, q(t)), ε).
In tal modo la soluzione del problema (3.90) resta espressa (all’ordine O(ε)) dalla funzione x0 (t, q(t)), ove
d
x0 (t, q) è la soluzione del problema ridotto: x = v(t, x, 0) ≡ g1 (x) con condizioni iniziali x(0) = q,
dt
e con q = q(t) la funzione che (ancora all’ordine O(ε)) è soluzione dell’equazione
∂q x0 (t, q) q̇ = ε vε (t, x0 (t, q); 0) ≡ ε g2 (t, x0 (t, q), 0) , (3.91)
con condizioni iniziali ricavate dall’equazione originaria (3.90).
L’equazione (3.91) ha la forma corretta per l’uso del metodo di media, che ne permette la risoluzione O(ε)
mediante quella dell’equazione mediata:
- t
ε
q̇ = (∂q x0 (t, q))−1 g2 (t, x0 (t, q), 0) dt ,
T 0
M. Lo Schiavo
6.3. Il pendolo fisico e l’equazione di Duffing 367
generalmente più semplice della (3.91). Essa fornisce il vettore q = q(t) delle condizioni iniziali delle soluzioni
del problema (3.90) lentamente variabili, giacché mediando le componenti brevi si sono ridotte a delle costanti.
Inoltre, per quanto detto nelle Proposizioni precedenti, i valori q0 che annullano il campo medio della (3.91)
corrispondono a quelle soluzioni x(t, q0 ) del problema assegnato: (3.90) che hanno per 0 < ε ≪ 1 le stesse proprietà
di periodicità delle x0 (t, q0 ) del suo problema all’ordine zero, e che hanno caratteristiche di linearizzazione e di
stabilità decise dalla matrice di campo della (3.91).
In altre parole, si assume che anche quando ε ̸= 0 ed è q = q(t), sia verificata (all’ordine zero) la
@ A @ A
∂ ω0 y0 −ω0 r sin(ω0 t + ϕ)
x0 (t, q) = v(t, x0 (t, q), 0) = = ,
∂t −ω0 x0 −ω0 r cos(ω0 t + ϕ)
ma che questo non comporti, come sarebbe nel caso perturbativo diretto, assegnare alle (r, ϕ) i loro valori (r0 , ϕ0 )
relativi alle condizioni iniziali all’ordine zero, bensı̀ ne permetta ancora la dipendenza funzionale dal tempo.
Pertanto, dall’assegnata equazione:
d
x(t, q) = v(t, x(t, q), ε) ∼
= v(t, x0 (t, q), 0) + εvε (t, x0 (t, q), 0) (3.92)
dt
si ricava (all’ordine ε ) per le coordinate q l’equazione
Questa viene intesa come una particolare trasformazione (dipendente dal tempo), detta
Trasformazione di Van Der Pol
) * ) * ) *
r x(t; r, ϕ) +r cos(ω0 t + ϕ)
q = &→ := , (3.95)
ϕ y(t; r, ϕ) −r sin(ω0 t + ϕ)
ovvero / 0 1
r= x2 + y 2 , ϕ = −ω0 t − arcsin(y/r) ∩ arccos(x/r) .
Essa pertanto è un’usuale trasformazione di coordinate da cartesiane: (x, y) a polari (r, θ) nella quale la variabile
angolare θ è data da θ = −(ω0 t + ϕ). Come si è detto, la soluzione (3.94) del problema imperturbato della (3.93)
è tale da rendere costanti entrambe le (r, ϕ).
Per applicare il metodo ed arrivare alla (3.91) si suppone che anche la soluzione x(t, q) del problema completo
(3.93) abbia la stessa struttura x0 (t, q) di quella del suo P 0 , e cioè sia data dalla (3.94) nella quale però anche
la r e la ϕ sono dipendenti dal tempo: x(t, q) = x0 (t, q(t)), in modo debole. Cosı̀ la x e la y sono ancora tali da
permettere, all’ordine zero, la sostituzione: ẋ = ω0 y ed ω0 ẏ = ẍ = −ω02 x; e il bilanciamento dei termini
introdotti dalla esplicita dipendenza dal tempo delle (r, ϕ) quando ε ̸= 0 avviene all’ordine O(ε).
Nel dettaglio, e posto per brevità −θ := ω0 t + ϕ, l’equazione (3.92) relativa alla (3.93) si specializza, per
mezzo delle (3.95), nella
) * ) *) * @d A ) *) *
+rω0 sin θ + cos θ + sin θ ṙ dt x cos θ − sin θ ṙ
+ = =
−rω0 cos θ + sin θ − cos θ rϕ̇ d sin θ + cos θ r θ̇
dt y (3.96)
) * ) * ) *
+ṙ cos θ − r θ̇ sin θ ω0 y 0
= = + .
+ṙ sin θ + r θ̇ cos θ −ω0 x ε f (x0 , ω0 y0 )/ω0
Se ne ricava ) * ) * +) * ) *,
ṙ cos θ + sin θ ω0 y −rω0 sin θ
= + ,
rϕ̇ sin θ − cos θ −ω0 x + εf /ω0 rω0 cos θ
che è un’equazione della forma ẋ = ε f (t, x, ε) con campo (2π/ω0 )-periodico rispetto alla variabile t.
Ad esempio nel caso dell’oscillatore lineare debolmente smorzato si è visto che è f (x, ẋ) ≡ −2ω0 ẋ e quindi si
hanno ( (
ṙ = −2ε ω0 r sin2 (ω0 t + ϕ) ṙ = −ε ω0 r
con medie:
rϕ̇ = −2ε ω0 r sin(ω0 t + ϕ) cos(ω0 t + ϕ) rϕ̇ = 0
da cui segue la soluzione x(t, ε) ∼ e−εω0 t sin ω0 t, già trovata con il metodo delle Scale Multiple nell’Esempio 6.2.11,
e che si ridiscuterà nel successivo Esempio 6.3.8.
N.B. 6.3.6 Come si intuisce dalla (3.92), il risultato (3.97) si sarebbe potuto ottenere direttamente servendosi
della (3.91) nella quale ancora q := (r , ϕ)T . Infatti, la (3.91):
−1
q̇ = ε (∂q x0 (t, q)) vε (t, x0 (t, q); 0)
riferita all’equazione (3.93) fornisce (all’ordine uno) lo stesso risultato trovato sopra:
) * ) *−1 ) *
ṙ cos(ω0 t + ϕ) −r sin(ω0 t + ϕ) 0
=ε .
ϕ̇ − sin(ω0 t + ϕ) −r cos(ω0 t + ϕ) f (r, ϕ)/ω0
Il metodo viene anche chiamato “Metodo delle ampiezze lentamente variabili”, giacché può essere discusso, in
modo alternativo, introducendo le
Variabili “lente”: q := r cos ϕ , p := r sin ϕ .
Con lo stesso procedimento seguito nel N.B. 6.3.5, e sfruttando la forma della soluzione del problema all’ordine
zero, si assume anche qui che la soluzione x(t) abbia la struttura (3.94), qui espressa nel seguente modo:
( (
x = +q cos ω0 t − p sin ω0 t q = +x cos ω0 t − y sin ω0 t
ovvero
y = −q sin ω0 t − p cos ω0 t p = −x sin ω0 t − y cos ω0 t .
La derivata di queste ultime dà
(
q̇ = −(ẏ + ω0 x) sin ω0 t + (ẋ − ω0 y) cos ω0 t
ṗ = −(ẏ + ω0 x) cos ω0 t − (ẋ − ω0 y) sin ω0 t ,
dalla quale, in base alle stesse considerazioni fatte nel N.B. 6.3.5, si ricavano le
⎧
⎧ ε ⎪ x = r cos(ω0 t + ϕ)
⎪ ⎪
⎪
⎨ q̇ = − f (x, ω0 y) sin ω0 t ⎨ = +q cos ω t − p sin ω t
ω0 0 0
ε con
⎪
⎩ ṗ = − f (x, ω0 y) cos ω0 t ⎪
⎪ y = −r sin(ω 0 t + ϕ)
ω0 ⎪
⎩
= −q sin ω t − p cos ω t
0 0
M. Lo Schiavo
6.3. Il pendolo fisico e l’equazione di Duffing 369
e cioè un’equazione della forma ẋ = εf (t, x, ε) con campo (2π/ω0 )-periodico rispetto alla variabile t.
Le equazioni risolventi si possono ottenere o direttamente dalla (3.91) con q := (r , ϕ):
) * ) *) *
ṙ ε cos(ω0 t + ϕ) − sin(ω0 t + ϕ) 0
= .
r ϕ̇ ω0 − sin(ω0 t + ϕ) − cos(ω0 t + ϕ) br3 cos3 (ω0 t + ϕ)
o anche, introdotte le variabili “lente”: q := r cos ϕ e p := r sin ϕ, dalle loro derivate:
⎧
⎪ d
⎨ q̇ = (r cos ϕ) = −(ẏ + ω0 x) sin ω0 t + (ẋ − ω0 y) cos ω0 t
dt
⎪
⎩ ṗ = d (r sin ϕ) = −(ẏ + ω x) cos ω t − (ẋ − ω y) sin ω t ,
0 0 0 0
dt
che, come nel N.B. 6.3.6, qui forniscono:
εb 7 3 83 εb 7 3 83
q̇ = − r cos3 (ω0 t + ϕ) sin ω0 t ṗ = − r cos3 (ω0 t + ϕ) cos ω0 t .
ω0 ω0
Anche in queste si può riconoscere l’espressione (3.91), dato che per la (3.93) si ha f (x, ω0 y) = b x3 :
) * ) *−1 ) * ) *) *
q̇ ∂q x0 ∂p x0 0 ε cos ω0 t − sin ω0 t 0
= = .
ṗ ∂q y0 ∂p y0 ε b x30 /ω0 ω0 sin ω0 t cos ω0 t b x30
Alternativamente, partendo direttamente dal sistema mediato
⎧ ⎧
⎨ ṙ = 0 ⎨ r = r0
3 εb 2 si trova 3 εb 2
⎩ ϕ̇ = − r ⎩ϕ = − r t + ϕ0
8 ω0 8 ω0 0
Comunque, si conclude che correggendo opportunamente la frequenza con termini all’ordine ε si può esprimere
la soluzione (uscente da ẋ(0) = 0 , e mediante la −θ = ω0 t + ϕ) con la
xmed (t) = r0 cos θ(t) , con
) *
3 εb 2 (3.98)
θ(t) = −ω0 t 1 − r ∼ 3.1623 t · (1 − 0.000476) ,
8 ω02 0
da paragonare con lo sviluppo diretto xdir trovato precedentemente (si veda la (3.77)). In figura è tracciato il
grafico della differenza fra le soluzioni esatta (numerica) e mediata, e della differenza xmed (t) − xdir (t), per ε come
nella (3.68).
0.0004
0.0004
0.0002 0.0002
5 10 15 20 5 10 15 20
-0.0002 -0.0002
-0.0004
-0.0004
Si osservi che la soluzione (3.98) è del tutto in accordo con i risultati precedenti per quanto riguarda la correzione
(all’ordine ε ) sul periodo del moto. Non dice molto invece circa la correzione sulle ampiezze, in quanto questa
può essere considerata come una correzione a tempi brevi.
Per valutare la correzione sulle ampiezze, si può provare con i Metodi di Stiramento delle Coordinate.
Il Metodo di Lindstet applicato all’equazione (3.66) fornisce all’ordine uno, con ω sviluppato asintoticamente a
partire dalla stessa ω0 della equazione P 0 ,
0 1 0 1 0 13
(ω02 + 2ε ω0 ω1 ) ∂τ2 X0 + ε∂τ2 X1 + ω02 X0 + εX1 = εb X0 + εX1 .
b ω1 2
∂τ2 X1 + X1 = 2 X03 − 2 ∂ X0
ω0 ω0 τ
) *
b 3 3 1 ω1
= 2 r0 cos(τ + ϕ0 ) + cos 3(τ + ϕ0 ) + 2 r0 cos(τ + ϕ0 ).
ω0 4 4 ω0
3b 3 ω1
r +2 r0 = 0 .
4ω02 0 ω0
Se ne ricava
3 3εb 2
ω0 ω1 = − b r2 e quindi ω ∼ ω0 (1 − r ).
8 0 8ω02 0
Ciò comporta che a secondo membro dell’equazione ordine uno rimane il solo termine (b/4ω02 )r03 cos 3(τ + ϕ0 ), e
che quindi una sua soluzione particolare è X1p (τ ) = −(b/32ω02)r03 cos 3(τ + ϕ0 ). A questa va aggiunta la soluzione
dell’equazione omogenea X1om (τ ) = r1 cos(τ +ϕ1 ), e sulla loro somma vanno imposte le condizioni iniziali all’ordine
uno: ⎧
⎪ b
⎪
⎨ X1om (0) + X1p (0) = +r1 cos ϕ1 − r3 cos 3ϕ0 = 0
32ω02 0
⎪
⎪ 3b 3
⎩ ∂τ X1om (0) + ∂τ X1p (0) = −r1 sin ϕ1 + r sin 3ϕ0 = 0
32ω02 0
In definitiva, la soluzione della (3.66) uscente dalle condizioni ẋ(0) = 0 ed x(0) = r0 è data, all’ordine ε, da
(ϕ0 = ϕ1 = 0 , r1 = (b/32ω02) r03 , e quindi)
εb
xLind (t) ∼ r0 cos ωt + r3 (cos ωt − cos 3ωt)
32ω02 0
) *
3εb 2
con ω ∼ ω0 1 − r .
8ω02 0
Contrariamente alla xdir ottenuta con la (3.77), tale soluzione non contiene termini secolari.
Nel caso particolare dell’equazione del pendolo (3.69) si è detto che r0 = 1 e che εb/ω 2 = θM 2
/6 ∼
2 2
0.00127 , e quindi che (3εb/8ω0 ) = θM /16 . Si ritrova che la prima correzione al periodo del pendolo fisico è
) 2 *
2π θM 2
TP F ∼ 1+ in quanto: ω ∼ ω0 (1 − θM /16). A sua volta, la correzione alle ampiezze del pendolo fisico
ω0 16
(non forzato) è εr1 = εb/32ω02 = θM
2
/192 ∼ 0.0000394 . In definitiva, e con entrambe le correzioni sulle ampiezze
e sulle frequenze valide anche a tempi brevi, si è provato che la soluzione dell’equazione del pendolo (3.69) è data
2
(all’ordine θM ≪ 1 ) da
) * +) * , + ) * ,
θ2 θ2 θ2 θ2
xLind (t) = 1 + M cos 1 − M ω0 t − M cos 3 1 − M ω0 t .
192 16 192 16
M. Lo Schiavo
6.3. Il pendolo fisico e l’equazione di Duffing 371
-6
7.5·10
-6
5·10
-6
2.5·10
5 10 15 20
-6
-2.5·10
-6
-5·10
-6
-7.5·10
All’equazione (3.66) si può anche applicare il Metodo di Lighthill. Per far ciò, vi si pongano
La regola di Lighthill suggerisce di cercare le soluzioni di questa equazione imponendo le ulteriori condizioni:
t′′1 = 0 , e 34 br03 − 2ω02 r0 t′1 = 0 ; di queste, la seconda evita le risonanze giacché annulla il coefficiente di cos ω0 τ
a secondo membro, e la prima è richiesta per favorire la minima degenerazione. Si osserva che con tali scelte il
risultato in questo caso è identico a quello ottenuto in precedenza.
Mediante la cos(τ − ε ω
ω0 τ ) ∼ cos τ +
1 ω1
ω0 ετ sin τ si ricava
+
x(τ ) ∼ r0 cos(τ + ϕ0 ) + ε r1 cos(τ + ϕ1 )
) * ,
ω1 3b 3 b 3
+ r0 + r τ sin(τ + ϕ0 ) − r cos 3(τ + ϕ0 ) .
ω0 8ω02 0 32ω02 0
Affinché questa espressione non produca termini “secolari”, e cioè termini risonanti o non uniformi, si impone:
ω1 = −(3b/8ω0) r02 ritrovando anche in tal caso l’espressione già ottenuta con gli altri metodi.
Infine, all’equazione di Duffing (3.66) si può anche applicare il Metodo delle Scale Multiple. Servendosi della
7 2 2
7 88 7 8
∂tt + 2ε ∂tt1
+ ε2 ∂t21 t1 + 2∂tt
2
2
X0 + ε X1 + ε2 X2
con t1 := ε t e t2 := ε2 t) si ricava la
2 2 2
ẍ ∼ ∂tt X0 + ε(2∂tt1
X0 + ∂tt X1 ) + ε2 (∂t21 t1 X0 + 2∂tt
2
2
2
X0 + 2∂tt1
2
X1 + ∂tt X2 )
con α(0) = r0 e β(0) = 0 . Per cui il secondo termine del secondo membro dell’equazione O(ε) diviene
2
−2∂tt1
X0 = −2ω0 (β ′ (t1 ) cos(ω0 t) − α′ (t1 ) sin(ω0 t)) .
Il seguente è un ulteriore esempio di applicazione del metodo di media ad una equazione la cui soluzione all’ordine
zero ha proprietà di periodicità.
Esempio 6.3.8 (continuazione dell’Esempio 6.1.32).
(
ẍ + 2ε ω0 ẋ + ω02 x = 0
x(0) = 0, ẋ(0) = 1 .
Risulta:
r(t) = r0 e−ε ω0 t , ϕ(t) = ϕ0 ,
e le condizioni iniziali forniscono
x(t) ∼ e−ε ω0 t sin ω0 t .
M. Lo Schiavo
6.4. Ancora sull’equazione di Duffing 373
Di questa si cercano soluzioni periodiche di periodo 2π/ω ed isolate, in quanto sono queste che ci si aspetta siano
le dirette e non transienti conseguenze (regolari) della forzante f cos ωt.
Il ben noto caso lineare coincide con il problema all’ordine zero: ε = 0 . Purché ω sia diversa da ω0 , la sua
soluzione è definita per ogni t e vale
f
!0 (t) = a0 cos ω0 t + b0 sin ω0 t +
x cos ωt . (4.99)
ω02 − ω2
L’insieme delle funzioni f : t &→ f (t) periodiche ed aventi un certo (minimo) periodo T si indicherà con: Per(t).
Proposizione 6.4.1 La soluzione (4.99) è isolata ed in Per(2π/ω) (qualunque siano i valori di ω0 ed ω ) (se
e) solo se ρ20 := a20 + b20 = 0 .
Dimostrazione Qualora fosse ω0 = nω con n = 2, 3, . . . , la soluzione vale ρ0 cos(nωt + ϕ0 ) + n2f−1 cos ωt,
che è in Per(2π/ω) ma non isolata: infatti ρ0 ̸= 0 costituisce parametro per tutta una famiglia di soluzioni in
Per(2π/ω). Se poi ω0 /ω ̸∈ N , e ρ0 ̸= 0, allora la soluzione è quasi-periodica, oppure è periodica ma non in
Per(2π/ω). Si parla in questo secondo caso di subarmoniche della forzante. "
f
P1 : ẍ1 + ω02 x1 = br03 cos3 ωt ; con r0 := ;
ω02 − ω 2
di questo si cerca una soluzione particolare della forma z1 e3iωt + z2 eiωt . Si trovano
br03 3br03
z1 = e z2 =
4(ω02 − 9ω 2 ) 4(ω02 − ω 2 )
e di nuovo la parte relativa alla soluzione armonica dell’omogenea associata viene scartata: a1 = b1 = 0 .
Iterando il procedimento si determinano le “risonanze”: ω0 /ω = 3, 5, 7, . . . che occorre escludere, l’una dopo
l’altra, per poter determinare i vari coefficienti. Il metodo dà risultati attendibili per ω0 /ω lontano dagli interi
dispari.
La presenza di un semplice termine di smorzamento del tipo η ẋ con η = Os (1) è già sufficiente ad evitare
l’insorgere di risonanze, o di soluzioni non isolate in Per(2π/ω). Si ha infatti
All’ordine zero, con lo stesso procedimento di sopra, si ha una soluzione (particolare) della forma: zeiωt purché
f f
z = =: / 2 e−iϕ
ω02 − ω 2 + iηω (ω0 − ω 2 )2 + η 2 ω 2
A questa parte della soluzione va aggiunta quella relativa all’equazione omogenea associata, che però è comunque
un termine non periodico:
⎧ )B *
⎪
⎪ ce −ηt/2
cos 2 η2
ω0 − 4 t + ϕ̃ se η 2 /4 < ω0 ,
⎪
⎪
⎨
⎪ (c1 + c2 t) e−ηt/2 se η 2 /4 = ω0 ,
⎪
⎪ B
⎪
⎩ η η 2
c1 e−( 2 +∆)t + c2 e−( 2 −∆)t se η 2 /4 > ω0 , con ∆ := η4 − ω02 .
Esiste quindi un’unica soluzione della (4.100) in Per(2π/ω); essa è data da:
⎧
⎪ f
⎪
⎨ r0 := / 2
(ω0 − ω 2 )2 + η 2 ω 2
!0 (t) = r0 cos(ωt + ϕ)
x con
⎪
⎪ ηω
⎩ tan ϕ := 2
ω0 − ω 2
tgψ ψ ψ
π π
k
ω
ω0 π/2 0 π/2
ω ω
ω0 ω0
(con tale notazione, la fase è comunque positiva, ed è invece la r0 a poter assumere valori anche negativi).
Si noti che l’addendo nella soluzione generale relativo all’equazione omogenea associata, se inserito nel secondo
membro dell’equazione all’ordine uno:
ẍ1 + η ẋ1 + ω02 x1 = bx30 ;
continua a dare un termine forzante non periodico, o periodico non Per(2π/ω), che può essere considerato un O(ε)
dell’omogenea associata stessa.
Si prosegue pertanto con il problema particolare all’ordine uno:
) *
3 1
ẍ1 + η ẋ1 + ω02 x1 = br03 cos(ωt + ϕ0 ) + cos 3(ωt + ϕ0 ) .
4 4
In definitiva il procedimento prosegue purché ω0 /ω sia sufficientemente lontano da un intero dispari, e η sia grande.
Altrimenti lo sviluppo diretto fallisce; le ampiezze possono diventare troppo grandi o, comunque, il risultato
non accurato: anche se con f piccole, si hanno più soluzioni in Per(2π/ω) e non provenienti solo dalla forzante,
ma anche dall’equazione omogenea associata.
Con lo smorzamento e la forzante entrambi piccoli:
1 1
ηε := η ed fε := f ,
ε ε
M. Lo Schiavo
6.4. Ancora sull’equazione di Duffing 375
si hanno comportamenti interessanti per ω 2 ∼ ω02 + εη con η = Os (1). In tali ipotesi l’equazione diviene
ẍ + ω02 x = ε(−ηε ẋ + bx3 + fε cos ωt) ; (4.101)
e si osservi che, se anche si ponesse ηε ̸= 0 in questa equazione, ciò non sarebbe sufficiente a rimuovere le eventuali
risonanze.
Appare naturale eseguire una trasformazione di Van Der Pol di frequenza ω :
(
x = +r cos(ωt + ϕ)
(4.102)
y = −rω sin(ωt + ϕ) ,
3 3
ϕ = 0, π ed βr + br ± fε = 0 (4.105)
4
che vanno intese come condizioni sulla terna ϕ, r, β .
Nel caso ηε ̸= 0, la condizione di periodicità è invece
⎧
⎨ fε sin ϕ = ωrηε
⎪
) *2
3 (4.106)
⎪
⎩ fε2 = ω 2 r2 ηε2 +r 2
β + br2 .
4
I valori dei parametri ϕ, r, β che verificano questo sistema individuano le soluzioni della (4.101) in Per(2π/ω),
certamente esistenti se (ma eventualmente non solo se) β ̸= 0 . Infatti, per assegnati ηε , fε , β, b , quanto detto
sul metodo di media comporta che per ogni soluzione isolata (r0 , ϕ0 ) della (4.106) esiste una soluzione 2π ω -periodica
della (4.101) per ciascun ε ∈ (0, ε+ ]; essa inoltre, per ε → 0 , tende alla soluzione r0 cos(ω0 t+ ϕ0 ) del suo problema
all’ordine zero purché sia
) ) * * ' '
∂ ωrηε − fε sin ϕ ' ωηε −fε cos ϕ0 ''
Det '
(r0 , ϕ0 ) = ' ̸= 0. (4.107)
∂(r, ϕ) βr + 34 br3 + fε cos ϕ β + 94 br02 −fε sin ϕ0 '
Caso ηε = 0
Siano (r0 , ϕ0 ) soluzione (isolata) della (4.105). Si ha ϕ0 = 0, π come nel caso lineare. Si fissi ϕ = 0 e si
accetti la possibilità di avere sia r ≥ 0 che r < 0 . Si ponga inoltre
) * ) *
3 3
g(r) := r εβ + εbr2 := r ω 2 − ω02 + εbr2 ;
4 4
per esempio nel caso particolare in cui l’equazione di Duffing proviene da quella del pendolo fisico,
) *
1
g(r) = r ω 2 − ω02 + ω02 θM
2 2
r .
8
I possibili andamenti della funzione g(r) sono mostrati in figura nel caso εb > 0 (e cioè “molla debole”, cosı̀ come
il pendolo fisico)
g g g
r0 r r0* r
r
-fϵ
-fϵ 1 2 3
-fϵ
(• ) per ω 2 > ω02 (ed εb > 0 ) si ha un solo valore possibile per r0 e quindi una sola soluzione in Per(2π/ω),
sfasata di π rispetto alla forzante. Il sistema si comporta in modo analogo al caso lineare, salvo la correzione su
r0 dovuta al termine piccolo 34 εbr2 . È da notare però che per ω che si avvicina a ω0 l’equazione lineare si
comporta in modo totalmente diverso:
r
0
fϵ
=
=
0
fϵ = 0
fϵ
r ω
ω0
essa infatti prevede r0 sempre più grandi: r0 = f /|ω02 − ω 2 |.
2π
(• ) per ω 2 = ω02 (ed εb > 0 ) l’equazione (4.101) ammette, con fε ̸= 0 , una soluzione ω -periodica, e
questo comportamento è ben diverso dal caso lineare.
(• ) per ω 2 < ω02 (ed εb > 0 ) l’equazione (4.107) individua tre diversi valori per la r0 , due in fase ed uno
in controfase, oppure solo un valore in controfase, a seconda dell’ampiezza della forzante fε . Di questi solo il più
piccolo in modulo è quello corrispondente alla soluzione lineare, e cioè quello che si trova con lo sviluppo diretto
visto prima.
N.B. 6.4.1 Tutti i segni vanno cambiati nel caso in cui εb < 0 (detto anche “molla forte” in quanto, allontanandosi
dall’origine, è più robusta del lineare. ♦
g g g
r0 r r r 0* r
-fϵ
-fϵ 3 2 1
-fϵ
ω2>ω02 ω2=ω02 ω2<ω02
M. Lo Schiavo
6.4. Ancora sull’equazione di Duffing 377
Sul piano (|r|, ω) questi comportamenti si possono osservare nei diagrammi: risposta in frequenza delle soluzioni
in Per(2π/ω). La linea g(r) = 0 è evidentemente ω 2 − ω02 + 34 εbr2 = 0 e cioè un ramo di iperbole equilatera; si
hanno allora rispettivamente i due casi:
r r contr
infase ofa
1
se
fϵ =
fas
e
0
3 3
f ϵ= f 2 ω0 2
ω ω0 ω
1 e
as
fϵ=f ontrof
c
e da questa, con l’ulteriore richiesta che non vi siano termini secolari, si riottengono le condizioni viste sopra. ♦
Agli stessi risultati si può giungere anche discutendo le (equivalenti) equazioni ottenute nelle variabili definite
dalla (4.103). Sul piano di tali variabili q, p , detto piano di Van der Pol, i punti di equilibrio corrispondono alle
soluzioni del tipo r0 cos(ωt + ϕ0 ) con r0 e ϕ0 costanti. Per quanto visto sopra possono esistere fino a tre tali
punti per fε sufficientemente piccolo, ω 2 < ω02 , ed εb > 0 ; essi inoltre sono sull’asse p = 0 dato che
ϕ0 = 0, π ; sarà allora possibile individuarli con le coordinate (qi , 0) con i = 1, 2, 3 .
Per studiare le caratteristiche qualitative della dinamica nell’intorno di tali punti, può essere opportuno esa-
minare il sistema linearizzato di (4.104). Nell’intorno di ciascuno dei punti (qi , 0), e sempre per ηε = 0 , esso
risulta
) * @ 7 8 A) *
q̇ 0 −ε β + 34 bqi2 /2ω q
= 7 8 ;
ṗ 3 2
ε β + 4 bqi /2ω 0 p
5
γ=-1
fϵ=-0.5
a1=-3.0 -10 -5 5
a2=-0.51
a3=2.53
ce=-.6551
Caso ηε ̸= 0
Il caso ηε ̸= 0 , (ovviamente meno semplice) si può intuire dai seguenti diagrammi:
5 r
1 f
ϵ gr
a
nd
-10 -5 5 3
i
ω decrescente
2 piccoli
f ω
ϵ
ω0
M. Lo Schiavo
Appendice
Le seguenti Appendici sono intese come un promemoria, NON come parte del testo o del programma. Esse conten-
gono molti (forse troppi) richiami a cose che si dovrebbero conoscere o, almeno, aver vagamente visto per rendersi
conto dei passaggi e delle affermazioni fatte nel corso. Solo alcuni degli argomenti qui citati è opportuno siano stu-
diati, se non altro che per risparmiare tempo nell’usarli al momento opportuno, e verranno specificamente indicati
a lezione. Gli altri possono servire come manuale di (a volte oscure) definizioni e proprietà. È chiaro che tutte sono
presenti nella bibliografia indicata alla fine del testo.
Intorno N (x) di x ∈ (X, τ ) := un insieme contenente (almeno) un elemento della topologia che contenga x.
Base di intorni di x := una famiglia Bx di aperti contenenti x e tale che ogni aperto contenente x contenga
almeno un elemento B ∈ Bx .
Base della topologia τ := una famiglia B di aperti tale che ogni elemento di τ sia esprimibile come unione
di elementi della base.
Pertanto una famiglia B è una base per una topologia τ
se e solo se B contiene una base di intorni per ogni x ∈ X .
Un ricoprimento B di X è una base per τ
[Royden VIII.2, Kolmogorov § II.5 Teor.2] se e solo se per ogni x ∈ B1 ∩ B2 esiste
B3 ∈ B tale che x ∈ B3 ⊂ B1 ∩ B2 .
Subbase della topologia τ := una famiglia BB di aperti tale che la famiglia di intersezioni finite di elementi di BB sia una base
B per τ . 9 ' :
In tal caso τ:= O ∈ 2X ' x ∈ O ⇒ ∃B ∈ B con x ∈ B ⊂ O è certo chiusa per unioni qualunque ed intersezioni finite ed ha B
; <
come base (infatti x ∈ O1 ∩ O2 ⇒ ∃B3 : x ∈ B3 ⊂ O1 ∩ O2 ∈ ). τ
Ne segue in particolare che una famiglia Sα non vuota
α∈A
di insiemi può essere una subbase per una topologia sull’insieme ∪α∈A Sα .
È anche conveniente ricordare [Reed Simon p.96] i seguenti assiomi che possono, o meno, essere richiesti alla topologia dello spazio
in esame.
1o assioma di numerabilità := per ogni x ∈ X esiste una base Bx di intorni di x che sia (non più che) numerabile; e cioè per
; <
ogni x ∈ X esista una successione Nn (x) di intorni di x tale che per ogni N (x) esista n̄ per il quale accade che Nn̄ (x) ⊂ N (x) .
n∈N
2o assioma di numerabilità := la topologia τ ammette una base B numerabile.
Pertanto il secondo assioma implica il primo, ma non gli equivale: la topologia discreta su un insieme non numerabile non verifica il
secondo assioma mentre verifica il primo.
Punto x interno ad un sottoinsime E ⊂ X := un punto appartenente ad un intorno che sia interamente con-
tenuto nell’insieme E .
Tutti i punti di un aperto E sono pertanto punti interni ad E .
379
380 APPENDICE
A volte i punti di accumulazione di E vengono chiamati punti limite per l’insieme E . Più propriamente però
si definisce:
Punto limite di una successione := un punto tale che ogni suo intorno contiene quasi tutti (cioè tutti a partire
da un qualche ν ∈ N) i punti della successione; nel caso in cui un tale punto esista, (e lo spazio sia T2, vedi oltre),
esso è unico, e la successione si dirà convergente. Una successione può invece ammettere più di un punto di
accumulazione, ed in tal caso non è convergente. [si pensi per esempio a (1, 12 , 1 − 12 , 13 , 1 − 13 , 14 , 1 − 14 . . .) che
ammette zero ed uno come punti di accumulazione].
N.B. 1.1.2 Non è detto che il punto limite sia un punto della successione, nè che, appartenendo i punti della
successione ad un qualche insieme questi contenga anche il punto limite della successione stessa. Inoltre si veda il
prossimo N.B. 1.1.3 ♦
Insiemi chiusi in (X, τ ) := gli insiemi Oc := X\O con O ∈ τ; e cioè i complementari in X degli aperti di
X.
Chiusura [E], in X, di un sottoinsieme E ⊂ X := l’intersezione di tutti i sottoinsiemi chiusi di X che conten-
gono E . Essa è quindi il più piccolo di tali insiemi.
È facile convincersi del fatto che i chiusi sono tutti e soli quegli insiemi che coincidono con la loro chiusura.
Inoltre entrambi coincidono con la collezione dei loro punti di aderenza. Infatti [E]c è l’unione di tutti gli aperti
che non contengono punti di E e quindi è fatto da punti interni ad E c . Pertanto un insieme è chiuso in X se e
solo se contiene tutti i suoi punti di accumulazione che sono in X (certo contiene tutti i suoi punti isolati); e quindi
quando contiene ogni punto di X che sia limite di una qualche successione di punti dell’insieme. È poi evidente che
la chiusura in X di un insieme è l’unione dell’insieme stesso e dei suoi punti di accumulazione appartenenti ad X
e che non gli appartengono.
Derivato, der(E), di E in X := l’insieme di tutti i punti di accumulazione di E in X.
◦
Interno E, in X, di un sottoinsieme E ⊂ X := l’unione di tutti gli aperti di X contenuti in E .
◦
∂E , in X, di un sottoinsieme E ⊂ X := [E]\ E ≡ [E] ∩ [E c ].
La frontiera di un insieme risulta pertanto costituita da soli punti isolati e da punti di accumulazione non interni
all’insieme (siano essi appartenenti all’insieme o meno), da quei punti cioè in ogni intorno dei quali si trovano sia
punti dell’insieme sia punti non dell’insieme. Inoltre, in quanto intersezione di chiusi la frontiera di un insieme
è chiusa.
È importante notare che i concetti finora introdotti, quali per esempio quelli di punto di accumulazione, di
limite, di convergenza etc. non sono concetti metrici bensı̀ topologici.
N.B. 1.1.3 Un punto p è di aderenza per un insieme E se esiste una successione di punti di E convergente a p;
ed è di accumulazione quando gli elementi della successione possono essere presi distinti a coppie.
Viceversa, affinché nell’affermazione qui sopra valga anche il solo se, e cioè affinché l’essere x ∈ [E] implichi
l’esistenza in E di una successione (numerabile) di punti che ammette x come limite, occorre supporre anche che
E verifichi il 1o assioma di numerabilità [Kelley cap.II teor.8]. ♦
M. Lo Schiavo
A.1. Richiami di Analisi Funzionale. ( I ) 381
9 ' :
Palla, o sfera, Bε (x) di centro x e raggio ε > 0 := y ∈ X ' d(x, y) < ε .
Le sfere Bε (x) possono essere decretate: “aperti”; con esse lo sono tutti i sottoinsiemi U ⊂ X i punti y dei
quali sono contenuti in sfere Bε (x) contenute in U, e cioè gli insiemi costituiti da unioni di sfere.
Dato che y ∈ Bε (x) ⇔ d(x, y) < ε e che sussiste la d(x, z) ≤ d(xy) + d(yz), certo esiste Bε̂ (y) ⊂ Bε (x) purché
siano 0 < ε̂ ≤ ε − d(x, y). Le sfere possono allora essere usate come base per la detta topologia sullo spazio (X, d).
In tal modo lo spazio metrico assume anche la struttura di spazio topologico. Scegliendo poi ε = 1/n si riconosce
poi che tale spazio topologico verifica il primo assioma di numerabilità (ed anche il secondo se X è separabile, vedi
oltre). Tale topologia prende il nome di Topologia indotta dalla metrica
Esempio 1.4 La topologia discreta, per esempio sull’insieme degli interi Z, può essere costruita mediante la metrica
che l’insieme Z eredita da (R; | · |). Sono aperte le sfere B1/2 (n) e quindi ogni {n} .
La stessa topologia (non le stesse sfere) può essere ottenuta, su un qualsiasi insieme, mediante la metrica che vale
zero se due punti coincidono e vale uno altrimenti. È chiaro che i singleton: {x} sono aperti anche
9 ' in tale metrica,
: e
quindi gli insiemi sono tutti aperti (e chiusi). Con questa metrica {x} = B1 (x) = [B1 (x)] ̸= y ' d(x, y)
' ≤ 1 ≡ X
anche se, come per ogni altro spazio metrico, la chiusura di un insieme E è data da [E] = {x ' d(x, E) :=
inf y∈E d(x, y) = 0}. In questo caso avviene che la chiusura della sfera unitaria non coincide con alcuna immagine
inversa secondo d−1 (x, ·) di alcun insieme chiuso. #
Esempio 1.6 Una retta ed una circonferenza contenute in un piano sono sottoinsiemi chiusi del piano, ed en-
trambe (sotto)spazi topologici chiusi, rispetto alla topologia ereditata dalle intersezioni con le sfere in R2 , e quindi
anche aperti (come spazi topologici). Tuttavia, rispetto a tale topologia, la retta non è compatta, mentre lo è la
circonferenza . #
I seguenti sono possibili assiomi di separazione per uno spazio topologico (X, τ):
(T0) Punti x, y ∈ X distinti ammettono:
o un qualche intorno N (x) tale che N (x) ̸∋ y , oppure qualche intorno N (y) tale che N (y) ̸∋ x.
(T1) Punti x, y ∈ X distinti ammettono intorni N (x), N (y) tali che N (x) ̸∋ y ed N (y) ̸∋ x.
(T2) (Hausdorff) Punti x, y ∈ X distinti ammettono intorni disgiunti.
(T3) In aggiunta al (T 2) sia Regolare; si abbia cioè che per ogni chiuso K ⊂ X ed ogni x ∈ X \ K esistono due aperti N (K), N (x)
che siano disgiunti.
(T 32 ) In aggiunta al (T 2) sia Completamente Regolare; si abbia cioè che per ogni chiuso K ⊂ X ed ogni x ∈ X \ K esiste f : X → [0, 1]
continua tale che f (x) = 1 ed f (K) = {0} .
(T4) In aggiunta al (T 2) sia Normale; si abbia cioè che per ogni coppia di chiusi disgiunti K1 , K2 esistono due aperti N (K1 ), N (K2 )
che sono disgiunti.
Uno spazio topologico verifica (T 1) se e solo se ogni singleton {x} è chiuso. Di conseguenza ogni spazio (T 4) è anche uno spazio
(T 2) . . D’altra parte è chiaro che (T 2) ⇒ (T 1) . Ogni spazio metrico, se considerato topologico con la topologia indotta, verifica
l’assioma (T 4) , [Kolmogorov p.96]. Viceversa se uno spazio topologico (T 4) è anche a base numerabile allora la sua topologia τ
può essere indotta da una metrica.
La famiglia delle possibili topologie su uno spazio X risulta (parzialmente) ordinabile:
τ 1 più debole di τ2 := quando ogni O ∈ τ1 appartiene a τ
2 ; cioè quando: τ 1 ⊂ τ 2.
In tal modo le successioni in X che convergono rispetto a 2 τ
lo fanno anche rispetto a τ 1 . Pertanto se la topologia è troppo forte
allora “poche” successioni convergono; ad esempio per la discreta convergono solo successioni che da un certo indice in poi assumono e
mantengono lo stesso valore. Viceversa, una τ
troppo debole ammette “troppe” successioni convergenti. Ad esempio: τ = {∅, X, A} ,
dichiara convergente una qualunque successione fatta di punti in A .
(X, τ ) separabile := uno spazio topologico che ammette un sottoinsieme non più che numerabile e (ciono-
nostante) ovunque denso. Ad esempio, Q è un tale insieme in R con la topologia standard. Con la topologia
discreta, invece, R non è separabile.
Sono certo separabili gli spazi a base numerabile; (e non lo sono, per esempio, quelli che ammettono una infinità
più che numerabile di aperti disgiunti). ; <
Uno spazio (X, τ ) separabile e metrico è a base numerabile; infatti se xn è ovunque densa certo avviene
; < n∈N
che B1/k (xn ) è una base numerabile per τ .
k,n∈N
Talvolta accade che lo spazio sia sufficientemente “semplice” da permettere l’introduzione di una struttura
lineare:
Spazio vettoriale V := un gruppo commutativo che sia un K -modulo rispetto ad un campo K .
Memento 1.1.9 #
• Un gruppo (commutativo) è un insieme sul quale è definita una operazione binaria che sia associativa,
(commutativa), con elemento neutro ed inverso;
• Un campo è un anello commutativo senza divisori dello zero e con una unità moltiplicativa;
• Un anello è un gruppo rispetto ad una operazione “ + ” che ammetta anche un’altra operazione binaria “
· ” associativa e distributiva rispetto alla prima, e per la quale l’elemento neutro della prima: lo “zero”, è
annullatore totale.
Pertanto uno spazio vettoriale è un gruppo commutativo: ⊕ che sia distributivo rispetto alle operazioni “ +
” , “ · ” , e “ ⊕ ” , ed accetti l’unità moltiplicativa del campo. Esempi di spazi vettoriali sono lo
spazio dei polinomi, lo spazio delle funzioni C 0 ([a, b] → R) (e cioè delle funzioni definite su un intervallo chiuso
e limitato e a valori reali), lo spazio delle soluzioni di una equazione lineare. Non sono spazi vettoriali lo spazio
delle sestuple di numeri esprimenti le probabilità di uscita (per esempio) delle facce di un dado, oppure lo spazio
delle successioni di simboli in un qualche alfabeto, per esempio: (0,1,1,0,0,0,1,0,1,...)
Nel seguito si indicherà con V un qualsiasi spazio vettoriale su un campo K , che in generale è R o C.
M. Lo Schiavo
A.1. Richiami di Analisi Funzionale. ( I ) 383
Non è difficile convincersi del fatto che ogni norma induce una metrica:
d(x, y) := ∥x − y∥ ;
e questa risulterà una metrica ben particolare in quanto sarà non solo omogenea: d(αx, αy) = |α|d(x, y), ma
anche tale che d(x, y) = d(x + c, y + c) = d(0, x − y). Pertanto sarà facile trovare metriche che non sono indotte da
alcuna norma. È chiaro allora che proprietà vere su spazi metrici saranno a maggior ragione vere su spazi normati
purchè essi vengano equipaggiati con la metrica indotta dalla norma.
Ancora più evoluta è infine la struttura di prodotto interno, detto anche
Prodotto scalare, o Struttura euclidea := una funzione ⟨ ·, · ⟩ : V × V → K che, nel caso reale, sia:
Il motivo del fare ricorso agli spazi euclidei risiede ovviamente nella potenza delle strutture che sono state definite
su essi. Infatti, in virtù dell’essere questi non solo vettoriali normati ma anche metrici e topologici, risultano ben
definiti non solo il concetto di combinazione lineare fra vettori, ma anche di distanze tra vettori, limiti, convergenze
di successioni, etc., ed in più il concetto di angolo tra vettori, e quindi di proiezione ortogonale, di base ortonormale,
etc. Si ricordi che
Vettori ortogonali x⊥y := ⟨ x, y ⟩ = 0 .
Cν
Esempio 1.12 Oltre che il noto esempio della geometria classica: i=1 xi y i , un altro esempio di prodotto scalare,
.b
sullo spazio delle funzioni da C 0 ([a, b] → R) che abbiano a f 2 < ∞ (si veda l’Esempio 1.10) è quello nel quale
.b
la norma è ereditata dalla funzione: ⟨ x, y ⟩ := a x(t)y(t)dt; l’integrale è quello di Riemann. #
Tuttavia strutture troppo sofisticate hanno ridotta applicabilità: se gli spazi in esame sono troppo complicati
per permetterne l’uso, occorre fermarsi, nella gerarchia vista, alle strutture più semplici. Queste ultime d’altra
parte, essendo poco potenti, avranno necessità di calcoli laboriosi con risultati meno efficaci. Ad esempio, il
concetto di convergenza, già presente negli spazi topologici, può essere in questi poco selettivo se la topologia non
è sufficientemente fine. Per
; renderla
< tale può convenire, qualora possibile, generarla per mezzo delle sfere, e trovare
n
cosı̀ che una successione xn è convergente a x ∈ X quando d(xn , x) −→ 0 ; è chiaro che in tal caso si parla
n∈N ∞
di convergenza in metrica; a sua volta, quando su spazi “semplici” si vogliano definire delle sfere “semplici”, e cioè
quando la metrica sia indotta da una norma, si parlerà di convergenza in norma, etc.
Quando è possibile si fa principalmente uso degli spazi metrici in quanto, come si è visto, essi già possiedono
notevoli proprietà topologiche (sono (T 4) nella topologia indotta dalla metrica) e ciò garantisce l’unicità in metrica
del limite delle successioni convergenti; ma, in più, su tali spazi è possibile introdurre il seguente importante criterio
(necessario):
Se una successione di punti in uno spazio metrico è convergente (ad un punto dello stesso spazio) essa neces-
sariamente verifica il Criterio di Cauchy; ovvero è una:
Successione di Cauchy := dato comunque ε > 0 esiste ν(ε) ∈ N tale che
Convergenza uniforme di fn ad f := dato comunque ε > 0 esiste ν(ε) ∈ N tale che, comunque si scelga
x ∈ D , se n ≥ ν(ε) si ha d2 (fn (x), f (x)) < ε .
Successione di funzioni uniformemente di Cauchy := dato ε > 0 esiste ν(ε) ∈ N tale che, comunque si scelga
x ∈ D , se n, m ≥ ν(ε) si ha d2 (fn (x), fm (x)) < ε .
È essenziale tener presente che la condizione di Cauchy non è sufficiente alla convergenza: vi sono molti esempi
di spazi metrici nei quali esistono successioni di punti che verificano il criterio di Cauchy e che ciononostante non
ammettono (in quello spazio) alcun punto limite. In generale il motivo per cui ciò avviene è che la metrica risulta
troppo poco selettiva per quello spazio, e quindi risultano di Cauchy anche successioni che, per quello spazio, non
sono “sufficientemente” convergenti.
Se, come è comodo, si vuole decidere circa la convergenza o meno di una successione (verso un punto che faccia
parte dello stesso spazio) solo controllando che essa verifichi il criterio di Cauchy, e cioè con un controllo sulla sola
metrica e fra punti “al finito” (e quindi che si conoscono), occorre o restringere quest’ultima ovvero ampliare lo
spazio.
Spazio metrico Completo := uno spazio cosı̀ ampio (rispetto alla metrica fissata) che ammette (un) punto
limite per ogni sua successione di Cauchy.
Come si è detto tale punto è unico in metrica.
Esempio 1.14 Lo spazio: C 0 ([a, b], R) delle f : [a, b] → R
Si osservi innanzi tutto, come visto nell’Esempio 1.10, che questo spazio può essere equipaggiato da varie e diverse
norme; entrambe quelle viste nel detto esempio sono effettivamente delle norme in tale spazio solo perché le funzioni
sono continue e l’integrale è quello secondo Riemann, in tal caso infatti f (t)(t1 − t2 ) = 0 per ogni t1 , t2 ∈ [a, b] e
t1 ≤ t ≤ t2 implicano che f (t) = 0 ∀t ∈ [a, b].
Fatto n o. 1 Lo spazio detto è completo rispetto alla metrica indotta dalla ∥f ∥∞ := supt∈[a,b] |f (t)|.
; <
Dimostrazione Se fn è di Cauchy rispetto ad essa, allora è anche Cauchy uniforme ed
n∈N
∃ν(ε) ∈ N : n, m > ν(ε) =⇒ |fn (t) − fm (t)| < ε per ogni t ∈ [a, b],
M. Lo Schiavo
A.1. Richiami di Analisi Funzionale. ( I ) 385
Inoltre essa risulta continua su [a, b], infatti è possibile trovare ν(ε) ∈ N e δ(ε) > 0 (indipendenti l’uno dall’altro)
tali che se n > ν(ε) ed h > δ(ε), allora:
|f (t + h) − f (t)| ≤ |f (t + h) − fn (t + h)| + |fn (t + h) − fn (t)|+
+ |fn (t) − f (t)| ≤ 3ε.
Ovvero: Il limite uniforme di funzioni continue è continuo.
.b
Fatto n o. 2 Lo spazio detto non è completo rispetto alla metrica indotta da ∥f ∥1 := a |f (t)|dt.
Dimostrazione Si consideri per esempio la successione:
⎧
⎪
⎨0 −1 ≤ t ≤ 0
fn (t) = nt 0 < t ≤ 1/n
⎪
⎩
1 1/n < t ≤ 1.
Essa converge puntualmente, non uniformemente, alla funzione
(
0 −1 ≤ t ≤ 0
f : [−1, 1] → R data da f (t) =
1 0 < t ≤ 1,
in quanto |f (t) − fn (t)| = |1 − nt| per 0 ≤ t ≤ 1/n, e quindi, fissato t0 basta che sia n(t0 ) ≥ ;
1/t0<per avere
∀t distanza nulla dal punto limite. Tale funzione, pur essendo il limite nella norma ∥·∥1 della fn , non
n∈N
appartiene allo spazio C ([−1, 1] → R). Né può esistere in C ([−1, 1]) una funzione g ̸= f che sia il limite in
0 0
norma ∥·∥1 della successione detta; infatti dovendo essere ∥f − g∥1 < ε per ogni ε ne segue ∥f − g∥1 = 0, e quindi
la f e la g possono differire solo su un insieme di punti che non contiene aperti, e g non può certo essere continua.
Nello spazio C 0 ([a, b], R) risulta Bε (f ) ⊂ B(b−a)ε (f ) perché ∥f ∥1 ≤ (b − a) ∥f ∥∞ , e pertanto τ ∞ ⊃
(∞) (1)
τ 1 e la ∥·∥∞ -convergenza
Cn implica la ∥·∥1 -convergenza. CIn Rn invece le due condizioni sono l’una conseguenza
n
i i i
dell’altra, giacché è i=1 |x | ≤ n supi∈{1,...,n} |x | ≤ n i=1 |x | ovvero ∥x∥1 ≤ ∥x∥∞ ≤ n ∥x∥1 .
Si noti che la successione fn (t) di questo esempio è di Cauchy rispetto alla norma ∥·∥1 ; infatti ∥fm − fn ∥1 =
1 1 n,m
| 2n − 2m | −→ 0 . Viceversa non è di Cauchy rispetto alla norma ∥·∥∞ ; infatti ∥fn − fm ∥∞ = 1 − m/n se
∞
n > m; e allora ∀ν ∈ N ed m > ν esiste n > ν tale che 1 − ε < 1 − m/n. È invece ancora di Cauchy
. 1/n
rispetto alla norma indotta dal prodotto scalare: ∥·∥2 ; infatti gli integrali 0 dt sia di nt che di (nt)2
.1
tendono a zero al crescere di n, ed analogamente gli 1/n dt tendono ad uno. Ciò mostra che
Fatto n o. 3 Lo spazio C20 ([a, b], R) cosı̀ come lo spazio C10 ([a, b], R) non sono completi. #
Nel seguito
; < verrà usata la seguente proprietà: in uno spazio metrico completo ogni famiglia di insiemi chiusi
non vuoti Cn tali che Cn ⊃ Cn+1 e |Cn | ↘ 0 , essendo |C| := diam C , ha uno ed un solo punto di
n=1,2,...
intersezione. In particolare, [Kolmogorov II 3.2]:
; <
Proposizione 1.1.15 Uno spazio metrico (X, d) è completo se e solo se ogni successione [Bεn (xn )] di
n∈N
sfere chiuse ed incluse, cioè tali che [Bεn (xn )] ⊂ [Bεn−1 (xn−1 )], che abbia εn → 0, ammette (unico) x ∈ X tale
che x ∈ [Bεn (xn )] per ogni n. #
Dimostrazione (⇒)
; <
• d(xn+p , xn ) ≤ εn e quindi xn è Cauchy;
n∈N
• il suo limite appartiene ad ogni [Bεn (xn )] perchè ciascuna di queste contiene quasi tutta la successione;
• il limite è unico (per assurdo: si usi la disuguaglianza triangolare).
Viceversa (⇐)
; < ; < ; <
• Se una xn è Cauchy esisterà una sottosuccessione xnk tale che B2−k (xnk ) ha la richiesta
n∈N n∈N n∈N
proprietà di inclusione;
; <
• il punto in comune di tale successione di sfere è punto limite per la successione xnk ;
n∈N
; <
• l’essere di Cauchy impone che anche xn abbia tale x come (unico) limite.
n∈N
Nei casi in cui lo spazio metrico non sia già completo rispetto alla data metrica, e non si voglia cambiare quest’ultima,
può convenire completare lo spazio metrico (X, d) “aggiungendovi le successioni di Cauchy”. Con ciò si vuole
ricordare il seguente procedimento:
; < ; <
n
• Si definiscono equivalenti successioni di Cauchy xn , yn ⊂ X tali che d(xn , yn ) −→ 0 ;
n∈N n∈N ∞
∗
• Si considerano “punti” le classi di equivalenza x di successioni di Cauchy; le classi sono costruite mediante
la relazione di equivalenza del punto precedente. Si considera poi come nuovo spazio l’insieme di tutti questi
punti: X∗ := {x∗ }{xn }⊂X
• Si
; definisce
< su questo
; spazio
< la metrica: d∗ (x∗ , y ∗ ) := limn→∞ d(xn , yn ) per due qualunque fissati elementi
xn ∈ x∗ ed yn ∈ y ∗ . Si dimostra, [Kolmogorov II.3.4], che lo spazio (X∗ , d∗ ) cosı̀ costruito ha,
n∈N n∈N
fra le altre, le proprietà:
• Identificando x ∈ X con le successioni costanti: xn ≡ x ∀n ∈ N, si ha che X è un sottoinsieme di X∗ ;
• la chiusura [X] di X, considerato come sottoinsieme di X∗ , coincide con X∗ ;
; <
• lo spazio metrico (X∗ , d∗ ) è completo. Infatti se x∗m è una successione di Cauchy in (X∗ , d∗ ),
; < m∈N
scelta una successione xn,m per ciascun x∗m , si ha che la successione diagonale: {x1,1 , x2,2 , . . .} è di
n∈N ; <
Cauchy in (X, d) (giacché d(xnn , xmm ) < ε ), pertanto è in X∗ , ed è il d∗ -limite della x∗m , (giacché
m∈N
d(xnm , xnn ) < ε ).
N.B. 1.1.16 Se si fosse seguito un altro procedimento, arrivando ad un altro X∗∗ con le stesse proprietà, i due
spazi X∗ ed X∗∗ sarebbero tali da ammettere una corrispondenza φ : X∗ → X∗∗ tale che φ(x) = x , ∀x ∈ X,
ed inoltre d∗ (x∗ , y ∗ ) = d∗∗ (φ(x∗ ), φ(y ∗ )). ♦
N.B. 1.1.17
Sottoinsiemi di spazi metrici completi hanno, in essi, chiusura completa.
Sottoinsiemi completi di spazi metrici sono chiusi. Pertanto:
sottoinsiemi di spazi metrici completi sono chiusi se e solo se sono completi. ♦
M. Lo Schiavo
A.1. Richiami di Analisi Funzionale. ( I ) 387
diverse solo su un’insieme numerabile . di punti. Si considera allora lo spazio di. tutte le classi di equivalenza di
quelle funzioni che hanno ∥f ∥2 := |f |2 < ∞, intendendo che f ∼ g quando |f − g|2 = 0 . In tal modo la
funzione ∥·∥2 ha nuovamente tutte le proprietà di una norma, e si indica con L2 ([a, b] → R) tale spazio normato.
In definitiva, i punti di L2 sono classi di equivalenza di successioni di Cauchy di funzioni a gradini, [Phillips V.4].
Cosı̀ facendo si ottiene uno spazio completo rispetto alla norma (Teorema di Riesz-Fisher, [Royden vi.3.5]), e
nel quale lo spazio C20 ([a, b], R) è denso. ◃
Esempio 1.19 Nello spazio M delle successioni di numeri dei quali solo un numero finito sono non nulli, si consideri la
; < 1 1 <
1
successione xn := (1, , 2 , . . . , . . . , 2n , 0, 0, . . .) . Se in tale spazio si introduce la norma ∥x∥ :=
C∞ n∈N 2 2
i i
i=0 |x | dove x è il valore dell’i-mo elemento di x, si ha che
; la successione
< detta, pur essendo di Cauchy, non
converge ad alcun elemento dello spazio . Pertanto la sfera: x |∥x∥ ≤ 2 è un insieme chiuso ma non completo.
Esistono cioè insiemi chiusi tali da ammettere successioni di Cauchy che non convergono, (ovvero tali da ammettere
Fn ⊃ Fn+1 con |diam Fn | ↘ 0 e con intersezione vuota); se però una successione converge (nello spazio) essa lo
fa ad un punto dell’insieme. #
D’altra parte l’inclusione è valida poiché se ȳ ∈ f f −1 (B) fosse fuori B dovrebbe esistere x̄ in f −1 (B) per il quale
f (x̄) = ȳ malgrado ȳ ̸∈ B e questa è una contraddizione.
Per la seconda delle (1.1) l’uguale sussiste se B contiene, per ogni suo x, ogni altro punto x′ tale che f (x) =
f (x′ ). L’inclusione è valida poiché se x̄ ∈ B fosse fuori f −1 f (B), pur esistendo ȳ = f (x̄), dovrebbe essere ȳ ̸∈ f (B)
malgrado x̄ ∈ B . Ne segue che f (D) ⊂ B ⇔ D ; ⊂ f −1
< (B), mentre D ⊂ B ⇒ f (D) ⊂ f (B).
Ulteriori utili relazioni sono le seguenti. Sia Eα una famiglia di insiemi; allora:
α∈A
(La f (D ∩ B) ⊂ f (D) ∩ f (B) è stretta se esistono x ∈ D\B ed y ∈ B\D tali che f (x) = f (y)).
Per altre utili relazioni si vedano [Royden cap.I.3] e [Kelley cap.IV teor.1] ♦
N.B. 1.1.21 Per parlare di continuità in spazi metrici sono necessarie due metriche: l’una nello spazio di partenza
l’altra in quello di arrivo, cosı̀ come sono necessarie due topologie per la semplice continuità in spazi topologici.
Ad esempio τ 1 è più debole di τ 2 , e cioè τ 1 ⊂ τ 2 , se e solo se la mappa identica da (X, τ 2 ) in (X, τ 1 ) è
continua. Sia C1 := C ((X, τ 1 ) → (X′ , τ ′ )) la famiglia delle funzioni f : X → X′ continue secondo la topologia
τ 1 e C2 quelle continue secondo la τ 2 . Si ha che τ 1 ⊂ τ 2 se e solo se C1 ⊂ C2 . In particolare,
tutte le funzioni f ∈ C1 sono continue se τ 1 è la topologia discreta; solo le costanti sono continue se τ 1 è la
topologia banale. (La famiglia delle prime lascia convergenti solo le successioni costanti, quella delle seconde ogni
successione). ♦
Divagazione.
Dato X e definita su esso una famiglia F di funzioni a valori reali f : X → R , o: funzionali su X , è sempre possibile definire una
topologia τ F su X tale che ogni f ∈ F sia continua (rispetto a τF ): basta usare come sua base la famiglia B delle intersezioni
finite degli insiemi B = f −1 (O) , con O aperto in R ed f ∈ F . Equivalentemente, basta usare come base di intorni di x ,
detti Intorni deboli, la famiglia Bf (x) delle intersezioni finite degli insiemi −1 (B (f (x))) e cioè la famiglia degli insiemi
' ; B < x := f ε
′ ' ′
Bx := {x |fi (x ) − fi (x)| < ε, i = 1, . . . , k} , con k qualunque finito ed fi ⊂F.
i=1,...,k
τ
Si può notare che (X, F ) è Hausdorff se e solo se “ F separa i punti di X ” e cioè quando per ogni coppia x, x′ ∈ X, x ̸= x′ , si
ha che esiste f ∈ F tale che f (x) ̸= f (x′ ) .
La topologia τ F è detta Topologia debole generata da F in quanto è senz’altro τ
F ⊆ τse τè una qualsiasi topologia
per la quale le f ∈ F siano già continue. Le due topologie τF e τpotranno coincidere solo quando le funzioni continue sono
“abbastanza numerose”.
Inoltre è evidente che se F1 ⊂ F2 certo risulterà τ F1 non più forte di τF2 .
τ
In base a queste osservazioni, dati uno spazio topologico (X, ) e, rispettivamente, uno spazio normato (V, ∥·∥) , si definiscono:
Topologia debole su (X, τ) := la topologiaτ C generata dalla famiglia C (X, R) dei funzionali continui su (X, τ ) .
Topologia debole su (V, ∥·∥) := la topologiaτ L generata dalla famiglia L (V, R) dei funzionali lineari continui su (V, ∥·∥) .
È chiaro che sia la τ C che la τ L sono non più forti della topologia τ o, rispettivamente, di quella indotta dalla norma ∥·∥ ,
in quanto esse sono le più deboli topologie per le quali le funzioni in C (o in L ) siano continue.
M. Lo Schiavo
A.1. Richiami di Analisi Funzionale. ( I ) 389
di tutti i vettori di E∗ che si possono ottenere come combinazioni lineari finite di vettori di E0 .
Si dimostra che
; <
una successione xn in uno spazio (V, ∥·∥) converge debolmente ad x ∈ V se (e, certo, solo se)
n∈N
; <
• la successione xn è limitata;
n∈N
• per qualche E∗0 ⊂ E∗ che abbia inviluppo lineare hull(E∗0 ) ovunque denso in E∗ (fortemente), accada che:
n
in R, f (xn ) −→ f (x) per ogni f ∈ E∗0 .
∞
Come si è detto, τ e τ
C possono coincidere solo se C contiene “abbastanza” funzioni continue, e quindi B abbastanza intorni,
ed in particolare se per ogni chiuso K ed x ̸∈ K esiste f ∈ C tale che f (x) = 1 ed f (y) = 0 se y ∈ K , (in tal modo C separa i
punti di X ). D’altra parte sussiste il Lemma di Uryshon: Se X è uno spazio (T 4) dati comunque due chiusi disgiunti K1 , K2 esiste
f : X → [0, 1] continua che vale zero su K1 ed uno su K2 . Pertanto se X è (T 4) ed F è l’insieme delle funzioni continue su X (non
necessariamente lineari) allora si ha ≡ τ τ
C , (Royden p.148). Va osservato però (Royden p.201) che nel caso degli spazi vettoriali
normati generalmente la convergenza debole τ
L , e cioè quella generata dai funzionali lineari, è più debole della convergenza in norma
e coincide, per successioni limitate, con quella puntiforme. Quest’ultima in generale è anche più debole della τ
L dato che la subbase
è fatta con delle distribuzioni δ anziché con delle arbitrarie funzioni f ∈ V∗ .
Può essere utile prendere in esame i seguenti esempi.
; ' <
Esempio 1.22 Gli insiemi x ∈ R2 ' x1 ∈ O aperto in R1 ; x 2 ∈ R1 fissato possono essere presi come base per una topologia i
cui aperti V sono i prodotti O × {x2 } . Tuttavia questa non coincide con la topologia su R2 con metrica euclidea, (quella “usuale”),
coincide invece con la topologia generata dalle funzioni coordinate: π 1 (x) := x(1) ed π 2 (x) := x(2) e che ha per aperti i prodotti
O1 × O2 .
Più in generale, si chiama
k
Spazio prodotto P , (o anche S A ) := uno spazio P := α Sα (con α in un insieme di indici A ), avente come elementi gli insiemi
; <
xα con xα ∈ Sα .
α∈A
Topologia prodotto τΠ := la topologia debole generata in P dalla famiglia delle proiezioni π α : x → xα .
Affinché τ Π verifichi le proprietà caratteristiche delle topologie e resti tale da rendere continue tutte le proiezioni π
α occorre e
basta che essa abbia come base le intersezioni finite di insiemi del tipo (π α )−1 (Oα ) con Oα ∈ α. τ
Si noti che la topologia prodotto τ
Π è non più forte di una qualsiasi altra topologia τ
già presente su P se e solo se le funzioni
proiezioni risultano già τ
-continue, e cioè se gli intorni deboli (cilindrici) O1 × · · · × Ok risultano -aperti. τn
In base a tali considerazioni si ha che una successione xn ∈ P converge debolmente ad x ∈ P se e solo se xα n −→ xα per ogni α ,
k ∞
τ τ α
e che una funzione f : (Y, ) → ( α Sα , Π ) è continua se e solo se sono continue tutte le π ◦ f : (Y, ) → (Sα , α ). τ τ
Si può mostrare [Kelley cap.III teor.6 e prob. V] che se l’insieme degli indici A è troppo numeroso τ
Π può non verificare il 1
o
assioma di numerabilità ed essere quindi generabile con una metrica. Qualora però gli Sα siano metrici con diamSα ≤ 1 per ogni
α , ed A C sia numerabile allora [Kelley cap.IV teor.14] la topologia prodotto coincide con quella delle sfere della “metrica prodotto”:
τ (x, y) := ∞ 1 α α
α=1 2α dα (x , y ).
Si osservi però che, rispetto a tale metrica, la convergenza forte
C è in effetti debole, e cioè per coordinate. Essa infatti è certo meno
energica di quella dovuta, per esempio, alla metrica d(x, y) := ∞ n n
n=1 d(x , y ) o, qualora questa possa avere significato, alla metrica
7C ∞ n
8
n 2 1/2 (si pensi alla successione dei versori in ℓ2 ). Esse invece coincidono qualora l’insieme
euclidea d(x, y) := n=1 (x − y )
degli indici sia finito. #
k
Esempio 1.23 Se gli Sα ≡ S sono tutti uguali fra loro, lo spazio prodotto P := α S è lo spazio che ha come punti le funzioni su A a
valori in S ; si pensi per esempio ad Sα ≡ R , A ≡ [a, b] ⊂ R ed allo spazio P che ha per punti le funzioni x : [a, b] → R . Su tali
1 1
spazi la topologia prodotto, detta anche della convergenza puntuale, è la topologia generata dalla famiglia di funzioni π ξ : P → R date
da π ξ (x) := x(ξ) . Per quanto visto nell’Esempio 1.22, in tale topologia xn → x quando per ogni ξ ∈ [a, b] si ha che xn (ξ) → x(ξ) ;
(apriori in modo non uniforme rispetto a ξ ∈ [a, b] ).
L’esistenza di successioni di funzioni continue che convergono punto per punto a funzioni che non lo sono mostra che la convergenza
puntuale è effettivamente più debole di quella uniforme, generata dalla norma ∥·∥∞ .
Si consideri inoltre [Reed IV.5] che su uno spazio di Banach a dimensione infinita la topologia debole non può essere generata da
una metrica. È questo il principale motivo che porta all’introduzionekdegli spazi topologici.
A sua volta, [a, b] può essere identificato con il sottoinsieme di x∈C R1 che si ottiene facendo corrispondere ad ogni ξ ∈ [a, b] il
punto la cui x -ma coordinata è x(ξ) con xk∈ C([a, b]) ; operando in tal modo si stabilisce su [a, b] una topologia che è la τ
C [Royden
τ
p.151]. La funzione ex : ([a, b], | · |) → ( x∈C R1 , Π ) definita da ex (ξ) := x(ξ) con x ∈ C([a, b]) è una funzione che è continua
onto
perché le x lo sono, che è aperta se C distingue i punti ed i chiusi, che è 1 ←→ 1 su ex ([a, b]) se e solo se C distingue i punti,
[Kelley § IV.2]. #
Esempio 1.24 In uno spazio di Hilbert (H, ∥·∥) , (vedi oltre), la topologia debole è quella per la quale sono continue tutte le funzioni
(lineari) x &→ ey (x) := ⟨;y, x ⟩ per ogni y ∈ H fissato, ed in particolare
< le funzioni coordinate. Una base di intorni per l’origine è fatta
'
dagli insiemi cilindrici: x ' | ⟨ yi , x ⟩ | < δi ∈ R+ , i = 1, . . . , n ove n ∈ N ed i vettori y1 , . . . , yn sono arbitrari. Una successione di
; < ; <
punti xn ⊂ H converge debolmente quando l’insieme ∥xn ∥ è limitato e convergono tutte le successioni delle coordinate
n∈N n∈N
per esempio su una base ortonormale (o “componenti di Fourier”, vedi oltre); inoltre dato che le funzioni coordinate sono una base
per le funzioni lineari definite su H , la convergenza per coordinate implica quella debole e la topologia debole coincide con quella
prodotto. In tali spazi infine si ha che la convergenza per coordinate è anche sufficiente ad assicurare quella in norma qualora sia
unita alla condizione ∥xn ∥ → ∥x∥ , ben diversa dalla ∥xn − x∥ → 0 . #
Fine divagazione
e quindi
τ2⊂ τ1 insieme con τ1⊂ τ2
e cioè: le topologie generate dalle due metriche coincidono.
Ad esempio d2 := d1 /(1 + d1 ) è topologicamente equivalente alla d1 e rende X limitato.
Spazi (X, d), (X′ , d′ ) Omeomorfi o Topologicamente equivalenti := due spazi metrici fra i quali esista (al-
meno) un omeomorfismo , e quindi una bijezione h : X → X′ che conserva la struttura topologica nel senso che gli
aperti in uno dei due spazi sono in corrispondenza 1 ←→ 1 con gli aperti nell’altro:
Metriche d1 , d2 (uniformemente) equivalenti := due metriche definite sullo stesso insieme X e tali che
l’identità sia un omeo uniformemente continuo:
(
∀ε∃δ1 (ε) : ∀x, y ∈ X risulta d1 (x, y) < δ1 (ε) ⇒ d2 (x, y) < ε
∀ε∃δ2 (ε) : ∀x, y ∈ X risulta d2 (x, y) < δ2 (ε) ⇒ d1 (x, y) < ε
M. Lo Schiavo
A.1. Richiami di Analisi Funzionale. ( I ) 391
In particolare la condizione è verificata se esistono 0 < c1 ≤ c2 < ∞ tali che per tutti i punti x, y ∈ X si abbia
c1 d1 (x, y) ≤ d2 (x, y) ≤ c2 d1 (x, y) . Si noti però che anche la d2 := d1 /(1 + d1 ) è metricamente equivalente alla d1
e che quindi la limitatezza è una proprietà che non viene conservata neanche dagli omeo uniformi. Si osservi che se le
metriche provengono da corrispondenti norme, e se queste sono equivalenti, allora le metriche sono uniformemente
equivalenti.
Spazi (X, d), (X′ , d′ ) metricamente equivalenti := due spazi metrici fra i quali esista (almeno) un omeomor-
fismo uniforme, e cioè una bijezione h : X → X′ uniformemente bicontinua; come tale essa rende metricamente
equivalenti le due metriche d1 := d e d2 := d′ ◦ h. In tal caso l’omeomorfismo uniforme h trasforma successioni
di Cauchy in successioni di Cauchy, infatti dalla definizione
; < stessa di uniforme continuità segue
; immediatamente
<
′
che se g : X → X è uniformemente continua e se xn è Cauchy in X, allora anche g(xn ) è Cauchy
n∈N n∈N
in X′ . Pertanto se esiste un omeomorfismo uniforme h : X → X′ si può asserire che X è completo se e solo se è
completo anche X′ . Viceversa, come si è visto nel Esempio 1.25, l’immagine secondo una funzione continua di
una successione di Cauchy (che non converga) può non essere di Cauchy, e quindi se la h è solo un omeo, e cioè se
l’equivalenza è solo topologica, è possibile stabilire una tale equivalenza fra spazi completi e spazi che non lo sono.
Si consideri ora nuovamente uno spazio (solo) topologico (X, τ ); per introdurre le seguenti nozioni infatti non
vi è necessità di ricorrere ad alcuna metrica, malgrado anche in questo caso la presenza di una metrica possa rendere
più agevole l’esame di tali proprietà. Si definiscono
; < c
Ricoprimento aperto di X := una famiglia Oα di sottoinsiemi aperti Oα ⊂ X tali che α∈A Oα ⊃ X;
α∈A
qui A è un qualsiasi insieme di indici.
; <
X Compatto := uno spazio topologico (X, τ ) tale che ogni suo ricoprimento aperto: Oα ammette
α∈A
un sottoricoprimento finito: Oα1 ∪ · · · ∪ Oαν ⊃ X.
X Compatto numerabile := quando la definizione qui sopra vale solo per degli insiemi A (non più che) nume-
rabili .
In uno spazio metrico la compattezza implica che se una proprietà è verificata su ogni Bε (x) ⊂ X, si può parlare
del più piccolo ε per il quale essa avviene, ed esso sarà ancora non nullo.
K ⊂ X Compatto := quando (K, τ ) è uno spazio compatto (e cioè se K è compatto nella topologia
relativa τ K ).
Sistema centrato := una famiglia di sottoinsiemi di X tale che ogni intersezione finita di essi sia non vuota.
; < e
Si noti che se Oα è un arbitrario ricoprimento aperto di X, allora necessariamente α∈A Oαc = ∅ . Allo
α∈A ; <
stesso modo si nota che un arbitrario sistema di chiusi Kα è centrato se e solo se nessuna sottofamiglia
; < α∈A
Kαc , con B sottoinsieme finito di A, è un ricoprimento aperto di X.
α∈B
Sussistono i seguenti teoremi fondamentali: Teorema 1.1.26 Uno spazio X è compatto se e solo se ogni sistema
; <
centrato di suoi sottoinsiemi chiusi Kα ha intersezione (arbitraria) non vuota.
α∈A
; <
X è compatto numerabile se e solo se ogni sistema centrato numerabile di suoi sottoinsiemi chiusi Kα ha
α∈A
intersezione (numerabile) non vuota. #
Dimostrazione
; <
(⇐) Sia Oα un arbitrario ricoprimento aperto di X. Per la prima osservazione fatta qui sopra si ha che la
;α∈A<
famiglia Oαc ha intersezione vuota, e quindi per ipotesi non può essere centrata; ciò significa che esiste
α∈A e
un insieme finito B ⊂ A tale che α∈B Oαc = ∅, provando in tal modo la compattezza di X.
; <
(⇒) Sia Kα un sistema centrato di chiusi. Se X è compatto, per la seconda delle osservazioni fatte sopra
; < α∈A
e
Kαc non può ricoprire X, e quindi α∈A Kα ̸= ∅ . "
α∈A
È chiaro che se X è compatto esso è anche compatto numerabile. Il viceversa sussiste purchè in aggiun-
ta si richieda che X sia a base numerabile. In tal caso infatti da ogni ricoprimento aperto si può estrarre un
sottoricoprimento fatto con elementi della base, e quindi non più che numerabile.
; <
Teorema 1.1.27 Uno spazio (X, τ ) è numerabilmente compatto se e solo se ogni successione xn ammette
n∈N
almeno un punto di accumulazione e quindi, se X verifica anche il 1o assioma di numerabilità, se e solo se ogni
successione ammette una sottosuccessione convergente. #
Il non essere totalmente limitato corrisponde all’esistenza di infiniti punti distanti più di ε .
Teorema 1.1.29 Uno spazio metrico compatto numerabile è totalmente limitato. #
D’altra parte, per uno spazio metrico l’essere totalmente limitato implica che l’unione delle n1 − reti è un insieme
numerabile ovunque denso, ed allora lo spazio è separabile. Questo, insieme al fatto che esso è metrico, implica
che la sua topologia abbia base numerabile, che a sua volta, come si è detto, è la condizione da aggiungere alla
compattezza numerabile per ottenere la compattezza. Pertanto:
Lemma 1.1.30 In uno spazio metrico la compattezza equivale alla compattezza numerabile. #
M. Lo Schiavo
A.1. Richiami di Analisi Funzionale. ( I ) 393
Dimostrazione
(⇒) Certo uno spazio metrico compatto è totalmente limitato. Inoltre, siccome è numerabilmente compatto, ogni
successione ammette punto di accumulazione, e quindi se una successione è di Cauchy essa ammette un
(unico) punto limite.
; < ; <
(⇐) Si vuole usare il Teorema 1.1.27: data una xν se ne troverà una sottosuccessione xn convergente.
ν∈N n∈N
Per l’ipotesi di limitatezza totale si può ricoprire X con un numero finito di sfere B1 (yk ), k = 1, . . . , n1 , delle
quali almeno una: S1 contiene infiniti xn . Poi si può ricoprire S1 con un numero finito di sfere B1/2 (zk ), k =
tale che S1 ∩ S2 contiene infiniti xn . Procedendo in tal modo si ottiene
1, . . . , n2 , delle quali almeno una:S;2 è <
una successione di infinite sfere Sk tali che esiste nk > nk−1 ed xnk ∈ S1 ∩ · · · ∩ Sk . Gli
; < k=1,2,...
xnk formano una sottosuccessione che è di Cauchy ed è quindi convergente per ipotesi. "
k=1,2,...
Teorema 1.1.33 Se uno spazio metrico X è tale che ogni successione ammette una sottosuccessione convergente
allora X è compatto. #
Esempio 1.36 (C([0, 1], R), ∥·∥∞ ≤ 1) è un insieme chiuso, limitato, completo, ma non totalmente limitato
[Phillips p.85]. Infatti se ci fosse un ricoprimento finito alla (per esempio) 14 − rete della sfera unitaria , dovrebbero
esistere f1 , f2 , . . . , fn tali che data una qualunque funzione g ∈ C accada che max[0,1] |g(x) − fi (x)| < 14 . Basta
far “oscillare” la g proprio dove occorre per rendersi conto che ciò non può essere. #
(• ) Sottoinsiemi di spazi metrici completi sono precompatti se e solo se totalmente limitati. Per cui negli
spazi metrici completi gli insiemi compatti sono gli insiemi chiusi e totalmente limitati.
(• ) D è un sottoinsieme precompatto di uno spazio metrico completo (X, d) se e solo se ogni successione di punti
di D ammette una sottosuccessione che converge in X (anche se non necessariamente in D ). Se la convergenza
è in D allora D è compatto.
(• ) Se f è continua ed E è compatto,
; allora
< f (E) è compatto.
Infatti, dato un ricoprimento aperto Oα di f (E) esiste un insieme finito di indici: α1 , . . . , αn tale che
cn −1
α∈A
k=1 f (Oαk ) ⊃ E . La funzione, se reale, “ammette massimo e minimo”.
0 1
Dimostrazione La famiglia On := f −1 (−∞, n) è un ricoprimento aperto numerabile di X. Pertanto
1 che X ⊂ Oν , e cioè f (x) < ν per ogni x ∈ X. Sia β := supx∈X f (x). Gli insiemi Kn :=
0 ν < ∞ tale
esiste
f −1 [β − n1 , ∞) sono un insieme numerabile centrato di chiusi, per cui esiste y ∈ Kn per ogni n. e cioè f (y) = β .
"
Si concluderà il paragrafo accennando ad un importante uso del concetto di precompattezza. A questo scopo si
ricordino le seguenti definizioni:
Famiglia uniformemente limitata su O ⊆ X := una famiglia F di funzionali f : (X, τ ) → R per la quale esiste
c > 0 tale che |f (x)| < c per ogni x ∈ O ed f ∈ F .
Famiglia equicontinua su X := una famiglia F di funzionali f : (X, τ ) → R per la quale comunque si scelga
x̄ ∈ X si ha che: dato ε esiste δε indipendente da x̄ e tale che x ∈ Nδ (x̄) implica f (x) ∈ Bε (f (x̄)) per ogni
f ∈F.
In particolare, se F := {fn : D ⊂ Rm → R}n∈N allora F è equicontinua se ∀ε ∃δ indipendente da x, y, fn e
tale che: |fn (x) − fn (y)| < ε quando |x − y| < δ e comunque sia scelto n.
Sia D un sottoinsieme dello spazio (C([a, b], R). Sussiste l’importante:
Teorema 1.1.38 [Ascoli-Arzelà] (si veda: [Kolmogorov II.7.4])
Un insieme D è precompatto se e solo se D è equicontinuo ed uniformemente limitato su [a, b]. #
Ne segue, come si è detto, che considerato D come sottoinsieme di ((C([a, b]), R), ∥·∥∞ ) si deduce che da ogni
successione in D si può estrarre una sottosuccessione uniformemente convergente in C([a, b], R).
Anche direttamente, se D è compatto e se F definita come sopra è equicontinua ed uniformemente limitata su
D allora F ammette una sottosuccessione uniformemente convergente su D ad una f : D → R continua.
Le spezzate di Eulero sono una tale famiglia in C 0 ([t0 , t0 + a′ ], R).
N.B. 1.2.1 Non si confonda una Varietà lineare con uno qualsiasi dei piani ad essa paralleli: la varietà contiene
lo zero; i piani sono definiti più oltre. ♦
M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 395
N.B. 1.2.3 Un sottospazio, cosı̀ come una varietà lineare, contiene sempre l’origine. ♦
Memento 1.2.4 Siano W1 , W2 sottospazi di uno spazio vettoriale V. Si indica con W3 := W1 + W2 lo spazio di
quei vettori x ∈ V che possono essere rappresentati con x = x1 + x2 , essendo x1 ∈ W1 , ed x2 ∈ W2 . (Esempio
in R3 : due piani, non paralleli). #
Esempio: in R3 la famiglia di vettori del tipo x0 + w con w parallelo a un piano assegnato W è un insieme di
dimensione uno; il piano W ha codimensione uno.
Alternativamente: date due sottovarietà W1 , W2 , la codimensione di W1 è la minima dimensione che deve
avere W2 affinchè sia V = W1 + W2 .
Se lo spazio V è a dimensione finita e se V = W1 + W2 si ha che:
in particolare è
dim V = dim W + dim U
W.
Qualora invece lo spazio ospite V, o più in generale la varietà ospite M ⊃ W, abbia dimensione infinita
(per esempio quando M è localmente diffeomorfo ad uno spazio di Banach di dimensione infinita) allora W ha
codimensione ν se ogni w ∈ W è contenuto in un qualche aperto di V (o di M) che è diffeomorfo ad U × Rν ,
essendo U un aperto di W.
Esempio 2.5 L’Insieme delle biforcazioni (ad un parametro vettoriale) di un sistema dinamico è un sistema
a codimensione finita, o varietà stratificata, complementare dell’insieme (aperto) dei sistemi strutturalmente
stabili, [Wiggins II p.286]. #
Somma diretta di spazi W3 := W1 ⊕ W2 := lo spazio di quei vettori x ∈ V che possono essere rappresentati in
modo unico con x = x1 + x2 , essendo x1 ∈ W1 , ed x2 ∈ W2 . (Esempio in R3 : un piano ed una retta che lo
intersechi).
; <
Insieme completo per (W, d) := una qualunque famiglia xβ di vettori xβ ∈ W tale che:
β∈B
; <
span xβ = W.
β∈B
Base B (di vettori) per (W, d) := un insieme B := {xβ }β∈B di vettori che sia completo per W e “mini-
male”, e cioè tale che:
(a) l’insieme delle combinazioni lineari finite di suoi elementi è ovunque denso in W;
(b) ogni suo sottoinsieme finito è un insieme di vettori linearmente indipendenti.
Cν
Ne segue che per ogni punto x ∈ W esiste almeno una successione sν := n=1 bn xβn , con xβn ∈ B, bn ∈ K ,
ν
n = 1, 2, . . ., tale che ∥x − sν ∥ −→0 .
∞ C∞
Ciò risulta dare significato alla scrittura x = n=0 bn xβn . Si noti nuovamente che qui non si parla di cosa
facciano tutte le successioni di Cauchy né se convergano fuori V, ma solo dell’esistenza di combinazioni lineari
finite di elementi della base e della loro convergenza (in norma) verso punti di V.
Un insieme di vettori linearmente indipendenti è base per il suo span.
Esempio 2.6 (si veda anche il seguente Teorema 1.2.28)
I polinomi sono una base in C([a, b], ∥·∥∞ ), in L2 , ed in C([a, b], ∥·∥2 ) [Kolmogorov p.407], pur non essendo
quest’ultimo uno spazio completo.
Si noti che con una successione di polinomi si approssima una qualsiasi funzione in C 0 ([a, b]), per esempio una
funzione con spigoli, e cioè una funzione non ottenibile come serie convergente di potenze (che è in C ∞ ). (Nella
successione di polinomi vengono “corretti” anche i coefficienti dei termini aventi potenze basse e non solo aggiunti
quelli con potenze alte). #
⟨ φα , φβ ⟩ = 0 ⇐⇒ α, β ∈ A, α ̸= β.
Proposizione 1.2.7 Uno spazio euclideo separabile E ammette una base numerabile ortonormale. #
Infatti si può estrarre una base numerabile, e poi eseguire il noto procedimento di Grahm-Schmidt, che consiste
in: dati u1 , u2 , . . . linearmente indipendenti si pongano
⎧ w1
⎪
⎪ w1 := u1 , e1 : = ;
⎪
⎪ ∥w1∥
⎪
⎪
⎪
⎪ w2
⎪
⎨ w2 := u2 − ⟨ u2 , e1 ⟩e1 ,
⎪ e2 : =
∥w2 ∥
;
⎪
⎪ ···
⎪
⎪
⎪
⎪ n−1
=
⎪
⎪ wn
⎪ w
⎪ n := u n − ⟨ un , ei ⟩ei ; en : = .
⎩ ∥wn∥
i=1
un
wn
n-1
§ <un , ei>ei
i=1
span{Ái}i=1,...,n-1
M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 397
"
I vettori di un sistema ortogonale sono senz’altro linearmente indipendenti. Infatti si ha che per qualsiasi n < ∞
Cn ? ?2
⟨ φαj , i=1 cαi φαi ⟩ = cαj ?φαj ? , j = 1, 2, . . . , n ;
pertanto la somma può essere nulla solo se tutte le componenti sono nulle. È chiaro allora che se un sistema
ortogonale è completo esso è una base dello spazio. In tal caso non esiste alcun vettore dello spazio che non sia il
limite in norma di un insieme di combinazioni lineari finite di elementi della base.
M Z
nπx mπx
Esempio 2.8 Nello spazio (C([a, b], ∥·∥2 )) l’insieme sin , cos è un sistema ortogonale completo, (si
b−a b−a
vedano il Memento 1.2.25 e il Teorema 1.2.28 più oltre, opp. [Kolmogorov III 4.1]). #
Nota 1.2.9 Quando nel seguito si farà riferimento a dei prodotti integrali, si supporrà sempre che lo spazio Ω
di supporto alle funzioni sia un spazio a misura finita (e cioè per il quale si ha: ∥ 1 ∥ < ∞) e che l’integrale
non “distingua”
. fra funzioni diverse fra loro su al più una infinità numerabile di punti.
/ In tal modo il prodotto
⟨ x, y ⟩ := Ω x(ω)y(ω)dω risulta essere un vero prodotto scalare, la funzione ∥x∥ := ⟨ x, x ⟩ risulta avere tutti
7i requisiti di8una norma, e lo spazio L2 (Ω) può essere pensato come il completamento dello spazio delle funzioni
C 0 (Ω), ∥·∥2 [Kolmogorov pag.370 e segg.]. La convergenza in tale norma è però più debole di quella puntuale,
giacché assicura quest’ultima salvo che su insiemi di misura nulla.
7. 81/p
Si noti che oltre alla funzione ∥f ∥∞ := supx∈[a,b] |f (x)| anche tutte le funzioni ∥f ∥p := |f |p , p ∈ R+ ,
possono essere delle oneste norme. Queste ultime però lo sono solo al costo di non distinguere funzioni che siano
uguali “quasi ovunque” (e cioè salvo che su insiemi di misura nulla); ed infatti gli spazi sui quali tali funzioni si
comportano in modo significativo come norme sono in realtà spazi di classi di equivalenza di funzioni. Inoltre esse
non provengono, salvo il caso p = 2 nel quale il valore della norma prende il nome di scarto quadratico medio,
2 2 2 2
da alcun prodotto scalare. Affinchè ciò si verifichi occorre e basta che ∥x + y∥ + ∥x − y∥ = 2(∥x∥ + ∥y∥ )
[Kolmogorov III.4.8]. ◃
Memento 1.2.11 Il limite degli integrali di una successione di funzioni continue è l’integrale del limite della
successione integranda se quest’ultimo limite è uniforme. #
C∞
Memento 1.2.12 n=0 fn (ξ) = g(ξ) è definita come il limite puntiforme delle ridotte, per ogni ξ fissato. Se tale
limite risulta uniforme la serie si dice essere uniformemente convergente. #
Memento 1.2.14 Affinchè il limite di una successione di funzioni derivabili sia derivabile non basta che esso sia
uniforme, lo è però senz’altro se anche le singole derivate sono continue e se il loro limite è uniforme, ed allora
quest’ultimo è proprio la derivata del limite. #
Esempio 2.15 n−1 sin(n2 ξ) tende uniformemente a zero ma non esiste il limite delle derivate in zero: n cos(n2 ξ);
analogamente |n−2 sin(nξ)| ≤ n−2 è uniformemente convergente, ma ha derivata in zero n−1 cos(nξ) che esplode.
Si ricordi anche che, se esiste, una derivata non può avere discontinuità di prima specie. #
In definitiva se una successione di funzioni continue ha successione delle somme ridotte uniformemente con-
vergente questa converge ad una somma che è continua, integrabile termine a termine, ed è anche differenziabile
termine a termine solo se anche le derivate delle funzioni sommano uniformemente.
Lp q.o.
N.B. 1.2.17 Se fn −→f allora esiste una sottosuccessione fni −→ f . ♦
i→∞
N.B. 1.2.20 Se lo spazio non è a misura finita la convergenza in L2 non implica quella in L1 (né quella puntuale, a
meno che sussistano teoremi come quelli della convergenza dominata o della convergenza monotona; si pensi anche
al precedente Memento 1.2.11)
(
1
per |ξ| ≤ n1
Ad esempio fn (ξ) = n tende a zero in L2 ma non converge in L1 .
0 altrimenti
(
1
per |ξ| ≤ n1
Ad esempio fn (ξ) = n1 converge in L2 ([0, ∞)) ma non puntualmente. ♦
ξ altrimenti
N.B. 1.2.21 Se uno spazio Ξ è a misura finita, e quindi ∥1∥1 < ∞, è valido il seguente diagramma:
CU
C2 QO
C1 CM
M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 399
Ricordando la disuguaglianza di Schwartz: |⟨ x, y ⟩ | ≤ ∥x∥ · ∥y∥, . e assumendo che il prodotto scalare sia
l’usuale prodotto integrale (reale) su un intervallo I := Ξ: ⟨ f, g ⟩ := Ξ f (t) g(t)dt, se ne ricava subito che:
- a-
/
|f (t)|dt ≤ |I| f 2 (t) dt .
I I
n
Allo stesso modo, se ∥fn − f ∥ −→ 0 , fn , f ∈ L2 (I), allora anche
∞
lim ⟨ fn , g ⟩ = ⟨ f, g ⟩ , ∀g ∈ L2 (I).
n→∞
n
Infatti si ha |⟨ fn , g ⟩ − ⟨ f, g ⟩ | = |⟨ fn − f, g ⟩ | ≤ ∥fn − f ∥ ∥g∥ −→ 0 .
∞
Corollario 1.2.23 La chiusura in norma ∥·∥∞ dell’insieme dei polinomi come sottoinsieme delle funzioni continue
C 0 ([a, b]) è C 0 ([a, b]) stesso. #
per certi coefficienti {cn }n∈N ; (per esempio la serie può essere convergente alla funzione f o in norma, o punto
per punto, o in misura, etc.).
C∞
Se si possono calcolare i prodotti ⟨ f, φn ⟩ , e se il prodotto ⟨ φn , n=0 cn φn ⟩ è calcolabile termine a termine
allora i coefficienti della serie, sono necessariamente i:
Coefficienti di Fourier di f := cn := ⟨ f, φn ⟩ / ⟨ φn , φn ⟩ .
- +π - +π
1 + cos 2nξ
cos2 nξ dξ = dξ = π, n>0;
−π −π 2
- +π - +π
1 − cos 2nξ
sin2 nξ dξ = dξ = π, n>0;
−π −π 2
- +π - +π - +π
sin nξ sin mξ dξ = cos nξ cos mξ dξ = sin nξ cos mξ dξ = 0 ;
−π −π −π
- +π - +π
1
cos nξ dξ = 0 ; sin nξ dξ = [1 − (−1)n ], n>0;
0 0 n
- +π - +π
π
cos2 nξ dξ = sin2 nξ dξ = , n > 0;
0 0 2
- +π - +π - +π
cos nξ cos mξ dξ = sin nξ sin mξ dξ = sin nξ cos mξ dξ = 0 ;
0 0 0
- +π - +π
cos nξ sin nξ dξ = cos nξ sin nξ dξ = 0 .
−π 0
Se ne inducono analoghe relazioni sostituendo negli argomenti: ξ con π x/L , e ovunque π con L (si veda
anche il N.B.1.2.32). #
- 7 nπ 8 7 mπ 8
7 8 7 8
π/2
m cos 2 − n cos mπ
sin 2 2 sin nπ
2
cos nξ cos mξdξ =
0 m2 − n 2
=0 purché m, n entrambi dispari ;
- 7 nπ 8 7 mπ 8
7 8 7 8
π/2
n cos 2 − m cos mπ
sin 2 2 sin nπ
2
sin nξ sin mξdξ =
0 m2 − n 2
=0 purché m, n entrambi dispari .
N.B. 1.2.26 Una funzione f : ξ &→ f (ξ) si dice pari (in ξ = 0 ) quando esiste f (−ξ) ed è tale che f (−ξ) = f (ξ),
e si dice dispari (in ξ = 0 ) quando f (−ξ) = −f (ξ). Somme e prodotti di funzioni pari sono pari; la somma di
funzioni dispari è dispari; il prodotto di due funzioni dispari è pari; il prodotto di una funzione pari per una
funzione dispari è dispari.
L’integrale su un intervallo simmetrico rispetto allo zero di una funzione dispari è nullo; l’integrale su un
intervallo simmetrico rispetto allo zero di una funzione pari può essere nullo o non esserlo; è certamente non nullo
se la funzione su di esso non muta segno; infatti sussistono le:
⎧ . +L
- +L ⎨2 0 f (ξ)dξ se f (ξ) pari
f (ξ)dξ =
−L ⎩
0 se f (ξ) dispari
- a - a+t - 0 - a - a+t
infatti si ha: = = + + .
0 t t 0 a
Se una funzione f (x) è differenziabile e periodica allora anche la sua derivata è periodica, mentre il suo integrale
.t
F (t) := 0 f (ξ)dξ è funzione periodica solo se F (T) = 0 ; inoltre l’integrale F (cosı̀ come la derivata di f ) è
pari se la f è dispari, e dispari se la f è pari.
Una funzione f+p : ξ &→ f+p (ξ) definita su un intervallo (0, 2L) si dice il prolungamento pari su (L, 2L) (o
l’estensione simmetrica) della funzione f : ξ &→ f (ξ) definita sull’intervallo (0, L) quando
M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 401
Una funzione f+d : ξ &→ f+d (ξ) definita su un intervallo (0, 2L) si dice il prolungamento dispari su (L, 2L) (o
l’estensione anti-simmetrica) della funzione f : ξ &→ f (ξ) definita sull’intervallo (0, L) quando
Una funzione f−p : ξ &→ f−p (ξ) definita su un intervallo (−L, L) si dice il prolungamento pari su (−L, 0) (o
l’estensione simmetrica) della funzione f : ξ &→ f (ξ) definita sull’intervallo (0, L) quando
f−p (ξ) = f (ξ) per ξ ∈ (0, L), f−p (ξ) = f (−ξ) per ξ ∈ (−L, 0) .
Una funzione f−d : ξ &→ f−d (ξ) definita su un intervallo (−L, L) si dice il prolungamento dispari su (−L, 0) (o
l’estensione anti-simmetrica) della funzione f : ξ &→ f (ξ) definita sull’intervallo (0, L) quando
f−d (ξ) = f (ξ) per ξ ∈ (0, L), f−d (ξ) = −f (−ξ) per ξ ∈ (−L, 0) .
Un’estensione pari su (L, 2L) e poi pari su (−2L, 0) risulta 2L -periodica, cosı̀ come lo è una dispari-dispari; quelle
incrociate sono 4L periodiche. ♦
e quindi in particolare, se a = −b ,
; 1 ; 1 mπx < ; 1 nπx < <
√ , √ cos , √ sin
2b b b m=1,2,... b b n=1,2,...
; T1 T
2 mπ(x − a) <
, cos
L L L m=1,2,...
; T2 mπ(x − a) <
sin
L L m=1,2,...
I detti sistemi trigonometrici sono anche completi in L2 (a, b), o in L2 (R) se le funzioni si intendono estese per
periodicità, ed anzi sussiste il più forte risultato:
Qualora f (ξ) assolutamente integrabile su [−π, π] e 2π− periodica possa essere espressa come serie trigonometrica
convergente ovunque salvo che su un numero finito di punti su [−π.π], allora la serie è senz’altro quella di Fourier
[Birkhoff XI.3].
; <
N.B. 1.2.27 Sempre con il prodotto scalare integrale, per poter sviluppare in funzioni φn periodiche
n=1,2,...
una f (ξ) definita su un qualsiasi intervallo (0, L) ed ivi continua (o, almeno, liscia a tratti e con derivata liscia a
tratti), si potrà prolungare quest’ultima prima sull’intervallo (−L, 0) (eventualmente in modo o pari o dispari), e
poi su tutto R in modo periodico. In tal modo si introdurrano al più una infinità numerabile di discontinuità a
salto. Naturalmente, a seconda che l’estensione a partire dall’intervallo base (0, L) sia pari, dispari, o qualsiasi, si
otterrà su R una funzione dello stesso tipo e ciò farà preferire rispettivamente i soli coseni, i soli seni, o entrambi
(vedi oltre). ♦
Liscia su [a, b] := Una funzione continua che non ha (salti,) spigoli, o irregolarità peggiori; per cui la funzione
deve essere almeno C 1 ([a, b]).
Liscia a tratti su [a, b] := una funzione che abbia, lei e la sua derivata, al più un numero finito di discontinuità
di prima specie: possono avere salti, spigoli, ma non irregolarità peggiori; la funzione è limitata ed ha derivata,
limitata, ovunque salvo che in un numero finito di punti, ed in essi esistono (finite) la derivata destra e sinistra.
Teorema 1.2.31 [Fourier]
La serie trigonometrica di Fourier di una funzione liscia a tratti su un intervallo [−π, π] ed estesa per periodicità
1
su R converge puntualmente al valore [f (x+) − f (x−)] . Se la funzione è continua la convergenza è uniforme
2
in (−π, π); se inoltre è f (−π) = f (π), allora l’uniformità è su tutto [−π, π]. #
Esistono funzioni continue (non liscie) la cui serie di Fourier trigonometrica non è convergente, mentre lo rimane la serie di Fejer: le
somme di Cesaro delle somme di Fourier; ed esistono serie di Fourier ovunque convergenti ma non convergenti ad una funzione continua.
Sia f = f (x) una funzione definita su un intervallo base qui di seguito specificato, ed ivi liscia a tratti. Sussistono
le formule
∞
a0 = nπx nπx
f (x) = + an cos + bn sin ove
2 n=1
L L
⎧ -
⎪
⎪ 1 +L nπx
⎪
⎨ an = L f (x) cos dx n ≥ 0
−L L
⎪ -
⎪
⎪ 1 +L nπx
⎩ bn = f (x) sin dx n ≥ 1
L −L L
valida in (−L, L), e per estensioni 2L-periodiche su R ,
M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 403
∞ -
a0 = nπx 2 L
nπx
f (x) = + an cos ; an = f (x) cos dx , n ≥ 0; (2.2)
2 n=1
L L 0 L
valida in (0, L), per estensioni pari su (−L, 0), e 2L-periodiche su R ,
=∞ -
nπx 2 L nπx
f (x) = bn sin ; bn = f (x) sin dx , n ≥ 1 ; (2.3)
n=1
L L 0 L
valida in (0, L), per estensioni dispari su (−L, 0), e 2L-periodiche su R ,
∞
= - 2L
nπx 1 nπx
f (x) = bn cos ; bn = f (x) cos dx , n≥1; (2.4)
n=1
2L L 0 2L
valida in (0, L), estensioni qualsiasi su (L, 2L),
pari su (−2L, 0), e 4L-periodiche su R ,
=∞ -
nπx 1 2L nπx
f (x) = bn sin ; bn = f (x) sin dx , n≥1; (2.5)
n=1
2L L 0 2L
valida in (0, L), estensioni qualsiasi su (L, 2L),
dispari su (−2L, 0), e 4L-periodiche su R ,
=∞ -
nπx 1 2L nπx
f (x) = bn cos ; bn = f (x) cos dx , n ≥ 1 ; (2.6)
n=1
2L L 0 2L
valida in (0, L), estensioni qualsiasi su (L, 2L),
pari su (−2L, 0), e 4L-periodiche su R ,
∞
= - L
(2n − 1)πx 2 (2n − 1)πx
f (x) = bn sin ; bn = f (x) sin dx , n ≥ 1; (2.7)
n=1
2L L 0 2L
valida in (0, L), estensioni pari su (L, 2L),
dispari su (−2L, 0), e 4L-periodiche su R ,
∞
= - L
(2n − 1)πx 2 (2n − 1)πx
f (x) = bn cos ; bn = f (x) cos dx , n ≥ 1; (2.8)
n=1
2L L 0 2L
valida in (0, L), estensioni dispari su (L, 2L),
pari su (−2L, 0), e 4L-periodiche su R ,
1 1
0.5 0.5
-0.5 -0.5
-1 -1
1 1
0.5 0.5
-0.5 -0.5
-1 -1
1 1
0.5 0.5
-0.5 -0.5
-1 -1
1 1
0.5 0.5
-0.5 -0.5
-1 -1
1 1
0.5 0.5
-0.5 -0.5
-1 -1
1 1
0.5 0.5
-0.5 -0.5
-1 -1
1 1
0.5 0.5
-0.5 -0.5
-1 -1
Cos[5 x], Cos[6 x], Cos[7 x], Cos[8 x] Sin[5 x], Sin[6 x], Sin[7 x], Sin[8 x]
M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 405
1 1
0.5 0.5
-0.5 -0.5
-1 -1
Successivamente:
- π ) - π *
2 2
an = ξ 2 cos nξdξ = − sin nξ 2ξdξ
π
0 nπ 0
+ - π ,
4 4
= 2 (π cos nπ) − cos nξdξ = (−1)n 2 .
n π 0 n
- 2π ) - 2π *
2 1
πan = ξ cos nξ dξ = − sin nξ 2ξdξ
0 3n 0
) O2π - 2π *
2 N 4π
= 2 ξ cos nξ − cos nξdξ = 2
n 0 0 n
- 2π N O -
1 2π 2 2π −4π 2
πbn = ξ 2 sin nξdξ = − cos nξξ 2 + cos nξ ξdξ =
0 n 0 n 0 n
e pertanto
) *
4 2 1 1
ξ2 = π + 4 cos ξ + cos 2ξ + cos 3ξ + . . .
3 2 9
) *
1 1
− 4π sin ξ + sin 2ξ + sin 3ξ + . . . .
2 3
Esempio 2.35 f (ξ) = ξ su (−l/2, l/2) da sviluppare in funzioni seno, e cioè con prolungamento
periodico. Si ha an = 0 e
- l/2 -
2 2nπξ 4 l/2 nπξ
bn = dξ =
f (ξ) sin ξ sin dξ
l−l/2 l l 0 l/2
4 (l/2)2 0 π n
1 l
= − (−1) = (−1)n+1
l π2 n nπ
e pertanto
∞ ) *
l = (−1)n+1 nπ ξ
f (ξ) = sin .
π n=1 n l/2
M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 407
(
ξ per 0 ≤ ξ ≤ l/2
Esempio 2.36 f (ξ) = da sviluppare in funzioni seno, e cioè con prolungamento
l−ξ per l/2 ≤ ξ ≤ l
dispari. Si ha an = 0 ed
- l - l
nπξ nπξ
lbn = f (ξ) sin dξ = 2 f (ξ) sin dξ =
−l l 0 l
- l/2 - l
nπξ nπξ
=2 ξ sin dξ + 2 (l − ξ) sin dξ =
0 l l/2 l
) * @N Oπ/2 - π/2
2l2 1
= 2 − ξ cos nξ − cos nξdξ+
π n 0 0
- π A
N Oπ
+ (π − ξ) cos nξ + cos nξdξ =
π/2 π/2
) *)
2
*
2l 1 2 nπ
= 2 − − sin ,
π n n 2
e pertanto ) *
4l πξ 1 3πξ 1 5πξ
f (ξ) = sin − sin + sin − ... .
π2 l 9 l 25 l
Si noti che la f è pari rispetto a l/2 : f ( 2l + ξ) = f ( 2l − ξ); quindi partendo da f˜(ξ) = ξ su 0 ≤ ξ ≤ 2l e
facendone l’estensione pari fino a l e dispari in [−l, 0] si ottiene una funzione pari rispetto a l/2 e dispari rispetto
allo zero e quindi sviluppabile in sin(2n + 1)nπξ/l . Si noti anche che sull’intervallo (−l/2, l/2) questa funzione è
identica a quella del precedente esempio, e quindi le due serie convergono, per −l/2 < ξ < l/2), agli stessi valori.
#
Esempio 2.37 f (ξ) = 1 per 0 < ξ < π da sviluppare in funzioni seno. La funzione si assume dispari
per definizione. Si ha
- π
π 1N Oπ 1
bn = sin nξdξ = − cos nξ = (1 − (−1)n ) e quindi
2 0 n 0 n
) *
4 1 1 1
1= sin ξ + sin 3ξ + sin 5ξ + sin 7ξ + . . . .
π 3 5 7
#
Se si riprende in considerazione l’aspetto globale (in norma) dello spazio in esame ci si C rende conto che i
∞
coefficienti di Fourier sono comunque i “migliori” coefficienti affinché la combinazione lineare i=1 ci φi esprima
in qualche senso una certa “somma” x anche quando l’integrabilità termine a termine non sia verificata. Per
mostrarlo si prenderà in considerazione, qui di seguito, un generico spazio ; < euclideo E che per semplicità verrà
supposto (separabile e) reale; ed in esso si fisserà un sistema di vettori φi ⊂ E che sia ortonormale ma non
i∈N ; <
necessariamente completo. Inoltre, come sopra, per ogni punto x ∈ E si indicheranno con ci i corrispondenti
i∈N/
coefficienti di Fourier: ci := ⟨ x, φi ⟩ , e con il simbolo ∥·∥ si indicherà la norma euclidea ∥x∥2 := ⟨ x, x ⟩
; < Cν
Proposizione 1.2.38 Siano c̃1 , c2 , . . . ⊂ R assegnati arbitrariamente e sia s̃ν := i=1 c̃i φi con ν ∈ N.
Fissato comunque x ∈ E di tutte le possibili s̃ν quella C che ha minima distanza da x, (ovvero minimo scarto
ν
quadratico medio) è proprio la somma di Fourier: sν := i=1 ci φi . #
Si < che questa affermazione nulla ha a che fare con la completezza dello spazio E nè del sistema delle
; noti
φn .
n=1,2,...
Dimostrazione
2 2 2
∥x − s̃ν ∥ = ⟨ x − s̃ν , x − s̃ν ⟩ = ∥x∥ + ∥s̃ν ∥ − 2 ⟨ x, s̃ν ⟩ .
Cν Cν 2 Cν 2
Ma si ha ⟨ x, s̃ν ⟩ = i=1 c̃i ⟨ x, φi ⟩ = i=1 c̃i ci , ed è ∥s̃ν ∥ = i=1 c̃i , quindi sommando e sottraendo la quantità
Cν 2 2
i=1 ci = ∥sν ∥ si ha
ν
=
2 2 2
∥x − s̃ν ∥ = ∥x∥ − ∥sν ∥ + (c̃i − ci )2 . (2.9)
i=1
"
2 2
Inoltre l’essere la norma non negativa implica che ∥x∥ ≥ ∥sν ∥ per ogni ν ∈ N e quindi:
Proposizione 1.2.39 Sotto le stesse ipotesi della Proposizione 1.2.38 sussiste la seguente Disuguaglianza. #
C∞
Disuguaglianza di Bessel := ∥x∥2 ≥ 2
i=1 ci , ∀x ∈ E .
i
Corollario 1.2.40 Se ∥x∥ < ∞ si ha che ci −→ 0. #
∞
Cν
Proposizione 1.2.41 Qualunque sia ν ∈ N, il vettore x − i=1 ci φi è ortogonale allo span {φi }i=1,...,ν . #
; <
Ovvero: il sistema ortonormale è completo per ( E, ∥·∥ ) (non necessariamente lo spazio E) se e solo se
φi
i∈N C∞
per ogni x ∈ E la serie dei quadrati dei coefficienti di Fourier i=1 c2i è convergente ed uguaglia il quadrato della
norma (purché questa sia indotta dal prodotto scalare) del vettore x usato per calcolare tali coefficienti.
Dimostrazione In virtù della (2.9) con c̃i ≡ ci per ogni i = 1, 2, . . ., l’uguaglianza vale se e solo se
limν→∞ ∥x − sν ∥ = 0 , pertanto la sufficienza è immediata, mentre la necessarietà si ottiene notando che per ogni
s̃ν ̸= sν si ha ∥x − s̃ν ∥ ≥ ∥x − sν ∥ . "
Cν ; <
ν
nel senso che sν := i=1 ci φi è tale che ∥x − sν ∥ −→ 0 , (e la sν è Cauchy). #
∞ ν∈N
; <
In tali ipotesi, cioè, lo span φi è un sottospazio proprio di E fatto con le combinazioni lineari a coefficienti
C∞ i∈N
tali che i=0 c2i < ∞
Cν+p ; < C∞
2
Dimostrazione ∥sν+p − sν ∥ = i=ν c2i implica che sν è Cauchy quando 2
i=1 ci è convergente.
ν∈N
ν
La completezza di E assicura che esiste x ∈ E tale che ∥x − sν ∥ −→ 0 ; inoltre per ogni k si ha ⟨ x, φk ⟩ =
∞
⟨ sν , φk ⟩ + ⟨ x − sν , φk ⟩ che, per la disuguaglianza di Schwartz, tende a ck per ν → ∞. "
M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 409
Dimostrazione
"
M Z
nπξ mπξ
Esempio 2.45 La famiglia sin , cos è completa in C2 ([0, L]) che non è completo; è
L L m=0,1,2,...
n=1,2,...
completa in L2 ([0, L]) che è completo, ed anche in L1 ([0, L]) [Powell-Shah p.130]. Ciò sfrutta il fatto che | sin ξ| ≤ 1
permette di definire i coefficienti di Fourier anche in L1 benchè questi non sia euclideo.
Malgrado non sia detto che x ∈ L1 ∩ L2 abbia lo stesso sviluppo nei due spazi, se x, y ∈ C2 ([a, b]) ⊂ L2 ([a, b])
è senz’altro x ̸= y ⇐⇒ ⟨ x, φi ⟩ ̸= ⟨ y, φi ⟩ per qualche i . In ogni caso la somma f (x) di una serie di
.L C∞
Fourier trigonometrica verifica: (1/L) −L f 2 (x)dx = (a0 /2) + n=1 a2n + b2n .
Si ricordi ora che, per la Proposizione 1.2.7, uno spazio di Hilbert ammette (almeno) una base (ortonormale)
numerabile.
Corollario 1.2.46 Ogni x ∈ H è univocamente determinato dai (suoi) coefficienti di Fourier:
; <
z∈H ↔ ci ∈ (l2 , ∥·∥ < ∞ ) .
i∈N
; <
Dimostrazione Per ogni x ∈ H e data una base ortonormale ei si definisca la funzione ι : H → l2
C∞ 2 i∈N
mediante la ι(x) := {c0 , c1 , . . .} con ci := ⟨ x, ei ⟩ . Dato che i=1 ci < ∞ si ha che la definizione è ben posta:
ι(x) ∈ (l2 , ∥·∥2 < ∞). ; <
Viceversa, le Proposizioni 1.2.43 e 1.2.44 implicano l’inclusione inversa, e cioè che per ogni ci ∈ (l2 , ∥·∥2 )
i∈N
con ∥·∥2 < ∞, esiste unico x ∈ H tale che ι(x) := {c0 , c1 , . . .} . Infine l’uguaglianza di Parseval assicura che
C ∞ 2
i=1 (ci + di ) = ⟨ x + y, x + y ⟩ da cui sviluppando i prodotti segue che ⟨ x, y ⟩ = ⟨ ι(x), ι(y) ⟩ . "
Dimostrazione
"
Inoltre, la completezza di H implica che lim xn esiste se {xn }n∈N è Cauchy. In definitiva, sussiste in tal caso
la ⟨ lim xn , y ⟩ = lim ⟨ xn , y ⟩ .
Corollario 1.2.51 Il complemento ortogonale di un sottoinsieme di uno spazio di Hilbert H è un sottospazio di
H. #
Proposizione 1.2.52 Uno spazio di Hilbert è la somma diretta di un qualsiasi suo sottospazio W e del suo
complemento ortogonale W⊥ . #
; < C∞
Dimostrazione Sia ẽi una base ortonormale in W e sia xw := i=1 ci ẽi , con ci := ⟨ x, ẽi ⟩ . È
i∈N
chiaro che x⊥ := x − xw è ortogonale a tutti i versori ẽi e quindi ad ogni x̃ ∈ W. Il Corollario 1.2.46 implica che
tale xw , e quindi anche x⊥ , sono unici. "
Se il numero degli ẽi è finito esso coincide con la; Codimensione codimensione di W⊥ che,< si ricorderà, è la
'
dimensione dello spazio delle classi di equivalenza: [xw ] ' x ∼ xw := (x − xw ) = x⊥ ∈ W⊥ .
xw e2
e
x
e1
e
x?
W?
W
Si supponga ora che su uno spazio vettoriale V, per semplicità reale, sia assegnato un funzionale lineare continuo
g : V → R, o forma lineare, cioè una mappa lineare omogenea definita su V ed a valori in R.
Operatore lineare limitato := Una trasformazione lineare (o operatore) T : (V, ∥·∥V ) → (W, ∥·∥W ) , defi-
nita su tutto V e tale che esiste c ≥ 0 per il quale ∥T x∥W ≤ c ∥x∥V per ogni x ∈ V.
Equivalentemente: Un operatore T : (V, ∥·∥V ) → (W, ∥·∥W ), definito su tutto V e tale da trasformare ogni insieme
limitato di V in un insieme limitato di W.
Operatore lineare continuo := Un operatore T : (V, ∥·∥V ) → (W, ∥·∥W ) , definito su tutto V e tale per ogni
x̄ ∈ V si abbia che: dato ε > 0 esiste δ(ε, x̄) per il quale x ∈ Bδ(ε,x̄) implica T x ∈ Bε (T x̄).
Equivalentemente: Un operatore T : (V, ∥·∥V ) → (W, ∥·∥W ), definito su tutto V e tale da trasformare ogni insieme
compatto di V in un insieme compatto di W.
M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 411
Equivalentemente: Un operatore T : (V, ∥·∥V ) → (W, ∥·∥W ) , definito su tutto V e tale da trasformare successioni
convergenti in successioni convergenti.
È immediato vedere che se T è continuo in un punto x0 allora è continuo su tutto V; infatti se T è continuo
in x0 , dati x, x′ ∈ V si ha che
|T x − T x′ | = |T (x − x′ + x0 ) − T x0 | < ε purché |x − x′ | < δ(ε, x0 ) ≡ δ(ε).
Nota 1.2.53 Se gli spazi V e W sono a dimensione infinita, l’essere o meno limitato è proprietà che dipende
non solo dall’operatore ma anche dalle norme scelte nei due spazi. Siano per esempio V = C 1 ([0, π]) e W =
d
C 0 ([0, π]) con T := dξ . Se ∥·∥V = ∥·∥∞ = ∥·∥W allora l’operatore T è non limitato: infatti le funzioni
xn (ξ) := sin nξ hanno ∥xn ∥V = 1 e sono in V per ogni n; risulta però ∥T xn ∥W = n e quindi V certo contiene
punti per i quali non esiste c ≥ 0 che verifichi la ∥T x∥W ≤ c ∥x∥V . Se però ∥·∥W = ∥·∥∞ e si sceglie ∥x∥V :=
max{∥x∥∞ , ∥T x∥∞ } allora risulta ∥T x∥W ≤ ∥x∥V ; e siccome ad esempio la funzione eξ è tale da avere ∥T x∥W =
∥x∥V , se ne conclude che ∥T ∥ = 1 . ◃
Si noti anche che la condizione di limitatezza dei trasformati di insiemi limitati può essere richiesta anche per
operatori non lineari F : X → X′ . Si potrà definire
Operatore limitato F : X → X′ := un operatore per il quale esiste finito su una sfera [Br (x0 )] il numero
d′ (F (x), F (y))
m(x0 , r) := sup .
x,y∈Br (x0 ) d(x, y)
x̸=y
Tale numero è detto anche ∥F∥ se la definizione è data su spazi normati, ed è chiaro che se m < ∞ certo
F è continuo su Br (x0 ). Sono limitati, per esempio, gli operatori che verificano la condizione di Lipschitz (si
veda § I.3) che dà l’uniforme continuità. Se poi l’operatore è lineare sussiste la più forte Proposizione 1.2.54
T : (V, ∥·∥V ) → (W, ∥·∥W ) è continuo se e solo se è limitato. #
Lo spazio L(V, W) degli operatori lineari continui da (V, ∥·∥V ) in (W, ∥·∥W ) può essere reso normato mediante
∥T x∥
la ∥T ∥ := supx∈V\{0} ∥x∥ W e sussiste la
V
Dimostrazione La dimostrazione di questa affermazione è analoga a quella che verrà data nell’appendice A.8
di queste note per il caso V e W spazi reali a dimensione finita
; <e norma euclidea. A grandi linee, essa consiste
nel seguente ragionamento [Rall p.39 opp. Reed p.70]: se Tn è di Cauchy, qualunque sia x ∈ V si ha
n∈N
∥Tn x − Tm x∥W ≤ ∥Tn − Tm ∥ ∥x∥V < ε per n, m sufficientemente grandi, e quindi esiste unico il limn→∞ Tn x =
y =: T x. Poi si controlla che tale T sia (a) lineare; (b) limitato; (c) coincida con T = limn→∞ Tn ,
nel senso che se n > νε ∈ N allora accade che ∥T − Tn ∥ < ε. "
0 1
Nel caso in cui lo spazio di arrivo (W, ∥·∥W ) sia in particolare R1 , |·| lo spazio V∗ := L(V, R) si chiama
Spazio duale di V, ed i suoi punti f : V → R si chiamano funzionali (lineari, limitati).
Si definisce cioè:
Spazio duale di V := lo spazio (vettoriale)
⎧ '0 1 ⎫
⎪ '
⎨ ' f1 + f2 (x) := f1 (x) + f2 (x) ⎪ ⎬
'
V∗ := f ' 0 1
⎪
⎩ '' a f (x) := a f (x) ⎪
⎭
dei funzionali lineari continui su V, e dotato della norma (si veda § A.7)
|f (x)|
∥f ∥ := sup = sup |f (x)|.
x̸=0 ∥x∥ ∥x∥=1
; ' <
Kernel del funzionale g := l’insieme Ker g := x ∈ V ' g(x) = 0 ;
esso è una Varietà lineare in V, perchè g(x) = g(y) = 0 ⇒ g(ax + by) = 0.
Proposizione 1.2.56 Mediante un funzionale g è possibile generare una varietà lineare (di dimensione uno in
quanto g(x) ∈ R1 ) fatta dalle classi:
'
'
[x] := {y ∈ V ' x ∼ y}, ove x ∼ y ⇐⇒ (x − y) ∈ Ker g;
Dimostrazione Sia x0 tale che g(x0 ) = 1 . Se g è non banale è sempre possibile individuare un tale x0 .
Per ogni x ∈ V sia z := x − g(x)x0 . Si ha g(z) = 0 , ed è unica ad x0 fissato la rappresentazione
"
′
z −z 1
[infatti se fosse anche x = α′ x0 + z ′ si avrebbe un assurdo: (α − α′ )x0 = z ′ − z che dà, per α ̸= α′ , g( α−α ′) = 1 = α−α′
(0 − 0) ].
Ne segue che, fissato un x1 tale che g(x1 ) = α1 ̸= 0, è anche possibile esprimere (ed univocamente) x1 =
g(x1 )x0 + z1 con g(z1 ) = 0 . Se ne ricava x0 = (x1 − z1 )/g(x1 ), ed in tal modo il generico x ∈ V resta anche
espresso da ) *
g(x) g(x)
x = g(x)x0 + z = x1 + z − z1 =: g ′ (x)x1 + z ′ con g(z ′ ) = 0.
g(x1 ) g(x1 )
A sua volta, la g ′ (·) := g(·)/g(x1 ) mostra che è anche g ′ (z ′ ) = 0 , ed anzi che è Ker g = Ker g ′ .
D’altra parte, se g, g ′′ sono tali che Ker g = Ker g ′′ allora esiste κ ∈ R\{0} tale che g(x) = κg ′′ (x), per ogni
x ∈ V. Infatti: sia g(x0 ) = 1 ; per ogni x ̸∈ Ker g ′′ , si può scrivere x = g(x)x0 + z , ma allora g ′′ (x) ̸= 0 implica
′′
che g ′′ (x) = g(x)g ′′ (x0 ) con g ′′ (x0 ) =: κ ̸= 0 . In particolare si ha ancora x = gg′′ (x
(x)
0)
x0 + z .
Viceversa: per ogni sottospazio W ⊂ V di codimensione uno esiste (almeno) un funzionale g che lo ammette
come Kernel: basta scegliere x0 fuori da W; per ogni x ∈ V scrivere x = αx0 + z con z nel sottospazio (e cioè
cercare α : (x − αx0 ) ∈ W; riconoscere che tale α è unico in quanto la condizione codim = 1 implica l’unicità
di α tale che [x] = α[x0 ]); e porre infine g(x) := α . In tal modo risulta W ≡ Ker g .
x z
z z0
®1x0 g(x)x0
x0 z1
g 0(x)x1
x1
y
1 ®1
) = ®
(g x) = =
er g( x) )
K g( g (x
Piano H ⊂ V := l’insieme dei vettori di V dati da x = αx0 + z con αx0 fissato e z arbitrariamente scelto
in un qualche sottospazio W ⊂ V (detto spazio delle direzioni). Si noti che se αx0 ̸= 0 il piano H non è una
varietà lineare.
Si vedrà che se lo spazio è euclideo non lede scegliere x0 ∈ W⊥ , ed allora la rappresentazione dei vettori del
piano H è unica.
Nel caso generale, ogni classe di equivalenza, o piano, è individuata dall’unico numero α ≡ g(x), lo spazio delle
direzioni essendo Ker g .
Esempio 2.57 In uno spazio euclideo ⟨ u0 , x ⟩ = cost è un piano, cosı̀ come lo è g(x) = cost. #
M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 413
Piani paralleli := piani che hanno lo stesso spazio delle direzioni. In tal caso o coincidono o non hanno alcun
punto in comune.
Esempio 2.58 La classe [x] = α[x0 ] è un piano parallelo al sottospazio W ≡ Ker g , se g è definito come detto
sopra. #
Un piano è una varietà lineare, ed anzi un sottospazio, solo quando contiene l’origine; esso comunque è dotato
di dimensione nel senso che condivide quella del suo spazio delle direzioni.
In definitiva c’è una corrispondenza biunivoca fra funzionali lineari non banali e piani non contenenti l’origine.
Ciascun piano W contenente l’origine è il Ker di tutti i funzionali della famiglia (ad un parametro) dei funzionali
lineari che individuano i piani paralleli a W.
Proposizione 1.2.59 Lo spazio V∗ , duale di V, è uno spazio vettoriale della stessa dimensione di V. #
; <
Infatti data una base ei in V, per i = 1, . . . , n ≤ ∞ un qualsiasi f è completamente individuato dalle
i∈N
Componenti covarianti di f : := fi := f (ei ).
9 ' :
Inoltre, sia V(i) := span{e1 , . . . , ei−1 , ei+1 , . . . , en } e si definisca f ∗i tale che Ker f ∗i ≡ x ' f ∗i (x) = 0 =
; <
V(i) . L’insieme f ∗i è una possibile base in V∗ . Infatti: gli f ∗i sono linearmente indipendenti, perché
i=1,...,n (
C ∗i ∗i = 0 se i ̸= j
ci f (ej ) ̸= 0 solo se i = j in quanto, per costruzione, è sempre possibile assumere f
̸= 0 se i = j .
˜
D’altra parte, un qualsiasi f ∈ V è tale che
∗
e ciò mostra che esistono, univoche, le componenti covarianti f˜j per ciascun f˜.
; <
Base duale := l’insieme delle n funzioni f ∗1 , . . . , f ∗n tali che
; ' <
'
Ker f ∗i ≡ x ' f ∗i (x) = 0 = V(i) , i = 1, . . . , n,
ovvero tali che f ∗i (ej ) = δji i, j = 1, . . . , n.
Si osservi che in tali definizioni non è stato necessario introdurre alcun prodotto interno nello spazio V. Tuttavia,
l’introduzione di tale struttura permetta di determinare con semplicità, e per ogni vettore x ∈ V, i numeri xi :=
⟨ x, ei ⟩ ≡ κ ji xj , come si vedrà più oltre in virtù del teorema di rappresentazione di Riesz.
Proposizione 1.2.60 (V∗ , ∥·∥) è completo . #
(n) '
Dimostrazione In L(V, R) si considerino gli insiemi Aκ := {f ' f (xn ) ≤ κ} . Tali insiemi sono chiusi in
; <
(n)
quanto N (0) ⊂ V∗ è limitato. Anche Aκ := ∩∞
n=1 Aκ è chiuso, e siccome ogni f (xn ) converge sarà certo
n∈N
limitata; pertanto L(V, R) ⊂ ∪∞ κ=1 Aκ . Ma sussiste un teorema (Baire) che esclude, in tal caso, che tutti gli Aκ
possano
; < essere affatto densi. Pertanto esisterà κ0 tale che Ak0 ⊃ Bε (f0 ) per un certo f0 , per cui la successione
xn è limitata sulla sfera Bε (f0 ) e quindi è limitata (su tutto V∗ ) come successione di punti in V∗∗ . Ciò
n∈N
implica che sia limitata in V. "
w
Teorema 1.2.62 Condizione sufficiente (oltre che necessaria) affinché xn −→ x in (V, ∥·∥) è che:
; <
(a) ∥xn ∥ sia limitata, e cioè supn ∥xn ∥ < ∞;
n∈N
(b) φα (xn ) → φα (x) per ogni φα ∈ B, ove B ⊂ V∗ è una base per (V∗ , ∥·∥)
(o, più in generale, se B è un qualsiasi sottoinsieme denso di V∗ e quindi tale che span B = V∗ ).
C
Dimostrazione Se f = sν := νh=1 ch φαh è una combinazione lineare finita di elementi di B si verifica subito
che f (xn ) → f (x). Se invece f è un qualsiasi punto di V∗ , e siccome ∃{sν }ν∈N tale che sν → f (in norma
∥·∥V∗ ), se ∥xn ∥ ≤ c per n = 1, 2, . . . si ha la valutazione:
|f (xn ) − f (x)| ≤ |f (xn ) − sν (xn )| + |sν (xn ) − sν (x)| + |sν (x) − f (x)|
≤ ∥f − sν ∥ ∥xn ∥ + |sν (xn ) − sν (x)| + ∥f − sν ∥ ∥x∥
Per cui
(i) se xn ⇀ x in C([a, b]) allora supn |xn (t)| ≤ C uniformemente su [a, b] e xn (t) → x(t) per ogni t;
(ii) se xn (t) → x(t) per ogni t ed è uniformemente limitata, allora il teorema della convergenza dominata ed il
teorema di rappresentazione di Riesz implicano che xn ⇀ x in C([a, b]).
Sugli spazi V e V∗∗ può sussistere la (isometrica) inclusione V∗∗ ⊃ V, possibilmente anche stretta.
Si consideri la ι : V → V∗∗ data da ι(x) = x∗∗ ove x∗∗ (f ) := f (x) per ogni f ∈ V∗ . Se la ι è suriettiva
allora V è detto riflessivo e ι è un isomorfismo. Ciò accade se dimV < ∞, o negli spazi Lp con 1 < p < ∞.
Nel caso particolare degli spazi di Hilbert, sussiste il preclaro:
Teorema 1.2.65 [di rappresentazione di Riesz] (si veda: [Kolmogorov IV.2.3])
Se V ≡ H è uno spazio di Hilbert (reale), ad ogni g ∈ H∗ corrisponde un vettore ug ∈ H tale che per ogni x ∈ H
si ha g(x) = ⟨ ug , x ⟩ . Questo ug è unico, è tale che ∥g∥ = ∥ug ∥ , ed (ag1 + bg2 )(x) = a⟨ ug1 , x ⟩ + b ⟨ ug2 , x ⟩ . #
M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 415
⊥
Dimostrazione Ker g è un sottospazio di H di codimensione uno, e quindi (Ker g) ha dimensione uno.
⊥
Pertanto esiste x1 ∈ (Ker g) con ∥x1 ∥ = 1 e tale che per ogni x ∈ H si ha
7
Nota 1.2.68 Si vede subito tramite la disuguaglianza 8 di Bessel che la convergenza per coordinate in H o,
equivalentemente, in l2 , si veda Proposizione 1.2.48 , è conseguenza di quella in norma. D’altra parte se g ∈ V∗
si ha che |g(x)| ≤ ∥g∥ ∥x∥ e ciò fa vedere che la topologia τ L è non più forte di quella indotta dalla norma.
Inoltre se lo spazio vettoriale (anche non euclideo) è a dimensione finita, l’equivalenza fra le norme (si veda § A.1)
garantisce la convergenza per coordinate a partire dalla convergenza in una qualsiasi norma (oppure: [Voyevodin
Lemma 53.1]).
Viceversa, se uno spazio vettoriale normato è finito dimensionale, in virtù della disuguaglianza triangolare e
della linearità della norma la convergenza per coordinate è a sua volta sufficiente ad assicurare quella in (una
qualsiasi);norma;
< ciò però non è vero in uno spazio a dimensione infinita, si pensi alla successione dei versori
di base: φi . Con un calcolo analogo a quello fatto nella dimostrazione della Proposizione 1.2.38 si può
i∈N
però mostrare che in uno spazio di Hilbert la convergenza per coordinate, se unita alla condizione: ∥xn ∥ → ∥x∥
è sufficiente ad assicurare la convergenza in norma: ∥xn − x∥ → 0. Ne segue in particolare che uno spazio
euclideo finito dimensionale è completo.
D’altra parte, siccome lo span delle combinazioni lineari finite degli elementi della base coincide con H che, si
è visto, è isomorfo ad H∗ , dal Teorema 1.2.62 segue che la convergenza per coordinate equivale alla convergenza
debole su H . Alternativamente si può usare il teorema dell’isomorfismo e riconoscere che la topologia debole su
H coincide con la topologia prodotto su l2 . ◃
Nel caso particolare in cui V ≡ H e W ≡ K siano spazi di Hilbert, o comunque euclidei, dalla proposizione
vista sopra segue che per ogni g ∈ H∗ esiste ug = ι−1 (g) ∈ H tale che
0 1
⟨ ug , T ξ ⟩ = g(T ξ) = T! ∗ g (ξ) = ⟨ ι−1 T! ∗ ι(ug ), ξ ⟩ =: ⟨ T ∗ ug , ξ ⟩,
Operatore aggiunto di T sullo spazio H := l’operatore T ∗ : H → K tale che ι−1 (γ) = wγ =: T ∗ ug ; esso
è caratterizzato dalla relazione:
⟨ T x, y ⟩ =: ⟨ x, T ∗ y ⟩, ∀x, y ∈ H
In coordinate si ha:
(T x)k ȳ k =: xi T̄ ∗ik ȳ k ;
ed essendo
(T x)k = (T x)h ghk = Tjh xj ghk = g ij Tjh ghk xi
se ne ricava
(T̄ ∗ )ik = g ij Tjh ghk .
W » T x V
∗
W∗ ° T g V*
∗
T <ug , >
K <º° , >
∗
H*
∗
K º° T ug H
2
⟨ x, T x ⟩ ≥ m ∥x∥ per un qualche m > 0 ed ogni x ∈ H.
Queste ultime definizioni verranno commentate nel caso particolare degli spazi euclidei a dimensione finita.
Sulla equazione aggiunta
&
Sia dato un operatore lineare L(x), &
per esempio L(x) := a0 (t)ẍ + a1 (t)ẋ + a2 (t)x sullo spazio (C r , ∥·∥2 ) delle
funzioni x = x(t). Qui di seguito, per soli motivi storici, si indicherà con x′ la derivata ẋ , e con ∂t l’operatore
d
dt . Si chiama “equazione aggiunta” dell’equazione
&
L(x) := a0 (t)x′′ + a1 (t)x′ + a2 (t)x = 0 (2.10)
U
l’equazione M(y) = 0 cui deve soddisfare una funzione y : (C r , ∥·∥2 ) → R affinchè l’equazione &
ȳ(t)L(x) =0
sia “esatta”, e cioè assuma la forma
N O′ + ,
d d
µ x′ + ν x := µ(t) x + ν(t)x = 0.
dt dt
M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 417
′
Moltiplicando per ȳ la (2.10) e uguagliandola a (µx′ + νx) = 0 si riconosce che queste si equivalgono purché si
abbiano: {µ = ȳa0 , µ′ + ν = ȳa1 , ν ′ = ȳa2 } . Sostituite la prima e l’ultima di queste nella seconda si ricava
l’equazione cercata
U ′′ ′
M(y) : = (ā0 y) − (ā1 y) + ā2 y
′′ ′
≡ (−1)2 (ā0 y) + (−1) (ā1 y) + (−1)0 ā2 y = 0 ;
che è allora l’equazione aggiunta. Cosa ha a che fare con l’operatore aggiunto?
Sussiste, in generale, l’identità di Lagrange
⎛ ⎞
n
= =
&
y L(x) U
− x M(y) = ∂t ⎝ ∂tj (x) (−1)k ∂tk (an−h ȳ)⎠ (2.11)
h=1 j+k=h−1
= µx′ + νx .
La stessa forma della (2.11) implica che l’equazione M(y) U = 0 , aggiunta di L(x) & = 0 , è anche l’equazione tale che
U
x M(y) &
= 0 risulta esatta quando sia L(x) = 0 (la x e la y sono “fattori integranti” l’una per l’altra).
Sono immediate, poi, le seguenti integrazioni per parti rispetto alla t:
⎧ - b - b - b
⎪
⎪ ⟨ y, a∂t x ⟩ :=
⎪
⎪ ya∂ t x = āy∂ t x̄ = − ∂t (āy)x̄ + [āy x̄]ba
⎪
⎪ a a a
⎪
⎪
⎨ = −⟨ ∂t (āy), x ⟩ + [āy x̄]ba
⎪ - b - b
⎪
⎪ 2
⎪
⎪
2
⟨ y, a∂t x ⟩ := āy∂t x̄ = − ∂t (āy)∂t x̄ + [āy∂t x̄]ba
⎪
⎪ a a
⎪
⎩
= (−1)2 ⟨ ∂t2 (āy), x ⟩ + [āy∂t x̄]ba − [∂t (āy)x̄]ba
dalle quali si vede che l’operatore aggiunto di a∂t è −∂t (ā ·), e quello di a∂t2 è ∂t2 (ā ·), entrambi purché
sulle funzioni che annullano le condizioni al bordo.
U è l’aggiunto di L& := a0 (t)∂tt
L’integrale della (2.11) tra estremi a e b mostra che l’operatore M 2
+a1 (t)∂t +a2 (t)
nello spazio di quelle funzioni che annullano ai bordi il termine finito del secondo membro.
N.B. 1.2.69 Si consideri, in uno spazio n-dimensionale, il sistema
x′ = A x. (2.12)
quando si pongano x = (x1 , . . . , xn ) con x ≡ x[0] =: x1 , . . . , ∂tk x ≡ x[k] =: xk+1 , . . . , ∂tn−1 x ≡ x[n−1] =: xn ;
e, (rinominando i coefficienti ai /a0 → ai ),
⎛ ⎞
0 1 0 0
⎜ 0 0 1 0 0 ⎟
⎜ ⎟
A := ⎜ . . . ⎟
⎝ .. .. .. 0 ⎠
−an −an−1 · · · −a1
Cn
D’altra parte detto r := i=1 ȳi xi = ȳ T x, risulta r′ = (ȳ T )′ x + ȳ T x′ , e pertanto: fra quelle funzioni che
annullano r′ ci sono le soluzioni di x′ = A x se e solo se ci sono anche quelle del sistema
[k] [k−1]
e quindi ∂tk−1 (ān−k+1 yn ) = yk + yk−1 , k = 2, . . . , n; da queste si ottiene
n
=
(−1)k ∂tk−1 (ān−k+1 yn ) = (−1)n ∂tn yn + ān yn
k=2
&
e si moltiplichi L(x) per −r(t). Si ottiene l’operatore
Si osservi che se L ha coefficienti reali essa risulta la stessa equazione della L(y) = 0 . Tuttavia si badi bene che ciò
non assicura che l’operatore L sia autoaggiunto: va infatti specificato prima lo spazio sul quale questo potrebbe
accadere. ♦
N.B. 1.2.71
Mediante l’identità di Lagrange, oppure con un semplice calcolo diretto, si ha
) ' '*
d d ' x ȳ '
ȳ L(x) − xM(y) = (p(t) W (x, ȳ)) = '
p(t) ' ′ ' .
dt dt x ȳ ′ '
In questa, x e y non sono necessariamente nel Ker(L); qualora ciò fosse si avrebbe necessariamente p W = W 0 .
Si scelga ora, per esempio, il sottospazio di L2 ([a, b]) formato dalle funzioni che verificano condizioni al bordo
omogenee e separate del tipo
(
αx(a) + βx′ (a) = 0
con α, β, γ, δ ∈ R .
γ x(b) + δ x′ (b) = 0
visto che (
αx(a) + βx′ (a) = 0 '
'
con α2 + β 2 ̸= 0 implica W (x, ȳ) ' = 0,
αy(a) + βy ′ (a) = 0 t=a
M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 419
ed analoga per il punto t = b . D’altra parte, si può anche controllare direttamente che
Allo stesso modo si può confermare che l’operatore −i d/dt è autoaggiunto nello spazio L2 (−∞, +∞) dato che
|t|
in tal caso senz’altro si ha |x| −→ 0 . ♦
∞
N.B. 1.2.72 Si discuterà qui il caso di un problema del secondo ordine, e si useranno le lettere maiuscole per
indicare le funzioni della variabile scalare (qui indicata con ξ ) dato che questa stessa viene spesso indicata in
letteratura con la lettera x minuscola.
Problema di Sturm-Liouville := il seguente problema
( ) *
L(X) = λ r(ξ) X d d
con L(X) := − p(ξ) X + q(ξ) X (2.13)
condizioni al bordo dξ dξ
⎧
⎨p, q, r ∈ C ([a, b], R)
⎪ 0
Infatti il loro wronskiano o è identicamente nullo o identicamente diverso da zero. Ma questa seconda
possibilità è impedita dalla condizione al bordo (si veda il N.B. 1.2.71).
Pertanto, siccome Xλ ed Xλ̄ sono autovettori di λ̄ ne segue che Xλ̄ = X̄λ .
.b
• Dato che r è reale positivo su [a, b], sussiste la relazione, (ove ⟨ u, v ⟩ := a u(ξ) v(ξ) dξ )
Ne segue che: gli autovalori λ di un problema S.L. regolare sono tutti reali (basta assumere λ = µ ed
.b
usare il fatto che il primo membro è nullo mentre ⟨ Xλ , Xλ ⟩ r = a rXλ Xλ dξ > 0 ). In definitiva si ha che
⟨ ·, · ⟩ r è un corretto prodotto scalare.
• Gli autovettori di un problema S.L. regolare sono tali che
⟨ Xλ , Xµ ⟩ r = 0 se e solo se λ ̸= µ
Con la scelta r = 1 si trovano anche per questi prodotti le affermazioni: “un operatore autoaggiunto ha
autovalori reali ed autovettori ortogonali”.
; <
• L’insieme λi degli autovalori del problema (2.13) è numerabile, ed essi sono tali che
i=1,2,...
• Gli autovalori ed i corrispondenti autovettori sono messi in relazione dalla formula di Rayleigh:
@ A
N Ob - b 0 1 2
′ ′ 2 2
λ = − pXX + pX + qX dξ ⟨ X, X ⟩ r
a a
In breve: un problema S.L. regolare ammette una successione crescente non limitata numerabile di autovalori reali
semplici ed in loro corrispondenza una successione di autosoluzioni (reali) r -ortogonali.
Per le autofunzioni dei problemi di Sturm-Liouville regolari sussiste un teorema simile al teorema di Fourier
[Tolstov p.257 opp. Courant-Hilbert 1.V.14]. Ricordando la definizione già vista sopra (Memento 1.2.30) di:
Funzione liscia a tratti := Una funzione f : [a, b] → R limitata su [a, b] e ivi continua a meno di un numero
finito di discontinuità di prima specie e inoltre tale da ammettere (finita) la derivata destra e sinistra in ogni punto
sussistono i seguenti due fondamentali teoremi.
; < ; <
Teorema 1.2.73 Il sistema Xi delle autosoluzioni corrispondenti agli autovalori λi è un
i=1,2,... i=1,2,...
insieme ortogonale e completo in (L2 ([a, b]), ⟨ ·, · ⟩ r ) #
C∞
Teorema 1.2.74 Sia f : [a, b] → R una funzione liscia a tratti. La sua serie di Fourier i=1 ci Xλi , con
ci := ⟨ f, Xλi ⟩ r / ⟨ Xλi , Xλi ⟩ r converge puntualmente per ξ ∈ (a, b) al valore (f (ξ + ) + f (ξ − )) /2 . Se f
è continua su [a, b], f ′ è liscia a tratti, ed f verifica le condizioni ai bordi accennate nella (2.13), allora la
convergenza è assoluta e uniforme. #
♦
N.B. 1.2.75 Per dimostrare alcune delle affermazioni fatte qui sopra sulle proprietà dei sistemi S.L. regolari si
possono considerare i seguenti fatti. Si consideri inizialmente un fissato valore di λ ∈ C.
Fatto n o. 1 È opportuno dilatare l’asse delle ξ mediante la funzione
- ξ
dη d 1 d
τ (ξ) := e quindi =
a p(η) dξ p(ξ) dτ
+) * ,
! 1 d2
che trasformano la L(X) nella L(X) = − + q(ξ) X
p(ξ) dτ 2 ξ=τ −1 (τ )
In tal modo si trasforma l’iniziale problema S.L. regolare nel seguente
⎧ 2
⎨ d
X + g(τ, λ) X = 0
dτ 2
⎩
condizioni al bordo
con ⎧
⎨ g(τ, λ) := λ p(ξ(τ )) r(τ ) − p(ξ(τ )) q(ξ(τ ))
⎪
g ∈ C 0 ([τ (a), τ (b)] × R)
⎪
⎩
g monotona crescente rispetto a λ
e siccome p e q sono positive su [a, b] prima o poi in λ la funzione g dovrà diventare positiva.
Fatto n o. 2 Si vuole discutere il comportamento qualitativo dell’equazione:
X ′′ + g(ξ, λ) X = 0 con g ∈ C 0 ([a, b] × R) , g(ξ, ·) crescente (2.14)
nel caso di condizioni al bordo che coinvolgano separatamente la X e la X ′ . Data la loro omogenità, ciò permette
di scegliere la funzione incognita X in modo che risulti X ′ (a) = 1 (per il caso generale si veda: [Ince]).
Fatto n o. 3 Nella famiglia delle soluzioni (una per ogni valore di λ) del problema
X ′′ + g(ξ, λ) X = 0 con X(a) = 0, X ′ (a) = 1, (2.15)
si cercheranno poi quelle che verificano anche la seconda condizione al bordo. Nel caso semplificato in esame deve
essere: X(b) = 0 . (In generale si osserva che fra due consecutivi valori per i quali si ha X = 0 se ne trova uno e
uno solo nel quale γX + δX ′ = 0 ).
Per quanto riguarda ciascuna singola equazione (2.14), e cioè supponendo λ fissato, sussistono i seguenti importanti
teoremi.
Teorema 1.2.76 [di separazione di Sturm]
Due qualsiasi soluzioni distinte X e Y dell’equazione (2.14) (con λ fissato) che abbiano W (X, Y ) ̸= 0 hanno
zeri distinti ed alternati. #
M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 421
Infatti, l’essere W ̸= 0 ed il doverlo rimanere implica che tali zeri non possano coincidere o essere non isolati (per
continuità). Inoltre, se ξ1 , ξ2 sono due zeri successivi di Y , si ha (per esempio) W (ξ1 ) = X(ξ1 )Y ′ (ξ1 ) > 0 , e quindi
W (ξ2 ) = X(ξ2 )Y ′ (ξ2 ) > 0 . Ad esempio con Y ′ (ξ1 ) > 0 si ha che, affinché Y possa annullarsi in ξ2 ma non
prima, deve essere Y ′ (ξ2 ) < 0 . Ne segue X(ξ1 )X(ξ2 ) < 0 e quindi per continuità la X dovrà essersi annullata
almeno una volta in [ξ1 , ξ2 ]. Ma non può averlo fatto più di una volta sola, perché altrimenti si potrebbe ripetere
il ragionamento cambiando X con Y .
Fatto n o. 4 Se g(ξ, λ) < 0 per ogni ξ ∈ [τ1 , τ2 ] (λ è fissato), una qualsiasi soluzione di (2.14) si annulla al
più una volta in [τ1 , τ2 ] (o è identicamente nulla).
Infatti, se X(ξ0 ) = 0 , per ipotesi è X ′ (ξ0 ) ̸= 0 (sia positivo), e quindi sarà X(ξ) > 0 a destra di ξ0 . La condizione
su g implica X ′ crescente in un intorno destro di ξ0 , che quindi deve contenere (ξ0 , τ2 ].
Fatto n o. 5 - Se g(ξ, λ) è continua e positiva per ogni ξ ∈ [τ̂ , +∞) (λ è fissato), e se sussiste la condizione
∞
(sufficiente): g(ξ, λ)dξ = +∞ per un qualche τ > τ̂ , allora una qualsiasi soluzione di (2.14) che non sia
τ
banale non può avere un numero finito di zeri in [τ̂ , +∞).
′′
Infatti non può esistere ξ0 ≥ τ tale che (ad esempio) X(ξ) > 0 per ogni
. ξ > ξ0 perché X < 0′ a destra di ξ0
′
darebbe X strettamente decrescente a destra di ξ0 , e la condizione su g implica l’esistenza di ξ > ξ0 nel quale
X ′ (ξ ′ ) < 0 giacché:
) * ) *2 + ,ξ - ξ
d X′ X ′′ X + X ′ 2
X′ X′
− = − = g+ implica − ≥ g;
dξ X X2 X X ξ0 ξ0
per cui, avendo derivata strettamente negativa, prima o poi dopo ξ0 dovrà annullarsi anche la X .
Fatto n o. 6 Se g(ξ, λ) è continua e positiva per ogni ξ ∈ [τ̂ , +∞) (λ è fissato), una qualsiasi soluzione di
(2.14) non può avere un numero infinito di zeri in [τ1 , τ2 ], ove τ1 > τ̂ .
Infatti in tal caso esisterebbe un punto di accumulazione ξ0 ∈ [τ1 , τ2 ] di zeri della X e cioè si avrebbe X(ξ0 + h) =
X(ξ0 ) + X ′ (ξ0 + θh)h con h piccolo a piacere e con X(ξ0 ) = X(ξ0 + h) = 0 ciò che, per continuità, implica X ′ = 0 .
Si faccia ora variare il parametro λ, e ne siano λ1 e λ2 due valori per i quali g(ξ, λ1 ) < g(ξ, λ2 ) per ogni
ξ ∈ [τ1 , τ2 ]. Sia poi X una soluzione (non banale) di X ′′ + g(ξ, λ2 )X = 0 , e Y una soluzione (non banale)
di Y ′′ + g(ξ, λ1 )Y = 0
Teorema 1.2.77 [del paragone di Sturm]
La X oscilla più rapidamente della Y . Ovvero: X si annulla almeno una volta nell’intervallo aperto (ξ1 , ξ2 ) ove
ξ1 , ξ2 sono due zeri successivi della Y (in [τ1 , τ2 ]). #
Infatti: siano ξ ′ e ξ ′′ due zeri successivi della Y , e sia ad esempio Y > 0 in (ξ ′ , ξ ′′ ). Sia, per assurdo, anche
d
X > 0 (ad esempio). Dalle due equazioni segue XY ′′ − Y X ′′ ≡ dξ W (X, Y ) = (g(ξ, λ2 ) − g(ξ, λ1 )) XY . Pertanto:
W (ξ ) − W (ξ ) > 0 strettamente; ma con le dette ipotesi è: W (ξ ′ ) = X(ξ ′ )Y ′ (ξ ′ ) ≥ 0 , e Y ′ (ξ ′′ ) < 0 implica
′′ ′
W (ξ ′′ ) ≤ 0 . Ne segue
; che se Y ha una < successione di zeri: {τ1 ≤ ξ1 < ξ2 < . . .} allora la X ha almeno una
ˆ
successione di zeri: ξ̂1 < ξ1 ; ξ1 < ξ2 ; . . . .
Fatto n o. 7 Dalla continuità di g(·, λ) su [τ1 , τ2 ] si ha che g(·, λ) ∈ [gmin (λ), gmax (λ)]; ed essendo g(ξ, ·)
monotona crescente si può dedurre che:
(7.1) finché λ è tale che gmax (λ) ≤ 0 , ammesso che sia X(a) = 0 non può essere X(b) = 0 (per il Fatto n.4);
In definitiva, variando λ in modo continuo, gli zeri di X “si muovono” verso il punto a, che per le condizioni al
bordo è assunto essere il primo zero, provenendo dal semiasse (a, +∞). Quando uno zero “transita” per il punto
b esso è evidentemente un autovalore. Si giunge cosı̀ al
Teorema 1.2.78 [di oscillazione di Sturm]
π0 : C 1 → R1 definito da π0 y = y(0) ;
mediante π0 il sistema
(
ẏ = f (t, y) t ∈ [0, T]
y(0) = y0
.
Memento 1.3.2 Due operatori lineari Li x = R Ki (s, t)x(t)dt i = 1, 2 hanno prodotto
- -
L1 ◦ L2 x = K1 (s, u)K2 (u, t)x(t)dudt
R R
che ha kernel -
K(s, t) := K1 (s, u)K2 (u, t)du
R
M. Lo Schiavo
A.3. Richiami di Analisi Funzionale. ( III ) 423
Ad esempio, una proiezione Π(C([a, b])) → Rn+1 la si può ottenere mediante una discretizzazione (o “finite
difference”) di [a, b] nei punti sh := h/n con h = 0, 1, . . . e quindi
⎞ ⎛
x(s0 )
⎜ x(s1 ) ⎟
Π(x(s)) = y = ⎜
⎝ ··· ⎠
⎟
x(sn )
d
x(s) = y(s) su (a, b), con y ∈ C 0 ((a, b))
ds
allora - s
x(s) = x(c) + y(t)dt per ogni c ∈ (a, b).
c
∥F (x + h) − F (x) − L(x)h∥
lim =0.
∥h∥→0 ∥h∥
Tale L si può anche indicare con F ′ e verifica le usuali regole di derivazione delle funzioni, quale per esempio
la: (P ◦ S)′ (x) = P ′ (S(x)) ◦ S ′ (x) . #
Il metodo operativo per calcolare le derivate di un operatore consiste nello scrivere esplicitamente la differenza
F (x + h) − F (x) come un operatore su he di questo estrarre la parte lineare su h.
Ad esempio la P(y, y0 ) del Memento 1.2.10 ha derivata
)d *) *
− fy (s, y(s))1I 0 y
P ′ (y, y0 ) = ds
π0 −1 y0
e si noti che tale integrazione è definita solo sul segmento che unisce x con y.
Anche questa operazione verifica le usuali regole dell’integrazione di funzioni reali e, per esempio, è valida la
?- y ? - 1
? ?
∥F (x + λ(y − x))∥ ≤ p(λ) ⇒ ? F (ξ)dξ ?≤ p(λ)dλ
? ?
x 0
Sussiste infine la importante Proposizione 1.3.8 Se F è derivabile in ogni punto del segmento che unisce x
′
con y ed F è integrabile da x ad y allora
- y
F (y) − F (x) = F ′ (ξ)dξ
x
Sfruttando l’ipotesi di derivabilità che, per n grande e λi+1 − λi = 1/n, assicura la stima
ε
∥F (xi+1 ) − F (xi ) − F ′ (xi )(xi+1 − xi )∥ <
2n
si
?.ricava che il primo membro ha norma? minore di ε/2 ; basta poi riconoscere che, per l’integrabilità di F ′ , anche
? y ′ Cn−1 ′ ?
? x F (x)dξ − i=0 F (xi )(xi+1 − xi )? resta limitata da ε/2 . "
Allo stesso modo se ne prova l’importante Corollario 1.3.9 [Teorema di media generalizzato]
Operatore lineare invertibile := un operatore L : X → Y lineare limitato per il quale esiste L−1 : Y → X
(lineare) limitato tale che
Si noti che se gli spazi sono a dimensioni finite n, m l’operatore L è limitato (e ciò in conseguenza del fatto
che gli corrisponde una matrice n × m); ed anzi, per la limitatezza di L basta che X sia a dimensione finita (in
quanto si può valutare l’allungamento dei soli versori di base).
Più in generale si ricordino le seguenti definizioni e proprietà:
Operatore invertibile := un operatore F : X → Y per il quale esiste un qualche operatore F& : Y → X tale che
Talvolta può essere necessario richiedere, in aggiunta, che l’operatore F& sia limitato.
M. Lo Schiavo
A.3. Richiami di Analisi Funzionale. ( III ) 425
equivalentemente:
F (x1 ) = F (x2 ) (se e) solo se x1 = x2 ;
equivalentemente:
esiste un qualche S : Y → X tale che SF = 1I su X.
equivalentemente:
esiste un qualche D:Y→X tale che F D = 1I su Y .
Nulla è detto in questi due casi sulla unicità e limitatezza degli operatori S e D.
Esempio 3.10 Sia X = Y = l2 eC Λ : X → Y definito Cν da yk 2= λk x2k C
, k = 0, 1, 2, . . . con |λk | ≤ m < ∞ . In
ν ∞
tal caso si ha, per ogni ν ∈ N, |y
k=1 k | 2
≤ m 2
k=1 |xk | ≤ m k=1 |xk | , e quindi y = Λx è in Y.
2
Si noti che
Il metodo accennato mostra anche che un operatore F : X → Y non singolare è invertibile su F (X) .
In definitiva si è riconosciuto che una definizione alternativa è la:
Operatore invertibile := un operatore F : X → Y tale che
onto
ad ogni x ∈ X associa un unico F (x) ∈ Y, e che sia 1 ←→ 1 su Y.
Lx = 0 ⇐⇒ x=0,
e ciò basta affinché l’operatore conservi l’indipendenza lineare dei vettori. Quando L è non singolare, dato
comunque y ∈ L(X) la soluzione unica: x dell’equazione Lx = y definisce un operatore L& : y &→ x(y) che è
lineare (e non singolare); (ciò implica che una combinazione lineare di soluzioni di una equazione lineare è soluzione della
stessa equazione solo se questa è omogenea ).
Siano V, W normati.
Operatore strettamente singolare L : V → W := un operatore lineare limitato che non ha inverso limitato su
alcun sottospazio infinito dimensionale in Dom L.
Operatore precompatto L : V → W := un operatore lineare limitato tale che LB1 (0) ⊂ W è totalmente
limitato.
Operatore compatto L : V → W := un operatore lineare limitato tale che
[LB1 (0)] ⊂ W è compatta (in W).
λ è detto regolare se (λ1I − L) è invertibile con inverso limitato e definito su un insieme (almeno) denso nello spazio Y ; l’insieme
dei valori regolari è detto insieme risolvente di L ; il suo complementare è detto lo spettro di L , che allora certo contiene gli autovalori
di L ma può darsi non solo loro, infatti, pur essendo non singolare, (λ1I −L) può non avere immagine densa in Y oppure l’inverso detto
può non essere limitato; a seconda delle tre possibilità dette lo spettro si suddivide nella sua parte puntuale, residua, continua. Si
ha invece che lo spettro coincide con l’insieme dei suoi autovalori, e cioè con la sua parte puntuale, qualora l’operatore sia autoaggiunto
in uno spazio di Hilbert e completamente continuo, (e cioè trasformi insiemi limitati in insiemi precompatti).
M. Lo Schiavo
A.3. Richiami di Analisi Funzionale. ( III ) 427
; ' <
(W, ∥·∥W ) compatto in (V, ∥·∥V ) Banach := un sottospazio W ⊂ V tale che la sfera y ∈ W ' ∥y∥W ≤ 1 sia
contenuta in un insieme compatto di V
Equivalentemente: quando ogni sottoinsieme di W che sia ∥·∥W -limitato è compatto (oppure: totalmente limitato)
rispetto alla ∥·∥V .
; < ; <
Equivalentemente: quando ogni successione yn tale che ∥yn ∥W ≤ b < ∞ ammette una sottosuccessione
n∈N
convergente in (V, ∥·∥V ) .
Dimostrazione Per la precedente proposizione, esiste limitato l’operatore T;−1 tale che (Im T , ∥·∥V<) →
? ? '
(Dom T , ∥·∥W ) con ?T −1 x?W ≤ m−1 ∥x∥V ; pertanto T −1 mappa la sfera x ∈ V ∩ Im T ' ∥x∥V ≤ 1 in
un sottoinsieme di W che è ∥·∥V -limitato e come tale anche ∥·∥V -compatto in V dato che W è compatto in V.
Quindi, come operatore sullo spazio (Dom T , ∥·∥V ), T −1 è compatto. "
L’importanza del riconoscere la compattezza di un operatore definito su uno spazio di Hilbert si manifesta nel
seguente
ed è pertanto un particolare operatore limitato e quindi continuo. In tal caso (si veda: § I.3) la successione
xn+1 := F (xn )
Nota 1.3.17 In base alla considerazione che un sottoinsieme chiuso connesso di uno spazio di Banach è esso
stesso uno spazio di Banach, se un operatore risulta contrattivo solo su una sfera [Br (x0 )] dello spazio X il risultato
; < pur di limitarsi a tale sfera, e di controllare che essa sia un insieme F -invariante;
enunciato sussiste ugualmente
dovrà cioè accadere che xm ⊂ [Br (x0 )] ovvero che d(xm , x0 ) ≤ r per ogni m. Siccome secondo la stima
m∈N
1
fatta risulta d(xn , x0 ) ≤ 1−θ d(x1 , x0 ), si conclude che le affermazioni su esposte (e cioè la tesi del teorema delle
contrazioni) sussistono limitatamente alla sfera [Br (x0 )] purché risulti
1
r≥ d(x1 , x0 ) =: r0 .
1−θ
Si può anzi notare che una contrazione mappa la sfera [Br (x0 )] in [Bθr (F (x0 ))] in quanto d(F (x), F (x0 )) ≤
θd(x, x0 ) e quindi, in particolare, che mappa la sfera [Br0 (x0 )] in [Bθr0 (F (x0 ))] ⊂ [Br0 (x0 )] infatti se d(y, x1 ) < θr0
allora risulta d(y, x0 ) ≤ d(y, x1 ) + d(x1 , x0 ) ≤ θr0 + (1 − θ)r0 ≤ r0 .
Regione di accessibilità del punto x̄ fisso per F := l’insieme :
; ' <
'
x0 ' lim F n x0 = x̄ .
n→∞
Sotto le ipotesi del teorema delle contrazioni si ha che la regione di accessibilità del punto fisso contiene tutta la
sfera [Br0 (x0 )]; ed il punto fisso, unico nella sfera di contrazione [Br (x0 )], si trova senz’altro nella [Br0 (x0 )] .
È chiaro inoltre, in base alla definizione, che F è continua in ogni punto di [Br (x0 )].
Si noti infine che se un operatore contrattivo L è anche lineare, il suo punto unito non può che essere l’origine,
infatti essa è certo soluzione dell’equazione Lx = x data la linearità di L, ed una tale soluzione non può che essere
l’origine dato che ∥x∥ = ∥Lx∥ ≤ ∥L∥ ∥x∥ < ∥x∥ ; e cioè: per un operatore lineare Lx = x ⇒ ∥L∥ ≥ 1 a meno
che sia x = 0 ◃
Qualora F sia derivabile, per controllare se F è una contrazione su (V, ∥·∥) è conveniente usare il Teorema
di media generalizzato, e valutare se la norma ∥F ′ ∥ resta limitata dal valore uno.
Un’importante applicazione del teorema delle contrazioni è quella della determinazione degli inversi degli
operatori o, equivalentemente, della soluzione in spazi completi di equazioni del tipo P(x) = y .
(In effetti, per parlare dell’operatore inverso se ne deve studiare l’insieme di definizione e le proprietà di limitatezza, deve cioè
essere uno studio “in grande”; il teorema delle contrazioni vale invece in forma locale: dire che P(x) = 0 ⇐⇒ x = x̄ può
definire x̄ =: P −1 (0) ma non dice quanto valga P −1 (y) se y ̸= 0 )
Si considerino per esempio i seguenti operatori F : X → X Banach.
Siano L : X → Y lineare e K : Y → X lineare invertibile; si ha
e si noti che tale F (·) := (1I − KL)(·) + Ky è non lineare se y ̸= 0 . Sia P : X → X non lineare; si ha
M. Lo Schiavo
A.3. Richiami di Analisi Funzionale. ( III ) 429
Più in generale, se dato P : X → Y non lineare si riesce a trovare S : Y → X anch’esso non lineare e tale che
S(y) = 0 ⇐⇒ y = 0 allora si ha
P(x) = y ⇐⇒ x + S(P(x) − y) =: F (x) = x
Se un tale operatore F è contrattivo in una sfera [Br (x0 )] dello spazio X supposto di Banach il suo punto unito
è in [Br0 (x0 )] e risolve univocamente, in [Br (x0 )], l’equazione P(x) = y (o rispettivamente, nel caso lineare,
l’equazione Lx = y ).
Nel caso particolare di derivabilità, F sarà contrattivo se ∥1I + P ′ ∥ < 1 (o, rispettivamente, se ∥1I − KL∥ < 1 )
Ad ogni y ∈ Y per il quale l’operatore F risulta contrattivo ; resta' in tal modo< associato il (solo) punto
−1 −1 '
x := P (y)∩Br (x0 ) (ove con P (y) si è qui indicato l’insieme x ∈ X P(x) = y ). Ciò definisce un operatore
P −1 : P(X) → X con immagine nella detta sfera, (o nella loro unione)
Dal teorema delle contrazioni, nel caso di linearità segue che il punto unito di F è il limite della successione
xn+1 = F (xn ) = (1I − KL)xn + Ky =
=n
= (1I − KL)j Ky + (1I − KL)n+1 x0
j=0
θm+1
= ∥K∥ ∥y∥ ≤ ε ∥y∥
1−θ
onto
L’ipotesi che K : Y −→ X sia non singolare assicura che x̄ risolve la Lx = y , e ciò mostra che L(X) = Y.
D’altra parte tale equazione non può che avere x̄ come soluzione: se esistesse x∗ tale che Lx∗ = y sarebbe
L(x̄ − x∗ ) = 0 e quindi
se fosse onto esso potrebbe rappresentare l’inverso di L. In caso contrario si ha che DL = 1I su X mentre
non è detto che LD = 1I su Y (stante il fatto che sia D che L sono non singolari). "
Corollario 1.3.19 Sia L : X → Y lineare limitato fra X ed Y entrambi spazi di Banach; L è invertibile se e
solo se esiste K : Y → X lineare limitato invertibile e tale che
M. Lo Schiavo
A.3. Richiami di Analisi Funzionale. ( III ) 431
∞
= ? ?
?(1I − KL)j K? < ∞
j=0
nel qual caso è convergente la serie degli operatori (serie di Neumann) e si ha:
∞
=
L−1 = (1I − KL)j K
j=0
C∞
si conclude che L = 1I − λG è invertibile, che risulta L−1 = j=0 λj G j e che quindi la soluzione dell’equazione
- 1
x(s) = y(s) + λ g(s, t)x(t)dt
0
Cn
è ottenibile come limite della successione xn := j=0 λj G j y , ove il nucleo dell’operatore G j è dato da gj+1 (s, t) =
.1
0
g(s, u)gj (u, t)du.
In effetti l’equazione è del tipo (1I − λG)x = y con ∥Gx1 − Gx2 ∥ ≤ m ∥x1 − x2 ∥ e quindi Ax := λGx + y è
contrattivo purché λ ∥G∥ ≤ λm < 1 .
In questo particolare esempio, mediante la posizione
- 1
x(s) = y(s) + λ g(s, t)x(t)dt =: Ax
0
si ricava che A : C 0 ([0, 1]) → C 0 ([0, 1]) e che ∥A∥ = 1/8 per cui il principio delle contrazioni dà direttamente
- 1 =- 1
n+1
xn+1 (s) = y(s) + g(s, t)xn (t)dt = gj (s, t)y(t)dt .
0 j=0 0
C∞ j
Chiamato γ(s, t; λ) := j=0 λ gj+1 (s, t) il risolvente della equazione, si ha che γ esiste purché λ verifichi la
condizione |λ| < 1/ max[0,1] |g(s, t)|; la soluzione cercata è allora esprimibile mediante l’espressione
- 1
x(s) = y(s) + λ γ(s, t; λ)y(t)dt.
0
Il significato di questo specifico operatore G lo si può riconoscere dalle seguenti considerazioni. Siano
d2
X := C 0 ([0, 1]) ed Y := C 2 ([0, 1]) con y(0) = y(1) = 0. L’operatore T : Y → X dato da T y = − ds 2 y verifica
le
T Gx = λx ∀x ∈ X
GT y = λy ∀y ∈ Y
per cui si ha l’equivalenza dei due problemi
- 1
ÿ = −f (t, y) y(0) = y(1) = 0 con y(s) = g(s, t)f (t, y(t))dt
0
Viceversa: - 1
GT x = − g(s, t)ẍ(t)dt =
-0 s - s
=− t(1 − s)d(ẋ) + s(1 − t)d(ẋ) =
0
- s 1 - s
= −s(1 − s)ẋ(s) + ẋ(t)(1 − s)dt + s(1 − s)ẋ(s) + ẋs dt =
0 1
= (1 − s)x(s) + sx(s) = x(s)
#
e con h ∈ C 0 ([0, τ ] × [0, τ ]) tale che |h(s, t)| < ( m < ∞. Si noti che questa equazione è un caso particolare di
h(s, t) per t ≤ s
quelle del tipo precedente: basta porre g(s, t) :=
0 per t > s
Risulta ∥H∥ ≤ mτ e quindi si
? 2? può usare il teorema per λτ < 1/m.
.s.t
? ?
Altrimenti si può notare che H ≤ max[0,τ ] 0 0 h(s, u)h(u, t)du dt ≤ m2 τ 2 /2 , e, in generale, che ∥Hn ∥ ≤
C
mn τ n /n!, pertanto ∞ n
n=0 λ ∥H ∥ C
n
≤ eλmτ .
∞ j
Se ne conclude la convergenza di j=0 (1I − L) e di conseguenza l’esistenza ed unicità
Cm
per ogni λ del punto
−1
x = L y raggiunto dalla successione xn+1 = y + λHxn , e quindi per esempio dalla xm = j=0 λj Hj y , con errore
0 Cn 1
∥xn − x∥ ≤ eλmτ − j=0 λj mj τ j /j! ∥y∥. Tale x è soluzione dell’equazione
- s
x(s) = y(s) + λ h(s, t)x(t)dt
0
Anche in questo caso si sarebbe potuto scrivere questa equazione nella forma x = Ax := y + λHx ed applicare
direttamente il teorema delle contrazioni su A, o all’occorrenza su An . Si riconosce infatti che è
?- s ?
n?
? ?
n n
∥A x1 − A x2 ∥ = |λ| ? hn (s, t) (x1 (t) − x2 (t)) dt?
?
0
.s 1
con hn (s, t) = t h(s, u)hn−1 (u, t)du ; e quest’ultima per |h(s, t)| < m fornisce la stima |hn (s, t)| ≤ (n−1)! (s −
t)n−1 mn , per cui si ottiene
|λ|n τ n mn
∥An x1 − An x2 ∥ ≤ ∥x1 − x2 ∥ ,
n!
M. Lo Schiavo
A.3. Richiami di Analisi Funzionale. ( III ) 433
e tale espressione è senz’altro minore di 1 per n sufficientemente grande. L’essere An contrattivo implica che il
suo punto unito sia unico; ma allora An x = x ⇒ An (Ax) = Ax ⇒ x = Ax e cioè x è anche punto unito per
A.
Nel caso in cui l’operatore F : X → Y (entrambi di Banach) sia non lineare come estensione del Teorema delle
contrazioni si può considerare il seguente teorema (analogo alla Proposizione 1.2.41) nel quale si indicherà con
∥F∥ il numero
∥F (x) − F (y)∥
∥F∥ := m(r, x0 ) := sup
x̸=y∈[Br (x0 )] ∥x − y∥
Teorema 1.3.27
C∞ ? (si veda:
? [Rall p.70–72])
Se la serie ?F j ? è convergente, con somma R e con r ≥ R ∥F (x0 ) − x0 ∥ =: r0 , allora: F ammette in
j=0
[Br0 (x0 )] un punto unito x̄ che è unico in [Br (x0 )] ed è raggiunto dalla successione
xn := F n (x0 )
con errore ⎛ ⎞
n−1
= ? j?
∥xn − x̄∥ ≤ ⎝R − ?F ?⎠ ∥x1 − x0 ∥
j=0
e l’analoga
m−1
= ? j?
∥xm − xn ∥ ≤ ?F ? ∥F (x0 ) − x0 ∥ .
j=n
n
La convergenza (assoluta) della serie telescopica, la cui somma ridotta è xn − x0 , mostra che xn −→ x̄
∞
uniformemente in Br (x0 ).
Esempio 3.28 Si consideri l’operatore
- s
F0 (x) = x(0) + f (t, x(t)dt)
0
.t
L’equazione non lineare di Volterra (caso particolare delle equazioni di Uryson: x(s) = 0
f (s, t, x(t)dt)) data
da
F0 (x) = x
è equivalente al problema alle condizioni iniziali
(
ẋ = f (t, x(t)) t ∈ [0, T]
x(0) assegato
Newton-Kantorovich
Un ulteriore modo per risolvere l’equazione P(x) = 0, nel caso in cui P sia derivabile, passa attraverso il
procedimento della linearizzazione:
−1
P(x) = 0 ⇐⇒ xn+1 = xn − P ′ ◦ P(xn )
(b) definire
xm+1 := xm + um
xm
h
x
W=h(U)
x1
M. Lo Schiavo
A.4. Richiami di Geometria Differenziale 435
verrà brevemente indicata con ξ = ξ(x). Con tale notazione si vuole riassumere la m-pla di funzioni reali di
transizione fra i due sistemi di coordinate dal valore x ∈ Rm al valore ξ ∈ Rm .
N.B. 1.4.1 Al segno dello Jacobiano della trasformazione ξ = ξ(x), se lo stesso su tutta M, viene dato il nome
di orientamento della varietà. ♦
U(¯)
M
U(®)
h(¯)
» m
xm h(®)
»1
x1
h(¯)oh{1(®)
; <
Atlante su M := una famiglia di carte A := (U(α) , h(α) ) tale che
α∈A
c
(i) l’unione α∈A U(α) ricopre M;
Struttura differenziabile [A] := una classe di equivalenza di atlanti, ove si definiscono equivalenti due atlanti
quando la loro unione è anch’essa un atlante, e cioè le certe dell’uno sono compatibili con quelle dell’altro.
Atlante massimale su M := l’unione di tutti i possibili atlanti su M, cioè un atlante tale che valga anche la:
(iii) ogni altra carta C k - compatibile con una di quelle dell’atlante appartiene essa stessa all’atlante.
; Una<varietà M è detta connessa quando per ogni coppia di punti x, y ∈ M esiste una catena finita
N.B. 1.4.3
di carte (Ui , hi ) tali che: i) gli aperti Ui , per ciascun i = 1, . . . , m, sono connessi; ii) x ∈ U1 ed
i=1,...,m
y ∈ Um ; iii) Ui−1 ∩ Ui ̸= ∅ , per i = 2, . . . , m.
Se M è una varietà connessa tutti gli insiemi W(α) := h(α) (U(α) ), α ∈ A , hanno la stessa dimensione
m =: dim(M), che prende il nome di dimensione della varietà.
Sottovarietà di M è un sottoinsieme M0 − ⊂ M tale 1che per ciascun x ∈ M− esiste una carta (U(α) ⊂ M, h(α) )
m−k
tale che h(α) (Uα ∩ M− ) = h(α) (Uα ) ∩ Rk × {0} per qualche intero k = 1, 2, . . . , m − 1 . Se connesse, m è
la dimensione di M e k quella di M− .
Le ipotesi fatte sulla numerabilità delle varietà fa sı̀ che ogni M sia una sottovarietà di qualche Rν per ν ∈ N
sufficientemente grande. Tuttavia è chiaro che i suoi aperti sono tali nella topologia relativa e non quella di Rν
Ogni varietà connessa unidimensionale è topologicamente equivalente o ad una retta R1 se non compatta, o ad
un toro T1 (e cioè ad una circonferenza) se compatta.
Nel seguito, salvo esplicito avviso, si intenderanno sempre varietà connesse. ♦
⊂ R aperto connesso.
Esempio 4.4 Sia f : I →; R, f ∈ C r≥0 (I) con I <
'
'
L’insieme graph f := (x, y) y = f (x), x ∈ I è una varietà 1 -dimensionale di classe C r . Per essa è suffi-
ciente una sola carta: infatti l’aperto U può essere scelto come U := R2 ∩graph f ≡ graph f , e l’omeo h : U → R
può essere scelto come h(x, f (x)) := x con inversa h−1 (x) := (x, f (x)). Si ha che h, h−1 ∈ C r perché f ∈ C r . (La
topologia con la quale si dota graph f è quella indotta dal fatto che esso è un sottoinsieme di R2 ). #
9 ' :
Esempio 4.5 M= (x1 , x2 , x3 ) ∈ R3 ' (x1 )2 + (x2 )2 + (x3 )2 = 1 .
9 1 2 3 '
±
La varietà è 2-dimensionale. Infatti si possono per esempio scegliere i sei aperti U(i) := (x , x , x ) ∈ R3 '
<
xi ≶ 0 , i = 1, 2, 3 ∩ M, e su questi (estendendo l’esempio precedente) definire altrettante h(i) del tipo
0 / 1
±
h(i+2) : U(i+2) → R, h(i+2) xi , xi+1 , ± 1 − (xi )2 − (xi+1 )2 =: (xi , xi+1 ) .
h−1 0 / 1 h
(i+2) (i)
(xi , xi+1 ) −→ xi , xi+1 , 1 − (xi )2 − (xi+1 )2 −→(xi+1 , xi+2 )
x2
x3
x1
Un altro possibile sistema di coordinate è quello dato dalle coppie (ϕ, θ) in (per esempio) (0, 2π) × (0, π) ed in
(π, 3π) × (π/2, 3π/2) mediante le equazioni parametriche
xi xi
hi(N ) (x) := z(N
i
) := , hi(S) (x) := z(S)
i
:= , i = 1, . . . , m .
1 − x0 1 + x0
Cm
Tali funzioni h(N ) ed h(S) sono bijettive; infatti se si pone (ζ(α) )2 = i 2
i=1 (z(α) ) , con α = N ed α = S
rispettivamente per ciascuno dei due casi N ed S , e con σ = +1 nel caso N , e σ = −1 nel caso S , si ricava
1 0 1
h−1 1 m
(α) : (z(α) , . . . , z(α) ) &→ 1 + (ζ 2
σ((ζ(α) )2 − 1), 2z(α)
1 m
, . . . , 2z(α)
(α) )
e, naturalmente, risulta (1 + (ζ(α) )2 )−2 (((ζ(α) )4 + 1 − 2(ζ(α) )2 ) + 4(ζ(α) )2 ) = 1 . La funzione di transizione h(S) ◦
h(N ) −1 : Rm \{0} → Rm \{0} è data da z(S) i
= z(Ni 2
) /(ζ(N ) ) .
xi N
1-x0 N
x0
h zi (S)
xi = zi(N)
zi (N)
M. Lo Schiavo
A.4. Richiami di Geometria Differenziale 437
Esempio 4.8 L’insieme SO(3) delle matrici ortogonali 3 × 3 con det = 1 è definito dalle equazioni:
κ ij Qih Qjk = κ hk delle quali solo 6 sono indipendenti; esso consiste quindi in una sottovarietà 3 -dimensionale
di R9 . #
Esempio 4.9 La superficie di un cono non è una varietà differenziabile perché il vertice non ha alcun intorno che
sia omeomorfo ad un solo aperto di R2 . Lo è invece la superficie di un semicono, ma solo C 0 in quanto graph di
una funzione che non è derivabile nel vertice. #
N.B. 1.4.11 Due curve φ, ψ basate in x = φ(0) = ψ(0) si dicono tangenti fra loro nel punto x quando lo sono le
loro immagini su una qualche carta |h ◦ φ − h ◦ ψ|(t) = o(∆t). In tal caso, mediante uno sviluppo di Taylor, si
riconosce che i due vettori velocità sono gli stessi, e viceversa.
Non è detto, tuttavia, che siano tangenti fra loro le immagini φ , ψ delle curve stesse, per esempio quando la
v si annulla (si veda il successivo N.B. 1.4.12), o nel caso di punti angolosi.
Si osservi infine che lo sviluppo di Taylor si definisce a partire da una carta (come per la derivazione) e che
quindi dipende da essa. ♦
Detti h(x) ed h(ξ) due sistemi di coordinate C ∞ -diffeomorfi, e detta ξ = ξ(x) la funzione di transizione dalle
x alle ξ , quindi con Jacobiano det(∂ξ) ̸= 0 , nel cambio di sistema di coordinate a curve tangenti corrispondono
curve tangenti, giacché:
Pertanto la proprietà di essere tangenti, per due curve, non dipende dalla carta h che si è adoperata per
verificarla. Dunque è possibile, oltre che opportuno, prescindere dal sistema di coordinate e definire direttamente
sulla varietà M il:
Vettore tangente [φ]x := una classe di equivalenza di tutte le curve, o moti, che sono basati nel punto x ed in
7 8
esso sono tangenti fra loro := hanno la stessa velocità, e quindi differenze ∼ o(∆t) .
Spazio Tx M tangente la varietà M nel punto x := lo spazio vettoriale che si ottiene, fissato il punto x, quando
sui vettori tangenti si definisce l’operazione di combinazione lineare.
Ogni sistema di coordinate h(x) associa in modo naturale a ciascuna classe “vettore tangente” [φ]x una ed una
sola m-pla v di numeri v i = ẋi (0), ove è x(t) := h(x) ◦ φ, e dove φ è un qualunque rappresentante della classe.
Ogni sistema di coordinate, cioè, induce una mappa X : Tx M → Rm che ad ogni vettore [φ]x dello spazio Tx M
associa la corrispondente m-pla
'
1 m d ''
v := (v , . . . , v ) = X[φ]x := (h(x) ◦ φ) = ẋ(0) ∈ Rm .
dt 't=0
In tal modo <sullo spazio Tx M si sceglie come base la base naturale, ovvero quella formata dalla m-pla di vettori
;
ej := [φ]x,j ciascuno contenente la corrispondente curva coordinata:
j=1,...,m
; <
φj ∈ ej ; φj : t &−→ φj (t) := φij (t) = xi0 , per i ̸= j; φjj (t) = t .
Lo spazio Tx M può essere dotato della struttura di spazio lineare in quanto è lineare l’operatore di derivazione d/dt . In effetti la
combinazione lineare di due vettori [φ1 ]x e [φ2 ]x entrambi in Tx M è essa stessa un vettore di Tx M giacché qualunque sia il sistema
di coordinate prescelto si ha che
d '' d ''
X (a [φ1 ]x + b [φ2 ]x ) := a ' (h ◦ φ1 ) + b ' (h ◦ φ1 ) =: a X[φ1 ]x + b X[φ2 ]x ,
dt t=0 dt t=0
nel senso che è sempre possibile definire su M un moto basato in x e che abbia come tangente la combinazione lineare a[φ1 ]x + b[φ2 ]x .
Á
[Á]x vm v=X[Á]x
xm
x v1
TxM x
U
x1
M
W
h
M. Lo Schiavo
A.4. Richiami di Geometria Differenziale 439
In un nuovo sistema di coordinate h(ξ) , e dette ξ = ξ(x) le funzioni di transizione, le nuove componenti
ν = ΞX −1 v del medesimo vettore [φ]x saranno date da
'
d '' = ∂ξ i
i ˙i
ν = ξ (0) = (π i
◦ h ◦ φ) = ∂ξ i
(x) ẋ(0) = vj (4.16)
dt 't=0
(ξ) j
j
∂x
? i?
? ∂ξ ?
essendo certamente non nullo il determinante Jacobiano det(∂ξ) ≡ ? ∂x j ? della funzione ξ = ξ(x). (Ovviamente
In effetti quello delle funzioni coordinate può essere considerato come un caso particolare. Si esamini ora il caso
generale.
Siano M, G due varietà differenziabili ed U ⊂ M, V ⊂ G due aperti sui quali siano fissate delle coordinate
h(x) : U → Rm , h(y) : V → Rn rispettivamente.
Si noti che possono avvenire tutte e tre le eventualità: M⊂G , M ⊃ G , M = G , cosı̀ come può comunque essere
dim M & dim G . In particolare si chiama
onto
Diffeomorfismo := una funzione f : M −→G differenziabile, invertibile, e con inversa differenziabile. In tal
caso è necessario che dim M = dim G .
Nel caso particolare di una trasformazione di coordinate su M, ovvero h(ξ) ◦ (h(x) )−1 =: ξ, ξ = ξ(x),
la funzione f : M → M che essa rappresenta è la funzione identità che manda U ∩ V in sé.
N.B. 1.4.13 La C k - differenziabilità di f in una carta implica la sua differenziabilità in ogni altra che sia
C r≥k - compatibile con quella data; si nota infatti che è f ◦ (h(ξ) )−1 = (f ◦ (h(x) )−1 ) ◦ (h(x) ◦ (h(ξ) )−1 ). ♦
Si noti che tale definizione non dipende dal sistema di coordinate in quanto essa è data direttamente mediante
i vettori [φ]x , e [f ◦ φ]f (x) .
Se un vettore [φ]x è assegnato, tramite certe coordinate su Tx M, dalla v = X [φ]x , e se esso viene trasformato
dalla f∗ nel vettore [f ◦ φ]f (x) del quale si cercano le coordinate w = Y[f ◦ φ]f (x) allora, dato che
' '
d '' d '' 7 8
Y[f ◦ φ]f (x) = (h(y) ◦ f ◦ φ) = h(y) ◦ f ◦ (h(x) )−1 ◦ h(x) ◦ φ ,
dt 't=0 dt 't=0
si ha
=m
∂f j i
wj = v ovvero ẏ = ∂f ẋ ,
i=1
∂xi
dove la y = f (x), e cioè la n-pla di funzioni y j = f j (x1 , . . . , xm ), esprime la f in coordinate: h(y) ◦ f ◦ (h(x) )−1 .
Ne segue che, nelle coordinate scelte, l’applicazione f∗ è (unica ed) espressa (con abuso di notazione) dalla
matrice Jacobiana:
∂f ∂ 7 8
∂f ≡ = (h(y) ◦ f ◦ (h(x) )−1 = Yf∗ X −1 .
∂x ∂x
f
f
*
TxM L
M Tf(x)L
»(x)
@f=@x ´(y)
@»=@x º w @´=@y
v !
Nel caso particolare delle funzioni coordinate h(x) : U ⊂ M → Rm si può identificare X con (h(x) )∗ purché, come sopra, sullo
spazio tangente Tx M si scelga la base naturale.
Allo stesso modo, nel caso di una Trasformazione di coordinate ξ = h(ξ) ◦ (h(x) )−1 , la scelta della base naturale in entrambi gli
∂ξ
spazi tangenti a quelli dei valori di h(x) ed h(ξ) attribuisce la matrice jacobiana ∂ξ ≡ ∂x
all’operatore ΞX −1 : Rm → Rm , che
rappresenta su Tx M la mappa tangente all’identità su U ∩ V e che, siccome l’identità è certo lineare, coincide (vedi oltre) con la mappa
identità sullo spazio tangente.
Esempio 4.14 I due versori in Tx M della base naturale delle coordinate polari sul piano, espressi in coordinate
cartesiane, sono: ) x* ) *) * ) * ) *
ρ xρ xθ 1 ∂ρ x cos θ
ρ= = = = ,
ρy yρ yθ 0 ∂ρ y sin θ
) x* ) *) * ) * ) *
θ xρ xθ 0 ∂θ x −ρ sin θ
τ = = = = .
θy yρ yθ 1 ∂θ y +ρ cos θ
Essi infatti sono rispettivamente tangenti alle curve coordinate
Nel seguito, potrà accadere di usare la “notazione per coordinate”, per esempio w = ∂f v invece della (4.17)
anche quando il sistema in esame è definito intrinsecamente su una varietà.
N.B. 1.4.15 La mappa f∗ è comunque un’applicazione lineare fra gli spazi tangenti Tx M, Tf (x) G che sono
lineari. In altre parole la funzione f determina (ed univocamente) un operatore lineare f∗ che connette i due
spazi vettoriali Tx M e Tf (x) G . Come si è notato, gli spazi tangenti sono intrinseci, pertanto tale operatore non
dipende dal sistema di coordinate.
Mutano invece, al cambio di coordinate, le matrici che lo rappresentano: siano
h(ξ) ◦ (h(x) )−1 : x &→ ξ = ξ(x) ed h(η) ◦ (h(y) )−1 : y &→ η = η(y) (4.18)
x = φ(t) e y = ψ(t)
le corrispondenti componenti dei due rispettivi vettori tangenti. Da quanto visto sopra seguono senz’altro le
relazioni
ξ̇(0) = ΞX −1 ẋ(0) = ∂ξ ẋ(0) e η̇(0) = JY −1 ẏ(0) = ∂η ẏ(0) (4.19)
che rappresentano il cambio di coordinate sui rispettivi spazi tangenti Tx M e Ty G .
Se il punto y ∈ G è ottenuto come f -immagine del punto x ∈ M, e cioè ' se y = f (x), e se si sceglie ψ = f ◦ φ,
d '
allora, cosı̀ come nelle vecchie coordinate, (indicando con l’apice la dt t=0
)
M. Lo Schiavo
A.4. Richiami di Geometria Differenziale 441
quanto si individuano: una matrice P reale invertibile m × m, ed una matrice Q reale invertibile n × n tali che
ξ = P −1 x , e quindi ∂ξ = P −1 ,
η = Q−1 y , e quindi ∂η = Q−1 .
In tal modo, dalla y = T x si ricava la η = Q−1 T P ξ ≡ ℵξ (per le varietà), formalmente identica alla
ω = ∂η∂ℓ∂ξ −1 ν = Q−1 T P ν (per i tangenti).
In definitiva, la matrice
7 8′
∂ℓ = h(y) ◦ ℓ ◦ (h(x) )−1 = Yℓ∗ X −1 ≡ T
ha come (η, ξ)-trasformata la
7 8′
∂ ℓ& = h(η) ◦ ℓ ◦ (h(ξ) )−1 = Jℓ∗ Ξ−1 = ℵ
ed è 7 −1 8 7 87 8
ℵ = JY Y ℓ∗ X −1 X Ξ−1 = ∂η ∂ℓ ∂ξ −1 = Q−1 T P .
Le matrici T ed ℵ sono le rappresentazioni in coordinate dell’operatore ℓ∗ = T che agisce su Tx M; ed, allo stesso
modo, h(x) ◦ ℓ ◦ (h(x) )−1 = T x ed h(ξ) ◦ ℓ ◦ (h(ξ) )−1 = ℵξ sono le rappresentazioni in coordinate della funzione
lineare T x su M.
n
= n
=
(·) (·) (·)
ϵj = Pji ei o, in coordinate, ϵj = P ej = Ph (ej )h = Ph δjh = Pj .
h=1 h=1
'
In questo caso la (famiglia) di relazioni (1.4.15): ω = ∂ξ∂ℓ∂ξ −1 ν è equivalente alla w(ξ) = ∂ξ v 'ξ−1 (ξ) =
P −1 T P ξ , e coincide con essa quando ν è identificato con ξ , ovvero quando il rappresentante Rn degli spazi
tangenti Tx M è identificato con il rappresentante Rn della carta (U(ξ) , h(ξ) ) a origine fissata.
Si osservi infine che se la trasformazione di coordinate non fosse lineare, il trasformato di un campo lineare
potrebbe non essere lineare. ♦
N.B. 1.4.16 Quando le coordinate siano fissate, la f∗ |x viene spesso indicata solo con la notazione in coordinate:
'
d'
∂f (x) o, addirittura, con ∂f . Inoltre, essendo M ed G localmente piatte è anche lecita la notazione dt (f ◦
'
d'
∂x t=0
φ) = dt t=0 f (x + vt) = f∗ |x v , o anche f (x + vt) = f (x) + f∗ |x vt + o(t), corrispondente alla f (x + vt) =
f (x) + ∂f (x)vt + o(t), nel senso che, all’occorrenza, si induce sulla varietà ciò che resta definito a partire da
una sua rappresentazione in coordinate ed usando l’osservazione che un vettore [φ]x di x-componenti v senz’altro
contiene la curva φ tale che h(x) ◦ φ = x + vt. (Si veda anche l’inizio del § III.1) ♦
N.B. 1.4.17 La definizione di tangenza fra curve può essere anche data come segue: φ1 , φ2 tali che φ1 (0) = φ2 (0) =
x sono tangenti in x se per ogni funzione reale differenziabile f : M → R accade che f ◦ φ1 ed f ◦ φ2 hanno la
stessa derivata in zero. ♦
; <
Si indichi con T M l’insieme M × Tx M . Esso viene dotato della struttura differenziabile dell’Atlante
x∈M
naturale, e prende il nome di Fibrato tangente.
N.B. 1.4.18 Sia V uno spazio vettoriale n-dimensionale, U ⊂ M un aperto, e φ una curva basata in x ∈ U .
Esiste un unico v ∈ V tale che la curva x + vt sia tangente a φ in x. Basta a tale scopo che sia v = [φ]x .
È possibile allora stabilire una corrispondenza biunivoca ι : U × V → T M tale che ι(x, v) = (x, [x + vt]x ).
7 Sia f : M → 8 G = f (M) di classe C , e sia T f : T M → T G la mappa definita dalla
1
T f (x, [φ]x ) :=
f (x), [f ◦ φ]f (x) . Il punto precedente permette di scrivere tale mappa come T f (x, v) = (f (x), f∗ (x)v) .
Se f è un diffeomorfismo, allora T f è un isomorfismo. In particolare, se (U(α) , h(α) ) è una carta ad x ∈ M,
' ; <
allora T h(α) ≡ (h(α) , X(α) ) : T M 'U → h(α) (U )×V è una carta naturale su T M. In tal modo, se (U(α) , h(α) )
; < α∈A
è un atlante per M, allora (T U(α) , (h(α) , X(α) )) è l’Atlante naturale per T M, di dimensione 2m.
α∈A
In ogni caso, spazi tangenti in punti diversi non si intersecano: da qui il nome di fibrato. ♦
M. Lo Schiavo
A.5. Richiami di Algebra Lineare. ( I ) 443
d ''
&
w(x) := ' (f ◦ φ) = f∗ [φ]x = f∗ v(x) con componenti
dt φ̇(0)=v(x)
d ''
m
7 j 8 = ∂f j
&j (x) =
w ' π ◦ h (y) ◦ f ◦ φ = i
(x)v i (x), j = 1, . . . , n ,
dt φ̇(0)=v(x) i=1
∂x
o anche
d ''
&
w(x) = ' (f ◦ φ) = ∂f (x) v(x) . (4.20)
dt φ̇(0)=v(x)
D’altra parte, per la scelta della famiglia di curve φ ci si può servire del caso assai particolare nel quale per
ciascun punto x si assume come curva t &→ φ(t) la soluzione dell’equazione generata dal campo: ẋ = v(x), e che
è basata istante
' per istante nel corrispondente punto x. In tal caso le derivate qui sopra vanno intese per ciascun
t come: d 'dt φ̇(t)=v(x)
Nota 1.4.19 [f ◦ φ]f (x) risulta il valore in y := f (x) di un campo vettoriale w definito nel fibrato tangente T G
ed altrettanto regolare quanto v se e solo se f è un diffeomorfismo (almeno C r+1 se v ∈ C r ), ed in particolare
quindi se G ≡ M ed f è una trasformazione di coordinate rappresentata da ξ ≡ y := f (x). In tal caso infatti,
e solo in tal caso, è certamente possibile ricavare x = f −1 (y) ed esprimere il vettore [f ◦ φ]f (x) come funzione della
y (per il tramite della x):
7 8
w(y) := w& f −1 (y) = [f∗ v(x)]x=f −1 (y) (4.21)
con componenti
m )
= *
∂f j 7 8 7 8
j
w (y) = v i
f −1 (y) o anche w(y) = ∂f v f −1 (y) .
i=1
∂xi
Sia T : V → V un operatore lineare su V, e cioè una mappa di V in sé tale che per qualsiasi α, β ∈ K e x, y ∈ V
si abbia
T (αx + βy) = αT (x) + βT (y) .
d
Nell’esempio detto un tale operatore potrebbe essere T := dt .
; <
Si indichi infine con B := ei una base di vettori in V, e cioè una n-pla di vettori linearmente
i=1,...,n ; <
indipendenti tali che span B = V. Nell’esempio detto, una possibile base è quella dei monomi ek =
k=1,...,n
{tk }k=0,...,n−1 .
Tuttavia sarà talvolta necessario ricorrere ai (più generali) risultati validi sugli spazi vettoriali complessi e unitari:
Spazio unitario E := uno spazio vettoriale sul campo dei complessi sul quale, come prodotto scalare, sia definita
una forma Hermitiana simmetrica definita positiva, e cioè una funzione ⟨ ·, · ⟩ : E×E → C tale che per ogni x, y ∈ E,
e per ogni α ∈ K si abbia:
⟨ x, x ⟩ > 0 ⇐⇒ x ̸= 0 , ⟨ x, y ⟩ = ⟨ y, x ⟩ , ⟨ x, αy ⟩ = α ⟨ x, y ⟩ .
Ogni spazio V reale, reso euclideo da un prodotto scalare reale, può essere considerato come restrizione sui reali
di uno spazio unitario, ed eredita di questo le proprietà che sussistono in tale restrizione.
Coordinate hi : V → R di x ∈ V relative alla base B := le n funzioni lineari i cui valori calcolati nel punto x
Cn
sono i coefficienti della combinazione lineare: xi ei := i=1 hi (x)ei = x.
Cn−1
; <P ([a, b]), le componenti del polinomio: p(t) :=
n k
Nell’esempio dello spazio k=0 ak t rispetto alla comoda
base B& := {&
ek }k=1,...,n := tk sono, ovviamente, date da xk+1 = ak , k = 0, . . . , n − 1 . Invece, rispetto
; < k=0,...,n−1
alla base B := ek := {tk /k!}k=0,...,n−1 esse risultano: xk+1 = k!ak .
k=1,...,n
Giacché i versori della base sono sempre fra loro linearmente indipendenti, le coordinate naturali sono in ogni
caso tali che hi (ej ) = δji e possono, fra l’altro, stabilire un isomorfismo fra V ed Rn . Quando non serva ricordare
la particolare base scelta, ciò permette di indicare ciascun vettore x ∈ V semplicemente con la n-pla x =
(x1 , . . . , xn ) ∈ Rn che tale base gli assegna, anziché con la sua rappresentazione cartesiana:
n
= n
=
x= xi ei := hi (x)ei ,
i=1 i=1
e all’occorrenza la si considererà una matrice a n righe e una colonna, riservando alla notazione xT la matrice ad
una riga ed n colonne formata anch’essa dalle componenti controvarianti di x. La notazione per sole componenti
risulterà comoda quando si eseguiranno composizioni di operazioni lineari sui vettori mediante la convenzione dei
prodotti righe per colonne.
C
N.B. 1.5.1 In tal senso, e dato il fatto che ej = δji ei e cioè che (ej )i = δji , la x = ni=1 xi ei si può anche (ma
poco espressivamente) interpretare come una relazione fra componenti
⎛ ⎞
x1 n n n
⎜ .. ⎟ = = =
i i T
⎝ . ⎠ = x = x e i = x (0, .., 0, 1, 0, .., 0) = (0, .., 0, xi , 0, .., 0)T .
xn i=1 i=1 i=1
⟨ x, y ⟩ = xh ȳ h = xi κ ih ȳ h = xT κ ȳ = x∗ ȳ .
& dell’esempio Pn ([a, b]) sono ortonormali rispetto al citato prodotto scalare.
Si noti che né la base B né la B
N.B. 1.5.2 Nel seguito, come d’uso, verrà sottinteso il simbolo di sommatoria quando due indici siano ripetuti; la
somma essendo estesa alla dimensione dello spazio: n < ∞. Invece, quando ciò favorisce la chiarezza, quest’ultima
verrà esplicitamente indicata scrivendo Vn in luogo di V ed En in luogo di E. ♦
M. Lo Schiavo
A.5. Richiami di Algebra Lineare. ( I ) 445
; <
Dato un qualsiasi operatore T : V → V, la scelta di una base ei in V gli assegna una matrice
i=1,...,n
T := T i j (quadrata giacché l’operatore manda lo spazio in se stesso) che, per convenzione, viene presa tale che
τj := T ej = T i j ei ovvero (τj )i = T i j
e cioè tale che la sua j -ma colonna sia formata dalle componenti, in quella base, del T − trasformato T ej del j -mo
vettore di base ej .
Fissata la base, l’operatore T associa alla n-pla x = (x1 , . . . , xn ) che rappresenta x = xh eh nelle {e}-
coordinate, la n-pla y = (y 1 , . . . , y n ) che nelle stesse coordinate rappresenta il vettore T x:
y i ei = y := T x = xh T eh = xh T i h ei ,
y=Tx ⇐⇒ y = Tx ⇐⇒ y T = xT T T
e cioè
y i = T i h xh ⇐⇒ y i = xh T T h i .
Si ricordi che saturare l’indice di colonna significa operare il prodotto righe per colonne. La precedente espressione
viene anche riassunta con T (·) = T i j ⟨ e∗ j , · ⟩ ei .
In particolare se Det T ̸= 0, e quindi se T =: P può essere considerato un cambiamento di base (si veda la
i i
< uno stesso vettore x = x ei avrà, rispetto alla nuova base ϵh = Peh = P h ei , h =
Nota 1.5.5 più oltre), ;allora
1, . . . , n, componenti ξh tali che x = ξ h ϵh e quindi tali che xi = P i h ξ h , o anche x = P ξ
h=1,...,n
−1h
Allo stesso modo i numeri xi := ⟨ x, ei ⟩ restano espressi da ⟨ x, P −1 ϵi ⟩ = P i ⟨ x, ϵh ⟩ , e cioè
−1 h −1 i
xi = ξh P i ovvero x∗ = ξ ∗ P o anche ⟨ x, ϵh ⟩ = ⟨ x, ei ⟩ P h ;
ed è da notare che la somma avviene sulle righe della matrice P . È anche bene tener presente l’osservazione a metà
della Nota 1.5.23 più avanti.
Si ricordi che, assegnato un generico T : Vn → Vm ; si definiscono:
; ' <
Immagine dell’operatore: Im T := y ∈ Vm ' ∃x ∈ Vn : y = T x .
; ' <
Kernel dell’operatore: Ker T := x ∈ Vn ' T x = 0 . Entrambi gli insiemi Im T e Ker T sono spazi lineari.
d
Nell’esempio visto sopra, e con T = dt , si ha:
Corollario 1.5.4
dim (Im T ) + dim (Ker T ) =: Rank T + N ull T = n = dim (Dom T )
#
; < ; <
Dimostrazione Sia gh una base per Ker T ed ϵi una base per Im T ; certo si ha che
h=1,...,ℓ ; < i=1,...,k
ℓ, k ≤ n. Per ipotesi è possibile trovare k ≤ m vettori ei ⊂ Vn linearmente indipendenti e tali
i=1,...,k
Ck C Ck
che ϵi = T ei , i = 1, . . . , k . D’altra parte si ha che: ; i=1 λ<i ei + ℓh=1 µh gh = 0 ⇒ i
i=1 λ T ei = 0 ⇒
C ℓ
λi = 0 ⇒ h
i=h µ gh = 0 ⇒ µ = 0
h
e pertanto gli ei , gh i=1,...,k sono linearmente indipendenti.
h=1,...,ℓ
; < Ck
Infine ogni x in V è combinazione lineare degli ei , gh i=1,...,k . Sia infatti x qualsiasi, T x =: i=1 ξ i ϵi =
h=1,...,ℓ
Ck Ck
i=1 T (ξ i ei ), e ξ i ei . Posto x = (x − v) + v si;ha <T (x − v) = 0 cioè (x − v) è (qualsiasi) in
v = i=1
Ker T e pertanto è esprimibile come combinazione lineare dei gh i quali, quindi, non possono essere
h=1,...,ℓ
in numero minore di (n − k). "
m m−1 m
Nell’esempio: x = a tm! + bt0 ; t
T x = a (m−1)! ; v = a tm! ; e pertanto:
m m m
x= (a tm! + bt − 0
a tm! ) + a tm! .
Operatore (lineare) invertibile := Un operatore T : Vn → Vm per il quale esista l’operatore (lineare) T −1 tale
che
T ◦ T −1 = 1I su Vm e simultaneamente T −1 ◦ T = 1I su Vn ;
ovvero
T è su tutto Vm e simultaneamente T è 1 ←→ 1 su Vn .
La linearità dell’operatore e dei suoi: Dominio e Immagine fanno sı̀ che in tal caso l’operatore stabilisca un
isomorfismo fra gli spazi Vn e Vm , che allora hanno necessariamente uguale dimensione n.
Nota 1.5.5 Un operatore lineare T da uno spazio a dimensione finita Vn in sé risulta invertibile quando,
equivalentemente,
Ancora nel caso particolare in cui l’operatore mandi uno spazio vettoriale n-dimensionale V in sé, si ricordino
le seguenti definizioni.
Sia dato un sottospazio W ⊂ V. Esso si dice
Sottospazio T -invariante: W ⊂ V := quando ∀x ∈ W si ha che T x ∈ W. Ad esempio sia Ker T che
Im T sono T -invarianti.
Operatore indotto TW := l’operatore definito dalla relazione TW x := T x per ogni x nel sottospazio W ⊂ V.
Se W1 è T -invariante e se V = W1 ⊕ W2 allora basta scegliere due basi B1 e B2 in W1 e W2 rispettivamente
per vedere che rispetto a B := B1 ∪ B2 la matrice di T viene “a blocchi”:
) *
Tr Tr,n−r
T =
0 Tn−r
ove la matrice Tr è quadrata ed r × r se r = dim W1 ; inoltre se anche W2 è T -invariante allora anche Tr,n−r = 0.
Nota 1.5.6 Può essere comodo ricordare, [Voyevodin XI 92.G e 93.1], che:
M. Lo Schiavo
A.5. Richiami di Algebra Lineare. ( I ) 447
) *
Ar Br,m−r
(2.1) Se M := è una matrice n × m avente Ar quadrata r × r non singolare, e se
) Cn−r,r Dn−r,m−r
*
1I r 0
V := allora posto
−Cn−r,r A−1
r 1I
) *
Ar Br,m−r
En−r,m−r := D − CA−1 B risulta V A = .
0 En−r,m−r
) *
Ar Br,n−r
(2.2) Se M := è una matrice n × n avente Ar e Dn−r quadrate allora, [Gantmacher
Cn−r,r Dn−r
II.5.3],
Det M = Det (Ar )Det (Dn−r − Cn−r,r A−1r Br,n−r )
−1
= Det (Ar − Br,n−r Dn−r Cn−r,r )Det (Dn−r )
ove la prima uguaglianza è valida se la matrice Ar è non singolare, mentre è valida la seconda se è non
singolare Dn−r .
) * ) *
Ar Br,n−r 1I r 0
(2.3) Se M := è una matrice n × n avente Ar ed Dn−r quadrate, e se P :=
0 Dn−r 0 Pn−r
ha Pn−r quadrata e non singolare, allora
) *
T T Ar Br,n−r Pn−r
posto Cn−r := P DP risulta P MP = .
0 Cn−r
) *
Ar 0
(2.4) [Gantmacher VIII 2.3] Se due matrici quadrate A e B commutano: AB = BA, e se A =
0 An−r
) *
Br 0
con Ar ed An−r non aventi autovalori in comune, allora anche B = (si noti che nulla è
0 Bn−r
detto sugli autovalori di B ).
) *
Ar Br
(2.5) Se M := ha le quattro matrici Ar , Br , Cr , Dr tutte dello stesso ordine allora, come caso
C r Dr
particolare del punto (2.2), si ha
⟨ T x, y ⟩ 2 = ⟨ x, T ∗ y ⟩ 1 ∀x ∈ E1 , y ∈ E2 .
da cui
T T h i κ ik = T i h κ ik = κ hj T ∗j k ovvero TT κ = κT ∗ .
Se ne ricava, (si veda la Nota 1.5.13 più oltre) avendo posto κ hj κ jk = δkh e notato che κ jk = κ kj ,
e cioè κ = κT ,
i
T ∗j k = κ hj T h κ ki o anche T ∗ = ( κ T κ −1 )T .
⟨ x, (T −1 )∗ y ⟩ = ⟨ T −1 x, y ⟩ = ⟨ u, T ∗ v ⟩ = ⟨ T u, v ⟩ = ⟨ x, (T ∗ )−1 y ⟩
M. Lo Schiavo
A.5. Richiami di Algebra Lineare. ( I ) 449
e quindi
N
è (e∗ i )j = κ ij avendo indicato con ( κ ij ) l’inversa di ( κ ji ) .
Sia T un qualsiasi operatore su E euclideo, e si chiami base propria di T una base che lo pone in forma di Jordan, (si veda il
; < ; <
§ A.6). Allora, [Voyevodin IX 75.2], una base propria ϵ∗j di T ∗ può essere scelta duale della ϵj base propria
; < j=1,...,n j=1,...,n
di T . Infatti: sia ej una base (magari ortonormale) su E , sia T la {e} -matrice di T , sia PJ la matrice che pone T
; j=1,...,n <
in forma di Jordan e sia ϵj = PJ ej una base propria per T , e quindi tale che (ϵj )i = PJ i j . La {e} -matrice di T ∗ è
j=1,...,n
0 T 1
κ−1T T κ = κ−T P J T J P −1
T∗ = J κT = κ−T P −T
J TJ PJ κ
T T T
7 8−T T 7 8T
= κP J T J κP J ,
e, poiché il;trasposto
< coniugato di un blocco di Jordan è ancora un blocco di Jordan, si riconosce che T ∗ ha come base propria la n -pla
7 8 −T
di vettori ϵ ∗j
j=1,...,n
e cioè quella le cui {e} -componenti controvarianti (ϵ∗j )k compongono le colonne della matrice κ
PJ
7 8k
cosa questa anche facilmente ottenibile dalla definizione stessa. È infatti immediato leggere dalla ⟨ ϵ∗j , ϵh ⟩ = ϵ∗j
7 8
κ i j
ki P h = δh il
& kj ∗j k
fatto che la matrice P := (ϵ ) è l’inversa della κ P . Allo stesso modo si ha ∗j
ϵ h=P
−1 j
0 h.
1
7 8h ∗i
Si noti infine che ϵ∗h = χ hk ϵ =
k χ O
χ
hk P j e =
k j κ
hk P j
k ji e χ
∗i = κ
−1 P T
i e = χ κ hk
kj P
∗j
i e
∗i = P −1 h e∗i ,
i
Proposizione 1.5.8 Se T e T ∗ ammettono un comune autovettore, allora i due corrispondenti autovalori sono
l’uno il complesso coniugato dell’altro #
Dimostrazione
λ = ⟨ λϵ, ϵ ⟩ = ⟨ T ϵ, ϵ ⟩ = ⟨ ϵ, T ∗ ϵ ⟩ = ⟨ ϵ, µϵ ⟩ = µ̄, e cioè µ = λ̄ .
"
Operatore normale := un operatore T definito su uno spazio unitario E, a valori in E, e tale che: T ∗T =
T T ∗.
Proposizione 1.5.9 Se T è normale ed ha un autovalore λ allora Wλ := Ker (T − λ1I ), che è non vuoto, non
solo è T -invariante, ma è anche T ∗ -invariante. #
Ma è noto (si veda il § A.6) che se un operatore lineare lascia invariante un spazio unitario allora esso vi ammette
almeno un autovettore (l’equazione T x = λx ammette sempre soluzione in Cn se Det(T − λ1I ) = 0 ).
Pertanto in Wλ si può trovare (giacché E è unitario) almeno un autovettore: ϵ1 di T ∗ ; e siccome ϵ1 ∈
Ker (T − λ1I ) si ha che ϵ1 è autovettore comune ad entrambi T e T ∗ .
D’altra parte si è visto che se un sottospazio W ⊂ E è T -invariante allora W⊥0 è T ∗ -invariante.
; <1
Allora: se ϵ1 è un autovettore comune ad entrambi T e T ∗ , e posto W1 := span ϵ1 , se ne conclude
⊥ ⊥
che W1 non solo è T ∗ -invariante ma anche T -invariante, ed è possibile trovare in W1 un autovettore ϵ2
comune ai due operatori. Procedendo in tal modo si ha la
Teorema 1.5.10 Un operatore normale T è diagonalizzabile in base ortonormale (e cioè ammette un sistema di
autovettori che è una base ortogonale per lo spazio V), e questa è anche autobase per T ∗ . #
; <
Viceversa [Gantmacher IX 10.1] se T ammette un sistema ortonormale di autovettori ϵi che sia una
i=1,...,n
base per lo spazio V allora T è normale. Infatti: chiamati ηi := T ∗ ϵi − λ̄(i) ϵi si hanno, con k, i = 1, . . . , n,
le relazioni ⟨ ϵk , ηi ⟩ = (λ(k) − λ(i) )δki = 0 e quindi T ∗ ϵi = λ̄(i) ϵi . Per ogni i = 1, . . . , n segue allora T T ∗ ϵi =
λ(i) λ̄(i) ϵi = T ∗ T ϵi . Si è cosı̀ provata la:
Proposizione 1.5.11 Gli operatori normali sono tutti e soli gli operatori che ammettono un sistema ortonormale
di autovettori che è anche una base per lo spazio. #
Gli operatori normali sono cioè diagonalizzabili in base ortonormale, e questa può essere comune sia a T che
a T∗ .
La proprietà qui accennata sugli autovettori degli operatori normali viene talvolta chiamata Teorema degli assi
principali per ricordarne l’importante applicazione, nella meccanica del corpo rigido, alle omografie d’inerzia indi-
viduate come è noto da matrici reali simmetriche. La loro autobase ortonormale può essere e viene regolarmente
usata come terna di proiezione proprio a causa delle sue caratteristiche di ortogonalità.
Si noti viceversa che non è affatto detto che un generico operatore diagonalizzabile lo sia con una base di
autovettori ortogonali.
Operatore Unitario := un operatore (normale) U : E → E tale che
U U ∗ = 1I .
U U ∗ = 1I .
Ciò accade se e solo se |λi | = 1, ∀i = 1, . . . , n; infatti, come si è visto, ;U <ed U ∗ hanno autovalori complessi
coniugati in corrispondenza ad uno stesso autovettore; quindi indicati con ϵi una base di autovettori di
Cn i=1,...,n
∗ i
U e di U , per un qualsiasi x = i=1 x ϵi , si ha che
n
= n
=
x = U ∗U x = U ∗ xi λ(i) ϵi = xi λ(i) λ̄(i) ϵi .
i=1 i=1
Operatore Autoaggiunto (o Hermitiano) := un operatore (normale) H tale che H = H∗ . Ciò accade se e solo
se λi = λ̄i , ∀i = 1, . . . , n. Infatti si ha:
• Se H è definito positivo anche H−1 è definito positivo, dato che se H è autoaggiunto esso ha una base
ortonormale di autovettori sulla quale la matrice diagonale inversa è necessariamente matrice di H−1 . Quindi
anche H−1 è autoaggiunto ed ha per autovalori gli inversi di quelli di H .
M. Lo Schiavo
A.5. Richiami di Algebra Lineare. ( I ) 451
• Dato H (semi)-definito positivo si ha che esiste ed è (semi)-definito positivo l’operatore H1/2 , e cioè quell’o-
peratore tale che (H1/2 )2 = H . (Ciò sia in spazi complessi sia in spazi reali).
√ Infatti anche ora basta definire
H1/2 sulla base ortonormale di H come quell’operatore tale che H1/2 ϵi = λi ϵi , ed in tale definizione tutto
è univocamente determinato.
Dati H definito positivo e B invertibile si ha che B ∗ HB e BHB ∗ sono entrambi definiti positivi Infatti per
ogni x ̸= 0 si hanno Bx ̸= 0 e B ∗ x ̸= 0 e quindi ⟨ B ∗ HBx, x ⟩ = ⟨ HBx, Bx ⟩ > 0 . In modo analogo si vede
che, dato un qualunque operatore lineare T , entrambi T T ∗ e T ∗ T sono operatori (autoaggiunti) semi-definiti
positivi che hanno gli stessi autovalori e differiscono al più nella molteplicità dell’autovalore nullo. Risulta infatti
⟨ T T ∗ x, x ⟩ = ⟨ T ∗ x, T ∗ x ⟩ ≥ 0 insieme con ⟨ T ∗ T x, x ⟩ = ⟨ T x, T x ⟩ ≥ 0; e se, per esempio (T ∗ T )ϵk = ρ2(k) ϵk ,
; <
con ρ2k ≥ 0, allora ρ2(k) ⟨ ϵh , ϵk ⟩ = ⟨ T ϵh , T ϵk ⟩, il che mostra che il sistema T ϵi seppure non una base
i=1,...,n
è comunque ortogonale; inoltre T T ∗ T ϵk = ρ2k T ϵk mostra che ρ2k è autovalore sia di T T ∗ che di T ∗ T .
Forma bilineare B : V × V → K := una funzione tale che: sia B (·, y) sia B (x, ·) sono lineari ed omogenee:
e cioè per ogni α ∈ K, x, y ∈ V si ha
B (x + y, z) = B (x, z) + B (y, z) B (αx, y) = αB (x, y)
B (x, y + z) = B (x, y) + B (x, z) B (x, αy) = αB (x, y)
Esempio: un prodotto scalare è una particolare forma Hermitiana simmetrica; per esso si è usata la notazione
κ ij := ⟨ ei, ej ⟩ = κ ji .
Nota 1.5.13 Se lo spazio V è euclideo, è possibile usare un modo alternativo per esprimere una forma B (x, y),
(o una B H (x, y) nel caso complesso).
; < ; <
• Data in V una base ei e detta e∗i una sua base duale, e cioè una base tale che ⟨ e∗i , ej ⟩ =
i=1,...,n i=1,...,n
i
(ej ) = δji ;
• dette κ ih := ⟨ ei , eh ⟩ la matrice del tensore della metrica K (e cioè definito il prodotto scalare sullo
spazio), e detto κ hi il suo inverso:
κ ih κ hj = δji κ ih κ hj = κ jh κ hi = δji ;
• ricordate le espressioni
e∗i = κ ik ek , eh = κ hie∗i ;
• dette xi le componenti covarianti del generico vettore che, come si è detto, sono date da
x = xi e∗i = xi ei , xi = ⟨ x, ei ⟩ = xk κ ki , xk = xi κ ik ;
ed introdotta la seguente notazione per le n-ple di coordinate rispetto alle dette basi
⎛ 1⎞
x
⎜ .. ⎟
x = ⎝ . ⎠; xT := (x1 , . . . , xn ), x∗ := (x1 , . . . , xn ) ;
xn
da cui
aT = κT T ⇐⇒ a = TT κ ,
ovvero
a Tkh := κ kj Thj ⇐⇒ a hk = T j h κ jk ,
resta comodo, a partire da una data una forma B H (x, y) = xi f ij ȳ j , definire in corrispondenza ad essa la
coppia di operatori F e F ∗ tali che
B (x, y) =: ⟨ F x, y ⟩ =: ⟨ x, F ∗ y ⟩
e quindi, in coordinate,
f hk =: F T h j κ jk = κ hj F ∗j k o anche f = FT κ = κF ∗ ;
le due {e} -matrici dei due operatori F ed F ∗ rispettivamente, risultano pertanto tali che:
F T hj := f hk κkj = B H (eh , ek )κkj = B H (eh , e∗j )
∗
F hk := κhi f ik = κhi B H (ei , ek ) = B H (e∗h , ek ) .
⟨ y, F ∗ x ⟩ := ⟨ F y, x ⟩ = B H (y, x) = B H (x, y) = ⟨ F x, y ⟩ = ⟨ y, F x ⟩ .
Lo spazio delle forme bilineari è uno spazio vettoriale analogo a quello degli operatori lineari. In esso una qualsiasi
forma bilineare (reale) B è univocamente decomponibile nella somma delle sue:
parte simmetrica := B sim := 12 (B (x, y) + B (y, x)) e
parte antisimmetrica := F a.s. := 12 (B (x, y) − B (y, x))
(i secondi addendi sono coniugati nel caso complesso).
Forma quadratica Q : V → R := la funzione che si ottiene quando una forma bilineare B su V viene calcolata
su uno stesso vettore: Q(x) := B (x, x) .
Se V è complesso, a partire da una forma Hermitiana B H si ha, allo stesso modo, una forma quadratica
Hermitiana QH : V → C. Essa risulta reale se, in aggiunta, la forma Hermitiana è simmetrica.
Siccome per ogni forma B vale la
M. Lo Schiavo
A.5. Richiami di Algebra Lineare. ( I ) 453
1
B sim (x, y) = (B (x + y, x + y) − B (x, x) − F (y, y))
2
1
= (Q(x + y) − Q(x) − Q(y)) .
2
Tuttavia nel caso Hermitiano c’è una corrispondenza biunivoca tra le B H e le QH , infatti sussiste la
4 B H (x, y) = QH (x + y) − QH (x − y) + iQH (x + iy) − iQH (x − iy) .
N.B. 1.5.16 Fissata la base, per ogni matrice quadrata f ij esiste unica la forma bilineare che la ammette come
matrice associata B (ei , ej ) := f ij ; e quindi esiste unica la forma quadratica Q(x) = B (x, x) ≡ B sim (x, x), con
matrice associata simmetrica q = f sim . Viceversa, sebbene ogni forma bilineare B individui univocamente la
matrice quadrata f ad essa associata, ciò non è vero per le forme quadratiche (reali) Q che ne individuano la sola
parte simmetrica: due forme bilineari B che differiscano fra loro per la sola parte antisimmetrica sono compatibili
con una stessa Q. In definitiva: una stessa forma quadratica è compatibile con tutta una classe di matrici quadrate
f , nella quale una sola: q = f sim è simmetrica, mentre tutte le altre differiscono da questa per una parte
antisimmetrica. ♦
Una forma quadratica reale (o proveniente da una formaC Hermitiana simmetrica) è espressa, in coordinate, da
un polinomio omogeneo di secondo grado del tipo Q(x) = i,j q ij xi x̄j = xT q x̄ =: Q(x) con coefficienti tali
che:
1
( f ij + f ji ) = q ij = q ji := B H sim(ei , ej ) .
2
Forma quadratica definita positiva := una forma quadratica Q : V → R tale che x ̸= 0 ⇐⇒ Q(x) >
0; Q(0) = 0.
L’osservazione fatta sopra mostra che un prodotto scalare definisce univocamente una forma quadratica definita
positiva e viceversa (si veda la Nota 1.5.20).
Memento 1.5.17 Due matrici M1 , M2 si dicono:
Si dimostra [Voyevodin p.64] che M1 , M2 hanno lo stesso rango se e solo se sono equivalenti. In tal caso infatti
esse corrispondono ad uno stesso operatore T : Vn → Vm secondo opportune basi, scelte indipendentemente in
ciascuno dei due spazi. #
Il cambio di base.
Siano e := {ei }i=1,...,n ed ε := {ϵj := Pej }j=1,...,n basi di V non necessariamente ortonormali, e P
l’operatore invertibile che trasforma l’una nell’altra:
; < ; <
P
ei −→ ϵj tali che ϵj = P i j ei .
i=1,...,n j=1,...,n
Come si è visto,
T x = y = P η = P ℵξ = P ℵP −1 x ,
ℵ = P −1 T P ovvero ℵk j = P −1k i T i h P h j .
Riassumendo:
ϵj = Pji ei , xi = Pji ξ j , ℵkj = P −1ki Thi Pjh .
Fra le matrici delle forme bilineari si stabiliscono, al cambio di base, relazioni analoghe ma non identiche a
quelle viste nel caso
; <degli operatori lineari.
; <
Siano e := ei ed ε := ϵh due basi non necessariamente ortonormali, e B : V × V → K
i=1,...,n h=1,...,n
una forma bilineare Hermitiana. Si pongano
f ij := B (ei , ej ) e ϕ hk := B (ϵh , ϵk ).
Si ottiene
B (x, y) = xi f ij ȳ j = ξ h ϕ hk η̄ k .
; <
Se poi ϵi = Pei allora
i=1,...,n
Nota 1.5.18 Pertanto, al cambio di base, la matrice F dell’operatore F definito dalla F (x, y) =: ⟨ F x, y ⟩ ≡
⟨ x, F ∗ y ⟩ non si trasforma come la corrispondente matrice f della forma bilineare B a meno che il cambio di
base sia (reale ed) ortogonale: P T = P −1 . Come si è visto, infatti, sussistono le
Φ = P −1 F P insieme con ϕ = PT f P ,
e quindi le
∗ −1 ∗ ∗
ϕ = PTfP = P T κF P = P T κP P F P = χΦ
ϕ = PTfP = P T F T κP = ΦT P T κ P = ΦT χ .
◃
Esempio 5.19 Il cambio di base P è necessariamente ortogonale se, per esempio, la forma B è reale simmetrica,
il prodotto scalare è reale, e la base iniziale e , per ipotesi ortonormale, viene cambiata in quella degli autovettori
di F . In tal caso infatti, per le prime due affermazioni si ha che l’operatore F è reale autoaggiunto e quindi,
come si è detto, ha base propria reale ed ortonormale. Per la terza ipotesi, allora, l’operatore P che scambia fra
loro tali basi è ortogonale in quanto
1I = κ = P −T χ P −1 = P −T P −1 da cui 1I = P P T .
M. Lo Schiavo
A.5. Richiami di Algebra Lineare. ( I ) 455
Q(x) = xh q hk xk con q ≡ q ≡ qT ,
e mediante la xh = xj κ jh e le
κ jh q hk = S j k ed S∗ = κ −1 S T κ = κ −1 q T κ −1 κ = S,
si definisce un operatore autoaggiunto (o simmetrico)
È cosı̀ possibile riconoscere che la forma Q(x) = xh q hk xk può essere, magari non univocamente, trasformata
nella forma canonica
=n
Q(ξ) = λi ξ h κ hi ξ i , λi ∈ R, i = 1, . . . , n ,
i=1
ove le ξ i = P! −1ij xj sono le componenti dei vettori rispetto ad una base propria (ortonormale indipendentemente
dal fatto che lo sia la base iniziale) di S .
La non univocità è conseguenza del fatto che, siccome le λ sono tutte reali, non lede la generalità (ridefinendo
le ξ ) assumerle tutte di modulo unitario.
Si chiamano
Indice positivo d’inerzia := il numero delle λ = +1 .
Indice negativo d’inerzia := il numero delle λ = −1 .
Segnatura della forma := la differenza fra l’indice positivo e quello negativo.
La forma è definita positiva quando la sua segnatura vale +n ≡ dim(V), (Voyevodin 11.94).
Allo stesso modo, come si è visto, se QH è Hermitiana reale (in uno spazio unitario), l’operatore TB H è
j
autoaggiunto e si ha QH (x) = xh q hk x̄k =: xj S h x̄h = xh Shj x̄j , da cui
q hk = Shj κ jk = κ hj S jk e cioè q = ST κ = κS ,
Cn
e quindi QH (ξ) = i=1 λi ξ j κ ji ξ¯i con le λi tutte reali. #
Nota 1.5.20 Se si ha un operatore S che oltre ad essere autoaggiunto rispetto ad un qualche prodotto scalare
⟨ ·, · ⟩ è anche definito positivo, cioè tale che sia definita positiva la forma Q(x) := ⟨ x, Sx ⟩ , allora la forma
bilineare
B S (x, y) := ⟨ x, Sy ⟩ = ⟨ Sx, y ⟩ =: ⟨ x, y ⟩ S
definisce nello spazio E un nuovo prodotto scalare ⟨ ·, · ⟩ S distinto da quello di partenza: ⟨ ·, · ⟩ . Esso poi è reale
se tale è S . Si hanno allora le
⟨ x, y ⟩ = xi ⟨ ei , ek ⟩ȳ k = xi κik ȳ k = xk ȳ k
h h
⟨ x, y ⟩S = xi ⟨ ei , Sek ⟩ȳ k = x κih S k ȳ k
i
= xh S k ȳ k .
Più in generale, quindi, le definizioni e proprietà date sopra si possono ripetere relativamente a questo nuovo
prodotto scalare, in particolare il concetto di aggiunzione e di ortogonalità. Ad esempio si ha:
• la matrice in base S -ortonormale del S -aggiunto di T è la trasposta (coniugata) di quella che T ha nella
stessa base S -ortonormale; quindi
• un operatore (reale) T è S -autoaggiunto quando in base S -ortonormale gli corrisponde una matrice che è
simmetrica.
Dimostrazione
(⇐) ⟨ Sx, y ⟩ = ⟨ P −∗ P −1 x, y ⟩ = ⟨ P −1 x, P −1 y ⟩ = ⟨ x, P −∗ P −1 y ⟩ e pertanto S = S ∗ ; inoltre ⟨ Sx, x ⟩ =
⟨ P −1 x, P −1 x ⟩ > 0 per ogni x ̸= 0 stante l’invertibilità di P .
(⇒) Siano e , ε basi in E delle quali la prima 1I -ortonormale e la seconda S -ortonormale, ovvero: ⟨ ei , ej ⟩ = δij
ed ⟨ Sϵi , ϵj ⟩ = ⟨ ϵi , Sϵj ⟩ =: ⟨ ϵi , ϵj ⟩ S = δij ; tali basi esistono per il procedimento di Gram-Schmidt dato
che ⟨ ·, · ⟩ ed ⟨ ·, · ⟩ S sono due “qualsiasi” prodotti scalari.
A partire dalla P −1 ji ϵj := ei si definisca l’operatore P −1 cui la base ε assegna matrice P −1 le colonne della
quale sono formate dalle ε -componenti dei versori e1 , . . . , en . Risulta ⟨ P −1 ϵi , P −1 ϵj ⟩ = δij e quindi
"
a meno che anche la nuova base sia ortonormale: χ = 1I , e cioè a meno che l’operatore di cambio di base sia un
operatore ortogonale: P ∗ P = 1I .
e si hanno le ( −1
⟨ x, Vy ⟩ = ξ T P T κB P η̄ = ξ T χP B, P η̄
⟨ T x, y ⟩ = ξ T P T T T κP η̄ = ξ T (P −1 T P )T χη
Pertanto:
(• ) Un operatore reale invertibile P è S -ortogonale se e solo se conserva il prodotto S -scalare e quindi, in virtù
della
χ Σ =: χ S = P T κ S P := P T κ S P ,
se e solo se trasforma basi S -ortogonali in basi S -ortogonali. In tal caso si ha 1I = PST P S se con PS si è indicata
la matrice di P nella base S -ortogonale.
M. Lo Schiavo
A.5. Richiami di Algebra Lineare. ( I ) 457
Quanto si è visto nella precedente Nota 1.5.23 ha, fra l’altro, la seguente applicazione. Siano dati un operatore T2
simmetrico definito positivo, ed un operatore P& invertibile, e siano T e P& , rispettivamente, le matrici che la base
; <
−1/2 & definisce una trasformazione di coordinate ξ := P −1 x,
ei assegna loro. L’operatore P := T2 ◦P
i=1,...,n ; <
ed ha {e} -matrice: P = T −1/2 P& = P& T&−1/2 . Si osservi che l’operatore P prima gira la base ei
; < i=1,...,n
& −1/2
nella & ϵi := Pei , e poi agisce con T2 . Quest’ultimo operatore, anch’esso reale simmetrico, ha {e} -
i=1,...,n
matrice: T −1/2 .
Nota 1.5.24 Al solo scopo di rendere più chiaro l’effetto di T2 , e cioè solo a titolo
; di esempio,
< verrà qui esaminato il
&
caso particolare in cui l’operatore P dipende da T2 in modo tale che i versori τi := Pei & siano autovettori
i=1,...,n
−1/2 √
di T2 ; in tal caso l’operatore T2 li divide per λi . Nel caso generale, in cui l’operatore P & è assegnato apriori
ed indipendente da T2 (per esempio per essere quello degli autovettori di un qualche altro operatore autoaggiunto),
l’effetto di T2 sui τ sarà meno immediato, ma non tale da modificare la struttura geometrica delle osservazioni che
qui seguono.
È bene notare subito che gli autovettori dell’operatore autoaggiunto T2 , certo ortonormalizzabili secondo il
prodotto ⟨ ·, · ⟩ , non lo sono secondo quello ⟨ ·, · ⟩ T2 proprio per la presenza delle λi ̸= 1 .
; <
Sia allora τi una base ortonormale di autovettori di T2 ; resta da questa definito un operatore P &
; i=1,...,n
<
tale che τi =: Pe & i ; questo, comunque invertibile, è ortogonale se e solo se tale è anche la base e . Per
i=1,...,n
costruzione risulta ⟨ T2 τi , τj ⟩ = λ(i) δij .
Ponendo ϵ := T2
−1/2
τ =: Pe , e cioè con P := T2
−1/2
◦P& avente e -matrice −1/2
Pjk = P&ik λ(i) δji =
h Pj , si ottiene una base di vettori ε := P e tali che ⟨ ϵi , ϵj ⟩ T2 = δij .
−1/2 k & h
T Infatti
τ / τ
⟨ T2 ϵi , ϵj ⟩ = ⟨ T2 Tτi , √ j ⟩=⟨ λ(i) τi , √ j ⟩ = δij .
λ(j) λ(j)
λ(i)
È da notare però che anche se la base e è ortonormale, e quindi tale da rendere ortogonale l’operatore P
&,
l’operatore P non è ortogonale , a meno che T2 = 1I ; infatti
−1/2 & i , T −1/2 Pe
& j ⟩ȳ j =
⟨ Px, Py ⟩ = xi ⟨ T2 Pe 2
−1/2 −1/2 xi ȳ i
= xi ⟨ T2 τi , T2 τj ⟩ȳ j =
λ(i)
̸= xi ȳ i = ⟨ x, y ⟩ .
1/2
Ciò significa che P T P = P& T T −1 P& ̸= 1I , e ciò malgrado la {e} -matrice di T2 risulti T 1/2 h k =
1/2
P& j P
h −1j & h j
k = Pj δi λ(i) P
& k e quindi sia evidentemente simmetrica.
−1i
−1/2 &
Infine, la simmetria di T2 ; < che l’operatore P sia ortogonale, anche se indipendente
comporta che è sufficiente
−1/2 & −1 = P & −T P T segue infatti
da T2 , per assicurare la T2 -ortonormalità della base ϵi . Dalle T2 = PP
i=1,...,n
T2 = P −T P −1 che implica
⟨ ϵi , ϵj ⟩ T2 = ⟨ P −1 ϵi , P −1 ϵj ⟩ = ⟨ ei , ej ⟩ = δij .
◃
Nota 1.5.25 Ogni matrice simmetrica può essere ridotta in forma diagonale da una trasformazione ortogonale,
ma non è detto che tale trasformazione sia unica. Inoltre la corrispondente forma quadratica può essere messa in
forma canonica (magari non unica) anche da trasformazioni non ortogonali. ◃
Sussiste la seguente
Proposizione 1.5.26 La segnatura di una matrice simmetrica di rango r ≤ n è caratteristica della matrice e non
dipende dalla base delle coordinate. #
M. Lo Schiavo
A.6. Richiami di Algebra Lineare. ( II ) 459
Dimostrazione Si ricordi innanzi tutto che il rango della forma non dipende dalla base. Siano x le coordinate
di partenza e si suppongano due forme canoniche per la stessa forma quadratica:
y1 = . . . = yk = zh+1 = . . . = zn = 0. (5.25)
Usando le (5.24) si ottiene un sistema omogeneo di (n − h + k) equazioni nelle x e quindi ne esiste una soluzione
non banale: (α1 , . . . , αn ). D’altra parte, sostituendo le (5.24) nella (5.23) ed in essa la soluzione (α1 , . . . , αn ) si
ottiene
2
−yk+1 (α) − . . . − yr2 (α) = z12 (α) + . . . + zh2 (α).
Questa dà senz’altro z12 (α) = . . . = zh2 (α) = 0 che, insieme con le (3), indicano le {α} come soluzione non banale
del sistema omogeneo nelle x dato da z12 (x) = . . . = zn2 = 0 il che contraddice le (5.24). "
Nota 1.6.1 Gli autovalori di un operatore compaiono anche in alcuni degli ;invarianti
< relativi all’operatore stesso:
se T : V → V è un operatore lineare ed T la sua matrice in una certa base ei , allora: il determinante
k i=1,...,n
i
pT (λ) := Det (T − λ1I ) ha un solo termine di grado n in λ, e cioè i (Ti − λ), e questo termine contiene quello
di grado (n − 1). Infatti nello sviluppo per colonne ciascun Tji con i ̸= j rimane moltiplicato per il complemento
algebrico Aji e questo non contiene né (Tii − λ) né (Tjj − λ), e pertanto è di grado (n − 2).
; <
Si ha quindi, indicando con λi gli autovalori di T ,
i=1,...,n
0= 1
Det (T − λ1I ) = (−λ)n + (−λ)n−1 Tii
0 1
+ termini che si annullano per λ = 0 + Det T
= [(λ − λ1 ) · (λ − λ2 ) · · · (λ − λn )] (−1)n
N 0= 1 0 1
= λn − λn−1 λi + termini che si annullano per λ = 0
0_ 1O
+ (−1)n λi (−1)n .
Ne segue
n
= n
_
Tr T ≡ Tr T = λi , Det T ≡ Det T = λi .
i=1 i=1
Ciò perché né pT (λ), né T r T . né Det T , dipendono dalla base usata; infatti: Det (T1 T2 ) = Det T1 Det T2 .
Inoltre, se due operatori A e B hanno la stessa base propria, allora gli autovalori di A + A sono la somma dei
rispettivi autovalori. Pertanto, per t ∈ R, l’operatore (1I + tT ) ha autovalori (1 + tλi ) e si ha che
n
_ n
=
Det (1I + tT ) = (1 + tλi ) = 1 + t λi + o(t) = 1 + t T r T + o(t).
i=1 i=1
Indicati con ρ(T ) := Rank T ≡ dim Im T ; ν(T ) := N ull T ≡ dim Ker T ; e detti λ1 , . . . , λr gli autovalori
distinti di T , per i ∈ {1, . . . , r} si ricordino le seguenti definizioni:
Molteplicità algebrica ai := a(λi ) := molteplicità di λi quale radice della equazione secolare.
; ' <
Autospazio relativo a λi := x ∈ V ' T x = λi x =: Ker (T − λi 1I ).
Molteplicità geometrica gi := g(λi ) := numero di autovettori (linearmente indipendenti) relativi all’autovalore
λi .
M. Lo Schiavo
A.6. Richiami di Algebra Lineare. ( II ) 461
(v) Se per una certa λi risulta gi = ai e quindi qj = 1 si dice che l’operatore ha in sua corrispondenza
Divisori elementari semplici, e cioè non ha alcun blocco di Jordan (non banale) relativamente al dato
autovalore.
(vi) Dato un qualsiasi operatore S ∈ L(V) è possibile decomporre V in una somma diretta KV = V+ ⊕ V0 di spazi
S -invarianti tali che SV+ è invertibile ed SV0 è nilpotente di un certo ordine q ≥ 1 . La seconda affermazione
significa che esiste q ∈ N tale che S q x = 0 ∀x ∈ V0 , e, se q > 1, ∃x ∈ V0 tale che S q−1 x ̸= 0. La prima significa
L
che per ciascun y ∈ V+ esiste unico x ∈ V+ tale che Sx = y . I due spazi V+ e V0 sono S -invarianti, e quindi V
) *
S1 0
ammette una base nella quale S ha matrice diagonale a blocchi: S = con S1q = 0 e Det S2 ̸= 0 .
0 S2
Dimostrazione
(vi.1) Ker S k−1 ⊂ Ker S k ; e siccome n = dim(V) < ∞, esiste q ≥ 1 tale che Ker S q−1 ⊂ KerS q = KerS q+1 .
"
Si definisce
Autospazio generalizzato dell’operatore T , relativo all’autovalore λj :=
lo spazio
Mj := Ker (T − λj 1I )qj
T Mj ⊆ Mj
V = M1 ⊕ M2 ⊕ · · · ⊕ Mr
aj : = molteplicità algebrica di λj ≡ dim Ker (T − λj 1I )qj ≡ dim Mj
gj : = molteplicità geometrica di λj ≡ dim Ker (T − λj 1I )
Infatti: Mj ed il suo complementare Mcj := Im (T − λj 1I )qj sono invarianti non solo rispetto a (T − λj 1I ) ma anche rispetto a T ,
dato che T e (T − λj 1I ) commutano.
Inoltre (T − λj 1I ) è nilpotente di ordine qj su Mj , invertibile su Mcj e quindi λj non è autovalore di T2 := TMcj . Ma è
pT (λ) = (λj − λ)aj pT2 (λ) con pT2 (λj ) ̸= 0 e questo fa vedere che, per ogni j , la dim Mj è necessariamente la molteplicità algebrica
aj . "
Qualora l’operatore T , che è reale, abbia autovalori complessi, dato che essi sono presenti a coppie coniugate,
tutto quanto visto si può considerare in C Rn nel quale ad ogni autospazio generalizzato Mj si affiancherà il suo
complesso coniugato Mj formando cosı̀ un “piano C T -invariante” Mj ⊕ Mj la cui parte reale risulta un piano reale
di uguale dimensione: 2aj , e T -invariante.
Teorema 1.6.2 [di Jordan]
L’operatore (T − λj 1I )Mj , indotto sullo spazio Mj da (T − λj 1I ), ammette una base sulla quale esso ha matrice
⎛ ⎞
0 δ1 0 · · · 0
⎜ .. ⎟
⎜0 0 δ2 0 . ⎟
⎜ ⎟
TJ := ⎜ .
⎜ .. . .. . ..
⎟
⎜ 0 ⎟⎟
⎝0 0 δaj −1 ⎠
0 0 0
con δk ∈ {0, 1} per k = 1, 2, . . . , aj − 1. #
Nota 1.6.3 La molteplicità geometrica gi ≡ dim (Ker(T − λi 1I )) è certamente minore o uguale di quella algebrica
ai ≡ dim (Ker(T − λi 1I )qi ) che è non minore dell’esponente qi risultandogli uguale solo se è presente un unico
blocco elementare per quel valore della i. È importante notare che può essere qi & gi ; per esempio: per un solo
blocco è qi ≥ gi = 1 , per l’unità 1I è qi ≤ gi = n. Si ricordi che qi è definito dalle
(
Ker (T − λi 1I )qi −1 ⊂ Ker (T − λi 1I )qi
Ker (T − λi 1I )qi = Ker (T − λi 1I )qi +1
◃
Base propria dell’operatore := una base costruita, per ciascun autospazio Mj , mediante le “catene”
M. Lo Schiavo
A.6. Richiami di Algebra Lineare. ( II ) 463
Cr
con k ≤ qj ≤ a(λj ), i = 1, . . . , g , ove si è posto g := j=1 gj il numero di autovettori indipendenti di T (o coppie
di autovettori indipendenti, nel caso di coppie di autovalori complessi coniugati) e, come sopra, j = 1, . . . , r varia
sull’insieme degli autovalori distinti. Almeno uno dei Ji ha dimensione uguale al valore qj della corrispondente
λj . ◃
Nota 1.6.5 Se sono presenti coppie di radici complesse di molteplicità superiore ad uno, in C V si hanno blocchi
per esempio del tipo ⎛ ⎞ ⎛ ⎞
µ 1 0 0 µ 0 1 0
⎜0 µ 0 0⎟ ⎜0 µ̄ 0 1⎟
J =⎜⎝ 0 0 µ̄
⎟ ovvero TJ = ⎜ ⎟
1⎠ ⎝0 0 µ 0⎠
0 0 0 µ̄ 0 0 0 µ̄
e quindi si vede che nella base formata dalle parti reali e dagli opposti delle parti immaginarie dei vettori
(generalizzati) che costituiscono la base propria di T , questo ha matrice
⎛ ⎞
α −β 1 0
⎜β α 0 1 ⎟
T! := ⎜
⎝0
⎟,
0 α −β ⎠
0 0 β α
(i) Scrivere pT (λ) := (−1)n (λ − λ1 )a1 · (λ − λ2 )a2 · · · (λ − λr )ar ≡ Det (T − λ1I ) ove λi ̸= λj e a1 + · · · + ar = n.
(iv) Se q1 < a1 fissare un altro v (i) ∈ Ker (T − λ1 1I )q1 −i \Ker (T − λ1 1I )q1 −i−1 se possibile con i = 0 , altrimenti
con i = 1 oppure con i = 2 , etc. , e che sia linearmente indipendente dai precedenti; poi ricominciare con
(3) fino ad ottenere in tutto a1 vettori linearmente indipendenti ripartiti in g1 catene.
⎛ ⎞
0 0 2 2 0 0
⎜0 0 2 2 0 0⎟
⎜ ⎟
⎜0 0 0 0 0 0⎟
(T − 21I )2 = ⎜
⎜0
⎟,
⎜ 0 0 0 0 0⎟⎟
⎝0 0 0 0 2 −2⎠
0 0 0 0 −2 2
⎛ ⎞ ⎛ ⎞
.. ..
0 . 0 0 . 0
(T − 21I )3 = ⎝· · · . · · ·⎠ , (T − 21I )4 = ⎝· · · . · · · ⎠
0 . B . ′
0 .. B ′′
) * ) *
−4 4 8 −8
con B ′ := e B ′′ := . Pertanto si ha q2 = 3 . Risolvendo poi l’equazione (T − 21I )x = 0
4 −4 −8 8
si ricavano, sulle componenti degli autovettori di λ = 2 , le seguenti condizioni necessarie: x1 = x2 , x3 = −x4 ,
x5 = x6 = 0 ; si riconosce pertanto che è g2 = 2 .
Successivamente, dopo aver fissato ϵ1 ∈ Ker (T − 01I ) (per esempio: ϵ1 = (0, 0, 0, 0, 1, −1)T ), si ha v =
(0, 0, 1, 0, 0, 0)T ∈ Ker (T − 21I )3 \Ker (T − 21I )2 poiché ha x3 ̸= −x4 e x5 = x6 , e quindi si ricavano: ϵ2 =
(T − 21I )2 v = (2, 2, 0, 0, 0, 0)T , ed ϵ3 = (T − 21I )v = (1, −1, 0, 0, 0, 0)T , ed ϵ4 = v .
Visto poi che non ci sono altri v indipendenti in Ker (T − 21I )3 \Ker (T − 21I )2 si fissa w ∈ Ker (T −
21I )2 \Ker (T − 21I ). Deve essere x3 = −x4 ed x5 = x6 , quindi è giustificato il tentativo: w = (0, 0, 1, −1, 1, 1)T .
Si controlla che w ed u siano indipendenti, poi si pone ϵ5 = (T − 21I )w = (0, 0, 2, −2, 0, 0)T ed ϵ6 = w . Ne
risulta ⎛ ⎞ ⎛ ⎞
0 2 1 0 0 0 0 0 0 0 0 0
⎜ 0 2 −1 0 0 0⎟ ⎜0 2 1 0 0 0⎟
⎜ ⎟ ⎜ ⎟
⎜0 0 0 1 2 1 ⎟ ⎜0 0 2 1 0 0⎟
P =⎜⎜ ⎟ e TJ = ⎜ ⎜ ⎟
⎟ ⎟
⎜ 0 0 0 0 −2 −1⎟ ⎜0 0 0 2 0 0⎟
⎝ 1 0 0 0 0 1⎠ ⎝0 0 0 0 2 1⎠
−1 0 0 0 0 1 0 0 0 0 0 2
⎛ ⎞
1 0 0 0 0 0
⎜0 e2t te2t t2 2t
0 ⎟
⎜ 2e 0 ⎟
⎜0 0 e2t te2t 0 0 ⎟
e si ha P TJ = T P ed e TJ t =⎜
⎜0
⎟ .
⎜ 0 0 e2t 0 0 ⎟ ⎟
⎝0 0 0 0 e2t te2t ⎠
0 0 0 0 0 e2t
Si osservi che se lo scopo è quello di risolvere l’equazione ẋ = T x, a questo punto è sufficiente usare la formula
semplificata del § III.3 e proseguire come segue.
Il Ker (T − 21I )3 è lo spazio in cui le prime quattro componenti sono arbitrarie e le ultime due tali che
−4r + 4s = 0 e quindi tali che r = s; esso è pertanto lo
( >
(1, 0, 0, 0, 0, 0)T ; (0, 1, 0, 0, 0, 0)T ; (0, 0, 1, 0, 0, 0)T ;
span ;
(0, 0, 0, 1, 0, 0)T ; (0, 0, 0, 0, 1, 1)T
allo stesso tempo l’unico autovettore di λ1 = 0 è ϵ1 = (0, 0, 0, 0, 1, −1)T . Quindi la decomposizione di x0 è del
tipo
x0 =: x1 |0 + x2 |0 = (0, 0, 0, 0, a, −a)T + (c1 , c2 , c3 , c4 , b, b)T ,
M. Lo Schiavo
A.7. Richiami di Analisi Reale 465
che naturalmente è lo stesso risultato che si ottiene dalla prima parte dell’esercizio applicando la matrice P eTJ t
al vettore ξ = (ξ1 , .., ξ6 )T tale che (c1 , c2 , c3 , c4 , ξ1 + ξ6 , −ξ1 + ξ6 )T := x0 = P ξ . #
n-pla dei numeri (del campo K ) che in tal modo la base e1 , . . . , en assegna al vettore x, ed all’occorrenza
la si considererà una matrice ad n righe ed una colonna, riservando la notazione xT alla matrice ad una riga
ed n colonne formata anch’essa dalle componenti controvarianti di x;
Cn
• ⟨ x, y ⟩ := i,j=1 xi ⟨ ei , ej ⟩ ȳ j = xT κ ȳ è il prodotto scalare;
• xi := ⟨ x, ei ⟩ sono le componenti covarianti del vettore. Si indicherà con x∗ := (x1 , . . . , xn ) la n-pla dei
numeri (del campo K ) che in tal modo resta assegnata al vettore x, ed all’occorrenza la si considererà una
matrice ad una riga ed n colonne;
; < K
• e∗i una base nello spazio V∗ duale di V; e cioè quello delle forme lineari su V. Siccome la
i=1,...,n C
più generale forma Hermitiana su x ha come risultato un numero ai x̄i , ciascuna forma: a ≡ ⟨ a, · ⟩ ∈ V∗ è totalmente
L
individuata dagli n scalari a∗ = (a1 , . . . , an ) mediante la: a = ai e∗i . Nel seguito, tuttavia, si farà generalmente
ricorso al teorema dell’isomorfismo;fra<spazi vettoriali equidimensionali, e si assumeranno definiti nello spazio
V anche i “vettori” a che la base ei ed il prodotto ⟨ · , · ⟩ individuano mediante la corrispondenza
K i=1,...,n
C ; <
a : x &→ ai x̄i ≡ aj ⟨ ej , ei ⟩ x̄i In particolare, gli e∗i sono quei vettori tali che e∗i : x &→ x̄i = ⟨ e∗i , x ⟩ ,
i=1,...,n
e sono rappresentati da e∗i = (e∗ i; )j ej< per definizione tali che ⟨ e∗i , eh ⟩ = δh
i = (e∗i )j ⟨ e , e ⟩ . In tal modo risulta valida
j h
l’espressione x = xi e∗i perché gli e∗i sono una base, ed x − xi e∗i ha componenti (di Fourier) nulle su ogni versore
L i=1,...,n
e∗j .
• Sussistono le
xi = xj ⟨ ej , ei ⟩ =: xj κ ji , ⟨ x, y ⟩ = xi ȳ i , x∗ = xT κ , κ = κT ,
e le =
x̄i = e∗i (x) x= e∗i (x) ei (e∗i )j = κij (e∗i )j = δji
=
xi = ei (x∗ ) x∗ = ei (x∗ ) e∗i (ei )h = κih (ei )h = δih
Sui prodotti scalari, e quando; sia< fissata la base, può essere allora
; conveniente
< usare la notazione con
componenti miste. I numeri xi coincidono con i numeri xi soltanto quando la forma
i=1,...,n i=1,...,n
; <
(Hermitiana) del prodotto scalare riconosce come ortonormali i versori di base ei .
i=1,...,n
; < ; <
• Un operatore (invertibile) P induce un cambio di base: da ei ad ϵi := Pei . Detta P
i=1,...,n i=1,...,n
la sua {e}-matrice, per definizione si ha
ϵh = P k h ek ek = P −1h k ϵh .
e quindi
; <
In modo conseguente mutano le componenti “naturali” o controvarianti: xj di un vettore: x =
j=1,...,n
; <
ξ j ϵj = xh eh secondo la xh = P h j ξ j , ovvero x = P ξ . A loro volta le componenti covarianti xi
i=1,...,n
mutano secondo la
−1 h −1 h −T
xk := ⟨ x, ek ⟩ = ⟨ x, ϵh ⟩ P k = ξh P k = P k h ξh
o anche
xk := ⟨ x, ek ⟩ = ξj ⟨ ϵ∗j , ek ⟩ = ξj P −1j i ⟨ e∗i , ek ⟩ = ξj P −1j k
ove si è usata la ϵ∗j = P −1j i e∗i e si è posto
⟨ x, ϵj ⟩ = ξ h ⟨ ϵh , ϵj ⟩ =: ξ h χhj = ξj ,
da non confondere con ξ h κhj .
Quando il tensore della metrica è comunque scelto unitario, la κ scompare, e si conviene di riservare la
posizione in alto per l’indice di riga (e cioè l’indice che percorre lo spazio di arrivo).
Negli spazi vettoriali reali a dimensione finita sono di frequente uso le seguenti particolari norme:
/Cn / √
Norma Euclidea standard := ∥x∥2 = i 2 ⟨ x, x ⟩ = xT x̄
i=1 (x ) =
In questa relazione, le (ξ 1 , . . . , ξ n ) sono le componenti del vettore x rispetto ad un’altra base B, e κ è la matrice
del tensore della metrica K della base {e} , ovvero: κ ij = ⟨ ei , ej ⟩ .
La base B sia individuata (ad esempio) mediante un operatore invertibile P :
; <
P : ei &−→ {ϵj := Pej }j=1,...,n =: B ,
i=1,...,n
e si chiami P −∗ l’aggiunto di P −1 rispetto al prodotto scalare ⟨ ·, · ⟩ . La matrice del tensore K è allora anche
esprimibile mediante la
M. Lo Schiavo
A.7. Richiami di Analisi Reale 467
Il fatto che K sia un tensore metrico assicura che l’operatore S è definito positivo, e che il prodotto ⟨ ·, · ⟩ S sia
un corretto prodotto interno. < che rispetto al prodotto scalare ⟨ ·, · ⟩ S (e ;non<rispetto al prodotto scalare
; Si osservi
iniziale: ⟨ ·, · ⟩ ) i versori ϵi := Pei hanno la stessa metrica dei versori ei , e cioè:
i=1,...,n i=1,...,n
⟨ x, y ⟩ S = ⟨ x, Sy ⟩ = ξ i ⟨ ϵi , Sϵj ⟩ η̄ j = ξ i ⟨ ei , ej ⟩ η̄ j = xi ⟨ ei , P −∗ P −1 ej ⟩ ȳ j ,
ovvero
x κS y = ξ κ η = x κ P −∗ P −1 y
generalmente diverso da
xi κ ij ȳ j = xi ⟨ ei , ej ⟩ ȳ j = ⟨ x, y ⟩ = ξ i ⟨ ϵi , ϵj ⟩ η̄ j = ξ i χ ij η̄ j .
/ /
La norma ∥·∥B = ⟨ ·, · ⟩ B e la ∥·∥2 = ⟨ ·, · ⟩ non coincidono a meno che il cambio di base P sia
(unitario o) ortogonale: P ∗ = P −1 , e quindi S = 1I ed P −T κ = κ P̄ . In tal caso entrambe le basi ammettono
la stessa metrica, ed in particolare essere entrambe ortonormali rispetto ad uno stesso prodotto scalare.
È chiaro come mai, talvolta, la norma ∥·∥B venga anche chiamata
Norma rispetto all’operatore, (autoaggiunto) definito positivo, S := P −∗ P −1 .
N.B. 1.7.1 Si noti che la base ortonormale BS =: {PS ei }i=1,...,n fatta con gli autovettori di un qualsiasi operatore
autoaggiunto S non è la base B := {Pei }i=1,...,n , qualora questa esista, determinata dall’operatore P che
definisce S mediante la S = P −∗ P −1 ,
La prima esiste certamente dato che S è normale, e può essere scelta ortonormale: PS∗ PS = 1I = PS−∗ PS−1
(ove PS è la {e}-matrice di PS ), o comunque con la stessa metrica della base {e} ; conserva quindi il prodotto
scalare: ∥x∥22 = xT κ x̄ = ⟨ x, x ⟩ = ξST κ ξ̄S = ∥x∥2BS , e verifica la ⟨ x, Sx ⟩ = λ(i) ξS j κ ji ξ¯S i giacché assegna
ad S la matrice λ(i) δji .
Affinché esista la seconda occorre che l’operatore S (certamente semidefinito) sia definito positivo. In tal caso
essa viene costruita mediante il procedimento di Gram-Schmidt a partire dal prodotto ⟨ ·, · ⟩ S ; inoltre, come detto
sopra, assegna all’operatore S = P −∗ P −1 (la cui {e}-matrice è P −∗ P −1 ) la matrice Σ = P −1 P −∗ = χ −1 κ ,
e fornisce ⟨ x, Sx ⟩ ≡ ⟨ x, x ⟩ S ≡ ∥x∥B = ξ T κ ξ̄ , apriori diverso da ⟨ x, x ⟩ = ξST κ ξ̄S . Per la prima, χ = K
2
e χ S = λ(i) 1I , per la seconda χ S = K e Σ (la {ϵ} -matrice di S ) è generalmente diversa dalla matrice
diagonale λ(i) 1I . ♦
; ' <
La figura mostra le frontiere degli insiemi x ' ∥x∥ ≤ 1
2
1
Naturalmente l’equivalenza che ne risulta è ai fini delle convergenze ma non ai fini della rapidità con le quali le
successioni convergono. Si osservi che quando le due norme sono equivalenti i due spazi metrici (V, ϖ1 ) e (V, ϖ2 )
sono metricamente equivalenti (e cioè le metriche indotte dalle due norme sono uniformemente equivalenti, nel
senso che l’identità è funzione uniformemente continua); pertanto le successioni di Cauchy restano tali in entrambi
gli spazi metrici.)
Proposizione 1.7.2 Giacché lo spazio V è a dimensione finita, se ϖ è una (qualunque) norma su V allora ogni
altra norma è equivalente ad essa. #
Dimostrazione È facile
C iconstatare7cheC ϖ 8è funzione continua su V rispetto alla norma ∥·∥2 . Infatti: esiste
µ ∈ R tale che ϖ(x) ≤ |x |ϖ(ei ) ≤ |xi | µ ≤ nµ ∥x∥∞ ≤ nµ ∥x∥2 , e quindi |ϖ(x) − ϖ(y)| ≤ ϖ(x − y) ≤
nµ ∥x − y∥2 . D’altra parte la superficie sferica è un sottoinsieme compatto di Rn , n < ∞, (sempre rispetto
alla norma ∥·∥2 ). Esistono quindi finiti a := min∥y∥2 =1 ϖ(y) e b := max∥y∥2 =1 ϖ(y). Infine, per α > 0 si
ha ϖ(x/α) = ϖ(x)/α ; e siccome i vettori y che hanno ∥y∥2 = 1 sono tutti e soli del tipo x/ ∥x∥2 con x qualsiasi
in V, ponendo α := ∥x∥2 si ha per costruzione che
ϖ(x)
a≤ ≤b x ∈ V.
∥x∥2
"
Esempio 7.3
n
=
∥x∥2∞ ≤ |xi |2 ≤ n ∥x∥2∞ ;
i=1
ed analogamente
1
∥x∥1 ≤ ∥x∥∞ ≤ ∥x∥1 .
n
In particolare sussistono le
√
∥x∥∞ ≤ ∥x∥2 ≤ ∥x∥1 ≤ n ∥x∥2 ,
perchè le somme di quadrati di numeri non negativi sono non superiori ai quadrati delle somme e, d’altra parte, si
C 7 82 7C i 2 8 C 7C i 2 8 7C i 82
ha che 0 ≤ i<j |xi | − |xj | = (n − 1) |x | − 2 i<j |xi ||xj | = n |x | − |x | . #
N.B. 1.7.4 Almeno un τ esiste finito perché T è lineare continuo. D’altra parte, per l’omogeneità delle norme e
di T si ha che τmin è anche l’estremo inferiore dei numeri reali τ tali che ∥T x1 ∥2 ≤ τ per ? ogni
) x1*? ∈ Rn con
? x ?
∥x1 ∥2 = 1 . Infatti, l’omogeneità delle norme e la linearità di T implicano che ∥T x∥ = ∥x∥ ?
?T ∥x∥ ? .
?
In particolare, sebbene la ∥x∥ ≤ ∥y∥ non basti a concludere che ∥T x∥ ≤ ∥T y∥ , tuttavia questa sussiste se x = λy
e se |λ| ≤ 1 . Ne segue che ∥T x∥ ≤ ∥T (x/∥x∥)∥ per tutti gli x che hanno ∥x∥ ≤ 1 .
Si osservi ora che per ogni x ̸= 0 esiste x1 tale che x = λx1 = ∥x∥ x1 , con ∥x1 ∥ = 1; quindi per ∥x∥ ≤ 1
si ha ∥T x∥ = ∥x∥ ∥T x1 ∥ ≤ ∥T x1 ∥ , da cui sup∥x∥≤1 ∥T x∥ ≤ sup∥x∥=1 ∥T x∥ . Sussiste però anche la seguente
; ' < ; ' <
inclusione x ∈ V ' ∥x∥ ≤ 1 ⊃ x ∈ V ' ∥x∥ = 1 , per cui risulta
sup ∥T x∥ ≡ sup ∥T x∥ .
∥x∥=1 ∥x∥≤1
D’altra parte, il sup∥x∥≤1 ∥T x∥ è anche un max, giacchè la sfera unitaria è insieme chiuso e limitato in uno
spazio a dimensione finita, e quindi compatto.
Quando la norma è la ∥·∥2 , si chiami α tale massimo. Esso è maggiore o uguale di ∥T x∥2 per ogni ∥x∥2 = 1 ,
e perciò τmin ≤ α . Ma è anche estremo superiore, e quindi esiste xε con ∥xε ∥ = 1 tale che α − ε ≤ ∥T xε ∥ ≤ τmin .
Ciò vero per ogni ε > 0 , è anche α ≤ τmin . ♦
M. Lo Schiavo
A.7. Richiami di Analisi Reale 469
In definitiva si definisce:
Norma di un operatore: ∥T ∥ := la funzione che associa ad ogni operatore lineare T : V1 → V2 il numero
non negativo
τmin ≡ α := max ∥T x∥2 .
∥x∥2 =1
• È omogenea, perchè tale è ∥·∥2 e perchè max |α| ∥T x∥2 = |α| max ∥T x∥2 ;
• Sussiste la ∥T S∥ ≤ ∥T ∥ ∥S∥ ;
• Si chiama spettrale, perchè detto λ !max il più grande autovalore (reale non negativo) dell’operatore κ -
B
∗ (S)
autoaggiunto, semidefinito positivo, S := T T , si ha ∥T ∥ = λmax . Infatti, espresso il prodotto scalare
mediante le componenti nella base κ -ortonormale
; < degli autovettori di S = T ∗ T si vede che: ∥T x∥22 =
C
λ(i) ξS j κ ji ξS i , con ξS i
(S)
⟨ T ∗ T x, x ⟩ = le componenti dei vettori in tale base. Inoltre la sfera
i=1,...,n
unitaria contiene anche vettori con S -componenti tutte nulle salvo una.
; <
• Se T stesso è autoaggiunto si ha ∥T ∥ = max1≤i≤n |λi |, con λi gli autovalori di T .
i=1,...,n
(S)
(Nel caso generale non è detto che λmax sia il massimo dei λ2i , che possono essere complessi; né è detto
(S)
[Voyevodin IX.7.8; Gantmacher IX.12] che λ(i) = λ(i) λ̄(i) , a meno che T sia normale).
• Non va confusa questa norma con le altre, equivalenti, che si ottengono in modo analogo, quali per esempio
le seguenti norme (il cui valore dipende dal sistema di coordinate scelto)
1,n
=
max ∥T x∥1 = |Tji |,
∥x∥∞ =1
i,j
n
=
max ∥T x∥∞ = max |Tji |
∥x∥∞ =1 1≤i≤n
j=1
=n
max ∥T x∥1 = max |Tji | .
∥x∥1 =1 1≤j≤n
i=1
0 1
(2)
Un esempio di spazio completo è (Rm , ∥ · ∥) , e quindi lo è anche qualunque V2 , ∥·∥ che sia ad esso
isomorfo.
Dimostrazione
; < Sia data una successione di Cauchy, per esempio rispetto alla norma detta, di operatori
lineari Ti . Per un qualunque fissato x ∈ V\{0} si pongano yi := Ti x. Per ε > 0 ed h, k sufficientemente
i∈N
(2) (2) (1) (1) (1)
grandi si ottiene;∥yh<− yk ∥ = ∥(Th − 0
Tk )x∥ ≤ 1∥Th − Tk ∥ ∥x∥ ≤ ε ∥x∥ . Ma ∥x∥ è indipendente da
(2)
ε, h, k, e quindi yh è Cauchy in V2 , ∥ · ∥ . La completezza di quest’ultimo garantisce l’esistenza del
h∈N
limite y! := limh→∞ yh . D’altra parte il passaggio al limite conserva la struttura lineare, e quindi il vettore
; y!<sarà
necessariamente una combinazione lineare, con coefficienti che dipendono linearmente dalle componenti xk
k∈N
di x, dei (peraltro arbitrari) vettori della base:
(1) (1) (2)
lim Th (xk ek ) = xk lim Th ek =: xk τk = xk T j k ej .
h→∞ h→∞
Esso è pertanto un trasformato lineare del vettore x, e quindi definisce un operatore T ∈ L(V1 , V2 ) tale che
y! =: T x, e la cui {e}-matrice
; < è la T .
Infine, siccome yk è Cauchy, per k grande l’operatore T verifica la
k∈N
? ?
? ?
?(Tk − T ) x ? ≤ ε e quindi max ∥(Tk − T )x∥ ≡ ∥Tk − T ∥ < ε .
? ∥x∥ ? ∥x∥ ∥x∥=1
; <
L’operatore T è allora il (solo) limite in norma della successione Tk . "
k∈N
Conseguenza ; <
Data una successione di operatori Sk in L(V1 , V2 ) si considera la famiglia dei numeri ∥Sk − Sh ∥ . Se questi
0 k∈N 1
sono piccoli per h, k grandi, e se V2 , ∥·∥(2) è completo, allora ha significato parlare dell’operatore limite (in
norma) della successione.
Ch
In particolare se la successione è una successione di somme parziali Sh := j=1 Tj , e si nota che, dato
ε > 0 , per h e k sufficientemente grandi sussiste la
? ?
? h ?
? = ?
∥Sh − Sk ∥ ≡ ?
? T ?
j? ≤ ε ,
?j=k+1 ?
C∞
allora si può affermare che esiste, in L(V1 , V2 ), la somma della serie, e cioè un operatore S := h=1 Th tale che
? ?
? h ?
? = ? h
?S − T ?
j ? −→ 0 .
?
? j=1 ? ∞
C∞
?C k=1 ∥T
Una tal serie si dice assolutamente convergente se accade che anche la serie delle norme ? k ∥ è convergente
? h ?
(da non confondere con la successione, convergente, delle norme delle somme ridotte: ? j=1 Tj ? ).
; <
Nota 1.7.7 Sia data una qualsiasi successione Rh di operatori in L(V1 , V2 ). Esaminare le differenze
h∈N
∥Rh − Rk ∥ è ben diverso dal considerare le differenze ∥Rh ∥ − ∥Rk ∥ . ; <
Se accade che ∥Rh − Rk ∥ ≤ ε per h, k abbastanza grandi, e cioè se la successione Rh è di Cauchy, certo
; < h∈N
ne segue che la successione ∥Rh ∥ è anch’essa di Cauchy; infatti: |∥Rk ∥ − ∥Rh ∥| ≤ ∥Rk − Rh ∥ .
h∈N
Tuttavia il viceversa non sussiste, in generale, a meno che: il limite delle ∥Rh ∥ sia zero, nel qual caso
∥Rh − Rk ∥ ≤ ε/2 + ε/2 , oppure quando la norma della differenza sia uguale alla differenza delle norme, ; < e
cioè quando gli operatori sono proporzionali: Rh = λh R ; e anche in tal caso basta che la successione λh
; < ; < h∈N
sia convergente per avere che ∥Rh ∥ è convergente, e che Rh è convergente. ◃
h∈N h∈N
M. Lo Schiavo
A.8. Richiami di Analisi Complessa 471
; <
non già della successione delle norme delle somme ∥Sk ∥ , ma della successione delle somme delle norme
; Ch < ?C k∈N ?
C
? ?
sh := i=1 ∥Ti ∥ , dall’essere ∥Sh − Sk ∥ = ? hi=k+1 Ti ? ≤ hi=k+1 ∥Ti ∥ si può concludere che se lo
h=1,...,n
Ch
spazio L(V1 , V2 ) è completo e se la serie i=1 ∥Ti ∥ delle norme degli argomenti è convergente allora è conver-
Ch
gente in L(V1 , V2 ) (in norma, assolutamente ed uniformemente) la serie i=1 Ti degli argomenti medesimi.
#
In effetti si è provato, più in generale, che: in uno spazio lineare normato completo ogni serie assolutamente
convergente è convergente.
È infine opportuno notare che sussiste anche l’affermazione complementare:
Se dall’assoluta convergenza di una qualsiasi serie di uno spazio normato se ne può dedurre la convergenza,
allora lo spazio è completo. ; <
Infatti: data in esso una qualunque successione di Cauchy, se ne potrà estrarre una sottosuccessione xh
C∞ −h h∈N
tale che ∥xh+1 − xh ∥ < 2−h . La serie h=1 2 è convergente e quindi l’ipotesi implica che è convergente la
C∞
serie h=1 (xh+1;− x< h ); le somme parziali di quest’ultima sono d’altronde xh − x1 . È quindi convergente la
sottosuccessione xh e di qui la successione di partenza.
h∈N
zz ′ = z̄ z̄ ′ ,
z + z ′ = z̄ + z̄ ′ ,
z̄
z −1 = ,
|z|2
z z ≡ z 2 ̸= |z|2 ≡ z z̄ .
exp : ς ∈ C &→ eς ∈ C, ς ≡ σ + i θ, σ := ℜe ς ∈ R, θ := ℑm ς ∈ R.
C∞ 1
Si nota innanzi tutto che n=0 n! |ς|n = e|ς| < ∞ implica la
' k ' ' k '
'= ς n = h
ς n '' '' = ς n '' = 1
k
' h,k
' − =
' ' ' ≤ |ς|n −−−→ 0
' n! n! ' ' n! ' n! ∞
n=0 n=0 n=h n=h
Ck n
per cui la successione n=0 ςn! è di Cauchy in (C, | · |) . Questo, per la completezza di R ed il fatto che: |ς| tende
Ck n
a zero se e solo se σ e θ tendono simultaneamente a zero, assicura che per ogni ς ∈ C la successione n=0 ςn!
converge ad un limite appartenente a C ed indicato con e . ς
Decomplessificare la retta complessa significa far scomparire la i , e cioè interpretare le precedenti operazioni
come delle operazioni su coppie ordinate di numeri reali o, come più spesso si ricorda, su vettori nel piano di
Gauss: R C := R2 . L’isomorfismo tra C ed R2 si ottiene assumendo fissata, come base “canonica”: {e1 , e2 } ,
la base rispetto alla quale il numero complesso z risulta rappresentato dal vettore z ≡ (α, β) avente componenti
rispettivamente α := ℜe z , β := ℑm z . In particolare l’unità reale 1 + i0 e l’unità immaginaria 0 + i1 sono
rappresentate dai versori della base: e1 ed e2 .
Si nota che in R C la somma è l’ordinaria somma per componenti, mentre il modulo |z| ≡ |z| è la norma euclidea
standard.
La moltiplicazione di un generico z ′ ∈ C per un numero (scalare) complesso z ∈ C\{0} , in quanto operazione
che trasforma un certo vettore z ′ ∈ R2 in un altro z ′′ ∈ R2 , risulta necessariamente rappresentata da una
trasformazione lineare reale, e cioè da un punto in L(R2 ). Nel seguito si indicherà tale operatore mediante la
notazione R z : R C → R C. Le due relazioni, valide in C,
z 1=z =α+i β z i = −β + i α =: z+
inducono in R C le corrispondenti
) * ) * ) * ) *
R
1 R
α R
0 R
−β
z = z e1 = z = , z = z e2 = z+ = , (8.27)
0 β 1 α
M. Lo Schiavo
A.8. Richiami di Analisi Complessa 473
Equivalentemente, ci si può servire della richiesta che (nella base scelta) accada
) * ) ′ *
ℜe (zz ′) αα − ββ ′
z ′′ = R z z ′ = ≡ = R z′ z , (8.29)
ℑm (zz ′ ) βα′ + αβ ′
si può controllare che la forma (8.28) risulta consistente con la moltiplicazione fra due qualunque scalari complessi:
R
z R z ′ = R (zz ′ ) = R z ′ R z , e cioè fra due punti di L(R C), e che è assicurata la commutatività della moltiplicazione
in L(R C).
In particolare è agevole controllare che la moltiplicazione fra due numeri complessi z e z ′ ha come risultato
un numero complesso z ′′ avente come modulo il prodotto dei loro moduli e come argomento la somma dei loro
argomenti: ) * ) *
′ ′ ′
′′ ′ cos θ cos θ − sin θ sin θ ′ cos(θ + θ )
z = ρρ = ρρ .
sin θ cos θ′ + cos θ sin θ′ sin(θ + θ′ )
Questo, e la ricordata proprietà: ρ → 0 ⇐⇒ a, b → 0 , assicurano che anche i procedimenti di limite e di somma
di serie si conservano nel passaggio da C ad R C.
) * ) *
Esempio 8.1 i = 01 implica R i = 10 −1 0
e produce una rotazione di π2 in senso antiorario; (equivalen-
temente: 0 + i1 = cos π2 + i sin π2 ). ) *
cos nπ/2
A sua volta questa fornisce le componenti di in ; esse sono . #
sin nπ/2
Esempio 8.2 ) * ) *) * ) *
R
α 0 −1 1 α
z = (α + iβ)e1 = +β = αe1 + βe2 = .
0 1 0 0 β
#
) *
α 0
Esempio 8.3 = R
ℜe z := 1R
2 (z + z̄) . #
0 α
Esempio 8.4 ) * ) *) *
β 0 1 1 0 −2β 0 −1
= ℑm z := − R (z − z̄) R i = −
R
0 β 2 2 2β 0 1 0
) * ) *
ℜe z 0
e quindi R
ze1 = (R ℜe z) e1 + (R ℑm z) e2 = + . #
0 ℑm z
forniscono le ) * ) *
1 0 0 −1
R
(iβ)2k = β 2k (−1)k , R
(iβ)2k+1 = β 2k+1 (−1)k .
0 1 1 0
#
segue infatti 0 1 ) *
R (iθ)
0 −θ cos θ − sin θ
e =e θ 0 = = R (eiθ ) .
sin θ cos θ
Moltiplicando quest’ultima per ) σ *
σ 0 e 0
= e(0 σ)
Rσ
e = = R (eσ ) ,
0 eσ
e servendosi della nota proprietà della funzione esponenziale: eT eS = eT +S , quando T S = ST , si ottiene la più
generale: 0 1 ) *
R
σ −θ cos θ − sin θ
e ς = e θ σ = eσ = R (eς ) = R (e(σ+iθ) ) . (8.30)
sin θ cos θ
) *
R
σ −θ
dalla quale si riconosce l’espressione esplicita per l’esponenziale della particolare matrice reale ς ≡ .
θ σ
Nota 1.8.6 La funzione eς , e la sua decomplessificata, verificano le importanti proprietà:
⎧
⎪ e0 = 1 ,
⎨
eς1 eς2 = eς1 +ς2 , (8.31)
⎪
⎩ σ+i(θ+2kπ)
e = eσ+iθ .
(naturalmente già ottenibili per induzione dalle relazioni trigonometriche viste in precedenza). Si noti che l’ultima
di queste uguaglianze mostra che l’operazione di estrazione della radice n-ma di un numero complesso ammette
sempre n soluzioni distinte: esse sono disposte sui vertici di un poligono regolare di n lati posto in modo simmetrico
rispetto all’asse inclinato di θ/n su quello reale; se n è pari l’asse reale contiene due radici simmetriche rispetto
all’origine; se dispari solo una. Pertanto se θ = π ed n è pari o dispari l’asse reale contiene nessuna o una radice
rispettivamente (la rotazione di π/n fa passare l’asse reale per nessuno o uno rispettivamente dei vertici del
poligono, in quanto tale arco è la metà degli n archi uguali in cui si viene a trovare suddiviso 2π ). ◃
Ancora con z = α + i β = ρeiθ = ρ (cos θ + i sin θ) , il ln z è allora tale che eℜe ς = ρ e simultaneamente
ℑm ς = θ + 2kπ ; ovvero
Si vede pertanto che il ln z (in quanto “inversa” di 0 funzioneO periodica) è una funzione sul piano di Gauss solo
qualora se ne restringa il codominio alla striscia: R × −π, π , e cioè per k = 0 e θ = Arg(ς); alternativamente va
1
considerato come una “funzione a più valori”: le parti ℑm non risultando univocamente determinate. Si verifica
inoltre l’importante relazione
ln(z1 z2 ) = ς1 + ς2 = ln z1 + ln z2 . (8.32)
A sua volta quest’ultima induce la definizione di funzione esponenziale relativa ad una base qualsiasi: a ∈ C
aς := eς ln a a, ς ∈ C ;
M. Lo Schiavo
A.8. Richiami di Analisi Complessa 475
.z
che verifica ancora la (8.32), ma non più la ln z = 1 dζ/ζ .
Per quanto osservato precedentemente, tutte queste relazioni possono essere decomplessificate e riscritte per gli
operatori R z . In particolare:
) *
R R
σ −(θ + 2kπ)
ln z := (ln z) = con σ := ln ρ,
θ + 2kπ σ
7 81/2 ℜe z ℑm z
ρ = (ℜe z)2 + (ℑm z)2 , θ = arccos ∩ arcsin .
ρ ρ
Sia dato, ora, uno spazio vettoriale reale V di dimensione n, e sia esso rappresentato da Rn . Si definisce
complessificato C Rn di Rn (e conseguentemente rappresentante il complessificato C V di V) lo spazio
complesso n-dimensionale Cn costruito mediante le combinazioni lineari complesse dei vettori di Rn e cioè
( >
' =n
n n ' i n i
C
R := z ∈ C ' z = µ xi , xi ∈ R , µ ∈ C .
i=1
Tale spazio è isomorfo al più generale spazio vettoriale complesso n-dimensionale C in quanto i vettori z ∈ C sono
rappresentati da n-ple z di numeri complessi (z 1 , . . . , z i ) o, equivalentemente, coppie ordinate di n-ple di numeri
reali indicate usualmente con l’espressione z = x + iy . La somma è, conseguentemente, per componenti; ed il
prodotto per uno scalare complesso (α + iβ) verifica la
Per base nello spazio C V si potrà scegliere la base reale (in quanto costituita da vettori complessi a parte
immaginaria nulla) ereditata da quella dello spazio reale, e cioè
C
{e1 , . . . , en } := {(1 + i0)e1 , . . . , (1 + i0)en } ≡ {e1 + i0, . . . , en + i0} .
Cn
Rispetto ad essa il generico vettore z ∈ C V ha rappresentazione cartesiana i
i=1 z ei , è individuato dalla
n-pla z ≡ (z , . . . , z ) ∈ C , ed in tal senso R rappresenta V = C- span {e1 , . . . , en } .
1 n n C n C
Il complesso coniugato di un vettore z ∈ C V è quel vettore z̄ che nella base C {e1 , . . . , en } ha come componenti
i complessi coniugati delle componenti di z , e cioè z̄ = (z̄ 1 , . . . , z̄ n ). Un vettore x ∈ C V è reale quando coincide
con il suo complesso coniugato. In una base “complessa coniugata”, e cioè tale che contenendo un vettore ne
contiene anche il complesso coniugato, esso avrà componenti necessariamente complesse coniugate.; <Infatti la
ξ 1 ϵ + ξ 2 ϵ = (ξ 1 ϵ + ξ 2 ϵ) implica ξ 2 = ξ̄ 1 . In particolare un vettore reale in base reale (per esempio la C ei )
i=1,...,n
ha tutte le componenti reali ed è della forma (x, 0) in quanto x = (xh eh + i0).
N.B. 1.8.7 La differenza fra un (particolare) spazio complesso ed uno complessificato si percepisce quando essi
siano sottospazi di un qualche spazio complesso che li contenga entrambi: un sottospazio Cn ⊂ Cm , e cioè il
C- span di n vettori complessi, è il complessificato di uno spazio reale n-dimensionale, e cioè il C- span di n
vettori reali x1 , . . . , xn se e solo se contenendo un vettore z contiene anche ilCsuo complesso coniugato z̄ .
C iµ ∈ C nimplica µ̄ ∈ C, nella base reale {ei }i=1,...,n si ha che se i µ xi = z ∈ C senz’altro
C i n
Infatti siccome
anche z̄ = i µ̄ xi ∈ C . D’altra parte, se uno spazio complesso C contiene entrambi z, z̄ allora certo contiene
entrambi 12 (z + z̄) , − 2i (z − z̄) che sono due vettori reali. Ciò essendo vero per ogni vettore, lo sarà anche per i
vettori di base che risultano ) allora
* una combinazione C-lineare di vettori reali. Al contrario, per esempio, il
1
sottospazio W := C- span{ } ⊂ C non è il complessificato di alcuno spazio reale, infatti z è in W quando è
2
i
della forma z = µ(e1 + ie2 ) = (µe1 + iµe2 ) ed il vettore z̄ = µ̄e1 − iµ̄e2 non è di questo tipo. ♦
Come logica estensione dell’operazione di moltiplicazione di un vettore complesso z ∈ C V per uno scalare
complesso (α + iβ) si consideri in generale un operatore C-lineare T : C Vn → C Vm , di dimensioni n ed m
rispettivamente. Si chiama
Operatore Coniugato di T := l’operatore T definito dalla: T z =: T z̄.
Anche l’operatore T è un operatore lineare:
T (c z) = T c̄ z̄ = c̄ T z̄ = c T z
Posto A := ℜe T := 12 (T + T ) = A si ha che è reale ciascun elemento della matrice A che la base reale
C
{e1 , . . . , en } assegna all’operatore A. Infatti preso comunque z = x + iy con x, y vettori reali in C Vn si ha
(ℜe T )x = 12 (T + T )x = 12 (T x + T x) = ℜe (T x)
(ℜe T )(iy) = 2 (T + T )(iy) = i 12 (T + T )y
1
= i ℜe (T y)
e quindi per un qualsiasi z ∈ C Vn si ottiene:
Az = (ℜe T )z = ℜe (T x) + i ℜe (T y) ,
da cui segue, scegliendo z ∈ C Vn puramente reale, che anche Az deve avere tutte le sue componenti reali (vista
la scelta della base: reale).
Analogamente chiamato B l’operatore reale “parte immaginaria” di T : B := ℑm T := − 2i (T − T ) = B
si ha che ciascun elemento della matrice che, nella base detta, rappresenta l’operatore B è reale: infatti
(ℑm T )x = − 2i (T − T )x =− 7
i
2 (T x − T x) 8 = ℑm (T x)
i i
(ℑm T )(iy) = − 2 (T − T )(iy) = i − 2 (T − T )y = i ℑm (T y)
e quindi per un qualsiasi z si ottiene:
Bz = (ℑm T ) z = ℑm (T x) + iℑm (T y)
da cui, scegliendo z puramente reale, si ha che anche Bz lo deve essere.
In definitiva: un generico operatore lineare complesso T : C Vn → C Vm può essere sempre rappresentato con
la somma T = A + iB con A e B che preservano, e quindi iB che inverte, il carattere reale o immaginario del
vettore su cui operano:
T z = (A + iB)(x + iy) = (Ax − By) + i(Bx + Ay).
In particolare l’operatore di moltiplicazione per un numero complesso µ = α + iβ ∈ C risulta avere A = α1In e
B = β1I n .
Ne segue che in base reale la matrice del coniugato di un qualunque operatore complesso è la complessa coniugata
della matrice dell’operatore, e che il trasformato C-lineare di un vettore reale è reale ed il trasformato C-lineare
di un vettore immaginario puro è immaginario puro se e solo se T è reale e cioè tale che T = T , o anche: B = 0 .
Si ottiene in particolare un operatore reale partendo da un operatore R-lineare T : Vn → Vm , e che quindi
certo lascia invariato il carattere reale dei vettori, e definendo il suo complessificato C T : C Vn → C Vm come
quell’operatore C-lineare che ne produce gli stessi effetti su C Vn . Esso pertanto sarà senz’altro un operatore avente
parte immaginaria nulla, e cioè tale che C T (z) = Ax + iAy (somma, questa, di due vettori in C Rn ). Esso
mantiene separate le parti reale ed immaginaria di z ∈ C Vn , ed agisce allo stesso modo su entrambe, trasformando
come fa T i vettori reali in vettori reali e gli immaginari puri in immaginari puri.
Si vuole ora estendere il procedimento di decomplessificazione di C che si è visto all’inizio del paragrafo.
Cosı̀ come in dim = 1 alla moltiplicazione per un numero complesso z ∈ C si fa corrispondere un operatore
lineare reale R z ∈ L(R2 ), qui ad un operatore complesso T ∈ L(Cn ) e rappresentato in L(Cn ) da una matrice
complessa n × n, si vuole far corrispondere un operatore reale R T ∈ L(V2n ) a sua volta rappresentato da una
matrice reale in L(R2n ).
Innanzi tutto occorre decomplessificare C Vn e cioè considerare vettori 2n-dimensionali nello spazio reale RC Vn
M) * a R ) in*luogo n-dimensionali z = x + iy . A tale scopo, in RC Rn si sceglie la base
2n
isomorfo ) dei
* vettori
) complessi
*Z
e1 en 0n 0n
,..., , ,..., , mediante la quale il vettore z = x + i y ∈ C Rn viene rappresentato con
0n 0n e1 e)n * ) *
ℜe z x
il vettore (reale) 2n-dimensionale ≡ . Ne segue che anche in RC Vn la somma è l’ordinaria somma
ℑm z y
per componenti, mentre il modulo |z| è la norma euclidea standard.
In secondo luogo, a partire da un operatore complesso T : C Rn → C Rm qualsiasi si definisce, analogamente alla
(8.29),
Decomplessificato di T := l’operatore lineare reale R T : RC Vn → RC Vm che è definito nello spazio vettoriale
L(V2n ), e che (rispetto alla detta base in RC Vn ) verifica la
) * ) * ) *
R R
ℜe z ℜe (T z) Ax − By
T z ≡ (A + iB) := ≡ ; (8.33)
ℑm z ℑm (T z) Ay + Bx
di conseguenza, ad esso la base detta assegna la matrice (2n × 2n)
) *
R
A −B
T = R (A + iB) =: .
B A
M. Lo Schiavo
A.8. Richiami di Analisi Complessa 477
Come deve, esso ha per colonne i trasformati dei versori di base. In particolare, il decomplessificato
) dell’opera-
*
α1I n −β1In
tore di moltiplicazione per un numero complesso µ = α+iβ ∈ C risulta avere l’espressione µ =
R
.
β1I n +α1In
) *
0 −1In
Ad esempio si ha R i = .
1I n +0
Osservazione importante.
Se C Vn ha la “stessa” base (reale) C {e1 , . . . , en;} ereditata< da quella {e1 , . . . , en } di Vn , la matrice T del com-
plessificato C T è la stessa matrice che la base e1 , . . . , en assegna a T , visto che C T ej = T ej + i0 vettore reale
in C Vn .
) *
T 0
Di conseguenza, nello spazio V la matrice di T è:
RC n RC
, ancora essendo T la {e} -matrice di T ,
0 T
e ciò mostra esplicitamente che il complessificato di un operatore reale, che si caratterizza fra gli altri operatori
C-lineari per essere tale che C T = C T , è anche caratterizzato dal fatto che C T (Vn ) ⊂ Vn ; oppure, dal fatto che
RC
T lascia separatamente invarianti i due sottospazi di RC Vn nei quali assumono valori le parti reali e le parti
immaginarie dei vettori di C Vn .
Appare ormai evidente che C T , ristretto a Vn , ha lo stesso effetto di T .
Sia T : V → V un operatore R-lineare reale; con le ormai usuali scelte delle basi, si hanno i seguenti risultati
(generalmente non veri per un qualsiasi operatore complesso T )
(i) Se µ è un autovalore di T , nel senso che µ è una radice dell’equazione Det (T − λ1I ) = 0 , allora µ
è anche autovalore di C T e viceversa.
C
Infatti le due matrici nelle due basi {e1 , . . . , en } ed {e1 , . . . , en } sono le stesse.
Si supponga allora che l’operatore reale T ammetta una coppia di autovalori complessi coniugati: µ, µ̄ ∈ C, e che
pertanto sia
C
T ϵµ = µϵµ =: (α + iβ)(xµ − iyµ ) (8.34)
ove si sono chiamati µ =: α + iβ ∈ C, ed xµ , yµ ∈ C V definiti dalla
(
xµ := ℜe ϵµ := (ϵµ + ϵ̄µ )/2
ϵµ =: xµ − iyµ e cioè
yµ := −ℑm ϵµ := i(ϵµ − ϵ̄µ )/2
e si noti il segno meno nella definizione di yµ ;
(iv) Se l’autovalore µ è non puramente reale allora l’autovettore ϵµ ∈ C V è non puramente reale.
Infatti: se lo fosse, nella (8.34) si avrebbe il primo membro reale mentre il secondo membro avrebbe parte
immaginaria non nulla.
(v) Se l’autovettore ϵµ è non puramente reale allora l’autovalore µ (se semplice o di molteplicità dispari) è non
puramente reale.
Infatti: se fosse µ = µ̄ dal punto (ii) segue che µ dovrebbe avere due autovettori reali indipendenti xµ ed
yµ per uno stesso autovalore µ, e ciò è assurdo se µ è semplice o di molteplicità dispari.
(vi) Se µ è non puramente reale allora xµ ed yµ sono reali e C-linearmente indipendenti, e quindi a fortiori
R-linearmente indipendenti.
Infatti: dalla definizione segue subito che xµ ed yµ sono reali. Poi, se fosse xµ = λyµ sarebbe ϵµ =
xµ − iyµ =: zxµ con z non reale né nullo, ed xµ reale. Ne segue, per la C T zxµ = µzxµ che l’operatore C T
avrebbe un autovettore reale per l’autovalore complesso µ . In particolare, se µ è non puramente reale
non può nemmeno avvenire che ϵµ = −ϵ̄µ , e cioè xµ = 0 .
(vii) Se xµ ed yµ sono C-linearmente indipendenti, e quindi non nulli, senz’altro si ha che ϵµ è non puramente
reale.
Dalle precedenti considerazioni segue subito che se un operatore reale ammette qualche autovalore complesso, e
quindi anche il suo corrispondente complesso coniugato, per studiarne gli autovettori sarà necessario considerarne
il complessificato C T agente nello spazio complessificato C Vn in quanto è solo quest’ultimo, e non l’operatore reale,
che ammette autovettori in corrispondenza agli autovalori complessi.
È opportuno ricordare ancora una volta che la scelta della “stessa” base reale sia per Rn che per C Rn assegna
la stessa matrice T ad entrambi i due operatori T e C T , ed in particolare essa sarà reale essendolo la base di
(entrambi) gli spazi. Pertanto entrambi gli operatori hanno gli stessi autovalori soluzioni della equazione secolare:
Det(T − λ1I ) = 0 .
Quando tutti gli autovalori dell’operatore T , e quindi anche di C T , siano distinti, dei quali: λ1 , . . . , λν reali, e
µ1 , µ̄1 , . . . , µτ , µ̄τ complessi, con ν + 2τ = n, allora sussiste la
Proposizione 1.8.8 È possibile esprimere Vn come somma diretta di Vν ⊕ ℜe (C V2τ ), e l’operatore reale T
come somma diretta di operatori reali T = T(ν) ⊕ T(τ ) , ove si è posto T(ν) : Vν → Vν , e T(τ ) : ℜe (C V2τ ) →
ℜe (C V2τ ). Esistono inoltre τ sottospazi: C V2(h) , h = 1, . . . , τ , tali che C V2τ = ⊕τh=1 C V2(h) , e τ operatori
reali Tµh : V2(h) → V2(h) , h = 1, . . . , τ , tali che T(τ ) = Tµ1 ⊕ Tµ2 ⊕ . . . ⊕ Tµτ , e che lasciano separatamente
invarianti le τ parti reali V2(h) dei C V2(h) . #
Dimostrazione Dopo essere passati a considerare C T : C Vn → C Vn si nota che i suoi autovettori: ϵµh ,
h = 1, . . . , 2τ , sono tutti distinti. Inoltre, il C- span{ϵµ1 , ϵ̄µ1 , .., ϵµτ , ϵ̄µτ } cosı̀ come il C- span{ϵλ1 , . . . , ϵλν }
sono sottospazi C T − invarianti di C Vn chiusi rispetto alla coniugazione complessa. Anzi ciascuno dei piani
C
V2(h) := C- span {ϵµh , ϵ̄µh }h=1,...,τ e ciascuno degli assi C- span {ϵλh }h=1,...,ν ha questa proprietà. Inoltre,
per loro definizione, essi sono dei complessificati di altrettanti piani ed assi reali.
Per ciascun µ = µh , h = 1, . . . , τ , il C- span {ϵµ , ϵ̄µ } è anche il C- span {xµ , yµ } , ove con xµ , yµ si sono indicati
la parte reale e l’opposto di quella immaginaria del vettore ϵµ :
1 i
xµ := (ϵµ + ϵ̄µ ), yµ := (ϵµ − ϵ̄µ ),
2 2
e questi sono entrambi reali. Esso è pertanto la complessificazione K del piano reale R- span{xµ , yµ } e la sua
parte reale è proprio il piano reale R- span {xµ , yµ } infatti: se v, v̄ ∈ C - span{xµ , yµ } , e se v̄ = v allora deve essere
L
Kµ , e la realtà di xµ , yµ implica quella di a, b . Ma lo spazio ℜe (C- span{ϵµ , ϵ̄µ }) è da solo invariante
axµ + byµ = axµ + by
C
L a T
rispetto infatti: come si è detto il complessificato di un operatore reale preserva il carattere reale od immaginario dei
K L
vettori , e perciò è anche invariante rispetto a T infatti: C T ristretto a tale piano agisce come T .
In altre parole: ciascun vettore z del piano C- span{ϵµ , ϵ̄µ } invece che essere decomposto lungo i due assi
complessi C- span{ϵµ } e C- span{ϵ̄µ } , ciascuno con la propria parte reale e parte immaginaria, può essere più
opportunamente separato nella somma dei due vettori, rispettivamente formati dalle sue parti reale ed immaginaria,
la prima in R- span {xµ , yµ }, e la seconda in i R- span {xµ , yµ } . In {e}-componenti:
Siccome T è reale e quindi C T non muta il carattere ℜe od ℑm dei vettori sui quali opera, i due piani (reale
e puramente immaginario) R- span {xµ , yµ } ed i R- span {xµ , yµ } risultano separatamente invarianti rispetto
a CT (pur non essendo C-sottospazi di C Vn ma solo R-sottospazi di RC Vn ), e quindi i due vettori ℜe z ed
ℑm z vengono trasformati da C T in due vettori, rispettivamente il primo in R- span {xµ , yµ } , ed il secondo in
i R- span {xµ , yµ } :
ℜe (C T z) = T ℜe z ed ℑm (C T z) = T ℑm z
M. Lo Schiavo
A.8. Richiami di Analisi Complessa 479
C
T |R−span {xµ ,yµ } = T |R−span {xµ ,yµ } =: Tµ .
"
Si noti che gli operatori Tµ , cosı̀ come lo stesso T , hanno come autovalori µ, µ̄ solo nel senso che
C
( T |R−span{xµ ,yµ } ) = C T |C−span {xµ ,yµ } ha matrice T nella base C {e1 , .., en },
e naturalmente non hanno autovettori nel piano R- span {xµ , yµ } il quale contiene solo la parte reale di certe loro
combinazioni lineari.
Tuttavia, giacché xµ ed yµ sono reali, sussistono le:
⎧
⎪ 1
⎨ Tµ xµ = C Tµ xµ = C T (ϵµ + ϵ̄µ ) = +ℜe (µϵµ ) = +αxµ + βyµ
2
⎩ Tµ yµ = C Tµ yµ = i C T (ϵµ − ϵ̄µ ) = −ℑm (µϵµ ) = −βxµ + αyµ .
⎪
2
⎛ ⎞
λ1
⎜ .. ⎟
⎜ . ⎟
⎜ ⎟
⎜ λν ⎟
⎜ ⎟
⎜ α1 −β1 ⎟
⎜ ⎟
⎜ β1 α1 ⎟
T& := ⎜ ⎟
⎜ α2 −β2 ⎟
⎜ ⎟
⎜ β2 α2 ⎟
⎜ ⎟
⎜ .. ⎟
⎜ . ⎟
⎝ ⎠
..
.
; <
trasformata, secondo la T& = P& −1 T P& , della matrice T che in base ei rappresenta T (ed in ba-
i=1,...,n
; <
se C {ei }i=1,...,n l’operatore C T ). La P& ha per colonne le componenti in base ei degli autovettori
; < ; < i=1,...,n
ϵλi corrispondenti agli autovalori reali λi e delle coppie di vettori (ℜe ϵµ , −ℑm ϵµ ), una per ogni
i=1,...,ν ; < i=1,...,ν
coppia di autovalori complessi coniugati µi , µ̄i e sempre che tutti gli autovalori siano distinti: ν + 2τ = n.
i=1,...,τ
La matrice P& è non singolare per quanto detto nei punti (i), . . ., (vii).
A partire da questa espressione per la matrice di T risulta agevole calcolare quella di eT nella stessa base; per
quanto visto, essa sarà eT̃ data da:
⎛ λ1 ⎞
e
⎜ .. ⎟
⎜ . ⎟
⎜ ⎟
⎜ e λν ⎟
⎜ ⎟
⎜ α1 α1
e cos β1 −e sin β1 ⎟
⎜ ⎟
⎜ α1
e sin β1 α1
e cos β1 ⎟
⎜ ⎟
⎜ α2 α2
e cos β2 −e sin β2 ⎟
⎜ ⎟
⎜ α2
e sin β2 α2
e cos β2 ⎟
⎜ ⎟
⎜ .. ⎟
⎜ . ⎟
⎝ ⎠
..
.
La precedente espressione per eT e quindi per eT t risolve, direttamente nello spazio reale Vn , il problema
differenziale ẋ = T x, x0 ∈ V, quando T abbia autovalori (reali o complessi) tutti distinti. Infatti, data
l’invarianza degli assi e dei piani detti sia rispetto all’operatore T che al suo esponenziale, l’espressione qui sopra
˙
assegna in Rn matrice eT̃ t all’evolutore di ξ& = T& ξ&, e quindi di ẋ = T x pur di agire con ξ& = P& −1 x.
Nota 1.8.9 Alternativamente, il problema (reale) avrebbe anche potuto essere affrontato risolvendo esplicitamente
il corrispondente problema complessificato e poi calcolando (aposteriori) la parte reale della soluzione di quello.
Ciò è lecito perché (come d’altra parte ci si aspetta data la discussione nella precedente Proposizione) per un
campo lineare complessificato di uno reale, l’evoluzione (complessa) di condizioni iniziali reali rimane reale. Per
convincersi di queste affermazioni, si consideri un generico operatore C-lineare T : Cn → Cn , con C ∈ L(Cn ) la
matrice che gli corrisponde in una fissata base in Cn , e si esamini l’equazione ż = C z con z ∈ Cn e condizioni
iniziali z(0) = z0 . È questa che si deve innanzi tutto risolvere e sulla quale poi verificare il fatto che: quando T
è il complessificato di un operatore reale allora condizioni iniziali reali evolvono in un moto reale.
D’altra parte la risoluzione di un’equazione complessa può essere ottenuta in due modi: o direttamente nel
mondo complesso, oppure facendo ricorso al decomplessificato.
C∞ k k
(• ) Primo modo: si estende agli operatori complessi la definizione di esponenziale di operatore : eT t := k=0 T k!t
il che permette la risoluzione in Cn dell’equazione data. Essa si otterrà diagonalizzando in Cn l’operatore T (cosa
sempre possibile se i suoi autovalori sono distinti) e sfruttando il fatto che tale base rende diagonale anche la matrice
di eT t , per cui le evolute delle coordinate proprie ζ := P −1 z hanno la forma ζ h (t) = eµh t ζ0h , h = 1, . . . , n.
Per risolvere il problema reale si nota poi che quando l’operatore complesso T è il complessificato C T di un
operatore reale T l’equazione complessa ż = C T z ha come coniugata la z̄˙ = C T z̄ = C T z̄ e cioè che è invariante
per coniugio.
Ne segue che condizioni iniziali fra loro complesse coniugate danno luogo a soluzioni fra loro complesse coniugate,
e che la soluzione del problema reale è la parte reale della soluzione, uscente da dati iniziali reali, del problema
complessificato.
N.B. 1.8.10 Ciò non è vero nei casi in cui il campo è tale che v(t, z̄) ̸= v(t, z), e quindi si ritrova che perfino nel
caso più semplice, e cioè: v(z) = µz con µ, z ∈ C il problema non disaccoppia le parti reale ed immaginaria se la
costante µ non è puramente reale. ♦
d d
(• ) Secondo modo: la definizione di decomplessificato e la linearità di implicano che al vettore complesso dt z
) d * dt
ℜe z
corrisponda in R Cn il vettore ddt .
dt ℑm z * )
ℜe φ
Ne segue che la soluzione dell’equazione ż = Cz è φ : t &→ z(t) ∈ C n
se e solo se: : t &→
ℑm φ
ζ(t) ∈ R Cn è soluzione di ζ̇ = R Cζ , e cioè di un sistema reale di due equazioni (n-dimensionali) accoppiate:
) * ) *) *
ẋ A −B x
= , (8.35)
ẏ B A y
) *
x0
con condizioni iniziali ζ(0) = ζ0 = .
y0
Il sistema (8.35) ha evoluzione nota, e data da
0 1
R
Ct t A −B
ζ(t) = e ζ0 = e B A ζ0 .
M. Lo Schiavo
A.9. Disuguaglianza generalizzata di Gronwall 481
) *
ẋ
Ne segue innanzi tutto, ed in particolare, che l’equazione ż = µz , con z ∈ C equivale alla =
) *) * ẏ
α −β x
con x, y ∈ R1 , e quindi ha soluzione z(t) = eµt z0 , in quanto questa corrisponde a
β α y
) * ) *) *
x(t) cos βt − sin βt x0
= eαt .
y(t) sin βt cos βt y0
In secondo luogo, quando l’operatore T sia il complessificato di un operatore reale T : Rn → Rn , e quindi sia:
C
T (x + iy) = Ax + iAy , allora l’equazione ż = C T z con z ∈ Cn sussiste se e solo se per il vettore (x, y) ∈ V2n
sussiste l’equazione (
) * ) *
ẋ RC
x ẋ = A x
= T , ovvero, in coordinate :
ẏ y ẏ = A y .
Le soluzioni di quest’ultimo sono naturalmente
) * RC
) * ) At *) *
x x0 e 0 x0
= e At = . (8.36)
y y0 0 eAt y0
Pertanto, dato che questo sistema è disaccoppiato, risulta evidente che la soluzione della ż = C T z con condizioni
iniziali reali è reale. Ciò che si è fatto nella discussione che precede questa nota è stato, in definitiva, il limitarsi
allo studio delle sole prime n componenti del vettore (8.36).
Si noti che per entrambi i metodi è essenziale il fatto che l’equazione sia lineare. ◃
.t
Dimostrazione Si ponga R(t) := a β(s)φ(s)ds.
Si ha Ṙ(t) = β(t)φ(t) ≤ β(t)α(t) + β(t)R(t), o anche
Ṙ − βR ≤ βα. (9.38)
7 .s 8
Usando exp − a β(s)ds come fattore integrante si ricava
+ ) - s * , ) - s *
d
exp − β(s)ds R(s) ≤ exp − β(s)ds β(s)α(s).
ds a a
Integrando si ottiene - t) - t *
R(t) ≤ exp β(τ )dτ β(s)α(s)ds.
a s
In particolare quest’ultima, con α = cost, prende il nome di Disuguaglianza di Gronwall. Nel caso in cui
φ, β siano entrambe continue non negative, ed α = cost, quest’ultimo risultato si ottiene in modo più semplice (si
veda il § I.3) "
M. Lo Schiavo
Bibliografia
La bibliografia esistente sull’argomento è, ovviamente, enorme. Sono qui citati solo alcuni dei titoli che, sia come
spirito sia come diffusione alla “Sapienza”, sono più vicini e noti agli studenti della Sapienza. Occorre tenere
presente che alcuni dei testi qui citati sono semplici, altri molto meno. Prima di avventurarsi in una loro lettura,
soprattutto se dettagliata, conviene chiedere consigli e suggerimenti in merito.
[1] Andronov - Leontovic - Gordon - Mayer Qualitative Theory of second order Dynamical Systems J. Wiley
1969
[2] T.M. Apostol Calcolo Boringheri 1977
[3] V.I. Arnold Equazioni Differenziali Ordinarie Mir 1979
[4] V.I. Arnold Lectures on partial Differential Equations Springer 2000
[5] D.K. Arrowsmith - C.M. Place Ordinary Differential Equations Chapman 1982
[6] N.H. Asmar Partial Differential Equations with Fourier series and Boundary Value Problems Prentice Hall
2005
[7] M. Barnsley Fractals Everywhere Academic Press, San Diego 1988
[8] C.M. Bender - S. Orszag Advanced Mathematical Methods for Scientists and Engineers McGraw hill 1978
[9] W.E. Boyce - R.C. Di Prima Elementary Differential Equations and Boundary Value Problems J. Wiley
2001
[10] M. Braun Differential Equations and their Applications Springer 1975
[11] I. Gasparini Cattaneo Strutture Algebriche ed Operatori Lineari Veschi 1978
[12] I. Gasparini Cattaneo Complementi di Geometria ed Algebra Veschi 1989
[13] L. Cesari Asymptotic Behaviour and Stability Problems in ODE Academic Press 1965
[14] E.A. Coddington - N. Levison Theory of Ordinary Differential Equations McGraw Hill 1955
[15] J.D. Cole Perturbation Methods in Applied Mathematics Blaisdell 1968
[16] P. Collet - J.P. Eckmann Iterated Maps on the Interval as Dynamical Systems Progr. on Phys., 1 ,
Birkhäuser 1980
nd
[17] R. Devaney An Introduction to Chaotic Dynamical System. ed. Addison Wesley 1988
[18] W. Eckhaus Asymptotic Analysis of Singular Perturbations North Holland 1979
[19] M. Eisenberg Topology Holt 1974
[20] F.R. Gantmacher The Theory of Matrices Chelsea 1977
[21] A. Ghizzetti - F. Rosati Lezioni di Analisi Matematica Veschi 1972
[22] J. Guckenheimer - P. Holmes Nonlinear Oscillations, Dynamical Systems, and Bifurcation of Vector Fields
Springer, AMS 42 1983
[23] R. Haberman Mathematical Models: Mechanical Vibrations, Population Dynamics, and Traffic Flow Prentice
Hall 1977
[24] J. Hale Ordinary Differential Equations J. Wiley 1969
[25] C. Hayashi Nonlinear Oscillations in Physical Systems McGraw hill 1964
[26] J. Hale - H. Kocac Dynamics and Bifurcations Springer 1997
483
484 BIBLIOGRAFIA
M. Lo Schiavo
Indice analitico
485
486 INDICE ANALITICO
Complemento Diagonalizzabilità
ortogonale, 410 di forme , 84
Complessificato Diffeomorfismo, 2, 439
di un operatore reale, 476 Dimensione
di uno spazio reale, 475 della varietà, 435
Completare Dinamica caotica, 253, 281, 287
uno spazio, 386 Dinamica grafica, 232
Completezza Dinamica Simbolica, 248
dello spazio degli operatori, 469 Dipendenza continua, 189
Componenti Dipendenza sensibile dal dato, 248
covarianti , 413 Direzione di espansività, 248
Condizione Disuguaglianza
di Schwartz, 36 di Bessel, 408
Condizioni di Schwarz, 383
di Lipschitz, 19 generalizzata di Gronwall, 481
Connessione Divario
lineare semplice, 36 fra due insiemi, 191
Continuità rispetto ai dati, 189 Divisori
Contrazione, 22 elementari semplici, 461
Convergenza Dominio, 5
debole, 388
in L1 , 398 Endomorfismo, 230
in L2 , 398 Endomorfismo del toro, 231
in metrica, 384 Energia, 173
in misura, 398 Epsilon-rete, 392
in norma, 384, 470 Equazione
puntuale, 390 Van der Pol, 331
quasi ovunque, 398 aggiunta, 416
totale, 54 del pianeta, 180
uniforme, 384, 398 di Bernoulli, 40
Coordinata, 434 di Bessel, 62, 68
Coordinate di Clairaut, 31
adattate al flusso, 164 di Duffing, 179, 359, 370
equivalenti, 437 di Duffing
naturali, 444 debolmente forzata, 375
normali, 86 forzata, 373
Criterio di Eulero, 216
di Cauchy, 384 di Hermite, 60
Curva di Hill, 140
basata in x, 437 di Lienard, 224
integrale, 3 di Lighthill, 324, 333, 350
Curva di fase, 3 di Mathieu, 140
Curve di ordine n, 124
di inseguimento, 41 di Riccati, 40
tangenti, 437 di Schrödinger, 59
di Van Der Pol, 210, 223
Decomplessificato di Van der Pol, 188
di T , 476 di Volterra Lotka, 224
Decomplessificazione, 472 ipergeometrica di Gauss, 72
Derivata, 439 lineare
Derivata scalare, 39
direzionale, 161 linearizzata, 75
Derivata di Schwartz, 240 logistica, 30
Derivato, 380 Secolare, 459
Determinante Variazionale, 26, 303
di Hill, 144 Equazione di Duffing, 289
Determining Equazione di Eulero, 290
Equation, 330 Equazione di Van Der Pol, 205
Diagonalizzabilità, 459 Equazione differenziale associata, 157
M. Lo Schiavo
INDICE ANALITICO 487
Equazioni Γ, 69
di Hamilton, 82 analitica, 55
differenziali Bijettiva, 387
esatte, 33 Continua, 387
omogenee, 32 d’ordine, 306
Equicontinuità, 394 definita positiva, 211
Equivalenza di gauge , 306
fra metriche, 390 di Liapunov, 213
metrica fra spazi, 391 Hamiltoniana, 82
topologica, 151 Iniettiva, 387
topologica fra metriche, 390 invertibile, 387
topologica fra spazi, 390 Ipergeometrica di Gauss, 72
Ergodico, 256 liscia, 402
Espansività, 258 liscia a tratti, 420
Esponente omogenea di grado p ∈ R, 211
di Liapunov, 139 scarto, 303
indiciale, 63 semicontinua superiormente, 394
Esponente di Liapunov, 254, 278, 287 Suriettiva, 387
Esponenti Funzione dispari, 400
caratteristici, 138 Funzione pari, 400
Esponenti di Liapunov, 288 Funzione quasi periodica, 268
Esponenziale Funzione unimodale, 236
di operatore, 480 Funzione universale di Feigenbaum, 240
di un numero complesso, 474 Funzioni
di un operatore, 96 di Bessel, 69
Fuoco, 109
Famiglia
equicontinua, 394 Gatto di Arnold, 257, 284
locale Generatore, 257
di applicazioni, 4 Generatore
uniformemente limitata, 394 di un gruppo, 94
Fattore Generazione del caos, 300
di Controllo, 315 Genericità, 204
integrante, 38, 166 Genuinamente lineare, 197
Fibrato Gradiente, 161
tangente, 442 Grafico
Flip-bifurcation, 276 di un operatore, 426
Flussi Grahm-Schmidt, 396
coniugati, 203 Gruppo, 382
Flusso Gruppo
di fase, 2 di evolutori, 2
Fold-bifurcation, 271 locale, 2
Forma
bilineare, 451 Identità
Esatta, 34 di Lagrange, 417
Hermitiana, 451 Immagine
quadratica, 452 del moto, 3
quadratica di un operatore, 445
definita positiva, 453 Indice
Forme quadratiche positivo d’inerzia, 455
non degeneri, 202 Indice
Forte negativo d’inerzia, 455
stabilità, 143 Insieme
Frontiera, 380 ω -limite, 169
Funzionale affatto denso, 381
lineare continuo, 410 aperto, 204
Funzionali, 388 attrattivo, 170
Funzione, 387 compatto, 391
Funzione compatto numerabile, 391
M. Lo Schiavo
INDICE ANALITICO 489
di equilibrio, 4 Regione
Preda - predatore, 91 di accessibilità, 428
Principio esterna, 346
del Paragone Asintotico, 347 interna, 346
Problema Regola di Lighthill, 333
alle variazioni, 76 Retta
di Sturm-Liouville, 419 complessa, 471
Esterno, 343 Ricoprimento
esterno, 346 aperto, 391
Interno, 343 Riduzione
interno, 346 di ordine, 42
variazionale, 76 Risonanza
Procedimento parametrica, 145
di Grahm-Schmidt, 396 Rotazione del toro, 231, 257
Processo Rotazione irrazionale del toro, 259
deterministico, 1
differenziabile, 1 Segmento
stazionario, 2 trasverso, 168
Prodotto Segnatura, 455
interno, 383 Sella
scalare, 383 standard, 104, 183
scalare definito da un operatore, 455 Sella (k), 184
Proiezioni Semiorbite, 190
stereografiche, 436 Separatrice, 177
Prolungabilità, 18 Separazione
Pulsazioni di variabili, 27
proprie, 86, 208 Serie
Punti di diramazione, 270 Asintotica, 307
Punti eteroclini, 254 di Frobenius, 63
Punti omoclini, 254 di Neumann, 429
Punto Sezione stroboscopica, 263
ω -limite, 169 Sezioni trasverse, 291
di aderenza, 379 Sfera, 380
di contatto, 379 Shift di Markov, 248
di equilibrio regolare, 181 Sistema, 1
interno, 379 Sistema
Iperbolico, 78 dinamico
isolato di un insieme, 380 locale, 4
limite di una successione, 380 perturbato, 303
ordinario, 58 aggiunto, 130
Punto critico, per una mappa, 229 centrato, 391
Punto di accumulazione, 380 conservativo, 163
Punto di biforcazione, 260, 270 deterministico, 1
Punto di biforcazione a forchetta, 272 di Volterra - Lotka, 91
Punto di biforcazione alla Hopf, 274 dinamico, 4
Punto di gomito, 271 fondamentale, 95, 126
Punto di raddoppio di periodo, 276 genuinamente lineare, 197
Punto fisso, per una mappa, 229 hamiltoniano, 79
Punto iperbolico, per una mappa, 229 Lagrangiano, 79
Punto non erratico, 256 locale di coordinate, 434
Punto omoclino, 289 meccanico, 1
Punto periodico, per una mappa, 229 meccanico conservativo, 79
Punto regolare, 270 ortogonale, 396
Punto ricorrente, 256 reciproco, 142
Punto singolare regolare, 58 Sistema caotico, 253
Sistema di Markov, 248
Quasi Sistema espansivo, 258
ovunque, 397 Sistema minimale, 255
Quasi-periodico, 141 Sistema topologicamente transitivo, 256
M. Lo Schiavo
INDICE ANALITICO 491
Uguaglianza
di Parseval, 408
Variabili
esterne, 345
interne, 346
Varietà
M. Lo Schiavo
Indice analitico
493
494 INDICE ANALITICO
Complemento Diagonalizzabilità
ortogonale, 410 di forme , 84
Complessificato Diffeomorfismo, 2, 439
di un operatore reale, 476 Dimensione
di uno spazio reale, 475 della varietà, 435
Completare Dinamica caotica, 253, 281, 287
uno spazio, 386 Dinamica grafica, 232
Completezza Dinamica Simbolica, 248
dello spazio degli operatori, 469 Dipendenza continua, 189
Componenti Dipendenza sensibile dal dato, 248
covarianti , 413 Direzione di espansività, 248
Condizione Disuguaglianza
di Schwartz, 36 di Bessel, 408
Condizioni di Schwarz, 383
di Lipschitz, 19 generalizzata di Gronwall, 481
Connessione Divario
lineare semplice, 36 fra due insiemi, 191
Continuità rispetto ai dati, 189 Divisori
Contrazione, 22 elementari semplici, 461
Convergenza Dominio, 5
debole, 388
in L1 , 398 Endomorfismo, 230
in L2 , 398 Endomorfismo del toro, 231
in metrica, 384 Energia, 173
in misura, 398 Epsilon-rete, 392
in norma, 384, 470 Equazione
puntuale, 390 Van der Pol, 331
quasi ovunque, 398 aggiunta, 416
totale, 54 del pianeta, 180
uniforme, 384, 398 di Bernoulli, 40
Coordinata, 434 di Bessel, 62, 68
Coordinate di Clairaut, 31
adattate al flusso, 164 di Duffing, 179, 359, 370
equivalenti, 437 di Duffing
naturali, 444 debolmente forzata, 375
normali, 86 forzata, 373
Criterio di Eulero, 216
di Cauchy, 384 di Hermite, 60
Curva di Hill, 140
basata in x, 437 di Lienard, 224
integrale, 3 di Lighthill, 324, 333, 350
Curva di fase, 3 di Mathieu, 140
Curve di ordine n, 124
di inseguimento, 41 di Riccati, 40
tangenti, 437 di Schrödinger, 59
di Van Der Pol, 210, 223
Decomplessificato di Van der Pol, 188
di T , 476 di Volterra Lotka, 224
Decomplessificazione, 472 ipergeometrica di Gauss, 72
Derivata, 439 lineare
Derivata scalare, 39
direzionale, 161 linearizzata, 75
Derivata di Schwartz, 240 logistica, 30
Derivato, 380 Secolare, 459
Determinante Variazionale, 26, 303
di Hill, 144 Equazione di Duffing, 289
Determining Equazione di Eulero, 290
Equation, 330 Equazione di Van Der Pol, 205
Diagonalizzabilità, 459 Equazione differenziale associata, 157
M. Lo Schiavo
INDICE ANALITICO 495
Equazioni Γ, 69
di Hamilton, 82 analitica, 55
differenziali Bijettiva, 387
esatte, 33 Continua, 387
omogenee, 32 d’ordine, 306
Equicontinuità, 394 definita positiva, 211
Equivalenza di gauge , 306
fra metriche, 390 di Liapunov, 213
metrica fra spazi, 391 Hamiltoniana, 82
topologica, 151 Iniettiva, 387
topologica fra metriche, 390 invertibile, 387
topologica fra spazi, 390 Ipergeometrica di Gauss, 72
Ergodico, 256 liscia, 402
Espansività, 258 liscia a tratti, 420
Esponente omogenea di grado p ∈ R, 211
di Liapunov, 139 scarto, 303
indiciale, 63 semicontinua superiormente, 394
Esponente di Liapunov, 254, 278, 287 Suriettiva, 387
Esponenti Funzione dispari, 400
caratteristici, 138 Funzione pari, 400
Esponenti di Liapunov, 288 Funzione quasi periodica, 268
Esponenziale Funzione unimodale, 236
di operatore, 480 Funzione universale di Feigenbaum, 240
di un numero complesso, 474 Funzioni
di un operatore, 96 di Bessel, 69
Fuoco, 109
Famiglia
equicontinua, 394 Gatto di Arnold, 257, 284
locale Generatore, 257
di applicazioni, 4 Generatore
uniformemente limitata, 394 di un gruppo, 94
Fattore Generazione del caos, 300
di Controllo, 315 Genericità, 204
integrante, 38, 166 Genuinamente lineare, 197
Fibrato Gradiente, 161
tangente, 442 Grafico
Flip-bifurcation, 276 di un operatore, 426
Flussi Grahm-Schmidt, 396
coniugati, 203 Gruppo, 382
Flusso Gruppo
di fase, 2 di evolutori, 2
Fold-bifurcation, 271 locale, 2
Forma
bilineare, 451 Identità
Esatta, 34 di Lagrange, 417
Hermitiana, 451 Immagine
quadratica, 452 del moto, 3
quadratica di un operatore, 445
definita positiva, 453 Indice
Forme quadratiche positivo d’inerzia, 455
non degeneri, 202 Indice
Forte negativo d’inerzia, 455
stabilità, 143 Insieme
Frontiera, 380 ω -limite, 169
Funzionale affatto denso, 381
lineare continuo, 410 aperto, 204
Funzionali, 388 attrattivo, 170
Funzione, 387 compatto, 391
Funzione compatto numerabile, 391
M. Lo Schiavo
INDICE ANALITICO 497
di equilibrio, 4 Regione
Preda - predatore, 91 di accessibilità, 428
Principio esterna, 346
del Paragone Asintotico, 347 interna, 346
Problema Regola di Lighthill, 333
alle variazioni, 76 Retta
di Sturm-Liouville, 419 complessa, 471
Esterno, 343 Ricoprimento
esterno, 346 aperto, 391
Interno, 343 Riduzione
interno, 346 di ordine, 42
variazionale, 76 Risonanza
Procedimento parametrica, 145
di Grahm-Schmidt, 396 Rotazione del toro, 231, 257
Processo Rotazione irrazionale del toro, 259
deterministico, 1
differenziabile, 1 Segmento
stazionario, 2 trasverso, 168
Prodotto Segnatura, 455
interno, 383 Sella
scalare, 383 standard, 104, 183
scalare definito da un operatore, 455 Sella (k), 184
Proiezioni Semiorbite, 190
stereografiche, 436 Separatrice, 177
Prolungabilità, 18 Separazione
Pulsazioni di variabili, 27
proprie, 86, 208 Serie
Punti di diramazione, 270 Asintotica, 307
Punti eteroclini, 254 di Frobenius, 63
Punti omoclini, 254 di Neumann, 429
Punto Sezione stroboscopica, 263
ω -limite, 169 Sezioni trasverse, 291
di aderenza, 379 Sfera, 380
di contatto, 379 Shift di Markov, 248
di equilibrio regolare, 181 Sistema, 1
interno, 379 Sistema
Iperbolico, 78 dinamico
isolato di un insieme, 380 locale, 4
limite di una successione, 380 perturbato, 303
ordinario, 58 aggiunto, 130
Punto critico, per una mappa, 229 centrato, 391
Punto di accumulazione, 380 conservativo, 163
Punto di biforcazione, 260, 270 deterministico, 1
Punto di biforcazione a forchetta, 272 di Volterra - Lotka, 91
Punto di biforcazione alla Hopf, 274 dinamico, 4
Punto di gomito, 271 fondamentale, 95, 126
Punto di raddoppio di periodo, 276 genuinamente lineare, 197
Punto fisso, per una mappa, 229 hamiltoniano, 79
Punto iperbolico, per una mappa, 229 Lagrangiano, 79
Punto non erratico, 256 locale di coordinate, 434
Punto omoclino, 289 meccanico, 1
Punto periodico, per una mappa, 229 meccanico conservativo, 79
Punto regolare, 270 ortogonale, 396
Punto ricorrente, 256 reciproco, 142
Punto singolare regolare, 58 Sistema caotico, 253
Sistema di Markov, 248
Quasi Sistema espansivo, 258
ovunque, 397 Sistema minimale, 255
Quasi-periodico, 141 Sistema topologicamente transitivo, 256
M. Lo Schiavo
INDICE ANALITICO 499
Uguaglianza
di Parseval, 408
Variabili
esterne, 345
interne, 346
Varietà
M. Lo Schiavo