Beruflich Dokumente
Kultur Dokumente
Sig. Bruni
Parte I
D'Aprile
1
Capitolo 1
2
δ(f (E)) + d(f (x0 ), g(x0 )) + δ(g(E)) ⇒ d(f (x), g(x)) ≤ δ(f (E)) + d(f (x0 ), g(x0 )) + δ(g(E)) ⇒
supx∈E d(f (x), g(x)) ≤ δ(f (E)) + d(f (x0 ), g(x0 )) + δ(g(E)) < +∞ Il fatto che sia simmetrica e
positiva deriva dal fatto che dY (f (x), g(x)) sia simmetrica e positiva.
d(f, g) = 0 ⇔ sup d(f (x), g(x)) = 0 ⇔ ∀x ∈ EdY (f (x), g(x)) = 0 ⇔ ∀x ∈ Ef (x) = g(x) ⇔ f = g
Anche la disuguaglianza triangolare è facile da dimostrare. ##
TEOREMA Se Y è completo, allora B(E, Y ) è completo.
Dimostrazione. Notiamo che {fn }n ⊂ B(E, Y ) di Cauchy. Infatti, ssato ε > 0∃ν ∈ N t.c.
∀n, m ≥ νd(fn , fm ) < ε.x ∈ E∀n, m ≥ νd(fn (x), fm (x)) ≤ d(fn .fm ) < ε. Quindi ogni {fn (x)} ⊂ Y
è di Cauchy in Y. Vediamo se è convergente. Sia f (x) = limn→+∞ fn (x) e siano n ≥ ν e
x ∈ E.∀m ≥ νd(fn (x), f (x)) ≤ d(fn (x), fm (x)) + d(fm (x), f (x)) ≤ ε + d(fm (x), f (x)). Per m →
+∞d(fn (x), f (x)) ≤ ε, ma f è limitata: ∀x, y ∈ Ed(f (x), f (y)) ≤ d(f (x), fν (x)) + d(fν (x), fν (y)) +
d(f (y), fν (y)) ≤ 2ε + δ(fν (E)) < +∞. Ovvero,
∀n ≥ ν d(fn , f ) ≤ ε
##
Def 6. (X,d) (Y,d) spazi metrici. f : X → Y, x0 ∈ X . f continua in x0 ⇔ ∀ε > 0∃δ > 0 t.c.
∀x ∈ X con d(x0 , x) < δ, d(f (x), f (x0 )) < ε. f continua se è continua in ogni punto.
C(X, Y ) = {f : X → Y | f continua}
Cb (X, Y ) = {f : X → Y | f continua e limitata} ⊂ B(X, Y )
Prop. (X,d) (Y,d) spazi metrici. {fn }n ⊂ B(X, Y )f ∈ (X, Y )fn → f ∀nfn continua in x0 .
Allora f è continua in x0 .
Dimostrazione. ∃ε > 0 ssato. ∃ν ∈ N t.c. ∀n ≥ νd(fn , f ) ≤ ε.Ma fν è continua, quin-
di ∃δ > 0 t.c. ∀x ∈ Xd(x0 , x) < δd(fν (x), fν (x0 )) > ε∀x ∈ Xd(x0 , x) < δ d(f (x), f (x0 )) ≤
d(f (x), fν (x)) + d(fν (x), fν (x0 )) + d(fν (x0 ), f (x0 )) ≤ 3ε, ovvero f continua in x0 ##
| {z } | {z } | {z }
<d(fν ,f ) <ε <d(fν ,f )
3
Teorema: Si tratta del teorema precedente detto in modo diverso: dati X,Y spazi metrici,
fn : X → Y continua. Se fn → f unif., allora f è continua.
Dimostrazione. ∀ε > 0∃ν ∈ N t.c. ∀n ≥ νPsupE |fn (x)−f (x)| < ε.fν è integrabile in E. Esiste quindi
Π = {E1 , . . . , Ek } partizione di E t.c. k
i=1 (supx∈Ei fν (x) − inf x∈Ei fν (x))m(Ei ) < ε. ∀x, y ∈
Ei |f (x) − f (y)| ≤ |f (x) − fν (x)| + |fν (x) − fν (y)| + |fν (y) − f (y)| ≤ 2ε +
| {z } | {z } | {z }
<ε =supx∈Ei fν (x)−inf x∈Ei fν (x)per il lemma tecnico! <ε
Pk
supx∈Ei fν (x) − inf x∈Ei fν (x) ⇒ supEi f − inf Ei f ≤ 2ε + supEi fν − inf Ei fν ⇒ i=1 (supEi f −
inf Ei f )m(Ei ) ≤ 2ε ki=1 (supEi fν − inf Ei fν )m(Ei ) ≤ 2εm(E) + ε. Quindi f è integrabile. Ma
P
quanto vale l'integrale??? Si dimostra facilmente:
Z Z Z Z
fn dx − f dx = (fn − f )dx ≤ fn − f dx ≤
E E E E
Z
dx (che è la misura di E) = supE fn − f m(E) → 0 perchè fn → f unif)
≤ supE fn − f
E
##
Corollario: fn : [a, b] → R continua, fn → f unif. Allora f è continua e
Z b Z b
fn dx → f dx
a a
.
Da questo primo teorema ne deriva (ahahah...) subito un secondo:
TEROEMA DI PASSAGGIO AL LIMITE SOTTO SEGNO DI DERIVATA:
fn ∈ C 1 ([a, b]) t.c. :
(1) fn0 converge uniformemente a g ;
(2) ∃x0 ∈ [a, b] in cui {fn (x0 )}n converge.
Allora si ha:
(a) fn converge uniformemente a f ;
(b) f ∈ C 1 ([a, b]) e f 0 = g .
4
Rx
Dimostrazione. l = limn fn (x0 ) ∈ R.∀x ∈ [a, b]f (x) = l + x0 g(t)dt. ∀x ∈ [a, b]fn (x) = fn (x0 ) +
x0 fn (t)dt per il T.F.C. ∀x ∈ [a, b] |fn (x) − f (x)| = |fn (x0 ) − l + x0 (fn (t) − g(t))dt ≤ |fn (x0 ) −
Rx Rx 0
l| + a |fn0 (t) − g(t)|dt quindi supx∈[a,b] |fn (x) − f (x)| ≤ |fn (x0 ) − l| + a |fn0 (t) − g(t)|dt → 0, quindi
Rb Rb
OSS: Esistono delle successioni di funzioni ∈ C 1 ([a, b]) che convergono unif. ad una funzione
continua NON C 1 ([a, b]). Queste successioni sono del tipo:
fn : [−1, 1] → R
p
fn (x) = x2 + 1/n fn ∈ C 1 ([a, b])
Questa successione converge puntualmente
√
a |x| ∈/ C 1 ([a, b]) e converge anche unif. come è facile
dimostrare (basta porre il sup < 1/ x).
Def 10. (X, ||...||) spazio normato. X si dice spazio di Banach se è completo.
q
Facile vedere che ||x|| = sumni=1 x2i è una norma in Rn . Quindi, poichè già sappiamo che Rn
è completo, esso è anche di Banach.
Def 11. E insieme, Y sp. normato. B(E, Y ) è uno spazio vettoriale. Inoltre è normato con norma
||f ||∞ = supx∈E |f (x)|. La sua distanza è d(f, g) = ||f − g||∞ = supx∈E |f (x) − g(x)| ed è chiamata
distanza uniforme.
Prop: E insieme, Y di Banach. Allora B(E, Y ) è di Banach. Se invece X sp. metrico e Y di
Banach, allora Cb (X, Y ) è di Banach. In particolare, B(E) e Cb (X) sono di Banach.
Prop: C 1 ([a, b]) è di Banach con la norma ||f ||1 = ||f ||∞ + ||f 0 ||∞
5
Dimostrazione. {fn }n ⊂ C 1 ([a, b]) di Cauchy, quindi ∀ε > 0∃ν t.c. ∀n, m ≥ ν||fn − fm ||1 < ε.
Infatti ||fn − fm ||∞ ≤ ||fn − fm ||1 < ε ⇒ ||fn0 − fm0 ||∞ ≤ ||fn − fm ||1 < ε. Quindi abbiamo che {fn }n
e {fn0 }n sono di Cauchy in (C 1 ([a, b]), ||...||∞ ). Ma sappiamo che questo spazio è completo, quindi
esistono f, g ∈ C 1 ([a, b]) t.c. fn → f unif. e fn0 → g unif. Per il teorema di passaggio al limite sotto
segno di derivata, f ∈ C 1 ([a, b]) e f 0 = g . Quindi ||fn − f ||1 = ||fn − f ||∞ + ||fn0 − g||∞ → 0 ovvero
fn converge uniformemente. ##
Ovviamente si può iterare il procedimento per gli spazi C k .
t.c.:
(1) ∀x ∈ X < x, x >≥ 0 e < x, x >= 0 ⇔ x = 0;
(2) ∀x, y ∈ X < x, y >=< y, x >;
(3) ∀x, y, z ∈ X < x + y, z >=< x, z > + < y, z >;
(4) ∀x, y ∈ X∀λ ∈ R < λx, y >= λ < x, y >.
Lo spazio (X, < ·, · >) si chiama spazio PREHILBERTIANO.
Prop:
√
Sia (X, < ·, · >) uno spazio prehilbertiano. Allora X è uno spazio normato con la norma
||x|| = < x, x >. Inoltre è vera la disuguaglianza di Cauchy-Swartz: ∀x, y ∈ X | < x, y > | ≤
||x|| · ||y||
Def 13. Dato uno spazio prehilbertiano (X, < ·, · >), X si chiama spazio di Hilbert se è di
Banach.
X ⇔ ∀x, n=0 fn (x) è convergente. Ovvero ⇔ ∀x ∈ X{sn (x)}n è convergente, dove sn (x) è la
+∞
6
Prop: → f unif =⇒ → f punt.
P+∞ P+∞
n=0 fn (x) n=0 fn (x)
Def 16.PDiremo che le +∞ n=0 fn (x) convergono totalmente ⇔ n=0 ||fn (x)||∞ è convergente.
P P+∞
(ovvero n=0 ||fn (x)||∞ = supX |f (x)|) Notiamo che questa è una serie numerica, in quanto le
+∞
Prop: X insieme. +∞ n=0 fn (x) successioni limitate. Se la serie converge totalmente allora
P
converge uniformemente.
∀x ∈ X|fn (x) ≤ ||fn (x)||∞ (perPdenizione). Ma poichè +∞ n=0 ||fn (x)||∞ converge,
P
Dimostrazione.
allora n=0 |fn (x)| converge per confronto ⇒ +∞ converge (per il criterio di convergenza
P+∞
n=0 fn (x)
n
assoluta). Pongo f (x) = n=0 fn (x) e stimo il supX |sn − f | = supX | k=0 fk (x) −
P+∞ P+∞ X
fk (x)| =
|k=0 {z }
sn
→ 0 per n → +∞ ⇒ f
P+∞ P+∞ P+∞
supX | k=n+1 fk (x)| ≤ supx k=n+1 |fk (x)| ≤ supX k=n+1 ||fk (x)||∞
converge uniformemente. ##
ATTENZIONE: l'approssimazione si ottiene con la seconda parte del teorema di Leibniz!!!!!!!!!!!!
√ √
• Criterio della radice: se lim supn→+∞ n an < 1 la serie converge. Se lim supn→+∞ n an > 1 la
√
serie diverge. Se lim supn→+∞ n an = 1 non concludo niente.
• Criterio rapporto: se lim supn→+∞ an+1a < 1 la serie converge. Se lim supn→+∞ an+1
an > 1 la
an+1 an n
serie diverge. Se lim supn→+∞ = 1 non concludo niente.
• Criterio del confronto:
P an , bn ≥ 0. P Sia an ≤ bn ∀n. Allora se bn converge ⇒ an
P P
converge. Se invece an diverge ⇒ bn diverge.
Confronto asintotico:
• P P se an ∼ bn (ovvero an /bn → 1 o più in generale ad un numero) allora
an converge ⇔ bn converge.
7
serie con termini positivi e negativi
• Convergenza assoluta: se |an | converge ⇒ an converge. (criterio buono anche per le serie
P P
a termini positivi)
• Se la serie è
della forma (−1)n an (ovvero a segni ALTERNANTI) utilizziamo il criterio di
P
an ≤ 0
Leibniz: se an decrescente allora (−1)n an converge. Inoltre si ha un'importante
P
an →P0 per n → +∞
conseguenza: |s − nk=0 ak | ≤ an+1
limn nk=0 a fk dx e per n → +∞ la somma parziale converge (perchè sono numeri (l'integrale è
P Rb
Dimostrazione. Sia Sn la somma parziale ∈ C 1 ([a, b]).Sn0 = f00 + · · · + fn0 → g unif (per l'ipotesi (1)).
Inoltre Sn (x0 ) = f0 (x0 ) + · · · + fn (x0 ) converge per (2). Allora per il teorema di passaggioPal limite
sotto segno di derivata, Sn coverge unif. a f e f ∈ C 1 ([a, b]). Inoltre f 0 = g . Ma allora fn → f
unif. e passando al limite per n → +∞ ottengo le tesi. ##
8
Dimostrazione. (1)
x nSia x t.c. |x| < |x̄|, an x → 0. Sia xM
n n n
= supn≥b |an x | < +∞.∀x, |an x | =
≤ M x̄ . La serie che ha come termine M x̄ converge (è una geometrica di ragione
n
|an xn | x̄x
<1), quindi la serie di potenze converge.
(2) Sia x t.c. |x| > |x̄|. Se per assurdo an xn convergesse, per la prima parte an xn
P P
convergerebbe assolutamente, contro l'ipotesi. ##
TEOREMA DI CONVERGENZA PER LE SERIE DI POTENZE: (1) Se r = 0 al-
lora A={0};
(2) Se 0 < r < +∞ allora (−r, r) ⊆ A ⊆ [−r, r] inoltre la an xn converge assolutamente in (−r, r)
P
e totalmente in ogni compatto, ovvero ogni
P intervallo del tipo [−k, k](0 < k < r).
(3) Se r = +∞ allora A = R. Inoltre an x converge assolutamente in R e totalmente in ogni
n
intervallo limitato.
Dimostrazione. (1) r = 0. Per x 6= 0, prendo x̄ t.c. 0 < x̄ < |x|. Allora x̄ ∈/ A (altrimenti il sup
sarebbe x̄). Allora la seconda parte del lemma ci dice che non converge neanche in x.
(3) r = +∞x 6= 0, allora ∃x̄ ∈ A t.c. x̄ > |x|. an xn converge ⇒ an xn converge assoluta-
P P
mente per il punto (1) del lemma. Prendiamo ora k > 0, per trovare la convergenza totale in [−k, k]
ragioniamo similmente alla seconda parte del punto (2). ##
Abbiamo trovato quindi un utilissimo teorema per la convergenza delle serie di funzioni. Ri-
amne però un problema: possiamo applicare il teorema solo dopo che sappiamo r, ma come facciamo
a calcolarlo??? Ci viene in aiuto il
Poniamo, per semplicare lapscrittura, l = lim p sup n |an |. Abbiamo tre casi: (1)
p
Dimostrazione.
l = 0 ⇒ r = +∞. Infatti ∀x 6= 0 lim sup |an x | = lim sup |an | · |x| ⇒ (lim sup |an |)|x| =
p
n n n n
(2) 0 < l < +∞∀x 6= 0 lim sup n |an xn | = l · |x|. Se l · · · |x| < 1 allora la serie converge
p
⇒ |x| < 1/l. Se invece |x| > 1/l la serie non converge assolutamente, quindi per il teorema prece-
dente concludiamo che r = 1/l.
9
Si noti che per il teorema abbiamo usato sempre il criterio della radice per controllare la con-
vergenza. Potevamo anche usare il criterio del rapporto (che si sa è praticamente uguale a quello
della radice). In questo modo si può formulare il teorema in questo modo:
La dimostrazione è analoga.
Da tutti questi risultati sappiamo quindi che, presa f : (−r, r) → R dove f (x) = +∞ n
P
n=0 an x , f
è continua in [−k, k](k < r) perchè le potenze sono funzioni R continue,Pe si può quindi integrare.
Chiamiamo allora serie integrale la serie denita come: 0x f (t)dt = +∞ an n+1
n=0 n+1 x , ovvero è la
serie che si ottiene integrando termine a termine la serie di potenze. DImostriamo ora che la serie
integrale converge no ad r, che è lo stesso r della serie di partenza:
+∞ ∞
X an n+1 X an−1 n
x = x
n+1 n
n=0 n=1
quindi il r h
r
an−1 1 i n−1
n n 1 n−1 n 1
lim sup = lim sup an−1 =
n n r
In questa dimostrazione abbiamo un pò barato, perchè abbiamo usato un risultato che in realtà
non vale per i limsup ma solo per i lim, ovvero il fatto che il prodotto dei limiti è uguale al limite
del prodotto. Possiamo però sistemare le cose con questa regola: se bn ≥ 0, cn ≥ 0e bn → b, allora
lim sup bn cn = b · lim sup cn .
Queste serie integrali sono utilissime: infatti ci permettono di calcolare ad esempio le serie
numeriche, o di calcolare esattamenteP valori n+1di numeri irrazionali!!! Per esempio, sappiamo che
(−1)n xn = 1+x 1
⇒ log (1 + x) = (−1)n xn+1 quindi per calcolare il valore del logaritmo basta
P
sostituire x con l'opportuno valore che cerco!!!
Oltre che a calcolare i logaritmi le serie integrali
Pci permettono di trovare anche primitiveP
non elemen-
tari: prendiamo ad esempio la serie di prima: (−1)n xn+1 = log (1 + x) ⇒ log (1+x) .
n+1 xn
x = (−1)n n+1
Questa serie converge ed è continuaRin 0, anche se laPfunzione an sx NON è denita in quel punto!!!!
Inoltre, se integriamo, abbiamo che 01 log (1+x)
x dx = +∞n=0 (n+1)2 . Ma quindi ho trovato la primitiva
(−1)
della funzione a sx, che altrimenti non sarei stato capace di integrare!!!!
TEOREMA: Sia n,
r > 0 e sia f : P
(−r, r) → R la funzione f (x) = +∞ n=0 an x .
P+∞ P n
n=0 an x
Allora f ∈ C ∞ (−r, r) e inoltre si ha che f (k) (x) = n=k n(n − 1) · · · (n − k + 1)an xn−k (quindi
+∞
f (k) (0)
f (k) (0) = k!ak ⇒ ak = k! ).
10
Prendiamo +∞ + 1)an+1 xn e r0 il raggio di convergenza di
n−1 =
P P+∞
Dimostrazione. n=1 nan x n=0 (n
questa serie. Vediamo che r = r: sappiamo che
0
h 1 i n+1
1/r0 = lim sup
n+1 n
p
n
p
(n + 1)|an+1 | = lim sup n (n + 1) · |an+1 | = 1/r
(poichè applichiamo la regola detta precedentemente e tutto tende a 1, tranne |an+1 | che tende a
1/r). Quindi abbiamo visto che r0 = r!! Controlliamo ora il resto: preso [−k, k](k < r) e cerchiamo
di ottenere il teorema di derivazione termine a termine: queste sono tutte potenze (quindi C ∞ ), la
serie derivata converge totalmente in [−k, k] in ogni suo punto, quindiPci sono tutte le ipotesi per
poterlo applicare. Otteniamo quindi che f ∈ C ([−k, k]) e che f (x) = +∞
1 0
n=1 nan x
n−1 ∀x ∈ (−r, r).
Comunque questo controesempio non implica che nessuna funzione possa essere espressa come
serie di potenze: infatti se una funzione si può esprimere come serie, ovvero
+∞ (n)
X f (x0 )
f (x) = (x − x0 )n ∀x ∈ (x0 − r, x0 + r)
n!
n=0
si dice che la serie è sviluppabile in serie di Taylor in x0 . Ma allora ci serve una condizione
almeno sucente per controllare se una funzione si può scrivere come serie di Taylor, ed infatti
eccola qui:
11
(−1)k 2k+1
Dallo schema vediamo che il seno è sviluppabile, e si ha sin x = , quindi facendo
P
(2k+1)! x
(−1)k
un passo in avanti scopro che sinx x = (2k+1)! x2k ∀x 6= 0. In 0 questa serie vale 1, quindi (abusando
P
un pò della notazione) posso scrivere che lo sviluppo vale ∀x ∈ R (estendo per continuità), e
(−1)k
quindi sinx x ∈ C ∞ !!!! Inoltre posso anche calcolare l'integrale: 01 sinx x dx = +∞
k=0 (2k+1)! · (2k+1) che
1
R P
oltretutto è una serie di Leibnitz, per cui posso calcolare persino lo scarto!!!
Posso fare questo stesso lavoro anche per e−x : sostituendo opportunamente nello sviluppo di ex
2
n
otteniamo che e−x = 2k ∀x ∈ R e in questo modo posso anche integrarlo tra 0 e 1 (cosa
2 P (−1)
n! R x
(−1)n
che prima non potevo fare): 0 e dx = +∞
1 −x2
n=0 n!(2n+1) .
P
(−1)k cos x
n = 2k
• cos x. Anche lui è C ∞ perchè, come il seno D cos x =
n e in questo
(−1)k+1 sin x n = 2k + 1
caso
X (−1)k
cos x = x2k ∀x ∈ R
(2k)!
Preso α ∈ R∗ si dice serie binomiale la serie +∞ n=0 n x , posto per convenzione 0 = 1 e per
α n α
P
n ≥ 1 αn = α(α−1)···(α−n+1) .
n!
In queste serie il raggio di convergenza è sempre 1, in quanto otteniamo dal criterio del rapporto
|( α ) |
che lim |n+1
(α)| n+1 = 1.
= lim |(α−n)|
n
OSS 2: In realtà noi non sappiamo se la serie binomiale esiste, ma se esiste certamente lo
sviluppo è quello, in quanto Dn (1 + x)α |0 = α(α − 1) · · · (α − n + 1). Dimostriamo che è sviluppa-
bile:
sia φ(x) = +∞n=0 n x ∀x ∈ (−1, 1), risulta che (1 + x)φ (x) = αφ(x), quindi ho che (1 + x)φ (x) =
α n 0 0
P
12
xn noto che l'ultimo termine se parte da 0
P∞ α α α
nn−1 = xn−1 +
P P
(1 + x) n=1 n n n=1 n n n=1 n n
non cambia nulla,Pquindi ridenendolo
n in Pquesto modo ePtraslando il primo termine
perchè parta
da 0 ottengo che n=0 (n + 1) n+1 α
x + n=0 n αn xn = n=0 [(n + 1) n+1 α
+ n αn ]xn e studiando
OSS 3: Se α ∈ R \ N la serie diventa a segno alterno. Infatti sia n0 il più piccolo intero t.c.
n0 ≥ 1 + α. Da n0 in poi la serie è a segno alterno: α···(α−n0 +1)
n0 ! > 0, α···(α−n0 +1)(α−n0 )
(n0 +1)! < 0,
α···(α−n0 +1)(α−n0 )(α−n0 −1)
(n0 +2)! > 0 e così via.
Prima di fare altre osservazioni diamo un lemma e un criterio di convergenza: Lemma: Siano
a, b ∈ R con a < b. Allora ∃δ > 0 t.c. ∀x ∈ [0, δ] si ha (1 + x)a ≤ 1 + bx.
Caso
1. Prendiamo 1 < l0 < l00 < l. Per permanenza del segno ∃ν ∈ N t.c. ∀n ≥
l >
> ln + 1. Applichiamo il lemma e otteniamo che ∃δ > 0 t.c.
00
an
ν n an+1 − 1 > l00 = an+1
an
OSS 4: Se α > 0 allora | è convergente, il che implica che la serie converge anche in -1 e in
α
P
| n
1, dunque c'è convergenza uniforme in [-1, 1] per Abel, ovvero (1+x)α = +∞ α n
∀x ∈ [−1, 1].
P
n=0 n x
|α|
(n)
Per dimostrare la convergenza usiamo Raabe: limn→+∞ n |( α )| − 1 =
n+1
limn→+∞ n |α(α−1)···(α−n+1)| (n+1)!
|α(α−1)···(α−n)| n! − 1 = limn→+∞ n 1
|α−n| (n + 1) − 1 ma per n grande |α − n| =
n−α, sostituendo questa osservazione abbiamo che limn→+∞ n n+1
n−α −1 = limn→+∞ n n+1+α−n
n−α =
1 + α > 1 per α > 0, che era l'ipotesi.
Questa osservazione ci permette di sviluppare le radici e di poter approssimare gli integrali radicali,
13
inoltre vale questa proposizione:
De: Si chiama polinomio trigonometrico di grado n una funzione del tipo a20 + nk=1 ak cos(kx)+
P
bk sin(kx) con ak , bk ∈ R.
Oss: Il polinomio trigonometrico è continuo in R (in quanto c.l. di funzioni continue) e 2π -
periodico.
14
La serie di questi coecenti è
+∞
a0 X 2π 2π
+ an cos( nx) + bn sin( nx)
2 T T
n=1
Oss: Le funzioni {1, cos(nx), sin(nx) n ≥ 1} sono tra loro ortogonali, ovvero −π cos(nx)dx =
Rπ
0 se n 6= m 0 se n 6= m
e inne −π sin(nx) sin(mx)dx = . Dimostriamo una di queste relazioni:
Rπ
π se n = m π se n = m
Rπ R π einx −e−inx eimx −e−imx R π i(n+m)x −ei(n−m)x −ei(m−n)x +e−i(n−m)x
−π sin(nx) sin(mx)dx = −π ( 2i 2i dx = −π e −4 =
sin(m+n)x sin(n−m) π
n 6= m ⇒ 1/2[ n+m − n−m ]−π = 0
. Analogamente gli al-
R π 2 cos(n+m)x−2 cos(m−n)x
dx =
−π −4
m = n ⇒ −1/2[ sin(m+n)x
n+m − x]π−π = π
tri.
2 a20 Pn
Per la (2) so che −π
π a Rπ
|f (x)|2 dx−π( 20 + (a2k +b2k )) ≥ 0 ⇒ |f (x)|2 dx ≥ π( 2 2
R P
−π 2 + k=1 (ak +bk )
facendo tendere n → +∞ e dividendo per π ho la tesi. ##
Oss: Su queste ipotesi la disuguaglianza è proprio un'uguaglianza.
q Ma questo allora ci dice che
se n → +∞ −π |f − sn | dx → 0, ovvero sn → f rispetto ||F || = |F |2 dx!!!
Rπ 2
Rπ
−π
15
Oss: Perf : R → R T-periodica (T 6= 2π ) sempre limitata e integrabile su [0, T ] la disug-
2
uaglianza di Bessel diventa: a20 + nk=1 (a2k + b2k ) ≤ T2 0T |f (x)|2 dx.
P R
Oss: Se f è continua a tratti allora è limitata e integrabile in [a, b]. Stessa cosa per f 0 se f è
regolare a tratti.
Dimostrazione. (1) si dimostra per induzione: per n = 0 si ha 1/2 = 1/2. Supponiamola vera per
n − 1, dimostriamo per n. Abbiamo 1/2 + cos(x) + · · · + cos(n − 1)x + cos(nx) = sin2[(n−1/2)x] sin(x/2) +
cos(nx) = sin(nx) cos(x/2)−sin(x/2) cos(nx)+2 sin(x/2) cos(nx)
2 sin(nx) = sin(nx) cos(x/2)+sin(x/2) cos(nx)
2 sin(x/2) = 2 sin(x/2) .
sin[(x+1/2)x]
sono tutte funzioni 2 − π periodiche posso traslare l'integrale, che quindi diventa π1 −π
Rπ
f (u +
2 sin(u/2) du (il secondo pezzo viene da (1) ).
x) sin[(n+1/2)u] ##
Teorema: Sia f : R → R funzione 2 − π periodica e regolare a tratti. Allora la serie di Fourier
di f converge puntualmente ad f nei punti di continuità, mentre nei punti di discontinuità converge
+ (x− )
a f (x )+f
2 .
Notiamo innanzitutto che π1 0π sin[(n+1/2)t]
2 sin(t/2) dt = π −π 2 sin(t/2) dtin quanto il seno
1 0 sin[(n+1/2)t]
R R
Dimostrazione.
è una funzione dispari. Ma questo ci porta a dire che π1 0π (1/2+ cos(kt)dt = π1 (π/2+ [ sin(kt) π
R P P
k ]0 ) =
1/2.
+ (x− )
Prendiamo ora x ∈ R e stimiamo Sn (x) − f (x )+f 2 usando Dirichlet. Abbiamo che Sn (x) −
f (x+ )+f (x− )
2 sin(t/2) dt ora
1 π ∈[(n+1/2)t] 1 π
R0
= π −π f (x + t) 2 sin(t/2) dt − π 0 f (x ) 2 sin(t/2) dt − π1 −π f (x− ) sin[(n+1/2)t
+ sin[(n+1/2)t]
R R
2
sostituiamo il 1/2 della semisomma con l'integrale calcolato prima e otteniamo che π1 −π
R0
[f (x +
t) − f (x )] 2 sin(t/2) dt + π 0 [f (t + x) − f (x )] 2 sin(t/2) dt = π −π G(x, t) sin[(n + 1/2)t]dt dove
− sin[(n+1/2)t] 1 π + sin[(n+1/2)t] 1 π
R R
16
f (x+t)−f (x+ )
2 sin(t/2)
0<t≤π
G(x, t) = f (x+t)−f (x− )
− π ≤ t < 0 . Mostriamo che G(x, t) ha un numero nito di discontiunità
2 sin(t/2)
0 t=0
e che è limitata. Un punto di discontinuità sarà sicuramente in 0, gli altri saranno in corrispondenza
dei punti ξi = x + t. Nei punti ξk − x non ci sono problemi di limitatezza, in quanto f (x + t) era
limitata quindi sarà lo stesso per G(x, t). Controlliamo lo 0: sia 0 < t < 1/2 t.x. f sia derivabile
in [x − t, x + t] tranne al più in x. Allora f (t + x) sarà derivabile in [−t, t] con il dubbio dello
f (x + s) − f (x+ ) 0 < s ≤ t
0. Deniamo allora h : [0, t] → R tale che h(s) = . Questa nuova
0 s=0
funzione è derivabile in (0, t] ed è contina in tutto [0, t]., possiamo quindi usare il teroema di Cauchy:
h(t) − h(0) h0 (s) |f 0 (x+s)|
h(t)
2 sin(t/2) = = cos(s/2) = | cos(s/2)| ≤ M (in quanto per ipotesi f era regolare a
2 sin(t/2) − sin(0)
| {z }
G(x,t)
tratti, ovvero con derivata limitata). Quindi G(x, t) in un intorno dx di 0 è limitata. Facendo lo
stesso lavoro per un intorno sx di 0 ho la tesi del teorema. ##
NOTA: Se f è continua in x allora f (x+ )−f (x− )
2 = f (x), ovvero posso riformulare il teorema
f (x+ )+f (x− )
dicendo che nelle stesse ipotesi la serie di Fourier è uguale a 2 ∀x ∈ R.
coecenti di f 0 ).
Denendo G(x) = f (x) sin(nx) e ragionando in modo analogo troviamo che b0n = an . Ma quindi
unendo le due cose otteniamo che |an cos(nx) + bn sin(nx)| ≤ |an | + |bn | ⇒ supx∈R |an cos(nx) +
0
bn sin(nx)| ≤ |an | + |bn |. Pongo |an | = n1 |nan | = |bnn | ≤ 1/2( n12 + |b0n |2 ). Ma n12 converge, come
|b0n |2 (per Bessel), quindi anche |an | deve convergere!!! Facendo un ragionamento analogo per i bn
otteniamo che la serie dei moduli converge, ovvero abbiamo la convergenza totale. ##
Prendiamo ora la funzione f ∗ = x in [−π, π] e la estendiamo ripetendola. f ∗ è regolare a
tratti, e i suoi coecenti di Fourier sono bn = − n2 (−1)n , (gli an non ci sono in quanto è una
17
n+1
funzione dispari). Abbiamo quindi che f ∗ = 2 (−1)n sin(nx) e a questa serie applico il teorema
P
di convergenza. In π nessun problema, la semisomma è 0, come il valore della serie in quel punto.
Posso dare allora la seguente prop:
Prop: Sia 0 < p < π. Allora la serie di Fourier di f ∗ converge unif. in [−p, p] e in tutti i suoi
traslati per periodicità.
k+1
Sia x ∈ [−p, p] e m > n. Allora Sm (x) − Sn (x) = 2 m (−1)
sin(kx).
P
Dimostrazione. k=n+1 k
P (−1)k+1
Moltiplichiamo cos(x/2) e otteniamo che (Sm (x) − Sn (x)) cos(x/2) = 2 k sin(kx) cos(x/2)
e uso prostaferesi: 2 sin(kx) cos(x/2) = sin((k − 1/2)x) + sin((k + 1/2)x), quindi la somma diventa
P (−1)k+1 (−1)k+1 P (−1)k+1 (−1)h+2
sin((k+1/2)x)+ m−1
P
k sin((k+1/2)x)+ sin((k − 1/2)x) = k h=n h+1 sin((h+
| k {z }
k=h+1
Pm−1 (−1)k+1 −1k (−1)n (−1)m+1
1/2)x) = k=n+1 ( + ) sin((k + 1/2)x) + n+1 sin((m + 1/2)x) + m sin((m +
| k {z k + 1 }
(−1)k+1 ( k1 − k+1
1
P
)
1/2)x). Da quiPosserviamo il modulo, poichè cos(x/2) in [−π, π] è ≥ 0 abbiamo che: |Sm −
Sn | cos(x/2) ≤ ( k1 − k+1
1 1
)+ m 1
+ n+1 = n+11
− m 1 1
+ m 1
+ n+1 2
= n+1 . Ovvero ∀x ∈ [−p.p]
e ∀m > n abbiamo che |Sm − Sn | ≤ (n+1) cos(x/2) . Ma per m = +∞ questa dierenza diventa
2
−−−−−→ 0.
2 2 2 n→+∞
|f (x) − Sn | ≤ ≤ (n+1) cos(p/2)
(n+1) cos(x/2) ⇒ supx∈[−p,p] |f (x) − Sn (x)| ≤ (n+1) cos(p/2)
Ho convergenza uniforme in [−p, p]!!! ##
Ma come possiamo generalizzare questo risultato??? Innanzitutto osserviamo Rla funzione
f ∗ (x − λ). Vediamo che non è più simmetrica, quindi potrebbe ∃a00 6= 0, invece a00 = π1 λ−π f ∗ (x −
λ+π
1 π ∗ 1 π ∗ 1 π ∗
R R R
π −π f (x) cos(n(x + λ))dx = ( π −π f (x) cos(nx)dx) cos(nλ) − ( π −π f (x) sin(nx)dx) sin(nλ)
n+1
ma an = 0 per f ∗ (che è il primo termine), dunque questo termine è −2 (−1)n sin(nλ). Analoga-
n+1
mente b0n = 2 (−1)n cos(nλ).
n (−1)n+1 P (−1)n+1
Abbiamo ottenuto che f ∗ (x+λ) = 2 (−1)
P
n sin(nλ) cos(nx)+ n cos(nλ) sin(nx) = 2 n sin(n(x−
λ)). Per 0 < p < π il supλ−p≤x≤λ+p |f (x − λ) − Sn (x)| = −p≤x≤p |f (x) − Sn (x)| → 0 in altre
∗ 0 ∗
P
parole anche la traslata converge in [−p, p]!!! Possiamo quindi dare questo importante teorema:
somma di funzioni regolari a tratti) e continua, tranne forse nei punti ξi . Ma si vede facilmente che
f (x + π − ξi ) = f (ξi+ ) − δ2i e limx→ξ− f (x) + 2π
δi ∗
limx→ξ+ f (x) + 2π f (x + π − ξi ) = f (ξi− ) + δ2i che
δi ∗
i i
sono uguali (basta ricordarsi di come è denito δi ). Quindi P δiabbiamo che la serie di Fourier di F
converge unif. (in quanto continua), ma f (x) = F (x) − i 2π f (x + π − ξi ), quindi anche la serie
∗
di Fourier di f converge uniformemente in quanto sia ogni f ∗ converge unif (in quanto in [a, b] non
cade nessun ξi ) sia F (x) converge unif. ##
18
TEOREMA: Sia f : R → R funzione 2 − π periodica ed esista s ∈ N t.c. f ∈ C s−1 (R). Allora
an = b(n) = o( n1s )
19
Parte II
Cannarsa
20
Capitolo 2
Topologia analitica
2.1 Prime denizioni e teoremi
Def 18. Si dice DIAMETRO di un insieme il supE {d(x, y)|x, y ∈ E}
Prop: (X,d) spazio metrico. XT completo ⇔ ∀{Cn } famiglia di chiusi t.c. Cn ⊃ C Tn+1 6 =
∅diamCn → 0 per n → +∞ ho che C
n n contiene un solo elemento (ovvero ∃x̄ ∈ X t.c. ∞
n=1 =
{x̄}).
⇐= Sia {xn } ⊂ X di Cauchy. Scegliamo la successione di chiusi così denita: C1 = {xn |n¯ ≥ 1} C2 =
{xn |n¯ ≥ 2} . . . Ck = {xn |n¯ ≥ k}. Questa è successione di chiusi t.c. Ck ⊃ Ck+1 . Vediamo che
diamCn → 0. Sfruttiamo il fatto che {xn } è di Cauchy: ssato ε > 0∃kε : m, n ≥ kε ⇒
|xn − xm | < ε ⇒ diamCk ≤ ε ∀k ≥ kε diamCk → 0 (qui sfruttiamo il fatto che diamE = diamĒ ).
quindi so che d(x̄, xn ) ≤ diamCn → 0 ⇒ d(x̄, xn ) → 0 ⇒ xn → x̄. ##
T
Ck = {x̄}
Def 19. (X, d) spazi metrici. K ⊂ X si dice compatto per successioni se ∀{xn } ⊂ K∃{xkn }
successione estratta t.c. xkn → x̄ ∈ K(n → ∞)
OSS: K compatto p. succ. ⇒ K chiuso e limitato. In Rn (e solo qui) vale anche il viceversa!!!!
21
√
quadrato. Divido poi il quadrato in n parti uguali di lato l/n. Il diametro è l/n 2 per n abbastan-
za grande posso ridurmi col diametro < ε. In più ho ricoperto k con un numero nito di sottoinsiemi.
(b)⇒(c) Per assurdo non sia compatto. Sia F = {Fi }i∈I ricoprimento apertodi X da cui
non sia possibile estrarre un sottoricoprimento nito. Ma X è totalmente limitato, quindi preso
ε = 1∃C11 , C21 , . . . , Cn1 sfere chiuse di raggio ≤ 1/2 che ricoprono X. Sia X1 = Ck11 t.c. non si
ricopre con nessuna sottofamiglia nita di F . Ho che diamX1 = 1, ricopro X1 con sfere di rag-
gio ≤ 1/4.X1 = C12 ∪ ... ∪ Cn2 diamCk2 ≤ 1/2. Continuando a ricoprire con sfere gli insiemi che
non ammettono sottoricoprimento nito, ottengo X ⊃ X1 ⊃ · · · ⊃ Xk ⊃ . . . con Xk chiusi e con
diamXk < 1/kTe che non si ricoprono con una sottofamiglia nita di F . Ma per l'osservazione
precedente, se Xk = {x}∃r > 0 t.c. I(x, r) ⊃ F ⇒ I(x, r) ⊃ Xkn denitivamente, che crea un
assurdo.
(c)⇒(a) Sia {xn } ⊂ X . Sto in uno spazio metrico, quindi se so che ∃x ∈ X : ∀r > 0 xn ∈
I(x, r) per inniti n, posso estrarre una sottosuccessione che converge ad X. Per assurdo questa
propietà non vale, ovvero ∀x ∈ X∃rx > 0 : xn ∈ I(x, rx ) per al più niti indici. Considero questa
famiglia di aperti, che è sicuramente un ricoprimento apertoSdi X. ∃x̄1 , . . . x̄n t.c.X = ni=1 I(x̄i , rxi ).
S
Ma in questo modo xk ∈ X∀k ∈ N, quindi deve stare in I(x̄i , rx̄i ). Ma in ogni I(x̄i , rx̄i ) ho che
la successione ci può stare al più in un numero nito di indici, quindi ho l'assurdo perchè non può
contenere tutta la successione. ##
Def 21. Una funzione si dice semicontinua superiormente o inferiormente se è continua rispetti-
vamente in τS τD (ricordi? τS è la topologia degli intervalli limitati a sx e illimitati a dx, τD è la
topologia al contrario). In altre parole, f è semicontinua sup (inf) se ∀ε > 0∃σ > 0 : d(x, x0 ) < σ ⇒
f (x) > f (X0 ) − ε(ossia lim inf x→x0 f (x) ≥ f (x0 ) ) (analogo per la semicontinuità inf.)
22
Dimostrazione. Sia λ = infK f. Allora λ ∈ R oppure λ = −∞ ⇒ λ ∈ [−∞; +∞). Se λ 6= −∞ e
∃x̄ t.c. f (x̄) = λ ho nito (x̄ è banalmente il minimo). Supponiamo ∃{xn } ⊂ K t.c. f (xn ) → λ
(questa è una successione minimizzante). Ma poichè K è compatto, ∃{xkn } ⊂ {xn } : xkn } → x ∈
K.f (xkn ) → λ (poichè è estratta da f (xn )). Ma lim inf n f (xkn ) ≥ f (x) (in quanto è semicontinua
inf.). Ma f (xkn ) è estratta, quindi lim inf = lim per forza. ⇒ λ ≥ f (x) ∈ R ⇒ λ 6= −∞. Inoltre
f (x) ≥ λ (perchè appartiene all'immagine e λ = lim inf f ) Quindi ∃x̄ t.c. f (x̄) = λ ovvero λ è il
minimo. ##
Dopo aver modicato il teorema di Weierstrass possiamo modicare un secondo fondamentale
teorema dell'analisi, questa volta utilizzandi gli spazi metrici:
Prima di introdurre un ultimo importante risultato, ricordiamo quand'è che una funzione si
dice Lipschitziana: f : X → X è lipschitziana se ∃L ≥ 0 t.c. ∀x, y ∈ X d(f (x), f (y)) ≤ L d(x, y)
Def 22. f : X → X si dice una contrazione su X se ∃λ ∈ [0, 1) t.c. è lipschitziana di costante λ.
. Ma come generare funzioni lip. o contraibili in modo semplice? Facile: presa una f : R →
R, f ∈ C 1 (R) ||f 0 ||∞ < ∞. Allora f è lip. e L = sup||f 0 ||∞ . Quindi, se sup||f 0 ||∞ < 1 ho una
contrazione!!!
Ma a che cosa serve la lipschitzianità??? Questa è molto utile per vedere se una funzione ha
punti ssi (ovvero gli x t.c. f(x) = x) grazie a questo importante risultato:
d(xn+1 , xn ) = d(f (xn ), f (xn−1 )) ≤ λd(xn , xn−1 ) (applico la lip.) ≤ λ2 d(xn−1 , xn−2 ) itero... ≤ λn
d(x1 , x0 ) ⇒ d(xn+1 , xn ) ≤ λn d(x1 , x0 ). Per induzione si dimostra facilmente che è vero: il pri-
mo passo già l'abbiamo fatto, suppngo vero per n − 1 e trovo lo scarto per d(xn+p , xn )(p ≥
1).d(xn+p , xn ) ≤ d(xn+p , xn+p−1 )+· · ·+d(xn+1 , xn ) ≤ λn+p−1 d(x1 , x0 )+. . . λn d(x1 , x0 ) = λn (λp−1 +
1−λ (è la formula per le somme nite) ≤ 1−λ d(x1 , x0 ). Finita l'induzione.
p λn
· · · + 1)d(x1 , x0 ) = λn 1−λ
Poichè λ < 1, la successione è di Cauchy, quindi, poichè X è completo, è anche convergente
⇒ ∃x = limn xn . Ma xn+1 = f (xn ) e poichè f è continua f (xn ) → f (x) in quanto xn+1 → x.
Quindi ho che f (x) = x. Dimostriamo ora l'unicità: se esistono due punti uniti, x = f (x) e
x0 = f (x0 ) ⇒ d(f (x), f (x0 )) = d(x, x0 ) ma poichè la funzione è una contrazione, d(f (x), f (x0 )) ≤
λd(x, x0 ) ⇒ d(x, x0 ) ≤ λd(x, x0 ) ⇒ (1 − λ)d(x, x0 ) ≤ 0. Ma 1 − λ > 0 ⇒ d(x, x0 ) = 0. ##
La completezza è importante (infatti si utilizza molto nella dimostrazione): per esempio, presa
f (x) = x/2, X = (0, 1], X non è compatto (manca lo 0) e quindi non può essere completo. Infatti
questa non ha punti ssi, anche se f è una contrazione!!!!!! (L'unico punto sso sarebbe lo 0, che
non appartiene all'intervallo).
23
Capitolo 3
Funzioni dierenziali
3.1 Equazioni dierenziali ordinarie
Siano t ∈ I ⊂ R, F (t, y(t), . . . , y (n) (t)) = 0∀t ∈ I . Questa è un equazione dierenziale. Per
risolverla, cerco una y ∈ C n (I) che risolva l'equazione. Noi lavoreremo sempre con equazioni
della forma normale, ovvero equazioni in cui è possibile isolare la derivata massima. Le nos-
tre equazioni saranno quindi della forma y (n) = f (t, y(t), . . . , y (n−1) ). Queste equazioni si dicono
ordinarie perchè l'incognita dipende solo da una variabile reale, ma ci sono anche equazioni della
forma F (x, u(x), ∇u(x), . . . , ∇α u(x)) = 0|α| = n. Queste sono le equazioni a derivata parziale.
Tra i casi più semplici di equazioni dierenziali ci sono quelle della forma
y 0 (t) = a(x)y(t) + b(t) a, b ∈ C(I) (E1 )
. Queste mi danno però una soluzione generale dell'equazione. Posso trovare una solux in un punto
particolare se aronto un problema di Cauchy, ovvero un'equazione posta in questo modo:
y 0 = ay + b
(CE1 )
y(t0 ) = y0
Si noti che (E1 ) ha innite soluzioni (dieriscono tutte di una costante), mentre (CE1 ) ne ammette
una sola. Ma come si ottengono le soluzioni??? Dopo svariati calcoli, visti in Analisi 2 col Porretta,
ricaviamo che le solux dell'equazione (E1 ) sono:
Z
y(t) = ceA(t) + eA(t) b(s)e−A(s) ds
24
y 0 = f (t, y(t))
(CE1 )
y(t0 ) = y0
ma prima diamo la denizione di SOLUZIONE:
Def 23. y si dice soluzione di (E1 ) se y ∈ C 1 (I)I ⊂ R intervallo. Questa solux deve essere tale che
(t, y(t)) ∈ A∀t ∈ I e l'equazione (E1 ) deve valere ∀t ∈ I . Inoltre, se ho un problema di Cauchy,
deve vericare la condizione iniziale, ovvero t0 ∈ I .
Lemma (di Volterra): y ∈ C(I). y solux di (CE1 ) ⇔ (t, y(t)) ∈ A∀t ∈ I e y risolve l'e-
quazione integrale, ovvero y risolve y(t) = y0 + tt0 f (s, y(s))ds∀t ∈ I . Questa si dice EQUAZIONE DI VOLTERR
R
Quindi OK!!!
Occupiamoci ora della convergenza,valutando yn (t)−yn−1 (t). So che |yn (t)−yn−1 (t)| ≤ | tt0 |f (s, yn−1 (s))−
R
R tyn−2 (s))|ds| e per l'osservazione che abbiamo fatto prima posso paggiorare: |yn (t) − yn−1 (t)| ≤
f (s,
L| t0 |yn−1 (s) − yn−2 (s)|ds| ≤ L|t − t0 | · ||yn−1 − yn−2 ||I(y0 ,r0 ) ≤ Lr0 ||yn−1 − yn−2 ||I(t0 ,r0 ) ∀n ≥ 2.
Ho quindi che ||yn−1 − yn || ≤ (Lr0 )n ρ. Se prendo r0 < 1/L allora la serie converge TOTAL-
MENTE in I(t0 , r0 ) perchè la serie della norma converge in quanto minore di una serie geomet-
rica di Pragione < 1 ⇒ la serie converge unif, quindi possiamo prendere la ridotta della serie:
n=0 (yn+1 (t) − yn (t)) = yN − y0 (è una telescopica) ⇒ yn (t) → y(t) unif in I(t0 , r0 ).
N
SN =
Inoltre tutte le yn sono C 1 , quindi ottengo Rche y ∈ C(I(t0 , r0 )), (t, y(t)) ∈ Q (perchè vericano tutte
questa proprietà) e al limite y(t) = y0 + tt0 f (s, y(s))ds perchè s → f (s, yn−1 (s)) → f (s, y(s)) e
25
quindi y(t) verica l'equazione di Volterra.
UNICITA' Sia y(·) una solux su I(t0 , r0 ). Suppongo per assurdo ∃z(·) solux in I(t0 , r0 ) dello
stesso problema di Cauchy. Dimostriamo che y ≡ z . In t0 coincidono per forza (sono solux dello
stesso Cauchy). Deniamo sup{t ∈ [t0 , t0 + r0 )|y(s) = z(s)∀s ∈ [t0 , t]} = τ.τ ∃ sicuramente, perchè
nell'insieme c'è almeno t0 !!! Ragioniamo a dx di t0 (il ragionamento a sx è analogo): se τ = t0 + r0
ho nito. Vediamo che non può essere altrimenti, ovvero non posso avere τ < t0 +r0 . Prima abbiamo
visto che |y(t) − y0 | ≤ M |τ − t0 | < M r0 ≤ ρ. Poichè |y(τ ) − y0 | = |z(τ ) − y0 | < ρ ⇒R |z(t) − y0 | ≤
ρ∀t ∈ [τ, τ + r1 ] per continuità. Allora posso fare alcune stime: y(t) − z(t) = τ f (s, y(s)) −
t
Lr1 ||y − z||[τ,τ +r1 ] inoltre so che ||y − z||[τ,τ +r1 ] ≤ Lr1 ||y − z||[τ,tau+r1 ] ⇒ (1 − Lr1 )||y − z||[τ,τ +r1 ] ≤
0.Ma 1 − Lr1 > 0 per r1 < 1/L quindi deve essere per forza che ||y − z||[τ,τ +r1 ] = 0, quindi y = z
anche in τ + r1 , il che contraddice la massimalità di τ , e quindi le solux coincidono. ##
Osservazioni al teorema: (1) Se y1 , y2 sono solux di y0 = f (t, y)t ∈ I , allora i graci sono
diversi in ogni punto. Se ∃ un punto t̄ t.c. y1 (t̄) = y2 (t̄) allora y1 ≡ y2 (è conseguenza dell'unicità).
Infatti se nel punto t̄ i graci si incontrano, applicando il teorema in un intorno di t̄, questo ci dice
che nell'intorno preso quelle due solux sono uguali. Ma allora, preso l'insieme {t ∈ I|t ≥ t̄, y1 (s) =
y2 (s) ∀s ∈ [t̄, t]} e nominiamo il sup di questo insieme τ , se questo coincide col sup di I abbi-
amo nito. Notiamo innanzitutto che questo insieme è non vuoto per il teorema 1 e supponiamo
τ < sup I . Ovviamente coincidono no a τ , e in questo punto reimposto il teorema lavorando come
abbiamo fatto prima in un intorno di τ . Ma in questo modo contraddico la massimalità di τ , quindi
ho che τ deve essere necessariamente uguale al sup I.
(2) Nella dimostrazione del teorema non è ben chiaro il ruolo di fX ∈ C(A). In realtà di
quest'ipotesi ce ne siamo serviti quando abbiamo visto che |f (t, x) − f (t, x0 )|leL|x − x0 | ∀t ∈
I(t0 , r0 ) ∀x, x0 ∈ I(y0 , ρ). Per quanto ci serve, possiamo sostituire l'ipotesi di derivata contin-
ua con la locale lipschitzianità, ovvero mi basta avere che ∀(t0 , y0 ) ∈ A∃r, ρ > 0, ∃L ≥ 0 t.c.
|f (t, x) − f (t, x0 )| ≤ L|x − x0 | ∀t ∈ I(x0 , r)∀x, x0 ∈ I(y0 , ρ). C'è però un problema: quest'ipotesi è
sucente per dimostrare l'unicità, ma NON è richiesta nell'esistenza (come vedremo poi)!!!
Vediamo questo fatto con un esempio chiaricatore: sia 0 < α < 1, y 0 (t) = |y(t)|α , f (t, x) = |x|α . In
x = 0 questa funzione non è nè dierenziabile nè lipschitziana. Inoltre per α = 1 questa funzione
è lipschi. (ma non derivabile), mentre per α < 1 questa funzione è solo holderiana!!! Cerchiamo di
studiare questo problema in y(0) = 0. Posso applicare il metodo di risoluzione anche se la funzione
1
non è C 1 , ma ho problemi sull'unicità: dopo vari conti ottengo che y(s) = [(1 − α)s] 1−α . Sorge però
un problema: un'altra solux accettabile è quella identicamente nulla, oppure quelle traslate rispetto
l'asse x, come quelle simmetriche rispetto l'asse x o y, ecc. ecc.: in parole povere NON ho l'unicità
e non posso fare niente per scartare le soluzioni.
dove f : A → R e A ⊂ Rt × Rnx .
26
Def 25. Sia x(t) ∈ Rn e A ⊂ Rt ×Rnx (n ≥ 1). Allora, data f : A → Rn continua della forma f (t, x) =
(f1 (t, x), . . . , f (n (t, x)) t ∈ R, chiamiamo sistema del primo ordine la seguente equazione:
Possiamo dimostrare che i sistemi sono più generali delle equazioni di ordine n, perchè pos-
siamo sempre scrivere l'equazione come un sistema (basti
pensare al II principio della dinam-
0
y1 (t) = y (t)
..
ica dell'Olivieri). Infatti, se y(·) è solux di (En ) ⇒ . e posto
yn (t) = f (t, y 0 , . . . , y (n−1) )t ∈ I
Y (t) = (y1 (t), . . . , yn (t)) = (y(t), y 0 (t), . . . , y (n−1) (t)) t ∈ I
| {z }
Rn
Il nostro sistema diventa 0
Y1 (t) = Y2 (t)
Y 0 (t) = Y3 (t)
2
...
0
Yn (t) = f (t, Y1 , Y2 , . . . , Yn ) = f (t, y)
, dove Y è denita da: F : A → Rn , Y 0 (t) = F (t, Y (t)) e F (t, x) = (x2 , . . . , xn−1 , f (t, x)). Questa
scrittura ci suggerisce inoltre come formulare il problema di Cauchy per le equazioni di ordine n:
0
y(t ) = x1
0 0
y (t ) = x2
Y 0 (t) = F (t, Y (t)) .
⇒ .. (CEn )
Y (t0 ) = Y 0 = (Y10 , . . . , Yn0 )
y (n−1) (t0 ) = xn
(n)
y = f (t)
Il teorema 1 vale anche per i sistemi, dopo aver opportunamente medicato la denizione di
locale lipschitzianità: dati x, y ∈ Rn , x = (x1 , . . . , xn )y = (y1 , . . . , yn ), ∀(t0 , y0 ) ∈ A∃r, ρ > 0, ∃L ≥ 0
t.c. ||f (t, x0 ) − f (t, x)|| ≤ L||x − x0 ||∀t ∈ I(t0 , y0 ) e ∀x, x0 ∈ I(y0 , ρ). Ecco tutta la dimostrazione:
27
sappiamo se y(·) ∈ X , infatti so solo che y ∈ C(I, ¯ Rn ). Inoltre non so neanche se Ψ è una
contrazione veramente!!! Controlliamo ||y(t) − yR0 || (in quanto se è < ρ, y(t) ∈ X ). Partiamo
dal fatto che ||y(t) − y0 || = tt0 f (s, y(s))ds|| ≤ tt0 ||f (s, y(s))||ds ≤ M (t − t0 ) ≤ M r0 ≤ ρ (poi
R
prendo il sup).
R t Per vedere se è Runa contrazione prendo y, Rzt ∈ X e controllo d(Ψ(y), Ψ(z)) =
supt∈I¯ ||y0 + t0 f (s, y(s))ds − y0 − t0 f (s, z(s))ds|| ≤ supt∈I¯ t0 ||f (s, y(s)) − f (s, z(s))||ds ma per
t
come ho scelto X, sia y che z distano al più ρ da y0 , quindi posso applicare l'ipotesi di lipschitzian-
ità: d(Ψ(y), Ψ(z)) ≤ 1/2d(y, z) ∀y, z ∈ X , in quanto per tt ≥ t0 tt0 ||f (s, y(s)) − f (s, z(s))||ds ≤
R
L t0 ||y(s) − z(s)||ds ≤ L||y − z||∞ (t − t0 ) ≤ r0 L||y − z||∞ (questa cosa è vera per ogni t, basta pren-
Rt
dere il modulo!!!). Ho dunque una contrazione in uno spazio completo, quindi ∃!x̄ ∈ X : x̄ = Ψ(x̄).
Si noti però che non ho dimostrato l'unicità, e quindi ci potrebbero essere soluzioni che non sono
contrazioni. La dimostrazione è però uguale a quella per il TEOREMA 1.
Unicità Prendiamo la ȳ(·) sulox costruita con le contrazioni e la y(·) solux di (CS) su I¯ =
¯ 0 , r0 ). Preso l'insieme {t ∈ [t0 , t0 + r0 ] : ȳ(s) = y(s) ∀s ∈ [t0 , t]} controlliamo il suo sup,
I(t
chiamato t̄. Possiamo aermare che t̄ = t0 + r0 ? Supponiamo per assurdo t̄ < t0 + r0 , per continuità
ȳ(t̄) = y(t̄) ⇒ ||ȳ(t̄) − y0 || ≤ M |t̄ − t0 | < ρ ⇒ ||y(t̄) − y0 || < ρ. Per continuità R∃t1 > t̄ e t1 <
t0 + r0 t.c. ||y(s) − y0 || < ρ∀t ∈ [t0 , t1 ]. Possiamo notare che ∀t ∈ [t̄, t1 ]ȳ(t) − y(t) = t̄ ||f (s, ȳ(s)) −
t
f (s, y(s))||ds ≤ L t̄ ||ȳ(s) − y(s)||ds ⇒ supt∈[t̄,t1 ] ||||ȳ(t) − y(t)|| ≤ L(t1 − t̄)||ȳ − y||∞,[t̄,t1 ] . Ma
Rt
prendendo L in modo tale che L(t1 − t) < 1/2 ottengo che 1/2||ȳ − y||∞,[t̄,t1 ] ≤ 0 ⇒ ||ȳ − y|| = 0
che è assurdo. ##
Diamo ora un lemma utile per la seguente dimostrazione: LEMMA R DI GRONWALL: Pre-
so u(t), se u ∈ C([a, b]), u ≥ 0, A, L > 0 e u(t) verica u(t) ≤ A + L at u(σ)dσ allora e−Lt (u(t) −
Rt −Lt ⇒
R s d −Lt R t Rs Rs
a u(σ)dσ ≤ Ae a dt (e a u(σ)dσ)dt ≤ a Ae−Lt dt ∀s ∈ [a, b] ⇒ e−Ls a u(σ)dσ ≤
A −La
Rs
L (e − e−Ls ) ⇒ a u(σ)dσ ≤ A L (e
L(s−a) − 1) ⇒ u(t) ≤ A(eL(t−a) − 1) + A = AL(s−a) ⇒ u(t) ≤
AL(t−a) ∀t1 ∈ [a, b].
Possiamo dare ora un corollario del teorema d'esistenza e unicità per i sistemi: COROLLARIO:
Sia f ∈ C(A, Rn ), (t0 ,y0 ) ∈ A t.c. Q̄ ⊂ A. Supponiamo verichi ~ su Q̄r,ρ (t0 , y0 ) ⇒ ∀(s, x) ∈
y = f (t, y)
I(t0 , r/2) × I(y0 , ρ/2) ha una sola solux in C 1 (I(s, r0 /2); Rn )Y (·, s|x ).
y(s) = x
La dimostrazione è uguale, basta applicare il teorema sotto queste ipotesi e prendere r0 /2. Bisogna
solo dimostrare la contiunità rispetto ad x e a s.
Dimostrazione. Prendiamo s ∈ I(t0 , r0 /2) e x, x0 ∈ I(y0 , r0 /2) e consideriamo y(t, s|x ), y(t, s|x0 ) (che
sappiamo esistono per t − s ≤ r0 /2) e stimiamo gli scarti, ovvero R t preso t ∈ I(s, r0 /2) quanto0 vale
y(t, s|x ) − y(t, s|x )??Scriviamoquestadif f erenzacomex − x + s f (σ, y(σ, x)) − f (σ, Y (σ, x ))dσ .
0
0
Applico la diseguaglianza e maggioro: |y(t, s|x ) − y(t, s|x0 )|| ≤ ||x + x0 || + st ||f (σ, y(σ, x)) −
R
f (σ, y(σ, x0 )||dσ ≤ ||x − x0 || + L s ||y(σ, x) − y(σ, x0 )||dσ ma per il lemma di Gronwall ho che
Rt
||y(t, x) − y(t, x0 )|| ≤ ||x − x0 ||eL(t−s) ∀t ⇒ sup[s,s+r0 /2] ||y(·, x) − y(·, x0 )|| ≤ ||x − x0 ||eLr0 /2 . Faccio
l'analogo per s0 ∈ [s − r0 /2, s] e ho anche la continuità a sinistra. ##
TEOREMA DI DIPENDENZA CONTINUA: Nelle ipotesi del corollario (ovvero f ∈
C(A, Rn ) e vale ~ su Q) allora ∀s ∈ I(t0 , r0 /2)∀x, x0 ∈ I(y0 , ρ/2) ⇒ ||y(t, s|x ) − y(t, s|x0 || ≤
C||x − x0 || ∀t ∈ I(s, r0 /2). Questa è addirittura una dipendenza lipschitziana!!! In altre pa-
role questo teorema ci dice che a seconda delle condizioni iniziali che ho per il problema di Cauchy
posso trovare diverse soluzioni allo stesso problema.
28
Prop: Siano y1 , y2 solux di ẏ(t) = f (t, y(t)) ∀t ∈ (a, b). Se ∃t0 ∈ (a, b) t.c. y1 (t0 ) = y2 (t0 )
allora y1 ≡ y2 (ovvero se le solux coincidono anche in un solo punto, allora coincidono in uttto
l'intervallo di denizione).
Dimostrazione. Vediamo che coincidono a dx: preso B = {t ∈ [t0 , b)|y1 (s) = y2 (s)∀s ∈ [t0 , t]} e
denominiamo il sup B = t̄. Sicuramente t̄ ≤ b. Se t̄ < b avrei un punto (t̄, x̄) contenuto
in (a, b) \ B .
ẏ = f (t, y)
ma applicando il teroema d'esistenza e unicità so che il problema di Cauchy ha un
y(t̄) = x̄
unica solux ȳ ∈ C 1 (I(t̄, r0 ), Rn ) (r0 > 0) ⇒ y1 (t) = ȳ(t) = y2 (t)∀t̄ ≤ t ≤ t̄ + r0 quindi deve essere
necessariamente t̄ = b. Per dimostrare che coincidono a sx il procedimento è analogo. ##
Def 26. Siano y1 : |(a1{z, b1}) → Rn e y2 : |(a2{z, b2}) → Rn due solux di S. Si dice che y2 è prolunga-
I1 I2
mento di y1 (y1 y2 ) se I1 ⊆ I2 e y2 |I1 ≡ y1 (per uno dei precedenti teoremi basta che coincidano
in un punto!!!)
Def 27. y1 (·) si dice prolungabile se ∃y2 (·) solux t.c. y1 y2 e I1 ⊂ I2 .
Def 28. y1 (·) si dice solux massimale se è NON prolungabile.
TEOREMA 1: Sia y0 (·) solux di (S). Allora esiste un unica ȳ(·) solux t.c. y 0 ȳ e ȳ è
massimale.
Dimostrazione. Sia Y = {y|y 0 y} con y 0 : I0 = (a0 , b) → Rn .Y si può scrivere come Y = {y :
Iy = (ay , by ) → Rn |y 0 y}. Prendiamo I = (a, b) con a = inf y∈Y ay e b = supy∈Y ay . Ovviamente
a ≤ a0 , b ≥ b0 . Osserviamo che I ⊃ I0 , t ∈ I ⇒ ∃y ∈ Y : t ∈ Iy . Denisco y(t) = yt (t), è ben
denita??? Supponiamo t ∈ I1 ∩ I2 , che è un intervallo aperto contenente I0 , quindi per le prop.
precedenti coincidono nell'intervallo e quindi anche in t. Quindi ho che y|I0 = y 0 ovviamente (perchè
prolungamento). E inoltre y è solux perchè preso t, ∃It 3 t in cui y ∈ C 1 e quindi solux. Dimostriamo
ora che y è max: se fosse prolungabile, il suo prolungamento starebbe in Y (poichè sarebbe anche
prolungamento di y 0 ). Ma l'intervallo di y è denito dal sup e dal inf dei vari intervalli, quindi un
eventuale prolungamento avrebbe per forza l'intervallo contenuto in I , quindi y è max. ##
ẏ = f (t, y(t))
COROLLARIO: Considerando il problema di Cauchy y(s) = x
, ∃! solux max y(t; s, x).
OSS: Nel caso di equazioni dell'ordine n: ẏ(t) = f (t, y(t), . . . , y (n−1) (t)) o dei loro problemi di
Cauchy, ∀(s, x) ∈ A∃! solux max di (CEn ).
Def 29. Sia y(t) solux di (S). Questa si dice globale se è denita su tutto l'intervallo.
TEOREMA 2: Presa y(t) ∈ C 1 ((t0 , t1 ); R), con (t0 , t1 ) ⊂ (a, b) solux di (S), se t1
< b (e/o
t0 > a), ovvero la solux NON è globale, inoltre y è limitata, cioè ∃M ≥ 0 t.c. ||y(t)|| ≤ M ∀t ∈
(t1 − δ, t1 ) allora y NON può essere max. (Quindi se non è globale, per essere max deve essere
illimitata). Attenzione, questa è una condizione sucente, ma non necessaria!!!
Dimostrazione. Vediamo se ∃ limt→t−1 y(t). Se è vero, posso sicuramente impostare un problema
di Cauchy in t1 e prolungare. Verichiamo che la nostra y verica la condizione di Cauchy in
t1 : ∀ε > 0∃σ > 0 t.c. ∀t, t0 ∈ (t1 − σ, t1 ) ⇒ ||y(t0 ) − y(t)|| < ε. QUesto basta per l'esistenza
del limite!!! Per vedere ciò prendiamo Q = [t1 − δ, t1 ] × I(0, M ).∃ maxt,x)∈Q ||f (t, x)|| = CQ . Presi
t, t0 ∈ (t1 − δ, t1 ) e t > t0 (per ssare le idee), prendiamo ||y(t) − y(t0 )|| ≤ t0 ||f (s, y(s))||ds. Allora
Rt
29
y(s, y(s)) ∈ Q∀s ∈ (t1 − δ, t1 ), quindi ||y(t) − y(t0 )|| ≤ t0 ||f (s, y(s))||ds ≤ CQ |t − t0 | < ε. Prendiamo
Rt
inne σ = ε/CQ in modo tale che verica Cauchy, ovvero abbia limite ed ho nito. ##
TEOREMA 3 (caso sublineare): Sia f : (a, b) × Rn → Rn continua e localmente lipsc e
sia dato il sistema (S)ẏ = f (t, y(t)). Se ||f (t, x)|| ≤ C(1 + ||x||) (ovvero ha crescita sublineare) (o
meglio, ∀J ⊂ (a, b) compatto ∃cJ ≥ 0 t.c. ||f (t, x)|| ≤ cJ (1 + ||x||)∀(t, x) ∈ J × Rn ) allora ogni slux
max di (S) è globale.
Dimostrazione. Per assurdo supponiamo di avere y : (a, b0 ) → Rn solux max con b0 < b. Se
y è limitata in un intorno di b0 , applico il teorema 2 e ho nito. Preso a < c < b0 , mostri-
amo che y(·) è limitata Rsu (c, b0 ) (per applicare il teorema 2). Sia J = [c, b0 ] ⊂ (a, b) ⇒ preso
t ∈ [c, b0 ), y(t) = y(c) + c f (s, y(s))ds per il fatto di essere solux. Quindi abbiamo che ||y(t)|| ≤
t
||y(c)|| + c ||f (s, y(s))||ds e qui applico la sublinearità: ||y(c)|| + c ||f (s, y(s))||ds ≤ ||y(c)|| +
Rt Rt
cJ c ||y(s)||ds ≤ ||y(c)|| + cJ (b0 − c) +cJ c ||y(s)||ds ⇒ per Gronwall⇒ ||y(t)|| ≤ Ae| {z }, propo-
cJ (b0 −c)
Rt Rt
| {z }
A M
sizione vera ∀t ∈ [c, b0 ] ⇒ y è prolungabile perchè limitata. ##
OSS: Posso applicare il TEOREMA 2 anche se ho y(n) = f (t, y, . . . , y(n−1) con f : (a, b)×Rn →
R t ∈ (a, b). Se y : (t0 , t1 ) → R, t1 < b ed ∃δ, M t.c. |y(t)| + |y 0 (t)| + . . . |y (n−1) (t)| ≤ M ∀t ∈
(t1 − δ, t1 ).
Analogamente posso applicare il TEOREMA 3 con (SL) |f (t, x1 , . . . , xn )| ≤ CJ (1 + ||x||) (ovvero
(1 + |x1 | + · · · + |xn |)) ∀t ∈ J, ∀x ∈ Rn .
Nel teorema d'esistenza e unicità abbiamo usato r0 = min{ρ/M, r, 1/2L}, con L la costante
di Lipschitzianità. Possiamo eliminare questa ipotesi
di Lipsch., per rendere le ipotesi meno for-
y(t) = y0
ti??? Deniamo yn (·) : I(t0 , r0 ) → R solux di Rt t ∈ I . Il fatto che
yn+1 (t) = y0 + t0 f (s, y(s))ds
(s, yn (s)) ∈ R è facilmente dimostrabile per induzione: ovviamente è vero per n = 0, supponiamo-
lo vero ∀n ≥ 0, abbiamo che |yn+1 (t) − y0 | ≤ tt0 |f (s, y(s))|ds ≤ M r0 ≤ ρ. Ora dobbiamo solo
R
dimostrare che ||yn+1 − yn ||∞,I ≤ tt0 |f (s, yn (s)) − f (s, yn−1 (s))|ds ≤ L tt0 |yn (s) − yn−1 (s)|ds ≤
R R
L t0 |yn (s) − yn−1 (s)|ds. Ma io so che |y1 (t) − y0 | ≤ M |t − t0 |∀t ∈ I ⇒ |y2 (t) − y1 (t)| ≤
Rt
Rt 2
L t0 M (s − t0 )ds = LM (t−t20 )
Rt 2 3
|y3 (t) − y2 (t)| ≤ L t0 LM (s−t2 0 ) ds = M L2 t−t60 )
..
. n+1
|yn−1 (t) − yn (t)| ≤ M Ln |t−t0|
(n+1)!
ovvero in questo modo ||yn+1 (t) − yn (t)||∞,I ≤ M Ln (n+1)! , ovvero la serie converge, quindi converge
r n+1
anche yn . Notiamo che L in questa formulazione compare ancora, ma r0 non dipende più da L, solo
da r o ρ/M . Possiamo dimostrare quindi l'esistenza senza lipsch. (per l'unicità non c'è speranza,
ho bisogno per forza della lipschi.) e possiamo riassumere tutto questo nel seguente teorema:
30
Prima della dimostrazione diamo due teoremi e un'osservazione fondamentali per poter di-
mostrare l teorema di Peano:
Dimostrazione. Basta mostrare che LipM è completo e totalemente limitato. La compattezza im-
mediata: Lip ⊆ L(I) che è completo. Bisogna però far vedere che è un chiuso prima di nire:
||···||
Preso un −−−−∞ → u ∈ LipM (I)??? Sappiamo che |un (x)| ≤ M ∀x ∈ I e |un (x)|to|u(x)| ≤ M ⇒
|u(x) − u(y)| ≤ M |x − y| quindi è chiuso e quindi completo.
Per vedere che è tot. limitato vediamo che ∀ε > 0∀ϕ1 , . . . ϕn ∈ L(I) e ∀u ∈ LipM (I)∃ϕk t.c.
||ϕk − u||∞ < ε. Fissiamo σ > 0 t.c. σ(M + 1) ≤ ε. Dividiamo poi I in intervallini di lunghezza < σ :
I = I1 ∪ I2 ∪ · · · ∪ Inε con |Ik | <Pσ , N σ > M (dove N = [ M σ ] + 1). Gli intervallini sono tutti della
forma [ak , bk ], e inoltre ϕ(x) = nk=1 ε
σk 1Ik (x) σk ∈ {0, ±σ, ±2σ, . . . , ±N σ}. Notiamo che le ϕn
sono (2N + 1)n , quindi u ∈P LipM (I). Sia xk ∈ Ik ∀k = 1 . . . n, Jk,u σ ≤ u(xk ) ≤ (Jk,u + 1)σ ⇒ ∀x ∈
Ik ϕ(x) = Jk,u σ ⇒ ϕ(x) = ∞
1
k=1 Jk,u σ Ik (x) ⇒ |u(x) − ϕ(x)| ≤ |n(x) − u(xk )| + |u(xk ) − ϕ(x)| ≤
| {z } | {z }
≤M σ ≤σ
(M + 1)σ ≤ ε∀x ∈ I , che è quello che volevamo. ##
OSS: Preso K ⊂ Rn e K 6= ∅ convesso e chiuso, ogni punto ha un'unica proiezione ⊥
su K, ovvero ∀x ∈ Rn ∃!x̄ ∈ K t.c. ||x − x̄|| = dK (x). Inoltre la proiezione è lip., ovvero
||projK (x) − projK (x0 )|| ≤ ||x − x0 ||.
31
−M e M (cosa buona, l'applicazione non modica M). Allora posso aermare che n|yn,x − x| =
fn (t, x) − f (t, yn,x ) ≤ 2M ⇒ yn,x −−−−−→ x. Cominciamo ora a stimare |fn (t, x0 ) − fn (t, x)|.
n→+∞
Questo è ≤ f (t, yn,x ) + n|yn,x − x| − f (t, yn,x ) − n|yn,x − x| ≤ n|x0 − x| (scambiando x, x0 ottengo
il modulo). Ma questa non è altro che la condizione di lip. di costante n!!! Inoltre, poichè è lip.,
continua in x, allora è continua anche in (t, x). Vediamo che fn (t, x) → f (t, x), ma noi sappiamo
che f ≥ fn = f (t, yn,x ) + n|yn,x − x| ≥ fnx (t, yn,x ), ma fn,x → f (t, x), quindi f, fn → f (t, x)per il
criterio del doppio confronto. Per il teorema di Dini ottengo anche la convergenza uniforme di fn ,
quindi ho nito il passo (1).
Il passo (2) è immediato dopo tutti i passaggi fatti prima dell'enunciato del teorema, possiamo
passare al passo successivo.
Per dimostrare il passo (3) e concludere la dimostrazione usiamo il teorema di Ascoli, in questo
modo possiamo aermare che yn (t) = y0 + t0 fn (s, yn (s))ds ⇒ |yn (t)| ≤ |y0 | + M r0 ∀t ∈ I e
Rt
| {z }
H
presa yn0 (t) = f (s, yn (s)) ⇒ |yn0 (t)| = |f (s, yn (s)| ≤ M . Prendo allora H = max{M, |y0 | + M r0 } ⇒
yn ∈ LipH (I) ∀n ⇒ ∃ynk → ȳ unif. in I , e dunque s → fnk (s, ynk (s)) −−−−−→ s → f (s, ȳ(s)),
unif. su I
quindi ynk (t) = y0 + tt0 fnk (s, yn (s))ds → ȳ(t) = y0 + tt0 f (s, ȳ(s))ds e con questo il teorema è
R R
dimostrato. ##
Un sistema dierenziale lineare è un sistema del tipo (S) y 0 (t) = A(t)y(t) + f (t) con t ∈ I ⊂ R
aperto e A(t) = (aij (t))i,j=1...N f (t) = (f1 (t), . . . fN (t)). Ovviamente ai,j , fi ∈ C(I) (altrimenti
N 2
posso fare poco). Un altro modo per esprimere il sistema lineare è (H) A ∈ C(I, RN ) (talvolta
f ∈ C(I, R )
conviene lavorare in e CN ).
2
CN
Se f ≡ 0 il sistema si dice omogeneo, mentre se A non dipende esplicitamente da t o f (t) = f0
il sistema si dice autonomo. In questo caso possiamo anche scrivere ẏ = F (t, y) F (t, x) =
A(t)x + f (t) F ∈ C(I × RN ; RN ).
Corollario: Sotto le ipotesi (H) comunque scelgo (t0 ,y0 ) ∈ I × RN esiste un unica solux max
y 0 = A(t)y + f
del problema di Cauchy relativo al sistema (S), ovvero (P) .
y(t0 ) = y0
Resta però un problema da risolvere: questa solux sarà globale??? Vediamo se posso applicare
i teoremi che conosco: [a, b] ⊂ I, (T, x) ∈ [a, b] × RN , allora ||F (t, x)|| = ||A(t)x + f (t)|| ≤ ||A(t)x|| +
||f (t)|| ≤ ||A(t9||||x|| + ||f (t)|| (attenzione, ||A|| = max||x||≤1 ||Ax|| ⇒ max S(At A) = ||A2 ||, (con
qP
S=spettro) in quanto si dimostra che ||A|| ≤ i,j aij ). Quindi continuando la disequazione abbi-
2
q
amo che ||A(t)||||x|| + ||f (t)|| ≤ maxt∈[a,b] |aij (t)|2 ||x|| + maxt∈[a,b] ||f (t)|| ≤ C[a,b] (1 + ||x||) (basta
prendere C come il massimo tra i due massimi presi in considerazione prima). Ma allora la crescita
è sublineare, ovvero posso applicare il teorema: y(·, t0 , y0 ) è globale ∀t ∈ I se y(·, t0 , y0 ) è una solux
max. Inoltre dipende con continuità (anche lipschitzianità) da (t0 , y0 ).
Cerchiamo ora di trovare formule risolutive simili a quelle delle equazioni ordinarie anche per i
sistemi: deniamo S(f ) = {y ∈ C 1 (I, RN )|y = Ay + f }. L'insieme delle solux del sistema omogeneo
32
associato è S(0).
Prendiamo ora due vettori y1 , y2 ∈ S(0), λ1 , λ2 ∈ R ⇒ λ1 y1 + λ2 y2 ∈ S(0). In questo modo abbiamo
che (λ1 y1 + λ2 y2 ) = λ1 y10 + λ2 y20 = λ1 Ay1 + λ2 Ay2 = A(λ1 y1 + λ2 y2 ). Possiamo enunciare quindi
questa prop. di S(0):
Prop 1: S(0) è uno spazio vettoriale di dimensione N su R(C). Che sia di dimensione N viene fuori
dal fatto che posso creare un isomorsmo tra i punti ξ di RN e le solux che per t = 0 hanno punto
iniziale proprio ξ .
OSS: Supponiamo di avere due solux y1 , y2 ∈ S(f ). Allora y = y1 − y2 , quindi y0 = A(y1 − y2 ) +
f − f = Ay . Ma questa è solux. dell'omogenea, possiamo dunque aermare che se ȳ ∈ S(f ), allora
S(f ) = ȳ + S(0).
. Avrò quindi y1 , . . . yN tutte solux dell'omogenea (in quanto cambia solamente il valore
iniziale tra
1 0 ··· 0
0 1 0 · · ·
un sistema e l'altro). La sua matrice associata è Y (t) = [y1 (t)|y2 (t)|y N (t)] e Y (t0 ) = . .
.
0 ··· ··· 1
che non è singolare, quindi y1 , . . . yN sono l.i., ovvero Y (t) è una matrice fondamentale. In più sap-
piamo che in t0 questa si riduce all'identità, ovvero la matrice fondamentale è anche principale in t0 !!!
33
infatti per costruzione sarà l'identità (in quanto abbiamo Y (s)Y −1 (s))!!!
Possiamo quindi concludere che Y (·) è una M.F., allora S(0) = {Y (0)x|x ∈ 1RN }. Infatti se
y ∈ S(0), t0 inI allora y(t) = U (t, t0 )y(t0 ) = Y (t) Y −1 (t0 )Y (t0 ) = Y (t)x. Questa è un'altra prova
| {z }
x
che dim SR(C) (0) = N .
Per trovare una solux particolare dobbiamo invece usare il metodo delle varizioni delle costanti:
conosciamo Y (·) MF di (S). Cerchiamo Ȳ (t) = Y (t)x(t). Impongo ȳ 0 (t) = A(t)Y (t)x(t)+Y (t)x0 (t) =
A(t)Y (t)x(t) + f (t) ⇒ x0 (t) = Y −1 (t)f (t). Fisso s ∈ I e ottengo che x(t) = s Y −1 (τ )f (τ )dτ quindi
R t
y 0 = A(t)y + f (t)
(per S(f ) 3 y ⇔ ∃x ∈ RN ), mentre per il problema di Cauchy la solux è
y(t0 ) = y0
Z t
y(t) = Y (t)Y −1 (t0 )y0 + Y (t)Y −1 (τ )f (τ )dτ
t0
Non è sempre facile risolvere un sistema d'equazioni, è sempre meglio prima cercare alcune
informazioni prima di tentare la strada della risoluzione tramite formule, anche se c'è qualche
trucco per trovare la MF: cercando una condizione equivalente a quella della MF (ovvero che
∃Y (t) = [y1 (t)| · · · |yN (t)] con y1 , . . . , yN ∈ S(0) l. indip. su C 1 (I, CN ) e non singolare) ci ac-
corgiamo che questa è equivalente a dire che (detY (t))0 = trA(t) · detY (t) ⇒ det(Y (t)) verica
un'equazione dierenziale di primo Rt
grado, che noi sappiamo risolvere facilmente. Concludiamo
quindi che detY (t) = detY (t0 )e t0 trA(s)ds
che è la cosiddetta formula di Liouville.
In generale non è facile neanche applicare la formula di Liouville, sarebbe logico quindi cercare
alcuni casi particolari per cui è immediata la solux:
• Sistemi lineari autonomi (ovvero A(t) = A): cerchiamo una base di autovettori {x1 , . . . , xN }
base di CN (questo è sempre possibile se S(A) = {λ1 , . . . , λN } con λi 6= λj per i 6= j ) e prendo
yi (t) = eλi t (i = 1, . . . , N ) ⇒ yi0 (t) = λi eλi t xi = eλi t Axi = Ayi (t). In questo caso la matrice
fondamentale è Y (t) = [eλ1 t xi | · · · |eλN t xN ].
• Se A ∈ RN ×N e y 0 (t) = Ay(t) y(t) ∈ RN . Con queste condizioni se gli autovalori λi sono tutti
distinti e appartengono C, presa {x1 , . . . , xN } base di CN osservo che se λj ∈ R e zj = xj + iyj
34
allora xj è un autovettore ∈ R e quindi Axi = λi xi .
Se invece λ = α + iβ (con β 6= 0) l'autovettore è z = x + iy , ma allora anche λ̄ = α − iβ deve
essere autovalore, quindi A(x + iy) = (α + iβ)(x + iy) e quindi A(x + iy) = λ̄(x − iy). Prendo
z1 (t) = eαt (cos(βt)+i sin(βt))(x+iy) e z2 (t) = eαt (cos(βt)−i sin(βt))(x−iy) (che costituiscono
un insieme di solux complesse) e le sostituisco con x1 (t) = eαt (cos(βt)x − sin(βt)y) e x2 (t) =
eαt (sin(βt)x + cos(βt)y) che sono solux l.i. ∈ RN (infatti se esistessero c1 , c2 ∈ R tale che
π
c1 x1 (t)+c2 x2 (t) = 0, per t = 0 avrei c1 x+c2 y = 0 mentre per t = 2β
π
ho eα 2β (c1 (−y)+c2 x) = 0
e mettendole a sistema ottengo (c21 +c22 ) = 0 che è assurdo visto che abbiamo preso c1 , c2 ∈ RN ).
Come detto nei paragra precedenti si può sempre ridurre un'equazione di ordine n (n ≥ 1) della
forma (E) x(n) (t) + an−1 (t)xn−1 (t) + · · · + a1 (t)x0 (t) + a0 (t)x(t) = f (t) (con ai , f (t) ∈ C(I)) ad un
| {z }
P (t,D)x
sistema, basta porre y1 (t) = x(t) . . . yn (t) = x(n−1) . In questo modo infatti otteniamo un sistema
della forma
y1
0
0 1 0 ··· 0
0
.. ..
.
y1 y2 0 0 0 1 ··· 0 .
.. 0 .
. .. . .. .. .
. + ..
. =Y = . + . =
.
.. 0
Pn−1
yn − k=0 ak (t)yk+1 (t) f 0 0 ··· 0 1
−a0 (t) −a1 (t) · · · −an−1 (t) f
yn
Prop: Se x()˙ è solux di (E) allora Y denita come sopra è solux del sistema (S) Y 0 = A(t)y+F (t)
e viceversa, ovvero se Y (·) è solux di (S) allora la prima componente di Y (·) è solux di x(·) di (E),
con Yk = x(k−1) .
Corollario 1: Sia S(f ) = {x(·)|P (t, D)x = f } l'insieme delle solux. Allora S(0) è uno spazio
vettoriale di dimensione n su R o C. Prendendo {x1 , . . . , xn } solux dell'omogenea queste sono l.i.
⇔ il Wronskiano X(t) ha det 6= 0. Questo è equivalente a dire che ∃t0 ∈ I : det X(t0 ) 6= 0. Si dice
che questo è un sistema fondamentale di solux di P (t, D)x = 0.
Corollario 2: Dato un sistema fond. di solux {x1 (t), . . . , xn (t)} ∈ S(0) allora tutte le solux
sono c.l. di queste, ovvero S(0) = {c1 x1 , . . . , cn xn |ci ∈ R/C} e inoltre se $barx ∈ S(f ) allora
possiamo dire che S(f ) = x̄ + S(0).
35
reali con la loro molteplicità (come abbiamo fatto prima), ovvero ponendo tki eλi t . Per quanto
riguarda le soluzioni complesse µ1 , . . . , µs osservo che se ho una solux complessa allora ho per forza
anche la sua coniugata, ovvero P (µ) = 0 ⇒ P (µ) = 0 ⇒ P (µ̄) = 0. Per le solux sostituiamo quindi
eαt cos(βt) e eαt sin(βt). (Se la molteplicità è > 1 pongo tk eαt cos(βt) e tk eαt sin(βt)).
Una classe di equazioni per cui posso trovare una solux esplicita sono le equazioni di Eulero:
+ n−1
tn x(n) k=0 t ak x (t) = 0.
k (k)
P
Nel caso di equazioni d'Eulero con il termine noto dobbiamo faticare un pò di più con i conti:
applichiamo Ril metodo della variazione delle costanti, abbiamo y 0 = A(t)y + F (t) ⇒ ȳ(t) = Y (t)c(t)
dove c(t) = tt0 Y −1 (s)F (s)ds e F (s) è il Wronskiano. Ma in questo modo mi impelago con i conti
(molto spesso non facili), cerco quindi una seconda strada per semplicare un pò tutto:
pongo {x1 , . . . , xn } un s. fond. di solux, voglio trovare x̄(t) = c1 (t)x1 (t) + · · · + cP n (t)xn (t), ovvero
devo trovare i coe. c i . Calcolo allora le derivate no all'ordine n: x̄ 0 (t) = n 0
Pnci (t)x
i=1 i (t) +
e impongo . Continuo a derivare:
Pn 0
Pn 0 00 0 x0 (t) +
Pi=1 ci (t)xi (t) c
i=1 i (t)x (t)
iP = 0 x̄ (t) = c
i=1 i i
n
c (t)x00 (t) e come prima impongo n
c 0 (t)x0 (t) = 0. Iterando ottemiamo n − 1 equazioni.
i=1 i i i=1 i i
Per trovare l'n-esima equazione noto che sono arrivato a x̄(n) , che è la solux della nostra equazione,
quindi pasta porre i=1 ci (t)x(n−1) (t) = f (t). Alla ne di tutto questo impianto di calcoli ottengo
Pn 0
n
c0i (t)xi (t) = 0
P
Pi=1
n 0 0
i=1 ci (t)x (t) = 0
..
il sistema . . Questo sistema non è altro che il wronskiano X(t) applicato
(n−2)
Pn 0
ci (t)xi (t) = 0
Pi=1
n 0 n−1
i=1 ci (t)xi (t) = f (t)
al vettore (c1 , . . . , cn )0 e posto uguale al vettore (0, . . . , f (t)).
Per quanto riguarda l'equazione (E) omogenea prendiamo le radici di P (λ) = 0. Queste saranno
λ1 , . . . , λk ∈ C tutte diverse con la propria molteplicità m1 , . . . , mk . Il polinomio sarà allora della
forma P (λ) = (λ − λ1 )m1 · · · (λ − λk )mk . Diamo ora il seguente lemma:
Lemma: Sia µ ∈ C \ {0}. D(Q(t)eµt ) = (µQ(t) + Q0 (t)) eµt e deg R = deg Q. Inoltre se R ≡ 0
| {z }
R(t)
allora Q ≡ 0 (in quanto si annulla il termine maggiore di Q, ma automaticamente anche tutti i
termini minori).
(1) Vediamo che P (D)(th eλi t ) = 0 equivale a dire che (D − λi )mi (th eλi t ) = 0. Diamo una
funzione u(t) e calcoliamo per questa (D − λi )m (eλi u(t)). Per m = 1 (D − λ)(eλt u(t)) = λeλt u +
eλt Du − λeλt u = eλt Du.
Per m = 2 (D − λ)2 (eλt u) = λeλt Du + eλt D2 u − λeλt Du = eλt Du. Si itera facilmente per in-
36
duzione, quindi abbiamo che (D − λ)m (eλt u(t)) = eλt Dm u(t). Applichiamo questo risultato a
(D − λi )mi (th eλt ) = eλi t Dmi th = 0 perchè mi > h.
(2) Esista per assurdo una c.l. di queste funzioni t.c. sia uguale a 0. Ma una loro c.l. si può
scrivere come Q1 (t)eλ1 t +Q2 (t)eλ2 t +· · ·+Qk (t)eλk t = 0 con deg(Qi ) ≤ m−1. Mostriamo che Qi ≡ 0.
Iniziamo a controllare per k = 1. In questo caso abbiamo Qi (t)eλ1 t = 0 ⇔ Q1 (t) ≡ 0. Andiamo per
induzione, supponendo vero per k e dimostrando per k+1. Abbiamo che Q1 (t)eλ1 t +Q2 (t)eλ2 t +· · ·+
Qk (t)eλk t = −Q(t)eλk+1 t . Divido per eλk+1 t ⇒ Q1 (t)e(λ1 −λk+1 )t +· · ·+Qk (t)e(λk −λk+1 )t = −Qk+1 (t).
Ma poichè λi 6= λj si ha che λi − λk+1 6= 0 ∀k = 1, . . . , k. Allora derivo mk+1 volteper far
(λ − λ )t (λk − λk+1 )t
| 1 {z k+1 } | {z }
scomparire il secondo membro. Ottengo R1 (t)e µ1
+ · · · + Rk (t)e µk
= 0. Ma
applicando il lemma e l'ipotesi induttiva ho che Ri (t) ≡ 0 ⇒ Qi (t) ≡ 0 ∀i = 1, . . . , k. ##
Supponiamo ora di avere un'equazione del tipo P (D)x = f e di voler trovare una solux par-
ticolare. Nel caso f sia una funzione di ex , un polinomio o una funzione trigonometrica sem-
plice possiamo mettere in atto la strategia del tentativo (come disse Porretta), ovvero cerchiamo
una solux della stessa classe di funzione di f . In altri termini, se il nostro problema è del tipo
f (t) = eαt {H(t) cos(βt) + K(t) sin(βt)}, con α, β ∈ R e H, K polinomi, allora una solux sarà
x̄(t) = eαt {M (t) cos(βt) + N (t) sin(βt)}~. Controlliamo P (α + iβ). Se P (α + iβ) 6= 0, allora ∃
una solux nella classe ~, con M, N plinomi con deg(M, N ) = max{ deg(K), deg(H)}. Se invece
P (α + iβ) = 0 con una certa molteplicità m allora cerco delle solux del tipo ~ ma moltiplicato per
tm , ovvero x̄(t) = tm eαt {M (t) cos(βt) + N (t) sin(βt)}.
3.4 Stabilità
Sia f : Ω ⊂ Rn → Rn e diamo il sistema (S) ẋ(t) = f (x(t)), con f localmente lipsch (per l'unic-
ità). Allora ssiamo un punto x0 ∈ Ω e chiamiamo φ(t, x) la solux max che il sistema assume per
x(0) = x0 (se l'istante iniziale invece di essere 0 è s allora scriviamo φ(t, s, x)). φ è una funzione
φ(·, x0 ) : Jx0 → Rn con J aperto (illimitato), se infatti fosse chiuso potrei prolungare la soluzione.
Jx0 sarà allora della forma (α, β). Se β = +∞ si dice globale a dx, se α = −∞ si dice globale a sx,
se α, β = ∓∞ la solux è globale.
Def: φ : J → Rn solux di (S). φ si dice traiettoria, φ(J) si dice orbita. (Se considero t ≥ 0
allora φ(J ∩ [0, +∞]) si dice semiorbita dx).
φ̄(t) = φ(t + τ )
OSS: (1) Sia φ : J → una traiettoria, con J = (α, β). Allora ∀τ ∈ R ¯
Rn
J = (α − τ, β − τ )
,
ovvero posso sempre traslare tutto il sistema grazie al fatto che questo è autonomo.
(2) Siano φ1 : J → Rn , ˜ . Allora φ(t) = φ̃(t2 − t1 + t)∀t ∈ J
φ̃ : J˜ → Rn t.c. φ(t1 ) = φ̃2 (t2 )(t1 ∈ J, t2 ∈ J)
α̃ = α − τ, β̃ = β − τ doveτ =
Def: Un punto x0 ∈ Ω t.c. f (x0 ) = 0 si dice punto d'equilibrio del sistema (S) (in simboli
φ(t, x0 ) = x0 ∀t ∈ R).
37
Dimostrazione. Per assurdo f (x0 ) 6= 0, allora esiste r > 0 t.c. ||x − x0 || < r ⇒ ||f (x) − f (x0 )|| ≤
||f (x0 )||
2 . Posso però aermare che ∃t̄ ∈ R t.c. per t ≥ t̄||φ(t)−x0 || < r. Quindi per t ≥ t̄ ⇒ φ(t+1)−
φ(t) − f (x0 ) = t (f (φ(s)) − f (x0 ))ds e ||φ(t + 1) − φ(t) − f (x0 )|| = || t (f (φ(s)) − f (x0 ))ds|| ≤
R t+1 R t+1
2
||f (x0 )||
2 . Faccio ora il prodotto scalare: (φ(t + 1) − φ(t)) · f (x0 ) ≥ ||f (x0 )||2 − ||f (x20 )|| = ||f (x2 0 )|| > 0
2
in quanto (φ(t + 1) − φ(t) f (x0 )) · f (x0 ) + ||f (x0 )||2 ≥ ||f (x0 )||2 − ||f (x20 )|| per Cauchy-Schwartz.
Ma allora per t → +∞φ(t + 1) → x0 , φ(t) → x0 quindi il prodotto scalare tende a 0, ma è maggiore
di qualcosa > 0, che è assurdo. ##
OSS: (1) Esistono solo tre tipi di orbite: quelle stazionarie, i cicli e le curve semplici non chiuse.
(2) Sia φ : J → Rn una traiettoria NON COSTANTE t.c. esistono t1 6= t2 in J con φ(t1 ) = φ(t2 ).
Allora φ è periodica (ovvero un ciclo).
Dimostrazione. Sia t2 > t1 . Deniamo φ̃(t) = φ(t + t|2 {z
− t1 . Per t ∈ (α − τ, β − τ ) = J˜ abbiamo che
}
τ
φ̃(t1 ) = φ(t2 ) ⇒ φ̃ = φ ⇒ α, β = ∓∞ per forza, ovvero φ è globale e φ(t) = φ(t + τ ). Quindi se φ
non è costante è periodica per la seconda delle osservazioni precedenti. ##
Def: SiaE ∈ C 1 (Ω). Allora si denisce d
dt E(φ(t)) = ∇E(φ(t))f (x) ∀x ∈ Ω. E è un
integrale primo se Ė(x) = 0∀x ∈ Ω.
Prop: Se ∃E integrale primo, allora ogni orbita di (S) è contenuta in un unico insieme di livello
di E , ovvero {E = k}(k ∈ R).
Denizioni:
• Sia x0 ∈ Ω, φ(·, x0 ) : Jx0 → Rn si dice stabile se ∀ε > o∃δ > 0 t.c. ∀x ∈ Bδ (x0 ) allora per
t ∈ Jx ⊃ [0, +∞) ||φ(t, x) − φ(t, x0 )|| < ε.
Possiamo allora dare il teorema di Lyapunov, non prima però di aver dato tre lemmi importanti
per la dimostrazione:
Lemma 1: Sia U ⊂ Ω un insieme aperto limitato con Ū ⊂ Ω. Allora preso x0 ∈ U t.c. u(x0 ) <
min∂U u(x) ⇒ Jx0 ⊃ [0, +∞) e φ(t, x∗ ) ∈ U t ≥ 0 (è il cosiddetto lemma di intrappolamento
38
dell'orbita).
Dimostrazione. Sia u(φ(t, x0 )) = ϕ(t), t ≥ 0. Allora ϕ̇(t) = u̇(φ(t, x0 )) ≤ 0 (in quanto u̇(x) < 0).
Quindi ϕ(t) −−−−→ L. Se L = 0 ho nito. Prendo L > 0, ∃δ > 0 t.c. u(x) < L/2 ∀x ∈ Bδ .
t→+∞
Considero U = V − B̄δ . U 6= ∅ perchè contiene almeno x0 . Ma allora per φ(t, x0 ) ∈ U sup u̇(x) =
−b(< 0). Applichiamo quindi il LEMMA 2; in questo modo sappiamo che dobbiamo uscire da U in
un tempo nito. Ma per ipotesi non posso uscire da V e non posso entrare in Bδ per costruzione
(in quanto u(x) < L/2), quindi ho un assurdo e ho dimostrato il lemma. ##
Dopo questi tre lemmi possiamo dare il teorema di Lyapunov: Teorema di Lyapunov: Se
∃ una funzione di Lyapunov u(x) allora 0 è stabile. Inoltre se u̇(x) < 0 (non è mai uguale a 0)
∀x ∈ Ω \ {0} allora 0 è asintoticamente stabile.
Dimostrazione. Fissiamo ε > 0 e Uε . Prendo minx∈∂U u(x) = a(> 0) per continuità di u(x).
Allora ∃δ > 0 : u(x) < a/2∀x ∈ Bδ . Noi vogliamo mostrare che se x ∈ Bδ ⇒ Jx ⊃ [0, +∞) e
φ(x, t) ∈ U ∀t ≥ 0. Ma questa è la condizione del LEMMA 1, che ci dimostra proprio quello che
volevamo!!! Per dimostrare la seconda parte basta usare il LEMMA 3 per xinBδ e V = U . In
questo modo ho nito, perchè ho Jx ⊃ [0, +∞), φ(t, x) ∈ U e φ(t, x) −t→+∞
−−−→ 0. ##
Quindi le funzioni di Lyapunov sono essenziali per determinare se un punto è stabile, ma non
sono sempre semplici da trovare (anzi, non lo sono quasi mai). Un buon metodo per trovare le
funzioni quando abbiamo un sistema con due equazioni abbastanza simili è quello di moltiplicare
la prima per x e la seconda per y (all'occorrenza possiamo anche fare il contrario) e sommarle.
Integrando la parte con ẋ e ẏ abbiamo la nostra funzione di Lyapunov.
Un modo più generale è questo: se abbiamo A < 0 (con A matrice del sistema) noi sappiamo
che ∃R > 0 e k ≥ 0 t.c. ||φ(x)|| < k||x||2 . Inoltre ∃ν > 0 t.c. > Ax, x >≤ ν||x||2 , quindi
u̇(x) ≤ (k||x|| − ν)||x||2 . Se ||x|| ≤ νk ho una cosa negativa, prendendo ||x|| < min{R, νk } ho una
f.d.L. e 0 è AS. Questo discorso deriva dal fatto che ponendo ẋ = f (x), f (0) = 0 e t.c. ||Df (x) −
Df (y)|| ≤ k||x − y|| (va bene anche una funzione loc lip) posso ridurmi allaR solux precedente
sviluppando f con Taylor. Infatti in questo modo ho f (x) = 01 dsd f (sx)ds = 01 (Df (sx))xds =
R
39
(2) X ∈ C 1 (K, R
3 ) iniettiva sull'interno di K(K̇);
xu xv
(3) DX(u, v) = yu yv (uv) abbia rango 2 ∀(u, v) ∈ K̇ .
zu zv
Def: X(K) si dice sostegno della supercie.
xu (u, v) xv
OSS: Denite Xu (u, v) = yu (u, v) e Xv = yv Allora la proprietà (3) equivale a dire
zu (u, v) zv
che Xu , Xv sono l.i. per ogni (u, v) ∈ K̇ , ovvero Xu ∧ Xv 6= 0 ∀(u, v) ∈ K̇ .
Prendiamo ora un punto p0 = X(u0 , v0 ) con (u0 , v0 ) ∈ K̇ e troviamo una funzione ζ(t) =
(u(t), v(t)) con t ∈ I ⊂ R t.c. (u0 , v0 ) = ζ(t0 ). Posso allora denire la funzione γ(t) = X(ζ(t))
t.c. γ(t0 ) = p0 . Calcoliamo ora la tangente di questa funzione mediante la derivata: γ̇(t0 ) =
Xu (ζ(t0 ))u̇(t0 ) + Xv (ζ(t0 ))v̇(t0 ). Quindi la tangente è generata da Xu e Xv (che sono l.i. per
ipotesi)!!! Possiamo quindi dare un nome allo spazio generato da questi due vettori:
Def: Lo spazio generato dallo span di Xu e Xv è lo spazio tangente alla supercie in X(p0 ). Il
vettore normale è dato da: nX (p0 ) = Xu||X
(p0 )∧Xv (p0 )
u ∧Xv ||
.
OSS: Preso un insieme
K che rispetti la proprietà (1) e una funzione f ∈ C (K) possiamo
1
x(u, v) = u
denire la funzione X = y(u, v) = v . Poichè Xu = (1, 0, fu ) e Xv = (0, 1, fv ) queste sono l.i.
z(u, v) = f (u, v)
e quindi f denisce sempreuna supercie,
detta
supercie
cartesiana o graco.
e1 e2 e3 −fu
In questo caso Xu ∧ Xv = 1 0 fu = −fv e nG(f ) = (−f
√ u ,−f v ,1)
1+fu2 +fv2
√ u ,−fv ,1)2 .
= (−f
1+||∇f ||
0 1 fv 1
Studiamo le superci di livello di una supercie: sia U ⊂ R3 , F ∈ C(U ). Sia Σ0 = {(x, y, z) ∈
U |F (x, y, z) = 0} = 6 ∅ l'insieme delle superci di livello e sia ssato p0 = (x0 , y0 , z0 ) ∈ Σ0 , ∇F 6= 0.
Allora in un intorno di p0 abbiamo che Σ0 è localmente una supercie cartesiana, quindi è regolare.
Prendiamo Fz 6= 0 (lo posso sempre fare a meno di ridenire le coordinate), abbiamo quindi che
Fz (x0 , y0 , z0 ) 6= 0. Esiste quindi V̄p0 ⊂ U t.c. Fz 6= 0 su Vp0 . L'equazione F (x, y, z) = 0, (x, y, z) ∈
Vp0 è vericata ⇔ z = f (x, y) (dove f : K → R, K = Ā intorno di (X0 , y0 )).
Troviamo la normale a questo graco: n(p0 ) = (−f √ x ,−fy ,1)2 (x0 y0 ) ma noi sappiamo che fx = − FFx e
1+||∇f || z
Fx Fy
, ,1
− Fyz , quindi n(p0 ) = ||∇F (p0 )|| sgn(Fz (p0 )).
∇F (p0 )
F Fz Fz
fy = r
2 2 (p0 ) =
Fx Fy
1+ Fz
+ Fz
Def: Sia X : K → R3 una p.s.r. L' area della supercie si determina facendo
ZZ
A(x) = ||Xu ∧ Xv ||dudv
K
OSS: Tutto ciò che stiamo facendo è approssimare l'area in tanti poligoni innitesimi, tutti dati
dagli spazi tangenti, e sommare la loro area, in modo da ottenere l'area di tutta la supercie (at-
tenzione, è comunque un'approssimazione, come gli integrali lineari).
OSS: Cosa succede se abbiamo due riparametrizzazioni della stessa supercie? L'area dipende
dalla parametrizzazione o è una cosa intrinseca alla supercie?? Abbiamo una psr X : K → R3
e prendiamo una seconda parametrizzazione Y : H → R3 tale che sia X che Y sono parametri
40
della stessa spr
RR Σ. Facendo il calcolo dell'area vediamo che A(X) = K ||Xu ∧ Xv ||dudv , men-
RR
tre A(Y ) = H ||Yr ∧ Ys ||drds che sono diverse!!! Quindi l'area dipende dalla parametrizzazione,
non è una cosa intrinseca alla supercie (come sembrerebbe intuitivamente)!!! Esiste però un ca-
so in cui l'area non dipende dalla parametrizzazione, ovvero nel caso in cui ∃φ : K → H dif-
feomorsmo t.c. X(u, v) = Y (φ(u, v)). In questo caso A(X) = A(Y ) = A(Σ). Vediamo per-
chè
accade questo: sia φ il dieomersmo che manda (u, v) → (r(u, v), s(u, v)). Sappiamo che
Xu = Yr (φ(u, v))ru (u, v)) + Ys (φ(u, v)su (u, v))
⇒ Xu ∧Xv = (ru su − rv sv ) Yr (φ(u, v))Ys (φ(u, v)).
Xv (u, v) = Yr (φ(u, v)rv (u, v)) + Ys (φ(u, v)rv (u, v)) | {z }
detDφ(u,v)
Per quanto riguarda la normali abbiamo che nX (X(u, v)) = nY (Y (φ(u, v))sgn(detDφ(u, v)) (questo
ci
RR dice come cambiano le normali), mentre per l'area abbiamo che A(X) = K ||Xu ∧ Xv ||dudv =
RR
K ||Yr (φ(u, v)) ∧ Ys (φ(u, v))|||detDφ(u, v)|dudv =(per il teorema di cambio delle variabili per gli
integrali doppi) = ||Yr (φ(u, v)) ∧ Ys (φ(u, v))||drds = A(Y ) ovvero le aree rimangono uguali!!!
Abbiamo un insieme Ω ⊂ R2 e una funzione f : U → R, con U ⊃ Ω. Cosa posso dire del max o del
min di f su Ω???
Innanzitutto l'esistenza:
(a) Se Ω è limitato allora per Weierstrass esistono sicuramente max e min di f . Se f è semicontinua
superiromente (e Ω sempre limitato) allora esiste il max, mentre se f è inferiromente semicontinua
esiste il min (ovviamente Ω deve essere limitato anche in questo caso);
(b) Se Ω non è necessariamente limitato dobbiamo avere che limΩ3(x,y)→+∞ f (x, y) = +∞ e f sc
inferiormente. Allora esiste il minimo do f su Ω;
(c) Se invece f è sc superiormente e limω3(x,y)→+∞ f (x, y) = −∞ esiste il massimo. (le condizioni
sui limiti di dicono coercitività).
Dimostriamo questo fatto per (b): ∃(x0 , y0 ) ∈ Ω̄ e m0 = f (x0 , y0 ) ⇒ ∃R > 0 t.c. (x, y) ∈
Ω \ IR (x0 , y0 ) ⇒ f (x, y) ≥ 2m0 Esiste quindi un minΩ̄∩IR (x0 ,y0 ) f ≤ m0 = minΩ̄ f .
Ora cerchiamo questi punti: prendiamo tre insiemi: Ω1 = {(x, y) ∈ Ω|∃∇f (x, y)} (questo è un
aperto), Ω2 = {(x, y) ∈ Ω|@∇f (x, y)} e Ω3 = ∂Ω. L'unione di questi tre insiemi è uguale alla chiusura
di Ω. Noi sappiamo che f (x0 , y0 ) = maxΩ f / minΩ f se (x0 , y0 ) ∈ Ω1 ovvero ∇f (x0 , y0 ) = 0.
Per i punti di frontiera supponiamo ∂Ω = γ(I) I = [a, b] e γ : I → R2 una curva regolare.
(x0 , y0 ) = γ(t0 ) con t0 ∈ (a, b). Allora se t → f (γ(t)) ha max (min) in t0 vuol dire che (x0 , y0 ) è un
punto di max (min). (Possiamo raorzare le ipotesi accontentandoci di avere f dierenziabile in un
intorno di ∂Ω, allora si deve avere (∇f (x0 , y0 ), γ̇(t0 )) = 0). Per i punti in cui non esiste ∇f (x, y)
non posso fare niente di particolare, posso solo calcolare quanto vale la funzione in quei punti e
confrontarli con gli eventuali max/min trovati con i metodi precedenti.
41
con ∇g 6= 0 t.c. G = {(x, y) ∈ U |g(x, y) = 0} con g la funzione del bordo.
Prop 2: Se (x0 , y0 ) è un punto di estremo vincolato (su G) per f allora ∃λ0 ∈ R t.c. (x0 , y0 , λ0 )
è stazionario per H(x, y, λ) = f (x, y) + λg(x, y) con (x, y, λ) ∈ U × R. (Questo non è altri che il
metodo dei motiplicatori di Lagrange nel caso bidimensionale, vedremo il caso generale più avanti).
Prop. 2 (2.0): Se (x0 , y0 , z0 ) è un punto di estremo vincolato su G per f allora ∃λ0 ∈ R t.c.
(x0 , y0 , z0 , λ0 ) è stazionario per H(x, y, z, λ) = f (x, y, z) + λg(x, y, z).
3.5.2 Varietà
OSS 1: La proprietà (a) è equivalente a dire che per UN SOLO punto p0 il dierenziale abbia
rango massimo (basta lavorare negli intorni).
di quelli in geometria...)
42
Prop: Presi p0 ∈ M, φ ∈ C 1 (I(p0 , R), RN −k ) allora TM (p0 ) = ker Dφ(p0 ) e dim TM (p0 ) = k.
Def: Lo spazio TM (p0 )⊥ = NM (p0 ) si denisce spazio normale di M in p0 . La sua dimen-
sione è N − k.
OSS: Poichè v ∈ TM (p0 ) ⇔ Dφ(p0 )v = 0, questo indica che {∇φi (p0 )}i=1,...,N −k ⊂ NM (p0 ) e,
poichè per denizione sono l.i. (condizione necessaria per il rango), questi formano una base per
NM (p0 ).
Def: Data una varietà k-dim M ⊂ A ⊂ RN (A aperto) e una funzione f ∈ C 1 (A) si dice che
p0 ∈ M è un punto di estremo (relativo) vincolato per f su M se è di estremo (relativo) per
f |M .
Ma come si fa a trovare questi punti? Abbiamo un teorema che ci aiuta, in cui usiamo il metodo
dei moltiplicatori di Lagrange (che tra l'altro abbiamo già usato per trovare gli estremi vincolati in
una supercie):
43