Sie sind auf Seite 1von 12

Hauptseminar: Inverse Probleme

Nichtlineare inverse Probleme


Shen Zeng

Zusammenfassung
Wir betrachten das inverse Problem gegeben durch die Gleichung
(x) = y,
wobei ein nichtlinearer Operator zwischen Hilbertraumen ist. Uns wird dabei
beschaftigen, inwiefern wir den gut verstandenen linearen Fall auf nichtlineare
Probleme verallgemeinern konnen. Wir f uhren zuerst elementare Begrie ein,
wie etwa die lokale Schlechtgestelltheit, die Kompaktheit von im allgemeinen
nichtlinearen Operatoren oder die Regularisierungsverfahren im nichtlinearen
Fall. Wir zeigen, dass im nichtlinearen Fall zum linearen Fall analoge Resultate
f ur kompakte gelten. Weiterhin sehen wir, dass in unserem Framework die
obige Gleichung lokal schlecht gestellt ist.
Die Schlechtgestelltheit motiviert schliesslich nichtlineare Regularisierungs-
verfahren. Wir konzentrieren uns auf die Verallgemeinerung der Tikhonov-
Regularisierung. Im nichtlinearen Fall ist die analoge Idee, das Funktional
|(x) y

|
2
Y
+ |x|
2
X
zu minimieren. Wir diskutieren Fragen der Existenz und der Konvergenz,
welche entscheidend f ur das Regularisierungsverfahren sind.
Inhaltsverzeichnis
1 Nichtlineare inverse Probleme 2
2 Lokale Schlechtgestelltheit 2
3 Nichtlineare Regularisierung 5
Literatur 12

Universitat Stuttgart, E-mail: shen.zeng@ist.uni-stuttgart.de


1
2
1 Nichtlineare inverse Probleme
Gegeben seien zwei Hilbertraume X und Y und ein nichtlinearer Operator mit
Denitionsbereich T() X, welcher Werte in Y annimmt. Die Situation kann wie
in Abbildung 1 illustriert werden.
(X , ,
X
)

(Y, ,
Y
)

T()
(X, ,
X
) (Y, ,
Y
)
Abbildung 1: Eine Illustration unseres Settings. Wir betrachten zwei Hilbertraume
X und Y und im Mittelpunkt steht der Operator : T() X Y, x (x).
Wir betrachten nun das nichtlineare inverse Problem gegeben durch die Gleichung
(x) = y. (1)
Uns wird dabei beschaftigen, inwiefern wir den gut verstandenen linearen Fall auf
nichtlineare Probleme verallgemeinern konnen. Im nachsten Abschnitt denieren wir
zunachst, was wir unter Schlechtgestelltheit im nichtlinearen Fall verstehen.
2 Lokale Schlechtgestelltheit
Wahrend wir im linearen Fall entweder Schlechtgestelltheit oder Wohlgestelltheit auf
dem ganzen Denitionsbereich (also global) haben, so betrachten wir im nichtlinearen
Fall jeden einzelnen Punkt lokal. Dies liegt an der Natur von nichtlinearen Problemen.
Denition 1 (Lokale Schlechtgestelltheit). Die Gleichung (1) heit lokal schlecht
gestellt in x T(), falls es zu jedem r > 0 eine Folge (x
n
)
nN
in B
r
(x) T()
gibt, sodass
(x
n
) (x), aber nicht x
n
x.
Gleichung (1) heisst also lokal schlecht gestellt in x T(), falls es lokal um x (also
beliebig nahe um x) eine Folge existiert, deren Bilder gegen (x) konvergieren, ohne
dass die Folge gegen x konvergiert. Damit decken wir (wie man leicht zeigen kann)
die Falle ab, dass grob gesprochen lokal um x nicht injektiv ist (also, dass x keine
isolierte Losung ist), oder dass x nicht stetig von y abhangt.
3
Wie wir bereits wissen, tritt Schlechtgestelltheit im linearen Fall beispielsweise bei der
Invertierung kompakter Operatoren auf (vgl. [1], Satz 2.31). Wir werden sehen, dass
im nichtlinearen Fall ein analoges Resultat gilt. Bevor wir dieses Resultat formulieren
und beweisen, wiederholen wir noch, was wir unter Kompaktheit von im Allgemeinen
nichtlinearen Operatoren verstehen.
Denition 2 (Kompakter Operator, vgl. [2]). Ein Operator : T() X Y
heit kompakt, falls er stetig ist und es gilt
U T() beschrankt (U) relativ kompakt in Y.
Bemerkung. Leider ndet sich in der Literatur keine einheitliche Denition f ur die
Kompaktheit von in Allgemeinen nichtlinearen Operatoren. Beispielsweise wird ein
nichtlinearer Operator, der obige Eigenschaft erf ullt, in [3], S. 233, neben kompakt
auch vollstetig genannt. In [1] und anderen B uchern hingegen wird in der Denition
von Kompaktheit auf die Forderung von Stetigkeit verzichtet. Mit der zusatzlichen
Forderung der Stetigkeit wird ein Operator dort dann vollstetig genannt.
Wir fordern nun weiterhin die schwache Folgenabgeschlossenheit des Operators.
Denition 3 (Schwach folgenabgeschlossener Operator). Der Operator heit
schwach folgenabgeschlossen, wenn f ur alle (x
n
)
nN
in T() gilt, dass
x
n
x und (x
n
) y x T() und y = (x).
Bemerkung. Der Leser ist bestimmt mit der schwachen Folgenabgeschlossenheit
einer Menge M vertraut, welche besagt, dass der Grenzwert einer schwach kon-
vergenten Folge mit Folgengliedern in M auch in M liegt. Oenbar wird durch
die bestimmte Namensgebung in Denition 3 ein Zusammenhang zwischen beiden
Konzepten angedeutet. Der Leser ist in der Mathematik bestimmt schon einer Vielzahl
solcher Zusammenhange begegnet. Ein ahnliches Beispiel ist der Zusammenhang
zwischen konvexer Menge und konvexer Kurve, bzw. konvexer Funktion. In unserem
Fall ist der Zusammenhang oensichtlich der Folgende: Ein Operator ist schwach
folgenabgeschlossen, genau dann wenn graph() := (x, (x)) : x T() eine
schwach folgenabgeschlossene Menge in X Y ist.
Wir konzentrieren uns bei unserer gesamten Betrachtung auf kompakte und schwach
folgenabgeschlossene Operatoren. Der Grund daf ur ist zweifaltig. Zum einen haben
diese die sehr interessante Eigenschaft, dass sie schwach konvergente Folgen auf stark
konvergente Folgen abbilden. Das ist nat urlich vollig analog zur Vollstetigkeit im
linearen Fall. Zweitens gilt hier, wieder analog zum linearen Fall, dass die Gleichung
(x) = y lokal schlecht gestellt ist in jedem x int T(). Das macht gerade diese
Operatoren besonders interessant f ur inverse Probleme und deren Regularisierung.
4
Die zur Vollstetigkeit analoge Eigenschaft konnen wir wie folgt formulieren.
Satz 4. Sei kompakt und schwach folgenabgeschlossen. Dann gilt f ur alle Folgen
(x
n
)
nN
in T() mit x
n
x, dass
x T() und (x
n
) (x).
Beweis. Wegen der schwachen Konvergenz ist (x
n
) beschrankt. Damit ist auch jede
Teilfolge (x
n
k
) beschrankt. Wegen Kompaktheit besitzt die Folge der (x
n
k
), welche
eine beliebige Teilfolge von ((x
n
)) ist, ihrerseits eine Teilfolge, welche stark gegen
ein y Y konvergiert.
Aus der starken Konvergenz der Teilteilfolge gegen y folgt die schwache Konvergenz
der Teilteilfolge gegen y. Wegen der schwachen Folgenabgeschlossenheit von ist
x T() und y = (x).
Zusammenfassend gilt, dass jede Teilfolge von ((x
n
)) ihrerseits eine Teilfolge besitzt,
welche gegen (x) konvergiert. Mit folgendem Lemma folgt damit unmittelbar die
behauptete Konvergenz (x
n
) (x).
Das Lemma, das wir hier benutzen, ist dem ein oder anderen vielleicht aus der
Analysis bekannt. Es lasst sich wie folgt formulieren.
Lemma 5. Sei x X und sei (x
n
)
nN
eine Folge in X mit der Eigenschaft, dass
jede Teilfolge ihrerseits eine Teilfolge besitzt, welche gegen x konvergiert. Dann gilt
x
n
x.
Beweis. Gegenannahme: Die Folge der x
n
konvergiere nicht gegen x, d.h.
> 0 N N n N |x
n
x| .
Nun lasst sich mit dieser Tatsache leicht eine Teilfolge (x
n
k
) konstruieren, so dass
k N |x
n
k
x| .
Oensichtlich kann keine Teilfolge von (x
n
k
) gegen x konvergieren. Widerspruch.
Und wie wir auch bereits angesprochen haben, gilt der folgende Satz.
Satz 6. Sei kompakt und schwach folgenabgeschlossen. Weiterhin sei X unendlich-
dimensional. Dann ist die nichtlineare Gleichung (x) = y lokal schlecht gestellt in
jedem Punkt x int T().
5
Beweis. Der RaumX ist unendlich-dimensional und es existiert daher per Denition
ein abzahlbar unendliches System linear unabhangiger Vektoren. Eine Anwendung
des Gram-Schmidt Verfahrens (vgl. [4], Satz V.4.2) liefert uns dann ein abzahlbar
unendliches Orthonormalsystem (e
n
)
nN
.
Bekanntlich gilt die Besselsche Ungleichung

n=1
x, e
n

2
|x|
2
f ur alle x X.
Insbesondere konvergiert also die Reihe auf der linken Seite und daher x, e
n
0
f ur alle x X. Das heisst aber nichts anderes als
e
n
0.
Wir wahlen nun ein beliebiges x int T() und denieren die Folge
x
n
:= x + r e
n
,
wobei wir r > 0 so klein wahlen, dass x
n
T() f ur alle n N. Oensichtlich gilt
x
n
x und daher (wegen Kompaktheit und schwacher Folgenabgeschlossenheit) die
Konvergenz (x
n
) (x). F ur die Folge der x
n
gilt aber |x
n
x| = |r e
n
| = r > 0
und folglich nicht die Konvergenz x
n
x.
Wir betonen, dass die beiden Eigenschaften der Vollstetigkeit und der lokalen
Schlechtgestelltheit miteinander verbunden sind. Wie wir namlich im Beweis von
Satz 6 gesehen haben, ist die Eigenschaft der Vollstetigkeit letztendlich der Grund
daf ur, dass kompakte und schwachfolgenabgeschlossene Operatoren schlechtgestellte
Probleme induzieren.
Anschaulich betrachtet ist dies gar nicht so uberraschend, da die Konvergenz einer
Folge (x
n
) (x) schon eintritt, wenn f ur die urspr ungliche Folge die schwache
Konvergenz x
n
x gilt (vgl. auch [5]). Bekanntlicherweise impliziert diese schwache
Konvergenz im Allgemeinen nicht die starke Konvergenz x
n
x. Diese Feststellung
vergleiche man nun mit der Denition der lokalen Schlechtgestelltheit. Im Beweis
von Satz 6 haben wir dann blo zu jedem x int T() eine Folge in B
r
(x) T()
konstruiert, die schwach gegen x konvergiert, aber nicht stark.
3 Nichtlineare Regularisierung
Motiviert durch die kurze Einf uhrung betrachten wir also Operatoren
: T() X Y,
die kompakt und schwach folgenabgeschlossen sind. Wie wir gesehen haben ist die
Gleichung (x) = y in diesem Fall in jedem x int T() lokal schlecht gestellt. Wir
mochten nun nat urlich dieses schlecht gestellte Problem regularisieren.
Wir beginnen, indem wir Begrie der Regularisierung inverser Probleme auf den
nichtlinearen Fall ubertragen. Die Analogie zum linearen Fall sollte dabei klar sein.
6
Denition 7. Zu y 1() heit x
+
T() Minimum-Norm-Losung, falls
(x
+
) = y und |x
+
| ||
1
(y).
Denition 8. Eine Familie von stetigen (i.A. nichtlinearen) Operatoren (R

)
>0
R

: Y X
zusammen mit einer Parameterwahlstrategie : R
+
Y R
+
heisst
Regularisierungsverfahren, falls f ur jedes y 1() und jede Folge in y

Y mit
|y

y| , 0 gilt
R
(,y

)
(y

) x
+
,
mit einer Minimum-Norm-Losung x
+
zu y.
Im linearen Fall war der Ausgangspunkt f ur die Tikhonov-Regularisierung
x

= (K

K + I)
1
K

die Minimierung von


|Kx y

|
2
Y
+ |x|
2
X
.
Vollig analog dazu konnen wir versuchen die Tikhonov-Regularisierung auch f ur
nichtlineare Probleme anzuwenden, indem wir versuchen das Funktional
x J

(x, y

) := |(x) y

|
2
Y
+ |x|
2
X
zu minimieren, also indem wir (zunachst formal) die Regularisierungen denieren als
R

: Y X, R

(y

) := x

, wobei x

minimiert J

(, y

).
Wir untersuchen als Nachstes, inwiefern die Denition der obigen Regularisierung
Sinn macht (z.B. Existenz und Eindeutigkeit von Minimierern von J

(, y

)). Bei der


Untersuchung werden wir die folgenden zwei wohlbekannte Ergebnisse zur schwachen
Konvergenz in Hilbertraumen ausgiebig verwenden.
Satz 9. Sei (x
n
)
nN
eine Folge in X mit x
n
x X. Dann gelten
(i) |x| liminf
n
|x
n
|,
(ii) Falls limsup
n
|x
n
| |x| gilt, so ist x
n
x.
7
Beweis. (i) Aufgrund der schwachen Konvergenz der Folge (x
n
) gilt x
n
, x |x|
2
,
und weiterhin die Beschranktheit von (x
n
). Betrachte nun
|x|
2
= lim
n
x
n
, x = liminf
n
x
n
, x liminf
n
|x
n
| |x|.
(ii) Es gilt oensichtlich |x|
(i)
liminf
n
|x
n
| limsup
n
|x
n
| |x|, und
somit |x
n
| |x|. Betrachte nun
|x
n
x|
2
= |x
n
|
2
2x
n
, x +|x|
2
|x|
2
2|x| +|x|
2
= 0.
Bemerkung. Die erste Eigenschaft ist mehr eine Eigenschaft der Norm, besagt sie
doch, dass die Norm ein schwach unterhalbfolgenstetiges Funktional ist.
Nun klaren wir zwei f ur die Regularisierung kritische Existenzfragen. Wir zeigen
die Existenz von Minimum-Norm-Losungen von (x) = y und die Existenz von
Minimierern von J

(, y).
Satz 10. Es gelten die folgenden Aussagen:
(i) F ur alle y 1() existiert eine Minimum-Norm-Losung.
(ii) F ur alle > 0 und y Y existiert ein Minimum x T() von J

(, y), d.h.
J

(x, y) J

(, y) T().
Beweis. (i) Die Menge || :
1
(y) ist nichtleer und durch die Null nach
unten beschrankt. Es existiert das Inmum inf

1
({y})
|| und gleichzeitig eine
Folge (x
n
) in
1
(y) mit
|x
n
| inf

1
({y})
||.
Die Folge der x
n
ist beschrankt, so dass eine Teilfolge existiert, welche schwach gegen
ein x X konvergiert. Aufgrund der Vollstetigkeit in Satz 4 gilt
x T() und ( x) = lim
k
(x
n
k
) = y,
d.h. x lost die Gleichung (x) = y. Dar uber hinaus gilt
| x| liminf
k
|x
n
k
| = lim
k
|x
n
k
| = inf

1
({y})
||.
Damit ist die Existenz einer Minimum-Norm-Losung schliesslich gezeigt.
8
(ii) Wegen der Denition des Tikhonov-Funktionals
J

(x, y) := |(x) y|
2
Y
+ |x|
2
X
existiert inf
D()
J

(, y) und damit einhergehend eine Folge (x


n
) in T() mit
J

(x
n
, y) inf
D()
J

(, y).
Die Folge der x
n
ist beschrankt wegen
|x
n
|
2
J

(x
n
, y)
und der Beschranktheit der Folge der J

(x
n
, y). Es existiert eine Teilfolge, welche
schwach gegen ein x X konvergiert. Wir folgern daraus wieder
| x| liminf
k
|x
n
k
| (2)
und mit Satz 4 (Vollstetigkeit) und der Stetigkeit der Norm
x T() und |( x) y|
2
= lim
k
|(x
n
k
) y|
2
. (3)
Nun zeigen wir, dass x unser Funktional minimiert. Zunachst einmal gilt
1
inf
D()
J

(, y) = lim
k
J

(x
n
k
, y) lim
k
|(x
n
k
) y|
2
+ liminf
k
|x
n
k
|
2
. (4)
Mit der Ungleichung (4) und unseren bisherigen Ergebnissen (2) und (3) gilt
inf
D()
J

(, y) |( x) y|
2
+ | x|
2
= J

( x, y),
und damit J

( x, y) = inf
D()
J

(, y).
Dies zeigt zwar die Existenz, es gilt aber im Allgemeinen, dass sowohl Minimum-
Norm-Losung, als auch Minimierer von J

(, y) nicht eindeutig sind. Die Tatsache,


dass im Allgemeinen mehrere Minimierer von J

(, y) existieren, scheint zunachst


problematisch zu sein f ur unsere (zunachst formale) Denition der Regularisierungen
R

: Y X, R

(y

) := x

, wobei x

minimiert J

(, y

).
Dennoch konnen wir oensichtlich durch willk urliche Wahl eines Minimierers x

eine
wohldenierte Abbildung erhalten. Wie wir sehen werden, besteht dann sogar in
einem gewissen Sinne eine stetige Abhangigkeit von den Daten. Wir meinen hierbei
die Stetigkeit im Sinne von
y
n
y x
n
x,
wobei die x
n
Minimierer von J

(, y
n
) sind und x Minimierer von J

(, y) ist. Die Art


der Konvergenz von x
n
gegen x wird im ersten Teil des folgenden Satzes speziziert.
1
An dieser Stelle erinnern wir an die oensichtliche Superadditivitat des Limes inferior,
liminf
n
(a
n
+ b
n
) liminf
n
(a
n
) + liminf
n
(b
n
).
9
Satz 11. Sei > 0, (y
n
)
nN
eine Folge in Y mit y
n
y und (x
n
)
nN
eine
(willk urliche) Folge von Minimierern von J

(, y
n
). Dann gilt:
(i) Es existiert eine konvergente Teilfolge von (x
n
)
nN
und jede konvergente Teil-
folge konvergiert gegen einen Minimierer von J

(, y).
(ii) Existiert nur ein Minimierer x von J

(, y), so gilt sogar x


n
x.
Beweis. (i) Zunachst einmal zeigen wir die Existenz einer schwach konvergenten
Teilfolge von (x
n
). Es gilt f ur beliebiges T() die Ungleichung
|(x
n
) y
n
|
2
+ |x
n
|
2
= J

(x
n
, y
n
) J

(, y
n
) = |() y
n
|
2
+ ||
2
und wegen Beschranktheit der (konvergenten) Folge (y
n
) ist die Folge (x
n
) auch
beschrankt. Insbesondere existiert also eine Teilfolge mit
x
n
k
x.
Nun zeigen wir, dass x Minimierer ist und dass die Konvergenz sogar stark ist. Es
gilt wegen schwacher Unterhalbfolgenstetigkeit der Norm und Satz 4
| x| liminf
k
|x
n
k
|, sowie x T() und lim
k
(x
n
k
) = ( x).
Damit erhalten wir
J

( x, y) = |( x) y|
2

=lim
k
(x
n
k
)y
n
k

2
+ | x|
2

liminf
k
x
n
k

liminf
k
J

(x
n
k
, y
n
k
).
Wir konnen die Abschatzung wie folgt weiterf uhren:
liminf
k
J

(x
n
k
, y
n
k
) liminf
k
J

(, y
n
k
) = lim
k
J

(, y
n
k
) = J

(, y),
und zwar da x
n
k
nach Voraussetzung Minimierer von J

(, y
n
k
) sind und da ferner die
Abbildung y J

(, y) f ur beliebiges oensichtlich stetig ist. Zusammenfassend


haben wir also gezeigt, dass J

( x, y) J

(, y) f ur alle T().
Um die starke Konvergenz nachzuweisen, zeigen wir die Ungleichung
limsup
k
|x
n
k
| | x|.
Dies gilt aber oensichtlich wegen (setze = x in der ersten Gleichung)
|x
n
k
|
2
J

( x, y
n
k
) |(x
n
k
) y
n
k
|
2
J( x, y) |( x) y|
2
= | x|
2
.
(ii) Man uberzeugt sich leicht, dass man mit unserer Argumentation sogar gezeigt
hat, dass jede Teilfolge von (x
n
) ihrerseits eine Teilfolge besitzt, welche gegen einen
Minimierer von J

(, y) konvergiert.
Im Falle der Eindeutigkeit des Minimierers folgt mit Lemma 5 die Konvergenz der
gesamten Folge gegen den eindeutigen Minimierer.
10
Bisher haben wir hauptsachlich die Regularisierungen R

f ur feste > 0 untersucht.


Nun betrachten wir eine Folge von Messungen y

, die in der Norm gegen das wahre


y 1() konvergiert, und kombinieren die Regularisierungen mit einer geeigneten
Parameterwahlstrategie : (, y

) (, y

), mit dem Ziel, dass


R
(,y

)
(y

) x
+
,
wobei x
+
Minimum-Norm-Losung zu (x) = y ist. Das Hauptergebnis unserer
gesamten Betrachtung kann nun wie folgt formuliert werden.
Satz 12. Sei y 1() und sei (y

)
>0
eine Folge in Y mit |y

y| . Wir wahlen
() > 0 so dass
() 0 und

2
()
0 f ur 0. (5)
Es seien x

Minimierer von J
()
(, y

).
Dann hat die Folge (x

)
>0
eine konvergente Teilfolge. Der Grenzwert jeder konver-
genten Teilfolge ist eine Minimum-Norm-Losung von (x) = y. Ist x
+
die einzige
Minimum-Norm-Losung, dann gilt sogar
lim
0
x

= x
+
.
Beweis. Sei x eine Minimum-Norm-Losung von (x) = y. Es gilt
|(x

) y

|
2
+ () |x

|
2
= J
()
(x

, y

) J
()
(x, y

),
da x

die Minimierer von J


()
(, y

) sind. F ur die rechte Seite gilt ferner


J
()
(x, y

) = |y y

|
2
+ () |x|
2

2
+ () |x|
2
.
Wegen () 0 f ur 0 in der Parameterwahlstrategie (5) gilt oensichtlich
|(x

) y

|
2
+ () |x

|
2

2
+ () |x|
2
0,
und somit
|(x

) y

| 0 f ur 0, bzw. lim
0
(x

) = y. (6)
Ausserdem folgt |x

|
2


2
()
+|x|
2
und wegen

2
()
0 f ur 0 also
limsup
0
|x

| |x|. (7)
Diese zwei Eigenschaften werden wir im Folgenden verwenden.
11
Wegen der Beschranktheit von (x

)
>0
existiert eine Teilfolge x
n
:= x

mit x
n
x.
Wir zeigen nun, dass dieser schwache Grenzwert x eine Minimum-Norm-Losung zu
der Gleichung (x) = y ist. Nach Satz 4 gilt
x T() und ( x) = lim
n
(x
n
) = lim
0
(x

)
(6)
= y.
Weiterhin gilt
| x| liminf
n
|x
n
| limsup
n
|x
n
| limsup
0
|x

|
(7)
|x|.
Dies zeigt, dass x eine Minimum-Norm-Losung ist. Dass nun neben der schwachen
Konvergenz x
n
x sogar die starke Konvergenz x
n
x gilt, folgt aus
limsup
0
|x

| |x| = | x|.
Um den letzten Teil zu beweisen, stellen wir fest, dass wir den obigen Beweisteil auch
f ur eine beliebige Teilfolge von (x

)
>0
hatten durchlaufen konnen. Also gilt eigentlich
sogar, dass jede Teilfolge von (x

)
>0
ihrerseits eine Teilfolge besitzt, welche gegen
eine Minimum-Norm-Losung konvergiert. Im Falle der Eindeutigkeit der Minimum-
Norm-Losung folgt wieder sofort mit Lemma 5 die Konvergenz der gesamten Folge
gegen die eindeutige Minimum-Norm-Losung.
Als Korollar von Satz 12 erhalten wir schlielich (vgl. auch Denition 8)
Korollar 13. Existiert f ur jedes y 1() eine eindeutige Minimum-Norm-Losung,
so deniert die Familie der stetigen (nach Satz 11) Operatoren
R

: Y X, R

(y

) := x

, wobei x

minimiert J

(, y

)
mit der a-priori Parameterwahlstrategie (5) ein Regularisierungsverfahren.
Fordern wir zusatzlich, dass f ur alle > 0 und alle y Y das Tikhonov-Funktional
J

(, y) ein eindeutiges Minimum besitzt, so sind die Regularisierungs-Operatoren


sogar im klassischen Sinn stetig, vgl. Satz 11 (ii).
12
Literatur
[1] B. Harrach: Vorlesung: Regularisierung inverser Probleme, verf ugbar unter
http://www.mathematik.uni-wuerzburg.de/
~
harrach/lehre/RegInv.pdf.
[2] M. Ruzicka: Nichtlineare Funktionalanalysis: Eine Einf uhrung, Springer, 2004.
[3] H.W. Engl: Integralgleichungen, Springer, 1997.
[4] D. Werner: Funktionalanalysis, Springer, 2011.
[5] J. Baumeister: Vorlesung: Aspekte der Nichtlinearen Funktionalanalysis,
verf ugbar unter http://www.math.uni-frankfurt.de/
~
numerik/lehre/
Vorlesungen/Nonl-13/Skript/1.%20Kapitel.pdf.