Beruflich Dokumente
Kultur Dokumente
Abb. 1: Hypocampus
Gliederung
1 Einleitung
3 Anwendungsbeispiel:
Fernerkundung von Waldveränderungen
4 Anwendungsbeispiel:
Praxisteil
2 Grundlagen Künstlicher Neuronaler Netze
2.1 Definition und Zielsetzungen künstlicher neuronaler Netze
Definition:
„Künstliche neuronale Netzwerke (KNNs) sind umfangreiche Netzwerke
extrem einfacher Berechnungseinheiten, die sehr stark untereinander
verbunden sind und parallel ablaufen.“
(GOPAL et al. 1996: 399) (eigene Übers.)
- Hohe Flexibilität
Industrie Finanzwesen
Qualitätskontrolle Kursprognosen
Sortierung Unterschriften-
Robotersteuerung erkennung
Medizin Telekommunikation
Gewebeanalyse Netzoptimierung
Klinikmanagement Datenkompression
2 Grundlagen Künstlicher Neuronaler Netze
2.1 Definition und Zielsetzungen künstlicher neuronaler Netze
- Bildsegmentierung
- Objekterkennung
2 Grundlagen Künstlicher Neuronaler Netze
2.2 Historischer Abriss
Lernregel:
Anpassung des Netzwerks durch Berechnung
der Differenz zwischen Soll- und Ist-Output
Abb. 6: Frank Rosenblatt
(1928 - 1969)
2 Grundlagen Künstlicher Neuronaler Netze
2.2 Historischer Abriss
Abb. 8: David Rumelhart Abb. 9: Geoffrey Hinton Abb. 10: Ronald Williams
(1948- ) (1947- )
2 Grundlagen Künstlicher Neuronaler Netze
KNNs bestehen aus Neuronen (Units, Knoten), die untereinander oder mit der
Außenwelt kommunizieren. …
Die Bias-Unit
Beispiele in Abbildung:
2 -3
1 -7 Netto-Input = (2 * (-3)) + ((-1) * 1) + (3 * 0) = (-7)
-1
3 0
Abb. 14: Berechnung des Netto-Inputs (eigene Darstellung)
2 Grundlagen Künstlicher Neuronaler Netze
2.4 Funktionsweise künstlicher neuronaler Netze
Aktivitätsfunktion
Beispiel:
Abb 15: Zweidimensionales
2 -3 Liniendiagramm mit sigmoider
Sigmoidal- Aktivitätsfunktion
1 -7 0,001
-1 Funktion
3 0
- Differenzierbarkeit
Ausbreitungs- / Testphase:
- Keine Gewichtsveränderung
Lernregeln:
Definition:
Die Lernregel ist ein Algorithmus, der das Neuronale
Netz verändert und ihm so beibringt,
für eine vorgegebene Eingabe eine
gewünschte Ausgabe zu produzieren.
(KRIESEL 2007: 35)
Hebbsche Lernregel:
Delta-Regel (Widrow-Hoff-Lernregel):
∆wij = ε * δi * aj
Mit δi = ai (Soll) – ai (Ist)
2 Grundlagen Künstlicher Neuronaler Netze
2.4 Funktionsweise künstlicher neuronaler Netze
Backpropagation
Voraussetzungen:
- Vollständig verbundenes, vorwärtsgerichtetes (feedforward) Netz
- differenzierbare Aktivierungsfunktion
2 Netzdurchläufe:
2 Möglichkeiten:
E [w] ≡ ∑ (t d − od ) 2
r 1
2 d∈D
D = Gesamtheit aller Trainingspixel Abb. 22: Fehler-Hyperebene im 3-D-
Raum (verändert)
2 Grundlagen Künstlicher Neuronaler Netze
2.4 Funktionsweise künstlicher neuronaler Netze
2. Gradientenabstiegsverfahren:
- Direkte Oszillation
- Indirekte Oszillation
Abb. 23: Fehler-Hyperebene im 3-D-Raum (2)
2 Grundlagen Künstlicher Neuronaler Netze
2.4 Funktionsweise künstlicher neuronaler Netze
- Verteilte Speicherung:
Informationen sind über das gesamte Netz oder zumindest über einen Teil
davon verteilt
- Parallelverarbeitung
- 5 Inputvektoren (TM11991-TM11988,
TM21991-TM21988…)
Output: relative Änderung
∂e( z | x, w(n))
w(n + 1) = w(n) + η + γ∆w(n)
∂w(n)
Mit: w(n) = Gewichtungsvektor während des 5 * n-ten Input-Signals
η = Lernrate = 0,3
γ = Momentum-Rate = 0,6
de/dw(n) = Fehleränderung in Abhängigkeit der Änderung der Gewichtungen w(n)
z = Soll-Output
x, w(n) = vom Input x und den Gewichtungen w(n) abhängiger Ist-Output
3 Anwenungsbeispiel:
Fernerkundung von Waldveränderungen
Früherer Nicht-KNN-Ansätze:
r² = 0,48 – 0,7 RMSE = 9,91 – 7,86
Referenzdaten:
Google Earth (20.02.2004)
+ leichte Unterscheidung
zwischen Laub- und
Nadelwald
- Erstellung von
Bitmap-Segmenten in
PCI Image Works für
die Klassen:
- Wasser
- Laubwald
- Nadelwald
- Urbane Gebiete
- Ackerland
- bloßer Boden