Sie sind auf Seite 1von 4

4

Mensch-Maschine- 2.2. Schallquellen und ihre typischen Pegel 2.3.2. Psychoakustik

ei
1.4. Übersicht über Sinnesmodalitäten
* • Empfindlich von etwa 20 Hz - 20 kHz (≈ 10 Oktaven)

* kann Spuren von Katzen enthalten


nicht für Humorallergiker geeignet
alle Angaben ohne Gewehr
Kommunikation 1 Sinnesbezeichnung Modalität Bemerkung • Starke Dämpfung für sehr niedrige und sehr hohe Frequenzen
• Resonanzfrequenz des Gehörgangs bei ca. 3 . . . 3.4kHz;
Sehen visuell • Lauteinheit in [sone] 1 sone ≜ Lautheit eines 1kHz Sinus mit 40 dB
(ab WS 2016/17)
Hören auditiv
• Verhältnistonhöhe [mel] 1000 mel ≜ 1000Hz
Riechen olfaktorisch 5 Sinne“
1. Allgemeine Einführung ”
Schmecken gustatorisch Psychoakustik Physik
1.1. Grundbegriffe der MMK Tasten taktil Bezeichnung Einheit Bezeichnung Einheit

Interaktion Kommunikation zwischen Mensch und Maschine. Druck Tonheit Z Bark


haptisch mechanische Modal. Frequenz f Hz
Interaktives System, das auf Eingaben reagiert und gegebenenfalls Kraft Verhältnistonh. V Mel
Schalldruck p N = Pa
System auch Ausgaben generiert. Berührung m2
HCI Human-Computer Interaction. taktil oberflächen-sensitiv Schallschnelle v m
Vibration s
MMI Mensch-Maschine-Interface. Schallintensität I W N
= sm
Temperatur thermorezeptorisch m2
Usability Gebrauchstauglichkeit bzw. Eignung eines Produkts. Lautstrk.pegel Ln Phon
Schalldruckp. L dB
Usability En- Gestaltung und Testen eines Produktes mit dem Ziel Bewegung und Orientierung kinästhetisch Lautheit N sone
gineering optimaler Bedienbarkeit durch die Mensch-Maschine- Gleichgewicht vestibulär Schallleist. Pak W = Nsm
Schnittstelle.
Software- Wissenschaft über die Gestaltung von Programmen mit Bezugsschalldruck p0 = 2 · 10−5 N2 = 20µP a
2.3. Menschliche Hörsinn m
Ergonomie benutzerfreundlicher Mensch-Maschine-Schnittstelle. Bezugsintensität I0 = 1.0 · 10−12 W2
1.5. Die Sinne des Menschen und ihre Datenraten 2.3.1. Das Ohr m
Medium Datenträger für Information, z.B. Papier oder CD. Außenohr Ohrmuschel & Gehörgang.
Multimedia Datenverarbeitung und -darstellung unter Nutzung ver- Hörfläche Jener Frequenz- und Pegelbereich von Schall, der vom
Mittelohr Trommelfell, Gehörknöchelchen (Hammer, Amboss,
schiedener Medien, z.B. Text, Grafik und Audio und menschlichen Gehör wahrgenommen werden kann:
Steigbügel) & Euchstachische Röhre; Wandlung von Luftschwingung
Video.
in mech. Schwingung.
Modalität Ein-/Ausgabekanal der menschlichen Kommunikation
und Sinneswahrnehmung, z.B. Sprache, Zeigen, Gestik, Innenohr Steigbügel über ovale Fenster in mit Flüssigkeit gefüllte Schne-
Tastatur. cke; Impedanzwandlung von Luft zu Flüssigkeit.
Basilarmembran Haarzellen (25k - 30k Rezeptoren) wandeln Schwin-
gung in elektronische Nervenimpulse Frequenz-Ort-Wandlung, Zerlegung
in Frequenzanteile ⇒ Hörnerv (30k Nervenfasern) ⇒ Hirn
1.2. Wichtigste Disziplinen der MMK

1.6. Datenraten gängiger System der MMK


System Verhalten Rate (KByte/sec)

Tastatur (ungeübt) Eingabe 0.01


Tastatur (geübt) Eingabe 0.025
Handschrift Eingabe 0.0025
Spracheingabe Eingabe 0.01-0.02
Maus Eingabe 0.02
Sprachausgabe Ausgabe 0.6
Text lesen Ausgabe 0.03-0.3
Hören (CD) Ausgabe 40
Sehen (Video) Ausgabe 20000

2. Sprachkommunikation
1.3. Trends in der MMK
• Steigerung der Leistungsfähigkeit Ermittlung der geäußerten Wortfolge aus einem vorliegenden Frequenzbewertung Verfahren zur frequenzabhängigen Anpassung von
• Reduzierung der Kosten Sprachsignal und Verarbeitung dieser Information. Die Sprachkom- Schalldruckpegeln an das menschliche Hörempfinden (nichtlinear zur
• Erweiterung der Funktionalität munikation hat größtes Potential aller Eingabemethoden, da sie Lautstärke). Hierfür werden verschiedene Filterkurven verwendet: A(20–40
• Verbesserung der Bedienbarkeit auch beim Menschen die häufigste und natürlichste Kommunika- phon), B(50–70 phon), C(80–90 phon), D(sehr hohe Schalldrücke) mit
tionsform ist. gleichem Lautstärkeeindruck. Lautheit N in Sone ist angepasstes Sche-
ma.
2.1. Physikalische Wellen Frequenzgruppen (24) begrenzte Auflösung des Gehörs; jede Frequenz-
Transversalwelle: Longitudinalwelle (z.B. Schall): gruppe nimmt gleiche Länge auf Basilarmembran ein (1,3mm - unter 500
Hz = 100Hz, drüber kleine Terz 1,19 der Mittenfrequenz); Bark-Skala;
1.31 Bark = 131 mel = 131 Hz.; Blätterrauschen in Ferne L = 10dB,
Düsenjäger in 30 m L = 140dB.
Verdeckungen Hörschwelle bei Störschall (Maskierer);
• Spektrale: verbreitet sich mit steigendem Pegel überproportional.
• Zeitliche: Vorverdeckung; Simultanverdeckung; Nachverdeckung (ei-
nige hundert ms).
Kompression: Mithörschwelle über Verdeckungen ermitteln; MP3 ab 160
kBit/s.

Homepage: www.latex4ei.de – Fehler bitte sofort melden. von Fabian Göttel, Hendrik Böttcher und Lukas Kompatscher – Mail: lukas.kompatscher@tum.de Stand: 5. March 2020 um 05:08 Uhr (git 21) 1/4
2.4. Menschliche Spracherzeugung 3. Grammatiken 4. Automatentheorie 5. Spracherkennung
Natürlichsprachige Systeme; Modellierung von Dialogen. Verarbeitung von Symbolfolgen; Modellierung von Dialogen; Spracherkennung beschäftigt sich mit der Untersuchung und Ent-
wicklung von Verfahren, die Automaten, insbesondere Compu-
tern, die gesprochene Sprache der automatischen Datenerfassung
3.1. Kontextfreie Grammatiken (CFG) 4.1. Zustandsautomat zugänglich macht.
G = {V, T, P, S} mit Graphenform; bestimmte Anzahl von Knoten (Zustände) und Verbindun-
• V ≡ Variable (Großbuchstaben) gen (Transitionen).
• T ≡ Terminale (Kleinbuchstaben) Z = (S, X , T , s0 , F ) 5.1. Klassifizierung
e Zuordnung zu Bedeutungseinheiten; Merkmalsextraktion; Merkmalsvek-
• P ≡ Produktionsregel (A → α mit A ∈ {V } und α ∈ • S Set mit endlicher Anzahl Zustände
{V ∪ T }) tor; Merkmalsraum; Klassen; Training;
• X zulässiges Alphabet für die zu verarbeitende Symbolfolge X
• S ≡ Startsymbol • T Transitionsfunktionen für die Zustände in S
3.1.1. Chomsky-NormalForm (CNF) • se0 Anfangszustand 5.2. Abstandsklassifikatoren
Enthält nur Produktionsregeln, bei denen auf der rechten Seite nur zwei Distanz eines Mustervektors zu Klasse;
Variablen oder nur ein terminaler Ausdruck steht: • F ein Set von festgelegten Endzuständen
• ⃗ x unbekannter, zu klassifizierende Mustervektor
Transitionsfunktion als Regel: t(s− , xi ) = s+
A → BC oder A → a • ⃗ rk,i i-ter Referenzvektor für die k-te Klasse
Umwandlung: Zustandsautomat in Grammatik • m ⃗ k Klassenzentrum der Klasse k
3.1.2. Backus-Naur-Form (BNF)
Formal exakte Definition von Programmiersprachen. Nichtterminalsymbo- 1. Zustänge werden Variable: S ⇒ V • dk (⃗ x, m⃗ k ) Abstandsformel
le werden syntaktische Variablen genannt und durch < > gekennzeichnet. 2. Eingabealph. wird zu Terminal: X ⇒ T • kx Klasse mit minimalen Abstand zu ⃗ x
Darstellung von Wiederholungen durch Rekursion. Formeln
3. Transitionen werden Produktionsregeln: T ⇒ P,
2.4.1. Phoneme • | Alternative z.B. P = {S → aA, ArabA e
Das Phonem ist die kleinste bedeutungsunterscheidende Einheit des ge- Mk
• (. . . ) Gruppierung 4. Für jeden Endzustand sE erstelle Produktionsregel, 1 X
sprochenen Wortes. m
⃗k = ⃗
rk,i
• [. . . ] oder (. . . )? Option z.B. für B als Endzustand ⇒ P = {. . . , B → ϵ} Mk i=1
• (. . . )∗ optionale Wiederholung (keinmal, ein- oder mehrfach)
T
• (. . . )+ Wiederholung (ein- oder mehrfach) Endliche Zustandsautomaten Automat mit endlicher Menge von dk (⃗
x, m x−m
⃗ k ) = (⃗ ⃗ k) · W k · (⃗
x−m
⃗ k)
3.1.3. Erweiterte Backus-Naur-Form (EBNF) Zuständen S f
• [. . . ] Option kx = argmin dk (⃗
x, m
⃗ k)
• . . . optionale Wiederholung (keinmal, ein- oder mehrfach) Deterministische Zustandsautomaten Automat, in dem die Folge- x
• n∗ abgezählte Wiederholung zustände immer eindeutig definiert sind durch den aktuellen Zustand und
Eingabesymbol Trennfunktion:
3.1.4. Parsing
Satzgenerierung: Produktionsregeln solange anwenden, bis alle Variablen d1 (x, m1 ) − d2 (x, m2 ) = 0
V durch terminale Symbole T ersetzt sind; Parse-Tree; Ambiguitäten; Deterministisch: Nicht Deterministisch:
Gewichtsmatrix Wk entscheidend über Ergebnis; mk wird im Training
3.1.5. Anwendung von Grammatiken in KI ermittelt; x gehört zur Klasse k mit minimalen Abstand;
Sprache; Mustererkennung;
Quadratischer Abstand Wk ist Einheitsmatrix; Trennfunktion ist eine
Gerade;
3.2. Beispiele Grammatiken
Palindrom-String: Transitionsregeln in Tabellenform: Mahalanobis Abstand Inverse der Kovarianzmatrix; Abhängig von Klas-
S → aSa|bSb|a ∗ |b∗ S = {s0 , s1 , s2 , s3 } se; Bestandteil des Trainings; Trennfunktion ist Kegelschnitt (Gerade, El-
lipse, Parabel, Hyperbel).
Doppelte Anzahl a wie b: X = {0, 1}
 
Systematische Einteilung der Phoneme: F = {s0 } Mk
S → A|SA|AS|aSC|CSa|aSD|DSa|bSB|BSb 1 X T T
Ck =  rk,i · rk,i − mk · mk 

A → Bb|Ca|Da Mk i=1
e
B → aa C → ab D → ba W k = Ck
−1
4.2. Kellerautomaten
Grammatik-Grammatik: Komplexere Grammatiken; Erweiterung mit Stack (LIFO-Queue); Transi- f e " #
tion abhängig von Stack und Eingang; Stack leer ⇒ Folge akzeptiert; −1 1 d −b
S (Satz), NP (Nominalphrase), VP (Verbalphrase), PP A =
(Päpositionalphrase), DET (Determinator, Artikel), ADJ (Adjektiv), ad − bc −c a
Z = (S, X , Y, T , s0 , y0 , F )
AUX (Hilfswort), V (Verb), PRE (Präposition) und N (Nomen) e
• Y zulässiges Alphabet für den Stack
S → NP VP|VP NP 5.3. Cepstrum
• y0 Startsymbol für den Stack
NP → DET N|ADJ N|DET NP|NP PP • F ein Set von festgelegten Endzuständen (leer wenn Endzustand über
VP → V NP|AUX V|V PP|V NP|VP PP|AUX VP leeren Stack definiert ist)
PP → PRE NP • (Für S, X , T , s0 siehe Zustandsautomat)
e
DET → der“, die“, das“,... Aktionen:
” ” ” • push(x) lege x auf den Stack
ADJ → klein“, groß“,...
” ” • pop() lese und entferne oberste Stack-Element
AUX → wird“,... • ε keine Aktion Praktische Berechnung:

V → streicheln“,... • # leeres Stack (erster und letzter Schritt) • Selektion eines Zeitfensters für das betrachtete Sprachsignal
” • Fourier-Transformation dieses Signals in den Frequenzbereich
PRE → in“, mit“,... Beispiel für einen Kellerautomaten:
” ” • Bilden des Betrags des resultierenden (komplexen) Spektrums
N → Junge“, Hund“, Hand“,... • Logarithmierung des Amplitudenspektrums
” ” ” S = {S0 , S1 }
• Rücktransformation mit inverser FT
X = {a, b}
Y = {#, a}
y0 = #
F = {} (Ende durch leeren Stack)

Generiert Sprache: L(an bn ) mit n > 0


Angaben in Klammern:
(Voraussetzung auf Stack ∈ Y, Eingabe ∈ X , Aktion)

Homepage: www.latex4ei.de – Fehler bitte sofort melden. von Fabian Göttel, Hendrik Böttcher und Lukas Kompatscher – Mail: lukas.kompatscher@tum.de Stand: 5. March 2020 um 05:08 Uhr (git 21) 2/4
6. Hidden-Markov-Modelle und Algorithmen 6.3. HMM in der Spracherkennung 6.4.3. Baum-Welch-Algorithmus 7. Suchverfahren
Rückwärtswahrscheinlichkeit:
Wahrscheinlichkeit Statistischer Klassifikator. Liefert Wahschein- Cepstrum; Merkmalsexrahierung; 12D Merkmalsvektor; βt (i) = P (ot+1 , ot+2 , . . . , oT |qt = si , λk ); Formulierung und Darstellung eines Problems im Zustandsraum;
lichkeit p, dass eine Beobachtung einer bestimmten Klasse zu- d.h. Wahrscheinlichkeit, die restlichen Teilbeob. zu emmttieren; Graphen-Darstellung; Suchbaum;
geordnet werden kann. Klassifizieren ganze Sequenzen (dyna- 6.3.1. Modelle
mische Folgen). Finde diejenige Klasse, die die Beobachtung Einzelworterkenner vs. fließende Sprache; Phoneme, kleinste bedeutungs- Baum-Welch-Algorithmus (Rekursiv)
” unterscheidenden Lauteinheiten; HMM pro Phonem; Pausen; Zyklische Wiederholungen unterbinden (gerichtete Kanten im
o = (o1 , o2 , . . . , ot ) am besten nachbilden kann.“. 1. Initialisierung
6.3.2. Training Baum).
Zusammenfassung der Phonem HMM zu einem HMM; βT (i) = 1 1 ≤ i ≤ N
6.3.3. Erkennung
6.1. Markov-Modelle (MM) Wörterbücher, Grammatiken, Wahrscheinlichkeiten bestimmter Phonem-
Abbildung stochastischer Prozesse, deren aktueller Zustand nur vom vor- 2. Induktion 7.1. Allgemeiner Algorithmus für Suche
kombinationen, Sprachmodelle für Wortkombinationen; N
ausgegangenen Zustand abhängt. P Suchalgorithmus
 βt (i) = aij bj (ot+1 )βt+1 (j)
• Matrix der Übergangswkt.: A = p qt+1 = sj |qt = si j=1
6.4. HMM-Algorithmen 1. Initialisiere Queue
• Vektor der Einsprungswkt.: e t = T − 1, T − 2, . . . 1 1≤i≤N
e = (p(q1 = s1 ), . . . , p(q1 = sN ))T
⃗ 6.4.1. Trellis 2. Schreibe Startknoten in Queue
Mathematische Formel zur Berechnung der Beobachtungswkt. 3. Wiederhole:
Für verschiedene Wege q gilt: Wahrscheinlichkeit, dass sich dass HMM zu t im Zustand si befindet und a) Queue leer? ⇒ SZiel nicht gefunden”
T o emmitiert wird; Summe drüber ⇒ alle Aufenthalte im Zustand si“ b) Entnehme nächsten Knoten

Q
p(⃗ ⃗|λk ) = eq1 bq1 (o1 )
o, q aqt−1 qt bqt (ot ) Beobachtungswah-
t=2 αt (i)βt (i) c) Knoten == Ziel? ⇒ SZiel erreicht”
scheinlichkeit: γt (i) = d) Schreibe alle Kinder des Knotens in die Queue
N
P
o|λk ) =
p(⃗
X
p(⃗ ⃗|λk )
o, q αt (i)βt (i) e) Update Queue
i=1
q∈Q
Art des Algorithmus betimmt die Art der Queue, und damit die Update-
T Wahrscheinlichkeit, dass sich das HMM zu t in si und zu t+1 in sj Funktion:
X Y
= eq1 bq1 (o1 ) aqt−1 qt bqt (ot ) befindet; Summe drüber ⇒ aller Übergänge von si zu sj ;
” Suchalgorithmus Art der Queue
q∈Q t=2
αt (i)aij bj (ot+1 )βt+1 (j)
ξt (i, j) = Breitensuche FIFO-Queue
Benötigte OPS ∼ 2T · N T (sehr rechenintensiv) N
Tiefensuche LIFO-Queue (Stack)
P
αt (i)βt (i)
i=1 A-Suche Priotiy-Queue
6.4.2. Vorwärts-Algorithmus
Vorwärts-Wahrscheinlichkeit: N
X A*-Suche Priotiy-Queue mit heuristischen Kosten als Priorität
αt (i) = P(o1 , o2 , . . . , ot , qt = si |λk ) γt (i) = ξ Dijkstra Priotiy-Queue mit bisherige Weg als Heuristik
d.h. die Wahrscheinlichkeit, dass die Teilbeobachtung oi emittiert werden j=1
und das sich das HMM zu t im Zustand si befindet;

Vorwärts-Algorithmus (Rekursiv) 6.4.4. Viterbi-Algo


6.2. Hidden-Markov-Modelle (HMM) Berechnet die Beobachtungswahscheinlichkeit des wahrscheinlichsten Pfa- 7.2. Tiefensuche und Breitensuche
Stochastische Version eines endlichen Zustandautomaten; Zu- des. 1. einelementige Liste mit Wurzelknoten
1. Initialisierung:
standsübergänge und Symbolemissionen nicht deterministisch. 2. bis Liste leer / Ziel erreicht:
α1 (i) = ei bi (o1 ), 1≤i≤N Viterbi-Algorithmus
• Matrix A und Vektor ⃗ e siehe MM -prüfe erstes Element auf Zielknoten bzw. max. Suchtiefe
-wenn ja, fertig
o = (o1 , . . . , oT )T
e
• Beobachtungsfolge: ⃗ 2. Induktion: 1. Initialisierung:
"
N
#
δ1 (i) = ei bi (o1 ) 1≤i≤N - wenn nein, entferne dieses Element und füge all seine Nachfolger an
v = (v1 , . . . , vM )T
• Alphabet: ⃗ αt+1 (j) =
P
αt (i)aij bj (ot+1 ) gleicher Stelle / am Ende ein.
ψ1 (i) = 0
• Beobachtungswahrscheinlichkeiten: bmi = p(vm |si ) i=1 Vorraussetzung: Elemente der Warteliste werden systematisch erzeugt;
• Matrix der Beobachtungswahrscheinlichkeiten: 1 ≤ t ≤ T − 1; 1 ≤ j ≤ N; Suchtiefe wird geeignet groß festgesetzt / ausgewertete Suchbaum muss
2. Induktion:
gespeichert werden;
 
  δt (j) = max δt−1 (i)aij bj (ot )
p(v1 |s1 ) ... p(v1 |sN ) 3. Terminierung 1≤i≤N
 

. .
 N ψt (j) = argmax δt−1 (i)aij
B = .. P(o|λk ) =
P
αT (i)
. . 7.3. Heuristische Suche / A-Algorithmus
 
.
 1≤i≤N
 . .  i=1 Verarbeitung zusätzlicher Informationen; Bewertungsmöglichkeit für Er-
2 ≤ t ≤ T; 1≤j ≤N
p(vM |s1 ) ... p(vM |sN ) folgsaussichten eines bestimmten Pfades; Entscheidungen ordnen; Viel-
2
Benötigte OPS ∼ T · N 3. Terminierung: versprechende Alternative zuerst, dem atm billigsten folgen“; Heuristik
Zusammengefasste Parameter des HMMs: λ = (⃗ e, A, B ) ”
P ∗ = max [δT (i)] besteht in Definition einer geeigneten Bewertungs (Kostenfunktion) f (n):
Beobachtungs- bzw. Produktionswkt.: p(⃗o|λ) e e
1≤i≤N
Dabei durchlaufene (vorborgene/hidden) Zustandsfolge: ∗ f (n) = g(n) + h(n)
qT = max [δT (i)]
q
⃗ = (q1 , . . . , qT ) 1≤i≤N
Bewertungsfunktion = Bisherige Kosten + Schätzfunktion (hier: falsche
HMM - Eigenschaften 4. Ermittlung der wahrsch. Zustandsfolge:
Plättchen)
qt∗ = ψt+1 (qt+1

)
Falls h(n) ≡ 0 gewählt wird identisch zur Dijkstra-Algorithmus (wenn
Ergodisches HMM Es kann aus jedem Zustand in jeder andere Zustand t = T − 1, T − 2, . . . , 1
erreicht werden; A ist voll besetzt dazu g(n) ≡ T ief e des Knotens identisch zur Breitensuche)
Links-Rechts-HMM keine Rücksprünge; kausal; A hat rechte obere
Dreiecksform; Graphisch nach rechts aufsteigend 7.4. A*-Algorithmus
Schätzfunktion h(n) monoton, d.h. Kosten werden nicht überschätzt; ter-
6.2.1. Klassifizierung mit HMM miniert wenn Zielknoten gefunden und keine geringere Kostenschätzung
Pro Klasse ein HMM; das HMM welches die größte Produktionswahr- existiert; A* somit optimaler Pfad; wird die optimale Kostenfkt h1∗ (n)
scheinlichkeit p(o|λk ) liefert, repräsentiert die gesuchte Klasse kx ; verwendet, so wird kürzester Pfad auf Anhieb gefunden (sprich: informierte
6.2.2. Training von HMM Suche); Liste mit allen Elementen erstellen + sortieren; dem insg. billigsten
Kompensation von Störungen; Bed.: geeignete Parameter λk ; Training
folgen; nix verwerfen.
mit iterativen Verfahren; ⇒ Baum-Welch-Algorithmus

Homepage: www.latex4ei.de – Fehler bitte sofort melden. von Fabian Göttel, Hendrik Böttcher und Lukas Kompatscher – Mail: lukas.kompatscher@tum.de Stand: 5. March 2020 um 05:08 Uhr (git 21) 3/4
8. Logik und Theorembeweisen 8.4. Theorembeweis mit Resolutionsverfahren 10. Handschrifterkennung
Allgemeines Resolutionsgesetz: Schriftgröße
Wissen algorithmisch darstellen; Fakten ableiten; Behauptungen
10.1. Vorverarbeitung 1. Schätzen der Referenzlinien
bestätigen / widerlegen; (X + A) · (¬X + B) ≡ (X + A) · (¬X + B) · (A + B)
Eingabemethoden 2. Berechnung der Kernhöhe
| {z }
Resolvente 3. Normirung des Schriftzuges
8.1. Aussagenlogik 1. freie Eingabe (hohe Vorverarbeitung)
atomare Aussagen; wahr oder falsch; UND , ODER, NICHT; Implikation Spezielles Resolutionsgesetz: 2. liniengeführte Eingabe W: Höhe der Bins, P: Projektionsprofil
⇒; 3. feldgeführte Eingabe Oberlängenlinie: yober = ymax , Unterlängenlinie: yunter = ymin
(X + A) · (¬X + A) ≡ A d
Kernlinie: ykern = argmin( dj Py (j)) − 0.5)W + ymin
8.2. Prädikatenlogik Absorptionsgesetz: x(t) = (x(t), y(t), p(t))T
Eingangssignal: ⃗ d
Basislinie: ygrund = argmax( dj Py (j)) − 0.5)W + ymin
Analyse und Bewertung von Beziehungen und logischen Verknüpfungen (A + B) · A ≡ A
1. Ordnung ⇒ nur Veränderung von Objekten, nicht Prädikaten Kernhöhe: hkern = |ykern − ygrund |
Weitere Sonderfälle: x(t) x-Koordinate Normierung:
Prädikate und Funktionen, Konstanten, Variablen, Funktionen, Negation, " #
Disjunktion, Konjunktion, Existenz-Quantor, All-Quantor, Implikation, 1. A y(t) y-Koordinate x[k] − xmin
p(t) Druck (des Stifts) xnorm [k] = h 1
⃗ hkern
Äquivalenz. kern y[k] − (ygrund + )
A ⇒ B ≡ ¬A + B R≡B 2
Beispiel: In jeder Stadt gibt es einen Bürgermeister“ 2. A + B

(∀x) {Stadt(x) ⇒ (∃y) [Mensch(y) · Bgm(x, y)]} ¬A + B R≡B+B =B 10.2. Merkmalsextraktion
10.1.1. Abtastung
Extraktion aus dem normalisierten Schriftzug
Regeln und Zusammenhänge aufstellen; ⇒ Regelwerk (Axiome); Frage 3. A Abtastung / Neuabtastung Sekantensteigungswinkel:
(
(Theorem); Beweis durch Wahrheitstabelle oder Umformen der Regeln ∆y
¬A R ≡ N IL 1. Diskretisierung von ⃗x(t) mit n · ∆T ⇒ zeitäquidistante Abtas- arctan( ∆x )− π sgn(∆x) für ∆x ̸= 0
und Schlussfolgern (Resolution, Unifikation - effektiver); θ[k] = π 2
+ π 2
4. A ⇒ B ≡ ¬A + B tung 2
(1 − sgn(∆x)) für ∆x = 0
2. Lineare Interpolation der Stifttrajektorie ∆x = xnorm [k + 1] − xnorm [k], ∆y = ynorm [k + 1] −
B ⇒ C ≡ ¬B + C R ≡ ¬A + C ≡ A ⇒ C
3. Neuabtastung ⇒ ortsäquidistante Abtastpunkte ⃗
xre [k] ynorm [k]
Anwendung beim Theorembeweis: Richtungsänderung:
Geg.: Set von n existierenden und bewiesenen Axiomen S = r (t) = (x(t), y(t))T :
Länge einer Kurve ⃗ ∆θ[k] = θ[k + 1] − θ[k]
 
{S1 . . . Sn } ; Es gilt T zu beweisenn ´b
r sin(θ[k])
dx(t) 2 dy(t)
Vorgehen: Erweiterung von S zu S ∗ = {S1 . . . Sn , ¬T } Und Resolu- L(a, b) = ( dt ) + ( dt )2 dt  cos(θ[k]) 
a  
tionieren bis leere Klausel erzeugt wird. 5-dim. Merkmalsvektor: m[k]
⃗ =  sin(∆θ[k]) 
 
Erklärung: Statt Beweis wird Unerfüllbarkeit seines Gegenteils gezeigt. Druckkomponente: pn = p1 + k · (p2 − p1 ) 
cos(∆θ[k])

Tautologie beweisen p[k]


10.1.2. Korrekturen
Umformregeln Beweis durch Widerspruch: ¬w ≡ f :
Zeilenneigung (skew)
1. Negiere Aussage 10.3. Erkennung
1. Doppelte Negation ¬¬A ≡ A 2. Bringe Aussage in KNF 1. Horizontale Ausrichtung der Kernlinie des Geschriebenen Trainig und Erkennung läuft über Hidden-Markov-Modelle (HMM) mit
2. Idempotenz A + A ≡ A und A · A ≡ A 3. Zeige Kontradiktion 2. Drehung um den Mittelpunkt m ⃗ d. Kernlinie um den Winkel α0 Graphemen (z.B. Buchstabe, Sonderzeichen od. Ziffern) als kleinste
3. Kommutativität A + B ≡ B + A und A · B ≡ B · A 3. Bestimmung von α0 mit Projektionsprofilen oder Richtungshisto- Einheit
4. Assoziativität A + (B + C) ≡ (A + B) + C und grammen in y-Richtung, Hy (α) muss möglichst klein sein Training: Baum-Welch-Alogrithmus
A · (B · C) ≡ (A · B) · C Erkennung: Viterbi-Algorithmus
5. Distributivität A + (B · C) ≡ (A + B) · (A + C) und
9. Wissensrepräsentation Entropie: (B: Anzahl d. Bins, N(Bi ): Anzahl d. Punkte in Bin i)
A · (B + C) ≡ (A · B) + (A · C) effizient speichern; strukturiert darstellen; Menge von Fakten, Re- B
P
Hy (α) = I(i)
6. De Morgan ¬(A · B) ≡ ¬A + ¬B und geln, Prozeduren, Modellen, Daten, Heuristiken; interpretierbar i=1
11. Dialogsystem (Anhang)
¬(A + B) ≡ ¬A · ¬B mit Hilfe von Repräsentationsmechanismen; N (Bi ) N (Bi )
I(Bi ) = − (ld) • fortgeschrittene intuitive Ein-/Ausgabetechniken
7. Kontrapositiv A ⇒ B ≡ ¬B ⇒ ¬A B
P B
P
N (Bj ) N (Bj ) • Hohes Maß an Interaktivität durch Benutzerfreundlichkeit
8. A ⇒ B ≡ ¬A + B j=1 j=1
9.1. Prädikatenlogik und ausgeprägte Dialogfähigkeit
9. A ⇔ B ≡ (A ⇒ B) · (B ⇒ A) ≡ (A · B) + (¬A · ¬B) Aufteilung in Fakten und Regeln; Standardisiert durch KNF; Resolution als Regressionsgerade y = mx + b:
10. ¬(∀x)A(x) ≡ (∃x)(¬A(x)) N • Intelligentes Systemverhalten, selbstständig logische Schlüsse
Inferenzmechanismus; Formulierung aufwändig und unnatürlich; zwingend P
[(xi −x)(yi −y)] ziehen;
11. ¬(∃x)A(x) ≡ (∀x)(¬A(x)) Umformung in KNF; m = i=1 und b = y − mx
12. (∀x)(A(x) · B(x)) ≡ (∀x)A(x) · (∀y)B(y) N
P
(xi −x)2 Teilgebiete der KI: Maschinelles Lernen, Bildverstehende Syste-
13. (∃x)(A(x) + B(x)) ≡ (∃x)A(x) + (∃y)B(y) i=1 me, Expertensysteme, Robotik, Logik und automatisches Beweisen,
9.2. Produktionsregeln Rotation:
keine Umformung in KNF; Wenn-Dann bleibt erhalten; Vorwärts-   natürlichsprachliche Systeme;
cos α0 − sin α0 0
Rückwärtsverkettung als Inferenzmechanismus; Darstellung im

xskew [k] =  sin α0 cos α0 xre [k] − m)
0 (⃗ ⃗ +m

 
8.3. Standardformen UND/ODER-Graphen; Fakten als Blatt, Regeln als Verzweigung;
Konjunktive Normalform (KNF): 0 0 1
(A1 + A2 + . . . ) · (B1 + B2 + . . . ) · . . .
Disjunktive Normalform (DNF): 9.3. Semantische Netze Schriftneigung (slant)
Graphische Modelle zur Darstellung von Wissen über beziehungen zw. Ob-
(A1 · A2 · . . . ) + (B1 · B2 · . . . ) + . . . 1. Scherung der Schrift an der Grundlinie yS
jekten; entsprechen etwa Fakten der Prädikatenlogik; Knoten = Objekte;
Regeln zur Umformung in Normalform: Kanten = Prädikate; Verwendung bei natürlichssprachigen Systemen; kei- 2. Scherung um den Winkel ϕ0
ne 2 Knoten gleicher Beschriftung; Richtung der Kanten von Bedeutung; 3. Bestimmun von ϕ0 mit Projektionsprofilen oder Richtungshisto-
1. Eliminierung aller Äquivalenzen (# 9) grammen in x-Richtung, Hx (ϕ) muss möglichst klein sein
2. Eliminierung aller Implikationen (# 8)
3. Einziehung der Negation nach innen (#6, #10, #11)
9.4. Rahmen Scherung:
Darstellung der Zerlegung von Objekten oder Situationen in ihre Bestand-      
4. Einführung neuer Variabeln für jeden Quantifizierer teile; Ähnlichkeit zu semantischen Netzen, wesentlich mächtiger und fle- 1 − tan ϕ0 0 0 0

xslant [k] = 0 1 xskew [k] − yS ) + yS 
0 (⃗
     
5. Eliminierung aller Existenz Quantoren xibler; FrameName - zentraler Knoten, Slots - Kanten, Filler - Knoten;
6. Ausklammern der All-Quantoren und Entfallen dieser 1. Suchverfahren zur Ermittlung von Beziehungen; 0 0 1 0 0
7. Anwendung des Distributivgesetzes zur Transformation in Konjunk- 2. Rahmen-Abgleich“; Fakten als Fragezeichen markiert; mit aktuellen

tive Normalform (#5) Daten auffüllen;
8. Eliminierung der UND-Verknüpfungen durch Auflistung der Klau-
seln
9. Einführung getrennter Variablen für jede Klausel

Homepage: www.latex4ei.de – Fehler bitte sofort melden. von Fabian Göttel, Hendrik Böttcher und Lukas Kompatscher – Mail: lukas.kompatscher@tum.de Stand: 5. March 2020 um 05:08 Uhr (git 21) 4/4

Das könnte Ihnen auch gefallen