Sie sind auf Seite 1von 151

Einführung in die KI

Verantwortlicher: Prof. Dr. Dr. Heribert Popp, TH Deggendorf (emeritiert)

Wintersemester 2022-23

2 SWS
1. KI: Definition- Geschichte und Grobüberblick ................................................................................................... 4
1.1 Motivation – KI-Anwendungsbeispiele ........................................................................................................ 4
1.2 Definition KI ................................................................................................................................................. 4
1.3 Phasen der geschichtlichen KI-Entwicklung ................................................................................................. 7
1.3.1 Vorgeschichte ......................................................................................................................................... 7
1.3.2 Gründungsphase 1956-1966 ................................................................................................................... 8
1.3.3 Back to Reality 1966 - 1974 ................................................................................................................... 8
1.3.4 Wissensbasierte Epoche 1975-1995 ...................................................................................................... 9
1.3.5 Moderne Epoche 1995-2010 ................................................................................................................ 10
1.3.6. Kommerzialisierung (2010 – heute) ................................................................................................... 10
1.4 Grobüberblick über die KI Gebiete/-Technologien ..................................................................................... 11
1.4.1 Wissensrepräsentation und -verarbeitung auch als Inferenzmechanismen (z.B. für Expertensysteme
oder automatisches Beweisen) ...................................................................................................................... 11
1.4.2 Effizientes Suchen (für Problemlösen) ................................................................................................. 13
1.4.3 Natürlichsprachliche Systeme .............................................................................................................. 13
1.4.4 Räumliche und visuelle Mustererkennung (Computersehen) ............................................................... 15
1.4.5 Robotik ................................................................................................................................................. 17
1.4.6.Spielen.................................................................................................................................................. 17
1.4.7 Maschinelle Lern-Anwendungen am Beispiel Neuronaler Netze ........................................................ 18
1.4.8 Beispiele für zukünftige KI-Anwendungen.......................................................................................... 20
1.5 Deutsche KI Geschichte .............................................................................................................................. 21
1.5.1 10 prägende Köpfe der deutschen KI-Geschichte (GI Mai 2019) ........................................................ 21
1.5.2 Autonome Systeme / Autonomes Fahren ............................................................................................. 21
1.5.3 Erfahrungsbasierte Systeme ................................................................................................................. 22
1.5.4 Evolutionäre Algorithmen und Evolutionsstrategien ........................................................................... 22
1.5.5 Strategien für das Maschinelle Lernen ................................................................................................. 23
1.5.6 Data Mining Toolbox ........................................................................................................................... 23
1.5.7 Wissensbasierte Konfiguration............................................................................................................. 23
1.5.8 Automatisches Beweisen / Deduktionssysteme ................................................................................... 24
1.5.9 Dokumentenanalyse ............................................................................................................................. 24
1.5.10 Wissensrepräsentation ........................................................................................................................ 24
1.5.11 Automatische Sprachverarbeitung: Dialogsysteme, Übersetzung, Verstehen .................................... 25
1.6 Literatur und Kontrollfragen ....................................................................................................................... 26
2. KI im Wissensmanagementprozess ................................................................................................................... 27
2.1 Wissensqualitäten – Wissen ist subjektiv – Wissen ist Kapital ................................................................... 27
2.1.1 Wissensqualitäten ................................................................................................................................. 27
2.1.2 Wissen ist subjektiv .............................................................................................................................. 28
2.1.3 Wissenskapital...................................................................................................................................... 29
2.2 Wissensmanagementprozess ....................................................................................................................... 30
2.3 Wissenserwerb -Wissenssuche .................................................................................................................... 31
1
2.3.1 Klassen des Wissenserwerbs ................................................................................................................ 31
2.3.2 Wissenssuche mit Online-Datenbanken .............................................................................................. 33
2.3.3 Wissenssuche im Internet - Suchdienste .............................................................................................. 38
2.3.4 Wissensbasierte und semantische Suche .............................................................................. 40
2.4 Literatur und Kontrollfragen ....................................................................................................................... 41
3. Überblick über Wissensrepräsentationen .......................................................................................................... 43
3.1 Wissensrepräsentation allgemein ................................................................................................................ 43
3.2 Wissensrepräsentation mit Semantischen Netz/Ontologie .......................................................................... 46
3.3 Wissensrepräsentation mit Produktionsregel .............................................................................................. 55
3.4 Wissensrepräsentation und Inferenz mit Logik ........................................................................................... 56
3.4.1. Aussagenlogik ..................................................................................................................................... 56
3.4.2. Prädikatenlogik ................................................................................................................................... 58
3.4.3 Inferenz bei der Aussagenlogik ............................................................................................................ 59
3.4.4 Inferenz bei der Prädikatenlogik .......................................................................................................... 60
3.4.5. Vergleich Logik mit den anderen Repräsentationsformalismen......................................................... 62
3.4.6 Projektarbeit mit Prolog. ...................................................................................................................... 62
3.5 Repräsentation mit Rand- und Nebenbedingungen (Constraints) ............................................................... 65
3.6 Literatur und Kontrollfragen ....................................................................................................................... 65
4. Sprachverarbeitungssysteme – Chatbots zur Wissenskommunikation .......................................................... 67
4.1 Geschichtliche Entwicklung von Chatbots und Definition ......................................................................... 67
4.1.1 A.L.I.C.E. ............................................................................................................................................. 68
4.1.2 2006 – IBM’s Watson .......................................................................................................................... 68
4.1.3. Siri ....................................................................................................................................................... 69
4.1.4. Alexa ................................................................................................................................................... 69
4.1.5. Facebook ............................................................................................................................................. 69
4.1.6. Google ................................................................................................................................................. 71
4.1.7. Microsoft ............................................................................................................................................. 71
4.2. Vergleich der Chatbots der großen amerik. Internetfirmen ........................................................................ 72
4.3. Anwendungen für Chatbots ........................................................................................................................ 74
4.4. Prinzip Chatbot und padorabots.com ......................................................................................................... 77
4.5 Beispiel Einsatz Chatbot in der Lehre ......................................................................................................... 78
4.6 Werkzeuge, um Chatbots mit weniger Aufwand zu erstellen: Frameworks ............................................... 79
4.7. Ausblick ..................................................................................................................................................... 80
4.7. Literatur und Kontrollfragen ...................................................................................................................... 81
5. Suchverfahren und Fallbasiertes Schließen ....................................................................................................... 83
5.1 Suchverfahren ............................................................................................................................................. 83
5.2 Fallbasiertes Schließen (Case Based Reasoning) ........................................................................................ 86
5.3 Kontrollfragen ............................................................................................................................................. 88
6. Überblick Software-Agenten (Josef Schneeberger) .......................................................................................... 88
6.1 Begriffsbestimmung: Was ist ein Software-Agent? .................................................................................... 89
6.2 Eigenschaften eines Agenten ...................................................................................................................... 90
6.3 Rationaler Agent ......................................................................................................................................... 91
6.4 Architektur eines Softwareagenten ............................................................................................................. 92
6.4.1 Wissensbasierte, deliberative Agentenarchitekturen ............................................................................ 92
6.4.2 Reaktive Architekturen ........................................................................................................................ 93
6.4.3 Hybride Architekturen.......................................................................................................................... 95
6.5 Anwendungen ............................................................................................................................................. 96
6.6 Literatur und Kontrollfragen ....................................................................................................................... 96
7. Benutzermodellierung ................................................................................................................................... 98
7.1 Benutzermodell ........................................................................................................................................... 99
7.2 Adaptivität bei Lernanwendungen ............................................................................................................ 102
7.3 Literatur und Kontrollfragen ..................................................................................................................... 103
8. Einführung in die Bilderkennung (Prof. Dr. Donner) ..................................................................................... 105
8.1. Visuelle Wahrnehmung beim Menschen.................................................................................................. 105
8.2 Suche und Lokalisierung in Bildern .......................................................................................................... 105
8.3. Bildkonturen............................................................................................................................................. 106
8.4. Korrespondenzproblem ............................................................................................................................ 107
8.5. Mustererkennung in digitalen Bildern ...................................................................................................... 108
8.6. Anwendungsgebiete ................................................................................................................................. 109
8.7 Bilderkennung mit Maschinellem Lernen (ML) ....................................................................................... 110
8.8 Literatur und Kontrollfragen ..................................................................................................................... 112

2
9. Philosophie der Künstlichen Intelligenz (von Ma. phil. Simon Böhm) ...................................................... 114
9.1 Was ist Philosophie? ................................................................................................................................ 114
9.2 Wovon sprechen wir, wenn wir von KI sprechen? .............................................................................. 114
9.3 Turing-Test.......................................................................................................................................... 115
9.4 Chinesisches Zimmer ............................................................................................................................... 115
9.5 Literatur und Kontrollfragen ..................................................................................................................... 116
10. Anwendungen: KI in 4.0 ............................................................................................................................... 117
10.1 Semantic Web ......................................................................................................................................... 117
10.2 Drei Säulen der Anwendung 4.0 ............................................................................................................. 118
10.3 E-Commerce 4.0 ..................................................................................................................................... 120
10.3.1 Motivation ........................................................................................................................................ 120
10.3.2 Charakteristika von E-Commerce 4.0 Anwendungen ...................................................................... 120
10.3.3. Shopping Agenten ........................................................................................................................... 121
10.3.4 Konfiguratoren mit Mass Customization ......................................................................................... 121
10.3.5 Kollaboratives Filtern ....................................................................................................................... 122
10.3.6. E-Commerce 4.0 durch Chatbots .................................................................................................... 124
10.3.7. E-Commerce 4.0 im Lebensmitteleinzelhandel............................................................................... 124
10.4. Industrie 4.0 ........................................................................................................................................... 125
10.4.1 Definition Industrie 4.0 .................................................................................................................... 125
10.4.2 Wesentliche Konzepte ....................................................................................................................... 126
10.5 Lehre 4.0 ................................................................................................................................................ 128
10.5.1 Bedarfssog und Technologiedruck für Lehre 4.0 ............................................................................. 128
10.5.2 Vier Lehrrevolutionen ...................................................................................................................... 129
10.5.3.Verschiedene Lerntypen bedienen (Personalisierung) und Adaptivität ........................................... 130
10.5.4 Spielerische, kooperative und Virtual-Reality-Elemente zur Motivation (Gamification) ................ 131
10.5.5 Sehr interaktive Präsenzphase (auch als synchrone Videovorlesung) .............................................. 131
10.5.6 Communities of Practice der mobilen Lerner .................................................................................. 131
10.5.7 Fragenbeantwortung durch intelligente Teletutoren (Chatbots) in der Nachbereitungsphase .......... 131
10.5.8 Lokalisierung von Lerner mit Problemen durch Methoden des Maschinellen Lernens .................. 132
10.5.9 Entlastung bei Korrekturarbeit durch automatisch ausgewertete Kompetenztests ........................... 133
10.6 Weitere 4.0 Anwendungen ...................................................................................................................... 133
10.7 Realiserungen von KI-Systemen mit IBM Watson ................................................................................. 138
10.8 Horizont und Gardner Prognosen ............................................................................................................ 141
10.9 Literatur und Kontrollfragen ................................................................................................................... 142
11. KI und Ethik sowie KI und Nachhaltigkeit ............................................................................................. 144
11.1. KI und Ethik .................................................................................................................................... 144
11.2 KI und Nachhaltigkeit ......................................................................................................................... 147

3
1. KI: Definition- Geschichte und Grobüberblick
1.1 Motivation – KI-Anwendungsbeispiele
Das Ziel der „Künstlichen Intelligenz“ (KI) ist die Entwicklung von Methoden und Modellen für die
anwendungsbezogene Nachbildung von menschlichen Intelligenzleistungen durch technische Systeme.
Die in den letzten Jahren rasant voranschreitende Digitalisierung und die damit einhergehende
Verfügbarkeit großer Datenmengen („Big Data“) und Rechenkapazität („Cloud Computing“) haben
einen sowohl quantitativ als auch qualitativ signifikanten Entwicklungsschub ermöglicht.
Treiber der aktuellen KI-Forschung sind vor allem große Internet-Unternehmen wie Facebook,
Amazon oder Google, die nicht nur die technische Infrastruktur entwickeln, sondern das Feld auch
methodisch vorantreiben.
Man kann nicht sagen ob und wann es dem Menschen möglich ist, tatsächlich „künstliche intelligente
Wesen“ zu schaffen. Mediziner und Philosophen müssen das klären, ob ein System tatsächlich
intelligent ist. Allein die Fähigkeit zu haben, bestimmte dem Menschen vorbehaltene Funktionen in
ähnliche Rechenoperationen abzubilden, macht noch keine Intelligenz aus. Es gibt einige einfachere
Bereiche, mit denen wir es in der Vergangenheit zu tun hatten.
Beispiele sind Fußball spielende Roboter, Roboter Asimo, Web 3.0 Anwendungen, die Saya von
Tokyo University of Science (2005), die Emotionen zeigen kann. Ein Vorläufer davon war Artificial
Intelligence roBOt «Aibo» von 2000.
Man arbeitet an der Entwicklung von Software-Agenten (Roboter), die als Elektronische Verkäufer
agieren, also übers Internet beraten, oder als Informationsfilter dienen, also so etwas wie ein
persönlicher Sekretär sind. Man nennt sie Assistenzsysteme.
Auch arbeitet man an der Entwicklung von Bilderkennungssystemen, die die von den Kameras
aufgenommenen Bilder automatisch analysieren und wichtige Inhalte, wie Staus, melden. Man arbeitet
an automatischer Sprachverarbeitung, wie bei der Fahrplanauskunft oder Siri von Apple iPhone.
Das sind sehr unterschiedliche Anwendungen, aber all diese Informationen verarbeitenden Systeme
ordnet man in der Informatik bzw. in der Wirtschaftsinformatik unter den Oberbegriff:
„Wissensbasierte Systeme/KI-Systeme“ ein.
Zu dem Thema KI gibt es zwei Standardlehrbücher von Russel und Görz sowie etablierte
Tagungen wie IJCAI, AAAI, ECAI, PRICAI.
China will bei künstlicher Intelligenz dominieren: Künstliche Intelligenz ist das Zukunftsthema - und
China will sich dort bis 2025 mit an die Spitze setzen. Ziel sei es Künstliche Intelligenz als Teil der
Strategie grenzüberschreitende Kooperationen (siehe Übernahme des Roboterherstellers Kuka in
Augsburg) voranzutreiben, kündigte der Staatsrat an. Der Wert der chinesischen KI-Branche werde
Ende 2020 ca. 19 Milliarden Euro betragen bis 2025 auf rund 51 Milliarden Euro steigen.
Das Bayerische Kabinett investiert 2 Mrd. Euro in die Forschung für Künstliche Intelligenz (KI) und
parallel dazu die Bundesregierung bei einer nationalen KI-Strategie 3 Mrd. Euro.

1.2 Definition KI
Das kleinste Datenelement aus einem Zeichenvorrat wird als Zeichen betitelt. Zeichen sind also die
Basis der Daten. Durch die Definition einer Syntax werden aus einem Zeichenvorrat die Daten gebildet.
Daten
Nach DIN 44300 sind Daten als Zeichen oder kontinuierliche Funktionen definiert. Daten sind in der
Regel die digitale Repräsentation von Fakten. Alles was zähl- und messbar ist, kann somit durch
binärcodierte Daten ausgedrückt werden.
Beispiel: Zahlen, Wörter und Texte, aber auch physikalische Größen wie Bilder, Graphiken, Sprache
und Musik.

4
Denn Bilder oder Musik werden in binärer beziehungsweise elektronischer Form gespeichert und sind
dadurch maschinell auswertbar.
Datenverarbeitung (DV) ist die Verarbeitung der als Zeichen dargestellten Nachrichten und
Informationen. Diese kann manuell, maschinell oder elektronisch erfolgen. Im letzten Fall spricht man
von elektronischer Datenverarbeitung (EDV).
Information
Informationen sind im Gegensatz zu Daten zeit- und ortsabhängig. Das heißt, Informationen sind
kontextbezogen und besitzen außerdem immer einen Sender (Quelle) und Empfänger (siehe Abb. 1./1).
Daten werden für eine Person erst interessant und zur Information, wenn ein persönlicher Bezug besteht.
Informationen ändern „die Wahrnehmung des Empfängers in Bezug auf einen Sachverhalt und wirken
sich auf die Beurteilung des Kontexts aus.“[Bodendorf06, S. 1]
Der Wert einer Information wird immer vom Empfänger und niemals vom Sender festgelegt.
Eine zweckbezogene Nachricht kann daher als Information bezeichnet werden.
Beispiel: Wenn ich weis, dass das Wort Müller ein Nachname ist, wird das Wort für mich zur
Information, da es in einem Kontext gestellt ist.
Informationsverarbeitung (IV, IT) ist die Verarbeitung der zweckbezogenen Nachrichten (der Daten,
die einen Zweck erfüllen)
Beispiel: Denken Sie an eine Akte, die elektronisch weitergereicht wird. Die Akte sind Daten. Die
konkrete Abarbeitungsreihenfolge, mit der die Akte weiter geschickt wird, hängt ja vom Inhalt der Akte
(der Bedeutung der Daten) ab und ist Informationsverarbeitung.

Abb. 1./1: Beziehungen zwischen den Begriffen Daten-Information-Wissen [Bodendorf06]

Die Abbildung 1./1 zeigt, dass Zeichen, Daten, Informationen und Wissen in Beziehung stehen.
Wissen
Popp definierte 1984 Wissen „als die Menge der Modelle, die ein System von sich und der Umwelt
gespeichert hat.“ [Popp84]. Inzwischen haben sich eine Vielzahl von Definitionen ergeben.
Wissen ist Information plus die Fähigkeit, sie zu nutzen.

Wissen bildet sich in einem unbegrenzten Prozess menschlichen Denkens, Argumentierens und
Kommunizierens, bei dem die Reflexion auf die Wirkung des Gedachten bedeutsam ist und
Wirklichkeitserfahrungen immer wieder zum Umdenken Anlass geben.
5
Von Wissen ist die Rede, wenn eine Information mit anderen Informationen so vernetzt werden kann,
dass dies zu Handlungsmustern für praktische Anwendungen führt. Man sieht in Abb. 1./1 „Müller
wohnt in Hamburg und er ist potentieller Kunde“.
Besonders in Unternehmen beziehungsweise Organisationen ist Wissen nicht nur in Dokumenten oder
Datenbanken eingebettet. Vielmehr ist es in den betrieblichen Prozessen, Routinen, Praktiken und
Normen verankert. Das besondere Merkmal von Wissen ist, dass es sich vermehrt und vertieft, wenn es
verwendet wird.
Wille hat in der Zeitschrift Informatik Spektrum 2000 Wissensverarbeitung erklärt als Erkunden,
Suchen, Erkennen, Identifizieren, Untersuchen, Analysieren, Bewusstmachen, Entscheiden,
Verbessern, Restrukturieren, Behalten und Informieren. (Wille 2000)
1. Erkunden: etwas erforschen, von dem man nur eine vage Vorstellung hat (z.B. Literatursuche)
2. Suchen: versuchen, etwas zu erlangen, das man gewissermaßen kennt, aber nicht verfügbar hat
(z.B. Suchen einschlägiger Rechtsvorschriften für Architekten)
3. Erkennen: über etwas Klarheit gewinnen (z.B. Zusammenhänge transparent machen)
4. Identifizieren: für einen Gegenstand den taxonomischen Ort in einer gegebenen Klassifikation
bestimmen (z.B. bestimmen von Pflanzen)
5. Untersuchen: systematisch versuchen, etwas in seiner Beschaffenheit, Zusammensetzung,
Gesetzmäßigkeit, Auswirkung u. A. genau zu erkennen
6. Analysieren: Gegebenheiten bezüglich erklärter Zwecke theoriegeleitet zu untersuchen (z.B. eines
gesprochenen Satzes)
7. Bewusstmachen: etwas ins Bewusstsein bringen (z.B. essgestörten Patientinnen nicht bewältigte
Familienkonflikte bewusst machen)
8. Entscheiden: sich entschließen, unter Alternativen eine Wahl zu treffen (z.B. Produktkauf bei
mehreren Alternativen)
9. Verbessern: etwas durch Änderungen auf einen besseren Stand bringen (z.B. Optimierung einer
Chip-Produktion)
10. Restrukturieren: etwas durch bestimmte Maßnahmen neu gestalten (z.B. Reorganisation des
Programmcodes, um Systeme wieder lebensfähig zu machen)
11. Behalten: etwas Erfahrenes und Gelerntes bewahren, um es künftig wieder aktivieren zu können
(z.B. Behalten beim Auswendiglernen)
12. Informieren: jemanden über etwas Auskunft geben (z.B. Flugverbindungen in München)

Wenn einzelne der Punkte Computer erledigen, betreiben sie Wissensverarbeitung.


Künstliche Intelligenz:
Es gibt keine „saubere“ Definition der künstlichen Intelligenz (KI).
Das Gebiet der Künstliche Intelligenz umfasst Verstehen von intelligentem Verhalten und dem
Nachbilden von intelligentem Verhalten.
Intelligenz wird in erster Linie dem Menschen zugesprochen und bezieht sich auf Fähigkeiten des
Denkens und Handelns wie erkennen, verstehen, abstrahieren, schlussfolgern und lernen.
Die starke KI-These besagt, dass sich alle Bewusstseinsprozesse durch Berechnungsprozesse
nachbilden lassen: Intelligenz kann auf Informationsverarbeitung reduziert werden.
Die schwache KI-These besagt, dass manches intelligente Verhalten durch Berechnungsprozesse
nachgebildet werden kann: Intelligenz kann auch Informationsverarbeitung sein.
Im ganzheitlichen Ansatz lautet die Definition: Gegenstand der Künstlichen Intelligenz ist es, mit
Hilfe von Rechnersystemen und unter Einsatz spezifischer Methoden solche Leistungen
hervorzubringen, dass diese nach allgemeinem Verständnis als intelligent bezeichnet werden.
KI ist:
6
Systems that think like humans, Systems that think rationally.
Systems that act like humans, Systems that act rationally.
Bekannt ist der Turing Test zum Nachweis, ob ein System künstlich intelligent ist. Der Britische
Mathematiker Alan Turing schlug bereits im Jahr 1950 einen empirischen Test zur Überprüfung
intelligenten Verhaltens einer Maschine durch Vergleich mit einem Menschen (Imitationsspiel) vor:
Eine Person befragt einen Menschen und ein künstliches intelligentes System. Der Tester
kommuniziert nur indirekt über ein Textmedium. Der Tester soll allein aus den Antworten auf seine
Fragen entscheiden, wer Mensch und wer Computer ist. Wenn er das nicht kann, dann - so
argumentiert Turing - kann man annehmen, dass die Maschine intelligent ist.
Der Tester kann jede beliebige Frage stellen. Durch die indirekte Kommunikation soll vermieden
werden, dass der Interviewer durch äußeres Erscheinen oder mechanische Eigenschaften (z.B.
synthetische Stimme) beeinflusst wird.
Problem: Test ist weder konstruktiv noch reproduzierbar und kann mathematisch nicht formalisiert
werden

Das allgemeine Verständnis von KI ist einem steten Wandel unterworfen: Wurden zu Beginn
Leistungen von Maschinen wie automatische Schrifterkennung, symbolisches Gleichungslösen,
Routenplanung (heute unter anderem die Grundlage für Navigationssysteme), maschinelle
Übersetzung, Erkennung von Objekten in Bildern, Aufspüren von Strukturen in großen Datenmengen
oder auch Schachspiel als Ziele der KI verstanden, so sind diese Fähigkeiten heute Allgemeingut, auf
jedem Smartphone verfügbar und werden gar nicht mehr als aus der KI kommend oder ihr zugeordnet
wahrgenommen.
Man spricht schon vom neuen Ziel der „Artificial General Intelligence“ (AGI) oder auch „Strong AI“.
Deren Zielstellung sind Maschinen, die jede intellektuelle Leistung des Menschen nachbilden,
einschließlich möglicherweise der Ausbildung von maschinellem Bewusstsein.

1.3 Phasen der geschichtlichen KI-Entwicklung


1.3.1 Vorgeschichte
• Philosophy: logic, methods of reasoning, mind as physical system, foundations of learning,
language, rationality
• Mathematics: formal representation and proof algorithms, computation, (un)decidability,
(in)tractability probability
• Psychology: adaptation phenomena of perception and motor control experimental techniques
(psychophysics, etc.)
• Economics: formal theory of rational decisions
• Linguistics: knowledge representation grammar
• Neuroscience: plastic physical substrate for mental activity
• Control theory: homeostatic systems, stability simple optimal agent designs

Nach der Vorphase 1949-1955, bei der 1949 erste Lernregel für Netzwerke aus Neuronen (Hebb)
aufgestellt wurden und der erste Autopilot-Mechanismus eines B24 – Bombers entstand, folgten
folgende 5 Phasen (1.3.2-1.3.6):

7
1.3.2 Gründungsphase 1956-1966
Die Begrifflichkeit der Künstlichen Intelligenz (KI) geht auf das Jahr 1956 zurück. In diesem Jahr
fand eine Konferenz am Darthmouth College in New Hampshire (USA), statt, bei der der Begriff
„Artificial intelligence (AI)“ das erste Mal erwähnt wurde. Die Konferenz, welche von John McCarthy
organisiert wurde, gilt als Geburtsstunde dieses Forschungsbereichs.
Im Rahmen der Darthmouth Konferenz wurde der automatische Theorembeweiser „Logic Theorist“
vorgestellt. Dieses Programm gilt als das erste, mit dem kognitive Probleme maschinell gelöst werden
konnten. Logic Theorist war in der Lage einige logische Theoreme zu beweisen, also Probleme zu
bearbeiten, für deren Lösung bislang ausschließlich Menschen in der Lage waren. Mit seiner Hilfe
konnten dabei 38 Theoreme aus „Principia Mathematica“ bewiesen werden. Dadurch wurde gezeigt,
dass Computer auch befähigt sind Symbole zu verarbeiten.
1957 Automata Studies (J. von Neumann, C.E. Shannon, N. Wiener)
1958 LISP John McCarthy entwickelte im Jahr 1958 die Programmiersprache LISP. LISP
entwickelte sich vor allem in den USA aufgrund seiner Verwendung als Verarbeitungssprache für
symbolische Strukturen als enorm wichtiges Werkzeug für die Erzeugung von symbolverarbeitenden
Systemen.
1966 Eliza (Weizenbaum)
ELIZA ist ein frühes Dialogsystem. Sie ist ein relativ einfaches Spracherkennungs-Programm,
das einen Dialog mit seinem Anwender simuliert. Das Konzept wurde 1966 von Joseph
Weizenbaum von Massachusetts Institute of Technology entwickelt. Wenn der Nutzer einen
Satz eingibt, sucht das Programm nach Schlüsselbegriffen. Jeder Schlüsselbegriff löst eine
oder mehrere mit ihm assoziierte Antworten aus. Diese Antworten sind vollständige Sätze und
enthalten in der Regel einen Teil der Frage in leicht modifizierter Form. Es war der erste
Chatbot.
Zusammengefasst beschäftigte sich diese erste Phase der KI unter anderem mit dem Lösen von
Spielen wie Puzzles, Dame und Schach, dem Beweisen von Sätzen aus Logik und Geometrie sowie
symbolischen mathematischen Operationen (vgl. Görz et al. 2014: 5). In dieser ersten Phase lag das
Hauptaugenmerk auf Problemlösungsverfahren und es sollte allgemein gezeigt werden, dass
wesentliche grundlegende Ansätze von menschlicher Intelligenz auch auf Computersysteme und
Maschinen übertragen werden können. Man suchte eine zentrale Problemlösungsformel. Sie bestand
in der zielgerichteten Durchforstung des Suchraumes. Hierzu wurden leistungsstarke Heuristiken
entwickelt, die die Suche effizient gestalteten. Man erkannte aber am Ende der Periode die begrenzte
Tragweite dieses Ansatzes.

1.3.3 Back to Reality 1966 - 1974


Berichte über schlechte Fortschritte im Bereich der maschinellen Übersetzung führten zur
Streichung aller Regierungsmittel für die Forschung in diesem Bereich. Solche Beispiele sind
“the spirit is willing but the flesh is weak”

→RU → EN: “the vodka is good but the meat is rotten”

• Minsky und Papert haben mit Ihrem Buch „Perceptrons“ die Grenzen dieser (einfachen)
neuronalen Modelle aufgezeigt und für längere Zeit neuronale Netze diskreditiert. Dies führte
zu einer einseitigen Festlegung auf symbolische KI.
1973 Lighthill Bericht über kombinatorische Explosion bei KI-Systemen führte dazu, dass
in England nur noch zwei Universitäten KI-Forschungsmittel erhielten
1968 ANALOGY (Lösung geometrischer Analogien)

8
1969 DENDRAL: Ableitung von Molekular-Strukturen aus Daten eines Massenspektrometers mit
Regeln zur Identifikation von Substrukturen, die aus einem theoretischen Modell abgeleitet
wurden (Buchanan).
In Europa wird Anfang der 1970er Jahre die Logikprogrammiersprache Prolog entwickelt. Prolog
gilt dabei als europäisches Gegenstück zu LISP und hat den Vorteil, dass die verwendete
Prädikatenlogik direkt als Programmiersprache genutzt werden kann.

1.3.4 Wissensbasierte Epoche 1975-1995


Forschergruppen an führenden amerikanischen Universitäten begannen zentrale Fragestellungen
wie Sprachverarbeitung mit dem Computer, automatisches Problemlösen, z. B. automatisches
Beweisen von mathematischen Sätzen, und visuelle Szenenanalyse systematisch zu bearbeiten. Es
entstanden Perceptron-Netze, entwickelt von F. Rosenblatt, das KNN Adaline. Aber in dieser
Epoche gelang nicht der erhoffte Durchbruch, was die Praxistauglichkeit der Arbeiten betraf.
Entwurf erster integrierter Robotersysteme und expertenhaft problemlösender Systeme.
1975 Entwicklung von Frames (Minsky) zur Wissensrepräsentation, Aufbau von Taxonomien
1976 MYCIN, medizinisches Expertensystem mit 450 Regeln und Unsicherheitsfaktoren von
Shortliffe und Buchanan zur Erkennung von Infektionskrankheiten
1982 R1 ist erstes kommerzielles Expertensystem (Konfiguration von Bestellungen von
Rechnersystemen)
1981 Ankündigung der 5. Rechner-Generation (Prolog-basierte Rechner) durch Japaner mit der
Folge: Forschungsprogramme werden aus Angst vor einer japanischen Vorherrschaft neu
belebt
~ Entwicklung von LISP-Maschinen (Symbolics, Lisp Machines Inc.)
~ erste Systeme für die industrielle Bildverarbeitung
~ Wiederaufleben Neuronaler Netzwerke (Multilayer)
1984 Konzeption eines Management Expertensystems [Popp84]
Die folgende Zeit ist vor allem durch eine umfassende Mathematisierung des Gebietes, eine
Präzisierung des Konzepts der Wissensverarbeitung und das Aufgreifen neuer Themen
gekennzeichnet wie

• Verteilte Künstliche Intelligenz (KI), d.h. das Wissen ist auf mehrere Rechner oder
Wissensbasen aufgeteilt und ein Master zieht dieses Wissen zusammen
• Neuronale Netze (NN) mit mehreren Schichten wie Hopfield-Modell, Backpropagation
Lernalgorithmus.
• Verarbeitung verschiedener Qualitätsstufen von Information, wie z. B. die Verarbeitung
unscharfer Information (Fuzzy).
Fünf Bundesländer richteten Forschungsinstitute für KI ein, die Grundlagenforschung betrieben
und immer mehr dazu übergingen, in Firmen Lösungen mit Hilfe der Techniken der
Wissensbasierten Systeme zu erzeugen. z.B. Bayern mit den FORWISS (1990-1999), Baden
Württemberg mit dem FAW in Ulm, Saarland mit dem DFKI.

• Man wandte sich verstärkt den praktischen Problemen der realen Welt zu.
• Man befragte menschliche Experten, wie sie in der Praxis Probleme angingen und nach
Lösungen suchten und bildete dieses Wissen in den Computer ab.
• Man verwendete formalisiertes Problemlösungswissen
• Es entstanden die sogenannten Expertensysteme.
• Erste Systeme zur automatisierten Übersetzung verlassen die Labors und finden ihren
praktischen Einsatz.
• Es entstanden immer mehr Werkzeuge, die sich zur Entwicklung von WbS eigneten.

9
Die Forschungsgruppe WI am FORWISS entwickelte Expertensystem als Elektronische Verkäufer
(Triumph Adler), intelligente Berichtssysteme für GfK und Datev oder SAP.

1.3.5 Moderne Epoche 1995-2010


Ab 1995 gehörten wissensbasierte Komponenten zum Standard und wurden als ein kleiner,
aber sehr wichtiger Modul innerhalb einer größeren Softwarelösungen nicht mehr explizit
erwähnt. Ein neues Betätigungsfeld erlebten wissensbasierte Systeme Ende der neunziger
Jahre durch das Internet in Form von Einkaufs- und Informationsfilter-Agenten und durch das
Wissensmanagement.
Einige gut etablierte KI-Verfahren in der Praxis sind:
– Neuronale Netzwerke als statistische Klassifikatoren
– Hidden Markov-Modelle (HMM) zur Beschreibung stochastischer Prozesse
– Belief Networks für unsicheres Schließen
– Ontologien und Wissensbasen
– Dialogsysteme, Sprachsysteme
– (symbolische) Lernverfahren im Bereich Data Mining
Beispiele gelungener KI-Syteme sind
– Programm Chinook seit 1994 Damespiel-Weltmeister.
– Suchmaschinen erleichtern Umgang mit der Informationsflut im Internet.
– Deep Blue besiegt 1997 Weltmeister Garri Kasparow im Schach.
– Expertensysteme zur Exploration von Ölquellen, sowie Steuerung von Marsrobotern
und medizinischer Diagnose, ...
– Maschinelle Übersetzung verbreitet sich.
– Maschinelle Textzusammenfassung.
– Analyse und Vorhersage von Aktienkursentwicklungen.
– Optische Zeichenerkennung liest gedruckte Texte zuverlässig.
– Handschrifterkennung millionenfach in PDAs verwendet.
– Spracherkennung ermöglicht Diktieren eines Textes.
– Computer-Vision-Systeme überwachen öffentliche Plätze, die Produktion ...
– Robocup: Weltmeisterschaften fußballspielender Roboter
– DARPA Grand Challenge: Wüstenrennen für führerloses Fahrzeug
Aber: viele Probleme sind immer noch nicht gelöst:
– Sprachverstehen
– Bildverstehen
– Menschliche Fähigkeiten wie lernen, erfinden

1.3.6. Kommerzialisierung (2010 – heute)


Künstliche Intelligenz ist mittlerweile kommerziell geworden. In immer mehr Alltagsanwendungen
finden sich Spuren von KI. Einerseits trugen dazu die leistungsfähige Software und Hardware in den
Geräten bei, andererseits aber auch die verbesserten Verfahren und Prinzipien der KI. Jüngste Erfolge
sind unter anderem IBM mit ihrer Software „Watson“ zuzuschreiben. Bei dieser Software handelt es
sich um ein Programm, welches ein Sprachverständnis aufweist und zusätzlich antworten kann. Im
Jahr 2011 gelang es dieser Software in einer Quizshow im amerikanischen Fernsehen den Sieg davon
zu tragen. Auch Google zeigte beeindruckende Ergebnisse mit ihrem GO-Programm „AlphaGo“,
womit im Jahr 2016 der weltbeste GO-Spieler Lee Sedol besiegt wurde. Die Google-Tochterfirma
Deepmind hat mit der KI „AlphaGo“ gezeigt, dass das hochkomplexe Brettspiel „Go“ nun auch – wie
Schach – mit Rechnern auf Weltmeisterniveau spielbar ist.
Den Erfolg von KI machten vordergründig die Erfolge, die Google beim „deep learning“
popularisiert hat, aus. Deep Learning ist eine Spezialform der Neuronalen Netze, die durch die
Struktur biologischer Neuronen-Netze inspiriert wurden und auf große Datenbestände angewendet

10
werden. Damit können beispielsweise riesige Bildarchive auf das Vorhandensein bestimmter Objekte
– wie etwa Katzen in Urlaubsbildern – durchforstet werden.
Das traditionelle Gebiet der automatischen Mustererkennung (mit den Anwendungen
Spracherkennung, Bildverarbeitung, Qualitätsprüfung, Prozessoptimierung und vielen weiteren) hat
von solchen Verfahren bereits enorm profitiert, und dies wird weitergehen.
Seit neuestem beginnen sogar Spiele, die mit „Überraschung und Emotion“ arbeiten, sich dem
Rechner zu erschließen; jüngstes Beispiel ist die KI „Libratus“ aus Pittsburgh, die im Januar 2017 ein
hochrangiges Pokerspiel mit Millioneneinsatz gewann. Der hinter Libratus stehende methodische
Ansatz eignet sich für den Umgang mit unvollständiger und widersprüchlicher Information und kann
insbesondere auch mit Gegnern umgehen, die das System bewusst in die Irre führen wollen – und falls
nötig, kann Libratus auch selbst den Gegner täuschen. Bei erfolgreicher Weiterentwicklung ergeben
sich direkte Anwendungsmöglichkeiten bei (rechnergestützten) Verhandlungen in jedem Bereich der
Wirtschaft, medizinischen Expertensystemen und Cyber-Sicherheit.
Diese Beispiele zeigen, dass die zugrundliegende Methodik und die Grundtechniken nunmehr
massentauglich und zuverlässig, dabei billig und somit prinzipiell überall einsetzbar sind. Dies umso
mehr, als durch die Digitalisierung der Kommunikationsnetze die „Versorgung“ mit KI-Leistung
praktisch an jeder Stelle möglich ist oder mittelfristig sein wird. Der nächste Schub von Anwendungen
wird daher die gesamte Wirtschaft betreffen, denn auf der Basis der Grundtechniken wird auch die
Anpassung an die typischerweise sehr viel komplexeren und kundenspezifischeren Einsatzfälle in der
Industrie möglich – „Industrie 4.0“ braucht KI ebenso wie „Society 5.0“, die japanische Vision einer
zukünftigen Gesellschaft, in der alles dank vollständiger Digitalisierung komplett vernetzt ist und
Robotik, Cloud-Computing, Big Data und KI eine Einheit bilden. [Knoll 2018, S.14]
Die These, Intelligenzphänomene allein auf der Basis von Symbolverarbeitung untersuchen zu
können, ist mittlerweile durch den Einfluss der Kognitions- und Naturwissenschaften relativiert
worden, da zur Erklärung bestimmter Phänomene (insb. der Wahrnehmung) der Einbezug der
physikalischen Basis, auf der die Intelligenz realisiert ist, zu weiteren Erkenntnissen führt.

Abb. 1./2: KI Entwicklungsleiste mit Betonung auf kommerzielle Phase

1.4 Grobüberblick über die KI Gebiete/-Technologien


Im Laufe der Zeit entwickelten sich einige wesentliche Teilbereiche innerhalb der Künstlichen
Intelligenz, siehe Abb. 1/3, von denen betrachten wir nun die wichtigsten überblicksartig.

1.4.1 Wissensrepräsentation und -verarbeitung auch als Inferenzmechanismen (z.B. für


Expertensysteme oder automatisches Beweisen)
Wissen zählt zu einem der wichtigsten Wirtschaftsgüter unserer Zeit. Im Rahmen der Künstlichen
Intelligenz spielt dabei das Management dieses Wissens eine entscheidende Rolle.
1. Im ersten Schritt müssen für diverse Problemlösungen Wissensinhalte aus einer Fülle von
unterschiedlichsten Quellen identifiziert werden.
2. Dieses Wissen muss im 2. Schritt entsprechend aufbereitet werden, damit es von den
Computersystemen und Maschinen auch richtig verarbeitet und interpretiert werden kann.
11
3. Im 3. Schritt ist es für „Expertensysteme“ notwendig das Expertenwissen in der Wissensbasis
eines Computers zu speichern und für diverse Probleme zu benutzen.

Abb. 1./3 KI-Methoden und KI-Anwendungen (aus


https://wirtschaftslexikon.gabler.de/definition/kuenstliche-intelligenz-ki-40285/version-263673)
Entscheidend für die Arbeit eines Expertensystems sind Repräsentationsformalismen des Wissens.
Häufig werden hierzu Ontologien benutzt, bei denen es sich um eine Art Netzwerk von Informationen
handelt. Eine Ontologie besteht aus Objekten (Konzepten) mit deren Eigenschaften und den
Beziehungen zwischen den Objekten mit den Eigenschaften der Beziehungen und den Regeln.
Beispiel (aus Autoteilen): Objekt Artikelnr. 692088 mit der Eigenschaft Bauform M6x16, Kopf
Sechskant; Beziehung; verbindet 25-54704 mit 25-52117, Eigenschaft der Beziehung: vor dem
Einsetzen einfetten. Regel: Nur geschulte Mitarbeiter dürfen das machen.
Logik ist ein weiterer Formalismus zur Wissensrepräsentation und -verarbeitung. Daher werden
Logikformalismen (denken sie aus q folgt p) benutzt, um eine explizite Menge von Überzeugungen
(für wahr gehaltene Aussagen) eines rationalen Agenten zu beschreiben. Eine solche Menge von
Überzeugungen, ausgedrückt in einer (symbolischen) Repräsentationssprache, wird Wissensbasis
bezeichnet.
Es wird versucht, intelligente Phänomene auf der Begriffsebene zu lösen, z.B. man hat zwei Aussagen,
Prüfung bestanden
50% der Punkte erreicht
Denen weist man Symbole (z.B. p und q) zu und versucht ihre Beziehung zueinander in Implikation,
Äquivalenz oder Negationssymbolik auszudrücken, z.B. hier durch die Implikation q→p
Das Problem wird von oben her (top-down) angegangen. Man nimmt dabei an, dass sich eine
symbolische Sicht der Begriffe, Wörter und sprachliche Gebilde sowie deren Bedeutung finden lässt.
Inferenzmechanismus
Eine wesentliche Aufgabe von KI-Systemen ist es anhand von diversen Problemstellungen bzw.
Problemzuständen mögliche weitere Folgeschritte abzuleiten bzw. automatisch zu erschließen. Im
Fachjargon nennt man dieses Ableiten bzw. Schließen Inferenz. Bei Inferenzen handelt es sich
allgemein gesehen um ein spezielles Verfahren für Schlussfolgerungen. Dazu können aus einer Menge
12
von bestehenden logischen Aussagen diese zu neuen Aussagen verknüpft werden, bis die tatsächlich
gewünschte Aussage entsteht. Man kann dabei auf der einen Seite schlussfolgern durch gezieltes
Beweisen und auf der anderen Seite blind schlussfolgern, also alles ableiten, was ableitbar ist, bis man
zu einem Ergebnis kommt.

1.4.2 Effizientes Suchen (für Problemlösen)


Da das Wissen in einer Wissensbasis abgelegt ist, ist eine Grundaufgabe das Durchforsten der riesigen
Wissensbasis und das Finden von entsprechende Lösungen für Problemstellungen. Also hier ist die
Suche wichtig.
Eine erste Grundaufgabe der Suche ist die Umwandlung des jeweiligen Problems in eine Form, die
von Suchverfahren verarbeitet werden kann.
Abb. 1/4: Suchbaum für Rundreise

Hierfür wird die sogenannte „Zustandsraumrepräsentation“ benutzt mit folgenden Schritten:


1. Zunächst werden Zustände definiert, die den aktuellen Stand der Lösung des Problems
beschreiben.
2. Dann werden Operatoren festgelegt, mit denen spezifiziert werden kann, wie man von einem
Zustand des Problems in einen anderen Zustand kommt.
3. Des weiteren werden entsprechende Start- und Zielzustände des Problems definiert.
Bereits die erfolgreiche Überführung des Problems in einen solchen Zustandsraum ist ein Indikator,
dass das Problem generell gelöst werden kann.
Damit die Zustandsraumrepräsentation für Rechner verständlich wird, benötigt man einen
entsprechenden Repräsentationsformalismus. Hierfür wird standardmäßig ein markierter Graph
benutzt. Die Knoten des Graphen repräsentieren in diesem Zusammenhang die entsprechenden
Zustände des Problems und die Kanten die Möglichkeiten der Zustandsübergänge. Jeder einzelne Weg
von dem ursprünglichen Start- bis zu einem Endknoten steht dabei für eine jeweilige Lösung des
Problems. Diese erzeugten Suchgraphen werden auch häufig als Suchbäume bezeichnet, weil sie das
typische Aussehen eines Baumes haben.
Damit die entsprechende Suche nicht unnötig überteuert wird, werden sogenannte „Übergangs-
funktionen“ (Bewertungsfunktionen) berechnet. Mit diesen Funktionen wird erreicht, dass ein
Suchraum schrittweise und auch nur in einem gewissen Maße, wie es tatsächlich für die
Problemlösung notwendig ist, generiert wird. Beim Reiseproblem wäre die Suche nach der kürzesten
Verbindung von A nach B das Suchproblem. Die Bewertungsfunktion wären dann die verwendeten
km für die jeweilige Strecke. Der Ast mit den geringsten km zum Ziel wäre die Suchlösung.

1.4.3 Natürlichsprachliche Systeme


Sprachassistenten wie sie in Smartphones, in modernen Autos oder in persönlichen Heimassistenten
vorkommen, stellen eine grundlegende Form von natürlichsprachlichen Systemen dar. Diese
Verarbeitung der natürlichen Sprache (engl. „Natural Language Processing“) ist eines der
bedeutendsten Teilgebiete der Künstlichen Intelligenz. Es wird eine sprachliche Interaktion mit dem
13
jeweiligen Software-Agenten ermöglicht. Die Interaktion selbst unterscheidet sich dabei nicht von der
Sprache und der Kommunikation wie sie unter Menschen stattfindet.
Damit diese Systeme einwandfrei funktionieren, benötigten sie folgende wesentliche Komponenten:
1. Zum einen ist es eine Spracherkennung. Das gesprochene Wort eines Menschen muss
maschinell verarbeitbar gemacht werden. Um dies zu ermöglichen, wird der Wortstrom über
ein Mikrophon aufgezeichnet und somit das analoge, elektromagnetische Signal digitalisiert
(in Bits und Bytes transformiert).
2. Diese digitale Fassung der Sprache wird im Anschluss in einzelne Bestandteile zerlegt und mit
Hilfe von komplexen Musterklassifikationen im Detail analysiert (z.B. Wörter lokalisiert).
3. Neben der Fähigkeit Sprache überhaupt zu erkennen, benötigen diese Systeme weiterhin ein
Sprachlexikon und nutzen in deren Kombination Morphologie. Dadurch verfügen die Systeme
über umfangreiche Möglichkeiten um Wörter und ganze Sätze zu analysieren
4. Schließlich bilden sie für die Antwort Wörter selbst. Dazu benötigen sie auf der einen Seite
Daten zur Wortformenbildung aber auf der anderen Seite auch Daten über zum Beispiel
Wortkategorie, semantischen Interpretation und eigentliches Vorkommen des Wortes (vgl.
Görz u.a.2014.)

Abb. 1./5: Beispiele von natürlichsprachlichen Systemen


5. Da die wirkliche Aufgabe natürlichsprachlicher Systeme die Erzeugung eines Dialogs
zwischen Mensch und Maschine ist, muss in den Systemen eine entsprechende Form der
Sprachgenerierung implementiert werden. Es wird hierfür ein Modell für einen
entsprechenden Redepartner sowie ein Modell für den jeweiligen Diskurs benötigt. Das
System muss eigenständig in der Lage sein sich zu überlegen, was und wie etwas tatsächlich
gesagt werden sollte. Hierzu arbeitet die KI in folgenden drei wesentlichen Schritten:
1. Es wird ein Konzept erzeugt wie eine Antwort gegeben werden kann
2. Die Maschine kümmert sich um die eigentliche Formulierung einer Antwort
3. Die Antwort wird tatsächlich artikuliert.
Beispiele:

14
2011 – Siri: Siri (engl. Abkürzung für: Speech Interpretation and Recognition Interface) ist ein
sprachgesteuerter Assistent der Firma Apple, der erstmals 2011 im iPhone 4S präsentiert wurde. Diese
Software hat die Fähigkeit natürlich gesprochene Sprache zu verarbeiten und dient somit als
persönlicher Assistent, der dem Nutzer das Leben erleichtern soll. Siri beherrscht eine große Menge an
Funktionen. „Wecker stellen“, „Routen planen“ oder „Wettervorhersagen“ sind nur eine kleine
Auswahl von Möglichkeiten, die Siri ihren Usern bietet.
2016 Allo ist ein Instant-Messaging-Dienst von Google. Er enthält einen virtuellen Assistenten und
kommt mit einer „schlauen Antwort“ Funktion, die automatische Vorschläge für eine Antwort gibt. Der
Dienst wurde bei der Google I/O am 18. Mai 2016 vorgestellt. Allo benutzt die Telefonnummer zur
Registrierung und Identifizierung der Nutzer. Auch gesendete Fotos werden analysiert, um Antworten
vorzuschlagen. App lernt vom Nutzerverhalten, um die Interessen kennenzulernen und Vorschläge für
weitere Nachrichten zu bringen. Allo unterstützt außerdem Google Assistant, einen virtuellen
Unterhaltungsassistenten.
2015 – Alexa: Im Juni 2015 erschien Amazon Echo Dot auf dem Markt. Dieser lernfähige
Sprachassistent in Gestalt eines Lautsprechers kann mit Hilfe der Stimme des Nutzers gesteuert
werden. Alexa bietet ihren Usern zahlreiche nützliche Dienste an. Sie beantwortet Fragen, liefert
Nachrichten und ist vor allem für Smart Home entwickelt worden.
2016 – Bots for Messenger: Im April 2016 veröffentlichte Facebook eine Messenger Plattform, die es
Programmierern ermöglichte, Chatbots zu entwickeln, mit denen man über den Facebook Messenger
interagieren kann. Bereits im Juni standen über 11000 Chatbots zur Verfügung.
2015 Cortana: Cortana ist ein Alternativprodukt zu Siri und Google Now. Die von Microsoft
entwickelte Sprachassistentin lässt sich mittels natürlicher Sprache steuern. Mit zahlreichen Diensten
soll sie das Leben der User erleichtern.

1.4.4 Räumliche und visuelle Mustererkennung (Computersehen)


Die maschinelle Gesichtserkennung wird bereits in einigen sozialen Netzwerken sowie als Sicherheits-
mechanismus zum Entsperren von zum Beispiel Mobiltelefonen benutzt. Bei dieser Fähigkeit werden
wichtige Eigenschaften des menschlichen Sehvermögens auf Computersysteme bzw. Maschinen
übertragen (vgl. Görz u.a. 2014).
Software-Agenten arbeiten grundlegend mit Sensoren, damit sie ihre Umgebung wahrnehmen können.
Diese Sensoren haben die Eigenschaft, dass sie die Umgebungsinterpretation in einer Art und Weise
durchführen, die wiederrum von Agenten verarbeitet werden kann. Sensoren selbst können auch so
komplex wie das menschliche Auge sein.
Um tatsächlich alle visuellen Reize richtig interpretieren zu können, arbeiten bei der räumlichen und
visuellen Mustererkennung die Sensoren mit Hilfe eines Objektmodells und eines Rendering-Modells.
Das Objektmodell dient als Wissensbasis, damit die Agenten bzw. Sensoren wissen, welche Objekte
in der echten Welt existieren, siehe Abb. 1/6. So kann ihnen aufgezeigt werden, welche markanten
Merkmale zum Beispiel eine Person oder ein Haus aufweist.
Das Rendering-Modell hingegen versucht sämtliche physikalische, geometrische und statistische
Prozesse zu beschreiben, welche zu einem jeweiligen visuellen Reiz führen können.
Laut Görz u.a. wird außerdem von den KI-Systemen eine Art Vorverarbeitung und Segmentierung
durchgeführt. Innerhalb dieser Tätigkeiten werden die visuellen Signale in einem ersten Schritt
digitalisiert und im Anschluss in einer Bildpunktematrix dargestellt, damit die Computersysteme diese
auch interpretieren können.

15
Abb. 1./6: Objektmodell

Abb. 1./7.; Jack, das selbstfahrende Auto von Audi


Des Weiteren werden Szenenelemente rekonstruiert und eine höhere Bilddeutung durchgeführt,
wodurch neben der eigentlichen Objekterkennung auch objekt- und zeitübergreifende
Zusammenhänge herausgearbeitet werden können. Dadurch sind Agenten in der Lage Dinge, Objekte,
Personen etc. richtig zu interpretieren und darauf Entscheidungen zu treffen. Agenten können somit
auf einen Pool von Merkmalen zugreifen und direkt bei der Sensorbeobachtung diverse Aktionen
ausführen. So kann ihnen zum Beispiel beigebracht werden, dass die menschlichen Augen in der
Regel immer einen Abstand von 5 bis 7 cm aufweisen. Durch das richtige Erkennen und die richtige
Rekonstruktion von Szenenelementen sind Agenten auch weiterhin in der Lage Situationen richtig
einzuschätzen. Vor allem bei selbstfahrenden Autos ist dies von enormer Bedeutung, da hier die
Systeme etwaige Hindernisse bzw. Gefahren sofort erkennen und auch dementsprechend handeln
16
müssen. Werden hier falsche Entscheidungen getroffen, so kann dies fatale Auswirkungen nach sich
ziehen.

1.4.5 Robotik
Die Robotik stellt die Hauptdisziplin innerhalb der KI dar, da sie alle anderen Teilgebiete der KI samt
Methoden und Techniken vereint (vgl. Görz u.a. 2014: 74f). Roboter übernehmen schon jetzt
unterschiedlichste Aufgaben. So werden sie zum Beispiel genutzt um innerhalb der Industrie diverse
Tätigkeiten am Fließband auszuführen.
In manchen Haushalten findet man die sogenannten Staubsaugerroboter, welche sich selbstständig in
Räumen umherbewegen. Aber auch in Behörden und im Gesundheitswesen entdeckt man immer
häufiger diese besondere Form der intelligenten Agenten, welche in der physikalischen Welt agieren.
So werden Roboter zum Beispiel auch eingesetzt um in Krisengebieten Bomben zu entschärfen oder
im Gesundheitswesen bei chirurgischen Eingriffen zu assistieren. Grundlegend gesehen gibt es die
unterschiedlichsten Arten von Robotern. Die Serviceroboter bzw. Freizeitroboter sollten in der Lage
sein, alltägliche Aufgaben des Menschen zu übernehmen. Das Problem hierbei ist allerdings immer
noch die eigentliche Stromversorgung sowie die Interaktion mit dem Menschen. Ein Roboter, der nur
eine Betriebsdauer von ein paar Minuten bzw. Stunden aufweist ist keine große Hilfe für den
Menschen. Weiterhin dürfen die Roboter nicht nur Daten messen und analysieren, sondern sie müssen
auch in der Lage sein, diese bewerten zu können. Hierzu ist es erforderlich, dass eine ordentliche und
gut funktionierende sprachliche Kommunikation ermöglicht wird und weiterhin Gestik, Mimik und
Sprache verstanden und ausgedrückt werden kann.
Beispiel (4 Min.): https://www.youtube.com/watch?v=nJj8wJg6jNM&list=PL0D26F7BD1C8D3C29
Eine weitere Form stellen die Industrieroboter dar. Vom äußeren Erscheinungsbild her weisen sie
keine Ähnlichkeit zum menschlichen Vorbild auf. Sie sind fest-montiert und übernehmen aufgrund
ihres Antriebs, der Steuerung, der Sensoren, der Mechanik und der verbauten Informationstechnologie
Tätigkeiten wie Montage, Beförderung, Verpackung, Schleifen, Schweißen etc.
Beispiel (ohne Ton): https://www.youtube.com/watch?v=sWgvIAkfqXQ
Die letzte wesentliche Form innerhalb der Robotik bilden die humanoiden Roboter. Hierbei handelt
es sich um Agenten, welche sich sehr stark am menschlichen Vorbild orientieren. Ihre Sensoren und
Manipulatoren sind stark am menschlichen Verhalten ausgerichtet (vgl. Görz u.a. 2014: 75). Es gibt
einen einfachen Grund, warum Roboter nach dem menschlichen Vorbild gebaut werden. Sieht etwas
aus wie ein Mensch, so ist man weniger davon abgeneigt damit zu interagieren
Beispiel: (0:12-1.22): https://www.youtube.com/watch?v=dIuL4D00uOY

Abb. 1./8: Roboter Pepper

1.4.6.Spielen
KI widmete sich schon immer den Spielesektor und es gab
KI-Anwendungen wie Dame, Schach, Go, die nun überall
Weltmeister sind. Wie schaut es bei Videospielen aus?
Verändern können sich Videospiele schon seit vielen
Jahren. Algorithmen kombinieren Bausteine und kreieren
dadurch zufallsgenerierte Welten. So funktioniert etwa
Minecraft, in dem die Spieler mit Beginn eines neuen
Spiels jedes Mal in einem Level starten, das nur sie so zu
Gesicht bekommen werden. Auch wenn diese Videospiele
jedem Spieler und jeder Spielerin eine einzigartige Welt
17
schufen, so war es schlussendlich doch egal, wer die Eingaben machte. Das bestimmende Prinzip war
und ist der Zufall.
Eine lernende künstliche Intelligenz in einem Videospiel jedoch kennt kaum Zufälle. Sie ist komplett
abgestimmt auf die Eingaben der Menschen. Schon in der Vergangenheit setzten Games diese Technik
ein. Doch während Titel wie Tamagotchi oder Nintendogs nur rudimentär und sehr begrenzt auf die
Eingaben der Spieler reagierten und aus ihnen lernten, ist mit Hello Neighbor 2017 ein Spiel
erschienen, das komplexer auf die Eigenheiten der Spieler eingehen kann. Bei Hello Neighbor hat der
Nachbar ein dunkles Geheimnis im Keller. Als kleiner Nachbarsjunge muss man irgendwie in das
Haus eindringen. Doch der Nachbar steht meiner Mission im Weg. Also überlege ich mir, wie ich ihn
austricksen kann. Aber der Nachbar lernt dazu, er ist mit künstlicher Intelligenz (KI) ausgestattet. Er
prägt sich meine repetitiven Muster ein, weiß irgendwann, auf welchem Weg ich in das Haus
eindringen möchte.
Eine lernende KI ist ein enormer Gegner, da die Spieler sich ständig selbst überlisten müssen. Genau
das sei auch das Spielprinzip. Wenn die Spieler rennen, werden die Gegner schneller. Wenn sie
schleichen, werden die Gegner listiger. "Doch das funktioniert eben auch andersrum: Sie werden das
nicht mehr tun, was die Spieler unterlassen." So können die Spieler die KI dazu bringen, sich so zu
verhalten, dass es zu ihrem Vorteil gereicht.
Diese lernende KI wird die Videospiele stark verändern. Adaptive KI könnte auch dazu dienen, im
Hintergrund zu verschwinden. Dadurch würde die Spielerfahrung sehr viel natürlicher,
menschenähnlich.
Abb.1/9: Cover vom KI-Spiel Hallo Neighbor

Lernende künstliche Intelligenz in


Videospielen steht noch am Anfang ihrer
Entwicklung. Noch nutzen diese nur sehr
wenige Spiele. Doch könnte sie dazu dienen,
den Spielern bisher unbekannte Spielerlebnisse
zu bieten. Denn nicht nur Gegner lernen
künftig dazu, sondern vielleicht auch Gefährten. Sie könnten auf die Spieler reagieren und sich zu
ihnen – und nur zu ihnen – verhalten.

1.4.7 Maschinelle Lern-Anwendungen am Beispiel Neuronaler Netze


Mit Hilfe Neuronaler Netze wird grundlegend versucht menschliche Arbeitsweisen des Gehirns in
Computersystemen und Maschinen nachzubilden. Die KI-Systeme sollen aus Beispielen in der Lage
sein selbstständig zu lernen und ähnlich wie das Gehirn neue Rückschlüsse und Lösungsansätze für
bislang unbekannte Situationen finden. Die Grundidee für das Forschungsgebiet stammt dabei aus der
Überlegung, dass der Großteil der Dinge, welche Menschen tun, ohne großes Nachdenken ablaufen.
wie Fahrradfahren, Autofahren, Lesen und Schreiben oder Stimmen und Geräusche wieder zu
erkennen. Was sind neuronale Netze überhaupt? Im Endeffekt sind neuronale Netze nichts anderes als
ein Netzwerk bestehend aus bis zu 100 Milliarden Nervenzellen des Gehirns.
Die Nervenzellen und deren Vernetzung untereinander sowie die Verschachtelung sind verantwortlich
für die Wahrnehmung, das Bewusstsein, die Lernfähigkeit und die Assoziationen. Über sogenannte
Dendriten nehmen die einzelnen Neuronen etwaige Reizungen bzw. Erregungen auf und leiten diese
an den Zellkern der Neuronen weiter, siehe Abb. 1/10. Mit Hilfe der Axone wird die Reizung bzw.
Erregung an die nächsten Neuronen weitergeführt. Synapsen bilden die Brücke zwischen Axon eines
Neurons und Dendriten anderer Neuronen. Wichtig dabei ist, dass ein Neuron des Gehirns bis zu
10.000 Verbindungen besitzen kann.
Diese biologische Funktionsweise der natürlichen neuronalen Netze bildet die Grundlage für die
künstlichen Gegenstücke. Etwaige Eingabeinformationen stellen in diesem Zusammenhang die
Eingangswerte dar. Propagierungsfunktionen verknüpfen im Anschluss die Eingabeinformationen mit
den Verbindungsgewichten. Über eine Aktivierungsfunktion wird anschließend der Zustand des

18
Neurons bestimmt. Zum Schluss wird mit Hilfe einer Ausgabefunktion ein Ausgabewert ermittelt,
welcher an die nachfolgenden Neuronen weitergeleitet werden kann.

Abb. 1.10: Neuronen im menschlichen Gehirn

Abb.1/11: Topologie eines Neuronalen Netzes 2-3-3-3


Beispiel NN lernen: http://playground.tensorflow.org/
Eine komplexe Variante des Maschinellen Lernens ist das Deep Learning. Dabei handelt es sich um
vielschichtige Neuronale Netze mit mehreren Hundert Neuronen in den versteckten Schichten. Diese
sind dem Menschen überlegen vor allem dann, wenn es gilt, Big Data, also große und unstrukturierte
Datensätze, zu analysieren. Aber Deep Learning Systeme sind in gewisser Weise „Fachidioten“, da
ihnen die Vielseitigkeit menschlicher Intelligenz fehlt.

Wie in Abb. 1/12 zu sehen ist, wird zurzeit am meisten in Maschinelles Lernen investiert (5-7 Mrd. $)
und am zweit meisten in Maschinelles Sehen (2,5-3,5 Mrd. $). Es werden zurzeit 95.000
Datenspezialisten weltweit gesucht.

19
Abb. 1./12: Investitionssummen in den verschiedenen KI-Technologien [Knoll 2018]

1.4.8 Beispiele für zukünftige KI-Anwendungen


Eine Studie von McKinsey identifiziert acht Wirtschaftsfelder, auf denen sich nach Ansicht der
Autoren der Einsatz von KI – und hier spezifisch maschinelles Lernen – am schnellsten in Wachstum
umsetzen lässt:
• Für autonome Autos, als Beispiel für ein Produkt, das ohne KI nicht denkbar ist, wird ein
Marktanteil von 10 bis 15% bis 2030 prognostiziert, der danach weiter mit zweistelligen Raten
wächst.
• In der Produktion wird für vorbeugende Wartung unter Nutzung von KI-Methodik zur
Musterkennung und Datenintegration eine Erhöhung der Anlagenproduktivität von 20% bei
gleichzeitiger Reduktion der Wartungskosten um 10% vorhergesagt.
• Kooperative, also mit dem Menschen zusammenarbeitende Roboter führen ebenfalls zu einer
Produktivitätssteigerung von 20%.
• Durch eine KI-gestützte Auswertung von tausenden von Datenpunkten kann in der
Halbleiterindustrie die Ausbeute um 30% erhöht werden.
• Die KI-gestützte und bildbasierte Qualitätskontrolle kann die Erkennung von Defekten um bis
zu 90% gegenüber menschlicher Inspektion steigern.
• Besonderes Potential sehen die Autoren in der Verbesserung des Managements der
Lieferketten durch Erhöhung der Prädiktionspräzision: Eine Verringerung um 20% bis 50%

20
des Vorhersagefehlers, Verluste durch die Nichtverfügbarkeit von Produkten können um 65%
reduziert werden, bei gleichzeitiger Verminderung der Lagerbestände um 20 bis 50%.
• Ebenso können durch die Unterstützung von F&E-Prozessen 10% bis 15% der Kosten
eingespart und die Zeiten bis zur Markteinführung um 10% verkürzt werden.
• Schließlich werden in der Unterstützung von Geschäftsprozessen bis zu 30%
Automatisierungspotential gesehen, im Fall der Automatisierung von IT-Helpdesks sogar
90%.

1.5 Deutsche KI Geschichte

1.5.1 10 prägende Köpfe der deutschen KI-Geschichte (GI Mai 2019)


• André, Elisabeth (Mensch-Maschine-Interaktion, Multiagentensysteme)
• Bibel, Wolfgang (Wissensrepräsentation und Schlussfolgern)
• Biundo-Stephan, Susanne (Planen)
• Brewka, Gerhard (Wissensrepräsentation und Schlussfolgern)
• Herzog, Otthein (Multiagentensysteme/Bildverstehen/Anwendungen)
• Nebel, Bernhard (Wissensrepräsentation und Schlussfolgern/Planen)
• Schölkopf, Bernhard (Maschinelles Lernen)
• Siekmann, Jörg H. (Wissensrepräsentation und Schlussfolgern)
• Wahlster, Wolfgang (Mensch-Maschine-Interaktion/Dialogsysteme)
• Wrobel, Stefan (Maschinelles Lernen)

Bedeutende KI-Technologien aus Deutschland (GI Mai 2019)


Ausgezeichnete Technologien der Kategorie „zehn bedeutende Technologien der deutschen KI-
Geschichte“:
• Autonome Systeme & Autonomes Fahren
• Erfahrungsbasierte Systeme
• Evolutionäre Algorithmen und Evolutionsstrategien
• Strategien für das Maschinelle Lernen
• Data Mining Toolkit
• Konfiguration
• Automatisches Beweisen / Deduktionssysteme
• Dokumentenanalyse
• Wissensrepräsentation
• Automatische Sprachverarbeitung: Dialogsysteme

1.5.2 Autonome Systeme / Autonomes Fahren


Auch wenn viele heute beim Thema 'Autonome Straßenfahrzeuge' auf Waymo, Apple, Uber und Co.
verweisen, so ist dieses Themenfeld ganz stark von der Forschung in Deutschland geprägt worden.
Bereits in den späten 1980er und 1990er Jahren arbeiteten die Gruppen von Ernst Dickmanns und
Hans-Hellmut Nagel am autonomen Fahren und hatten trotz der beschränkten Leistung damaliger
Rechner bereits beachtliche Erfolge (zum Beispiel: VaMoRs und VaMP, beides Versuchsfahrzeuge
für autonome Mobilität und Rechnersehen). Seit 2011 fährt Raúl Rojas mit seinem Team im
autonomen Fahrzeug regelmäßig in Berlin und hat dieses bereits in Süd- und Mittelamerika
erfolgreich getestet. Bis heute sind deutsche Forschungseinrichtungen, Automobilhersteller und -
zulieferer in diesem Bereich äußerst aktiv, wie beispielsweise die Anzahl der Beiträge aus
Deutschland bei den internationalen Fachtagungen (z.B. IEEE Intelligent Vehicles Symposium, IEEE
International Conference on Intelligent Transportation Systems) zeigen (Thun).
Im Rahmen von internationalen Wettbewerben, wie dem RoboCup, haben ebenfalls zahlreiche
deutsche Forschungs- und Entwicklungsgruppen teilgenommen und beachtliche Erfolge feiern

21
können, beispielsweise wurde Burkhard mit seinem Team einer der ersten Weltmeister in der
RoboCup Simulation League.

Entwicklungsorte waren, unter anderen: •Bundeswehr Universität München, Deutsches


Forschungszentrum für Künstliche Intelligenz (DFKI), •Fraunhofer Institut IITB, •Freie Universität
Berlin, •Karlsruher Institut für Technologie (KIT), •Technische Universität Braunschweig,
•Technische Universität Chemnitz, •Technische Universität Darmstadt, •Universität Ulm
Beteiligte Personen waren u.a.: Hans-Dieter Burkhard (Autonome Systeme), Thomas Christaller
(Autonome Systeme), Ernst D. Dickmanns (Autonomes Fahren), Frank Kirchner (Autonome Systeme
/ Robotik), Hans-Hellmut Nagel (Autonomes Fahren), Raúl Rojas (Autonomes Fahren)

1.5.3 Erfahrungsbasierte Systeme


Im amerikanischen Rechtssystem spielt die Recherche passender Präzidenzfälle eine besondere Rolle.
Daher wurde in den USA ein KI-Ansatz für das fallbasierte Schließen entwickelt, mit dem sich die
Recherchen maschinell unterstützen lassen. In Deutschland wurde das Potential dieses Konzepts für
industrielle Anwendungen von Michael M. Richter bereits früh erkannt. Er hat mit seinen Arbeiten
und denen seiner Gruppe das Gebiet des Fallbasierten Schließens (Case-Based Reasoning) bzw. der
erfahrungsbasierten Systeme international weiterentwickelt. Beispielhaft sei hier das von ihm
vorgeschlagene Modell der „Wissenscontainer“ genannt, das maßgeblich zum Verständnis und zur
Gestaltung von Anwendungen beigetragen hat. Als Ergebnis hat sich eine in der Praxis etablierte
Technologie ergeben, die sich beispielsweise auch in der Gründung des Unternehmens Empolis (in
1991 zuerst als tec:inno) niedergeschlagen hat, das heute führend in diesem KI-Umfeld ist.

Entwicklungsorte waren Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI), Fraunhofer,


ehemals GMD,TU Kaiserslautern
Beteiligte Personen waren, u.a. Klaus-Dieter Althoff, Ralph Bergmann, Michael M. Richter, Stefan
Wess
1.5.4 Evolutionäre Algorithmen und Evolutionsstrategien
Evolutionsstrategien stellen eine wichtige Technik im Bereich der nichtlinearen Optimierung und des
maschinellen Lernens dar. 1970 überträgt Ingo Rechenberg in seiner Dissertation das Prinzip der
biologischen Evolution auf die Entwicklung sogenannter Evolutionsstrategien, die er in den nächsten
Jahren mit Hans Paul Schwefel zusammen international etabliert. Die grundlegenden Mechanismen
sind dabei ausgehend von einer Menge von Lösungen (Population), wiederholend Nachfolger durch
(Re-) Kombination und Mutation zu generieren. Dabei werden von Generation zu Generation jeweils
die „besten“ Lösungen weiterberücksichtigt. Mit der Entwicklung immer leistungsfähigerer Computer
– insbesondere in den letzten drei Jahrzehnten – haben sich die evolutionären Algorithmen massiv
ausgebreitet. Beinahe überall, wo Optimierung und Suche benötigt werden, bspw. in der
Transportplanung oder in der Produktionsplanung, stellen sie mögliche Lösungsansätze dar und haben
sich als wichtige Werkzeuge für Industrie und Forschung durchgesetzt. Das resultierende Teilgebiet
der KI wird als Computational Intelligence bezeichnet. In der letzten Dekade werden diesem Beispiel
folgend Lösungsverfahren untersucht, die sich an biologischen Vorbildern orientieren, bspw. Ameisen.
Das Ziel ist die Entwicklung und Gestaltung von Systemen, die über selbstorganisierende
Eigenschaften verfügen und so robuste Lösungsansätze für die Praxis zur Verfügung stellen sollen.
Dieses Ziel wird u.a. in dem von Hartmut Schmeck mit initiierten Forschungsfeld „organic
computing“ verfolgt.
Entwicklungsorte waren, unter anderen: •Karlsruher Institut für Technologie (KIT),•Technische
Universität Berlin, •Technische Universität Dortmund, •Universität Magdeburg

22
Beteiligte Personen waren, unter anderen: •Rudolf Kruse, •Ingo Rechenberg, •Hartmut Schmeck

1.5.5 Strategien für das Maschinelle Lernen


Ein wichtiges Teilgebiet der KI ist das Maschinelle Lernen, das einerseits einen Erklärungsbeitrag
zum menschlichen Lernen leisten und andererseits adaptive KI-Systeme ermöglichen soll. Dabei
beruhen viele der aktuell sehr erfolgreichen Lernansätze auf prägenden Strategien aus der deutschen
KI-Forschung. Martin Riedmiller hat sich beispielsweise zu einer Zeit mit neuronalen Ansätzen für
das sogenannte verstärkende Lernen (reinforcement learning) beschäftigt, als dieses noch nicht en
vogue war. Seit Ende der 90er Jahre hat er substanzielle Beiträge und titelgekrönte Anwendungen im
Bereich des Roboterfußballs erreicht. Als wichtigster Vertreter kann hier das Long-Short-Term-
Memory (LSTM) genannt werden, welches von Jürgen Schmidhuber und Sepp Hochreiter in ihrer
Münchener Zeit entwickelt wurde. LSTM zeichnet sich dadurch aus, dass es „konventionelle“ Ansätze
um eine Erinnerungskomponente erweitert (Kurzzeitgedächtnis). Im Zuge des zunehmenden Einsatzes
von Graphikkarten für Berechnungen (GPU-Computing) erfreut sich LSTM steigender Beliebtheit.
Seit einigen Jahren setzen große Technologieunternehmen wie Amazon, Google und Apple LSTM
beispielsweise für ihre Sprachassistenten ein. Eine weitere bahnbrechende Errungenschaft, die durch
LSTM ermöglicht wurde, ist der Sieg der von Google DeepMind entwickelten Software AlphaGo über
einen der stärksten Go-Spieler der Welt (Lee Sedol).
Entwicklungsorte waren, unter anderen: Technische Universität München, Universität Freiburg
Beteiligte Personen waren, unter anderen: Sepp Hochreiter, Martin Riedmiller, Jürgen Schmidhuber
1.5.6 Data Mining Toolbox
RapidMiner ist eine Toolbox für Data Mining und Maschinelles Lernen. Sie ist ab 2001 als „Yet
Another Learning Environment“ am Lehrstuhl für künstliche Intelligenz der TU Dortmund entwickelt
worden und hat sich beinahe sofort sehr großer Beliebtheit erfreut. 2006 wurde die Firma RapidMiner
von Mierswa und Klinkenberg gegründet und mittlerweile bestehen weitere Standorte in
Großbritannien und den USA. RapidMiner zeichnet sich insbesondere dadurch aus, dass die Benutzer
Erweiterungen, Operatoren und Datenanalyseprozesse spezifizieren können. RapidMiner verfügt über
rund 500 Operatoren beispielswiese aus den Bereichen Text-, Web- und Data-Mining sowie für
Stimmungs- und Zeitreihenanalyse. So hat es sich zu einem der führenden Systeme für die
Vorverarbeitung und Datenanalyse entwickelt und wird sowohl in vielen Hochschulen als auch in
Unternehmen genutzt.
Entwicklungsorte waren, unter anderen: Technische Universität Dortmund
Beteiligte Personen waren, unter anderen: Ralf Klinkenberg, Ingo Mierswa, Katharina Morik
Beteiligte Unternehmen waren, unter anderen: RapidMiner GmbH, Germany
1.5.7 Wissensbasierte Konfiguration
In der KI wird seit den 70er Jahren an Expertensystemen und wissensbasierten Assistenzsystemen
geforscht. Expertensysteme sollten nicht die kognitiven Fähigkeiten eines Menschen nachbilden,
sondern Menschen problemspezifisch unterstützen. Ähnlich wie das Maschinelle Lernen heute,
konnten Expertensysteme in vielfältigen Anwendungen und Problembereichen eingesetzt werden.
Dabei war die wissensbasierte Konfiguration eine „Paradedisziplin“ für Expertensysteme, da sie eine
hohe Anwendungsrelevanz u.a. in industriellen Kontexten hat. Gerade heute, in Zeiten
kundenindividueller Produktion und Lieferung, sind wissensbasierte Konfigurationen wesentliche
Bestandteile moderner ERP-Systeme. Diese Entwicklung der Konfiguration wurde in Deutschland mit
den erfolgreichen Workshops „Planung und Konfigurieren (PuK)“ mitgestaltet, die seit 1987 jährlich
ausgerichtet werden. Es gibt eine Reihe von mittelständischen Software-Unternehmen, die die
Produktkonfiguration - neudeutsch CPQ - zur Marktreife gebracht haben. Die auf
Konfigurationssoftware spezialisierte encoway GmbH hat beispielsweise mit engcon ein
„industriereifes“ Produkt auf den Erkenntnissen des Hamburger Konfigurationssystems KonWerk
entwickelt, welches in unterschiedlichsten Anwendungen eingesetzt wird und international
wettbewerbsfähig ist. Zusätzlich sind Ansätze zur wissensbasierten Konfiguration auch in
kommerzielle ERP-Systeme, wie SAP, eingeflossen.
Entwicklungsorte waren, unter anderen: Deutsches Forschungszentrum für Künstliche Intelligenz
(DFKI), Fraunhofer FIRST, RWTH Aachen, Technische Universität Chemnitz, Technische
23
Universität Kaiserslautern Universität Halle, Universität Hamburg, Universität Oldenburg, WHZ
Zwickau
Beteiligte Personen waren u.a.: •Andreas Günter, •Albert Haag, •Lothar Hotz, •Ulrich John, •Bernd
Neumann, •K. Christoph Ranze, •Michael M. Richter,•Jürgen Sauer, •Josef Schneeberger
1.5.8 Automatisches Beweisen / Deduktionssysteme
Ein wichtiges Ziel der KI-Forschung ist es, Wissen für den Computer zugänglich zu machen, so dass
informierte Entscheidungen automatisiert getroffen werden können. In der Deduktion kommen
mathematische Logiken zur Wissensrepräsentation zum Einsatz mit dem Ziel, dass das so
axiomatisierte Wissen automatisierbar zum Herleiten von Schlüssen und Theoremen (automatisches
Beweisen) genutzt werden kann. In jahrzehntelanger intensiver Forschung, insbesondere auch im
deutschsprachigen Raum, sind leistungsfähige Deduktionssysteme entstanden, die eine hohe
Praxisrelevanz aufweisen. So hat Wolfgang Bibel beispielsweise mit der „Connection Method“ eine
Alternative zur Resolution in der klassischen Logik vorgeschlagen oder mit seiner Arbeitsgruppe das
SETHEO Deduktionssystem entwickelt, welches zu seiner Zeit zu den weltweit führenden Systemen
gehörte und 1996 den ersten Platz im seither jährlich stattfindenden internationalen Wettbewerb CASC
derartiger Systeme gewonnen hat. Große Beachtung fanden auch die Ansätze und Methoden, die von
Jörg Siekmann und seiner Arbeitsgruppe entwickelt wurden, etwa im Bereich der Unifikation, einem
Herzstück des automatischen Beweisens. In der ehemaligen DDR hat Herbert Stoyan die erste LISP-
Implementierung als Deduktionssystem in Dresden realisiert und sich um die Geschichte von LISP
(Dialekte, Implementierungen) hoch verdient gemacht. Die Anwendungen von Deduktionssystemen
finden sich beispielsweise in dem Lösen offener mathematischer Probleme, der Programmverifikation
und -synthese, dem Schaltkreisentwurf und der Inferenz in Expertensystemen.
Entwicklungsorte waren, unter anderen: Karlsruher Institut für Technologie (KIT), Technische
Universität Darmstadt, Technische Universität Dresden, Technische Universität Kaiserslautern,
Technische Universität München, Universität Erlangen-Nürnberg, Universität des Saarlandes
Beteiligte Personenwaren, unter anderen: Franz Baader, Wolfgang Bibel, Karl-Hans Bläsius, Hans-
Jürgen Bürckert, Peter Deussen, Ulrich Furbach, Jörg Siekmann, Herbert Stoyan
1.5.9 Dokumentenanalyse
Von besonderer Bedeutung für die Praxis ist die KI-gestützte Dokumentenanalyse. Dabei reicht das
Spektrum relevanter Arbeiten von der Text- und Handschrifterkennung über die Annotation digital
vorliegender Informationen bis zur automatischen Analyse, Interpretation und ggf. Verarbeitung von
Dokumenten. An zahlreichen Hochschulen, Forschungsinstituten und Unternehmen wird an diesen
Themen gearbeitet. Beispielsweise hat Siemens in Kooperation mit der FU Berlin Ende der 90er Jahre
an einer effizienten und sehr schnellen Erkennung von handgeschriebenen Postleitzahlen auf
Großbriefen gearbeitet. Die besondere Herausforderung bestand in der besonderen Geschwindigkeit (6
Briefe / Sekunde), in der die Erkennung verarbeitet werden mussten. Das entstandene System wurde in
über 80 Briefverteilzentren der Deutschen Post eingesetzt. Auch wenn für viele Anwendungen
kommerzielle Erkennungssysteme (OCR) für Texte zur Verfügung stehen, sind im Bereich der
Geisteswissenschaften zunehmend innovative KI-Verfahren erforderlich, um die zahlreichen
antiquarischen und häufig handschriftlich erstellten Dokumente und Bücher digital zu erschließen. Der
Schwerpunkt der Forschung in der Datenanalyse liegt auf der Wissensarbeit, die beispielsweise am
DFKI oder dem Fraunhofer in speziellen Kompetenzzentren untersucht wird. Eine Stärke der
deutschen Forschung zum Wissensmanagement ist ihre (internationale) Vernetzung mit den
Forschungsgebieten der Wirtschaftsinformatik, dem Maschinellen Lernen und dem
erfahrungsbasierten Lernen.
Entwicklungsorte waren u.a.: Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI,Freie
Universität Berlin, Technische Universität Kaiserslautern
Beteiligte Personen waren, unter anderen: Andreas Dengel, Raúl Rojas, Marcus Pfister
Beteiligte Unternehmen waren, unter anderen: Daimler Research Center Ulm, Siemens AG

1.5.10 Wissensrepräsentation
In dem KI-Teilgebiet der Wissensrepräsentation wird untersucht, wie Wissen formal abgebildet
werden kann. Es werden dazu unterschiedliche formale Sprachen und Notationen entwickelt. In der
deutschen KI-Landschaft gibt es eine Tradition, sich mit Logiken und Deduktionssystemen zu
24
beschäftigen (vgl. Deduktionssysteme und automatisches Beweisen). Das in den USA entworfene
Wissensrepräsentationssystem KL-ONE wurde bspw. intensiv von Forschern im Rahmen von
Sprachdialogsystemen in Deutschland untersucht und erweitert. Da bei der Wissensrepräsentation der
Aufwand bzw. die Kosten der Modellierung teilweise unverhältnismäßig hoch waren, gab es
zunehmend den Trend zur Wiederverwendung von Wissen. Daneben wurden Ansätze zur Abbildung
von vagem oder unsicherem Wissen untersucht. Kruse hat wesentlich dazu beigetragen, Fuzzy-Logic,
bayessche Netze und probabilistische Wissensrepräsentationen in Deutschland zu etablieren und
weiterzuentwickeln, die z.B. kommerziell erfolgreich in Fahrzeugen von Volkswagen Anwendung
gefunden haben. In den 90er Jahren haben sich Beschreibungslogiken etabliert, die insbesondere im
aufkommenden Semantic Web von Wissenschaftlern wie Studer oder Staab intensiv erforscht und
erfolgreich in unterschiedlichsten Anwendungen eingesetzt wurden und werden. Durch die
Verbreitung von mobilen Computern und Smartphones wird es immer wichtiger, ortsbezogenes
Wissen zu repräsentieren. So können ortsbezogene Dienste angeboten werden. Im Rahmen eines
großen Forschungsprojektes haben Freksa und Kollegen Ansätze zur Einschätzung komplexer
räumlicher Situationen und zur Handlungsantizipation entwickelt (Spatial Cognition), welches auch
international Beachtung gefunden hat.
Entwicklungsorte waren, unter anderen: •Universität Bremen, •Universität Magdeburg, •Technische
Universität Braunschweig, •Karlsruher Institut für Technologie, •Technische Universität Darmstadt,
•Technische Universität München, •Technische Universität Dresden, •Deutsches Forschungszentrum
für Künstliche Intelligenz (DFKI)
Beteiligte Personen waren, unter anderen:•Franz Baader, •Wolfgang Bibel, •Gerhard Brewka,
•Christoph Freksa, •Günther Görz, •Kai von Luck, •Rudolf Kruse, •Jörg Siekmann, •Wolfgang Spohn,
•Steffen Staab, •Rudi Studer, •Bernhard Nebel
1.5.11 Automatische Sprachverarbeitung: Dialogsysteme, Übersetzung, Verstehen
Automatische Sprachverarbeitung ist als Forschungsgebiet insbesondere in Deutschland bereits in den
Anfängen der deutschen KI-Forschung untersucht worden. Zunächst entstanden unter der Leitung von
von Walther von Hahn mit Mitarbeit von Wolfgang Wahlster in Hamburg einflussreiche
Pionierbeiträge, das sogenannte Hamburger Redepartnermodell (HAM-RPM) und das Hamburger
System für anwendungsorientierte natürlichen Sprache (HAM-ANS). Diese wurden von Wahlster in
den nächsten Jahrzenten substantiell in Saarbrücken ausgebaut. Hier sollte ein adhoc
Sprachdialogsystem entwickelt werden, welches sprecherunabhängig eingesetzt werden kann. In den
90er Jahren wurde diese Initiative mit einem Langfrist-Forschungsprojekt (verbmobil) vorangetrieben.
Die hier generierten Forschungsergebnisse sind eine wichtige Grundlage für die in den letzten Jahren
etablierten Sprachassistenten gewesen. In Verbmobil wurde auch an einem zweiten Schwerpunkt in
der automatischen Sprachverarbeitung gearbeitet: an der Übersetzung. Hier war insbesondere
Alexander Waibel prägend, der erfolgreich automatische Simulationübersetzungen realisiert hat.
Neben Dialogsystemen wurde in Deutschland insbesondere auch an der automatischen Übersetzung
gearbeitet. Obwohl in den 2000er Jahren ein kostenloses Übersetzungssystem von Google angeboten
wurde, wurde 2017 ein neues, in Deutschland entwickeltes System mit außergewöhnlichem Erfolg in
Konkurrenz zu den bestehenden Lösungen auf den Markt gebracht. Da DeepL als Lernbasis auf
qualitätsgeprüfte Übersetzungen gesetzt hat, waren die Ergebnisse so überzeugend (auch in doppelt-
blind Studien), dass sich DeepL in kürzester Zeit am Markt etablieren konnte. Auch im
Sprachverstehen gehen wichtige Erkenntnisse aus Forschung und Entwicklung in Deutschland aus:
Beispielsweise entwickelte Helbig und Mitarbeiter das Paradigma der Mehrschichtigen Erweiterten
Semantischen Netze (MultiNet-Paradigma) und eine darauf aufbauende Sprachverarbeitungs-
technologie. Diese sind ein bedeutender Beitrag für ein kognitiv orientiertes Sprachverstehen durch
den Computer gewesen. Ein wichtiges Merkmal dieser Technologie ist ihre Multilingualität. Das
heißt, dass der semantische Kern der erarbeiteten Computerlexika und der lexikalisch-semantischen
Analyse über mehrere Sprachen hinweg in gleicher Weise verwendet werden kann und lediglich die
syntaktischen Eigenheiten der jeweiligen Sprachen unterschiedlich zu behandeln sind.
Entwicklungsorte waren, unter anderen: Deutsches Forschungszentrum für Künstliche Intelligenz
(DFKI), Karlsruher Institut für Technologie, Technische Universität Kaiserslautern, Universität des
Saarlandes, Universität Erlangen-Nürnberg, Universität Hamburg, Universität Osnabrück

25
Beteiligte Personen waren u.a.: Walther von Hahn, Sven Hartrumpf, Hermann Helbig, Wolfgang
Wahlster, Alexander Waibel
Beteiligte Unternehmen waren u.a.: DeepL GmbH Köln, IBM

1.6 Literatur und Kontrollfragen


Literatur
1. Bodendorf Freumut. Daten- und Wissensmanagement. Springer Verlag, 2006.
2. Dubois, D. und Prade H.: A survey of belief revision and updating rules in various
uncertainty models. Int. J. Intelligent Systems, 9(1), 1994, S. 61-100.
3. Görz, G., Schneeberger, J. & Schmid, U., 2014. Handbuch der Künstlichen Intelligenz. 5.
Hrsg. München: Oldenbourg Verlag München.
4. Haun, M., Handbuch Robotik - Programmieren und Einsatz intelligenter Roboter. 2.
Hrsg. Berlin: Springer Vieweg.
5. Knoll Alois Christian: Künstliche Intelligenz und Robotik: Motor für Innovation. ZD.B
DIGITAL DIALOGUE POSITIONSPAPIER 2018.
6. Popp, H. E.: Mensch-Mikrocomputer Kommunikationssystem – Management
Expertensystem in der chemischen Industrie auf der Basis eines universellen Daten- und
Prozeduralmodells auf einem Mikrocomputerverbundsystem, Dissertation
Regensburg, 260 S., 1984.
7. Russel Stuart, Norvig Peter: Künstliche Intelligenz. Ein moderner Ansatz. 3. Auflage,
Pearson Studium, 2012
8. Wille, Rudolf: Begriffliche Wissensverarbeitung: Theorie und Praxis. Informatik-
Spektrum: Vol. 23, No. 6. Berlin Heidelberg: Springer-Verlag. (S. 357-369).
9. GI: Geschichte der deutschen KI. 2019. https://gi.de/meldung/gi-kuert-zehn-praegende-
koepfe-und-technologien-der-deutschen-ki-forschung-im-wissenschaftsjahr-2019
Kontrollfragen
1. Geben Sie bitte eine kurze Definition von Wissen, Daten und Information
2. Geben Sie einige Eigenschaften an, die intelligentes Handeln (menschliche
Wissensverarbeitung) voraussetzen.
3. Beschreiben Sie das Grundprinzip des Turing – Tests.
4. Welche Ereignisse fallen in die wissensbasierte Epoche der KI-Geschichte?
5. Welche drei fundamentalen Schwierigkeiten traten Mitte der sechziger Jahre in der
KI-Forschung auf?
6. Beschreiben sie die aktuelle KI-Phase!

7. Aus welchen Gebieten besteht die KI?


8. Welche KI-Methoden und Techniken sind Ihnen bekannt?
9. Skizzieren sie zwei Wissensrepräsentationsformalismen.
10. Was versteht man unter Inferenz?
11. Was versteht man unter der Zustandsraumrepräsentation, Suchbäumen?
12. Erläutern Sie den Ablauf bei der Verarbeitung natürlicher Sprache durch einen
Sprachassistenten.
13. Welche zwei Modelle spielen beim Computersehen eine große Rolle?
14. Beschreiben Sie den Aufbau und das Verhalten von Künstlichen neuronalen Netzen?
15. Zwischen welchen Roboterarten wird unterschieden?
16. Nennen sie das berühmteste KI-Forschungszentrum Deutschlands.

26
2. KI im Wissensmanagementprozess
2.1 Wissensqualitäten – Wissen ist subjektiv – Wissen ist Kapital
2.1.1 Wissensqualitäten
Es gibt verschiedene Wissensqualitäten, daher berücksichtigt man in den Wirtschaftswissenschaften
immer mehr die Existenz von Unsicherheit und Unschärfe.
Betrachten wir ein Beispiel aus dem Produktionsprozess mit verschiedenen Maschinen, auf denen ver-
schiedene Aufträge bearbeitet werden sollen. Wir konzentrieren uns jetzt auf nur eine Maschine, sei es
Maschine A, und auf einen Auftrag, der sei Auftrag 1.
So könnte eine Aussage in der Produktionsplanung lauten:
Die Wartezeit von Auftrag 1 vor Maschine A beträgt 10 Minuten
Diese Aussage ist scharf und sicher, während die folgende Aussage eine Wahrscheinlichkeit enthält.
Die Wahrscheinlichkeit, dass die Wartezeit von Auftrag 1 vor Maschine A 10 Minuten beträgt,
ist 0,9
Die Wahrscheinlichkeit rührt von einer Wiederholung desselben Produktionsprozesses her. Es ist ein
Erfahrungswert.
Dagegen hat folgende Aussage ein Glaubensintervall:
Das Plausibilitätsintervall für die Hypothese, dass die Wartezeit von Auftrag 1 vor Maschine
A 10 Minuten beträgt, ist (0,05; 0,95)
Dieses Glaubensintervall besteht aus der Plausibilität als obere Grenze .95 und dem Glaubenswert als
untere Grenze .05. Der Glaubensgrad ist dabei das Komplement des Plausibilitätsgrades. Plausibilität
ist der Grad, zu dem eine Verdachtshypothese gerade noch aufrecht erhalten werden kann.
Unsicherheitsintervall drückt den Unterschied zwischen unmittelbar belastenden Verdachtsmomenten
und den nicht unmittelbar entlastenden Verdachtsmomenten aus. Glaube=positiver Verdacht;
Plausibilität ist möglicher Verdacht.
Die Möglichkeit, dass die Wartezeit von Auftrag 1 vor Maschine A 10 Minuten beträgt, ist 0,9
Die Möglichkeit drückt im Gegensatz zur Wahrscheinlichkeit nicht die Häufigkeit des Auftretens aus,
sondern die Vereinbarkeit des Auftretens mit subjektiven Vorstellungen. "Ereignis A ist möglich" ist
die schwächste Formulierung über die Realisierung des Ereignisses A.
Eine unscharfe Aussage mit dem unscharfen Term "ungefähr" lautet etwa
Die Wartezeit von Auftrag 1 vor Maschine A beträgt ungefähr 10 Minuten
Was der Term „ungefähr“ konkret ausdrückt, versucht man mit sogenannten Zugehörigkeitsfunktionen
zu repräsentieren. Näheres findet man bei der Fuzzy Technik.
Ein letzter Typ unsicheren Wissens ist unvollständiges und verzerrtes Wissen.
Die Wartezeit von Auftrag 1 vor Maschine A beträgt..... Minuten
Hier kann z.B. das fehlende Wort 10 durch Lernen aus dem Zusammenhang erkannt werden.
Seit der anfänglichen Entwicklung heuristischer Modelle haben sich in der internationalen Forschung
verschiedene Schulen herauskristallisiert, auf die sich die aktuellen Arbeiten konzentrieren, z.B. wahr-
scheinlichkeitstheoretische Verfahren, Belief Modelle basierend auf dem Dempster-Shafer Evidenz-
kalkül, Possibilitätstheorie, mit Fuzzy-Mengen operierende Verfahren und für unvollständiges Wissen
die Neuronalen Netze.
27
2.1.2 Wissen ist subjektiv
Die Verbreitung von Wissen kann nur gelingen, wenn Informationen innerhalb eines Unternehmens
entsprechend identifiziert, verarbeitet, weitergeleitet, gespeichert und abgerufen werden. Dabei steht
nicht die gesamte Fülle von Informationen im Fokus des Wissensmanagements, sondern lediglich jene,
die für das Unternehmen erfolgsrelevant und objektiv sind. In dieser bewussten Fokussierung besteht
ein erkenntnistheoretisches Problem in der Form, dass es keine objektiven Fakten gibt und geben kann.
Die Wahrnehmung der Wirklichkeit durch ein Subjekt ist immer subjektiv geprägt.
Auch aus psychologischer Sicht kann es keine objektive Information geben. Folgendes Modell, siehe
Abb. 2/1, soll dies veranschaulichen: Jeder Informant nimmt von einem bestimmten Standort aus die
Wirklichkeit wahr, hat dabei einen bestimmten Fokus, verwendet bestimmte Filter und kommt dabei zu
bestimmten Wahrnehmungen. Diese Wahrnehmungen sind notgedrungen wertegeleitet, fokusbestimmt,
durch Interesse geleitete Filter reduziert und deshalb immer selektiv, situativ und vor allem subjektiv.

Abb.2/1: Verschiedene Sichten auf die Realität am Beispiel einer Kartoffelsicht [Bellinger 2007]

Dieses Phänomen hat systematischen Charakter und kann weder vom Informanten noch vom Benutzer
eines WM-Systems vollständig kontrolliert werden. Ein Unternehmen, das so genannte Tatsachen
betrachtet bzw. zu nutzen sucht, kann somit maximal Intersubjektivität erreichen, niemals jedoch
Objektivität.
In diesem Sinne handelt es sich bei der gemeinsamen Nutzung so genannter Fakten stets um eine
Verabredung von der folgenden Art: So lange niemand widerspricht, wird eine bestimmte Behauptung
als Faktum behandelt. Wenn zum Beispiel in der Organisation "BMW power-Motorclub" die
Behauptung "Alle Opel-Fahrer sind Bremser" aufgestellt wird und unwidersprochen bleibt, dann gilt
dies innerhalb des Systems "BMW power-Motorclub" als Faktum.
Je mehr unterschiedliche Standorte oder Standpunkte in einem System vorhanden sind, desto
unterschiedlicher werden die Wahrnehmungen der so genannten Fakten und deren Bewertung sein. Als
Schlussfolgerung lässt sich daraus ableiten, dass ein Unternehmen mit reifen, selbstbewussten
Mitarbeitern ein sehr heterogenes System darstellt, wodurch eine gemeinsame Deutung der Wirklichkeit
wesentlich erschwert wird. In diesem Sinne ist der hochbegabte Einzelkämpfer stets ein Feind eines
objektivierten Wissensmanagements, weil er ein geringeres Interesse am Austausch von Informationen
und damit an nachvollziehbarer Verständigung über Information hat – aus der Erfahrung heraus, dass
28
ein persönliches Wissen eben stark von seiner Persönlichkeit geprägt wird - sowohl was das Sammeln
als auch was das Nutzen von Wissen anbelangt.
Auch bei der Wissensvermittlung kommt hochbegabten Fachkräften eine besondere Stellung zu. Ihre
Kompetenz ist oft eher unbewusster Natur, von ihnen wird erwartet, dass viele Prozesse automatisiert
ablaufen. Dies impliziert einen hohen Internalisierungsgrad von relevantem Wissen. Um dieses Wissen
für das Wissensmanagement und in weiterer Folge für das Unternehmen zugänglich zu machen, muss
es in eine explizite Form transformiert werden. Das setzt konzeptionelle, didaktische und methodische
Fähigkeiten voraus die vielen Profis zu einem guten Teil abgehen - insbesondere wenn es sich z.B.
darum handelt, Informationen in ihrer Bedeutung für komplizierte oder komplexe Prozesse und Abläufe
zu kategorisieren.

2.1.3 Wissenskapital
Welche Gestaltungsmöglichkeiten verbinden Unternehmen mit diesem Produktionsfaktor Wissen?
Es gibt eine ganze Menge an Gestaltungsfeldern, bei denen neben den klassischen Produktionsfaktoren
Kapital, Arbeit und Ressourcen Wissen und der Umgang mit diesem Gut im Unternehmen eine
gewichtige Rolle spielen. Geht man einmal von den Zielsetzungen aus, die Unternehmen, Ämter und
Institute mit Wissensmanagement-Projekten verbinden, so geht es (unabhängig von der Branche) häufig
um
- Verkürzung von Innovationsprozessen
- Erhöhung der Produktqualität
- Verbesserung der Nähe zum Kunden
- Optimierung der Lieferantenbeziehungen
- Verbesserung der Produktivität von Geschäftsprozessen
- Qualifikation von Mitarbeitern
- Risikobegrenzung kritischer Entscheidungen
Die Bedeutung des Produktionsfaktors Wissen lässt sich übrigens auch daran erkennen, dass man heute
immer häufiger auch das sog. Wissenskapital in die Bewertung von Unternehmen mit einbezieht.
Dabei geht es darum, den Wert oder den Wertzuwachs eines Unternehmens, der über das „sichtbare“
Anlage- und Kapitalvermögen hinausgeht, also den „unsichtbaren Wert“, zu erklären. Dies spielt
natürlich insbesondere für die schon erwähnten Know-how-Unternehmen im Dienstleistungsbereich
eine große Rolle, aber auch bei Industrieunternehmen klassischer Prägung wird die Bewertung des
vorhandenen Wissens immer entscheidender.
Der Marktwert eines Unternehmens wird nach dieser Sichtweise zum einen durch das Finanzkapital,
zum anderen durch das Wissenskapital bestimmt. Das Wissenskapital unterscheidet sich wiederum in
das Humankapital und das Strukturkapital eines Unternehmens. Das Humankapital beschreibt
sozusagen den Teil des Wissenskapitals, das in den einzelnen Mitarbeitern steckt – deren Kompetenz,
deren Lernfähigkeit, deren Motivation und Grundeinstellungen. Das Strukturkapital erlaubt eine
Aussage über das organisationale Wissen, über das ein Unternehmen verfügt – Welche Beziehungen
bestehen gegenüber Kunden, Lieferanten oder auch den Anteilseignern, welche Möglichkeiten haben
interne Gruppen, miteinander zu kommunizieren, gibt es Organisationsformen, die den
Wissensaustausch begünstigen und wie ist die Innovationsfähigkeit einzuschätzen?
Nun, bedenkt man, dass eine wesentliche Aufgabe des Managements in der Steigerung des sog.
Unternehmenswerts liegt (bekannt auch als „Shareholder Value“), so liegt es doch nahe, eine Quelle
möglicher Wertschöpfung – nämlich das Wissenskapital mit seinen verschiedenen Indikatoren - auch
entsprechend zu „managen“.

29
2.2 Wissensmanagementprozess
Grundsätzlich geht es beim Wissensmanagement um die systematische Erschließung und Nutzung des
im Unternehmen vorhandenen Wissens. Allerdings existiert bis heute keine allgemein akzeptierte
Definition dieses Begriffs. Laut Peter Mertens, emeritierter Prof. von der Universität Erlangen-
Nürnberg, stellt Wissensmanagement sicher, dass internes Wissen einer Organisation – etwa technische
Details, historische (Fehl-) Entscheidungen, Projekterfahrungen („Lessons Learned“), bewährte
Vorgehensweisen („Best Practices“) - für eine zukünftige Nutzung explizit erschlossen und verfügbar
gemacht wird. Er gibt uns damit Hinweise auf die möglichen Wissensinhalte und die Aufgabe, internes
Wissen zu externem Wissen zu machen.

Säule Gestaltungsdimension

▪ Förderung und Gestaltung von Kenntnissen, Fähigkeiten und


Mensch Kompetenzen
▪ Mensch als Träger des Wissens und als Triebfeder kontinuierlicher
Lernprozesse
▪ Entwicklung einer wissensfreundlichen Kultur
Organisation ▪ Schaffung von Rahmenbedingungen, die den Umgang mit der
Ressource Wissen erleichtern
▪ Implementierung und Gestaltung von Informations- und
Technik Kommunikations-Infrastruktur
▪ Einsatz von Werkzeugen, die wissensbasierte Prozesse effizient und
nutzerfreundlich unterstützen
Abb. 2/2: Mensch, Organisation und Technik als Säulen ganzheitlichen Wissensmanagements
Mandl, emeritierter Prof. der LMU München, definiert WM folgendermaßen [Reinmann-Rothmeier /
Mandl, u.a., 2001, S. 18]: Wissensmanagement befasst sich mit dem bewussten und systematischen
Umgang mit der Ressource Wissen und dem zielgerichteten Einsatz von Wissen in der Organisation.
Entsprechend dieser Definition bilden Mensch, Organisation und Technik die drei Säulen einer
umfassenden Wissensmanagement - Strategie. Damit umfasst Wissensmanagement die Gesamtheit aller
Konzepte, Strategien und Methoden zur Schaffung einer „intelligenten“, also lernenden Orga-nisation
(vgl. Abb.2/2).
Wissensmanagement ist kein Selbstzweck. Ziel von erfolgreichem Wissensmanagement ist es, im
Einklang mit den übergeordneten Unternehmenszielen einen Beitrag zur Wertschöpfung zu leisten. Ein
ganzheitlicher Wissensmanagement-Ansatz beschäftigt sich dabei mit Fragen der
Wissenskommunikation, Wissensrepräsentation, Wissensgenerierung und Wissensnutzung als
Prozesskategorien des Wissensmanagements.
Hierzu hilft uns eine strukturierte Betrachtung der Teilprozesse des Wissensmanagement, wie sie z.B.
von Probst beschrieben wurde, siehe Abb. 2/3, oder das Münchner Modell, siehe Abb. 2/4.

Wissens-
Wissens- Wissens- Wissens- Wissens Wissens-
identifi-
erwerb entwick- bewah- - nutzung
kation
Abb. 2/3: Wissensmanagementprozess [Probst 1997]
lung rung verteilun
In Abb. 2/3 muss zuerst identifiziert werden, was g wollen. Bei der
wir überhaupt wissen
Wissensidentifikation geht es darum, das im Unternehmen vorhandene Wissen, sei es nun explizit oder
implizit aufzuspüren und transparent zu machen. Wissen, das außerhalb des Unternehmens gefunden
werden kann, muss im Prozess des Wissenserwerbs für das eigene Unternehmen zugänglich gemacht

30
werden. Die Wissensentwicklung ergänzt den Wissenserwerb von außen. Hier geht es darum, innovative
Ideen, Produkte, Prozesse und Fähigkeiten von Mitarbeitern zu fördern und zu entwickeln. Die
Wissensbewahrung sorgt für die Erhaltung und Aktualisierung des so identifizierten, erworbenen und
entwickelten Wissens. Der Teilprozess der Wissensverteilung kümmert sich um die Bereitstellung
ausgewählten Wissens im Unternehmen und schließlich geht es bei der Wissensnutzung darum, dem
Endanwender Wissen zugänglich zu machen. Das Modell wird ergänzt durch die Definition von
Wissenszielen sowie einem Controlling und Feedback des ganzen Prozesses.

2.3 Wissenserwerb -Wissenssuche


2.3.1 Klassen des Wissenserwerbs
Ein wesentlicher Punkt bei der Konzipierung und Realisierung eines intelligenten Systems betrifft die
Wissensakquisition, d. h. die Prozesse, die das menschliche Expertenwissen in eine Wissensbasis
übertragen und damit für einen Rechner verfügbar machen.
Zur konkreten Realisierung von Prozessen zur Wissensakquisition kann man grundsätzlich zwei
verschiedene Ansätze sowie mögliche Kombinationen unterscheiden:
Den manuellen Ansatz, hierbei ist es Aufgabe des (System-) Designers,
(Wissensingenieurs) das notwendige (Experten-) Wissen zu explizieren und zu
implementieren
den automatischen Ansatz, wobei es Aufgabe der Maschine (des Rechners) ist, das
notwendige Wissen selbständig zu erwerben. Diese Vorgehensweise wird als
Maschinelles Lernen bezeichnet.

Manuelle Wissensakquisition
Im weitesten Sinne ist die manuelle Wissensakquisition die Erhebung von Wissen aus verschiedenen
Wissensquellen, wie Experten, Büchern, Handbüchern, Falldaten oder Lexika, sowie die
anschließende Umsetzung dieses Wissens in eine operational nutzbare Wissensbasis.
Hierzu kann man bei der manuellen Wissensakquisition zwei Grundarten unterscheiden:
Der indirekte (manuelle) Wissenserwerb:
Beim indirekten Wissenserwerb stellt ein sogenannter Wissensingenieur das Bindeglied
zwischen dem Experten und dem aufzubauenden wissensbasierten Systemen dar. Er
übernimmt die Aufgaben der Wissenserfassung, Strukturierung und Implementierung.
Der direkte (manuelle) Wissenserwerb:
Beim direkten Wissenserwerb implementiert der Experte das anwendungsspezifische
Wissen selbst, d. h. er kommuniziert direkt mit dem (Rechner-) System bzw. dessen
Wissensakquisitionskomponente.
Die direkte Art der Wissensakquisition kann jedoch nur dann angewendet werden, wenn der
Experte genügend Erfahrung in der Wissensakquisition hat oder ihm eine mächtige und
komfortable Wissensakquisitionskomponente zur Verfügung steht (z. B. durch eine
weitestgehend natürlichsprachliche Eingabe des Expertenwissens in das Wissensbasierte
System).
Der Indirekte Ansatz zur Wissensakquisition stellt eine mühevolle Aufgabe für einen
Wissensingenieur dar. Der Umstand, dass der Domänenexperte und der Wissensingenieur i. d. R. nicht
ein und dieselbe Person sind, wirkt sich zumeist nachteilig auf den Wissensakquisitionsvorgang aus,
da der Wissensingenieur häufig kein Experte in dem entsprechenden Fachbereich und der Domänen-
Experte kein Informatik-Experte ist.
Die Grundprobleme des Wissenserwerbs sind technologischer Art:
31
• Wie sollte bei der Erhebung von Wissen, das für die Bewältigung bestimmter
Anwendungsprobleme geeignet ist, vorgegangen werden?
• Wie sollte dieses Wissen geordnet und von der Menge her bewältigt werden?
• Mit welchen Maßstäben oder Kriterien könnte ein Bestand an Wissen bewertet werden?

Schritte zur Gewinnung des Expertenwissens


a) Wissenserhebung
Die Wissenserhebung ist der erste Schritt zur Gewinnung (Ableitung) des Expertenwissens im
Rahmen der indirekten manuellen Wissensakquisition. Hierzu werden Techniken wie
Interviewmethoden, Beobachtung des Experten, Konstruktionsgitterverfahren, multidimensionale
Skalierung etc. eingesetzt, die aus dem Bereich der Kognitionswissenschaft und der experimentellen
Psychologie stammen.

Die Effektivität der vom Wissensingenieur eingesetzten Instrumentarien zum Erwerb des (Domänen-)
Expertenwissens hängt jedoch nicht nur von der Fähigkeit und Bereitwilligkeit des Domänen-Experten
ab, sein Wissen weiterzugeben, sondern scheitert häufig bereits daran, dass sich gewisse
Wissensformen, wie z. B. Handlungswissen, weitgehend der Verbalisierung entziehen. Die
Schwierigkeiten bei der Explizierung von Expertenwissen wurden beispielsweise durch empirische
Untersuchungen bestätigt. Die wesentlichen Erkenntnisse derartiger Untersuchungen kann man wie
folgt zusammenfassen:

• Expertenwissen ist nicht standardisiert,


• Expertenwissen ist häufig unbewusst und daher nicht explizierbar,
• Expertenwissen kann auch unvollständig oder falsch sein. Insbesondere bei Handlungswissen
kann der Experte zwar in der Lage sein einen Prozess zu führen, obwohl sein Handlungswissen
von z. B. kausal falschen Zusammenhängen im Prozess ausgeht.

b) Abbildung in Repräsentationsformalismen (siehe Kap. 3)


Im nächsten Schritt, der Wissensanalyse und –interpretation, wird das erhobene Wissen, im Sinne
eines Modells für das abgeleitete Expertenwissen, in (rechnerorientierte) Repräsentationsformalismen
abgebildet. Diese Abbildung kann in der Regel nicht 1:1 erfolgen, da das erhobene und in
Wissensprotokollen schriftlich fixierte Expertenwissen noch unvollständig und/oder inkonsistent ist.
Eine vollständige und konsistente Expertise (das Modell) entsteht somit erst nach einer Interpretation
des abgeleiteten Wissens (Wissensprotokolle) durch den Wissensingenieur.

Unter der Annahme, dass Menschen und künstliche Problemlöser ähnlich beim Problemlösen
vorgehen, wäre der menschliche Experte nur systematisch auszufragen und sein Wissen ohne weitere
Veränderung in die Wissensbasis (als Frames oder Produktionsregeln) zu überführen.
Aber gerade Produktionsregeln ermöglichen kaum eine grobkörnige Ordnung, sondern entarten in
großen Systemen zu einer unüberschaubaren Masse winziger Wissensatome. Zudem haben Menschen
keine Produktionsregeln im Kopf. Sie passen sich dem Verstehensniveau ihres Partners an und
konstruieren beim Präsentieren ihres Wissens eine Ordnung, die dem Partner angemessen ist. Auch
wird durch das Sprechen und Vorstellen der Problemlösungskompetenz Wissen neu durchdacht und
gewissermaßen neu erzeugt.
Statt des einfachen Transfermodells bevorzugt man heute den Modellierungsansatz: Wissen von
Experten erwerben, wird gesehen als Prozess der Suche nach den angemessenen Modellumrissen und
der ingenieurmäßigen Konstruktion eines Problemlösemodells mit allen möglichen Wissensbeständen.
Dieses Modell ist kein Modell im Sinne der Abbildung von existierender Realität, sondern ein Modell
in Sinne von vereinfachter Konstruktion einer zukünftigen Realität. Dieses Modell kann immer feiner
ausgearbeitet und detailliert werden. Das Modell dient der Kommunikation mit dem Fachexperten und
der Spezifikation des gewünschten wissensbasierten Systems. Es erlaubt über Ordnungsprinzipien und
32
mögliche Problemlöseschritte nachzudenken, und wird, wenn man dabei auf Unstimmigkeiten stößt,
revidiert oder umkonstruiert.
Die Modellierung wird vom Wissensingenieur vorgenommen, der sich in die Fachkenntnis erst
einarbeiten muss. Der Fachexperte kann seine gedanklichen Problemlösevorgänge weder glasklar
darstellen, noch diese mit den Operationen formaler Strukturen genau in Einklang bringen. So ist
Wissenserwerb ein Iterationsprozess.
Aufgrund der mit dieser Vorgehensweise verbundenen Probleme wird die Wissensakquisition auch als
der Flaschenhals bei der Entwicklung von modernen wissensintensiven (wissensbasierten) Systemen
(der Künstlichen Intelligenz) bezeichnet.

2.3.2 Wissenssuche mit Online-Datenbanken


Die Anbieter von Datenbankdienstleistungen füttern die Datenbank (DB) mit den Informationen und
stellen diese den Interessenten zur Verfügung.
Unter der URL rzblx10.uni-regensburg.de/dbinfo/?bib_id=allefreien hat man eine Linkliste zu mehreren
Tausend Online-Datenbanken, die in 41 Kategorien eingeteilt sind. Eine davon ist Informatik mit 62
Online-Datenbanken.
Für Finanzdatenbanken wird von den Benutzern bereits viel gezahlt (z.B. für Auskunft
Kreditwürdigkeit).
Je nach Art des Inhalts und nach den Nutzungsmöglichkeiten gibt es folgende 5 verschiedene Arten von
Online-Datenbanken:
- bibliographische Datenbanken (Bayerischer Bibliotheksverbund OPAC)
- textuelle Information (WTI Frankfurt)
- numerische Information (DETHERM- thermodynamische und thermophysikalische Daten von
Reinstoffen und Stoffgemischen)
- Volltext DB (Genios)
- multimediale Datenbanken (Online-Informationsdienste, z.B. T-Online oder kicker.de)

Es wird erwartet, dass in den kommenden 15 Jahren bis zu 10% der kleineren Zeitungen und
Zeitschriften vom Markt verschwinden werden, weil die Verbraucher mit Hilfe der leistungsfähigen
Datennetze auf Online-Informationsdienste zurückgreifen.

Bibliographische Daten
Bibliografische Datenbanken sind Literaturdatenbanken zu einem bestimmten Fachgebiet oder Thema
und enthalten bibliografische Angaben wie Verfasser, Titel und Erscheinungsjahr eines Werkes,
manchmal auch eine kurze Annotation.
Ausgehend vom Bibliothekskatalog der eigenen Hochschule kann man zentraler Verbundkataloge
anfragen.
1.) Internetrecherche in der TH Deggendorf-Bibliotheksdatenbank:
https://www.th-deg.de→Studierende→Bibliothek→Recherche und Datenbanken→
Buchsuche→Hauptbibliothek-OPAC

33
Abb. 2./5: Suchmaske in OPAC

Beispiel: unter Schlagwort oder Titel(wörter) „Wissensmanagement“ eingeben; man lässt sich Treffer
über Weblogs anzeigen; verknüpft man Wissensmanagement mit Jahr „2013“; dann geht man auf den
Index-Button bei „Wissensmanagement“ so findet man unter verwandte Begriffe „wissensbasierte
Systeme“; dieser wird markiert→ Auswahl übernehmen→suchen

Bei Verwendung von mehreren Attributen in Abb. 2./5 kann man vorne bei jedem Attribut auswählen,
ob diese mit „und“ oder „oder“ oder „und nicht“ verknüpft werden sollen.
Im Unteren Bereich kann man die Suche eingrenzen durch Spracheinstellungen oder durch
Erscheinungsformen (Zeitung, Print-Buch, E-Book, usw.) oder Erscheinungszeit von – bis.

2.) Der „Gateway Bayern“ mit Bestand aller wissenschaftlichen Bibliotheken in Bayern ist unter
folgender Adresse zu erreichen:
https://www.th-deg.de→Studierende→Bibliothek→Recherche und Datenbanken →Buchsuche
→GatewayBayern.
Lesen sie beim ersten Mal die Suchtipps unter den Eingabeformularen!
Anfragebeispiele: Bücher und Berichte von Heribert Popp. Wo steht die Dissertation von 1992 überall?
Frage: outsoursing und nicht offshore
Frage: Seniorentourismus
Suche nach den bibliographischen Daten von einem Tagungsband „Spezialbibliotheken auf dem Weg
zur virtuellen Bibliothek in Hamburg 21-25.3“

Wird man hier nicht fündig, so bietet sich dort die Möglichkeit, direkt im „WorldCat“
(www.worldcat.org), einen übergeordneten Katalog, zu suchen. OCLC hat diesen umfangreichen
Katalog mit über 271 Mio. Einträgen und 1,8 Mrd. Standortreferenzen ins Netz gestellt. Der
„WorldCat“ bietet neben der Verschlagwortung (Tagging) auch Nutzerrezensionen. Auf diese Weise
sollen die Nutzer eingebunden werden, um die Attraktivität des Katalogs zu steigern.
Beispiel: Frage: Seniorenmarketing

3.) Karlsruher Virtueller Katalog:


www.th-deg.de→Studierende →Bibliothek→Recherche und Datenbanken→ Buchsuche→ Karlsruher
Virtueller Katalog
oder direkt http://www.ubka.uni-karlsruhe.de/kvk.html

34
Der Karlsruher Katalog stellt Anfragen an verschiedene vom Nutzer gewählte Kataloge und
präsentiert das Ergebnis übersichtlich, aber pro Katalog und nicht in einer zusammengefassten Liste.
Es sind sogar Kataloge des Buchhandels abfragbar.
Beispiel: Begriff „outsourcing“ suchen in der Nationalbibliothek von Australien. (Möglichkeit eine
Kopie von Kapiteln eines Buches zu bestellen)

Textuelle und Volltext DB


Die vier Anbieter WTI (Technik), Genios (http://www.genios.de) (BWL), Dialog und Data Star (vom
Medienkonzern Proquest (nach der Fusion 1997 & 2008 http://www.proquest.com/) verfügen über ca.
1500 Datenbanken. So findet man bei diesen Supermärkten beispielsweise fast alles, was weltweit zur
Agrarwissenschaft, Geologie, Chemie und Medizin veröffentlicht wurde, sowie Wirtschafts- und
Firmenprofile. Ebenso Informationen zu Patenten, Warenzeichen, Werkstoffen, Technik und zahlreiche
nationale und internationale Zeitschriften, Magazine und Fachpublikationen sind im Datenangebot. Der
Vorteil von Profidatenbanken besteht darin, gezielt gutstrukturierte Informationen abzurufen.
Fachleute selektieren aus den Millionen Publikationen, vergeben Schlagwörter und verfassen Abstracts,
um die Informationen suchbar zu machen.
Oft helfen Thesauri weiter. Sie dienen als Kontrollmöglichkeit, ob der gesuchte Begriff überhaupt im
kontrollierten Vokabular der Datenbank verzeichnet ist.

I. Zugriff zu technischen Datenbanken


www.th-deg.de→Studierende →Bibliothek→Recherche und Datenbanken→ Fachgebiet Technik→
WTI-Frankfurt
Dort finden sie folgende für Deggendorfer Studierende kostenlose Datenbanken:
Perinorm
DIN-VDE-Normen und Entwürfe
Web of Science (Datenbank enthält 55 Millionen Einträge aus den wichtigsten Fachzeitschriften,
Tagungsberichten und Büchern in den Bereichen Natur-, Sozial- und Geisteswissenschaften.
Verfügbar sind alle Titel ab 2004.)
SPIE Digital Library (mehr als 400.000 Publikationen auf dem Gebiet der Optik und Photonik.)
IEEE Xplore (journals, transactions, and magazines, conference proceedings, journals, conference
proceedings, published standards and redline versions, Standards Dictionary Online)
Nature Communications (Open Access Journal)
Scientific Reports (Open Access Journal)
Depatisnet.net (Patente vom Deutschen Patent- und Markenamt)
ESPACENET (70 Millionen Patentdokumente aus aller Welt mit Informationen zu Erfindungen und
technischen Entwicklungen von 1836 bis heute).
Web Patent Database / USPTO United States Patent and Trademark Office (US-Patente im Volltext von
1790 bis heute)
NSSN - Search Engine for Standards
RSWBplus (verbindet die deutsche Baudatenbank RSWB mit der internationalen Baudatenbank
ICONDA.)
Förderkompass Energie / BINE Informationsdienst (Förderprogramme für erneuerbare Energien und
energiesparende Maßnahmen)
DWA-Online (Arbeitsblätter und Merkblätter zu Wasserwirtschaft, Kulturbau, Bodenschutz, Abwasser-
und Abfalltechnik)
Sciencedirect (Zugriff auf die elektronischen Zeitschriften und eBooks des Verlags Elsevier)

1) WTI-Frankfurt bietet unter http://www.wti-frankfurt.de/ 120 Datenbanken an.

35
WTI Frankfurt (=Wissenschaftlich-Technische Information Frankfurt, früher: FIZ-Technik):
Überwiegend deutschsprachige Literatur für Technik allgemein, Maschinenbau, Elektrotechnik.
So gibt es beispielsweise über 24 Millionen Fachartikel. Sie stammen aus 1200 internationalen
technisch-wissenschaftlichen Publikationen, die in Fachzeit-schriften, Konferenzbänden und anderen
Publikationen veröffentlicht wurden. Hier liegen die Themenschwerpunkte bei
Elektrotechnik/Elektronik, Umweltschutz, -technik und –recht sowie Informationstechnik. Technik,
Wirtschaft, Normen, Patente, Unternehmen, Produkte, Zeitungen.
Hier steht die Onlinedatenbanken TEMA- Technik und Management kostenlos zur Verfügung:
Beispiel: Zunächst bei TEMA Beschreibung anschauen (was sie enthält und wie ein Dokument
aussieht), dann Suchbegriff „genetische Algorithmen“; erstes Dokument markieren und anzeigen lassen;
Zur Suche gehen und INDEX anklicken (man erhält Wortvariationen mit diesen Wörtern; Zur Suche
gehen und auf Thesaurus klicken. Begriff innerhalb Hierarchie evtl. auswählen und für Suche
übernehmen. Sie können hier auch einen Dauerauftrag einrichten, dann wird regelmäßig ihr Suchprofil
gegen die Datenbank gemacht.
Hoppenstedt Firmendatenbank; Beispiel: Frage: „Streicher Deggendorf“
2.) Patentdatenbank www.depatisnet.de
Datenbestand reicht bei Patenten bis 1980 und bei Gebrauchsmuster bis 1983 zurück. Er hat einen
Umfang von ca. 900.000 Nachweisen. Suchattribute sind z.B.
Publikationsnummer
IPC-Hauptklasse
Patentanmelder
Anmeldedatum
Erfinder

Suchbeispiele
1. Welche Patente oder Gebrauchsmuster hat die Firma MAN in Augsburg seit 1996 angemeldet?
(Patentanmelder: MAN Augsburg)
Anmeldezeitraum: 01.01.1996 bis 31.1.2016
Ein Dokument anschauen
2. Ist Herr Klaus Rieck als Erfinder eingetragen?
3. Ist die Patentschrift mit der Publikationsnummer 29521450 in der Datenbank?
4. Gesucht werden Patent- und Gebrauchsmuster zu Airbags in den Jahren zwischen 2006 und 2007.

II. Zugriff zu Datenbanken des Fachgebietes Wirtschaft


1.) Kostenloser Zugang für THD-Studenten zu Datenbanken von Genios
www.th-deg.de→Studierende →Bibliothek→Recherche und Datenbanken→ Fachgebiet
Wirtschaft→wiso
WISO ( Bereich: Betriebswirtschaft mit 12 Mill. Medien)
Beispiel: Eingabe von „Dienstleistung 4.0“
Treffer anschauen; feststellen, dass häufig die Begriffe Zielgruppe, Marketing und Alter vorkommen;
damit neue Anfrage starten und Trefferzahl erhöht sich.
Typisches Problem beim Schreiben einer Bachelor- oder Diplomarbeit, in der letzten Phase muss man
Literaturzitat erstellen; auf der Kopie fehlen wichtige bibliographische Daten.
36
z.B. Artikel lautet „Auf der Suche nach dem Stein des Weisen; S. 24-36“
Eintippen: „Suche Stein Weisen“
Findet man Autor Meffert und Jahr usw.
z.B. „papierlose Logistik“
z.B. Titel „wissensmanagement“ Zeit „letzten 12 Monate“

Rufen sie www.Genios.de und betrachten sie dort die Produkte (1000 DB). Sie finden Datenbanken in
den Bereichen

• Pressedatenbanken im Volltext (z.B. Ökotourismus)


• Unternehmensinformationen (über 3 Mio Unternehmen)
• Markt- und Brancheninformationen (über 5000 Marktstudien)
• über 5 Mio. Presseartikel
Man findet weltweite Geschäftskontakte, bis zu 15 Jahre zurückreichende Pressearchive etwa vom
Handelsblatt, Spiegel, Tagesspiegel, Berliner Zeitung, Zeit, VDI-Nachrichten und Regionalzeitungen
sowie spezialisierte Fachsammlungen.
Beispiel: Produkte – Datenbank A-Z; z.B. GfK Dossier oder über alle Datenbanken suchen mit
„Erklärbare KI“, Preise der Treffer in den jeweiligen DB anschauen.

2.) Zugang zu weiteren Wirtschaftsdatenbanken


Statista (Statistik-Portal, das Statistiken zu 60.000 Themen bündelt, URL wäre auch
http://de.statista.com/
Web of Science (55 Millionen Einträge aus den wichtigsten Fachzeitschriften, Tagungsberichten und
Büchern in den Bereichen Natur-, Sozial- und Geisteswissenschaften. (Verfügbar sind alle
Titel ab 2004.)

Hoppenstedt-Hochschuldatenbank (http://www.hoppenstedt-hochschuldatenbank.de)

III. Zugriff zu Datenbanken des Fachgebietes Recht


www.th-deg.de→Studierende →Bibliothek→Recherche und Datenbanken→ Fachgebiet
Recht→JURIS
oder https://www.juris.de/jportal/index.jsp
JURIS.de ist die umfassende juristische Datenbank für Rechtsprechung (allein 65653 Entscheidungen
der Finanzgerichtsbarkeit und anhängige Revisionen), Literaturnachweise, Bundesrecht, Landesrecht,
EG-Recht, Asylrecht, Umweltrecht und technisches Recht.
(*Java muss am Rechner installiert sein*).
Beispiel: erweiterte Suche; Gericht Deggendorf→Suche,Liste, Dokument

IV. Zugriff zu Datenbanken weiterer Fachgebiete


www.th-deg.de→Studierende →Bibliothek→Recherche und Datenbanken→

• Fachgebiet Medientechnik, Medienwissenschaften


• Fachgebiet Informatik
• Fachgebiet Gesundheitsmanagement, Medizin
• Fachgebiet Public Management
• Fachgebiet Psychologie
37
V. Zugriff zu E-Books
www.th-deg.de→Studierende →Bibliothek-->E-Books
https://www.th-deg.de/de/studierende/bibliothek/e-books#nav
1. EBSCOhost eBook Collection (4.400 E-Books aus sämtlichen Fachgebieten
2. Springer-eBooks (Technik (2006-2015 – deutsch), Wirtschaft, Informatik (2006-2015 – deutsch),
Wirtschaftswissenschaften (2006-2015 – deutsch),
3. WISO-eBooks
4. De Gruyter-eBooks
5. Hanser-eBooks
6. UTB-eBooks
7. Vahlen-eBooks

VI. Überblick über alle Zeitschriften:


www.th-deg.de→Studierende → Bibliothek→Zeitungen und Zeitschriften
https://www.th-deg.de/de/studierende/bibliothek/zeitungen/online
Beim Zugang zur Elektronische Zeitschriftenbibliothek Deggendorf gibt es 3 Kategorien von
Zeitschriften:

• Zeitschriften mit der grünen Ampel sind generell frei zugänglich


• Für Zeitschriften mit einer gelben Ampel wurde für die Technische Hochschule eine Lizenz bezahlt
und sind von allen Rechnern der Hochschule zugänglich
• Bei Zeitschriften mit einer roten Ampel sind Inhaltsverzeichnisse und Abstracts zugänglich

http://scholar.google.de Google´s Spezialsuchmaschine nach Aufsätzen (Metadaten aus den Volltexten


der Artikel erzeugen und auch Extraktion von allen Referenzen eines Artikels)

2.3.3 Wissenssuche im Internet - Suchdienste


Um im World Wide Web die benötigten Informationen zu finden, können Suchdienste zu Hilfe
genommen werden.

Die Suchoperatoren bei Suchmaschinen wie Google werden bei der Eingabe mehrerer Suchbegriffe
eingesetzt:
• AND (+): alle Wörter müssen im Suchergebnis enthalten sein, Leerzeichen werden i. d. R. in
Systemen als AND definiert
• NOT (-): Wort darf nicht im Suchergebnis enthalten sein: Eingabe mit Leerzeichen vor dem
Minuszeichen z. B. die Suche „berlin -hotel“ zeigt Treffer mit dem Begriff Berlin aber ohne das
Wort Hotel
• OR: mindestens ein Suchwort im Ergebnis
• *: Platzhalterzeichen rechts vom Suchwort symbolisiert beliebige Endung

38
Abb. 2./6: Maske der Erweiterten Suche bei Google

Bei der Expertensuche (siehe Abb. 2./6) erfolgt die Eingrenzung der Suche über ein spezielles
Eingabeformular mit vordefinierten Systematiken. So kann beispielsweise die manuelle Auswahl der
Operatoren erfolgen (z. B. „mit der genauen Wortgruppe“), Sprachfilter zur Einstellung der
gewünschten Sprache werden angeboten, das Dateiformat (z. B. Pdf, Word-Dokumente oder Vorträge
in PP) oder das Erstellungs- und Änderungsdatum (Eingabe der gewünschten Aktualität z. B. Dokumen-
te erstellt in den letzten 4 Wochen) können gewählt werden.
Überwiegend bestehen die Ergebnislisten der Suchdienste aus organischen Treffern und Sponsored Ads
sowie Payed-Listing-Einträgen, deren Darstellung je nach Suchdienst variieren. Die organischen Treffer
sind die unbezahlten Suchergebnisse, während die Sponsored Ads und Payed-listing-Einträge von
Unternehmen bezahlte Einträge sind. Diese werden zumeist an prominenter Stelle z. B. am Beginn der
Liste gezeigt und beinhalten kommerzielle Angebote.
Die Reihenfolge der Sponsored Ads/Payed-listening Einträge hängt davon ab, wer für einen Klick mehr
bereit ist zu zahlen. Also die obersten zahlen am meisten für einen Benutzerklick, z.B. bei Google den
Suchbegriff „Versicherungsvergleich“ eingeben.
Die Reihenfolge der organischen Treffer hängt z.B. von Google´s Page Ranking Verfahren ab. Bei
Google werden Treffer weiter oben angezeigt, wenn auf deren Homepage mehr Links von anderen
Homepages verweisen als auf die Homepages der weiter unten angezeigten.

Neue Entwicklungen und Trends


Google kann arithmetische Ausdrücke ausrechnen, z.B. 3+3+4
Google kann teilweise Fragen beantworten, z.B. Warum ist die Banane krumm?
1.) Die lokale Suche wurde vor allem mittels Google Maps und Google Earth interessant, mit der
die Anzeige von Luftaufnahmen in Kombination mit Routenplanern und lokaler Suche möglich wird.
Beispiel: Restaurants in Deggendorf
2.) Eine weitere Entwicklung der Suchdienste ist die personalisierte Suche. Zum einen ist die
Personalisierung der Eingabemaske z. B. bei Google+ oder Mein Yahoo möglich und zum anderen kann
39
ein Nutzerprofil generiert werden, das bei zukünftigen Suchen zur Eingrenzung der Treffer
herangezogen wird. Dazu ist allerdings der Zugang zu persönlichen Daten notwendig z. B. E-Mail-
Accounts, Adressbücher oder Shopping-Profile. Anwendungsbeispiele hierfür sind Google
Webprotokoll und My Web von Yahoo.
3.) In der sozialen Suche wird auf Social Networking gesetzt, bei dem der User Bekannte, Freunde
oder Kollegen einlädt und von deren Such- sowie Klickverhalten profitiert und umgekehrt.
Voraussetzung sind ähnliche oder identische Interessen z. B. innerhalb einer Firma oder eines Vereins.
Es wird ermöglicht, die Suchanfragen aus dem Bekanntenkreis zu sehen und sogar die betreffenden
Personen via Mail zu kontaktieren.
Die Suchergebnisse werden danach gewichtet, wie interessant die Seiten für andere Benutzer sind, was
ebenfalls die Gründung von Interessensgemeinschaften zu einem bestimmten Themengebiet
voraussetzt. Der Benutzer benötigt für Google Social Search ein Konto bei Google, bei dem er Links
zu seinen sozialen Netzen angibt, also etwa zu seinem öffentlichen Twitter oder Friendfeed-Profil.
Zudem werden auch andere Benutzer in der Gmail-Chat-Liste sowie andere als Freunde, Familie und
Kollegen markierte Personen aus dem Google-Adressbuch ausgewertet.
Google erklärt, dass die Online-Rezension von einem Freund möglicherweise relevanter ist als eine
fremde Rezension. Darum werden in der sozialen Suche Ergebnisse von bestehenden Verbindungen zu
Freunden hervorgehoben, doch nicht immer sind diese sofort zu erkennen, da nicht alle Freunde Google
Plus aktiv nutzen um Inhalte öffentlich zu bewerten oder zu teilen. Um die soziale Suche zu
beeinflussen, kommen die Infos aus folgenden Quellen:
* Blogs, Website und weitere Inhalte, die ein User erstellt oder
geteilt hat
* Bilder, die von den eigenen sozialen Verbindungen geteilt wurden
* Google Reader-Abonnements
* Sämtliche bekannte Web-Profile wie Twitter und Flickr
* Inhalte, die über die Google+1 Schaltfläche empfohlen oder
geteilt wurden
Um personalisierte Ergebnisse in der die soziale Suche zu erhalten, reicht schon ein Google Mail Konto
aus.
Als Nachteile der sozialen Suche ist der notwendige Zugang zu persönlichen Daten zu nennen. Darüber
hinaus müssen Gruppen und Interessensgemeinschaften gebildet sowie gepflegt werden.
Personensuchmaschinen erfassen häufig Profilbilder aus Sozialen Netzwerken und binden diese mittels
eines Link auf ihrer Webseite ein.
Hat der Nutzer in dem Sozialen Netzwerk seine Daten nicht für Dritte gesperrt, ist eine solche
Vorgehensweise der Personensuchmaschinen-betreiber sogar zulässig (OLG Köln).
http://www.social-searcher.com/google-social-search/
Interessensgemeinschaften kann man mit http://www.xing.de oder http://www.LinkedIn.com pflegen

2.3.4 Wissensbasierte und semantische Suche


Die wissensbasierte Suche kann verschiedene Ausprägungen aufweisen, die im Folgenden anhand von
Beispielen verdeutlicht werden.
Bei Yahoo! Clever (http://de.answers.yahoo.com) können Fragen gestellt werden, auf die andere Nutzer
per E-Mail oder online antworten. (Yahoo →clever) (z.B. hübscheste Deggendorf)
COSMiQ (http://www.cosmiq.de/) ist eine Wissenscommunity und Plattform für Meinungs- sowie
Sinnfragen, die ursprünglich von Lycos veröffentlicht wurde und nun von Burda Media betrieben wird.
40
Als angemeldete User ist man Experte und kann gestellte Fragen beantworten. Diese Antworten werden
vom Fragesteller bewertet und je nach Punktezahl kann der Nutzer im Rang von Einsteiger über Student
bis hin zu Professor und Nobelpreisträger aufsteigen.
WolframAlpha.com: Die Suchmaschine zählt als intelligente Suchmaschine im Bereich Mathematik,
denn sie findet nicht nur Informationen, sondern versucht sie schon gleich aufzubereiten. Es können
Fragen eingetippt werden, bei denen nicht eine Auflistung von Websites erfolgt, sondern direkte
Antworten gefiltert werden. Hervorgehoben wird sie zudem dadurch, dass sie auf der Software
Mathematica basiert.
Google´s Volltextsuche erreicht bei Suchanfragen der Art „plants with edeble leaves“ ihre Grenzen.
Semantische Suche erfordert eine Funktionalität jenseits dessen, was Volltextsuche imstande ist wie:
Suche nach Vertreter einer gegebenen Klasse anstatt nach Worten, Diversität der Ergebnisse, pro Treffer
Kombination von Informationen aus verschiedenen Quellen.
Beispiel: Online-Demo einer sem. Suchmaschine:broccoli.informatik.uni-freiburg.de. (example Video)
Zu lösende Probleme sind: Wie kommt man an dieses Wissen über Beziehungen, wie zu Ober- und
Unterbegriffsbeziehung (Ontologie). Wie erkennt man in einem Text Referenzen auf Vertreter einer
Klasse, wie händelt man den großen Index? Wie versteht man, nach was gefragt wurde? Wie erstellt
man als Ergebnis Textauszüge.
Technik um Semantische Suche zu realisieren: Mittels Ontologien, siehe Kap. 3.2.

Ein wesentlicher Nachteil der wissensbasierten Suche ist, dass die Qualität der Antworten nicht
gewährleistet werden kann. Zudem ist eine Moderation notwendig, damit die Inhalte sowie Teilnehmer
kontrolliert werden können.

2.4 Literatur und Kontrollfragen


Literatur

1. Herget Josef, Siegfried Hensler: Online-Datenbanken in Wirtschaft und Wissenschaft: aktuelle


Nachfragestrukturen und Nutzungstendenzen, WIRTSCHAFTSINFORMATIK 37, (1995), S.
129-132
2. Hotho Andreas; Publikationen im Web 2.0; Informatik Spektrum 35-6-2012,2012, S.447.451
3. Erlhofer, Sebastian: Informationssuche im World Wide Web. Taktiken und Strategien bei der
Nutzung von Suchmaschinen. Berlin, 2007
4. Erlhofer, Sebastian: Suchmaschinen-Optimierung. Grundlagen, Funktionsweisen und Ranking-
Optimierung. Bonn, 2007
5. Glöggler, Michael: Suchmaschinen im Internet. Berlin, 2003
6. Gugerli, David: Suchmaschinen. Die Welt als Datenbank. Frankfurt am Main, 2009
7. Koch, Daniel: Suchmaschinen-Optimierung. Website-Marketing für Entwickler. München,
2007
8. Spannagel Christoph: SEO im Wandel: Warum langfristige Perspektiven sinnvoller sind als
kurzfristige Trends. https://www.adzine.de/2015/11/seo-im-wandel-warum-langfristige-
perspektiven-sinnvoller-sind-als-kurzfristige-trends, 2015
9. http://de.statista.com/statistik/daten/studie/167841/umfrage/marktanteile-ausgewaehlter-
suchmaschinen-in-deutschland/
10. Bellinger Andrea, David Krieger (2007): Wissensmanagement für KMU, cdf
Hochschulverlag Zürich, S. 31 ff

41
11. Müller Michael; Ferdinand Förtsch (2015): Wissensmanagement, Kommunal- und Schulverlag
Wiesbaden, S.30-38
12. Pircher Richard (2010): Wissensmanagement, Wissenstransfer, Wissensnetzwerke –
Konzepte, Methoden und Erfahrungen. Verlag: Publicis Publishing, Erlangen
13. Probst, G., Raub, S., Romhardt, K. (1997): Wissen managen – Wie Unternehmen ihre
wertvollste Ressource optimal nutzen, Wiesbaden.
14. Reinmann-Rothmeier, Gabi, Mandl, Heinz (2000): Individuelles Wissensmanagement. Bern
[u.a.], Huber.
15. Reinmann-Rothmeier, G., Mandl, H., Erlach, C., & Neubauer, A. (2001). Wissensmanagement
lernen: Ein Leitfaden zur Gestaltung von Workshops und zum Selbstlernen. Weinheim und
Basel: Beltz.
Kontrollfragen:
0. Skizzieren sie 3 unterschiedliche Wissensqualitäten.
1. Was macht das Wissenskapital eines Unternehmens aus?
2. Skizzieren sie die Teilprozesse von Wissensmanagement nach Probst und geben sie je
Teilprozess ein Beispiel.
3. Beschreiben sie die Prozesskategorien des WM vom Münchner Modell (Mandl) und geben sie
je Kategorie ein Beispiel.
4. Auf welche zwei Weisen kann die manuelle Wissensakquisition durchgeführt werden?
5. Welche technologischen Probleme treten bei dem Erwerb von Wissen auf?
6. Zu welchen Erkenntnissen ist man bei der Explizierung von Expertenwissen gelangt?
7. Warum wird die Wissensakquisition als „Flaschenhals“ bei der Entwicklung von KI-
Systemen bezeichnet?
8. Klassifizieren sie Online Datenbanken und geben sie je Klasse ein Beispiel!
9. Charakterisieren Sie die Suche in Online-Datenbanken!
10. Aus welchen grundlegenden Teilen besteht eine Ergebnisliste von Suchdiensten?
11. Welche Entwicklungen werden im Bereich der Suchdienste verfolgt? Skizzieren Sie drei Trends
anhand je eines Beispiels.
12. Was sind semantische Suchmaschinen?

42
3. Überblick über Wissensrepräsentationen

Abb. 3/1: Überblick Repräsentationsformalismen

3.1 Wissensrepräsentation allgemein


Bei der Wissensrepräsentation beschäftigt man sich mit der Frage, welches Wissen man in der
Wissensbasis eines KI-Systems ablegen soll – wie man Fakten u.a. repräsentiert.
Für Anwendungen wie das Einkaufen im Internet braucht man allgemeine und flexible
Repräsentationen. So muss man Ereignisse, Zeit, physische Objekte und Glauben repräsentieren Die
Repräsentation dieser abstrakten Konzepte wird manchmal als ontologisches Engineering
bezeichnet.
Man kann nicht alles in der Welt repräsentieren. So definiert man, was es bedeutet ein physisches
Objekt zu sein, und die Details verschiedener Objekttypen (Roboter, Bücher usw.) können später
eingetragen werden. Dies entspricht dem objektorientierten Programmieren. Das allgemeine Gerüst
(Framework) für die Konzepte wird als obere Ontologie bezeichnet.
In vielen Anwendungen müssen verschiedene Wissensbereiche vereinheitlicht werden, weil bei
Schließen und Problemlösen mehrere Bereiche gleichzeitig beteiligt sein können. Ein Robotersystem
zur Reparatur von Schaltkreisen beispielsweise muss Schlüsse über Schaltungen in Form der
elektrischen Verbindungen und des physischen Layouts sowie der Zeit (z.B. für die Abschätzung der
Arbeitsschritte) ziehen können. Keine der KI-Anwendungen machen aber Gebrauch von einer
gemeinsamen Ontologie, alle verarbeiten Spezialwissen. Jede Ontologie ist ein Abkommen zwischen
Leuten mit einem gemeinsamen Motiv an einem Austausch.
Die Unterteilung von Objekten in Kategorien ist ein lebenswichtiger Bestandteil der
Wissensrepräsentation. (Einkäufer kauft einen Fußball und nicht einen Speziellen).
Kategorien kann man mit Prädikaten und Objekten repräsentieren. Kategorien dienen dazu, die
Wissensbasis durch Vererbung zu organisieren und zu vereinfachen, Wenn wir z.B. sagen, dass alle
Instanzen der Kategorie „Nahrungsmittel“ essbar sind und behaupten, dass Obst eine Unterkategorie
von Nahrungsmittel ist und Äpfel eine Unterklasse von Obst, können wir herleiten, dass jeder Apfel

43
essbar ist. Wir sagen die einzelnen Äpfel erben die Eigenschaft Essbarkeit aus ihrer Mitgliedschaft in
der Kategorie „Nahrungsmittel“
Unterklassenrelationen organisieren die Kategorien in einer „Taxonomie“ (z.B. Lebewesen-
Taxonomie, Beruf-Taxonomie).
Im Folgenden sehen sie einige Arten von Fakten zusammen mit einem Beispiel:
• Ein Objekt ist ein Element einer Kategorie; Windows ist Element von Betriebssystemen
• Eine Kategorie ist eine Unterklasse einer anderen Kategorie; z.B. Betriebssysteme sind
Unterklasse von Systemsoftware
• Elemente einer Kategorie können anhand bestimmter Eigenschaften erkannt werden, z.B. x ε
Software und x ε Systemsoftware und x ε Microsoft und x wird zum Laufen eines Programms
auf einem Rechner benötigt→Windows Betriebssystem ist x
• Eine Kategorie als Ganzes hat bestimmte Eigenschaften, z.B. Hund ε Domestizierte Spezies
Relationen zwischen Kategorien über Unterklasse hinweg sind auch auszudrücken, z.B. zwei
Kategorien sind disjunkt bzw. bilden eine erschöpfende Zerlegung, z.B. Mänliche und Weibliche
bilden eine erschöpfende Zerlegung (Partition) der Tiere.
Kategorien können auch definiert werden, indem die notwendigen und hinreichenden Bedingungen
für die Mitgliedschaft spezifiziert werden. Ein Jungeselle ist ein nichtverheirateter erwachsener
Mann.
Physische Zusammensetzung
Teilvon-Relation
z.B. Bayern ist Teil von Bayern
Sie ist transitiv und reflexiv.
So sind Kategorien zusammengesetzter Objekte häufig durch strukturelle Relationen zwischen Teilen
charakterisiert
Ein Objekt setzt sich aus den Teilen seiner Teile-Partition zusammen und es leitet einige
Eigenschaften von diesen Teilen ab, z.B. ist die Masse eines zusammengesetzten Objektes die Summe
der Massen aller Teile.
Bündel
BündelVon({Apfel1, Apfel2, Apfel3}) bezeichnet ein zusammengesetztes Objekt mit drei Äpfel als
Teile (nicht Element)
BündelVon und TeilVon haben folgende Beziehung:
Für alle x mit x ist Element , dann ist x Teil von BündelVon???
BündelVon(s) ist Teil jedes Objektes, das alle Objekte von s enthält.

Maße
Objekte haben eine Höhe, eine Masse, Kosten usw. Die Werte (z.B. 2,30 m), die wir für diese
Eigenschaften zuweisen, werden als Maße bezeichnet.
Einfache quantitative Maße sind leicht darzustellen. Aber z.B. „Übungen sind unterschiedlich
schwer“. Diesen Qualitäten kann man keine Zahlen zuordnen. Aber man kann solche qualitativen
Maße vergleichen.
Objekte, Dinge, Stoffe
Üblicherweise hat man elementare Objekte (Apfel) und daraus zusammengesetzte Objekte (Äpfel).
Geht das nicht, spricht man von Stoffen wie bei Butter, Wasser, Energie.
Intrinsische Eigenschaften von Stoffen sind z.B. (wenn sie eine Instanz vom Stoff Butter
auseinanderschneiden, behalten die beiden Stücke die intrinsischen Eigenschaften) Dichte,
Geschmack. Extrinsische Eigenschaften wie Gewicht bleiben bei der Teilung nicht erhalten.

44
Eine Kategorie von Objekten, die nur intrinsische (nicht teilbare) Eigenschaften hat, ist eine Substanz
(Oberbegriff ist Stoff=Substanzklasse). Eine Klasse, die irgendwelche extrinsischen Eigenschaften in
ihrer Definition enthält, ist ein zählbares Substantiv. Die Kategorie Stoffe ist die allgemeine
Substanzkategorie, die keine intrinsischen Eigenschaften spezifiziert. Die Kategorie Ding ist die
allgemeinste diskrete Objektkategorie (Ober-Oberbegriff), die keine extrinsischen Eigenschaften
spezifiziert.
Ereignisse
Neben der situationsbezogenen Modellierung (Badewanne ist vor Aktion „Füllen Badewanne“ leer
und nachher voll) gibt es das Ereigniskalkül, das auf Zeitpunkten und nicht auf Situationen basiert.
So definiert man hier immer die Zeit t dazu und kann entscheiden, ob eine Aktion in der Zeit t wahr
(richtig) oder falsch (sie findet zu dieser Zeit t nicht statt) ist.
• Prozesse
Fließende Ereigniskategorien (Prozesskategorien) sind zeitliche Unterintervalle eines größeren
Ereignisses. Jeder Prozess, der über einem Zeitintervall stattfindet, findet auch über jedem
Unterintervall statt.
• Zeitintervall
Momente Zeitintervalle haben die Dauer 0 (auf einer Zeitskala sind sie Punkte). Davon unterscheiden
sich die ausgedehnten Intervalle. So hat das Moment um Mitternacht am 1.1.2013 die Zeit 0. Für die
Intervalle benötigt man die Eigenschaft Dauer (Endzeit-Anfangszeit). So können sich zwei Intervalle
treffen (Endzeit des einen ist gleich der Anfangszeit des anderen Intervalls) oder überlappen.
• Fluenten (verschiedene Werte in Abhängigkeit der Zeit) und Objekte
Physische Objekte kann man als verallgemeinerte Ereignisse betrachten, weil ein physisches Objekt
ein Stück Raum/Zeit ist. Z.B. ist USA ein Ereignis, das 1776 mit 13 Staaten begann und heute die
Vereinigung von 50 Staaten ist. Diese Veränderung kann mit Zustandsfluenten beschrieben werden,
z.B. Bevölkerung (USA) oder Präsident(USA), ein Objekt, das zu verschiedenen Zeiten aus
verschiedenen Menschen besteht.
Mentale Ereignisse und mentale Objekte
Wir brauchen ein Modell der mentalen Objekte, die sich im Kopf einer Person oder in einer
Wissensbasis befinden, sowie der mentalen Prozesse, die diese mentalen Objekte manipulieren.
Rudimentäre Vermutungen, was eine Person (Roboter) weiß.

Der Gegenstand der Wissensrepräsentation ist die Formalisierung von Wissen, um eine maschinelle
Verarbeitung durch den Computer überhaupt erst möglich zu machen. Generell unterscheidet man
zwei Arten von Wissensrepräsentationen
• Prozedurales Wissen
• Deklaratives Wissen
Prozedurales Wissen lässt sich relativ einfach durch Programmiersprachen darstellen.
Für deklaratives Wissen gibt es folgende Formalismen:
• Semantische Netze/Ontologien
• Produktionsregeln
• Logik
• Constraints (Rand- und Nebenbedingungen)
Dabei scheint Logik als das für Wissen am Besten geeignete analytische Werkzeug zu sein.

Fallbeispiel
45
Diese Formalismen sollen anhand eines einfachen Beispiels vom Frühstück kurz eingeführt werden.
Der Satz lautet:
Mein Frühstück ist zunächst eine
vollwertige Mahlzeit.
An Getränken nehme ich eine Tasse
Kaffee und ein Glas Orangensaft zu mir.
Die Tasse Kaffee wird dabei sehr heiß serviert.
Ganz im Gegensatz zum Orangensaft,
der etwas zu kalt ist.
Zum Essen gibt es ein Brötchen,
sowie Eier und Speck.

3.2 Wissensrepräsentation mit Semantischen Netz/Ontologie


In semantischen Netzen wird Wissen grafisch dargestellt. Hierzu definieren wir die Objekte: wie
Mahlzeit, Frühstück, Getränk, Essen, Orangensaft, Kaffee, Eier mit Speck (in unserem
Frühstücksbeispiel) und setzten sie in Beziehung zueinander.

Man kann zwei Arten von Relationen bei "Semantischem Netz" unterscheiden.
IST-EIN-Beziehung: Generalisierung
Beispiel: Amsel ist ein Vogel
HAT-Beziehung: Zuordnung von Eigenschaften
Beispiel: Vogel hat Flügel

Die Einführung der "Hat-Nicht-Eigenschaft" bei den Semantischen Netzen dient zur Korrektur
falscher Inferenz (HAT-Beziehung der Oberklasse soll für aktuelle Klasse nicht gelten).
Die Kantenbeziehung „Kann“ bzw. „ist“ begründet keine neue Relation, sondern sagen das gleiche
aus (ist statt ist-ein; hat Flügel oder kann fliegen).
Abb. 3/2 Einfaches semantisches Netz

Aus der Abb. 3/2 geht hervor, dass Vögel fliegen können. Eine Subklasse von Vogel ist Strauß. Da nun
geschlossen werden könnte, dass ein Strauß fliegen kann, muss diese Eigenschaft bei der Klasse
Strauß unterdrückt werden. Im semantischen Netz wird diese falsche Inferenz unterdrückt, indem
zwar die Eigenschaft der Oberklasse genannt wird, die Vererbung bei der entsprechenden Subklasse
blockiert wird. Dies geschieht über die spezielle Relation „hat-nicht“.
Der größte Vorteil Semantischer Netze sind die damit verbundenen Organisationsprinzipien für die
Wissensbasis (gibt es bei Produktionssystemen nicht). Auch sind hier alle Infos über ein bestimmtes
Konzept um einen Knoten gespeichert. Man muss nur den zugehörigen Ankerknoten finden, um
Zugriff auf alle Infos des Konzeptes zu erhalten.

46
Abb. 3/3: Vererbungshierarchie in einem semantischen Netz

Beispiel: Frühstücksbeispiel als Semantisches Netz


(Brötchen dem Essen zuordnen)

Definition der Ontologie


Auf einer soziokulturellen Ebene erfordern Ontologien die gemeinsame Definition der Begriffe und
deren Zusammenhänge, sowie die verpflichtende Anwendung eines definierten Vokabulars durch die
Anwender im Rahmen der Wissensdomäne.
Für Ontologien existiert eine größere Anzahl von mehr oder weniger brauchbaren Definitionen. In
Anlehnung an John Sowa erscheint die folgende Definition nützlich: „In der Informatik ist eine
Ontologie eine formale Beschreibung des Wissens in einer Domäne in der Form von Konzepten der
Domäne, deren Beziehungen untereinander und der Eigenschaften dieser Konzepte und Beziehungen,
sowie der in der Domäne gültigen Axiome und Prinzipien ".

Diese Definition soll an einem nichttrivialen Beispiel dargestellt werden. Als erster Begriff in der
Definition muss die Domäne erklärt werden. Eine Domäne ist ein genau umrissener Ausschnitt aus
einer „Welt". Die Domäne wird aus dem Anwendungsgebiet bestimmt. In unserem Beispiel ist die
„Welt" die Menge aller Modelle aller Personenwagenhersteller. Als Domäne wählen wir ein
spezifisches Modell, nämlich den Aston Martin Virage (1988-1995).

Die Konzepte (Objekte)in dieser Domäne sind sämtliche Bestandteile, aus welchen der Aston Martin
(AM) Virage zusammengebaut ist. Diese Domäne enthält nur materielle Konzepte, viele Domänen
enthalten aber auch immaterielle Konzepte (wie Ideen).

47
Die Konzepte sind in diesem Falle sämtliche Teile und Optionsteile aller je gebauten Virage Series 1
(1988 bis 1995). Jedes Konzept entspricht einem mechanischen oder elektrischen Teil im Fahrzeug.
Die Teile sind im Detail definiert und spezifiziert, so z. B. alle Schrauben in DIN-Normen.

Abb. 3/4: Virage Parts Manual: Ausschnitt Lenksäule

Bemerkung: Aufgrund der Verständlichkeit wird an dieser Stelle auf die Unterscheidung von
»Konzept" (Schraube) und „Instanz“ (spezifisches Teil M6x16 #10 in Abb. 3/4) verzichtet. Sämtliche
Teile (Instanzen) sind in einer Liste enthalten, nämlich im Virage Parts Manual, siehe Ausschnitt
„Lenksäule" in Abb. 3/4. Hier muss angemerkt werden, dass die Modellierung von
Konzept/Subkonzept/Instanz und ihrer Beziehungen eine der großen Herausforderungen beim
Erstellen einer Ontologie ist.
Jedes Teil ist eindeutig mit einer Teilenummer (Part Number) identifiziert. Die Teile sind durch ihre
Eigenschaften charakterisiert, z. B. wie in Tab.

Die nächste Information in einer Ontologie sind die Beziehungen zwischen den Konzepten. Im Beispiel
sind dies topologische Beziehungen zwischen den Teilen des Fahrzeuges, d. h. welches Teil ist wo und
wie montiert.
Die Beziehungen sind als "Explosionszeichnungen" im Virage Parts Manual in grafischer Form
dokumentiert. Die Explosionszeichnungen zeigen jedes Teil mit seiner genauen Lage und seiner
Einbauvorschrift. Wie die Konzepte haben auch die Beziehungen spezifische Eigenschaften, welche in
einer Tabelle, Beispiel sieht man in Tabelle 2, gelistet sind.

Als letztes Element der Definition einer Ontologie fehlen noch die Axiome und die Prinzipien der
Domäne. Diese sind für die AM Virage Domäne: (a) Es dürfen ausschließlich nur AM-Teile verbaut
werden, (b) Nur AM-zertifizierte Mechaniker dürfen in der Domäne arbeiten, (c) Die von AM
vorgeschriebenen Wartungsintervalle sind strikt einzuhalten etc.

48
Der wichtige Schritt beim Übergang von der Informationsverarbeitung zur Wissensverarbeitung ist die
Einführung der formalen Semantik, d.h. der maschinenlesbaren Formulierung der Bedeutung der
Konzepte und ihrer Beziehungen. Dank einer vereinbarten formalen Semantik können kooperierende
Computer die Bedeutung von Konzepten und ihren Beziehungen erfassen und diese verarbeiten. Ein
Computer kann das Teil „Part Number 692088: Screw M6x16“ mit all seinen Eigenschaften erfassen.
Dies erlaubt ihm z.B. Part Number 692088 aus der AM Virage-Ontologie mit den Angeboten in einem
Katalog (auch eine Ontologie) eines Schraubenlieferanten exakt zu vergleichen, die Tauglichkeit zu
entscheiden und ggf. eine automatische Bestellung auszulösen.

Wie kann man Ontologien verwenden?


Die beschriebene AM Virage-Ontologie enthält die gesamte statische, strukturelle Information über
die Fahrzeugfamilien Aston Martin Virage Series 1 (gebaut von 1988 bis 1995). Diese Ontologie
erlaubt prinzipiell den Bau und die Reparatur aller AM Virages. Sie ermöglicht auch eine
Lagerhaltung und Lagerbewirtschaftung der Ersatzteile. Dank dieser Ontologie verfügen Werkstätten
und Mechaniker über das gesamte Wissen über den Aufbau aller je gebauten Fahrzeuge der Aston
Martin Virage Series 1. Diese beispielhafte AM Virage Ontologie ist für geschulte Mechaniker
vollständig und einfach verständlich. Sie hat jedoch einen riesigen Nachteil, wenn man sie von der
Informatik aus betrachtet: Die Ontologie ist nicht maschinenlesbar und deswegen kann sie auch nicht
von Programmen benutzt werden!

Die nächste Forderung an eine Ontologie ist deshalb ihre Formalisierung, d.h. ihre Darstellung in einer
standardisierten, maschinenlesbaren und maschinenverarbeitbaren Form. Das Werkezeug dazu sind
Ontologiesprachen eingebettet in eine IT-Struktur für die Wissensverarbeitung.

Ontologiesprachen
Das abstrahierte Wissen der Domäne wird durch die Domäne Experten mittels eines Ontologie-Editors
und einer Ontologiesprache erfasst und damit entsteht die formale, maschinenlesbare Ontologie. Die
Ontologie kann von den verschiedenen Anwendungsprogrammen gelesen und verwendet werden. Das
49
wichtige Instrument hier ist die Ontologiesprache. Eine Ontologiesprache ist ein exakter Formalismus
zur maschinenlesbaren Repräsentation von Wissen und zeichnet sich durch eine eindeutige
Spezifikation von Syntax und Semantik aus. Das Fundament einer Ontologiesprache wird durch ein
Logiksystem gebildet. Das Logiksystem umfasst Variablen und Operatoren und ermöglicht die
Formulierung und den Beweis von Formeln und Sätzen. Ein einfaches und sehr bekanntes
Logiksystem ist die Boole'sche Logik: Hier sind die Variablen binär (haben die Werte ,,0" und ,,1"
oder "falsch" und "wahr"). Die Operatoren sind NEGATION, UND, ODER. Damit lassen sich
beliebig komplexe Gleichungssysteme aufbauen.

Die ersten Ontologiesprachen entstanden aus der Forschung über künstliche Intelligenz. Später wurden
sie durch die Anforderungen der Informatik weiterentwickelt und heute existiert eine Vielzahl von
Ontologiesprachen. Hier soll die "Web Ontology Language" OWL eingeführt werden (die
Buchstabenumstellung von WOL zu OWL ist gewollt und wurde von Tim Finin eingeführt, um diese
Ontologiesprache mit der Weisheit einer Eule zu assoziieren). OWL bildet die vereinheitlichende
Grundlage für das semantische Web und spezifiziert eine strikte Syntax (Form) und Semantik
(Bedeutung).

OWL hat zwei Ausprägungen, die sich durch ihre Ausdruckskraft unterscheiden : OWL Full und
OWL DL. OWL DL ist eine syntaktisch reduzierte Version von OWL Full, welche dank den
Einschränkungen entscheidbar ist. Entscheidbarkeit bedeutet, dass alle in OWL DL formulierten Sätze
maschinell geprüft und mit "wahr" oder "falsch" entschieden werden können. Dies ist ein derart
wichtiger Vorteil, dass meist OWL DL verwendet wird. Das logische Fundament von OWL DL ist die
Description Logic (DL). Ein Benutzer der Ontologie muss sich nicht um die Details der Description
Logic kümmern, die erlaubten Konstrukte sind direkt in der Ontologiesprache verfügbar und im
Ontologie-Editor eingebaut.
Beispiel (Powertrain ist Antriebsstrang)

Beispiel eines Individuums, die entweder durch Zugehörigkeit zu einer bestimmten Klasse oder
durch ihre Eigenschaften definiert werden.

Anforderungen an Ontologien

50
Eine der wichtigsten Anforderungen einer Ontologie ist es, eine einheitliche Definition von Begriffen
zu geben. Meist beschränkt sich der Entwicklungsprozess auf ein einzelnes Anwendungsgebiet, für
welches eine gemeinsame Ontologie zur Bereinigung semantischer Konflikte aufgebaut wird.
Semantische Konflikt können zum Beispiel Homonyme und Synonyme, aber auch inhaltlich-
strukturelle Probleme oder uneindeutige Wertebereiche und Masseinheiten umfassen.
Dazu muss eine Ontologie klar, eindeutig und kohärent sein, und darüber hinaus auch Schnittstellen
zur Sprache anderer Wissensdomänen berücksichtigen. Und schließlich besteht die Forderung, dass
die Ontologie für eine abgeschlossene Domäne vollständig sein soll, d.h. sie muss alle für das
Verständnis notwendigen Konzepte enthalten.
Unter Klarheit versteht man die Eindeutigkeit definierter Begriffe, aber auch das Definieren der
notwendigen und hinreichenden Bedingungen. Die Eindeutigkeit gewährleistet, dass jeder Begriff nur
eine Deutung zulässt bzw. nur eine Bedeutung besitzt.
Eine Ontologie sollte in sich konsistent sein (Kohärenz), d.h. es sollten nur Schlussfolgerungen
möglich sein, die mit den vorhandenen Definitionen übereinstimmen.
Und weiter sollte es möglich sein, neue Begriffe für einen speziellen Gebrauch zu definieren, ohne
bestehende Definitionen anpassen zu müssen. Letztlich sollten die Konzepte und Beziehungen auf
einer Methoden-neutralen, von der Kodierung unabhängigen Ebene spezifiziert werden, damit sie in
mehreren Systemen einsetzbar sind.
Abb. 3/5 zeigt ein einfaches Beispiel einer Ontologie. Die Konzepte (Fahrzeug, Wasser, Luft) sind
durch die verschiedenen Relationen (Zuordnung zu Oberbegriffen, Synonymen, und dem Raum, wo
sich ein Fahrzeug fortbewegen kann) miteinander verbunden.

Wasser
„für“

Schiff Motorrad
„ist ein“ „ist ein“ „für“ „synonym

Vehikel „synonym Fahrzeug Land Kfz


„ist ein“ „für“ „synonym
„ist ein“
Auto
„synonym

Luft „für“ Flugzeug Wagen

Abb. 3/5: Beispiel für eine Ontologie


Anwendungsbeispiele für Ontologien
In den letzten Jahren sind eine Anzahl von wertvollen Ontologien geschaffen worden. Aus
Platzgründen werden diese hier nicht beschrieben, sondern nur Ausgewählte:

• Finanzontologien.
In der Finanzwirtschaft (Banken, Versicherungen, Börsenplätze, ...) hat die Automatisierung
früh begonnen und ist weit fortgeschritten. Damit Transaktionen zwischen Partnern
vollautomatisch, fehlerarm und schnell durchgeführt werden können, ist eine fehlerfreie

51
Verständigung notwendig. Diese beruht heute weitgehend auf Finanzontologien. Ein
typisches Anwendungsgebiet ist der Hochfrequenzhandel mit Finanzinstrumenten, bei dem
ausschließlich Computer mit ihren spezialisierten Algorithmen die Partner bilden.
• Unternehmensontologie.
Um ein Unternehmen flexibel und agil zu gestalten, muss seine Struktur genau bekannt sein.
Dies ist die Aufgabe der Unternehmensarchitektur, welche heute als wichtiges
Unterstützungsinstrument eine Unternehmensontologie verwendet. Die
Unternehmensontologie bildet ein Modell des Unternehmens und formalisiert das Wissen
über dessen Struktur, Prozesse, Produkte etc (z.B. aus Organigramm).
• Juristische Ontologien.
Die Gesetze und Verordnungen definieren Konzepte z. B. Straftatbestände,
Prozessordnungen etc. Anwälte und Richter müssen diese Konzepte klar verstehen und
präsent haben. Bei internationalem Recht kommt erschwerend hinzu, dass verschiedene
Jurisdiktionen unterschiedliche Auslegungen haben. Es wurde daher schon früh versucht, das
juristische Wissen zu formalisieren, und daraus sind mehrere Juristische Ontologien und
Anwendungen entstanden.
• Medizinische Ontologien.
Die Medizin verfügt heute über einen riesigen Schatz von wissenschaftlichem und
empirischem Wissen über Krankheiten, Symptome, Behandlung, Wirkstoffe,
Nebenwirkungen etc. Arbeiten zur formalen Erfassung dieses Wissens haben vor Jahrzehnten
begonnen, und seit einigen Jahren werden hierzu auch Ontologien eingesetzt. Medizinische
Ontologien ermöglichen den Bau von medizinischen Expertensystemen, welche den Arzt
interaktiv bei Symptomerkennung, Diagnose, Therapien und Beurteilung des
Krankheitsverlaufes unterstützen.
• Geninformationsontologien.
In der heutigen Gentechnikforschung geht viel Zeit verloren, weil die Terminologie sehr
vielfältig und uneinheitlich ist. Forscher finden Information nicht oder duplizieren
Forschungsarbeiten. Diese Geninformationsontologie ist eine kollaborative Arbeit und
versucht, weltweit die Terminologie in diesem Gebiet zu standardisieren.

Resource Description Framework (RDF)


Einfach ausgedrückt ist das Resource Description Framework eine auf XML basierende Sprache zur
Beschreibung von Ressourcen. Unter einer Ressource könnte z.B. eine elektronische Datei im Internet
verstanden werden. Auf eine solche Datei wird über eine URL (Uniform Resource Locator)
zugegriffen.
Während es mit XML möglich ist, Metadaten an einzelne Teile eines Dokuments anzuhängen, ist ein
Vorteil von RDF, dass es Metadaten über das gesamte Dokument anhängen kann, etwa Informationen
wie Autor, Erstellungsdatum und Art des Dokuments. Ein gelungenes Beispiel für den Nutzen von
RDF ist die Beschreibung eher undurchsichtiger Dateien wie etwa Bild- oder Audiodateien. Dabei
arbeitet die Anwendung in Verbindung mit einem Server, z.B. der W3C-Jigsaw-Webserver, auf dem
automatisch die angehängten Metainformationen in Form einer externen RDF-Datei gespeichert
werden.
Es ist möglich, verschiedene spezielle RDF-Schemata zur Beschreibung eines Bildes zu laden. Die im
Programm mitgelieferten Standard-Schemata zur Beschreibung des Bildes sind Dublin Core (DC) und
ein technisches Schemata (Technical), welches z.B. Metadaten über die benutzte Kamera enthält.
In einer RDF-Datei sind z.B. sogenannte “namespaces” (Namensräumen, beispielsweise
xmlns:rdf=”http://www.w3.org/1999/02/22-rdf-syntax-ns#”) verwendet. “Namespaces” sind ein
einfaches Hilfsmittel zur Erstellung von global eindeutigen Namen für die Elemente und Attribute
einer Auszeichnungssprache.

52
Sie sind aus zwei Gründen von Bedeutung: Erstens zur Vermeidung von Konflikten von einheitlichen
Namen zwischen verschiedenen Auszeichnungssprachen und zweitens ermöglichen sie, mehrere
Auszeichnungssprachen ohne Doppeldeutigkeiten zu mischen. Das Root-Element () spezifiziert das
Dokument als RDF-Dokument und in ihm sind vier Namensräume deklariert. Außerdem enthält jedes
RDF-Dokument eine oder mehrere “descriptions” (Beschreibungen), die Aussagen über die
beschriebene Ressource enthalten. Dieses Element enthält ein rdf:about Merkmal, das auf die
beschrieben Quellen verweist. Diese Verweise in Form von “Uniform Resource Identifier” (URI) sind
wichtig, um das Resource Description Framework zu verstehen, denn alle Ressourcen, die durch RDF
beschrieben werden, müssen mit einem URI bezeichnet werden.
Zusammengefasst päsentiert ein RDF-Beispiel die Beschreibung der Ressource, die Eigenschaften der
Ressource und die Werte dieser Eigenschaften. Dieses dreigeteilte Modell ist typisch für RDF und
deshalb wird das RDF-Modell auch oft als “triple” bezeichnet. Genauso, wie man das RDF-Modell
mittels seiner Ressourcen-Eigenschaften beschreiben kann, nämlich erstens “Beschreibung der
Ressource”, zweitens “Eigenschaften der Ressource” und drittens “Werte dieser Eigenschaften”,
erklären Forscher und Wissenschaftler der künstlichen Intelligenz, die dieses Forschungsgebiet
“knowledge representation” nennen, das gleiche Modell an den grammatikalischen Teilen eines
Satzes, nämlich mit Subjekt, Prädikat und Objekt.
Die Schlüsselelemente eines RDF-”triple” sind also folgende:
Das Subjekt. In der Grammatik bezeichnet man das Satzglied als Subjekt, das mit der Frage: “Wer
oder Was?” erfragt werden kann. Es ist also eine Person oder ein sachliches Objekt. In dem Satz “Das
Unternehmen verkauft Strümpfe” ist das Subjekt “Das Unternehmen”. Das Subjekt eines Satzes
vermittelt uns also, worüber der Satz handelt. Im Bereich der Logik ist das Subjekt der Ausdruck, über
den etwas angegeben wird. Im RDF-Modell ist das Subjekt die Ressource, die durch das folgende
Prädikat und Objekt beschrieben wird. Das Subjekt wird im RDF-Modell demzufolge mit einem
Uniform Ressource Identifier (URI) eindeutig beschrieben, da der URI in der digitalen Welt eine
genauso unmissverständliche Zuordnung ermöglicht, wie “Das Unternehmen” in der
grammatikalischen Welt.
Das Prädikat. Grammatikalisch modifiziert dieser Teil des Satzes das Subjekt. In unserem
Beispielsatz “Das Unternehmen verkauft Strümpfe” ist das Prädikat das Wort “verkauft”. Das Prädikat
teilt uns also etwas über das Subjekt mit. Im RDF-Modell stellt das Prädikat die Verbindung zwischen
Subjekt und Objekt her. Im RDF-Modell müsste für die Bedeutung des Wortes “verkauft” eine
eindeutige URI definiert werden, die beispielsweise so aussehen könnte:
“http://www.unternehmen.org/ontologien/#verkauft”.
Das Objekt. In der Grammatik ist dieses Satzglied ein Nomen, welches sich auf das Prädikat bezieht.
In dem Beispielsatz “Das Unternehmen verkauft Strümpfe” ist das Objekt das Wort “Strümpfe”. Im
RDF-Modell ist das Objekt also eine Ressource, die sich entweder auf das Prädikat oder auf einen
wörtlichen Wert (literal) bezieht. Auch hier würde für das Objekt im RDF-Modell ein URI definiert
werden müssen, der analog zu den vorher gezeigten URI-Beispielen verstanden werden kann.
RDF-Ressourcen stehen also entweder für elektronische Ressourcen, wie etwa Dateien, oder auch für
Konzepte wie Personen. Sehr wichtig dabei ist, dass diese Ressourcen sich eindeutig identifizieren
können über die URIs. Denn nur so kann eine Idee, ein Konzept, die das Subjekt oder Objekt
beschreibt, global und ohne Doppeldeutigkeiten definiert werden. Das ist ein Kernunterschied, den die
Benutzung der semantischen Technologien gegenüber der klassischen Syntax hat, denn in der Lehre
der sprachlichen Zeichen gibt es sehr häufig Wortdoppelbedeutungen.
Die eindeutige Identifizierbarkeit der Objekte und Subjekte durch URIs löst so das Problem der
Wortdoppelbedeutungen. “Die Fliege passt nicht zum Hemd” und “Die Fliege fliegt im Zimmer
umher” sind zwei Sätze mit dem jeweils selben Wort “Fliege”, aber mit unterschiedlichen
Bedeutungen. Im RDF-Modell ist es möglich, dem Tier Fliege eine global eindeutige URI zuzuteilen,
wodurch diese Doppeldeutigkeiten behoben werden. Diese URI könnte in diesem Fall so aussehen:
“http://www.unternehmen.org/ontologien/tier/#fliege”.
Beispiel eines Ontologie-Editors: Protégé (Software)

53
Ontologie-Editor

Basisdaten

Stanford University /
Entwickler
protégé community

5.0
Aktuelle Version
(25. Mai 2016)

Betriebssystem plattformunabhängig

Programmier-
Java
sprache

Kategorie Ontologie-Editor

Lizenz Mozilla Public License

deutschsprachig nein

Offizielle Website

Abb. 3/6: Protege


Protégé ist ein Editor zur Modellierung von Ontologien in der Informatik. Der Ontologie-Editor
wurde am Institut für Medizinische Informatik an der Stanford University in Kalifornien konzipiert
und wird mittlerweile als Open Source-Anwendung – unter der Mozilla Public License – frei zur
Verfügung gestellt. Bei diesen Ontologien im informatischen Sinne handelt es sich um formale,
maschinenlesbare Repräsentationen von Wissen in einem bestimmten Fachbereich (Domäne), das
durch sogenannte Konzepte und Relationen abgebildet wird.
Mit Protégé können solche Wissensdatenbanken angelegt, mit Informationen gefüllt und Wissen
daraus abgefragt werden. Die Entwicklungs- und Laufzeitumgebung ist in Java programmiert und
damit plattformunabhängig.
Die Wissensmodellierung mit formalen Beschreibungssprachen ist in Protégé auf zwei Arten möglich:
• Protégé-frames arbeitet mit dem frame-basierten Ansatz der Wissensrepräsentation, der
Informationen über bestimmtes Domänenwissen in einer hierarchischen Struktur von
Konzepten, Attributen von Konzepten (Slots) und Konzept-Instanzen (Individuen) vorsieht.
• Protégé-OWL beruht auf der Web Ontology Language (OWL), dem Standard zur Ontologie-
Erstellung innerhalb des Semantic Web. Im Unterschied zum frame-basierten Ansatz
kommen hier noch logische Mechanismen hinzu, durch die implizites Wissen aus der
modellierten Datenstruktur – auch übergreifend aus mehreren Ontologien – inferiert werden
kann.

Protégé verzeichnet gut 300.000 registrierte Nutzer (Stand: Mai 2016).


http://protege.stanford.edu/

54
3.3 Wissensrepräsentation mit Produktionsregel
Regel (über einer Sprache L): Konstrukt der Form
IF Bedingung1, …, Bedingungn THEN Folgerung/Aktion
Falls Aktion im THEN-Teil: Produktionsregel, sonst Inferenzregel
Bedingungen und Folgerung in L formuliert, dazu sind verschiedene Notationen gebräuchlich:
Bedingung1, …, Bedingungn → Folgerung
Folgerung  Bedingung1, …, Bedingungn
Folgerung :- Bedingung1, …, Bedingungn
Die Folgerung nennt man auch Kopf der Regel, die Bedingungen Körper.
Eine Produktionsregel besteht aus einem Prämissen- und einem Aktionsteil. Der Prämissenteil (meist
situationsbedingt) legt die Bedingungen für die Ausführung der Aktion fest.
Viele der in den 80/90er Jahren entwickelten Expertensysteme waren regelbasiert.
Beispiel:
(1) Wenn Auftragsvolumen größer als 100.000 €,
dann Kunde ist Großkunde
(2) Wenn Kunde ist wichtiger Kunde,
dann Vertriebsleiter verständigen
(3) Wenn Kunde ist Großkunde
und Bonität des Kunden ist gut,
dann Kunde ist wichtiger Kunde
Die Abarbeitung der Produktionsregeln erfolgt nach der Rückwärtsverkettung.
Die Rückwärtsverkettung oder zielgetriebene Inferenz geht genau den umgekehrten Weg, also von den
Konklusionen rückwärts gehend zu den notwendigen Prämissen. Es wird rückwärtsgehend versucht zu
bestimmen, ob die dem Zielzustand entsprechende Aussage wahr ist.

Beispiel:
Wissensbasis:
R1: wenn F und B dann Z
R2: wenn C und D dann F
R3: wenn A dann D

Die Faktenbasis enthält die Fakten A, B, C, E, G und H.


Ausgangspunkt: Zielzustand Z
Ist Faktum Z in der Faktenbasis enthalten? - Nein
Ist Faktum Z als Konklusion in einer Regel enthalten? - Ja, Regel 1.
Aber die Prämissen dieser Regel sind allerdings nur zum Teil (Faktum B) erfüllt, da ja Faktum F nicht
in der Faktenbasis enthalten ist. Regel 1 kann also nicht feuern.
Ist Faktum F die Konklusion einer Regel? - Ja, Regel 2. Aber die Prämissen dieser Regel sind
unerfüllt, da lediglich Faktum C in der Faktenbasis existiert.
Zur Herleitung des Zielzustandes Z ist also unbedingt Faktum D erforderlich. Regel 3 erzeugt D und
ist auch erfüllt, da die Prämisse A ja in der Faktenbasis enthalten ist.
Der Zielzustand Z kann durch Feuern der Regel 3, 2 und 1 ( in dieser Reihenfolge) erzeugt werden.
Die Aussage Z ist also wahr.
Beispiel: Frühstücksbeispiel mit Produktionsregeln
Den Fakt, dass ein Frühstück aus Kaffe, Orangensaft, Brötchen und Eier mit Speck besteht, braucht
man nicht als Regel fassen.

55
Die Architektur eines Produktionssystems besteht aus
• Wissensbasis: Erfassung der einzelnen Produktionsregeln.
• Faktenbasis (Datenspeicher): Erfassung permanenter und temporärer Fakten,
• Inferenzmechanismus: Festlegung, wie die einzelnen Regeln abgearbeitet werden sollen.

Bei der Abarbeitung der Regeln können Zielkonflikte auftreten. Zwei Konfliktlösungsstrategien zur
Auswahl der feuernden Regel bei den Produktionsregeln wären
• Auswahl nach der Reihenfolge
• Auswahl nach der Spezifität
Beispiel für Match-execute-Zyklus
Der Inferenzmechanismus an sich unterscheidet sich in der zielgesteuerten (Rückwärtsverkettung) und
datengesteuerten (Vorwärtsverkettung) Inferenz. Bei der Rückwärtsverkettung wird rekursiv
vorgegangen. Das bedeutet, es wird mit dem Endziel begonnen (zum Beispiel der Sachverhalt, der
aufgrund der Problemstellung erreicht werden soll) und dieses Ziel wird dann mehrfach in Unterziele
aufgeteilt bis die Ziele elementare Fakten sind. Diese Fakten werden dann ausgewertet, ob sie
zutreffen oder nicht. Bei der Vorwärtsverkettung, dem sogenannten Forward Chaining, wird von der
Anfangssituation auf die Endsituation geschlossen (Lackes, 2019b).
Beispiel für Vorwärtsverkettung
Beispiel für Rückwärtsverkettung

3.4 Wissensrepräsentation und Inferenz mit Logik


Die Logik ist der einzige Formalismus, für den fundierte Theorien über die Repräsentation existieren.
Sie gilt als der am besten untersuchte und verstandene Formalismus und ist von allgemeiner
Bedeutung für die Repräsentation von Wissen in der künstlichen Intelligenz.
Logik ist die Lehre vom Begriff, Urteil und Schluss. Wir unterscheiden zwischen Aussagenlogik, die wir
in Mathematik im 1. Semester schon kennen gelernt haben, und Prädikatenlogik.

3.4.1. Aussagenlogik
Die Aussagenlogik setzt sich mit der Analyse von Sätzen und Satzkombinationen auseinander.
Aussagen werden mit sogenannten Literalen codiert und stellen Sätze dar, die entweder den
Wahrheitswert „wahr“ oder „falsch“ haben können (zweiwertige Logik).
A. Grundlagen
Beispiel:
Rainer ist ein Mann
(Dieser Satz kann durch das Literal A repräsentiert werden)
Alle Männer sind größer als 180cm
(Dieser Satz kann durch das Literal B repräsentiert werden)
Der Wahrheitswert von Literal A ist wahr.
Der Wahrheitswert von Literal B ist falsch.
Die eindeutige Zuordnung von Wahrheitswerten schließt Meinungen, Fragen, Ausrufungen,
Überzeugungen usw. aus, da diese nicht als wahr oder falsch klassifiziert werden können.
Aussagen können durch logische Operatoren (Junktoren) miteinander verknüpft werden, um
komplexere Aussagen-Kombinationen zu erstellen.
Man unterscheidet folgende Junktoren:
Konjunktion
Die Konjunktion oder UND – Verknüpfung (Symbol “^“) wird durch die Bindewörter
„sowohl als auch“ oder „nicht nur“ umschrieben. Die Aussage „A und B“ bzw. „(A^B)“ ist

56
genau dann wahr, wenn beide Aussagen wahr sind.
Disjunktion
Die Disjunktion bzw. ODER – Verknüpfung (Symbol „v“) zweier Aussagen ist genau
dann wahr, falls zumindest eine der beiden Aussagen wahr ist.
Implikation
Die Implikation (Symbol „→“) entspricht einer „wenn-dann“-Verknüpfung.
Äquivalenz
Die Äquivalenz (Symbol „↔“) kann umgangssprachlich am besten mit „genau dann,
wenn“ umschrieben werden.
Negation
Dieser Operator (Symbol „¬“) negiert den Wahrheitswert einer Aussage.
A B AB AB A→B AB A
Falsch falsch Falsch falsch wahr wahr wahr
falsch wahr Falsch wahr wahr falsch wahr
Wahr falsch Falsch wahr falsch falsch falsch
Wahr wahr wahr wahr wahr wahr falsch
B. Umformungen
Unabhängig von der Semantik einer Aussage kann ein logischer Operator durch einen beliebigen
anderen ersetzt werden, sofern der Wahrheitsgehalt der Aussagenkombination unverändert bleibt.
Die erlaubten formalen Umformungen richten sich immer nach der Gültigkeit von Wahrheitstabellen;
die Semantik spielt für die formale Äquivalenz überhaupt keine Rolle.
Beispiel:
kann in
A→B A  B
(Wenn A dann B) (nicht A oder B)
umgeformt werden, da die Wahrheitswerte der beiden Aussagenkombinationen identisch sind. Man
sagt auch, die beiden Aussagekombinationen oder Formeln sind äquivalent, weil sie bei jeder
Belegung denselben Wahrheitswert haben.
A B A→B AB
Falsch Falsch wahr wahr
Falsch Wahr wahr wahr
Wahr Falsch falsch falsch
Wahr Wahr wahr wahr

C. Erfüllbarkeit von Formeln


Von zentraler Bedeutung in der Logik ist die Frage nach der Erfüllbarkeit von Formeln.
• Eine Formel A ist erfüllbar, wenn es eine Belegung ihrer Literale gibt, so dass sie wahr
wird.
• Eine Formel A ist unerfüllbar, wenn es keine Belegung ihrer Literale
gibt, so dass sie wahr wird.
57
• Eine Formel ist allgemeingültig (tautologisch), wenn sie bei jeder Belegung ihrer Literale
wahr wird (z.B. Bauernregel "Kräht der Hahn auf dem Mist, so ändert sich s´Wetter oder es bleibt
wie es ist")
Die Eigenschaft einer Formel, erfüllbar zu sein, ist in der Aussagenlogik entscheidbar.
Bei der Wahrheitstafelmethode wird z. B. für alle möglichen Kombinationen der Literale der Formel
der Wahrheitswert evaluiert.

3.4.2. Prädikatenlogik
Die Prädikatenlogik bietet gegenüber der Aussagenlogik, deren Ausdrucksmittel sich ja auf Literale
und logische Operatoren beschränken, zusätzliche Elemente, die es erlauben folgenden Satz zu
formalisieren:
A. Grundlagen
Sokrates ist ein Alle Menschen
Mensch
sind sterblich

Sokrates ist
sterblich
Die Prädikatenlogik besteht aus folgenden Elementen:
• Prädikate, z.B. mensch ( )
• Literale A
• Funktionen
• logische Operatoren (Disjunktion,…)
• Quantoren, z.B. 
Prädikatenlogik verwendet die Operatoren der Aussagenlogik.
B. Prädikate
Prädikate beschreiben die Eigenschaft eines Objekts oder die Beziehung zwischen Objekten.
Beispiel:
männlich (rainer) vater (manfred,rainer)

Rainer ist männlichen Geschlechts Manfred ist der Vater von Rainer
C. Quantoren
Über die Quantoren besteht in der Prädikatenlogik die Möglichkeit, Begriffe einzuschränken
oder zu verallgemeinern

• Existenzquantor ( ):
Mit ihm können Einzelaussagen erzeugt werden „für einige“, „es existiert“, Symbol „“)
• Allquantor ():
Mit ihm können Verallgemeinerungen erzeugt werden („für alle, Symbol „“)
Beispiel:
( X) (mensch(X)→sterblich(X)) mensch(sokrates)

(alle Menschen sind sterblich) (sokrates ist ein Mensch)


Modus ponens
sterblich(sokrates)

58
Logik und Ontologie

Abb. 3/6: Auszug aus Ontologie Wissenschaftler


Physiker(Peter), Naturw(Fritz), Informatiker(Anna)

x [Philosoph(x) → Geisteswissenschaftler(x)]
x [Geisteswissenschaftler(x) → Wissenschaftler(x)]
...
Weitere mögliche terminologische Festlegungen:
x [Geisteswissenschaftler(x) → Philosoph(x)  ...  Germanist(x)]
x [Philosoph(x)  Informatiker(x) → false]
x [Genie(x) → Philosoph(x)  Informatiker(x)]
Grundidee der Beschreibungslogik: Stelle einfache Sprachkonstrukte für in Terminologien
vorkommende Formeln zur Verfügung

3.4.3 Inferenz bei der Aussagenlogik


Folgende wichtige Inferenzmechanismen stehen zur Verfügung:
• Modus ponens
Wenn eine Aussage A wahr ist und A eine weitere Aussage B impliziert (A→B), dann ist
auch B wahr.
Beispiel:
Aussage A: Der Himmel ist rot.
Implikation A→B: Wenn der Himmel rot ist, dann
geht die Sonne auf.
Schlussfolgerung: Aussage B ist wahr: Die Sonne geht auf
Der Modus ponens bietet die Möglichkeit, aus existierenden Fakten (A) und klar definierten
Implikationen (A→B) auf neue Fakten (B) zu schließen. Dies bietet den Vorteil, nicht alle Fakten
explizit speichern zu müssen und neue Fakten aus bereits Bekannten inferenzieren zu können.

• Resolutionsverfahren („Beweis durch Widerspruch“)


Mit dem Resolutionsverfahren kann man überprüfen, ob eine neue Tatsache anhand einer Anzahl
vorgegebener logischer Aussagen gültig ist. Ausgangspunkt ist die verneinte Tatsache. Diese wird
dann mit den anderen Aussagen in einer Formel verknüpft. Führen die Schlüsse aus der negierten
Tatsache und den anderen Aussagen zu einem Widerspruch, so muss die verneinte Tatsache falsch
sein, also ist die Tatsache wahr. Ist die Tatsache falsch, so hat die Schlusskette im
Resolutionsverfahren möglicherweise kein Ende.

59
Voraussetzung für die Anwendung der Resolution ist, dass die Formel in normierter Form (ohne
Implikation und Äquivalenz) vorliegt.
Beispiel:
Aussage A: Der Himmel ist rot.
Implikation A→B: Wenn der Himmel rot ist, dann geht die Sonne auf.
- Umformungen
A→B wird zu (AB) (normierte Form der Implikation)
B wird negiert (B)
Ergebnis: F = (AB)  (B)  (A)
- Formelmenge als Menge von Klauseln
K 1 = (AB)
K 2 = (B)
K 3 = (A)
- Streichen von Literalen
Die Literale A und A können nicht gleichzeitig wahr sein und werden gestrichen. Übrig
bleibt:
K 1 = (B)
K 2 =(B)
- Ergebnis
Für das Literal B gilt das gleiche wie für A, womit als Ergebnis die leere Klauselmenge
übrigbleibt. Damit wurde der Widerspruch hergeleitet und B ist somit wahr.
K={}
3.4.4 Inferenz bei der Prädikatenlogik
D. Substitution
Inferentielle Prozesse sind in der Prädikatenlogik wegen der erweiterten Ausdrucks-
möglichkeiten viel komplexer als in der Aussagenlogik. Um dieses Problem abzuschwächen
erzeugt man bei jedem Resolutionsschritt prädikatenlogische Resolventen aus prädikaten-
logischen Klauseln und führt eine sogenannte Substitution durch. Diese macht gewisse
Literale in den beiden Ausgangsklauseln zueinander komplementär, d. h. die Klauseln sind
identisch bis auf die Negationszeichen. Die Substitution wird dabei möglichst zurückhaltend
durchgeführt.
Beispiel:
Ersetze Variable x in allen Klauseln durch die Funktion f(y)

{P(x), Q(g(x))} {P(f(y))}

Ergebnis:
{Q(g(f(y)))}

E. Programme
Eine Menge prädikatenlogischer Formeln kann als Programm aufgefasst werden. Integriert
man eine Antworterzeugungskomponente, so hat man ein prädikatives Programmiersystem
entwickelt.

Beispiel:
Gegebene Klauselmenge (Wissensbasis):
F = {{liebt(Eva, Essen)}, {liebt(Eva, Wein)}, {liebt(Adam, x), liebt(x, Wein)}}

Eva liebt zu essen. Eva liebt Wein. Adam liebt jeden, der Wein liebt.
60
Programmaufruf:
G= y liebt(Adam,y)
Gibt es jemanden, den Adam liebt?
Formelmenge:
Frage: folgt G aus F? (F→G)? Also testen ob FG (verneinte Aussage) unerfüllbar

FG = {{liebt(Eva, Essen)}, {liebt(Eva, Wein)}, {liebt(Adam,x), liebt(x, Wein)},


{liebt(Adam,y)}}

Ablauf:
{liebt (Adam,y)} {liebt(Adam,x), liebt(x, Wein)}

Substitution = [x/y] ... ersetze x durch y

{liebt(y, Wein)} {liebt(Eva, Wein)}

Substitution = [y/Eva] ... ersetze y durch Eva

{} ... leere Klauselmenge

Zusammenfassung
Fassen wir die beiden Inferenzmechanismen "Modus ponens" und "Resolutionsverfahren" zuerst
theoretisch und anschließend mit je einem Beispiel zusammen.
Modus Ponens: Wenn eine Aussage A wahr ist und A eine weitere Aussage B impliziert (A->B),
dann ist auch B wahr.
Beispiel
Aussage A: Der Himmel ist rot.
Implikation A -- >B: Wenn der Himmel rot ist, dann geht die Sonne auf.
Schlussfolgerung: Aussage B ist wahr: Die Sonne geht auf.

Resolutionsverfahren: Man kann überprüfen, ob eine neue Tatsache anhand einer Anzahl
vorgegebener logischer Aussagen gültig ist. Ausgangspunkt ist zunächst die verneinte Tatsache. Diese
wird dann mit den anderen Aussagen in einer Formel verknüpft. Führen nun die Schlüsse aus der
negierten Tatsache und den anderen Aussagen zu einem Widerspruch, so muss die verneinte Tatsache
falsch sein, also ist die Tatsache wahr.
Beispiel:
F = ( A  B)  (B)  (A)
Die Literale A und A können nicht gleichzeitig wahr sein (Satz vom ausgeschlossenen Dritten) und
werden daher gestrichen.
Es verbleibt: F = (B)  (B)
Beispiel: Darstellung des Frühstückbeispiels mit Formeln der Aussagen- und Prädikatenlogik sieht
wie folgt aus:

Ein prädikatenlogisches Programmiersystem ist nun


• Menge prädikatenlogischer Formeln (Programm)
• Anfrage an das Programm
61
• Antworterzeugungskomponente
Die aussagenlogische unterscheidet sich von der prädikatenlogischen Resolution dadurch, dass die
prädikatenlogische Resolution Variablen (Möglichkeit der Instantiierung) verwendet.

3.4.5. Vergleich Logik mit den anderen Repräsentationsformalismen


Vor- und Nachteile der formalen Logik
Vorteile Nachteile
- am besten erforschter Formalismus - künstliche, sterile Wissensdarstellung

- Inferenzmechanismen können als - geringe Flexibilität


Beweisprozeduren eingesetzt werden
- nur zwei Wahrheitswerte „wahr“, „falsch“
- syntaktische Gültigkeit von
Schlussfolgerungen → keine Abstufungen möglich

- Vollständigkeit u. Widerspruchsfreiheit - repräsentierte Aussagen sind zeitunabhängig


→ Entspricht nicht der Realität
- durch einfache Notation verständlich zu
interpretieren - Keine Programmsteuerung durch
Kontrollstrukturen vorhanden
- modularer Aufbau erlaubt unabhängiges
Eintragen oder Abändern des Wissens

- effiziente Nutzung des Speichers durch


Inferenzregeln

Vergleich Logik mit den anderen Repräsentationsformalismen


Logik
mathematische Fundierung;
verständliche Interpretation;
Modularität;
effiziente Nutzung des Speichers
nur 2 Wahrheitswerte;
monotones Schlussfolgerungssystem;
oft ineffizient

Semantische Netze
Organisationsprinzipien für die Wissensbasis;
Zugriffspfade durch gerichtete Kanten vordefiniert
keine Standardterminologie und keine Standards für Interpretation von Wissen

Produktionsregeln
kommt menschlichem Denken entgegen;
Modularität und Uniformität der Wissensbasis
Möglichkeit des Nicht-Terminierens;
keine Organisation des Wissens;
bei komplexen Anwendungsgebieten schwierige Erstellung

3.4.6 Projektarbeit mit Prolog.


Die Syntax der logischen Programmiersprache PROLOG besteht aus
Variable, Konstante, Funktionen, Prädikate, Junktoren, technische Zeichen.

Es gibt drei Klassen für Hornklauseln in PROLOG.

62
• unitäre Hornklauseln: Fakten , die eine wahre Aussage innerhalb eines konkreten
Bezugsrahmens bezeichnen.
• Hornklauseln mit Implikation: Regeln, die das zentrale Element in PROLOG bilden. Sie
enthalten Variablen und ermöglichen die Ableitung von unendlich vielen wahren Aussagen.
• Eine Anfrage entspricht der rechten Seite einer Regeln, dem Rumpf ("kopflose Hornklausel").
Eine Anfrage ist genau dann wahr, wenn alle mit dem Komma konjunktiv verknüpften
Prädikate wahr sind.
Beispiele dafür:
• lieferant (peter, ursula).
• liefert (X, Y, Z) :- produziert (X, Y), kunde (Z, X), bestellt (Z, Y).
• ?-liefert (mueller, fahrraeder, X).

Nun zwei Beispiele für Mismatches und Matches in PROLOG:


PROLOG-Match:
Beispiel 1:
liefert (X, fahrraeder, schmidt).
liefert (mueller, fahrraeder, schmidt).

Beispiel 2:
liefert (X, fahrraeder, schmidt).
liefert (X, Y, Z).

PROLOG-Mismatch:
Beispiel 1:
liefert (mueller, fahrraeder, schmidt).
liefert (mueller, saettel, schmidt).

Beispiel 2:
liefert (mueller, fahrraeder, schmidt).
liefert (fahrraeder, mueller, schmidt).

Unter www.swi-prolog.org finden Sie den Prolog-Compiler und Informationen zum


Download. Alternativ können Sie das Programm auch im virtuellen Kurs herunterladen.
Für die Manipulation von Listen stehen uns in Prolog zwei Basisoperationen zur Verfügung:
– Der Listenkonstruktor zur Zerlegung einer Liste in Kopf und Rest.
– Unifikation.
Zusammen mit rekursiven Prädikaten erlauben diese Mittel komplexere Operationen.

Basisprädikate zur Listenmanipulation


Vier Prädikate zur rekursiven Listenverarbeitung demonstrieren Basistechniken für beliebig komplexe
Operationen auf Listen:
– member/2 Zugriff auf Listenelemente.
– append/3 Konkatenation von Listen.
– delete/3 Löschen/Einfügen in Listen.
– reverse/2 Umkehren von Listen.

append/3
% append(L1,L2,L3)
append/3 setzt drei Listenobjekte derart in Beziehung, dass das dritte Argument die Konkatenation
(Verkettung, Aneinanderhängen) der ersten mit der zweiten Liste repräsentiert: L1^L2 = L3
append([],L,L).
– Die Konkatenation einer Liste L an die leere Liste liefert L als Ergebnis.

63
Beispiel: Anfragen an append/3
?- append([1,2,3],[4,5,6],[1,2,3,4,5,6]).
yes
?- append([1,2,3],[4,5,6],L).
L = [1,2,3,4,5,6]
yes
?- append(L,[4,5,6],[1,2,3,4,5,6]).
L = [1,2,3]
yes
?- append([1,2,3],L,[1,2,3,4,5,6]).
L = [4,5,6]
yes
Präfixe & Suffixe
?- append(L1,L2,[1,2,3,4]).
L1 = [], L2 = [1,2,3,4] ->;
L1 = [1], L2 = [2,3,4] ->;
L1 = [1,2], L2 = [3,4] ->;
L1 = [1,2,3], L2 = [4] ->;
L1 = [1,2,3,4], L2 = [] ->;
no

append/3 ist auch in der Lage, eine Liste in alle Präfixe und Suffixe zu zerlegen.
append([H|T1],L,[H|T2]):-
append(T1,L,T2).
– Die Konkatenation einer Liste L an eine nichtleere Liste L1 ist L3, wobei der Kopf von L3 identisch
mit dem Kopf von L1 ist und der Rest von L3 die Konkatenation von L an den Rest von L1
repräsentiert.

delete
% delete(Liste1,Term,Liste2)
delete setzt einen Term und zwei Listen derart in Beziehung, dass Liste2 das Ergebnis des einmaligen
Löschens von Term an einer beliebigen Position in Liste1 repräsentiert.
Beispiel: Betrachten Sie folgendes PROLOG-Programm. Was ist das Ergebnis folgender drei
Aufrufe?
?- delete( [1,2,3], 2, [1,2]).
?- delete( [1,2,3], 2,L).
?- delete( [1,2,3], X, [1,3]).

delete( [X|T], X,T).


delete( [H|T1], X, [H|T2]):-
delete(T1, X, T2).
– Das Löschen von X aus dem Kopf einer Liste liefert als Ergebnis den Rest T.
– Das Löschen von X aus dem Rest T1 einer Liste L1 liefert die Liste T2, die Rest einer Liste L2 ist,
deren Kopf H mit dem Kopf von L1 identisch ist.

reverse/2
% reverse(Liste,UmgekehrteListe)
reverse([],[]).
reverse([H|T],RL):-
reverse(T,RT),
append(RT,[H],RL).
reverse/2 setzt zwei Listenobjekte derart miteinander in Beziehung, dass die eine Liste die Elemente
der anderen Liste in umgekehrter Reihenfolge enthält.

Beispiel: Prolog: Mönch, Geis, Kohlkopf mit Boot übers Wasser.

64
Lösung: http://www.hsg-kl.de/faecher/inf/prolog/graphen/bkwz/index.php
Oder www.mathematik.tu-darmstadt.de/Math-Net/.../Lehrmaterial/.../prolog_mono.pdf (s. 14-18)

3.5 Repräsentation mit Rand- und Nebenbedingungen (Constraints)


Es gibt bestimmte Klassen von Suchproblemen, die sich mit wirkungsvolleren Verfahren als in Kap.
1.4.2 beschrieben behandeln lassen.
Beispiel: Färbeproblem.
Man will jedem Land auf einer Landkarte eine Farbe zuordnen, so dass keine zwei benachbarten
Länder dieselbe Farbe haben.
Beispiel: n-Damen-Problem
Man soll n Damen so auf einen n x n Schachbrett aufzustellen, dass keine Dame eine andere bedroht.

Derartige Probleme sind Zuordnungsprobleme (Constraintprobleme). Sie bestehen aus folgenden


Komponenten:
• Endliche Menge von Variablen
• Zu jeder Variablen gibt es einen endlichen Wertebereich (Domäne)
• Eine Menge von Beschränkungen (Constraints); Formeln, die von den Variablen abhängen.

Die Wissensrepräsentation erfolgt hier auf der Basis von Neben- und Randbedingungen.
Constraints eignen sich besonders zur Darstellung von lokalen Randbedingungen, die der
Problemlöser in jedem Fall erfüllen muss, ohne dass damit eine konkrete Problemlösung festgelegt
wird. Ein Constraint besteht aus Variablen und Relationen auf diesen Variablen. In einem Constraint
sollten nur Teilaspekte des betrachteten Systems beschrieben werden, die für sich einsichtig und
leicht zu überschauen sind. Da somit die einzelnen Zusammenhänge unabhängig voneinander
formuliert werden, kann diese Menge lose nebeneinander stehender Constraints ein System nicht als
Ganzes beschreiben. Einzelne Constraints müssen miteinander in Verbindung stehen, so dass man
ein Constraint-Netz erhält. Es ist ein Graph, dessen Knoten den Variablen eines binären
Constraintproblems entsprechen und dessen Kanten mit Beschränkungen markiert sind.

Beispiel: einfaches Constraint-Netz


Neben- und Randbedingungen
x<y x<z y<z
der Variablen x,y,z, welche die folgenden Wertebereiche haben:
X=1 oder 2, y=2 oder 3, z=3 oder 4.

Ein Netz von Constraints ist eine Menge von Neben- und Randbedingungen für eine Menge von
Variablen. Im Allgemeinen ist man daran interessiert, eine Zuweisung von Werten an die Variablen zu
finden, die diese Nebenbedingungen erfüllen.
Zur Lösung gibt es viele Algorithmen, die auf einer Variante des Backtracking basieren, jedoch
besondere Eigenschaften der Constraint-Netze ausnutzen, um Backtracking effizienter zu machen.
Eine dieser Eigenschaften ist lokale Konsistenz eines Constraint-Netzes, die von Knoten-Konsistenz
über Kanten-Konsistenz zu höheren Graden lokaler Konsistenz reichen kann. Durch Anwendung
spezieller Verfahren können verschiedene Grade der lokalen Konsistenz erreicht werden. Je höher
der Grad der lokalen Konsistenz ist, desto einfacher ist es, eine geeignete Wertzuweisung zu finden.
Natürlich können die Restriktionen auch so angelegt sein, dass keine Lösung existiert.
Vertiefung der Algorithmen findet man in Boersch, I; Heinsohn, J.; Socher, R.: Wissensverarbeitung,
Elsevier München 2. Aufl. 2007; S. 49-64.

3.6 Literatur und Kontrollfragen


1. Günther Görz, Claus-Rainer Rollinger und Josef Schneeberger: Handbuch der
Künstlichen Intelligenz, Oldenbourg Verlag München, 3. Aufl. 2002
65
2. Mathias Haun: Wissensbasierte Systeme. expert verlag, Renningen, 2000
3. Rudolf Wille; Begriffliche Wissensverarbeitung: Theorie und Praxis. Informatik
Spektrum 23.Dezember 2000, S357-369, 2000.
4. Stuart Russell, Peter Norvig: Künstliche Intelligenz – Ein moderner Ansatz, 3. Aufl. 2012,
Pearson, München
5. Frank J. Furrer: Die Geschichte der Ontologie. Informatik Spektrum 37-4-2014, S. 308-317
Kontrollfragen
1 Nennen Sie für jede Relation, die Sie beim Wissensrepräsentationsformalismus 'Semantische
Netze' unterscheiden können, ein Beispiel.
2 Welchen Zweck hat die Einführung der 'Hat-Nicht-Eigenschaft' bei den Semantischen Netzen?
3 Definieren sie Ontologien.
4 Entwickeln sie für ihren Studiengange eine Ontologie
5 Wie erfolgt die Abarbeitung der Produktionsregeln in einem regelbasierten Expertensystem?
6 Welche Junktoren unterscheidet man in der Aussagenlogik?
7 Was ist der Modus Ponens und was ist das Resolutionsverfahren als Inferenz in der
Aussagenlogik?
8 Wodurch unterscheidet sich die aussagenlogische von der Prädikatenlogischen Resolution?
9 Beschreiben Sie genau die Syntax der logischen Programmiersprache Prolog.
10 In PROLOG gibt es das Prädikat append(L1,L2,L3)
append/3 setzt drei Listenobjekte derart in Beziehung, dass das dritte Argument die
Konkatenation (Aneinanderhängen) der ersten mit der zweiten Liste repräsentiert: L1^L2 = L3
Was ergeben die beiden Aufrufe?
?- append([1,2,3],[4,5,6],[1,2,3,4,5,6]).
?- append([1,2,3],[4,5,6],L).

66
4. Sprachverarbeitungssysteme – Chatbots zur
Wissenskommunikation
4.1 Geschichtliche Entwicklung von Chatbots und Definition
Chatbot ist in Deggendorf schon ein altes Thema, seit 2004 wird daran geforscht. Auch im neuen
Studiengang Ba. KI sind 2 Module mit Inhalten zu Chatbots.

Laut Gartner handeln Unternehmen bis 2020 85 % ihres Kundenkontakts mittels Technologie
ab. Kommunikationstechnologie ist nicht Telefon, sondern E-Mail, Videokonferenz und Chatbot.

Chatbots, die Kurzform von „chat robot“ oder auch Chatterbots, sind textbasierte Dialogsysteme mit
Ein- und Ausgabemasken, die im Rahmen der Mensch-Maschine-Kommunikation mit Usern in den
Dialog treten.

Chatbot ist allgemein ein Software-System, das algorithmusbasiert auf menschliche Text-Anfragen
reagiert“ (Eicher, 2016). Eingesetzt werden Chatbot z.B. für Gaming, Shopping, Entertainment. Bots
sind die neuen Apps.

1966 – Eliza

ELIZA simulierte einen routinierten Psychotherapeuten und wurde 1966 von Josef Weizenbaum vom
Massachusetts Institute of Technology (MIT) veröffentlicht (Esser, 1996). Dies war die erste Software,
welche eine Kommunikation zwischen Mensch und Maschine ermöglichte. Durch das Umformulieren
von Aussagen in Fragen wurden die Patienten motiviert das Gespräch weiterzuführen. So gelang es
Eliza ihre User ohne aktives Eingreifen stundenlang in Gespräche zu verwickeln. Die Eingaben der
Nutzer wurden mit Hilfe von Pattern-Matching analysiert, umformuliert und die daraus resultierende
Antwort ausgegeben (Tabor, 2011).

1988 – Jabberwacky

Jabberwacky, ein auf Künstlicher Intelligenz (KI) basierender Chatbot, wurde von dem britischen
Informatiker Rollo Carpenter entwickelt und startete 1989 (Twist, 2003). Jabberwacky ist ein
lernfähiges Computerprogramm, welches darauf abzielt humorvolle und interessante Gespräche zu
simulieren (Tantau, 2011). Die Besonderheit an Jabberwacky liegt in der Fähigkeit aus
Konversationen zu lernen und brachte ihm deshalb bezüglich der Lernfähigkeit 2003 die
Bronzemedaille beim Loebner-Preis ein (Twist, 2003).

Amerikaner Hugh Loebner gründete 1990 den “Loebner Contest”, bei dem ein sogenannter “Turing-
Test” durchgeführt wird.

Dabei befragt eine Person einen Menschen und ein künstliches intelligentes System. Der Tester
kommuniziert nur indirekt über ein Textmedium. Der Tester soll allein aus den Antworten auf seine
Fragen entscheiden, wer Mensch und wer Computer ist. Wenn er das nicht kann, dann - so
argumentiert Turing - kann man annehmen, dass die Maschine intelligent ist.

Der Tester kann jede beliebige Frage stellen. Durch die indirekte Kommunikation soll vermieden
werden, dass der Interviewer durch äußeres Erscheinen oder mechanische Eigenschaften

(z.B. synthetische Stimme) beeinflusst wird.

67
Falls die Person die Gesprächspartner nicht auseinanderhalten kann, d.h. die Maschine nicht von
dem Menschen unterscheiden kann, hat die zu testende Maschine den Turing-Test bestanden.

Problem:
Test ist weder konstruktiv noch reproduzierbar und kann mathematisch nicht formalisiert
werden
Beispiel: Wer ist von den vier Antwortgebern ein Mensch und wer ein Bot?

Abb. 4/1: 2 Fragen und je 4 Antworten (2 davon von einem Bot)

4.1.1 A.L.I.C.E.
1995 wurde A.L.I.C.E (Artificial Linguistic Internet Computer Entity) erstmals im Internet
veröffentlicht. Hauptakteuer in diesem Projekt war Dr. Richard Wallace. Zu dieser Zeit galt A.L.I.C.E
als sehr fortschrittlicher Chatbot, konnte jedoch den Turing Test nie bestehen (Lun, 2009).

ALICE hat beim Loebner Contest von 2001-2004 den Preis für das menschenähnlichste Programm
gewonnen.

Ich habe ab 2006 auf der Basis von A.L.I.C.E. den Deggendorfer Teletutor entwickelt, der Fragen zu
ca. 10 Vorlesungen beantworten sollte, u.a. Mathematik.

4.1.2 2006 – IBM’s Watson


Watson ist eine „Frage – Antwort Maschine“. Watson versteht die natürliche menschliche Sprache,
analysiert ihren Kontext und gibt passende Fragen zu den gestellten Antworten in natürlicher
Sprache wieder (Rouse, 2014).

68
Damit diese Systeme einwandfrei funktionieren, benötigten sie folgende wesentliche Komponenten:

1. Zum einen ist es eine Spracherkennung. Das gesprochene Wort eines Menschen muss
maschinell verarbeitbar gemacht werden. Um dies zu ermöglichen, wird der Wortstrom über
ein Mikrophon aufgezeichnet und somit das analoge, elektromagnetische Signal digitalisiert
(in Bits und Bytes transformiert).
2. Diese digitale Fassung der Sprache wird im Anschluss in einzelne Bestandteile zerlegt und mit
Hilfe von komplexen Musterklassifikationen im Detail analysiert (z.B. Wörter lokalisiert).
3. Neben der Fähigkeit Sprache überhaupt zu erkennen, benötigen diese Systeme weiterhin ein
Sprachlexikon und nutzen in deren Kombination Morphologie. Dadurch verfügen die Systeme
über umfangreiche Möglichkeiten um Wörter und ganze Sätze zu analysieren
4. Schließlich bilden sie für die Antwort Wörter selbst. Dazu benötigen sie auf der einen Seite
Daten zur Wortformenbildung aber auf der anderen Seite auch Daten über zum Beispiel
Wortkategorie, semantischer Interpretation und eigentliches Vorkommen des Wortes (vgl.
Görz u.a.2014.)
5. Da die wirkliche Aufgabe natürlichsprachlicher Systeme die Erzeugung eines Dialogs zwischen
Mensch und Maschine ist, muss in den Systemen eine entsprechende Form der
Sprachgenerierung implementiert werden. Es wird hierfür ein Modell für einen
entsprechenden Redepartner sowie ein Modell für den jeweiligen Diskurs benötigt. Das
System muss eigenständig in der Lage sein sich zu überlegen, was und wie etwas tatsächlich
gesagt werden sollte. Hierzu arbeitet die KI in folgenden drei wesentlichen Schritten:
a. Es wird ein Konzept erzeugt wie eine Antwort gegeben werden kann
b. Die Maschine kümmert sich um die eigentliche Formulierung einer Antwort
c. Die Antwort wird tatsächlich artikuliert.

4.1.3. Siri
2010 – Siri

Siri (engl. Abkürzung für: Speech Interpretation and Recognition Interface) (Rauch, 2016) ist ein
sprachgesteuerter Assistent der Firma Apple, der erstmals 2011 im iPhone 4S präsentiert wurde.
Diese Software hat die Fähigkeit natürlich gesprochene Sprache zu verarbeiten und dient somit als
persönlicher Assistent, der dem Nutzer das Leben erleichtern soll. Siri beherrscht eine große Menge
an Funktionen. „Wecker stellen“, „Routen planen“ oder „Wettervorhersagen“ sind nur eine kleine
Auswahl von Möglichkeiten, die Siri ihren Usern bietet.

4.1.4. Alexa
2015 – Alexa von Amazon

Im Juni 2015 erschien Amazon Echo Dot auf dem Markt. Dieser lernfähige Sprachassistent in Gestalt
eines Lautsprechers kann mit Hilfe der Stimme des Nutzers gesteuert werden. Alexa bietet ihren
Usern zahlreiche nützliche Dienste an. Sie beantwortet Fragen, liefert Nachrichten und ist vor allem
für Smart Home entwickelt worden.

4.1.5. Facebook
Im April 2016 veröffentlichte Facebook eine Messenger Plattform, die es Programmierern
ermöglichte, Chatbots zu entwickeln, mit denen man über den Facebook Messenger interagieren
kann. Bereits im Juni standen über 11000 Chatbots zur Verfügung.

Auf dem in China sehr populären Messenger weChat bieten Millionen von Shops ihre Produkte an,
man kann viele Arten von Informationen und Unterhaltungen abrufen.

69
Jeder Facebook-Bot ist so einzigartig wie das Geschäft, das er bedient:

– Sie können bei häufig gestellten Fragen zum Kundendienst helfen, z. B.


Sendungsverfolgung und Terminbuchung.
– Sie können die Entdeckungstour vorantreiben - die perfekte Jeans vorschlagen, einen
Direktflug nach Berlin buchen oder ein Abendessen bestellen.
– Sie können verkaufen, indem Sie ein T-Shirt vorschlagen, das zu dieser Jeans passt.
– Sie können Ihre Lieferung verfolgen und dann nachsehen, wie die Ware passt, sobald
sie angekommen ist.
– Sie können über ein Angebot informieren, von dem Sie denken, dass du es magst,
und sie werden dich an deine Größe, Zeitzone oder Nussallergie erinnern.
– Sie erzählen dir sogar einen Witz. (Cooper, 2018)
Tools zum Erstellen von Facebook Messenger-Bots

Wenn Sie all dies dazu inspiriert hat, Ihren eigenen Chatbot zu erstellen, finden Sie hier folgende
Lösungen, die Sie überprüfen können, um vom Anfänger zum Experten zu werden. Mit Hilfe
folgender Tools ist es möglich, seinen eigenen Chatbot zu entwickeln.

ManyChat

Die ManyChat-Benutzeroberfläche ist besser für diejenigen geeignet, die einfachere Bots erstellen.
Die Nachrichtenverwaltung kann umständlich werden, wenn die Konversation komplex wird.
Außerdem bietet ManyChat zahlreiche Tools, mit denen Sie ihren Bot promoten und die
Benutzeranalysen bewerten können. Es ist zunächst kostenlos, aber nachdem Sie eine bestimmte
Anzahl von Abonnenten erreicht haben, müssen Sie für ein Pro-Konto bezahlen.

Chatfuel

Als größte Self-Service-Plattform für die Erstellung von Facebook Messenger-Bots verfügt Chatfuel
über eine beeindruckende Kundenliste: von TechCrunch über Netflix bis hin zu den Cincinnati
Bengals. Sie verfügen über eine intuitive visuelle Benutzeroberfläche für Benutzer ohne
Codierungshintergrund. Entwickler werden jedoch die bearbeitbaren Frontend- und
Anpassungsoptionen mögen. Während Sie einen Bot kostenlos erstellen können, sind viele der
komplexeren (und interessanteren) Tools nur mit Chatfuel Pro-Konten verfügbar.

Conversable

Conversable ist die SaaS-Plattform der Enterprise-Klasse, die ihren Bot zusammen mit Ihnen aufbaut.
Sie arbeiten mit vielen Fortune-500-Unternehmen zusammen (sie stehen unter anderem hinter den
Bots Whole Foods, Pizza Hut, 7-11 und Dunkin Donuts). Sie gehen über den Facebook Messenger
hinaus und stellen sicher, dass Ihre Unterhaltungen auf allen Kanälen stattfinden, auch auf
sprachbasierten Kanälen (wie z.B. OnStar).

Facebook Messenger für Entwickler

Wenn Sie ihren eigenen Messenger-Bot programmieren möchten, bietet Facebook eine Vielzahl von
Ressourcen und sie arbeiten immer mit ihrer Entwicklergemeinschaft zusammen, um neue Ideen zu
entwickeln, um die Benutzererfahrung zu verbessern. So testen beispielsweise Sephora und Nike für
ihre Kunden die Augmented-Reality-Kameraeffekte. (Cooper, 2018)

Beispiel: chatlogue communication GmbH (München): Weinfinder für Pieroth mit Bots for
Messenger.

70
4.1.6. Google
2012 – Google Now

2012 wurde von Google Inc. die Erweiterung der hauseigenen App Google Search vorgestellt
(Floemer, t3n, 2016). Das Konkurrenzprodukt zu Apple’s Siri und Samsung’s S Voice wurde jedoch im
Februar 2017 aus den App Stores genommen (Spier, 2017).

Google Assistant unterstützt sowohl Text- als auch Spracheingaben und kann die Konversation
unabhängig von der verwendeten Eingabemethode mitverfolgen.

Die Seite "OK Google" oder "Hey, Google" deckt Sprachbefehle, Sprachsuche und sprachgesteuerte
Gerätesteuerung ab. So können Sie beispielsweise Nachrichten senden, Termine prüfen usw.

Der Google Assistant kann folgendes:

• Ihre Geräte und Ihr Smart Home steuern


• Zugriff auf Informationen aus Ihren Kalendern und andere persönliche Informationen
erhalten
• Informationen online finden, von Restaurantbuchungen bis hin zu Wegbeschreibungen,
Wetter und Neuigkeiten
• deine Musik kontrollieren
• Inhalte auf Ihrem Chromecast oder anderen kompatiblen Geräten wiedergeben
• Timer und Erinnerungen ausführen
• Termine vereinbaren und Mitteilungen senden
• Apps auf Ihrem Telefon öffnen
• Ihre Benachrichtigungen an Sie lesen lassen
• Gesprochene Übersetzungen in Echtzeit erledigen
Beispiel Screenshots

Sie können auch nach mehreren Dingen gleichzeitig fragen. Dies sei, laut Google, ziemlich schwierig.
In der Linguistik spricht man von Koordinationsreduktion. Solche Anforderungen zu beherrschen,
wird Google Assistant wahrscheinlich vor Rivalen vorantreiben.

Da Google Assistant Sie kennt und den Kontext versteht, kann er auf informierte oder intelligente
Weise reagieren. Das ist wichtig, da der Assistent seine Flügel ausbreitet, weil er der Sprachsteuerung
viel mehr Kraft verleiht und nur darauf wartet auf bestimmte Sätze oder Befehle zu reagieren.
Google sagt sogar, dass Assistant in der Lage ist, Termine für Sie anzurufen und zu buchen. Es ist
mehr als nur reaktiv. (Maggie Tillman, 2019)

4.1.7. Microsoft
2015 Cortana von Microsoft

Cortana ist ein Alternativprodukt zu Siri und Google Now. Die von Microsoft entwickelte
Sprachassistentin lässt sich mittels natürlicher Sprache steuern. Mit zahlreichen Diensten soll sie das
Leben der User erleichtern.

2016 – Tay

71
Tay ist ein selbstlernendes Chatprogramm mit weiblichem Avatar, welches 2016 auf Twitter
veröffentlicht wurde. Ziel von Microsoft war es, dass Tay mit Hilfe künstlicher Intelligenz lernt wie 18
bis 24-Jährige heutzutage kommunizieren. Tay wurde mit Fragen und Texten trainiert. Nur wenige
Stunden später musste der Chatbot von Microsoft vom Netz genommen, da Tay begann rassistische
Aussagen zu treffen.

Abb.g 4/2: Zeitleiste bedeutender Chatbots (TME AG, 2018)

4.2. Vergleich der Chatbots der großen amerik. Internetfirmen


Nun sollen die Marktführer Alexa, Google Assistent, Siri und Cortana miteinander verglichen werden.
Um herauszufinden, welcher Sprachassistent die meiste Intelligenz aufweist, stellte der Avatar den
Testkandidaten diverse Fragen in den Kategorien Kommerz, Klassisch, Wissen, Untypisch,
Verständnis und Allgemein. Um ein möglichst präzises Ergebnis zu erzielen, fanden die Tests mit
Fragen in unterschiedlichen Schwierigkeitsstufen statt.

Die Kategorien wurden je nach Funktion für den User unterteilt. In der Kategorie „Wissen“ wurde mit
typischen Fragen wie: „Wie viele Einwohner hat Deggendorf?“ oder „Wie heißt die Hauptstadt von
Deutschland?“ das reine Lexikon-Wissen getestet. Unter „Allgemein“ wollte der Avatar herausfinden
welche klassischen Empfehlungen die Sprachassistenten geben können. Mit Fragen wie: „Wie wird
das Wetter heute?“ und „Wie ist die Temperatur heute Abend?“ wurde dies getestet. In der
Kategorie „Klassisch“ testete der Avatar die Fähigkeit zur Hilfestellung im Alltag. Klassische Fragen
sind zum einen: „Wie wird das Wetter heute?“ und zum anderen: „Welche Termine habe ich heute?“
oder auch „Stelle mir den Wecker!“.

In der Kategorie „Kommerz“ wird getestet inwiefern sich der Sprachassistent als zuverlässiger
Shoppingassistent eignet. Die Königsdisziplin stellt wohl die Kategorie „Untypisch“ dar, die die
Ausreifung der künstlichen Intelligenz genauer betrachtet. Hier werden dem Sprachassistenten
Fragen gestellt wie: „Kannst du mir ein Fahrrad empfehlen?“ oder „Welche Samstage sind im
Kalender noch frei?“.

Nach zahlreichen Testfragen kam der Avatar, wie aus der Grafik von Abbildung 2 ersichtlich, zu
folgendem Ergebnis. Alexa, die Sprachassistentin von Amazon, erlangte die höchste
Durchschnittspunktzahl aller Kategorien und erreichte somit den 1. Platz. Google Now (Google) und
Siri (Apple), die fast die gleiche Punktzahl erzielten, belegten Platz 2 und 3. Cortana von Microsoft,
lag mit deutlichem Abstand dahinter auf Platz 4 und bildete somit das Schlusslicht aller
Testkandidaten.

Alexa punktete vor allem in den Kategorien „Kommerz“ und „Allgemein“ und überzeugte mit ihrem
umfassenden Wissen und der Alltagstauglichkeit. Google Now ist das Wissenswunder unter den
72
Sprachassistenten und erzielte von allen Testkandidaten die beste Punktzahl. Siri, die fast gleichauf
mit Google Now liegt, hat in allen Kategorien mittelmäßig abgeschnitten. Das Schlusslicht Cortana
übertraf ihre Mitkonkurrenten in der Kategorie „untypisch“ und stellte somit ihre Intelligenz unter
Beweis.

Wenn man nach all diesen Tests, den Sprachassistenten menschliche Eigenschaften zuweisen
möchte, könnte man diese wie folgt beschreiben. Alexa, die zuverlässige Helferin im Alltag mit
empathisch, klugen und einkaufsfreudigen Charakterzügen. Google Now ist der Wissensexperte, der
versiert und präzise auf den Großteil der gestellten Fragen antwortet. Siri, der Allrounder unter den
Sprachassistenten ist sehr vielseitig und punktet mit ihrer humorvollen Art und Weise. Cortana
hingegen ist sehr schüchtern, aber dennoch sehr intelligent.

Abb. 4/3: Testergebnis Chatbots

Abbildung 4/4: Vergleich der Marktführer (Brandt, 2018)

73
In Abb. 4/4 sieht man den Vergleich der Marktführer 2018.

4.3. Anwendungen für Chatbots


www.chatbots.org listet 1000 Chatbots auf, davon fast 100 deutschsprechende.

Eine 2017 von Comscore durchgeführte Umfrage listet die Fragen auf, die an Digital Personal
Assistants gestellt werden (siehe Abb. 4/5).

Abbildung 4/5: Sprachassistenten-Nutzung

Überall dort, wo es um Kommunikation geht, können Chatbots genutzt werden. Sie kommen sowohl
auf Supportseiten im Internet als auch auf den Webseiten von Online-Shops zum Einsatz. Für das
Angebot persönlicher Services werden Chatbots für Mobile Apps genutzt. In den folgenden
Abschnitten werden die Einsatzbereiche von Chatbots erläutert.

Unterstützung: Ihr Kunde surft möglicherweise schnell, führt jedoch keine Aktionen aus. Oder ihr
Online-Verhalten passt möglicherweise nicht zu Mustern, die Sie bei anderen Kunden beobachten.
Dies sind gute Hinweise, dass der Kunde möglicherweise Unterstützung benötigt, die von Ihrem
Chatbot angeboten werden kann.

Produkte vorschlagen: Wenn die Online-Aktivität Ihrer Kunden Kaufbereitschaft angibt, der Kunde
jedoch nicht kauft, ist es möglicherweise ein guter Zeitpunkt, um herauszufinden, wonach der Kunde
genau sucht. Über eine Konversationsschnittstelle können Sie Sondierungsfragen stellen und die
Absicht Ihrer Kunden besser verstehen.

Abwanderung vermeiden: Das Verständnis von Gründen für Abwanderung und das Reduzieren von
Angeboten für Abwanderung ist eine gute Voraussetzung für Konversationsschnittstellen für
Chatbots, die auf bestimmte Branchen zugeschnitten sind. Beispielsweise ist ein Text keine gute
Schnittstelle für die Anzeige großer Datenmengen. Wenn Sie diese Dienste anbieten, können Sie sie
jedoch in einer Konversationsschnittstelle abschließen.

74
Automotive: Qualifying-Leads: Ein erheblicher Teil der Leads für Autohändler stammt aus Online-
Kanälen. Daher ist die Optimierung der Konversion für Automobilunternehmen von entscheidender
Bedeutung. Daher verwenden Automobilunternehmen Chatbots wie Kias Kian, die komplexe Fragen
der Kunden beantworten und die Konversionsrate erheblich steigern können.

E-Commerce: Chatbots können dem E-Commerce eine neue Ebene der Interaktivität hinzufügen,
sodass Kunden über Menüs und Schaltflächen hinaus interagieren können. Hauptanwendungsfälle
sind folgende:

• Preisalarme einstellen
• Geschenke kaufen
• Reservedienstleistungen

Reise:

Chatbots können von der Buchung von Reisen bis hin zur Lösung von Reiseproblemen helfen. Neue
Unternehmen wie Instalocate verdienen bereits Geld, indem sie die mit der Reise verbundenen
Probleme lösen.

Urlaubsplanung: Während die meisten Reisen bereits als Selbstbedienung gebucht werden, ist es
zeitaufwändig, einen Urlaub zu planen. Reisende müssen die Sehenswürdigkeiten und Erlebnisse
kennenlernen, an denen sie interessiert sind, eine Reiseroute planen, Hotels auswählen, die sich
nach zahlreichen Kriterien von der Kinderfreundlichkeit bis zum Standort richten. Während diese
Aufgaben für Reisende frustrierend sind, können clevere Chatbots sie viel angenehmer machen.

Reservierungen: Textbasierte Reservierungssysteme können einfacher verwendet werden und


ergänzen Ihre Online-Reservierungssysteme. Der Chatbot von Mariott International ist bereits ein
wachsender Reservierungskanal.

Anfragen und Beschwerden: Auf lange Sicht ist es nicht gut für das Geschäft, Beschwerden
schwieriger zu machen. Es frustriert Kunden und verschlechtert den Ruf eines Unternehmens.
Chatbots können die meisten Anfragen und Beschwerden schnell bearbeiten und so die
Zufriedenheit Ihrer unzufriedensten Kunden erhöhen.

Finanzen:

Einige Beispiele sind Erica von Capital One, Eno & Bank of America, Facebook Bot von Well Fargo.

Informationsdienst: Die meisten Chatbots der Banken sind in der Lage, die Benutzer über ihre
Salden, die letzten Transaktionen, die Zahlungsdaten der Kreditkarte, die Limits usw. zu informieren.

Vermögensverwaltung: Robo-Berater werden täglich intelligenter und werden bald als erste
Beraterebene für die meisten nicht-wohlhabenden Kunden fungieren.

Kreditanträge: So wie Robo-Advisor-Chatbots Anlageberater übernehmen, können Chatbots auch die


für Kreditentscheidungen erforderlichen Daten sammeln.

Unter anderem werden Chatbots auch bei Geldüberweisungen und Rechnungszahlungen eingesetzt.

Gesundheitswesen:

Therapie: Da die Therapie fast vollständig textbasiert ist, ist dies ein großartiger Bereich für Chatbots.
Woebot ist einer der führenden Chatbots und bietet kognitive Verhaltenstherapie bei der
Behandlung von Depressionen.

75
Bearbeitung von Anfragen im Zusammenhang mit Gesundheits- und Versicherungsschutz:
Anwendungen wie HealthJoy, HealthTap und Your.MD helfen Kunden dabei, sich in der komplexen
Gesundheitslandschaft der USA zurechtzufinden.

Gastfreundschaft: Reservierungen und Umgang mit Menüfragen: Chatobook zielt darauf ab,
OpenTable von Chatbots zu werden. Neben den Reservierungen kann es Menüs und Promotionen
teilen und Feedback einholen.

Medien: Nachrichten sind einer der wenigen Bereiche, in denen Geschwindigkeit genauso wichtig ist
wie Qualität. Und obwohl Bots uns in der Geschwindigkeit sicherlich übertreffen, holen sie uns auch
in der Qualität ein. Nachrichtenorganisationen in den USA und China verwenden Chat-Bots bereits,
um blitzschnelle Nachrichten zu erstellen.

Nachrichtenübermittlung: Zum Beispiel können Chatbots so erstellt werden, dass sie nur
Zusammenfassungen von Nachrichten bereitstellen und Details freigeben, wenn Benutzer nach ihnen
fragen. Dies kann ein ansprechendes Nachrichtenerlebnis für viel beschäftigte Personen schaffen.

Chatbots können Umfragen durchführen, um die öffentliche Meinung einzuholen.

(AI Multiple, 2019)

Beispiel: COGNIGY.AI: Enterprise Conversational AI Plattform zum Erstellen komplexer, integrierter,


kognitiver Bots (Düsseldorf).

Viele realisierte Anwendungsfelder

Chatbot mit psychologischer Bewertung

Beispiel touristischer Bot:

• Alita von Amadeus hört Kundengespräche am Counter mit und sucht selbständig passende
Angebote heraus, während der Reiseverkäufer sich auf das Kundengespräch konzentriert.
Alita analysiert sogar Tonalität und Emotionen und ordnet so Kunden bestimmten Typen zu.
• Alexa für CheckMyTrip-Kunden Diese virtuelle Assistentin kann sich jeder im Skill Store von
Amazon runterladen und sie beantwortet dann Fragen auf Basis der CheckMyTrip-Daten
(Fragen rund um den nächsten Flug (in D und E)).
• Die folgenden Informationen können abgerufen werden:
- Flugverspätung
- Ankunfts- und Abflugzeiten
- Check-In Zeit
- Informationen zum Essen an Bord
- Abflugterminal (zu welchem Gate muss ich)
- wo kann ich parken.
- Ich kann nach Übergepäcktarif fragen oder lasse gleich einen extra Koffer buchen.

• Zur Nutzung des Skills wird ein CheckMyTrip-Account benötigt (www.checkmytrip.com)


• Reisen kannst Du in der CheckMyTrip App oder auf www.checkmytrip.com hinzufügen.
• Der Skill nutzt Open Source Software: OSIN OAuth2, (C) 2013 Rangel Reale, 3-clause BSD
• So installieren sie Alexa mit CheckMyTrip:
1. Suchen sie in Alexa Skill Store unter Skills nach CheckMytrip

2. Klicken sie auf Aktivieren

76
3. Verknüpfen sie ihr CheckMytrip-Konto oder legen sie ein neues Konto an

4. Öffnen sie den Skill mit “Alexa, öffne CheckMyTrip”.

Beispiel SAP Chatbot ED: ein digitaler Lerntutor

Beispiel: T.CON hat 2019 den Chatbot MARVIN entwickelt, der nun mit dem Maintainer Award von
T.A. Cook ausgezeichnet wurde.

Instandhaltungsmeldungen lassen sich mit dem digitalen Assistenten MARVIN (MAintenance Robot,
Very Intelligent) einfach per Sprach- oder Textdialog anlegen. Die Informationen werden sofort nach
SAP EAM übertragen und dort verbucht. Der digitale Assistent kommuniziert über ein Mobilgerät
durch Sprach- oder Texteingabe direkt mit einem Back-End-System wie SAP Enterprise Asset
Management (SAP EAM). Auf diese Weise ermöglicht er einen komfortablen und schnellen Zugang zu
Wartungs- oder Instandhaltungsinformationen. Das ist ein echter Mehrwert, den besonders
gelegentliche Nutzer zu schätzen wissen, und trägt in der Instandhaltung dem Trend zur IT-
Konsumerisierung im Zuge der digitalen Transformation Rechnung.

Anwendungsbeispiel: Auf die mündlich oder per Tastatur eingegebene Frage, welche Wartungs- bzw.
Instandhaltungsaufträge als Nächstes anstehen, recherchiert das Chatbot-Programm die
Informationen in SAP EAM und zeigt sie dem Techniker direkt auf seinem Mobilgerät an. Nach
Abschluss einer Wartung bzw. Reparatur werden die Arbeitsschritte wie auch die dafür benötigte Zeit
per Sprach- oder Texteingabe direkt an die SAP-Anwendung zurückgemeldet und dort umgehend
verbucht. In gleicher Weise lässt sich eine Störmeldung per Sprach- oder Textdialog anlegen, die
ebenfalls nach SAP EAM übertragen und sofort verbucht wird. Dank seiner Offenheit lässt sich der
digitale Assistent problemlos in Kommunikations- und Messenger-Dienste wie Microsoft Teams oder
Microsoft Skype for Business einbetten.

Chatbot Challenge von 1. 2017

• chatbot Instalocate - the best Travel chatbot


• chatbot Meekan - the best Productivity chatbot
• chatbot Foxsy - the best Social chatbot
• chatbot BFF Trump - the best Entertainment chatbot
• chatbot chatShopper - the best E-commerce chatbot
• chatbot TechCrunch - the best News chatbot

4.4. Prinzip Chatbot und padorabots.com


Als die entscheidenden Qualitätskriterien eines Chatbots lassen sich in erster Linie folgende Punkte
festhalten:

• das Einsatzfeld des Bots muss vorab eindeutig definiert werden


• die Ladezeiten sollten moderat sein
• effiziente und fehlerfreie Patternmatching- und Suchalgorithmen
• die Wissensbasis sollte mindestens so umfangreich wie nötig und so umfassend wie möglich
sein
• eine gewisse Qualität der Regeln in der Wissensbasis sollte vorhanden sein (Muster und
Antworten)
• die Wissensbasis sollte vor allem aus Wartungsgründen benutzerfreundlich organisiert sein

77
• der Bot sollte stets freundlich und keinesfalls beleidigend sein
• Folgeerkennungen, Merken des Gesprächskontextes und Eigenschaften des Users (z.B. Name
oder Wohnort) sind Features, die einem modernen Chatbot nicht fehlen sollten
• der Bot sollte abwechslungsreiche Antworten bringen, Standardsätze wie z.B. “Ich habe Ihre
Eingabe leider nicht verstanden” sollten möglichst vermieden werden
• aktive Gesprächslenkung des Bots ist wünschenswert
• Lernfähigkeit

Werkzeuge

www.pandorabots.com

Zunächst lässt man sich registrieren mit E-Mail und Passwort. Dann klickt man auf „Create a

Pandorabot“. Dann gibt man dem Bot einen Namen, wählt „Full“.

So gibt es hier das Advanced Alter Response unter dem Menüpunkt Train. Dort gibt man die Phrasen
in vordefinierten Feldern ein; der Dienst erzeugt daraus die Wissensbasis in AIML-Format.

Man kann gleich einen Testdialog führen, um herauszufinden, ob der Bot das Vokabular korrekt
verwendet.

Die virtuellen Plauderer agieren auf der Website von Pandorabots und werden auf der Website ihres
Masters verlinkt. Ihr Erscheinungsbild lässt sich unter dem Menüpunkt Custom HTML den eigenen
Bedürfnissen anpassen.

4.5 Beispiel Einsatz Chatbot in der Lehre


Beispiel in Mathematik I (entwickelt mit ALICE; Wissensbasis in AIML)

Hier gibt es eine vordefinierte Wissensbasis von Christian Drossmann mit 3000 deutschen
Gesprächsmustern – genug um eine einfache Plaudertasche zu kreieren. Dazu kommt eine
umfangreiche Mathematik I-Wissensbasis, die die Aussagen des Skriptes von Prof. Popp zu Analysis,
Lineare Algebra und Finanzmathematik abdeckt.

Im folgenden ein Auszug aus einem Dialog:

Bot: Hallo Herzlich Willkommen! Du kannst dich mit mir unterhalten, indem du das Eingabefeld
nutzt!
Student: Kannst du mir sagen, was eine Implikation ist?
Bot: Bei der Implikation....
Student: Hast du auch ein Beispiel dazu parat?
Bot: Nehmen wir z.B.....
Student: Was ist dann aber eigentlich der Unterschied zwischen Implikation und Äquivalenz?
Bot: Der Unterschied....
Student: Ok, danke!
Bot: Kein Thema.:)
Student: Tschüss!

Bot: Bis später.

78
4.6 Werkzeuge, um Chatbots mit weniger Aufwand zu erstellen: Frameworks
Für die eigene Entwicklung von Chatbots sind Frameworks sehr behilflich.
Ein Framework ist eine Plattform, auf der ein Code mit generischer Funktionalität noch weiter
spezialisiert oder überschrieben werden kann und so dem Verwendungszweck angepasst wird. Das
geschieht durch den Nutzer oder Entwickler eigenhändig. Dies bedeutet, dass die Entwicklung eines
Chatbot nicht grundlegend beginnen muss, sondern dass eine Programmierumgebung bereits eine
allgemeine Grundfunktionalität sichert. Um diese dann zu personalisieren, sprich den Chatbot für
seinen jeweiligen Use Case zu spezialisieren, muss er mit mehr Daten gefüttert werden und es werden
Frage- und Antwortpaare ergänzt. Dabei ist es nicht zwingend erforderlich eine Programmiersprache
zu beherrschen, denn einige Plattformen bieten die Möglichkeit an, die Fragen und Antworten in
natürlicher Sprache einzugeben und das Bot lernt diese automatisiert mit. Plattformen unterscheiden
sich zum einen in den Integrationsmöglichkeiten. Manche Bots lassen sich nur auf den gängigen
Messenger Plattformen wie Facebook Messenger, Slack oder Twitter anbinden, während andere nur
auf der eigenen Website laufen. Zum anderen ist natürlich der Preis eine Unterscheidungsmöglichkeit.
Viele Anbieter stellen die Software zwar völlig kostenfrei zur Verfügung, dafür aber mit bestimmten
Einschränkungen der Funktion oder mit festem Marken Branding. Andere erheben eine monatliche
Grundgebühr und wieder andere benutzen ein „pay-as-you-go“-Verfahren, bei dem die
Nachrichtenanzahl pro Monat in Rechnung gestellt wird. Bekannte Beispiele für solche Frameworks ist
aws von Amazon, das Microsoft Bot Framework, Dialogflow von Google, Pandorabots oder Chatfuel.
In diesem Zusammenhang ist es interessant den Begriff „Plattform as a Service“ oder kurz PaaS zu
erklären. Das Kürzel PaaS beschreibt einen außenstehenden Anbieter, der Software Komponenten, die
normalerweise für die Anwendungsentwicklung benötigt werden, online zur Verfügung stellt. Der PaaS
Provider hostet alles auf seiner eigenen Infrastruktur und erspart dem Nutzer so die Installierung
eigener in-house Soft- oder Hardware. Außerdem stellt der Provider meist schon fertige Datensets zur
Verfügung, so dass sich der Nutzer ganz auf die Anpassung konzentrieren kann und sich keine
Gedanken über Hosting, Infrastruktur oder andere IT-Services machen muss (Rouse, 2017)

Drei aktuelle Frameworks sind von Amazon, von Google und von Microsoft.
1. Aws powered by Amazon
Aws ist die Abkürzung für Amazon Web Services und stellt einen Geschäftsbereich von Amazon.com
dar, der unzählige Cloud-Computing-Anwendungen anbietet. Unter dem Reiter Machine Learning ist
der Service Amazon Lex zu finden. „Amazon Lex ist ein Dienst zur Erstellung von
Konversationsschnittstellen und bietet Technologien für eine automatische Spracherkennung und ein
natürliches Sprachverständnis“ (Amazon Web Services, 2020). Zusammenfassend wird hier die
Technologie, die Amazons Sprachassistenten Alexa zugrunde liegt, zugänglich gemacht. Dabei ist es
dem Nutzer möglich eigenständig in der Lex-Konsole in natürlicher Sprache ein Bot zu programmieren
und bestimmte Intents mit beispielhaften Äußerungen zu befüllen. Dieser kann sowohl Text- als auch
Spracheingaben verarbeiten. In dieser Lex-Konsole ist es ebenfalls möglich das Bot zu testen, zu
überwachen und verpasste Äußerungen (Eingaben, die das Bot nicht verstanden hat) einzupflegen.
Dann kann er an andere Datenquellen angebunden werden und auf der gewünschten Plattform live
geschaltet werden. Es ist möglich den Service erst kostenlos zu testen, so sind keine Investitionen vorab
nötig. Im ersten Jahr sind 10 000 Textanforderungen und 5 000 Sprachanforderungen kostenlos,
danach entstehen Kosten von 0,004$ pro Sprachanfrage und 0,00075$ pro Textanfrage, das heißt es
wird nur die benötigte Rechenleistung in Rechnung gestellt (Amazon Web Services, 2020). Des
Weiteren besteht die Möglichkeit weitere Produkte von Amazon zu nutzen, um das Bot mit noch mehr
Fähigkeiten auszustatten. Zum Beispiel wird das Text-to-Speech Feature mit Amazon Polly
freigeschaltet und eine realistische Sprachausgabe wird möglich. Aktuell unterstützt Amazon Lex nur
Englisch (US). Je mehr Beispiele er erhält, umso besser kann er die Intents der Anfragen zuordnen und
umso intelligenter wird er.
2. Dialogflow powered by Google

79
Das Google SDK – Software Development Kit – ist ähnlich wie bei Amazon eingebettet in viele
verschiedene Anwendungen und Ressourcen. Google Dialogflow wirbt mit herausragenden NLP
Fähigkeiten, einer riesigen Google Cloud Plattform sowie 400 Millionen Google Assistent Geräten, die
bereits weltweit im Umlauf sind (Dialogflow, 2020). Die Konfiguration des Bots erfolgt in einer
Webanwendung, die auch für User ohne technischen Hintergrund leicht zu verstehen und zu benutzen
ist und keine Programmierkenntnisse voraussetzt. Prebuilt Agents sind für bestimmte Anwendungen
und Sprachen verfügbar und downloadbar bzw. zu Dialogflow hinzufügbar. Die bereitgestellten Agents
haben bereits umgesetzte Funktionen wie z.B. Tischreservierungen im Restaurant, Abruf von
Fluginformationen, Hotelbuchungen, Online Shopping, Small Talk oder auch Support in Firmen und
das, abhängig vom Agenten, in bis zu 21 Sprachen (Dialogflow, 2020). Auch hier erfolgt die
Kostenermittlung über das pay-as-you-go-Verfahren. In der kostenlosen Version gibt es bezüglich der
Datenbank-Anbindungen oder Audio Recognition Limitierungen. In den kostenpflichtigen Versionen
wird dies aufgehoben, dafür wird zum Beispiel eine Gebühr ab 0,002$ für Textanfrage oder 0,0065$
pro 15 s Audio Recognition fällig (Dialogflow, 2020). Dank der Möglichkeit bereits vorhandene Beispiele
zu verwenden, verringert sich der Eigenaufwand. Zusätzlich ist es möglich, die verschiedenen Kanäle,
auf denen das Bot zu finden sein soll, mit nur einem Klick zu integrieren. Die Knowledge Base
Connectors unterstützen aktuell nur Englisch (US).
Microsoft Azure Bot Service
Der Azure Bot Service ist ein Produkt von Microsoft und ist ein Teil der vielen Cloud-Computing
Anwendung des Software-Riesen. Der Service steht als Open-Source SDK zur Verfügung und lässt sich
mit Hilfe der Cognitive Services und Business Logic zum intelligenten Assistenten aufbereiten. Um den
Bot zu entwickeln, stehen SDKs bereit, die die Programmiersprachen C#, Typescript oder JavaScript
unterstützen. Hier ist es jedoch nicht möglich in natürlicher Sprache die Gesprächsregeln zu
formulieren. Es kann nur mittels der oben genannten Programmiersprachen geskriptet werden. Daher
ist dieses Framework für Einsteiger nicht geeignet. Der Azure Bot Service gliedert sich in viele
verschiedene Services und der Entwickler selbst wählt aus, welches zusätzliche Feature oder welche
Funktionalität das Bot noch bekommen soll. Als Entwickler hat man die Auswahl ob der Bot als Web
Application auf Azure laufen soll oder ob man den Bot lokal auf eigenen Servern hosten möchte. Der
QnA Maker ist eine Konsole, die automatisiert FAQ-Paare von strukturierten Dokumenten extrahieren
kann. Hier wird keine Programmierung benötigt. Außerdem können einfache Multi-Turn Conversations
modelliert werden. Der QnA Maker kann später dann als Knowledge Base für den Azure Bot Service
dienen. LUIS ist die Abkürzung für Language Understanding Intelligent Service und ist für die
Spracherkennung und –verarbeitung zuständig. Zu beachten ist, dass jeder zusätzliche Service auch
zusätzliche Kosten verursacht. Eine gültige Kreditkarte muss hinterlegt werden und sobald die freien
Kontingente verbraucht sind, wird die Mehrnutzung in Rechnung gestellt. Daher ist es relativ schwierig
eine Abschätzung der Kosten zu treffen, da man zu Beginn eines Projekts nicht final festlegen kann,
welche Services benötigt werden. In der Tabelle 3 werden die Kosten für einige der gängigsten Services
dargestellt, die in Verbindung mit dem Bot Service genutzt werden.
Der Azure Bot Service ist kostenlos für beliebig viele Anfragen auf Standard Channel und 10000
Anfragen pro Monat auf Premium Channels; Das Paket Standard erlaubt beliebig viele Anfragen auf
Standard Channel und €0,422 pro 1000 Anfragen auf Premium Channels.

4.7. Ausblick
In der Zeit der Chatbots läuft ein Kaufprozess nun anders ab. Anstatt mühsam die richtige Website zu
finden und dort die Shops aufzurufen, kann der Kunde zum Beispiel über einen Messenger mit einem
Chatbot kommunizieren. Der Chatbot personifiziert im Grunde genommen einen Kundenberater, der
in Echtzeit eine Auswahl an Produkten vorschlägt und nach weiteren gewünschten Details frägt. Je
öfter ein Bot von einem User genutzt wird, desto mehr lernt der Bot über dessen individuellen
Geschmack.
80
Bots können langes Verweilen in Warteschlangen vermeiden, denn sie sind in der Lage eine große
Anzahl an Kunden gleichzeitig zu beraten. Ein Bot ist also deutlich effizienter und schneller als eine
Schar von Support-Mitarbeitern.

Allein der Gedanke, dass man mit Unternehmen genauso kommuniziert wie mit Freunden, und das
Bestreben den Messenger stetig weiterzuentwickeln, lässt die Annahme zu, dass bald jedes
Unternehmen einen eigenen Chatbot besitzen wird.

In Zukunft wird man nicht merken, ob ein Bot oder Mensch mit dem Kunden kommuniziert.
Probleme lösen, Informationen bereitstellen, Beratung, Kaufmotivation, Markenrepräsentation und
Produktvorstellung sind alles Aufgaben, die ein Chatbot in Zukunft perfekt beherrschen wird.

Als abschließendes Fazit ist zu sagen, dass die Thematik Chatbot nicht mehr aufzuhalten ist. Chatbots
sind eine Maschinerie, die die jetzige Welt vor allem im E-Commerce Bereich komplett verändern
werden.

4.7. Literatur und Kontrollfragen


Amazon Web Services. (2020). Homepage. Zuletzt abgerufen am 10. 02. 2020 von
https://aws.amazon.com/de/lex/features/
Boguschewski, Frank: Selbstredende Homepage – Pandorabots: Wenn Software antwortet. C´t 2005
Heft 12, S. 214-217.
Brandt, M. (25.04.2018). Statista. Zuletzt abgerufen am 10. 02. 2020 von Smart Assistants Are Getting
Smarter: https://www.statista.com/chart/9580/how-smart-are-smart-assistants/
Dialogflow by Google. (2019a). Overview. Zuletzt abgerufen am 10. 02. 2020 von
https://dialogflow.com/
Möbus Claus, Jessen Claudia: Web-Kommunikation mit OpenSource: Chatbots, Virtuelle Messen,
Rich-Media-Content, Berlin:Springer,2005, 320 S
Rouse, M. (2017a). TechTarget. Zuletzt abgerufen am 10. 02. 2020 von Platform as a Service (PaaS):
https://searchcloudcomputing.techtarget.com/definition/Platform-as-a-Service-PaaS
TME AG. (10.07.2018). Whitepaper "Chatbots - wie künstliche Intelligenz den Kundenservice
verbessert". Zuletzt abgerufen am 10. 02. 2020 von https://tme-ag.de/whitepaper/chatbots-wie-
kuenstliche-intelligenz-den-kundenservice-verbessert/
Weber, Sigfried: Chatbots – Die intelligente Art der Kommunikation in E-Learning. Bachelorarbeit TH
Deggendorf 2017
Kontrollfragen

1. Skizzieren Sie die geschichtliche Entwicklung von Chatbots.


Als erster Chatbot wurde Eliza im Jahr 1966 von Josef Weizenbaum veröffentlicht und simulierte
einen Psychotherapeuten. ALICE (Artificial Linguistic Internet Computer Entity) wurde im Jahr 1995
im Internet zur Verfügung gestellt – könnte aber trotz der Fortschrittlichkeit den Turing-Test nicht
bestehen. Im Jahr 2006 sorgte IBM’s Watson mit der Beantwortung von Fragen und dem Sieg in
der Show Jeopardy für Aufsehen. Als einer der ersten persönlichen Assistenten, mit dem eine
Interaktion in natürlicher Sprache möglich war, wurde Siri erstmals im Jahr 2011 in iPhones
mitgeliefert. Mit der Erscheinung von Alexa im Jahr 2015 wurde der Trend zum Smart Home weiter
gesteigert. Ein Jahr später wurde von Facebook eine Messanger Plattform zur Verfügung gestellt,
die die Erstellung von Chatbots und die Integration über den Facebook Messanger ermöglicht. Im
selben Jahr wurde durch Mircosoft auf Twitter der Chatbot Tay gestartet, der durch die Interaktion

81
mit anderen Benutzern weiterlernte. Durch das Erlernen eines rassistischen Bias wurde er aber in
nur wenigen Stunden entfernt.
2. Durch welche der folgenden Qualitätskriterien können Chatbots charakterisiert werden?
o Moderate Ladezeiten
o Eine Wissensbasis, die so umfangreich wie nötig und so umfassend wie möglich ist.
o Effiziente und fehlerfreie Patternmatching- und Suchalgorithmen
o Lernfähigkeit
o Folgeerkennungen, Merken des Gesprächskontextes und Benutzereigenschaften
3. Was versteht man unter AIML?
o Eine XML-basierte Sprache zur einfachen und schnellen Entwicklung von Wissensbasen für
Chatbots
4. Beschreiben Sie wie die Erstellung von Chatbots vereinfacht und die Qualität der Antworten
verbessert werden kann.
Anstelle Chatbots manuell zu erstellen, können sie automatisch aus Trainingsdaten gelernt
werden, die aus vielen Fragen und dazu passenden Antworten bestehen.
Um die Qualität der Chatbots zu verbessern, können Synonyme berücksichtigt werden, indem die
zu erlernenden Begriffe und Fragen mit passenden Texten in eine AIML-Tabelle eingetragen
werden. Auch Zusammenhänge zwischen Ober- und Unterbegriffen können festgelegt werden, um
z. B. bei fehlenden Detailinformationen auf vorhandene Antworten zu einem Oberbegriff
zurückzugreifen.
5. Skizzieren Sie wie der Einsatz von Chatbots den Kaufprozess verändert.
Anstelle manuell die richtige Webseite für einen Einkauf suchen, kommuniziert der Kunde über
einen Messanger mit einem Chatbot. Der Chatbot agiert als Kundenberater und schlägt dem
Kunden in Echtzeit eine Auswahl an Produkten vor und antwortet auf Fragen nach weiteren
Details. Durch die regelmäßige Nutzung lernt der Chatbot vom Benutzerverhalten und passt sich
daran an.
Da Bots eine große Anzahl an Kunden gleichzeitig beraten können, werden lange Verweildauern in
Warteschlangen vermieden. Sie sind somit deutlich effizienter und schneller als eine Schar von
Support-Mitarbeitern.
Zukünftig wird man nicht merken, ob ein Chatbot oder ein Mensch mit dem Kunden kommuniziert.
Probleme lösen, Informationen bereitstellen, Beratung, Kaufmotivation, Markenrepräsentation
und Produktvorstellung sind alles Aufgaben, die ein Chatbot in Zukunft perfekt beherrschen wird,
wodurch sich die jetzige Welt vor allem im E-Commerce-Bereich komplett verändern wird.
6. Wie kann man den Chatbot intelligenter machen?
7. Sie sollen eine Firma beraten, die einen Chatbot aufbauen will. Was schlagen sie vor?
1. Domain festlegen
2. Sich einen Überblick verschaffen, wo im Domain die Fragen und mögliche Antworten
herkommen
3. Make or Buy (komplett von Firma machen lassen)
4. Bei Entscheidung für Selbermachen Anforderungsanalyse an Software aufstellen
5. Die Webservice von aws, Dialogflow und Azure prüfen, welche für die Anforderungen am
besten passen
6. Die Wissensbasis für das ausgewählte Framework füllen
7. Testen, Testen, Testen (sehr wichtiger Bestandteil, da im Gegensatz zu einem programmierten
Algorithmus (bei dem Korrektheit leicht nachgeprüft werden kann), hier die Sichtweise
verschiedener Anwender wichtig ist)
8. Nach Korrerktur Go Live (bekannt machen, Tutorial entwickeln)
8. Nennen sie drei zukünftige Entwicklungen von Chatbots.
9. Vergleichen sie die Chatbots der großen amerikanischen Internetfirmen.

82
5. Suchverfahren und Fallbasiertes Schließen
5.1 Suchverfahren

Abb. 5/1: Überblick Suchverfahren [Haun S. 26]

Gegeben: Anfangszustand S, Menge von Operatoren,


überführen Zustand in Nachfolgezustand
Menge von Zielzuständen, oft definiert durch Zielprädikat
Kostenfunktion für Pfade (= Folgen von Operatoren)
Gesucht: Pfad von S zu einem Zielzustand (häufig: mit minimalen Kosten)

Die Menge aller von S aus durch Anwendung von beliebig vielen Operatoren erreichbaren
Zustände heißt Zustandsraum
Der Zustandsraum lässt sich als Baum repräsentieren, der S als Wurzel hat, und in dem N2
Nachfolger von N1 ist , also es einen Operator gibt, der N1 in N2 überführt.
Wir gehen davon aus, dass es nur endlich viele Operatoren gibt!
Beispiel: 8-Puzzle…….Kosten sind die Pfadlänge

Suchverfahren zeichnen sich durch zwei Eigenschaften aus:


• untersuchen aller potentiellen Lösungswege mittels einer Suchstrategie
• Diese Verfahren können nicht garantieren, dass sie nach einer Suche eine exakte Lösung bzw. ein
auf das Problem passendes Resultat liefern können.
Bei diesen Verfahren wird bewusst darauf verzichtet, unter allen Umständen die optimale Lösung zu
finden. Vielmehr gibt man sich auch mit einer nur recht guten Lösung zufrieden.

In der Praxis sind die erhaltenen Lösungen durchschnittlich 20 % schlechter als die optimale Lösung.
Man unterscheidet zwei Suchstrategien:
• bei der erschöpfenden Suche werden alle möglichen Lösungswege solange untersucht, bis eine
Lösung, falls vorhanden gefunden wird.
• bei der heuristischen Suche schränkt man den Suchraum dadurch ein, dass man vor dem
eigentlichen Suchvorgang gewisse Annahmen macht. Diese vorangestellten Annahmen
vermindern die Anzahl der zu untersuchenden Lösungswege.

83
Heuristik ist die Verwendung einer intelligenten Strategie zur Lösung eines Problems, die aber nicht
notwendigerweise zum Optimum führen muss.
Beispiel: Parkplatzsuche auf dem obersten Parkdeck

Kostenfunktion wird bei heuristischen Suchverfahren verwendet, um die Qualität einer Lösung zu
bestimmen. Mit einer Kostenfunktion kann man für jeden Knoten im Suchbaum seine Kosten
bestimmen.
Die verschiedenen Suchverfahren unterscheiden sich nun darin, in welcher Reihenfolge die Knoten
besucht werden.
• Erschöpfende Suchverfahren zeichnen sich dadurch aus, dass sie den ganzen Suchbaum nach einer
bestimmten Systematik durchsuchen. (blind search)
• Bei der Tiefensuche steigt man schnell in den Suchbaum hinunter, indem von der Wurzel
beginnend immer in die Richtung des linken Nachfolgerknotens weitergesucht wird. Stößt man
auf ein Blatt, das das Ziel markiert´, ist die Tiefensuche beendet. Anderenfalls wird rekursiv zum
letzten besuchten Knoten zurückgegangen und es werden andere mögliche Nachfolger dieses
Knotens von unten beginnend nach dem gleichen Prinzip untersucht. Durch eine solche
Vorgangsweise werden alle Knoten des Suchbaums aufgesucht. Das Finden einer Lösung ist
somit garantiert.
Beispiel
Anhand des Frühstückbeispiels bedeutet dies folgendes:
Problem: Suchen einer optimalen Zusammenstellung der Speisen und Getränke für ein Frühstück
Potentielle Lösungswege: Alle möglichen Speisen- und Getränkekombinationen, die für ein Frühstück
in Frage kommen.
Strategie: Überprüfung jeder Speisen- und Getränkekombination, ob sie für ein Frühstück in Frage
kommt.
Ergebnis: Das System präsentiert Kaffee und Orangensaft (Haun, S. 25)

Heuristiken am Beispiel 8-Puzzle


h1: Anzahl der Plättchen in falscher Position
h2: Summe der Entfernungen aller Plättchen von ihrer Zielposition gemessen in notwendigen
Operationen (Manhattan distance)
h1(n) = 6
h2(n) = 0 + 3 + 1 + 1 + 0 + 3 + 1 + 2 = 11
h2 ist näher am aktuellen Wert und führt schneller zum Ziel

Abb. 5/2: Rundreiseproblem als Suchproblem

84
Beispiel für die Suche: Reise (siehe Abb. 5/2)
Angenommen wir wollen mit dem Auto eine Ausflugsreise antreten. Wir starten von Weppen und
unser Ziel ist Neuhausen. Unser Bestreben ist es nun, eine bestimmte Route auszuwählen, deren
Länge vom Start- zum Zielort möglichst gering ist. Das Problem ist aus der Straßenkarte in diesen
Zustandsgraphen abgebildet. Die dazwischenliegenden Orte seinen mit A,B,... bezeichnet.
Der Suchbaum zeigt, dass die Verästelung nach rechts zunimmt. Die Wurzel des Suchbaumes ist der
Standort der Reise und an den Blättern des Baumes ist entweder Weppen oder Neuhausen
einzutragen. Ist das Blatt Neuhausen, wird dies als gültige Reise definiert.

Beispiel Travelling Salesman


Verkäufer hat n Städte zu besuchen, jede genau 1 mal, muss dann zum Ausgangspunkt A zurück.
Ziel: minimiere zurückgelegte Gesamtstrecke
Zustände: Liste der bisher von A aus besuchten Städte (anfangs leer)
Zielzustand: Liste, die alle Städte enthält und mit A endet, Strecke minimal
Operatoren: Füge noch nicht besuchte Stadt am Ende der Liste ein

Beispiel; Genetische Algorithmen


Individuen vor dem Cross-over

Indiv. i:

v1(i) v2(i) ... vd(i) vd+1(i) ... vk(i)

Indiv. j:

v1(j) v2(j) ... vd(j) vd+1(j) ... vk(j)

Anwendung des

Cross-over-Operators
Individuen nach dem Cross-over

Indiv. i:

v1(i) v2(i) ... vd(i) vd+1(j) ... vk(j)

Indiv. j:

v1(j) v2(j) ... vd(j) vd+1(i) ... vk(i)

Abb. 5/3: Cross-over-Operator

▪ Versuch, natürliche Evolutionsprozesse nachzubilden


▪ Nicht einzelne Lösung verbessert, sondern Population von Lösungen

85
▪ Sowohl zufällige Änderungen (Mutationen) als auch Kreuzungen (Cross-over) (siehe Abb.
5/3)
▪ Lösungen mit besten Bewertungen (Fitness) überleben
Erzeuge zufällige Anfangspopulation von Lösungen P = {a1, …, am};
Repeat
erzeuge bestimmte Anzahl zufälliger Mutationen der Lösungen in P;
erzeuge bestimmte Anzahl zufälliger Kreuzungen von Paaren in P;
wähle die m besten Lösungen aus und weise sie P zu
Until keine weitere Verbesserung der Fitness;
Gib die beste Lösung in P aus.

5.2 Fallbasiertes Schließen (Case Based Reasoning)


Ein Fall ist eine irgendwie geartete Erfahrung beim Lösen eines Problems. Die Beschreibung einer
Erfahrung ist oft erst einmal informal gegeben und sie betrifft gewöhnlich sowohl die
Problemstellung wie die erarbeitete Lösung. Darüber hinaus werden aber oft auch Erklärungen,
wichtige Teile des Lösungsweges usw. als nützlich erkannt und mitgeliefert. Die Nutzung einer
solchen Erfahrung, eines solchen Falls, besteht darin, die Lösung auf ein neues, aktuelles aber
hinreichend ähnliches Problem anzuwenden.

Eine Menge von gut gelösten Fällen bildet meine Fallbasis. Hat man ein konkretes Problem, wandelt
man es in einen Fall um und sucht mittels Ähnlichkeitsmaßen in der Fallbasis nach den ähnlichsten
gelösten Fall. Die Verwendung einer so erhaltenen Lösung kann einmal so geschehen,
• dass sie unverändert übernommen wird, dann spricht man von fallbasierten Retrieval
• oder, dass sie geeignet adaptiert wird, das ist fallbasiertes Schließen.
Erst wenn die Fallbasis genügend umfangreich ist, arbeitet das System zufriedenstellend.

Dieses fallbasierte Schließen ist auch die Vorgehensweise vieler Menschen. Anwendungsgebiete sind
Diagnostik, Helpdesk-Bereich und Verkauf. Vor allem für die Nachverkaufsphase haben sich Help-
Desk- und Call-Center-Systeme bewährt, die auf dem CBR-Prinzip beruhen: Es werden historische
Fälle gespeichert und mit einer „intelligenten“ Prozedur diejenigen gefunden, die zumindest
teilweise Lösungselemente zu einem gegebenen Problem bieten.

Ein Case (Fall), siehe Abb. 5/4, ist eine Erfahrung beim Lösen eines Problems. Die Erfahrung betrifft
Problemstellung und erarbeitete Lösung. Hier sieht man so eine formalisierte Beschreibung eines
Falls mit Problem und Lösung und den Eigenschaften.

Abb. 5/4: Fall

86
Fragestellungen bei der Entwicklung eines CBR-Systems

• Welche Fälle kommen in die Datenbank?


• Wann sind zwei Fälle ähnlich?
• Wie sucht man effizient nach Fällen?
• Welche Art von Lösung ist erwünscht?
• Wie wird eine Lösung verifiziert?

Abb. 5.5: Festlegung des Ähnlichkeitsmaßes bei einer Eigenschaft

Zuweisung von Ähnlichkeiten für Merkmalswerte: Zahl zwischen 0 und 1 (siehe Abb. 5.5)
Beispiele:
- Merkmal: Problem
Scheinwerfer funktionieren nicht 0,8 Bremslicht funktioniert nicht
Scheinwerfer funktionieren nicht 0,4 Motor startet nicht
- Merkmal: Batteriespannung
12,6 V 0,9 13,6 V
12,6 V 0,1 6,7 V
Verschiedene Merkmale haben verschiedene Bedeutung
- Hohe Bedeutung: Problem, Batteriespannung, Status der Lichter, ...
- Wenig Bedeutung: Auto, Baujahr, ...
Ähnlichkeitsberechnung erfolgt daher mit gewichtetem Durchschnitt
• Ähnlichkeiten (neu, Fall 1) = 1/20 *[6*0,8 + 1*0,4 + 1*0,6 + 6*0,9 + 6*1,0] = 0,86

Ein neues Problem muss gelöst werden


• Wir machen verschiedene Beobachtungen in der jetzigen Situation
• Die Beobachtungen definieren ein neues Problem
• Nicht alle Merkmalswerte müssen gekannt werden
Das neue Problem ist ein „FALL“ ohne Lösungsteil.
Das neue Problem wird mit allen anderen Fällen verglichen und der Fall, der am ähnlichsten ist, wird
ausgewählt:
In Abb. 5.6 sieht man rechts einen Fall und links ein aktuelles Problem, für das der ähnlichst
gespeicherte Fall gesucht wird.

87
Abb. 5.6: Beispiel eines Falles und suche nach dem ähnlichsten Problem

In einem Prototyp für die KSB AG konnte gezeigt werden, wie sich das Wissen, das Konstrukteure und
Vertriebsingenieure im Kraftwerksbau generiert haben, für neue Aufgaben mithilfe von CBR
reaktivieren lässt.

Die Vorteile von CBR-Systemen sind deren Flexibilität, Robustheit und die Fähigkeit zu
inkrementellem, beständigem Lernen: Jedes Mal, wenn ein Problem gelöst wird, kann das Tupel
„Problem-Lösung“ als neue Erfahrung abgespeichert werden.

5.3 Kontrollfragen
1 Was ist Fallbasiertes Schließen
2 Skizzieren sie Anwendungen von Fallbasiertes Schließen.
3 Skizzieren sie zwei wichtige KI-Methoden!
4 Erläutern Sie die Funktionsweise von 'Suchverfahren'.
5 Wie kann der Begriff 'Heuristik' definiert werden?
6 Erläutern Sie das Konzept der Kostenfunktion bei den heuristischen Suchverfahren.
7 Beschreiben sie genetische Algorithmen als Suchproblem.

6. Überblick Software-Agenten (Josef Schneeberger)


Motivation
In Stanley Kubricks berühmten Science Fiktion Film "2001 Odyssee im Weltall" gibt es einen
intelligenten, wissensbasierten Computer, der HAL 9000 heißt. Dieser Computer soll zusammen mit
den Astronauten eine Weltraummission ausführen. HAL hat einige herausragende Eigenschaften:
• HAL beobachtet die Funktionen des Raumschiffs.
• Er übernimmt wichtige Funktionen, während die Astronauten mit anderen Dingen beschäftigt
sind oder schlafen.
• Er wendet sich selbständig an die Astronauten, wenn er eine wichtige Beobachtung macht,
z.B. wenn sich ein Defekt ankündigt.
Mit diesen Eigenschaften kann man HAL als einen Agenten bezeichnen, und das Programm ist damit
ein Software-Agent. Ein Software-Agent ist also ein System, das selbstständig und im Auftrag eines
Menschen handelt, das eine gewisse Kompetenz hat Entscheidungen zu treffen, und das mit anderen
Agenten – und insbesondere auch mit Menschen – interagiert.
Folgende Themen werden präsentiert:
1. Eine genauere Charakterisierung des Begriffs Software-Agent.
2. Eigenschaften solcher Systeme. Diese Eigenschaften unterscheiden sie von anderen
Softwaresystemen wie zum Beispiel Expertensystemen.

88
3. Eine Diskussion, wie ein Software-Agentenen-System aufgebaut bzw. programmiert werden kann,
so dass es tatsächlich die beschriebenen Eigenschaften hat.
4. Beispielanwendungen, in denen Agentensysteme eingesetzt werden können.

Agentensysteme werden allerdings noch nicht im großen Stil in der Praxis eingesetzt.
Insbesondere dann, wenn man von intelligenten d.h. wissensbasierten Agentensystemen spricht, dann
findet man interessante Beispiele vor allem noch in den Forschungslabors. Dazu kommt, dass
Agentensysteme nicht als eigenständige Softwarepakete auftreten, sondern dass sie in andere Systeme
eingebettet sind.
Die bekanntesten Beispiele für einen Softwareagenten sind vielleicht die kleine Helferlein – in
Form einer anderen animierten Figur – die einem Tipps bei der Verwendung der Software geben
sollen. Dahinter steckt das Konzept eines Agenten, der einen bei der Arbeit beobachtet und Tipps gibt,
wie man besser mit der Software umgeht bzw. wie man bestimmte
Arbeitsschritte besser bewältigen kann.

6.1 Begriffsbestimmung: Was ist ein Software-Agent?


Zunächst soll ein Beispiel für einen Software-Agenten eingeführt werden, an dem verschiedene
Eigenschaften solcher Systeme demonstriert werden können. Im Internet kann man an Auktionen
teilnehmen. Eine solche Auktion läuft normalerweise über mehrere Tage, man kann Gebote abgeben,
und wer nach Ablauf der Frist das höchste Gebot gegeben hat, der bekommt den Zuschlag. Stellen wir
uns vor, wir wollen eine Kiste kalifornischen Rotweins erwerben, die Auktion findet in den USA statt,
und der Endtermin liegt mitten in der Nacht, wenn wir wahrscheinlich im Bett liegen und schlafen. In
diesem Fall kann man einen Agent für die Teilnahme an der Auktion benutzen. Solche Agenten gibt es
in einfacher Form schon, man teilt ihnen mit was man ersteigern kann und welcher Betrag maximal
ausgegeben werden darf.
Agent und Umgebung
Wichtig ist der Zusammenhang zwischen einem Agenten und seiner Umgebung. Ein
Software-Agent ist ein Programm, das seine Umgebung wahrnimmt, und das in dieser
Umgebung agiert. Es gibt also kein Agentensystem, das sich in einer beliebigen Umgebung
zurechtfindet. Ein System zur Teilnahme an einer Auktion, kann normalerweise nicht bei der
Benutzung eines Textverarbeitungsprogramms helfen. Man spricht auch vom "eingebettet" sein des
Agenten in seine Umgebung. Agent und Umgebung bilden also eine Einheit.
Wahrnehmung
Aktionen
Agent
Umgebung
Effektoren
Sensoren
Ein Agent interagiert mit seiner Umgebung, d.h. der Agent nimmt seine Umgebung wahr, er kann
Eigenschaften der Umgebung erkunden, wobei er einige Aspekte erkennt und andere
nicht. Beispielsweise könnte der Auktionsagent nur auf Weinauktionen spezialisiert sein und er würde
andere Auktionen, z.B. für Kühlschränke vollständig ignorieren. Der Agent kann Aktionen ausführen,
er kann Gebote abgeben und er kann sich vielleicht mit anderen Bietern in Verbindung setzen. Für die
Wahrnehmung benötigt der Agent Sensoren. Wir Menschen haben u.a. Augen und Ohren um unsere
Welt wahrzunehmen und ein Roboter hat vielleicht eine Videokamera. Der Auktionsagent kann mit
Hilfe von Computerbefehlen Eigenschaften und Parameter im virtuellen Auktionshaus abfragen. Um
Aktionen auszuführen benötigt der Agent Effektoren – bei einem Roboter wäre das vielleicht ein Arm,
mit dem er Gegenstände greifen kann oder der Roboter hat Räder, mit denen er sich in seiner
Umgebung bewegen kann. Bei der Auktion sind die Effektoren wieder Computerbefehlen, mit denen
der Agent aktiv wird.
Wenn es sich um einen reinen Software-Agenten handelt, dann ist der Agent ausschließlich Software.
Aber auch seine Umgebung besteht dann wiederum aus Software. Nehmen wir wieder den
Auktionsagenten, der natürlich ein Programm ist. Aber auch die Auktion selbst wird durch ein
Programm abgewickelt, d.h. der Auktionator bzw. das virtuelle Auktionshaus ist ausschließlich
Software. Typische Umgebungen für Softwareagenten sind zum Beispiel das Betriebssystem eines
89
Computers oder aber auch das Internet, wobei der Agent dann auf Ressourcen im Internet zugreifen
kann. Die Sensorik eines solchen Agenten sind dann Instruktionen bzw. Befehle, mit denen der Agent
Eigenschaften der Umgebung in Erfahrung bringen kann. Im Falle der Auktion kann der Agent den
aktuellen Stand der Gebote ermitteln und er kann beispielsweise feststellen, ob er überboten wurde.
Genauso verhält es sich mit den Effektoren, das sind Instruktionen, mit denen zum Beispiel ein Gebot
abgegeben werden kann.
Warum nennt man solche Systeme Agenten? Eigentlich stellt man sich im deutschen Sprachgebrauch
unter einem Agenten etwas anders vor. Man denkt vielleicht an James Bond oder einen Privatdetektiv,
auf jeden Fall geht es um geheime Aktivitäten, die vielleicht sogar illegal sind. Es geht auch nicht um
Personen, die Software ausspionieren. Auf deutsch würden man vielleicht besser von einem Akteur
oder von einem Assistenten sprechen. Im englischen Sprachraum wird der Begriff "Agent" allerdings
in diesem Sinn verwendet. So nennt man beispielsweise einen Versicherungsvertreter oder einen
Immobilienmakler, der eine Wohnung suchen soll, einen Agent. Diese Bedeutung haben wir auch zum
Beispiel bei einer Konzert- oder Künstleragentur. Der Agent wird vom Künstler beauftrag, nach
Engagements zu suchen und diese zu vermitteln. In vielen Bereichen der Informatik hat sich der
Begriff Agent eingebürgert. Beispielsweise bezeichnen die Informatiker, die sich mit der Technologie
des WWWs befassen, auch einen Internet-Browser als "User-Agent", also ein Programm, das für einen
Benutzer Internetseiten holt.

6.2 Eigenschaften eines Agenten


Kommen wir nun zu einer ersten Definition von Agentensystem: Ein Agentensystem unterscheidet
sich durch vier Eigenschaften von anderen Software-Systemen: Autonomie,
Proaktivität, Reaktivität und Kommunikationsfähigkeit.
1. Ein Agentensystem ist autonom, d.h. es handelt in bestimmten Grenzen selbstständig.
2. Es ist proaktiv, d.h. das Agentensystem hat ein oder mehrere Ziele, die es aktiv verfolgt und zu
erreichen versucht.
3. Reaktivität bedeutet, dass die Umwelt wahrgenommen wird und der Agent auf sie reagiert.
4. Kommunikation ist notwendig, um mit anderen Agenten zu interagieren.

Wichtig dabei ist, dass alle diese vier Eigenschaften erfüllt sein müssen, damit man von einem
Agentensystem sprechen kann. Wenn nur eine dieser Eigenschaften fehlt, dann hat man es mit
einer anderen Software Kategorie zu tun.
Die vier Eigenschaften sollen noch etwas genauer beleuchtet werden. Autonomie bedeutet, dass das
System nicht durch einen Menschen gesteuert werden muss. Bei der schon genannten
Internetauktion muss der Benutzer also nicht mehr jedes Gebot einzeln abgeben, sondern es genügt,
dass er einen Auftrag zum Mitsteigern gibt, und er legt natürlich eine Obergrenze fest, wie viel Geld
ausgegeben werden darf. Autonomie ist wichtig, weil der Auftraggeber vielleicht selbst keine Zeit hat,
die Auktion zu beobachten und immer wieder aktiv zu werden, um ein neues Gebot abgeben zu
können. Autonomie kann aber auch wichtig sein, wenn nicht jederzeit eine Verbindung möglich ist,
d.h. wenn sich der Auftraggeber unserer Auktion nicht am Computer befindet. Welche Aktionen
autonom ausgeführt werden können, hängt natürlich von der Programmierung des Agenten ab.
Ein weiteres schönes Beispiel für die Autonomie eines Agenten war der kleine Roboter, der von der
NASA auf den Mars gebracht worden ist. Die Entfernung zwischen der Bodenstation der NASA und
dem Roboter war so groß, dass eine Nachricht zum Roboter 10 Minuten benötigte. Dadurch wurde es
unmöglich, diesen Roboter etwa wie ein Spielzeugauto fernzusteuern. Der Roboter musste also selbst,
d.h. autonom steuern, und die NASA hat ein aar mal am Tag allgemeine Instruktionen zum Mars
geschickt. Ein weiteres sehr bekanntes Beispiel sind die NASA "Deep Space" Missionen. Dabei geht
es um Rausonden, die irgendwann unser Sonnensystem verlassen sollen.
Reaktivität: Agenten sollen angemessen auf die Veränderungen ihrer Umgebung reagieren.
Zunächst einmal ist es so, dass fast alle interessanten Umgebungen dynamisch sind, d.h., dass sie sich
permanent verändern, und dass nicht alle Veränderungen auch wahrgenommen werden können.
Gerade wir Menschen haben eine hervorragende Fähigkeit nur die Veränderungen unserer Umgebung
wahrzunehmen, die für uns in der aktuellen Situation wirklich relevant sind. Reaktivität bedeutet also,
dass ein Agent auf Veränderungen reagiert, und zwar angemessen reagiert. Angemessen heißt, dass
die Reaktion insbesondere rechtzeitig erfolgt. Es nützt nichts, wenn der Internetagent ein Gebot abgibt,
90
aber die Auktion inzwischen beendet ist. Außerdem sollte das Gebot nur so hoch sein, wie es
unbedingt erforderlich ist.
Insbesondere die "Rechtzeitigkeit" kann für Programme eine recht harte Bedingung sein. Man stelle
sich etwa einen Schachcomputer vor, der ein Blitzschachspiel führen soll. Dabei kommt
es außer auf die Qualität der Züge auch noch auf die Geschwindigkeit an. In so einem Fall muss dieser
Schachagent in die Lage versetzt werden, dass er nicht den besten, sondern einen möglichst guten Zug
in kurzer Zeit findet. D.h. das System muss eine schnelle aber suboptimale Antwort oder Aktion
finden, wenn die optimale Antwort zu viel Zeit in Anspruch nehmen würde.
Die nächste Eigenschaft ist Proaktivität. Proaktivität bedeutet, dass ein Agent von sich aus aktiv wird,
d.h. Aktionen ausführt. Um eine vernünftige Entscheidung für eine bestimmte Aktion treffen zu
können, muss der Agent eine Beschreibung des Ziels haben, dem alle auszuführenden Aktionen
dienen sollen. Das Beispiel sei wieder der Auktions-Agent: Sein Ziel ist es selbstverständlich, dass die
Ware ersteigert wird. Ein weiteres Ziel ist aber auch, dass er so wenig Geld wie möglich ausgibt. Um
diese Ziele zu erreichen, gibt der Agent Gebote ab, oder aber auch nicht, wenn der Preis zu teuer
geworden ist. An diesem Beispiel kann man sehen, dass Ziele widersprüchlich sein können. Die
Höchstgrenze für Gebote steht im Widerspruch zum Erwerb der Ware. Um mit solchen
Widersprüchen umgehen zu können, werden Techniken zur Repräsentation unscharfen Wissens
eingesetzt, wie beispielsweise die Fuzzylogik.
Proaktivität bedeutet also, dass ein Agent Aktionen aus Zielen ableiten kann. Diese Eigenschaft ist für
den Benutzer ausgesprochen praktisch, für Agentensoftware aber auch schwierig zu realisieren. Im
Fall der Auktion bedeutet es, dass ich dem Agenten einfach mitteile: "Ich will diese Kiste Wein" und
ich brauche mich nicht darum zu kümmern, dass man sich vielleicht erst bei der Aktion anmelden
muss, wie Gebote abgegeben werden, oder wie am Ende die Bezahlung abläuft. Damit aber ein Agent
diese Schritte ausführen kann, muss er in der Lage sein eine Planung durchzuführen. Planung heißt,
dass er ein Ziel operationalisiert, dass er die richtigen Aktionen auswählt und in der richtigen
Reihenfolge ausführt, und dass er vielleicht alternative Aktionen berechnet, wenn die ursprünglichen
Aktionen offensichtlich nicht zum Ziel führen.
Bei der Kommunikation unterscheidet man zwischen der Kommunikation mit dem Benutzer,
also einem Menschen, und der Kommunikation zwischen mehreren Agenten, also zwischen
Programmen.
Im Falle der Kommunikation zwischen dem Benutzer und dem Agenten wird im Idealfall natürliche
Sprache verwendet, d.h. der Benutzer muss keine Kommandos erlernen, sondern er kann mit seinen
Worten Aufträge formulieren. Wenn die Kommunikation mit gesprochener Sprache erfolgt, dann
benötigt man zusätzlich noch Spracherkennung. Die Eingabe von natürlicher, mit der Tastatur
getippter Sprache findet man heute schon bei Verkaufsassistenten.
Für die Kommunikation zwischen mehreren Agenten ist eine Kommunikation in natürlicher
Sprache natürlich nicht notwendig, das wäre auch viel zu aufwendig, da Sprachverarbeitung große
Computerressourcen erfordert. Für die Kommunikation zwischen Agenten wird eine Art
Programmiersprache – eine formale Sprache – verwendet, die man Agenten-Kommunikationssprache
nennt. Für eine solche allgemeine Sprache gibt es bereits einen internationalen Standard (KQML). Die
Nachrichten dieser Sprache werden nach formalen Vorschriften formuliert, so dass die Nachrichten
auch von einem Agenten verstanden werden können, der vielleicht von einem anderen Programmierer
implementiert wurde.

6.3 Rationaler Agent


Wenn ein Agent ein hilfreicher Assistent sein soll, dann muss er sich vernünftig, d.h. rational
verhalten. Dies führt zum Begriff des "idealen" rationalen Agenten:
"Ein idealer rationaler Agent verhält sich so, dass er für jede mögliche Folge von
Wahrnehmungen seinen Erfolg maximiert. Seine Aktivitäten beruhen auf den
Wahrnehmungen und dem Wissen über das er verfügt."
Ein Agent sollte also die Vergangenheit wahrnehmen. Ereignisse oder Dinge, die in der
Vergangenheit vom Agenten bemerkt bzw. gesehen wurden, müssen durch den Agenten
registriert und erinnert werden. Die registrierte Vergangenheit soll danach in die Aktionen des
Agenten einfließen. Von einem Auktionsagenten würden man z.B. erwarten, dass er sich
darüber bewusst ist, bei welchem Gebot er eingestiegen ist, und welche Gebote er selbst
91
abgegeben hat.
Ein rationaler Agent muss Wissen über seine Handlungsmöglichkeiten haben. Ein Agent kann
eine Reihe von Aktionen ausführen, und er muss sich darüber bewusst sein, dass er diese
Möglichkeiten hat. Dieses Wissen ist natürlich Vorraussetzung für planvolles Handeln.
Für Rationalität ist Wissen über die Umgebung notwendig. Außerdem muss der Agent
bewerten können, ob er in Bezug auf das gesetzte Ziel erfolgreich handelt.
Ein rationaler Agent ist also ein wissensbasiertes System, das seine Umgebung und
Handlungsmöglichkeiten kennt, und das sich an vorangegangene Situationen erinnert.

6.4 Architektur eines Softwareagenten


Ganz grundsätzlich gibt es bei Agentensystemen zwei softwaretechnische
Aufgabenstellungen:
1. Wie wird ein einzelnes Agentensystem aufgebaut und welche Komponenten sind
enthalten und wie spielen diese Komponenten zusammen.
2. Wie kann man Systeme mit vielen Agenten aufbauen, bei denen mehrere Agenten
zusammen eine Aufgabe gemeinschaftlich lösen.
Bei einem Softwareagenten unterscheidet man verschiedene Typen von Architekturen. Es gibt
symbolische, wissensbasierte Agenten, die ihr Wissen explizit in einer Wissensbasis enthalten.
Außerdem gibt es sog. reaktive Agenten. Dann gibt es noch eine dritte Form, die eine Mischform der
beiden erstgenannten Ansätze darstellt. Eine Hybride Architektur kombiniert also eine symbolische
mit einer reaktiven Architektur, denn symbolische und reaktive Systeme haben spezifische Vorteile,
und man versucht diese Vorteile miteinander zu kombinieren.

6.4.1 Wissensbasierte, deliberative Agentenarchitekturen


Ein Agent interagiert mit seiner Umgebung, indem er mit seiner Sensorik Wahrnehmungen
macht und mit seinen Effektoren handelt. Was muss ein Agentenprogramm tatsächlich tun?
Zunächst ist das sehr einfach: aus den Sensorwerten muss eine geeignete nächste Aktion
berechnet werden.
Die Auswertung von Sensoren ist nicht 100%ig zuverlässig. Eine Kamera kann zum Beispiel
ein unscharfes Bild aufnehmen und das Programm zur Erkennung von Gegenständen kann ein
falsches Ergebnis liefern. Eine vergleichbare Situation kann auch bei Softwareagenten
auftreten, wenn z.B. die Internetverbindung zeitweise unterbrochen ist. Außerdem kann der
Software-Agent sehr viele verschiedene Informationen zu allen gerade laufenden Auktionen
erfragen. Aus all diesen Informationen muss der Agent die wirklich interessanten Details
ermitteln, etwa den aktuellen Stand der Auktion, an denen der Auftraggeber interessiert ist.
Diese Zusammenfassung der wichtigen Informationen aus allen möglichen wahrgenommenen
Informationen wollen wir hier als die aktuelle Weltsicht des Agenten bezeichnen.
Aus der Weltsicht muss nun der Agent eine geeignete Aktion berechnen. Im Falle der
Internetauktion gibt es vielleicht nicht sehr viele mögliche Aktionen. Eine Aktion wird
sicherlich das "Bieten" sein, und es muss der Betrag für das Gebot berechnet werden. Eine
weitere Aktion könnte zum Beispiel sein, dass Agent einfach abwartet, wie sich die Auktion
entwickelt, da noch viel Zeit bis zum Ablauf der Bietfrist vergehen wird. Außerdem gibt es
sicher noch Aktionen zum an- und abmelden bei einer Auktion.
Wie kann also aus der Weltsicht eine geeignete Aktion berechnet werden? Eine ganz simple
Lösung wäre, dass der Agent eine Tabelle enthält, in der alle möglichen Weltsichten erfasst
sind. Zusätzlich wird in der Tabelle zu jeder Weltsicht immer die richtige Aktion eingetragen.
Der Agent braucht dann nur in dieser Tabelle nachsehen und die richtige Aktion ablesen.
Dieses Vorgehen ist allerdings nicht praktikabel, da eine solche Tabelle sehr groß wäre. Eine
besser Lösung ist es, wenn-dann-Regeln zu verwenden. Solche Regeln nehmen im wenn-Teil
Bezug auf die (Eigenschaften der) Weltsicht des Agenten, und im dann-Teil wird dann eine
geeignete Aktion spezifiziert. Zum Beispiel könnte so eine Regel lauten:
Wenn das höchste Gebot von einem anderen Agenten abgegeben wurde,
und wenn mein maximales Limit noch nicht erreicht ist,
und wenn bis zum Ablauf der Auktion nur noch eine kurze Frist bleibt,
dann erhöhe das Gebot um den minimal möglichen Betrag.
92
Abb. 6/1 zeigt den Schematischen Aufbau eines wissensbasierten Agenten. Funktionen sind durch
Rechtecke dargestellt und Informationsspeicher durch Zylinder (Tonnen). Die einzelnen Komponenten
werden nachfolgend genauer beschrieben.

Abb. 6./1: Schematischer Aufbau eines wissensbasierten Agenten

Der Speicher versetzt den Agenten in die Lage, die Vergangenheit zu berücksichtigen. Eine
einfache Möglichkeit wäre es, die Sensorwerte aufzuzeichnen. Besser ist es allerdings, wenn
nicht die Folge der rohen Sensorwerte abgespeichert wird, sondern wenn die bereits
ausgewerteten Sensorinformationen registriert werden. Mit dieser zusätzlichen Information
kann man auch die Berechnung der Weltsicht verbessern. Zur Einschätzung der aktuellen
Situation zieht man nicht nur die rohe Sensorinformation heran, sondern auch die
abgespeicherten Weltsichten. Im Speicher wird auch die jeweils ausgewählte Aktion
gespeichert. Damit ist auch zu einem späteren Zeitpunkt klar, welche Aktion in welcher
Situation ausgewählt wurde.
Um die Anforderungen der Rationalität zu erfüllen, muss das Agentenmodell erweitert
werden. Die "Bewertung" ist ein Unterprogramm, das die aktuelle Weltsicht abschätzt. Das
könnte im einfachsten Fall ein Programm sein, das zur jeweiligen Weltsicht einen Zahlenwert
berechnet - die Note 1 für sehr gut, was so viel heißt, wie "das Ziel ist erreicht" - und die Note
6 für sehr schlecht, was vielleicht zur Beendigung aller Aktivitäten führen könnten, weil das
Ziel nicht mehr zu erreichen ist. Zur Bewertung müssen das Wissen und die Ziele des Agenten
verwendet werden.
Die Wissensbasis dieses Agentenmodells hat also drei oder vier Teile: Erstens enthält sie die
Historie der Weltsichten und ausgeführten Aktionen. Zweitens gibt es eine explizite,
symbolische Repräsentationen der Ziele und des Umweltwissens des Agenten, und drittens
gibt es die Menge von Aktionsregeln. Auch das Wissen über die Umwelt kann übrigens in
Form von Regeln kodiert werden.
Damit wurde eine Prinzipskizze eines einfachen rationalen Agenten erstellt. Alle
beschriebenen Funktionen können allerdings sehr komplex sein. Es ist völlig klar,
dass sich ein solches Programm nicht in wenigen Zeilen Programmcode hinschreiben lässt.
Man findet allerdings im Internet Programmpakete bzw. Programm-Biotheken, die zur
Programmierung von Agenten konzipiert wurden. Diese Bibliotheken sind meist in der
Programmiersprache Java erstellt, denn Java ist besonders gut für Systeme geeignet, die
gleichzeitig viele miteinander interagierende Prozesse enthalten.

6.4.2 Reaktive Architekturen


Eine alternative Möglichkeit zur softwaretechnischen Realisierung eines Agenten stellen die
sog. "reaktiven Architekturen" dar. Diese Systeme nennt man reaktiv, weil sie sich besonders
gut für sehr dynamische Anwendungsbereiche eignen.
93
Die bekannteste reaktive Architektur ist die sogenannte Subsumptionsarchitektur. Sie heißt
Subsumptionsarchitektur, weil sie aus einer Hierarchie von Verhalten aufgebaut wird, die sich
gegenseitig überlagern. Was ist sein Verhalten? Dieses Konzept wurde bei einfachen
Lebewesen abgeschaut, etwa bei einer Ameise, die sich auf einer Ameisenstraße bewegt, und
die immer wieder so die Richtung verändert, so dass sie ihren Weg auf der Ameisenstraße
einhält. Dieses Verhalten wird überlagert, wenn diese Ameise einer anderen Ameise begegnet
und sich die Ameisen gegenseitig ausweichen. Ein weiteres Verhalten käme etwa hinzu, wenn
die Ameise einen Gegenstand transportieren muss. Man kann sich ein Verhalten als eine
kleines Programm vorstellen, das in einer Endlosschleife läuft und das immer wieder eine
bestimmte Aktion wiederholt.
Bei einem wissensbasierten Agenten erfolgt die Verarbeitung der Sensorinformation in einer
Kette von aufeinanderfolgenden Funktionen, die jeweils die Ergebnisse der vorangehenden
Stufen benötigen. Als Ergebnis kommt dann am Ende eine Aktion heraus, die mit den
Effektoren ausgeführt werden kann. Da die Funktionen nur eine nach der anderen ausgeführt
werden können, benötigt die Verarbeitung so lange, bis alle Funktionen nacheinander
abgeschlossen sind. Dazu kommt, dass die Berechnung insgesamt fehlschlägt, wenn nur eine
Teilfunktion kein Ergebnis liefert.
Diese Verarbeitungskette wird nun durch die Hierarchie von Verhalten ersetzt. Niedrigere
Schichten in der Hierarchie entsprechen einfacheren Verhalten, während höhere Schichten
komplexere Verhalten realisieren, wie es das Beispiel mit der Ameise illustriert hat.
Die Eigenschaften einer Subsumptionsarchitektur:
 Sie besteht aus einer Hierarchie von Verhalten, und jedes Verhalten hat eine einfache
regelähnliche Struktur.
 Niedrigere Schichten entsprechen einfacherem Verhalten und die einzelnen Schichten
werden so implementiert, dass sie möglichst unabhängig voneinander sind. Dadurch
können sie parallel ausgeführt werden, und sie brauchen nicht auf das Ergebnis einer
vorangegangenen Funktion warten.
 Die Verhalten aller Schichten treten zueinander in Wettbewerb, wobei die Verhalten
der niedrigeren Schichten bevorzugt werden.
Das Grundprinzip lässt sich an einem Beispiel illustrieren. Stellen wir uns ein Agentensystem
mit mehreren Agenten vor, die gegeneinander Fußball spielen. Das könnte zum Beispiel ein
Computerspiel sein, bei dem mehrere Spieler mit mehreren PCs gegen eine virtuelle
Fußballmannschaft antreten. Ein einzelner Fußballspieler dieses Computerspiels wird als
Agent programmiert, der mit anderen Fußball-Agenten zusammenspielen muss, um das Spiel
zu gewinnen. Dieses Beispiel ist insofern besser zur Illustration einer reaktiven Architektur
geeignet, weil ein Fußballspiel eine dynamischere Angelegenheit ist, wie etwa eine
Internetauktion.
Sensoren
Effektoren
Versuche den Ball zu kicken
Dribbling mit dem Ball
Versuche Torschuss
Weiche andern Spielern aus
Suche nach dem Ball
Bewege Dich zum Ball
Wie könnte also unser reaktiver fußballernder Agent aussehen. Zunächst einmal muss er sich
auf dem Spielfeld orientieren, und insbesondere muss er herausfinden, wo sich derzeit der
Ball befindet. Dazu braucht er sich nicht einmal bewegen. Wenn sich der Agent bewegt, dann
muss er als wichtigste Grundregel beachten, dass er nicht einfach mit anderen Agenten
zusammenstößt. Andernfalls bekäme der Spieler sicher bald die rote Karte, oder seine eigenen
Mitspieler wären bald sauer auf ihn. Jetzt kann sich der Agent vernünftig auf dem Fußballfeld
bewegen, er nimmt aber noch nicht am Spiel teil. Wir fügen also als nächstes ein Verhalten
hinzu, dass sich der Spieler zum Ball bewegt, wenn er ihn entdeckt hat. Als nächstes könnte er
versuchen den Ball zu treten, wenn sich dieser in der Nähe befindet. Weitere Verhalten
könnten Dribbling und Torschuss sein. Bei der Ausführung eines solchen Agentenprogramms
laufen die Verhalten nicht nacheinander, sondern parallel zueinander ab. Nachdem der Ball
94
gekickt wurde muss sich der Spieler wieder orientieren, wohin der Ball geflogen ist.
Fassen wir noch einmal die Vorteile der Subsumptionsarchitektur zusammen:
 Sie eignet sich besonders gut für dynamische Anwendungen, bei denen nicht viel Zeit
für eine Reaktion bleibt.
 Die einzelnen Schichten können durchaus unterschiedliche, ja sogar widersprüchliche
Ziele realisieren. Beispielsweise könnte unser Fußballer gleichzeitig ein Verhalten
für einen Befreiungsschlag ins Aus haben und auch ein Verhalten zum Torschuss.
Welches Verhalten tatsächlich zum Zuge kommt wird durch die Hierarchie bestimmt.
 Nicht jede Schicht muss alle Sensoren auswerten, normalerweise sind nur einige
wenige Sensorwerte für ein Verhalten wirklich interessant.
 Robustheit: wenn ein Verhalten nicht richtig funktioniert, dann hat das keinen oder nur
sehr wenig Einfluss auf die Funktionsweise der anderen Verhalten.
 Eine Subsumptionsarchitektur ist vergleichsweise einfach erweiterbar. Wenn man
feststellt, dass der Agent bestimmte Fähigkeiten fehlen, dann kann man ein neues
Verhalten hinzufügen.

6.4.3 Hybride Architekturen


Hybride Architekturen kombinieren die Vorteile wissensbasierter und reaktiver Agenten. Eine
reaktive Architektur ist z.B. besonders gut geeignet, wenn jede neue Situation mehr oder
minder unabhängig von der Vorgeschichte behandelt werden kann. Wenn aber zusätzliches
Wissen und die Kenntnis der Vergangenheit notwendig ist, dann ist eine wissensbasierte
Architektur vorzuziehen. Hybride Architekturen verbinden die Stärken der wissensbasierten
Architekturen mit denen der reaktiven Architekturen. D.h. robustes, effektives Reagieren
zusammen mit einem planvollen, zielgerichteten Vorgehen. Solche Systeme gibt es schon in
einer Reihe von Projekten, aber im Allgemeinen sind diese Systeme noch nicht vollständig
den Forschungslabors entwachsen.
Eine solche hybride Architektur soll kurz skizziert werden: Die Sensorinformation wird in
drei Schichten verarbeitet und anschließend in Aktionen für die Effektoren umgesetzt.
Zusätzlich gibt es noch ein eigenes Modul für die Steuerung, das bestimmt, welche
Sensorinformation an die einzelnen Module weitergereicht wird, und welche Aktion
tatsächlich ausgeführt wird. Die drei Schichten übernehmen folgende Aufgaben:
1. Die unterste Schicht reagiert auf die Ereignisse und Änderungen der Umgebung. Diese
Schicht würde man mit unserem Wissen jetzt als ein reaktives System realisieren.
2. Die mittlere Schicht übernimmt die Planung, d.h. welche Aktionen in welcher
Reihenfolge ausgeführt werden sollen, um die gesetzten Ziele zu erreichen.
3. Die Oberste Schicht ist notwendig, um ein Modell der Welt zu bilden, und um mit
anderen Agenten bzw. dem Benutzer interagieren zu können. In dieser Schicht können
dann auch Konflikte bearbeitet werden, die nicht einfach durch Priorisierung zu lösen
sind, so wie das etwa in einem reaktiven System funktioniert.
Wenn wir unser Fußball Beispiel noch einmal genauer betrachten, dann bemerken wir, dass
eine rein reaktive Architektur offensichtlich doch nicht ausreicht, um wirklich erfolgreich
Fußball zu spielen. Zum Beispiel muss ein guter Fußballspieler Spielzüge planen, die über
mehrere Stationen und Mitspieler ablaufen und diese Spielzügen werden vielleicht auf Zuruf
koordiniert, oder sie wurden vorab vereinbart. Außerdem ist es sicher hilfreich, wenn der
Spieler seinen Gegenspieler studiert, und aus dessen Verhalten in der Vergangenheit lernt, so
dass er ihn im Laufe des Spiels lernt, wie er ihn ausspielen kann.
Hier war die Rede von Eigenschaften eines Agenten, über die bislang noch nichts gesagt
wurde: die Fähigkeiten zum Planen und zum Lernen. In wissenschaftlichen Arbeiten werden
diese Eigenschaften diskutiert, und es gibt auch schon einige Prototypen, die einzelne Aspekte
beispielhaft implementieren.
Weitere "höhere" Eigenschaften für Agenten sind Überzeugungen, Wünsche, Intentionen,
Pflichtgefühl oder Wahrheitsliebe:
 Überzeugungen kann man sich als eine Art von abstrakten Faktenwissen vorstellen.
Kommen wir wieder zu unserem Auktionsagenten zurück. Wenn dieser Agent feststellt, dass er bei
einem bestimmten Aktionshaus mehrmals sehr günstig einen Gegenstand erwerben konnte, dann kann
95
er daraus die Überzeugung ableiten, dass diese Auktionssite besonders günstig ist. Überzeugungen
können sich im Laufe der Zeit ändern, und sie sind mit einer gewissen Unsicherheit behaftet.
 Wünsche und Intentionen können als abstrakte Ziele aufgefasst werden. Der Auktionsagent könnte
die Intention haben, mit der Zeit zum Beispiel eine ganze
Sammlung zu erwerben. Trotzdem bleibt das Ziel für eine einzelne Auktion, das ein
ganz bestimmter Gegenstand ersteigert werden soll.
 Wenn ein Agent einen Begriff von Pflichtverständnis hat, dann wird er eine einmal
eingegangene Verpflichtung auch tatsächlich erfüllen, d.h. er wird entweder die
versprochene Dienstleistung abliefern, oder aber den Auftraggeber darüber
informieren, dass die Verpflichtung nicht eingehalten werden kann und aus welchen
Gründen. Ein Agent, der die Eigenschaft "Wahrhaftigkeit" hat, sollte entsprechend keine
anderen Agenten oder Benutzer belügen. Man kann sich aber durchaus auch
Anwendungen vorstellen, in denen eine gelegentliche Lüge tatsächlich sinnvoll ist.
Denken wir nur an die Aussage: "Herr ... ist in einer Besprechung"...

6.5 Anwendungen
Kommen wir zu Schluss noch zu einer Zusammenstellung möglicher Anwendungsfelder für
Agentensysteme. Einige Anwendungen haben wir schon in den Videobeiträgen und in den
Beispielen gesehen. Je mehr Online shops es im Internet geben wird, und je mehr
komplizierte Waren dort verkauft werden, desto größer wird auch der Bedarf an Erklärung. In
einem Kaufhaus wird diese Funktion normalerweise von einem Berater übernommen. Eine
solche Funktion kann von einem Agenten übernommen werden. Vergleichbar ist auch ein
Agent, der Hilfestellung bei komplizierten Aufgaben übernimmt, oder der vielleicht als
Instruktor bei der Bedienung eines Geräts oder Programms auftritt.
Eine weitere häufig diskutierte Anwendung ist ein Agent zur Organisation persönlicher
Termine und Informationsinteressen. Man stellt sich hier eine Software vor, die auf einem
Organizer oder vielleicht auf einem zukünftigen Handy laufen wird, und die zum Beispiel
Termine mit anderen Agenten oder Personen vereinbart. Dabei sollte der Agent natürlich auch
persönliche Präferenzen berücksichtigen, zum Beispiel dass am Donnerstag Abend kein
Termin vereinbart werden darf, weil das der Abend ist, den ich auf jeden Fall mit meiner Frau
verbringen werde. Eine andere Funktion, die ein solcher Persönlicher Assistent übernehmen
kann, ist die Sortierung der eingehenden Emails oder SMS Nachrichten - es soll ja Leute
geben, die sehr viele solche Nachrichten erhalten. Werbung könnte beispielsweise direkt
gelöscht werden, Emails zu meiner Arbeit werden vielleicht bis Montag zurückgehalten und
auf besonders wichtige Nachrichten wird sofort hingewiesen.
In Computerspielen kennt man Agenten schon seit einiger Zeit - man denke nur an Lara Croft.
Je intelligenter diese Agenten werden, desto realistischer werden dann natürlich auch die
Spiele.
Eine weitere kommerziell interessante Aufgabe ist der Einsatz von Agentensystemen für
logistische Aufgabenstellungen. Man könnte sich zum Beispiel vorstellen, dass Agenten die
Koordination und Auslastung der LKWs einer Spedition organisieren. Dabei könnte eine
Gruppe von Agenten die LKWs repräsentieren, während eine zweite Gruppe von Agenten die
Kunden vertreten. Kunden und Spediteure verhandeln dann über Lieferkapazitäten und über
Preise. Man erhofft sich dadurch eine bessere Auslastung der Kapazitäten. Prototypsysteme
gibt es in diesem Bereich bereits eine ganze Reihe, und wir können davon ausgehen, dass es
solche Systeme teilweise bereits in der Anwendung gibt. Sehr ähnliche Aufgabestellungen
sind die Auslastung von Maschinen in einer Fabrik oder die Steuerung von Verkehrsströmen
oder öffentlichen Verkehrsmitteln.

6.6 Literatur und Kontrollfragen


1. Russell, S., Norvig, S.: Artificial Intelligence, A Modern Approach, Prentice Hall,
1995
2. Görz, G., Rollinger, C., Schneeberger, J.,: Handbuch der Künstlichen Intelligenz,

96
Oldenbourg, 2000

Kontrollfragen
1 Versuchen Sie eine einfache Definition eines Software-Agenten.
2 Ordnen Sie die Eigenschaften von Agenten Autonomie, Proaktivität, Reaktivität und
Kommunikation den folgenden Aussagen zu:
• Agenten übernehmen selbst die Initiative.
• Agenten interagieren und kooperieren mit anderen Agenten und insbesondere auch mit
Menschen.
• Die meisten Umgebungen sind dynamisch, d.h. sie verändern sich kontinuierlich.
• Das Agentensystem arbeitet selbständig ohne direkte Steuerung durch einen Menschen
oder durch ein anderes System
• Zur Kommunikation mit anderen Agenten muss eine spezielle Sprache vereinbart
werden.
• Agenten nehmen ihre Umgebung wahr und sie reagieren angemessen auf
Veränderungen ihrer Umgebung.
• Agenten verhalten sich zielorientiert.
• Ein Agent hat vollständige Kontrolle über den eigenen internen Zustand
3 Welche Agenten-Kommunikationssprache wird für die Kommunikation zwischen mehreren
Agenten verwendet?
4 Für einen Agenten wird gefordert, dass er rational sein soll. Was heißt das?
5 Nennen Sie bitte drei verschiedene Typen von Architekturen für Agenten.
6 Ein Mailserver ist ein Programm, das Mails annimmt, und an andere Zielcomputer bzw. an
Mailboxen von Benutzern weiterleitet. Ist ein Mailserver ein Agentensystem? Begründen Sie
Ihre Antwort anhand von übereinstimmenden und abweichenden Eigenschaften.
7 Wie wird ein Software-Agent charakterisiert?
8 Welche Eigenschaften müssen erfüllt sein, damit man einen Agenten als rational handelnd
bezeichnen kann?
9 Was ist eine hybride Architektur eines Agenten?
10 Welche Vorteile hat die Subsumptionsarchitektur gegenüber einer herkömmlichen
Piplinearchitektur?

97
7. Benutzermodellierung
IT-Systemen ein gewisses Maß an Adaptivität einzuhauchen, d.h. dass sich Anwendungssysteme auf
den Benutzer einstellen, beherrscht schon lange die Forschung auf dem Gebiet der Künstlichen
Intelligenz. Es entstanden eigene Fachzeitschriften wie „User Modeling and User Adapted
Interaction“, in der Popp 1995 ein IT-System mit der Adaption elektronischer Verkäufer an die
Kunden vorgestellt hat (vgl. Popp et al., 1995) (siehe Abb. 7/1 und 7/2).
Benutzermodellierung bezeichnet den Prozess, um aus implizit oder explizit erhobenen Daten über
Benutzer ein Benutzermodell abzuleiten, was dann für eine Adaption von interaktiven Anwendungen
genutzt werden kann.
Das Ziel von Benutzermodellierung (engl. user modeling) ist eine Adaption von interaktiven
Anwendungen an die Bedürfnisse eines Benutzers. Benutzermodellierung bezeichnet exakter den
Prozess, um aus gesammelten Daten über Benutzer ein höherwertiges Benutzermodell abzuleiten.
Das IT-System des Elektronischen Verkäufers (Abb.7/1) adaptierte sich in der Art an den Benutzer,
dass es während der Dialogsitzung implizit und explizit Wissen über den Benutzer/Kunden sammelte,
ihn mit diesem Wissen zu einem definierten Stereotypen (z.B. Rechtsanwalt, der wechselnden
Computereinsatz hat, siehe Abb. 7/1) zuwies, dem bestimmte Produktvariantenempfehlungen
zugeordnet waren. Auch nutzte das IT-System das Wissen aus, um bei der Präsentation der
Produktseiten in einer „guided Tour“ maßgeschneiderte Seitenfolgen zu generieren. Als Anwendung
diente ein elektronischer Verkäufer für die Computerprodukte von Triumph-Adler in Fürth. Die
Dimensionen des Benutzermodells waren Produktwissen, Domainwissen und kognitiver Stil (siehe
Abb. 7/2).

Abb.7/1: Erstes Benutzermodell im Verkauf für Triumph-Adler Computerprodukte [Popp1995]


Product Knowledge

Identical
Rebuy
Domain Knowledge
Modified
Rebuy Expert

Professional
New Purchase
Beginner

Cognitive Style
"fast "slowly
generalizing" specifying"

Individual Presentation
Abb. 7/2: Dimensionen dieses Benutzermodells für Verkaufssystem von Triumph-Adler
98
Bei der Benutzermodellierung ist der 1. Schritt die Akquise von Daten über den Benutzer. Dies kann
explizit, z.B. mit Hilfe eines Fragebogens, oder implizit durch Beobachtung des Benutzers erfolgen. Für
eine implizite Akquise können z.B. Log-Dateien analysiert oder Hardware- oder Software-Sensoren von
mobilen Endgeräten ausgewertet werden.
Anschließend können die Daten über den Benutzer verwendet werden, um ein Benutzermodell
aufzubauen. Das Benutzermodell kann schließlich genutzt werden, um Anwendungen zu
personalisieren. Anwendungsbereiche sind u.a. Empfehlungssysteme, adaptive Hypermedia-Systeme,
rechnergestütztes Lernen, adaptive Benutzerschnittstellen oder mobile Guide-Anwendungen.
Das Benutzermodell ist eine Datenstruktur, die eine Charakterisierung eines Benutzers zu einem
bestimmten Zeitpunkt ausdrückt. Synonym dazu wird oft der Begriff Benutzerprofil verwendet.
Während Benutzerprofil die über einen Benutzer gespeicherten Informationen bezeichnet (eher
„technisch“), meint Benutzermodell mehr die abstrakte Repräsentation, also die Inhalte des Profils.
Strukturell kann ein Benutzerprofil aus z.B. einfachen Attribut-Wert-Paaren, Wahrscheinlichkeits-
werten, Regeln und Regelmengen oder komplexeren Relationen oder Datenstrukturen wie
semantischen Netzen bestehen.
Der Inhalt eines Benutzermodells kann u.a. sein: Persönliche und demographische Daten, Interessen
und Präferenzen, Ziele und Aufgaben, Zugriffsdaten und Richtlinien (Policies), ausgewertete
Transaktionsdaten u.v.m. Man unterscheidet zwischen statischen Benutzermodellen, deren Inhalt
sich selten ändern, und dynamischen Modellen, die auch den sich schnell ändernden aktuellen
Kontext des Benutzers abbilden.
Abb. 7/3 zeigt ein Präsentationssystem Keramik, bei dem durch ein Benutzermodell eine Individual
Guided Tour erzeugt wird, unterschiedlich für Schüler oder Techniker. So erhält die Schülerin zum
Thema Verbrennungsmotor die Informationen in der Reihe Medienobjekt, Bild1, Bild 2, Text1 und der
Techniker in der Reihenfolge Medienobjekt, Text2, Text3, Bild3.

7.1 Benutzermodell
Der Kernbaustein einer Adaption ist oft ein Benutzermodell, also die Dokumentation der
Benutzereigenschaften im IT-System. Google bietet viele kostenlose Services an. Alle haben das eine
Ziel: so viel Informationen über jeden Benutzer wie nur möglich zu sammeln und sie für jeden
Benutzer in einem Benutzermodell zusammen zu führen. Dabei lassen sich verschiedene Arten von
Daten über den Benutzer unterscheiden: Demographische Daten, Informationen oder Annahmen
über das Wissen und Fähigkeiten, Interessen, Präferenzen, Ziele und Pläne des Nutzers.
Benutzungsdaten können sein:
• Selektionen des Benutzers (zum Beispiel von Webseiten).
• Zeitliches Benutzungsverhalten (zum Beispiel das „Überspringen“ von Webseiten).
• Bewertungen durch den Benutzer (z. B. über Brauchbarkeit von Produkten oder Relevanz von
Informationen).
• Käufe und verwandte Benutzeraktionen in elektronischen Warenkörben oder Wunschlisten.
• Regularitäten im Benutzungsverhalten, wie Benutzungshäufigkeit und vorkommende
Aktionssequenz.
Umgebungsdaten: Über die Hard- und Softwareumgebung des Benutzers, dessen Aufenthaltsort und
personalisierungsrelevante Eigenschaften des Aufenthaltsorts (Strauch et al., 2004, S. 300).
Um nun ein Benutzermodell zu erstellen, können verschiedene Methoden verwendet werden:
Modellierung mit Stereotypen, Overlay-Modell (dabei drückt das Modell die Übereinstimmung des
Wissens des Benutzers im Vergleich zu einem idealen Expertenwissen aus), statistische Verfahren wie
Bayes’sche Netze, Data Mining Methoden wie abgeleitete Entscheidungsbäume oder Association
Rule Mining auf Basis von getätigten Käufen u.v.m.
Bei Benutzermodellierung mit Stereotypen werden vorab Mengen von Eigenschaften definiert, die
Gruppen von Benutzern charakterisieren (z.B. „Anfänger“ oder „Experte“). Dazu werden Trigger
99
festgelegt, die spezifizieren, unter welchen Bedingungen ein Stereotyp aktiviert werden soll.
Anschließend kann eine Adaption auf Basis der Zuordnung des Benutzers zu einem Stereotyp
erfolgen, z.B. Anzeige zusätzlicher Hilfe-Information für „Anfänger“. Stereotype erlauben eine
schnelle Einordnung von Benutzern.
Bayes’sche Netze modellieren bedingte Abhängigkeiten zwischen Zufallsvariablen, welche durch
Wahrscheinlichkeiten beschrieben werden können. Dies eignet sich gut, um aus Benutzerverhalten
zu lernen. Ein Anwendungsbeispiel ist die Klassifikation von Email-Nachrichten als „Spam“ durch
Benutzer. Daraus kann dann bei einer neuen Nachricht abgeleitet werden, wie hoch die
Wahrscheinlichkeit ist, dass eine Spam-Nachricht vorliegt.
Die Systematik eines Benutzermodells drückt man am besten mit einem morphologischen Kasten,
bestehend aus den Merkmalen in der ersten Spalte und den verschiedenen Ausprägungen auf den
folgenden Spalten, aus, siehe Abb. 7/4.
Als Hauptanwendungsfelder der Benutzermodellierung/Personalisierung gelten:
• Marketing
• Schulung
• Beratung

Abb. 7/3: Adaptivität in einem Präsentationssystem der Keramischen Industrie

• Zuordnung von Menschen zu Aufgaben (z.B. in Workflow-Management-Systemen


anhand von Modellen der Rollen, Fähigkeiten und aktuellen Auslastungen von
Mitarbeitern)
• Bereitstellung von Informationen für Fach- und Führungskräfte
Das Unternehmen Google erstellt durch diverse Datenquellen wie dem Android OS auf mobilen
Endgeräten, Suchanfragen in der Google Suchmaschine und Benutzeranwendungen wie Google Mail
umfassende Benutzermodelle. Google nutzt diese Benutzermodelle, um Werbung auszuspielen.
Diese Werbung ist dann zielgruppenorientiert zugeschnitten auf Altersgruppen, Interessen oder
Region (Vetter, 2016). Außerdem bietet Google seinen Trackingdienst Google Analytics zur Analyse

100
des Kundenverhaltens auf Webseiten und Apps auch für Drittunternehmen an (Analysetools und -
lösungen für Ihr Unternehmen – Google Analytics, 2019b)
Ein Beispiel der Benutzermodellanwendung ist die Homepage der Micro Compact smart GmbH, auf
der mit dem Tool NetMind ein Benutzermodel geführt wird, um Kundenfreundlichkeit zu verbessern
ohne die Privatsphäre zu beeinträchtigen. Der NetMind Tracker@Reporter sammelt auf der smart-
Homepage Daten über Nutzerverhalten und wertet sie aus.
Beim Aufbau entschied man sich drei Nutzertypen zu definieren und die Nutzer nach deren
Eigenschaften zu segmentieren. Die zugrundegelegten Nutzertypen sind:
o ökologisch Interessierte
o Technisch Interessierte
o Life Style Orientierte
Es wurden Messkriterien beim Verhalten auf der Homepage definiert, die für diesen oder jenen
Nutzertyp sprechen und es wurden die Informationsseiten der Homepage klassifiziert, für welchem
Nutzertyp sie geeignet sind. Das System beobachtet nun den Benutzer, versucht ihn in eine der drei
Benutzerklassen zu ordnen und bietet bei Links die für diesen Nutzertyp passendste
Informationsdarstellen der gelinkten Seite an. Die Homepage reagiert Dank des Benutzermodells
individuell auf Verhalten des Benutzers; die Site passt sich permanent an den Kunden an.
Weitere Beispiele: amazon.de mit seinem Empfehlungssystem, google.de

Merkmale Ausprägungen
Zweck Selektion Präsentation
Gegenstand Empfänger (Rollenträger, Kunde, Bediener
Gruppe)
Individualisierung Individuell Gruppierend/Stereotyp
Art der Informationen Weiche Informationen Harte Fakten
Veränderbarkeit Statisch Dynamisch
Einsichtigkeit Transparent Intransparent
Gültigkeit Langfristig Kurzfristig
Profilschärfe 0/1 Fuzzy(tendenz)
Gewinnung Implizit Explizit
Wissensakquisition Personell Lernend
Abb. 7/4: Morphologischer Kasten zur Benutzermodellierung [Mertens 2003]

Das Themenfeld Benutzermodellierung ist eng verwandt mit Personalisierung. Viele Portale bieten
den Service „My….“ an, d.h. die Anpassung ihrer Oberfläche an individuelle Eigenschaften,
Bedürfnisse und Kenntnisse von Anwendern.

101
7.2 Adaptivität bei Lernanwendungen

Abb. 7/5: Ergebnisse des Eingangstestes für vhb-Kurs „Einstiegskurs Mathematik“

2002 gelang im selbst entwickelten Lernmanagementsystem der TH Deggendorf die erste


Kursrealisierung mit Adaptivität durch einen Eingangstest mit automatischer Kurskonfiguration. Jedes
der 27 Kapitel des Kurses „Grundlagen der Wirtschaftsinformatik“ war mit drei Fragen im
Einstiegstest vertreten, den das Programm automatisch auswertete und eine prozentuale
Einschätzung des vorhandenen Wissens in dem jeweiligen Kapitel entwickelte. Daraus generierte es
eine Empfehlung, welche Kapitel für den einzelnen Studierenden aufgrund des vorhandenen
Basiswissens überflüssig sind bzw. welche Kapitel aufgrund von Wissenslücken studiert werden
sollten. Aus diesen Ergebnissen konfiguriert das Programm dynamisch eine individuelle
Kursoberfläche. 2012 gelang dann mit einem speziellen Template die Adaptivität im LMS Moodle
(siehe Abb. 6/6), auch basierend auf einem Eingangstest (siehe Abb. 7/5).

Abb. 7/6: Auszug aus an den Kenntnisstand angepasst Kursoberfläche (Kap. 1.1 und 1.2 wurden zu
Genüge gewusst und werden nicht mehr angeboten)

Eine Studie mit mehr als 2600 Studierenden an einem US College über Techniken, die ihnen beim
Lernen helfen könnten, ergab, dass 75 % sich von Adaptivität viel versprechen (siehe Abb. 7/7).

102
Abb. 7/7: Studie, welche Technologien helfen Studierenden besser zu lernen [Ciolacu 2016]

Abb. 7/8. zeigt, dass Daten über Lernverhalten (ermittelt mit Learning Analytics) und Eingaben des
Lernenden zusammen mit Sensordaten (Kontextinformationen), gekoppelt mit den Bedürfnissen des
Lernenden und den Eigenschaften des Lernenden, einen adaptiven Mechanismus bilden das
Lernsystem an den Lernen anzupassen mit folgenden Stellschrauben: Lernressource, Rückmeldung,
Visualisierung, Interaktionssteuerung, Rolle, Gruppenformation, Zuweisung Lernpartner und
Lernaktivität.
Kontextdimensionen sind Lokation, Objekte der Umgebung, Personen der Umgebung
Umgebungszustand und Aktivität. Die Identität des Lerners gepaart mit den Kontextinformationen
bestimmen sein Lernverhalten und die Lernerbedürfnisse.

Abb. 7/8: Personalisierung und Kontextualisierung bei Lernarrangements [Rensing 2017]

7.3 Literatur und Kontrollfragen


Literatur

1. Ciolacu Monica and Rick Beer: „Adaptive user interface for Higher Education based
on web technology“– Research&Innovation Ind. 4.0., Oradea_SIITME_2016, 22^nd
IEEE International Symposium for Design and Technology

103
2. Mertens Peter, Thomas Zeller, Martin Stößlein: Benutzermodellierung und
Personalisierung in der Wirtschaftsinformatik – Ausstrahlung auf Controlling-
Anwendungssysteme, ZfCM I Sonderheft 2 (2003) S.24-29
3. Popp, H., Lödel, D. (1995). Fuzzy Techniques and User Modelling in Sales Assistants, in: User
Modeling and User Adapted Interaction, 5, S. 349-370.
4. Rensing Christoph: Adaptivität in mobilen Lernanwendungen: Potenziale, Grenzen und
Beispiele. Learntec 2017-03-07

Kontrollfragen

1. Was ist Benutzermodellierung und nenne 2 Methoden, die hier zum Einsatz kommen.
2. Nennen sie 4 Beispiele, bei denen man mit Benutzermodellierung mehr Effizienz erreichen kann.
3. Google baut ja von jedem Google-Tool Benutzer ein Benutzermodell. Versuchen sie anhand des
Morphologischen Kastens des Benutzermodells das von Google und Smart zu erklären!
4. Wie würden sie ein Benutzermodell in einem LMS wie ilearn einbauen? Was könnten ilearn mit
ihrem Benutzermodell anders machen als es jetzt agiert?

104
8. Einführung in die Bilderkennung (Prof. Dr. Donner)
8.1. Visuelle Wahrnehmung beim Menschen
Mustererkennung in Bildern ist eine Fähigkeit, die in der Evolution von Tier und Mensch eine große
Bedeutung für das Überleben hatte. Deshalb ist es nicht verwunderlich, dass z.B. die menschliche
visuelle Sinneswahrnehmung Meisterleistungen vollbringt, wenn es um die schnelle Analyse von
Bildinhalten geht. Unter visueller Sinneswahrnehmung verstehen wir dabei sowohl die rein
sensorische Seite (die Augen), Übertragungs- und Codierungsfragen (in den Sehnerven), als auch die
Verarbeitungs- und Interpretationsalgorithmik (im Hirn).
Im Verhältnis zu den meisten computergestützten Bildverarbeitungssystemen fällt vor allem die
„Robustheit“ der visuellen Wahrnehmung beim Menschen auf. Konkret bedeutet dies, dass wir sehr
anpassungsfähig auf Beleuchtungsänderungen, Schattenwürfe, Bildstörungen (etwa ein
verschmutztes Auge) und durch Teilverdeckungen von beobachteten Bildobjekten reagieren. Unsere
Erkennungsleistung wird dadurch zwar behindert, bleibt jedoch weitgehend erhalten.
Anpassung der visuellen Wahrnehmung bedeutet andererseits, Parameter aus einer zeitlich oder
örtlich begrenzten Situation zu gewinnen und diese als weitergetragenes Wissen extrapolatorisch für
die Szeneninterpretation einzusetzen. Robuste Bildinterpretation ist also wissensbasiert.
Bedarf nach computergestützter Bilderkennung etwa aus folgenden Beispielen:
Ermüdende visuelle Kontrollaufgaben können durch die automatisierte Mustererkennung
abgenommen werden. Darüber hinaus hat aber unsere visuelle Wahrnehmung einige Mängel, wenn
es um Genauigkeitsfragen geht. So können Sie Entfernungen oder Gebäudehöhen, Radien von
Rädern und andere Längendaten nur äußerst ungenau schätzen. Das ist anders bei einer
automatisierten Mustererkennung.
Gänzlich scheitert das menschliche visuelle System bei Datenmaterial, das für unser Auge nicht
geeignet ist. Das tritt z.B. bei der klassischen Röntgenbildgebung einschließlich der
Computertomographie auf. Ein Kernspintomograph regt Wasserstoffatome des Körpers zum
Aussenden hochfrequenter Radiowellen an, die erst zu Bildern umgerechnet werden müssen. Bei der
Ultraschallbildgebung verwendet man die Reflexion von Ultraschallwellen an körpereigenen
Strukturen zur Bildberechnung.
Wenn Sie feinste Oberflächenverschiebungen messen wollen, können Sie sogenannte
interferometrische Messmethoden benutzen. Die Rohdaten sind für uns nichts-sagende
Specklebilder. Durch geeignete Umrechnungsalgorithmik kann man hieraus jedoch sehr präzise
Tiefenbilder erhalten.
Automatisierte Bilderkennung unterstützt, entlastet und ergänzt die menschliche
Erkennungsleistung.

8.2 Suche und Lokalisierung in Bildern


Um Mustererkennung in Bildern zu automatisieren, sollten wir entsprechend der biologischen
Evolution von optischer Sinneswahrnehmung zunächst die einfacheren Vorstufen beherrschen.
Wollen wir etwa einen Hasen in einem Wald, einen kleinen Vogel im Geäst eines Baumes oder ein
Insekt im Gras entdecken, benötigen wir schnelle Suchstrategien. Ohne sie würde es viel zu lange
dauern, bis wir wichtige Bildgegenstände lokalisiert hätten.
Erschwert oder verweigert man uns den Einsatz natürlicher Suchstrategien, gelangt man zum
allbekannten Suchbild der Rätselecken. Dann entartet Mustererkennung in Bildern zur Knobelei.
Methoden der Einschränkung der interessierenden Bildausschnitte fasst man unter dem Begriff
„Aufmerksamkeitssteuerung“ zusammen. Wir unterscheiden zwei Stufen der
Aufmerksamkeitssteuerung:

105
• Die erste Phase wird benötigt, wenn wir einen Bildgegenstand zum ersten Mal erfassen und
erkennen wollen, nachdem wir vorher etwas anderes beobachtet haben.
• Die zweite Stufe unterstützt die zeitliche Verfolgung bereits georteter Bildinhalte.
Welche leicht zugänglichen Bildinhalte führen zur Aufmerksamkeitssteuerung? Wieder macht uns
das die Natur vor: Denken Sie an einen bunten Schmetterling! Wer auffallen will, muss sich farblich
gut abheben oder sich unterschiedlich zum Rest bewegen. Auch ausgezeichnete einfache Muster
springen sofort ins Auge.
Diese Eigenschaften, also hoher lokaler Kontrast, auffällige Farben, irreguläre Bewegung und
ausgezeichnete einfachste Muster, können wir auch in der automatisierten Bildmustererkennung gut
zur Aufmerksamkeitsauslösung verwenden.
Die Verfolgung von georteten Bildinhalten erfordert dagegen ganz andere Techniken.
Um eine einfache algorithmische Idee für Bewegungserkennung in Bildfolgen zu skizzieren, müssen
wir uns Kamerabilder genauer anschauen. Ein digitales Bild von einer Videokamera setzt sich bei
genauerer Betrachtung aus winzig kleinen Rechtecken zusammen, die einen einheitlichen Grauwert
haben. Wir bezeichnen sie als „Picture Elements“, abgekürzt Pixel. Beobachtet man ein völlig
bewegungsloses Bild ohne Beleuchtungsänderung in zwei zeitlich aufeinanderfolgenden Aufnahmen,
liefern alle Pixel die selben Grauwerte in beiden Bildern. Zieht man diese Grauwerte an jeder
Pixelposition voneinander ab, erhält man ein sogenanntes Differenzbild. In unserem Fall hat es
überall den Grauwert 0, ist also ein völlig schwarzes Bild.
Wiederholen wir das für ein Bildpaar, in dem sich irgendwo etwas bewegt hat, sagen wir ein dunkles
Objekt auf hellem Grund. Das Differenzbild wird nun, an den Positionen, wo vorher das dunkle
Objekt war, negative Einträge aufweisen. Wir ziehen ja von einem kleinen Grauwert – also dunkel –
einen später auftretenden hohen Hintergrundgrauwert ab. Genau umgekehrt sind die Verhältnisse
dort, wo das Objekt im zweiten Bild liegt.
Der Trick mit den Differenzbildern könnte uns also helfen, bewegte Objekte zu erkennen. Aber leider
zeigen Differenzbilder auch Beleuchtungsänderungen sofort an. Überlegen Sie sich das am Beispiel
eines Schattenwurfs!
Katastrophal wird die Differenzbildstrategie, wenn sich so ziemlich alles im Bild bewegt, z.B. weil Sie
die Kamera bewegen. Dann können Sie Sonderbewegungen nicht mehr erkennen.
Mit ganz anderen Techniken als der Differenzbildstrategie gelingt es jedoch, auch in solchen widrigen
Situationen irreguläre Bewegungen vor einem bewegten Hintergrund selbst bei zusätzlichen
Beleuchtungsänderungen zu finden.
Hat man einen interessierenden Bildbereich für die Musterkennung einmal lokalisiert, werden wir
sofort mit einem weiteren Problem konfrontiert, das uns die Entwicklung eines automatisierten
Erkennungssystems erschwert:
Stellen Sie sich einen Affen im Geäst vor. Er muss trotz ständiger Veränderung der
Beleuchtungsverhältnisse, wechselnder Ansichten, trotz Bewegung und Drehungen – er hängt ja
manchmal mit dem Kopf nach unten – sicher erkannt und verfolgt werden. Mehr noch: Ein Affe ist
kein starrer Körper. Er streckt und dehnt sich, sein Schwanz pendelt hin und her, er wendet den Kopf
und greift mit dem Arm. Lassen Sie mich diese Gestaltveränderungen einmal allgemein
„Deformationen“ nennen. Dann müssen wir unsere Erkennungsleistung unabhängig von
Beleuchtungsänderungen, Hintergrundbewegung und Objektdeformationen erbringen.
Wir fordern also für praktisch alle robusten, automatisierten Verfahren der Bildmustererkennung,
dass sie unabhängig von den genannten Objektveränderungen funktionieren.

8.3. Bildkonturen
106
Ein wichtiges Hilfsmittel zur Mustererkennung in Bildern sind Konturen von Bilddetails. Es ist klar,
dass ein Mensch allein aus rudimentären Konturen viel erkennen kann, sonst könnten wir keine
Karikaturen belächeln.
Aber wie kann man Konturen automatisch erfassen? Offensichtlich zeichnen wir dort Konturen, wo
der lokale Bildkontrast sehr hoch ist. Sie eignen sich gut zur Suche nach und zur Begrenzung von
Bildobjekten, können leicht auch automatisiert erzeugt werden und sind wichtige Führungs-
strukturen für die weitere Mustererkennung.
Das kann man auch im Rahmen der Verarbeitung digitaler Bilder zu einem Rechenschema ausbauen
und erhält so Konturbilder aus Originalbildern. Um eine grundlegende Idee für einen algorithmischen
Ansatz zu skizzieren, betrachten wir noch einmal ein digitales Bild.
Trägt man die Grauwerte auf der z-Achse, die Pixelpositionen in der x,y- Ebene ein, erhält man also
eine Stufenfunktion. Sie ist der diskretisierte Ersatz für das originale, kontinuierliche Intensitätsbild f.
Differenzierbarkeit für diese ursprüngliche Intensitätsfunktion vorausgesetzt, weiss man, wo starke
Intensitätsänderungen zu suchen sind: Der Gradient von f muss dort groß sein. Hoher Bildkontrast
sollte also auf eine große Länge des Gradienten hinauslaufen.
Für ein digitales Bild ist der Gradientenbegriff jedoch undefiniert. Man muss die partiellen
Ableitungen durch eine geeignete Diskretisierung ersetzen. Im einfachsten Fall kann man hierfür die
Grauwertdifferenz zweier benachbarter Pixel nehmen und zwar horizontal benachbarter als Ersatz
für die partielle Ableitung nach x, vertikal benachbarter als Ersatz für die partielle Ableitung nach y.
Die Länge des aus diesen beiden Koordinaten aufgebauten Vektors ist offensichtlich ein Ersatz für die
Gradientenlänge. Da man solche Ersatzgradienten für jedes Pixel (gewisse Randpixel ausgenommen)
berechnen kann, erhält man so ein neues (abgeleitetes), digitales Bild, das an jedem Pixel die Länge
des Ersatzgradienten als Grauwert eingetragen hat. Für unser Auge ist es praktisch ein Konturbild.
Wir sind ein gutes Stück vorangekommen mit der Skizze für ein automatisiertes Bilderkennungs-
system. Nur, was sollen wir mit all den Konturen anfangen? Wir betrachten nur die einfachsten,
technisch häufig vorkommenden Konturen, nämlich Geraden, Kreise und Kegelschnitte, also etwa
Ellipsen. Komplizierte Konturen können stückweise aus solchen einfachen Kurven zusammengesetzt
werden.
Ausgehend von Konturen wird man solche geometrischen Standardkurven so an die Konturpixel
anpassen, dass sie den Konturverlauf möglichst gut beschreiben. Die algorithmische Bestimmung
solcher geometrischer Muster aus Bildern liefert zugleich detaillierte Lage- und Größenparameter
sowie Passgenauigkeiten.

8.4. Korrespondenzproblem
Ein bisher noch ungelöstes Problem wurde in Phase zwei der Aufmerksamkeitssteuerung bereits kurz
erwähnt: Wie kann man – ohne bereits zu wissen, worum es sich handelt – lokale Bilddetails
verfolgen oder in Bildpaaren wiederentdecken? Das ist das Korrespondenzproblem!
Wir konzentrieren uns hier auf ausgezeichnete Punkte und korrespondierende Konturen. Ein
Bildpunkt ist dabei ausgezeichnet, wenn seine lokale Bildumgebung nicht in ähnlicher Ausprägung in
der Nähe wieder auftritt.
Wir müssen also kleine Bildbereiche so beschreiben (codieren), dass wir ähnliche Bildbereiche auch
dann sofort entdecken, wenn diese durch (nicht pixelgenaue) Verschiebung oder Rotation des
Originalbildbereichs entstanden sind. Finden wir ein Bilddetail mit seiner lokalen Bildbeschreibung in
einem Folgebild wieder (in einer Bildregion, in der es vernünftigerweise auftreten kann) sprechen wir
von korrespondierenden Bilddetails.
Wozu sind sie gut? Eine Antwort ist: Durch die zeitliche Verfolgung markanter Strukturen in
Bildfolgen kann man gut schätzen, wo diese markanten Strukturen im nächsten Bild wieder auftreten
107
werden. Dies führt zu einer sehr gut lokalisierten Aufmerksamkeitssteuerung in kurzgetakteten
Bildfolgen.
Es gibt jedoch noch einen weiteren Grund für die Bestimmung korrespondierender Strukturen: Wenn
Sie ausreichend viele korrespondierende Punkte einer Bildfolge bestimmt haben, können Sie die
Bewegung des Beobachters relativ zum beobachteten Objekt sehr genau bestimmen, allerdings nur
bis auf einen einheitlichen Faktor, den Sie z.B. mit Hilfe der Beobachtergeschwindigkeit gewinnen
können.
Hat man die Verschiebung zwischen den Beobachterpositionen zur gleichen Szene einmal erfasst,
können wir korrespondierende Punkte zur Stereovermessung verwenden: Unsere Augen benutzen
bekanntlich die gleiche Technik zum Tiefensehen. Das Bild des linken Auges ist etwas verschieden
vom rechten. Hieraus baut unser Hirn ein Tiefenbild auf. Der Effekt wird beim Betrachten von
Stereobildpaaren durch Stereobrillen genutzt.
Mit dem gleichen Prinzip kann man die Entfernung zu Raumobjekten messen. Wir beobachten ein
und dasselbe Objekt mit 2 Kameras, erhalten also Bildpaare. Kennt man den genauen Abstand der
Kameras, kann man aus den korrespondierenden Punkten Sichtstrahlen berechnen, deren
Schnittpunkt im Raum die Objektposition ist. Diese Tiefenkonstruktion wird wegen der
Dreieckbeziehung zwischen Sichtstrahlen und der Verbindungslinie der Kameras auch
„Triangulation“ genannt.

8.5. Mustererkennung in digitalen Bildern


Nach all dem Vorspiel sind wir nun beim zentralen Erkennungsproblem angelangt: Sie wollen ein
Bildobjekt erkennen, von dem Sie eine Gedächtnisvorstellung haben, etwa ein bekanntes Gesicht.
Wenn Sie dieses Problem mit der gleichen Variabilität und Raffinesse lösen wollen, wie es höhere
Tiere können, müssen Sie zunächst die Frage beantworten, wie Sie den zu erkennenden Gegenstand
– sagen wir Ihre Freundin – so im Gedächtnis behalten, dass einerseits die Fülle der Bilder überhaupt
in Ihren Kopf passt und Sie andererseits doch ihre Freundin auch von der Seite, von hinten, in
gebückter Haltung, teilverdeckt, lachend, gähnend, mit und ohne Brille, bei wechselnder Bekleidung
und geänderter Frisur stets sicher wiedererkennen können.
Dieses ist das Problem der effizienten Speicherung von Bildinhalten!
Für diese einführende Übersicht wollen wir uns auf einen Zugang zu diesem Problem begrenzen.
Auch sollen nur vereinfachte Bilder – sagen wir Konturbilder – zur Erläuterung des Vorgehens
herangezogen werden.
Starten wir mit einem Schrifterkennungsproblem: Erkannt werden soll ein großes „T“. Sie malen das
zunächst in Standardgröße und –ausrichtung auf ein Blatt Papier. Was Sie dann eingeschwärzt haben,
ist eine Teilmenge MT der Ebene.
So ideale Verhältnisse gibt es nicht immer: Ein Kamera- (oder Scanner-) Bild von Buchstaben wird die
Zeilen des Schriftstücks nicht unbedingt parallel zum Bildrand erfassen. Tritt also überhaupt ein
großes „T“ im Bild auf, liegt es vielleicht etwas verdreht. Außerdem wird es wohl kaum genau
dieselbe Größe und Ortsposition haben wie Ihr Muster-T. Schlimmer noch, es könnte ein kursives „T“
sein, während Ihr Muster-T senkrechte, lateinische Schrift ist. Nun überführt eine Drehung, Dehnung
oder Scherung unser Muster-T in ein gedrehtes, größeres oder kursives „T“. Mit Translationen kann
man es zusätzlich dorthin schieben, wo es uns passt. Wählen wir also als zulässige Transformationen
für unser Muster-T alle intereinander Ausführungen solcher Abbildungen, das sind alle affinen
Abbildungen.
Durch die Anwendung einer affinen Abbildung f der Ebene gewinnen Sie aus Ihrem Muster-T ein
vielleicht gedrehtes, größenverändertes, verschobenes und kursives „T“. Wir haben also aus einem
„T“ eine Unmenge von verwandten Formen, nämlich alle Bildmengen f(MT) generiert.

108
Natürlich erzeugen wir nicht alle diese deformierten Exemplare wirklich – es wären ja auch unendlich
viele. Wir merken uns nur, wie wir sie erzeugen könnten.
Nun erst betrachten wir einen realen Buchstaben in unserem Kamerabild. Nehmen wir für den
Augenblick an, dass wir irgendwie einen Haufen Pixel aus dem digitalen Bild isoliert haben, den wir
für das Abbild eines Buchstabens halten. Schwarze Pixel werden dort auftreten, wo der Buchstabe
voll getroffen wird, weiße dort, wo wir ganz neben dem Buchstaben liegen.
Was wir mit „Streifschüssen“ ( = graue Pixel) tun, soll hier nicht behandelt werden.
Wir markieren nun die Zentren schwarzer Pixel aus unserem kleinen Bildausschnitt. Das sind in der
Regel nicht übermäßig viele. Diese Pixelzentren sollten von dem schwarz eingefärbten Bereich des
dort von der Kamera real gesehenen „T“ nur sehr wenig abweichen, eigentlich sogar voll treffen.
Nun sollte das real gesehene „T“ sich aber durch eine zulässige Transformation f aus unserem
Muster-T ergeben. Es sollte also eine zulässige Transformation f geben, so dass jedes der
„schwarzen“ Pixelzentren p von der Menge f(MT) nur sehr kleinen Abstand dist(p,f(MT)) besitzt.
Natürlich wird man sich darum bemühen, die Transformation f so gut wie möglich zu wählen: Ist P
die endliche Menge der Zentren „schwarzer“ Pixel, sollte im Idealfall für jeden Punkt p aus P
dist(p,f(MT)) Null sein. So ideal werden die Verhältnisse allerdings wegen einer Reihe von
Fehlerursachen nicht sein. Man wird jedoch erwarten können, dass die Quadratsumme; Sum
dist(p,f(MT))2 wobei über alle p aus P summiert wird, recht klein wird, wenn wir nur unsere
Transformation f richtig wählen. „Richtig“ wählen bedeutet hier offensichtlich, dass wir uns bemühen
sollten, eine solche zulässige Transformation f zu finden, für die
Sum dist(p,f(MT)) so klein wie möglich wird. Die zugehörige Untergrenze
Delta=inf Sum dist(p,f(MT))
heißt Unähnlichkeitmaß von P bzgl. des Musters MT. Das Infinum ( = die untere Grenze) ist hierbei
bzgl. aller zulässigen Transformationen zu bilden.
Die Zahl Delta wird umso kleiner, je besser ein transformiertes Exemplar unseres Muster-Ts auf die
Menge P passt.
Hat man nicht nur ein „T“ sondern auch ein „O“ genauso modelliert, wird dieses Unähnlichkeitsmaß
Delta sicher kleiner sein, als das entsprechende Unähnlichkeitsmaß Deltao, weil unsere
Pixelzentrenmenge P besser durch eine transformierte Mustermenge f(MT) als durch eine analoge
Deformation f(MO) der Mustermenge MO für „O“ getroffen wird. Wir entscheiden uns also für „T“,
weil Delta kleiner als Deltao ist.
Natürlich ist das erst die Grundidee. Für andere Erkennungsaufgaben benötigen wir kompliziertere
Mustervorlagen und andere zulässige Transformationen. Darüber hinaus müssen auch allgemeine
Grauwertbilder bearbeitbar sein.
Die Erläuterung der Details erfordert hier viel mathematisch-informatischen Sachverstand und führt
über den Rahmen dieses Einführungskurses hinaus.

8.6. Anwendungsgebiete
Mustererkennung in Bildern ist eines der spannendsten Gebiete der computergestützten
Bildverarbeitung. Neue Bildsensorik und wesentliche Verbesserungen der Algorithmik haben in den
letzten Jahren viele neue Anwendungsgebiete erschlossen. Hierzu gehören:
• Medizinische Diagnostik
• Verbrechensaufklärung
• Sicherheitstechnik
• Industrielle Qualitätssicherung (Optische Messtechnik)
• Robotik
109
• Schrift- und Barcodelesen
• Fernerkundung und Auswertung von Satellitenbildern
• Assistenzsysteme (Autofahrer, Lokführer usw.)
• Virtuelle Realität

8.7 Bilderkennung mit Maschinellem Lernen (ML)


Grundprinzip Bilderkennung mit ML: https://www.youtube.com/watch?v=cgZ1O5YnoDQ

Automatisierte Bilderkennung mithilfe Maschinellem Lernen (z.B. Deep Learning-Verfahren oder


spezieller künstlicher neuronaler Netze) heißt u.a.: ein Mensch sieht einen Mund, eine Nase und zwei
Augen, und er weiß, dass es sich dabei um ein Gesicht handelt. DL- oder NN-Verfahren identifizieren
die Objekte auf Bildern oder ordnen sie einer Kategorie zu (Klassifikation durch Neuronale Netze).

Zu den Verarbeitungsschritten der Bilddaten gehören die Klassifikation, die Detektion und die
Segmentierung: Die Klassifikation bildet die Grundlage für Bildverarbeitungsaufgaben und für die
Schrifterkennung. Ein Bildbereich oder ein Objekt wird auf Grund charakteristischer Eigenschaften
einer vorab festgelegten Klasse zugeordnet. Mit Klassen sind entweder verschiedene Objekt-Typen
gemeint – beispielsweise Buchstaben/Ziffern, Schrauben oder Tabletten – aber auch Qualitäten, also
ob etwas „in Ordnung“ oder „nicht in Ordnung“ ist.
Hier kommt das Maschinelle Lernen zum Einsatz: Faltende Neuronale Netze (Convolutional Neural
Networks (CNN)) – eine Sonderform Neuronaler Netze – eignen sich besonders gut für die
Klassifizierung in der Muster- und Bilderkennung. Durch ihre Faltungen haben sie deutlich mehr
Schichten, um Muster zu erkennen, als einfache Neuronale Netze. Die CNN werden mit
vorbearbeiteten Datensätzen trainiert, die eine große Zahl von repräsentativen Eingabe-Mustern
enthalten. Sie werden um die jeweils erwartete Ausgabe-Antwort erweitert. Nach dem Training
erkennen CNN Muster in Datensätzen und ermitteln die optimalen Bildmerkmale automatisch.
Aufgaben der optischen Sichtprüfung im Herstellungsprozess, die bisher manuell durchgeführt
wurden, lassen sich mit CNN automatisiert und damit deutlich kostengünstiger realisieren.

Beim Deep-Learning-Verfahren werden künstliche neuronale Netze zu Ebenen angeordnet, die


immer komplexere Merkmale verwenden, um beispielsweise den Inhalt eines Bilds zu erkennen. So
lassen sich große Datenbestände in Kategorien einteilen.

Gilt es beispielsweise ein Bild zu erkennen, registrierten etwa die Einheiten der ersten Ebene lediglich
Helligkeitswerte der Pixel. Die nächste Ebene wiederum würde erkennen, dass einige der Pixel zu
Kanten verbunden sind, woraufhin die darauffolgende zwischen horizontalen und vertikalen Linien
unterscheidet – und so weiter, bis schließlich eine Ebene erreicht wird, in der die Neuronen Augen
auseinanderhalten können, und das System weiß, dass in einem Gesicht typischerweise zwei davon
auftauchen (siehe Abb. 8/1).

Die Stärken von Deep Learning-Verfahren und künstlichen neuronalen Netzen bei der Gesichtser-
kennung liegen dabei auf der Hand: Kein Mensch kann annähernd so viele Gesichter aus seinem
Gedächtnis abrufen und so schnell abgleichen wie ein Supercomputer mit Zugriff auf die Datenpools
dieser Welt.
Im ImageNet-Wettbewerb in den USA trainieren die einzelnen Teams ihre Programme anhand von
Datenbanken mit rund einer Million Bildern, die alle per Hand in Kategorien eingeteilt wurden.
Anschließend gilt es, ähnliche Bilder, die die Software allerdings nie zuvor gesehen hat, in die jeweils
passende Kategorie zu schieben. Pro Testbild darf der Computer fünf Tipps abgeben, fehlt die richtige
Antwort, zählt der Durchlauf als Fehler – rund 25 Prozent solcher Fehler machten die Gewinner der
Jahre vor 2012 im Schnitt. Im Jahr 2012 nahm erstmals ein Deep-Learning-Programm am
Wettbewerb teil und erreichte eine Fehlerquote von 15 Prozent. Im Mai 2013 integrierte Google das
DL-Programm in ihre Bildersuche bei Google+.

110
Abb. 8/1: Ebenen beim ML in der Bilderkennung

NN und DL bedeutet, dass eine Maschine, anhand von Beispieldaten, lernt, Muster zu erkennen.
Diese Muster werden dann auf neue, unbekannte Daten angewendet. Der Prozess dahin ist mit
vielen verstrickten Daten und Formeln verbunden und benötigt eine lange Phase des Lernens, um
letzten Endes korrekte Ergebnisse erzielen zu können.
NN versucht Muster in Daten zu erkennen und daraus Schlüsse zu ziehen – bei Bildern
beispielsweise, was darauf zu sehen ist.
Dafür braucht es oft nicht einmal alle Bildinformationen, sondern beispielsweise nur den Grauwert
jedes einzelnen Bildpunktes. Dieser Wert gibt die Helligkeit des Pixels wieder. Jeder Pixel hat einen
111
Grauwert zwischen Null und Eins. Diese Grauwerte der Pixels können beispielsweise den Input für die
erste Schicht des Neuronalen Netzes bilden.
Das NN lernt durch eine große Menge Daten, Muster in diesen Grauwerten zu erkennen, die auf ein
bestimmtes Motiv immer wieder zutreffen. Diese Muster sind meist die Kanten – also dort, wo es
starke Unterschiede in der Helligkeit benachbarter Pixel gibt.
Das geschieht alles über mehrere Schichten des Künstlichen Neuronalen Netzes. Durch ständige
Selbstüberprüfung verfeinert die KI ihre Erkennung der richtigen Muster und wird

Wenn es pixelgenau sein muss

Im Fertigungsprozess gibt es Prüfaufgaben, bei denen es nicht reicht, einzelne Bilder von Objekten zu
klassifizieren oder ihre ungefähre Lage zu bestimmen. Defekte auf Oberflächen oder Objekten müssen
pixelgenau bestimmt werden. In der Mess- und Automatisierungstechnik wird das als Segmentierung
bezeichnet. Das Bild wird hier in relevante und nicht relevante Bereiche, die Segmente, unterteilt.
Segmente können das/die Objekt(e) selbst und die Umgebung sein. Jedes Segment bildet einen
zusammenhängenden Bereich mit einheitlichen Eigenschaften.
Anders als bei Klassifikation oder Detektion ist bei der Segmentierung jedes Bildpixel jeweils einem
Segment zugeordnet. Durch entsprechend trainierte CNN können die Bildpixel der einzelnen
Segmente mit denen der Beispielbilder abgeglichen werden. Für die Qualitätskontrolle ist die
Segmentierung schon heute unverzichtbar: Defekte, Bruchstellen oder Verunreinigungen an den
Produkten fallen bereits während der Fertigung auf, zusätzliche Kontrollschritte werden überflüssig.
(aus https://www.vdi.de/news/detail/maschinelles-lernen-so-geht-industrielle-bildverarbeitung-heute)
Kurs für NN in Bilderkennung: https://open.hpi.de/courses/neuralnets2020?locale=de

8.8 Literatur und Kontrollfragen


Jähne, Bernd: Digitale Bildverarbeitung, Springer Verlag 1989

1. Welche der folgenden Bereiche werden von dem Begriff der 'visuellen Sinneswahrnehmung'
berührt?

A. Interpretationsalgorithmik
B. Verarbeitungsalgorithmik
C. Telemetrie
D. Datenfernübertragung
E. Radiometrie
F. Sensoren
G. Übertragungsfragen
H. Codierungsfragen
2 Zwei zeitlich aufeinanderfolgende Aufnahmen enthalten in allen Pixeln die selben Grauwerte.
Was bedeutet dies für die beiden Bilder?
3 Die visuelle Wahrnehmung des Menschen zeichnet sich durch besondere Robustheit aus. Was
bedeutet das?
4 Welches sind mögliche Anwendungsgebiete einer automatisierten Bilderkennung?
5 Unter welchen Bedingungen bringt die Differenzbildstrategie gute Ergebnisse bei der
Bildauswertung?
6 Welche Bedeutung hat das Korrespondenzproblem?
7 Welche leicht zugänglichen Bildeigenschaften führen zur Aufmerksamkeitssteuerung
8 Reihen sie Bildeigenschaften zur Aufmerksamkeitssteuerung nach Wichtigkeit.

112
9 Es ist unmöglich alle Ausprägungen eines Objektes für Vergleiche zu speichern. Wie wird das
Problem der effizienten Speicherung von Bildinhalten gelöst?
10 Skizzieren sie wie das Deep Learning-Verfahren in der Bilderkennung funktioniert.

113
9. Philosophie der Künstlichen Intelligenz (von Ma. phil. Simon Böhm)
Der Philosoph Michel Serres glaubt, dass der Mensch jedes Mal einen Schritt über sich selbst
hinauswuchs, wenn er sich eines umweltbedingten Zustandes entledigen konnte. Nachdem er den
aufrechten Gang erlernt hatte, konnte er die nun freien Hände nutzen, um Werkzeuge zu erschaffen.
Die Erfindung der Schrift befreite ihn von der mündlichen Überlieferung und ermöglichte es ihm,
Wissen zu sammeln und zu verstetigen. Ähnlich verhält es sich schon heute und in Zukunft wohl noch
mehr, mit Künstlicher Intelligenz, welche den Menschen von Routineaufgaben und
Alltagsverrichtungen entlasten kann. Er kann sich stattdessen auf kreative und schöpferische
Tätigkeiten konzentrieren.
EINLEITUNG
- Zentrale Frage: Können Maschinen denken?
- Aufbau der Vorlesung:
o Was ist Philosophie?
o Wovon sprechen wir, wenn wir von KI sprechen?
o Turing-Test
o Chinesisches Zimmer
9.1 Was ist Philosophie?
- Philosophie ist ein Denkraum, in dem überhaupt erst verhandelt wird, welche Methodik die
Wissenschaft ausmacht; bekannte Wissenschaftstheoretiker, wie Karl Popper haben, haben
beispielsweise das Falsifikationsprinzip eingeführt, welches das Erscheinungsbild der
modernen Methodik in den Naturwissenschaften bis heute prägt
- Man muss nicht Philosophie studiert haben, um Philosoph zu sein. Auch ihr könnt Philosoph
sein, wenn ihr kritisch hinterfragt, welche Begriffe ihr verwendet. Und ich will euch heute
zeigen, wie das geht.
- Philosophie benutzt Argumente und logische Formalisierung, um Gedanken zu klären und
Begrifflichkeiten verständlich zu machen. Es werden jedoch keine Experimente durchgeführt.
Dies ist Aufgabe der Spezialwissenschaften, wie der Physik.
- Diskussionsfrage: Was ist Philosophie?

9.2 Wovon sprechen wir, wenn wir von KI sprechen?


- Unterscheidung zwischen starker und schwacher KI (nach John Searle): schwache KI ist die
stetige Perfektionierung maschineller Rechenleistung, starke KI die möglichst exakte
Nachbildung der menschlichen Intelligenz – was auch immer das genau ist!
- Zwei Begriffsaspekte »Künstlichkeit« und »Intelligenz«
- Künstlichkeit: steht in Opposition zur Natürlichkeit, bedeutet also Nachbau eines Vorbilds,
bloße Imitation im Unterschied zu echter Aktion
- Intelligenz: psychologische Größe, messbar als Denkgeschwindigkeit, Verarbeitung von
Informationen; in diesem Sinne heißt maximal intelligent zu sein, maximale
Problemlösekompetenz zu besitzen
- Philosophische Position des Behaviorismus lange Zeit maßgeblich in der psychologischen
Intelligenzforschung: Reiz bewirkt Reaktion, was dazwischen passiert, ist methodisch
unzugänglich
- Dies führte zur Computermetapher des menschlichen Denkens: Wir funktionieren wie ein
Rechner, der nach einem klaren Schema auf Reize mit einer Reaktion antwortet, sozusagen
nach dem Input-Output-Prinzip funktioniert
- Die kognitive Wende hat im späten 20. Jahrhundert die Tür der Forschung auch für mentale
Prozesse geöffnet, die zuvor in der Black Box verschlossen waren: insbesondere
Neurowissenschaften sind hier nun Vorreiter und erforschen die neuronalen Mechanismen, die
dem Denken zugrunde liegen
- Diskussionsfrage: Wenn das menschliche Gehirn nun wie ein Computer zu funktionieren
scheint: Können Computer dann denken?

114
- Hierzu interessant: der mereologische Fehlschluss, d.h. der irrtümliche Schluss von der
Eigenschaft eines Teils (z.B. dem Gehirn) auf ein ganzes (z.B. die Person). Formal kann das
wie folgt nachvollzogen werden:
- Prämisse 1: Gehirne denken.
Prämisse 2: Computer funktionieren genauso wie Gehirne.
Konklusion: Computer denken.
- Die Prämisse 2 lässt sich jedoch kritisieren:
- Prämisse 1: Ich kann denken.
Prämisse 2: Ohne mein Gehirn könnte ich nicht denken.
Konklusion: Mein Gehirn kann denken.
- Dies ist unzutreffend. Zwar brauche ich mein Gehirn, um zu denken. Ich brauche aber genauso
einen funktionierenden Blutkreislauf, um denken zu können. Hieraus zu folgern, mein
Blutkreislauf könne denken, ist ebenso unzulässig, wie zu folgern, mein Gehirn könne denken.

9.3 Turing-Test
- Alan Turing entwickelte den Turing-Test, um festzustellen, ob Maschinen intelligent sind.
Philosophisch gesehen hat er damit die Frage nach Intelligenz auf die Frage nach intelligentem
Verhalten reduziert.
- Ablauf des Tests: Menschliche Versuchsperson (C) führt via Bildschirm und Tastatur, d.h.
ohne visuelle oder auditive Kontaktaufnahme, ein Gespräch mit zwei unbekannten Instanzen
(A, B); eines dieser digitalen Gegenüber ist eine KI (A), das andere ein Mensch (B); der Test
gilt als bestanden, wenn keine eindeutige Festsetzung der KI als KI durch C gelingt, wenn C
also nicht sagen kann, welcher von beiden Gesprächspartner die KI war → A hätte dann
erfolgreich intelligentes Verhalten gezeigt
- Ist Intelligenz also am Verhalten beobachtbar?
- Dazu: Was als intelligent oder nicht-intelligent bewertet wird, ist die Kommunikation = das
Verhalten des digitalen Gegenübers. Dessen Intelligenz wird daraus geschlossen, d.h. formal
sieht das wie folgt aus:
- Prämisse 1: Instanz A zeigt intelligentes Verhalten.
Prämisse 2: Was sich intelligent verhält, ist auch intelligent.
Konklusion: Instanz A ist intelligent.

- Erneut ist das Argument logisch gültig: Sind die Prämissen wahr, muss auch die Konklusion
wahr sein. Freilich können wir aber die Wahrheit beider oder einer der beiden Prämissen in
Zweifel ziehen. Etwa, indem wir anzweifeln, dass intelligent zu sein nichts anderes meint, als
sich intelligent zu verhalten. Wir weisen also auf den begrifflichen Unterschied zwischen Sein
und Schein hin.
- Diskussionsfrage: Intelligenz = intelligentes Verhalten?

9.4 Chinesisches Zimmer


- Gedankenexperiment von John Searle (*1932), amerikanischer Philosoph
- Es handelt sich um einen philosophischen Einwand gegen die Position des mentalen
Funktionalismus (menschliche Psyche = ihre Funktionen, bzw. menschliche Intelligenz = ihre
Äußerungsform); mentaler Funktionalismus ist diejenige philosophische Sichtweise, die auch
dem Turing-Test zugrunde liegt
- Damit richtet sich Searles Einwand auch gegen die Validität des Turing-Tests: Diesen zu
bestehen sei nicht hinreichend dafür, intelligent zu sein, so Searle.
- Der Ablauf des Gedankenexperiments ist folgender: Eine Versuchsperson sitzt in einem
verschlossenen Raum; von draußen werden durch einen Wandschlitz auf Chinesisch
formulierte Fragen hereingereicht, welche die Versuchsperson anhand eines in seiner
Muttersprache verfassten Regelbuchs beantwortet; von außen wirkt es so, als müsste die
Versuchsperson Chinesisch verstehen können – was sie nicht tut

115
- Searle zufolge würden wir nun, obwohl die Kommunikation täuschend echt wirkt, nicht
folgern, dass die Person im Zimmer Chinesisch verstünde. Deshalb sollten wir auch nicht aus
einem bestandenen Turing-Test folgern, dass eine KI intelligent ist. Sie schafft es lediglich,
wie die Person im Zimmer, starren Regeln zu folgen, Anweisungen auszuführen und dadurch
ein wirklich intelligentes Agieren zu imitieren.
- Programme arbeiten demnach rein syntaktisch (sie manipulieren Zeichen mithilfe bestimmter
festgelegter Regeln); ihnen fehlt Intentionalität, d.h. die Fähigkeit zur Bezugnahme auf die
Bedeutung von Zeichen. Mit anderen Worten: Wer über Intentionalität verfügt, beabsichtigt
(engl. intention = Absicht) mit den verwendeten Zeichen, eine Bedeutung auszudrücken.
- Möglicher Einwand hiergegen: Es stimmt zwar, dass die einzelne Person im Zimmer kein
Chinesisch versteht – aber das ganze System besteht neben der Person auch aus dem
Regelbuch, das die Person verwendet. Eine KI repräsentiert beides: Person und Regelbuch,
beides zusammen ist aber sehr wohl in der Lage, Chinesisch zu verstehen.
- Doch auch dies ist kritisierbar, denn: Die Person im Zimmer versteht kein Chinesisch. Auch
wäre es unsinnig, davon zu sprechen, dass die Anleitung Chinesisch »verstünde«. Sie enthält
lediglich Information. Beide Teile des Systems verstehen also kein Chinesisch. Wie kann aber
dann die Kombination von beidem plötzlich Chinesisch verstehen? Das wirkt wie Zauberei.
- Diskussionsfrage: Wenn keiner der Teilbestandteile des Systems Chinesisch versteht – wie
kann das System als ganzes Chinesisch verstehen?
- Im Versuch der Konstruktion von KI bauen wir eigentlich an einem perfekten Spiegel. Und
wir sollten uns dies bewusst machen, damit wir wissen, wie wir bauen sollen. Je besser wir
darin werden wollen, KI (im starken Sinne) zu kreieren, desto intensiver müssen wir uns auch
mit der Frage nach einem richtigen Verständnis von uns selbst beschäftigen – schließlich ist
die menschliche Intelligenz das Vorbild der starken KI. Dabei, uns selbst richtig zu verstehen,
dabei hilft uns nun die philosophische Reflexion. Dies ist die fruchtbare Verbindung von
Philosophie und KI. Viel Freude beim Leben dieser Verbindung!

9.5 Literatur und Kontrollfragen


Literatur
• Sesink, W. (1993/2012): Menschliche und künstliche Intelligenz. Der kleine Unterschied.
Stuttgart.
• Franck, G. (1987): Menschlicher Geist und künstliche Intelligenz. In: Merkur: 41, pp. 949–
964.
• Wittgenstein, L. (1953/2014): Philosophische Untersuchungen. Frankfurt am Main:
Suhrkamp.
Weiterführende Videolinks:
- Zum Turing-Test: https://www.youtube.com/watch?v=3wLqsRLvV-c
- Zum Chinesischen Zimmer: https://www.spektrum.de/video/das-chinesische-zimmer/1466461
Kontrollfragen
1. Was ist Philosophie?
2. Grenzen sie Philosophie und Naturwissenschaften anhand zweier Merkmale voneinander ab.
3. Können Computer denken?
4. Intelligenz = intelligentes Verhalten?
5. Wenn keiner der Teilbestandteile des Systems Chinesisch versteht – wie kann das System als
ganzes Chinesisch verstehen?

116
10. Anwendungen: KI in 4.0
10.1 Semantic Web
Die semantische Komponente bezieht sich auf die Bedeutung und Qualität der Information. Beim
semantischen Web handelt es sich um eine Reihe von Konzepten und Technologien, die das Web so
erweitern sollen, dass Informationen eine eindeutig definierte Bedeutung zukommt, die von
Maschinen interpretiert werden kann. Informationsressourcen werden durch Metadaten ergänzt, die
Sinngehalt ausdrücken und zwischen Computersystemen ausgetauscht werden können. Im Gegensatz
zu den Tags bei Web 2.0 haben die Metadaten eine Tiefenstruktur, also auch eine fest definierte
Bedeutung, anhand derer sie mit Hilfe von logischen Regeln interpretiert werden können. Dadurch
entsteht ein Netz aus Inhaltsstrukturen.
Das Schichtenmodell des Semantc Web (siehe Abb. 10/1) besteht unten aus den Web 2.0
Technologien wie URI, XML, HTML und XHTML.
Mit Hilfe des Ressouce Description Framework (RDF) können beliebige Informationen durch
Metadatenbeschreibungen ergänzt werden. Semantische Beziehungen werden dabei als Tripel
(Ressource, Eigenschaft, Wert) modelliert. Die Konzepte (Objekte) einer bestimmten
Anwendungsdomäme und deren reziproke Beziehungen werden in Ontologien definiert, z.B. mit der
Ontologie Web Language (OWL). Neben Ressource, Semantik und Ontologie ist auch die auf diesen
basierende automatische Regelverarbeitung durch Inferenzmechanismus (Schlussfolgerung) ein
Baustein von Semantik Web. Hinzu kommen Bausteine zur Prüfung von Sicherheit und Identität, die
die Vertrauenswürdigkeit der erzeugten Inhalte garantieren.

Abb. 10/1: Das Schichtenmodell des Semantic Web: (Kollmann 2010, S. 76)

Damit zukünftige E-Business-Plattformen in der Lage sind, Kontextinformationen und Webressourcen


automatisiert miteinander in Zusammenhang zu bringen, gilt es die Informationen durch
Annotationstechniken mit Metadaten zu ergänzen, die die Informationsinhalte zusätzlich auf der
semantischen Ebene klassifizieren. Das einfache Tagging der Web 2.0 Bookmarking Dienste reicht
hier nicht aus und muss durch eine formale Repräsentation von Ressourcen und der verwendeten
Annotationstechnik ergänzt werden. Das Semantic Web bietet dazu eine Reihe von Konzepten und
Techniken.

Werkzeug: gensim (https://radimrehurek.com/gensim/)

Software (enthalten in der Pyhton Bibliothek) zur semantischen Textanalyse oder zum semantischen
Dokumentenvergleich. Arbeitet mit der Technik des unüberwachten Lernen

Aim is to determine similarity between pairs of documents, or the similarity between a specific
document and a set of other documents (such as a user query vs. indexed documents).
117
Gensim ist ein Open-Source-Softwaretool, dass es ermöglicht aus großen Datenmengen die
semantischen Beziehungen zwischen Wörtern selbst zu erlernen, indem betrachtet wird, welche
Wörter oft im gleichen Kontext (d. h. den Wörtern vor und nach einem betrachteten Wort)
vorkommen. Das entstehende Modell könnte beispielsweise bei der Textklassifizierung verwendet
werden, sodass nicht nur der Suchbegriff eines Benutzers, sondern auch alle Wörter mit einer sehr
hohen Ähnlichkeit zum Suchbegriff berücksichtigt werden. Das Modell kann man sich als Vektorraum
vorstellen mit so vielen Dimensionen wie es Wörter in den Trainingstexten gibt. Jedes Wort wird
aufgrund seiner Ähnlichkeit zu allen anderen Wörtern eingeordnet. Es wurde herausgefunden, dass es
möglich ist hierdurch Relationen zu bilden, z. B. king-man+woman=queen (Algorithmus: Latente
semantische Analyse)

Wir haben jeweils die ähnlichsten Wörter zu „wissen“, „lernen“ und „organisation“ angesehen im
Skript „Informations- und Wissensmanagement“. Die Kosinus-Ähnlichkeiten sind sehr hoch. Grund
hierfür ist wahrscheinlich, dass die Vorlesungsskripte besonders vorbereitet waren (Satz-
Segmentierung, Löschen von Stop-Wörtern). Für ein ausgereiftes Modell würde man sehr viel mehr
Texte benötigen, um die Beziehungen zu lernen. Algorithmus wäre z.B. Latente Semantische Analyse.

Kontrollfrage: Was ist semantik Web?

10.2 Drei Säulen der Anwendung 4.0

Abb. 10/2: Die Säulen von 4.0

Digitalisierung
118
Ursprünglich meint Digitalisierung „das Umwandeln von analogen Informationen in digitale
Formate.“ (Litzel N., 2017a). Digitalisierung bedeutet die digitale Repräsentationen von analogen
Informationen, physischen Objekten oder Ereignissen. Ziel ist es, die digitalen Informationen zu
speichern, zu verteilen oder zu verarbeiten.
Digitaler Wandel beschreibt die durch die Digitalisierung ausgelösten Veränderungsprozesse in der
Gesellschaft inklusive Wirtschaft, Kultur, Bildung, Politik und anderen Branchen.
• Datenanalyse und –übertragung
• Arbeit und Produktion
• Sicherheit
Datenanalyse und -übertragung (vgl. Neugebauer R., 2018, S. 10f.): Materielle Objekte (komplexe
Anlagen, Objekte oder aber auch Medikamente) könne über Parameter wie Aufbau, Form und
Zusammensetzung digital rekonstruiert und auf Computern dargestellt werden. Dies bringt den
Vorteil, dass per Simulationen ihre Tauglichkeit getestet werden kann, ohne Aufwände in eine reale
Umsetzung zu stecken.
Arbeit und Produktion (vgl. Neugebauer R., 2018, S. 12ff.) . In der Arbeitswelt hat die E-Mail den
Brief in der Kommunikationswelt nahezu vollständig verdrängt. Produktentwickler zeichnen
ihre Pläne am Computer, nicht mehr am Reißbrett, ebenso wie Ingenieure ihre Prototypen am
Rechner entwerfen. Eine weitere fortschrittliche Errungenschaft durch die Digitalisierung im Arbeits-
und Produktionsumfeld ist die generative Fertigung, der sogenannte „3D-Druck“.
Sicherheit (vgl. Neugebauer R., 2018, S. 15ff.); Wichtig bei der Digitalisierung ist die Validierung und
sichere Dokumentation von Transaktionen, die digital durchgeführt wurden. „Daten sind leichter zu
manipulieren als physische Objekte, da sie schnell kopiert werden können und die Veränderung nur
weniger Befehle im Computercode ausreichen kann, um die Wirkung des gesamten Systems
abzuändern. Eine Papierbanknote oder ein materielles Objekt zu fälschen ist hingegen viel
aufwendiger.“ (Neugebauer R., 2018, S. 16) IT- und Datensicherheit ist essentiell für das
Funktionieren der digitalen Gesellschaft. Dies betrifft den Schutz vor unbefugtem Zugriff auf und
Manipulation von Daten und Dateninfrastrukturen sowie die Sicherheit persönlicher und
personenbezogener Daten.
Vernetzung
Kommunikationsnetze sind ein Treiber der digitalen Transformation. Vernetzung bezeichnet die
„bloße Verbindung von Technologien und IT-Systemen“ (Pause D., 2017). Dabei steht der Austausch
von Daten und Informationen innerhalb einer Gemeinschaft im Vordergrund.
Ziel der Vernetzung ist es in erster Linie, eine digitale Verbindung zwischen zwei Endpunkten zu
schaffen. Stichwort ist hierbei die digitale Kollaboration. Kollaboration ist die vernetzte
Zusammenarbeit von Menschen untereinander, aber auch von Mensch und Maschine oder nur
Maschinen.
Vernetzung: Anwendungsbereich: IoT. „Internet der Dinge“ oder „Internet of things“ (IoT) ist einer
der großen Anwendungsbereiche der Vernetzung. Dabei geht es in erster Linie um „die Vernetzung
von Gegenständen des Alltags oder von Maschinen im industriellen Umfeld per Internet. Geräte
bekommen im Netzwerk eine eindeutige Identität (Adresse) zugeteilt und sind in der Lage, über das
Internet zu kommunizieren. Neben der Möglichkeit der Geräte untereinander, gibt es auch
Schnittstellen, über die sich die Geräte durch einen Benutzer steuern lassen“ (Litzel N., 2016). Unter
die professionellen Einsatzgebiete fallen vor allem die Industrie, die Warenwirtschaft, die
Automobilindustrie oder das Gesundheitswesen. Dabei kommunizieren Kraftfahrzeuge bspw.
direkt mit den Werkstätten, um Fehlercodes zu übertragen. Im privaten Umfeld gibt es „Smart
Home“. Dabei gehen die Möglichkeiten von der Beleuchtungssteuerung über Alarmanlagen mit
Fernüberwachung bis hin zur automatischen Heizungs- und Klimakontrolle.

119
Künstliche Intelligenz (siehe Kap. 1)

10.3 E-Commerce 4.0


10.3.1 Motivation
Wer ist zurzeit der reichste Mann der Welt? Ein Händler, der 56-Jährige Jeff Bezos. Das geschätzte
Vermögen von Amazon-Chef Jeff Bezos beträgt ca. 117,08 Milliarden Euro. Mit seinem Online-
Versandriesen Amazon setzt er jährlich riesige Umsätze um.
Er startete sein Geschäftsmodell mit E-Commerce, also mit Elektronischem Handel, auch
Internethandel, Onlinehandel oder Ein- und Verkaufsvorgänge mittels Internet genannt. Anfang der 90-
er Jahren begannen Versandhäuser wie Quelle und Otto mit Produktkatalogen auf CD, das waren die
Vorläufer. Die Arbeitsgruppe WI am FORWISS in Erlangen entwickelte 1993 für Rauch Möbel eine
der ersten Produktkatalog CDs in Deutschland und baute in ihren Verkaufs-Assistenten für Triumph
Adler schon KI-Elemente ein wie Benutzermodellierung (Mertens, P.; Popp, H. 1993). Ab Mitte der 90-
er Jahre verbreitete sich das Internet und damit wuchs E-Commerce. In der Nummerierung und
Versionierung von Industrie 4.0 wäre das E-Commerce 3.0.
So wollen wir folgende 7 Aspekte des E-Commerce 4.0 betrachten:
1. Semantic Web für E-Commerce 4.0
2. Characteristica von E-Commerce 4.0 Anwendungen
3. Shopping Agents
4. Konfiguratoren und Mass Customization
5. Kollaboratives Filtern
6. E-Commerce 4.0 durch Chatbots
7. E-Commerce 4.0 im Lebensmitteleinzelhandel
Der E-Commerce Umsatz steigerte sich von 2019 auf 2020 um 25%, wovon man 10 %, also 1 /2,5=40%
der Steigerung der Corona Pandemie zuschreibt.
Im Vertrieb müssen die Aufgaben, die schon immer kostenintensiv und zeitaufwendig waren, gezielt
automatisiert werden – beispielsweise quantitative Kundenakquise, Verwalten von Kundendaten,
Analyse von Kundenbedürfnissen anhand deren digitaler Spuren oder die Prognostizierung von Trends.
Wenn all diese Prozesse automatisch ablaufen, können Unternehmen nicht nur Geld und Kosten
einsparen. Ja, sie dienen auch als empirisches Fundament, um Entscheidungen treffen zu können,
Unternehmensprozesse zu optimieren und Leistung zu steigern. Zukunftsträchtige Technologien dafür
wären Augmented Reality, Smart Products, Smart Logistics und Künstliche Intelligenz. All dies sind
bekannte Technologien, die bereits auf dem Markt genutzt werden und immer weiter ausgebaut werden.
Immer mehr Unternehmen zählen auf diese zukunftsträchtigen Technologien, um sich am Markt zu
behaupten.
Sowohl Amazon als auch fortschrittliche Händler setzen zurzeit auch schon einige 4.0 Techniken ein
wie Collaboratives Filtern und Chatbots. Aber dazu später.

10.3.2 Charakteristika von E-Commerce 4.0 Anwendungen


(Kollmann 2010)
Blogs und Wikis können die Basis für Web 3.0 legen, da sie Informationen in hierarchisch
strukturierte Gruppen einordnen lassen und Beziehungen zueinander setzen lassen. Die Komponenten
der Blogging- und Wiki-Welt und ihre Beziehungen zueinander müssen in eine Ontologie und in RDF
(Ressource Description Framework) überführt werden.
Nachfrageorientierte Plattformen
Web 3.0 Plattformen werden sich die Bedürfnisse des Kunden zu eigen machen, z.B. „optimal zu mir
passendes Auto“ . Das geschieht mit intelligenten und benutzerfreundlichen Oberflächen, die
Lösungen aus gesammelten Informationen ableiten. Das der jeweiligen Nachfrage entsprechende
Objekt wird weniger aus der Informationsflut des Web, sondern vielmehr durch menschliche Referenz

120
aus einem übersichtlich strukturierten Pool von Partnerunternehmen generiert, die dann aber für die
Vermittlungsleistung des Plattformbetreibers eine Provision entrichten.
Semantische Web Services
Anreichern der bisherigen Dienstbeschreibungen (z.B. im Amazon AWS) mit auf standardisierten
Ontologien basierenden Metadaten.
Kontextadaptive Plattformen
Sie berücksichtigen den Kontext des Benutzers bei der Zusammenstellung von Informationen und
Diensten. Sie werden dem Benutzer gezielt Webressourcen anbieten, die seine individuelle
Bedürfnislage (z.B. Ortsinformation, Nutzerprofil) befriedigen bzw. in der aktuellen Situation mit
hoher Wahrscheinlichkeit von Nutzen sind.
Konfiguratoren (siehe Kap. 10.3.4)
10.3.3. Shopping Agenten
Unternehmen müssen ihre Produktinformationen auf ihrer eigenen Homepage in
maschineninterpretierbarer Form (z.B. in OWL und RDF) angeben und können dann von auf Semantic
Web Technologien basierenden Anwendungen gefunden werden. Auf Konsumentenseite wird es für
den Konsumenten leichter jenes Angebot zu finden, dass optimal seinen Anforderungen entspricht.

Die semantische Technologie ermöglicht die Entwicklung von Shopping Agenten, die die
Produktinformationen und Allgemeinen Geschäftsbedingungen interpretieren und verarbeiten können.
Daraus entsteht eine Reihe von Vorteilen:

• Produktinformationen und -preise werden korrekt extrahiert und Zustellungskonditionen und


die Allgemeinen Geschäftsbedingungen werden hinsichtlich der Anforderungen des Users
interpretiert werden können.
• Zusätzliche Informationen über die Reputation des Online-Händlers können aus anderen
Quellen hinzugezogen werden, beispielsweise von unabhängigen Ratingagenturen oder aus
Bewertungsplattformen von Konsumenten.
• Intelligente Shopping Agenten werden automatisch Verhandlungen für den Käufer mit dem
Shopping Agent des Verkäufers führen können.

Das folgende Szenario ist ein konkretes Beispiel:


Der Shopping Agent wird beauftragt, ein geeignetes Auto zum Kauf ausfindig zu machen. Er kennt die
Vorlieben des Besitzers und trifft eine Vorauswahl der infrage kommenden Modelle. Der Agent
kontaktiert die Agenten verschiedener Anbieter und wählt schließlich eine kleine Auswahl der in der
Nähe befindlichen Anbieter aus. Die Agenten tauschen Preise, Produkt-Details und Lieferbedingungen
aus und führen gegebenenfalls automatisch die Verhandlungen durch. Dabei wird der Shopping Agent
die Reputation der Anbieter anhand unabhängiger Quellen mitberücksichtigen. Wird tatsächlich ein
geeignetes Angebot gefunden, greift der Agent auf den persönlichen Terminkalender zurück, um freie
Termine zu finden und einen Zeitpunkt zur Probefahrt mit dem Agenten des Anbieters zu vereinbaren.
Schließlich informiert der Shopping Agent ein mobiles Endgerät, welches der Besitzer bei sich trägt.

10.3.4 Konfiguratoren mit Mass Customization


Produktkonfiguratoren werden zunehmend direkt bei der Bestellung über das Internet möglich. Sie
ermöglichen Angebote mit hohem Variantenreichtum. Für ein Variantenprojekt sind Produkte geeignet,
die sich aus Baukästen zusammensetzen lassen oder variable Abmessungen benötigen. Mit Hilfe von
Konfiguratoren können preiswerte Konsumgüter wie Uhren und Turnschuhe individualisiert werden.
Gekoppelt mit dem Engineering-data-Managementsystem erlaubt es der Web-Shop, dass der Kunde
individuelle Lösungen konstruiert.

121
Mit Secon Web hat die Stuttgarter Camos (www.camos.de) einen Browserfähigen Produktkonfigurator
im Angebot, der dem Kunden auch erklärungsbedürftige Produkte näher bringt. Auf einem Server
werden die Regeln und Erklärungen für das Zusammenstellen der einzelnen Komponenten hinterlegt.
Permanente Plausibilitätsprüfungen stellen die Konfiguration technisch korrekter Lösungen sicher. Stets
aktualisierte Preislisten erlauben die Erstellung eines verbindlichen Angebots.
Autohersteller wie Opel, BMW und VW bieten potenziellen Käufern Car-Konfiguratoren über Internet
an. Damit kann der Kunde persönlich sein eigenes Traumauto gestalten. Er kann z.B. die Farbe, die
Innenraumausstattung und die Motorstärke für seinen Wagen am heimischen Bildschirm bestimmen.
Vor der Übertragung der Daten an die Produktionsabteilung steht dann noch die Machbarkeitsprüfung.
Konfiguratoren kann man klassifizieren in aktive und passive. Die Aktiven unterteilen sich wiederum
in vollautomatisch und System schlägt Lösungsalternativen vor. Die Passiven überwachen den Benutzer
und kritisieren sobald falsche Teile zusammengebaut werden.
Eine wichtige Anwendung von Konfiguratoren ist Mass Customization (Technologie & Management
5-6/2001, S. 16, www.mass-customization.de). Kundenindividuelle Massenproduktion (Mass
Customization) heißt Uhren in 300 Mrd. Kombinationen, maßgeschneiderte Levis-Jeans , die eigene
Kosmetiklinie für jede Frau, individuelle Vitamintabletten oder selbst designte Sportschuhe sind
Produkte, die schon heute im Internet individuell konfigurierbar und bestellbar sind - zu Preisen
vergleichbarer Massenprodukte. Beispiel ist E.L.S.E. experiments with RoboShoe 3D Configurator.
Ziel dabei ist, die Vorteile der massenhaften Produktion mit denen einer Einzelfertigung zu verbinden.
Die eigentlichen Kosten der individuellen Produktion in Massenmärkten entstehen nicht auf der
Produktionsseite, sondern an der Schnittstelle zum Kunden. Sie beruhen aus der Erhebung und
Spezifikation der Kundenwünsche über das individuell zu fertigendem Produkt, auf der Übermittlung
der Spezifikation an die Fertigung, auf der erhöhten Komplexität in der Produktion selbst.
Spezielle Konfigurationsprogramme bringen die Kundenbedürfnisse mit den Fähigkeiten des Anbieters
in Einklang.
Ausgestattet mit einer einfachen Benutzerschnittstelle, leiten die Konfigurationsprogramme den Kunden
durch die verschiedenen Schritte zur Erhebung der entsprechenden Individualisierungsinformation und
prüfen sogleich die Fertigungsfähigkeit der gewünschten Variante. An die Konfiguration schließt sich
die Abwicklung in der Fertigung an. Nur wenn eine durchgängige Informationsverbindung vom Kunden
bis zur Fertigungsstation geschaffen ist, kann die Produktion effizient individualisiert werden. Auf der
Grundlage einer vorgegebenen Produktarchitektur geht ein Mass-Customization-Konzept im Gegensatz
zu einer herkömmlichen Einzelfertigung von einer eingeschränkten Flexibilität aus.
Beispiel ist das Passauer Unternehmen mymuesli
(https://www.mymuesli.com/mixer/ingredients).
10.3.5 Kollaboratives Filtern
Aufbauend auf der Bildung von Kundengruppen auf Basis persönlicher Daten wie Shopping-
Transaktionen werden Webinhalte oder Produktempfehlungen, die von Kunden der gleichen
Kundengruppe konsumiert bzw. gekauft wurden, auf der Website angezeigt.
Beim kollaborativen Filtern (collaborative filtering) werden Verhaltensmuster von Benutzergruppen
ausgewertet, um auf die Interessen Einzelner zu schließen. Dabei handelt es sich um eine Form des Data-
Mining, das eine explizite Nutzereingabe überflüssig macht.
Das Ziel der Methode ist eine automatische Vorhersage (Filtern) von Benutzerinteressen. Zu diesem
Zweck werden Informationen über das Verhalten und Vorlieben von möglichst vielen Nutzern
gesammelt (Kollaboration). Die zugrunde liegende Annahme von kollaborativem Filtern ist, dass
jemand, der sich für etwas (z.B. Amazon – Bücher, Dienstleistungen oder Sehenswürdigkeiten - Orte)
in der Vergangenheit interessiert hat, sich auch in der Zukunft dafür interessieren wird. Durch
kollaboratives Filtern kann für den Benutzer eine Vorhersage gemacht werden, welche Bücher einem
Benutzer gefallen könnte. Der Output wäre eine Liste mit möglichen favorisierten Büchern. Es gilt zu

122
beachten, dass diese Vorhersage für jeden einzelnen Benutzer individuell gemacht wird. Die
Datengrundlage zur Vorhersage wird von der Gesamtheit der Nutzer gesammelt.
Ein spezifisches Problem kollaborativer Filter besteht in ihrer Latenzzeit: Ein neuer Nutzer tritt mit
einem leeren Benutzerprofil in das System ein. Da seine Interessen noch nicht bekannt sind, kann er zu
Beginn keine sinnvollen Empfehlungen erhalten. Gleiches gilt für neu in das System eintretende
Elemente (z. B. Produkte in einem Online-Shop). Sie weisen keine quantifizierbare Ähnlichkeit mit
anderen Elementen auf und können damit nicht sinnvoll empfohlen werden. Es handelt sich bei
kollaborativen Filtern also um lernende Systeme.

Abb. 10/3.: Darstellung der Empfehlung


Kollaboratives Filtern läuft meistens in zwei Schritten ab.
1. Suche nach Nutzern, die das gleiche Verhaltensmuster wie der aktive Nutzer haben
2. Verwendung der Verhaltensmuster um eine Vorhersage für den aktiven Nutzer zu treffen.
Das artikelbasierte kollaborative Filtern, das bei Amazon.com im Einsatz ist („Das könnte Sie auch
interessieren.“) funktioniert wie folgt:

Abb. 10/4: Kollaboratives filtern bei Amazon


1. Es wird eine Ähnlichkeitsmatrix zwischen den Nutzern eines Angebots gebildet. Damit können den
Nutzern jene Elemente präsentiert werden, die von ihren statistischen Nachbarn genutzt und/oder
positiv bewertet wurden (siehe Abb. 10.3)

123
2. Es wird eine Ähnlichkeitsmatrix zwischen den Elementen (wie Produkte) eines Angebots gebildet.
Darin werden jene Inhalte als ähnlich definiert, die oft von denselben Personen genutzt und/oder
positiv bewertet wurden.
Im heutigen Informationszeitalter stellen sich diese und ähnliche Technologien als äußerst hilfreich
für die Produktauswahl heraus, gerade wenn bestimmte Produktgruppen (z.B. Musik, Filme,
Bücher, Nachrichten, Internetseiten (Amazon (siehe Abb. 10.4), ebay, facebook, Google News, iTunes,
Last.fm – Musik, youtube, Trivago - Reisen..) so groß geworden sind, dass einzelne Personen das
gesamte Angebot nicht überblicken können.

10.3.6. E-Commerce 4.0 durch Chatbots


Die Unternehmensberatung Capgemini befragte im Rahmen ihrer Studie 2017 5.000 Studienteilnehmer
aus den USA, Großbritannien, Frankreich und Deutschland zu Sprachassistenten und zwar über
Einschätzung 2017 und in Zukunft 2020. Befragt wurden Menschen mit oder ohne Sprachassistenten.
Als Ergebnis wird der Sprachassistenz eine goldene Zukunft vorhergesagt.
Fakt ist, dass die Sprachtechnologie von Apple, Amazon und Google technologische Sprünge gemacht
haben. Mehr als 40 große Einzelhändler wollen mit der Google Technologie Online-Sprachbestellungen
umsetzen, allen voran Walmart.
Lt. Capgemini waren 80% von den Sprachfunktionen überzeugt bzw. begeistert. Die meisten Nutzer
verwendeten hierbei die Spracherkennungsfunktionen ihrer Handys. Insbesondere bei
Routinefunktionen (Ersparen von Texttippen, Erinnerungen, einfache Einkäufe) erfreuen sich die
Sprachassistenten einer hohen Beliebtheit. Daher bevorzugen auch 41% der Befragten solche
Assistenten vor Apps oder Websites. Spracheingabe wird also zur ernsthaften Alternative von Gestik,
Maus und Tastatur. So empfinden die Anwender die Sprachsteuerung komfortabler,
multitaskingfähiger, routine-entlastender, persönlicher und natürlicher.
Im Gegensatz zu den sündteuren Callcenter-Sprachcomputern, stehen die Sprachinterfaces den Händler
jetzt schon – quasi per Handy – zur Verfügung und müssen nicht teuer entwickelt werden. Entscheidend
ist hier das andere Ende des Sprachassistenten, der die Sprache in Ja-/Nein-Aktionen bringen muss. Nur
dann können diese als Schnittstelle für angedockte Programme fungieren. Aber auch hier sind schon
Softwareschmieden unterwegs, die solche Interfaces anbieten. Beispiel ist hier IFTTT (ifttt.com): Der
Webdienst arbeitet mit bestimmten Regeln, den „Applets“. Dies sind logische Verknüpfungen nach dem
Schema Wenn Ereignis A eintritt, führe Aktion B aus. Diese Applets für Alexa stellen die Verbindung
zu Diensten wie dem Google Kalender, Todo-List, Wunderlist, Gmail und allen anderen denkbaren
Apps und Webseiten her. Sie können dabei auf vorgefertigte Regeln zugreifen oder eigene Applets
erstellen.
Sprachsteuerung, insbesondere über Handyfunktionen, steht im Mobile Commerce eine große Zukunft
bevor, wenn die Anbieter ihre Shop-Funktionen mit den Steuerungsdiensten verbinden. Bevorzugt
einsetzbar sind diese Funktionen in allen Bereichen die die Bequemlichkeit oder Vertrautheit erhöhen
wollen. Die Einführung solche Funktionen ist nicht gerade Business as usual. Solide steuerbare Projekte
sind jedoch möglich. Der Sprachassistent, der immer freundlich rund um die Uhr in der Bestellaufnahme
Ihren Auftrag entgegennimmt, wird in naher Zukunft ihre Fax-, Mail- oder Warenkorbbestellung
vielfach ablösen. Außer: Ihr Drucker, ihr Kühlschrank oder Ihr Kopierer ist ihnen selbständig bei der
Nachbestellung schon zuvorgekommen.
10.3.7. E-Commerce 4.0 im Lebensmitteleinzelhandel
Das Unternehmen Amazon aus den USA arbeitet in seinem Amazon Development Centern aktiv an der
Weiterentwicklung von KI speziell im E-Commerce. Das Unternehmen hat mit Amazon Fresh
(Lebensmittelonlineshop) und Whole Foods global bereits das größte Umsatzvolumen (2.12 Milliarden
US$ in 2018) in der E-Commerce-Kategorie Essen & Getränke. Dabei wird ein Großteil dieses
Umsatzes im heimischen Markt USA generiert.
In der Supermarktkette Amazon GO kommt ein Geschäft ohne Registrier- und Selbstbedienungskassen
aus. Ein Kunde benötigt zum Einkauf ein Profil bei Amazon und die Amazon-Go-App. Am Eingang
muss sich der Kunde dann in der App mit einem QR-Code ausweisen. Im Anschluss dazu werden im
124
Geschäft alle Einkäufe automatisch erfasst und beim Verlassen über den Amazon-Account des Kunden
abgerechnet (Just walk out – Technologie). Dabei kommen Sensoren zum Einsatz, welche ähnlich beim
autonomen Fahren auf Maschinellem Sehen beruhen. Letztlich füttern eine Kombination aus Kameras
und unterschiedlicher Sensoren einen lernenden Algorithmus der erkennt, welche Produkte aus dem
Regal genommen wurden, mit Daten. Außerdem wird die Position des Kunden getrackt.
Maschinelles Lernen kommt auch bei der Reifegradbestimmung von Obst und Gemüse zum Einsatz.
Der Lebensmittelshop Amazon Fresh nutzt diese Technologie, verbunden mit Algorithmen, um dem
Kunden mehr Verlässlichkeit beim Online-Lebensmittelkauf zu gewährleisten. Das automatisierte
System besteht aus einem Förderband, welches die Lebensmittel in Behältern zu einem Sensor
transportiert. Dieser Sensor kann mehr Informationen aufnehmen als das menschliche Auge. Die
Maschine gleicht dann die Produkte mit bereits abfotografierter Ware ab und lernt so beständig die
Qualitätsstandards (Buxmann & Schmidt, 2019, S. 68–69).
Darüber hinaus generiert Amazon für sein Lebensmittelsortiment Nachfrageprognosen. Dabei kommen
probabilistische Ansätze zur Anwendung. Ziel dieser Prognosen ist, schon im Vorfeld zu ermitteln, was
Kunden in einer entsprechenden Region in zehn Tagen kaufen wollen. So sollen Lieferengpässe
vermieden werden. Damit dies gelingt „erstellen Algorithmen aus der wachsenden Zahl an Daten der
Vergangenheit Vorhersagen für die Zukunft“. Schließlich lernt das System mit jeder korrekten oder
inkorrekten Prognose dazu (Buxmann & Schmidt, 2019, S. 70).

10.4. Industrie 4.0


10.4.1 Definition Industrie 4.0
Die „1. Industrielle Revolution" war eine neue Möglichkeit des Antriebs. Bezeichnend ist, dass diese
Innovation nicht nur in einer Branche, sondern querschneidend durch viele Lebensbereiche Einzug
hielt - natürlich im produzierenden Gewerbe im engeren Sinne, aber beispielsweise auch im
Transportwesen (Dampfschiffe und Dampflokomotiven), in der Landwirtschaft oder im Bergbau.
Kennzeichen der zweiten industriellen Revolution sind die Massenproduktion und das Fließband.
Die dritte industrielle Revolution basiert auf dem Einzug von Mikroelektronik und Software und
besteht in einer hochgradigen Automatisierung von Abläufen, ohne allerdings das Fließband und die
Massenproduktion ernsthaft in Frage zu stellen.
Der Begriff "Industrie 4.0" bezeichnet die vierte industrielle Revolution. Die seltsame
softwaretypische Versionierung „Vier-Punkt-Null" soll wohl verdeutlichen, dass es sich um eine durch
Software getriebene Veränderung handelt.
Die "Umsetzungsempfehlungen für das Zukunftsprojekt „Industrie 4.0" sehen als zentrales Element
von „Industrie 4.0 "eine Vernetzung von autonomen, sich situativ selbst steuernden, sich selbst
konfigurierenden, wissensbasierten, sensorgestützten und räumlich verteilten Produktionsressourcen
(Produktionsmaschinen, Roboter, Förder- und Lagersysteme, Betriebsmittel) inklusive deren
Planungs- und Steuerungssysteme." [Kagermann/Wahlster 2013] Man möchte dadurch mehr
Flexibilität erreichen. Die Anlagen sollen sich selbst auf geänderte Rahmenbedingungen einstellen
können und zwar sowohl in Bezug auf die Produkte als auch im Hinblick auf die Abläufe.

Industrie 4.0 ermöglicht letztlich massenindividualisierte Produkte statt uniformer Massenprodukte


und einen sich selbst organisierenden, flexiblen Produktionsprozess anstelle einer stupiden Abfolge
von immer gleichen Schritten. Man kann davon ausgehen, dass diese Veränderung querschneidend
durch viele Anwendungsbereiche stattfinden wird. Es gibt Anwendungsbereiche, die die Industrie 4.0-
typische Flexibilität unbedingt erfordern wie die derzeit viel diskutierten Systeme zur Erzeugung und
Verteilung regenerativer Energien, aber auch Zukunftsszenarien aus dem Bereich Landbau oder
integrierte, vernetzte Transportsysteme.
Informatik spielt an vielen Stellen in diesen Systemen die zentrale Rolle. Massenindividualisierung
verlangt, den Kundenwunsch zu erkennen. Das erfordert einschlägige Datenanalysen. Hier gibt es
einen Berührungspunkt zwischen Industrie 4.0 und den Aktivitäten im Bereich "Big Data".
Der Kundenwunsch muss in die technische Ebene weitergeleitet werden, um ihn dort umzusetzen. Das
125
verlangt eine Verbindung von Informationssystemen mit der eigentlichen Produktion. Die flexible
Rekonfiguration der Bestandteile eines Industrie 4.0- Systems erfordert die Fähigkeit, die Zulässigkeit
einer erwünschten Konfiguration autonom zu bewerten. Eigenschaften, wie z. B. Sicherheit im Sinne
von Safety, die bisher von Menschen bei der Konzeption einer Anlage vorab sichergestellt wurden,
müssen nun vom System zur Laufzeit immer wieder bewertet werden. Außerdem müssen die Systeme
zwangläufig über diverse Schnittstellen verfügen: um funktionieren zu können.
Es ist nicht auszuschließen, dass über diese Schnittstellen auch Bedrohungen entstehen, so dass
umfassende Schutzmechanismen nötig werden.
Industrie 4.0 im weiteren Sinne ist ein Oberbegriff für Systeme, bei denen feste, unveränderliche
Strukturen, die von Menschen während der Entwicklung der Systeme definiert wurden, durch flexible,
sich autonom rekonfigurierende Strukturen ersetzt werden, die während des laufenden Betriebs durch
das System selbst immer wieder bewertet werden müssen. Derartige Systeme werden wir in Zukunft
immer öfter antreffen. Es ist natürlich klar, dass neben den Vorteilen, ähnlich wie zu Beginn der
Nutzung der Dampfmaschine, auch Risiken mit dieser Entwicklung verbunden sind.
Die Abwehr der Gefahren wird im Wesentlichen Aufgabe der Informatik sein, und daher ist es die
Informatik, die letztlich entscheiden wird, ob Industrie 4.0 gelingen wird.
10.4.2 Wesentliche Konzepte
Industrie 4.0 bezeichnet als Sammelbegriff eine Vielzahl aktueller Konzepte, deren genaue
Abgrenzung im Einzelfall nicht exakt möglich ist. Im Folgenden werden wesentliche Bestandteile
aufgezählt:
✓ Smart Factory: Die Fertigung wird vollständig mit Sensoren, Aktoren und autonomen
Systemen ausgestattet. Durch den Einsatz der "intelligenten Technik" in Verbindung mit
ganzheitlich digitalisierten Produkt- und Fabrikmodellen (Digitale Fabrik) und dem Einsatz
vielfältiger Techniken des Ubiquitous Computing entstehen sich selbst steuernde, sog. Smart
Factories. Schauen wir uns das noch näher an: Smart Factory bezeichnet die echtzeitfähige,
intelligente, horizontale und vertikale Vernetzung von Menschen, Maschinen, Objekten und
IKT-Systemen zum dynamischen Management von komplexen Produktionssystemen. Smart
übersetzt bedeutet schlau, clever, intelligent. Intelligenter sollen zum einen die Anlagen und
Maschinen werden, zum anderen aber auch die erzeugten Produkte. Durch die Intelligenz und
Vernetzung sollen autonom funktionierende Bereiche entstehen. Z.B. bei der Papierindustrie
kann dies folgendermaßen aussehen: Die produzierte Rolle kennt die eigene
Materialspezifikation, den Fertigungsauftrag zu dem die Rolle produziert wurde, sowie
Qualitätsinformationen aus dem Labor. Die Rolle meldet in der Smart Factory aktiv den
Status: „Ich bin fertig produziert – benötigt mich jemand für die Weiterverarbeitung?“
Bekommt die Rolle keine Rückmeldung, erstellt das Halbfabrikat eigenständig einen
Fahrauftrag für das fahrerlose Transportsystem zur Einlagerung in ein Hochregallager. Meldet
sich hingegen ein Querschneider: „Ich benötige in 10 Min. eine weitere Rolle zur
Verarbeitung“, erstellt die Rolle einen Fahrauftrag zum Querschneider. Ist die Rolle am
Querschneider angekommen, übergibt die Rolle dem Querschneider die
Qualitätsinformationen. Aufgrund der Auftragsdaten am Querschneider und den
ausgetauschten Qualitätsinformationen erstellt der Querschneider ein ausschussoptimiertes
Schneideprogramm
✓ Cyber-physische Systeme: Es findet eine Verschmelzung zwischen der physischen und der
digitalen Ebene statt. Wenn dies sowohl die Produktions- als auch die Produktebene umfasst,
führt dies zu Systemen, deren physische und digitale Repräsentation nicht mehr sinnvoll
differenziert werden können. Ein Beispiel hierfür findet sich im Bereich Preventive
Maintenance: Hier werden zu mechanischen Komponenten, die einem Verschleiß unterliegen,
(physisch) die Einsatzparameter (Belastung, Produktivzeit etc.) digital erfasst. Der reale
Zustand des Systems ergibt sich damit aus dem physischen Objekt und dessen digitalen
Einsatzparametern.
✓ Selbstorganisation: Vorhandene Fertigungssysteme entwickeln sich zunehmend dezentral.
Dabei kommt es zu einer Auflösung der klassischen Produktionshierarchie und zu einem
Wechsel hin zu einer dezentralen Selbstorganisation.

126
✓ Neue Systeme im Vertrieb und in der Beschaffung: Vertrieb und Beschaffung werden
immer mehr individualisiert. Zugehörige Prozesse werden über eine Vielzahl
unterschiedlicher Kanäle abgewickelt.
✓ Neue Systeme in der Produkt- und Service-Entwicklung: Die Produkt- und
Serviceentwicklung wird individualisiert. Hierbei spielen Ansätze der offenen Innovation und
Produktintelligenz sowie -gedächtnis eine herausragende Rolle.
✓ Anpassung an den Menschen: Die neuen Fertigungssysteme sollen so ausgelegt werden,
dass sie den Bedürfnissen des Menschen folgen und nicht umgekehrt.
✓ Corporate Social Responsibility: Nachhaltigkeit und Ressourceneffizienz rücken zunehmend
in den Mittelpunkt der Gestaltung von industriellen Fertigungssystemen. Diese Faktoren
stellen wesentliche Randbedingungen für Produkterfolge dar.
✓ Digitaler Zwilling einer Produktionsstätte
Der digitale Zwilling einer Produktionsstätte wird umgangssprachlich als Digitale Fabrik
bezeichnet und ist das Bindeglied zwischen realer und virtueller Produktion. Durch die
Digitale Fabrik können, im Rahmen einer Industrie 4.0 fähigen Produktion, neue

Abb. 10/5: Beispiel für die Verknüpfungen einer Wertschöpfungskette in Industrie 4.0
Erfolgspotentiale geweckt werden.
Die Richtlinie VDI 4499 besagt, dass die Digitale Fabrik als Oberbegriff für ein umfassendes
Netzwerk von digitalen Modellen, Methoden und Werkzeugen, zum Beispiel der Simulation und 3D-
Visualisierung, die durch ein durchgängiges Datenmanagement integriert werden, definiert wird. Das
Ziel der Digitalen Fabrik ist die ganzheitliche Planung, Evaluierung und laufende Verbesserung aller
wesentlichen Strukturen, Prozesse und Ressourcen der realen Fabrik in Verbindung mit dem Produkt.
Um dieses Ziel zu erreichen, wird die reale Produktion in digitaler Form nachgebaut. Ein wichtiger
Bestandteil der Digitalen Fabrik ist der detailgetreue Nachbau der physischen Produktion mit allen
Arbeitsplätzen, Werkzeugen und Robotern. Neben der physischen Produktion, wird das Produkt selbst
127
ebenfalls digital nachgebaut. Dabei werden alle realen Informationen und Merkmale, beispielsweise
die Qualität, aus der Produktion berücksichtigt. Ebenso wird versucht, die Performance der Produktion
in digitaler Form darzustellen.
Die virtuellen Techniken der Digitalen Fabrik bieten eine optimale Ergänzung im Industrie 4.0
Umfeld, um die cyber-physischen Systeme mit zusätzlichen Erkenntnissen zu versorgen.
Dabei ermöglichen rechnergestützte Werkzeuge und Methoden, die gewünschten Produkte und
Prozesse virtuell in Modellen abzubilden, um die geplante Produktion zu optimieren und somit einen
fehlerfreien Betrieb zu erzeugen, der auf die reale Fabrik übertragen werden kann. Dies hat zum
Vorteil, dass die reale Produktion laufend überwacht und verbessert werden kann. Die Digitale Fabrik
stellt ein integriertes, digitales Modell eines Produktionsunternehmens dar, welches ermöglicht, dass
auf Kundenanforderungen und Markteinflüsse schnellstmöglich reagiert werden kann.
Fallbeispiel: Die Fabrik morgen: AI verändert Arbeitsabläufe. Die Firma Tetra Pak stellt
Produktionsanlagen für Getränkeverpackungen her – und nutzt heute Digitalisierung, KI, Big Data und
Analytics, um ihren Kunden individuelle Wartungs- und Instandhaltungskonzepte anzubieten. Mit
diesen Dienstleistungen können Tetra-Pak-Kunden ihre Kosten um bis zu 45 Prozent reduzieren – und
gleichzeitig ihre Produktivität steigern: Die Downtime der Maschinen kann um fast 80 Prozent
vermindert werden. Heute sind die Abfüllanlagen mit zahlreichen Sensoren ausgestattet. Diese messen
präzise beispielsweise Temperatur, Ausrichtung, Erschütterung oder Luftfeuchtigkeit.
Mit Advanced Analytics werden die Daten der Sensoren ausgewertet. Auf dieser Basis machen
intelligente Algorithmen in Echtzeit Vorschläge, wann die nächste Wartung oder Reparatur erfolgen
sollte.

10.5 Lehre 4.0


10.5.1 Bedarfssog und Technologiedruck für Lehre 4.0
In der Wirtschaft spielt neben dem Finanzkapital immer mehr das Wissenskapital eine wichtige Rolle,
das sich aufteilt in Strukturkapital und Humankapital. Das Humankapital beschreibt den Teil des
Wissenskapitals, das in den einzelnen Mitarbeitern steckt – deren Kompetenz, deren Lernfähigkeit,
deren Motivation und Grundeinstellungen. Dieses Humankapital muss das Unternehmen aufbauen.
Daher boomt der Weiterbildungsmarkt bisher schon. So hatten 2015 15,37 Mill. Berufstätige in
Deutschland besonderes Interesse an der beruflichen Weiterbildung. Der Umsatz der
Weiterbildungsbranche betrug 2015 10,7 Mrd. € und steigerte sich seitdem.
Nun kam als Beschleuniger die 4. Industrielle Revolution hinzu, die sich in Mitteleuropa mit dem
Begriff Industrie 4.0 etabliert. Industrie 4.0 ist die „Vernetzung von autonomen, sich situativ selbst
steuernden, sich selbst konfigurierenden, wissensbasierten, sensorgestützten und räumlich verteilten
Produktionsressourcen." (Kagermann 2013). In dieser Definition steckt sehr viel Künstliche
Intelligenz (KI), die auch im Alltag angekommen ist wie mit Siri von Apple oder Alexa von Amazon
oder Maschinelles Lernen in der Bilderkennung am Handy oder Fehlerdiagnose für Wartung.
Durch Industrie 4.0 entsteht ein Bedarfssog einerseits nach hochqualitativer Aus- und Weiterbildung
und andererseits nach vielen Umschulungsmaßnahmen.
Die Arbeitswelt verändert sich nämlich aufgrund der 4. Industriellen Revolution enorm, wie eine Studie
mit den Strategieverantwortlichen und Personalchefs von fast 400 großen Unternehmen aus aller Welt
2016 ergab (World Economic Forum 2016). Das Ergebnis war: 7 Millionen Jobs, vor allem klassische
Bürotätigkeiten, werden verschwinden. In der gleichen Zeit werden, so die Prognose, 2 Millionen neue
Jobs in den Bereichen der Computerwissenschaften, der Mathematik oder Informationstechnologie
entstehen; dies ist eine große Qualifizierungsherausforderung. Hier werden traditionelle Lehr- und
Weiterbildungsmethoden an ihre Grenzen stoßen. Das braucht neue Lern- und Ausbildungskonzepte,
eine neue Art und Weise der Wissensvermittlung. Es braucht also jetzt auch eine 4. Revolution in der
Lehre. Es entsteht also ein richtiger Bedarfssog nach Education 4.0. Da die KI in Industrie, Wirtschaft
und Privatleben Einzug halten konnte, gibt es auch einen Technologiedruck nach Lehre 4.0.

128
10.5.2 Vier Lehrrevolutionen
Betrachtet man die drei Säulen von „4.0“ (Digitalisierung, Vernetzung und KI) lässt sich schlussfolgern,
dass jeder dieser Teilbereiche für sich selbst stehen kann, aber gemeinsam ergeben sie eine Definition,
die man als Verständnis von „4.0“ auffassen kann, nämlich: Die Digitalisierung als Grundlage für die
vernetzte Zusammenarbeit von künstlichen Intelligenzen, welche verschiedene Branchen unterstützen.
Untersucht man nun die Lehre in Analogie zu den vier industriellen Revolutionen, ging die 1.
Lehrrevolution von der Einführung des Buchdrucks durch Gutenberg aus, da dadurch massenhaft
Lehrbücher produziert werden konnten. Mitte der 60er Jahre des vorigen Jahrhunderts entstand als 2.
Lehrrevolution der programmierte Unterricht in Lernbüchern und Lehrmaschinen von F.B. Skinner und
Crowder (Skinner 1959). Dabei wird ein Lehrtext in nummerierte Abschnitte gegliedert, an deren Ende
jeweils kleine Prüfungsfragen stehen. Von der jeweiligen Antwort des Lernenden hängt es ab, zu
welchem Abschnitt er als Nächstes geleitet wird.
Als 3. Lehrrevolution kann man E-Learning ansehen. Das sind alle Formen von Lernen, bei denen
elektronische und digitale Medien für die Präsentation und Distribution von Lernmaterialien und für die
Kommunikation zum Einsatz kommen. Dazu starteten Ende der 80er Jahre Modellversuche und es gab
erste Lernprogramme auf CDs (CBTs). E-Learning erlebte Mitte der 90-er Jahre durch den Einbezug
von Internet in Form von Web Based Trainings (WBTs) einen starken Aufschwung. Prof. Popp
praktiziert seit 1998 E-Learning (Popp 1999), legte 2000 einen berufsbegleitenden Studiengang
Wirtschaftsinformatik auf, der zu 50 % E-Learning enthält, und deckt seit 15 Jahren ca. 50% seiner
ganzen Lehre mit E-Learning ab.

Abbildung 10/6: Technologische Elemente von Education 4.0 mit ihren didaktischen Zielen (Popp
2018)
Nun stellt sich die Frage, wie könnte Education 4.0 konkret aussehen? Da empirische Untersuchungen
einen Notenvorteil von bis zu 0,4 Graden bei Blended Learning gegenüber der reinen virtuellen Lehre
ergeben haben (Popp 2014), sollen die Vorlesungen bei Lehre 4.0 immer noch in Form von Blended
Learning einen sehr interaktiven Präsenzteil (der natürlich auch als synchrone Videovorlesung
stattfinden kann) einschließen mit z.B. gemeinsamem Wiederholen des virtuellen Inhaltes,
Fragenbeantwortung, Aufgabenlösen in Kleingruppen und Präsentieren und Diskutieren der Ergebnisse.
Dies zeigt der 3. Teilschritt im Blended Learning Prozess (siehe Abb.10/7).
Der virtuelle Teil von Education 4.0 soll nun mit folgenden sechs Funktionen folgende Vorteile
erzielen (siehe auch Abb. 10/6):
• Individuelle Strukturierung von Lernprozessen durch Personalisierungsmethoden und
Lernmaterialanpassung an den Kenntnisstand der Lerner durch Adaptivitätsmethoden,
129
• Motivationssteigerung durch Gamification und mehr Anschaulichkeit durch VR/AR-
Methoden,
• Mobile Vernetzung von Lernenden in virtuellen Lerngruppen zu Communities of Practice,
• Frühes Erkennen von gefährdeten Studierenden durch Learning Analytics, um
Gegenmaßnahmen einzuleiten, die dadurch die Dropout-Rate senken,
• Entlastung des Kommunikationsaufwandes der Dozenten durch intelligente Teletutoren in
Form von Chatbots,
• Entlastung des Prüfaufwandes durch E-Assessment mit semantischer Analyse der
Prüfungsfragenantworten.
Aus unseren Erfahrungen sollte eine Präsenzphase mit synchroner Kommunikation, sei sie auch als
Videovorlesung gestaltet, wichtiger Bestandteil moderner Bildung und Weiterbildung bleiben.
Daher soll der Blended-Learning-Prozess in seinen Teilprozessschritten Orientierung, Digitale
Vorbereitung, Vernetzung, Nachbereitung, Reflexion und Evaluation mit KI-Techniken und mit
Sensoren unterstützt werden. Es entsteht damit ein effizienter Blended-Learning-4.0-Prozess von
Abb. 10/7, den wir nun näher betrachten.

Abb. 10/7: Phasen des Blended-Learning-Prozesses mit KI-Unterstützung


10.5.3.Verschiedene Lerntypen bedienen (Personalisierung) und Adaptivität
Der Stoff soll für verschiedene Lerntypen aufbereitet sein, da nicht jeder/jede Lernende mit den gleichen
virtuellen Materialien gleich gut umgehen kann. Auf der Grundlage der im Jahre 2006 durchgeführten
Experimente mit den sechs Lerntypen „Praktiker“, „Punktweise Wissen Suchender“, „Maßgeschneidert
Lernender“, „Klassischer E-Learning Studierender“, „Videolerner“ und „Chatter“ (Popp 2006),
empfehlen sich für einen mehr textuell Lernenden das interaktive Buch und für mehr mediengetrieben
Lernende das interaktive Video. Sie decken jeweils den ganzen Stoff ab. Die Steuerung beim
interaktiven Buch ist der mit Hypertext verlinkte Text, der mit Videos und interaktiven Kontrollfragen
durchsetzt ist. Beim interaktiven Video gibt es immer eine Wiederholung des Tripels „kurzes Video,
Test des Gesehenen und Video zum Test“. Bei den eingesetzten Videos, die eine Länge von nur 5-15
Minuten haben, ist links der Dozent zu sehen und rechts werden die Folien faktenweise weitergeblättert
(Popp 2014).
Die Studierenden arbeiten zu Semesterbeginn lieber mit dem interaktiven Buch. Im Laufe des Semesters
gleicht sich das aus (Popp 2020).
Wichtig ist auch die Anpassung der Kursbausteine an die Vorkenntnisse und das Lernverhalten
(Adaptivität).
Diese Anpassung kann mit einem Einstiegstest am Anfang geschehen, bei dem jedes Kurskapitel mit
zwei bis drei Fragen vertreten ist. Das Programm wertet ihn automatisch aus und entwickelt eine
prozentuale Einschätzung des vorhandenen Wissens in dem jeweiligen Kapitel. Daraus generiert der
Kurskonfigurator eine Empfehlung, welche Kapitel für den einzelnen Studierenden aufgrund des
vorhandenen Basiswissens überflüssig sind bzw. welche Kapitel aufgrund von Wissenslücken studiert
werden sollten. Aus diesen Ergebnissen konfiguriert das Programm dynamisch eine individuelle
Kursoberfläche. Realisiert wurde der Einstiegstest an der TH Deggendorf in Moodle mit Java Skript-
Teilen und die Kurskonfiguration mit einem speziellen Template (Ciolacu 2016).
Eine andere Form der Adaptivität ist, wenn bei interaktiven Kontrollfragen das Programm einen Fehler
feststellt und auf eine Zusatzlehreinheit verlinkt um Kenntnisse erwerben zu lassen, damit dieser Fehler
nicht mehr gemacht wird.

130
10.5.4 Spielerische, kooperative und Virtual-Reality-Elemente zur Motivation (Gamification)
Aus den Erfahrungen der immer schwieriger werdenden Motivation der Erstsemester soll man in
virtuellen Kursen der Grundlagenfächer spielerische Momente einbauen. So finden die Lerner
spielerische Elemente wie Erfahrungspunkte, Highscores, Fortschrittsbalken, Ranglisten, virtuelle Güter
und virtuelle Praxisaufgaben.
Ein Motivationswerkzeug durch verbesserte Illustrationen wären Virtual-Reality (VR)/Augmented-
Reality (AR)-Elemente. Ein Beispiel der TH Deggendorf einer Virtual-Reality-Gruppenarbeit zur
Internetrecherche und EXCEL-Arbeit aus dem Jahr 2009 findet man in YouTube unter
(http://www.youtube.com/watch?v=wBlGXE9rmLw) (Mijic 2009). Die Grundausstattung zu VR ist
mittlerweile erschwinglich. Deutsche Unternehmen sollten Ende 2020 knapp 850 Mio. EURO in VR-
/AR-Lösungen gesteckt haben, wie die Unternehmensberatung Deloitte konstatierte. VR wird ein fester
Bestandteil der betrieblichen Bildung werden.

10.5.5 Sehr interaktive Präsenzphase (auch als synchrone Videovorlesung)


Der sehr interaktive Präsenzteil, der natürlich auch als synchrone Videovorlesung stattfinden kann,
beinhaltet gemeinsames Wiederholen des virtuell vorbereiteten Inhaltes, Fragenbeantwortung,
Aufgabenlösen in Kleingruppen und Präsentieren und Diskutieren der Ergebnisse.

10.5.6 Communities of Practice der mobilen Lerner


Auch der Kontakt unter den Teilnehmern spielt bei Lehre 4.0 eine große Rolle. Die Lerner sind (mobil)
vernetzt und bilden Communities of Practice (CoP), also virtuelle Lerngruppen. In ihnen geben kundige
Studierende ihr Wissen weiter. Ein gelungenes Beispiel dazu ist das Wissensmanagement „von
Studierenden für Studierende“ der TH Deggendorf, bei dem die Studierenden Tipps & Tricks zu
Prüfungen (wie soll man sich gut auf die jeweilige Prüfung vorbereiten) und digitale Materialien wie
Mitschriften zu Vorlesungen oder Klausurlösungen weitergegeben haben (Popp 2015). Ihre
Wissensbasis ist zurzeit mit 2600 Wissenseinheiten gefüllt.

10.5.7 Fragenbeantwortung durch intelligente Teletutoren (Chatbots) in der


Nachbereitungsphase
Ein Chatbot besteht aus einer Wissensbasis, die alle erdenklichen Frageformulierungen zum Thema und
den Antworten dazu enthält, sowie einer „Pattern Matching-Komponente“ zwischen Suchanfrage und
Wissensbasis. Die Wissensbasis an der TH Deggendorf ist in Artificial Intelligence Modelling Language
(AIML) programmiert und zum Pattern Matching wird dort das „Programm O“ verwendet. Folgendes
Beispiel zeigt einen Auszug aus dem Dialog mit dem Bot über Logik.
Student: Kannst du mir sagen, was eine Implikation ist?
Bot: Bei der Implikation wird aus den beiden Aussagen p und q die zusammengesetzte
Aussage "p → q" gebildet. Es sind auch die Redeweisen "p impliziert q", "wenn p, dann q"
oder "q folgt aus p" üblich. Die Implikation ist genau dann falsch, wenn p (die Prämisse) wahr
und q (die Konklusion) falsch sind, ansonsten ist sie immer wahr.
Student: Hast du auch ein Beispiel dazu parat?
Bot: Nehmen wir z.B. die beiden Aussagen "Weihnachten ist am 24.12." und "Ich fresse
einen Besen". Die Implikation der beiden Aussagen lautet "WENN Weihnachten am 24.12. ist
DANN fresse ich einen Besen". Diese Implikation ist falsch, da die Aussage "Ich fresse einen
Besen" definitiv falsch ist. Die Implikation "WENN Weihnachten auf Ostern fällt DANN fresse
ich einen Besen" hingegen ist wahr!
131
Student: Was ist dann aber eigentlich der Unterschied zwischen Implikation und Äquivalenz?
Bot: Der Unterschied zwischen Implikation und Äquivalenz liegt in der gegenseitigen
Bedingbarkeit der Äquivalenz. Bei der Implikation "p→ q" folgt q aus p, nicht aber
zwangsläufig p aus q, also gilt "q → p" hier nicht.
Bei der Äquivalenz "p > q" hingegen gilt sowohl "p → q" als auch "q →p".
Dieses Bot wurde durch den Einbau einer Ontologie (Begriffsnetz mit Ober-, Unter-,
Synonymbeziehung usw.) “intelligent” gemacht. Bei einer Anfrage eruiert das System erst, ob es zu den
angefragten Wörtern Synonyme gibt, und benutzt dann auch diese in der Frage. Gibt es keine passende
Antwort, sucht das System in der Ontologie nach Unter- und Oberbegriffen und benutzt diese in der
entsprechend modifizierten Frage, um Treffer in der Wissensbasis zu erhalten. Im folgenden Beispiel
hat der Chatbot den Oberbegriff (Information) genommen, da die Ursprungsbegriffe nicht in der
Wissensbasis vorhanden waren.
Student: „Was ist Fachinformation?“
Bot: Ich kenne Fachinformation nicht, aber Informationen sind kontextbezogen und besitzen
außerdem immer einen Sender (Quelle) und Empfänger. Der Mensch ist dabei im Mittelpunkt.
WolframAlpha.com ist eine intelligente Suchmaschine im Bereich Mathematik, denn sie findet nicht
nur Informationen, sondern versucht sie schon gleich aufzubereiten. So kann sie Ableitungen und
Stammfunktionen bilden.

10.5.8 Lokalisierung von Lerner mit Problemen durch Methoden des Maschinellen Lernens
Ein auf neuronalen Netzen basierendes Frühwarnsystem, das anhand der Aktivitäten im Kurs (Klicks in
den Moodle-Kursen und erreichte Punkte bei den interaktiven Kontrollfragen lernt, ob Studierende
damit durchgefallen sind oder nicht, dient zur Selbstkontrolle.
Bisher wurde das Frühwarnsystem an der TH Deggendorf für drei Kurse gelernt, getestet - was eine
Genauigkeit zwischen 76% und 95% ergab - und dann auch eingesetzt. Interessant ist, dass die
Aktivitätsdaten der Studierenden in den ersten 2 Semestern bessere Aussagen über Klausurergebnis
liefern (76 % richtig), als die Aktivitätsdaten von den 4 Monaten des Semesters (nur 70 % richtig).
In Abbildung 3 sieht man die Teilnehmer der drei Kurse (BWL Mathematik, BWL Informations- und
Wissensmanagement und WI Informationsmanagement) in der Lernphase, der Testphase und der
Anwendungsphase sowie die in der Anwendungsphase gefundenen gefährdeten Studierenden. Diesen
schickte das System eine Warn-E-Mail nach der Hälfte des Semesters mit der Konsequenz, dass beim
viermaligen bisherigen Einsatz die Durchfallquote (siehe Prozentangaben in Abbildung 5/3) jeweils
nahezu halbiert wurde. So zeigt die Spalte „BWL Mathe“, dass im Semester, in dem das
Frühwarnsystem angelernt wurde, 115 Studierende und im Semester, in dem es getestet wurde, 111
Studierende waren und über beide Semester die durchschnittliche Durchfallquote bei 21% lag. Im
Semester der Anwendung gab es 91 Studierende, von denen 20 nach 2 Monaten die Warn-E-Mail
erhielten. In der Klausur war dann die Durchfallquote nur 11 %. In der Spalte „BWL IWM“ waren im
Durchschnitt im Lern- und Testsemester 7% durchgefallen und im Durchschnitt der zweimaligen
Anwendung (einmal mit 82 Studierenden und einmal mit 113 Studierenden) betrug die Durchfallquote
3,5%.
Phasen BWL Mathe BWL IWM WI IM
Lernphase 115 (21%) 110 (7%) 60 (26%)
Testphase 111 (21%) 97 (7%) 53 (26 %)
Anwendungsphasen 91 (11%) 82; 113 (3,5%) 56 (13 %)
Gefundene Gefährdete 20 38; 51 20
Abbildung 5/3: Zahl der Studierenden (Datensätze) je Studiengang und Durchfallquote in
Prozent (Popp 2020)

132
10.5.9 Entlastung bei Korrekturarbeit durch automatisch ausgewertete Kompetenztests
Seit 5 Jahren werden an der TH Deggendorf nicht curriculare Mathematikklausuren in Form von
Multiple Choice-Fragen, Auswahlboxen und kleinen Zahleneingaben am Rechner absolviert und
automatisch von Moodle ausgewertet.
Interessant sind aber automatische semantische Auswertungen von Kurzantworten. Der einfache
Vergleich der relevanten Textstelle im Vorlesungsskript mit den Test-Antworten durch die Kosinus-
Ähnlichkeit führte mit einem mittleren relativen RMSE (Wurzel des mittleren quadratischen Fehlers)
von 0,493 zu den schlechtesten Evaluierungsergebnissen aller getesteten Ansätze. Als Verbesserung hat
sich die Ähnlichkeitsbestimmung zwischen der Test-Antwort und historischen Trainingsantworten
herausgestellt, bei der der Punktewert, der am ähnlichsten Trainingsantwort als Bewertung der Test-
Antwort übernommen wird. Von 10 getesteten Ansätzen (KI-Methoden) der Übereinstimmungen
zwischen den tatsächlichen und prognostizierten Bewertungen entpuppte sich der Ansatz auf Basis des
IBM Watson Discovery Service am besten mit 46 % Vergabe der gleichen Punktezahl (auf
Halbpunktebasis) wie Korrektor Prof. Popp.
Zum Testen wurden von 127 Prüflingen 2788 Kurzantworten zu 83 Prüfungsfragen zum Kurs
„Informations- und Wissensmanagement“ im Ba. BWL gesammelt. Für jede Antwort wurden vom
Prüfer im 0,5-er Schritt Punkt vergeben, von 2 Punkten bei kleinen Fragen bis 7 Punkte bei
umfangreicheren Fragen. Mit einer Genauigkeit von nahezu 50% genauer Übereinstimmung mit der
vom Prüfer vergebenen Punktezahl ist zwar ein beachtliches Ergebnis erreicht, aber es reicht noch nicht
für den praktischen Einsatz,
E-Assessment kann in Zukunft die Studentenidentifikation mit biometrischem Fingerabdrucksensor zum
Schutz der individuellen Identität nutzen.
10.6 Weitere 4.0 Anwendungen
Marketing 4.0
Der klassische Marketingmix wird daher umdefiniert und im digitalen Zeitalter zu folgenden vier Cs
umgetauft. Diese sind: Co-Creation, Currency, Communal Activation, Conversation. Marketing
Algorithmic kann Datensätze effizienter bearbeiten, größere Datenmengen schneller analysieren und
Muster sowie Trends frühzeitiger erkennen. Grundsätzlich können sie in 4 Bereichen implementiert
werden: in der Situationsanalyse, in der Marketingstrategie, in der Marketing-Mix-Entscheidung und
im Einsatz und der Kontrolle. Algorithmic Marketing ist ein datengetriebener Ansatz, um die
komplette Bandbreite des Marketings abzudecken. Dies erstreckt sich beispielsweise auf Bereiche wie
Marktforschung, dynamische Preismodellierung, Kunden-Support und Einkaufsunterstützung.
Besonders in der Fertigung und bei der Informationsbeschaffung gibt es zahlreiche Möglichkeiten 4.0-
Technologien einzusetzen. Die smarte Produktion, die den Kunden wissen lässt, an welcher Stelle der
Wertschöpfung sich sein bestelltes Produkt gerade befindet ist nur ein Beispiel. Der smarte
Konfigurator, der z.B. mittels KI, Zutaten, die zum Kunden passen, weiter nach oben schieben kann,
damit der Kunde sein Bestellprozess schneller ausführen kann. Durch eine vollumfängliche
Vernetzung der Produktionsstätten mit den E-Commerce-, Warenwirtschaft und Logistik-System wird
ein nahtloser Datentransfer und Produktionsablauf ermöglicht. Mit dem Einsatz vernetzter und smarter
Technologien stellt dieser einzigartige Gedanke der Produktindividualisierung ein klares
Einstellungsmerkmal in Punkto der Kundengewinnung und Bindung dar. (aus: ROMAN MARVI:
Marketing 4.0; Bachelorarbeit TH Deggendorf 2018)
Büro 4.0
Genauso wie zuhause will der Mitarbeiter seinen Arbeitsplatz an sich anpassen – also
personalisieren. Der Arbeitsplatz erkennt welcher Mitarbeiter sich darauf einrichtet und passt Höhe
des Schreibtisches und des Bürostuhls an. Dezentrale Abteilungen oder Projektteams können
dadurch in Real-time miteinander über Bild und Ton kommunizieren und kommen damit einer
persönlichen Unterhaltung sehr nahe, welche jedoch nicht vollkommen ersetzt wird.

133
Das Büro morgen: AI verändert Arbeitsabläufe. Digitalisierung und KI erhöhen aber auch die
Produktivität in Büros und haben somit unmittelbare Auswirkungen auf „White-Collar Workers“, auf
Dienstleistungen, Services, Bürotätigkeiten.
Intelligente Softwareroboter, wie sie etwa das Unternehmen Automation Anywhere programmiert,
können beispielsweise dabei helfen, Versicherungspolicen anzupassen – und das in einem Bruchteil
der Zeit, die ein Mitarbeiter dafür aufwenden müsste. Manuelles Hin-und-her-Springen zwischen
verschiedenen IT-Verfahren entfällt.
Der intelligente Roboter kann in sehr kurzer Zeit mit sehr geringer Fehlerquote alle Legacy-Verfahren
öffnen und die Daten übertragen. Ermöglicht wird dies, indem Softwareroboter Informationen aus
verschiedensten Verfahren kombinieren können. Die Produktivität im Büro wird erhöht, die
Softwareroboter nehmen den Mitarbeitern die zeitintensive, repetitive Tätigkeit ab. Diesen bleibt
dadurch mehr Zeit für den direkten Kundenkontakt.
Die Firma NICE bietet intelligente IT-Lösungen für Call-Center. Wer beispielsweise bei einem
Möbelhaus wie IKEA einen Schrank bestellt, kann den Liefertermin in Zukunft telefonisch mit einem
intelligenten Roboter vereinbaren. Vorteil: Der Roboter kann in Sekundenschnelle verfügbare
Liefertermine aus den Datenbanken verschiedener Logistikpartner abgleichen – die Größe des
Möbelstücks und die Adresse des Kunden werden automatisch miteinbezogen. Der Softwareroboter
schlägt auf dieser Datenbasis dem Kunden verschiedene Liefertermine vor – so muss dieser sich nicht
über lange Telefonwarteschleifen ärgern. Nur in dem Fall, dass der Kunde mit Hilfe des
Softwareroboters keinen Termin findet, schalten sich Mitarbeiter ein und suchen eine individuelle
Lösung. Die frei werdenden Mitarbeiterkapazitäten können statt zur telefonischen
Terminvereinbarung zur Kundenbetreuung und -beratung eingesetzt werden.
Digitalisierung und KI heben die Produktivität damit auch im Dienstleistungsbereich auf ein neues
Niveau: Im Servicesektor ist mit Kosteneinsparungen von bis zu 40 Prozent zu rechnen, wie die BCG-
Studie Tapping into the Transformative Power of Service 4.0 zeigt.

Labor 4.0
Ausstattungen in den Laboren werden vernetzt. Dadurch können Mitarbeiter die Geräte auch über
Fernzugriffe steuern, Analysen durchführen und Ergebnisse erhalten. Der Fernzugriff erlaubt zudem
eine Fernwartung. Es spielt Flexibilität in der sogenannten Life Science Automatisierung eine
bedeutende Rolle. Durch Robotik-Systeme werden auch im Labor neue Möglichkeiten geschaffen. So
ist es für den Mitarbeiter möglich, diese ebenfalls per Fernzugriff zu steuern.
Das Software-Unternehmen iTiZZiMO integriert Augmented Reality (AR) in Form von Smart Glasses in
den Arbeitsalltag im Labor. Dabei wird jeder wichtige Gegenstand, seien es Mitarbeiterausweise,
Proben- oder Chemikalienfläschchen, mit einem QR-Code versehen, welcher von den Smart Glasses
gescannt wird. Die Smart Glasses erkennen, wenn ein Raum betreten wird, und geben Hinweise zur
Arbeitsschutzausrüstung.
Logistik 4.0
✓ Agentengesteuerter Transportmitteleinsatz
✓ Situative Routenplanung
✓ Intelligenter Umgebungsüberwacher
✓ AR + Logistik
✓ Basierend auf unterschiedlichen Verfahren des maschinellen Lernens findet künstliche
Intelligenz in der Intralogistik zahlreiche Anwendungsmöglichkeiten, sei es zur
„Automatisierung und Optimierung von Prozessen als auch zur Entscheidungsunterstützung“
(Schwede 2018, S. 10).

134
✓ Beispiel „intelligente Behälter“ , der iBin1 der Firma Würth. Als dezentrales logistisches
Objekt übernimmt der Lagerbehälter z.B. die Aufgabe der automatischen
Materialnachbestellung, sobald sein Inhalt einen bestimmten Schwellwert unterschreitet.
✓ Assistenzsysteme, z.B. Serviceroboter, welche mit dem Menschen kollaborieren, indem sie
den Mitarbeiter bei seiner Aufgabe im Lager unterstützen oder diese selbständig
durchführen.
✓ mögliche Use-Cases für KI in der Intralogistik: Identifizierung von Störungen oder Ausnahmen
in den Prozessdaten des internen Materialflusses oder die Entscheidungsunterstützung
hinsichtlich der Planung bzw. Priorisierung von Lageraufträgen, aber auch die Einteilung von
Ressourcen im Lager.
✓ fahrerlose Transportfahrzeuge (FTF) zur Abarbeitung von Transportaufgaben in
innerbetrieblichen Logistiksystemen mit autonomen Handlungen und einer dezentralen
Steuerung der Transportmittel durch den Einsatz von „Industrie 4.0-Komponenten“ (Barbian
2018, S. 27) wie Sensoren, RFID und einer drahtlosen Vernetzung, z. B. Multishuttle Move“
vom Fraunhofer-Institut für Materialfluss und Logistik.
✓ Kombination intelligenter Lagereinheiten mit autonomen Transportfahrzeugen: Dabei soll
der Behälter im Lager eigenständig Transportaufträge initiieren und diese Aufträge können
dann durch autonome Transportfahrzeuge völlig ohne menschlichen Eingriff abgearbeitet
werden.
Home 4.0
✓ Situative Hausfunktionen
✓ Schutz per Gesichtserkennung
✓ Bedarfsabhängige Logistik
✓ Vernetzung mit Smartphones
Verwaltung 4.0
Sie ist die "technische Integration von cyber-physischen Systemen in die öffentliche
Verwaltung sowie die Anwendung des Internets der Dinge und der Dienste im Rahmen der
Prozesse des Regierens und Verwaltens.
Dies beinhaltet die sich daraus ergebenden Konsequenzen für die Wertschöpfung, die
Geschäftsmodelle sowie die nachgelagerten Dienstleistungen und die Arbeitsorganisation".
(von Lucke J. 2015, S. 8).
Tourismus 4.0
Tourismus 4.0 muss mit interaktiven, automatisierten und vor allem digitalen Verfahren den
kompletten "Reiseprozess" von der Planung bis zur Durchführung revolutionieren.
Dabei muss Tourismus 4.0 den geänderten Wünschen und Vorstellungen der Reisenden
individuell entsprechen.
Reiseplanung 4.0: vergangene Ziele auswerten und entsprechende Vorschläge für zukünftige
Urlaubsorte generieren, die persönlichen Vorlieben der Nutzer interpretieren und für
weitere Reiseplanungen berücksichtigen.
Reise bewerten und deren Daten analysieren.
Expertensystem selektiert aus Wünschen passende Reiseziele
Konfigurator von Reisepaketen aus Bausteinen
Handy App mit situativen Reiseführer am Handy
Aufgrund eines Benutzermodells weitere Reisevorschläge offerieren

E-Governement 4.0
✓ Intelligente Kommunalberater
✓ E-Richter

135
Gastronomie 4.0
Die Küchengeräte sollen beispielweise eigenständig untereinander kommunizieren können, um den
aktuellen Status durchzugeben oder selbst Aktionen auszuführen. So sollen sie erkennen, wenn z.B.
ein Gericht dabei ist zu verbrennen. Darauf sollte eine Reaktion der intelligenten Küchengeräte
folgen, um die Herdplatte auszuschalten oder ein Signalton abzuspielen. Dadurch wird eine
Automatisierung sowie ein Mehrwehrt erreicht. Ein weiteres Ziel ist es die Wertschöpfungskette zu
digitalisieren und Optimierungspotentiale voll auszuschöpfen. Abläufe werden dadurch effizienter
und schneller.
Kommunikationssysteme wie Chatbots erweitern das Serviceangebot stark und schaffen einen
Mehrwert sowohl auf Kunden- als auch auf Unternehmensseite. Der Chatbot kann in einem sich
öffnenden Fenster auf der Homepage proaktiv mit dem potenziellen Kunden Kontakt aufnehmen,
nachdem dieser die Unternehmenswebseite aufgerufen hat. Er unterstützt somit die
Gesamtkommunikation mit Kunden und optimiert Abläufe. Durch den Chatbot erspart der Kunde
sich Zeit. Sie geben Auskunft über Speisen, Getränke, Öffnungszeiten sowie zu Preisen. Zudem ist der
Chatbot zuvorkommend und freundlich. Deep Learning Chatbots ermöglichen einen lernfähigeren
Bot, der natürlichere Konversationen führt. Aus diesem Grund bieten diese ein einzigartiges
Serviceerlebnis. Darüber hinaus wird mit dem Deep Learning Ansatz eine stetige Verbesserung durch
die wachsende Wissensbasis erzielt, wovon das Unternehmen profitiert und es somit einen
Wettbewerbsvorteil aufbauen kann.
CRM 4.0
Mit Hilfe einer Clusteranalyse sollen die Strukturen entdeckt und so der Kundenstamm in
kleinstmögliche homogene Gruppen eingeteilt werden.
Hier erfolgt die Bestimmung des Kundenlebenszykluswertes mittels maschineller
Lernverfahren. Es seien „gelabelte“ Trainingsdaten von Kunden mit den Eigenschaften
𝑥1 , … , 𝑥𝑛 gegeben. Ein Label 𝑦 ∈ {𝑁} gibt an, welcher Customer Lifetime Value (CLV) mit
dem jeweiligen Kunden erzeugt wurde. Nach dem Abschluss der Trainings- und Testphase
des Neuronalen Netzes ist dieses in der Lage, den CLV für „ungelabelte“ Kundendaten zu
prognostizieren.
Das Maschinelle Lernen zur Lead-Bewertung stellt hierbei eine Ranking-Technik dar, das heißt, je
höher der Lead-Score ist, desto wahrscheinlicher wird der Lead in eine Opportunity umgewandelt.
Für jeden Lead ist es möglich, weitere Details zum Lead-Score im Seitenbereich einzublenden.

Das maschinelle Lernen in Opportunities hilft zu bestimmen, welche Geschäfte voraussichtlich


abgeschlossen werden und welche nicht. Jede Opportunity erhält wiederum einen Score, der für das
Management der Vertriebs-Pipeline und zur Fokussierung des Teams auf die Opportunities mit der
größten Gewinnchance verwendet werden kann. Die Herangehensweise unterscheidet sich von der
des maschinellen Lernens in Leads lediglich in den verwendeten Merkmalen und den verwendeten
historischen Daten.

Mit Hilfe eines Neuronalen Netzes können die historischen Daten analysiert werden, um Muster und
nicht lineare Beziehungen zwischen den Merkmalen einzelner Datensätze zu erkennen. Die zur
Kundenabwanderungsprognose verwendeten Daten enthalten viele Merkmale, wobei nicht alle
Features für die Analyse relevant sind. Klassische Algorithmen wie die „Logistische Regression“ oder
auch Entscheidungsbäume benötigen deshalb eine vorherige Evaluation der relevanten Merkmale.
Dieser Aufwand entfällt bei Verwendung maschineller Lernverfahren, da hier die für die
Kundenabwanderung relevanten Felder automatisch erkannt und analysiert werden.

136
Autofahren 4.0 (selbstfahrende Autos); alle Fahrdaten einsehbar, Haftung bei Unfällen
Arbeit 4.0
Bedingt durch die 4. industrielle Revolution erreicht die Globalisierung und Vernetzung eine neue
Stufe. Die Anwendungen mit KI werden praktikabel und können heute mehr und mehr Aufgaben
übernehmen, die bisher von Menschen erledigt wurden.

• Es geht darum, umsichtig und vorausschauend die sozialen Bedingungen und zukünftige
Arbeitsregelungen zu thematisieren und mitzugestalten. Da heißt u.a. Beschäftigungsmodelle
mit familiengerechten Arbeitszeiten und Arbeitsorten gestalten Es wird keine klare Trennung
von Arbeit und Freizeit mehr geben.
• Die Arbeitsplätze sind digitalisiert. So verbringt der normale kaufmännische Angestellte
fast seinen ganzen Arbeitstag mit “digitaler Arbeit” und die Produktionsmitarbeiter
programmieren, bedienen und kontrollieren oft nur noch IT-Systeme, während die
Maschinen die eigentliche Arbeit erledigen. Servicetechniker arbeiten mit Datenbrille
(Augmented Reality Brille) und medizinische Roboter im Operationssaal unterstützen
das Ärzteteam. Mitarbeiter vernetzen sich mit ihren Kollegen und arbeiten online, die
Kommunikation läuft über Chats oder Videokonferenzen. So können Mitarbeiter von
überall aus arbeiten. Da Programme und Daten übers Internet permanent verfügbar
sind, können Mitarbeiter ihre Arbeitszeiten flexibler gestalten.
• Agile Organisationen und Führungsstile: Die digitale Arbeitswelt 4.0 gibt dem einzelnen
Mitarbeiter mehr Freiheit und Verantwortung. Feste Organisationsstrukturen und ein
hierarchischer Führungsstil sind nicht mehr zeitgemäß und können ein Unternehmen
ausbremsen. Räumlich verteilte Mitarbeiter arbeiten in wechselnden Teams an
verschiedenen Projekten gleichzeitig und organisieren sich selbst. Die Rolle der Führung
verschiebt sich weiter in Richtung Moderation, Motivation und Coaching der Mitarbeiter.
• Digitale und automatisierte Prozesse: Computer übernehmen nicht nur immer mehr
Aufgaben, ja ganze Prozessketten werden komplett automatisiert, so dass der Mensch an
keiner Stelle mehr eingreifen muss. Durch selbstlernende Algorithmen verbessern sich
Systeme selbst und führen komplexe Aufgaben durch, von denen wir lange glaubten, dass
zwingend menschliche Intelligenz dafür nötig sei. Computer können zum Beispiel durch die
Analyse riesiger Datenmengen bessere Zukunftsprognosen treffen oder Krankheitsdiagnosen
stellen als jeder Mensch.
• Lebenslanges Lernen: Die Mitarbeiter in einer Wissensgesellschaft benötigen vor allen
Dingen eines: mehr Bildung. Denn im digitalen Zeitalter nimmt die Komplexität der Arbeit
stark zu, während einfache Routinetätigkeiten in allen Berufen wegfallen. Es bleiben nur die
komplexen Aufgaben – was von vielen Menschen als stressig empfunden wird. Es braucht
neue Erziehungs- und Bildungsziele.
Mitarbeiter müssen permanent lernen, um mit dem technologischen Wandel und den
Anforderungen der Arbeit 4.0 Schritt halten zu können. Neu entstehende Berufe erfordern
immer höhere Qualifikationen.
• Soft Skills wie Eigenverantwortung, Zeitmanagement und Anpassungsfähigkeit werden
wichtiger, um erfolgreich im Beruf zu sein.
• Dazu kommen wichtige Metakompetenzen wie: „Lernen lernen, Verstehen lernen,
Analysieren lernen, Erkennen lernen, Forschen lernen, Lehren lernen, Coachen
lernen, Probleme und Konflikte lösen lernen, Menschen verstehen und lieben lernen,
Verkaufen lernen, Managen lernen, Projektleiten lernen, Organisieren lernen, Führen
lernen, Erziehen lernen, Menschen Entwickeln lernen, Motivieren lernen,
137
Unternehmen lernen, Initiieren lernen, Wollen lernen, Kreieren lernen, Politisches
Durchsetzen lernen, Storytelling und Reden lernen, Überzeugen lernen.)(Dueck IBM)

10.7 Realiserungen von KI-Systemen mit IBM Watson

Abb. 10/14: IBM Watson APIs


IBM Watson bietet vielfältige Services und damit heterogene Anwendungsgebiete. Dabei gilt: Die
unterschiedlichen Fähigkeiten von Watson sind für praktisch alle Branchen und Fachbereiche
interessant. Ebenso sieht es auch aus mit den Anwendergruppen. Die nachfolgend beschrieben
Beispiele und Projekte aus den Bereichen Produktion, Banken und Versicherungen, Gesundheit sowie
Handel und Verkehr zeigen die verschieden Einsatzmöglichkeiten von „IBM Watson“.

I. Produktion [IBM1]
BMW: Cognitive Computing für ein besseres Fahrerlebnis
IBM hat im Dezember 2016 eine neue Zusammenarbeit mit der BMW Group auf dem Gebiet der
Forschung angekündigt. Herausgefunden werden soll, welche Rolle Watson Cognitive Computing bei
der stärkeren Personalisierung des Fahrerlebnisses sowie der Entwicklung intuitiver
Fahrerassistenzsysteme für die Autos der Zukunft einnehmen kann. Im Rahmen der Vereinbarung
wird ein Team von Forschern der BMW Group in die neue globale Watson IoT- Zentrale der IBM in
München wechseln. Die Partner werden gemeinsam untersuchen, wie intelligente Assistenzfunktionen
für die Fahrzeuge verbessert werden können.
Volkswagen: Digitale Mobilitätsdienste mit Watson
Basierend auf der IBM Cloud und Watson Technologien arbeiten Volkswagen und IBM zusammen,
um sehr schnell marktspezifische Services zu entwickeln, die heutige und zukünftige
Mobilitätsbedürfnisse befriedigen. Eine erste Lösung ist "We Commerce“ - ein integrierter Service,
der dem Fahrer Handlungsempfehlungen zum richtigen Zeitpunkt am richtigen Ort gibt. Nach dem
Einverständnis der Kunden werden dabei die kognitiven Fähigkeiten von Watson dafür sorgen, dass
diese Services aus den Präferenzen und Gewohnheiten des jeweiligen Fahrers lernen, um möglichst
zielgerichtet personalisierte Vorschläge machen zu können. Handelsunternehmen, Tankstellenketten,

138
die Hotelbranche oder das Gastgewerbe können „We Commerce" nutzen, um ihre Angebote gezielt,
und auf den einzelnen Kunden ausgerichtet, zu platzieren.

II. Banken / Versicherungen / Dienstleistungen [IBM 1]


Online-Versicherer: Web-basierter intelligenter Kundendialog
IBM Watson zeigt gegenwärtig bei einem der größten deutschen Online-Versicherer, was im Bereich
KI-basierter digitaler Kundenkommunikation heute möglich ist: das System ist in der Lage, mit
seinem antrainierten Experten-Wissen auf die auf der Website gestellten Fragen von Kunden schnell
die jeweils am besten passenden Antworten zu liefern. Damit müssen nur noch bei wirklich kniffligen
Kundenanliegen die Kundenberater selbst aktiv werden. Schon zu Beginn der Pilotphase war der
Online- Versicherer beeindruckt vom deutschen Sprachverständnis sowie der einfachen
Handhabbarkeit von Watson: schneller und effektiver als andere Lösungen konnte das lernende KI-
basierte System Watson trainiert werden und war bereits nach wenigen Trainingseinheiten fähig, einen
Großteil der gestellten Fragen treffsicher und selbständig. zu beantworten. Das einfache Handling
ermöglicht es unter anderem auch, dass die Fachbereichsmitarbeiter das KI-System zukünftig selbst
pflegen und thematisch erweitern können. Die antrainierte Wissensbasis von Watson stützt sich aktuell
auf diejenigen Fragen und Antworten (FAQ), die erfahrungsgemäß am häufigsten von den Kunden
gestellt werden.
VKB: Watson als Beschwerdemanager
Für Versicherungen gilt die zügige Beantwortung von Kundenanfragen als Standardleistung. Doch die
Anfragen sind breit gefächert, sehr individuell formuliert und erreichen die Versicherungen
haufenweise. So erhält die Versicherungskammer Bayern (VKB) beispielsweise mehr als sieben
Millionen Kundenbriefe und Mails jährlich. Watson analysiert nun die Sätze in den Anschreiben und
sorgt für eine Zuordnung an den jeweils richtigen Sachbearbeiter. Das System arbeitet nicht nur
schnell und mit extrem hoher Treffsicherheit, auch der schwierige Umgang mit sprachlicher
Zweideutigkeit stellt kein Problem dar. Wenn ein Kunde beispielsweise schreibt: „Vielen Dank für die
schnelle Schadenbearbeitung“, sich dann aber im nächsten Satz beschwert, erkennt Watson das und
reagiert entsprechend. Diese Prozesse ermöglichen Sachbearbeitern, Kundenanliegen zielgerichteter
und schneller zu bearbeiten und somit eine Erhöhung der Kundenbindung zu schaffen. Der Einsatz
von Watson im Beschwerdemanagement ist jedoch erst der Anfang. In Zukunft sollen neben Unmut
und Beschwerden noch weitere Themen wie die Analyse und Zuordnung von Angebotswünschen und
medizinische Dokumentationen mit Watson angepackt werden.
Crédit Mutuel: Watson als Beratungsassistent
20.000 Mitarbeiter der Crédit Mutuel arbeiten mit Watson-Lösungen, um Kundenanfragen effektiver
beantworten zu können und somit die Kundenbindung zu stärken. Zu den eingesetzten Watson-
Lösungen gehört ein E-Mail Analyzer, der bei der Abarbeitung der Kundenmails hilft. Dabei werden
die häufigsten Fragen identifiziert, die E-Mails nach Dringlichkeit sortiert und dem Kundenberater bei
der schnelleren Beantwortung geholfen. Zudem unterstützen zwei virtuelle Assistenten, ausgestattet
mit Watson-Technologien, Kundenberater bei der Informationssuche in Angebotssituationen,
beispielsweise für Kfz- oder Hausversicherungen. So können Kundenfragen bis zu 60% schneller
beantwortet werden.
III: Handel und Verkehr [IBM 1]
Shopping: Watson als Einkaufsberater
Studien bestätigen immer wieder: Sehr viele Verbraucher sind bereit, für personalisierte Angebote
oder auch für die eine individuelle Kundenberatung zusätzliche, persönliche Daten zu liefern. Zudem
äußern sie sich immer häufiger auf Social-Media-Plattformen wie Facebook oder Twitter oder auch in
Blogs zu ihren individuellen Vorlieben und Wünschen. Eine wahre Fundgrube für Watson. Denn ein
spracherkennendes System, das diese Informationen und weitere kundenspezifische Daten wie etwa
Käufe und Rückgaben, Vorlieben für bestimmte Marken und Stile, Online-Einkaufsverhalten und
139
öffentliche Kommentare sowie sonstigen Präferenzen erfassen und auswerten kann, liefert dem Handel
wichtige Erkenntnisse. Solche
Daten können außerdem etwa mit verfügbaren Produktinformationen verknüpft werden, um noch
präzisere, auf den Kunden zugeschnittene Antworten und Tipps zu bekommen. So könnte Watson zum
Beispiel den Rat erteilen, dem markentreuen und sparsamen Kunden mit einer persönlichen Ansprache
per E-Mail auf die neue Kollektion oder das aktuelle Sonderangebot seiner Lieblingshemdenmarke
aufmerksam zu machen.
Lufthansa: Internes Supportcenter setzt auf Watson
Watson unterstützt die Mitarbeiter des internen Service & Help Centers (SHC) der Lufthansa, damit
Fragen von Passagieren weltweit schneller und exakter beantworten können. Zum Beispiel, wenn ein
Seemann mit russischem Pass über Frankfurt direkt nach New York fliegen will, er aber am Check-in
aufgehalten wird, weil das System ihm das Einchecken für die gesamte Strecke nicht erlaubt. Nun
kann der Servicemitarbeiter die Frage einfach in das System eingeben: „Warum kann ich einen
Seemann aus Moskau via Frankfurt nach New York nicht einchecken?“ Aus dem Kontext der Frage
heraus versteht Watson zunächst, in welcher Phase sich die betroffene Person befindet, zum Beispiel
„Boarding“ oder „Check-In“. Außerdem erkennt das System, dass es sich bei einem Seemann um eine
bestimmte Kundengruppe handelt und die Check-in Verzögerung durch eine offenbar nicht erfüllte
Bedingung ausgelöst wurde. Um dieser Sache auf den Grund zu gehen, analysiert Watson dann die
umfangreichen Textbestände aus der Datenbank des SHC. Nur Sekunden später erscheint die Antwort
als Resultat seiner Analyse: „Für Seemänner auf Reisen in die USA muss zusätzlich die
Seemannsbuch-Nummer im Feld ‚Visa‘ eigetragen werden“ - eine Kleinigkeit, und doch ein Fall für
Watson.

140
10.8 Horizont und Gardner Prognosen

141
Aus CBINSIGHTS 2019

https://www.gartner.com/smarterwithgartner/top-trends-on-the-gartner-hype-cycle-for-artificial-
intelligence-2021/

10.9 Literatur und Kontrollfragen


1. Kollmann Tobias: E-Business – Grundlagen elektronischer Geschäftsprozesse in der Net
Economy. 4. Aufl., Gabler:Wiesbaden, 2010
2. Elmar P. Wach: Semantic E-Commerce, E-Commerce-Magazin, 2009, Heft 6.

142
3. Forschungsunion, acatech: "Deutschlands Zukunft als Produktionsstandort sicheren -
Umsetzungsempfehlungen für das Zukunftsprojekt Industrie 4.0 ¬Abschlussbericht des
Arbeitskreises Industrie 4.0", Promotorengruppe Kommunikation der Forschungsunion
Wirtschaft-Wissenschaft, acatech, April 2013
4. Aktuelles Schlagwort „Industrie 4.0“. Wirtschaftsinformatik 4/2014
5. Mertens Peter, Barbian Diana: Digitalisierung und Industrie 4.0 – Trend mit modischer
Überhöhung? Informatik Spektrum 2016, 39-4-2016, S. 301-309
6. Kagermann, Henning; Wahlster, Wolfgang; Helbig, Johannes (Hg.) (2013):
Umsetzungsempfehlungen für das Zukunftsprojekt Industrie 4.0. Online verfügbar unter
https://www.bmbf.de/files/Umsetzungsempfehlungen_Industrie4_0.pdf, zuletzt geprüft am
19.02.2017.
7. Ciolacu, Monica; Beer, R. (2016): Adaptive User Interface for Higher Education
Based on Web Technology. Research and Innovation in Industry 4.0. In:
Proceedings of IEEE 22nd International Symposium for Design and Technology in
Electronic Packaging (SIITME) 2016 (Oradea, Romania, October 20-23 2016), S.
300–303.
8. Heinrichs, Heribert (Hg.) (1971): Lexikon der audio-visuellen Bildungsmittel.
München: Kösel.
9. Popp, Heribert (1999): Erfahrungen beim Einsatz von Internet, Fernsehen und CBT in
der Betriebswirtschaft. In: Herbert Kopp und Werner Michl (Hg.): MeiLe - Neue
Medien in der Lehre: Lernsystem-Entwicklung an Fachhochschulen - Erfahrungen
und Ergebnisse. Neuwied: Hermann Luchterhand Verlag, S. 168–178.

10. Popp, Heribert; Reitmaier, Martina (2014): Mathematik an der Hochschule: Die
Potenziale virtuellen Lernens und die Bedeutung von Learning Analytics. DNH 4
_2014, S. 130-133.
11. Popp, Heribert; Ciolacu, Monica (2015): Technische Hochschule Deggendorf –
Projekt: V-, W- und A-MINT-Coach. In: Bayerisches Staatsministerium für Bildung
und Kultus, Wissenschaft und Kunst (Hg.): Erfolgreicher MINT-Abschluss an
bayerischen Hochschulen. Bilanz der Hochschulprojekte, S. 72–81. Online verfügbar
unter
https://www.km.bayern.de/download/13359_stmbw_abschlussbericht_best_mint.pdf.
12. Litzel N. (2016): Was ist das Internet of Things?: https://www.bigdata-insider.de/was-
ist-das-internet-ofthings-a-590806/, Abruf: 03.02.2019
13. Neugebauer R. (2018): Digitalisierung - Schlüsseltechnologien für Wirtschaft und
Gesellschaft, 1. Aufl., Springer Vieweg, München
14. Popp, Heribert; Monica Ciolacu: Lehre 4.0 revolutioniert E-Learning in Hochschule
und Weiterbildung. DNH 4 2017, S.
15. Von Lucke J. (2015): Whitepaper Smart Government - Wie uns die intelligente
Vernetzung zum Leitbild "Verwaltung 4.0" und einem smarten Regierungs- und
Verwaltungshandeln führt, Version vom 14.09.2015, Friedrichshafen, Zeppelin
Universität
16. Achema (2018): Achema 2018 Trendbericht: Intelligentes und vernetztes Labor der
Zukunft - "Labor 4.0": https://www.analytiknews.
de/Fachartikel/Volltext/achema18.pdf, 22.02.2019
17. United Planet (2019): Digital Workplace: https://your-digitalworkplace. com/, Abruf:
22.02.2019
18. Pause D. (2017) Chancen und Herausforderungen einer intelligenten IT-Vernetzung
auf dem Weg zu Industrie 4.0: http://www.trovarit.com/wpcontent/uploads/Intelligente-
IT-Vernetzung.pdf Abruf: 03.02.2019
19. Stefanie Frisch (2019): "4.0" im Wandel der Zeit. Masterarbeit an TH Deggendorf
20. World Economic Forum (2016): The Future of Jobs - Employment, Skills and
Workforce. Global Challenge Insight Report 1.2016.

143
21. IBM1
file:///C:/Users/Verena/Downloads/IBM_Watson_Anwendungsbeispiele_November%20201
7.pdf [Stand 10.2017]

22. URL1: http://www.youtube.com/watch?v=wBlGXE9rmLw.

23. URL2: http://www.tutorgen.com

Kontrollfrage
1. Was ist semantic Web?
2. Was sind die 3 Säulen von 4.0 Anwendungen?
3. Skizzieren sie 3 Anwendungen von E-Commerce 4.0.
4. Beschreiben sie 2 KI-Techniken, die das E-Commerce 4.0 bereichern können.
5. Beschreiben sie den Begriff „Industrie 4.0“.
6. Beschreiben sie KI-Techniken, die „Industrie 4.0“ bereichern können.
7. Entwickeln sie Lehre 4.0.
8. Skizzieren sie Blended Learning 4.0-Prozess.
9. Beschreiben sie KI-Techniken, die „Lehre 4.0“ bereichern können.
10. Beschreiben sie zwei der folgenden Begriffe: e-Hochschule 4.0, e-Logistik 4.0, e-
Governement 4.0, Gastronomie 4.0, Labor 4.0, Büro 4.0.
11. Visionieren sie über Arbeit 4.0.

11. KI und Ethik sowie KI und Nachhaltigkeit


Es stellt sich die Frage, ob und wie die Entwicklung der KI so gestaltet werden kann, dass sie zum
Wohle von Menschen, Gesellschaft und Natur beiträgt. Hier liefert die Ethik Analysen und
Orientierungen zur Beurteilung von Gestaltungsvorstellungen der KI. Neben dem Ideal der
Nachhaltigen Entwicklung für alle Menschen werden auch die negativen Seiten und Dystopien der
KI-Entwicklung diskutiert. Das Ziel ist
Wissen und Können für Nachhaltige Entwicklung
Ethische Reflexions- und Argumentationskompetenz (http://www.rtwe.de/ethikum.html),
(0721) 925-1760; eMail: michael.woerz@hs-karlsruhe.de).

11.1. KI und Ethik

Amerikanische KI tritt den Datenschutz mit Füßen (Facebook).


Chinesische KI: erlaubt ist alles, was dem Staat nützt.
D: soziale Marktwirtschaft; nun soziale, wertgetriebene KI
Sozial verantwortliche KI: Sorgfaltspflicht gegenüber Mitarbeitern, Kunden und Interessenten
Vorrausschauende Umschulung von von KI-betroffenen MA (z.B. VW schult 200 MA mit
Firma NewElements auf 2 Jahre um zu Programmierern (Zuschuss auch vom Bund))
Es stellt sich die Frage, ob und wie die Entwicklung der KI so gestaltet werden kann, dass sie
zum Wohle von Menschen, Gesellschaft und Natur beiträgt.
Hier liefert die Ethik Analysen und Orientierungen zur Beurteilung von
Gestaltungsvorstellungen der KI.

Sichtweise von Judith Simon, Professorin für Ethik in der Informations-technologie an der
Universität Hamburg und Mitglied des Deutschen Ethikrats
https://www.youtube.com/watch?v=pdN2ex6ua-k

144
Was ist gut und was ist schlecht an KI? (fehlerhaft, intransparent, diskriminierend, ungerecht,
moralisch fraglich)
Was dürfen wir nur mit KI tun?/ Was sollen wir mit KI nicht machen? (Wird unsere Praxis
gerechter?, Hilft sie unsere Vorstellungen von Autonomie besser zu verwirklichen? Trägt sie
zu einem guten/wünschenswerten Leben bei?)
KI kann keine Verantwortung für sein Verhalten tragen.(autonomes Fahren - Unfall: dafür
Versicherungssystem aufbauen)
3 Rollen der Ethik bei KI:
Professionelle Ethik (Richtlinie, wie sich KI-SW-Entwickler verhalten sollen)
Ethik für KI-Nutzung (Kundendatennutzung für ML?)
Ethik im KI-Design (SW-Design bestehender KI-Technologien bzw. neuer KI-
Technologien; Ethische Analyse der KI-Technologien; entsprechen sie den Normen
und Werten unserer Gesellschaft)
Ethische Herausforderungen
Privatsphäre (beim ML), online Spuren, Gesichtserkennung
Vorurteile infolge einseitiger Lerndaten
KI zur Risikobeurteilung in USA (Nachteil für Afroamerikaner)
Es fehlt Transparenz bei der KI (→xKI)
KI Fairness (z.B. Diskriminierung bei Data Mining verhindern)

Deutsche Initiativen
• Jana Koehler, Leiterin von DFKI (Berlin): Die Computertechnologie verlangt von uns, unsere
ethischen Grundlagen erneut zu überdenken. Die Gesellschaft müsse sich die Frage stellen,
welche Funktionen wir auf Maschinen übertragen wollen und welche nicht. Sie zeichnet ein
düsteres Bild, was passieren könnte, wenn Menschen die Ziele, die KI verfolgt, nicht mehr
kontrollieren.
• Empfehlungen der Datenethikkommission für die Strategie Künstliche Intelligenz der
Bundesregierung (2019)
• Bundesarbeitsminister Hubertus Heil stellt „Deutsches Observatorium für KI“ vor mit
Hauptaufgabe: Auswirkungen von KI-Anwendungen auf Arbeit und Gesellschaft zu
untersuchen und staatliche Eingriffe vorzubereiten (TÜV für KI?)
• Plattform Lernende Systeme, https://plattform-lernende-systeme.de, hat einen Leitfaden
verfasst, der Anforderungen und Praxisbeispiele für die Entstehung von sicheren,
nachvollziehbaren und diskriminierungsfreien KI-Anwendungen gibt.

Empfehlungen der Datenethikkommission (DEK) für die Strategie Künstliche Intelligenz der
Bundesregierung
20 Ethische Regeln für den automatisierten und vernetzten Fahrzeugverkehr (2017)
Quelle: https://www.bmvi.de/SharedDocs/DE/Publikationen/DG/bericht-der-ethik-
kommission.pdf?__blob=publicationFile
Z.B. 2. Regel „Der Schutz von Menschen hat Vorrang vor allen anderen
Nützlichkeitserwägungen. Ziel ist die Verringerung von Schäden bis hin zur vollständigen
Vermeidung. Die Zulassung von automatisierten Systemen ist nur vertretbar, wenn sie im
Vergleich zu menschlichen Fahrleistungen zumindest eine Verminderung von Schäden im
Sinne einer positiven Risikobilanz verspricht.“
o Dilemma Situation: Einer muss sterben - nur wer? (http://moralmachine.mit.edu/hl/de)
◦ Umfrage: Regionale Unterschiede. In vielen asiatischen Ländern wurden junge
Menschen beispielsweise seltener verschont als Alte. Wahrscheinlich, weil Ältere in
diesen Ländern besonders geachtet würden.
◦ Die Ethik-Kommission lehnt es ab, Leben von Menschen in Notfallsituationen mit
anderen Menschen zu vergleichen, sodass es nicht möglich ist, eine Person zu opfern
um mehrere andere zu retten.
Gutachten 10.2019
145
1. Allgemeine ethische und rechtliche Grundsätze und Prinzipien
DEK hat sich für ihr Gutachten an den folgenden Leitgedanken orientiert:
a) Menschenzentrierte und werteorientierte Gestaltung von Technologie
b) Förderung digitaler Kompetenzen und kritischer Reflexion in der digitalen Welt
c) Stärkung des Schutzes von persönlicher Freiheit, Selbstbestimmung und Integrität
d) Förderung verantwortungsvoller und gemeinwohlverträglicher Datennutzungen
e) Risikoadaptierte Regulierung und wirksame Kontrolle algorithmischer Systeme
f) Wahrung und Förderung von Demokratie und gesellschaftlichem Zusammenhalt
g) Ausrichtung digitaler Strategien an Zielen der Nachhaltigkeit
h) Stärkung der digitalen Souveränität Deutschlands und Europas
2. Daten (Betrachtung deren Herkunft sowie auf die möglichen Auswirkungen der
Datenverarbeitung auf bestimmte Akteure, die mit Kontext und Bedeutungsgehalt der Daten
zu tun haben, sowie auf die Gesellschaft)
3. Algorithmische Systeme (Betrachtung der Beziehung von Mensch und Maschine,
insbesondere der Automatisierung sowie der Verlagerung auch komplexer Handlungs- und
Entscheidungsprozesse auf autonome Systeme.)
4. Für einen europäischen Weg: Europäische Technologien sollten sich durch konsequente
Ausrichtung an europäischen Werten und Grundrechten, wie sie insbesondere auch in der
Charta der Grundrechte der Europäischen Union und in der Konvention zum Schutz der
Menschenrechte und Grundfreiheiten des Europarats zum Ausdruck kommen, auszeichnen.

Whitepaper Ethik-Briefing (https://plattform-lernende-systeme.de)

146
KI-Grundsätze – Schwerpunkte in fünf Organisationen
Je dunkler und größer das Quadrat, desto stärker der Fokus auf die Leitlinie (Informatik Spektrum
2020)

EU Richtlinie zur vertrauenswürdigen KI (vKI) 2018

11.2 KI und Nachhaltigkeit

• Gerade Herausforderungen wie der Klimawandel, bei welchem wir für den Fortbestand der
Menschheit wohl zwingend auf intelligente Lösungen angewiesen sind, können von KI stark
profitieren. Zurzeit forschen die daran interessierten Disziplinen aber noch relativ isoliert und
sind höchstens interdisziplinär organisiert. Eine intelligente Lösung wird jedoch nur dann
zustande kommen, wenn die Forscher über ihre Grenzen hinausgehen und sie sich dadurch –
unter Einbezug der Gesellschaft, Politik und Wirtschaft – gemeinsam anti- oder
transdisziplinär an die Herausforderungen macht.
Die Verschmelzung von menschlicher und künstlicher Intelligenz, welche zur erweiterten
kollektiven Intelligenz von Menschen und Maschinen führt, kann uns auch hier unterstützen.
Denn die Forscher der verschiedenen Disziplinen verbinden sich nun nicht mehr nur
untereinander, sondern suchen auch Kontakt zu relevanten und interessierten Stakeholdern.
Dabei werden sie wohl immer mehr von Algorithmen unterstützt, welche auf maschinellem
Lernen beruhend, die richtigen Stakeholder zusammenzuführen vermögen. Dieses, auf
kollektiver Intelligenz gestützte, gemeinsame Forschen erhöhen – hoffentlich – die Chance für
eine Meisterung des Klimawandels genügend, um unseren Fortbestand zu garantieren.
Informatik Spektrum 2018)

147
Abb. Zeigt die 17 UN-Nachhaltigkeitsziele. Zur Zielerreichung kann KI gewichtigen Beitrag leisten.
• https://dfge.de/kuenstliche-intelligenz-und-nachhaltigkeit/
Die Verfügbarkeit von nachhaltigkeitsbezogenen Daten hat sich in den letzten Jahren
vervielfacht, einerseits durch Berichterstattung auf Plattformen wie CDP oder durch die
zunehmend standardisierte Erstellung von Nachhaltigkeitsberichten nach GRI-Standard.
Andererseits eröffnen sich durch die Digitalisierung von Produktionsprozessen neue
Datenquellen, die für KI-Algorithmen nutzbar gemacht werden können: Immer mehr
Unternehmen haben beispielsweise Zugriff auf zentralisiert erhobene Kennzahlen wie
Energie- oder Wasserverbrauch.
Zugleich ergeben sich im Nachhaltigkeitsbereich vielfältige Anwendungsmöglichkeiten. Beim
Produktionsprozess anfallende Daten können etwa dazu genutzt werden, Auslastung oder
Energieverbrauch von Maschinen oder die internen Abläufe zu optimieren, was sich positiv auf
die Treibhausgas-Emissionen auswirkt. Denkbar ist auch eine Optimierung der Emissionen der
Produkt-Nutzungsphase, wenn entsprechende Nutzungsdaten verfügbar sind, etwa bei
elektronischen Geräten. Darüber hinaus kann KI bei der nachhaltigkeitsbezogenen
Risikobewertung etwa von Unternehmensstandorten helfen, die Materialitäts- und
Stakeholderanalyse verbessern oder die Emissions-Berechnung unterstützen.
• Mit künstlicher Intelligenz gegen den Klimawandel

Eine aktuelle Studie des Weltwirtschaftsforums und der Unternehmensberatung PwC zeigt:
Künstliche Intelligenz kann in sechs dringlichen Handlungsfeldern zukünftig viel erreichen:

1. Klimawandel: zum Beispiel intelligente Mobilitätslösungen, smarte Städte


2. Biologische Vielfalt und Artenschutz: zum Beispiel Schutz natürlicher
Lebensräume, invasive Seuchenbekämpfung
3. Gesunde Meere: zum Beispiel nachhaltige Fischerei, Senkung der
Meeresverschmutzung
4. Gewässerschutz: zum Beispiel effizienter Wasserverbrauch, angemessene
Sanitärversorgung
5. Luftreinhaltung: Überwachung der Luftqualität, saubere Kraftstoffe
6. Unwetter- und Katastrophenvorsorge: zum Beispiel Frühwarnsysteme,
widerstandsfähige Infrastruktur

Einen Überblick über die Studie findet ihr hier: https://www.pwc.de/de/nachhaltigkeit/studie-


mit-kuenstlicher-intelligenz-gegen-den-klimawandel.html
148
• https://newsroom.porsche.com/de/geschaefts-nachhaltigkeit-bericht-2017/core-
identity/porsche-ki-systeme-robo-manager-assistent-produktentwicklung-ibm-watson-
14841.html

Auch in ökologischer Hinsicht werden Unternehmen – und damit der Planet – mit klugem
Einsatz von KI viel erreichen können. Mit KI-Disponenten können Logistikunternehmen die
Leerfahrten ihrer LKW von heute um rund 30 Prozent drastisch reduzieren. Dank besserer
Prognosen werden Energieanbieter die Nachfrage ihrer Kunden besser absehen und damit die
Energieproduktion zum Vorteil der Umwelt effizienter steuern können. Das Gleiche gilt für
die Produktionsplanung in Herstellungsprozessen, wo KI zugleich Überkapazitäten und
Ausschuss reduzieren wird. Abstrakt gesprochen wird KI dabei helfen, Ineffizienzen in
Wertschöpfungsprozessen zu erkennen und zu verringern. Im Ergebnis bedeutet dies die
Möglichkeit, mit begrenzten Ressourcen besser zu wirtschaften und damit die Balance
zwischen ökonomischer und ökologischer Nachhaltigkeit zu stärken.

Es liegt in der Hand des Menschen, ob intelligente Maschinen zum Assistenten in einer
digitalen sozialen Marktwirtschaft werden, bei dem kreative und verantwortungsbewusste
Unternehmen ihre Identität weiter aus nachhaltiger Wertschöpfung ziehen. Intelligente
Maschinen können mehr gute Arbeit schaffen, den Planeten grüner machen und unter dem
Strich auch mehr Wohlstand erzeugen. Intelligente Manager werden künstliche Intelligenz
nutzen, um ihr Unternehmen nachhaltig zu führen.

• https://www.horizont.net/tech/nachrichten/Microsoft-KI-159567
Microsoft startete seine Initiative "AI For Earth" um die großen Herausforderungen der
Menschheit mit Hilfe von KI zu lösen. "AI for Earth"-Programm will
Nichtregierungsorganisationen Zugang zu KI-Tools sowie technischen Support anbieten.
Microsoft will mit den Maßnahmen seine Mission untermauern, Künstliche Intelligenz für alle
Menschen und Organisationen zugänglich und nutzbar zu machen. Dazu hat der Tech-Riese
auch einen neuen "AI Design Guide" entwickelt, in dem KI-Design-Prinzipien sowie ethische
Grundlagen für die Nutzung definiert sind und der sich an Entwickler und Designer von KI-
Anwendungen richtet.
Schließlich gab Microsoft im Zuge der KI-Offensive die Entwicklung der App "Seeing AI"
bekannt. Die kostenlose App erklärt blinden und sehbehinderten Menschen die Welt um sie
herum mit Audioerklärungen von ihrer Umgebung. "Seeing AI" ist vorerst nur über den App
Store von Apple in den USA verfügbar.

• KI und Gesellschaft (Jana Koehler Leiterin von DFKI (Berlin))

Aber wie intelligent ist die Technologie wirklich? Was kann sie schon und was nicht? Werden
unsere Jobs wirklich wegfallen? Welche Grenzen müssen wir ihnen setzen? Tun wir in
Deutschland genug und das Richtige, um sie zu fördern? Und wird es irgendwann wirklich
eine generelle künstliche Intelligenz geben, wie wir sie aus Science-Fiction-Filmen kennen?

Jana Koehler ist überzeugt von den Chancen, die in der KI stecken. "Computer helfen uns,
viele Dinge besser zu tun", sagt die Informatikerin, die seit Februar 2019 das Deutsche
Forschungszentrum für Künstliche Intelligenz leitet. Koehler rechnet zwar damit, dass
künstliche Intelligenzen in vielen Branchen Berufsbilder verändern und auch Jobs kosten
werden. Insgesamt habe sie aber den Eindruck, "dass wir in der Summe eher mehr Arbeit
bekommen als weniger". Klimaveränderungen, Ressourcenknappheit, verminderte
Artenvielfalt – für all diese Probleme brauche es Lösungen, wenn wir weiterhin gut leben
wollen, so Koehler. Und dafür sei Computertechnologie geeignet.

Sie sieht aber noch ganz andere Herausforderungen, vor die die künstliche Intelligenz
Gesellschaften aktuell stellt. "Die Computertechnologie verlangt von uns, unsere ethischen
149
Grundlagen erneut zu überdenken." Die Gesellschaft müsse sich die Frage stellen, welche
Funktionen wir auf Maschinen übertragen wollen und welche nicht, sagt Koehler. Und verrät,
welchen Science-Fiction-Film über künstliche Intelligenz sie für gelungen hält.

"Heutige KI-Systeme sind dem Menschen eher unähnlich", sagt Koehler. Allgemeine
künstliche Intelligenz halte sie für "keine sehr erstrebenswerte Vision", sagt sie – und zeichnet
ein düsteres Bild davon, was passieren könnte, wenn Menschen die Ziele, die künstliche
Intelligenz verfolgt, nicht mehr kontrollieren.

30 bayerische KI-Projekte für Nachhaltigkeit 2022 (https://www.plattform-lernende-


systeme.de/nachhaltigkeit.html)

• Windenergie optimal nutzen (ALICE III)


• Absatzprognosen zur Einkaufplanung in der Gastronomie
• KI in der Fasertechnologie (AirCarbon III)
• Analyse von Unterwasser-Audioaufnahmen von Meerestieren
• Batterieanalytik mit digitalen Zwillingen zur Optimierung des Batterielebens
• KI-gestützte Vorhersagen aus Erdmodellen (BigData@Geo)
• Bioklimatisches Informationssystem
• Erzeugung real aussehender Bilder für NN-Training (BlenderProc)
• Wertschöpfung aus Copernicus-Daten (CANDELA)
• Bedarfsorientierte Datendienste für humanitäre Hilfe (Data4Human)
• Energiebedarfsabschätzung von eingebetteten Systemen
• Erhöhte Lastverschiebung durch selbstlernende Algorithmen im Energiebereich
• Intelligentes Wasserverlustmanagement
• Kostengünstige Energiemanagement-Lösung für KMU
• Fernwärmelastprognose mittels Deep Learning
• Mobilitätsoptimierung in non-urbanen Regionen (KiMoNo)
• Lastmanagement für industrielle Stromverbraucher
• Objektklassifikation für das Recycling von Katalysatoren
• Plattform zur Energieanalyse von Haushalten
• Potentialanalyse für öffentliche Ladesäulen
• Produktionsprognose für die Lebensmittelverarbeitung
• Smart Farming mit Geodaten
• Entwicklung nachhaltiger Wasserversorgungssysteme
• Steuerung von autonomen, schienenbasierten Kabinen
• Störfallprognose für Kühlmöbel
• Verbrennungsregelung von Gasturbinen
• Vorhersagen der Produktion von Kraftwerken
• Entwicklungs- und Simulationsplattform zur Planung von Optimierungen an
Gebäuden (eeEmbedded)
• Globale Stadtkartierung mit Satelliten- und Social-Media-Daten (so2sat)
• Horsch: Eine KI-gesteuerte Spritze schone die Pflanze und bekämpfe das Unkraut
(Unkraut punktgenau erkennen und entfernen)

Anwendung 5.0: Anwendung 4.0 (z.B. Industrie 4.0) unter


ökologischen Gesichtspunkten
Literatur
• http://www.rtwe.de/ethikum.html)

150
• https://dfge.de/kuenstliche-intelligenz-und-nachhaltigkeit/
• https://www.pwc.de/de/nachhaltigkeit/studie-mit-kuenstlicher-intelligenz-gegen-den-
klimawandel.html
• https://www.horizont.net/tech/nachrichten/Microsoft-KI-159567
• https://www.horizont.net/tech/nachrichten/Microsoft-KI-159567

Kontrollfrage
1. Diskutieren sie KI und Ethik
2. Prof. Popp will seinen Besinnungsweg Arbeit
(http://www.besinnungsweg-arbeit.de/) um eine Station zum Thema „KI
und Ethik“ erweitern. Visionieren sie mit welchem Objekt (Kunstwerk,
Animation, interaktivem Spiel) und mit welchen Leitsätzen er die Station
gestalten könnte! (4,5 Minuten)
3. Diskutieren sie Nachhaltigkeit und KI

151

Das könnte Ihnen auch gefallen