Sie sind auf Seite 1von 213

Digitales Wissensmanagement

aus dem Projekt der Bayerischen


Staatsregierung „Digitaler Campus Bayern“
als vhb-Kurs

Prof. Dr. Dr. Heribert Popp, TH Deggendorf

1
1 Grundlagen des Wissensmanagements .................................................................. 6
1.1 Definition Daten-Information-Wissen und Wissensqualitäten .......................................................6
1.1.1 Wissen und Wissensverarbeitung.............................................................................................6
1.1.2 Wissensqualitäten.....................................................................................................................9
1.1.3 Wissen ist und bleibt subjektiv ..............................................................................................10
1.2 Bedeutung von Wissen für Unternehmen .....................................................................................11
1.3 Definition des Begriffs Wissensmanagement (WM) ....................................................................12
1.4 Teilprozesse des Wissensmanagements ........................................................................................13
1.5 Die Relevanz von psychologischen Faktoren im Wissensmanagement .......................................15
1.5.1 Unternehmenskultur ist der entscheidende Faktor .................................................................16
1.5.2 Relevante Aspekte für die Wissensmanagement-Kultur ........................................................17
1.5.3 Verhinderungsfaktoren eines effektiven Wissensmanagement - Systems .............................19
1.5.4 Schlussfolgerungen für Führungskräfte .................................................................................20
1.7. Wichtiger Bestandteil des digitalen Wissensmanagements: Künstliche Intelligenz (KI) ............20
1.7.1 Wovon sprechen wir, wenn wir von KI sprechen? – eine Philosophische Betrachtung
(Simon Böhm) .................................................................................................................................20
1.7.2 Versuch einer Definition von KI ............................................................................................21
1.7.3 Phasen der geschichtlichen KI-Entwicklung..........................................................................22
1.7.3.1 Vorgeschichte ..................................................................................................................22
1.7.3.2 Gründungsphase 1956-1966 ............................................................................................22
1.7.3.3 Back to Reality 1966 - 1974 ............................................................................................23
1.7.3.4 Wissensbasierte Epoche 1975-1995 ................................................................................23
1.7.3.5 Moderne Epoche 1995-2010 ...........................................................................................24
1.7.3.6. Kommerzialisierung (2010 – heute) ...............................................................................25
1.7.4 Grobüberblick über die KI Gebiete/-Technologien................................................................26
1.8 Literatur und Kontrollfragen .........................................................................................................27
2. Wissenssuche ....................................................................................................................... 29
2.1 Wissenssuche mit Online-Datenbanken ......................................................................29
2.1.1 Statistik zu Online-Datenbanken ...................................................................29
2.1.2 Bibliographische Daten ..........................................................................................................30
2.1.3 Textuelle und Volltext DB .....................................................................................................31
2.1.4 Faktendatenbank DETHERM ................................................................................................34
2.1.5 Literatur und Kontrollfragen .....................................................................................34
2.2 Wissenssuche im Internet - Suchdienste....................................................................35
2.2.1 Klassen von Suchdiensten und deren Funktionsweise ............................35
2.2.2 Suchoperatoren und Expertensuche ...............................................................35
2.2.3 Suchbegriffe .............................................................................................................36
2.2.4 Bestandteile der Ergebnislisten.........................................................................37
2.2.5 Nutzerverhalten ......................................................................................................37
2.2.6 Neue Entwicklungen und Trends ......................................................................38
2.2.7 Literatur und Kontrollfragen .....................................................................................41
3 Methodische Unterstützung des Wissensmanagements .................................................... 43
3.1 Methoden entlang des Wissensmanagementprozesses .................................................................43
3.2 Methoden zur Förderung des Wissensaustauschs, der Wissenskommunikation und der
Wissensnutzung ..................................................................................................................................48
3.2.1 Lessons Learned .....................................................................................................................48
3.2.2 Best Practice Sharing .............................................................................................................49
3.2.3 Story Telling/Learning History ..............................................................................................49
3.2.4 Wissenskommunikation mit Chatbots....................................................................................50
3.2.4.1 Geschichtliche Entwicklung von Chatbots ......................................................................50
3.2.4.2 Charakteristika von Chatbots...........................................................................................52
3.2.4.3 Leistungstests der Big Four (Weber 2017) ......................................................................52
3.2.4.4 AIML (Artificial Intelligence Markup Language) .........................................................54
3.2.4.5 Beispiele ..........................................................................................................................56
3.2.4.6 Werkzeuge, auch um Chatbots intelligent zu machen....................................................56
2
3.3 Methoden zur Repräsentation von Wissen (Wissensvisualisierung) ............................................60
3.3.1 Wissenskarten ........................................................................................................................60
3.3.2 Ontologien ..............................................................................................................................64
3.3.3 Prozessmodellierung ..............................................................................................................69
3.3.4 Visualisieren mit Metapher-Methode: U-Bahnkarte ..............................................................72
3.4 Wissenssituationsanalyse-Methode .........................................................................................72
3.5 Communities of Practice zur Wissenskommunikation .................................................................73
3.6 Personalisierungsmethode - Benutzermodellierung .....................................................................74
3.6.1 Benutzermodell ......................................................................................................................74
3.6.2 Adaptivität bei Lernanwendungen .........................................................................................76
3.7 Literatur und Kontrollfragen .........................................................................................................78
4 Bewertungsmethoden von Wissen-(smanagement) ........................................ 79
4.1 Das Intellektuelle-Kapital-Modell ...................................................................................79
4.2 Wissenskapitalindex ............................................................................................................81
4.3 Balanced Scorecard .............................................................................................................82
4.3.1 Architektur eine BSC .............................................................................................................82
4.3.2 Beziehung zwischen BSC und WM .......................................................................................83
4.3.3 Fallbeispiel BSC [NN] ...........................................................................................................84
4.4 Wissensbilanz......................................................................................................................87
4.4.1 Allgemein ...............................................................................................................................87
4.4.2 Schritte einer Wissensbilanztoolbox ......................................................................................88
4.4.3 Kontinuierliche Wissensbilanzierung ..............................................................92
4.4.4 Leitfaden für Wissensbilanzerstellung für KMU ................................................................95
4.5 Benchmarking ........................................................................................................................97
4.6 Literatur und Kontrollfragen ............................................................................................98
5. Wissensgenerierung - Business Intelligence ..................................................... 99
5.1 Definition Business Intelligence (BI) ...........................................................................................99
5.2 Executive Information System (EIS) ..........................................................................100
5.3 Data Warehouse .................................................................................................................101
5.3.1 Grundlegende Merkmale ......................................................................................................101
5.3.2 Architektur des Data Warehouse (DW) ...............................................................................102
5.4 OLAP und Data Mining ......................................................................................................105
5.4.1 OLAP ...................................................................................................................................105
5.4.2 Data Mining .........................................................................................................................105
5.5 Methoden des Maschinellen Lernens zur Wissensgenerierung .........................108
5.5.1 Definition Maschinelles Lernen ...........................................................................................109
5.5.2 Anwendungen ML ...............................................................................................................111
5.5.3 Algorithmische Ansätze .......................................................................................................113
5.5.4 Zwei Maschinelle Lernenverfahren .....................................................................................114
5.5.4.1 Support Vektor-Maschinen ( SVM) ..............................................................................114
5.5.4.2 Künstliche neuronale Netze (Artificial neural network NN) .........................................116
5.6 Fallbeispiele ..........................................................................................................................117
5.6.1 Data Warehouse bei Handelsgruppe Globus ........................................................................117
5.6.2 Fallbeispiel Business Intelligence: Analytisches Customer Relationship Management (a-
CRM) ............................................................................................................................................118
5.6.3 Fallbeispiel: BI zum Betriebsergebnis – Controlling: Delta Master ....................................120
5.6.4 Fallstudie Data Mining und BI: Lufthansa...........................................................................124
5.6.5 Anwendung BI: Learning Analytics ....................................................................................126
5.7 Literatur und Kontrollfragen .......................................................................................................128
6. Softwaretechnische Werkzeuge des WM............................................................ 130
6.1 Werkzeuge ............................................................................................................................130
6.2 Web 2.0 Technologien ......................................................................................................133
6.2.1 Überblick ..............................................................................................................................133
6.2.2 E-Collaborations-Werkzeuge ...............................................................................................134

3
6.2.3 Aufbau und Funktionsweise eines Wikis am Beispiel Fraport ..........................................137
6.3 Wissensmanagementsoftware entlang der WM-Prozessschritte............................................138
6.4 Web 3.0-Systeme oder Wissensbasierte Systeme .......................................................................140
6.5 Literatur und Kontrollfragen .......................................................................................................143
7. Wissensmanagementsysteme ................................................................................ 145
7.1 Funktionen von integrierten Wissensmanagementsystemen ...........................145
7.2 Referenzmodell für die Entwicklung von WMS .......................................................146
7.3 Wissensportale ....................................................................................................................147
7.4 Fallbeispiel IBM ...................................................................................................................150
7.5 Softwaretechnische Realisierung des Deggendorfer WMS für Studenten ....150
7.6 Wissensmanagement fürs Personal TH Deggendorf .............................................152
7.6.1 Bedarfsanalyse ............................................................................................................152
7.6.2 Technische Realisierung.....................................................................................153
7.6.3 Vergleich von Portalsoftware für die Anforderungen dieses Wissensmanagements (Schich
2012) .............................................................................................................................................153
7.7 Literatur und Kontrollfragen ..........................................................................................154
8. Risikomanagement im Wissensmanagement ................................................... 156
8.1 Sachlich-technische Wissensrisiken ............................................................................156
8.1.1 Risikoidentifikation ..............................................................................................................156
8.1.2 Maßnahmen gegen sachlich-technische Wissensrisiken ......................................................158
8.1.2.1 Firewalls ........................................................................................................................158
8.1.2.2 Autorisierung .................................................................................................................159
8.1.2.3 Verschlüsselung .............................................................................................................159
8.1.2.4 Datenintegrität ...............................................................................................................160
8.1.2.5 Authentisierung .............................................................................................................160
8.1.2.6 Digitale Signatur ............................................................................................................161
8.1.2.7 Copyright-Schutz: Wasserzeichen .................................................................................162
8.1.2.8 Spam-Mailfilter .............................................................................................................163
8.1.2.9 Phishing-Schutz .............................................................................................................163
8.2 Personelle Wissensrisiken...........................................................................................................164
8.3 Organisatorische Wissensrisiken ................................................................................................165
8.4 Marktbezogene Wissensrisiken ..................................................................................................165
8.5 Fallstudie: Wissensrisikomanagement an einer Hochschule [Küffner 2017] ........................167
8.6 Literatur und Kontrollfragen ..........................................................................................173
9. Wissensmanagement erfolgreich einführen ..................................................... 174
9.1 Sensibilisierung für die Notwendigkeit von WM: Kurzdiagnose .......................174
..........................................................................................................................................................174
9.2 Wissensleitbilder und Wissensziele fürs Unternehmen........................................174
9.3 Ansatzpunkte für ein Kulturaudit .................................................................................180
9.3.1 Strukturierte Interviews ...................................................................................181
9.3.2 Nach dem Kulturaudit .........................................................................................182
9.4 Rollen und Profile in bestehenden Wissensmanagement-Systemen..............182
9.5 Aktionsplan erstellen ........................................................................................................184
9.6 Implementierung von Wissensmanagement ...........................................................185
9.7 Leitfaden zur Einführung von Wissensmanagement an Hochschulen........................................186
9.8 Literatur und Kontrollfragen ..........................................................................................188
10. Anwendung: Virtuelle Weiterbildung zur Steigerung des Humankapitals
................................................................................................................................................ 189
10.1 Bedarfssog und Technologiedruck für virt. Weiterbildung ...............................189
10.2. Kategorisierung von Lehrformen [Goertz 2013] ................................................189
10.3 Strategischen Einsatz von E-Learning am Beispiel der TH Deggendorf191
10.4 E-Learning und Wissensmanagement .....................................................................191
10.5 Lernen in 3-D-Welten.....................................................................................................192

4
10.6 MOOC (Massive Open Online Course) .....................................................................193
10.7. Blended Learning 4.0 oder smart Blended Learning ...............................................................194
10.7.1 Definition von smart ..........................................................................................................194
10.7.2 Smarter Blended Learning Prozess - Überblick .................................................................194
10.7.3 Ergebnisse des KI-Einsatzes im BL-Prozess .....................................................................196
10.8 Lernmanagementsysteme ............................................................................................199
10.8.1 Standards ....................................................................................................................199
10.8.2 LMS Moodle ............................................................................................................200
10.8.3 neuere Entwicklungen .....................................................................................201
10.9 Literatur und Kontrollfragen ........................................................................................202
11. Anwendung „Lernende Organisation“ ......................................................................... 204
11.1 Verhalten..................................................................................................................................204
11.2 Definition organisationales Lernen ...........................................................................................206
11.3 Voraussetzungen, damit Organisationen lernen ........................................................................208
11.4 Weitere grundlegende Prinzipien des Lernens in Organisationen. ...........................................211
11.5 Kontrollfragen...........................................................................................................................213

5
1 Grundlagen des Wissensmanagements

In einer globalen Wirtschaft, im Dienstleistungssektor, ja in den öffentlichen Verwaltungen entscheidet


heute zunehmend der Wissensvorsprung. Dies gilt im Wettbewerb mit den so genannten
Niedriglohnländern oder anderen Konkurrenten. Obwohl Wissen in den letzten Jahren zur
entscheidenden Ressource unserer Wirtschaft und Dienstleistungsgesellschaft wurde, ist ein
systematischer und effektiver Umgang mit der Ressource Wissen noch längst keine
Selbstverständlichkeit. Knappe zeitliche und finanzielle Kapazitäten führen dazu, dass Unternehmen,
Organisationen oder Institute die Beschäftigung mit dem scheinbar schwergewichtigen Thema
„Wissensmanagement“ scheuen. Um diese Hürden abzubauen, werden in diesem Skript die Grundlagen
von digitalen Wissensmanagement und erfolgreiche Lösungen für ein pragmatisches
Wissensmanagement vorgestellt. Der Zusatz „digital“ soll bedeuten, dass hier Wert auf IT-Lösungen, ja
sogar auf KI-Lösungen im Wissensmanagement gelegt wird.
Leuchtturmprojekte zu Wissensmanagement sind in den verschiedenen Branchen zu finden:
• Evangelische Kirche: das Projekt „Geistreich“, http://www.geistreich.de/about. Diese
Praxis-Plattform möchte die Vielfalt von kirchlichen Projekten sichtbar machen. Es
bietet die Möglichkeit der Veröffentlichung von Projekten und des Austausches mit
anderen Aktiven. Herzstück ist der Bereich “wissensreich”, ein Lexikon kirchlichen
Erfahrungswissens. Hier sollen Projekte gemeinsam weiterentwickelt werden. Im
Bereich “erfahrungsreich” kann man ein Projekt vorstellen, ohne dass andere den
Bericht ergänzen können. Daneben gibt es “ideenreich”, wo Fragen und Ideen
besprochen werden können.
• Sozialer Bereich: Caritasverband Deutschland hat mit "CariNet” ein softwaregestütztes
Wissens- und Informationssystem im Deutschen Caritasverband etabliert. 10.973
Caritas-Mitarbeiterinnen und Mitarbeiter in 117 verschiedenen Verbänden und Träger
von Einrichtungen nutzen aktuell CariNet um Informationen abzurufen, Wissen
auszutauschen und zu recherchieren.
https://www.caritas.de/pressemitteilungen/wissensmanagement-auf-
erfolgskurs/114577/
• Gesundheitswesen: Asklepios Kliniken "Die Asklepios IT-Infrastruktur OneIT
kombiniert modernste Technologien und innovative Lösungen, sodass die
Informationstechnologie für Asklepios-Patienten und -Mitarbeiter effizient und
leistungsfähig gestaltet wird. Ein hochsicheres Netzwerk verbindet alle Asklepios-
Einrichtungen, wodurch das Wissen von über 38.000 OneIT-Nutzern miteinander
vernetzt wird. Am Arbeitsplatz und mobil haben Asklepios-Mitarbeiter Zugang zu
hochspezialisierten Programmen, Applikationen und Informationsportalen – zum
Beispiel zur Asklepios Online-Bibliothek.
• Hochschule: TH Deggendorf mit einer Wissensbilanz für die Fakultät Angewandte
Wirtschaftswissenschaften und dem Projekt “Von Studierende für Studierende”, in dem
Studierende Lösungen von Fallstudien oder Aufgaben sowie Tipps für Prüfungen
einpflegen, https://ilearn.th-deg/course/category.php?id=34
• Wirtschaft: die Wissensmanagementsysteme der großen Automobilfirmen, z.B. bei
BMW oder Porsche.

1.1 Definition Daten-Information-Wissen und Wissensqualitäten

1.1.1 Wissen und Wissensverarbeitung


Das kleinste Datenelement aus einem Zeichenvorrat wird als Zeichen betitelt. Zeichen sind also die
Basis der Daten. Zeichen sind daher einerseits zusammenhangslos und stehen andererseits auch für sich
alleine. Durch die Definition einer Syntax werden aus einem Zeichenvorrat die Daten gebildet.

6
Daten
Nach DIN 44300 sind Daten als Zeichen oder kontinuierliche Funktionen definiert. Daten sind also zum
einen eine Abbildung der Realität und zum anderen in der Regel die digitale Repräsentation von Fakten.
Alles was zähl- und messbar ist, kann somit durch binärcodierte Daten ausgedrückt werden.
Beispiel: Zahlen, Wörter und Texte, aber auch physikalische Größen wie Bilder, Graphiken, Sprache
und Musik.
Denn gespeichert werden Bilder oder Musik in binärer beziehungsweise elektronischer Form und sind
dadurch maschinell auswertbar.

Daten unterliegen darüber hinaus einem Lebenszyklus, bei dem die Daten zuerst erstellt, erhoben oder
gesammelt werden. Danach werden sie zur Verarbeitung weitergeleitet. Die Verarbeitung besteht aus
der Berechnung, Überprüfung, Digitalisierung und Übersetzung. Der nächste Schritt umfasst die
Analyse und Interpretation der Daten. Nachdem sie analysiert und interpretiert wurden, werden die
Daten für die zukünftige Nutzung in Systemen gespeichert beziehungsweise archiviert. Die
Archivierung beinhaltet zudem auch das Löschen nicht mehr benötigter Daten. Im nächsten Schritt
müssen nun die Zugangsberechtigungen festgelegt werden. Diese dienen zum Schutz vor Datenverlust
oder der Verwendung durch unberechtigte Personen. In der Nachnutzung findet dann die Anwendung
statt. Hier werden die Daten innerhalb von Informationssystemen genutzt. Der Kreislauf schließt sich,
indem Daten in die Erstellung neuer Daten einbezogen werden.

Datenverarbeitung (DV) ist die Verarbeitung der als Zeichen dargestellten Nachrichten und
Informationen. Diese kann manuell, maschinell oder elektronisch erfolgen. Im letzten Fall spricht man
von elektronischer Datenverarbeitung (EDV).

Nachrichten
Mit Hilfe von Signalen und Zeichen werden Nachrichten formuliert. Diese Nachrichten sind zweckfrei
und in der Formulierung für jeden Empfänger gleich. Sie sind für ihn eine Erweiterung des Wissens,
sofern er die Nachrichten aufnimmt. Die Bedeutung der Nachricht ist aber für die einzelnen Empfänger
unterschiedlich.

Information
Informationen sind im Gegensatz zu Daten zeit- und ortsabhängig. Das heißt, Informationen sind
kontextbezogen und besitzen außerdem immer einen Sender (Quelle) und Empfänger. Der Mensch ist
dabei im Mittelpunkt.
Der allgemeine Informationsbegriff wird in vielen Fällen gleichbedeutend mit Nachricht und Mitteilung
verwendet. Grund dafür ist, dass Nachrichten auch mit Hilfe von Zeichen und Signalen formuliert
werden. Der Unterschied jedoch liegt darin, dass Nachrichten in der Formulierung für jeden Rezipienten
gleich und zweckfrei sind.
Denn Daten werden für eine Person erst interessant und zur Information, wenn ein persönlicher Bezug
besteht. Informationen ändern „die Wahrnehmung des Empfängers in Bezug auf einen Sachverhalt und
wirken sich auf die Beurteilung des Kontexts aus.“
Die Anreicherung der Daten zu Informationen kann sowohl beim Ersteller als auch beim
Empfänger erfolgen. Der Wert einer Information wird aber immer vom Empfänger und
niemals vom Sender festgelegt.
Eine zweckbezogene Nachricht kann daher als Information bezeichnet werden.

Beispiel: Ein Hausmann liest einen deutschen Satz über die Börsenentwicklung der SAP-Aktie, "sie ist
in einer Woche um 20 % gestiegen" - Solange er an Aktien uninteressiert ist, sind diese Worte für ihn
nur Daten, also Zeichen und Syntax. Besitzt er SAP-Aktien oder will er bald welche kaufen, haben die
Daten für ihn eine Bedeutung und so werden die Daten für ihn zur Information.

Informationsverarbeitung (IV, IT) ist die Verarbeitung der zweckbezogenen Nachrichten (als Zeichen
dargestellten Nachrichten, die ein Zweck erfüllt)

7
Beispiel: Denken Sie an eine Akte, die elektronisch weitergereicht wird. Die Akte sind Daten. Die
konkrete Abarbeitungsreihenfolge, mit der die Akte weitergeschickt wird, hängt ja vom Inhalt der Akte
(der Bedeutung der Daten) ab und ist Informationsverarbeitung.

Abb. 1/1: Beziehungen zwischen den Begriffen Daten-Information-Wissen [Bodendorf06]

Die Abbildung 1/1 zeigt, dass Zeichen, Daten, Informationen und Wissen in Beziehung
stehen, aber nicht das Gleiche sind. Von Daten wird erst gesprochen, wenn es gelingt, die Zeichen zu
einem regelbasierten Zusammenhang zu bringen. Wird ein zusätzlicher Kontext eingebunden, der den
Daten eine Bedeutung verleiht, so werden sie zur Information. Informationen sind kontextbezogen und
besitzen außerdem immer einen Sender (Quelle) und Empfänger. Der Mensch ist dabei im Mittelpunkt.

Wissen
Popp definierte 1984 Wissen „als die Menge des Modells, die ein System von sich und der Umwelt
gespeichert hat.“ [Popp84]. Inzwischen haben sich eine Vielzahl von Definitionen ergeben.

Wissen ist (Internationalisierte) Information plus die Fähigkeit, sie zu nutzen.


Wissen bildet sich in einem unbegrenzten Prozess menschlichen Denkens, Argumentierens und
Kommunizierens, bei dem die Reflexion auf die Wirkung des Gedachten bedeutsam ist und
Wirklichkeitserfahrungen immer wieder zum Umdenken Anlass geben.
Von Wissen ist die Rede, wenn eine Information mit anderen Informationen so vernetzt werden kann,
dass dies zu Handlungsmustern für praktische Anwendungen führt. In Folge dessen setzt sich Wissen
aus vielen Informationen und Daten zusammen.
Besonders in Unternehmen beziehungsweise Organisationen ist Wissen nicht nur in Dokumenten oder
Datenbanken eingebettet. Vielmehr ist es in den betrieblichen Prozessen, Routinen, Praktiken und
Normen verankert. Das besondere Merkmal von Wissen ist, dass es sich vermehrt und vertieft, wenn es
verwendet wird.
Wissen kann man klassifizieren in individuelles und kollektives Wissen auf der einen Seite und
implizites und explizites auf der anderen Seite.
Explizites Wissen sind Informationen und Daten die in Datenbanken abgelegt sind, die formalen
Charakter haben, kodifiziert werden können oder in Worte gefasste Information.
Implizites Wissen ist Wissen, das an den Träger des Wissens gebunden ist, z.B. Denkschemata,
Grundüberzeugungen, intuitives Wissen oder Weltanschauung des Wissensträgers.

Wissensverarbeitung ist Erkunden, Suchen, Erkennen, Identifizieren, Untersuchen, Analysieren,


Bewusstmachen, Entscheiden, Verbessern, Restrukturieren, Behalten und Informieren. (Wille 2000):
1. Erkunden: etwas erforschen, von dem man nur eine vage Vorstellung hat (z.B. Literatursuche)
2. Suchen: versuchen, etwas zu erlangen, das man gewissermaßen kennt, aber nicht verfügbar hat (z.B.
Suchen einschlägiger Rechtsvorschriften für Architekten)
3. Erkennen: über etwas Klarheit gewinnen (z.B. Zusammenhänge transparent machen)
8
4. Identifizieren: für einen Gegenstand den taxonomischen Ort in einer gegebenen Klassifikation zu
bestimmen (z.B. Bestimmen von Pflanzen)
5. Untersuchen: systematisch versuchen, etwas in seiner Beschaffenheit, Zusammensetzung,
Gesetzmäßigkeit, Auswirkung u. A. genau zu erkennen
6. Analysieren: Gegebenheiten bezüglich erklärter Zwecke theoriegeleitet zu untersuchen (z.B. eines
gesprochenen Satzes)
7. Bewusstmachen: etwas ins Bewusstsein bringen (z.B. essgestörten Patientinnen nicht bewältigte
Familienkonflikte bewusst machen)
8. Entscheiden: sich entschließen, unter Alternativen eine Wahl zu treffen (z.B. Produktkauf bei
mehreren Alternativen)
9. Verbessern: etwas durch Änderungen auf einen besseren Stand bringen (z.B. Optimierung einer
Chip-Produktion)
10. Restrukturieren: etwas durch bestimmte Maßnahmen neugestalten (z.B. Reorganisation des
Programmcodes, um Systeme wieder lebensfähig zu machen)
11. Behalten: etwas Erfahrenes und Gelerntes bewahren, um es künftig wieder aktivieren zu können
(z.B. Behalten beim Auswendiglernen)
12. Informieren: jemanden über etwas Auskunft geben (z.B. Flugverbindungen in München)

1.1.2 Wissensqualitäten
Es gibt verschiedene Wissensqualitäten, daher berücksichtigt man in den Wirtschaftswissenschaften
immer mehr die Existenz von Unsicherheit und Unschärfe.
Betrachten wir ein Beispiel aus dem Produktionsprozeß mit verschiedenen Maschinen, auf denen ver-
schiedene Aufträge bearbeitet werden sollen. Wir konzentrieren uns jetzt auf nur eine Maschine, sei es
Maschine A, und auf einen Auftrag, der sei Auftrag 1.
So könnte eine Aussage in der Produktionsplanung lauten:

Die Wartezeit von Auftrag 1 vor Maschine A beträgt 10 Minuten


Diese Aussage ist scharf und sicher, während die folgende Aussage eine Wahrscheinlichkeit enthält.

Die Wahrscheinlichkeit, dass die Wartezeit von Auftrag 1 vor Maschine A 10 Minuten beträgt, ist 0,9

Die Wahrscheinlichkeit rührt von einer Wiederholung desselben Produktionsprozesses her. Es ist ein
Erfahrungswert.
Dagegen hat folgende Aussage ein Glaubensintervall:
Das Plausibilitätsintervall für die Hypothese, dass die Wartezeit von Auftrag 1 vor Maschine A 10
Minuten beträgt, ist (0,85; 0,95)

Dieses Glaubensintervall besteht aus der Plausibilität als obere Grenze .95 und dem Glaubenswert als
untere Grenze .05. Der Glaubensgrad ist dabei das Komplement des Plausibilitätsgrades. Plausibilität
ist der Grad, zu dem eine Verdachtshypothese gerade noch aufrechterhalten werden kann.
Unsicherheitsintervall drückt den Unterschied zwischen unmittelbar belastenden Verdachtsmomenten
und den nicht unmittelbar entlastenden Verdachtsmomenten aus. Glaube=positiver Verdacht;
Plausibilität ist möglicher Verdacht.

Die Möglichkeit, dass die Wartezeit von Auftrag 1 vor Maschine A 10 Minuten beträgt, ist 0,9

Die Möglichkeit drückt im Gegensatz zur Wahrscheinlichkeit nicht die Häufigkeit des Auftretens aus,
sondern die Vereinbarkeit des Auftretens mit subjektiven Vorstellungen. "Ereignis A ist möglich" ist
die schwächste Formulierung über die Realisierung des Ereignisses A.

Eine unscharfe Aussage mit dem unscharfen Term "ungefähr" lautet etwa
Die Wartezeit von Auftrag 1 vor Maschine A beträgt ungefähr 10 Minuten

9
Was der Term „ungefähr“ konkret ausdrückt, versucht man mit sogenannten Zugehörigkeitsfunktionen
zu repräsentieren. Näheres findet man bei der Fuzzy Technik.
Ein letzter Typ unsicheren Wissens ist unvollständiges und verzerrtes Wissen.
Die Wartezeit von Auftrag 1 vor Maschine A beträgt.... Minuten

Hier kann z.B. das fehlende Wort 10 durch Lernen aus dem Zusammenhang erkannt werden.

Seit der anfänglichen Entwicklung heuristischer Modelle haben sich in der internationalen Forschung
verschiedene Schulen herauskristallisiert, auf die sich die aktuellen Arbeiten konzentrieren, z.B. wahr-
scheinlichkeitstheoretische Verfahren, Belief Modelle basierend auf dem Dempster-Shafer Evidenz-
kalkül, Possibilitätstheorie, mit Fuzzy-Mengen operierende Verfahren und für unvollständiges Wissen
die Neuronalen Netze.

1.1.3 Wissen ist und bleibt subjektiv


Die Verbreitung von Wissen kann nur gelingen, wenn Informationen innerhalb eines Unternehmens
entsprechend identifiziert, verarbeitet, weitergeleitet, gespeichert und abgerufen werden. Dabei steht
nicht die gesamte Fülle von Informationen im Fokus des Wissensmanagements, sondern lediglich jene,
die für das Unternehmen erfolgsrelevant und objektiv sind. In dieser bewussten Fokussierung besteht
ein erkenntnistheoretisches Problem in der Form, dass es keine objektiven Fakten gibt und geben kann.
Die Wahrnehmung der Wirklichkeit durch ein Subjekt ist immer subjektiv geprägt.
Auch aus psychologischer Sicht kann es keine objektive Information geben. Folgendes Modell, siehe
Abb. 1/2, soll dies veranschaulichen: Jeder Informant nimmt von einem bestimmten Standort aus die
Wirklichkeit wahr, hat dabei einen bestimmten Fokus, verwendet bestimmte Filter und kommt dabei zu
bestimmten Wahrnehmungen. Diese Wahrnehmungen sind notgedrungen wertegeleitet, fokusbestimmt,
durch Interesse geleitete Filter reduziert und deshalb immer selektiv, situativ und vor allem subjektiv.

Abb.1/2: Verschiedene Sichten auf die Realität am Beispiel einer Kartoffelsicht [Bellinger 2007]

Dieses Phänomen hat systematischen Charakter und kann weder vom Informanten noch vom Benutzer
eines WM-Systems vollständig kontrolliert werden. Ein Unternehmen, das so genannte Tatsachen
betrachtet bzw. zu nutzen sucht, kann somit maximal Intersubjektivität erreichen, niemals jedoch
Objektivität.
In diesem Sinne handelt es sich bei der gemeinsamen Nutzung so genannter Fakten stets um eine
Verabredung von der folgenden Art: So lange niemand widerspricht, wird eine bestimmte Behauptung
als Faktum behandelt. Wenn zum Beispiel in der Organisation "BMW power-Motorclub" die
10
Behauptung "Alle Opel-Fahrer sind Bremser" aufgestellt wird und unwidersprochen bleibt, dann gilt
dies innerhalb des Systems "BMW power-Motorclub" als Faktum.
Je mehr unterschiedliche Standorte oder Standpunkte in einem System vorhanden sind, desto
unterschiedlicher werden die Wahrnehmungen der so genannten Fakten und deren Bewertung sein. Als
Schlussfolgerung lässt sich daraus ableiten, dass ein Unternehmen mit reifen, selbstbewussten
Mitarbeitern ein sehr heterogenes System darstellt, wodurch eine gemeinsame Deutung der Wirklichkeit
wesentlich erschwert wird. In diesem Sinne ist der hochbegabte Einzelkämpfer stets ein Feind eines
objektivierten Wissensmanagements, weil er ein geringeres Interesse am Austausch von Informationen
und damit an nachvollziehbarer Verständigung über Information hat – aus der Erfahrung heraus, dass
ein persönliches Wissen eben stark von seiner Persönlichkeit geprägt wird - sowohl was das Sammeln
als auch was das Nutzen von Wissen anbelangt.
Auch bei der Wissensvermittlung kommt hochbegabten Fachkräften eine besondere Stellung zu. Ihre
Kompetenz ist oft eher unbewusster Natur, von ihnen wird erwartet, dass viele Prozesse automatisiert
ablaufen. Dies impliziert einen hohen Internalisierungsgrad von relevantem Wissen. Um dieses Wissen
für das Wissensmanagement und in weiterer Folge für das Unternehmen zugänglich zu machen, muss
es in eine explizite Form transformiert werden. Das setzt konzeptionelle, didaktische und methodische
Fähigkeiten voraus die vielen Profis zu einem guten Teil abgehen -insbesondere, wenn es sich z.B.
darum handelt, Informationen in ihrer Bedeutung für komplizierte oder komplexe Prozesse und Abläufe
zu kategorisieren.

1.2 Bedeutung von Wissen für Unternehmen


Nach allgemeinem Verständnis befinden wir uns im Übergang vom Industriezeitalter zum
Informationszeitalter, das u.a. begleitet ist von Erscheinungen wie der Globalisierung der Märkte, der
zunehmenden Innovationsgeschwindigkeit bei gleichzeitiger Verkürzung von Produktlebenszyklen,
Neugestaltung der Beziehungen zum Kunden und zum Lieferenten, (Stichwort: eBusiness) sowie der
zunehmenden Informationsflut, der wir uns durch den Einsatz von modernen Informations- und
Kommunikationstechniken wie dem Internet ausgesetzt sehen. Wir können diese Erscheinungen ja
tagtäglich in der Presse und in den Medien verfolgen.
In dieser zunehmend komplexen Welt kommt der Fähigkeit, Informationen in Handlungswissen
umzusetzen eine besondere Bedeutung zu, sowohl für den Erfolg des Einzelnen, vielmehr aber für die
Sicherung der Überlebenschancen eines Unternehmens. Viele sprechen in diesem Zusammenhang
bereits davon, dass das Informationszeitalter schon bald durch das Wissens-Zeitalter dominiert wird!
Begünstigt wird dieser Effekt darüber hinaus durch die Tatsache, dass der Dienstleistungssektor in
unserer Wirtschaft überproportional zunimmt und damit auch die Zahl der sog. Wissen- oder Know-
how Unternehmen. Schon bei der Umfrage des Frauenhofer-Instituts für Arbeitswissenschaft und
Organisation (IAO) von 1997 schätzten 75% der Unternehmen den Anteil des Produktionsfaktors
Wissen an der Wertschöpfung auf über 60%! Diese Prozentzahlen sind heute gestiegen. Wir können
daraus ablesen, welche Bedeutung der Produktionsfaktor Wissen heute für Unternehmen hat.

Produktionsfaktor Wissen klingt gut. Aber was macht Wissen zu einem Produktionsfaktor? Welche
Gestaltungsmöglichkeiten verbinden Unternehmen mit diesem Produktionsfaktor?
Es gibt eine ganze Menge an Gestaltungsfeldern, bei denen neben den klassischen Produktionsfaktoren
Kapital, Arbeit und Ressourcen Wissen und der Umgang mit diesem Gut im Unternehmen eine
gewichtige Rolle spielen. Geht man einmal von den Zielsetzungen aus, die Unternehmen, Ämter und
Institute mit Wissensmanagement-Projekten verbinden, so geht es (unabhängig von der Branche) häufig
um
- Verkürzung von Innovationsprozessen
- Erhöhung der Produktqualität
- Verbesserung der Nähe zum Kunden
- Optimierung der Lieferantenbeziehungen
- Verbesserung der Produktivität von Geschäftsprozessen
- Qualifikation von Mitarbeitern
- Risikobegrenzung kritischer Entscheidungen
Die Bedeutung des Produktionsfaktors Wissen lässt sich übrigens auch daran erkennen, dass man heute
immer häufiger auch das sog. Wissenskapital in die Bewertung von Unternehmen mit einbezieht.
11
Dabei geht es darum, den Wert oder den Wertzuwachs eines Unternehmens, der über das „sichtbare“
Anlage- und Kapitalvermögen hinausgeht, also den „unsichtbaren Wert“, zu erklären. Dies spielt
natürlich insbesondere für die schon erwähnten Know-how-Unternehmen im Dienstleistungsbereich
eine große Rolle, aber auch bei Industrieunternehmen klassischer Prägung wird die Bewertung des
vorhandenen Wissens immer entscheidender.
Der Marktwert eines Unternehmens wird nach dieser Sichtweise zum einen durch das Finanzkapital,
zum anderen durch das Wissenskapital bestimmt. Das Wissenskapital unterscheidet sich wiederum in
das Humankapital und das Strukturkapital eines Unternehmens. Das Humankapital beschreibt
sozusagen den Teil des Wissenskapitals, das in den einzelnen Mitarbeitern steckt – deren Kompetenz,
deren Lernfähigkeit, deren Motivation und Grundeinstellungen. Das Strukturkapital erlaubt eine
Aussage über das organisationale Wissen, über das ein Unternehmen verfügt – Welche Beziehungen
bestehen gegenüber Kunden, Lieferanten oder auch den Anteilseignern, welche Möglichkeiten haben
interne Gruppen, miteinander zu kommunizieren, gibt es Organisationsformen, die den
Wissensaustausch begünstigen und wie ist die Innovationsfähigkeit einzuschätzen?
Nun, bedenkt man, dass eine wesentliche Aufgabe des Managements in der Steigerung des sog.
Unternehmenswerts liegt (bekannt auch als „Shareholder Value“), so liegt es doch nahe, eine Quelle
möglicher Wertschöpfung – nämlich das Wissenskapital mit seinen verschiedenen Indikatoren - auch
entsprechend zu „managen“.

1.3 Definition des Begriffs Wissensmanagement (WM)


Grundsätzlich geht es beim Wissensmanagement um die systematische Erschließung und Nutzung des
im Unternehmen vorhandenen Wissens. Allerdings existiert bis heute keine allgemein akzeptierte
Definition dieses Begriffs. Laut Peter Mertens, emeritierter Prof. von der Universität Erlangen-
Nürnberg, stellt Wissensmanagement sicher, dass internes Wissen einer Organisation – etwa technische
Details, historische (Fehl-) Entscheidungen, Projekterfahrungen („Lessons Learned“), bewährte
Vorgehensweisen („Best Practices“) - für eine zukünftige Nutzung explizit erschlossen und verfügbar
gemacht wird. Er gibt uns damit Hinweise auf die möglichen Wissensinhalte und die Aufgabe, internes
Wissen zu externem Wissen zu machen.

Säule Gestaltungsdimension
▪ Förderung und Gestaltung von Kenntnissen, Fähigkeiten und
Kompetenzen
Mensch
▪ Mensch als Träger des Wissens und als Triebfeder kontinuierlicher
Lernprozesse
▪ Entwicklung einer wissensfreundlichen Kultur
Organisation ▪ Schaffung von Rahmenbedingungen, die den Umgang mit der
Ressource Wissen erleichtern
▪ Implementierung und Gestaltung von Informations- und
Kommunikations-Infrastruktur
Technik
▪ Einsatz von Werkzeugen, die wissensbasierte Prozesse effizient und
nutzerfreundlich unterstützen
Abb. 1/3: Mensch, Organisation und Technik als Säulen ganzheitlichen Wissensmanagements

Mandl, emeritierter Prof. der LMU München, definiert WM folgendermaßen [Reinmann-Rothmeier /


Mandl, u.a., 2001, S. 18]: Wissensmanagement befasst sich mit dem bewussten und systematischen
Umgang mit der Ressource Wissen und dem zielgerichteten Einsatz von Wissen in der Organisation.
Entsprechend dieser Definition bilden Mensch, Organisation und Technik die drei Säulen einer
umfassenden Wissensmanagement - Strategie. Damit umfasst Wissensmanagement die Gesamtheit aller
Konzepte, Strategien und Methoden zur Schaffung einer „intelligenten“, also lernenden Orga-nisation
(vgl. Abb.1/3).
Wissensmanagement ist kein Selbstzweck. Ziel von erfolgreichem Wissensmanagement ist es, im
Einklang mit den übergeordneten Unternehmenszielen einen Beitrag zur Wertschöpfung zu leisten. Ein
ganzheitlicher Wissensmanagement-Ansatz beschäftigt sich dabei mit Fragen der

12
Wissenskommunikation, Wissensrepräsentation, Wissensgenerierung und Wissensnutzung als
Prozesskategorien des Wissensmanagements.

Nutzeffekte von WM [Müller 2005, S.145-146]


• Größere Transparenz von Wissen: Die systematische Identifikation von Wissensbeständen ist
ein Vorteil an sich, bietet aber auch Nutzeffekte für die Weiterentwicklung des individuellen
und organisationalen Wissens.
• Schnellerer und gezielter Zugriff auf verteiltes Wissen
• Entlastung der Mitarbeiter und Zeitersparnis: Durch FAQs und Wissensdatenbanken werden
Mitarbeiter immer weniger mit gleichen Fragen beschäftigt. Es bleibt mehr Zeit für schwierigere
Fälle und kreative Arbeit.
• Bewahrung des Wissens ausscheidender und fluktuierender Experten
• Effizientere Prozesse: Prozesse werden durch Best Practices langjähriger Wissensträger
effizienter, eingeführte Abläufe werden im Sinne des KVP hinterfragt und optimiert.
Doppelarbeit wird durch Transparenz über Team- und Abteilungsgrenzen hinweg reduziert.
• Höhere Qualität und weniger Fehler: Durch das Lernen aus Erfahrung durch abgeschlossene
Vorgänge und Projekte mit Lessons-Learned-Workshops, Projektreviews oder Qualitätszirkeln
kann in zukünftigen Aktivitäten die Qualität der Serviceprodukte und –dienstleistungen erhöht
werden. Fehler und Fettnäpfchen unerfahrener Mitarbeiter werden vermieden.
• Schnellere Einarbeitung neuer Mitarbeiter: Der Transfer von Erfahrungswissen ausscheidender
oder wechselnder langjähriger Mitarbeiter an neue Kollegen reduziert deren Einarbeitungszeit
um 30-50%.
• Niedrigere Kosten:
• Ausschöpfung von Synergiepotenzialen
• Innovation durch Reflexion über das eigene Fachgebiet
• Größere Kundenorientierung

1.4 Teilprozesse des Wissensmanagements


Hierzu hilft uns eine strukturierte Betrachtung der Teilprozesse des Wissensmanagement, wie sie z.B.
von Probst beschrieben wurde, siehe Abb. 1/4, oder das Münchner Modell, siehe Abb. 1/5.

Wissens-
identifi- Wissens- Wissens- Wissens- Wissens- Wissens-
kation erwerb entwick- bewah- verteilung nutzung
lung rung

Abb. 1/4: Wissensmanagementprozess [Probst 1997]

In Abb. 1/4 muss zuerst identifiziert werden, was wir überhaupt wissen wollen. Bei der
Wissensidentifikation geht es darum, dass im Unternehmen vorhandene Wissen, sei es nun explizit oder
implizit aufzuspüren und transparent zu machen. Wissen, das außerhalb des Unternehmens gefunden
werden kann, muss im Prozess des Wissenserwerbs für das eigene Unternehmen zugänglich gemacht
werden. Die Wissensentwicklung ergänzt den Wissenserwerb von außen. Hier geht es darum, innovative
Ideen, Produkte, Prozesse und Fähigkeiten von Mitarbeitern zu fördern und zu entwickeln. Die
Wissensbewahrung sorgt für die Erhaltung und Aktualisierung des so identifizierten, erworbenen und
entwickelten Wissens. Der Teilprozess der Wissensverteilung kümmert sich um die Bereitstellung
ausgewählten Wissens im Unternehmen und schließlich geht es bei der Wissensnutzung darum, dem
Endanwender Wissen zugänglich zu machen. Das Modell wird ergänzt durch die Definition von
Wissenszielen sowie einem Controlling und Feedback des ganzen Prozesses.

Das Münchner Modell ist von vier Bereichen geprägt, der Wissensrepräsentation, der Wissenskom-
munikation, der Wissensnutzung und der Wissensgenerierung und ebenfalls um die Bereiche der

13
Zielsetzung und Evaluierung ergänzt, siehe Abb. 1/5. Die unterschiedlichen Wissensprozesse werden
dabei zusammengefasst und zueinander in Beziehung gesetzt.
Der Bereich der Wissensrepräsentation befasst sich damit Wissen transparent zu gestalten und
vorhandenes Wissen handhabbar zu machen. Dieser Schritt ist notwendig, da ein großer Anteil des
Wissens im Verborgenen liegt und es sich oftmals um implizites Wissen handelt, das eng mit dem
Wissensträger verbunden ist. Dies birgt vor allem dann eine Gefahr, wenn der Wissensträger mit samt
seinem Wissen aus der Organisation ausscheidet. Dieses Problem kann durch die Dokumentation des
Wissens verhindert werden. Im Einzelnen gehört hierzu die Identifikation, die Explizierung und
Kodifizierung von Wissen (vgl. Abbildung 1/5). Diese so entstandene Sammlung, soll mittels der
technischen Möglichkeiten dokumentiert und bewahrt werden, um es somit den Mitarbeitern nutzbar,
leicht und schnell zugänglich zu machen (Reinmann-Rothmeier, u.a., 2001, S. 32).

Abb. 1/5: Prozesskategorien des WM [Reinmann-Rothmeier, u.a., 2001]

Das durch die Wissensrepräsentation sichtbar und nutzbar gemachte Wissen soll durch die
Wissenskommunikation nun innerhalb der Organisation verteilt werden. Dieser Schritt ist unerlässlich,
da alleine durch die Explizierung und Visualisierung des Wissens, dessen Weitergabe, Nutzung und
Weiterentwicklung nicht garantiert werden kann. Besonders bei weit verzweigten Organisationen
kommt diesem Schritt eine besondere Bedeutung zu. Dieser Schritt erfasst neben der Weitergabe von
Informationen und Inhalten, auch den Austausch und die Teilung von Wissen. Darüber hinaus soll durch
diese Interaktion Mehrwerte entstehen und im Zuge der Kooperation der Einzelnen sollen
Synergieeffekte aufgedeckt und genutzt werden. Zudem können durch die direkte Weitergabe und den
damit verbundenen Kontakt zwischen zwei Akteuren Grenzen, die bei der Weitergabe von implizitem
Wissen auftauchen, überwunden werden. Dieser Aspekt erfasst nicht nur die Initialisierung der
Kommunikation, sondern auch deren Aufrechterhaltung. Dabei ist das Ziel, das gewonnen Wissen über
organisationale Strukturen hinweg zu verteilen und somit die gesamte Kommunikation innerhalb der
Organisation zu verbessern (Reinmann-Rothmeier, u.a., 2001, S. 33).

Durch den Schritt der Wissensgenerierung soll neues Wissen in das Unternehmen geholt und es sollen
innovative Ideen entwickelt werden. An dieser Stelle kann zwischen der externen Wissensbeschaffung
14
durch Berater, neue Mitarbeiter oder Kooperationen und der internen Generierung unterschieden
werden. Letztere soll durch Weiterentwicklung von Wissen, Steuerung von Lernprozessen und
Bereitstellung von Netzwerken erreicht werden. Der Bereich der Wissensgenerierung zielt darauf ab,
die Kompetenzen der Mitarbeiter zu verbessern, die Wissensbasis sowie die Lernfähigkeit der
Organisation zu erweitern sowie innovative Prozesse und Ergebnisse voranzutreiben. Diese einzelnen
Aspekte sind notwendig, da zwar durch Explizierung, also Austausch und die Kommunikation, neues
Wissen geschaffen wird, aber dessen Potential nicht erkannt wird und verloren gehen könnte
(Reinmann-Rothmeier, u.a., 2001, S. 37).
Das durch die Repräsentation, Kommunikation und Generierung erschlossene Wissen muss aber auch
durch die Einbindung in Entscheidungen und Arbeitsabläufe genutzt werden. Dieser Schritte der
Wissensnutzung stellt den schwierigsten Teil eines erfolgreichen Managements dar, da es direkt beim
Handeln der Mitarbeiter und somit in die Arbeitsabläufe eingreift. Obgleich alle vorherigen Schritte eine
wichtige Funktion erfüllen, so ist doch der Einsatz dieses Wissens entscheidend. Unter dem Begriff der
Nutzung wird die Einbindung des erzeugten Wissens in die täglichen Abläufe, die Erzeugung von
Produkten und die Erbringung von Dienstleistungen verstanden (vgl. Reinmann-Rothmeier, u.a., 2001,
S. 39 ff.).

1.5 Die Relevanz von psychologischen Faktoren im Wissensmanagement


Welche menschlichen, zwischenmenschlichen, gruppen- und organisationsdynamischen Faktoren gilt
es bei der Entwicklung, Gestaltung, Einführung und Lenkung von Wissensmanagement-Systemen zu
berücksichtigen? Gibt es matchentscheidende Soft Factors, welche bewusst gestaltetes und bewusst
betriebenes Wissensmanagement immer wieder behindern oder verhindern?
In diesem Kap. betrachten wir, wie ich Mitarbeiter motiviere, ihr Wissen preiszugeben, zu
dokumentieren, zur Verfügung zu stellen. Welche Anreize müssen auf emotionaler Ebene gesetzt
werden, um Wissensmanagement zu einer Selbstverständlichkeit für die Organisation werden zu lassen?

Abb. 1/6: Komponenten eines Wertesystems in Verwaltungen [Müller 2015, S. 76]

15
1.5.1 Unternehmenskultur ist der entscheidende Faktor
Im weitesten Sinne steht und fällt jedes WM-System mit der Unternehmenskultur, wovon die
Wissenskultur eine Teilmenge ist.

Unter Unternehmens-/Verwaltungskultur verstehen wir die gesamten Einstellungen, Überzeugungen


und Werte eines Kollektivs, die zu einem Verhalten von einzelnen Gruppenmitgliedern und/oder einer
gesamten Gruppe führen [Bellinger 2007, S.31]. Die Abbildung 1/6 zeigt die Komponenten eines
Wertesystems in Verwaltungen.
Bei der Wissenskultur handelt es sich dann um einen spezifischen Teil der Unternehmenskultur. Die
Wertschöpfung eines Unternehmens wird massiv davon beeinflusst, wie schnell die Mitarbeiter lernen,
worauf es ankommt, was Erfolg bringt, womit der einzelne seinen Mehrwert für das Unternehmen
erzeugt. In Hinblick auf das Wissensmanagement ist der wichtigste Unternehmenskultur-Faktor die
Offenheit sämtlicher Mitarbeiter, Wissen (nicht nur Information) rasch und transparent zur Verfügung
zu stellen und/oder abzufragen.
Entscheidend ist also eine Kultur der gegenseitigen Hilfsbereitschaft, die es aufzubauen gilt.
Das könnte so funktionieren, dass ein so genannter "Wissensträger" zu einem "Best Practice"-Anlass
einlädt, in welchem er seinen Kollegen erklärt, wie er die vorhandenen Informationen nutzt und sie mit
seinem impliziten Wissen verbindet. Er lässt sich also beim Denken zuschauen. Voraussetzung ist
allerdings, dass ihm selber bewusst ist, was er tut und dies klar kommunizieren kann ("Gläserner
Hinterkopf").

Kulturfaktor 1: Die Kommunikationskultur


Wissen muss kommuniziert werden. Eine Datenbank kann diesen Prozess lediglich unterstützen.
Entscheidender ist es, ob im Unternehmen eine Kultur der ständigen Kommunikation existiert und vom
Management auch gefördert wird. Die horizontale Wertschöpfung durch Kollegialität (Hilfe suchen,
Ratschläge erteilen, Best Practice, Querbefruchtungs-Workshops) soll durch konsequentes Management
in der vertikalen Wertschöpfung ergänzt werden (schlanke Strukturen, Benchmarkingsysteme,
Transparenz, Anreizsysteme).
Gerade für den Transfer des überaus wichtigen impliziten Wissens ist entscheidend, dass Menschen sich
begegnen, dass Meetings dazu genutzt werden, nicht einfach Informationen auszutauschen, sondern
Wissen.

Kulturfaktor 2: Die Fehler- und Feedback-Kultur


In der Pädagogik ist seit langem mit zahlreichen Studien belegt, dass Angst lernbehindernd wirkt. Je
angstfreier eine Unternehmenskultur ist, desto geringer deshalb die Fehlerquote respektive desto höher
die Quote der rasch korrigierten Fehler. Es ist deshalb ein absolutes Muss für Unternehmen, welche eine
hohe Verteilung des vorhandenen nützlichen Wissens fördern wollen, ein Klima der Angstfreiheit zu
schaffen. Nur dann ist es möglich, eine zielführende Fehler- und Feedback-Kultur aufzubauen.
Ein Klima der Angstfreiheit entsteht,
• wenn Manager ihre Vorbildfunktion wahrnehmen und selber eigene Fehler transparent machen
• wenn grundsätzlich ein Klima der gegenseitigen Wertschätzung herrscht
• wenn häufig gelobt wird, Leistung also anerkannt wird

Kulturfaktor 3: Die Führungskultur


Manager, die Hilfsbereitschaft horizontal und vertikal vorleben, finden innerhalb ihres Unternehmens
bald Nachahmer. Aufgabe der Manager ist es Bedingungen zu schaffen, unter denen sich Mitarbeiter
gegenseitig helfen können. Die Zielvorgabe ist die "Querbefruchtung" und beinhaltet Elemente des
Förderns und des Disziplinierens. Die Förderung von Beziehungen unter den Mitarbeitern, auch über
die eigene Organisationseinheit hinaus, führt dazu, dass sie im Bedarfsfall wissen, welche Kollegen sie
um Unterstützung bitten können.

Kulturfaktor 4: Die Erfolgskultur


Die menschliche Spezies lernt leichter durch das Kopieren von Erfolgen als aus der Vermeidung von
Fehlern. Daraus lassen sich mehrere Schlüsse ziehen.

16
Erstens: Feedback darf nicht nur Negatives thematisieren, sondern muss genauso auch das Positive
ansprechen - Lob beflügelt.
Hat ein Mitarbeiter mit einem bestimmten Vorgehen Erfolg, so soll er es allgemein bekannt machen -
der "Best Practice"-Ansatz.
Der größte Feind der Erfolgskultur sind also Neid und Missgunst. Diese Haltung, die oft durch eine
Kultivierung des Wettbewerbs unterstützt wird, kann nicht bekämpft, sondern nur substituiert werden:
Durch Betonung des gemeinsamen Erfolges, durch eine Haltung des gegenseitigen Erfolgreichmachens,
durch permanentes Lob.

Kulturfaktor 5: Die Prozesskultur


Welches KM-System in Unternehmen auch immer einführt: Es wird ein Nachfolgemodell sein und löst
ein bestehendes, meist informelles, auf persönlichen Beziehungen basierendes und mit Fehlern
behaftetes ab. Jeder Mitarbeiter hat längst sein persönliches Wissensmanagement-System aufgebaut:
entsprechend seinen persönlichen Standpunkten oder Standorten, basierend auf einem persönlichen
Netzwerk, das ihm beim Lernen hilft.
Nur wenn für den Mitarbeiter bewusst ist, dass das offizielle WM-System einen höheren oder einen
zusätzlichen Nutzen zu seinem eigenen selbst gestrickten WM-System bietet, wird er es nutzen oder
(bei entsprechendem Druck) auch füttern.
Ein WM-System muss also nicht nur regelmäßig kontrolliert (Fütterung und Nutzung) und
weiterentwickelt werden, sondern es braucht auch ein eigentliches Marketing. Sonst verkommt es bald
zum "Datenfriedhof".
Viele Mitarbeiter sehen nur den Aufwand, den das Füttern einer Wissensdatenbank mit sich bringt.
Außerdem haben Sie schon längst ihre Methoden entwickelt, um selber zu ihrem benötigten Wissen zu
kommen. Häufig benutzen sie dazu "menschliche Portale", Mitarbeiter, die über ein besonders
engmaschiges Beziehungsnetz innerhalb des Unternehmens oder darüber hinaus verfügen und einen
gewaltigen Erfahrungsschatz besitzen. Diese mutieren dann gerne zur internen Hotline, was zwar eine
hohe Befriedigung in der Helfer-Rolle verschafft, den Betreffenden aber auch von seiner eigenen Arbeit
abhält.
Man sollte solche "menschlichen Portale" im Unternehmen fördern und sie dafür auch prozentual
freistellen - ihr Aufgabenportfolio und ihre persönlichen Ziele also offiziell ihrer realen Tätigkeit
anpassen. Im Vergleich zu starren Datenbanken besitzen sie den Vorteil, Probleme bewerten zu können
und aus einer Reihe von potenziellen Ansprechpartnern den geeignetsten auswählen zu können.
So gesehen wird für die meisten Mitarbeiter die Benutzung einer Wissensdatenbank immer zweite Wahl
sein, eine Fallback-Solution, wenn er keinen menschlichen Auskunftgeber findet.

1.5.2 Relevante Aspekte für die Wissensmanagement-Kultur


Ausgehend von den obigen Überlegungen lassen sich nun die speziellen Aspekte der
Unternehmenskultur herausfiltern, die eine besondere Rolle für das Wissensmanagement spielen. Von
ihrer Ausprägung hängt es ab, ob Prozesse des Wissensmanagements unterstützt oder - negativ gewendet
- behindert beziehungsweise unmöglich gemacht werden. Die relevanten Aspekte lauten:
▪ Eigenverantwortung
▪ Offenheit
▪ Vertrauen
▪ Lernbereitschaft
▪ Umgang mit Macht
1. Eigenverantwortliches Handeln bedeutet Eigeninitiative, Commitement und aktives Tun das heißt:
▪ innovativ zu sein und eigene Ideen selbstbewusst durchzusetzen
▪ Handlungsspielräume aufzubauen, zu sichern und zu nutzen und nach Unabhängigkeit zu streben
▪ die eigenen Äußerungen, Aktivitäten und Entwicklungen zu reflektieren sowie die entsprechende
Verantwortung dafür zu übernehmen
▪ risikobereit zu sein und mit Unsicherheiten konstruktiv umzugehen
▪ über ein ausgeprägtes, intrinsisches Leistungsmotiv zu verfügen.
Sehr negative Kultur: jemand baut ständig Mist und niemand ist schuld.

2. Offenheit ist die Bereitschaft, sich aktiv und konstruktiv mit seiner Umwelt auseinander zu setzen. Sie zeigt
sich:
17
▪ am Interesse auch für solche Themen, die über dem eigenen unmittelbaren Aufgabenbereich hinausgehen
▪ an der Aufgeschlossenheit, Ideen und Anregungen von außen aktiv aufzugreifen und zu verarbeiten
▪ an der Bereitschaft, sich bei anderen aktiv Anregungen zu holen und anderen Lernmöglichkeiten zu
eröffnen
▪ an der Bereitschaft, Wissen zu teilen
▪ an der konstruktiven Auseinandersetzung mit anderen Meinungen
Sehr negative Kultur: man agiert wie eine zugeklappte Muschel.

3. Vertrauen ist die Bereitschaft, Urteile und Handlungen anderer Personen sowie das Verhalten von
Institutionen hinsichtlich der Auswirkungen auf die eigene Person ohne eingehende Prüfung als positiv
anzunehmen und in das eigene Urteilen und Handeln einzubeziehen. Vertrauensquellen können sein:
▪ beobachtetes Verhalten
▪ positive Erfahrungen beziehungsweise fehlende negative Erfahrungen mit Personen oder Institutionen
▪ das Wissen um bestimmte Eigenschaften
▪ Erwartungen an das zukünftige Verhalten von Personen oder Institutionen.
Vertrauen äußert sich im Austausch von Gedanken und Gefühlen. Das führt zu einem steigenden,
wechselseitigen Einfluss und stärkt die Gemeinsamkeiten bei der Suche nach Handlungsmöglichkeiten und
der Umsetzung von Entscheidungen.
Sehr negative Kultur: man fragt niemand um Rat und Hilfe.
4. Mit Lernbereitschaft und -fähigkeit ist die Bereitschaft und Fähigkeit zum Erwerb von Wissen gemeint,
inklusive der daraus resultierenden Handlungskompetenz. Diese zeigt sich zum Beispiel, wenn Mitarbeiter:
▪ Verhaltensänderungen im Zeitablauf zeigen
▪ Impulse von außen annehmen und in das eigene Handeln einfließen lassen
▪ aus den Ergebnissen des Handelns eigene Schlüsse und Konsequenzen ziehen beziehungsweise diese
Erfahrungen in anderen Situationen berücksichtigen.
Sehr negative Kultur: keine Neigung sich in neue Themen und Techniken einarbeiten zu wollen.

5. Konstruktiver Umgang mit Macht ermöglicht den Beteiligten koordinierte Zusammenarbeit, vermindert
Konflikte und erhöht die Effektivität und Gestaltungsspielräume.
▪ Die Handhabung von Macht wird wahrgenommen, wenn Informationen weitergegeben oder zurück
gehalten werden - sowohl auf kollegialer Ebene als auch zwischen den Hierarchieebenen.
▪ Vorgesetzte leben dabei die Kultur des Wissensaustausches und somit die Machtkultur vor.
Sehr negative Kultur: „Wissen ist Macht“ verhindert die Weitergabe jeglicher Information.

Eigen- Offenheit Vertrauen Konstruk- Lernbe-


verant- tiver reitschaft
wortung Umgang
mit Macht

Abb. 1/7: Wissensmanagement-relevante Aspekte der Unternehmenskultur (Dimensionen der


Wissenskultur) [Armutat 2002]

Fragebogen Kulturaudit (Legende: Skala von 0 -7 (0=sehr negativ und 7=sehr gut):

18
1.5.3 Verhinderungsfaktoren eines effektiven Wissensmanagement - Systems
Bellinger listet folgende Verhinderungsfaktoren auf [Bellinger 2007, 34]:
Verhinderungsfaktor 1:
Wissen ist Macht, Nichtwissen macht auch nichts - sofern es niemand merkt.
In den meisten Unternehmen werden Professionalität und der Wert einer Person für das Unternehmen
mit nutzbringendem Wissen gleichgesetzt. Die Kehrseite der Medaille ist, dass viele Mitarbeiter (und je
höher die Stellung, desto ausgeprägter) Nichtwissen als Schwäche deuten, die es zu verbergen gilt. Das
macht es schwierig, Wissensaustausch positiv zu sehen. In vielen Unternehmen lernen nur des Juniors
wirklich schnell. Sie können sich erlauben, aktiv bei Kollegen und Vorgesetzen nachzufragen und -
vorausgesetzt diese nehmen sich entsprechend Zeit - von deren Wissen profitieren.

Verhinderungsfaktor 2:
Volle Transparenz eines anderen Mitarbeiters über bei mir vorhandenes Wissen kommt einem
Machtverlust gleich. Stelle ich nämlich einem anderen Mitarbeiter mein gesamtes Wissen zur
Verfügung, so macht mich das potenziell überflüssig. Das gilt es zu verhindern, daher keine
Wissensteilung.
Gegenüber Vorgesetzten gilt oft auch noch der Grundsatz: Was der nicht weiß, macht ihm nicht heiß.
Manche Vorgesetzten spüren das und reagieren mit übermäßiger Kontrolle darauf, setzen Spione ein,
erscheinen unangemeldet bei Sitzungen etc. Die Mitarbeiter deuten das als Misstrauen - es entsteht eine
Abwärts-Spirale.

Verhinderungsfaktor 3:
Das WM-System nicht zu bedienen, zieht keinerlei Sanktionen nach sich. Ein WM-System sollte einfach
und möglichst schlank sein, damit es mit vertretbarem Aufwand kontrolliert werden kann. Außerdem
muss man sich von vornherein darüber Gedanken machen, wie ein Boykott des WM-Systems
sanktioniert werden kann.
Der IT-Abteilung den Lead über das WM-System zu geben, ist nicht zielführend, da diese das
Wichtigste naturgemäß nicht tun kann: Die Fütterung und die Nutzung zu kontrollieren und zu
sanktionieren.

Vehinderungsfaktor 4:
Offizielle und inoffizielle Informationsprozesse klaffen weit auseinander.
Ein Unternehmen ist gut beraten, das so genannte inoffizielle, über das persönliche Beziehungsnetzwerk
laufende Wissensbeschaffungssystem zu sanktionieren, zu systematisieren und damit zu optimieren.
Hier bleibt einem nichts anderes übrig als die informellen WM-Systeme immer wieder einmal zu
thematisieren. Das ist eine wiederkehrende Management-Aufgabe. Ein hilfreiches Tool dafür ist die
Erstellung einer so genannten "Netzwerkkarte".

Verhinderungsfaktor 5:
Überforderung der Mitarbeiter durch Dokumentationszwang.
Die meisten WM-Projekte scheitern schon in einem sehr frühen Stadium. Die Unternehmen stecken sich
häufig bei WM-Systemen zu hohem Ziel. Sämtliche Informationswünsche sollen berücksichtigt werden
und eine umfassende Datenbank wird generiert, in der anschließend viele Daten schlummeren. Leider
führen Strukturierung, Aktualisierung und Anwendung einer derart umfassenden Datenbank zu einer
Überforderung der Mitarbeiter in zweifacher Hinsicht.
Zum einen können die Mitarbeiter kaum noch abschätzen, welche Informationen mit welchem
Genauigkeitsgrad in die Datenbank eingegeben werden sollen, was dazu führt, dass sie diese Tätigkeit
ständig verschieben und als bürokratischen Dokumentationsaufwand missbilligen.
Zum andern wird die Abrufung von Informationen derart komplex, dass sich Mitarbeiter lieber über
alte, bereits eingespielte Wege das notwendige Wissen beschaffen, so dass das neue WM-System bereits
nach kurzer Zeit brach liegt.

19
Übung
Welche Einstellungen der Mitarbeiter sind bei der Einführung von WM erfolgsfördernd?

Welche Einstellungen der Mitarbeiter sind bei der Einführung von WM erfolgsverhindernd?
Verwenden sie bei der Formulierung möglichst Ich-Sätze, wie z.B. „Ich gebe mit Freude mein Wissen
an Kollegen weiter.“

1.5.4 Schlussfolgerungen für Führungskräfte


Unterteilt man die Aufgaben von Führungskräften in Management einerseits (darunter fällt alles, was
man organisieren kann: Strukturen, Organigramme, Prozesse, Abläufe, Standards etc.) und Leadership
andererseits (worunter alles fällt, was mit dem Führen von Menschen zu tun hat), dann ist
Wissensmanagement eine Leadership-Aufgabe und wird hauptsächlich durch die Führungskultur
gesteuert.
Lernende Organisationen gibt es nur in dem Sinne, dass eine Organisation lernende Mitarbeiter hat.
Aufgabe des Managements ist es, im Unternehmen eine Atmosphäre zu schaffen, welches Lernen
begünstigt - ein Klima der gegenseitigen Wertschätzung, der Offenheit, des Vertrauens, der
Fehlerresistenz (siehe Kap. 1.5.2).
Unternehmenskultur ist ein strategisches Item und muss von der Unternehmensleitung gesponsert,
verantwortet und getragen werden. Ein Hochglanz-Leitbild reicht da nicht, es braucht eine tägliche,
wiederkehrende Anstrengung, um nach und nach eine positive Kultur "herbeizureden".
Ein Wissensmanagement Tool muss bereits bei seiner Konzipierung, spätestens aber bei seiner
Einführung auf effiziente Überprüfbarkeit getrimmt werden, sowohl was den Aufbau als auch was die
Nutzung betrifft. Diese Kontrolle muss zu einem ständigen Tagesordnungspunkt auf den Agenden der
verantwortlichen Manager werden.
Es lohnt sich, über hilfreiche Rituale nachzudenken, welche die Nutzung des KM- Tools begünstigen:
Routinisierte Überprüfungen, ständige Tagesordnungspunkt in Meetings etc.
Neben jedem wie auch immer gearteten KM-Tool werden stets andere, informelle KM-Tools
herlaufen. Eines der wichtigsten ist das Meeting. Es ist Aufgabe des Meeting-Leiters, dafür zu sorgen,
dass relevante Informationen an den richtigen Stellen abgelegt werden und dass Wissenstransfer im
Meeting selbst stattfindet (was Zeit braucht).
Weil jeder verantwortungsvolle Mitarbeiter längst sein eigenes KM-System hat, ist es notwendig, ein
eigentliches Marketing für die "Wissensdatenbank" aufzuziehen. Die Erfahrung zeigt, dass schlecht
vermarktete KM-Systeme nur schlecht genutzt werden und bald einschlafen.
Sowohl die Einspeisung als auch die Nutzung des KM-Systems muss belohnt werden.
Vor allem Angehörige des mittleren Managements sind die Wissensträger per se. Mit ihrem Vorbild
steht und fällt der Erfolg eines KM-Tools häufig. Vor allem die Mittelmanager müssen vom
Topmanagement darin gecoacht werden, ihr Wissen zur Verfügung zu stellen.

1.7. Wichtiger Bestandteil des digitalen Wissensmanagements: Künstliche


Intelligenz (KI)

1.7.1 Wovon sprechen wir, wenn wir von KI sprechen? – eine Philosophische
Betrachtung (Simon Böhm)
Unterscheidung zwischen starker und schwacher KI (nach John Searle): schwache KI ist die stetige
Perfektionierung maschineller Rechenleistung, starke KI die möglichst exakte Nachbildung der
menschlichen Intelligenz – was auch immer das genau ist!
Zwei Begriffsaspekte »Künstlichkeit« und »Intelligenz«
Künstlichkeit: steht in Opposition zur Natürlichkeit, bedeutet also Nachbau eines Vorbilds, bloße
Imitation im Unterschied zu echter Aktion
Intelligenz: psychologische Größe, messbar als Denkgeschwindigkeit, Verarbeitung von
Informationen; in diesem Sinne heißt maximal intelligent zu sein, maximale Problemlösekompetenz
zu besitzen
Philosophische Position des Behaviorismus lange Zeit maßgeblich in der psychologischen
Intelligenzforschung: Reiz bewirkt Reaktion, was dazwischen passiert, ist methodisch unzugänglich
20
Dies führte zur Computermetapher des menschlichen Denkens: Wir funktionieren wie ein Rechner,
der nach einem klaren Schema auf Reize mit einer Reaktion antwortet, sozusagen nach dem Input-
Output-Prinzip funktioniert
Die kognitive Wende hat im späten 20. Jahrhundert die Tür der Forschung auch für mentale Prozesse
geöffnet, die zuvor in der Black Box verschlossen waren: insbesondere Neurowissenschaften sind hier
nun Vorreiter und erforschen die neuronalen Mechanismen, die dem Denken zugrunde liegen
Diskussionsfrage: Wenn das menschliche Gehirn nun wie ein Computer zu funktionieren scheint:
Können Computer dann denken?

Hierzu interessant: der irrtümliche Schluss von der Eigenschaft eines Teils (z.B. dem Gehirn) auf ein
ganzes (z.B. die Person). Formal kann das wie folgt nachvollzogen werden:

Prämisse 1: Gehirne denken.


Prämisse 2: Computer funktionieren genauso wie Gehirne.
Konklusion: Computer denken.

Die Prämisse 2 lässt sich jedoch kritisieren:

Prämisse 1: Ich kann denken.


Prämisse 2: Ohne mein Gehirn könnte ich nicht denken.
Konklusion: Mein Gehirn kann denken.

Dies ist unzutreffend. Zwar brauche ich mein Gehirn, um zu denken. Ich brauche aber genauso einen
funktionierenden Blutkreislauf, um denken zu können. Hieraus zu folgern, mein Blutkreislauf könne
denken, ist ebenso unzulässig, wie zu folgern, mein Gehirn könne denken.

1.7.2 Versuch einer Definition von KI


Wenn Menschen, die in Kap. 1.1.1 aufgeführten Wissensverarbeitungs-Tätigkeiten wie Erkunden,
Suchen, Erkennen, Identifizieren, Untersuchen, Analysieren, Bewusstmachen, Entscheiden,
Verbessern, Restrukturieren, Behalten und Informieren (Wille 2000) ausführen, nennent man das
langläufig eine intelligente Tätigkeit. Daher stellt sich die Frage, wenn Computer eine dieser
Wissensverarbeitungstätigkeiten richtig ausführen, ist es dann Künstlich Intelligenz.
Die Begrifflichkeit der Künstlichen Intelligenz (KI) geht auf das Jahr 1956 zurück. In diesem Jahr fand
eine Konferenz am Darthmouth College in New Hampshire (USA), statt, bei der der Begriff „Artificial
Intelligence (AI)“ das erste Mal erwähnt wurde. Die deutsche Übersetzung „Künstliche Intelligenz“ ist
nicht so 100% das Gleiche.

Es gibt keine „saubere“ Definition der künstlichen Intelligenz (KI).


Das Gebiet der Künstliche Intelligenz umfasst Verstehen von intelligentem Verhalten und das
Nachbilden von intelligentem Verhalten.
Intelligenz wird in erster Linie dem Menschen zugesprochen und bezieht sich auf Fähigkeiten des
Denkens und Handelns wie erkennen, verstehen, abstrahieren, schlussfolgern und lernen.
Die starke KI-These besagt, dass sich alle Bewusstseinsprozesse durch Berechnungsprozesse
nachbilden lassen: Intelligenz kann auf Informationsverarbeitung reduziert werden.
Die schwache KI-These besagt, dass manches intelligente Verhalten durch Berechnungsprozesse
nachgebildet werden kann: Intelligenz kann auch Informationsverarbeitung sein.
Am besten geeignet ist eine Definition nach dem ganzheitlichen Ansatz, bei dem man an den
Ergebnissen, die diese Maschinen produzieren und die Art und Weise, wie die Maschinen diese
Ergebnisse erzielen, interessiert ist.
Im ganzheitlichen Ansatz lautet die Definition: Gegenstand der Künstlichen Intelligenz ist es, mit Hilfe
von Rechnersystemen und unter Einsatz spezifischer Methoden solche Leistungen hervorzubringen,
dass diese nach allgemeinem Verständnis als intelligent bezeichnet werden.
KI ist: Systems that think like humans, Systems that think rationally. Systems that act like humans,
Systems that act rationally.

21
Bekannt ist der Turing Test zum Nachweis, ob ein System künstlich intelligent ist. Der Britische
Mathematiker Alan Turing schlug bereits im Jahr 1950 einen empirischen Test zur Überprüfung
intelligenten Verhaltens einer Maschine durch Vergleich mit einem Menschen (Imitationsspiel) vor:
Eine Person befragt einen Menschen und ein künstliches intelligentes System. Der Tester kommuniziert
nur indirekt über ein Textmedium. Der Tester soll allein aus den Antworten auf seine Fragen
entscheiden, wer Mensch und wer Computer ist. Wenn er das nicht kann, dann - so argumentiert Turing
- kann man annehmen, dass die Maschine intelligent ist.
Der Tester kann jede beliebige Frage stellen. Durch die indirekte Kommunikation soll vermieden
werden, dass der Interviewer durch äußeres Erscheinen oder mechanische Eigenschaften (z.B.
synthetische Stimme) beeinflusst wird.
Problem:
Test ist weder konstruktiv noch reproduzierbar und kann mathematisch nicht formalisiert werden

Das allgemeine Verständnis von KI ist einem steten Wandel unterworfen: Wurden zu Beginn Leistungen
von Maschinen wie automatische Schrifterkennung, symbolisches Gleichungslösen, Routenplanung
(heute unter anderem die Grundlage für Navigationssysteme), maschinelle Übersetzung, Erkennung von
Objekten in Bildern, Aufspüren von Strukturen in großen Datenmengen oder auch Schachspiel als Ziele
der KI verstanden, so sind diese Fähigkeiten heute Allgemeingut, auf jedem Smartphone verfügbar und
werden gar nicht mehr als aus der KI kommend oder ihr zugeordnet wahrgenommen.
Man spricht schon vom neuen Ziel der „Artificial General Intelligence“ (AGI) oder auch „Strong AI“.
Deren Zielstellung sind Maschinen, die jede intellektuelle Leistung des Menschen nachbilden,
einschließlich möglicherweise der Ausbildung von maschinellem Bewusstsein.

1.7.3 Phasen der geschichtlichen KI-Entwicklung

1.7.3.1 Vorgeschichte
• Philosophy: logic, methods of reasoning mind as physical system foundations of learning,
language, rationality
• Mathematics: formal representation and proof algorithms, computation, (un)decidability,
(in)tractability probability
• Psychology: adaptation phenomena of perception and motor control experimental techniques
(psychophysics, etc.)
• Economics: formal theory of rational decisions
• Linguistics: knowledge representation grammar
• Neuroscience: plastic physical substrate for mental activity
Control theory: homeostatic systems, stability simple optimal agent designs
Nach der Vorphase 1949-1955, bei der 1949 erste Lernregel für Netzwerke aus Neuronen (Hebb)
aufgestellt wurden und der erste Autopilot-Mechanismus eines B24 – Bombers entstand, folgten
folgende 5 Phasen (1.7.3.2-1.7.3.6):

1.7.3.2 Gründungsphase 1956-1966


Die Begrifflichkeit der Künstlichen Intelligenz (KI) geht auf das Jahr 1956 zurück. In diesem Jahr fand
eine Konferenz am Darthmouth College in New Hampshire (USA), statt, bei der der Begriff „Artificial
intelligence (AI)“ das erste Mal erwähnt wurde. Die Konferenz, welche von John McCarthy organisiert
wurde, gilt als Geburtsstunde dieses Forschungsbereichs.
Im Rahmen der Darthmouth Konferenz wurde der automatische Theorembeweiser „Logic Theorist“
vorgestellt. Dieses Programm gilt als das erste, mit dem kognitive Probleme maschinell gelöst werden
konnten. Logic Theorist war in der Lage einige logische Theoreme zu beweisen, also Probleme zu
bearbeiten, für deren Lösung bislang ausschließlich Menschen in der Lage waren. Mit seiner Hilfe
konnten dabei 38 Theoreme aus „Principia Mathematica“ bewiesen werden. Dadurch wurde gezeigt,

22
dass Computer auch befähigt sind Symbole zu verarbeiten.

1957 Automata Studies (J. von Neumann, C.E. Shannon, N. Wiener)


1958 LISP John McCarthy entwickelte außerdem im Jahr 1958 die Programmiersprache LISP. LISP
entwickelte sich vor allem in den USA aufgrund seiner Verwendung als Verarbeitungssprache für
symbolische Strukturen als enorm wichtiges Werkzeug für die Erzeugung von symbolverarbeitenden
Systemen.
1966 Eliza (Weizenbaum)
ELIZA ist ein frühes Dialogsystem. Sie ist ein relativ einfaches Spracherkennungs-Programm,
das einen Dialog mit seinem Anwender simuliert. Das Konzept wurde 1966 von Joseph
Weizenbaum von Massachusetts Institute of Technology entwickelt. Wenn der Nutzer einen
Satz eingibt, sucht das Programm nach Schlüsselbegriffen. Jeder Schlüsselbegriff löst eine oder
mehrere mit ihm assozierte Antworten aus. Diese Antworten sind vollständige Sätze und
enthalten in der Regel einen Teil der Frage in leicht modifizierter Form. Es war der erste
Chatbot.
Zusammengefasst beschäftigte sich diese erste Phase der KI unter anderem mit dem Lösen von Spielen
wie Puzzles, Dame und Schach, dem Beweisen von Sätzen aus Logik und Geometrie sowie
symbolischen mathematischen Operationen. In dieser ersten Phase lag das Hauptaugenmerk auf
Problemlösungsverfahren und es sollte allgemein gezeigt werden, dass wesentliche grundlegende
Ansätze von menschlicher Intelligenz auch auf Computersysteme und Maschinen übertragen werden
können. Man suchte eine zentrale Problemlösungsformel. Sie bestand in der zielgerichteten
Durchforstung des Suchraumes. Hierzu wurden leistungsstarke Heuristiken entwickelt, die die Suche
effizient gestalteten. Man erkannte aber am Ende der Periode die begrenzte Tragweite dieses Ansatzes
(vgl. Görz et al. 2014: 5).

1.7.3.3 Back to Reality 1966 - 1974


Berichte über schlechte Fortschritte im Bereich der maschinellen Übersetzung führten zur
Streichung aller Regierungsmittel für die Forschung in diesem Bereich. Solche Beispiele sind
“the spirit is willing but the flesh is weak”
→RU → EN: “the vodka is good but the meat is rotten”
• Minsky und Papert haben mit Ihrem Buch „Perceptrons“ die Grenzen dieser (einfachen)
neuronalen Modelle aufgezeigt und für längere Zeit neuronale Netze diskreditiert. Dies führte
zu einer einseitigen Festlegung auf symbolische KI.
1973 Lighthill Bericht über kombinatorische Explosion bei KI-Systemen führte dazu, dass
in England nur noch zwei Universitäten KI-Forschungsmittel erhielten

1968 ANALOGY (Lösung geometrischer Analogien)

1969 DENDRAL: Ableitung von Molekular-Strukturen aus Daten eines Massenspektrometers mit
Regeln zur Identifikation von Substrukturen, die aus einem theoretischen Modell abgeleitet
wurden (Buchanan).

In Europa wird Anfang der 1970er Jahre die Logikprogrammiersprache Prolog entwickelt. Prolog
gilt dabei als europäisches Gegenstück zu LISP und hat den Vorteil, dass die verwendete
Prädikatenlogik direkt als Programmiersprache genutzt werden kann.

1.7.3.4 Wissensbasierte Epoche 1975-1995


Forschergruppen an führenden amerikanischen Universitäten begannen zentrale Fragestellungen wie
Sprachverarbeitung mit dem Computer, automatisches Problemlösen, z. B. automatisches Beweisen von
mathematischen Sätzen, und visuelle Szenenanalyse systematisch zu bearbeiten. Es entstanden
Perceptron-Netze, entwickelt von F. Rosenblatt, das KNN Adaline. Aber in dieser Epoche gelang nicht
der erhoffte Durchbruch, was die Praxistauglichkeit der Arbeiten betraf. Entwurf erster integrierter
Robotersysteme und expertenhaft problemlösender Systeme.

23
1975 Entwicklung von Frames (Minsky) zur Wissensrepräsentation, Aufbau von Taxonomien
1976 MYCIN, medizinisches Expertensystem mit 450 Regeln und Unsicherheitsfaktoren von
Shortliffe und Buchanan zur Erkennung von Infektionskrankheiten
1982 R1 ist erstes kommerzielles Expertensystem (Konfiguration von Bestellungen
von Rechnersystemen)
1981 Ankündigung der 5. Rechner-Generation (Prolog-basierte Rechner) durch Japaner mit der
Folge: Forschungsprogramme werden aus Angst vor einer japanischen Vorherrschaft neu belebt
~ Entwicklung von LISP-Maschinen (Symbolics, Lisp Machines Inc.)
~ erste Systeme für die industrielle Bildverarbeitung
~ Wiederaufleben Neuronaler Netzwerke (Multilayer)
1984 Konzeption eines Management Expertensystems [Popp84]

Die Folgezeit ist vor allem durch eine umfassende Mathematisierung des Gebietes, eine Präzisierung
des Konzepts der Wissensverarbeitung und das Aufgreifen neuer Themen gekennzeichnet wie
Verteilte Künstliche Intelligenz (KI), d.h. das Wissen ist auf mehrere Rechner oder Wissensbasen
aufgeteilt und ein Master zieht dieses Wissen zusammen
Neuronale Netze (NN) mit mehreren Schichten wie Hopfield-Modell, Backpropagation
Lernalgorithmus.
Verarbeitung verschiedener Qualitätsstufen von Information, wie z. B. die Verarbeitung unscharfer
Information (Fuzzy).
Fünf Bundesländer richteten Forschungsinstitute für KI ein, die Grundlagenforschung betrieben und
immer mehr dazu übergingen, in Firmen Lösungen mit Hilfe der Techniken der Wissensbasierten
Systeme zu erzeugen. z.B. Bayern mit den FORWISS (1990-1999), Baden-Württemberg mit dem FAW
in Ulm, Saarland mit dem DFKI.
Man wandte sich verstärkt den praktischen Problemen der realen Welt zu.
Man befragte menschliche Experten, wie sie in der Praxis Probleme angingen und nach Lösungen
suchten und bildete dieses Wissen in den Computer ab.
Man verwendete formalisiertes Problemlösungswissen
Es entstanden die sogenannten Expertensysteme.
Erste Systeme zur automatisierten Übersetzung verlassen die Labors und finden ihren praktischen
Einsatz.
Es entstanden immer mehr Werkzeuge, die sich zur Entwicklung von WbS eigneten.
Die Forschungsgruppe WI am FORWISS entwickelte Expertensystem als Elektronische Verkäufer
(Triumph Adler), intelligente Berichtssysteme für GfK und Datev oder SAP.

1.7.3.5 Moderne Epoche 1995-2010


Ab 1995 gehörten wissensbasierte Komponenten zum Standard und wurden als ein kleiner, aber sehr
wichtiges Modul innerhalb einer größeren Softwarelösungen nicht mehr explizit erwähnt. Ein neues
Betätigungsfeld erlebten wissensbasierte Systeme Ende der neunziger Jahre durch das Internet in Form
von Einkaufs- und Informationsfilter-Agenten und durch das Wissensmanagement.
Einige gut etablierte KI-Verfahren in der Praxis sind:
– Neuronale Netzwerke als statistische Klassifikatoren
– Hidden Markov-Modelle (HMM) zur Beschreibung stochastischer Prozesse
– Belief Networks für unsicheres Schließen
– Ontologien und Wissensbasen
– Dialogsysteme, Sprachsysteme
– (symbolische) Lernverfahren im Bereich Data Mining
• Aber: viele Probleme sind immer noch nicht gelöst: Sprachverstehen, Bildverstehen,
Menschliche Fähigkeiten wie lernen oder erfinden
• Beispiele gelungener KI-Syteme sind
– Programm Chinook seit 1994 Damespiel-Weltmeister.
– Suchmaschinen erleichtern Umgang mit der Informationsflut im Internet.
– Deep Blue besiegt 1997 Weltmeister Garri Kasparow.
24
– Expertensysteme zur Exploration von Ölquellen, sowie Steuerung von Marsrobotern
und medizinischer Diagnose, ...
– Maschinelle Übersetzung verbreitet sich.
– Maschinelle Textzusammenfassung.
– Analyse und Vorhersage von Aktienkursentwicklungen.
– Optische Zeichenerkennung liest gedruckte Texte zuverlässig.
– Handschrifterkennung millionenfach in PDAs verwendet.
– Spracherkennung ermöglicht Diktieren eines Textes.
– Computer-Vision-Systeme überwachen öffentliche Plätze, die Produktion ...
– Robocup: Weltmeisterschaften fußballspielender Roboter
– DARPA Grand Challenge: Wüstenrennen für führerloses Fahrzeug

1.7.3.6. Kommerzialisierung (2010 – heute)


Künstliche Intelligenz ist mittlerweile kommerziell geworden. In immer mehr Alltagsanwendungen
finden sich Spuren von KI. Einerseits trugen dazu die leistungsfähige Software und Hardware in den
Geräten bei, andererseits aber auch die verbesserten Verfahren und Prinzipien der KI. Jüngste Erfolge
sind unter anderem IBM mit ihrer Software „Watson“ zuzuschreiben. Bei dieser Software handelt es
sich um ein Programm, welches ein Sprachverständnis aufweist und zusätzlich antworten kann. Im Jahr
2011 gelang es dieser Software in einer Quizshow im amerikanischen Fernsehen den Sieg davon zu
tragen. Auch Google zeigte beeindruckende Ergebnisse mit ihrem GO-Programm „AlphaGo“, womit
im Jahr 2016 der weltbeste GO-Spieler Lee Sedol besiegt wurde. Die Google-Tochterfirma Deepmind
hat mit der KI „AlphaGo“ gezeigt, dass das hochkomplexe Brettspiel „Go“ nun auch – wie Schach –
mit Rechnern auf Weltmeisterniveau spielbar ist.
Den Erfolg von KI machten vordergründig die Erfolge, die Google beim „deep learning“ popularisiert
hat, aus. Deep Learning ist eine Spezialform der Neuronalen Netze, die durch die Struktur biologischer
Neuronen-Netze inspiriert wurden und auf große Datenbestände angewendet werden. Damit können
beispielsweise riesige Bildarchive auf das Vorhandensein bestimmter Objekte – wie etwa Katzen in
Urlaubsbildern – durchforstet werden.
Das traditionelle Gebiet der automatischen Mustererkennung (mit den Anwendungen Spracherkennung,
Bildverarbeitung, Qualitätsprüfung, Prozessoptimierung und vielen weiteren) hat von solchen Verfahren
bereits enorm profitiert, und dies wird weitergehen.
Seit neuestem beginnen sogar Spiele, die mit „Überraschung und Emotion“ arbeiten, sich dem Rechner
zu erschließen; jüngstes Beispiel ist die KI „Libratus“ aus Pittsburgh, die im Januar 2017 ein
hochrangiges Pokerspiel mit Millioneneinsatz gewann. Der hinter Libratus stehende methodische
Ansatz eignet sich für den Umgang mit unvollständiger und widersprüchlicher Information und kann
insbesondere auch mit Gegnern umgehen, die das System bewusst in die Irre führen wollen – und falls
nötig, kann Libratus auch selbst den Gegner täuschen. Bei erfolgreicher Weiterentwicklung ergeben sich
direkte Anwendungsmöglichkeiten bei (rechnergestützten) Verhandlungen in jedem Bereich der
Wirtschaft, medizinischen Expertensystemen und Cyber-Sicherheit.
Diese Beispiele zeigen, dass die zugrundliegende Methodik und die Grundtechniken nunmehr
massentauglich und zuverlässig, dabei billig und somit prinzipiell überall einsetzbar sind. Dies umso
mehr, als durch die Digitalisierung der Kommunikationsnetze die „Versorgung“ mit KI-Leistung
praktisch an jeder Stelle möglich ist oder mittelfristig sein wird. Der nächste Schub von Anwendungen
wird daher die gesamte Wirtschaft betreffen, denn auf der Basis der Grundtechniken wird auch die
Anpassung an die typischerweise sehr viel komplexeren und kundenspezifischeren Einsatzfälle in der
Industrie möglich – „Industrie 4.0“ braucht KI ebenso wie „Society 5.0“, die japanische Vision einer
zukünftigen Gesellschaft, in der alles dank vollständiger Digitalisierung komplett vernetzt ist und
Robotik, Cloud-Computing, Big Data und KI eine Einheit bilden. [Knoll 2018, S.14]

Die These, Intelligenzphänomene allein auf der Basis von Symbolverarbeitung untersuchen zu können,
ist mittlerweile durch den Einfluss der Kognitions- und Naturwissenschaften relativiert worden, da zur
Erklärung bestimmter Phänomene (insb. der Wahrnehmung) der Einbezug der physikalischen Basis, auf
der die Intelligenz realisiert ist, zu weiteren Erkenntnissen führt.

25
1.7.4 Grobüberblick über die KI Gebiete/-Technologien
Es gibt mehrere grundsätzlich verschiedene Vorgehensweisen, um intelligente Eigenschaften in Systemen zu
realisieren. Man unterscheidet je nach Ausgangspunkt zwischen
Symbolischer Wissensverarbeitung
Subsymbolischer Wissensverarbeitung
Bei der subsymbolischen Wissensverarbeitung will man mittels Maschineller lern-Techniken, z.B.
Neuronaler Netze, intelligentes Verhalten erzwingen.
Bei Neuronalen netzen werden Netzwerke aus Schaltelementen mit geeigneten Verbindungen zwischen ihnen
aufgebaut. Jedes Element kann im Prinzip mit jedem anderen Element verbunden sein. Jedes Element hat eine
bestimmte Anzahl von Eingängen und genau einen Ausgang. Die Verbindungsstärke wird durch einen
Gewichtsfaktor beschrieben. Das Element verhält sich wie ein Schwellenwert, das genau dann ein Signal an seinen
Ausgang weiterleitet, wenn an den Eingängen Signale anliegen, deren gewichtete Summe einen definierten
Schwellwert überschreitet.

Bei der symbolischen Wissensverarbeitung wird versucht, intelligente Phänomene auf der
Begriffsebene zu lösen.
z.B. man hat zwei Aussagen,
Prüfung bestanden
50% der Punkte erreicht
denen weist man Symbole (z.B. p und q) zu und versucht ihre Beziehung zueinander in Implikation, Äquivalenz
oder Negationssymbolik auszudrücken, z.B. hier durch die Implikation q→p.
Das Problem wird von oben her (top-down) angegangen. Man nimmt dabei an, dass sich eine
symbolische Sicht der Begriffe, Wörter und sprachliche Gebilde sowie deren Bedeutung finden lässt.
Weiterhin nimmt man an, dass sich das menschliche rationale Denken auf dieser symbolischen Ebene
simulieren lässt.
Gegenstand der symbolischen Wissensverarbeitung ist die Bedeutung, die sich einem Prozess vermöge
symbolischer Beschreibung zuordnen lässt.
So werden logische Schlüsse mit Hilfe regelbasierter Systeme gezogen, also mit Hilfe von Systemen,
bei denen das Expertenwissen in Regelform vorliegt.
Über den Lauf der Zeit entwickelten sich einige wesentliche Teilbereiche innerhalb der Künstlichen
Intelligenz, siehe Abb. 1/8 ausserhalb des Kreises, von denen betrachten wir nun die wichtigsten
überblicksartig.

Abb. 1./8: KI-Methoden und KI-Anwendungen

26
1.8 Literatur und Kontrollfragen
1. Armutat Sascha, u.a.: Wissensmanagement erfolgreich einführen, DGFP 2002
2. Bellinger Andrea, David Krieger (2007): Wissensmanagement für KMU, cdf
Hochschulverlag Zürich, S. 31 ff
3. Bodendorf Freimut (2006): Daten- und Wissensmanagement. Springer Verlag.
4. Bullinger, H.-J., Wörner, K., Prieto, J. (1998): Wissensmanagement heute – Daten,
Fakten, Trends, Studie des Fraunhofer-Instituts für Arbeitswissenschaft und
Organisation, Stuttgart.
5. Davenport, Th., Prusak, L. (1998): Wenn Ihr Unternehmen wüsste, was es alles weiß
... – Das Praxisbuch zum Wissensmanagement, mi Verlag Moderne Industrie.
6. Müller Michael; Ferdinand Förtsch (2015): Wissensmanagement, Kommunal- und
Schulverlag Wiesbaden, S.30-38
7. Pircher Richard (2010): Wissensmanagement, Wissenstransfer, Wissensnetzwerke –
Konzepte, Methoden und Erfahrungen. Verlag: Publicis Publishing, Erlangen
8. Popp, H. E. (1984): Mensch- Mikrocomputer Kommunikationssystem
- Management Expertensystem in der chemischen Industrie auf der Basis
eines universellen Daten- und Prozeduralmodells auf einem
Mikrocomputerverbundsystem, Dissertation Regensburg, 260 S.
9. Probst, G., Raub, S., Romhardt, K. (1997): Wissen managen – Wie Unternehmen ihre
wertvollste Ressource optimal nutzen, Wiesbaden.
10. Reinmann-Rothmeier, Gabi, Mandl, Heinz (2000): Individuelles Wissensmanagement.
Bern [u.a.], Huber.
11. Reinmann-Rothmeier, G., Mandl, H., Erlach, C., & Neubauer, A. (2001).
Wissensmanagement lernen: Ein Leitfaden zur Gestaltung von Workshops und zum
Selbstlernen. Weinheim und Basel: Beltz.
12. Wille Rudolf (2000). Begriffliche Wissensverarbeitung: Theorie und Praxis.
Informatik-Spektrum 6/2000.
13. Russel Stuart, Norvig Peter: Künstliche Intelligenz. Ein moderner Ansatz. 3.
Auflage, Pearson Studium, 2012
14. Görz, G., Schneeberger, J. & Schmid, U., 2014. Handbuch der Künstlichen
Intelligenz. 5. Hrsg. München: Oldenbourg Verlag München.
15. Knoll Alois Christian: Künstliche Intelligenz und Robotik: Motor für Innovation.
ZD.B DIGITAL DIALOGUE POSITIONSPAPIER 2018.

Kontrollfragen
1. Geben Sie bitte eine kurze Definition von Wissen, Daten und Information
2. Was ist Wissenslogistik?
3. Was macht das Wissenskapital eines Unternehmens aus?
4. Skizzieren sie die Teilprozesse von Wissensmanagement nach Probst und geben sie je
Teilprozess ein Beispiel.
5. Beschreiben sie die Prozesskategorien des WM vom Münchner Modell (Mandl) und
geben sie je Kategorie ein Beispiel.
6. Sie sollen ihr Unternehmen/ihre Fakultät überzeugen WM zu betreiben. Stellen sie
fünf Nutzeffekte von WM dar.
7. Skizzieren sie 4 Kulturfaktoren der Unternehmenskultur fürs WM!
8. Beschreiben sie, wie sie ein Wissenskultur-Audit durchführen würden.
9. Nennen sie 4 Verhinderungsfaktoren eines effektiven Wissensmanagement – Systems!
10. Nennen sie 4 Empfehlungen, die man aus der Betrachtung von Soft Factors für
Führungskräfte bei der Einführung von WM aussprechen kann.

27
11. Da die Ergebnisse eines Kulturaudits schlecht für den Start des
Wissensmanagementprojektes waren, schlagen sie drei kulturverändernde Maßnahmen
vor.
12. Geben Sie einige Eigenschaften an, die intelligentes Handeln (menschliche
Wissensverarbeitung) voraussetzen.
13. Beschreiben Sie das Grundprinzip des Turing – Tests. Was sind Kritikpunkte am Turing-Test?
14. Welche Ereignisse fallen in die Romantische Epoche der KI-Geschichte?
15. Welche drei fundamentalen Schwierigkeiten traten Mitte der sechziger Jahre in der KI-
Forschung auf?
16. Beschreiben sie die aktuelle KI-Phase!

28
2. Wissenssuche
2.1 Wissenssuche mit Online-Datenbanken
Die Anbieter von Datenbankdienstleistungen füttern die Datenbank (DB) mit den Informationen und
stellen diese den Interessenten zur Verfügung.

2.1.1 Statistik zu Online-Datenbanken

Weltweit existieren ca. 9500 öffentlich zugängliche Datenbanken (DB) zu den unterschiedlichsten
Fachgebieten.
Die Datenbanken sind heute international nutzbar und umfassen bereits alle denkbaren Gebiete. Die
Palette reicht von Börseninformationen, die weltweit aktuell abgerufen werden können, über
Firmeninformationen bis hin zu Ausarbeitungen zu fast allen Themen. Auch Printmedien speichern
vermehrt ihre Artikel in DB ab.

Einige Verbände weisen auf typische Branchendatenbanken hin oder bieten selbst entsprechenden
Service an. Durch die Übertragungsmöglichkeit auf die eigene Anlage können die Daten unverzüglich
verarbeitet werden.
Unter der URL rzblx10.uni-regensburg.de/dbinfo/?bib_id=allefreien hat man eine Linkliste zu mehreren
Tausend Online-Datenbanken, die in 41 Kategorien eingeteilt sind. Eine davon ist
Wirtschaftswissenschaften mit 333 Online-Datenbanken.

Die Information aller Online-Datenbanken verteilt sich etwa wie folgt


• Wirtschaftsinformation 33 %
• Wissenschaftlich-technische Information 19 %
• Rechtsinformation 12 %
• Sonstiges 36 %
Gesamtumsatz Online-Datenbanken betrug 1998 in Europa: 6,11 Mrd. $ [Renninger 2003]

Umsatzverteilung 2003
– Finanzen 58,7%
– Nachrichten 5,8%
– Wirtschaft 26,1%
– Wissenschaft/Technik 5,0%
– Literatur 3,7%
Für Finanzdatenbanken wird von den Benutzern bereits viel gezahlt (z.B. für Auskunft
Kreditwürdigkeit). Finanz-DB wird im Umsatzanteil etwas zurückgehen und Nachrichten-DB und
Wirtschafts-DB ansteigen.

Je nach Art des Inhalts und nach den Nutzungsmöglichkeiten gibt es folgende 5 verschiedene Arten von
Online-Datenbanken:
- bibliographische Datenbanken (Bayerischer Bibliotheksverbund OPAC)
- textuelle Information (WTI Frankfurt)
- numerische Information (DETHERM- thermodynamische und thermophysikalische Daten von
Reinstoffen und Stoffgemischen)
- Volltext DB (Genios)
- multimediale Datenbanken (Online-Informationsdienste, z.B. T-Online oder kicker.de)

Es wird erwartet, dass in den kommenden 15 Jahren bis zu 10% der kleineren Zeitungen und
Zeitschriften vom Markt verschwinden werden, weil die Verbraucher mit Hilfe der leistungsfähigen
Datennetze auf Online-Informationsdienste zurückgreifen.

29
2.1.2 Bibliographische Daten
Bibliografische Datenbanken sind Literaturdatenbanken zu einem bestimmten Fachgebiet oder Thema
und enthalten bibliografische Angaben wie Verfasser, Titel und Erscheinungsjahr eines Werkes,
manchmal auch eine kurze Annotation.
Ausgehend vom Bibliothekskatalog der eigenen Hochschule kann man zentraler Verbundkataloge
anfragen.

1.) Internetrecherche in der TH Deggendorf-Bibliotheksdatenbank:


https://www.th-deg.de→Studierende→Bibliothek→Recherche und Datenbanken→
Buchsuche→Hauptbibliothek-OPAC

Abb. 2.1/1: Suchmaske in OPAC

Beispiel: unter Schlagwort oder Titel(wörter) „Wissensmanagement“ eingeben; man lässt sich Treffer
über Weblogs anzeigen; verknüpft man Wissensmanagement mit Jahr „2013“; dann geht man auf den
Index-Button bei „Wissensmanagement“ so findet man unter verwandte Begriffe „wissensbasierte
Systeme“; dieser wird markiert→ Auswahl übernehmen→suchen

Bei Verwendung von mehreren Attributen in Abb. 2.1/1 kann man vorne bei jedem Attribut auswählen,
ob diese mit „und“ oder „oder“ oder „und nicht“ verknüpft werden sollen.
Im Unteren Bereich kann man die Suche eingrenzen durch Spracheinstellungen oder durch
Erscheinungsformen (Zeitung, Print-Buch, E-Book, usw.) oder Erscheinungszeit von – bis.

2.) Der „Gateway Bayern“ mit Bestand aller wissenschaftlichen Bibliotheken in Bayern ist unter
folgender Adresse zu erreichen:
https://www.th-deg.de→Studierende→Bibliothek→Recherche und Datenbanken →Buchsuche
→GatewayBayern oder direkt unter: https://opacplus.bib-bvb.de/TouchPoint_touchpoint/start.do
Lesen sie beim ersten Mal die Suchtipps unter den Eingabeformularen!
Anfragebeispiele: Bücher und Berichte von Heribert Popp. Wo steht die Dissertation von 1992 überall?
Frage: outsoursing und nicht offshore
Frage: Seniorentourismus
Suche nach den bibliographischen Daten von einem Tagungsband „Spezialbibliotheken auf dem Weg
zur virtuellen Bibliothek in Hamburg 21-25.3“

Wird man hier nicht fündig, so bietet sich dort die Möglichkeit, direkt im „WorldCat“
(www.worldcat.org), einen übergeordneten Katalog, zu suchen. OCLC hat diesen umfangreichen
Katalog mit über 271 Mio. Einträgen und 1,8 Mrd. Standortreferenzen ins Netz gestellt. Der

30
„WorldCat“ bietet neben der Verschlagwortung (Tagging) auch Nutzerrezensionen. Auf diese Weise
sollen die Nutzer eingebunden werden, um die Attraktivität des Katalogs zu steigern.
Beispiel: Frage: Seniorenmarketing

3.) Karlsruher Virtueller Katalog:


www.th-deg.de→Studierende →Bibliothek→Recherche und Datenbanken→ Buchsuche→ Karlsruher
Virtueller Katalog
oder direkt http://www.ubka.uni-karlsruhe.de/kvk.html
Der Karlsruher Katalog stellt Anfragen an verschiedene vom Nutzer gewählte Kataloge und
präsentiert das Ergebnis übersichtlich, aber pro Katalog und nicht in einer zusammengefassten Liste.
Es sind sogar Kataloge des Buchhandels abfragbar.
Beispiel: Begriff „outsourcing“ suchen in der Nationalbibliothek von Australien. (Möglichkeit eine
Kopie von Kapiteln eines Buches zu bestellen)

2.1.3 Textuelle und Volltext DB


Die vier Anbieter WTI (Technik), Genios (http://www.genios.de) (BWL), Dialog und Data Star (vom
Medienkonzern Proquest (nach der Fusion 1997 & 2008 http://www.proquest.com/) verfügen über ca.
1500 Datenbanken. So findet man bei diesen Supermärkten beispielsweise fast alles, was weltweit zur
Agrarwissenschaft, Geologie, Chemie und Medizin veröffentlicht wurde, sowie Wirtschafts- und
Firmenprofile. Ebenso Informationen zu Patenten, Warenzeichen, Werkstoffen, Technik und zahlreiche
nationale und internationale Zeitschriften, Magazine und Fachpublikationen sind im Datenangebot. Der
Vorteil von Profidatenbanken besteht darin, gezielt gutstrukturierte Informationen abzurufen.
Fachleute selektieren aus den Millionen Publikationen, vergeben Schlagwörter und verfassen Abstracts,
um die Informationen suchbar zu machen.

Oft helfen Thesauri weiter. Sie dienen als Kontrollmöglichkeit, ob der gesuchte Begriff überhaupt im
kontrollierten Vokabular der Datenbank verzeichnet ist.

I. Zugriff zu technischen Datenbanken

www.th-deg.de→Studierende →Bibliothek→Recherche und Datenbanken→ Fachgebiet Technik→


WTI-Frankfurt

Dort finden sie folgende für Deggendorfer Studierende kostenlose Datenbanken:


Perinorm
DIN-VDE-Normen und Entwürfe
Web of Science (Datenbank enthält 55 Millionen Einträge aus den wichtigsten Fachzeitschriften,
Tagungsberichten und Büchern in den Bereichen Natur-, Sozial- und Geisteswissenschaften.
Verfügbar sind alle Titel ab 2004.)
SPIE Digital Library (mehr als 400.000 Publikationen auf dem Gebiet der Optik und Photonik.)
IEEE Xplore (journals, transactions, and magazines, conference proceedings, journals, conference
proceedings, published standards and redline versions, Standards Dictionary Online)
Nature Communications (Open Access Journal)
Scientific Reports (Open Access Journal)
Depatisnet.net (Patente vom Deutschen Patent- und Markenamt)
ESPACENET (70 Millionen Patentdokumente aus aller Welt mit Informationen zu Erfindungen und
technischen Entwicklungen von 1836 bis heute).
Web Patent Database / USPTO United States Patent and Trademark Office (US-Patente im Volltext von
1790 bis heute)
NSSN - Search Engine for Standards
RSWBplus (verbindet die deutsche Baudatenbank RSWB mit der internationalen Baudatenbank
ICONDA.)
Förderkompass Energie / BINE Informationsdienst (Förderprogramme für erneuerbare Energien und
energiesparende Maßnahmen)
31
DWA-Online (Arbeitsblätter und Merkblätter zu Wasserwirtschaft, Kulturbau, Bodenschutz, Abwasser-
und Abfalltechnik)
Sciencedirect (Zugriff auf die elektronischen Zeitschriften und eBooks des Verlags Elsevier)

1) WTI-Frankfurt bietet unter http://www.wti-frankfurt.de/ 120 Datenbanken an.


WTI Frankfurt (=Wissenschaftlich-Technische Information Frankfurt, früher: FIZ-Technik):
Überwiegend deutschsprachige Literatur für Technik allgemein, Maschinenbau, Elektrotechnik.
So gibt es beispielsweise über 24 Millionen Fachartikel. Sie stammen aus 1200 internationalen
technisch-wissenschaftlichen Publikationen, die in Fachzeit-schriften, Konferenzbänden und anderen
Publikationen veröffentlicht wurden. Hier liegen die Themenschwerpunkte bei
Elektrotechnik/Elektronik, Umweltschutz, -technik und –recht sowie Informationstechnik. Technik,
Wirtschaft, Normen, Patente, Unternehmen, Produkte, Zeitungen.

Hier steht die Onlinedatenbanken TEMA- Technik und Management kostenlos zur Verfügung:
Beispiel: Zunächst bei TEMA Beschreibung anschauen (was sie enthält und wie ein Dokument
aussieht), dann Suchbegriff „genetische Algorithmen“; erstes Dokument markieren und anzeigen lassen;
Zur Suche gehen und INDEX anklicken (man erhält Wortvariationen mit diesen Wörtern; Zur Suche
gehen und auf Thesaurus klicken. Begriff innerhalb Hierarchie evtl. auswählen und für Suche
übernehmen. Sie können hier auch einen Dauerauftrag einrichten, dann wird regelmäßig ihr Suchprofil
gegen die Datenbank gemacht.

Hoppenstedt Firmendatenbank; Beispiel: Frage: „Streicher Deggendorf“

2.) Patentdatenbank www.depatisnet.de


Datenbestand reicht bei Patenten bis 1980 und bei Gebrauchsmuster bis 1983 zurück. Er hat einen
Umfang von ca. 900.000 Nachweisen. Suchattribute sind z.B.
Publikationsnummer
IPC-Hauptklasse
Patentanmelder
Anmeldedatum
Erfinder

Suchbeispiele
1. Welche Patente oder Gebrauchsmuster hat die Firma MAN in Augsburg seit 1996 angemeldet?
(Patentanmelder: MAN Augsburg)
Anmeldezeitraum: 01.01.1996 bis 31.1.2016
Ein Dokument anschauen
2. Ist Herr Klaus Rieck als Erfinder eingetragen?
3. Ist die Patentschrift mit der Publikationsnummer 29521450 in der Datenbank?
4. Gesucht werden Patent- und Gebrauchsmuster zu Airbags in den Jahren zwischen 2006 und 2007.

II. Zugriff zu Datenbanken des Fachgebietes Wirtschaft

1.) Kostenloser Zugang für THD-Studenten zu Datenbanken von Genios


www.th-deg.de→Studierende →Bibliothek→Recherche und Datenbanken→ Fachgebiet
Wirtschaft→wiso
WISO (Bereich: Betriebswirtschaft mit 12 Mill. Medien)
Beispiel: Eingabe von „Seniorenmarketing“
Treffer anschauen; feststellen, dass häufig die Begriffe Zielgruppe, Marketing und Alter vorkommen;
damit neue Anfrage starten und Trefferzahl erhöht sich.
Typisches Problem beim Schreiben einer Bachelor- oder Diplomarbeit, in der letzten Phase muss man
Literaturzitat erstellen; auf der Kopie fehlen wichtige bibliographische Daten.

z.B. Artikel lautet „Auf der Suche nach dem Stein des Weisen; S. 24-36“
Eintippen: „Suche Stein Weisen“

32
Findet man Autor Meffert und Jahr usw.
z.B. „papierlose Logistik“
z.B. Titel „wissensmanagement“ Zeit „letzten 12 Monate“

Folgen sie rechts unten dem Link zu www.Genios.de und betrachten sie dort die Produkte (1000 DB).
Sie finden Datenbanken in den Bereichen
• Pressedatenbanken im Volltext (z.B. Ökotourismus)
• Unternehmensinformationen (über 3 Mio Unternehmen)
• Markt- und Brancheninformationen (über 5000 Marktstudien)
• über 5 Mio. Presseartikel
Man findet weltweite Geschäftskontakte, bis zu 15 Jahre zurückreichende Pressearchive etwa vom
Handelsblatt, Spiegel, Tagesspiegel, Berliner Zeitung, Zeit, VDI-Nachrichten und Regionalzeitungen
sowie spezialisierte Fachsammlungen.

Beispiel: Produkte – Datenbank A-Z; z.B. GfK Dossier oder über alle Datenbanken suchen mit
„Ökotourismus“, Preise der Treffer in den jeweiligen DB anschauen.

2.) Zugang zu weiteren Wirtschaftsdatenbanken


Statista (Statistik-Portal, das Statistiken zu 60.000 Themen bündelt, URL wäre auch
http://de.statista.com/
Web of Science (55 Millionen Einträge aus den wichtigsten Fachzeitschriften, Tagungsberichten und
Büchern in den Bereichen Natur-, Sozial- und Geisteswissenschaften. (Verfügbar sind alle
Titel ab 2004.)
Sciencedirect (http://www.sciencedirect.com/; Fachübergreifende Datenbank mit Zugriff auf die
elektronischen Zeitschriften und eBooks des Verlags Elsevier)
NWB Datenbank (DB zu Steuer und Wirtschaftsrecht, Rechnungswesen, Internationales Steuer- und
Wirtschaftsrecht, Unternehmenssteuern und Bilanzen, Erben und Vermögen)
Hoppenstedt-Hochschuldatenbank (http://www.hoppenstedt-hochschuldatenbank.de)

III. Zugriff zu Datenbanken des Fachgebietes Recht


www.th-deg.de→Studierende →Bibliothek→Recherche und Datenbanken→ Fachgebiet
Recht→JURIS
oder https://www.juris.de/jportal/index.jsp

JURIS.de ist die umfassende juristische Datenbank für Rechtsprechung (allein 65653 Entscheidungen
der Finanzgerichtsbarkeit und anhängige Revisionen), Literaturnachweise, Bundesrecht, Landesrecht,
EG-Recht, Asylrecht, Umweltrecht und technisches Recht.
(*Java muss am Rechner installiert sein*).
Beispiel: erweiterte Suche; Gericht Deggendorf→Suche,Liste, Dokument

IV. Zugriff zu Datenbanken weiterer Fachgebiete


www.th-deg.de→Studierende →Bibliothek→Recherche und Datenbanken→
• Fachgebiet Medientechnik, Medienwissenschaften
• Fachgebiet Informatik
• Fachgebiet Gesundheitsmanagement, Medizin
• Fachgebiet Public Management
• Fachgebiet Psychologie

V. Zugriff zu E-Books
www.th-deg.de→Studierende →Bibliothek-->E-Books
https://www.th-deg.de/de/studierende/bibliothek/e-books#nav
1. EBSCOhost eBook Collection (4.400 E-Books aus sämtlichen Fachgebieten

33
2. Springer-eBooks (Technik (2006-2015 – deutsch), Wirtschaft, Informatik (2006-2015 – deutsch),
Wirtschaftswissenschaften (2006-2015 – deutsch),
3. WISO-eBooks
4. De Gruyter-eBooks
5. Hanser-eBooks
6. UTB-eBooks
7. Vahlen-eBooks

VI. Überblick über alle Zeitschriften:


www.th-deg.de→Studierende → Bibliothek→Zeitungen und Zeitschriften
https://www.th-deg.de/de/studierende/bibliothek/zeitungen/online
Beim Zugang zur Elektronische Zeitschriftenbibliothek Deggendorf gibt es 3 Kategorien von
Zeitschriften:
• Zeitschriften mit der grünen Ampel sind generell frei zugänglich
• Für Zeitschriften mit einer gelben Ampel wurde für die Technische Hochschule eine Lizenz bezahlt
und sind von allen Rechnern der Hochschule zugänglich
• Bei Zeitschriften mit einer roten Ampel sind Inhaltsverzeichnisse und Abstracts zugänglich

http://scholar.google.de Google´s Spezialsuchmaschine nach Aufsätzen (Metadaten aus den Volltexten


der Artikel erzeugen und auch Extraktion von allen Referenzen eines Artikels)

2.1.4 Faktendatenbank DETHERM


• Thermophysikalische Stoffdaten, z.B. Transporteigenschaften, Termodynamische Eigenschaften,
Grenzflächeneigenschaften, Phasengleichgewichte, Elektrolytdaten, PVT-Daten
• 44.000 Reinstoffe und 139.000 Gemische
• 8.400.000 Datensätze mit ihren Bibliographischen Angaben
• Datensatz: Eigenschaftswert mit den Zustandsvariablen Temperatur, Druck und Konzentration
• http://i-systems.dechema.de/detherm
Beispiel: Dichte vom Acetonitrile, Liquid

Die FH Augsburg bietet eine gute Linksammlung unter


http://www.hs-augsburg.de/informatik/projekte/mebib/ zu Fachinformations-Datenbanken - Anbieter
von Online-Datenbanken (Hosts) und Informationsvermittler.

2.1.5 Literatur und Kontrollfragen


Literatur
1. Bussiek Jürgen: Informationsmanagement im Mittelstand, Gabler Verlag, 1994, S. 82-105
2. Herget Josef, Siegfried Hensler: Online-Datenbanken in Wirtschaft und Wissenschaft: aktuelle
Nachfragestrukturen und Nutzungstendenzen, WIRTSCHAFTSINFORMATIK 37, (1995), S.
129-132
3. Hotho Andreas; Publikationen im Web 2.0; Informatik Spektrum 35-6-2012,2012, S.447.451
4. Renninger Wolfgang: Marketing-Controlling-Organisation, 2003

Kontrollfragen
1. Wie viele Online-Datenbanken gibt es ungefähr? Welche Klassen erbringen den größten Umsatz?
Wie werden Sie in Deutschland angenommen?
2. Klassifizieren sie Online Datenbanken und geben sie je Klasse ein Beispiel!
3. Charakterisieren Sie die Suche in Online-Datenbanken!
4. Beschreiben Sie grob den Leistungsumfang von WTI-Frankfurt!

34
2.2 Wissenssuche im Internet - Suchdienste
Um im World Wide Web die benötigten Informationen zu finden, können Suchdienste zu Hilfe
genommen werden.

Nutzerstatistik
Laut einer Studie nutzen über 60% der Befragten häufig oder regelmäßig Suchmaschinen. Betrachtet
nach Altersgruppen lässt sich feststellen, dass die Nutzer von Suchmaschinen tendenziell jünger sind
(14 bis 29 Jahre) und die Nutzung mit steigendem Alter der User kontinuierlich abnimmt.

2.2.1 Klassen von Suchdiensten und deren Funktionsweise


Es gab drei Grundtypen von Suchdiensten: Webkataloge (bei denen Menschen die Hompeges
eingruppierten in eine Taxonomie, daher sind sie vom Arbeitsaufwand nicht zu handeln),
Metasuchmaschienen (sie benutzten andere Suchmaschienen und fassten die Ergebnisse zusammen; da
hier wegen der fehlenden Werbemöglichkeit EU-Recht verletzt wird, wurdne sie verboten)und die
klassischen Suchmaschinen.

Suchmaschinen beruhen ausschließlich auf automatisierten Verfahren. So durchsucht ein Webrobot


aktiv das Internet nach neuen Dokumenten und zur Aktualisierung des Bestandes wird regelmäßig ein
Crawl-Prozess durchgeführt, indem die gespeicherten URL‘s überprüft werden. Desweiteren
beinhalten Suchmaschinen Softwaretools für die inhaltliche Bewertung und Zuordnung der
Dokumente. Zur Indexierung d. h. zum Aufbau und der Verwaltung von Datenstrukturen anhand von
Keywords werden Information Retrieval-Systeme eingesetzt und die Bestimmung der Relevanz des
jeweiligen Dokuments erfolgt ebenfalls über automatisierte Verfahren.
Im Gegensatz zu den Webkatalogen erfolgt die Suche bei Suchmaschinen über Keyword-Eingabe in
ein Suchfeld. Danach bearbeitet der sog. Query Processor die Suchanfrage mittels Zugriff auf den
Index des Retrievalsystems und eine Liste von Dokumenten wird erzeugt.
Beispiele: Google, Lycos, bing.de

2.2.2 Suchoperatoren und Expertensuche


Es gibt zwei Möglichkeiten zur Verfeinerung von Suchanfragen: mittels Suchoperatoren oder mit der
Funktion der erweiterten Suche bzw. der Expertensuche.
Die Suchoperatoren werden bei der Eingabe mehrerer Suchbegriffe eingesetzt:
• AND (+): alle Wörter müssen im Suchergebnis enthalten sein, Leerzeichen werden i. d. R. in
Systemen als AND definiert
• NOT (-): Wort darf nicht im Suchergebnis enthalten sein: Eingabe mit Leerzeichen vor dem
Minuszeichen z. B. die Suche „berlin -hotel“ zeigt Treffer mit dem Begriff Berlin aber ohne das
Wort Hotel
• OR: mindestens ein Suchwort im Ergebnis
• *: Platzhalterzeichen rechts vom Suchwort symbolisiert beliebige Endung
Die Suche mit den aufgeführten Operatoren funktioniert bei den bekanntesten Suchdiensten wie Google,
Yahoo, Web.de, Bing, MSN Search; allerdings nicht bei Allesklar.
Bei der Expertensuche (siehe Abb. 2.2/1) erfolgt die Eingrenzung der Suche über ein spezielles
Eingabeformular mit vordefinierten Systematiken. So kann beispielsweise die manuelle Auswahl der
Operatoren erfolgen (z. B. „mit der genauen Wortgruppe“), Sprachfilter zur Einstellung der
gewünschten Sprache werden angeboten, das Dateiformat (z. B. Pdf, Word-Dokumente oder Vorträge
in PP) oder das Erstellungs- und Änderungsdatum (Eingabe der gewünschten Aktualität z. B. Dokumen-
te erstellt in den letzten 4 Wochen) können gewählt werden.

– Beispiel: FC Bayern München

35
Abb. 2.2/1: Maske der Erweiterten Suche bei Google

2.2.3 Suchbegriffe
Die Suchbegriffe d. h. Schlüsselwörter oder Keywords weisen bestimmte Eigenschaften auf, die zu
beachten sind, um zielführende Ergebnisse aus Suchdiensten zu erhalten.
Der Unterschied zwischen Groß- und Kleinschreibung ist kaum noch vorhanden, allerdings stellen
Wörter in Ein- und Mehrzahl für Suchmaschinen verschiedene Begriffe dar. Bei zusammengesetzten
Wörtern sollte je nach Bedeutung die getrennte Schreibweise bevorzugt werden.

Die Reihenfolge der Wortkombination beeinflusst ebenfalls das Suchergebnis. So bringen die
Suchbegriffe „berlin hotel“ (116Mio Treffer) und „hotel berlin“ (166 Mio Treffer) in Google
abweichende Ergebnisse. Mittlerweile verwenden über 50% der User Wortkombinationen, das bedeutet,
sie geben nicht nur ein Schlüsselwort, sondern mehrere Suchbegriffe ein. Dieser Anteil erhöht sich
tendenziell in der Zukunft.
Sonderzeichen wie Bindestriche oder Umlaute werden meist gut erkannt und es macht nur einen
geringen Unterschied in den Ergebnissen. Bei Verwendung der alten oder neuen Rechtschreibung
werden zumeist beide Varianten gefunden.

Stoppwörter, also Wörter, die zwar im Text vorkommen, aber von Suchdiensten anders als normale
Schlüsselwörter behandelt werden, stellen eine weitere Schwierigkeit bei der Suche dar. Dies sind
beispielsweise Artikel (z. B. der, die, das, ein, eine) oder Pronomen (z. B. ich, du, er, sie, es). Vor einiger
Zeit noch ignorierten Suchdienste diese Wörter, was sich mittlerweile geändert hat. So bringt z. B. die
Suche mit dem Stoppwort „in“ (also „hotel in berlin“) bei Google eine höhere Trefferzahl als zuvor.

Desweiteren ist auf die korrekte Rechtschreibung zu achten, wobei fehlerhafte Eingaben meist ebenso
Treffer erbringen, da andere User den gleichen begingen. Viele Suchmaschinen bieten eine
Korrekturfunktion, beispielsweise Google mit dem Hinweis „Meinten Sie:“.

Eine Funktion in Google ermöglicht die Recherche des Beliebtheitsgrades eines bestimmten
Keywords in Verbindung mit einem gewählten Zeitraum, dem regionalen Interesse und den konkret
benutzten Suchbegriffen.
www.google.com/insights/search
Beispiel: deggendorf

36
2.2.4 Bestandteile der Ergebnislisten
Überwiegend bestehen die Ergebnislisten der Suchdienste aus organischen Treffern und Sponsored Ads
sowie Payed-Listing-Einträgen, deren Darstellung je nach Suchdienst variieren. Die organischen Treffer
sind die unbezahlten Suchergebnisse, während die Sponsored Ads und Payed-listing-Einträge von
Unternehmen bezahlte Einträge sind. Diese werden zumeist an prominenter Stelle z. B. am Beginn der
Liste gezeigt und beinhalten kommerzielle Angebote.

Die Reihenfolge der Sponsored Ads/Payed-listening Einträge hängt davon ab, wer für einen Klick mehr
bereit ist zu zahlen. Also die obersten zahlen am meisten für einen Benutzerklick, z.B. bei Google den
Suchbegriff „Versicherungsvergleich“ eingeben.
Die Reihenfolge der organischen Treffer hängt z.B. von Google´s Page Ranking Verfahren ab. Bei
Google werden Treffer weiter oben angezeigt, wenn auf deren Homepage mehr Links von anderen
Homepages verweisen als auf die Homepages der weiter unten angezeigten.
Beispiel: Verweisen z.B. auf die Homepage www.th-deg.de 1100 andere Homepages und auf die
www.oth-aw.de 1200, so wird bei der Frage nach „bayerischen Hochschulen“ der Treffer Amberg-
Weiden vor dem Deggendorfer Treffer angezeigt.

Aus der Aufteilung der Ergebnislisten und Positionierung der Treffer entstanden die zwei
Themenbereiche Suchmaschinenoptimierung (SEO) und Suchmaschinenmarketing (SEM).

Die Suchmaschinenoptimierung umfasst Maßnahmen, die dazu dienen, dass Webseiten auf den
Ergebnisseiten innerhalb der organischen Treffer auf höheren Plätzen erscheinen. So ist ein häufiger
Wechsel der URL Gift für eine gute Position im Google Page-Ranking.
Das Suchmaschinenmarketing befasst sich dagegen mit dem gezielten Einsatz von bezahlten
Suchmaschineneinträgen, um Kunden zu gewinnen.

2.2.5 Nutzerverhalten
Nach einer Statistik der meistgenutzten Suchmaschinen in Deutschland im Februar 2015 hatte die
Suchmaschine Yahoo einen Marktanteil von 1,66 %. Google, die Suchmaschine des US-
amerikanischen Unternehmens Alphabet Inc., war mit großem Abstand Marktführer mit Anteilen von
über 90 %. Das Schlusslicht in dem Ranking bilden die Suchmaschinen von GMX, Search.com und
Conduit mit Marktanteilen von unter 0,05 %.

Bei der mobilen Nutzung von Suchmaschinen entfällt der größte Marktanteil auch auf Google mit
knapp 92 Prozent weltweit. Mit großem Abstand folgen Yahoo (5,98 %) und Bing (1,68 %).
(http://de.statista.com/statistik/daten/studie/167841/umfrage/marktanteile-ausgewaehlter-
suchmaschinen-in-deutschland/)

Als nächster Aspekt soll auf das Vorgehen der Nutzer bei der Auswertung der Ergebnisse von
Suchdiensten eingegangen werden. Untersuchungsgegenstand der zugrunde gelegten Studie war das
Vorgehen bei der Betrachtung einer Google-Ergebnisliste mit den kumulierten Ergebnissen über alle
Such- und Nutzungsszenarien hinweg. Die Aufmerksamkeitsverteilung auf den Google-Ergebnislisten
verläuft nach einem F-Muster, denn die Blicke wandern auf der Suche nach den relevanten Key Words
vertikal auf der linken Seite von oben nach unten. Erscheint nun ein Ergebnis relevant für die eigene
Anfrage, wird es von links nach rechts flüchtig gescannt.

Das primäre Selektionskriterium und Entscheidungsmerkmal zur Auswahl der Treffer ist die Position
des Suchergebnisses, denn die oberen Suchergebnisse suggerieren den Nutzern deren höhere Relevanz.
Rund 45 Prozent der Klicks entfallen auf die oberen organischen Suchergebnisse, während die darüber
liegenden Sponsored Ads von knapp 40% der User ausgewählt werden.
Neben der Positionierung entscheidet vor allem die Übereinstimmung der Ergebnisse mit dem
eingegebenen Suchbegriff, ob das Resultat angeklickt wird, denn das KeyWord wird bereits in der
Überschrift erwartet. Ob nach dem kurzen Abgleich mit dem Ergebnistitel der darunter aufgeführte Text
oder die URL in den Fokus der Betrachtung rückt, ist wiederum abhängig von der Intention des Nutzers.

37
Wegen dem Page-Ranking von Google hat sich eine Backlinking-Technik herausgebildet. Es ist aber
davon auszugehen, dass sich der Umgang mit Backlinks gravierend verändern wird. Google bewertete
ja im Page-Ranking: je öfter von anderen Seiten auf die entsprechende Page verwiesen wurde, desto
besser war jene im Google-Ranking vertreten. Es ist hinreichend bekannt, wie viel Schindluder damit
getrieben wurde: Seitenbetreiber kauften Backlinks im 10.000er-Pack aus Russland, Vietnam oder
China, um ihre Inhalte nach oben zu katapultieren. Darauf reagierte Google schließlich vor gut drei
Jahren mit dem Penguin-Update, das in der Lage ist, überoptimierte Webseiten zu erkennen und in ihrer
Wertung herabzusetzen. Heute geht es bei Backlinks daher um Klasse statt Masse: Statt Verlinkungen
im großen Stil einzukaufen, gilt es vielmehr, Inhalte aufzubauen, die so gut sind, dass sie von allein
verlinkt werden. Content Marketing ist für ein solches organisches Linkbuilding das Gebot der Stunde.

Suchmaschinen wie Google werden immer besser darin, die tatsächliche Inhaltsqualität einer Seite zu
beurteilen und sie mit der Suchintention der Nutzer abzugleichen. Stattdessen werden sogenannte Social
Signs an Bedeutung gewinnen: Empfehlungen von untereinander vernetzten Usern werden in den
nächsten Jahren eine immer wichtigere Rolle spielen.
(http://de.statista.com/themen/111/suchmaschinen/)

2.2.6 Neue Entwicklungen und Trends


1.) Die lokale Suche wurde vor allem mittels Google Maps und Google Earth interessant, mit der
die Anzeige von Luftaufnahmen in Kombination mit Routenplanern und lokaler Suche möglich wird.
Beispiel: Restaurants in Deggendorf
Beispiel: Hotel Obrigheim und dann auf Maps gehen

2.) Eine weitere Entwicklung der Suchdienste ist die personalisierte Suche. Zum einen ist die
Personalisierung der Eingabemaske z. B. bei Google+ oder Mein Yahoo möglich und zum anderen kann
ein Nutzerprofil generiert werden, das bei zukünftigen Suchen zur Eingrenzung der Treffer
herangezogen wird. Dazu ist allerdings der Zugang zu persönlichen Daten notwendig z. B. E-Mail-
Accounts, Adressbücher oder Shopping-Profile. Anwendungsbeispiele hierfür sind Google
Webprotokoll und My Web von Yahoo.
Vorbei sind auch die Zeiten, in denen alle User die gleichen Suchergebnisse erhielten: Schon jetzt
werden die aufgezeigten Ergebnisse anhand von Faktoren wie der geographischen Position oder der im
Browser eingestellten Sprache regionalisiert. Aber bei der Ergebnisausgabe für regionale Cluster wird
es nicht bleiben: Gerade Google wird immer besser darin, zu erkennen, wo seine Nutzer leben, wohin
sie reisen, wie sie arbeiten und was sie einkaufen. Das mag auf den ersten Blick vor allem erschrecken
– es bietet aber auch die Gelegenheit, jedem Internetuser individuell auf ihn zugeschnittene Ergebnisse
zur Verfügung zu stellen. Schon heute gibt es erste Dienste, bei denen Search Engines Daten kumulieren
und dadurch Services bieten, noch bevor der Nutzer überhaupt nach ihnen sucht. Und in nicht allzu
ferner Zukunft wird dies noch viel weitreichender funktionieren als der Smartphonewecker, der uns eine
halbe Stunde früher weckt, wenn auf unserem Weg zur Arbeit Stau angekündigt ist.

3.) In der sozialen Suche wird auf Social Networking gesetzt, bei dem der User Bekannte, Freunde
oder Kollegen einlädt und von deren Such- sowie Klickverhalten profitiert und umgekehrt.
Voraussetzung sind ähnliche oder identische Interessen z. B. innerhalb einer Firma oder eines Vereins.
Es wird ermöglicht, die Suchanfragen aus dem Bekanntenkreis zu sehen und sogar die betreffenden
Personen via Mail zu kontaktieren.

Die Suchergebnisse werden danach gewichtet, wie interessant die Seiten für andere Benutzer sind, was
ebenfalls die Gründung von Interessensgemeinschaften zu einem bestimmten Themengebiet
voraussetzt. Der Benutzer benötigt für Google Social Search ein Konto bei Google, bei dem er Links
zu seinen sozialen Netzen angibt, also etwa zu seinem öffentlichen Twitter oder Friendfeed-Profil.
Zudem werden auch andere Benutzer in der Gmail-Chat-Liste sowie andere als Freunde, Familie und
Kollegen markierte Personen aus dem Google-Adressbuch ausgewertet.
Google erklärt, dass die Online-Rezension von einem Freund möglicherweise relevanter ist als eine
fremde Rezension. Darum werden in der sozialen Suche Ergebnisse von bestehenden Verbindungen zu
38
Freunden hervorgehoben, doch nicht immer sind diese sofort zu erkennen, da nicht alle Freunde Google
Plus aktiv nutzen um Inhalte öffentlich zu bewerten oder zu teilen. Um die soziale Suche zu
beeinflussen, kommen die Infos ausfolgenden Quellen:
* Blogs, Website und weitere Inhalte, die ein User erstellt oder
geteilt hat
* Bilder, die von den eigenen sozialen Verbindungen geteilt wurden
* Google Reader-Abonnements
* Sämtliche bekannte Web-Profile wie Twitter und Flickr
* Inhalte, die über die Google+1 Schaltfläche empfohlen oder
geteilt wurden
Um personalisierte Ergebnisse in der die soziale Suche zu erhalten, reicht
schon ein Google Mail Konto aus.
Als Nachteile der sozialen Suche ist der notwendige Zugang zu persönlichen Daten zu nennen. Darüber
hinaus müssen Gruppen und Interessensgemeinschaften gebildet sowie gepflegt werden.
Personensuchmaschinen erfassen häufig Profilbilder aus Sozialen Netzwerken und binden diese mittels
eines Link auf ihrer Webseite ein.
Hat der Nutzer in dem Sozialen Netzwerk seine Daten nicht für Dritte
gesperrt, ist eine solche Vorgehensweise der Personensuchmaschinen-betreiber sogar zulässig (OLG
Köln).
http://www.social-searcher.com/google-social-search/
Interessensgemeinschaften kann man mit http://www.xing.de oder http://www.LinkedIn.compflegen

4.) Wissensbasierte und semantische Suche

Die wissensbasierte Suche kann verschiedene Ausprägungen aufweisen, die im Folgenden anhand von
Beispielen verdeutlicht werden.
Bei Yahoo! Clever (http://de.answers.yahoo.com) können Fragen gestellt werden, auf die andere Nutzer
per E-Mail oder online antworten. (Yahoo →clever)

COSMiQ (http://www.cosmiq.de/) ist eine Wissenscommunity und Plattform für Meinungs- sowie
Sinnfragen, die ursprünglich von Lycos veröffentlicht wurde und nun von Burda Media betrieben wird.
Als angemeldete User ist man Experte und kann gestellte Fragen beantworten. Diese Antworten werden
vom Fragesteller bewertet und je nach Punktezahl kann der Nutzer im Rang von Einsteiger über
Studenten bis hin zu Professor und Nobelpreisträger aufsteigen.

WolframAlpha.com: Die Suchmaschine zählt als intelligente Suchmaschine im Bereich Mathematik,


denn sie findet nicht nur Informationen, sondern versucht sie schon gleich aufzubereiten. Es können
Fragen eingetippt werden, bei denen nicht eine Auflistung von Websites erfolgt, sondern direkte
Antworten gefiltert werden. Hervorgehoben wird sie zudem dadurch, dass sie auf der Software
Mathematica basiert.

Google´s Volltextsuche erreicht bei Suchanfragen der Art „plants with edeble leaves“ ihre Grenzen.
Viele Dokumente werden zwar „edible leaves“ enthalten, aber wahrscheinlich nicht das Wort „plants“
oder eine Variation davon. Stattdessen werden dien namen einer bestimmten Pflanze enthalten wie
„broccoli“. Hier würde man das Wissen benötigen, dass es sich bei „broccoli“ um eine spezielle „plant“
handelt. Auch will man als Ergebnis keine Liste von Dokumenten, sondern eine Liste von Pflanzen.

Semantische Suche erfordert eine Funktionalität jenseits dessen, was Volltextsuche imstande ist wie:
Suche nach Vertreter einer gegebenen Klasse anstatt nach Worten, Diversität der Ergebnisse, pro Treffer
Kombination von Informationen aus verschiedenen Quellen.
Beispiel: Online-Demo einer sem. Suchmaschine: broccoli.informatik.uni-freiburg.de. (example Video)
Zu lösende Probleme sind: Wie kommt man an dieses Wissen über Beziehungen, wie zu Ober- und
Unterbegriffsbeziehung (Ontologie). Wie erkennt man in einem Text Referenzen auf Vertreter einer
Klasse, wie händelt man den großen Index? Wie versteht man, nach was gefragt wurde? Wie erstellt
man als Ergebnis Textauszüge.

39
Technik um Semantische Suche zu realisieren: Mittels Ontologien, siehe Kap. 3.2.2.

Google hat mit ALLO eine Möglichkeit entwickelt, per Instant Message mit sogenannten Chatbots zu
kommunizieren. Sie sollen Fragen beantworten und Probleme lösen können, wie das Wall Street Journal
von Quellen erfahren hat. Die Google-Suche kann aktuell schon Fragen beantworten, und mit Google
Now hat Google auch einen sprachgesteuerten Assistenten im Angebot, der reagieren und Suchen
durchführen sowie auch wahrscheinlich benötigte Informationen proaktiv bereitstellen kann. Ein
Chatbot-System würde sich von diesen Angeboten möglicherweise nur durch die Aufbereitung der
Ergebnisse unterscheiden. Google Hangouts hat zwar für Videokonferenzen eine gewisse Verbreitung,
ist aber längst kein so umfassendes Kommunikationsnetz für Freundesgruppen wie die genannten
Konkurrenten. Und Google Messenger ist trotz mindestens 10 Millionen Installationen laut Google Play
weithin ungebräuchlich.

Bei Justanswer.com (http://www.justanswer.com/) stammen die Antworten auf Fragen der rund 1,5
Mio. Nutzer in 145 Ländern von Experten z. B. Mediziner, Juristen oder Mechaniker (zeigt wie viele
Experten gerade online sind). Jeder Frager legt bei der Eingabe der Frage einen Preis selbst fest, den er
bereit ist, für die Antwort zu zahlen. Er muss die erhaltenen Antworten akzeptieren und die befragten
Experten bewerten, bevor diese das angegebene Honorar erhalten.
Ein wesentlicher Nachteil der wissensbasierten Suche ist, dass die Qualität der Antworten nicht
gewährleistet werden kann. Zudem ist eine Moderation notwendig, damit die Inhalte sowie Teilnehmer
kontrolliert werden können.

5.) Mobile Suche

Abb. 2.2/2: Marktanteile der Suchmaschinen weltweit nach mobiler und stationärer Nutzung (Juni 2015)
[http://de.statista.com/statistik/daten/studie/222849/umfrage/marktanteile-der-suchmaschinen-
weltweit/]

Abschließend stellt sich die Frage, ob die Zukunft für die Suchdienste im Mobilbereich liegt? In Asien
werden die Mehrheit der Suchanfragen bereits über das Handy anstatt online übermittelt. In Deutschland
ist dies (noch) nicht der Fall. Bei der mobilen Suche werden vom User simple, aber nützliche Resultate,
bei denen Zeit und Standort wichtig sind, erwartet.

Ein existierendes Produkt ist die iPhone-Anwendung Siri (http://www.siri.com/), die


umgangssprachlich formulierte Fragen vom Handy annimmt – egal ob geschrieben oder gesprochen.
Die Software ordnet Fragen in den Kontext von Zeit sowie Ort ein, fragt mehrere Dutzend Webdienste
an und bündelt deren Antworten in einem knappen Satz wie eine geübte Sekretärin.

Die jüngere Nutzergeneration tendiert zur Spracheingabe, die wiederum eine ganz neue Suchqualität
mit sich bringt: Den Eingabebefehl „Siri, ich habe Hunger!“ in „Restaurant Konstanz“ umzuwandeln,
erfordert von der Suchmaschine eine deutlich höhere „Denkleistung“ als eine einfache Keywordsuche.
Vor dem Hintergrund, dass derzeit vor allem Devices mit kleineren Displays wie beispielsweise

40
Smartwatches auf den Markt drängen, ist zu erwarten, dass in den kommenden fünf Jahren auch neue
Formen der Suche entstehen. Gleichzeitig wird die Rolle des Standorts bei der Ergebnisausgabe
weiterwachsen: Googelt ein Nutzer von unterwegs aus per Smartphone nach einem
Bekleidungsgeschäft, sucht er in der Regel nicht den Online-Shop, sondern die Öffnungszeiten. Auch
darauf sollten Unternehmen, die ihren Kunden einen sinnvollen Webauftritt offerieren wollen,
vorbereitet sein.

Zusammenfassend kann das Fazit gezogen werden, dass es in der Zukunft bei Suchdiensten NICHT
mehr nur auf das „SUCHEN“, sondern vielmehr auf das „FILTERN“ ankommt.

2.2.7 Literatur und Kontrollfragen


Literatur:
1. Erlhofer, Sebastian: Informationssuche im World Wide Web. Taktiken und Strategien bei der
Nutzung von Suchmaschinen. Berlin, 2007
2. Erlhofer, Sebastian: Suchmaschinen-Optimierung. Grundlagen, Funktionsweisen und Ranking-
Optimierung. Bonn, 2007
3. Glöggler, Michael: Suchmaschinen im Internet. Berlin, 2003
4. Gugerli, David: Suchmaschinen. Die Welt als Datenbank. Frankfurt am Main, 2009
5. Koch, Daniel: Suchmaschinen-Optimierung. Website-Marketing für Entwickler. München, 2007
6. Spannagel Christoph: SEO im Wandel: Warum langfristige Perspektiven sinnvoller sind als
kurzfristige Trends. https://www.adzine.de/2015/11/seo-im-wandel-warum-langfristige-
perspektiven-sinnvoller-sind-als-kurzfristige-trends, 2015
7. http://de.statista.com/statistik/daten/studie/167841/umfrage/marktanteile-ausgewaehlter-
suchmaschinen-in-deutschland/

Kontrollfragen:
1. Nennen Sie vier Unterschiede zwischen Webkatalogen und Suchmaschinen!
2. Welche Probleme haben Metasuchmaschinen?
3. Angenommen die Suche bringt zu viele oder unpassende Ergebnisse, was können Sie tun, um die
Ergebnisse zu präzisieren?
4. Wozu dient der Suchoperator NOT und wie wird er eingesetzt?
5. Was ist bei der Verwendung der Suchbegriffe zu beachten (4 Aspekte)?
6. Aus welchen grundlegenden Teilen besteht eine Ergebnisliste von Suchdiensten?
7. Nennen Sie die wesentlichen Kriterien bei der Selektion von Treffern bei der Google-Suche!
8. Welche Entwicklungen werden im Bereich der Suchdienste verfolgt? Skizzieren Sie drei Trends
anhand je eines Beispiels.

9. Was sind semantische Suchmaschinen?

10. In der Zeitschrift WIRTSCHAFTSINFORMATIK vom 1.2009 steht ein Artikel „Google: das
weltweit erste Information Utility“. Erklären sie das Phänomen Google (ausgehend von der
raffinierten Suchtechnologie bis hin zum größten Datensammler (z.B. für E-Marketing und CRM)

Fragen der Online-Recherche:


• Suchen Sie das Kinoprogramm in Passau?
• Wie viele Exemplare stehen von einem Buch von Dieter Rummler aus dem Jahre 1983 in den
Bayerischen Bibliotheken?
• Wann und wo wurde der Filmschauspieler Goetz George geboren?
• Wo befinden sich im Bayerischen Wald Golfplätze?
• Wie hoch ist die Schneehöhe heute am Arber?
• Nennen Sie die Adresse des Romantikhotels „Bierhütte“!
41
• Nennen Sie mir drei Schriften, die Hans Paul Bisani publiziert hat!
• Nennen Sie mir die Internet-Adresse der Homepage einer Grundschule in Feucht
• Wie viel sind 1 Euro im aktuellen Kurs der thailändischen Baht?
• Wie heißt der Titel der Doktorarbeit von Rainer Waldmann (1999 erschienen)?
• Nennen Sie mir eine Internet-Adresse der Homepage einer fränkischen Grundschule
• Nenne Sie mir das Geburtsdatum von Manfred Krug!
• Nennen Sie mir einen Abflugtermin abends für den Flug am 16.7 von Frankfurt nach Brasilia!
• In welchem Verlag erschien das Buch "Ubiquitous Computing" vom Herausgeber
Britzelmaier?
• Wie viele Kilometer hat die Autostrecke Deggendorf nach Krems in der Wachau in Österreich?
• Woher kommt der Sinnspruch „was man nicht erfliegen kann, muss man erhinken“?
• Nennen Sie das Geburtsdatum eines deutschen Nobelpreisträgers?
• Nennen sie einen Artikel, den Heribert Popp in einer Betriebswirtschaftlichen Zeitschrift
veröffentlicht hat!
• Nennen Sie mir ein Patent, das MAN 2014 angemeldet hat!
• Wer hat das Patent "Leucht-Display-Wechsler als Werbeträger" angemeldet?

42
3 Methodische Unterstützung des Wissensmanagements
3.1 Methoden entlang des Wissensmanagementprozesses

Abb. 3/1 Überblick über die Methoden des WM [Müller 2015, S. 84]

Abb. 3/1 zeigt von unten nach oben steigenden Reifegraden der Methoden, was immer stärkeren IT-
Einsatz bedingt. Die Spalten lehnen sich an die Teilprozesse des WMs an.
Einfache Lösungen sind [Müller 2015, S. 85-90]:

43
1. Optimierung von Ablagestrukturen: Gut strukturierte Ablagepläne, nach denen die Ablage
auch tatsächlich erfolgt, helfen den Überblick zu behalten und Suchzeit und Ärger über sich
selbst und andere einzusparen.
2. Persönliche Communities: Der persönliche Austausch, die Kommunikation der Menschen
untereinander, ist das einfachste Mittel des Wissenstransfers.
3. Altersgemischte Teams und Wissens-Tandems: Bei Wissens-Tandems arbeiten ein erfahrener
und ein jüngener Kollege zeitlich befristet gemeinsam an einer Aufgabe, um so den
Wissensaustausch in beiden Richtungen zu fördern. Oftmals begleitet ein Coach diesen
Prozess, und er wir mit einem strukturierten Abschlussgespräch abgerundet.
4. Patenschaften, Coaching und Mentoring: Bei Patenschaften wird neuen Mitarbeitern ein
erfahrener Kollege aus derselben Organisationseinheit als Pate an die Seite gestellt. Der Pate
ist Ansprechpartner für den Neuling und bringt ihm die wichtigsten Themen nahe. Beim
Mentoring arbeitet der erfahrene Kollege (Vorgänger) den Nachfolger ein und unterstützt ihn
in der Anfangsphase. Beim Coaching ist der Coach üblicherweise eine externe Person, die
temporär hinzugezogen wird um bestimmte persönliche und berufliche Ziele zu erreichen.
5. Überlappende Einarbeitung und moderierte Übergabe: Die persönliche Einarbeitung eines
Nachfolgers ist der optimale Weg des Personalwechsels. Leider bleiben in öffentlichen
Verwaltungen Stellen meist einige Monate gesperrt. Bei der moderierten Übergabe übergibt
der Vorgänger in einer Reihe von Sitzungen sein Wissen an die Nachfolger, moderiert durch
einen internen oder externen Prozessbegleiter.
6. Checklisten-basierte Wissensicherung: Checklisten sind für jede Organisationseinheit
individuell zu erstellen. Dabei ist in einem Arbeitskreis abzuklären, welche Informationen der
Nachfolger benötigt und in welchen Kategorien diese in welchem Fall zu erfragen sind, um
möglichst viel Wissen weiterzugeben. Problematisch ist, dass nur bewußtes Wissen
weitergegeben werden kann. Unbewußtes Wissen, das in Routine eingesetzt wird, entzieht
sich der Weitergabe.
7. Senior-Berater im Ruhestand. Ehemalige Mitarbeiter stellen ihr Wissen und ihre Erfahrung
nach ihrem Ausscheiden weiterhin dem Unternehmen zur Verfügung.

Richard Pircher hat 2010 folgende sehr gute Methodenstoffsammlung zu 5 WM- Prozesskategorien
aufgestellt [Pircher 2010]:
Wissensidentifikation
• Dokumentation des Wissens in Datenbanken, Intranet, etc.
• After Action Review, Lessons Learned und Debriefing: Teilweise unbewusste Erfahrungen
werden durch gezielte Fragen bewusst gemacht und dokumentiert - zunehmend auch mit
Videounterstützung.
• Good Practices ("Leuchttürme“): Gute Lösungen und Ansätze in der Organisation werden
identifiziert, dokumentiert und bekannt gemacht.
• Strategische Personalentwicklung bzw. Kompetenzmanagement (z. B. Kompetenzmatrix): Die
Handlungskompetenzen der Mitarbeiter werden systematisch erhoben und entsprechend der
Kernkompetenzen der Organisation und ihrer Ziele gefördert. Durch eine Kompetenzmatrix
können individuelles Kompetenzniveau und organisatorische Zielsetzungen miteinander
verbunden und Risikopotentiale (Fluktuation, Pensionierung, etc.) identifiziert werden.
• Wissenskarten/Knowledge Maps:
- Wissensträgerkarten (Gelbe Seiten/Yellow Pages, Who is Who): In einem Verzeichnis der
Mitarbeiter werden Informationen zu deren Wissen gesammelt (z. B. Funktionsprofil, Aus- und
Weiterbildung, Projektbeteiligungen, teilweise bis hin zu privaten Interessen und Hobbies, siehe
Kapitel 3.2.1
- Wissensanwendungskarten: Wissensprozesse: Wer entwickelt oder benötigt welches Wissen
wann?
- Wissensstrukturkarten: Wie hängen Wissensgebiete oder Sachverhalte zusammen?
• Knowledge Broker: Eine Funktion, die die Steigerung der Transparenz des vorhandenen
Wissens und dessen Vernetzung fördert.

44
Wissensrepräsentation
• Inhaltsstrukturierung: Thesaurus, Klassifikation, Taxonomie, Ontologie (Topic Map),
Tagging, Terminologie Management, Clustering-Maschine sind Methoden und
Instrumente, die der Strukturierung und Ordnung von Informationen dienen.
• Wissenskarten (siehe oben bei Wissensidentifikation)
• Informations-und Kommunikationsregeln (Besprechungen, Moderation, Kürzel in
Betreffzeile von E-Mails, der Umgang mit Mobiltelefonen in Besprechungen,
Dateibenennung, etc.), ICK-Handbuch (Information/Communikation/Knowledge)-Handbuch
fördern geteilte mentale Modelle zum Umgang mit Information und zur Kommunikation
von Wissen.
• Instrumente des Datenmanagements: Datenbank, Dokumentenmanagement, Content
Management, Intranet, Internet, Erfahrungsdatenbank, Web 2.0/Social Software, Data
Warehouse, Expertensystem, Organisational Memory, Unternehmensportal dienen der
Speicherung und Zugänglichmachung von Daten.
• Projekt-, Lessons Learned-, Erfahrungsdatenbank: Informationen zur temporären
Organisationsform des Projektes oder/und zu Erfahrungen aus Projekten und Prozessen
sollen dauerhaft zugänglich gemacht werden (siehe auch Wissensidentifikation).
• Wissensträgerkarten (Gelbe Seiten/Yellow Pages, Who ist Who, siehe oben bei
Wissensidentifikation).
• Formular, Checkliste, Dokumentation von Arbeitsprozessen, Protokolle, Handbuch,
Fachliteratur (schriftlich, bildlich, multimedial): Wissen wird dauerhaft zugänglich und
nutzbar gemacht.
• Mappingmethoden (Mind Mapping, Concept Mapping, vgl. Kapitel 3.2): Wissen wird
strukturiert und dokumentiert
• Kompetenzzentrum/Think Tank: Wissen wird in einer eigenen Organisationseinheit
gebündelt und vernetzt
• Motivation zu Wissensdokumentation
o Wissensdokumentation öffentlich machen
o Fixe Entlohnung für abgerufenes / nachgefragtes Wissen
o Mitsprache für „natural leaders“
o Best Paper Awards
o Push-Pull-Prinzip

Wissenserwerb
• Strategische Personalentwicklung bzw. Kompetenzmanagement (eignungsdiagnostische
Verfahren, Kompetenzmatrix, Qualifizierung von Mitarbeiterinnen, Training, Action Training,
Karriereplanung. Informations-Lernreisen, etc.): Durch die Auswahl von Mitarbeitern und
Weiterbildungsmaßnahmen wird Wissen in der Organisation aufgebaut.
• Suchtechnologien (Retrieval durch Suchbegriffe oder Browsing durchstrukturierte, verlinktem
Datenbestand. Agenten/Webcrawler, etc.): Unterstützen das Auffinden von Informationen
(Pull-Prinzip).
• Job Redesign: Job Rotation, Job Enlargement, Job Enrichment (siehe Wissenskommunikation)
- Durch Einblick in andere Arbeitsbereiche oder teilweise Auflösung der Arbeitsteilung sollen
Wissen entwickelt, Sinnzusammenhänge wiederhergestellt, die Arbeitsidentifikation und -
motivation erhöht werden.
• Gruppenarbeit, Lerngruppen, Lernreise, Lernlaboratorium, Lernstatt: fördern das individuelle
und soziale Lernen, die Entwicklung einer lern- und wissensorientierten Organisationskultur
und informelle Netzwerke (Interessens-Cluster).
• Coaching, Mentoren- bzw. Patenschaftsmodelle, "graue" Beraterstäbe, Berater /Trainer-
funktion: Erhöhen die zugängliche Diversität von Sichtweisen für Wissensarbeiter und
verbreitern die Netzwerke.
• Systemsimulation, Rollenspiel, Planspiel, Mikrowelt: Fördern empathisches Wahrnehmen
anderer Perspektiven, Erkennen von Zusammenhängen und vernetztes Denken.

45
Wissensentwicklung
• Methoden zur Förderung von Kreativität und Innovation (Brainstorming, Methode 635
(erhalten sechs Teilnehmer ein jeweils gleich großes Blatt Papier. Dieses wird mit drei Spalten
und sechs Zeilen in 18 Kästchen aufgeteilt. Jeder Teilnehmer wird aufgefordert, in der ersten
Zeile zu einer gegebenen Fragestellung drei Ideen (je Spalte eine) zu formulieren. Jedes Blatt
wird nach angemessener Zeit – je nach Schwierigkeitsgrad der Problemstellung etwa drei bis
fünf Minuten − von allen gleichzeitig, im Uhrzeigersinn weitergereicht. Der Nächste soll
versuchen, die bereits genannten Ideen aufzugreifen, zu ergänzen und weiterzuentwickeln),
Morphologie, Szenario Technik, Denkhüte (Gruppendiskussion, bei der Gruppenmitglieder
durch verschiedenfarbige Hüte repräsentierte Rollen einnehmen. Jeder Hut entspricht einer
Denkweise oder einem Blickwinkel), Analogiebildung, Clustering, Kopfstandtechnik,
Fragenketten, laterales Denken, Lexikonmethode, Osborn-Checklist, Reizwortanalyse,
Synektik, Walt-Disney-Methode, Szenario Methode, Tabula Rasa, TRlZ (z.B.
Innovationsprinzipien und Widerspruchstabelle, Separationsprinzipien zur Lösung
physikalischer Widersprüche, Algorithmus oder auch Schrittverfahren zur Lösung der
Erfindungsprobleme), Entscheidungsmatrix, Entscheidungsunterstützungssysteme,
Vorschlagswesen, Ideenmanagement, Kontinuierliche Verbesserung, Open Innovation, externe
Partner, etc.): Unterstützen die Einnahme neuer Sichtweisen, das Überwinden von
festgefahrenen Erwartungshaltungen und Weltbildern und das systematische Generieren neuer
Lösungsansätze bis hin zum neuartigen Prozess oder Produkt.
• Besprechung, Dialog, Dialogprojekt (siehe Wissenskommunikation)
• After Action Review, Lessons Learned und Debriefing (siehe Wissensidentifikation )
• Soziale formelle und informelle Netzwerke, Kontakte, Networking, Kooperation: Soziale
Interaktion führt nahezu automatisch zur Entwicklung neuer Sichtweisen und neuen Wissens
(kann unterstützt werden durch Social Software und soziale Netzwerkanalyse).
• Wissensgemeinschaften/ Communities of Practice/Interessensgruppen, Qualitätszirkel (siehe
Wissenskommunikation)
• Lernlaboratorium, Szenario Planung, Systemsimulation, Case Study: Was für Sportler oder
Schauspieler selbstverständlich ist, nämlich zu trainieren und zu üben, scheint im Management
und der Wissensarbeit noch ein Fremdwort zu sein. Um komplexe Herausforderungen bzw.
"bösartig vertrackte Probleme" bewältigen zu können, sollte das Denken auf sie vorbereitet sein.
Auch wenn aufgrund der Dynamik und Komplexität nicht vorhersehbar ist, was konkret
geschehen wird, kann eine adäquate Denkweise erlernt und damit neues Wissen entwickelt
werden.
• Interviews mit Anspruchsgruppen (Kunden, Lieferanten, Mitarbeitern, etc.): Durch
verschiedene Sichtweisen kann die Diversität erhöht und damit neues Wissen entwickelt
werden, z. B. durch Open Innovation.
• Externes Benchmarking: Durch den Vergleich mit anderen Organisationen können
Wissensvorsprünge und damit Lernpotentiale sichtbar gemacht werden
• Data Mining: Aus großen Datenmengen sollen Zusammenhänge gefiltert werden, die anders
nicht erkennbar wären
• Open Innovation: Zur Entwicklung neuer oder verbesserter Produkte werden
organisationsexterne Personen wie Kunden eingebunden.
• Portfoliomethoden: In einer stark vereinfachten, zweidimensionalen Darstellungsform werden
Marktsituationen oder andere Wertepaare dargestellt, was die Entscheidungsfindung
unterstützen kann.
• Motivation zu Wissensgenerierung
o Lob für „Best Ideas“; Koppelung mit mat. Anreizen
o Fixe Entlohnung für Vorschläge oder Innovationen
o Spielcharakter (z. B. Feste zur Entwicklung neuer Ideen)

46
Wissenskommunikation
• Informations- und Kommunikationsregeln
• Methoden der reflexiven Kommunikation
• Besprechung, Dialog
• Weiterbildung, Mitarbeiter schulen Mitarbeiter, Computer-based/supported Training (siehe
Kap. 10).
• Mitarbeiter-Info, Newsletter, Informationsveranstaltungen, gemeinsames Frühstück mit
Geschäftsleitung: Informationen werden verteilt (Push-Prinzip), unter Umständen in
zielgruppen- und interessensspezifischer Form, z.B. durch individuelle Themenabonnements.
• Soziale formelle und informelle Netzwerke innerhalb und außerhalb der Organisation,
Experteninterview, Erfahrungsaustausch (kann unterstützt werden durch Social Software).
• Interner Wissensmarkt, interaktive Kommunikationsmöglichkeiten (World Cafe (mit den
passenden Fragen wird versucht, Menschen in ein konstruktives Gespräch miteinander zu
bringen – zu Themen, die für die Teilnehmer relevant sind), Fish Bowl (hier diskutiert eine
kleine Gruppe von Teilnehmern im Innenkreis (im „Goldfisch-Glas“) das Thema, während die
übrigen Teilnehmer in einem Außenkreis die Diskussion beobachten) etc.), Pausengespräche,
Impulsreferat: Durch diversitätsfördernde Settings kann eine dynamische Interaktion mit
entsprechender Wissenskommunikation und -entwicklung entstehen.
• Wissensgemeinschaften/Communities of Practice/Interessensgruppen, Qualitätszirkel:
Gruppen von Personen, die sich für ein gemeinsames Thema interessieren, bilden eine relativ
stabile Gemeinschaft, um Wissen zu kommunizieren und zu entwickeln. Weiter entsteht daraus
häufig ein hierarchie- und funktionsübergreifendes Netzwerk (Interessens-Cluster).
• Formalisierter Expertenstatus, Hotline (Leuchtturm-Prinzip): Personen mit hohem
Kompetenzniveau werden explizit als solche ausgewiesen und stehen zu einem bestimmten Teil
ihrer Arbeitszeit oder auf Gegenverrechnung für Fragen oder Hilfestellungen zur Verfügung.
• Good Practices (siehe Wissensidentifikation)
• Mentoren- bzw. Patenschaftsmodelle, „graue" Beraterstäbe (siehe Wissenserwerb)
• Großgruppenveranstaltungen (z. B. World Cafe, Open Space, Appreciative Inquiry (die
wertschätzende Befragung (oder Erkundung) bildet ein zentrales Element)): Fördern die
Sozialisierung durch strukturierte Kommunikation und Interaktion der Mitarbeiter, und damit
die Vertiefung und Entwicklung geteilter mentaler Modelle.
• Gleitende Übergabe, strukturierter Transfer von Erfahrungswissen, "Wissensstafette": Damit
sollen der Verlust von personengebundenem Wissen reduziert und die Einarbeitungszeiten
verkürzt werden
• Wissensorientierte Raumgestaltung und Architektur (Space Management, Kaffeeecken): Durch
die Berücksichtigung von Kommunikationsprozessen bei der Gestaltung von Räumlichkeiten
und Gebäuden soll die Kommunikationskultur gefördert werden.
• Internes Benchmarking: Der interne Vergleich von Kernkennzahlen soll Wissensvorsprünge
sichtbar und in anderen Bereichen nutzbar machen.
• Knowledge Broker (siehe Wissensidentifikation)
• Job Rotation, Peer Assist (sind Gespräche und werden zu Beginn eines Projekts mit dem Ziel
durchgeführt, über die bevorstehenden Aufgaben einen möglichst ganzheitlichen und
gruppenübergreifend gleichen Eindruck zu gewinnen), etc. (siehe Wissenserwerb)
• "Schwarzes Brett": Kodifikation aktueller Informationen in einfach zugänglicher Kurzform
• Mikroartikel: Erfahrungen werden in kompakter Form gemeinsam mit dem Kontext, in den sie
eingebettet waren, dargestellt.
• Storytelling/Geschichten, Dialog, Interview, therapeutisches Gespräch: Geschichten vermitteln
Lernerfahrungen in ihrer Abfolge, mit dem Kontext und emotionalen Bestandteilen.
• Metapher
• Informations- und Kommunikationstechnologien (Push- und Pull-Prinzip): Ermöglichen bzw.
unterstützen die Kommunikation synchron oder asynchron und in unterschiedlicher Form
bezüglich Kommunikationskanälen (Text, Audio, Video, etc.) sowie sozialer Komplexität (1:
1, 1:n, n.n).
• Persönliches Wissensmanagement, persönliche Wissensstrategie
47
• Immaterielle Anreize zur Förderung der Wissenskommunikation
o Lob und Anerkennung
o Mitspracherecht
o Verantwortung
o Soziale Kontakte / Ansehen
o Fairness in der Kooperation
o Karriere-Transparenz
o Freiheit bei Entscheidungen
o Positive Unternehmenskultur
• Motivation zu Wissensteilung und -nutzung
o Gemeinsame Ausflüge, Veranstaltungen
o Teamentlohnungen
o Lob und Anerkennung für besondere Kenntnisse
o „Mitarbeiter des Monats“
o „Fehler des Monats“

Eine Klassifizierung, die mehr die Wissensmanagementfunktionen den einzelnen


Wissensprozessschritten zuordnet, geben M. Prilla, und C. Ritterskamp. Im Folgenden liegt die
Klassifizierung von Lehner zugrunde.

3.2 Methoden zur Förderung des Wissensaustauschs, der


Wissenskommunikation und der Wissensnutzung
Ziel dieser Gruppe von Methoden ist es, Erfahrungen aus der alltäglichen Arbeit, seien e s gute
oder schlechte, vom eigentlichen Mitarbeiter unabhängig zu machen und sie anderen zugänglich
zu machen. Damit soll das, was eine Organisation weiß, dieser auch bewusst und für sie nutzbar
gemacht werden. Die folgenden Methoden (Lessons Learned, Best Practice Sharing, Story
Telling) sind also in allen Phasen des Managements einsetzbar [Lehner 2012].

3.2.1 Lessons Learned


Zur Steigerung der Effizienz einer Organisation gehört, dass Erfahrungen (auch negative
Erfahrungen) von Mitarbeitern bei der Lösung von Problemen anderen Mitarbeitern zugänglich
gemacht werden. Ziel ist die Vermeidung doppelter bzw. unnötiger Arbeit und die Wiederholung
von Fehlern. Lessons Learned stehen in diesem Zusammenhang für die systematische
Dokumentation und Aufbereitung von Erfahrungen in einer Organisation und stellen damit ein
Mittel dar, um aus vorangegangenen Erfahrungen ebenso systematisch zu lernen.
Dazu muss die Dokumentation der Lessons Learned in bestehende Arbeitsabläufe eingebunden
werden - z.B. durch die Einbindung in die abschließende Phase von Projekten. Für die
Dokumentation ist es notwendig, Vorgaben hinsichtlich der Struktur zu machen, d.h. welche
Aspekte der Lessons Learned sollen im Einzelnen niedergelegt werden. Damit soll eine beliebige
(und damit später wertlose) Speicherung der gemachten Erfahrungen verhindert werden.
Beispiel: Es wurden die Aufzeichnung der Lösungen beim Umgang mit Kopiergeräten in der
Firma Xerox mit einer Datenbank realisiert und jede Lösung anhand der drei Punkte
Problembeschreibung, Ursache und Lösung des Problems beschrieben.
Vorteil: Positiv bei Lessons Learned ist, dass damit Wissen für die Organisation bewahrt werden
kann; es bleibt auch dann bestehen, wenn Mitarbeiter, die dieses Wissen erworben haben, die
Organisation verlassen. Lessons Learned erlauben die breitere Nutzung von Wissen und helfen,
Mehrarbeit zu verhindern und die Einarbeitungszeiten neuer Mitarbeiter zu verkürzen. Damit
dienen Lessons Learned hauptsächlich der Nutzung von Wissen, tragen aber auch zur
Identifikation und Bewahrung von Wissen bei. Nimmt man die bereits gemachten Erfah rungen
als Grundlage für die Entwicklung neuer Lösungsansätze, so unterstützen sie auch die Schaffung
neuen Wissens. Ein möglicher Nebeneffekt ist die Entwicklung einer fehler toleranten Kultur in
der Organisation.

48
Mitarbeiter müssen Fehler dokumentieren dürfen, ohne negative Sanktionen fürchten zu müssen.
Die Dokumentation von Lessons Learned an sich bietet jedoch noch keine Garantie für deren
Nutzung. Deshalb bildet neben der Bereitschaft der Mitarbeiter, ihre Erfahrungen zu doku-
mentieren, die Bereitschaft, das Wissen anderer Mitarbeiter zu nutzen, die Voraussetzung für den
Erfolg von Lessons Learned. 2/3 der Unternehmen haben Lessons Learned im Einsatz.
Beispiel: TUI fördert die Kommunikation zwischen Entscheidungsträgern durch Newschannel,
FAQ, Diskussionsforen, Kommentierungen

3.2.2 Best Practice Sharing


Ein Best Practice ist eine für eine bestimmte Problemstellung erarbeitete Lösung, welche die dafür
bestmögliche Lösung darstellt. Bestmöglich bzw. Good (hinreichend) bedeutet, dass diese Lösung
mit anderen innerhalb oder außerhalb der Organisation verglichen und als die beste bzw. gute im
Sinne von Effektivität bzw. Effizienz erkannt wurde. Ziel ist es, bestehende Handlungsabläufe
durch Good bzw. Best Practices zu ersetzen.
Durch Best Practice Sharing wird die gezielte Suche nach bestmöglichen Lösungen in einer
Organisation unterstützt und damit Wissen der Organisation allgemein zugänglich gemacht. Der
offensichtliche Nutzen von Best Practices liegt in der Möglichkeit, auf erprobte gute bzw. beste
Vorgehensweisen zurückgreifen zu können und damit zeitaufwändige Neuent wicklungen zu
vermeiden.
Begrenzt wird der Einsatz von Best Practices durch eine eingeschränkte Übertragbar keit auf
andere Einsatzbereiche.

Beispiel: E-Learning Prozess an der FH Osnabrück als Best Practice übernommen

3.2.3 Story Telling/Learning History


Story Telling ist eine Methode, mit welcher Wissen in die Form von Geschichten gebracht wird.
Geschichten eignen sich vor allem für die Weitergabe komplexer Sachverhalte, da sie auf Grund
ihrer Form das zu vermittelnde Wissen in einen Kontext einbetten. Zudem ist vielfach belegt, dass
man bestimmte Dinge besonders gut durch Geschichten lernen kann. Story Tellin g ist eine
Vorgehensweise zur Schaffung und Verbreitung von Geschichten von und über eine Organisation,
so genannte Erfahrungsgeschichten oder learning histories. Das Ziel ist dabei, organisationale
Lernprozesse anzustoßen.
Für die Erstellung einer Erfahrungsgeschichte wird ein Team (mit Mitgliedern der Organisation,
eventuell unter Beteiligung von Externen) gebildet.
Dieses plant zunächst grob den Umfang der Geschichte und einigt sich auf Ereignisse, die im
Mittelpunkt der Geschichte stehen sollen, d.h. den Kern dessen, was vermittelt werden soll.
Zu diesen Ereignissen werden in einem zweiten Schritt direkt wie indirekt Betroffene in
Interviews befragt.
Aus diesen Interviews werden dann die entscheidenden Aussagen herausgegriffen, zu kurzen
Geschichten formuliert und schließlich zu einer kompletten Erfahrungsgeschichte
zusammengefasst. Die Erfahrungsgeschichte wird den Betroffenen abschließend zur Prüfung
vorgelegt. In anschließend zu organisierenden Workshops soll die Geschichte diskutiert und somit
ihre Inhalte verbreitet und gelernt werden. Die Erfahrungsgeschichte ist damit nicht
abgeschlossen, sie kann nach und nach weiterentwickelt werden.
Der Storytelling-Prozess im Wissensmanagement beinhaltet also folgende sechs Phasen:
1. Planungsphase
2. Interviewphase
3. Extrahierungsphase
4. Schreibphase
5. Validierungsphase
6. Verbreitungsphase
Story Telling kann im Rahmen des Wissensmanagements vielfältig eingesetzt werden: zur
Weitergabe von Lessons Learned oder Best Practices, zur Veränderung der Unternehmens kultur
(Leitbilder für die Unternehmenskultur werden in eine Geschichte gefasst), zur Ver breitung von

49
Erfolgsgeschichten der Geschäftsleitung wie z.B. ein wichtiger Vertragsab schluss oder die
Ankündigung bevorstehender Ereignisse in der Organisation. [Thier 2017]
Das Storytelling in Unternehmen behandelt Themen wir Hierarchie, Statusunterschiede, Sicherheit am
Arbeitsplatz, aber auch die vorhandene Fehlerkultur. (Thier, 2017: 10) Des Weiteren werden
Transformationen eines Unternehmens mit Hilfe der Storytelling-Methode kommuniziert. Hierunter
sind z.B. strukturelle organisatorische Veränderungen, wie Zusammenschlüsse, zu verstehen.
Inspirationsgeschichten sind geeignet, um MitarbeiterInnen durch den Erfolg eines durchgeführten
Projektes zu motivieren und zum Handeln anzuregen. Darüber hinaus existieren Gründungsgeschichten,
welche die Normen und Werte des Unternehmens darstellen. Die Anwendung von Storytelling ist auch
im Marketingbereich einsetzbar, indem beispielsweise Unternehmensporträts aus Kundensicht
veröffentlicht werden. (Thier, 2017: 11ff.)
Die Wirkungsweise von Geschichten ist wissenschaftlich nachgewiesen und hat ergeben, dass
das menschliche Gehirn Informationen, die in Form von Geschichten vermittelt werden, 22 Mal
besser aufnimmt, als aufgelistete Daten und Fakten.
Beispiel: Roman „Das Ziel“ unterweist in der Steuerung einer Fabrik oder der Roman „Der
Termin“ unterweist in Projektmanagment; jeweils in Romanfor m.

3.2.4 Wissenskommunikation mit Chatbots


Die Art und Weise, wie wir kommunizieren, das "Klima", in dem wir kommunizieren, und welche
Kommunikationsformen akzeptiert werden, beeinflusst stark, ob und wie erfolgreich Wissen vermittelt
und entwickelt werden kann. Dafür förderliche Kontexte wie Besprechung, Dialog oder Dialogprojekt
vermögen die Kommunikation in Organisationen qualitativ zu verbreitern und zu vertiefen.
Immer mehr bedient man sich bei der Wissenskommunikation der Chatbots.
Chatbots, die Kurzform von „chat robot“ oder auch Chatterbots, sind textbasierte Dialogsysteme mit
Ein- und Ausgabemasken, die im Rahmen der Mensch-Maschine-Kommunikation mit Usern in den
Dialog treten.

3.2.4.1 Geschichtliche Entwicklung von Chatbots


1966 – Eliza
ELIZA simulierte einen routinierten Psychotherapeuten der Rogerschule und wurde 1966 von Josef
Weizenbaum vom Massachusetts Institute of Technology veröffentlicht (Esser, 1996). Dies war die
erste Software, welche eine Kommunikation zwischen Menschen und Maschine ermöglichte. Eliza
gelang es, zumindest zu dieser Zeit, den Turing-Test zu bestehen. Durch das Umformulieren von
Aussagen in Fragen wurden die Patienten motiviert das Gespräch weiterzuführen. So gelang es Eliza
ihre User ohne aktives Eingreifen stundenlang in Gespräche zu verwickeln. Die Eingaben der Nutzer
wurden mit Hilfe von Pattern-Matching analysiert, umformuliert und die daraus resultierende Antwort
ausgegeben.
1995 – A.L.I.C.E
1995 wurde A.L.I.C.E (Artificial Linguistic Internet Computer Entity) erstmals im Internet
veröffentlicht. Hauptakteuer in diesem Projekt war Dr. Richard Wallace. Zu dieser Zeit galt A.L.I.C.E
als sehr fortschrittlicher Chatbot, konnte jedoch den Turing Test nie bestehen.
2006 – IBM’s Watson
Watson ist eine fast perfekten „Frage – Antwort Maschine“. Watson versteht die natürliche
menschliche Sprache, analysiert ihren Kontext und gibt passende Fragen zu den gestellten Antworten
in natürlicher Sprache wieder.
2010 – Siri
Siri (engl. Abkürzung für: Speech Interpretation and Recognition Interface) (Rauch, 2016) ist ein
sprachgesteuerter Assistent der Firma Apple, der erstmals 2011 im iPhone 4S präsentiert wurde. Diese
Software hat die Fähigkeit natürlich gesprochene Sprache zu verarbeiten und dient somit als
persönlicher Assistent, der dem Nutzer das Leben erleichtern soll. Siri beherrscht eine große Menge an
Funktionen. „Wecker stellen“, „Routen planen“ oder „Wettervorhersagen“ sind nur eine kleine
Auswahl von Möglichkeiten, die Siri ihren Usern bietet.

50
2012 – Google Now
2012 wurde von dem US - Amerikanischen Unternehmen Google Inc. die Erweiterung der
hauseigenen App Google Search vorgestellt. Das Konkurrenzprodukt zu Apple’s Siri und Samsung’s
S Voice wurde jedoch im Februar 2017 aus den App Stores genommen.
2016 Google Allo
Allo ist ein Instant-Messaging-Dienst von Google. Er enthält einen virtuellen Assistenten und kommt
mit einer „schlauen Antwort“ Funktion, die automatische Vorschläge für eine Antwort gibt. Der Dienst
wurde bei der Google I/O am 18. Mai 2016 vorgestellt und ist seit dem 21. September 2016 verfügbar.
Die App gibt es für Android und iOS. Allo benutzt die Telefonnummer zur Registrierung und
Identifizierung der Nutzer. Allo's "schlaue Antwort" Funktion benutzt Google's "Maschinelles Lernen"
System, um dem Nutzer passende Antwortsmöglichkeiten vorzuschlagen. Auch gesendete Fotos werden
analysiert, um Antworten vorzuschlagen. Wie auch schon in Google's Inbox Applikation, lernt die App
vom Nutzerverhalten, um die Interessen kennenzulernen und Vorschläge für weitere Nachrichten zu
bringen. Allo unterstützt außerdem Google Assistant, einen virtuellen Unterhaltungsassistenten. Bevor
ein Bild verschickt wird, kann der Nutzer eine Zeichnung auf dem Bild anfertigen.

2015 – Alexa von Amazon


Im Juni 2015 erschien Amazon Echo Dot auf dem Markt. Dieser lernfähige Sprachassistent in Gestalt
eines Lautsprechers kann mit Hilfe der Stimme des Nutzers gesteuert werden. Alexa bietet ihren Usern
zahlreiche nützliche Dienste an. Sie beantwortet Fragen, liefert Nachrichten und ist vor allem für
Smart Home entwickelt worden.
2016 – Bots for Messenger von Facebook
Im April 2016 veröffentlichte Facebook eine Messenger Plattform, die es Programmierern
ermöglichte, Chatbots zu entwickeln, mit denen man über den Facebook Messenger interagieren kann.
Bereits im Juni standen über 11000 Chatbots zur Verfügung.
2015 Cortana von Microsoft
Cortana ist ein Alternativprodukt zu Siri und Google Now. Die von Microsoft entwickelte
Sprachassistentin lässt sich mittels natürlicher Sprache steuern. Mit zahlreichen Diensten soll sie das
Leben der User erleichtern.
2016 – Tay
Tay ist ein selbstlernendes Chatprogramm mit weiblichem Avatar, welches 2016 auf Twitter
veröffentlicht wurde. Ziel von Microsoft war es, dass Tay mit Hilfe künstlicher Intelligenz lernt wie
18 bis 24-Jährige heutzutage kommunizieren. Tay wurde mit Fragen und Texten trainiert. Nur wenige
Stunden später musste der Chatbot von Microsoft vom Netz genommen, da Tay begann rassistische
Aussagen zu treffen.

Eine Sammlung von Chatbots gibt es unter www.chatbots.org

Abbildung 3/2: Zeitleiste bedeutender Chatbots (TME AG, 2018)

51
3.2.4.2 Charakteristika von Chatbots
Als die entscheidenden Qualitätskriterien eine Chatbots lassen sich in erster Linie folgende Punkte
festhalten, welche im Anschluss näher erläutert werden:
• das Einsatzfeld des Bots muss vorab eindeutig definiert werden
• die Ladezeiten sollten moderat sein
• effiziente und fehlerfreie Patternmatching- und Suchalgorithmen
• die Wissensbasis sollte mindestens so umfangreich wie nötig und so umfassend wie möglich sein
• eine gewisse Qualität der Regeln in der Wissenbasis sollte vorhanden sein (Muster und
Antworten)
• die Wissenbasis sollte vor allem aus Wartungsgründen benutzerfreundlich organisiert sein
• das Bot sollte stets freundlich und keinesfalls beleidigend sein
• Folgeerkennungen, Merken des Gesprächskontextes und Eigenschaften des Users (z.B. Name
oder Wohnort) sind Features, die einem modernen Chatbot nicht fehlen sollten
• der Bot sollte abwechslungsreiche Antworten bringen, Standardsätze wie z.B. “Ich habe Ihre
Eingabe leider nicht verstanden” sollten möglichst vermieden werden
• aktive Gesprächslenkung des Bots ist wünschenswert
• Lernfähigkeit

3.2.4.3 Leistungstests der Big Four (Weber 2017)


Nun sollen die Marktführer Alexa, Google Assistent, Siri und Cortana miteinander verglichen werden.
Um herauszufinden, welcher Sprachassistent die meiste Intelligenz aufweist, stellte der Avatar den
Testkandidaten diverse Fragen in den Kategorien Kommerz, Klassisch, Wissen, Untypisch,
Verständnis und Allgemein. Um ein möglichst präzises Ergebnis zu erzielen, fanden die Tests mit
Fragen in unterschiedlichen Schwierigkeitsstufen statt.
Die Kategorien wurden je nach Funktion für den User unterteilt. In der Kategorie „Wissen“ wurde mit
typischen Fragen wie: „Wie viele Einwohner hat Deggendorf?“ oder „Wie heißt die Hauptstadt von
Deutschland?“ das reine Lexikon-Wissen getestet. Unter „Allgemein“ wollte der Avatar herausfinden
welche klassischen Empfehlungen die Sprachassistenten geben können. Mit Fragen wie: „Wie wird
das Wetter heute?“ und „Wie ist die Temperatur heute Abend?“ wurde dies getestet. In der Kategorie
„Klassisch“ testete der Avatar die Fähigkeit zur Hilfestellung im Alltag. Klassische Fragen sind zum
einen: „Wie wird das Wetter heute?“ und zum anderen: „Welche Termine habe ich heute?“ oder auch
„Stelle mir den Wecker!“.
In der Kategorie „Kommerz“ wird getestet inwiefern sich der Sprachassistent als zuverlässiger
Shoppingassistent eignet. Die Königsdisziplin stellt wohl die Kategorie „Untypisch“ dar, die die
Ausreifung der künstlichen Intelligenz genauer betrachtet. Hier werden dem Sprachassistenten Fragen
gestellt wie: „Kannst du mir ein Fahrrad empfehlen?“ oder „Welche Samstage sind im Kalender noch
frei?“.
Nach zahlreichen Testfragen kam der Avatar, wie aus der Grafik von Abbildung 3/3 ersichtlich, zu
folgendem Ergebnis. Alexa, die Sprachassistentin von Amazon, erlangte die höchste
Durchschnittspunktzahl aller Kategorien und erreichte somit den 1. Platz. Google Now (Google) und
Siri (Apple), die fast die gleiche Punktzahl erzielten, belegten Platz 2 und 3. Cortana von Microsoft,
lag mit deutlichem Abstand dahinter auf Platz 4 und bildete somit das Schlusslicht aller
Testkandidaten.
Alexa punktete vor allem in den Kategorien „Kommerz“ und „Allgemein“ und überzeugte mit ihrem
umfassenden Wissen und der Alltagstauglichkeit. Google Now ist das Wissenswunder unter den
Sprachassistenten und erzielte von allen Testkandidaten die beste Punktzahl. Siri, die fast gleichauf
mit Google Now liegt, hat in allen Kategorien mittelmäßig abgeschnitten. Das Schlusslicht Cortana
übertraf ihre Mitkonkurrenten in der Kategorie „untypisch“ und stellte somit ihre Intelligenz unter
Beweis.
Wenn man nach all diesen Tests, den Sprachassistenten menschliche Eigenschaften zuweisen möchte,
könnte man diese wie folgt beschreiben. Alexa, die zuverlässige Helferin im Alltag mit empathisch,
klugen und einkaufsfreudigen Charakterzügen. Google Now ist der Wissensexperte, der versiert und
präzise auf den Großteil der gestellten Fragen antwortet. Siri, der Allrounder unter den

52
Sprachassistenten ist sehr vielseitig und punktet mit ihrer humorvollen Art und Weise. Cortana
hingegen ist sehr schüchtern, aber dennoch sehr intelligent.

Abb. 3/3: Testergebnis Chatbots

Abbildung 3/4: Vergleich der Marktführer (Brandt, 2018)

53
Alexa’s gutes Testergebnis kann man dadurch begründen, dass sie eine enorm hohe Anzahl an
Applikationen aufweist. Amazon ermöglich sogenannten Drittanbietern, diese Skills zu entwickeln,
wodurch Alexa von Zeit zu Zeit intelligenter wird und ihr praktisches Wissen ausbauen kann
(Grollmann, 2017). Wie weit jedoch Alexa ihrer Konkurrenz enteilen kann, bleibt die Frage. Die feste
Bindung an den Echo Lautsprecher und das Fehlen auf mobilen Endgeräten könnte ihren rasanten
Aufstieg abbremsen.
In Abb. 3./4 sieht man den Vergleich der Marktführer 2018.

3.2.4.4 AIML (Artificial Intelligence Markup Language)


AIML (Artificial Intelligence Markup Language) ist eine XML-basierte Sprache, welche von Dr.
Richard Wallace und der Alicebot Free Software Community zwischen 1995 und 2000 speziell für
Chatbots entwickelt wurde. Mittels AIML ist es möglich, relativ einfach und schnell anspruchsvolle
Wissensbasen für Chatbots zu entwickeln. Die Sprache zeichnet sich im Wesentlichen durch folgende
Aspekte aus:
• leichte Erlernbarkeit, da XML als Grundlage dient
• die Wissensbasis wird in Textdateien gehalten, es ist also kein Datenbanksystem erforderlich
• Aufteilung der Wissensbasis in mehrere AIML-Dokumente, z.B. nach Themengebieten,
möglich
• Austausch bestehender bzw. Integration neuer AIML-Dokumente sehr leicht realisierbar
• Möglichkeit zum Aufbau komplexer Dialogstrukturen

Da die Sprache auf XML basiert, müssen die für XML geltenden Regeln auch hier eingehalten werden.
AIML-Dokumente müssen also grundsätzlich wohlgeformt sein. Folglich sind z.B. geöffnete Elemente
(im Gegensatz zu HTML) immer zu schliessen! Dies gilt auch für die sogenannten „atomic-Tags”, dies
sind Elemente, die keinen Inhalt haben und von daher bereits im Öffnungs-Tag wieder geschlossen
werden können wie z.B. <person/>. Weiterhin müssen die Elemente auch immer korrekt verschachtelt
werden.
Die genaue Spezifikation zur Syntax von XML (und davon abgeleiteten Sprachen) kann unter der
folgenden Adresse eingesehen werden: http://www.w3.org/XML/
Dies sind die vier grundlegenden AIML-Elemente:
<aiml>: kennzeichnet den Beginn und das Ende eines AIML-Dokuments
<category>: kennzeichnet eine sog. Wissenseinheit innerhalb des Dokuments
<pattern>: beinhaltet das Suchmuster innerhalb einer Kategorie
<template>: beinhaltet die Antwort zu dem zugehörigen Pattern
Beim folgenden Beispiel handelt es sich um ein minimales, aber bereits vollständiges und korrektes
AIML-Dokument:
<?xml version="1.0" encoding="ISO-8859-1"?>
<aiml>
<category>
<pattern>*</pattern>
<template>Sorry, ich hab erst eine Antwort!</template>
</category>
</aiml>

Generell gilt, dass alle Element-Namen in Kleinbuchstaben geschrieben werden müssen!


Die komplette Beschreibung findet sich in der virtuellen Lernumgebung unter „Sonstiges“.

54
Beispiel der Programmierung aus Mathematik I –Logik
<category>
<pattern>NEGATION</pattern>
<template>Eine <set name="topic">Negation</set> "Nicht A" ist eine Aussage, die durch
Verneinen der Aussage "A" entsteht.
Die Negation "Nicht A" ist genau dann wahr, wenn "A" falsch ist und genau dann falsch, wenn
"A" wahr ist.</template>
</category>
<category>
<pattern>WAS _ NEGATION</pattern>
<template><srai>NEGATION</srai></template>
</category>
<category>
<pattern>WAS _ NEGATION *</pattern>
<template><srai>NEGATION</srai></template>
</category>
<category>
<pattern>WIE _ NEGATION</pattern>
<template><srai>NEGATION</srai></template>
</category>
<category>
<pattern>WIE _ NEGATION *</pattern>
<template><srai>NEGATION</srai></template>
</category>
category>
<pattern>* NEGATION</pattern>
<template><srai>NEGATION</srai></template>
</category>
<category>
<pattern>* NEGATION *</pattern>
<template><srai>NEGATION</srai></template>
</category>
<category>
<pattern>NEGATIONBEISPIEL</pattern>
<template>"Ich bin nicht schoen" ist beispielweise die Negation (oder das Negat) von "Ich bin
schoen".
Aber Achtung: "Ich bin haeßlich" ist z.B. keine Negation von "Ich bin schoen"!</template>
</category>
<category>
<pattern>_ BEISPIEL _ NEGATION</pattern>
<template><srai>NEGATIONBEISPIEL</srai></template>
Usw.
Wieder alle Varianten angeben

In der Praxis sollte man für jedes Schlüsselmuster vier Kategorien definieren, da es an beliebiger
Position im Satz stehen kann:
Alleinstehende Phrase (Muster), Phrase am Satzanfang (Muster *), Phrase am Satzende (_ Muster)
und Phrase in der Satzmitte (_ Muster *).

Im Template-Bereich der Kategorien kann man den im Muster durch Wildcard erfassten Teil einer
Phrase mit <star/> oder <underscore/> übernehmen. So lässt sich der mit „Ich heiße....“ eingegebene
Name nutzen, um den Gesprächspartner später direkt anzusprechen. Dazu legt man ihn mit dem Set-
Tag in einer Variablen ab. Die Ausgabe der Variablen erfolgt mit dem Get-Tag..
Die Variablen that und Topic verleihen dem Bot eine Art Kurzzeitgedächtnis. Sie steuern den
Gesprächsverlauf.
That erlaubt das Verknüpfen mit Folgekategorien und Topic gruppiert zusammenhängende
Kategorien.
Interpretationssystem (Pattern Matching-System)
Programm-O (Version : 2.6.4, von Elizabeth Perreau and Dave Morton) https://github.com/Program-
O/Program-O
Program O is an AIML interpretor written in PHP, and uses a MySQL database to store chatbot
information, including the AIML files used to formulate the chatbot's responses.

55
3.2.4.5 Beispiele
Dialogbeispiel in Mathematik I
Hier gibt es eine vordefinierte Wissensbasis von Christian Drossmann mit 3000 deutschen
Gesprächsmustern – genug um eine einfache Plaudertasche zu kreieren. Dazu kommt eine umfangreiche
Mathematik I-Wissensbasis, die die Aussagen des Skriptes von Prof. Popp zu Analysis, Lineare Algebra
und Finanzmathematik abdeckt.
Im Folgenden ein Auszug aus einem Dialog:
Bot: Hallo Herzlich Wikommmen! Du kannst dich mit mir unterhalten, indem du das Eingabefeld
nutzt!
Student: Kannst du mir sagen, was eine Implikation ist?
Bot: Bei der Implikation....
Student: Hast du auch ein Beispiel dazu parat?
Bot: Nehmen wir z.B.....
Student: Was ist dann aber eigentlich der Unterschied zwischen Implikation und Äquivalenz?
Bot: Der Unterschied....
Student: Ok, danke!
Bot: Kein Thema.:)
Student: Tschüss!
Bot: Bis später.

Alita von Amadeus hört Kundengespräche am Counter mit und sucht selbständig passende Angebote
heraus, während der Reiseverkäufer sich auf das Kundengespräch konzentriert. Alita analysiert sogar
Tonalität und Emotionen und ordnet so Kunden bestimmten Rendendentypen z.
Tatsächlich live ist Alexa für CheckMyTrip-Kunden Diese virtuelle Assistentin kann sich jeder im
Skill Store von Amazon runterladen und sie beantwortet dann Fragen auf Basis der CheckMyTrip-
Daten (Fragen rund um den nächsten Flug (in D und E)).
Ich kann Alexa fagen, wann der Flug geht, zu welchem Gate ich muss und wo ich parken kann. Ich
kann nach Übergepäcktarif fragen oder lasse gleich einen extra Koffer buchen.
BMW bringt gerade ALEXA an Bord. In USA steht Alexxa in ersten Hotelzimmern und regeln auf
Zuruf Licht, Klimaanlage oder TV.
So installieren sie Alexa mit CheckMyTrip:
1. Suchen sie in Alexa Skll Store unter Skills nach CheckMytrip
2. Klicken sie auf Aktivieren
3. Verknüpfen sie ihr CheckMytrip-Konto oder legen sie ein neues Konto an
4. Öffnen sie den Skill mit “Alexa, öffnr CheckMyTrip”.

3.2.4.6 Werkzeuge, auch um Chatbots intelligent zu machen


Bei dem zahlreichen Anbieter, die bei der Entwicklung von text- als auch sprachbasierten Chatbots
behilflich sind, sind zwei unterschiedliche Formen zu unterscheiden: das Software Framework und das
Komplettsystem (oder Komplettservice).
Framework
Ein Framework ist eine Plattform, auf der ein Code mit generischer Funktionalität noch weiter
spezialisiert oder überschrieben werden kann und so dem Verwendungszweck angepasst wird. Das
geschieht durch den Nutzer oder Entwickler eigenhändig. Dies bedeutet, dass die Entwicklung eines
Chatbot nicht grundlegend beginnen muss, sondern dass eine Programmierumgebung bereits eine
allgemeine Grundfunktionalität sichert. Um diese dann zu personalisieren, sprich den Chatbot für seinen
jeweiligen Use Case zu spezialisieren, muss er mit mehr Daten gefüttert werden und es werden Frage-
und Antwortpaare ergänzt. Dabei ist es nicht zwingend erforderlich eine Programmiersprache zu
beherrschen, denn einige Plattformen bieten die Möglichkeit an, die Fragen und Antworten in
natürlicher Sprache einzugeben und das Bot lernt diese automatisiert mit. Plattformen unterscheiden
sich zum einen in den Integrationsmöglichkeiten. Manche Bots lassen sich nur auf den gängigen
Messenger Plattformen wie Facebook Messenger, Slack oder Twitter anbinden, während andere nur auf
56
der eigenen Website laufen. Zum anderen ist natürlich der Preis eine Unterscheidungsmöglichkeit. Viele
Anbieter stellen die Software zwar völlig kostenfrei zur Verfügung, dafür aber mit bestimmten
Einschränkungen der Funktion oder mit festem Marken Branding. Andere erheben eine monatliche
Grundgebühr und wieder andere benutzen ein „pay-as-you-go“-Verfahren, bei dem die
Nachrichtenanzahl pro Monat in Rechnung gestellt wird. Bekannte Beispiele für solche Frameworks ist
aws von Amazon, das Microsoft Bot Framework, Dialogflow von Google, Pandorabots oder Chatfuel.
In diesem Zusammenhang ist es interessant den Begriff „Plattform as a Service“ oder kurz PaaS zu
erklären. Das Kürzel PaaS beschreibt einen außenstehenden Anbieter, der Software Komponenten, die
normalerweise für die Anwendungsentwicklung benötigt werden, online zur Verfügung stellt. Der PaaS
Provider hostet alles auf seiner eigenen Infrastruktur und erspart dem Nutzer so die Installierung eigener
in-house Soft- oder Hardware. Außerdem stellt der Provider meist schon fertige Datensets zur
Verfügung, so dass sich der Nutzer ganz auf die Anpassung konzentrieren kann und sich keine Gedanken
über Hosting, Infrastruktur oder andere IT-Services machen muss (Rouse, 2017)
Komplettsystem
Im Gegensatz zu den Plattformen, bei denen der User selbst aktiv den Chatbot entwickelt und
zusammenbaut, gibt es auch eine Full Service Version. Dabei kooperiert der Auftraggeber mit einem
Anbieter, der nach genauen Vorgaben einen Chatbot entwickelt und das fertige Produkt auch noch auf
den jeweiligen Kanälen anbietet. Diese Dienstleistung ist so gut wie in allen Fällen kostenpflichtig, dafür
spart sich der Auftraggeber aber einen Großteil der Entwicklungskosten. In diesem Fall ist man im
„Software as a Service“ Bereich oder kurz auch SaaS genannt. Dabei übernimmt der Anbieter die
komplette Anwendungsentwicklung via Cloud-Computing und das fertige Produkt, wie hier zum
Beispiel ein Chatbot, kann beim Kunden eingepflegt werden.

Ein Frameworkanbieter zum Selberbauen ist Pandorabot, www.pandorabots.com.


Zunächst lässt man sich registrieren mit E-Mail und Passwort. Dann klickt man auf „Create a
Pandorabot“. Dann gibt man dem Bot einen Namen, wählt „Full“.
So gibt es hier das Advanced Alter Response unter dem Menüpunkt Train. Dort gibt man die Phrasen
in vordefinierten Feldern ein; der Dienst erzeugt daraus die Wissensbasis in AIML-Format.
Man kann gleich einen Testdialog führen, um herauszufinden, ob das Bot das Vokabular korrekt
verwendet.
Die virtuellen Plauderer agieren auf der Website von Pandorabots und werden auf der Website ihres
Masters verlinkt. Ihr Erscheinungsbild lässt sich unter dem Menüpunkt Custom HTML den eigenen
Bedürfnissen anpassen.

Drei aktuelle Frameworks sind von Amazon, von Google und von Microsoft.
1. Aws powered by Amazon
Aws ist die Abkürzung für Amazon Web Services und stellt einen Geschäftsbereich von Amazon.com
dar, der unzählige Cloud-Computing-Anwendungen anbietet. Unter dem Reiter Machine Learning ist
der Service Amazon Lex zu finden. „Amazon Lex ist ein Dienst zur Erstellung von
Konversationsschnittstellen und bietet Technologien für eine automatische Spracherkennung und ein
natürliches Sprachverständnis“ (Amazon Web Services, 2020). Zusammenfassend wird hier die
Technologie, die Amazons Sprachassistenten Alexa zugrunde liegt, zugänglich gemacht. Dabei ist es
dem Nutzer möglich eigenständig in der Lex-Konsole in natürlicher Sprache ein Bot zu programmieren
und bestimmte Intents mit beispielhaften Äußerungen zu befüllen. Dieser kann sowohl Text- als auch
Spracheingaben verarbeiten. In dieser Lex-Konsole ist es ebenfalls möglich das Bot zu testen, zu
überwachen und verpasste Äußerungen (Eingaben, die das Bot nicht verstanden hat) einzupflegen. Dann
kann er an andere Datenquellen angebunden werden und auf der gewünschten Plattform live geschaltet
werden. Es ist möglich den Service erst kostenlos zu testen, so sind keine Investitionen vorab nötig. Im
ersten Jahr sind 10 000 Textanforderungen und 5 000 Sprachanforderungen kostenlos, danach entstehen
Kosten von 0,004$ pro Sprachanfrage und 0,00075$ pro Textanfrage, das heißt es wird nur die benötigte
Rechenleistung in Rechnung gestellt (Amazon Web Services, 2020). Des Weiteren besteht die
Möglichkeit weitere Produkte von Amazon zu nutzen, um das Bot mit noch mehr Fähigkeiten
auszustatten. Zum Beispiel wird das Text-to-Speech Feature mit Amazon Polly freigeschaltet und eine
realistische Sprachausgabe wird möglich. Aktuell unterstützt Amazon Lex nur Englisch (US). Je mehr

57
Beispiele er erhält, umso besser kann er die Intents der Anfragen zuordnen und umso intelligenter wird
er.
2. Dialogflow powered by Google
Das Google SDK – Software Development Kit – ist ähnlich wie bei Amazon eingebettet in viele
verschiedene Anwendungen und Ressourcen. Google Dialogflow wirbt mit herausragenden NLP
Fähigkeiten, einer riesigen Google Cloud Plattform sowie 400 Millionen Google Assistent Geräten, die
bereits weltweit im Umlauf sind (Dialogflow, 2020). Die Konfiguration des Bots erfolgt in einer
Webanwendung, die auch für User ohne technischen Hintergrund leicht zu verstehen und zu benutzen
ist und keine Programmierkenntnisse voraussetzt. Prebuilt Agents sind für bestimmte Anwendungen
und Sprachen verfügbar und downloadbar bzw. zu Dialogflow hinzufügbar. Die bereitgestellten Agents
haben bereits umgesetzte Funktionen wie z.B. Tischreservierungen im Restaurant, Abruf von
Fluginformationen, Hotelbuchungen, Online Shopping, Small Talk oder auch Support in Firmen und
das, abhängig vom Agenten, in bis zu 21 Sprachen (Dialogflow, 2020). Auch hier erfolgt die
Kostenermittlung über das pay-as-you-go-Verfahren. In der kostenlosen Version gibt es bezüglich der
Datenbank-Anbindungen oder Audio Recognition Limitierungen. In den kostenpflichtigen Versionen
wird dies aufgehoben, dafür wird zum Beispiel eine Gebühr ab 0,002$ für Textanfrage oder 0,0065$ pro
15 s Audio Recognition fällig (Dialogflow, 2020). Dank der Möglichkeit bereits vorhandene Beispiele
zu verwenden, verringert sich der Eigenaufwand. Zusätzlich ist es möglich, die verschiedenen Kanäle,
auf denen das Bot zu finden sein soll, mit nur einem Klick zu integrieren. Die Knowledge Base
Connectors unterstützen aktuell nur Englisch (US).
Microsoft Azure Bot Service
Der Azure Bot Service ist ein Produkt von Microsoft und ist ein Teil der vielen Cloud-Computing
Anwendung des Software-Riesen. Der Service steht als Open-Source SDK zur Verfügung und lässt sich
mit Hilfe der Cognitive Services und Business Logic zum intelligenten Assistenten aufbereiten. Um den
Bot zu entwickeln, stehen SDKs bereit, die die Programmiersprachen C#, Typescript oder JavaScript
unterstützen. Hier ist es jedoch nicht möglich in natürlicher Sprache die Gesprächsregeln zu formulieren.
Es kann nur mittels der oben genannten Programmiersprachen geskriptet werden. Daher ist dieses
Framework für Einsteiger nicht geeignet. Der Azure Bot Service gliedert sich in viele verschiedene
Services und der Entwickler selbst wählt aus, welches zusätzliche Feature oder welche Funktionalität
das Bot noch bekommen soll. Als Entwickler hat man die Auswahl ob der Bot als Web Application auf
Azure laufen soll oder ob man den Bot lokal auf eigenen Servern hosten möchte. Der QnA Maker ist
eine Konsole, die automatisiert FAQ-Paare von strukturierten Dokumenten extrahieren kann. Hier wird
keine Programmierung benötigt. Außerdem können einfache Multi-Turn Conversations modelliert
werden. Der QnA Maker kann später dann als Knowledge Base für den Azure Bot Service dienen. LUIS
ist die Abkürzung für Language Understanding Intelligent Service und ist für die Spracherkennung und
–verarbeitung zuständig. Zu beachten ist, dass jeder zusätzliche Service auch zusätzliche Kosten
verursacht. Eine gültige Kreditkarte muss hinterlegt werden und sobald die freien Kontingente
verbraucht sind, wird die Mehrnutzung in Rechnung gestellt. Daher ist es relativ schwierig eine
Abschätzung der Kosten zu treffen, da man zu Beginn eines Projekts nicht final festlegen kann, welche
Services benötigt werden. In der Tabelle 3 werden die Kosten für einige der gängigsten Services
dargestellt, die in Verbindung mit dem Bot Service genutzt werden.
Der Azure Bot Service ist kostenlos für beliebig viele Anfragen auf Standard Channel und 10000
Anfragen pro Monat auf Premium Channels; Das Paket Standard erlaubt beliebig viele Anfragen auf
Standard Channel und €0,422 pro 1000 Anfragen auf Premium Channels.

Bots, die selbst lernen sind


http://www.cleverbot.com/
http://www.jabberwacky.com/

Synonyme berücksichtigen
Begriffe und Fragen, die des Bots erlernen soll, müssen vom Anwender zusammen mit dem passenden
Text in die AIML-Tabelle eingetragen werden. Jedes einzelne Synonym eines Begriffes musste bisher
eingepflegt werden (z.B., dass Mitteilung synonym zu Information ist).
Ober- unter Begriffe berücksichtigen
Bisher erkennt der Chatbot keinen Zusammenhang zwischen Ober- und Unterbegriffen. Ziel ist es, den
Chatbot so zu verändern, dass er eine Beziehung von einem Begriff sowohl zu dessen Unterbegriffe, als
58
auch zu dessen Oberbegriffen herstellen kann (z.B., dass Fachinformation Unterbegriff von Information
ist).
• User: „Was ist eine Mitteilung?“
• Chatbot: „Informationen sind kontextbezogen und besitzen außerdem immer einen Sender
(Quelle) und Empfänger. Der Mensch ist dabei im Mittelpunkt.“

• User: „Was ist Fachinformation?“


• Chatbot: „Ich kenne den Begriff Fachinformation nicht, aber Information: „.Informationen
kontextbezogen und besitzen außerdem immer einen Sender (Quelle) und Empfänger. Der
Mensch ist dabei im Mittelpunkt.“

Ausblick
In der Zeit der Chatbots läuft ein Kaufprozess nun anders ab. Anstatt mühsam die richtige Website zu
finden und dort die Shops aufzurufen, kann der Kunde zum Beispiel über einen Messenger mit einem
Chatbot kommunizieren. Der Chatbot personifiziert im Grunde genommen einen Kundenberater, der
in Echtzeit eine Auswahl an Produkten vorschlägt und nach weiteren gewünschten Details frägt. Je
öfter ein Bot von einem User genutzt wird, desto mehr lernt das Bot über dessen individuellen
Geschmack.
Bots können langes Verweilen in Warteschlangen vermeiden, denn sie sind in der Lage eine große
Anzahl an Kunden gleichzeitig zu beraten. Ein Bot ist also deutlich effizienter und schneller als eine
Schar von Support-Mitarbeitern.
Allein Gedanke, dass man mit Unternehmen genauso kommuniziert wie mit Freunden, und das
Bestreben den Messenger stetig weiterzuentwickeln, lässt die Annahme zu, dass bald jedes
Unternehmen einen eigenen Chatbot besitzen wird.
In Zukunft wird man nicht merken, ob ein Bot oder Mensch mit dem Kunden kommuniziert. Probleme
lösen, Informationen bereitstellen, Beratung, Kaufmotivation, Markenrepräsentation und
Produktvorstellung sind alles Aufgaben, die ein Chatbot in Zukunft perfekt beherrschen wird.
Als abschließendes Fazit ist zu sagen, dass die Thematik Chatbot nicht mehr aufzuhalten ist. Chatbots
sind eine Maschinerie, die die jetzige Welt vor allem im E-Commerce Bereich komplett verändern
werden.

Literatur:
Frank Boguschewski: Selbstredende Homepage – Pandorabots: Wenn Software antwortet. C´t 2005
Heft 12, S. 214-217.
Möbus Claus, Jessen Claudia: Web-Kommunikation mit OpenSource: Chatbots, Virtuelle Messen,
Rich-Media-Content, Berlin:Springer,2005, 320 S
Siegfried Weber: Chatbots – Die intelligente Art der Kommunikation in E-Learning. Bachelorarbeit TH
Deggendorf 2017
TME AG. (10.07.2018). Whitepaper "Chatbots - wie künstliche Intelligenz den Kundenservice
verbessert". Zuletzt abgerufen am 10. 02. 2020 von https://tme-ag.de/whitepaper/chatbots-wie-
kuenstliche-intelligenz-den-kundenservice-verbessert/
Brandt, M. (25.04.2018). Statista. Zuletzt abgerufen am 10. 02. 2020 von Smart Assistants Are Getting
Smarter: https://www.statista.com/chart/9580/how-smart-are-smart-assistants/
Rouse, M. (2017a). TechTarget. Zuletzt abgerufen am 10. 02. 2020 von Platform as a Service (PaaS):
https://searchcloudcomputing.techtarget.com/definition/Platform-as-a-Service-PaaS
Amazon Web Services. (2020). Homepage. Zuletzt abgerufen am 10. 02. 2020 von
https://aws.amazon.com/de/lex/features/
Dialogflow by Google. (2019a). Overview. Zuletzt abgerufen am 10. 02. 2020 von
https://dialogflow.com/

59
3.3 Methoden zur Repräsentation von Wissen (Wissensvisualisierung)
Die Repräsentation des Wissens einer Organisation, also seine Dokumentation, und die Vi -
sualisierung der Wissensstrukturen ist eine Kernaufgabe des Wissensmanagements. Gleich zeitig
dient sie als Grundlage für Wissensmanagementprojekte und für die Konzeption und
Entwicklung von Wissensmanagementsystemen.
Relevante Objekte für die Wissensrepräsentation sind: Prozesse, Personen mit ihren Beziehungen
und Fähigkeiten, Wissensstrukturen und Softwaresysteme, die das Wissensmanagement
unterstützen sollen. Methodische Unterstützung bieten Wissenskarten für die Modellierung von
Personen und Wissensstrukturen, Ontologien zur Modellierung von Wissensstrukturen und die
Prozessmodellierung sowie Methapher. Diese Methoden werden im Folgenden noch näher
dargestellt.

3.3.1 Wissenskarten
Die Literatur unterscheidet nach dem Inhalt fünf verschiedene Arten von Wissenskarten: Wissens -
quellen, Wissensanlagen, Wissensstrukturen, Wissensanwendung und Wissensentwicklung
[Lehner 2012]. Die Analogie zu einer Landkarte trifft nicht für alle vorgestellten Wissenskarten
zu; vor allem bei Wissensanlagekarten spricht man besser von einem Verzeichnis.

Wissensquellenkarten (knowledge source maps) stellen die Experten einer Organisation anhand
einer Reihe selbst gewählter Kriterien graphisch der. Solche Kriterien können das Fachgebiet der
Experten, die Dauer ihrer Erfahrung in der Organisation, funktionale Bereiche der Organisation,
Verantwortungsbereiche oder von ihnen betreute Produkte sein.
Zum Beispiel stellt die Wissensquellenkarte der Abbildung 3/4 die Experten eines Unternehmens
anhand von Fachbereichen (Graphic Design, Animation, Database, Project Management und
Technicians) und den vom Unternehmen angebotenen Produkten, nämlich CD -ROMs,
multimedialen Standalone Terminals und Websites, dar.
Eine solche Wissenskarte kann z.B. Projektleitern bei der Suche nach Mitarbeitern für Kun -
denprojekte helfen. Außerdem werden Lücken in der Kompetenz des Unternehmens sichtbar -
während das Untemehmen die technischen Aspekte von Web-Development-Projekten personell
sehr gut abdecken kann, stehen im dargestellten Beispiel für die Animation oder für des
Projektmanagement nur je ein Experte im ganzen Unternehmen zur Verfügung.

Beispiel: Welches Wissen ist in welcher Abteilung im Unternehmen vorhanden

Diane Strong

Graphic Anne Weick


Animation
Design
Ina Roehl Steffi Sieger
Marion Pressl
Max Hitz Web
Eva
Karl Toner Stand-alone
Systems
CD-Rom
Stefan Werd
Databas
Martin Silk
Michael Uli Sigg
Ute Lemp Technicians
Uli
Maya Mark Ott

Project Josef Gorner


Managemen
t

60
Abb.3/4: Wissensquellenkarte [Lehner 2012]

Mit Wissensanlagekarten (knowledge asset maps) (Verzeichnisse) kann der Bestand an Wissen,
den Einzelne, Teams, Einheiten einer Organisation oder die Organisation als Ganzes hat, sichtbar
gemacht werden. Die Abbildung 3/5 zeigt den Bestand des Wissens einer Gruppe von Beratern.
Der Bestand an Wissen wird auf mehrfache Weise deutlich gemacht - zum einen durch die Größe
der Balken: ein schmaler Balken drückt Grundlagenwissen, ein breiter Balken Expertenwissen im
jeweiligen Bereich aus. Zum anderen verdeutlichen die hell hinterlegten Balken außerdem,
welche Person Training dafür anbieten kann. Diese Darstellung kann, sofern sie webbasiert
umgesetzt wurde, durch weitere Informationen angereichert werden. Mit einem Klick auf einen
der Berater können Kontaktinformationen, mit einem Klick auf einen Balken die durchgeführten
Projekte oder die besuchten Weiterbildungskurse eines Beraters angezeigt we rden.

IT Strategy Merge&Acquise Accounting Marketing


Consultants

Tinner, Jeff

Borer, André

Brenner, Carl

Deller, Max

Ehrler, Andi

Gross, Peter


Abbildung 3/5: Wissensanlagekarte [Lehner 2012]

Eine Wissensanlagekarte zeigt die Personen, die sich aufgrund ihrer Kenntnisse als wichtig für die
Organisation erweisen (in diesem Beispiel ist es Andi Ehrler, siehe Abb. 3/5). Die Karte kann Schwer-
punkte in der Kompetenz von Mitarbeitern anzeigen, aber auch Bereiche, wo diese einer Wei-
terbildung bedürfen. Mit einer Wissensanlagekarte können die Besetzung von Projekten und
geschäftliche Entscheidungen unterstützt werden (z.B. müsste für den Bereich Merge & Acquisitions
(M&A) das Personal ausgebildet oder aufgestockt bzw. die Beratung in diesem Bereich aufgrund der
geringen Kompetenz eingestellt werden).

61
Beispiel: Welche Mitarbeiter könnten Aufgabe XY bewältigen?

Projektwissen

Projektmanag Führungs- Wissen über


ementwissen kompetenz Technologien

Projekterfahr
ung

Projekt-
management-
handbuch
PM-Man.doc

Vorlage für
Projektdokume
ntation
Projdoc.dot

Abbildung 3/6: Wissensstrukturkarte [Lehner 2012]


So genannte Gelbe Seiten (Yellow Pages) sind eine oft anzutreffende, praktische Umsetzung von
Wissensquellenkarten und Wissensanlagekarten. Sie sollen den direkten Kontakt mit jenen
Personen ermöglichen, die über das benötigte Wissen verfügen. Ziel ist e s, das zu einem
bestimmten Aufgabengebiet vorhandene Wissen für alle Organisationsmitglieder ab rufbar zu
machen. Mitarbeiter mit einem besonderen Wissen sollen damit unabhängig von ih rer Position in
der Organisation erfasst werden. Natürlich soll damit auch ein Lern- und Austauschprozess in der
Organisation angeregt werden.
Wissensstrukturkarten (knowledge structure maps) bilden die Struktur eines Wissensgebietes
ab. Dabei wird das Wissensgebiet in logisch zusammengehörige Teile gegliedert, und die Teil e
werden in Beziehung zueinander gesetzt. Strukturkarten dienen vor allem der Darstellung von
Fähigkeiten, die für eine bestimmte Aufgabe, die Erstellung eines bestimmten Produkts oder die
Durchführung von Prozessen von Bedeutung sind.
Beispiel: Projektmanagement wird Wissen generell zur Gestaltung und Durchführung von
Projekten benötigt, ebenso wie die Fähigkeit, Mitarbeiter führen zu können, und Kenntnisse über
einsetzbare Technologien. Diese Kategorien lassen sich weiter unterteilen, und es wird
offensichtlich, dass zu diesen sowohl implizites Wissen (Elipse) in Form von Erfahrungen mit
Projekten gehört als auch dokumentiertes bzw. dokumentierbares Wissen (Rechteck) in Form von
Handbüchern oder anderen Vorlagen. Abbildung 3/4 zeigt ein Beispiel mit einer Wissensstruktur
für das Projektmanagement.

Wissensanwendungskarten (knowledge application maps) sind die zurzeit am häufigsten


eingesetzten Wissenskarten. Wissensanwendungskarten ordnen Geschäftsvorfällen oder
einzelnen Prozessschritten das relevante Wissen zu.

Abbildung 3/7 zeigt die Wissensanwendungskarte eines in der Marktforschung tätigen Unternehmens.
Den vier Prozessschritten (im Zentrum der Abbildung) sind in zwei Kreisringen die Softwarewerkzeuge

62
und Methoden zugewiesen, die eben diese Prozessschritte unterstützen. Probst et al. berichten von einer
praktischen Umsetzung von Wissensanwendungskarten als so genannte Kompetenzkarten.
Beispiel: Deutsche Post. Die Karten weisen den Weg zum situationsbedingt relevanten Wissen

Abb.3/7: Wissensanwendungskarte [Lehner 2012]

Jour Fixe Online Panel


Metaplan
Added Value Trendbarometer
Kundenkreuz
Trend-Workshop Collage-Technik
Problemspinne CAPI
Maßnahmenplan Offertenvorlage PowerView Tagebuch-Methode
Stakeholder
Analyse present/ get generate/acquir Stichproben-
Radiocontrol verfahren
Support
feedback
Programm Delphi-Methode

Inmarkt Data View


Team Manger Analyzer Statistische
administrate/ analyse/ Methoden
organize und Verfahren
condense Quantum
SPSS
TOOL
Visualisierungs-
QforYou techniken

METHOD

Abb. 3/8: Beispiel: Einarbeitung in die Abteilung Technik als Tabelle

Wissensentwicklungskarten (knowledge development maps) sind eine Visualisierung der


notwendigen Schritte, um einen bestimmten Stand an Wissen zu erreichen. Sie stellen
Lernpfade" für Einzelne, Gruppen oder organisatorische Einheiten graphisch dar. Bei dieser Art
von Wissenskarten wird die Analogie zu einer Landkarte am deutlichsten. Das Beispiel für
einen Lernpfad im Bereich des E-Commerce zeichnet tatsächlich einen Pfad mit Beginn und
Ende und dem aktuellen Standort (d.h. dem aktuellen Wissensstand) auf. Der Pfad selbst führt
an für E-Commerce wichtigen Kompetenzen vorbei, die wie in einer Landkarte bezeichnet sind
(z.B. die Java Woods, der E-Strategy Forest oder die Outsourcing Street). Das Beispiel ist
63
elektronisch umgesetzt und bietet durch Klicken auf die Kompetenzen einen vergrößerten
Kartenausschnitt, der weitere Angaben zum Erreichen oder Vertiefen der jewe iligen Kompetenz
enthält. Abb. 3/8 zeigt die Wissensentwicklung bei Einarbeitung in die Abteilung Technik.

3.3.2 Ontologien
Auf einer soziokulturellen Ebene erfordern Ontologien die gemeinsame Definition der Begriffe und
deren Zusammenhänge, sowie die verpflichtende Anwendung eines definierten Vokabulars durch die
Anwender im Rahmen der Wissensdomäne.

Definition der Ontologie


Für Ontologien existiert eine größere Anzahl von mehr oder weniger brauchbaren Definitionen. In
Anlehnung an John Sowa erscheint die folgende Definition nützlich: „In der Informatik ist eine
Ontologie eine formale Beschreibung des Wissens in einer Domäne in der Form von Konzepten der
Domäne, deren Beziehungen untereinander und der Eigenschaften dieser Konzepte und Beziehungen,
sowie der in der Domäne gültigen Axiome und Prinzipien ".

Diese Definition soll an einem nichttrivialen Beispiel dargestellt werden. Als erster Begriff in der
Definition muss die Domäne erklärt werden. Eine Domäne ist ein genau umrissener Ausschnitt aus
einer „Welt". Die Domäne wird aus dem Anwendungsgebiet bestimmt. In unserem Beispiel ist die
„Welt" die Menge aller Modelle aller Personenwagenhersteller. Als Domäne wählen wir ein
spezifisches Modell, nämlich den Aston Martin Virage (1988-1995).

Abb. 3/9: Virage Parts Manual: Ausschnitt Lenksäule [Frank 2014]

Die Konzepte (Objekte)in dieser Domäne sind sämtliche Bestandteile, aus welchen der Aston Martin
(AM) Virage zusammengebaut ist. Diese Domäne enthält nur materielle Konzepte, viele Domänen
enthalten aber auch immaterielle Konzepte (wie Ideen). Die Konzepte sind in diesem Falle sämtliche
Teile und Optionsteile aller je gebauten Virage Series 1 (1988 bis 1995). Jedes Konzept entspricht
einem mechanischen oder elektrischen Teil im Fahrzeug. Die Teile sind im Detail definiert und
spezifiziert, so z. B. alle Schrauben in DIN-Normen.

64
Abb. 3/10: Eigenschaften von Objekten und Beziehungen [Frank 2014]

Bemerkung: Aufgrund der Verständlichkeit wird an dieser Stelle auf die Unterscheidung von
»Konzept" (Schraube) und „Instanz“ (spezifisches Teil M6x16 #10 in Abb. 3/9) verzichtet. Sämtliche
Teile (Instanzen) sind in einer Liste enthalten, nämlich im Virage Parts Manual, siehe Ausschnitt
„Lenksäule" in Abb. 3/9. Hier muss angemerkt werden, dass die Modellierung von
Konzept/Subkonzept/Instanz und ihrer Beziehungen eine der großen Herausforderungen beim
Erstellen einer Ontologie ist.

Die nächste Information in einer Ontologie sind die Beziehungen zwischen den Konzepten. Im Beispiel
sind dies topologische Beziehungen zwischen den Teilen des Fahrzeuges, d. h. welches Teil ist wo und
wie montiert.
Die Beziehungen sind als "Explosionszeichnungen” im Virage Parts Manual in grafischer Form
dokumentiert. Die Explosionszeichnungen zeigen jedes Teil mit seiner genauen Lage und seiner
Einbauvorschrift. Wie die Konzepte haben auch die Beziehungen spezifische Eigenschaften, welche in
einer Tabelle, Beispiel sieht man in Abb. 3/8, gelistet sind.

Als letztes Element der Definition einer Ontologie fehlen noch die Axiome und die Prinzipien der
Domäne. Diese sind für die AM Virage Domäne: (a) Es dürfen ausschließlich nur AM-Teile verbaut
werden, (b) Nur AM-zertifizierte Mechaniker dürfen in der Domäne arbeiten, (c) Die von AM
vorgeschriebenen Wartungsintervalle sind strikt einzuhalten etc.

Der wichtige Schritt beim Übergang von der Informationsverarbeitung zur Wissensverarbeitung ist die
Einführung der formalen Semantik, d.h. der maschinenlesbaren Formulierung der Bedeutung der
Konzepte und ihrer Beziehungen. Dank einer vereinbarten formalen Semantik können kooperierende
Computer die Bedeutung von Konzepten und ihren Beziehungen erfassen und diese verarbeiten. Ein
Computer kann das Teil „Part Number 692088: Screw M6x16“ aus Abb. 3/10 mit all seinen
Eigenschaften erfassen. Dies erlaubt ihm z.B. Part Number 692088 aus der AM Virage-Ontologie mit
den Angeboten in einem Katalog (auch eine Ontologie) eines Schraubenlieferanten exakt zu
vergleichen, die Tauglichkeit zu entscheiden und ggf. eine automatische Bestellung auszulösen.

Wie kann man Ontologien verwenden?


65
Die beschriebene AM Virage-Ontologie enthält die gesamte statische, strukturelle Information über
die Fahrzeugfamilien Aston Martin Virage Series 1 (gebaut von 1988 bis 1995). Diese Ontologie
erlaubt prinzipiell den Bau und die Reparatur aller AM Virages. Sie ermöglicht auch eine
Lagerhaltung und Lagerbewirtschaftung der Ersatzteile. Dank dieser Ontologie verfügen Werkstätten
und Mechaniker über das gesamte Wissen über den Aufbau aller je gebauten Fahrzeuge der Aston
Martin Virage Series 1. Diese beispielhafte AM Virage Ontologie ist für geschulte Mechaniker
vollständig und einfach verständlich. Sie hat jedoch einen riesigen Nachteil, wenn man sie von der
Informatik aus betrachtet: Die Ontologie ist nicht maschinenlesbar und deswegen kann sie auch nicht
von Programmen benutzt werden!

Die nächste Forderung an eine Ontologie ist deshalb ihre Formalisierung, d.h. ihre Darstellung in einer
standardisierten, maschinenlesbaren und maschinenverarbeitbaren Form. Das Werkezeug dazu sind
Ontologiesprachen eingebettet in eine IT-Struktur für die Wissensverarbeitung.

Ontologiesprachen
Das abstrahierte Wissen der Domäne wird durch die Domäne Experten mittels eines Ontologie-Editors
und einer Ontologiesprache erfasst und damit entsteht die formale, maschinenlesbare Ontologie. Die
Ontologie kann von den verschiedenen Anwendungsprogrammen gelesen und verwendet werden. Das
wichtige Instrument hier ist die Ontologiesprache. Eine Ontologiesprache ist ein exakter Formalismus
zur maschinenlesbaren Repräsentation von Wissen und zeichnet sich durch eine eindeutige
Spezifikation von Syntax und Semantik aus. Das Fundament einer Ontologiesprache wird durch ein
Logiksystem gebildet. Das Logiksystem umfasst Variablen und Operatoren und ermöglicht die
Formulierung und den Beweis von Formeln und Sätzen. Ein einfaches und sehr bekanntes
Logiksystem ist die Boole'sche Logik: Hier sind die Variablen binär (haben die Werte ,,0" und ,,1"
oder "falsch" und "wahr"). Die Operatoren sind NEGATION, UND, ODER. Damit lassen sich
beliebig komplexe Gleichungssysteme aufbauen.

Die ersten Ontologiesprachen entstanden aus der Forschung über künstliche Intelligenz. Später wurden
sie durch die Anforderungen der Informatik weiterentwickelt und heute existiert eine Vielzahl von
Ontologiesprachen. Hier soll die "Web Ontology Language" OWL eingeführt werden (die
Buchstabenumstellung von WOL zu OWL ist gewollt und wurde von Tim Finin eingeführt, um diese
Ontologiesprache mit der Weisheit einer Eule zu assoziieren). OWL bildet die vereinheitlichende
Grundlage für das semantische Web und spezifiziert eine strikte Syntax (Form) und Semantik
(Bedeutung).

OWL hat zwei Ausprägungen, die sich durch ihre Ausdruckskraft unterscheiden: OWL Full und OWL
DL. OWL DL ist eine syntaktisch reduzierte Version von OWL Full, welche dank den
Einschränkungen entscheidbar ist. Entscheidbarkeit bedeutet, dass alle in OWL DL formulierten Sätze
maschinell geprüft und mit "wahr" oder "falsch" entschieden werden können. Dies ist ein derart
wichtiger Vorteil, dass meist OWL DL verwendet wird. Das logische Fundament von OWL DL ist die
Description Logic (DL). Ein Benutzer der Ontologie muss sich nicht um die Details der Description
Logic kümmern, die erlaubten Konstrukte sind direkt in der Ontologiesprache verfügbar und im
Ontologie-Editor eingebaut.
Beispiel OWL für Auto siehe Abb. 3/9 (Powertrain ist Antriebsstrang) oben und Beispiel eines
Individuums in RDF, die entweder durch Zugehörigkeit zu einer bestimmten Klasse oder durch ihre
Eigenschaften definiert werden siehe Abb. 3/9 unten.

66
Abb. 3/11: Beispielcode aus OWL (Auto) und RDF (Oper Tosca)

Struktur einer Ontologie


Die Struktur einer Ontologie wird mit folgenden Aussagen beschrieben:
• Es gibt Objekte/Konzepte in der Welt.
• Objekte haben Eigenschaften oder Attribute, welche Werte annehmen können.
• Objekte können Relationen untereinander eingehen.

• Eigenschaften und Relationen können sich verändern.


• Es gibt Ereignisse, die zu bestimmten Zeitpunkten eintreten
• Die Welt und ihre Objekte können ihren Status wechseln.
• Ereignisse können wiederum Ereignisse auslösen.

Aus dieser Auflistung geht hervor, dass Änderungen über die Zeit hinweg (letzten vier Spiegelstriche)
den Ontologien zwar zugesprochen werden, in derzeitigen Systemen zumeist jedoch nicht in Form
eines übergeordneten Workflow-Managements integriert sind, sondern händisch nachzuzeichnen sind.

Anforderungen an Ontologien
Eine der wichtigsten Anforderungen einer Ontologie ist es, eine einheitliche Definition von Begriffen
zu geben. Meist beschränkt sich der Entwicklungsprozess auf ein einzelnes Anwendungsgebiet, für
welches eine gemeinsame Ontologie zur Bereinigung semantischer Konflikte aufgebaut wird.
Semantische Konflikt können zum Beispiel Homonyme und Synonyme, aber auch inhaltlich-
strukturelle Probleme oder uneindeutige Wertebereiche und Masseinheiten umfassen.
Dazu muss eine Ontologie klar, eindeutig und kohärent sein, und darüber hinaus auch Schnittstellen
zur Sprache anderer Wissensdomänen berücksichtigen. Und schließlich besteht die Forderung, dass
die Ontologie für eine abgeschlossene Domäne vollständig sein soll, d.h. sie muss alle für das
Verständnis notwendigen Konzepte enthalten.
Unter Klarheit versteht man die Eindeutigkeit definierter Begriffe, aber auch das Definieren der
notwendigen und hinreichenden Bedingungen. Die Eindeutigkeit gewährleistet, dass jeder Begriff nur
eine Deutung zulässt bzw. nur eine Bedeutung besitzt.
Eine Ontologie sollte in sich konsistent sein (Kohärenz), d.h. es sollten nur Schlussfolgerungen
möglich sein, die mit den vorhandenen Definitionen übereinstimmen.
Und weiter sollte es möglich sein, neue Begriffe für einen speziellen Gebrauch zu definieren, ohne
bestehende Definitionen anpassen zu müssen. Letztlich sollten die Konzepte und Beziehungen auf
einer Methode neutralen, von der Kodierung unabhängigen Ebene spezifiziert werden, damit sie in
mehreren Systemen einsetzbar sind.

67
Abb. 3/10 zeigt ein einfaches Beispiel einer Ontologie. Die Konzepte (Fahrzeug, Wasser, Luft) sind
durch die verschiedenen Relationen (Zuordnung zu Oberbegriffen, Synonymen, und dem Raum, wo
sich ein Fahrzeug fortbewegen kann) miteinander verbunden.

Anwendungsbeispiele für Ontologien


In den letzten Jahren sind eine Anzahl von wertvollen Ontologien geschaffen worden. Aus
Platzgründen werden diese hier nicht beschrieben, sondern nur Ausgewählte:

Wasser
„für“

Schiff Motorrad
„ist ein“ „ist ein“ „für“ „synonym

Vehikel „synonym Fahrzeug Land Kfz


“ „ist ein“ „für“ „synonym
„ist ein“ “

Auto
„synonym

Luft „für“ Flugzeug Wagen

Abb. 3/12: Beispiel für eine Ontologie

• Finanzontologien.
In der Finanzwirtschaft (Banken, Versicherungen, Börsenplätze, ...) hat die Automatisierung
früh begonnen und ist weit fortgeschritten. Damit Transaktionen zwischen Partnern
vollautomatisch, fehlerarm und schnell durchgeführt werden können, ist eine fehlerfreie
Verständigung notwendig. Diese beruht heute weitgehend auf Finanzontologien. Ein typisches
Anwendungsgebiet ist der Hochfrequenzhandel mit Finanzinstrumenten, bei dem
ausschließliche Computer mit ihren spezialisierten Algorithmen die Partner bilden.
• Unternehmensontologie.
Um ein Unternehmen flexibel und agil zu gestalten, muss seine Struktur genau bekannt sein.
Dies ist die Aufgabe der Unternehmensarchitektur, welche heute als wichtiges
Unterstützungsinstrument eine Unternehmensontologie verwendet. Die
Unternehmensontologie bildet ein Modell des Unternehmens und formalisiert das Wissen über
dessen Struktur, Prozesse, Produkte etc.
• Juristische Ontologien.
Die Gesetze und Verordnungen definieren Konzepte z. B. Straftatbestände, Prozessordnungen
etc. Anwälte und Richter müssen diese Konzepte klar verstehen und präsent haben. Bei
internationalem Recht kommt erschwerend hinzu, dass verschiedene Jurisdiktionen
unterschiedliche Auslegungen haben. Es wurde daher schon früh versucht, das juristische
Wissen zu formalisieren, und daraus sind mehrere Juristische Ontologien und Anwendungen
entstanden.
• Medizinische Ontologien.
Die Medizin verfügt heute über einen riesigen Schatz von wissenschaftlichem und
empirischem Wissen über Krankheiten, Symptome, Behandlung, Wirkstoffe, Nebenwirkungen
etc. Arbeiten zur formalen Erfassung dieses Wissens haben vor Jahrzehnten begonnen, und
68
seit einigen Jahren werden hierzu auch Ontologien eingesetzt. Medizinische Ontologien
ermöglichen den Bau von medizinischen Expertensystemen, welche den Arzt interaktiv bei
Symptomerkennung, Diagnose, Therapien und Beurteilung des Krankheitsverlaufes
unterstützen.
• Geninformationsontologien.
In der heutigen Gentechnikforschung geht viel Zeit verloren, weil die Terminologie sehr
vielfältig und uneinheitlich ist. Forscher finden Information nicht oder duplizieren
Forschungsarbeiten. Diese Geninformationsontologie ist eine kollaborative Arbeit und
versucht, weltweit die Terminologie in diesem Gebiet zu standardisieren.

Bau von Ontologien mit Wikidata oder Protege oder OntoStudio


In Wikidata (https://www.wikidata.org) werden Ontologien über Eigenschaften (properties) abgebildet.
Wikidata ist eine freie Wissensdatenbank, an der ca. 1 Mio. registrierte Benutzer mitarbeiten. Ziel des
Projekts ist es, eine „freie Datenbank zu schaffen, die von Menschen wie auch von Maschinen
gelesen und bearbeitet werden kann“. Ziel ist die Datenzentralisierung der verschiedenen
Wikipedien und Wikimedia Projekte. Wikidata enthält derzeit 15,2 Millionen Objekte (Stand Mai 2015).
Die Datenbank steht auch als Download zur Verfügung,
https://www.wikidata.org/wiki/Wikidata:Database_download/de.
Die Software, auf der das Projekt Wikidata basiert, heißt Wikibase und ist eine Erweiterung des
MediaWiki. Das Programm wird von der Wikimedia Foundation entwickelt.
Beispiel aus Wikidata: Objekt „Technische Hochschule Deggendorf“ enthält die Aussage „ist ein(e)
Technische Hochschule“. Das Objekt „Technische Hochschule“ wiederum ist eine Unterklasse von
„Hochschule“. Das Objekt Hochschule wiederum eine Unterklasse von „Bildungsinstitution“. Über
diese Verknüpfungen lassen sich Ontologien bilden.

Protégé ist ein Editor zur Modellierung von Ontologien, der am Institut für Medizinische
Informatik an der Stanford University in Kalifornien konzipiert wurde und der mittlerweile als
Open Source-Anwendung zur Verfügung steht (http://protege.stanford.edu/). Mit Protégé
können Wissensdatenbanken angelegt, mit Informationen gefüllt und Wissen daraus abgefragt
werden. Die Entwicklungs- und Laufzeitumgebung ist in Java programmiert und damit
plattformunabhängig. Protégé verzeichnet gut 300.000 registrierte Nutzer (Stand: Mai 2016).
Die Wissensmodellierung erfolgt mit Protégé-OWL. Es gibt hier noch logische Mechanismen,
durch die implizites Wissen aus der modellierten Datenstruktur – auch übergreifend aus
mehreren Ontologien – inferiert werden kann.

OntoStudio der Firma Semafora


OntoStudio ist die am weitesten verbreitete kommerzielle Modellierungsumgebung zum Aufbau und
zur Pflege von Ontologien. Es zeichnet sich durch umfassende Funktionen zur intuitiven Ontologie-
Modellierung und durch eine Vielzahl an Importmöglichkeiten gängiger Strukturen, Schemas und
Modelle aus. Zu den wichtigsten Funktionen gehören unter anderem das Mapping-Tool, mit dem schnell
und intuitiv heterogene Strukturen aufeinander abgebildet werden können, der graphische Regel-Editor,
mit dem auch Fachanwender komplexe Abhängigkeiten modellieren können oder die integrierte
Testumgebung, mit der die Modellierung jederzeit qualitätsgesichert werden kann. Erstellte Anfragen
können als Webservice exportiert und in beliebige Anwendungen integriert werden.

3.3.3 Prozessmodellierung
Wissen ist in die zahlreichen Prozesse einer Organisation eingebettet. Das kann z. B. das Wissen
über einen Produktionsprozess sein (d. h. wie wird ein bestimmter Input zu einem bestimmten
Output transformiert). Unabhängig davon, ob dieses Wissen bekannt oder verborgen ist, leitet die
aus der Vergangenheit stammende Prägung mit Wissen die aktuellen Abläufe und Ent -
scheidungen. Genauso wie Geschäftsprozesse durch Modellierungsmethoden sichtbar und da mit
gestaltbar gemacht werden können, sollen solche Wissensprozesse als wichtiger Bestandteil des
Wissens einer Organisation modelliert und gestaltet werden. Es sollten aber keine neuen

69
Prozessmodelle neben bestehende gestellt werden, vielmehr sollen Geschäftsprozesse gemeinsam
mit den sie begleitenden und steuernden Wissensprozessen in Modellen erfasst werden.

Marketing- Eigene
strategie Produkte Lessons Learned aus
Akquisition

Kunden- und Akquisitions- Dokumentiertes Wissen Dokumentiertes Wissen


Marktstruktur erfahrung zu ausgewähltem zu ausgewähltem
Kunden Kunden

Wünsche Wissen über


von Kunden ausgewählten
Kunden
Produktdaten

Auftrag erhalten

Zeitpunkt Kunden Kunde Akquisitions Akquisitions- Akquisitions-


für Akquise auswählen ausgewählt -gespräch gespräch gespräch
durchführen dokumentieren dokumentiert

Keinen Auftrag
erhalten

Kundendaten Auftragsdaten
Abb. 3/12: Geschäftsprozess als EPK mit Elementen der Wissensverarbeitung [Lehner 2012]

Mit dem prozessorientierten Wissensmanagement richtet sich der Fokus auf die wissensintensiven
Prozesse der Organisation und die sie unterstützenden Wissensprozesse und
Wissensmanagementprozess. Mittlerweile existieren viele Ansätzen, um Wissen gemeinsam mit
den Geschäftsprozessen der Organisation zu modellieren. Sie haben , auch Eingang in Software-
Werkzeuge zur Modellierung gefunden: z.B. das modellbasierte Wissensmanagement mit ARIS,
die Knowledge Modeling und Description Language (KMDL).
Die Darstellung von Prozessen erfolgt z.B. mit Hilfe ereignisgesteuerter Prozessketten (E PK),
welche die Funktionen innerhalb eines Prozesses, Ereignisse, Rollen bzw. Personen etc. dar stellt.
Für die Modellierung von Aspekten des Wissensmanagements werden EPKs um Ele mente für
Wissenskategorien (z.B. ovale Denkblase) und dokumentiertes Wissen (z.B. rechteckige
Denkblase) erweitert.
Abbildung 3/12 zeigt ein Beispiel, in dem auch das notwendige Wissen visualisiert wird. In Abb.
3/12 greift ein Mitarbeiter bei der Akquise eines Kunden auf implizites Wissen wie seine
Kenntnisse zur Marktstruktur zurück, zum anderen auf dokumentiertes Wissen (z.B. lessons
learned).

Abb. 3/13: Visualisierung mit Metapher U-Bahnkarte

70
Kernaufgabe des geschäftsprozessorientierten
Wissensmanagements ist es, die Wissensflüsse zwischen den
wissensintensiven Aktivitäten möglichst optimal zu ermöglichen.
Als wissensintensive Aktivitäten gelten diejenigen
Prozessaktivitäten, die auf Kernkompetenzen basieren und dem
Bearbeiter ein hohes Maß an Gestaltungs- und
Entscheidungsspielräumen geben z. B. Risikoprüfung im Rahmen
der Kreditbearbeitung. Es ist allerdings keine trennscharfe
Abgrenzung zwischen wissensintensiven und nicht-
wissensintensiven Prozessen möglich. Vielmehr sind verschiedene
Merkmale von wissensorientierten Geschäftsprozessen zu
betrachten, um einen Ansatzpunkt für deren Analyse zu finden.

Grundsätzlich gibt es zwei Klassen von Merkmalen. Die Merkmale


der Innensicht beziehen sich auf die innere Struktur (z. B.
Prozesstyp, also Routineprozess oder nicht, Verhaltenseigenschaften
des Prozesses d. h. Steuerung in Sonderfällen) und den Ablauf des
Prozesses (z. B. Zahl der Teilaufgaben, Anzahl sowie Rollen der
Prozessbeteiligten). Dagegen beziehen sich die Merkmale der
Außensicht auf Informationen über den Prozess (z. B.
Aufbauorganisation, Kultur), seine Beziehungen zu anderen
Prozessen (z. B. Schnittstellen, Prozesshierarchie) und zur Umwelt
(z. B. Branche, Konkurrenten).

Weitere Beispiele für Merkmale von wissensintensiven Prozessen


sind in Abb. 3/14 dargestellt:
Als hilfreich hat sich die Zusammenstellung eines Merkmalskatalogs
individuell für das jeweilige Unternehmen bewährt. Damit können
die identifizierten Prozesse auf Wissensintensivität untersucht
werden und bilden den Ausgangspunkt für Verbesserung etwaiger
Schwachstellen bei wissensintensiven Aufgaben. Die analysierten
Prozessmerkmale sollten auch Einfluss auf die auszuwählende
Modellierungsmethode, deren Detaillierungsgrad und den Einsatz
von Werkzeugen haben.
Beispiel: Bewertung Prozessschritte bzgl. Wissensintensität in
einer Patentabteilung eines innovativen Unternehmens

Abb. 3/14: Einige Merkmale von wissensintensiven Prozessen

71
3.3.4 Visualisieren mit Metapher-Methode: U-Bahnkarte
Abb. 3/13 links zeigt, wie in einem Ausbildungszentrum für Gesundheitsberufe die
Einführung eines Qualitätsentwicklungsprojekts durch den Einsatz einer Karte unterstützt
wurde. Ca. 400 Betroffene mussten für die Mitarbeit am Projekt gewonnen werden. Ziel war
es, den unterschiedlichen Zielgruppen einen Überblick plus Details über das Projekt zu
vermitteln. Der Prozess wurde dazu mit der Metapher der U-Bahnkarte abgebildet (Abb. 3/12,
links), wobei die U-Bahnlinien Zielgruppen (z.B. Projektteams, Lernende, Kader)
repräsentieren und die Haltestellen die Meilensteine. Schnell wird klar, wer wann was und mit
wem macht. Die an belebten Orten (z.B. vor dem Lift) aufgehängten Poster in der Größe von
knapp drei Metern zeigen den relevanten Überblick plus Details, regen zum Entdecken und
Diskutieren an und fördern den

3.4 Wissenssituationsanalyse-Methode
Die nachfolgend vorgestellte Methode könnte die Situationsanalyse (wo die Organisation im
Umgang mit WM steht) unterstützen. Die Ergebnisse dieser Analyse bilden die Grundlage für die
Formulierung von Zielen für das Wissensmanagement.

Wissensmanagementprofil
Ziel eines Wissensmanagementprofils ist es, die in einer Organisation (oder einem Teil da von)
gebräuchliche Art und Weise des Umgangs mit Wissen zu bestimmen. Das Ergebnis wird in einem
Profildiagramm dargestellt (siehe Abbildung 3/15).
Dabei werden mehrere Kategorien für die Bestimmung der Art und Weise des Umgangs mit
Wissen vorgegeben und die ihnen zugeordneten Dimensionen in Gegensatzpaaren von Eigen -
schaften bewertet. Bei der Beschaffung von Wissen wird untersucht, ob Wissen eher in der
Organisation oder von außerhalb beschafft wird (Focus), und ob der Suchprozess (Search) dabei
gezielt oder eher zufällig abläuft. Bei der Problemlösung soll geprüft werden, ob diese
vornehmlich durch Einzelne oder im Team stattfindet (Location), ob dabei auf bereits be kannte
Vorgehensweisen (Heuristiken) zurückgegriffen wird oder nicht (Procedures), ob die Lösung
durch praktisches Probieren oder geistige Tätigkeit erarbeitet wird (Activity), und ob bei der
Lösung auf vorhandene Lösung aufgebaut wird, oder man neuartige Lösungen erarbei ten möchte
(Scope). Die Verteilung von Wissen (Dissemination) wird nach Art (informell oder formell) und
der Breite der Verteilung (Breadth) betrachtet. Mit dem Besitz (Ownership) soll gezeigt werden,
wie stark Mitarbeiter Wissen als Teil ihrer selbst ansehen (Identity) und wie Wissen unter den
Mitarbeitern verteilt ist (Resource; z.B. Spezialisten mit abgegrenzten Fachgebieten oder
Überschneidungen im Wissen der Mitarbeiter). Letztlich wird dargestellt, wie das Wissen in der
Organisation bewahrt wird (Representation) - als persönliches Wissen der Mitarbeiter oder explizit in
Dokumenten oder Datenbanken. Die fünf Kategorien können abhängig vom Einsatzzweck oder der Situation
natürlich abgewandelt oder erweitert werden. Mit einem Wissensmanagementprofil kann der Status quo
des Umgangs mit dem Wissen in einer Organisation dargestellt werden.
Wissensbeschaffung
hauptsächlich In der Organisation von außerhalb
Suche: zufällig gezielt
Problemlösen
Von wem? Durch Einzelne Team
Bekannte
Prozedere: Versuch und Irrtum
Vorgehensweisen
Praktisches
Aktivität Geistige Tätigkeit
Probieren
Auf vorhandene
Wie? Neuartige Lösungen
Lösungen aufbauen
Wissensverteilung
Art: informell formell

72
Breite: eng weit
Wissensbesitz
Wer hat es? Die Mitarbeiter Das Team
Wie ist Wissen
Spezialisten Generalisten
verteilt?
Storage/Memory
Wie wird Wissen
Implizit Explizit
in Org. Bewahrt ?
Abb. 3/15: Wissensmanagementprofil

3.5 Communities of Practice zur Wissenskommunikation


Communities of Practice (CoP) sind keine Erfindung aus neuerer Zeit, sondern beruhen auf der
grundlegenden Erkenntnis über die Vermittlung und Weitergabe von Wissen in sozialen Gruppen.
Allgemein betrachtet, können sich Communities of Practice überall dort bilden, wo Personen eng
zusammenarbeiten. Eine Community of Practice ist eine informelle Gruppe von Per sonen, die
sich freiwillig aufgrund eines gemeinsamen Interesses oder zur Erreichung eines
gemeinschaftlichen Ziels zusammengeschlossen haben, um sich durch Identifikation, Gene -
rierung und Austausch von Wissen sowie durch die damit verbundenen Aspekte des Lernens bei
der Lösung von Problemen gegenseitig zu unterstützen. Zu CoP schließen sich Personen aus
verschiedenen Organisationseinheiten und Standorten einer Organisation zusammen, die ein
gemeinsames Ziel, eine gemeinsame Tätigkeit oder ein gemeinsames Interesse an einem
Wissensgebiet verfolgen. Die Mitglieder einer solchen CoP können entweder die gleiche Arbeit
verrichten, an einer gemeinsamen Aufgabe zusammenarbeiten oder ein gemeinsames Produkt
entwickeln.
Die Unternehmensführung kann CoPs auf verschiedene Art und Weise aktiv unterstützen. Dazu zählen
sowohl die Hilfe bei der Suche potenzieller Mitglieder als auch die Anerkennung und Wertschätzung
der Community-Arbeit, eventuell sogar verbunden mit Anreiz- oder Belohnungssystemen. Wichtig ist
ferner, den Mitarbeitern Freiheitsgrade bei der Arbeitszeitgestaltung zuzugestehen, um ihnen die
Mitgliedschaft in einer CoP überhaupt zu ermöglichen. Da CoPs selbstorganisierend sind und von ihrer
Eigendynamik leben, ist es schwierig, wenn nicht sogar kontraproduktiv, sie auf traditionelle Art und
Weise zu führen und zu kontrollieren.

Zweck Mitglieder Zusammenhalt Dauer


CoP Entwicklung Durch Mitglieder Engagement, Solange Interesse
der Fähigkeiten gesteuerte Leidenschaft, an
der Mitglieder, Auswahl, wer Identifikation mit Aufrechterhaltung
Schaffung / Mitglied wird der Kenntnis der der Gruppe
Austausch von Gruppe besteht
Wissen
Formale Erbringung Alle Personen, Stellenbeschreibung, Bis zur nächsten
Arbeitsgruppe einer Leistung die dem generelle Ziele Reorganisation
oder eines Gruppenleiter
Produktes berichten
Projektgruppe Ausführen einer Ernennung der Meilensteine und Bis zur
vorgegebenen Mitglieder durch Ziele des Projekts Vollendung des
Aufgabe Management Projekts
bzw.
Projektleiter
Soziale Beratung / Freunde und Allgemeine, Solange die
Netzwerke Austausch von geschäftliche wechselseitige Mitglieder in dem
Lösungen bei Bekanntschaften Bedürfnisse Kontakt einen
konkreten Vorteil haben
Problemen

Abb. 3/16: Unterschied zwischen CoP zu anderen Formen von Gruppen [Lehner 2012]
73
Beispiel: Lerngruppen
CoP TUFIS (Infoanalysten Organisation)

3.6 Personalisierungsmethode - Benutzermodellierung


IT-Systemen ein gewisses Maß an Adaptivität einzuhauchen, d.h. dass sich Anwendungssysteme auf
den Benutzer einstellen, beherrscht schon lange die Forschung auf dem Gebiet der Künstlichen
Intelligenz. Es entstanden eigene Fachzeitschriften wie „User Modeling and User Adapted
Interaction“, in der Popp 1995 ein IT-System mit der Adaption elektronischer Verkäufer an die
Kunden vorgestellt hat (vgl. Popp et al., 1995). Dieses IT-System adaptierte sich in der Art an den
Benutzer, dass es während der Dialogsitzung implizit und explizit Wissen über den Benutzer/Kunden
sammelte, ihn mit diesem Wissen zu einem definierten Stereotypen (z.B. Rechtsanwalt, der
wechselnden Computereinsatz hat, siehe Abb. 3/17) zuwies, dem bestimmte
Produktvariantenempfehlungen zugeordnet waren. Auch nutzte das IT-System das Wissen aus, um bei
der Präsentation der Produktseiten in einer „guided Tour“ maßgeschneiderte Seitenfolgen zu
generieren. Als Anwendung diente ein elektronischer Verkäufer für die Computerprodukte von
Triumph-Adler in Fürth. Die Dimensionen des Benutzermodells waren Produktwissen, Domainwissen
und kognitiver Stil (siehe Abb. 3/18).

Abb.3/17: Erstes Benutzermodell im Verkauf für Triumph-Adler Computerprodukte [Popp1995]

Abb. 3/19 zeigt ein Präsentationssystem Keramik, bei dem durch ein Benutzermodell eine Individual
Guided Tour erzeugt wird, unterschiedlich für Schüler oder Techniker. So erhält die Schülerin zum
Thema Verbrennungsmotor die Informationen in der Reihe Medienobjekt, Bild1, Bild 2, Text1 und der
Techniker in der Reihenfolge Medienobjekt, Text2, Text3, Bild3.

3.6.1 Benutzermodell
Der Kernbaustein einer Adaption ist oft ein Benutzermodell, also die Dokumentation der
Benutzereigenschaften im IT-System. Google bietet viele kostenlose Services an. Alle haben das eine
Ziel: so viel Informationen über jeden Benutzer wie nur möglich zu sammeln und sie für jeden
Benutzer in einem Benutzermodell zusammen zu führen.
Die Systematik eines Benutzermodells drückt man am besten mit einem morphologischen Kasten,
bestehend aus den Merkmalen in der ersten Spalte und den verschiedenen Ausprägungen auf den
folgenden Spalten, aus, siehe Abb. 3/18.
Als Hauptanwendungsfelder der Benutzermodellierung/Personalisierung gelten:
• Marketing
• Schulung
• Beratung

74
Product Knowledge

Identical
Rebuy
Domain Knowledge
Modified
Rebuy Expert

Professional
New Purchase
Beginner

Cognitive Style
"fast "slowly
generalizing" specifying"

Individual Presentation
Abb. 3/18: Dimensionen dieses Benutzermodells für Verkaufssystem von Triumph-Adler

• Zuordnung von Menschen zu Aufgaben (z.B. in Workflow-Management-Systemen


anhand von Modellen der Rollen, Fähigkeiten und aktuellen Auslastungen von
Mitarbeitern)
• Bereitstellung von Informationen für Fach- und Führungskräfte

Schül
erin Verbrennungs- Verbrennungs- Tech
motor
M B1 B2 T1
motor
M T2 T3 B3
niker

Zündkerzen
Technisch Gleitringe in
e Keramik
Kraftstoffpumpen

M - Medienobjekte: Bild 1 - n, Text 1


- n, Videos 1 - n, ...
Abb. 3/19: Adaptivität in einem Präsentationssystem der Keramischen Industrie

Ein Beispiel der Benutzermodellanwendung ist die Homepage der Micro Compact smart GmbH, auf
der mit dem Tool NetMind ein Benutzermodel geführt wird, um Kundenfreundlichkeit zu verbessern
ohne die Privatsphäre zu beeinträchtigen. Der NetMind Tracker@Reporter sammelt auf der smart-
Homepage Daten über Nutzerverhalten und wertet sie aus.
75
Beim Aufbau entschied man sich drei Nutzertypen zu definieren und die Nutzer nach deren
Eigenschaften zu segmentieren. Die zugrundegelegten Nutzertypen sind:
o ökologisch Interessierte
o Technisch Interessierte
o Life Style Orientierte
Es wurden Messkriterien beim Verhalten auf der Homepage definiert, die für diesen oder jenen
Nutzertyp sprechen und es wurden die Informationsseiten der Homepage klassifiziert, für welchem
Nutzertyp sie geeignet sind. Das System beobachtet nun den Benutzer, versucht ihn in eine der drei
Benutzerklassen zu ordnen und bietet bei Links die für diesen Nutzertyp passendste
Informationsdarstellen der gelinkten Seite an. Die Homepage reagiert Dank des Benutzermodells
individuell auf Verhalten des Benutzers; die Site passt sich permanent an den Kunden an.
Weitere Beispiele: amazon.de mit seinem Empfehlungssystem, google.de

Merkmale Ausprägungen
Zweck Selektion Präsentation
Gegenstand Empfänger (Rollenträger, Bediener
Kunde, Gruppe)
Individualisierung Individuell Gruppierend/Stereotyp
Art der Informationen Weiche Informationen Harte Fakten
Veränderbarkeit Statisch Dynamisch
Einsichtigkeit Transparent Intransparent
Gültigkeit Langfristig Kurzfristig
Profilschärfe 0/1 Fuzzy(tendenz)
Gewinnung Implizit Explizit
Wissensakquisition Personell Lernend
Abb. 3/20: Morphologischer Kasten zur Benutzermodellierung [Mertens 2003]

Das Themenfeld Benutzermodellierung ist eng verwandt mit Personalisierung, das seit 2000 im
WWW einen regelrechten Boom erlebt. Viele Portale bieten den Service „My….“ an, d.h. die
Anpassung ihrer Oberfläche an individuelle Eigenschaften, Bedürfnisse und Kenntnisse von
Anwendern.

3.6.2 Adaptivität bei Lernanwendungen

Abb. 3/21: Ergebnisse des Eingangstestes für vhb-Kurs „Einstiegskurs Mathematik“

2002 gelang im selbst entwickelten Lernmanagementsystem der TH Deggendorf die erste


Kursrealisierung mit Adaptivität durch einen Eingangstest mit automatischer Kurskonfiguration. Jedes
der 27 Kapitel des Kurses „Grundlagen der Wirtschaftsinformatik“ war mit drei Fragen im

76
Einstiegstest vertreten, den das Programm automatisch auswertete und eine prozentuale Einschätzung
des vorhandenen Wissens in dem jeweiligen Kapitel entwickelte. Daraus generierte es eine
Empfehlung, welche Kapitel für den einzelnen Studierenden aufgrund des vorhandenen Basiswissens
überflüssig sind bzw. welche Kapitel aufgrund von Wissenslücken studiert werden sollten. Aus diesen
Ergebnissen konfiguriert das Programm dynamisch eine individuelle Kursoberfläche. 2012 gelang
dann mit einem speziellen Template die Adaptivität im LMS Moodle (siehe Abb. 3/22), auch
basierend auf einem Eingangstest (siehe Abb. 3/21).

Abb. 3/22: Auszug aus an den Kenntnisstand angepasst Kursoberfläche (Kap. 1.1 und 1.2 wurden zu
Genüge gewusst und werden nicht mehr angeboten)

Abb. 3/23. zeigt, dass Daten über Lernverhalten (ermittelt mit Learning Analytics) und Eingaben des
Lernenden zusammen mit Sensordaten (Kontextinformationen), gekoppelt mit den Bedürfnissen des
Lernenden und den Eigenschaften des Lernenden, einen adaptiven Mechanismus bilden das
Lernsystem an den Lernen anzupassen mit folgenden Stellschrauben: Lernressource, Rückmeldung,
Visualisierung, Interaktionssteuerung, Rolle, Gruppenformation, Zuweisung Lernpartner und
Lernaktivität.
Kontextdimensionen sind Lokation, Objekte der Umgebung, Personen der Umgebung
Umgebungszustand und Aktivität. Die Identität des Lerners gepaart mit den Kontextinformationen
bestimmen sein Lernverhalten und die Lernerbedürfnisse.

77
Abb. 3/23: Personalisierung und Kontextualisierung bei Lernarrangements [Rensing 2017]

3.7 Literatur und Kontrollfragen


Literatur
1. Ciolacu Monica and Rick Beer: „Adaptive user interface for Higher Education based
on web technology“– Research&Innovation Ind. 4.0., Oradea_SIITME_2016, 22^nd
IEEE International Symposium for Design and Technology
2. Cossart, Edgar (2017): Storytelling. Geschichten für das Marketing und die PR-Arbeit
entwickeln. 1. Aufl. München: Franz Vahlen.
3. Furer Frank, J.: Eine kurze Geschichte der Ontologie, 37-4-2014, Informatik Spektrum
2014, S. 308-317
4. Lehner Franz: Wissensmanagment, Hanser 2012, 4. Aufl., S. 183-227.
5. Mertens Peter, Thomas Zeller, Martin Stößlein: Benutzermodellierung und
Personalisierung in der Wirtschaftsinformatik – Ausstrahlung auf Controlling-
Anwendungssysteme, ZfCM I Sonderheft 2 (2003) S.24-29
6. Popp, H., Lödel, D. (1995). Fuzzy Techniques and User Modelling in Sales Assistants, in:
User Modeling and User Adapted Interaction, 5, S. 349-370.
7. Rensing Christoph: Adaptivität in mobilen Lernanwendungen: Potenziale, Grenzen und
Beispiele. Learntec 2017-03-07
8. Thier, Karin (2017): Storytelling. Eine Methode für das Change-, Marken-, Projekt- und
Wissensmanagement. 3., überarbeitete Auflage. Berlin, Heidelberg: Springer. Online
verfügbar unter http://dx.doi.org/10.1007/978-3-662-49206-2.

Kontrollfragen
1. Was wären WM-Methoden im Reifegrad 6 im Modell von Müller?
2. Nennen sie drei Methoden zur Förderung des Wissensaustausches und der –nutzung und
beschreiben sie eine näher!
3. Unterscheiden sie nach dem Inhalt die Wissenskarten und beschreiben sie eine Klasse näher!
4. Was sind Ontologien und wie werden sie im Wissensmanagement eingesetzt?
5. Entwickeln sie ein Beispiel einer Ontologie!
6. Entwerfen sie eine Ontologie für den Studiengang BWL.
7. Stellen sie sich vor, Ihre Organisation hat sich das Ziel gesetzt, die Transparenz des Wissens und
den Wissensaustausch zu erhöhen. Machen sie einen Vorschlag, wie man dieses Ziel erreichen
könnte und welche Methoden eingesetzt werden können.
8. Was sind die Kernaufgaben von Geschäftsprozessorientiertes Wissensmanagement? Nennen sie 5
Merkmale von wissensintensiven Prozessen!
9. Was wäre ein wissensintensiver Teilprozess für einen Studierenden (z.B. der BWL)? (warum?)
10. Skizzieren sie eine Wissenssituationsanalyse-Methode.
11. Beschreiben sie die Organisationsmethode der Communities of Practice!
12. Google baut ja von jedem Google-Tool Benutzer ein Benutzermodell. Versuchen sie anhand des
Morphologischen Kastens des Benutzermodells das von Google und Smart zu erklären!
13. Wie würden sie ein Benutzermodell in einem LMS wie ilearn einbauen? Was könnten ilearn mit
ihrem Benutzermodell anders machen als es jetzt agiert?
14. Skizzieren sie entlang des WM-Prozesses je eine WM-Methode höheren Reifegrades.
15. Was wären im WM-Reifegradmodell von Müller Reifegrad 6-Beispiele
16. Skizzieren Sie die geschichtliche Entwicklung von Chatbots.
17. Vergleichen sie die Chatbots der großen amerikanischen internetfirmen.
18. Was versteht man unter AIML?
19. Beschreiben Sie wie die Erstellung von Chatbots vereinfacht und die Qualität der
Antworten verbessert werden kann.
20. Skizzieren Sie wie der Einsatz von Chatbots den Kaufprozess verändert.
21. Frage: Wie kann man den Chatbot intelligenter machen?
78
4 Bewertungsmethoden von Wissen-(smanagement)

„Was man nicht messen kann, kann man auch nicht managen“. Daher ist das Bewerten notwendig,
um die Ressource Wissen zu planen. Der Bewertung von Wissen wird häufig nicht di e Bedeutung
beigemessen, die das Wissen mittlerweile in Organisationen hat.

4.1 Das Intellektuelle-Kapital-Modell

Abb. 4/1: Das Intellektuelle-Kapital-Modell

Intellektuelles Kapital ist eine Form immateriellen Reichtums, der das Potenzial bietet, noch mehr
Reichtum zu schaffen. Vernachlässigt man aber das ganzheitliche Management des Intellektuellen-
Kapitals wird Reichtum zerstört.
Man unterscheidet drei Arten immaterieller Vermögenswerte: die Kompetenz der Mitarbei ter
(Humankapital), die interne (unternehmerisches Kapital) und die externe Struktur (Kunden als
Kapital), siehe Abb. 4/1. Unter Kompetenz versteht man die Fähigkeiten der Mitarbeiter, so zu
handeln, dass materielle wie immaterielle Vermögenswerte geschaffen werden können. Sie
beinhaltet Ausbildung, Fähigkeiten, Erfahrungen, Werturteile und soziale Beziehungen, d.h. jene
Dinge, die den Mitarbeitern und nicht dem Unternehmen gehören. In der internen Struktur sind
Patente, Konzepte, Modelle, Informationssysteme zusammenfasst, also das, was dem
Unternehmen gehört. Die externe Struktur beinhaltet die Beziehungen zu Kunden und
Lieferanten, aber auch Markennamen, Warenzeichen und das Image des Unternehmens.

Beispiel: Schreiben sie die drei wichtigsten Quellen für jede der drei Arten des Intellektuellen-
Kapitals auf, die anderen an der TH Deggendorf spontan in den Sinn kommen.

Skizzieren Sie die aktuelle oder zukünftige Situation im Unternehmen/ Hochschule im Hinblick
darauf, WM auf eine strategische Ebene zu heben.
1. Die Führungskräfte reden über intellektuelles Vermögen (?), managen sie intellektuelles
Vermögen (?), verbreiten qualitative oder quantitative Informationen über intellektuelles
Vermögen (?)
2. Der Chef redet über intellektuelles Vermögen (?), managet sie intellektuelles Vermögen
(?), verbreitet qualitative oder quantitative Informationen über intellektuelles Vermögen
(?)
3. Sie reden über intellektuelles Vermögen (?), managen sie intellektuelles Vermögen (?),
verbreiten qualitative oder quantitative Informationen über intellektuelles Vermögen ( ?)
Wie sehen sie die Entwicklung kurzfristig und langfristig dazu.
Im Rahmen des Wissensmanagement können vier Objekte bewertet werden:
• Das Wissen (die Wissensbasis) selbst,
• Die Aktivität das Wissensmanagements,

79
• Wissensmanagementsprojekte und
• Wissensmanagementssysteme
Letztlich laufen sämtliche Bewertungen auf eine Kontrolle des Erfolgs des WM hinaus.
Ein einfacher Ansatz der Bewertung wäre Marktwert / Wiederbeschaffungskosten

In Abb 4/2 sieht man eine Sammlung monetärer und nicht-monetärer Größen, die der Bewertung
des intellektuellen Kapitals, der immateriellen Vermögenswerte dienen.
Maßstäbe für geistiges
stehen für…
Vermögen bei Humankapital

Prozentsatz der Beschäftigten mit Kapazität, intelligent zu denken


Hochschulabschluss oder
durchschnittliches Bildungsniveau
aller Beschäftigten

Wechsel (Ab- und Zugänge) von Stabilität des Wissensreservoirs


erfahrenem Personal

Durchschnittliche Berufserfahrung Tiefe des Wissensreservoirs


(Anzahl der Jahre im Unternehmen,
in diesem Beruf)

Prozentsatz der Einnahmen von Ausmaß, in dem Kunden die Beschäftigten und das
Kunden, die die Kompetenz Unternehmen zu Innovationen, dem Erwerb neuen
erweitern (Kunden, für deren Wissens
Zufriedenstellung die Beschäftigten oder einer Ausweitung bestehenden Wissens anregen
neue Fähigkeiten entwickeln
müssen)

Zufriedenheit der Beschäftigten Stärke der Beziehung zum Unternehmen,


(erfasst mithilfe einer Reihe von Engagement für
Fragen in einer Studie) die Weitergabe von Wissen

Durchschnittliche Ausbildungs- und Investitionen in den förmlichen Transfer expliziten


Schulungskosten pro Beschäftigten Wissens

Kennzahlen bei Beziehungskapital und internem Strukturkapital


Prozentsatz der Beschäftigten, die Ausmaß und Intensität der Beziehungen
den größten Teil ihrer Zeit im zu den Kunden
Kontakt mit Kunden verbringen

Prozentsatz der Wiederholungsgeschäfte Stabilität der Kundenbeziehungen

Prozentuale Veränderung der Einnahmen Intensität oder Ausmaß der Beziehungen je


pro Kunde nach strategischem Ziel

Prozentsatz der Kunden, mit denen Ausmaß des Wissensflusses und der
Kooperationen eingegangen wurden Wertschöpfung aufgrund von Beziehungen
zu Kunden

Kundenzufriedenheit Stabilität der Beziehung zum Kunden

Prozentsatz der Einnahmen, der in das Ausmaß, in dem explizite Formen des
WMS investiert wird intellektuellen Vermögens geschaffen,
gespeichert und genutzt werden

Durchschnittliche Zeit, bis auf Anfragen Fähigkeit, Wissen zu sammeln und zu nutzen
und Forderungen der Kunden reagiert
wird
80
Anteil der patentierten Produkte am Fähigkeit, neues Wissen zu schaffen und es
Umsatz für den Geschäftserfolg zu nutzen

Durchschnittlicher Beitrag jedes Erfolg beim Aufbau des Wissens


Beschäftigten zum Wissensreservoir
(zum Wissensbestand pro Jahr)

Grad der Nutzung des Wissens (des Potential, das Wissen zu nutzen
WMSs)
Abb. 4/2: Beispiele für Indikatoren

4.2 Wissenskapitalindex
Für die Erhebung eines Wissenskapitalindexes werden Humankapital und Strukturkapital in
Komponenten und diese wiederum in Kategorien unterteilt. Diesen Kategorien werden Indi-
katoren zugeordnet, sodass ein System von Indikatoren zur Bewertung des Wissenskapitals
entsteht. Beispielsweise werden im Humankapital die Komponenten Kompetenz, Bereitschaft
und Lernfähigkeit/Flexibilität unterschieden, beim Strukturkapital die Komponenten Beziehung,
Organisation und Innovation. Bereitschaft wiederum enthält die Kategorien Motivation,
Verhalten und Werte. Ein möglicher Indikator in diesen Kategorien ist die Anzahl Stunden, die
für die Weitergabe bestimmter Informationen innerhalb einer Projektgruppe notwendig sind.
Für die Entwicklung und Nutzung eines Indikatorensystems gibt es folgende Schritte:
• Festlegt einer Strategie für das Unternehmen
• Ableitung von kritischen Erfolgsfaktoren aus der Unternehmensstrategie
• Bestimmen von Indikatoren des Wissenskapitals für die kritischen Erfolgsfaktoren
• Konkretisierung der Indikatoren durch Einbeziehen der Mitarbeiter in die Entwicklung de
Indikatorensystems (dies kann zur Wiederholung der vorangegangenen Schritte füh ren)
• Einsatz und stetige Verbesserung des Indikatorensystems.

Da die Bestimmung des Beitrags zum Unternehmenserfolg nicht für jeden einzelnen Indikator
sinnvoll ist und der Vergleich des Wissenskapitals mit anderen Unternehmen mit einer Vielzahl
von Indikatoren schwer bzw. nicht möglich ist, sollten aus der Menge der Indikato ren ein oder
wenige Indizes, der Wissenskapitalindex, gebildet werden. In einem Beispiel sind vier Indizes
aus je vier Indikatoren gebildet worden. Die Indizes stehen jeweils für ein e Bewertung des
Humankapitals und die drei Komponenten des Strukturkapitals: Beziehung, Organisation und
Innovation. Die Indizes sind dimensionslose Zahlen und können gegeneinander noch einmal nach
ihrem Beitrag zur Strategie des Unternehmens gewichtet werden.
Die Indizes einer Stufe werden etwa mit dem arithmetischen Mittel zu einem Index der nächst
höherer Stufe. Ein Problem ist, wie man die Indikatoren der Blätter dieses
Wissenskapitalberechnungsbaumes, siehe Abb. 4/3, aufstellt.

WKI--| |--KompetenzI |--MotivationsI


|--HKI-- |--BereitschaftsI-- |--VerhaltensI
| | |-- WerteI
| |--Lernfähigkeit/FlexibilitätsI
| |--BeziehungsI
|--ISKI---- |--OrganisationsI
| |--InnovationsI
|--ESKI
Abb. 4/3: Beispiel für Wissenskapitalindexberechnung

81
4.3 Balanced Scorecard

4.3.1 Architektur eine BSC


Wissensziele können in Lern- und Wachstumsperspektive verankert werden, Maßnahmen zu deren
Umsetzung geplant und die Zielerreichung bewertet werden. Wissensmanagement wird so zum
Bestandteil der Unternehmensstrategie (siehe Abb. 4/4).

Abb. 4/4: Beispiel Balance Scorecard: Wie WM in Unternehmensstrategie integriert wird


Wie sollen wir gegenüber
Teilhabern auftreten, um
finanziellen Erfolg zu
haben?
Finanziell
Ziele
Kennzahlen
Vorgaben
Maßnahmen

Kunde Interne Geschäftsprozesse


Ziele Vision Ziele
Kennzahlen und Kennzahlen
Vorgaben Strategie Vorgaben
Maßnahmen Maßnahmen

Wie sollen wir gegenüber In welchen Geschäftsprozessen


unseren Kunden auftreten, um müssen wir die Besten sein, um
unsere Vision zu verwirklichen? unsere Teilhaber und Kunden zu
befriedigen?
Lernen und Entwicklung
Ziele
Kennzahlen
Vorgaben
Maßnahmen

Wie können wir unsere


Veränderungs- und
Wachstumspotentiale82
fördern, um
unsere Vision zu verwirklichen?
Abb. 4/5: Balanced Scorecard [Lehner 2012]

Mit der Balance Scorecard soll eine umfassende, ausgewogene (balanced) Betrachtung der
Leistungsfähigkeit einer Organisation gewährleistet werden. Balanced Scorecards schaffen somit
einen Überblick über Ziele und Kennzahlen einer Organisation. Durch die Begrenzung auf wenige
Kennzahlen kann Information Overload vermieden werden. Mit Hilfe von vier Perspektiven
gewährt die Balanced Scorecard Einblicke in die Relationen zwischen verschiedenen Bereichen
einer Organisation, sodass erkannt werden kann, ob z.B. eine Verbesserung in einem Bereich
nicht zu einer Steigerung der Kosten in einem anderen führt. Balanced Scorecards sind
zukunftsorientiert, haben eine Verbindung zur Strategie einer Organisation und stellen neben den
finanziellen auch nicht-monetäre Größen dar. Außerdem ist das Konzept sehr flexibel - die Anzahl
und Art der Perspektiven ist individuell anpassbar.
In Abb. 4/5 wird die Organisation aus vier verschiedenen Perspektiven betrachtet: Finanzen und
Controlling, Kunden, Geschäftsprozesse, Partner und Mitbewerber. Dabei steht das
Finanzgebaren im Zentrum und die Finanzperspektive ist die oberste Ebene. Ihr folgt die
Kundenperspektive, die das Wertangebot beschreibt, das dem Markt zur Verfügung gestellt wird.
Darunter liegt die Perspektive der internen Geschäftsprozesse, welche die Wertkette der
Organisation umfasst. Das Fundament bildet die Lern- und Entwicklungsperspektive.

4.3.2 Beziehung zwischen BSC und WM


Zwischen Balanced Scorecards (BSC) und dem WM bestehen mehrfache Beziehungen. Einerseits
kann eine Balanced Scorecard zum Controlling des WMs eingesetzt werden. Für das Controlling
des Wissensmanagements kann eine Balanced Scorecard angepasst werden, indem z.B. für die
einzelnen Aufgaben des Wissensmanagements je eigene Perspektiven mit auf die Ziele des WMs
abgestimmten Zielen, Kennzahlen, Vorgaben und Maßnahmen geschaffen werden.
Andererseits ist die Erstellung einer Balanced Scorecard an sich ein Prozess, bei welchem Wissen
identifiziert, verteilt und manchmal auch neu geschaffen wird. Wissensgenerierung und –
erhebung wird in einer BSC durch Gespräche, Kommunikation und Austausch zwischen der
Geschäftsführung und den Mitarbeitern erreicht. Die Strategien werden gemeinsam festgelegt und
auf die Ziele der BSC herunter gebrochen. Es werden wesentliche Kennzahlen und wesentliche
Perspektiven identifiziert. Diese Kennzahlen werden in ein Formblatt eingetragen, das kann als
Wissensrepräsentation gesehen werden. Die Wissensauswertung und –verarbeitung erfolgt mit
der anschließenden Analyse der BSC. Maßnahmen für die Verbesserung können so abgeleitet
werden, da jeder Mitarbeiter nun seine eigenen Ziele eingebettet in die Organisationsstrategie
erkennt.

Bei Balanced Scorecards müssen die aus den strategischen Zielen resultierenden Ziele und
Maßnahmen für die operative Ebene verfeinert werden. Dies führt zu einer intensiven
Beschäftigung mit den gestellten Zielen und ihrer Praktikabilität und kann auch eine Revision der
Ziele nach sich ziehen. Damit wird ein Lerneffekt erreicht. Allein der Prozess, strategische Ziele in
operative Handlungen zu überführen sowie Messkriterien und -instrumente festzulegen, verlangt die
Generierung und den Transfer von Wissen zwischen Mitarbeitern, Abteilungen und verschiedenen
Hierarchieebenen. Die Balanced Scorecard stellt zudem das Gerüst zur Verzahnung von Wissenszielen
und Wissensbewertung dar. Außerdem bewertet sie die Integration des Wissensmanagements in das
unternehmensbezogene Ziel- und Bewertungssystem.
Eine konkrete Operationalisierung der Wissensperspektive ist im Konzept der Balanced Scorecard nicht
zu finden. Vielmehr muss jedes Unternehmen seine eigenen, maßgeschneiderten und
situationsspezifischen Messgrößen erarbeiten, um die relevanten Dimensionen zu erfassen und zu
steuern.

Wenn man eine Balanced Scorecard für das Wissensmanagement entwickelt, werden unterschiedliche
Handlungsfelder betrachtet (Wissensidentifikation, Wissensgenerierung, Wissenstransfer und
Wissensbewahrung). Jedes Handlungsfeld wird seinerseits anhand verschiedener Perspektiven
untersucht. Als Perspektiven können zum Beispiel die externe Perspektive, die interne Perspektive

83
sowie die Mitarbeiterperspektive gewählt werden. Für 2 Wissensprozessschritte ist eine mögliche
Balanced Scorecard des Wissensmanagements in Abb. 4/6-4/7 zu sehen.

Perspektive Strategische Ziele Messgrößen Zielwerte Maßnahmen


- Aufwand
Externe Struktur Suche nach - Anzahl u. - Marktanalysen
externen Qualität der - Kundenanalyse
Wissensquellen Wissensquellen
Aufdecken von Zugriff auf
Interne Stuktur informellen Erfahrungen aus - Wissenslankarte
Netzwerken vergleichbaren - Lesson Learned
Projekten
- Aufwand - Mitarbeiter-
Mitarbeiter Erstellung von - Anzahl der befragung
Experten- Eintragungen - Selbstein-
verzeichnissen - Nutzungsindex schätzung
- Aktualität
Abb. 4/6: Handlungsfeld Wissensidentifikation

Perspektive Strategische Ziele Messgrößen Zielwerte Maßnahmen


Externe Struktur -- -- --

Interne Stuktur Gelastaltung einens - Aufwand - Einrichten von


Lernfördenden -Anzahl und expliziten
Kontextes Qualität von Lernorten
internen -Veränderung der
Kompetenzzentren Arbeitsinhalte
-Anzahl und und Bedingungen
Qualität der
Verbesserungs-
vorschläge
Mitarbeiter Steigerung der - Weiterbildungs- - Dialog
Aktivitäten tage pro - Weiterbildung
hinschitlich Mitarbeiter - Vermittlung von
Personalentwicklung Anzahl der Best Practice
Mitarbeiter, die als
Wissenträger
gelten
Abb. 4/7: Handlungsfeld Wissensentwicklung

4.3.3 Fallbeispiel BSC [NN]


In diesem Fallbeispiel handelt es sich um einen Dienstleister (Bring-In), der auf Basis einer Social
Media Plattform bislang nicht erschlossene Kundengruppen an die Nutzung von Gadgets heranführen
will.
Schritt 1: Definition der Ziele der Organisation
Aus Mission, Grundwerten und Vision wird nun die Strategie abgeleitet: Heranführen von Personen
an die Nutzung von Gadgets, die bisher technologische Infrastruktur kaum genutzt haben, durch
Erschließung ihrer Informations- und Kommunikationsbedürfnisse.

84
Schritt 2: Identifikation der Perspektiven und Kennzahlen
An Indikatoren wurden u.a. gesammelt: Medienmüdigkeit, Gadget-Dichte (um regionale
Besonderheiten und den Versorgungsgrad erkennen zu kennen), Arbeitsmarktlage, demografische
Entwicklung. Die Konkretisierung zu Kennzahlen führte u.a. zu den Zusammenhängen von Abb. 4/11.
Abb. 4/12 zeigt die Focusierung auf die strategischen Hauptziele.

Abb. 4/8: Semantisches Netz der Kennzahlen

85
Abb. 4/9: Focusierung auf strategische Hauptziele

Für die Kennzahlen werden nun Ist- und Soll-Werte festgelegt, siehe Tabelle 9.2.

Dazu wurden die Maßnahmen zur Erreichung der Sollwerte definiert wie kompetente Nutzung der
Gadget-Features oder Beherrschung der Fähigkeit Nutzeraufgaben auf Gadget-Features abzugeben.
Die Verantwortlichen besuchten Zielgruppen.

Schritt 3: Darstellung der Strategie mithilfe einer Strategie Map

Schritt 4: Ziele in die BSC eintragen

86
Schritt 5: Ableitung von Aktionen aus der BSC
Das IT-System ist so zu gestalten, dass alle für die Kennzahlen benötigten Daten mit ausreichendem
Informationsgehalt zur Verfügung stehen. Damit es möglich ist, die Wirksamkeit der Frühindikatoren
und der logischen Verknüpfungen zwischen den Kennzahlen zu verifizieren. Festlegung eines aktiven
Feedbackprozesses. Fixieren des Lernprozesses mit den drei Phase Identify (dient neben der Reflexion
bestehender Sachverhalte der Gewinnung und Strukturierung von Ideen), Explore und Implement (hier
wird umgesetzt).

4.4 Wissensbilanz

4.4.1 Allgemein
In der Praxis ist in den letzten Jahren der verstärkte Einsatz von nicht-monetären
Bewertungsinstrumenten, vor allem von Wissensbilanzen zu beobachten. Es begann zunächst in
Konzernen wie beispielsweise EnBW (Energie Baden-Württemberg) oder Infineon Austria, aber auch
immer mehr kleine und mittelständische Unternehmen (KMU) erkennen den Nutzen einer
Wissensbilanz. Aufgrund des globalen Wettbewerbsdrucks sowie der instabilen Wirtschaftslage wird
es immer wichtiger, die individuellen Erfolgsfaktoren zu kennen und langfristig zu entwickeln.
Eine Wissensbilanz ermöglicht es:
Intellektuelles Kapital in strukturierter Form abzubilden und die Zusammenhänge zwischen den
organisationalen Zielen sowie Strategien, den Prozessen, dem immateriellen Vermögen und
letztlich dem Geschäftserfolg aufzuzeigen (Bornemann/Reinhardt 2008)

Die Wissensbilanz ist somit einerseits internes Managementwerkzeug zur strategischen Gestaltung und
Steuerung. Infolgedessen wird die Wettbewerbsfähigkeit erhöht, die Ausrichtung auf die Ziele sowie
die Gestaltung der Prozesse verbessert und das Verständnis für das eigene Unternehmen gestärkt.

Andererseits eignet sich die Wissensbilanz als externes Berichtsinstrument, vor allem zur
Kommunikation gegenüber den Kapitalgebern. Mit der Wissensbilanz steht ein zukunftsorientiertes
87
Dokument zur Verfügung, das bisher vernachlässigte qualitative Faktoren der Organisation umfasst.
Bornemann/Reinhardt 2008)

Der erste ausführliche, praxisbezogene Leitfaden wurde, u. a. auf Initiative des Bundesministeriums für
Wirtschaft und Technologie (BMWi) sowie des Fraunhofer Instituts (Arbeitskreis „Wissensbilanz“ mit
Experten im Wissens- und Unternehmensmanagement) speziell für die Bedürfnisse und Anforderungen
von KMU’s entwickelt und kostenlos zur Verfügung gestellt (http://www.akwissensbilanz.org).

4.4.2 Schritte einer Wissensbilanztoolbox


Nachfolgend wird zunächst theoretisch auf die notwendigen neun Schritte sowie die Inhalte zur
Aufstellung einer Wissensbilanz eingegangen. Ein Fallbeispiel nach jedem Schritt verdeutlicht die
Vorgehensweise (Die Fakultät BWL/WI der TH Deggendorf hat mittels der Wissensbilanztoolbox ihr
intellektuelles Kapital bewertet.)

Schritt 1: Individuellen Bezugsrahmen abstecken (Geschäftsmodell)


Als Ausgangspunkt für die Bewertung des intellektuellen Kapitals ist der individuelle Bezugsrahmen
des Unternehmens zu betrachten.
Dazu zählen:
- äußere Rahmenbedingungen
- Vision
- Zielsetzung
- Strategie

Beispiel Hochschule:
- äußere Rahmenbedingungen
- Vision: Eine führende Fakultät werden
- Zielsetzung: Qualität der Lehre verbessern
- Strategie: Erhöhung der Personalausstattung, Verstärkung der Betreuungsangebote und
Entwicklung innovativer Lehrmethoden

Schritt 2: Einflussfaktoren der Zielerreichung identifizieren


Die Erreichung der Ziele wird von folgenden Hauptfaktoren beeinflusst:
1. Intellektuelles Kapital (Human-, Struktur- und Beziehungskapital (Informationsprozesse und
Organisationsstruktur ()). Primär ist festzulegen, welche Faktoren des intellektuellen
Vermögens (aus Human-, Struktur- und Beziehungskapital) im jeweiligen Unternehmen
besonders wichtig sind. Das intellektuelle Kapital ist für die Wissensbilanz ausschlaggebend.
2. Geschäftsprozesse

Unternehmensressourcen wirken sich (materiell und immateriell) auf die Geschäftprozesse aus,
die abschließend bestimmte Erfolge hervorbringen sollen. Die Prozesse, die das angestrebte Ziel
besonders beeinflussen (Kernprozesse), müssen identifiziert und kommuniziert werden.
Allerdings sollte man darauf achten, nicht zu viele Prozesse zu erfassen, da die Wissensbilanz
ansonsten zu komplex wird.
3. Geschäftserfolge

Ebenso sollen die Geschäftserfolge erkannt und beschrieben werden, beispielsweise ein
bestimmtes Umsatzvolumen, Gewinn, Marktwachstum, Image oder sonstige messbare
Erfolgsgrößen.
Beispiel Hochschule:
Einflussfaktoren für Humankapital
1) Fachkompetenz des nicht-wissenschaftlichen Personals
2) Lehrkompetenz des wissenschaftlichen Personals, also der Professoren und Dozenten
3) Handlungskompetenz der Studenten, d. h. die Fähigkeit sowie der Wille, die fachlichen
Kompetenzen umzusetzen und zu erweitern.

Einflussfaktoren für Strukturkapital


88
1) Informationssystem (Prozesse, Organisation, Funktionen, Daten und
Kommunikationsbeziehungen) und
2) Unternehmenskultur: Studenten- und Mitarbeiterkultur

Geschäftsprozesse: Prüfungsprozess
Geschäftserfolge: Studentenzufriedenheit

Schritt 3: Einflussfaktoren im Hinblick auf Vision, Ziele u Strategie bewerten


Als Bewertungsmaßstab der Einflussfaktoren (intellektuelles Kapital, Prozesse und Geschäftserfolge)
ist die strategische Ausrichtung (Vision, Ziele und Strategien) des Unternehmens heranzuziehen. Die
Bewertung soll Aufschluss über den aktuellen Zustand der Einflussfaktoren geben und den
(reibungslosen) Ablauf des operativen Geschäfts widerspiegeln (Bornemann/Reinhardt 2008).

Eine Möglichkeit zur Bewertung sind die Dimensionen: Qualität, Quantität und Systematik für jeden
Einflussfaktor. (QQS-Bewertung)

Die Qualität gibt die Güte des jeweiligen Faktors und dessen Beitrag zur Zielerreichung an und die
Quantität die dazugehörige Menge. Die Bewertung in diesen Kategorien ist nicht immer sinnvoll. Zum
Beispiel kann für die Unternehmenskultur nicht beantwortet werden, wie viel Kultur eine Organisation
braucht. Es wird vielmehr geprüft ob die Qualität ausreicht, d. h., ob der Faktor im Sinne der festgelegten
Ziele gut genug ausgeprägt ist.
Die Systematik drückt aus, ob der Faktor regelmäßig überwacht und entwickelt wird. Als Bewertung je
Dimension könnte man sich die Vergabe von prozentualen Werten in der Skala 0 bis 120 vorstellen. Bei
Überschreitung der 100-Prozent-Grenze ist der Einflussfaktor übererfüllt und es sollten
Rationalisierungsmaßnahmen folgen.

In dieser Phase der Wissensbilanzerstellung ist es vor allem erfolgskritisch, ein repräsentatives
Projektteam zusammenzustellen, um zu einer möglichst objektiven (empirisch abgesicherten)
Bewertung zu gelangen. Um einer zu subjektiven oder gar willkürlichen Bewertung vorzubeugen sind
konsistente und begründete Einschätzungen notwendig.

Beispiel Hochschule:
Im Rahmen der Realisierung an einer Hochschule war zu beobachten, dass die Bewertung einen
längeren Zeitraum einnimmt und intensive Diskussionen benötigt. Das Team kann aus dem
Studiendekan, Professoren, nicht wissenschaftlichen Mitarbeitern sowie einigen Studenten bestehen, die
in kleinen Workshops die jeweiligen Einzel- und Mittelwerte erarbeiten, die dann im Fakultätsrat
verabschiedet werden.

Ein Beispiel für die Bewertung des Faktors Studentenkultur an einer Hochschule zeigt Abb. 4/13.
Bewertungsdimension Bewertungsdimension Bewertungsdimension
Qualität Quantität Systematik
Fragestellung Ist unsere Kultur gut Keine Angabe (k. A.) Pflegen und entwickeln wir
genug, um unsere Ziele zu die Studentenkultur
erreichen? systematisch genug, um
unsere Ziele zu erreichen und
Verschlechterungen zu
vermeiden?
Wert 60% k. A. 50%
Begründung Da die Hochschule eher Es ist meistens nicht Es sind keine zielgerichteten
klein und familiär ist (ca. sinnvoll, Quantität und systematischen Maßnahmen
4000 Studierende, 100 Qualität der bekannt. Es tragen allerdings
ProfessorInnen, 200 Studentenkultur zu Einführungstage,
Lehrbeauftragte und 200 unterscheiden, da die Teamarbeiten oder Seminare
MitarbeiterInnen), Dimensionen nicht außerhalb der Hochschule
herrscht ein kooperatives trennscharf sind. zum gegenseitigen
Arbeitsklima.
89
Kennenlernen und Stärkung
des Zusammenhalts bei.
Abb. 4/10: QQS-Bewertung der „Studentenkultur“

Schritt 4: Messung der Einflussfaktoren mittels Indikatoren


Messung mittels Indikatoren
Zur quantitativen Überprüfbarkeit der Wissensbilanzergebnisse, vor allem gegenüber den externen
Adressaten, z. B. Investoren, ist es wichtig, die Bewertungen der Einflussfaktoren mit Zahlenwerten zu
untermauern. Dabei kann ein Indikator gleichzeitig für mehrere Einflussfaktoren ausschlaggebend sein.
Aus den Praxiserfahrungen heraus ist es ratsam, nur die wichtigsten Kennzahlen zu definieren d. h.
darauf zu achten, Indikatoren zu erheben, die für die verfolgten Ziele und Geschäftserfolge besonders
relevant sind. Damit wird sowohl der Ressourcenaufwand für die Messung und Pflege der Kennzahlen,
als auch die Komplexität der Bilanz vermindert.
Um die Indikatoren sinnvoll einsetzen zu können und deren Vergleichbarkeit zu gewährleisten, müssen
sie folgende Mindestkriterien erfüllen (vgl. Bornemann/Reinhardt 2008, S. 127):
1. Eindeutige Benennung
2. Beschreibung der Funktion der Kennzahl
3. Eindeutige Berechnungsvorschrift und Maßeinheit
4. Definition des Verantwortlichen für die Erhebung der Kennzahl
5. Festlegung des Interpretationsrahmens für den gemessenen Indikator

Es ist oftmals nicht leicht, die Indikatoren zu identifizieren und zu erheben, denn für das immaterielle
Kapital müssen häufig qualitative Werte herangezogen werden. Zahlen zur Fachkompetenz können
recht einfach errechnet werden, indem die Anzahl der Mitarbeiter, deren fachliche Qualifikation oder
das Durchschnittsalter betrachtet wird. Bei dem Versuch, die Mitarbeitermotivation, Qualität der
Führungskräfte oder Kundenzufriedenheit in einer Zahl auszudrücken, sind jedoch die Schwierigkeiten
nachvollziehbar. Hierbei besteht lediglich die Möglichkeit, über Befragungen zu einem Ergebnis zu
gelangen. Dies erfordert erneut die Kooperation der Betroffenen und einen erhöhten Aufwand zur
Erhebung der Kennzahlen, vor allem unter dem Blickwinkel der jährlichen Wiederholung der
Wissensbilanz zur Aufstellung einer Bewegungsbilanz.
Beispiel Hochschule
Am Fallbeispiel der Hochschule und der vorangegangenen Beurteilung der Studentenkultur bedeutet
dies die Durchführung einer Befragung bei den Studierenden, deren Ergebnisse dann in die Bewertung
einfließen. Ein Indikator ist das Vertrauen unter den Studenten, das bei durchschnittlich 3,07 für die
Befragten im Studiengang BWL lag, bei einer Skala von 1 (bedeutet sehr schlecht) bis 5 (bedeutet sehr
gut).

Schritt 5: Wirkungszusammenhänge erfassen


Ein weiterer Nutzen, der sich im Rahmen der Wissensbilanzerstellung bietet, ist die Erkennung von
Wirkungszusammenhängen im Unternehmen, d. h. wie beeinflussen sich die Faktoren des
intellektuellen Kapitals, die Geschäftsprozesse und -erfolge gegenseitig. Im Organisationsgeflecht sind
viele Größen voneinander abhängig und man erlangt wahrscheinlich mit der Änderung eines Aspekts
auch für andere Bereiche im Unternehmen einen Effekt. Die Korrelation der einzelnen Faktoren
untereinander ist aber in jeder Organisation verschieden, weshalb Abhängigkeiten festgestellt werden
sollen. Ein Wirkungszusammenhang kann nicht nur positiv, sondern auch negativ sein. Zudem gibt es
Differenzen in der Wirkungsstärke d. h. nach welchem Zeitraum die Effekte erkennbar sind. Bei
Investitionen in Informationstechnologie und deren Implementierung kann auch kurzfristig ein Erfolg
beobachtet werden, während die Initiativen zur Verbesserung der Durchgängigkeit von Prozessen und
deren Ablauf im Sinn der Unternehmenskultur langfristig angelegt sind.
Die Abb. 4/11 zeigt einen Ausschnitt aus dem Wirkungsnetz einer Hochschule, ausgehend von der
Studentenkultur (SK-4) zu Faktoren des Humankapitals, die sich auf die Studierenden beziehen: Fach-
(HK-6), Handlungs- (HK-7) und Sozialkompetenz (HK-8). Des Weiteren sind diejenigen
Geschäftserfolge hinzugefügt, die von der Studentenkultur besonders beeinflusst werden (und
umgekehrt): Dropout (GE-1), Studentenzufriedenheit (GE-2), Image (GE-5) und Wachstum (GE-6).

90
Abb. 4/11: Ausschnitt aus dem Wirkungsnetz einer Hochschule

Schritt 6: Ergebnisse auswerten


Mögliche Analysetools erlauben, die Daten in Diagrammen zu visualisieren (vgl. BMWi Leitfaden
2008, S. 37 – 42), wie z. B.:
• QQS-Portfolio (Qualität, Quantität und Systematik)
• QQS-Balkendiagramm
• QQS-Profildiagramm
• Potenzial-Portfolio
• Wirkungsnetz (siehe Abb. 4/11).

Die Auswertung der Ergebnisse erfolgt zudem bereits während des Erstellungsprozesses durch deren
Interpretation sowie der Analyse der Auswirkungen auf das Unternehmen.
Im Folgenden soll das Potenzialportfolio genauer betrachtet werden, denn durch die Darstellung in
Quadranten wird das Erkennen von Stärken und Schwächen auf einen Blick ermöglicht (siehe Abb.
4/15). Auf den Achsen werden die durchschnittliche Bewertung (Summe aus den Bewertungen von
Quantität, Qualität und Systematik je Einflussfaktor dividiert durch drei) und die Wirksamkeit (siehe
Schritt 5) abgebildet. An der Position des Einflussfaktors (Intellektuelles Kapital, Prozesse und
Geschäftserfolge) in den vier Quadranten ist erkennbar, ob und welcher Handlungsbedarf besteht. Im
rechten unteren Quadranten sind die Faktoren visualisiert, die eine hohe Bewertung und geringe
Wirkungszusammenhänge aufweisen. Hier besteht kein Handlungsbedarf. Die Stabilisierung von
Faktoren im oberen rechten Quadranten ist ratsam, d. h. der jeweilige Faktor sollte beobachtet werden,
da eine Veränderung starke Auswirkungen auf das Gesamtsystem hätte. Auf der linken unteren Seite
befinden sich die Faktoren, über die Unklarheit herrscht, da sie schwach auf das Gesamtsystem wirken,
aber für die Zielerreichung zu gering ausgeprägt sind. Sie sollten analysiert werden. Im linken oberen
Quadranten stehen die Einflussfaktoren, die entwickelt werden sollten, d. h. der Faktor weist eine
niedrige Bewertung, aber einen hohen Einfluss auf die anderen Faktoren auf. Vor allem hier sind
Ansatzpunkte zur Verbesserung der aktuellen Situation zu finden und die Maßnahmen sollten sich daran
anlehnen.
Beispiel Hochschule
Das abgebildete Beispiel einer Hochschule (siehe Abb. 4/12) zeigt das Strukturkapital. Rechts unten
befindet sich die „Informationstechnik und das explizite Wissen“ seitens des Personals (SK-3) sowie
der Studenten (SK-6). Das bedeutet demzufolge, dass sie gut ausgeprägt sind hinsichtlich der Erreichung
der gesetzten Ziele, wie die Verbesserung der Lehre, und dementsprechend keinen Handlungsbedarf
aufweisen. Im oberen rechten Quadranten sind der „Wissenstransfer und die Kooperation“ (SK-2) sowie
das „Studienangebot“ (SK-7) abgebildet, die stabilisiert werden müssen. Beide Aspekte haben einen
sehr hohen Einfluss auf das Gesamtsystem und könnten aufgrund dessen bei Unruhe und Turbulenzen
negativ wirken. Der „Wissenstransfer der Studenten“ (SK-5), die „Mitarbeiterkultur“ (SK-1) sowie
„Studentenkultur“ (SK-4) im linken unteren Quadranten sollen nochmals analysiert werden. Im linken
oberen Quadranten ist kein Faktor des Strukturkapitals zu finden d. h. kein Faktor ist in den Dimensionen
zu gering ausgeprägt, aber trotzdem mit hohem Einfluss auf das Gesamtsystem.
91
Abb. 4/12: Potenzial-Portfolio des Strukturkapitals einer Hochschule

Schritt 7: Wissensbilanz dokumentieren


Die Anfertigung eines konkreten Dokuments, in dem die wichtigsten Aspekte aufgeführt sind, ist für
die Beobachtung der Entwicklung Voraussetzung; für die ökonomische Sicht auf Unternehmen ist dies
die Bilanz, für die Analyse des intellektuellen Vermögenpotenzials wird die Wissensbilanz eingesetzt.
In Bezug auf Art und Umfang der Informationen kann zwischen externem und internem Adressatenkreis
differenziert werden. Die Erkenntnisse können auch in den jährlichen Geschäftsbericht integriert werden
und beispielsweise Aussagen zur Entwicklung des Humankapitals liefern, zu den Fähigkeiten,
Informationen strukturiert zu bearbeiten sowie Entscheidungen über Investitionsabsichten in das
Unternehmen positiv leiten.
Beispiel Hochschule
An der Hochschule kann es, wie in größeren Unternehmen, verschiedene Darstellungsformen geben für
die Hochschulleitung, das Personal, die Studenten oder das Ministerium, da diese Anspruchsgruppen
verschiedene Informationen im Hinblick auf Umfang und Kommunikationsform benötigen.

Schritt 8: Maßnahmen erarbeiten und umsetzen


Mit der Interpretation und vor allem der Ableitung von Verbesserungsmöglichkeiten ist die Erarbeitung
von Maßnahmen verbunden. Anhand der identifizierten Stärken und Schwächen können Ansatzpunkte
für die Erreichung der Ziele und somit auch der Steigerung des Unternehmenserfolgs abgeleitet werden.

4.4.3 Kontinuierliche Wissensbilanzierung


Schritt 1: Überarbeitung des Geschäftsmodells und des Intellektuellen Kapitals
Schritt 2: Aktualisierung der QQS-Bewertung
Schritt 3: Aktualisierung der Indikatoren
Schritt 4: Aktualisierung der Wirkungszusammenhänge
Schritt 5: Auswertung [Alwert 2014]

Die kontinuierliche Wissensbilanzierung in Verbindung mit einem systematischen Maßnahmenmanage-


ment wird zu einem integrierten Managementinstrument, das eine nachhaltige
Unternehmensentwicklung unterstützt. Sie läuft wie in Abb. 4/13 gezeigt ab und kann folgende
Nutzenaspekte realisieren:
• Zeit- und Kosteneinsparungen für die WB-Erstellung durch Lerneffekte
• Früherkennung von möglichen Risiken durch ein kontinuierliches Monitoring der
Veränderungen im Intellektuellen Kapital
• Bessere Allokation von Ressourcen durch den Nachweis von Erfolgen und Misserfolgen von
Maßnahmen

92
• Förderung des unternehmerischen Denkens und Handelns bei den wechselnd beteiligten
Mitarbeitern
• Steigerung der Motivation der Mitarbeiter durch Einbindung und Wertschätzung im Prozess
• Entlastung der Führung, da vor Entscheidungen notwendige Analysen durch das WB-Team
erfolgen
• Schaffung eines integrierten WMS, das strategisches und operatives WM über ein
kontinuierliches Verfahren miteinander verknüpft.

Abb. 4/13: Arbeitsschritte und Workshopablauf bei kontinuierlicher Wissensbilanzierung [Alwert 2014]

In der Praxis hat sich ein Erstellungsturnus von ein bis drei Jahren als praktikabel herausgestellt. Werden
die strategischen Zielsetzungen des Unternehmens angepasst, ist es auch außerplanmäßig sinnvoll eine
neue Wissensbilanz zu erstellen.
Zur Vorbereitung der kontinuierlichen Wissensbilanzierung sollten sich Projektleitende und
Moderierende einen Überblick über die laufenden und abgeschlossenen Maßnahmen zum In-
tellektuellen Kapital verschaffen. Hierzu ist eine Übersicht über alle Maßnahmen aus der letzten
Wissensbilanz zu beschaffen bzw. zu erstellen. Diese Übersicht erleichtert dem Moderator die
Bewertungen und Diskussionen im Workshop nachzuvollziehen und ggf. gezielt die Wirkung einzelner
Maßnahmen im Wissensbilanz-Team zu hinterfragen.

Schritt 1: Überarbeitung des Geschäftsmodells und des Intellektuellen Kapitals


Dazu kann in der Wissensbilanz-Toolbox 2.0 eine neue Periode angelegt werden. Unter dem
Menüpunkt »Projekt« befindet sich die Option »Eigenschaften«. Nach dem Aufrufen der
»Eigenschaften« öffnet sich ein PopUp-Menü, dann kann eine neue Periode angelegt werden. Mit dieser
Methode befinden sich in der neu angelegten Periode schon die Ausgangssituation vom Vorjahr, die
Geschäftsprozesse (GP), die Geschäftserfolge (GE), sowie die Einflussfaktoren ohne Bewertungen und
die Wirkungen einschließlich der Wirkungsgrade.
Das Geschäftsmodell und die Definition des Einflussfaktors des Intellektuellen Kapitals werden dann
durch den Projektleiter bzw. die Geschäftsführung aktualisiert. Im nächsten Schritt ist die neuerliche
Bewertung des Intellektuellen Kapitals erforderlich.

Schritt 2: Aktualisierung der QQS-Bewertung


Die Aktualisierung der QQS-Bewertung erfolgt im Workshop und wird durch die Geschäftsführung
eingeleitet. Sie erläutert,
• was seit der letzten Wissensbilanz passiert ist (am besten mit Bezug zu den Maßnahmen, die
aus der letzten WB hervorgegangen sind und umgesetzt wurden)
• was die aktuellen strategischen Herausforderungen und Veränderungen im Geschäftsmodell
sind
• was der Rahmen und die Erwartungen an den Wissensbilanzprozess sind.

Der Workshop zur QQS-Bewertung folgt im Wesentlichen dem Standardvor-gehen mit starkem Fokus
auf die Begründungen und ggf. Argumentation von Veränderungen gegenüber der letzten Periode.

Schritt 3: Aktualisierung der Indikatoren

93
Es sollte überprüft werden, ob die in der letzten Wissensbilanz definierten Indikatoren weiterhin sinnvoll
sind und ob ggf. neue aufgenommen werden müssen. Nicht mehr benötigte Indikatoren sollten in der
Wissensbilanz-Toolbox als nicht mehr aktiv gekennzeichnet werden.
Im Anschluss werden die aktuellen IST-Werte der Indikatoren erhoben. Wenn möglich, liegen die IST-
Werte bereits zum ersten Workshop-Termin vor und können so in die Bewertungsdiskussion einfließen.
Von besonderer Bedeutung sind dabei die Indikatoren, welche große Änderungen anzeigen und / oder
Aussagen über den Erfolg von Maßnahmen machen.

Folgende Hilfsfragen können helfen, die Indikatoren zu überprüfen:


• Hat sich der Indikator bewährt und den erwarteten Nutzen zur Steuerung und Kommunikation
gebracht?
• Ist das Aufwand-Nutzen-Verhältnis gut genug?
• Müssen neue Indikatoren aufgenommen werden?
• Welche IST-Werte haben die Indikatoren?

Schritt 4: Aktualisierung der Wirkungszusammenhänge


Der Workshop für die Wirkungsanalyse könnte nur ca. 3 Stunden dauern, da die Wirkungsweise der
Einflussfaktoren des Intellektuellen Kapitals sich selten stark verändern.
Es empfiehlt sich folgendes Verfahren:
1. Das Wissensbilanz-Team priorisiert anhand der QQS-Bewertung die Faktoren, die am stärksten von
Änderungen seit der letzten Wissensbilanz betroffen sind.
2. Diese werden dann in der Matrix überprüft und gegebenenfalls neu bewertet.

Schritt 5: Auswertung
Hier ist es wichtig die Veränderungen im Zeitverlauf zu visualisieren und zu interpretieren.
Grundsätzlich gibt es vier unterschiedliche Möglichkeiten, wie Veränderungen in der Bewertung über
die Zeit hinweg zustande kommen können und dementsprechend zu interpretieren sind:
1. Maßnahmen wurden erfolgreich umgesetzt bzw. Ereignisse sind eingetreten, welche das
Intellektuelle Kapital verändert haben.
Beispiele: Mitarbeiterschulungen führen zu einer besseren Bewertung der Fachkompetenzen.
Eine Umstrukturierung erreicht eine verbesserte Kommunikation. Fluktuation führt zu einer
Verschlechterung in der Bewertung des Humankapitals.
2. Der Bewertungsmaßstab hat sich verändert. Der Bewertungsmaßstab für die QQS-Bewertung
ist in der Wissensbilanz von der individuellen Strategie der Organisation abhängig. Es ist also
möglich, dass sich die Einschätzung der Gruppe zu einem Einflussfaktors ändert, weil sich der
strategische Anspruch an den Einflussfaktor verändert hat. In einem solchen Fall ist bei der
Interpretation des Trends streng darauf zu achten, den veränderten Anspruch in der Begründung
mit aufzuführen.
Beispiel: Bei der der letzten Wissensbilanz war die Strategie des Unternehmens, eine nationale
Nische zu bedienen. Dazu waren die vorhandenen Kompetenzen der Mitarbeiter ausreichend.
Die neue Strategie des Unternehmens ist es, international breit aufzutreten. Dazu sind die immer
noch gleichen Kompetenzen aber nicht mehr ausreichend, denn es fehlen z.B. wesentliche
Kenntnisse des Marktes, Sprachkenntnisse und Kompetenzen in den neuen Geschäftsbereichen
etc. Die Bewertung der Kompetenzen fällt daher deutlich niedriger aus, obwohl sich »real«
nichts geändert hat – es sind immer noch die gleichen Personen da.
3. Fehler in der Umsetzung. Einflussfaktoren und / oder Fragestellungen wurden so verändert, dass
in der neuen Periode etwas anderes bewertet wurde.
4. Ungenauigkeiten im Verfahren. Die praktischen Tests haben gezeigt, dass eine Abweichung
von +/- 5% bei der Beantwortung einer Bewertungsfrage nichts Ungewöhnliches ist.
Begründungen für Veränderungen in diesem geringen Maße sollten also nicht durch unnötige
Interpretationen überstrapaziert werden. Veränderungen im Bereich +/-10% und höher, sollten
dagegen begründbar sein. Ist dies nicht der Fall, sollte eine Diskussion im Wissensbilanz-Team
erfolgen und der Wert ggf. auf ein realistisches Niveau angepasst werden.

94
Bei der Zeitreihe nach Kapitalarten in der Übersicht (Abb. 4/14 links) handelt es sich um eine
Auswertung auf oberster Ebene, aufgeschlüsselt nach den Mittelwerten der Quantität, Qualität und
Systematik von Humankapital, Strukturkapital und Beziehungskapital. Diese Auswertung gibt
allerdings nur Aufschluss über sehr grundsätzliche Schwerpunkte im Management der Organisation.
Die Abbildung zeigt bspw. die Entwicklung der Kapitalarten aller Einflussfaktoren über vier Perioden.
Die Visualisierung auf Einflussfaktorenebene, bei der die Mittelwerte aus Quantität, Qualität und
Systematik verwendet werden (s. Abb. 4/14 rechts), zeigt die grundsätzliche Entwicklung der
Einflussfaktoren auf einer zusammenfassenden Ebene und gibt schnell einen guten Überblick über das
gesamte Intellektuelle Kapital. Sie ist daher für das obere Management aber auch für externe
Stakeholder wie Kapitalgeber gut geeignet.

Abb. 4/14: Zeitreihe nach Kapitalarten in der Übersicht und Visualisierung der Einflussfaktoren

4.4.4 Leitfaden für Wissensbilanzerstellung für KMU

Abb. 4/15: Vorgespräch und erster Workshop [Südwestfälische Industrie- und Handelskammer zu
Hagen 2006]
Die Südwestfälische Industrie- und Handelskammer zu Hagen hat im Rahmen eines vom Land
Nordrhein-Westfalen und von der Europäischen Union geförderten Projektes 2005 einen Leitfaden für
die Erstellung von Wissensbilanzen in klein und mittelständischen Unternehmen entworfen. Er richtet
sich an die Geschäftsführung, Projektverantwortliche und interessierte Mitarbeiter und soll
Wissensmanagement sensibilisieren.

95
Zu jedem Kapitel wurden sog. „Aktionen“ erstellt, die bei der Einführung des Wissensmanagement
unterstützen sollen, wie z.B. Testfragen zur Unternehmenskultur. Der Ablauf der Einführung einer
Wissensbilanz wird aus Abbildungen 4/15 ersichtlich.
In einem Vorgespräch wird der weitere Ablauf geplant und festgelegt für welche Bereiche des
Unternehmens eine Wissensbilanz erstellt werden soll. Im ersten Workshop wird die
Ausgangssituation beschrieben indem wichtige Informationen z.B. über Kunden, Mitarbeiter, etc.
gesammelt werden. Außerdem wird das Intelektuelle Kapital erfasst (Leistungsprozesse und Human-,
Struktur-, Beziehungskapital). Abschließend wird das Kapital bewertet.
Der erste Meilenstein, eine einfache Wissensbilanz, ist erzielt.

Abb. 4/16: Weitere Schritte


Im zweiten Workshop werden Kennzahlen für das intellektuelle Kapital erarbeitet. Im zweiten
Meilenstein liegt somit eine erste Selbsteinschätzung vor. Weiterhin sollen nun die Ergebnisse der
Bilanz kommuniziert werden.
Mit dem dritten Meilenstein liegt ein Dokument zum intellektuellen Kapital vor.
Im dritten und letzten Workshop wird mit Hilfe der Sensitivitätsanalyse ein Wirkungsnetz erarbeitet,
welches die Wechselwirkungen der immateriellen Ressourcen beschreibt.
Im vierten Meilenstein ist eine vollständige Wissensbilanz erstellt.
Der Leitfaden orientiert sich, wie bereits erwähnt, an dem europäischen Leitfaden, sowie an der
„Wissensbilanz – Made in Germany“. Aufgrund dessen muss der Leitfaden ebenso gut bewertet
werden, wie der europäische Leitfaden. Der Leitfaden ist durch sog. „Aktionen“ sehr praxistaublich
gestaltet, da diese es ermöglichen die vorgestellten Inhalte in das Unternehmen zu transferieren. Im
Vergleich zum vorherigen Leitfaden, erhält dieser Leitfaden dennoch die gleiche Bewertung bei der
Praxisnähe, da dieser Leitfaden auf praktische Fallbeispiele verzichtet. Eine Zusammenfassung aller
Aktionen ist in Südwestfälische Industrie- und Handelskammer zu Hagen (2006), S 52 dargestellt.
Weiter gibt der Leitfaden einen Überblick über ausgewählte Werkzeuge zur praktischen Umsetzung,
die innerhalb der Aktionen verwendet werden, wie z.B. die Szenariotechnik, Testfragen zur
Unternehmenskultur, Checklisten etc.

96
Abb. 4/17: Der letzte Workshop

4.5 Benchmarking
Unter Benchmarking wird im Allgemeinen der systematische Vergleich von Dienstleistun gen,
Prozessen oder Produkten verstanden zur Identifikation von Stärken und Schwächen. Das
Wissensmanagement kann somit gesamtheitlich als Process betrachtet werden, der durch
verschiedene vergleichbare Merkmale geprägt ist. Dies erfordert zum einen die Definition
solcher Merkmale und zum anderen das Vorliegen von Analysen anderer Wissensmanage -
mentprojekte oder Teilprojekte. Grundsätzlich kann Benchmarking vier verschiedene Formen
annehmen:
• Werden die Prozesse des Wissensmanagements in unterschiedlichen Abteilungen, Ge -
schäftsbereichen oder Projekten miteinander verglichen, so spricht man vom internen
Benchmarking. Diese Form ist insbesondere dann geeignet, wenn Zahlen externer
Projekte nicht vorliegen oder es keine vergleichbaren Wissensmanagementprojekte
gibt.
• Das wettbewerbsorientierte Benchmarking stellt einen Vergleich von nahezu
gleichen Wissensmanagementprojekten oder -aktivitäten verschiedener Unternehmen
dar. Ein solches Benchmarking wird sehr oft von Beratungsunternehmen durchgeführt,
die als neutrale Person Einblick in die Wissensmanagementprojekte verschiedener
Unternehmen bekommen.
• Mit dem funktionalen Benchmarking werden nicht identische Prozesse miteinander
verglichen. Dabei sollen Ideen und Best Practices von anderen Branchen oder
Geschäftsbereichen für das eigene Unternehmen oder den eigenen Geschäftsbereich
gewonnen werden. Hierbei ist jedoch stets zu überprüfen, ob diese Ideen auch in einer
veränderten Umgebung realisiert werden können.
• Die Form des generischen Benchmarkings ist geeignet, wenn nur Statistiken mit
anderen Firmen verglichen werden. Als Ergebnis sind hier jedoch keine qualitativen
Aussagen zu erwarten, jedoch kann diese Form des Benchmarkings in Verbindung
mit den weiteren genannten nützlich sein, und es können neue Ideen oder Trends
identifiziert werden

97
4.6 Literatur und Kontrollfragen
Literatur
1. Alwert, K.; Bornemann, M.; Will, M.; Wuscher, S. (2013): Wissensbilanz - Made in Germany.
Leitfaden 2.0 zur Erstellung einer Wissensbilanz. Hrsg. durch das Bundesministerium für
Wirtschaft und Technologie. Berlin. http://www.akwissens-
bilanz.org/Infoservice/Infomaterial/Leitfaden_2.0_ Wissensbilanz_Stand_Nov 2013. pdf. (letzter
Abruf: 23.04.2014).
2. Alwert, K.; Will, M. (2014): Leitfaden Maßnahmen managen. Stuttgart: Fraunhofer Verlag.
3. Bornemann, Manfred; Reinhardt, Rüdiger: Handbuch Wissensbilanz. Umsetzung und Fallstudien.
Berlin 2008.
4. Fischer, Gerrit: Wissensbewertung in der Theorie und Praxis. In: Jaspers, Wolfgang; Fischer
Gerrit (Hrsg.): Wissensmanagement heute. Strategische Konzepte und erfolgreiche Umsetzung.
München 2008, S. 221 – 235.
5. Gutschelhofer, Alfred: Wissensbilanzen an Universitäten – Status quo und Impulse erprobter
Konzepte. In: Bertl, Romuald; Leitner, Karl-Heinz; Riegler, Christian (Hrsg): Forschung und
Entwicklung. Steuerung, Berichterstattung und Prüfung. Wien 2006, S. 249 – 272.
6. Lehner Franz: Wissensmanagment, Hanser 2012, S. 224-242
7. Matzler, Kurt; Hinterhuber, Hans H.; Renzl, Birgit; Rothenberger, Sandra (Hrsg.): Immaterielle
Vermögenswerte. Handbuch der intangible Assets. Berlin 2006, S. 23 –41.
8. Middelhoff, Dirk: Wissensbilanzierung. Intellektuelles Kapital in der Unternehmensbewertung
und periodischen Berichterstattung. Norderstedt 2008.
9. Popp, Heribert, Kreupl, Silke, Mößlein, W. Die Wissensbilanz, in WISU- Das
Wirtschaftsstudium, 2012, Heft 5, S675ff.
10. Südwestfälische Industrie- und Handelskammer zu Hagen (2006), S. 52
11. NN: Fallbeispiel BSC

Kontrollfragen
1. Beschreiben sie das intellektuelle Kapital und wie man es messen könnte in einer Firma (n)?
2. Was ist der Wissenskapitalindex?
3. Wie wird der Wissenskapitalindex ermittelt? Zeigen sie an einem Beispiel, wie man auf die
Werte der Blätter dieses Baumes kommt.
4. Wie funktionieren Wissensbilanzen?
5. Schildern sie das Fallbeispiel Wissensbilanz an einer Fakultät einer Hochschule.
6. Wie wird Balanced Scorecard im Wissensmanagement eingesetzt?
7. Welche Schwierigkeiten können bei der Wissensbilanzerstellung bei der Messung mittels
Indikatoren auftreten?
8. Beschreiben sie die Schritte der kontinuierlichen Wissensbilanzierung
9. Skizzieren sie einen Leitfaden zur Wissensbilanzerstellung.
10. Beschreiben sie, wie sie das Wissen ihres Studiengangs (z.B. BWL) bewerten würden.

98
5. Wissensgenerierung - Business Intelligence
Informationsbeschaffung ist nicht das Durchforsten des Papierbestandes. Informationsbeschaffung lässt
sich durch EIS oder Data Warehouse automatisieren.

5.1 Definition Business Intelligence (BI)

Der breite Einsatz von Datenbanksystemen und verbesserte Möglichkeiten der Speicherung von großen
Datenmengen führen zu dem Wunsch, Daten als Führungsinformationen direkt für das Management
bereitzustellen. Die ersten solcher Systeme wurden Management Informationssysteme (MIS) genannt
und führten zu einem Fehlschlag, da damals effiziente Speichertechnologien und geeignete
Analyseverfahren fehlten. Wir betrachten jetzt neue Informationssysteme zur Unterstützung der
Geschäftsleitung. Zunächst untersuchen wir Executive Information Systeme (EIS) für das Top-
Management, dann widmen wir uns dem weiten Feld des Business Intelligenz mit Data Warehouse,
OLAP und Data Mining.

Business Intelligence (BI) beschreibt die Idee, Entscheidungen durch bereits gemachte Erfahrungen
eines Unternehmens zu unterstützen. Dafür muss man die anfallenden Daten des Unternehmens
sammeln, aufbereiten und dem Management in kompakter, verständlicher Form zugänglich machen.
Managern wird ein weit über aktuelle Unternehmenskennzahlen hinausgehender Überblick über die
Lage des Unternehmens geboten. Als Unterschied zu den Techniken wie Optimierung und Simulation
fußen die Methoden des BI primär auf gesammelten Daten. Dies erfordert korrekte und vollständige
Daten. Im Oberbegriff Business Intelligence sind die Themen Data Mining, Kowledge Discovery in
Databases (KDD) und Data Warehouse eingebettet.
Im Jahr 2007 waren unter den Top 5 geplanter Investitionen bei SAP-Anwendern die Investitionen in
BI mit 4,4 % an erster Stelle vor CRM mit 2,4 %. In einer DSAG Investitionsumfrage 2015 investieren
ein Drittel der Unternehmen in mobile Anwendungen, Usability und Analytics.

Abb. 5/1: Anwendungsgebiete von BI

Die führenden Anbieter von Anwendungssystemen für BI sind: Business Objects (seit 7.08 bei SAP),
SAS, Cognos (nun bei IBM), SAP, IBM, Microstrategy und Hyperion (nun bei Oracle).

Abb. 5/1 stellt Anwendungsgebiete von Business Intelligence dar, wie CRM. Folgende
Anwendungsbeispiele für BI sind vor allem von der Data-Mining-Funktionalität getragen: Bei den
Autokonzern werden mit BI Kundendienstdaten zur Entdeckung von Auffälligkeiten analysiert, im
CRM führt man mit BI Zufriedenheitsanalyse oder Beziehungsanalyse (Haushalt vs. Produkt) durch,

99
bei Banken und Versicherungen werden mit BI Kundenbewertungen oder Stornoprophylaxe erreicht, in
der Telekommunikation hilft BI bei der Betrugs- und Missbrauchsaufdeckung und im Handel betreibt
BI Warenkorbanalyse.
Setzen heute vor allem die Abteilungen Controlling und Finanzen BI-Lösungen ein, wollen künftig alle
Bereiche auf entsprechende Lösungen zugreifen.

5.2 Executive Information System (EIS)


Beim EIS sollen dem Management auf verschiedenen Ebenen sowohl detaillierte als auch verdichtete
Informationen aus der operativen Datenbasis zur Problembeschreibung zur Verfügung gestellt werden.
Gefordert wurden
• periodisch, standardisierte Berichte
• Verfügbarkeit der Informationen auf allen Managementebenen
• verdichtete Informationen über alle Geschäftsaktivitäten
• interaktive Informationsbeschaffung und
• größtmögliche Aktualität.Ein EIS ist
ein Informationssystem für das Top-
Management, das dem Entscheidungsträger
aktuelle, entscheidungsrelevante, interne
und bedingt externe Informationen mit Hilfe
von intuitiv benutzbaren und individuell
anpassbaren Benutzeroberflächen anbietet.
EIS enthalten oft auch
Entscheidungsunterstützungsfunktionen,
die tendenziell eher schwach ausgeprägt
sind.
EIS filtert unwichtige Informationen raus,
so dass entscheidungsrelevante
Informationen übrigbleiben. Es hat die
Informationen aus dem operativen System
der Unternehmung besorgt und bisweilen
auch von Extern. Die Form der
Benutzeroberfläche ist nicht kompliziert,
sondern intuitiv bedienbar. Dazu muss die
Benutzeroberfläche variabel an die
Vorlieben des Benutzers anpassbar sein,
z.B. mehr Text oder mehr Grafiken
präsentieren, Ausgabe auch mit Ton, je nach
Vorlieben des Managers.
EIS erstellen datengetriebene
Standardberichte und
Abweichungsanalysen (auch grafisch).
Schwerpunkte der
Informationsbereitstellung sind
tagesaktuelle Kennzahlen des
Unternehmens und ausgewählte externe
Nachrichten. Durch geeignete
Navigationshilfen kann der Benutzer in
Tiefe und Breite des Informationsraumes
auf unterschiedlich aggregierten
Datenbeständen arbeiten.

Abb. 5/2: Beispiel Drill Down

100
Folgende Techniken werden in EIS verwendet:
• Ausnahmeberichte (Exception reporting), die durch optische Markierung oder Vorselektion auf
Überschreitungen definierbarer Toleranzgrenzen für Daten(-gruppen) hinweisen.
• Drill-Down-Technik mit der man, meist startend von ausgewählten Berichtselementen, gezielt
detaillierte Informationen in Stufen vordefinierter logischer Abhängigkeiten abrufen kann. So erhält
man z.B. nach einer markanten Abweichung im Bericht „Produktgruppen-Deckungsbeiträge“
automatisch die betroffenen Einzelprodukte und dort wiederum eine Aufstellung nach Regionen,
wenn dies im EIS so vordefiniert ist.
Beispiel Drill Down im Controlling mit Deckungsbeitragsabweichung
Ein wichtiger Bestandteil ist ein Objektfilter, der bei der Untersuchung den Hauptverursacher misst
(größte Streuung der Einzelwerte, z.B. Abstandsmaß 50%).
Beispiel: Deckungsbeitragsabweichung bei Kundengruppen, Regionen und Produktgruppen bringt
die Dimension, in der die Streuung der Einzelabweichung am größten ist, also Produktgruppe F und
A. Das voreingestellte Abstandsmass (50%) gewährleistet, dass nur die wirkliche „Spitzengruppe“
der verursachenden Objekte berücksichtigt wird.
Beispiel: Abb. 5/2 zeigt einen Analyseweg Drill Down mit folgendem Inhalt:
Der Gesamtdeckungsbeitrag (oder das Ergebnis) mag noch im Plan liegen, während sich auf
tieferen Ebenen der Controllinghierarchien große und kleine Abweichungen kompensieren.
Der Navigator identifiziert automatisch Verursacher von Abweichungen und Kompensationen. Der
Anwender hat alle Freiheitsgrade, der Navigator generiert lediglich Vorschläge. So empfiehlt er im
Beispiel die Kundengruppe D (da dort die Streuung der Einzelabweichungen am größten ist) und
dort die Produktgruppe 1 für weitere Analyse, da auf die Verkäufe in dieser Kombination ein großer
Anteil der Gesamtabweichung zurück zuführen ist. Weitere Analysen, die die Abweichungen in
Einzelbestandteile zerlegen, müssen nun die Ursachen aufdecken.
Navigator hat ein Top-Down-Vorgehen und arbeitet komplexe Controllinghierarchien ab. Dabei
macht er auf kritische Sachverhalte aufmerksam. Abb.5/2 zeigt das Ergebnis einer Navigator-
Analyse.
Die Herausforderung liegt im geschickten, effizienten Navigieren. Ziel der IT-Unterstützung ist es
dann, wenn auf einer oberen Hierarchiestufe eine signifikante Differenz gefunden wurde, diese auf
verursachende Kennzahlen zurückzuführen. Diese können auf einer niedrigeren Ebene der gleichen
Hierarchie oder in einer anderen Hierarchie liegen. Jeder Schritt bei der Suche soll solche
Hierarchiestufen aus den verschiedenen Hierarchien selektieren, die einen möglichst hohen Anteil
der Ausgangsabweichung mit wenigen Objekten erklären.
Im Extremfall könnte beispielsweise die Plan-Ist-Differenz des Erlöses einer Sparte ausschließlich
durch eine Artikelgruppe verursacht sein. In diesem Fall wäre die Hierarchiestufe der Artikelgruppe
am geeignetsten für eine Erklärung der Abweichungsursachen.

• Briefing Book sind einfachere Informationszusammenstellungen, die in ihrer Struktur längere Zeit
konstant bleiben und infolgedessen wie starre Formulare gespeichert werden können.
So hat SAP R/3 in jedem Funktionsmodul ein EIS integriert, insbesondere in der Funktion
Informationssystem.

5.3 Data Warehouse

5.3.1 Grundlegende Merkmale


EIS verwendet als Datenquellen meist nur interne Daten, die in den operativen betriebswirtschaftlichen
Standardsoftwarepaketen vorliegen. Prozesse, die unmittelbar auf die Märkte gerichtet sind, wie
beispielsweise der Vertrieb- und Kundenservice, werden heute durch EIS nur unzureichend unterstützt.
Zu den Daten aus den operativen ERP-Systemen müssen zusätzlich Informationen aus Online-
Datenbanken, siehe Kap. 2.1, und dem Internet gesammelt werden.
Für fundierte Entscheidungen müssen Quantitative Datenarten von extern (z.B. Marktvolumen,
Marktanteile, Verbrauchskennzahlen), und von intern (z.B. Auftragseingang, Umsatz, Kosten,
Deckungsbeitrag, Produktivität) sowie Qualitative Datenarten von extern (z.B. Presse-Meldungen,
Patente, Gutachten) und von intern (z.B. Kundenbesuchs-Berichte, Projektberichte) gesammelt werden.

101
Mit einem Data Warehouse führt man die internen Informationsressourcen aus Einkauf, Lager/Bestände,
Personal, Vertrieb, Finanzen mit den externen Informationsressourcen wie Kunden, Lieferanten, Markt,
Wettbewerb zusammen und erzeugt Berichte, Analysen und Trends.
Die grundlegenden Merkmale eines Data Warehouse sind folgende [Behme 98]:
• Vereinheitlichung: Vor Übernahme der Daten in das Data Warehouse ist ein Abgleich der
verschiedenen internen und externen Daten notwendig. Außerdem sind Vereinbarungen über
die im Data Warehouse abgelegten Attribute zu treffen, da in unterschiedlichen Vorsystemen
oftmals gleiche Datenobjekte verschieden benannt sind.
• Themenausrichtung: Die konsequente Themenausrichtung an Sachverhalten des Unternehmens
(z.B. nach Kunden und Produktkriterien) setzt eine Neuorientierung der operativen Daten, die
weitgehend funktions- bzw. prozessorientiert gespeichert werden, voraus.
• Zeitorientierung: Während bei operativen Systemen eine zeitpunktgenaue Betrachtung der
Daten im Mittelpunkt steht, liegt das Interesse bei der Auswertung von entscheidungsrelevanten
Informationen eher in einer Zeitraumbetrachtung (z.B. Trendanalyse).
• Dauerhaftigkeit: Die in einem Data Warehouse gespeicherten Daten werden nach der
fehlerfreien Übernahme und gegebenenfalls erfolgten Korrekturen in der Regel nicht mehr
verändert. Daher dürfen die späteren Zugriffe im Rahmen einer Analyse nur lesend erfolgen.
Die Daten werden nicht gelöscht, sondern ihrer Priorität entsprechend auf unterschiedliche
Medien (z.B. Platten, Bänder) ausgelagert.
Typische Fragen, die man mit einem Date Warehouse beantworten will, sind folgende:
• Berichten, veröffentlichen, verteilen, durchsehen: Wie läuft Produktion?
• Leistungsbemessung: Wie entwickelt sich meine Direktion?
• Ad-hoc-Anfragen: Wo steht aktuell Vermittler Maier?
• Analyse: Sollte ich einen Wettbewerb ausloben?
• Erkennen von Zusammenhängen: Hier ist eine Gelegenheit!

5.3.2 Architektur des Data Warehouse (DW)


Im Folgenden betrachten wir die Bestandteile von DW, die in Abb. 5/3 grafisch dargestellt sind [Behme
98].
• Als Kernkomponente ist eine von den operativen IT-Systemen isolierte, unternehmensweite
Datenbasis zu verstehen, die heute i.d.R. durch eine relationale Datenbank gebildet wird.
• Extraktions- und Transformationsprogramme und Laden (ETL) zur Übernahme
unternehmensinterner und –externer Daten. Sie sind die Schnittstelle zum originären
Basissystem. Extraktion der relevanten Daten, meist aus verschiedenen Quellen oder
Quellensystemen. Bei den Transformationsprozessen handelt es sich um Bereinigung,
Zuordnung, Verdichtung in das gemeinsame, harmonisierte Zielschema des DW; z.B. um
Währungsumrechnungen, Konzernkonsolidierungen oder um Abgleiche zwischen
existierenden Homonymen und Synonymen. Ziel ist es die meist heterogenen strukturierten
Informationen aus unterschiedlichen Quellen bzw. operativen Systemen zusammenzuführen
und eine einheitliche Datensicht auf das Unternehmen zu implementieren.
Extraktion
o Daten aus unterschiedlichen Quellsystemen, wie zum Beispiel Datenbanken oder Excel-
Tabellen, extrahierten und in DW laden.
o Verschiedene Strategien, zu welchen Zeitpunkten die Extraktion geschehen soll könnten
sein
o Periodische Extraktion: Die Daten werden zu festgelegten Zeitpunkten extrahiert.
Zum Beispiel am ersten Tag jedes Monats.
o Extraktionen auf Anfrage: Die Daten werden auf eine konkrete Anfrage hin
extrahiert.
o Ereignisgesteuerte Extraktionen: Die Daten werden extrahiert, wenn ein
bestimmtes Ereignis eintritt. Zum Beispiel wenn eine bestimmte Anzahl neuer
Daten zu einem Quellsystem hinzugefügt wurde.
o sofortige Extraktion bei Änderungen: Die Daten werden extrahiert, sobald eine
Änderung in der Quelle eingetreten ist.
Transformation
102
o Daten werden entsprechend dem Schema der Zieldatenbank angepasst.
o Anpassung von Datentypen
o Vereinheitlichung von Datumsangaben und Zeichenketten
o Umrechnung von Maßeinheiten
o Kombination und Separation von Attributwerten
o Transformationen, die der Datenbereinigung dienen wie Eliminieren von Duplikaten,
Erkennen und Korrigieren von fehlerhaften Daten
Es gibt eigene Software für ETL wie Informatica und Ascential.
• Bei sehr großen Datenbeständen kann sich der interaktiven Zugriffe der Benutzer auf die
zentrale unternehmensweite Datenbank eines DW als zu unflexibel und zu langsam erweisen.
Aus diesem Grund werden häufig funktionsbereichs- und personengruppenspezifische Extrakte
aus der Datenbasis entnommen und als Data Marts gespeichert. Mit Data Marts lässt sich dann
ein Großteil der Abfragen eines Funktionsbereichs oder einer Personengruppe einfach und
schnell bedienen. Man kann durch gezielte Analyse der Geschäftsprozesse Data Marts
generieren, die mit 20 % der Daten 80 % der Anfragen eines speziellen Funktionsbereichs
abdecken.
• OLAP für spezielle Analysen. Näheres dazu ist in Kap. 5.4.1 beschrieben.
Abb. 5/3: Architektur eines DW

OLAP
DW-Admi-
Data
nistrator
Meta-Daten Mart

Transformations-
u. Extraktionsprozess
unterneh-
mens-
weite
DW- DB
operative •verdichten
Systeme + •integrieren
externe Systeme •filtern
•konvertieren

103
Abb. 3.2/1 Architektur eines Data Warehouse
Abb. 3.2/2 Beispiel eines Front End von DW als Info-Cockpit bei New Office AG.

Abb. 5/4: Benutzeroberfläche eines DW als Cockpit [Bissantz]

• Die für diese Transformations- und Extraktionsprozesse benötigten Regeln sind Grundlage für
die Metadaten. Metadaten, die in den klassischen Data Dictionaries von Datenbanken
existieren, haben in den operativen Systemen eher Dokumentationscharakter. Im Data
Warehouse stellen sie dem Entscheider das nötige Wissen zur Verfügung, um herauszufinden
welche Daten vorhanden sind, wie diese genau definiert sind und wie er auf diese zugreifen
kann. Es müssen alle Verdichtungsstufen (z.B. Monats-, Quartals- oder Jahresdaten)
einschließlich eines Zeitplanes (Zeitpunkte der Verdichtung) beschrieben sein, um wiederholte
Konsolidierungen von Benutzern zu vermeiden.
Für das Data-Warehouse-Management stellt die Datenbank mit den Metadaten alle
notwendigen Informationen zur Steuerung der Transformations- sowie der
Distributionsprozesse bereit. Die Metadaten definieren somit sämtliche Informationsflüsse von
den Quell- zu den Zieldatenbanken. Beispiele für Metadaten sind folgende: Welche Daten gibt
es, wo befinden sie sich und in welchem Format liegen sie vor. Wo kommen die Daten her, wer
ist für sie verantwortlich und wann war das letzte Update? Welche Werkzeuge sind zum
Auffinden der Daten geeignet? Ist der gewünschte Bericht schon vorhanden? Wie wird die
Auswertung durchgeführt.
Metadaten kann man sich als Kochrezept vorstellen, in denen steht für welche Fragestellung
welche Daten zu besorgen sind und mit welchen Data Mining Verfahren sie auszuwerten sind.

• Die Frontends beim Entscheider können EIS-Anwendungen oder ein standardisiertes


Berichtswesen sein. Als Beispiel sieht man in Abb. 5/4 das Info-Cockpit bei New Office AG.

104
5.4 OLAP und Data Mining

5.4.1 OLAP
OnLine Analytical Processing (OLAP) umfasst eine Reihe von Analysefunktionalitäten, mit denen
mehrdimensionale deskriptive Datenanalysen möglich sind. Dabei werden mehrere Attribute (z.B.
Produktname, Zeit, Vertriebsort) eines Datensatzes als Elemente eines mehrdimensionalen Würfels, des
OLAP-Würfels (OLAP-Cube) aufgefasst. Dies ermöglicht den einfachen Zugriff auf die Datenelemente
entsprechend der gewählten Dimensionen und bietet darüber hinaus eine Reihe von Grundoperationen
wie Slicing, Dicing, Pivoting, Roll-Up und Drill-Down. Beim Slicing wird nur ein Ausschnitt des
Würfels betrachtet und die Daten der aus dem Würfel geschnittenen Scheibe werden analysiert. Beim
Dicing wird der Würfel in mehrere Dimensionen zugeschnitten (Spalten und Zeilen ausgelassen),
wodurch wieder ein Würfel entsteht, der eine Untermenge der Daten des ursprünglichen Würfels enthält.
Beim Pivoting wird der gesamte Würfel gedreht und die Daten werden aus anderen Dimensionen
betrachtet (in SAP-Berichtssystem heißt das „Aufriss wechseln“). Roll-Up betrachtet die Aggregation
der Daten innerhalb einer oder mehrerer Dimensionen. Drill-Down verringert die Aggregation der Daten
und ermöglicht eine detailliertere Betrachtung.

5.4.2 Data Mining


Unter dem Begriff Data Mining versammeln sich eine Reihe von Verfahren und Anwendungen aus
Mathematik, Statistik, künstlicher Intelligenz und maschinellem Lernen. Der Begriff kann wie folgt
definiert werden:
Unter Data Mining verstehen wir automatische Verfahren zur Analyse sehr großer
Datenbestände, die aus der unübersehbaren Fülle von Details bisher unbekannte Strukturen und
Zusammenhänge herausfiltern und diese Informationen so aufbereiten und bewerten, dass sie
eine wertvolle Basis zur Lösung von Geschäftsproblemen darstellen.
Um diesen Anspruch zu genügen ist ein kompletter Wissensgewinnungsprozess erforderlich, siehe Abb.
5/5. Oft wird der gesamte Prozess mit Data Mining bezeichnet, manchmal aber auch nur der Teil der
Wissensgewinnung in diesem Prozess.
Der Prozess des Data Mining ist in Abb. 5/5 dargestellt. Es beginnt mit der Definition der Aufgabe ans
Data Warehouse. Dann werden die dafür benötigten Daten selektiert und in ein Format transformiert,
auf dem die Data Mining Verfahren operieren können. Die Mining-Verfahren, die nachfolgend
besprochen werden, kommen nun zum Einsatz. Sie extrahieren Informationen und suchen nach
Ähnlichkeiten. Daraufhin werden die Ergebnisse visualisiert und analysiert, was bei Bedarf wieder in
die zurückliegenden Schritte einsteigen lässt mit neuen Erkenntnissen darüber, welche Daten benötigt
werden oder welche Verfahren wie angewandt werden.

Abb. 5/5: Prozess des Data Mining

105
Zum Data-Mining gehören Methoden wie künstliche neuronale Netze, Bayes’sches Lernen,
Entscheidungsbäume, instance-based learning, logische Programmierung, Einsatz von Regeln und
statistische Algorithmen, Clustering, Klassifikation, Segmentation von Benutzerdaten, Assoziations-
und Korrelationsanalysen, Sequenzanalysen, Text Mining und Outlier detection (Erkennung von
Ausreißern).
Vier dieser Methodenklassen: Assoziation, Klassifikation, Regression und Cluster betrachten wir nun
kurz. Jede von ihnen gibt es auch in verschiedenen Varianten.

Bei der Clusterung werden Ausprägungen aufgrund ihrer Ähnlichkeit in Gruppen eingeteilt. Die
Gruppen sind vorher nicht bekannt. Alle Objekte eines Clusters haben gemeinsame Eigenschaften. Als
Beispiel kann man entweder eine Clusterung mit den beiden Merkmalen Alter und Kaufkraft vorstellen.
Oder sich ein Resultat der Clusterbildung im Controlling vorstellen, das lautet „Abweichung des
Deckungsbeitrages vom Plan zwischen 23 % und 35 % bei den Verkäufern der Artikelgruppe 4 an
Kundengruppe C.“.
In einem weiteren Beispiel wurde die Zuordnung von 1000 Datensätzen zu 4 Cluster ausgewertet. Dabei
wurde jeweils die Anzahl der Elemente erfasst, die in dem zugehören Cluster eine bestimmte
Merkmalsausprägung besitzt (z.B. gehören 211 zum Cluster 0, siehe Abb. 5/6).
Danach wird zu jeder Merkmalsausprägung der prozentuale Anteil der Elemente in einem Cluster zur
Gesamtheit aller Objekte, die diese Merkmalsausprägung besitzen, berechnet und farbig markiert.
Damit ist man in der Lage, zu jedem Merkmal eine Aussage treffen zu können, wie groß der Einfluss
der einzelnen Merkmalsausprägung auf die Zuordnung eines Kunden zu einem Cluster ist.
So sind z.B. alle Kunden, die 0-1 Kind haben, mit 92% Wahrscheinlichkeit dem Cluster 1 zugeordnet.
Man kann diese Cluster umbenennen und als „Kunden ohne Kinder“ bezeichnen. Mit diesem Wissen
kann bei späteren Marketingaktionen, bei denen es darum geht, kinderfreundliche Hotels zu bewerben
diese Kundengruppe ausgeschlossen werden.

Abb.5/6: Beispiel Clusterverfahren

Ein weiteres Beispiel für Clusterverfahren ist Abb. 5/12.

106
Clusterverfahren gibt es u.a. als hierarchische Verfahren, partitionierende Verfahren, K-Means-
Algorithmen.

Die Assoziationsanalyse bezeichnet die Suche nach starken Regeln. Diese daraus folgenden
Assoziationsregeln beschreiben Korrelationen zwischen gemeinsam auftretenden Dingen. Der Zweck
einer Assoziationsanalyse besteht also darin, Items (Elemente einer Menge, wie z. B. einzelne Artikel
eines Warenkorbs) zu ermitteln, die das Auftreten anderer Items innerhalb einer Transaktion
implizieren. Eine solcherart aufgedeckte Beziehung zwischen zwei oder mehr Items kann dann als Regel
der Form „Wenn Item(menge) A, dann Item(menge) B“ bzw. A → B dargestellt werden. Z.B. wer
Urlaub in Sydney bucht, bucht auch Urlaub in Mailand, Side und Shanghai.
Ein typisches Anwendungsfeld sind die Zusammenhänge beim Einkauf, die sogenannte
Warenkorbanalyse, um gezielt Werbemaßnahmen einzuleiten. Bei 80 Prozent der Einkäufe, in denen
Bier gekauft wird, werden auch Kartoffelchips gekauft. Beide Produkte kommen in 10 Prozent der
Einkäufe vor.

Bei der Klassifikation wird ein qualitatives Merkmal durch eine Reihe von anderen Variablen erklärt.
Ziel ist es, ein neues Objekt einer der bekannten Gruppen zuzuordnen. Hier startet man mit einer
Klasseneinteilung einer Objektmenge. Gesucht ist also ein Beschreibungsmodell (Classifier), das für
neue Objekte die Klassenzugehörigkeit bestimmt. Als Technik verwendet man eine Trainingsmenge mit
gegebener Klasseneinteilung. Ein Verfahren ist u.a. das Entscheidungsbaumverfahren.
Entscheidungsbäume (siehe Abb. 5/7) leiten aus einer gegebenen Datenmenge einen Satz von Regeln
ab, um unbekannte Objekte zu klassifizieren. Zum Beispiel kann eine Bank aus den Erfahrungen mit
früheren Kreditgeschäften Regeln ableiten, wenn ein Kunde vermutlich kreditwürdig ist.
Entscheidungsbäume sind intuitiv verständlich und schnell zu erstellen. Sie reagieren aber empfindlich
auf inkonsistente und fehlende Daten.

Abb. 5/7: Beispiel Klassifikation mit Entscheidungsbaum

Bei der Regression wird versucht ein quantitatives Merkmal durch eine Reihe von anderen Variablen zu
erklären (y=f(x,z)). Das Ergebnis dient zu Prognosezwecken. Beispielsweise prognostiziert man die
Nachfrage nach Lebensmitteln in Abhängigkeit von früheren Käufen, dem Wochentag, der Intensität
der Werbeschaltungen usw. Mittels statistischer Regression ermittelt man z. B. die Parameter einer
Regressionskurve (z.B. y=ax+b, Parameter sind a und b). Aus dieser kann man dann für beliebige x-
Werte die y-Werte berechnen (prognostizieren). Z.B. ein vereinfachtes Beispiel, dass die Anzahl der
online-Tests, die ein Student ablegt, nur von der verbrachten Zeit im iLearn-System abhängt. Die Formel
für die Regressionsgerade lautet in diesem Fall:
Anzahl der online Testsi= a+b*Zeit im iLearni.

107
Beispiel: Formeln von Trendkurven (Regression) ermitteln mit EXCEL
Zahlenpaare, z.B.
3 17
6 24
10 33
14 25
18 18

Abb. 5/8: Regression mittels EXCEL (Einfügen Liniendiagramm, dann Diagrammtools, Layout,
Trendlinie, weitere Trendlinienoptionen, Polynom mit Potenz 2.)

5.5 Methoden des Maschinellen Lernens zur Wissensgenerierung


Was ist Lernen? Lernen von Vokabeln einer Fremdsprache? Auswendiglernen eines Gedichts? Lernen
mathematischer Fertigkeiten? Lernen des Skifahrens?
Einige Definitionen von bedeutenden Leuten:
➢ Simon: jede Veränderung eines Systems, die es ihm erlaubt, eine Aufgabe bei Wiederholung
derselben Aufgabe oder einer Aufgabe derselben Art besser zu lösen.
➢ Scott: ein Prozess, bei dem ein System eine abrufbare Repräsentation von vergangenen
Interaktionen mit seiner Umwelt aufbaut.
➢ Michalski: das Konstruieren oder Verändern von Repräsentationen von Erfahrungen.

Maschinelles Lernen ist es, wenn Computer von Daten lernen ohne explizit programmiert zu werden.
Computer lernen komplexe Funktionen an unstrukturierten Daten anhand von Beispielen und nicht
durch explizite Programmierung. Computer lernen aus den Daten mit einem entsprechenden
Trainingsschema. Das hat großes Potenzial. Das Maschinelle Lernen für das Unternehmen soll bis
2020 jährlich um mehr als 50 % wachsen und einen Markt mit einem Volumen von 4 Mrd. USD
erschließen.
Der aktuelle Boom von Maschinellen Lernen liegt an drei Hauptfaktoren:
1) Big Data. Datenvolumen, die noch vor ein paar Jahren unerreichbar waren, erlauben es uns,
viel größere Netzwerke mit viel mehr Variablen zu trainieren.
2) Großer Rechnerkapazitäten. Erhebliche Verbesserungen der uns zur Verfügung stehenden
Rechenleistung, vor allem auf Grafikkarten oder so genannten GPUs ermöglichen es uns, die riesigen
Mengen an Beispieldaten und Trainingssätzen tatsächlich zu knacken und zu verarbeiten.
3) Verbesserung der Algorithmen des maschinellen Lernens, insbesondere in den Bereichen
Verstärkung Lernen (deep learning and reinforcement learning).

Maschine Learning ermöglicht es uns, den Informationsreichtum, den uns die digitale Transformation
bietet, zu nutzen und die Datenbestände verschiedener Unternehmen in Clouds und Business-

108
Netzwerken zusammenzuführen, um so noch größere Informationspools zu schaffen, aus denen wir
lernen können.
Nach der Prognose von Crisp Research für den Verband Bitkom wird der Markt für Produkte, die auf
Techniken für maschinelles Lernen fußen, also „der globale Umsatz mit Hardware, Software und
Services rund um Cognitive Computing und Machine Learning im Jahr 2017 um 92 Prozent auf 4,3
Milliarden Euro wachsen.“ Und weiter: „Bis zum Jahr 2020 wird sich das Weltmarktvolumen dann
voraussichtlich auf 21,2 Milliarden Euro mehr als verfünffachen.“ In einer ebenfalls von Crisp
durchgeführten Befragung zum Einsatz von Machine Learning in einer Stichprobe von 264 deutschen
Unternehmen sagten 4% der Führungskräfte, dass sie maschinelles Lernen bereits im produktiven
Einsatz in weiten Bereichen ihres Unternehmens haben, 17% setzen es bereits teilweise ein, erste
Erfahrungen haben 25% gemacht, 18% evaluieren die Möglichkeiten und 36% haben noch keine
Aktivitäten in diesem Bereich entwickelt.

5.5.1 Definition Maschinelles Lernen

Maschinelles Lernen ist ein Oberbegriff für die „künstliche“ Generierung von Wissen aus Erfahrung:
Ein künstliches System lernt aus Beispielen und kann diese nach Beendigung der Lernphase
verallgemeinern. Das heißt, es werden nicht einfach die Beispiele auswendig gelernt, sondern es
„erkennt“ Muster und Gesetzmäßigkeiten in den Lerndaten. So kann das System auch unbekannte
Daten beurteilen (Lerntransfer), siehe Abb. 5/9, oder aber am Lernen unbekannter Daten scheitern
(Überanpassung) [wikipedia]
Das Grundprinzip vom Maschinellen Lernen ist, dass der Computer Erfahrung benötigt, um davon zu
erlernen. Erfahrungen sind die Daten, die wir im Computerprogramm zur Verfügung stellen können.
Das Lernen ist immer in Bezug auf eine bestimmte Reihe von Aufgaben zu sehen, dabei wird die
Leistung gemessen, mit der der Computer je Lernschritt die Aufgabe meistert, um zu sehen, ob er
immer besser diese Aufgaben löst. Das ist anders als das allgemeinere Konzept des Lernens, das wir in
der Alltagssprache haben. Die Computer versuchen, eine bestimmte Aufgabe zu optimieren.

Abb. 5/9: Maschineller Lernprozess mit Arbeitsphase (New Data->Prediction)

Beispiel: Apfelsortieranlage
Aufgabe: Abbildung von Größe und Farbe eines Apfels auf die Handelsklasse lernen
Performance-Maß: Zahl der korrekt klassifizierten Äpfel
Klasse von Agenten: das Lernverfahren bestimmt die Klasse aller möglichen Funktionen.
Trainingsdaten: (Erfahrung): Trainingsdaten enthalten das Wissen, welches von dem Lernverfahren
extrahiert werden soll.
Testdaten: zeigen, ob der trainierte Agent gut von den gelernten auf neue Daten generalisieren kann.

Maschinelles Lernen bedeutet, dass der Computer versucht, an einer bestimmten Aufgabe von den
Daten, die wir dem Computer geben, zu erlernen. Man kann also sagen, dass Lernen hier wirklich
bedeutet, dass man sich den meist komplexen Entscheidungsfunktionen annähern muss, die der

109
Computer besser und besser zu verstehen versucht, um die Aufgabe, die ihm gegeben wird, zu
erfüllen.

Abb. 5/10: Erzeugung eines Maschinelles Lernen-Modell

Dieses Modell ist im Grunde eine Funktion, mit der wir eine neue Rezension (bei
Verbrauchermeinungen) klassifizieren und dann die wahrscheinlichste Bezeichnung (label: positiv,
negativ oder neutral) für diese Rezension vorhersagen können.

Abb. 5/11: Abgrenzung Maschinelles Lernen von KI und verwandten Gebieten

Wie unterscheidet sich Maschinelles Lernen von künstlicher Intelligenz? Worin unterscheidet es sich
von Analytics? Worin unterscheidet es sich von Data Mining? Versuchen wir also, einige dieser
Begriffe zu relativieren.
Maschinelles Lernen wird in der Regel als Teilgebiet der Künstlichen Intelligenz gesehen. Aber
Künstliche Intelligenz umfasst andere Bereiche als das Maschinelle Lernen, obwohl das Maschinelle
Lernen derzeit wahrscheinlich die vielversprechendste Richtung ist, um einige der Ziele der
Künstlichen Intelligenz zu erreichen. Maschinelles Lernen hat viele verschiedene Teilgebiete, zum
Beispiel künstliche Neuronale Netze oder Tiefenlernen.

Das Thema ist eng verwandt mit „Knowledge Discovery in Databases“ und „Data-Mining“, bei dem
es jedoch vorwiegend um das Finden von neuen Mustern und Gesetzmäßigkeiten geht. Viele

110
Algorithmen können für beide Zwecke verwendet werden. Außerdem können Methoden der
„Knowledge Discovery in Databases“ genutzt werden, um Lerndaten für „Maschinelles Lernen“ zu
produzieren oder vorzuverarbeiten, und Algorithmen aus dem Maschinellen Lernen finden beim Data-
Mining Anwendung. [wikipedia]

Natürlich benutzt das Maschinelle Lernen Mathematik und spezielle Statistiken. Schließlich hat
Machine Learning viele Überschneidungen mit anderen Bereichen wie Data Mining und der
Wissensentdeckung in Datenbanken.

5.5.2 Anwendungen ML
Typische Beispiele für überwachte maschinelle Lernalgorithmen sind zum Beispiel [Müller und
Guido 2017: S.2-4]:

- Handschrifterkennung bei Postleitzahlen auf Briefumschlägen:


Hier bildet die Handschrift, welche eingescannt wird, die jeweilige Eingabe. Anhand
dieser soll nach erfolgreicher Abarbeitung des Algorithmus die Postleitzahl ausgegeben
werden. Um dabei einen optimalen Trainingserfolg zu erzielen, müssen manuell die
entsprechenden Handschriften entziffert und abgelegt werden. Besonders wichtig ist
dabei, dass das Computersystem bzw. die Maschine in der Lage sein muss auf die
unterschiedlichsten Gegebenheiten zu reagieren. Buchsta-ben, Wörter und Sätze selbst
können groß- und kleingeschrieben, kursiv und mit den verschiedensten Schriftarten
verfasst worden sein.
- Medizinische Diagnosen anhand von Bildern:
Vor allem in der Tumorfrüherkennung werden mittlerweile diese Techniken verstärkt
eingesetzt. Ziel des maschinellen Lernalgorithmus ist es, dass mit Hilfe von Tumorbil-
dern eine Erkennung ermöglicht wird, ob der Tumor gut- oder bösartig ist. Damit dieses
Ziel erreicht werden kann, müssen die jeweiligen Bilder von Experten betrachtet und
begutachtet und in einem letzten Schritt innerhalb von Datenbanken abgelegt werden.
- Erkennung von Kreditkartenmissbrauch:
Täglich fallen unzählige Kreditkartentransaktionen an. Es kann durchaus Sinn machen
frühzeitig bzw. rechtzeitig zu erkennen, ob manche Transaktionen vielleicht betrügeri-
sche Absichten innehaben. Um dies feststellen zu können, ist es notwendig, dass alle
entsprechenden Transaktionen aufgezeichnet und zunächst manuell überprüft werden, ob
es sich denn um einen Betrug handelt oder nicht. Nur so wird erreicht, dass der Al-
gorithmus später ohne große Probleme und ohne menschliche Eingriffe solche Akti-onen
erkennt.
- Spamfilterung:
Die Spamfilterung ist dafür prädestiniert einen maschinellen Lernalgorithmus darauf
anzuwenden. Die Eingabe für den Algorithmus würde eine große Menge von entspre-
chenden E-Mails darstellen. Einige diese Mails sind dabei als Spam gekennzeichnet.
Durch das überwachte Lernen wird nun ermöglicht, dass für eine neue E-Mail bestimmt
werden kann, ob diese als Spam einzuordnen ist.

Typische Beispielalgorithmen für unüberwachtes Lernen sind zum Beispiel:


- Einteilung in Kundengruppen nach Vorlieben:
Kundengruppen selbst ergeben sich immer aus der Betrachtung von Kundendaten. Im
Voraus sind diese nicht vorhanden, da sie immer abhängig vom jeweiligen Geschäfts-feld
sind. Eine etwaige Erstellung von Gruppen und die dazugehörige Einteilung kann nur mit
Hilfe entsprechender unüberwachter Verfahren durchgeführt werden.
- Mustererkennung von Zugriffen auf Websites:
Häufig sollten ungewöhnliche Zugriffe, Fehler oder Nutzungen, die gegen Regeln ver-
stoßen, auf Websites erkannt werden. Die Frage, welche sich in diesem Zusammenhang
allerdings stellt ist, woran man festlegt, was eine solche Nutzung bzw. einen solchen
111
Zugriff ausmacht. Aus diesem Grund müssen unüberwachte Fragestellungen herange-
zogen werden.
- Themenermittlung innerhalb von Websites:
Websites bzw. Blogs weisen immer eine Fülle unterschiedlicher Seiten mit nicht ein-
heitlichen Themen auf. Um nun herauszufinden, welche Themen hauptsächlich vorlie-gen,
müssen auch hier unüberwachte Lernalgorithmen benutzt werden.
Wozu ist Machine Learning noch gut?
-Verarbeitung natürlicher Sprache (Text & Sprache)
-genetische Sequenzanalyse
-Robotertechnik
-Kunden (finanzielles Risiko) Bewertung
-Erkennung terroristischer Bedrohungen
-Compiler-Optimierung
-semantisches Netz
-Computer-Sicherheit
-autonome Systeme

Schauen wir uns also einige der typischen Aufgaben an, die wir zu lösen versuchen, wenn wir
maschinelles Lernen anwenden.

Eines der häufigsten ist Klassifizierung. Es ist eine Art überwachtes maschinelles Lernen, d. h. wir
geben die Eingabedaten und die richtige Antwort auf den Lernalgorithmus während der Trainingszeit.

Abb. 5/12: Klassifikation

In einem Trainingsdatensatz erwarten wir also eine Form von Eingaben, die wir oft Instanzen nennen.
Und sie kommen mit einer richtigen Antwort, dass der Computer schließlich lernen sollte,
vorherzusagen. Die Instanzen werden durch Merkmale repräsentiert, die numerische Vektoren sind,
die einige der Attribute der Daten kodieren. Wie sich Features ableiten lassen, werden wir in späteren
Kapiteln näher erläutern. Der Computer versucht, während des Lernens eine Entscheidungsgrenze zu
finden, die die eine Klasse von der anderen Klasse trennt. In unserem Beispiel hier würde er
versuchen, eine Funktion zu erlernen, die die Pluszeichen von den Minuszeichen trennt.

Und so bedeutet Lernen in gewisser Weise, diese Funktion, die die positiven und negativen Instanzen
am besten trennt, zu approximieren. Nach Abschluss des Trainings können wir dieses Modell, diese
Funktion, auf einem ausgedehnten Test- oder Validierungsset auswerten. Das bedeutet, dass wir diese
Funktion übernehmen, sie auf einen neuen Datensatz anwenden und sie mit den korrekten Ergebnissen
vergleichen, um zu sehen, wie gut die Funktion funktioniert.

112
Wenn wir nicht versuchen, eine Kategorie wie Plus oder Minus vorherzusagen, sondern wir
versuchen, eine Zahl vorherzusagen, dann nennen wir das ein Regressionsproblem.

Abb. 5/13: Regression

Also wieder einmal würden wir mit einer Form von Daten beginnen, einige Beispiele, die der Input für
den Algorithmus des maschinellen Lernens sind. Wir würden sie als Merkmale darstellen. Und dann
versucht das Training, die richtige Ausgabe vorherzusagen, aber jetzt ist die Ausgabe vielleicht nur
noch eine Zahl statt einer diskreten Kategorie.

5.5.3 Algorithmische Ansätze

Die praktische Umsetzung geschieht mittels Algorithmen. Verschiedene Algorithmen aus dem Bereich
des Maschinellen Lernens lassen sich grob nach diesem Schema einteilen: [wikipedia]

• Überwachtes Lernen (engl. supervised learning). Der Algorithmus lernt eine Funktion aus
gegebenen Paaren von Ein- und Ausgaben. Dabei stellt während des Lernens ein „Lehrer“ den
korrekten Funktionswert zu einer Eingabe bereit. Ziel beim überwachten Lernen ist, dass dem
Netz nach mehreren Rechengängen mit unterschiedlichen Ein- und Ausgaben die Fähigkeit
antrainiert wird, Assoziationen herzustellen. Ein Teilgebiet des überwachten Lernens ist die
automatische Klassifizierung. Ein Anwendungsbeispiel wäre die Handschrifterkennung.
• Teilüberwachtes Lernen (engl. semi-supervised learning). Nur für einen Teil der Eingaben
sind die dazugehörigen Ausgaben bekannt.
• Unüberwachtes Lernen (engl. unsupervised learning). Der Algorithmus erzeugt für eine
gegebene Menge von Eingaben ein Modell, das die Eingaben beschreibt und Vorhersagen
ermöglicht. Dabei gibt es Clustering-Verfahren, die die Daten in mehrere Kategorien einteilen,
die sich durch charakteristische Muster voneinander unterscheiden. Das Netz erstellt somit
selbständig Klassifikatoren, nach denen es die Eingabemuster einteilt. Ein wichtiger
Algorithmus in diesem Zusammenhang ist der EM-Algorithmus, der iterativ die Parameter
eines Modells so festlegt, dass es die gesehenen Daten optimal erklärt. Er legt dabei das
Vorhandensein nicht beobachtbarer Kategorien zugrunde und schätzt abwechselnd die
Zugehörigkeit der Daten zu einer der Kategorien und die Parameter, die die Kategorien
ausmachen. Eine Anwendung des EM-Algorithmus findet sich beispielsweise in den Hidden
Markov Models (HMMs). Andere Methoden des unüberwachten Lernens, z. B.
Hauptkomponentenanalyse, verzichten auf die Kategorisierung. Sie zielen darauf ab, die
beobachteten Daten in eine einfachere Repräsentation zu übersetzen, die sie trotz drastisch
reduzierter Information möglichst genau wiedergibt.
• Bestärkendes Lernen (engl. reinforcement learning). Der Algorithmus lernt durch Belohnung
und Bestrafung eine Taktik, wie in potenziell auftretenden Situationen zu handeln ist, um den
Nutzen des Agenten (d. h. des Systems, zu dem die Lernkomponente gehört) zu maximieren.
Dies ist die häufigste Lernform eines Menschen.

113

Aktives Lernen (engl. active learning). Der Algorithmus hat die Möglichkeit für einen Teil der
Eingaben die korrekten Ausgaben zu erfragen. Dabei muss der Algorithmus die Fragen
bestimmen, welche einen hohen Informationsgewinn versprechen, um die Anzahl der Fragen
möglichst klein zu halten.

Klassen von maschnellen Lernverfahren


1. Lernen mittels Entscheidungsbäumen
2. Clustering
3. Stützvektormethode/Support Vektor-Maschinen ( SVM)
4. Künstliche neuronale Netze (Artificial neural network NN)
5. Tiefes Lernen (deep learning). Es besteht aus mehreren versteckten Schichten in einem NN.
Dieser Ansatz versucht, die Art und Weise zu modellieren, wie das menschliche Gehirn Licht
und Schall zu Sehen und Hören verarbeitet. Einige erfolgreiche Anwendungen des Deep
Learning sind Computer Vision und Spracherkennung
6. Entdecken von Assoziationsregeln
7. Bayesische Netzwerke
8. Verstärkungslernen (reinforcement learning)

5.5.4 Zwei Maschinelle Lernenverfahren


Erinnerung Entscheidungsbäume
gegeben: Menge von Eigenschaften, die Situation beschreiben
Entscheidungsbaum zeigt, ob Zielprädikat erfüllt ist oder nicht

5.5.4.1 Support Vektor-Maschinen ( SVM)


Support Vector Machines (SVMs) sind eine Reihe von verwandten Lernmethoden, die zur
Klassifizierung und Regression verwendet werden. Anhand einer Reihe von Trainingsbeispielen, die
jeweils als zu einer von zwei Kategorien gehören, erstellt ein SVM-Trainingsalgorithmus ein Modell,
das vorhersagt, ob ein neues Beispiel in die eine oder andere Kategorie fällt.

Jedes Objekt wird durch einen Vektor in einem Vektorraum repräsentiert. Aufgabe der Support Vector
Machine ist es, in diesen Raum eine Hyperebene einzupassen, die als Trennfläche fungiert und die
Trainingsobjekte in zwei Klassen teilt. Der Abstand derjenigen Vektoren, die der Hyperebene am
nächsten liegen, wird dabei maximiert. Dieser breite, leere Rand soll später dafür sorgen, dass auch
Objekte, die nicht genau den Trainingsobjekten entsprechen, möglichst zuverlässig klassifiziert
werden.

Beim Einsetzen der Hyperebene ist es nicht notwendig, alle Trainingsvektoren zu beachten. Vektoren,
die weiter von der Hyperebene entfernt liegen und gewissermaßen hinter einer Front anderer Vektoren
„versteckt“ sind, beeinflussen Lage und Position der Trennebene nicht. Die Hyperebene ist nur von
den ihr an den nächsten liegenden Vektoren abhängig – und auch nur diese werden benötigt, um die
Ebene mathematisch exakt zu beschreiben. Diese nächstliegenden Vektoren werden nach ihrer
Funktion Stützvektoren (engl. support vectors) genannt und verhalfen den Support Vector Machines
zu ihrem Namen.

Abb. 5/14: Lineare Trennbarkeit

Eine Hyperebene kann nicht „verbogen“ werden, sodass eine saubere Trennung mit einer Hyperebene
nur dann möglich ist, wenn die Objekte linear trennbar sind. Diese Bedingung ist für reale
114
Trainingsobjektmengen im Allgemeinen nicht erfüllt. Support Vector Machines verwenden im Fall
nichtlinear trennbarer Daten den Kernel-Trick, um eine nichtlineare Klassengrenze einzuziehen.

Die Idee hinter dem Kernel-Trick ist, den Vektorraum und damit auch die darin befindlichen
Trainingsvektoren in einen höherdimensionalen Raum zu überführen. In einem Raum mit genügend
hoher Dimensionsanzahl – im Zweifelsfall unendlich – wird auch die verschachteltste Vektormenge
linear trennbar. In diesem höherdimensionalen Raum wird nun die trennende Hyperebene bestimmt.
Bei der Rücktransformation in den niedrigerdimensionalen Raum wird die lineare Hyperebene zu
einer nichtlinearen, unter Umständen sogar nicht zusammenhängenden Hyperfläche, die die
Trainingsvektoren sauber in zwei Klassen trennt.

Bei diesem Vorgang stellen sich zwei Probleme: Die Hochtransformation ist enorm rechenlastig und
die Darstellung der Trennfläche im niedrigdimensionalen Raum im Allgemeinen unwahrscheinlich
komplex und damit praktisch unbrauchbar. An dieser Stelle setzt der Kernel-Trick an. Verwendet man
zur Beschreibung der Trennfläche geeignete Kernelfunktionen, die im Hochdimensionalen die
Hyperebene beschreiben und trotzdem im Niedrigdimensionalen „gutartig“ bleiben, so ist es möglich,
die Hin- und Rücktransformation umzusetzen, ohne sie tatsächlich rechnerisch ausführen zu müssen.
Auch hier genügt ein Teil der Vektoren, nämlich wiederum die Stützvektoren, um die Klassengrenze
vollständig zu beschreiben.

Sowohl lineare als auch nichtlineare Support Vector Machines lassen sich durch zusätzliche
Schlupfvariablen flexibler gestalten. Die Schlupfvariablen erlauben es dem Klassifikator, einzelne
Objekte falsch zu klassifizieren, „bestrafen“ aber gleichzeitig jede derartige Fehleinordnung. Auf diese
Weise wird zum einen Überanpassung vermieden, zum anderen wird die benötigte Anzahl an
Stützvektoren gesenkt.

Abb. 5/15: Beispiel für eine Klassifizierung mit einer SVM. Zu sehen ist die in den
Eingangsraum abgebildete trennende Hyperebene (schwarze Linie) und die Support-Vektoren
(dünn türkis umkreist).

115
5.5.4.2 Künstliche neuronale Netze (Artificial neural network NN)
Mit Hilfe Neuronaler Netze wird grundlegend versucht menschliche Arbeitsweisen des
Gehirns in Computersystemen und Maschinen nachzubilden. Die KI-Systeme sollen aus
Beispielen in der Lage sein selbstständig zu lernen und ähnlich wie das Gehirn neue
Rückschlüsse und Lösungsansätze für bislang unbekannte Situationen finden. Die Grundidee
für das Forschungsgebiet stammt dabei aus der Überlegung, dass der Großteil der Dinge,
welche Menschen tun, ohne großes Nachdenken ablaufen. wie Fahrradfahren, Autofahren,
Lesen und Schreiben oder Stimmen und Geräusche wieder zu erkennen. Was sind neuronale
Netze überhaupt? Im Endeffekt sind neuronale Netze nichts anderes als ein Netzwerk
bestehend aus bis zu 100 Milliarden Nervenzellen des Gehirns.
Die Nervenzellen und deren Vernetzung untereinander sowie die Verschachtelung sind verantwortlich
für die Wahrnehmung, das Bewusstsein, die Lernfähigkeit und die Assoziationen. Über sogenannte
Dendriten nehmen die einzelnen Neuronen etwaige Reizungen bzw. Erregungen auf und leiten diese
an den Zellkern der Neuronen weiter. Mit Hilfe der Axone wird die Reizung bzw. Erregung an die
nächsten Neuronen weitergeführt. Synapsen bilden die Brücke zwischen Axon eines Neurons und
Dendriten anderer Neuronen. Wichtig dabei ist, dass ein Neuron des Gehirns bis zu 10.000
Verbindungen besitzen kann.

Abb. 5/16: Neuronen im menschlichen Gehirn

Diese biologische Funktionsweise der natürlichen neuronalen Netze bildet die Grundlage für die
künstlichen Gegenstücke. Etwaige Eingabeinformationen stellen in diesem Zusammenhang die
Eingangswerte dar. Propagierungsfunktionen verknüpfen im Anschluss die Eingabeinformationen mit
den Verbindungsgewichten. Über eine Aktivierungsfunktion wird anschließend der Zustand des
Neurons bestimmt. Zum Schluss wird mit Hilfe einer Ausgabefunktion ein Ausgabewert ermittelt,
welcher an die nachfolgenden Neuronen weitergeleitet werden kann

Abb.5/17: Topologie eines Neuronalen Netzes 2-3-3-3


116
Beispiel NN lernen: http://playground.tensorflow.org/
Eine komplexe Variante des Maschinellen Lernens ist das Deep Learning. Dabei handelt es sich
um vielschichtige Neuronale Netze mit mehreren Hundert Neuronen in den versteckten Schichten.
Diese sind dem Menschen überlegen vor allem dann, wenn es gilt, Big Data, also große und
unstrukturierte Datensätze, zu analysieren. Aber Deep Learning Systeme sind in gewisser Weise
„Fachidioten“, da ihnen die Vielseitigkeit menschlicher Intelligenz fehlt

Die Implementierung des NN erfolgte in Phyton mithilfe des Frameworks “Keras” (basiert auf Tensor-
Flow”) (https://keras.io). Die Lernepochen betrugen 200 und die Fehlerfunktion war Logarithmischer
Fehler.
Der Lernphase folgt eine Testphase und dann eine Arbeitsphase, bei der man das gelernte NN anwendet
Anwendungsbeispiel:
Wir ließen das 2-4-2 Neuronale Netz mit den 115 Datensätzen vom WS 15/16 lernen und testeten die
Prognosegenauigkeit an den 111 Datensätzen vom WS 16/17. Da das NN eine Prognosegenauigkeit von
76 % erreichte, wagten wir im WS 17/18 den ersten Feldversuch. Das gelernte Neuronale Netz
prognostizierte aus den Spuren beim digitalen Lernen des 1. Sem. BWL von Okt. und Nov. 2017 (Anzahl
der Klicks), 21 Gefährdete. Denen schickte das System eine E-Mail mit dieser Einschätzung und den
Hinweis zu mehr Engagement.

5.6 Fallbeispiele

5.6.1 Data Warehouse bei Handelsgruppe Globus

Istzustand
Vertriebsabteilung und Controller setzen Access-Datenbanken und Excel-Dateien ein. Dies ist zu einer
unüberschaubaren Datensammlung angewachsen, die keine zuverlässigen Unternehmenszahlen mehr
bot. Z.B. präsentieren die Mitarbeiter der Geschäftsführung voneinander abweichende Umsatzzahlen,
die zum Teil aus dem SAP-Modul Financials, teils aus der Warenwirtschaft und teils direkt aus den
Point-of-Sales-Systemen einzelner Niederlassungen stammten.

Sollzustand
Data Warehouse auf der Basis eines relationalen Datenbanksystems mit einem einheitlichen
multidimensionalen Datenmodell für Umsatzreports. Daten kommen aus den Kassenterminals der 45
Warenhäuser, 57 Baumärkten und 11 Elektrofachmärkten in Deutschland und Tschechien.

Lösung
Fachspezifisches Data Warehouse, das mit jedem Point of Sales des Handelsunternehmens verbunden
ist. Es sollte sich abgrenzen gegenüber den operativen Geschäftsprozessen und keine SAP-Daten aus
dem Tagesgeschäft anzapfen.
Ziel war der komplette Neuaufbau eines grundlegend eigenständigen Datensystems, das jederzeit
flexibel erweiterbar ist.
Zu den operativen Vorsystemen im Backend zählen die Warenwirtschaft, die Kassensysteme, ein
selbstentwickeltes Planungssystem und SAP Financials. Daran angebunden ist eine zentrale Oracle-
Datenbankinstanz. Die Datenextraktion und Transformation sowie die Befüllung der Datenbank
übernehmen das Abfrage-Tool PL/SQL und der Warehouse Builder von Oracle.

Als Middleware (ein Protokollbündel als Dienstleister zwischen den Anwendungen) fungieren der
Application Server und der Enterprise Manager. Die Frontend-Seite ist ein Portal für die Interaktion der
Benutzer mit dem Gesamtsystem. Die eigentliche DW-Schicht liegt als separater Bereich in der
Datenbank.

117
In jedem Baumarkt oder Warenhaus gibt es eine eigene Warenwirtschaftsinstanz sowie
softwaregestützte Kassensysteme. Dies ist dezentral. Der Buchhaltungs- und Finanzbereich bleibt als
zentrale SAP-Anwendung im Hauptquartier, ebenso das Planungssystem.

Alle halbe Stunde werden die als Textdatei abgespeicherten Umsatzzahlen aus den Kassen automatisch
abgeholt und im Datenpool des DW abgelegt. Anschließend erfolgt die Aufbereitung für die
Berichterstellung. Dabei wird nicht auf Artikelbasis analysiert, sondern aggregiert auf Warengruppen.
Im Tagesverlauf kommen weitere Daten aus der Warenwirtschaft und Informationen aus dem Planungs-
Tool dazu.
Der Bottleneck für die Geschwindigkeit war die Funktion der Extraktion, Transformation und Laden
der Daten. 80 % der Projektdauer entfielen auf die Anpassung und Programmierung dieser Ebene. Es
werden die relational gespeicherten Daten zu multidimensionalen Business-Objekten in Form von Data
Marts aufbereitet und stehen als aggregierte Sichten für weitere Anwendungen zur Verfügung.
Das Frontend ist ein Internet-basiertes Portal, auf das mit einem Browser zugegriffen werden kann. Mit
Hilfe der Push-Technologie lassen sich Meldungen an die Arbeitsgruppe schicken und Aktionen
anstoßen.

Der Abruf und die Aufbereitung der Daten zu aussagefähigen Management-Informationen läuft
reibungslos. Einfach geht die Übertragung auf neue Niederlassungen.
Am meisten beeindruckte die halbstündige Einspielung der Kassendaten europaweit. Die eigentliche
Datenverarbeitung benötigt 5 Minuten. Dazu kommen Datenselektion und Übertragung.

5.6.2 Fallbeispiel Business Intelligence: Analytisches Customer Relationship


Management (a-CRM)
CRM bedeutet jeden einzelnen Kunden zu „kennen“ und dieses Wissen bei jedem Kontakt mit ihm auch
zu nutzen. Bei einigen Tausend Kunden benötigt man technologische Unterstützung. Die offizielle
Definition des Deutschen Direktmarketing Verbandes (DDV) lautet:

„Customer-Relationship-Management (CRM) integriert und optimiert auf der Grundlage einer


Datenbank und Software zur Marktbearbeitung sowie eines definierten Verkaufsprozesses
abteilungsübergreifend alle kundenbezogenen Prozesse in Marketing, Vertrieb, Kundendienst.“

Der Unternehmenserfolg wird bei Fokussierung der Kundenbeziehungen nicht mehr über die vier P’s
(Produkt, Preis, Platz und Promotion) definiert, sondern über die vier K’s:
• Kundenorientierung
Kundenorientierung bedeutet, dass sich die unternehmerischen Aktivitäten konsequent an den
individuellen Wünschen und Bedürfnissen der Kunden orientieren.
• Kundenzufriedenheit
Kundenzufriedenheit bzw. Kundenunzufriedenheit resultiert aus dem Vergleich der subjektiven
Kundenwahrnehmung nach dem Kauf eines Produktes bzw. nach der Inanspruchnahme einer
Leistung mit den Erwartungen, die der Kunde vor der Kaufentscheidung hatte.
• Kundenbindung
Dies sind sämtliche Maßnahmen eines Unternehmens, die darauf abzielen, sowohl die
Verhaltensabsichten als auch das tatsächliche Verhalten eines Kunden gegenüber einem
Anbieter oder dessen Leistungen positiv zu gestalten, um die Beziehung zu diesem Kunden für
die Zukunft zu stabilisieren bzw. auszuweiten.
• Kundenwert
Der Kundenwert aus Anbietersicht wird als direkter oder indirekter Beitrag eines Kunden oder
einer Kundengruppe zur Erreichung der monetären und nichtmonetären Ziele des Anbieters
verstanden, d. h. der Wert des Kunden für das Unternehmen
Der Kundenwert dient den Unternehmen zur Identifikation und Beschreibung der vorhandenen
Ist-Kunden sowie der Zusammenfassung von Kunden in einzelne homogene Segmente.
CRM-Systeme lassen sich von funktionaler Seite aus betrachtet in analytisches, operatives,
kommunikatives und kollaboratives CRM einteilen (siehe Abb. 5/16). Sie werden kommuniziert über
die Kanäle Internet, Telefon und Mobile Technologien (Kommunikatives CRM).
118
Abb. 5/18: Struktur von CRM Softwarelösungen
Analytisches CRM (mit Data Warehouse) [Bruh 2008]
Das analytische CRM dient der systematischen Aufzeichnung, Analyse und Auswertung von
Kundenkontakten und Kundenreaktionen. Damit werden kundenorientierte Entscheidungsprozesse
vorbereitet, unterstützt und vor allem optimiert.
Ziel des analytischen CRMs ist es, mittels datenanalytischer Anwendungen ein fundiertes Verständnis
über Kundenzufriedenheit, wie auch über aktuelles und zukünftiges Kundenverhalten zu gewinnen,
Entscheidungsgrundlagen für Vertrieb und Marketing zu liefern, kundenbezogene Planungen zu
unterstützen und operative Prozesse wie Marketing- und Promotionsaktivitäten zu optimieren.

Data Warehouse im CRM


Data Warehouse-Technologien bilden die Grundlage von analytischen CRM-Lösungen, denn die Daten
(z. B. Kundendaten, Geschäftsfälle und das Kaufverhalten der Kunden) werden im Data Warehouse aus
verschiedenen Quellen gesammelt, organisiert und bereinigt. Mittels integrierter Instrumente z. B. Data
Mining oder OLAP können sie im Data Warehouse ausgewertet werden. Es werden also Analysen und
Reports generiert, deren Ergebnisse das Marketing, Kampagnenmanagement sowie die gesamte
Kundenansprache beeinflussen. Als Ergebnis dieses CRM-Kreislaufes in Abbildung 5/19 ist die
Verbesserung der kundenbezogenen Prozesse und der Beziehungen zu den Kunden zu erwarten, was
letztendlich wiederum eine positive Wirkung auf den Unternehmenserfolg nach sich zieht.
Beispiele für Anwendungsfelder von Data Mining sind folgende:
• Sortimentsanalyse
• Kundenanalyse (Kundensegmentierung und –klassifizierung)
• Web-Mining (Analyse des Kundenverhaltens im Internet)
• Absatz- oder Marktprognosen

Mit OLAP (Online Analytical Processing), siehe Kap. 5.5.1, entstehen mehrdimensionale Analysen
durch die Betrachtung der Daten aus verschiedenen Perspektiven mit bereits definierten Dimensionen
und Zusammenhängen.

119
Abb. 5/19: Kreislauf des CRM mittels Data Warehouse [Bruh 2008]
Auch die Aufdeckung von Cross- und Up-Selling Potentialen mit Hilfe von Data-Mining-Verfahren ist
Bestandteil von analytischen CRM-Applikationen.
Die folgende Auflistung beinhaltet typische Kennzahlen der analytischen Aktivitäten:
Kennzahl für die Kundenzufriedenheit, Kennzahl für die Kundenloyalität, Wiederholkaufrate je
Kundensegment und Customer-Lifetime-Value (Gesamtwert, der mit einem Kunden über den gesamten
Customer-Lifecycle erwirtschaftet werden kann).
Weitere Detailfragen, die das analytische CRM beantworten kann bzw. können sollte, sind:
• Welche Kunden sind die profitabelsten über die gesamte Dauer der Kundenbeziehung hinweg?
• Mit welchen Leistungen können Kunden langfristig an das Unternehmen gebunden werden?
• Mit welchen Leistungen können neue Kunden gewonnen werden?

5.6.3 Fallbeispiel: BI zum Betriebsergebnis – Controlling: Delta Master


Wir betrachten nun als Anwendungsfall für BI das Betriebsergebnis-Controlling und als
Softwareprodukt den Delta Master (http://www.bissantz.de). Typische Fragen, die hier beantwortet
werden sollen, sind etwa:
• Welche Produkte, Kunden und Regionen haben die besten Deckungsbeitrags (DB)-Raten?
• Welche Objekte erklären am stärksten die Abweichung des DB?
• Wer sind meine umsatzstärksten Vertreter?
• Gibt es Kompensationen unterhalb des Gesamtergebnisses?
• Sind Besonderheiten bei der Rabattgewährung zu beobachten?
• Existieren Ausreißer bei einzelnen Werten (Verdacht auf Datenschmutz)?
Alle Fragen verlangen nach Ranking, beinahe alles mehrdimensionale Ranking.
Zunächst betrachten wir die Daten, die mit diesem System analysiert werden. Das ist zunächst
jede einzelne Rechnung.
In Abb. 5/20 erkennt man die Datenstruktur. Es ergibt sich DB1 aus Bruttoerlös -
Erlösschmälerungen-Provisionen- var. Kosten. Abb. 5/21 zeigt welche Verdichtung der
verknüpften Objekte zugrunde liegt, so sind Auftragsposition zu Artikel und von dem zur
Artikelgruppe und von dort zum Gesamtunternehmen verdichtet; Auftragsposition wird aber
auch zu Aufträgen, die zu Auftragsklassen und die zum Gesamtunternehmen verdichtet.
Auftragsposition wird ebenfalls zu Kunden und die zu Kundengruppen und Verkaufsbezirke
(diese zu Verkaufsgebiet) und beide wiederum zum Gesamtunternehmen verdichtet.

120
Abb. 5/20: Struktur von Ergebnisdatensätzen.

Abb. 5/21: Objekthierarchien im


Controlling

Delta Master ist ein flexibles, automatisiertes


Werkzeug für das Erfolgscontrolling. Es extrahiert
bislang verdeckt gebliebene Zusammenhänge. Es
besteht aus einem Navigator, einem Detector und
einem Assoziator.

Navigator
Er navigiert durch Objekthierarchien im Prinzip von
Drill Down, siehe Abb. 5/2.
Dieses allgemeine Vorgehen betrachten wir jetzt mit
den Screenshots vom Delta Master 6.0.

(http://www.bissantz.de/files/clicks/deltamaster_clicks_2015-05_pivotnavigation_vordefinieren.pdf)

121
122
Der Navigator zeigt dem Controller den Weg durch die Datenmassen. Er hilft günstige Analysepfade
einzuschlagen, er kann Daten vorfiltern und damit die Analysezeit erheblich verkürzen. Die
Massendaten werden maschinell voruntersucht, so dass nur noch die kritischen Sachverhalte vom
Anwender zu würdigen sind. Der Anwender kann auch eigene Analysepfade einschlagen.

Detector
Der Detector geht Buttom-up vor und sucht mit Hilfe eines auf der statistischen Clusteranalyse (siehe
Kap. 5.4.2) basierenden Data-Mining-Verfahrens selbständig nach interessanten Zusammenhängen auf
der untersten Datenebene. Der Detector sucht in mehrdimensionalen Hierarchien des Controllings nach
ungeahnten Auffälligkeiten. Dabei lokalisieren Clusterverfahren Muster im mehrdimensionalen
Datenraum. Er besteht
• aus einem Speicher mit den Einzelposten der Faktura,
• Clusterverfahren, die zusammengehörigen Gebilde (sog. Cluster) in einem Datenbestand finden,
• Verfahren, die die Vertreter dieser Cluster im Ergebnisdatensatz lokalisieren, Werte berechnen und
die Situation rudimentär beschreiben und
• aus dem Erzeugen von Aussagen in Klartext.

Beispiel: Bei einem Pharmaziehersteller fand der Detector wertvolle Hinweise für die Produkt- und
Konditionspolitik, Dazu wurden Datenmängel aufgedeckt, die das Betriebsergebnis verfälschen.
So war der DB um 1.4 Mio. oder 38 % abgewichen. Es wurde im ersten Schritt die Produktgruppe FBM,
die einen Erklärungsanteil an der Ursache von 87 % hat, lokalisiert
Desweiteren findet er, dass die Abweichung von Verkäufen dieser Produktgruppe FBM an
Kundengruppe C zwischen 23 und 35 % beträgt.

Assoziator
Der Assoziator entdeckt automatisch auffällige Datenpaarungen, die beispielsweise das Kaufverhalten
von Kunden in Form von besonders häufigen Kombinationen gemeinsam gekaufter Produkte
beschreiben.
Mit Assoziativregeln kommt man neuen Ansätzen für die Kunden- und Marktbearbeitung auf die Spur.
So gibt es Produkte und Dienstleistungen, die sich besonders gut im engen und zeitlichen
Zusammenhang verkaufen lassen. Assoziativ-Regeln finden diese Kombinationen (siehe auch Kap.
5.4.2).

123
5.6.4 Fallstudie Data Mining und BI: Lufthansa
Ausgangsbasis:
• Anforderung, ein Tool zu entwickeln, um im Unternehmen verteilte interne und externe Daten
zu analysieren und visualisieren
• Aufbau auf Basis von Data-Mining sowie Business Intelligence Methoden und Technologien
• Analyse und Erschließung des Datenpools mit Data-Mining Methoden
Funktionsweise Insight Mining:
• Import von Dokumenten unterschiedlicher Formate aus verschiedenen Quellen
• Extrahierung und Weiterverarbeitung der enthaltenen Informationen
Texte werden in einzelne Sätze und Wörter zerlegt
Wörter werden anhand von Synonymen zu Konzepten zusammengefasst
Auftretende Gemeinsamkeiten von Konzepten in Texten werden statistisch aufbe-reitet
Bildung eines Konzeptgraphen, der im Insight Mining als Navigation dient
• Nutzer erhält somit jederzeit eine Übersicht passender Dokumente (Darstellung z.B. anhand
sogenannter Knowledge Maps)
• Knowledge Cockpit als Ergänzung, um aussagekräftige Kennzahlen, Trends und Benchmarks
anzuzeigen
• Verschiedenste Inhalte aus Blogs, Foren und Communities können in einem Datenpool
verbunden werden
• Erschließung neuer Zusammenhänge und Ideen
Vorteile Insight Mining:
• Einfache und intuitive Bedienung
• Verknüpft interne und externe Daten
• Keine aufwendige Modellierung logischer Modelle notwendig
• Kontextspezifische und personalisierte Knowledge Maps, die dynamisch erzeugt werden
• „Knowledge Drill Down“ verknüpft Knowledge Maps mit den relevanten Dokumenten
• Unterstützt alle gängigen Dokumentenformate und importiert automatisch neue Dateien aus
Verzeichnissen, Netzlaufwerken und E-Mail-Postfächern
• Sicherheit, keine wichtige Quelle bei der Analyse vergessen zu haben
• Fehlertolerant und mitdenkend: Autospelling, Nutzung von Synonymen, Thesauri und
Grundwortreduktion
• Insight Mining als Software as a Service möglich: Keine internen IT-Abstimmungen,
Wartungsverträge oder Serverkosten

124
Abb. 5/22 Lufthansa Technik BI Screenshot des Konzeptgraphen

Abb. 5/23: Lufthansa Technik BI Screenshot des Dashboards

125
5.6.5 Anwendung BI: Learning Analytics

Abb.5/24: Clusterverfahren auf Aktivitäten Weidener Studierende im SS16 im vhb Kurs Mathematik I
erbrachte 3 Cluster

Unter Learning Analytics versteht man das Sammeln, Messen, Analysieren und Reporting bzw.
Interpretieren verschiedenster Daten über Lernende und ihr Umfeld, um das Lernverhalten, den
Lernerfolg und die dazugehörigen Umweltbedingungen zu verstehen und zu optimieren. Die Daten
werden von Studierenden produziert, oder für sie erhoben. Ziel der Learning Analytics ist es,
Erkenntnisse über Lehr- und Lernprozesse zu gewinnen und das Lernverhalten der Studierenden zu
verstehen, um einen angemessenen Eingriff zu ermöglichen.
Ziel von Clusterverfahren ist, „eine Menge von Objekten in homogene Gruppen (= Klassen, Cluster,
Typen) zusammenzufassen.

Abb. 5/22 zeigt ein Beispiel für das Ergebnis von Learning Analytics: Die BWL Studierende der OTH
Amberg-Weiden im SS16, von denen 67 Studierende mit der Lernform „rein virtuel“ Mathematik
gelernt haben. Als Ergebnis sieht man 3 Cluster und deren Klausurdurchschnittsnote.

Ø Kontroll- Ø Gesamt- Anzahl Klausur- Ø Note Std.abw. Note

fragenklicks klicks Studenten teilnahme

Cluster 1 0,7 46,6 39 (58%) 77% 4,08 0,86

Cluster 2 1,14 166,6 21 (31%) 100% 3,53 0,77

Cluster 3 28,1 304,4 7 (11%) 100% 3,04 0,72

• Cluster 1 „wenig aktiv“ (rot)


• Cluster 2 „mittelaktiv“ (blau)
• Cluster 3 „sehr aktiv“ (grün)

Ergebnisse einer zweimaligen Simulation des Einsatzes eines Cockpits mit


Learning Analytics
Da die Wirkung des Cockpits im Realbetrieb nicht mehr statistisch ausgewertet werden kann,
simulierten wir seinen Einsatz im WS 17/18 in Mathematik (Mathe.) und im SS 18 in Informations-
und Wissensmanagement (IWM) derart, dass wir allen vom NN ermittelten Gefährdeten (20 in Mathe.
126
und 38 in IWM) eine entsprechende Warn-Email schicken ließen. Tabelle 1 zeigt mit welchen
Datensätzen wir in welchen Semestern die neuronalen Netze trainiert (WS 15/16 Mathe., SS 16 IWM)
bzw. getestet (WS 16/17 Mathe., SS 17 IWM) hatten und wie viele Studierende in der
Anwendungsphase (Simulation) (WS 17/18 Mathe., SS18 IWM) einbezogen waren. Tabelle 2 zeigt
die Prognosegenauigkeit in der Testphase.
Bisher simulierten wir das Cockpit in drei Kursen: Mathematik und IWM im Studiengang BWL und
Informationsmanagement (IM) im Studiengang Wirtschaftsinformatik (WI). Zu WI haben wir noch
keine empirischen Ergebnisse. Die beteiligten Studierenden können der nachfolgenden Tabelle 1
entnommen werden.
Bei der ersten Anwendung der Simulation dieses LA Cockpit (gelerntes NN für Klassifikation hatte
Prognosegenauigkeit von 76%; siehe Tabelle 2) im WS 17/18 im Studiengang BWL konnte die
Durchfallquote in Mathematik auf 11% nahezu halbiert werden, während sie mit der gleichen Klausur
in anderen Studiengängen unverändert bei 35 % lag. Im SS 18 wurde dieses Frühwarnsystem Ende
Juni im Studiengang BWL im Fach IWM eingesetzt, denn die Prognosegenauigkeit war in diesem
Fach 85%, siehe Tabelle 2. Dadurch konnte die Zahl der Studierenden, die nicht zur Prüfung
angetreten sind im Vergleich zu den Vorjahren, halbiert werden und die Durchfallquote betrug 4 %
während sie in der Testgruppe bei 24% lag.
Phasen BWL Mathe BWL IWM WI IM
Lernphase 115 110 60
Testphase 111 97 53
Anwendungsphase 91 82 35
Gefundene Gefährdete 20 38 20

Tab. 1: Anzahl der Studierenden (Datensätze) nach Semester und Studiengang


Neben der Klassifikation mit Bestehen/Nichtbestehen fand die Regression Einsatz, die die erreichten
Klausurpunkte lernt und prognostiziert. So haben wir Klickdaten und Kontrollfragenpunkte zusammen
mit den erreichten Klausurpunkten zur Regression mittels NN verwendet, um die erreichten Punkte in
der Prüfung zu prognostizieren. Im Studiengang WI wurde mit den Daten vom SS 16 (60 Studenten)
gelernt, und das Modell mit den Daten aus dem SS 17 (39 zur Prüfung angetretene Studierende)
getestet. Bei den Studierenden, die zur Klausur angetreten sind, wurde eine Streuung σ=14 Punkten
um den prognostizierten Wert erreicht. Beim Trainieren der BWL-Studierenden mit den Daten vom
SS 16 (110 Studierende) und dem Testen mit den Daten vom SS 17 (82 Studierende), die an der
Prüfung teilgenommen haben, betrug die Streuung σ=17,5 Punkte. Die Topologie der beiden NN ist
durch neun Eingabe-Neuronen (KL.SUM.3-4-5, QU.PUN.3-4-5, QU.ANZ.3-4-5), vier versteckte
Neuronen und ein Ausgabe-Neuron spezifiziert.
versteckte
Model ACC TPR TNR Prädiktoren
Neuronen
BWL Math. 76% - - 4 KL.SUM.10-11
KL.SUM.3-4-5,
BWL IWM 85% 67% 97% 8
QU.ANZ.3-4-5
KL.SUM.3-4,
WI IM 100% 100% 100% 3
QU.PUN.3-4

Tab. 2: Die Ergebnisse der Klassifikation (Bestehen/Nichtbestehen) mit NN im


Studiengang BWL und WI in den Kursen Mathematik und Wissensmanagement
Die Topologie des besten NN-Modells im Studiengang WI bei der Klassifikation sieht wie folgt aus:
• Vier Eingabe-Neuronen: Summen der erreichten Quizpunkte (QU.PUN) und Anzahl
der Klicks (KL.SUM) innerhalb der ersten beiden Semestermonate
• Drei versteckte Neuronen: logistische Aktivierungsfunktion
• Nur ein Ausgabe-Neuron: „Sum of Squared Errors“ als Fehlerfunktion
• Algorithmus „rprop+“; Resiliente Backpropagation.

127
5.7 Literatur und Kontrollfragen
1. Behme Wolfgang: Das Data Warehouse-Konzept, WISU 2/1998, S. 148-150
2. Bruh, Manfred; Homburg, Christian: Handbuch Kundenbindungsmanagement. Strategien und
Instrumente für ein erfolgreiches CRM. 6. Aufl. Gabler: Wiesbaden 2008
3. Fischer Joachim; Dangelmeier Wilhelm; Nastansky Ludwig; Suhl Leena: Bausteine der
Wirtschaftsinformatik, 4. Aufl. Erich Schmidt Verlag, Berlin 2008, S. 444-450
4. Grunwald, M.; Taubner, D.: Business Intelligence. Informatik Spektrum 23-5-2009, 2009, S.
398-403
5. Popp, Heribert; Rick Beer: Evaluation virtueller Mathematik-Kurse – Lernszenarienvergleich
und Learning Analytics. In Jutta Pauschenwein (Hrsg.): Evaluierung offener Lernszenarien,
Tagungsband zum 13. E-learning Tag 2014, Graz; S.98-108
Kontrollfragen
1. Worin liegen die Gründe für das Scheitern der Vorläufer heutiger Data Warehouse-Systeme?
2. Was ist BI? Nennen sie 5 Anwendungen von BI!
3. Was ist ein EIS?
4. Welche Techniken werden im EIS verwendet?
5. Was ist Drill Down und was Briefing Book?
6. Was ist der betriebswirtschaftliche Auslöser für Data-Warehouse Lösungen?
7. Wie läßt sich der Informationsbedarf nach Datenart und -quelle unterscheiden?
8. Charakterisieren Sie den Begriff Data-Warehouse?
9. Welche bestimmenden Merkmale zeichnen ein Data-Warehouse aus?
10. Beschreiben sie die bestimmenden Merkmale und die Architektur eines Data-Warehouse!
11. Aus welchen Komponenten besteht eine Data Warehouse-Lösung?
12. Was ist OLAP?
13. Definieren sie Data Mining und Business Intelligence
14. Skizzieren sie drei Data Mining Methoden
15. Sie werden beauftragt, für die Hochschule Deggendorf ein Data Warehouse-System aufzubauen.
Wie gehen sie vor?
16. Sie werden beauftragt, für TUI oder Lufthansa ein Data Warehouse-System oder ein BI-System
aufzubauen. Wie gehen sie vor?
17. Was ist analytisches CRM und welche Rolle nimmt dabei das Data Warehouse ein?
18. Beschreiben sie als Anwendung von Business Intelligence die Learning Analytics!
19. Wie geschieht Wissensentwicklung bei den Learning Analytics?
20. Beschreiben sie das BI Fallbeispiel Delta Master.
21. Was versteht man unter Maschinellem Lernen und warum liegt es derzeit im Trend?
Richtig:
o Bei diesem Ansatz lernen Computer aus Daten ohne explizit programmiert zu werden.
o Ein Grund für den derzeitigen Trend ist die Verbesserung der Algorithmen.
o Mit der zunehmenden Digitalisierung und Automatisierung liegen große Datenvolumen (Big
Data) zur Verfügung, mit denen größere Netzwerke mit viel mehr Variablen trainiert werden
können.
o Durch die Verbesserung der Rechenleistung durch Grafikkarten und GPUs können die großen
Datenvolumen tatsächlich verarbeitet werden.
Falsch:
o Bei diesem Ansatz lernen Computer die Trainingsdaten auswendig.
o Ein Grund für den derzeitigen Trend ist die Entwicklung der ersten mathematischen
Grundlagen.
o Für den Trend ist auch die Erhöhung der Datenqualität der Trainingsdaten verantwortlich.
22. Welche algorithmischen Ansätze gibt es beim Machine Learning.
Richtig:

128
o Supervised Learning
o Unsupervised Learning
o Semi-supervised Learning
o Reinforcement Learning
o Active Learning
Falsch:
o Blended Learning
o E-Learning
o Accelerated Learning
o Concept Learning
23. Beschreiben Sie die grundsätzliche Vorgehensweise beim überwachten Lernen im Machine
Learning.
Es liegen historische Daten vor, die aus Eingaben und Labels bestehen. Diese Daten werden in ein
Training- und ein Test-Set geteilt. Auf Basis des Training-Set wird ein Prognosemodell erstellt. Um
das Modell zu evaluieren wird es auf das Test-Set angewendet, wobei die Labels bei der Prognose
nicht berücksichtigt werden. Nach der Prognose werden die vorhergesagten Labels mit den
tatsächlichen verglichen und z. B. mithilfe einer Wahrheitsmatrix bei einer Klassifikation die
Prognosegenauigkeit bestimmt. Wird eine ausreichende Prognosegenauigkeit erreicht, kann das
Modell für die Prognose von neuen Daten, für die die Labels noch unbekannt sind, eingesetzt
werden.
24. Skizzieren sie 2 Maschinelle Lernverfahren
25. Welche Aussagen über SVM sind wahr?
Richtig:
o SVM steht für Support-Vektor-Maschinen.
o SVM gehört zum Ansatz des überwachten Lernens und wird zur Klassifikation oder Regression
verwendet.
o SVM findet die Hyperebene im Vektorraum, die den Abstand zu den Vektoren, die der
Hyperebene am nächsten liegen, maximiert.
o Die nächstliegenden Vektoren werden auch Stützvektoren genannt und geben der Methode
ihren Namen.
o Sind die Trainingsdaten im Vektorraum nicht linear trennbar, können sie in einen höheren
Dimensionsraum transformiert werden, in dem sie sich linear trennen lassen.
Falsch:
o SVM steht für Separable-Value-Models.
o SVM gehört zum Ansatz des unüberwachten Lernens und wird zum Clustering oder zur
Dimensionsreduzierung verwendet.
o SVM findet die Hyperebene im Vektorraum, die den Abstand zu den Vektoren, die von der
Hyperebene am meisten entfernt liegen, maximiert.
o Schlupfvariablen werden bei SVM verwendet um Unterpassung zu vermeiden und die Anzahl
der Stützvektoren zu vergrößern.
26. Beschreiben Sie, was Künstliche Neuronale Netze sind?
Mithilfe von Künstlichen Neuronalen Netzen sollen menschliche Arbeitsweisen des Gehirns in
Computersystemen und Maschinen nachgebildet werden. Diese Systeme lernen selbstständig aus
Beispielen und können ähnlich wie das Gehirn Rückschlüsse und Lösungsansätze für bislang
unbekannte Situationen finden. Die Topologie eines Neuronalen Netzes besteht aus Neuronen, den
Verbindungen zwischen den Neuronen. Die Neuronen werden in Schichten angeordnet. Das Netz
bekommt Eingabeinformationen zur Verfügung gestellt und verknüpft sie bei der Weiterleitung
durch das Netz durch Propagierungsfunktionen mit den Verbindungsgewichten.
Aktivierungsfunktionen entscheiden über den Zustand des Neurons. Mit einer Ausgabefunktion
wird ein Ausgabewert ermittelt, der an die nachfolgenden Neuronen weitergeleitet werden kann.

129
6. Softwaretechnische Werkzeuge des WM
Wenn wir jetzt einmal die Fülle möglicher Produkte gegenüberstellen, erkennen wir sehr schnell
bestimmte Produktklassen, die Teilbereiche dieses Prozesses mehr oder weniger abdecken. So findet
man heute auf dem Markt der WMS-Produkte, die sich eher auf den Aufbau und die Erschließung einer
Wissensbasis konzentrieren, andere, die primär die Kommunikation und Zusammenarbeit von
Wissensträgern unterstützen, und wiederum andere, die eher die Verbreitung von Wissen zum Ziel
haben.
Die von Lehner [Lehner 2012, S. 267] aufgeführten „Führungsinformationssysteme“ sind in Kap. 3
behandelt.

6.1 Werkzeuge
1. Intranet als Hilfsmittel
In Intranets werden Hyperlinks zwischen Dokumenten angelegt. Eine Suchmaschine recherchiert nach
Web-Dokumenten und das System erstellt daraufhin Volltextindizes für Wissensbanken. Darauf
aufbauend verwaltet ein Dokumentenmanagement-System das verteilte Wissen.
ADL Link der Beratungsgesellschaft Arthur D. Little ist ein WMS auf einer Intranet-Plattform. Es
ist in funktionale Module eingeteilt, die auf einheitlichen Schlagwortstrukturen basieren.
Kernelemente der Module sind „Library Cards“, die „Knowledge Chunks“ („Wissensbrocken“)
enthalten. Auf verschiedenen Servern und Datenbank-Systemen sind weltweit über ein Wide Area
Network vielfältige Inhalte zugreifbar: „Who knows whom?“, Diskussionsforen,
Klientendatenbanken, Mitarbeiterprofile und –biografien, Projektprofile, Kurzzusammenfassungen,
Referenzen usw. Das System wird schrittweise entsprechend neuen Anforderungen ausgebaut.
Beispiel: Intranet bei Sixt
• „table of contents“: Anschriften, Telefonnummern etc. von allen Stationen Weltweit
• „pricing“: Mit Hilfe des Intranets ist es möglich, etwaige Preisänderungen sofort an die
Stationen direkt und ohne Zeitverlust zu übermitteln.
• „manual“: Betriebsanleitung, die alle Situationen berücksichtigt und beinhaltet, die im
täglichen Geschäft vorkommen können.
• „blackboard“: Darstellung von wichtigen Informationen; ersetzt das Verschicken von Memos
und führt zu erheblichen Kosteneinsparungen
• Stationsspezifische Daten: Informationen über die in einer Station zur Verfügung stehenden
bzw. benötigten Fahrzeuge
• Aufbau einer E-Mail Datenbank: Speicherung der Kundenadressen, diese sind anschließend
allen Stationen verfügbar

2. Case-Based Reasoning (CBR)


Ein Case (Fall) ist eine Erfahrung beim Lösen eines Problems. Die Erfahrung betrifft Problemstellung
und erarbeitete Lösung. Die Erfahrung wird ergänzt durch Erklärungen, wichtige Teile des
Lösungsweges usw.
Vor allem für die Nachverkaufsphase haben sich Help-Desk- und Call-Center-Systeme bewährt, die
auf dem CBR-Prinzip beruhen. Es werden historische Fälle gespeichert und mit einer „intelligenten“
Prozedure diejenigen gefunden, die zumindest teilweise Lösungselemente zu einem gegebenen
Problem bieten. In Abb. 6/1a sieht man rechts einen Fall und links ein aktuelles Problem, für das der
ähnlichst gespeicherte Fall gesucht wird. Ähnlichkeitsmaß sieht man in Abb. 6/1b.
Ähnlichkeitsberechnung erfolgt daher mit gewichtetem Durchschnitt
z.B. Ähnlichkeiten (Fall 1) = 1/20 *[6*0,8 + 1*0,4 + 1*0,6 + 6*0,9 + 6*1,0] = 0,86

In einem Prototyp für die KSB AG konnte gezeigt werden, wie sich das Wissen, das Konstrukteure
und Vertriebsingenieure im Kraftwerksbau generiert haben, für neue Aufgaben mithilfe von CBR
reaktivieren lässt.
Die Vorteile von CBR-Systemen sind deren Flexibilität, Robustheit und die Fähigkeit zu
inkrementellem, beständigem Lernen: Jedesmal, wenn ein Problem gelöst wird, kann das Tupel
„Problem-Lösung“ als neue Erfahrung abgespeichert werden.

130
Abb. 6/1a: Beispiel eines Falles und suche nach dem ähnlichsten Problem

Abb. 6/1b: Festlegung des Ähnlichkeitsmaßes bei einer Eigenschaft

3. Know-how-Datenbanken
Know-how-Datenbanken in Industrieunternehmen kann man als geordnete Sammlung von
Anwendungslösungen begreifen. Dabei steht insbesondere bei Investitionsgüterherstellern nicht mehr
das physische Produkt im Vordergrund, sondern der Beitrag zu einer bestimmten Problemlösung beim
Kunden im Sinne einer integrierten Dienstleistung. Besonderns sinnvoll ist ein solches System für
Unternehmen der Investitionsgüterindustrie, die auftragsindividuelle Produkte in großer Variantenzahl
fertigen.
Die Bearbeitung der Informationen erfolgt über Module zur Erfassung, Klassifikation und zum
Retrieval der Anwendungsbeschreibungen. Ein Vertriebsmitarbeiter oder ein Konstrukteur erfasst die
Daten dezentral am Arbeitsplatz, wenn das Unternehmen für einen Kunden die ersten Muster
entwickelt und freigegeben hat oder wenn ein Angebot ausgearbeitet ist. Angestellte in Forschung,
Entwicklung, Fertigung und Vertrieb können bei einem konkreten Anwendungsfall in der Datenbank
recherchieren, um bereits vorhandene oder ähnliche Problemlösungen ausfindig zu machen. Damit
wird insbesondere bei international operierenden Unternehmen der Gefahr entgegengewirkt, dass das
Anwendungswissen zu stark zersplittert.
Man ergänzt die Know-how-Datenbank um Informationen, warum Angebote nicht zu Aufträgen
geführt haben („Lost-Order-Statistik“).
Know-how-Datenbanken erzeugen Nutzeffekte auf der administrativen Ebene (z. B. raschere
Beantwortung von Kundenfragen), unterstützen aber auch die Planung und Kontrolle auf den höheren
Führungsebenen, Beispiele hierfür sind:
• Durch Erkennen häufig vorhandener Spezifikation erhält man Hinweise auf wünschenswerte
Standardprodukte, die an die Stelle von kostentreibenden Varianten treten.

131
• Es entsteht eine Datenbasis mit vielen Informationen für die Unternehmensleitung, z. B. über
die Wettbewerbssituation, technologische Verschiebungen oder veränderte
Kundenpräferenzen.
Bei der Siemens Business Services GmbH & Co. OHG beschrieb man, warum ein Projekt
erfolgreich verlief oder auch nicht, mit welchen Risiken zu rechnen war und wie man diesen
begegnete oder welche Referenzkunden gewonnen wurden. Da diese Kunden nicht auf Dauer als
Referenz gelten können oder wollen, ist periodisch zu prüfen, ob sie in der Wissensdatenbank
verbleiben (Verfallsdatum einer Referenzlösung). Eine entsprechende Aufforderung wird automatisch
generiert.

4. FAQ
Mit FAQ bezeichnet man Systeme, die Antworten (meist von Experten) auf häufig gestellte Fragen
speichern. Im Internet findet sich eine Vielzahl von öffentliche FAQ-Systemen.
Beispiel: Fragen
1. Wie kann man sich an den PCs der TH Deggendorf anmelden?
2. Wie lautet meine Email Adresse an der FH Deggendorf?
Antworten
1. Die Anmeldung erfolgt mit den ersten Buchstaben des Vornamens + den kompletten Nachnamen.
Passwort ist die Matrikelnummer

5. Answer Garden
Das Konzept Answer Garden kombiniert zwei Aufgaben in Zusammenhang mit
Organisationsgedächtnissen:
1) Wiederfinden von Wissen, und zwar sowohl mithilfe der Datenbank- als auch mit der
Kommunikationstechnik.
2) Gezielte Vermittlung des Zugangs zu menschlichen Experten.
Informationen mit Answer Garden wachsen „organisch“ als Frucht der Interaktionen von Experten
und Benutzern mit dem System.
Der erste Ansatz der Suche beinhaltet eine hierarchisch gestaltete Fragenliste, die interaktiv
abgearbeitet werden muss. Im zweiten Ansatz bekommt der Interessent eine Grafik der diagnostischen
Fragen und navigiert darin („Bäume im Garten“). Wenn der Benutzer an einem Knoten nicht
weiterkommt, bedient er den „I’m-Unhappy-Knopf“, woraufhin das System per E-Mail den „Knoten-
Experten“ einschaltet. Dieser erhält mit der elektronischen Post eine „Geschichte“ der Suche durch
den Anfragenden. Der Experte antwortet nicht nur, sondern speichert die Problemlösung im Answer
Garden, vorausgesetzt, die Frage ist von allgemeinem Interesse („Wachstum im Garten“).

Abb. 6/2: Answer Garden

132
6.2 Web 2.0 Technologien

6.2.1 Überblick
Wir betrachten kurz die verschiedenen Web 2.0 Technologien, die Einsatz finden.
• Weblogs unterstützen das persönliche Wissens- und Informationsmanagement. Man schreibt,
verweist auf Beiträge und Dokumente, kategorisiert (taggt) und archiviert.
Nutzungsmöglichkeiten:
indem man über sich selbst, innerhalb eines Blogs, Auskunft gibt.
indem man Beiträge mit anderen Beiträgen vernetzt.
indem man beispielswiese RSS-Feeds nutzt um andere Weblogs zu lesen.
• In Wikis werden Inhalte von jedem einzelnen Mitarbeiter selbst organisiert eingestellt, angepasst
und entwickelt. Wissen in Wikis verändert sich fast automatisch von einer subjektiven Meinung
zu einem objektiven Fakt (da Informationen nur dann bestehen bleiben, wenn niemand eine
gegenteilige Meinung dazu schreibt). Die Inhalte der Wikis werden durch die Benutzer überprüft
und bewertet. Folgende Prinzipien werden an ein Wiki gestellt:

Abb. 6/3: Erstellprozess eines Podcast


• Podcasts: iPod + Broadcasting = Podcasting. Unter einem Podcast versteht man eine online
bereitgestellte Video- oder Audiodatei. Der Erstellprozess ist in Abb. 6/3 zu sehen. Podcasts
133
können für die Wissensvermittlung an Mitarbeiter eingesetzt werden, z.B. können sich
Außendienstler über die neuesten Änderungen bei ihren Produkten informieren.

• Kooperative Bookmarking-Systeme (elektronische Lesezeichensysteme) bieten dem Benutzer die


Möglichkeit, Referenzen auf Webseiten im System zusammen mit Schlagwörtern zu speichern
(Tagging). Im Zentrum steht ein „post“, den ein Benutzer beim Tagging erzeugt. Ein „post“
beschreibt immer eine Ressource/Website durch einen oder mehrere Tags, die die Ressource
möglichst gut aus der Sicht des Benutzers charakterisieren. Die Zuordnung von Tags zu
Ressourcen durch den Benutzer wird auch als leichtgewichtige (da keine Ontologie zugrunde
liegt) Wissensrepräsentation angesehen, die Folksonomy genannt wird. Die Semantik der Tags
ergibt sich implizit durch ihre Benutzung. Ist ein Empfehlungssystem (Recommender-System)
integriert, schlägt das System für eine Webseite die Tags vor, aus denen der Benutzer auswählen
kann. Tippfehler und unterschiedliche Schreibweisen werden dadurch vermieden. Bookmarking-
Systeme erzeugen aus den Tags des benutzer eine Tag-Cloud, siehe Abb. 6/4.
Beispiel eines empfehlenswerten Bookmarkingsystems ist (http://www.delicious.com/) (Für
Studierende während des ganzen Studiums, besonders während der Bachelorarbeit)

Abb. 6/4: Tag-Cloud


• Gemeinschaftliches Indexieren (Social Tagging) ist ein Vorgang, bei dem eine Gemeinschaft von
Benutzern eines Systems die Objekte des Systems mit Metadaten (Schlüsselwörter und
Kategorisierungen) charakterisiert. Objekte sind Bilder, Filme, Lesezeichen, Wiki-Seiten,
Textdokumente oder Ideen.
• In Virtuellen Community treffen sich Menschen auf Computer-vermittelte Wege in
hinreichender Regelmäßigkeit, so dass sie durch ihre Aktivitäten persönliche Beziehungen
aufbauen und Gemeinschaftsgefühl entwickeln, z.B. XING.
• Newsaggregation sucht Mitarbeiter bei der Tätigkeit der Filterung von Informationsquellen zu
unterstützen: Sie sammeln Informationen aus unterschiedlichsten Quellen, bereiten sie auf und
legen sie ab. (Back 2008)
• Media Share-Plattformen
Fotos
• Flickr
Videos
• YouTube
• Google Video

6.2.2 E-Collaborations-Werkzeuge
Der Begriff Kollaboration steht eng im Zusammenhang mit den Aspekten der Kommunikation,
Kooperation und Koordination (3K´s). Kommunikation fungiert als Grundlage. Bezieht sich
Kommunikation im Rahmen einer Gruppenarbeit auf die Abstimmung aufgabenbezogener
134
Tätigkeiten, ist die Kommunikation ebenso für die Koordination notwendig. Wird zudem zum Zwecke
der Festlegung gemeinsamer Ziele kommuniziert, so kann dadurch auch noch die Kooperation
unterstützt werden. Kommunikation koordiniert Kooperation und ist selbst wiederum ein
Kooperationsprozess, der koordiniert werden muss. Bei Kollaboration steht ein Gruppenziel und
dessen gemeinsame Verwirklichung im Vordergrund. Dementsprechend wird auch der
Gruppenprozess zur Erreichung des Ziels betrachtet. Den Unterscheidungsaspekt der Kollaboration
liefert somit klar die Realisierung eines Gruppenzieles. Um dieses zu erreichen, sind jedoch wiederum
Kommunikation, Koordination und Kooperation nötig. Kollaboration fungiert damit als Oberbegriff
der 3K’s.
„Kollaboration ist die Arbeit von zwei oder mehr Individuen an gemeinsamem Material, die bewusst
planvoll darauf ausgerichtet wurde, ein gemeinsames Gruppenziel zu erreichen. Zur Erreichung dieses
Gruppenziels sind Kommunikation, Koordination und Kooperation der beteiligten Akteure
notwendig“ (Leimeister 2014, S. 8).
Groupware. umfasst alle aus Software und eventuell spezifischer Hardware bestehenden Systeme,
durch die Gruppenarbeit unterstützt oder ermöglicht wird.
Das wichtigste Charakteristikum von Groupware ist, die interagierenden Personen nicht voneinander
zu isolieren, sondern gegenseitig übereinander zu informieren. Diese sogenannte Awareness-
Information umfasst Details über die Benutzer, gemeinsame Artefakte und die Arbeitsumgebung.
Weitere Eigenschaften, die Groupware auszeichnen sind im Folgenden:
• Gleichzeitige Unterstützung von mehreren Benutzern, wobei diese mit gegenseitiger
Information über den Präsenz ausgestattet werden
• Ermöglichen von expliziter Kommunikation durch das Verbreiten von Nachrichten und von
impliziter Kommunikation durch die Weiterleitung von Veränderungen
• Koordination der Aufgaben aller Gruppenmitglieder durch Wahrnehmung gemeinsamer
Artefakte, Kommunikation und Gruppenentscheidungen
• Erleichterung der Strukturierung von Fragen, Abstimmungen und Auswertungen
• Begünstigung der Generierung von Ideen und der Analyse von Aussagen
• Unterstützung von gemeinsamer Datenhaltung und deren Bearbeitung
Web 2.0 hat große Auswirkungen auf die Kollaboration. Durch die neu entwickelten Plattformen
entstanden innovative Technologien, welche die Kollaboration nicht nur unterstützen, sondern auch im
großen Stil verändern. Dazu gehört in erster Linie Social Software, wie (Web)Blogs, Wikis, Foren,
RSS-Feeds sowie soziale Netzwerke. Durch Web 2.0 wird somit eine besondere Möglichkeit
dargestellt, die unternehmensinterne Zusammenarbeit zu unterstützen und durch selbstorganisierte
Plattformen für die Gruppenarbeit neuartige Wege zu schaffen, Informationen zu finden und zu
systematisieren.

Abb. 6/5: Softwarewerkzeuge der Zollner im 3K-Modell

135
Das Workflowmanagement dient größtenteils zur Förderung der Koordination von Arbeitsabläufen
Bei Gruppeneditoren schwankt die Einsortierung eher zwischen Kommunikations- und
Kooperationsunterstützung. Es können beide Aspekte gleichsam gefördert werden und eine genaue
Festlegung ist nicht möglich.
Nun kann diese Taxonomie praktisch angewendet werden, indem die Collaborations-Services der
Unternehmensgruppe Zollner den einzelnen Funktionsbereichen zugeordnet werden. Das Ergebnis ist
in Abb. 6/5 ersichtlich.

Software-Eigenschaften von Groupwaresystemen sind z.B.:


1. Die Dokumentenverarbeitung stellt den Benutzern einen gemeinsamen Datenbestand zur
Verfügung und erlaubt die interaktive Bearbeitung der Dokumente. Alle Gruppenmitglieder haben
Zugriff auf das gleiche Dokument. Änderungen, Löschen oder Hinzufügen von Informationen
werden sofort für alle wirksam. Dadurch verringern sich die Zeiten für die Erstellung von gemeinsam
abzufassenden Dokumenten.
2. Die Termine der Gruppenmitglieder können durch Vergleich der individuellen Terminkalender auf
Gruppenebene automatisiert abgestimmt werden (automatische Terminabstimmung).
3. Eine E-Mail-Funktion ermöglicht das Versenden von Nachrichten. So können unternehmensinterne
Rundschreiben mittels E-Mail verteilt werden.
4. Bulletin Boards (Schwarze Bretter) und Videokonferenzen erlauben die Kommunikation mehrerer
Teilnehmer auch über größere Distanzen. Videokonferenzen sparen Reisekosten.

Das bekannteste Software-Werkzeug ist das Produkt Lotus Notes.

Workflow-Systeme
Beispiel: Workflow für das Ereignis „Kunde wird Großkunde“
Es gibt mehrere Einzel- oder Gruppenarbeitsplätze als Bestandteil eines Prozesses. Die Knoten
repräsentieren die Aktivitäten, die zu einem Prozess gehören. Die Pfeile stellen die Ablauflogik dar und
beschreiben darüber hinaus Input und Output der einzelnen Aktivitäten, siehe Abb. 6/6.
Für automatisiertes Arbeiten kommen insbs. gut strukturierte und regelmäßig wiederkehrende Abläufe
in Frage. Schlecht strukturierte, selten auftretende Abläufe oder Ausnahmen, wie z.B, das Auftreten
unvorhergesehener Ereignisse sowie die Behandlung von Arbeitsunterbrechungen und ihrer
Folgewirkungen, müssen gesondert betrachtet werden. Unterbrechungen können eintreten, wenn für die
weitere Arbeit eine nicht vorhandene Information benötigt wird oder ein unvorhergesehenes Ereignis
eintritt. Im Workflow-System können mögliche Unterbrechungsgründe berücksichtigt und Vorschläge
für die Einleitung von Maßnahmen abgelegt werden.
Unter Workflow-Management wird die computerisierte Bearbeitung von Vorgängen verstanden. Sie ist
insbesondere für die Automatisierung stark strukturierter Routinearbeit geeignet. Während sich
Groupware auf die miteinander in Kontakt tretenden PC-Anwender konzentriert, steht bei Workflow die
Aufgabe oder der Vorgang im Mittelpunkt der Betrachtung. Die Aufgabe wird durch die Organisation
gereicht und von mehreren Mitarbeitern sukzessive und parallel bearbeitet. Der Weg eines Dokumentes
über die „Schreibtische“ der Sachbearbeiter oder die Abfolge der einzelnen Arbeitsschritte sind dabei
im Voraus festgelegt.
Workflow-Systeme (WFS) unterstützen Prozesse und dienen der Planung, Steuerung und Überwachung
auf dem Gebiet der Weiterleitung von Informationen über mehrere Stellen. Dabei werden die
Bearbeitungszeit eines Vorgangs und die beteiligten Mitarbeiter berücksichtigt.
WFS bieten die Möglichkeit, Prozesse abzubilden und für die Mitarbeiter transparent zu machen; es ist
also eine ständige Dokumentation des Standes der Vorgangsbearbeitung möglich.
Die Realisierung einer Informationsweiterleitung durch WFS bietet insbs. Vorteile im Bereich der
Vermeidung von Liegezeiten und der besseren Einhaltung von Terminen.
Die Funktionalität von Workflowsystemen bezieht sich neben
• der Informationsweiterleitung
• auf die Zuordnung von Vorgängen zu Mitarbeitern
• auf das Festlegen von Abarbeitungsreihenfolgen sowie
• auf Überwachung und Archivierung.

136
AS 1 AS 3 AS 5

Workflow-Management-System

AS 2 AS 4

Abb. 6/6: Workflowsysteme - Architektur

Anbieter wären etwa Saperion mit dem Systen DocFlow oder Panvision mit der Software PANFLOW
oder das Tool „T!M“ der Firma TIM Solutions.

6.2.3 Aufbau und Funktionsweise eines Wikis am Beispiel Fraport


Vorbereitung:
• Mitarbeiterumfrage im unternehmensinternen Newsletter „Wissensmanagement“ → Mehrheit
der Beschäftigten wünschte sich ein unternehmensinternes Wiki
• Prüfung verschiedener Wiki-Engines → Entscheidung für MediaWiki
• Anpassung der Benutzeroberfläche an das Fraport Design, eigenes Wiki-Logo
• Erweiterung des Wikis um speziell für Fraport wichtige Bereiche
• Unterteilung in 5 Portale
• Mitarbeiter können sich mit einem fiktiven Namen anmelden, dennoch gab etwa die Hälfte
ihren realen Namen bzw. ihre Personalnummer an
• Möglichkeit zur Anmeldung für eine Wiki-Schulung auf der Startseite

Abb. 6/7: Screenshot von Skywiki von Fraport

Einführung:
137
• Beginn mit einer Administrationsgruppe aus fünf Mitarbeitern aus den Abteilungen
Personalabteilung, Unternehmenskommunikation, Wissensmanagement und IT
• Innerhalb der ersten drei Monate meldeten sich 42 weitere Autoren, so dass nach einem halben
Jahr bereits mehr als 500 Artikel existieren
• nur die Autoren hatten in dieser Phase Rechte, Artikel zu lesen und zu verändern
• Nach der unternehmensweiten Freigabe des Skywikis rasanter Anstieg der Autorenzahl
• Suche der Artikel erfolgt meist direkt und nicht über Kategorien
• regelmäßige Umfragen bezüglich Verbesserungspotentialen

Inhalte:
• Artikel drehen sich rund um Themen des Luftverkehrs, behandeln Technik, stellen Projekte
vor und sammeln Tipps und Tricks
o 8000 Airport-Begriffe in Deutsch/Englisch
o bereichsspezifische Glossare
o Beschreibungen von Arbeitsabläufen
o Projektbeschreibungen
o bebilderte Länderberichte und Flughafen-Beschreibungen, Informationen zur
Flughafeninfrastruktur, Airline-Portraits
o Tipps und Tricks: Wie verwendet man am effektivsten Outlook, Google oder Excel
für die täglichen Arbeiten?
o Beschreibungen aller in der Fraport AG eingesetzten Informationssysteme
o Portraits der Tochterfirmen
o Informationen rund um Personalfragen
• Informationen, die bereits im Intranet stehen, werden nicht ins Skywiki aufgenommen
• wöchentliche Treffen einer Redaktionsgruppe, die sich um die Strukturierung des Wikis
kümmert
• Mitarbeitermotivation durch Kür des monatlich besten Artikels, dieser wird mit einem
Wikingerlogo versehen und in der Flughafenzeitschrift abgedruckt
• Know-how-Träger auf bestimmten Themengebieten werden direkt angesprochen, um ihre
Projekte innerhalb des Wikis darzustellen oder bestehende Artikel gegebenenfalls zu
korrigieren
Folgen:
Inzwischen haben bereits einzelne Abteilungen Bedarf an einem eigenen Wiki angemeldet.
So gibt es bereits ein Wiki für die Software-Entwickler, um Code abzulegen und Fachbücher zu
speichern. Auch die Revisionsabteilung will ein eigenes für kollaboratives Arbeiten.

6.3 Wissensmanagementsoftware entlang der WM-Prozessschritte


WM-SW zur Wissensidentifikation (Prof Müller)
▪ Wissenslandkarten mit dem MindManager
▪ The Brain – Mehrdimensionale Visualisierung von Wissensnetzen
▪ Kategorien von Tools
▪ Kommerzielle Software (Client)
▪ Inspiration www.inspiration.com
▪ MindManager www.mindjet.com
▪ MindMapper www.mindmapperusa.com
▪ MS Visio www.visio.com
▪ Visual Mind www.visual-mind.com
▪ Kostenlose Software (Client)
▪ FreeMind freemind.sourceforge.net
▪ IHMConceptMap cmap.ihmc.us
▪ ThinkGraph www.thinkgraph.com
▪ View Your Mind www.insilmaril.de/vym
▪ Server-basierte Software
138
▪ Intelligent Views www.i-view.de
▪ Inxight www.inxight.com
▪ The Brain www.thebrain.com
▪ USU Knowledge Miner www.usu.de
▪ Konsequente Nutzung von Wissenskarten
▪ Yellow Pages (Expertenverzeichnis): Beispiel: BP Amoco
▪ Skill Management
▪ Beispiel: openBC / Xing
WM-Software zum Wissenserwerb (Prof. Müller)
▪ Kategorien von Tools
▪ Personalmanagement-Tools
▪ Tools zur Personalrekrutierung
▪ Beispiel: topBase (top itservices)
▪ Beispiel: staffITpro
▪ Internet
▪ Beispiel: www.jobscout24.de
▪ Beispiel: www.monster.de
▪ Beispiel: www.academics.de
▪ Beispiel: Systeme der Agentur für Arbeit
WM-Software zur Wissensentwicklung (Prof. Müller)
Kategorien von Tools
▪ Internet und Intranet
▪ E-Learning
▪ Community-Plattformen
▪ Tools zum Ideenmanagement
▪ Tools zum Data Mining
Komponenten einer technischen Community-Plattform
▪ Zentraler Administrator
▪ Team-Mitglieder (Yellow Pages)
▪ Mailsystem
▪ Dokumentenablage (Plattform)
▪ Suchfunktion
▪ Workflow-Komponente
▪ Diskussionsforen
▪ Moderationsunterstützung
▪ Chatroom
Tools zum Data Mining
▪ Statistiktools
▪ z.B. SPSS
▪ z.B. SAS
▪ Methodentools
▪ z.B. IBM Intelligent Miner
▪ Visualisierungstools
▪ z.B. Clementine
▪ Domänentools
▪ z.B. Delta Miner
WM-Software zur Wissensverteilung (Prof. Müller)
Kategorien von Tools
▪ Community-Plattformen
▪ Diskussionsforen
▪ Groupware
▪ Internet und Intranet
▪ In- und externe Weiterbildung
▪ Wissensmarktplatz (www.wer-weiss-was.de, www.wikipedia.de)

139
▪ Ablage und Suche

WM-SW zur Wissensnutzung (Prof. Müller)


Ausbaustufen der Tools zur Wissensnutzung
▪ Hypertext
▪ Navigierender Zugriff auf die Inhalte
▪ Suchmaschine
▪ Deskriptiver Zugriff auf die Inhalte
▪ E-Learning und Tutorsystem
▪ Didaktische Aufbereitung der Inhalte
▪ Intelligente Checkliste
▪ Vergleich des Vorgehens eines Mitarbeiters mit einem Soll-Vorgehen
▪ Kritiksystem
▪ Automatischer Hinweis auf Fehler im Vorgehen eines Mitarbeiters
▪ Vorschlagssystem
▪ Automatisches Empfehlen von Handlungsalternativen
▪ Entscheidungssystem
▪ Automatisches Treffen bestimmter Entscheidungen
WM-Software zur Wissensbewahrung (Prof. Müller)
Kategorien von Tools
▪ Internet und Intranet
▪ Projektdatenbanken
▪ Wissensdatenbanken

6.4 Web 3.0-Systeme oder Wissensbasierte Systeme


Die semantische Komponente im Web 3.0 (Semantisches Web) bezieht sich auf die Bedeutung und
Qualität der Information. Beim semantischen Web handelt es sich um eine Reihe von Konzepten und
Technologien, die das Web so erweitern sollen, dass Informationen eine eindeutig definierte Bedeutung
zukommen, die von Maschinen interpretiert werden kann. Informationsressourcen werden durch
Metadaten ergänzt, die Sinngehalt ausdrücken und zwischen Computersystemen ausgetauscht werden
können. Im Gegensatz zu den Tags bei Web 2.0 haben die Metadaten eine Tiefenstruktur, also auch eine
fest definierte Bedeutung, anhand derer sie mit Hilfe von logischen Regeln interpretiert werden können.
Dadurch entsteht ein Netz aus Inhaltsstrukturen.
Das Schichtenmodell des Semantic Web (siehe Abb. 6/8) besteht unten aus den Web 2.0 Technologien
wie URI, XML, HTML und XHTML.

Abb. 6/8: Das Schichtenmodell des Semantic Web: (Kollmann 2010, S. 76)

Mit Hilfe des Ressource Description Framework (RDF) können beliebige Informationen durch
Metadatenbeschreibungen ergänzt werden. Semantische Beziehungen werden dabei als Tripel
140
(Ressource, Eigenschaft, Wert) modelliert. Die Konzepte einer bestimmten Anwendungsdomäne und
deren reziproke Beziehungen werden in Ontologien definiert, z.B. mit der Ontologie Web Language
(OWL) (siehe Kap. 4.3.2). Neben Ressource, Semantik und Ontologie ist auch die auf diesen basierende
automatische Regelverarbeitung durch Inferenzmechanismus (Schlussfolgerung) ein Baustein von
Semantik Web. Hinzu kommen Bausteine zur Prüfung von Sicherheit und Identität, die die
Vertrauenswürdigkeit der erzeugten Inhalte garantieren.

Damit zukünftige E-Business-Plattformen in der Lage sind, Kontextinformationen und Webressourcen


automatisiert miteinander in Zusammenhang zu bringen, gilt es die Informationen durch
Annotationstechniken mit Metadaten zu ergänzen, die die Informationsinhalte zusätzlich auf der
semantischen Ebene klassifizieren. Das einfache Tagging der Web 2.0 Bookmarking Dienste reicht hier
nicht aus und muss durch eine formale Repräsentation von Ressourcen und der verwendeten
Annotationstechnik ergänzt werden. Das Semantic Web bietet dazu eine Reihe von Konzepten und
Techniken.

Semantic Web basierter E-Commerce wird es Anbietern von Produkten und Dienstleistungen
ermöglichen, ihre Angebote nur noch einmal auf Ihrer eigenen Website, basierend auf einem offenen
Standard, in maschinen-interpretierbarer Form zu beschreiben. Alle auf Semantic Web Technologien
gestützte Suchmaschinen können diese Angebote für den Benutzer finden und interpretieren. Auf
Semantic Web Technologien basierende Suchmaschinen orientieren sich also nicht mehr wie heutige
Suchmaschinen an Stichworten, sondern können Produkte (inklusive ihrer Produkteigenschaften)
vollständig erfassen und für den Menschen verarbeiten. Das bedeutet, dass Konsumenten im Zuge einer
Suchabfrage über eine auf Semantic Web Technologien basierende neue Suchmaschine, die von Ihnen
gesuchten Produkteigenschaften definieren können und im Ergebnis jene Angebote erhalten, die am
besten Ihren Wünschen entsprechen. Dies ermöglicht es dem Konsumenten, mit Hilfe von digitalen
Assistenten alle am Markt verfügbaren Angebote aktiv in den Entscheidungsprozess einzubeziehen und
jenes Angebot zu finden, dass am besten zu seinen Anforderungen passt.

Unternehmen müssen in Zukunft ihre Produktinformationen nur noch einmal auf ihrer eigenen
Homepage in maschineninterpretierbarer Form angeben und können von allen auf Semantic Web
Technologien basierenden Anwendungen gefunden werden. Auf Konsumentenseite kommt es zu einer
besseren Ressourcenallokation, da es für den Konsumenten leichter wird jenes Angebot zu finden, dass
optimal seinen Anforderungen entspricht. http://www.MyOntology.org/
Das folgende Szenario ist ein konkretes Beispiel:
Der Personal Agent wird beauftragt, ein geeignetes Auto zum Kauf ausfindig zu machen. Er kennt die
Vorlieben des Besitzers und trifft eine Vorauswahl der infrage kommenden Modelle. Der Agent
kontaktiert die Agents verschiedener Anbieter und wählt schließlich eine kleine Auswahl der in der
Nähe befindlichen Anbieter aus. Die Agents tauschen Preise, Produkt-Details und Lieferbedingungen
aus und führen gegebenenfalls automatisch die Verhandlungen durch. Dabei wird der Personal Agent
die Reputation der Anbieter anhand unabhängiger Quellen mitberücksichtigen. Wird tatsächlich ein
geeignetes Angebot gefunden, greift der Agent auf den persönlichen Terminkalender zurück, um freie
Termine zu finden und einen Zeitpunkt zur Probefahrt mit dem Agenten des Anbieters zu vereinbaren.
Schließlich informiert der Personal Agent ein mobiles Endgerät, welches der Besitzer bei sich trägt.

Sind die persönlichen Präferenzen der gesamten Belegschaft und die unternehmerischen Vorgaben in
der semantischen Wissensdatenbank hinterlegt, könnte die Verwaltungsaufgabe Reisemanagement in
Zukunft automatisch von der eigenen unternehmerischen Reise-Applikation übernommen werden.

Blogs und Wikis können die Basis für Web 3.0 legen, da sie Informationen in hierarchisch strukturierte
Gruppen einordnen lassen und Beziehungen zueinander setzen lassen. Existierende Strukturen müssen
entsprechend einer Ontologie (in ihr sind die Komponenten der Blogging- und WikI-Welt und ihre
Beziehungen zueinander festgehalten) in RDF (Ressource Description Framework) überführt werden.

Nachfrageorientierte Plattformen

141
Web 3.0 Plattformen, werden sich die Bedürfnisse des Kunden zu eigen machen, z.B. „optimal zu mir
passendes Auto“. Das geschieht mit intelligenten und benutzerfreundlichen Oberflächen, die Lösungen
aus gesammelten Informationen ableiten.
Kontextadaptive Plattformen
Sie berücksichtigen den Kontext des Benutzers bei der Zusammenstellung von Informationen und
Diensten. Sie werden dem Benutzer gezielt Webressourcen anbieten, die seine individuelle
Bedürfnislage (z.B. Ortsinformation, Nutzerprofil) befriedigen bzw. in der aktuellen Situation mit hoher
Wahrscheinlichkeit von Nutzen sind.
Konfiguratoren
Produktkonfiguratoren werden zunehmend direkt bei der Bestellung über das Internet möglich. sie
ermöglichen Angebote mit hohem Variantenreichtum. Gekoppelt mit dem Engineering-Data-
Managementsystem erlaubt es der Web-Shop, dass der Kunde individuelle Lösungen konstruiert.
Beim kollaborativen Filtern (collaborative filtering) werden Verhaltensmuster von Benutzergruppen
ausgewertet, um auf die Interessen Einzelner zu schließen. Dabei handelt es sich um eine Form des Data-
Mining, das eine explizite Nutzereingabe überflüssig macht.
Aufbauend auf der Bildung von Kundengruppen auf Basis persönlicher Daten wie Shopping-
Transaktionen werden Webinhalte oder Produktempfehlungen, die von Kunden der gleichen
Kundengruppe konsumiert bzw. gekauft wurden, auf der Website angezeigt.

Abb. 6.9.: Darstellung der Empfehlung

Industrie 4.0
Vernetzung von autonomen, sich situativ selbst steuernden, sich selbst konfigurierenden,
wissensbasierten, sensorgestützten und räumlich verteilten Produktionsressourcen
(Produktionsmaschinen, Roboter, Förder- und Lagersysteme, Betriebsmittel) inklusive deren
Planungs- und Steuerungssysteme."
Logistik 4.0
✓ Agentengesteuerter Transportmitteleinsatz
✓ Situative Routenplanung
✓ Intelligenter Umgebungsüberwacher
✓ AR + Logistik

Home 4.0
✓ Situative Hausfunktionen
✓ Schutz per Gesichtserkennung
✓ Bedarfsabhängige Logistik
✓ Vernetzung mit Smartphones

142
E-Tourismus 4.0
✓ Expertensystem selektiert aus Wünschen passende Reiseziele
✓ Konfigurater von reisepaketen aus Bausteinen
✓ Handy App, situativer Reiseführer am Handy
✓ Aufgrund eines Benutzermodells weitere Reisevorschläge offerieren

E-Governement 4.0
✓ Intelligente Kommunalberater
✓ E-Richter
✓ Grenzenlose/

Autofahren 4.0 (selbstfahrende Autos); alle Fahrdaten einsehbar, Haftung bei Unfällen

E-Business 4.0
• Produktkonfiguratoren
• Einkaufsagenten
• Empfehlungssysteme wie bei Amazon
• Adaptivität der Werbung wie bei Google
Büro 4.0
Genauso wie zuhause will der Mitarbeiter seinen Arbeitsplatz an sich anpassen – also
personalisieren. Der Arbeitsplatz erkennt welcher Mitarbeiter sich darauf einrichtet und passt
Höhe des Schreibtisches und des Bürostuhls an. Dezentrale Abteilungen oder Projektteams
können dadurch in Real-time miteinander über Bild und Ton kommunizieren und kommen damit
einer persönlichen Unterhaltung sehr nahe, welche jedoch nicht vollkommen ersetzt wird.

Labor 4.0
Ausstattungen in den Laboren werden vernetzt. Dadurch können Mitarbeiter die Geräte auch über
Fernzugriffe steuern, Analysen durchführen und Ergebnisse erhalten. Der Fernzugriff erlaubt
zudem eine Fernwartung. Es spielt Flexibilität in der sogenannten Life Science Automatisierung
eine bedeutende Rolle. Durch Robotik-Systeme werden auch im Labor neue Möglichkeiten
geschaffen. So ist es für den Mitarbeiter möglich, diese ebenfalls per Fernzugriff zu steuern.
Das Software-Unternehmen iTiZZiMO integriert Augmented Reality (AR) in Form von Smart Glasses
in den Arbeitsalltag im Labor. Dabei wird jeder wichtige Gegenstand, seien es Mitarbeiterausweise,
Proben- oder Chemikalienfläschchen, mit einem QR-Code versehen, welcher von den Smart Glasses
gescannt wird. Die Smart Glasses erkennen, wenn ein Raum betreten wird, und geben Hinweise zur
Arbeitsschutzausrüstung.

Verwaltung 4.0
Sie ist die "technische Integration von cyber-physischen Systemen in die öffentliche
Verwaltung sowie die Anwendung des Internets der Dinge und der Dienste im
Rahmen der Prozesse des Regierens und Verwaltens.
Dies beinhaltet die sich daraus ergebenden Konsequenzen für die Wertschöpfung,
die Geschäftsmodelle sowie die nachgelagerten Dienstleistungen und die
Arbeitsorganisation". (von Lucke J. 2015, S. 8).

6.5 Literatur und Kontrollfragen


1. Back Andrea, Gronau Norbert, Tochtermann Klaus: Web 2.0 in der Unternehmenspraxis,
Oldenbourg München 2008.
2. Heilmann, H., Wissensmanagement – ein neues Paradigma? Praxis der Wirtschaftsinformatik
36(199)208, S. 7 ff.

143
3. Leimeister J. M.: Collaboration Engineering: IT-gestützte Zusammenarbeitsprozesse
systematisch entwickeln und durchführen. 1. Aufl., Springer Verlag, Berlin, 2014
4. Lehner Franz: Wissensmanagment, Hanser 2012, S. 246-272
5. Kollmann Tobias: E-Business – Grundlagen elektronischer Geschäftsprozesse in der Net
Economy. 4. Aufl., Gabler:Wiesbaden, 2010
6. Probst, G., Raub, S., Romhardt, K., Wissen managen – Wie Unternehmen ihre wertvollste
Ressource optimal nutzen, Wiesbaden 1997.
7. Popp Heribert, Kreupl Silke: Softwaretechnische Umsetzung von Wissensmanagement zur
Unterstützung der Hochschulziele. In Jürgen Cleve (Hrsg.). WIWITA 2010 – 7. Wismarer
Wirtschaftsinformatiktage, Wismarer Diskussionspapier, ISBN 978-3-939159-84-1, 2010,
S.14-23.
8. Wach Elmar P.: Semantic E-Commerce, E-Commerce-Magazin, 2009, Heft 6.

Kontrollfragen
1. Was für Werkzeuge für ein IT-gestütztes Wissensmanagement gibt es?
2. Skizzieren Sie vier IT-basierte Hilfsmittel des Wissensmanagements!
3. Was ist ein Answer Garden als Werkzeuge für ein IT-gestütztes Wissensmanagement?
4. Wie können Web 2.0 Technologien Wissensmanagement unterstützen?
5. Diskutieren sie, ob und wie Großunternehmen Social Media für ihr Wissensmanagement einsetzen
können!
6. Warum kann ein CRM-System als Wissensmanagementsystem gesehen werden?
7. Erklären sie 3 Semantische Web-Ansätze.
8. Skizzieren sie je eine WM-Software entlang der WM-Prozesskette

144
7. Wissensmanagementsysteme

7.1 Funktionen von integrierten Wissensmanagementsystemen


Ein Wissensmanagementsystem (WMS) ist ein softwaretechnisches System, das idealerweise
Funktionen zur Unterstützung der Identifikation, des Erwerbs, der Entwicklung, Verteilung, Bewahrung
und Bewertung von Wissen (Information plus Kontext) bereitstellen sollte, wobei das organisatorische
Lernen und die organisatorische Effektivität unterstützt werden sollen.
Wissensmanagementsysteme sind umfassende, z.T. standardisierte Systeme. Standardisierte und
möglichst vollständige Wissensmanagementsysteme umfassen im Allgemeinen die folgenden
Funktionen:
• Wissenssuche (pull)
• Wissenszustellung (push)
• Wissensrepräsentation und –visualisierung
• Wissenspublizierung, -strukturierung und –vernetzung
• (automatische) Wissensakquisition
• Wissenskommunikation und –kooperation
• Administration der Wissensmanagementsysteme und Organisation bzw. Verwaltung der
Wissensbasis
• Analyse von Daten zur Erstellung von Wissenselementen
• Unterstützung von computerbasiertem Lehren und Lernen.

WMS haben Schwächen bei den Sozialisierungsmechanismen, da man den Transfer von implizitem
Wissen nicht durch Werkzeuge ersetzen kann.
Eine einheitliche Abgrenzung von Wissensmanagementsystemen zu den in Kap. 6 vorgestellten
Systemen ist hier nicht einfach. Ein integriertes WMS vereinigt einige der Singlelösungen. Insbesondere
durch die Integration und den erweiterten Funktionsumfang sind WMS von anderen Softwaresystemen
abzugrenzen.
In der Zwischenzeit sind am Markt verschiedene WMS verfügbar, welche den skizzierten Bedarf durch
standardisierte Lösungen zu decken versuchen. Natürlich ist auch bei diesen Systemen ein gewisser
Anpassungsbedarf erforderlich, man erspart sich aber trotzdem den hohen Aufwand, welcher mit der
Entwicklung und Pflege einer individuellen Lösung verbunden ist.

Die Funktionen eines WMS dienen der Umsetzung der Wissensmanagementprozesse. Dabei ist eine
Vielzahl von Funktionen auszumachen, die in die folgenden Bündel eingeteilt werden können
[Lehner2012, S. 278-280]:
• Kommunikation: Funktionen der synchronen und asynchronen Kommunikation, wie E-
Mail, Workflowmanagement oder Newsgroups.
• Inhaltsmanagement: Funktionen zum Umgang mit Inhalten (z.B. Bildern, Dokumenten
und Lernobjekten).
• Entscheidungsunterstützung: Funktionen zur Auswertung und Zusammenfassung von
Informationen.
• Suche: Funktionen zum Finden von Inhalten und Experten in unterschiedlichen Quellen
(z.B. Datenbanken, Dateiservern, Dokumentenmanagementsystemen).
• Visualisierung: Funktionen zur Präsentation von Informations- und Wissenselementen
sowie der Struktur dieser.
Im nächsten Abschnitt soll aufbauend auf diese Sammlung von wünschenswerten Funktionen auf die
Gestaltung der Architektur eines Referenzmodells eingegangen werden. Dann betrachten wir
Wissensportale. Den Abschluss bilden konkrete Beispiele für Wissensmanagementsysteme.

145
Abbildung 7.1: Idealtypische Architektur eines Wissensmanagementsystems [Lehner2012, S. 284]

7.2 Referenzmodell für die Entwicklung von WMS


Die Kosten für die Entwicklung eines umfassenden WMS sind schwer abzuschätzen, sie sind aber nach
bisher vorliegenden Erfahrungen eher hoch. Gemäß einer OVUM-Studie fallen davon etwa die Hälfte
auf Schulungen, ein Viertel auf Umstrukturierungsmaßnahmen und der Rest auf Hardware und
Software. Wissensmanagementarchitekturen bieten eine ökonomisch vertretbare Alternative, um die
Kosten zu reduzieren oder zumindest zu kontrollieren.

Die Abbildung 7.1 zeigt die Architektur eines idealtypischen Wissensmanagementsystems nach
Maier. Hierbei können sechs Schichten identifiziert werden, in denen verschiedene vorher beschriebene
Technologien zum Einsatz kommen. Die Basis stellen dabei Daten- und Wissensquellen dar, welche in
der Praxis in verschiedenen Systemen wie Contentmanagement- und
Dokumentenmanagementsystemen, Dateiservern, Datenbanken oder dem Internet vorliegen. Die
darüber liegende Schicht der Infrastrukturdienste stellt die Anbindung des Wissensmanagementsystems
an die verschiedenen Wissensquellen sicher. Dabei müssen die Informationen und das Wissen aus den
einzelnen Quellen für die weiteren Schichten extrahiert und in ein einheitliches Format überführt
146
werden. Auf der Ebene der Integrationsdienste erfolgt mit Hilfe von Taxonomien und Ontologien eine
Verknüpfung der einzelnen Wissenselemente sowohl auf Basis der Metadaten als auch auf Basis der
Inhalte. Die Wissensdienste werden nach ihren Aufgaben in Zugriffs-, Veröffentlichungs-,
Kollaborations- und Lerndienste eingeteilt. Die Personalisierungsdienste erlauben die Verwaltung von
Benutzerprofilen, anhand derer für die Benutzer relevante Wissenselemente vorselektiert werden
können. Der Zugriff auf ein Wissensmanagementsystem erfolgt über die Dienste der Zugriffsschicht,
welche neben der Authentifizierung und Autorisierung eine Anpassung der darzustellenden Inhalte an
das jeweilige Ausgabegerät vornehmen.

7.3 Wissensportale
Wissensportale fokussieren auf die Bereitstellung von Wissen.
Ihre wesentlichen Eigenschaften sind [Sandkuhl2005]:
1. Sie basieren auf einem gemeinsamen Begriffsraum des Anwendungsgebiets, für das sie
ausgerichtet sind. In der Regel wird ein konzeptionelles Modell der relevanten Begriffe und
Relationen zwischen unterschiedlichen Begriffen definiert (z.B. über Taxonomien oder
Ontologien; Beispiel Wissensnavigator in ilearn)
2. Strukturierte Inhalte bilden die Grundlage für Navigation in und Bereitstellung von Wissen, d.h.
das Informations- und Dokumentmodell muss auf das Anwendungsgebiet ausgerichtet sein.
Neben der Einbeziehung streng strukturierter Informationen aus Datenbanken ist auch eine
Einbindung semi-strukturierter Informationen in Form von Dokumenten erforderlich. Die
Trennung von logischer Struktur und Layoutstruktur ist ebenso wünschenswert wie die
Verwendung relevanter Metadaten (z.B. auf Grundlage des Dublin Core). Z.B. werden im Portal
Veda alle Inhaltstypen mittels so genannter Content Schemata deklariert, die neben Struktur,
Merkmalen, Attributen und Konsistenzbedingungen auch semantische Netze zur Definition
ergänzender Metadaten verwenden (z.B. mit RDF Notation).
3. Unterstützung des Lebenszyklus der Inhalte von Schaffen, Import, Zusammenstellen, Erfassen,
Zugriff/Suche bis zur Anwendung von Wissen und Entfernung.
4. Das Wissensportal muss die Möglichkeit zur Individualisierung sowohl der Inhalte als auch der
Funktionalitäten bieten.
5. Unterstützung kooperativen Arbeitens für das Wissenteilen (Kommunikation, Koordination,
Kollaboration)
6. Spezialisierung auf die Anwendungsdomäne (ausgerichtet auf spezielle Domänen,
Aufgabengebiete und Nutzergruppen)
Neben den Merkmalen sind die bereitgestellten Funktionen bzw. Funktionsbereiche eine weitere
Möglichkeit zur Charakterisierung von Wissensportalen. Im Folgenden finden sich einerseits
Portalfunktionen und typische Wissensportalfunktionen (mit W gekennzeichnet)
• Personalisierung: Personalisierung von Layout, benutzten Ressourcen, Sortierung der
Suchresultate;
Personalisierung von Arbeitsgebiet, Aufgaben und Prozesse, thematischer Interessen (W)
• Suche: Eingebaute Suchfunktion, Suchmaschine, Speichern von Suchresultaten,
Metadatenbasierte Suche;
Navigation im Begriffsraum, Suche auf Basis des Begriffsraums (W) (z.B.
Begriffsnavigator)
• Zusammenarbeiten mit anderen Nutzern: Definieren von Communities, Aufgabenlisten,
gemeinsame Dokumentenbearbeitung
Konferenzfunktion, Expertenvermittlung, Message Board, Planung von Meetings (W)
• Sicherheit: Authentifizierung, LDAP, Integration, Zugriffskontrolle, Verschlüsselung
• Dynamik: Kategoriebasierte Suche, Publikation neuer Inhalte, Benachrichtigung bei neuen
Inhalten, Suchanfragen
Generierung neuen Wissens auf Grundlage des formalisierten Wissens (W) (z.B.
Implikation)
• Erweiterbarkeit/Integration von Anwendungen: XML-Import, Offene Schnittstellen,
Internet-Zugang
Import von Fakten und strukturierten Inhalten (W)
147
• Content Management: Dokumentverzeichnis, Verwendung von Metadaten, Filtern von
Inhalten, Crawler
Management von Dokument- und Informationsmodellen, Metadatenmanagement,
Zuordnung von Inhalten zum Begriffsraum (W)
• Bedienerfreundlichkeit: WebFrontend, Grafische Bedienoberfläche
• Begriffe: Management des Begriffsraums, der Fakten (W), Regel-Editor (W), Zuordnung
Begriffsraum –Metadaten (W)

Als Rahmenarchitektur von Wissensportalen kann man sich drei Schichten vorstellen:
1. Die Datenhaltungsschicht stellt Mechanismen zur Speicherung, Manipulation und Zugriff auf
die im Portal gespeicherten Informationen und Wissen bereit.
2. Die Schicht der Anwendungslogik implementiert Dienste und Funktionen des Wissensportal.
Hier gibt es eine Aufteilung in semantische Mittelware (Navigationsunterstützung,
Inferenzmaschine, Anfragerealisierung und Persistenzmechanismus) und die darauf
aufbauenden Dienstegruppen Kooperation (Gemeinsame Arbeitsbereiche, Joint Editing,
Konferenzdienste), Kontext (Benutzerkontext, Aufgabenunterstützung, Prozessunterstützung),
Konzept (Management, Konzepte/Begriffe, Navigationsdienste, Anfrageunterstützung) und
Content (Management, Inhaltsstrukturen, Metadaten, Konsistenzbedingungen). Kernidee dieser
Aufteilung ist, dass die semantische Middleware alle Dienste bereitstellt, die direkt auf den
Modellen arbeiten, was das konzeptionelle Modell (Begriffsraum) und Inhaltsmodell
(strukturierte Inhalte) sowie deren Integration einschließt. Hier werden Dienste zur
Modifikation der Modelle, Erzeugung spezieller Sichten, Durchführung von Anfragen usw.
bereitgestellt. Die darauf aufbauenden Dienstegruppen implementieren die
Steuerungsaufgaben, d.h. hier werden Dienste zum Management der Modelle bereitgestellt, die
die semantische Middleware benutzen.
3. Auf der Bedienoberflächenebene wird neben den Frontends für Kommunikation,
Administration und domänenspezifischen Anwendungen zwischen Werkzeugen und Personal
Work Management unterschieden. Letztere ist der Schlüsselbereich zur Individualisierung (hier
erhält der Benutzer auf Grundlage seiner Kontextdefinition eine individuelle Aufgaben- und
Prozessunterstützung einschließlich Nutzung und Erwerb von Wissen). Werkzeuge umfassen
Frontends zum Inhaltsmanagment, Management des Begriffsraums, Retrieval usw.

Produkte zu Wissensportalen:
• Microsoft SharePoint (siehe Abb. 7/2)
• IBM ECM
• IBM Lotus Connections
• Open Text ECM Suite (früher: LiveLink)
• SAP NetWeaver Portal
• SAP Knowledge Warehouse
• Hyperwave eKnowledge Suite
• Open-Source-Software O3 Spaces Workplace
• Open-Source-Software Alfresco

Weitere Produkte zu Wissensportalen [Sandkuhl2005]


• Autonomy Inc. (autonomy.com); living-eAG (living-e.de)
• Brainbot Technologies AG (brainbot.com), Convera/RetrievalWare (convera.com)
• Hummingbird Ltd. (hummingbird.com), Infolution BV (infolution.nl)
• Insiders GmbH (insiders.de), Intelligent views GmbH (iviews.de)
• IntraFind Software AG (intrafind.de),
• SPSS Inc. (spss.com), Stratify Inc (stratify.com)
• Verity Inc. (verity.com), XtraMind Technologies GmbH (xtramind.com)

148
Abb. 7/2: Funktionen der Wissensportalsoftware SharePoint Server (English et all 2007 S.44-45)

Abb. 7/3: Portfolio der Portalanbieter [Gartner2011]

Typische Funktionen von solchen Wissensportalen sind: Komponenten, Taxonomie, Klassifikation, Tag
Clouds, Suche, Community, Content, BI.

149
7.4 Fallbeispiel IBM

Abb. 7/4: Wissensmanagement bei IBM (siehe Folien)

IBM nutzt das Wissen aller Mitarbeiter, ja sogar von Kunden, Business Partnern und
Familienangehörigen, um Innovation zu fördern.
• Den richtigen Ansprechpartner unter 350.000 Mitarbeitern
• Die passenden Slides für einenVortrag
• Themenbezogene News
• Die zündende Idee
• Den passenden Karrierepfad

7.5 Softwaretechnische Realisierung des Deggendorfer WMS für


Studenten
Dienstleister, bei denen die Bildung und Weiterbildung einen Kernprozess darstellen, verwenden meist
schon ein Lernmanagementsystem (LMS). Daher kann bei ihnen die softwaretechnische
Implementierung auf diesen Technologien und Instrumenten basieren. Durch die Einbettung des
Wissensmanagementsystems für Studierende in ein schon vorhandenes Lernmanagementsystem, siehe
Abb. 7/5, wird die Implementierung erleichtert und die Nutzung vorangetrieben, da sich der
Mehraufwand sowohl für Verantwortliche als auch User wesentlich verringert.
In Deggendorf bietet sich hierfür das LMS Moodle an, das mit Plug-ins wie für Social Bookmarks oder
mit Eigenentwicklungen wie den auf einer Ontologie basierenden Wissensnavigator angereichert wurde.
Zudem bietet Moodle Web 2.0-Technologien an, die im Wissensmanagement von hoher Bedeutung sind
wie Wikis, Blogs, Mashups, Podcasts oder Bewertungen/Abstimmungen. Die Benutzeroberfläche des
WMS ist intuitiv bedienbar, funktionell und für die Zielgruppe der Studenten attraktiv gestaltet. So liegt
die prozessorientierte Gliederung zugrunde, damit sind verschiedene Kategorien je nach Studienphase
angelegt z. B. für Studienanfänger, Studierende, die ein Auslandsstudium anstreben oder sich bereits am
Ende des Studiums bei der Abschlussarbeit befinden.

150
Abb.7/5: Architektur von WMS und LMS an Hochschulen

Wissensziele

Pod- und

Bookmarki
Plattforme
Weblogs

Network
Vidcasts

Sharing
Forum

Media

Social

Social
Wikis
Feeds

ng
n
Entscheidungskriterien der potentiellen
X X
Studienanfänger sind bekannt

Studienbewerber haben nötige Informationen X X X X

Informationen am Studienanfang sind


X X X
zugänglich
Wissen über „Problemfächer“ auf Seiten der
X X X
Hochschule ist vorhanden
Informationen zur optimalen
X X X
Prüfungsvorbereitung sind vorhanden

Studienorganisation ist transparent X X X X X

Informationen rund ums Praktikum sind


X X X X X
vorhanden
Informationen zu Auslandsaufenthalten sind
vorhanden: Auslandsstudium und X X X X X X
Auslandspraktikum
Informationen zur Anfertigung von
wissenschaftlichen und Abschlussarbeiten sind X X X X
vorhanden
Informationen zum Übergang von Studium ins
X X X X X X
Berufsleben sind vorhanden

151
Wissensziele

Pod- und

Bookmarki
Plattforme
Weblogs

Network
Vidcasts

Sharing
Forum

Media

Social

Social
Wikis
Feeds

ng
n
Prozess „Studentenleben“ wird unterstützt X X

Informationen über verwaltungstechnisch


X X X X X
notwendige Vorgänge sind vorhanden
Informationen über Finanzierungs- und
X X X X X X
Fördermöglichkeiten sind vorhanden
Informationen sind strukturiert und
kontextorientiert aufbereitet
Abb. 7/6: Welche Web 2.0 Anwendungen eignen sich für welches Wissensziel? [Hochstetter 2010, S.
63]

Realisierung der Wissensziele mit Web 2.0 Anwendungen


In der Abb. 7/6 sieht man eine Übersicht darüber, welche Web 2.0 Anwendungen sich zur Erfüllung der
Wissensziele eignen.
Für das operative Wissensziel „Informationen zur optimalen Prüfungsvorbereitung sind vorhanden“
sind u. a. folgende Maßnahmen entstanden: Studierende pflegen ihre digitalen Vorlesungsmitschriften,
Musterlösungen sowie Tipps zur Prüfungsvorbereitung mittels Wikis ein und andere bewerten deren
Nützlichkeit. Desweiteren erstellen sie Pod-/Vodcasts von Gastvorträgen und effizienten
Arbeitsanweisungen, z. B. wie fertige ich eine Bachelorarbeit an, oder pflegen ihre Erfahrungsberichte
aus Praktikum und Auslandsstudium mittels Mashup grafisch anschaulich ein.
Realisierung sozialer Netzwerke mit mahara. Mahara ist ein open-source E-portfolio System mit einer
flexiblen Grundstruktur. Ihr Funktionsumfang beträgt folgende:
1. Mahara ermöglicht verschiedene Ansichten eines E-portfolios zu verwalten
2. Verfügt über die Features eines Weblogs, einer ausführlichen Profilerstellung sowie eines
sozialen Netzwerks, das Benutzer verbindet und online Lerngemeinschaften bilden lässt
3. Mahara kann an ein bestehendes Moodle-System gekoppelt werden, d. h. es kann ein Single
Sign-on realisiert werden

7.6 Wissensmanagement fürs Personal TH Deggendorf


Neben dem Wissensmanagement „von Studierende für Studierende“ soll an der TH Deggendorf ein
Wissensmanagement fürs Personal aufgebaut werden.

7.6.1 Bedarfsanalyse
Sie führt zum Soll-Zustand.
Was wünschen sich die Mitarbeiter für WM?
„Betroffene zu Beteiligten machen“
Mitarbeiterbefragung zu folgenden Themenbereichen:
• Einstieg neuer Mitarbeiter
• Transparenz und Informationsfluss
• Arbeitsgruppen und Projektarbeiten
• Persönliches Wissensmanagement
• Weiterbildung und Kompetenzentwicklung
• Weiterentwicklung der Hochschule (Ideen, Innovationen, Verbesserungsvorschläge)

152
Es ist ein Konzept anhand der Ziele und Maßnahmen detaillierter auszuarbeiten. Zunächst sind
Maßnahmen aus den operativen Zielen sowie den gewonnenen Erkenntnissen aus der Analysephase zu
konkretisieren. Dann sollen Softwarewerkzeuge auf ihre Eignung für dieses WM untersucht werden.

7.6.2 Technische Realisierung


Als Pilot müssen gewählt werden
- der Bereich, z. B. Abteilungen oder Fakultät,
- die Teilnehmer, also Mitarbeiter, die dem Projekt möglichst aufgeschlossen gegenüberstehen
- Maßnahmen, die im Testbetrieb laufen sollen.

Technische Umsetzung
Für die technische Realisierung ist es notwendig, eine Entscheidung bezüglich der Softwarelösung
und/oder eigenen Umsetzung beispielsweise im existierenden Intranet zu treffen.
Im Abgleich mit der Ist- und Soll-Analyse sowie dem detaillierten Maßnahmenplan ist eine
Produktevaluation durchzuführen, d. h. eine Marktanalyse der vorhandenen Produkte für
Wissensmanagementlösungen gemäß den Anforderungen. Häufig wird der Sharepoint-Server von
Microsoft genutzt und lediglich zusätzlich notwendige Lösungen hinzu programmiert.
Allgemeine Anforderungen an das System sind:
- Nutzerfreundliche und intuitive Bedienung
- Integration von bereits vorhandenen Systemen (z. B. Groupware, Projekt-, Prozess- und/oder
Dokumentenmanagementsystem)
- Möglichkeit differenzierter Zugriffsberechtigungen (anhand Organisationsstruktur und Rollen)
- Integration von unterschiedlichen Dokumententypen (welche vorhanden oder erforderlich sind)
- Ontologiebasierte Suchfunktion
- Information Retrieval
- Kategorisierung und thematische Ordnung (evtl. automatischer Bescheid über neu eingestellte
Dateien)

7.6.3 Vergleich von Portalsoftware für die Anforderungen dieses


Wissensmanagements (Schich 2012)

153
7.7 Literatur und Kontrollfragen
Literatur
1. Bullinger, H.-J., Wörner, K., Prieto, J., Wissensmanagement heute – Daten, Fakten,
Trends, Studie des Frauenhofer-Instituts für Arbeitswissenschaft und Organisation,
Stuttgart 1998.
2. Gottschick, J., Friedrich, H. (et al.): Marktübersicht Wissensportale. Informatik-Spektrum,
Springer Berlin Heidelberg, vol. 28, no. 3, pp. 202-209, 2005
3. Heilmann, H., Wissensmanagement – ein neues Paradigma?, Praxis der
Wirtschaftsinformatik 36(1999)208, S. 7 ff.
4. Lehner Franz, Wissensmanagement, 2012, 4. Auflage, Hanser Verlag, S. 277-306
5. Kreupl, Silke; Popp Heribert: Wissensmanagement an der Hochschule Deggendorf.
Wissensmanagement, Heft 6/2010, 2010, S.18-21

154
6. Popp Heribert, Kreupl, Silke, Mößlein, W. Die Wissensbilanz, in WISU- Das
Wirtschaftsstudium, 2012, Heft 5, S675ff.
7. Popp Heribert, Epple Martin, Zimmermann Volker: Application Integration von E-
Learning mit HIS, WMS oder Kompetenzmanagement. In Andreas Hohenstein, Karl
Wilbers (Hrsg.): Handbuch E-Learning, Kluwer Verlag 2010 (7.14.1-7.14.23)
8. Sandkuhl, K. : Wissensportale, Informatik-Spektrum, Springer Berlin Heidelberg, vol. 28, no.
3, pp. 193-201, 2005
9. Hochstetter 2010, Bachelorarbeit TH Deggendorf
10. Schich 2012, Bachelorarbeit TH Deggendorf
11. English, et al.: SharePoint, 2007, S. 44-45.
Links
http://www.wissenskapital.de/ : Wissenskapital
http://www.wissensmanagement.net/ : Wissensmanagement online

Kontrollfragen
1. Entwickeln sie eine Architektur für ein integriertes Wissensmanagement-System.
2. a.) Was sind wesentliche Eigenschaften von Wissensportalen?
b.) Nennen sie 5 typische wissensbasierte Funktionen von Wissensportalen
3. Entwickeln sie ein Haus des Wissens für ein Unternehmen ihrer Wahl (Funktionen, Bestandteile
und verwendete IT-Werkzeuge)!
4. Beschreiben sie ein Fallbeispiel eines integrierten Wissensmanagement-Systems am Beispiel
von Accenture oder IBM
5. Beschreiben sie mit welchen Software-Werkzeugen man das WM fürs Personal einer
Hochschule einsetzen könnte.
6. Im Wissensmanagement der TH Deggendorf für das Personal ergab es aus der Bedarfsanalyse
u.a. folgende vier Themenstellungen:
1: Einstieg neuer Mitarbeiter bzw. Stellenwechsel
2: Transparenz und Informationsfluss
3: Persönliches Wissensmanagement
4: Weiterbildung und Kompetenzentwicklung
Mit welcher softwaretechnischen Maßnahme könnten sie den jeweiligen Bedarf
befriedigen (jeweils begründen warum)?
7. Beschreiben sie das Wissensmanagementsystem der TH-Deggendorf „Von Studierenden für
Studierende“ (Softwaretechnische Realisierung und Funktionalitäten)
8. Schildern sie ein Wissensmanagementsystem, mit dem man z.B. für eine Hochschule ein WM
aufbauen könnte.

155
8. Risikomanagement im Wissensmanagement
Wissensrisiken umfassen jene Risiken, die im Zusammenhang mit der Ressource Wissen in
Unternehmen auftreten. Früher war vor allem der Wissensverlust, meist bedingt durch
Personalfluktuation, im Vordergrund, aber mittlerweile soll die Organisation ganzheitlich betrachtet
werden. Es existieren vielfältige Definitionen von Wissensrisiken, die sich auf folgende Aussage
verdichten lassen:
„Wissensrisiken treten im Umgang mit Wissen auf und können zu ungewolltem Verlust bzw.
qualitativer und/oder quantitativer Reduktion des Wissens (personell und organisatorisch) führen.“
(Oberschmid, 2009). Beispiele sind Störungen in der Kommunikation, fehlende Transparenz im
Unternehmen oder Technologieänderungen.

In der Literatur existieren neben unterschiedlichen Definitionen ebenso verschiedene Kategorisierungen


der Wissensrisiken. Eine etablierte und anschauliche Gliederung wurde von Knaese/Probst (2004)
vorgenommen und im Folgenden zugrunde gelegt. Diese Arten von Wissensrisiken beinhalten vorrangig
die Risiken des Wissensverlustes d. h. Aspekte, die das Wissen gefährden. Es sind allerdings auch
Risiken, die das Wissen selbst betreffen, zu betrachten wie:
• falsches Wissen durch falsche Informationen bzw. Daten oder falsche Interpretation
• verstecktes Wissen durch fehlende Überschaubarkeit oder Nichtnutzung
• unzureichendes Wissen durch unzureichende Bildung oder Vorbereitung
• ungenügender Wissenstransfer durch mangelhafte Infrastruktur oder Organisationsmangel (in
Prozessen, Handlungen)
• falsche Wissensnutzung durch Zielkonflikte im Unternehmen oder unzureichende
Internalisierung des Wissens

Kategorien von Wissensrisiken sind, wie in Abb. 8/1 ersichtlich, personelle Wissensrisiken, die sich auf
das Humankapital beziehen und sachlich-technische, organisatorische sowie marktbezogene
Wissensrisiken, die dem Strukturkapital zuzuordnen sind.

Abb. 8/1: Arten der Wissensrisiken [Knaese/Probst, 2004]

8.1 Sachlich-technische Wissensrisiken


Hier werden die Vermögenswerte und die potentiellen Bedrohungen analysiert sowie die Risiken
ermittelt und bewertet.

8.1.1 Risikoidentifikation
Günstige Tatgelegenheitssituation durch
• unzureichendes Rechtsbewußtsein (z.B. Hacking als Sport)
• undefinierte Systemzustände (Asynchronous Attack)
156
• zu einfache Passwörter
• Vorhandensein geeigneter Zielobjekte
• Anonymität der Opfer
• Zugänglichkeit der Zielobjekte
• niedriges Aufdeckungs- und Sanktionsrisiko
• hohen Tatertrag
Potentielle Gefahren
Einbruch
Einbruch Diebstahl
Diebstahl Terrorismus
Terrorismus

Allgemeine
Allgemeine Kriminalität
Kriminalität

Brand
Brand
Techn.
Techn. Störungen
Störungen Höhere
Höhere
Betrieb
Betrieb Wasser
Wasser
Gewalt
Gewalt
Nachlässigkeit
Nachlässigkeit
Sturm
Sturm

Computerkriminalität
Computerkriminalität

Unbefugte
Unbefugte Beeinträchtigung
Beeinträchtigung Unbefugte
Unbefugte Modifikation
Modifikation Unbefugter
Unbefugter
der
der Funktionalität
Funktionalität von
von Informationen
Informationen Informationsgewinn
Informationsgewinn

Fälschung
Fälschung
Daten-
Daten- Computer-/
Computer-/ Programm-/
Programm-/
Computer-
Computer- Computer-
Computer- beweis-
beweis-
verände-
verände- Daten-
Daten- Chip-
Chip-
sabotage
sabotage betrug
betrug erheblicher
erheblicher
rungen
rungen spionage
spionage piraterie
piraterie
Daten
Daten

Abb. 8/2: Potentielle Gefahren


Gefahren aus dem Internet
• Virenangriffe: Per Email ist es möglich, in Programmcode eingekapselte Virenprogramme zu
verschicken. (Schutzprogramm: McAfee Virenscanner). Sehr gefährlich ist die Eigenschaft
mancher Viren zu mutieren (selbstmodifizierender Code). Im Zeitraum von 11.2013 bis
10.2014 mussten die Sicherheitslösungen von Kaspersky Lab 1.400.000 individuelle Attacken
abwehren, während es ein Jahr vorher nur 335.000 Attacken waren. Während eines Jahres
wurden ca. 20% der mobilen Android-User mit Bedrohung konfrontiert. Dabei wurden bei 53
% der Angriffe mobile Trojaner verwendet. In Russland waren 47% der angegriffenen
Anwender.
http://media.kaspersky.com/de/businesssecurity/Kaspersky%20Lab%20Security%20Report%
202014_2015_screen.pdf
• Lauschangriffe: Über den Internet-Provider läuft der ganze Traffic. Er kann z.B. die vom
Benutzer eingegebene Kreditkartennummer herausfiltern, wenn sie nicht verschlüsselt ist.
• Angriffe die Internetdienste lahmlegen, z.B. Mailbomben.
• Fälschungsversuche: Man legt in Newsgroups Behauptungen von einer honorigen Person auf,
die z.B. rassistisch sind.
• Auf die kleinen Benutzer stürzen alle Infos des Internets ein, z.B. Kinderporno, daher müssen
hier Schutzmechanismen aufgebaut werden.

157
Mögliche Täter

mögliche Täter

nicht zum
Zugangs- Zugang
berechtigte Berechtigte

Hacker

eigene fremde
Mitarbeiter Mitarbeiter
grafik6

Anwender Wartung
EDV-Personal Reinigung
Hersteller
Abb. 8/3: Mögliche Täter

8.1.2 Maßnahmen gegen sachlich-technische Wissensrisiken


Dies umfasst Schritte zur Reduzierung der vorhandenen Risiken.

8.1.2.1 Firewalls
Einfach ausgedrückt, bietet eine Firewall (Brandmauer) nur einen kleinen Durchlaß, den Sie
kontrollieren können und durch den alle ein- und ausgehenden Informationen hindurch müssen. Eine
Firewall verhindert Einbrüche über das Internet, und eine gute Firewall trägt auch dazu bei, dass keine
vertraulichen Daten nach draußen gelangen.
öffentlich privat

Internet

Firewall

WWW-/FTP-
Server
Abb. 8/4: Firewall

Man kann die Firewall so konfigurieren, dass nur Email-Nachrichten ein- und ausgehen können, so dass
alle nicht Email-bezogenen Attacken abgewehrt werden. Genauso kann man alle anderen Dienste, die
Internet anbietet, unter bestimmten festgelegten Konditionen zulassen. Man kann auch die Prüftools der
Firewall zur Kontrolle der Leitungen verwenden, um Einbruchsversuche von Hackern zu erkennen. Man
kann die Firewall sogar so errichten, dass keine Informationen vom Internet in das eigene
Computersystem gelangen, die eigenen Angestellten das Netz jedoch ohne sonstige Beschränkungen
verwenden können.

158
Idealer weise sollte sich der Rechner außerhalb der Firewall befinden, der die öffentlich zugänglich und
deshalb knackbaren, wie zum Beispiel Web und FTP-Dienste, Netzwerkdienste bereitstellt. Nur
autorisierte Benutzer und berechtigte Internetdienste dürfen die Firewall passieren, wobei sie
automatisch genauestens kontrolliert werden. Die Computer des Unternehmens befinden sich hingegen
vollkommen geschützt innerhalb der Barriere.
Firewalls verteidigen zwar ihr Unternehmen, doch muss man dafür den Preis des eingeschränkten
Zugriffs auf manche Internetdienste beziehungsweise des umständlicheren Gebrauchs von Internet
bezahlen.

8.1.2.2 Autorisierung
Es wurden Barrieren errichtet, durch die nur berechtigte Personen passieren dürfen. Zum Überwinden
dieser Barrieren muss dem System ein Berechtigungsschein vorgelegt werden. Alternativ kann dies auch
implizit durch Zugehörigkeit zu einer berechtigten Gruppe erfolgen. Sicherheitshalber wird zumeist der
Berechtigungsnachweis vom System selbst verwaltet, so dass die Gefahr, durch Fälschung eine
Berechtigung zu erschleichen, von vornherein vermieden werden kann.
Im Bereich von Betriebssystemen sind Fragen der Autorisierung weitgehend geklärt.
Schwieriger ist eine Autorisierung verwaltbar, wenn die rechtevergebende Instanz von der Ressource
getrennt wird. Dann nämlich muss der Benutzer durch Vorlage eines Zertifikates nachweisen, dass er
zur Durchführung einer Handlung berechtigt ist. Als Beispiel sei hier auf die Vorlage einer Vollmacht
verwiesen, wenn eine Person durch eine Vertragspartei autorisiert wird, im Namen der Partei zu
unterschreiben.
Beispiel: Mit Outlook einen Vertreter einrichten.

8.1.2.3 Verschlüsselung
Hier wird angenommen, dass zwischen zwei oder mehreren Parteien Daten auszutauschen sind, die zwar
vom Empfänger, nicht jedoch von potentiellen Angreifern eingesehen werden können. Folglich ist das
Dokument in eine Form zu überführen, aus der ein Angreifer ohne Wissen oder Besitz eines speziellen
Schlüssels das Originaldokument nicht wieder rekonstruieren kann. Dieser Schlüssel kann entweder der
gleiche sein, der zum Verschlüsseln des Dokumentes verwendet wurde (symmetrische Verfahren), oder
ein anderer, der zusammen mit jenem zur Verschlüsselung erzeugt wurde (asymmetrische Verfahren).
Im zweiten Fall ist die Verwendung der beiden Schlüssel hinsichtlich der Ver- oder Entschlüsselung
nicht vorgeschrieben. Wurde jedoch der eine einmal zur Verschlüsselung eingesetzt, kann die
Entschlüsselung nur mit dem anderen erfolgen.
Beim symmetrischen Verfahren kann jeder, der sich den einen Schlüssel kopiert, das Dokument lesen.
Somit ist hierbei besonders darauf zu achten, dass dieser Schlüssel auf einem sicheren Weg an den
Kommunikationspartner transportiert werden kann – man spricht hierbei von einem sicheren Kanal, der
konkret den persönlichen Transport und die Ablieferung per Diskette bedeuten kann. Die einzige
Alternative besteht im verschlüsselten Transfer durch einen zweiten, bereits vorher verteilten Schlüssel.
Das Problem der Verteilung ist damit jedoch nur verlagert. Symmetrische Verfahren werden daher auch
„ Private – Key – Verfahren“ genannt, da der Schlüssel niemals in unberechtigte Hände gelangen darf.
Aus diesem Grunde hat sich im Internet auch das asymmetrische Verfahren durchgesetzt, bei dem
vom generierten Schlüsselpaar einer ausgewählt und fortan als öffentlicher und der andere als privater
bezeichnet wird. Der private wird – ähnlich dem symmetrischen Verfahren – ebenfalls nicht
herausgegeben, auch nicht an andere Kommunikationspartner! Andererseits sollte hingegen der zweite
Schlüssel allen anderen bewusst zugänglich gemacht, also veröffentlicht, werden. Tauschen nun zwei
Kommunikationspartner verschlüsselte Nachrichten aus, so verwenden sie jeweils den öffentlichen
Schlüssel des Empfängers zur Verschlüsselung. Dieser kann beispielsweise seiner Homepage oder
seinen E – Mails entnommen werden. Sendet der Empfänger nun das Dokument zurück, verwendet er
den öffentlichen Schlüssel des ursprünglichen Senders. Da in beiden Fällen nur der Empfänger über den
korrespondierenden privaten Schlüssel verfügt, kann niemand anderes das Dokument entschlüsseln.
Natürlich wird hierbei angenommen, dass der private Schlüssel niemals in andere Hände als in die des
Eigentümers gelangt.
Es ist wichtig, die Aufgabe, ein Dokument als Sequenz von Bytes zu verschlüsseln, von der
Kanalverschlüsselung zu unterscheiden. Im ersten Fall kann das Dokument (z.B. die
Kreditkartennummer) in verschlüsselter Form auch auf der Festplatte des Empfängers abgelegt werden,
159
während im zweiten nur bei der Übertragung im Netz Sicherheit gegenüber Angreifern gewährleistet
wird. Verfahren wie z.B. SSL (Secure Sockets Layer) dienen ein Ende – zu – Ende – Verschlüsselung.

8.1.2.4 Datenintegrität
Ein Angreifer könnte zwischen anderen Teilnehmern übertragende Daten ändern wollen – z.B. Preise,
Termine, Namen oder Kontonummern. Daher ist ein Verfahren erforderlich, welches den
Kommunikationspartnern die Möglichkeit gibt festzustellen, ob ihre Daten unversehrt beim Empfänger
eingetroffen sind. Zu diesem Zweck werden Hash-Algorithmen eingesetzt:
Hash-Algorithmen
Hash-Funktionen dienen dazu, zu einer beliebig großen Datenmenge (ausgedrückt durch einen String
von Bytes) einen sog. Hash-Wert zu ermitteln, der folgende Eigenschaften erfüllt:
▪ Er ist in seiner Länge auf eine vorgegebene Anzahl Bytes festgelegt (üblicherweise weniger als 200
Bit). Da diese Länge meist sehr viel kürzer ist als die Originaldaten, können mehrere
unterschiedliche von ihnen zum gleichen Hash-Wert führen – dies nennt man eine Kollision.
▪ Man kann nicht vom Hash-Wert wieder auf die Originaldaten schließen (daher auch die
Bezeichnung „Einweg-Hash-Funktion“).
▪ Jede auch noch so minimale Änderung des Original-Strings führt zu einem unterschiedlichen Hash-
Wert.
Hash-Werte werden meist auch „Message Digest“ genannt – im Deutschen auch „Fingerabdruck“ einer
Nachricht. Produkte wie PGP oder andere Kryptobibliotheken verfügen über unterschiedliche Hash-
Funktionen, von denen MD5 und SHA die gängigsten sind.
MD5 produziert 128 Bit lange Hash-Werte. SHA bedeutet Secure Hash Algorithm.
Hash-Werte haben eine Länge von 160 Bit, was das Risiko einer Kollisionsattacke reduzieren hilft.
Zur Verifikation der Integrität eines Dokuments ist es erforderlich, den Hash-Wert auf einem sicheren
Kanal zum Empfänger zu transportieren. Dies erfolgt üblicherweise unter Zuhilfenahme der oben
genannten Verschlüsselungsverfahren, so dass ein Angreifer seinen modifizierten Hash-Wert nicht mit
dem vom Empfänger erwarteten Schlüssel chiffrieren kann. Zu diesem Zweck könnte jedes beliebige,
genannte Verfahren eingesetzt werden. Eine Besonderheit ist jedoch bei asymmetrischen gegeben: Die
Verschlüsselung des Hash-Wertes kann als „Unterschrift“ des Senders verwendet werden, wenn dieser
dazu seinen privaten Schlüssel benutzt. Damit sind wir beim Thema der „elektronischen Unterschrift“
angekommen.

8.1.2.5 Authentisierung
Allgemein bedeutet „Authentisierung“ nachzuweisen, dass eine Nachricht von dem Sender kommt, von
dem sie zu sein gibt. Dazu werden biometrische Verfahren eingesetzt. Diese Verfahren beruhen auf der
Erkennung natürlicher menschlicher Identifikationsmerkmale wie z.B. einem Fingerabdruck oder einem
Bild der Netzhaut. Auch die Analyse des Bewegungsablaufes eines Stiftes beim Leisten der Unterschrift,
z.B. auf einem Eingabetableau, zählt zu den biometrischen Verfahren.

Solange diese Verfahren jedoch noch nicht allgemein Verwendung gefunden haben, muss auf andere
Techniken zurückgegriffen werden. Am bekanntesten waren bisher Magnet- oder Chipkarten zum
Nachweis der Authentizität. Auf diesen befindet sich – im primitivsten Fall – ein Code, über den man
nur durch Besitz der Karte verfügen kann. Andere Karten, wie z.B. die Kundenkarten der Banken,
erfordern zusätzlich die Eingabe eines PIN-Codes, der in Verbindung mit der Karte den Kunden
identifiziert. Auch hierbei handelt es sich immer noch um Magnetkarten, die durch einfach
herzustellende Geräte ausgelesen oder manipuliert werden können. Nur die Smart Cards sind in der
Lage, aufgrund ihres eigenen Prozessors und einer sicheren Betriebssystemarchitektur solchen
Angriffen zu widerstehen.

Insgesamt kann also die Authentizität eines Teilnehmers durch verschiedene Merkmalsbereiche
nachgewiesen werden:
▪ Durch den Besitz eines Gegenstandes (engl. Token), der die erforderliche Information enthält (dies
entspricht etwa einem „individuellen Türschlüssel“) (Schlüssel, Karte, Ausweis).
160
▪ Durch Wissen, über das nur die betreffende Person verfügen kann (ein Paßwort oder PIN-Code).
▪ Durch Eigenschaften, die die Person besitzt (biometrische Merkmale) (Fingerabdruck, Stimme,
Netzhaut, Tippverhalten (psylog))

Zur verläßlichen Autorisierung ist der Einsatz von mindestens zwei dieser Methoden notwendig. Die
gebräuchlichsten Verfahren zur Benutzeridentifikation sind heute:
 wiederverwendbare Paßwörter
 Rückrufsysteme
 Frage-Antwort-Systeme
 Security-Card

Überraschend gute Ergebnisse erzielt das Messen des Tippverhaltens. Die Regensburger Firma TM3
bietet dazu die Software Keytrac (www.keytrac.de ) an. Gemessen werden etwa die Haltedauer (also
wie lang eine Taste gedrückt wird) und die Übergangsdauer vom Drücken einer Taste bis zum Drücken
der nächsten. Diese insgesamt 10-20 Merkmale sind bei jedem Menschen anders. Es ist keine spezielle
Hardware nötig.

Vergleich der gängigen Authentifizierungsverfahren (CZ 24/03)


Passwörter Smartcards Hardware Token Biometrie
Verlässlichkeit Gering Hoch Hoch Mittel
Benutzerfreundlichkeit Gering Hoch Hoch Hoch
Portabilität Hoch Hoch Hoch Hoch
Initialisierungskosten Gering Hoch Mittel Hoch
Operative Kosten Hoch Mittel Mittel mittel

Verfahren Wahrscheinlichkeit des Wahrscheinlichkeit des Mittlere Größe des


Fehlertyp 1 Fehlertyp 2 Referenzmusters in
Byte
False acceptance
Augenhintergrund 1 v. 1.000.000 niedrig 35
Fingerabdruck 1 v. 1.000.000 niedrig 1.200
Anschlagrhythmus 1 v. 1000 mittel 100
Gesichtsgeometrie 1 v. 100 niedrig 1.600
Handgeometrie 1 v. 100 niedrig 18-100
Stimme 1 v. 100 mittel 100
Unterschrift 1 v. 100 Mittel- hoch 50-100

8.1.2.6 Digitale Signatur


Die elektronische Unterschrift belässt das Dokument in Klartext (im Gegensatz zur Verschlüsselung),
wie man es auch von einem unterschriebenen Schriftstück auf Papier erwarten würde.
Zusätzlich wird jedoch mit dem Dokument die Unterschrift des Senders übertragen. Dabei wird vom
Dokument ein Hash-Wert erzeugt und mit dem privaten Schlüssel des Dokumentes verschlüsselt.
Dadurch sind zwei Eigenschaften sichergestellt:
▪ Das Dokument kann nur von einer einzigen Person stammen, da nur diese über ihren eigenen
privaten Schlüssel verfügt. Der Hash-Code ist damit fälschungssicher verschlüsselt.
▪ Das Dokument kann von niemand anderem verfälscht worden sein, da dies anhand des privaten
Schlüssels der Person erfolgen müsste.

Da der private Schlüssel des Senders mit dem öffentlichen korrespondiert, kann jeder, der über
letzteren verfügt, verifizieren, von wem das Dokument stammt. Technisch erfolgt dies durch
Entschlüsseln des Hash-Wertes mit dem öffentlichen Schlüssel und durch erneutes Anwenden der

161
Hash-Funktion. Sind beide auf diese Weise ermittelten Hash-Werte identisch, ist nachgewiesen, dass
das Dokument so wie ursprünglich beim Sender vorliegt.
• Die digitale Signatur ist eine typische Bit-Folge, die ein Dokument ergänzt und rechtskräftig macht.
• Es gibt diverse Zertifizierer wie Telekom-Tochter Telesec („Dienstleister des Vertrauens“).
• Bonner Regulierungsbehörde für Post und Telekommunikation (www.bundesnetzagentur.de).
kontrolliert und beglaubigt die privaten und öffentlichen Zertifizierungsstellen. Diese werden
dadurch zu vertrauenswürdigen Instanzen für Anbieter und Anwender.
• Im System von Kontrollen und Gegenkontrollen beglaubigen die Zertifizierungsstellen die Identität
der Geschäftspartner im Netz.
• Damit ein Anwender einmal seine Identität feststellen lassen kann, geht er zu einer
Registrierungsstelle (Läden der Telekommunikationsanbieter, Postfilialen,
Einwohnermeldeämter), die seine Daten (Geburtsdatum, Name, Wohnung) an den
übergeordneten Zertifizierer weiterleitet.
• Die Zertifizierungsstelle errechnet (mit RSA- und EI-Gama1-Algorithmen) einen öffentlichen
und einen privaten Schlüssel für den Kunden. Dieses Schlüsselpaar gehört untrennbar
zusammen, wird aber getrennt eingesetzt.
• Der private Schlüssel bleibt geheim, wird auf der Chipkarte gespeichert und ist nicht auslesbar.
Er signiert die zu versendenden Dokumente.
• Der Empfänger überprüft mit dem beglaubigten öffentlichen Schlüssel (dieser wird entweder
mitübertragen oder aus der Datenbank der Zertifizierungsstelle abgerufen) das empfangene
Dokument.
• Die digitale Signatur ist rechtsverbindlich und schafft so Vertrauen zwischen Geschäftspartnern im
Netz
• Der Benutzer kann an jedem Computer, der mit einem entsprechenden Chipkartenleser und der
benötigten Software ausgestattet ist, digital signieren.
• Bisher größte Sicherheitslücke ist der Verlust der Chipkarte. Dann muss man seine digitale Signatur
sperren. Um dieses Sperren zu überprüfen, müssen die Zertifizierungsstellen Verzeichnisdienste
nach der Norm X.509v3 führen.
Die Internet-Lösung besteht daher im Einsatz einer vertrauenswürdigen dritten Partei (engl. Trusted
Third Party, TTP). Im Internet hat sich bei der Verwaltung von Zertifikaten für öffentliche Schlüssel
der Begriff der Zertifizierungsautorität durchgesetzt (engl. Certificate Authority, CA). Diese genießt
so hohes Vertrauen, dass ihre Aussagen von allen Nutzern als gültig angenommen werden können.
Eine Aussage der CA kann damit also sein: „Dieser öffentliche Schlüssel gehört Michael Merz“. Wird
diese Aussage noch von der CA unterschrieben, liegen bereits die
wesentliche Merkmale eines elektronischen Zertifikats vor.
Die Aufgaben der CA bestehen dabei in der Verwaltung von Zertifikaten. Dazu zählen folgende
Funktionen:
▪ Einrichtung von Prozeduren zur Registrierung einer Person und ihres öffentlichen Schlüssels
▪ Schaffung eines Online-Dienstes zur automatischen Verifikation von Schlüsseln anhand von
Zertifikaten
▪ Verwaltung von Schwarzen Listen für ungültige Zertifikate

8.1.2.7 Copyright-Schutz: Wasserzeichen


Angesichts des weiterwachsenden sorglosen Umgangs mit geistigem Eigentum im Internet bemühen
sich Verbände und Verlage, den Datenklau mit digitalen Wasserzeichen Einhalt zu bieten. In
Deutschland ist das Darmstädter Fraunhofer Institut für Grafische Datenverarbeitung in der Lage,
Bilddateien mit eindeutigen Erkennungszeichen zu versehen. In Musikstücken soll das Wasserzeichen
in Form eines unhörbaren Rauschens dafür sorgen, dass die Urheberrechte an Musiktiteln gewahrt
werden. Grundsätzlich sind zwei unterschiedliche Arten von Wasserzeichen verfügbar: Die erste basiert
auf den binären Fingerabdruck, die andere versteckt digitale Codes (Ziffern) in dem Dokument.
Playboy-Online nutzt zum Schutz seiner Bilder das Wasserzeichensystem DigiMarc´s. Das
dazugehörige Suchprogramm, MarcSpider, „krabbelt“ von Zeit zu Zeit durchs Netz und sucht nach

162
Bildkopien mit dem DigiMarc´s-Wasserzeichen. Wird dann ein Missetäter aufgetan, läßt Playboy ihn
durch seine Rechtsanwälte abmahnen.

8.1.2.8 Spam-Mailfilter
Spam ist das ungefragte Zusenden von E-Mails mit typischerweise kommerziellem Hintergrund. Die
beworbenen Adressen sind aus Usnet Beiträgen oder Websites ohne Zustimmung der Betroffenen
entnommen.
85 % aller weltweit versendeten E-Mails sind Spam.

Maßnahmen gegen Spam


Vorbeugende Maßnahmen
• Nicht-Erwähnen von E-Mail-Adressen an jedweden Stellen im Cyberspace, die von Spammern
und ihren Suchprogrammen abgegrast werden können (u.a. E-Mail-Adressen bei Anmeldungen
auf Web Sites)
• Bei Registrierung neue Adressen bei Freemailer wie hotmail.com oder gmx.de anlegen und sie
nur für die Anmeldung verwenden
Abwehrende Maßnahmen
• Filter (inhaltsorientiertes Filtern und herkunftsorientiertes Filtern)
Da ein Großteil der Spams immer wieder die gleichen Produkte bewirbt, sind sie aufgrund
der Schlüsselwörter zu erkennen (z.B. Free porn, Warez, Get rich quick). Lernende Spam-
Filter können mit von Mitarbeitern identifiziertem Spam gefüttert werden, um auf diese
Weise die Spam-Profile auf den neuesten Stand zu halten.
Viele E-Mail-Benutzer filtern E-Mails auf proprietäre Zusätze wie HTML, JavaSkript, da
sie meist unerwünscht sind und überproportional in Spam vorkommen.
Manche filtern die in E-Mails verwendeten Zeichensätze, da ein guter Teil des Spams aus
China und Korea kommt und die Deklaration asiatischer Zeichensätze im E-Mail-header
identifiziert werden kann.
SpamNet, ein verteilt operierendes Spam-Erkennungsnetz, verteilt neu identifizierte Spams
innerhalb des Netzes, so dass andere Anwender diesen Spam auch gleich erkennen.
Häufig wird der Ursprung von E-Mails zur Bekämpfung von Spam genutzt. Viele Mail-
Server sind via DNS einer markanten Domain zugeordnet, die im Header von E-Mail
hinterlegt wird, oder sie verwenden bestimmte HELO Zeichenketten beim Kontaktieren
anderer Mail-Server. HELO dient eigentlich der Identifikation eines Mail-Servers
gegenüber anderen Servern. Spammer nutzen gerne aus, dass diese Information leicht
gefälscht werden kann. (z.B. HELO mx0.gmx.net oder HELO mail.mailer.de)
• Blocken: Blocken bedeutet, dass der Betreiber einen Mail-Server so konfiguriert, dass er
die Annahme jeglichem elektronischen Post von bestimmten anderen Mail-Servern
verweigert. Man kann dies noch verschärfen, indem der eigene Mail-Server den Spam-
Server bei Kontaktaufnahme möglichst lange beschäftigt, obwohl die Mail-Annahme
sowieso abgelehnt wurde. Dadurch will man die verfügbare Serverzeit von Spammer
verkürzen.
Das Blocken kann vollautomatisch erfolgen, da Internet-Dienste wie das Spamhaus Block
List (SBL) in Echtzeit abgefragt werden können.

Heise schätzt, dass die Verbraucher 2006 mit 206 Mrd. Junk Mails zugeschüttet wurden, was pro Kopf
1400 Junk Mails bedeutet (gegenüber 700 in Jahre 2002). Diskussionsgruppen zum Thema Netz-
Mißbrauch wären de.admin.net-abuse. mail oder de.admin.net-abuse. news.
Beispiel Monitoringsystem für Internet ist senderbase.org (dann thread overview)

8.1.2.9 Phishing-Schutz
Password, Harvesting, Fishing
Phishing ist eine Form des Trickbetruges im Internet. Der Phisher schickt seinem Opfer ein offiziell
wirkendes Schreiben, meist E-Mails, die dazu verleiten sollen, vertrauliche Informationen, vor allem

163
Benutzernamen und Passwörter oder PIN und TAN von Online-Banking-Zugängen, im guten Glauben
dem Täter preiszugeben.

Funktionsweise
• Email von einer Bank oder einem Internetdienst (z.B. eBay, PayPal)
• Link zu einer Web-Seite oder ein html-Formular direkt in die Email eingebunden
• Alle eingegebenen Informationen werden direkt an den Phisher gesendet
Der tatsächliche Link lautet anders als der sichtbare Link
Schutz
Niemals einen Link aus Email heraus öffnen – immer direkt auf die Homepage der Firma / Einrichtung
gehen.
Allgemein alle Emails von Banken, Unternehmen usw. sorgfältig überprüfen.

8.2 Personelle Wissensrisiken


Personelle Wissensrisiken sind Risiken, die aus einer Neueinstellung, dem Einsatz, der Ausbildung oder
dem Weggang von Mitarbeitern resultieren. Sie beinhalten personengebundenes, implizites Wissen,
aufgrund dessen es zu Know-how-Verlust bedingt durch Fluktuation von Mitarbeitern kommen kann,
denn Mitarbeiter stellen die zentralen Wissensträger dar. Laut einer Studie identifizieren allerdings nur
16% der Firmen ihre zentralen Wissensträger.

Eine Möglichkeit zur Verminderung dieser Risiken ist das wissensorientierte Fluktuationsmanagement.
Es ermöglicht, personelle Wissensrisiken sichtbar und auftretende Folgen kalkulierbar zu machen, um
unerwünschte Wissensverluste mittels geeigneter Maßnahmen frühzeitig zu verhindern oder
einzudämmen.

Einflussfaktoren personeller Wissensrisiken sind u. a. Fluktuationsrate, Arbeitszufriedenheit,


Motivation, Produktivität, Beförderungs- sowie Versetzungsfähigkeit, Schulungs- und
Trainingsmaßnahmen. Messkonzepte personeller Wissensrisiken unterscheiden sich wie folgt:
• Monetäre und nicht-monetäre Wissensrisikoindikatoren z. B. Fluktuationsrate der wichtigsten
Wissensträger, Beschäftigungsdauer von Schlüsselpersonen, Produktivitätsmessung durch
Befragung oder Nutzwertanalyse des Vorgesetzten, Arbeitszufriedenheit durch Fragebögen,
Versetzungswahrscheinlichkeiten, Weiterbildungscontrolling.
• Ganzheitliche Ansätze mit Fragenkatalogen oder Börsenwert pro Mitarbeiter.
Nach der Messung der personellen Wissensrisiken wird eine Entscheidung über Inkaufnahme oder
Vermeidung getroffen.

Wissensorientiertes Fluktuationsmanagement beinhaltet die folgenden Schritte:


• Identifikation des relevanten Wissens und der zentralen Wissensträger:
Im Rahmen einer qualitativen Vorstudie werden die relevanten Wissensbereiche und
Wissensträger ermittelt. Relevante Wissensträger sind diejenigen Personen in einem
Unternehmen, die einen Großteil des wettbewerbsrelevanten Wissens in sich vereinen. Die
Erhebung der Wissensträger erfolgt einerseits „ex ante“ im Zuge von Interviews mit
Vorgesetzten und andererseits „ex post“ durch eine Mitarbeiterbefragung.
• Risikoanalyse:
Eine Analyse der Risiken erfolgt nach der Identifikation der Wissensträger. Es wird versucht
sog. Wissensträger „at risk“ zu identifizieren. Ein Mitarbeiter ist dann „at risk“, wenn für ihn
eine hohe Kündigungsabsicht besteht, bzw. diese zu erwarten ist. Die Fluktuationsneigung dient
hierbei als Indikator für das Gefahrenpotential.
• Maßnahmen und Instrumente zur Risikoreduzierung: Auf Basis der Risikoanalyse werden
Handlungsempfehlungen für die Gruppe der Wissensträger „at risk“ formuliert. Diese
Empfehlungen werden in einem Handlungsportfolio abgebildet und priorisiert. Es wird
versucht, Schwächen zu bekämpfen und Ansatzpunkte für die Reduzierung der
Fluktuationsneigung zu finden. Beispiele für Maßnahmen sind die Quantität und Qualität des
164
Personals durch virtuelle Weiterbildung zu erhöhen, das Einrichten von Kontrollen (z. B.
zwei Unterschriften bei wichtigen Dokumenten, gesetzliche Kontroll - und
Aufsichtsvorschriften im Kreditwesengesetz) sowie Lessons Learned, Storytelling oder
Know-how-Datenbanken, um relevantes Wissen vorzeitig mit anderen
Organisationsmitgliedern zu teilen.

Die obig beschriebenen Schritte zum „wissensorientierten Fluktuationsmanagement“ sollten regelmäßig


durchlaufen werden um die Wirkung dieses Prinzips langfristig zu sichern.

8.3 Organisatorische Wissensrisiken


Organisatorische Wissensrisiken sind Risiken, die sich auf die organisationsweiten Strukturen und
Prozesse eines Unternehmens beziehen. Betroffen ist das strukturelle Wissen, das in Verfahrensweisen,
Produktionsprozessen sowie Handlungsabläufen und -programmen gespeichert ist. Wissensverlust
droht z. B. durch Reorganisationsmaßnahmen, Outsourcing oder Kooperationen. Mögliche Ansätze zur
Messung organisatorischer Wissensrisiken sind:
• Investitionen in IT als Maßstab des Wissensrisikopotentials
• Anzahl der realisierten Verbesserungsvorschläge und der durchschnittlichen
Beschäftigungsdauer, um die Stabilität zu messen
• Durch Erfassen der Outsourcing-Aktivitäten lassen sich Wissensverluste durch Outsourcing
messen
• Wissensverluste durch Kooperationen lässt sich messen durch Ausmaß an Fusionen oder
Akquisitionen

Vor der Messung erfolgt jedoch die Identifikation der Wissensrisiken auf individueller Ebene, Gruppen-
, Gesamtunternehmens- und interorganisationaler Ebene. Anschließend können Maßnahmen zur
Risikovermeidung oder –streuung ergriffen werden.
Beispiel der organisatorischen Wissensrisiken auf Gruppenebene

Probleme Mögliche Maßnahmen

Schwächung der organisatorischen Netgraphing Methode (sie zeichnet in


Wissensbasis durch Reduzierung der Organisation zirkulierende
Arbeitsschritte oder Zentralisierung von Kommunikations- und Wissensflüsse auf in
Wissen infolge der Form von Kommunikationskarten)
Verschlankungsprozesse wirkt negativ auf
wünschenswerte Wissensverteilung

Wissensverlust durch Kündigung Maßnahmen zu personellen Wissensrisiken


unzufriedener MA infolge von z. B. Identifikation von Wissensträgern,
Abgrenzungs- und Fluktuationsmanagement
Kompetenzstreitigkeiten nach
Kernprozessoptimierung

Telearbeit einführen: Mobilität der alternierende Telearbeit


Entscheidungsträger als Risiko →
Zerstörung von Netzwerkbeziehungen

8.4 Marktbezogene Wissensrisiken


Marktbezogene Wissensrisiken sind Risiken, die das Wettbewerbsumfeld des Unternehmens betreffen
und von den wirkenden Wettbewerbskräften (nach Porter die Nachfrager, Zulieferer, aktuelle sowie
potentielle Konkurrenten und Substitute) verursacht werden. Es droht der Verlust von Kunden-,
Konkurrenz- und Marktwissen, das in Produkten, Dienstleistungen und Kundenbeziehungen verankert
ist. Mögliche Ansätze zur Messung marktbezogener Wissensrisiken sind:

165
• In Bezug auf Kunden: Kundenloyalität, Kundenbindungsquote, Kundenzufriedenheitsindex,
Kundenrentabilität
• In Bezug auf Zulieferer: Analyse des Unternehmensberatereinsatzes hinsichtlich Häufigkeit des
Engagements, Gegenstand der Beratungsleistung, Lessons learned-Ergebnisse
• In Bezug auf Konkurrenz und Substitute: Kompetenz-Audits über Branchenwissen; Konkurrenz
kann kaum gemessen werden (höchstens Änderungsverfolgung im Produkt, Analyse von
Berichten oder Bilanzen)

Identifizierte Probleme und Maßnahmen zu deren Verminderung werden im Folgenden dargestellt:

Probleme Mögliche Maßnahmen

1. Kunden

Abwanderung wichtiger Kunden, wodurch Servicegarantien, Vergabe von


Imageverlust und erschwerter Aufbau Treuepunkten, umfassendes CRM
zukünftiger relevanter Kompetenzen (Customer-Relationship-Management)
drohen

Ineffizienz im Umgang mit Database Marketing, Aufbau von


wissensbasiertem Kunden-Kapital z. B. Kompetenzen zur Nutzung dieses Wissens,
durch Überinvestition in Konzentration auf das zur Befriedigung der
Wissensanhäufung, erschwerter Zugriff auf Kundenwünsche relevante Wissen
Kundenwissen, Unterinvestition in
Wissensnutzung

2. Zulieferer

Unerwünschter Abfluss an Kundendaten, Siehe sachlich-technische Maßnahmen, vor


Image- und Vertrauensverlust beim allem im Bereich der IT-Sicherheit
Kunden z. B. durch Erpressungsversuche
aufgrund illegal angefertigter Kopien von
Kundendaten

Importiertes Wissen wird nicht verankert Festlegung klarer Wissensziele, Lessons


Learned Seminare

3. Konkurrenz

Ungewollter Wissensexport an Kritische Selektion der


Wettbewerber durch Unternehmensberater, Vereinbarung eines
Unternehmensberater, die ihr Wissen an Konkurrenzverbots, Prüfung der
die nächsten Kunden weitergeben Notwendigkeit eines Beratereinsatzes
(Verzicht)

Experten werden aus dem Unternehmen siehe Maßnahmen zu personellen


gekauft z. B. durch Headhunter, Wissensrisiken
Mitarbeiter wechseln zur Konkurrenz

Zugriff auf Wissen durch Wettbewerber in Auswahl der Kooperationspartner,


ihrer Rolle als Kooperationspartner Vertragsformulierung

Illegaler Wissensabfluss z. B. durch vor allem Maßnahmen zur IT-Sicherheit


Wirtschaftsspionage

4. Substitute

Technologische Kompetenzsprünge Kern-Kompetenz-Audit, Beobachtung der


Konkurrenz, eigene Investitionen in F&E
(Forschung & Entwicklung)
166
8.5 Fallstudie: Wissensrisikomanagement an einer Hochschule [Küffner
2017]

Die Einführung eines Wissensrisikomanagement (WRM)-Systems als Steuerungsinstrument für die


Hochschulleitung ist als langfristig angelegtes Projekt zu verstehen, welches zwar innerhalb eines
mittelfristigen Zeithorizonts bereits Wirkungen entfalten kann, auf strategischer Ebene jedoch erst
langfristig als eigenständige Organisationseinheit wirken wird.
Projektziel: Die Hochschulleitung erhält mit dem WRM ein strategisches Steuerungselement zur
nachhaltigen Etablierung einer personal- und organisationsförderlichen Wissenskultur an der Zentralen
Universitätsverwaltung auf Basis der Struktur- und Entwicklungsplanung 2020+. Das System soll
bestehende Wissensrisiken ermitteln, strukturieren und geeignete Maßnahmen zur Risikosteuerung
enthalten. Es soll weit möglichst standardisiert und innerhalb des integrativen Berichtssystems für die
Hochschulleitung (HSL) installiert werden.
Startphase
1. Projektbeginn und Projektplanung: Entwicklung des Projekts aus dem erklärten Ziel, Festlegung
eines Projektleiters und Ernennung Projektteammitarbeiter. Eine Projektteamentwicklung ist
durchzuführen. Es sind Rahmenbedingungen mit der Hochschulleitung, den Stabsstellen
Qualitätssicherung und Recht, dem Gremienbüro und sämtlichen zentralen Führungskräften
abzustecken und ein grober Projektplan zu erstellen.
Meilenstein: Projektauftrag und Projektplan
2. Ist-Situation und Problemdefinition: Ermittlung des grundlegenden Unterstützungspotentials einer
Change-Management-Kultur. Durchführung einer Machbarkeitsanalyse (primär Ressourcenplanung)
für das Projekt WRM. Personenunabhängige Systematisierung der hierarchisch verteilten
Wissensträger (Schwachstellen und Problembereiche) unter Einbezug der geplanten
Ruhestandseinritte. Einstufung der vorherrschenden Wissenskultur, Defizite sind zu problematisieren.
Meilenstein: Problemkarte
3. Ziel- und Detailplanung:
Entwicklungsziele, geprägt vom Wissensmanagement:
- Der Schlüssel zu einer hohen Servicequalität liegt in der Wissenskultur.
- Die moderne Verwaltung ist über alle Kommunikationswege vernetzt und nutzt diese
barrierefrei über alle Organisationsstrukturen für ihre Dienstleistungen.
- Die zielorientierte Verwaltung erlernt bzw. schafft aus ihrem eigenen Wissen neue
Kompetenzen und teilt diese mit allen Handlungspartnern.
- Strukturierte, digitalisierte Informationen bilden die Grundlage für ein fundiertes
Wissenskapital und die lernende Verwaltung.
- Ganzheitliche Integration des Wissensmanagements in qualitative hochwertige
Geschäftsprozesse ist das Instrument für hohe Servicestandards.
- Eine Wissensdatenbank ebnet einen kurzen Weg zu klaren Ansprechpartnern.
Entwicklungsziele geprägt vom Risiko:
1. Frühzeitige und präventive Analyse der Wissensrisiken
2. Risikobewusste, rechtmäßige Abwicklung sämtlicher Verwaltungsprozesse
3. Risikobewusste Sicherung und Entwicklung der organisationalen Wissensbasis
4. Präventive Beobachtung von potentiellen Fehlentwicklungen der Wissensbasis
5. Risikoorientierte Unterstützung d. operativen/strategischen Organisationsziele
6. Entwicklung von Kompetenzen für eine innovative Verwaltungsführung
7. Risikoorientierte Erhöhung der Effizienz durch Vernetzung des Wissenskapitals
Erstellung Ressourcenplanung. Gliederung der Problemkarte in einzelne Arbeitspakete mit
Meilensteinen und fixierten Zielterminen. Festlegung von Zuständigkeiten. Regelmäßiger Austausch
mittels Jour Fixe. Fixierung des Projektziels und der benötigten Ressourcen (inkl. IT).
Meilenstein: Projektstruktur-, Projektablaufplan, genehmigter Projektkostenplan
Realisierungsphase (fortlaufend Plananpassung, Information, Kommunikation)
1. Kick-Off-Veranstaltungen (Initiierung): Facheinheitenübergreifende Workshop-Termine mit allen
Beschäftigten zur Sensibilisierung der Thematik. Intranet-FAQ und -Blog zum Projekt erstellen.

167
2. Ist-Analyse: Die Ist-Situation ist im Bereich der Arbeitspakete detailliert auszuloten und zu
erarbeiten. Bereitschaft, Fähigkeit und Verständnis für eine Wissenskultur sind zu ermitteln. Mögliche
IT-Lösungen eingrenzen und Lizenzen erwerben.
3. Soll-Konzeption und -implementierung in Pilotbereich: Ablaufschema nach Probst/Raub/Romhadt.
Bereitstellung von Softwareprodukten für die Digitalisierung des Wissens/der Risiken. Durchführung
Experteninterviews, Befragungen und Workshops mit Kreativitätstechniken, besondere Härtefälle sind
im Einzelfall im Rahmen eines Konfliktgespräches auszuloten. Dokumentation Wissensrisiken und
Darstellung im Steuerungsmedium.
Abschluss-/Evaluierungsphase
Projektabschluss mit Übertragung der Tätigkeiten auf die Stabsabteilung. Neue Erkenntnisse,
Verbesserungen, Kosten-Nutzen-Analyse werden eingearbeitet
Ergebnis
Integration in das ganzheitliche Berichtswesen der Hochschulleitung.

Systematisierung prinzipiell möglicher personeller Risiken

Identifikation tatsächlich vorhandener personeller Risiken

168
Engpassrisiko (fehlende, personelle Ressourcen)

Anpassungsrisiko

Austrittsrisiko

169
Motivationsrisiko

Organisatorische Wissensrisiken

Sachlich-technische Wissensrisiken

170
Marktbezogene Wissensrisiken

Bewertung der Risiken mit Wahrscheinlichkeiten

Risikosteuerung
171
- Personelle Maßnahmen: z.B. Personalentwicklung, Schulung, Motivierung
- Technische Maßnahmen: z.B. im IT-Bereich
- Organisatorische Maßnahmen: z.B. Geschäftsverteilung und –prozesse
Für das WRM empfiehlt es sich die BSC um eine fünfte Perspektive, die
Risikoperspektive, auf Ebene der Lern- und Entwicklungsperspektive zu ergänzen.

Die aus der Gesamt-BSC beispielhaft entwickelte BSC für die Abteilung II (rund
50 Beschäftigte):

172
8.6 Literatur und Kontrollfragen
1. Eckert, C.: IT-Sicherheit, Oldenbourg, München 2. Aufl. 2003
2. Security Management 2011: Handbuch für Informationsschutz, IT-Sicherheit,
Standortsicherheit, Wirtschaftskriminalität und Managerhaftung. Frankfurt am Main, FAZ-Inst.
für Management-, Markt- und Medieninformationen, 2010
3. Annino, Umberto, Romagna, André: IT Security Management - Grundlagen für die betriebliche
IT-Sicherheit mit zahlreichen Beispielen, Aufgaben und Lösungen. Zürich, Compendio
Bildungsmedien, 2010
4. Heinrich Lutz, Stelzer Dirk: Informationsmanagement. Grundlagen, Aufgaben,
Methoden. München 2009
5. Knaese, Birgit: Das Management von Know-how-Risiken. Eine Analyse von
Wissensverlusten im Investment Banking einer Großbank. Wiesbaden 2002
6. Florian Bayer, Steuerung von Wissensrisiken. Dissertation, Martin-Luther-Universität Halle-
Wittenberg, 2009
7. Kerstin Steenberg, Personelle Risiken messen mit dem Bellheimer Verfahren: Eine innovative
Methode für Krankenhäuser. Wiesbaden: Springer Gabler, 2015
8. Mathias Küffner: Konzeptionelle Erarbeitung und prototypische Teilrealisierung eines
Wissensrisikomanagements als Element der strategischen Steuerung für die Zentrale
Verwaltung der Universität Bayreuth. Masterarbeit TH Deggendorf 2017.
9. Annino, Umberto, Romagna, André: IT Security Management - Grundlagen für die betriebliche
IT-Sicherheit mit zahlreichen Beispielen, Aufgaben und Lösungen. Zürich, Compendio
Bildungsmedien, 2010
10. Security Management 2011: Handbuch für Informationsschutz, IT-Sicherheit,
Standortsicherheit, Wirtschaftskriminalität und Managerhaftung. Frankfurt am Main, FAZ-Inst.
für Management-, Markt- und Medieninformationen, 2010

Kontrollfragen
1. Was wird bei der Risikoanalyse analysiert? Beschreiben sie sachlich-technische Wissensrisiken!
2. Was sind Wissensrisiken und wie können sie klassifiziert werden (bitte ausführlich beschreiben)?
3. Was ist personelles Fluktuationsmanagement?
4. Welche Maßnahmen können zur Eindämmung der organisatorischen und marktbezogenen
Wissensrisiken ergriffen werden?
5. Skizzieren Sie das Prinzip einer Firewall!
6. Anfang des WS 2003/04 öffnete ein Mitarbeiter des Deggendorfer RZ die Firewall. Die Folge war
ein Schädling der gigantischen Netload innerhalb der FH erzeugte. Was ist eine Firewall? Welche
Vor- und Nachteile hat der Einsatz einer Firewall für ein Unternehmen?
7. Wie kann man die gegen sachlich-technische Wissensrisiken wirkenden
Datensicherungsmaßnahmen gliedern?
8. Wie realisiert man Datenintegrität?
9. Wie funktioniert die digitale Unterschrift?
10. Skizzieren Sie die Möglichkeiten der Benutzeridentifikation!
11. Wie kann man sich gegen Spam-E-Mails schützen?
12. Was ist Pishing und wie schützt man sich davor?

173
9. Wissensmanagement erfolgreich einführen

In Abb. 9/1 sieht man das Gesamtmodell für die Wissensmanagement-Einführung.

Abb. 9/1: Gesamtmodell der Wissensmanagementeinführung [Armutat 2002]

9.1 Sensibilisierung für die Notwendigkeit von WM: Kurzdiagnose


Mit dem Wissensmanagementprofil von Kap. 3.4 führt man eine Situationsanalyse durch und zeigt mit
dem Ergebnis dem Management die Defizite im Wissensmanagement auf.
Beispiele: Notwendigkeit von WM: eine Kurzdiagnose
Sensibilisierung für WM an der TH Deggendorf

9.2 Wissensleitbilder und Wissensziele fürs Unternehmen


Es ist die Herstellung eines Konsenses im Strategieteam wichtig über die zu fokussierende strategische
Option, d.h. eine möglichst klare Eingrenzung der verschiedenen strategischen
Handlungsmöglichkeiten, die sich aus dem aktuellen Geschäftsmodell des Unternehmens sowie aus
aktuellen Entwicklungen im Geschäftsumfeld ergeben.
Die Inhalte der Zielbildung ergeben sich aus der Unternehmensvision, den Unternehmenszielen sowie
aus der konkreten Problemsituation des Unternehmens in seiner spezifischen gesellschaftlichen,
technischen und wirtschaftlichen Umwelt.
Sehr hilfreich ist hier ein Wissensleitbild.

9.2.1 Entwicklung von Wissensleitbildern in 3 Stufen


Ein Leitbild sollte nicht nur das Unternehmen erstellen, sondern jeder Mensch sollte sich privat wie in
der Organisation die Frage stellen: Wozu bin ich da? Er erhält die Antwort auf den Sinn seiner Tätigkeit.
Dies ist für die Selbstmotivation von entscheidender Bedeutung. Nur wenn das Leitbild vom
Management und den Mitarbeitern gemeinsam erstellt wurde, findet es einen Konsens. Das Diktieren
eines Leitbildes bringt nicht den gewünschten Erfolg. Um eine funktionierende Wissenskultur zu
schaffen ist die Entwicklung eines Wissensleitbildes eine Grundvoraussetzung.
Wissensleitbilder entwickelt man über drei Stufen [Müller 2015, S. 57]:
174
• Man, bringt das Leitbild durche einen griffigen kurzen Satz auf den Punkt (Leitmotto)
• Man, erstellt ein Leitmotiv
• Man, formuliert die Leitsätze
Ein Leitmotto kann sein eine Devise, ein Wahlspruch, ein Slogan oder ein Claim.
Beim Leitmotiv beschreiben wir den eigentlichen Sinn des WM. Das Leitmotiv gibt Antwort auf die
Frage: Warum gibt es das WM?
Das Leitmotiv kann am Anfang stehen, beschreibt den Sinn des WM, drückt den Nutzen aus, trifft
Aussagen über den Beitrag des WM am Wert der Organisation und zeigt die Existenz des WM auf.
Fragen, die man sich bei der Erstellung des Leitmotivs stellt:
Allgemein: Warum gibt es uns? … Leitmotiv
Mitarbeiter: Welchen Nutzen stiftet das WM für Mitarbeiter? … Leitmotiv
Bürger/Kunden: Welchen Nutzen stiftet das WM für sie?... Leitmotiv
Gesellschaft: Welchen Beitrag leistet das WM für die Gesellschaft? … Leitmotiv

Die Leitsätze treffen grundlegende Aussagen über Werte, Ziele und Erfolgskriterien des WMs und
beschreiben das Verhalten gegenüber Mitarbeitern und Gesprächspartnern. Sie stellen somit
grundlegende Formulierungen der Kompetenzen des Unternehmens/der Verwaltungen dar.
Leitsätze sollten allgemein gehalten, klar formuliert, langfristig formuliert, wesentlich für das WM und
umsetzbar und realisierbar sein. Sie sollten das WM vollständig abbilden oder erfassen.
Bei der Erstellung der Leitsätze können sie sich folgende Fragen stellen:
Kompetenz: Was können wir besonders gut? Was tun wir?... Leitsätze
Wissen: Was bedeutet für uns Wissen und wie gehen wir damit um?... Leitsätze
Kommunikation: Wie kommunizieren wir miteinander?... Leitsätze
Qualität: Was verstehen wir unter Qualität?... Leitsätze
Führung: Was verstehen wir unter Führung?... Leitsätze
Mitarbeiter: Wie gehen wir miteinander um?... Leitsätze
Bürger/Kunde: Wie sehen wir Bürger/Kunden?
Wie verhalten wir uns gegenüber unseren Bürgern/Kunden?... Leitsätze
Gesundheit: Was heißt für uns Gesundheit?... Leitsätze
Wirtschaftlichkeit: Wie effizient möchten wir WM betreiben?... Leitsätze
Geschäftspartner: Wie sehen wir unsere Geschäftspartner? Wie verhalten wir uns gegenüber
unseren Geschäftspartnern?... Leitsätze
Umwelt/Natur: Wie nutzen wir die Ressourcen nachhaltig?... Leitsätze
Innovation: Wie innovativ wollen wir beim WM sein… Leitsätze

Die Akzeptanz des WMs ist umso größer, je mehr sich das übergeordnete Leitbild der Verwaltung/des
Unternehmens, das Wissensleitbild, im Gleichgewicht mit den Leitbildern der Abteilungen und des
einzelnen Mitarbeiters befindet.

Beispiel: Leitbild des WM der Stadt Erlangen [Müller 2015, S. 111]


Ausgangspunkt war das Stadtleitbild: Bürgerfreundlichkeit, Bürgerkommune und Verwaltung effektiv
und effizient. Auf dieser Basis wurde folgendes WM-Leitbild erarbeitet:
• Wir gestalten Zukunft mit unserem Wissen
• Wir verstehen uns als lernendes Dienstleistungsunternehmen
• Das Wissen unserer Mitarbeiter ist unsere zentrale Ressource
• Wir tauschen unser Wissen mit Bürgern und Behörden aus.
• Wir nutzen unser Wissen zum Wohle des Bürgers.
Aus diesen Leitsätzen entstanden dann über das Zielsystem der Stadt Erlangen die Wissensziele. Aus
der Analyse wissensintensiver Verwaltungsprozesse in Verbindung mit den Kernprozessen des WM
wurden vier primäre Gestaltungsfelder des WM abgeleitet, in denen konkrete Maßnahmen ergriffen
werden, mit denen die Ziele erreicht werden:
• Vorhandenes Wissen aktivieren
• Austausch von Wissen fordern und fördern
• Lebenslanges Lernen fordern und fördern
• Erfolgskritisches Wissen bewahren/weitergeben
175
Es entstand eine WM-Roadmap. Die aufgrund des obigen Vorgehens systematisch aus dem Leitbild der
Stadt Erlangen abgeleitet ist.
Betrachten wir nun näher, wie die Entwicklung strategischer Ziele erfolgt. Dies ist in folgende vier
logisch aufeinander aufbauende Schritte unterteilt:
Schritt 1: Ausgangssituation beschreiben
Schritt 2: Produkte und Märkte analysieren
Schritt 3: Strategische Optionen ableiten und bewerten
Schritt 4: Strategischen Fokus festlegen

Gedanken über allgemeine Unternehmensziele könnten sein:


• Welche übergeordneten Unternehmensziele wollen Sie langfristig (ca. 3-5 Jahre) erreichen?
Welche Vision verfolgen Sie?
• Welche Strategie verfolgen Sie und welche Wettbewerbsvorteile streben Sie an, um Ihre
übergeordneten Unternehmensziele und die Vision zu erreichen?
• Welches sind die wichtigsten strategischen Projekte bzw. Maßnahmen, die zur Erreichung der
Unternehmensziele in den letzten drei Jahren durchgeführt wurden, zurzeit laufen bzw. für die
nächsten drei Jahre geplant sind?
Beispiele zur Beschreibung der Unternehmensziele
• Wachstum durch Vermarktung neuer Produkte, neue Kundengruppen und Unternehmenszukäufe
• Veränderung durch Verkauf von Unternehmensteilen, Rückzug aus Märkten, etc.
• Markt- oder Nischenführerschaft, Pluspunkte in der Qualität, Preisvorteile,
Innovationsvorsprung, etc.
• Eröffnung neuer Standorte, Ausbau von Produktionskapazitäten, Neueinstellungen,
Umstrukturierungen, Einführung neuer Methoden oder Systeme etc.

Schritt 3: Strategische Optionen ableiten und bewerten


Ausgangspunkt für die Ableitung von Unternehmensstrategien sind die erfassten allgemeinen
Unternehmensziele und aktuellen Trends im Geschäftsumfeld (Opportunities & Threats) sowie die
untersuchte IST-Situation der bestehenden Produkt- und Marktsegmente und ihr Wachstumspotenzial.
Optionenableitung
Mit Hilfe einer Produkt-Markt-Matrix, die ein systematisches Denkraster für potenzielle
Wachstumsstrategien darstellt und hierbei vier Grundstrategien des Wachstums bzw. der
Geschäftsmodellentwicklung vorschlägt, können nun mögliche Entwicklungsszenarien für das
bestehende Geschäftsmodell strukturiert gesammelt und dokumentiert werden.
Durch die zweidimensionale Kombination in „Alte und neue Produkte“ und „Alte und neue Märkte“
ergeben sich vier Quadranten, in denen mit Hilfe von Leitfragen die jeweiligen Optionen zur
Entwicklung des Geschäftsmodells strukturiert gesammelt werden:
• Marktdurchdringung: Wie kann mit den bestehenden Produkten in den bestehenden
Zielmärkten noch mehr Umsatz bzw. Ertrag abgeschöpft werden?
• Produktdifferenzierung: Wie können die bestehenden Produkte weiterentwickelt werden? Wie
könnten völlig neue Produkte unser bestehendes Produktportfolio sinnvoll ergänzen?
• Markterweiterung: Auf welche neuen Märkte können wir unsere bestehenden Produkte und
Erfahrungen aus den bisherigen Zielmärkten übertragen?
• Diversifikation: Mit welchen neuen Produkten könnten wir völlig neue Kundengruppen und
Märkte erschließen?

Ergebnis ist eine Liste mit klar definierten und abgegrenzten Optionen zur möglichen Entwicklung der
bestehenden Geschäftsfelder bzw. des bestehenden Geschäftsmodells.
Diese Optionen können nun im nächsten Schritt bewertet werden. Dabei wird nach den Chancen und
Risiken der jeweiligen Option gefragt und im Strategieteam auf Basis der vorliegenden Daten und
bisher gesammelten Informationen diskutiert.
Entscheidend sind die relativen Abstände des Chancen- und Risiko-Ausmaßes der einzelnen Optionen
zueinander. Im StratOp-Portfolio werden Minimal- und Maximalwerte als optimistische und
176
pessimistische Einschätzung der Chancen und Risiken einer strategischen Option abgetragen und
ergeben eine Fläche, die das Ausmaß der Unsicherheit darstellt.
Man kann die definierten strategischen Optionen entweder im Vorfeld durch die Mitglieder des
Strategieteams mittels Fragebogen bewerten lassen oder die Chancen und Risiken direkt im Workshop
per Kartenabfrage bewerten und diskutieren.

Abb. 9/2: Risikomatrix bei Zielbildung [Will 2014]

Schritt 4: Strategischen Fokus festlegen


In diesem Schritt erfolgt eine Auswahl einer strategischen Option (oder eine Bündelung mehrerer
Optionen) auf Basis der Bewertung aus dem vorigen Schritt sowie eine Zusammenfassung der
fokussierten Option. Daraus werden abschließend die eigentlichen strategischen Ziele abgeleitet.
So kann die angestrebte Entwicklung des Geschäftsmodells einfach und übersichtlich
zusammengefasst werden. Aus dem GAP, also der Differenz zwischen IST und SOLL, lassen sich nun
konkrete strategische Ziele ableiten.
Zu diesem Zweck sind die bewerteten strategischen Optionen im Strategie-Team zu diskutieren. Eine
Entscheidung für eine bestimmte Alternative bzw. ein Bündel von Möglichkeiten sollte im Konsens
unter Abwägung der Chancen und Risiken erfolgen.
Ausgehend von der zuvor ausgewählten strategischen Option, fasst man nun den IST-Zustand und den
SOLL-Zustand auf den Ebenen Produkte und Märkte in einer entsprechenden Tabelle zusammen.
Anschließend identifiziert man die strategische Lücke zwischen IST und SOLL und trägt sie in die
Spalte GAP ein.
Basierend auf dem im Konsens verabschiedeten strategischen Fokus werden abschließend die
strategischen Ziele auf den Ebenen Produkte und Märkte möglichst präzise definiert und
dokumentiert. Sie lassen sich direkt aus dem GAP ableiten. Entweder ist im GAP die angestrebte
Unternehmensentwicklung bereits als strategisches Ziel formuliert oder aus der Zusammenfassung
werden abschließend einzelne strategische Ziele abgeleitet, indem konkrete angestrebte Ver-
änderungen in der Marktbearbeitung und im Leistungsangebot beschrieben werden.

Nun stellt sich die Frage, welches Humankapital, Strukturkapital und Beziehungskapital benötigen
wir, um die oben definierten strategischen Ziele zu erreichen? Dies führt zu Definition von
Wissenszielen.

Beispiele für Wissensziele:


▪ "Wir streben an, unser Wissen über die potenzielle Konkurrenz zu erhöhen."
▪ "Wir wollen bestmöglich über die Wünsche und Erwartungen unserer Kunden informiert
sein."
▪ "Wir wollen ausreichend viele High Potentials beschäftigen."

Bei der Orientierung von Wissenszielen kann der Fokus zum Beispiel auf die Wertschöpfungskette
gelegt werden. Wissensziele werden dann für die jeweiligen Wertschöpfungsstufen formuliert. Hängt
ein Unternehmen stark von externen Partnern ab (z. B. von Zulieferen und Service-Leistern), sollte der
177
Blickwinkel auf die gesamte Lieferkette erweitert werden. Wissensziele werden dann nicht nur für den
eigenen Wertschöpfungsprozess entwickelt, sondern auch für die Schlüsselpartner, da deren
Leistungsentwicklung den eigenen Erfolg mit determiniert.

9.2.2 Ableitung Wissensziele am Beispiel TH Deggendorf


Abb. 9/3: Ableitung der Wissensziele aus den Hochschulzielen am Beispiel TH Deggendorf

Wissensmanagement-Ziele geben den Aktivitäten des Wissensmanagement eine Richtung. Sie


orientieren sich an den Wissenszielen und dem Unternehmenszielsystem und haben einen direkten
Bezug zum operativen Geschäft. Die Definition von Wissensmanagement-Zielen ist an bestimmte
Anforderungen gebunden, die sich sowohl auf die Kriterien, als, auch auf die Dimensionen der
gesteckten Ziele beziehen.
Zielkriterien sind formale Anforderungen an die Formulierung von Zielen.
Es lassen sich unterscheiden:
▪ Zielpräzision (Genauigkeit und Vollständigkeit einer Ergebnisbeschreibung)
▪ Grad der Konkretisierung (Beobachtbarkeit der Ergebnisbeschreibung)
▪ Messbarkeit (Möglichkeit, den Zielerreichungsgrad einem vorab fixierten Maßstab quantitativ
oder qualitativ zuzuordnen).

Daraus ergeben sich die vier Dimensionen der Zielformulierung: Inhalt, Ausmaß Richtung und
Zeitpunkt.
▪ Der Inhalt legt fest, welcher Zustand angestrebt wird.
▪ Das Ausmaß bestimmt, wie viel erreicht werden soll.
▪ Die Richtung gibt an, ob etwas aufgebaut, gehalten oder reduziert wird.
▪ Der Zeitpunkt gibt darüber Auskunft, wann etwas erreicht werden soll.

Ableiten von Maßnahmen aus den Wissenszielen

178
Abb. 9/4: Kreislauf Unternehmensziel, Wissensziel, Maßnahme

Abb. 9/5: Beispiel der Ableitung von Wissensmaßnahmen aus den Unternehmenszielen

Mögliche Maßnahmen sammeln und bewerten


Dazu sammelt man mögliche Maßnahmen zur Erreichung des Entwicklungszieles, beschreibt und
bewertet sie.
Ausgangspunkt für eine erste Sammlung von Maßnahmenideen je Handlungsfeld sind die während eines
Workshops festgehaltenen Verbesserungsvorschläge, Die Maßnahmenideen aus den Workshops werden
dann gemeinsam mit dem MS-Team besprochen, aufgenommen, ggf. verworfen oder durch weitere
Maßnahmenideen ergänzt.
Notieren Sie die Maßnahmen in einer vorbereiteten Tabelle. Achten Sie bei der Beschreibung der
Maßnahme vorrangig auf den durch die Maßnahme erreichbaren Nutzen für das Entwicklungsziel.
Letztlich ist das einzig relevante Ziel der Maßnahme, das Erreichen des Entwicklungszieles zu
unterstützen.

Maßnahmen priorisieren:
Falls sehr viele Maßnahmenideen diskutiert werden, ist evtl. eine erste Priorisierung sinnvoll. Dazu kann
eine einfache Frage vorgeschaltet werden: Gibt es ausreichend Budget, Zeit und Ressourcen für die
Umsetzung aller Maßnahmen?

Falls die Frage mit nein beantwortet wird, muss priorisiert werden. Hierzu bieten sich unterschiedliche
Verfahren an, wobei typische Kriterien für die Priorisierung von Maßnahmen die Diskussion und den
179
Entscheidungsprozess unterstützen können: z.B. Nützlichkeit, Dringlichkeit, Wichtigkeit,
Erwünschtheit, Risiko, Machbarkeit (Kosten, Zeit). Die Anwendung der Kriterien führt häufig zum
direkten Ausschluss einzelner Maßnahmen, z.B. weil sie unerwünscht sind, ein zu großes Risiko besteht
oder die Machbarkeit nicht gegeben ist. Folgende Verfahren zur Priorisierung bieten sich an:
• Die Geschäftsführung entscheidet. Dies ist insbesondere in kleinen Unternehmen und in
Familienbetrieben ein häufiges und übliches Verfahren, das jedoch auch in Konzernen nicht
selten anzutreffen ist. Letztlich finden dabei die oben erwähnten Kriterien implizit oder
explizit Anwendung.
• Das MS-Team bespricht die Maßnahmen und entscheidet gemeinsam. Dabei werden die Vor-
und Nachteile der einzelnen Maßnahmen kurz diskutiert und die Gründe schriftlich
festgehalten. Die Entscheidung kann, je nach Größe der Gruppe bzw. Komplexität der
Entscheidungsgründe mit einfachen Verfahren wie »Punkte kleben« unterstützt werden.
• Wenn die Entscheidungssituation aufgrund vielfältiger Gründe und Kriterien kompliziert ist,
kann eine Priorisierung mittels einer Nutzwertanalyse sinnvoll sein.

Schritt: Maßnahmenwirkungen analysieren


Ziel des Schrittes ist es, den zu erwartenden Nutzen einer Maßnahme zu spezifizieren sowie dafür
notwendige Voraussetzungen und Rahmenbedingungen zu erfassen.
Es wirken Maßnahmen im Intellektuellen Kapital oft nur indirekt auf den Geschäftserfolg eines
Unternehmens, was die Zeit bis zum Eintritt des unternehmerischen Nutzens zusätzlich verlängert.
Das kann leicht dazu führen, dass Maßnahmen im Intellektuellen Kapital abgebrochen werden, bevor
sie ihr volles Wirkungspotenzial entfalten.
Hier könnte ein operatives Wirkungsnetz Abhilfe schaffen, das die konkreten Wirkungen, mit der
eine Maßnahme Veränderung in der Organisation bis hin zum Geschäftserfolg bewirkt, visualisiert
und beschreibt.

Abb. 9/6: Wirkungsnetz von Maßnahmen [Will 2017]

9.3 Ansatzpunkte für ein Kulturaudit


Unternehmenskultur und Wissensmanagement-Kultur sind eng miteinander verbunden. So ist davon
auszugehen, dass eine Wissensmanagement-Kultur immer nur ein Teilaspekt der Unternehmenskultur
sein kann. Näheres zur Unternehmenskultur findet man in Kap. 1.5.1. Relevante Aspekte zur
Wissensmanagement-Kultur sind die in Kap. 1.5.2 erläutert und sind in Kap. 4 mehr oder minder
intensiv gelebten Wissensmanagement-Methoden.
Auf dieser Grundlage werden Ansatzpunkte für ein sogenanntes Kultur-Audit vorgestellt, die eine
Einschätzung des Status quo der im Unternehmen vorfindbaren und für das Wissensmanagement
förderlichen Kulturaspekte ermöglichen. Plakativ gesprochen geht es darum festzustellen, wie es um die
kulturelle Fitness des eigenen Unternehmens in punkto Wissensmanagement steht.

180
Wer Wissensmanagement in seinem Unternehmen einführen will, muss die aktuell gelebte
Unternehmenskultur beachten und sich über deren Einfluss auf die Prozesse des Wissensmanagements
bewusst sein. Daher ist es wichtig, den Status quo der Unternehmenskultur einer Analyse zu unterziehen.
Nur so lässt sich ermitteln, ob das Unternehmen - beziehungsweise der betreffende
Unternehmensbereich - die notwendigen Voraussetzungen für die Einführung von Wissensmanagement
erfüllt. Tut es das nicht oder nur zum Teil, so ist dringend anzuraten, vor oder spätestens mit der
Einführung von Wissensmanagement auch kulturverändernde Maßnahmen anzustoßen.
Das hier grob skizzierte Wissensmanagement-Kulturaudit bietet für diese Analyse eine Hilfestellung.
Mit Hilfe eines solchen Audits soll festgestellt werden, wie stark die fünf relevanten Kulturaspekte
(Offenheit, Lernbereitschaft, Umgang mit Macht, Vertrauen und Eigenverantwortung, siehe Kap. 1.5.2)
ausgeprägt sind. Die Zustandsanalyse kann auf zwei einander ergänzenden Wegen erfolgen. Zum einen
lassen sich über eine direkte Analyse der einzelnen Aspekte unmittelbare Eindrücke über die kulturelle
Situation gewinnen. Zum anderen erfolgt eine Sammlung und Analyse von Aktionsmustern. Bei dieser
indirekten Analyse wird aus den Aktionsmustern auf die - nicht direkt beobachtbaren - Ausprägungen
der für das Wissensmanagement relevanten Kulturaspekte geschlossen. Die Untersuchung von Ritualen
und auch spontanem Erfolgshandeln liefert durch ihre immanente Symbolik sehr deutliche Hinweise auf
diejenigen Teilbereiche der Unternehmenskultur, die für das betriebliche Alltagsleben insgesamt und
damit auch für den Umgang mit Wissen von großer Bedeutung sind.

9.3.1 Strukturierte Interviews


Das Kulturaudit kann mit Hilfe eines schriftlichen Fragebogens und/oder auf der Grundlage von
strukturierten Interviews stattfinden, Abb. 9/7 in Verbindung mit den Fragen in Kap. 1.5.2
Ausgangspunkt sind in jedem Falle die in unserem Modell genannten Kulturaspekte, die nach der
Befragung in Form eines Spinnenprofils ausgewertet werden können, siehe Abb. 9/8. Es ist dabei sehr
vorteilhaft, wenn im Zuge der Erhebung nicht nur der Ist- sondern auch der Soll-Zustand der
Kulturaspekte erfasst wird. Auf diese Weise lässt sich sofort der bestehende Änderungsbedarf
erkennen.

Abb. 9/7: Beispiel für einen Fragebogen beim Kulturaudit [Armutat 2002]

Im Rahmen einer direkten Analyse der für das Wissensmanagement relevanten Kulturaspekte können
sehr unterschiedliche Fragen eingesetzt werden. Eine Möglichkeit besteht darin, die fünf Aspekte direkt
bei Mitgliedern des Unternehmens zu erfragen. Hier kann man etwa auf Werkzeuge der
Personaleinschätzung zurückgreifen. So gibt es etwa im Bereich von Mitarbeiter-

181
Beurteilungsgesprächen die Aufforderung an Vorgesetzte und Mitarbeiter, sich selbst und andere
hinsichtlich Offenheit, Lernbereitschaft, Eigenverantwortung usw. einzuschätzen.
Alternativ kann man lediglich Mitglieder von überschaubaren Unternehmenseinheiten (z.B.
Abteilungen) bezüglich ihrer Einschätzung zur Kultur ihres Bereiches befragen. Fragebögen, die eine
Skalierung beinhalten und Raum für individuelle Kommentare bieten, sind sinnvoll. Fragt man
gleichzeitig nach dem IST, dem SOLL und nach Handlungsmöglichkeiten im eigenen Einflussbereich,
entstehen häufig unmittelbar Diskussionen über Verbesserungsmöglichkeiten.

Abb. 9/8: Kultureinschätzung der Studiengänge mit Spinnennetzdiagramm

9.3.2 Nach dem Kulturaudit


Nach dem Kulturaudit ergibt sich ein Bild der kulturellen Situation des Unternehmens. Die
Kulturaspekte, in denen Abweichungen zwischen Soll und Ist deutlich wurden, müssen nun näher
untersucht werden. Die zentrale Frage ist, ob die Abweichungen so gravierend sind, dass die Einführung
des Wissensmanagements gegebenenfalls zurückgestellt werden muss, bis erste kulturverändernde
Maßnahmen greifen. Alternativ kann die Einführung eines Wissensmanagements parallel mit
begleitenden kulturverändernden Maßnahmen geplant werden. Da die Ergebnisse des Audits sehr
unternehmensspezifisch zu interpretieren sind, lässt sich an dieser Stelle leider keine generelle
Handlungsmaxime geben. Generell gilt aber: Reflektieren Sie die Ergebnisse Ihrer Analyse möglichst
offen. Wissensmanagement erfordert offene Kommunikation!

9.4 Rollen und Profile in bestehenden Wissensmanagement-Systemen


Ist das Einführungsprojekt für das Wissensmanagement abgeschlossen, entsteht in der Regel der
Rollenset von Abb. 9/9.
Zu unterscheiden sind dabei verschiedene Rollen auf der Legitimations-, der Organisations- und der
Anwendungsebene. Einige Rollen sollten auf jeden Fall besetzt sein, um ein funktionierendes
Wissensmanagement-System zu gewährleisten. Andere Rollen sind unterstützend wirksam und auch
nicht bei jeder Art von Wissensmanagement notwendig.

182
Abb. 9/9: Rollenset im WM [Armutat 2002]

▪ Der Wissens-Promoter bleibt für ein funktionierendes Wissensmanagement von großer


Bedeutung. Idealerweise wird diese Rolle fest institutionalisiert und ein Chief-Knowledge-
Officer (CKO) auf höchster Ebene (Vorstand, Geschäftsführung) benannt. Neben guten
Außenkontakten zur strategischen Weiterentwicklung sollte der CKO auch selbst angewandtes
Wissensmanagement offensiv vorleben.

▪ Der Wissensmanager (auch Manager interne Kommunikation/Intranet, Knowledge Engineer


oder Leiter Wissen & Information genannt) ist unverzichtbarer Bestandteil eines
funktionierenden Wissensmanagement Systems. Der Wissensmanager sorgt als „Treiber“
dafür, dass Wissensflüsse in Gang kommen und weitergeführt werden. Seine Aufgabe ist es,
die "Wissenshamster" auskunftsfreudig zu machen, indem er sie davon überzeugt, dass der
Wissensaustausch im Unternehmen viel erfolgversprechender ist, als das "Hamstern" von
Wissen. Außerdem muss er die potenziellen "Wissens-Nehmer" vom so genannten "Not-
Invented- Here-Syndrom" befreien. Sie müssen erkennen, dass es im Unternehmensinteresse
liegt, bestehendes Vorwissen als Basis für die eigenen Aktivitäten zu nutzen. Damit lassen
sich Doppelarbeit vermeiden und Arbeitsergebnisse besser und schneller erzielen.
Darüber hinaus ist der Wissensmanager verantwortlich für die Strukturierung des Wissens.
Die Verzahnung der Wissensflüsse mit den Geschäftsprozessen gehört zur wichtigsten
Aufgabe des Wissensmanagers.
Für den Einsatz als Wissensmanager bieten sich multidisziplinär ausgebildete Mitarbeiter mit
solider Praxis-/Projekterfahrung an. Neben betriebswirtschaftlichen und IT-Kenntnissen
sollten sie idealerweise auch über informationswissenschaftliche Kenntnisse verfügen.

Bei den übrigen Rollen hängt es unter anderem davon ab, wie das Wissensmanagement-System
konkret ausgestaltet ist: In welcher Branche ist das Unternehmen aktiv (Industrie vs. Dienstleistung),
hat es mehrere GeschäftsfeIder, ist das Wissensmanagement-System zentralisiert oder dezentralisiert
strukturiert?
▪ Sehr hilfreich für ein gut funktionierendes Wissensmanagement ist der Einsatz von
Contentmanagern. Damit sind Personen gemeint, die sich für spezielle (Fach)-Themen im
Rahmen des Wissensmanagements besonders interessieren und engagieren. Sie greifen diese
Themen und Ideen auf und versuchen sie voranzubringen. Im Kontext des
Wissensmanagements heißt das in der Regel, dass sie die Ersten sind, die eine Community zu

183
einem Thema gründen und diese auch inhaltlich intensiv begleiten, zum Beispiel durch neue
Beiträge und Moderation.
▪ Der Community-Moderator koordiniert und organisiert sämtliche administrativen Tätigkeiten
in einer Comrnunity.
▪ IT-Manager kümmern sich um den Aufbau und den Betrieb der informationstechnischen Seite
des Wissensmanagements.
▪ Wissensbrokers Aufgabe ist es. Das Wissen - sei es extern beschafft oder intern erarbeitet - auf
die einzelnen Teile des Wissensmanagement-Systems zu verteilen. Nicht jede Marktstudie, die
im Rahmen des Wissensmanagements im Produktmanagement von Bedeutung ist, ist auch im
Produktionsbereich von Nutzen. Dem Wissensbroker obliegt es, eine Bewertung neuen
Wissens im Hinblick auf die Nützlichkeit für den Empfänger vorzunehmen.
▪ Es gibt einige Experten auf einem bestimmten Wissensgebiet. Diese erfahrenen Professionals,
die innerhalb des Unternehmens führend in ihrem Wissensgebiet sind, gilt es in die
Community einzubinden.
▪ Anwender eines Wissensmanagement-Systems, auch Wissensarbeiter oder User genannt.
Gemeint sind hiermit nicht Personen, die ausschließlich mit Wissen arbeiten, sondern die ein
Wissensmanagement-System für die Zwecke der Wissensabgabe oder -beschaffung nutzen.
Machen Sie sich bewusst, dass Wissensmanagement nur gut funktionieren kann, wenn es mit
der Unterstützung der Wissensarbeiter eingeführt wird. Sie sind die Wissensträger, deren
„Schätze“ ans Licht gebracht werden sollen. Da niemand gezwungen werden kann, sein
Wissen preiszugeben, müssen Sie auf Freiwilligkeit, eventuell gestützt durch die richtigen
Anreize setzen.

9.5 Aktionsplan erstellen


Der Aktionsplan ist das Ergebnis der Planungsphase und zugleich das Drehbuch für die Ein-und
Durchführung des Wissensmanagements. Nicht anders als im konventionellen Projektmanagement,
bündelt er die Entscheidungen über Wissens- und Wissensmanagementziele, die zu verfolgende
Strategie, die Organisation und die zu berücksichtigenden Ergebnisse der Kulturanalyse. Auf dieser
Grundlage werden im Wissensmanagement-Aktionsplan die Ereignisse und Tätigkeiten im Zeitverlauf
sowie die personellen, technischen und materiellen Ressourcen festgelegt:
▪ Eine detaillierte Ereignis- und Tätigkeitenplanung im Zeitverlauf hilft dabei, das Gesamtziel
des Projektes nicht aus den Augen zu verlieren und das fortlaufende Projektcontrolling
durchzuführen. Dazu werden Meilensteine definiert, die den Verlauf der Einführung
dokumentieren.
▪ Die Planung der personellen Ressourcen erfolgt im projektbezogenen Personalplan. Hier wird
dokumentiert, welcher Personalbedarf bei der Umsetzung des Wissensmanagements besteht,
wie die Personalbeschaffung vonstatten gehen soll und welche Schulungsmaßnahmen
durchgeführt werden müssen. Rollen und Verantwortlichkeiten sind in diesem Planungsschritt
zu klären.
▪ Die Planung der technischen und infrastrukturellen Ressourcen umfasst die projektspezifische
Hard- und Software, das zu verwendende Planungssystem, die benötigten Räumlichkeiten
sowie die notwendigen lT-Kapazitäten.
▪ Die materielle Planung definiert die Gesamtkosten des Projektes, zeigt den Kostenverlauf auf
und gibt Hinweise zu der Frage, welcher Ertrag zu erwarten ist.

Wie konkret die einzelnen Schritte geplant werden, hängt im Wesentlichen von der
Projektmanagementkultur des jeweiligen Unternehmens ab. Es ist allerdings in jedem Fall sinnvoll,
den Aktionsplan schriftlich zu dokumentieren. Dazu bieten sich sowohl gängige Softwaresysteme für
das Projektmanagement an, als auch einfache, in Handarbeit erstellte Visualisierungen.

184
Abb. 9/10: Projektplan Beispiel Deggendorf

9.6 Implementierung von Wissensmanagement


Wissensmanagement lässt sich auf vielfältige Weise im Unternehmen implementieren. Ein mögliches
Implementierungskonzept schlägt das "American Productivity & Quality Center" (APQC) vor. Dieser
Ansatz umfasst fünf Phasen:
Starten- Experimentieren - Umsetzen in Pilotbereichen - Ausweiten - Institutionalisieren.
Jede Phase ist durch bestimmte Charakteristika und Aktivitäten gekennzeichnet.

Abb. 9/11: Implementierungsphasen nach APOC [Armutat 2002]


Phase 1: Starten

Phase 2: Experimentieren
Die "Gleichgesinnten" bilden ein Netzwerk von Promotern und Interessierten. Um weitere
einflussreiche Führungskräfte und Mitarbeiter zu überzeugen, können zum Beispiel Erfolgsstories
sowie Lernen aus eigener Erfahrung und Beobachtung zum Einsatz kommen. Dies lässt sich besonders
gut durch Pilotvorhaben fördern. Dazu wird im Unternehmen ein relativ autarker Bereich ausgewählt,
in dem Wissensmanagement für eine festgelegte Zeit umgesetzt werden soll. Hier werden
verschiedene Strategien und Vorgehensweisen ausprobiert. Aktivitäten in der Experimentierphase sind
somit
▪ das Kommunizieren von Erfolgsstories
▪ die Auswahl von Pilotbereichen und -vorhaben,
▪ die Entwicklung einer Strategie für die Pilotbereiche und -vorhaben,
▪ die Bereitstellung von Ressourcen sowie
185
▪ die Installierung einer Task Force für die Pilotbereiche und -vorhaben.

Phase 3: Umsetzen in den Pilotbereichen


Wissensmanagementaktivitäten in den Pilotbereichen und bei den Pilotvorhaben müssen evaluiert
werden. Dies sollte bereits während der Umsetzung erfolgen. Darüber hinaus sollte spätestens in
dieser Phase eine für das Wissensmanagement spezifische Qualifizierung der Pilotmitarbeiter erfolgen.
Die Ergebnisse der Evaluierung bieten für die Gestaltung von Qualifizierungskonzepten eine gute
Informationsgrundlage. Die Komponente des Könnens stellt eine Seite der Medaille dar. Eine andere,
nicht zu vernachlässigende Seite ist die Komponente des Wollens. Die Pilotmitarbeiter müssen
motiviert sein, am Wissensmanagement teilzunehmen. Dies geschieht nicht zuletzt durch die
Sichtbarmachung des persönlichen Nutzens. Die Ergebnisse der Evaluierung müssen somit auch die
Grundlage für einen Motivierungsansatz und ein Anreizsystem liefern.

Phase 4: Ausweiten
Ein Unternehmen steht an der Schwelle zu Phase vier, wenn andere Unternehmensbereiche Interesse
an Wissensmanagement signalisieren und sich zunehmend ein Bewusstsein für Wissensmanagement
im gesamten Unternehmen entwickelt. Die Phase der Ausweitung ist dementsprechend
gekennzeichnet durch
▪ die Entwicklung einer Strategie zur Ausweitung der Wissensmanagement- Aktivitäten,
▪ die Umsetzung der Wissensmanagement-Aktivitäten in anderen Bereichen und Abteilungen,
▪ die Gestaltung einer unternehmensweiten Informations- und Kommunikationspolitik zum
Thema Wissensmanagement sowie
▪ die Installation einer unternehmensweiten Task-Force.

Phase 5: Institutionalisierung
Institutionalisierung bedeutet in diesem Zusammenhang die Entkoppelung von den ursprünglichen
Promotern. Es erfolgt einer Verankerung in der Institution. Eine Institutionalisierung zeigt sich vor
allen Dingen
▪ in der Integration von Wissensmanagement in der Unternehmenspolitik,
▪ in der Berücksichtigung von Wissensmanagement in den Qualifizierungs- und
Motivationskonzepten,
▪ in der kontinuierlichen Evaluierung als Teil des Controllings,
▪ in der organisatorischen Verankerung sowie
▪ in der Pflege einer Wissenskultur als Teil der Unternehmenskultur.

9.7 Leitfaden zur Einführung von Wissensmanagement an Hochschulen

Abb. 9/12 zeigt die Phasen dieses Rahmenmodells für WM an Hochschulen. Die erste Phase der
Initiierung und Analyse umfasst den Anstoß der Thematik, die Sensibilisierung, den Projektstart und die
Analyse der Organisationskultur, Wissensarten, Wissensträger, Geschäftsprozesse sowie
Wissenssituation in der jeweiligen Hochschule. Diese Ergebnisse fließen unmittelbar in die nächste
Phase ein, in der die Voraussetzungen für ein erfolgreiches Wissensmanagementsystem geschaffen
werden. Mittels Aufklärungs- sowie Überzeugungsarbeit und der Kommunikation von Vorteilen werden
die Organisationsmitglieder verstärkt für die Belange von Wissensmanagement sensibilisiert. Die
identifizierten Barrieren und Verbesserungspotentiale hinsichtlich einer wissensorientierten Kultur
werden durch geeignete Interventionen vermindert bzw. unterstützt. Dazu zählen insbesondere Maß-
nahmen zur Steigerung der Motivation, zur Wissensteilung und Nutzung des Systems.
In der Konzeptionsphase werden die Wissensziele und Maßnahmen abgeleitet sowie deren
Bewertungsindikatoren definiert, die in die Wissensbilanz einfließen. Diese wird ebenso entworfen wie
das Wissensmanagementsystem selbst, das bezüglich Software sowie Werkzeugen der Informations-
und Kommunikationstechnologie betrachtet wird. Überdies kann nun ein detaillierter Aktionsplan mit
Meilensteinen für die Implementierung erarbeitet werden.

186
Abb. 9/12: Phasenmodell zur Einführung von Wissensmanagement an Hochschulen [Kreupl
2009, S. 92]

Die Umsetzung findet zunächst im gewählten Pilotbereich statt, bevor die Ausweitung auf die gesamte
Organisation erfolgt. Rechtzeitig zur Implementierung ist die Schulung der zukünftigen Nutzer
notwendig, um Kenntnisse zur Bedienung und den Angeboten des Systems zu vermitteln. In dieser
Phase wird auch die Wissensbilanz realisiert.
Regelmäßiges Feedback zum Wissensmanagement ist für die Anpassung des Systems und zur
Erlangung von Erfahrungswerten zu dessen Ausweitung wichtig. Somit ist dieser Einführungsschritt
parallel zum vorigen durchzuführen. Die Evaluation ist einerseits durch die User möglich (z. B. mit
Befragung im System) und andererseits mittels der Bewegungsbilanz des Wissens, die durch
Veränderungen der Indikatoren Rückschlüsse auf die Wirkung des Wissensmanagements zulässt.
Die Institutionalisierung bildet den Endpunkt zur Einführung von Wissensmanagement an Hochschulen
und beinhaltet die Verankerung in der Organisation. Das bedeutet, dass das System sowie die
Aufstellung der Wissensbilanz in den Arbeitsalltag integriert ist, die Stelle des Wissensmanagers
installiert wurde, Wissen einen hohen Stellenwert besitzt und eine wissensorientierte Hochschulkultur
vorherrscht. Idealerweise ist dadurch die Entwicklung hin zur lernenden Organisation vollzogen.
Folgende Abbildung zeigt das Vorgehensmodell für die Einführung eines WMs für Studierende an einer
Hochschule [Kreupl 2009].

187
Ausweitung des

Feedback von den

Wissen gewinnen

Implementierung des

Technische

Wissensbilanz

Pilotbereich

Maßnahmen

Zielsystem

Kulturaudit

Kernprozesse und

03.06.2010 Prof. Dr. Dr. Heribert Popp


9.8 Literatur und Kontrollfragen
1. Armutat Sascha u.a.: Wissensmanagement erfolgreich einführen, DGFP 2002
2. Kreupl Silke: Entwicklung eines Leitfadens zur Einführung von Wissensmanagement
an Hochschulen am Fallbeispiel HS Deggendorf. Masterarbeit 2009
3. Will Markus, Sven Wuscher: Leitfaden „Strategische Ziele entwickeln“. Fraunhofer-Institut
für Produktionsanlagen und Konstruktionstechnik IPK, 2014
Kontrollfragen
1. Skizzieren sie ein Gesamtmodell für die WM-Einführung!
2. Wie führt man ein Kulturaudit durch?
3. Nennen sie die Implementierungsphasen des Aktionsplans zur WM-Einführung und je Phase
eine Aktion
4. Was wird aufgrund der Wissensmanagementziele und der Ergebnisse des Kulturaudits im
WM-Aktionsplan festgelegt?
5. Entwerfen sie als Fallstudie: Einführung von WM an Hochschule Deggendorf.
6. Popp will ein Wissensmanagementsystem (WMS) „Von Laien für Laien“ im Dekanat
Schwandorf einführen (Dekanat ist ein Zusammenschluss hier von 22 Pfarreien und Laien
sind aktive Mitglieder einer Pfarrei). Schlagen sie Popp ein Grundmodell zur Einführung
seines WMS vor.
7. Popp soll in der Diözese Regensburg (500 Pfarreien mit 1000 Beschäftigten, Beschäftigte bei
sozialen Diensten wie Caritas, Mitarbeiter in der Erwachsenenbildung) in den nächsten Jahren
ein Wissensmanagementsystem (WMS) einführen.
a.) Wie sollte Popp bei der Einführung vorgehen?
b.) Erinnern sie sich an die Fallstudie der Einführung von WM fürs Personal an TH
Deggendorf und schlagen sie vier Funktionen vor, die das WMS anbieten sollte.
c.) Diskutieren sie die Software, die er verwenden sollte.
e.) Schlagen sie ihm einen Aktionsplan vor.
f.) Leider hat das Kulturaudit bei den Benutzern schlechte Kulturwerte fürs
Wissensmanagement ergeben. Schlagen sie 2 kulturverändernde Maßnahmen vor.
8. Skizzieren sie einen Leitfaden zur Einführung von WMS an einer Hochschule.
9. Beschreiben sie mit je Prinzip und Beispiel wie sie strategisch vorgehen würden um aus dem
Unternehmens-/Stadt-/Hochschulzielen die benötigten Wissensmaßnahmen abzuleiten.

188
10. Anwendung: Digitale Weiterbildung zur Steigerung
des Humankapitals

In der Wirtschaft spielt neben dem Finanzkapital immer mehr das Wissenskapital eine wichtige Rolle,
das sich aufteilt in Strukturkapital und Humankapital. Das Humankapital beschreibt sozusagen den Teil
des Wissenskapitals, das in den einzelnen Mitarbeitern steckt – deren Kompetenz, deren Lernfähigkeit,
deren Motivation und Grundeinstellungen. Der Weiterbildungsmarkt boomt mehr denn je. 15,7 Mill.
hatten 2015 in Deutschland besonderes Interesse an der beruflichen Weiterbildung. Der Umsatz der
Weiterbildungsbranche betrug 2015 10,7 Mrd. € und soll bis 2018 auf 11,5 Mrd. € steigen.

10.1 Bedarfssog und Technologiedruck für digitale Weiterbildung


Unter E-Learning werden alle Formen von Lernen verstanden, bei denen digitale Medien für die
Präsentation und Distribution von Lernmaterialien und/oder zur Unterstützung zwischenmenschlicher
Kommunikation zum Einsatz kommen.
In den letzten Jahren zeichnet sich ein regelrechter Bedarfssog nach dem Einsatz neuer Lehrformen ab,
bedingt durch
1. die neuen Herausforderungen für die Lehre aus der Wirtschaft
2. die Forderung nach Flexibilität in Zeit und Ort
3. Intensivierung des Lernens: Anschaulichkeit (Video, Audio, Multimedia),
Übungsmöglichkeiten
4. Unterstützung Methoden der Selbststeuerung, Kooperation.
Zu diesem Bedarfssog kommt, dass sich verschiedene Medientechnologien, wie Computertechnik,
audiovisuelle Medien (Film, Funk und Fernsehen), Verlagswesen (Bücher, Zeitschriften) sowie
Telekommunikation (öffentliche und private Netze), die sich über lange Zeit unabhängig voneinander
entwickelt haben, auf einem gemeinsamen digitalen Nenner trafen und eine technologische
Umbruchphase entfachten.
Elektronische Medien bieten dem gesamten Bildungsbereich ein immenses Innovations- und
Effizienzsteigerungspotential. Jürgen Guttmann von Siemens hat es folgendermaßen quantifiziert: "Wer
seine Crew weltweit per Mausklick auf den neuesten Stand bringen kann, verschafft sich einen
beachtlichen Wettbewerbsvorteil."

10.2. Kategorisierung von Lehrformen [Goertz 2013]


E-Learning sind alle Formen von Lernen, bei denen digitale Medien für die Präsentation und
Distribution von Lernmaterialien und zur Kommunikation zum Einsatz kommen
Waren 2008 noch 8 Formen des E-Learning genannt, so kann man heute 23 verschiedene Lernformen
unterscheiden, die wir im Folgenden betrachten:

Serious Games, Simulationen und Planspiele


Serious Games haben das Ziel, Lerninhalte auf spielerische Weise zu vermitteln. Dabei haben sie ein
klares Spielziel, Spielregeln und häufig explizite Kriterien zur Messung des Spielerfolgs.
Eine Simulation ermöglicht dem Lerner, einen Prozess oder eine nachgebildete Umgebung durch
eigenes Erleben nachzuvollziehen und zu verändern (online oder auf dem eigenen Rechner).
Informelles Lernen/Learning on Demand
Unter Learning on Demand wird das nicht von oben angeordnetem, spontanem Lernen zu jeder Zeit und
an jedem Orst verstanden – oft auch mit mobilen Endgeräten. Hierfür stehen sogenannte Micro-
Learning-Einheiten, Learning Nuggets, bereit. Dafür gibt es Sammlungen von in sich geschlossenen
Wissenselementen, die Lernende über ein Menü aufrufen können.
Wikis
Öffentliche Wikis wie Wikipedia dienen als Recherchequelle genauso wie unternehmenseigene Wikis.
Das Lexikon dient damit als Werkzeug für das Wissensmanagement, welches das
unternehmensspezifische Wissen konserviert und für alle Mitarbeiter erschließbar macht.
Podcasts

189
Ein Podcast ist eine (meist im Abo) downloadbare Audio-Datei aus dem Internet, über die man sehr
schnell Fakten und Kommentare erhalten kann. Sie lassen sich am Arbeitsplatz und unterwegs anhören.
Social Networks, Foren, Communities of Practice (CoP), Chats
Soziale Netzwerke dienen nicht unmittelbar als Lernwerkzeug, helfen aber, die passenden
Ansprechpartner für bestimmte Themen und Probleme zu finden, mit denen man dann persönlich
Kontakt aufnehmen kann. Manche dieser Sites ermöglichen die Gründung von geschlossenen Gruppen,
die dem fachlichen Informationsaustausch dienen (CoP). Um den Austausch unter den Teilnehmern zu
beleben, wird die Kommunikation in der Regel moderiert und durch die Einbeziehung externer
Fachexperten ergänzt. Bei Foren liegt asynchrone Kommunikation (es vergeht Zeit zwischen einem
Forumsbeitrag und der Reaktion darauf) vor, beim Chat synchrone Kommunikation (sofortige
Reaktion).
Virtual Classroom
Sie bieten die Möglichkeit mit mehreren Teilnehmern gleichzeitig zu lernen, so werden
Gruppenarbeitsphasen ins Internet verlagert. Dienste wie Skype oder Net meeting gehören dazu.
Lernvideos
Bewegte Bilder sind oft anschaulicher als lange Texte – sie helfen z.B. bestimmte Handgriffe und
Arbeitsvorgänge leichter nachzuvollziehen. Videos werden oft in andere Lerninhalte wie WBT
eingebettet.
Augmented Reality (AR)
Der Einsatz von AR („angereicherte Wirklichkeit“) ermöglicht die Ergänzung der realen Wahrnehmung
um zusätzlich computergenerierte Informationen, die über eine Brille, eine Beamer Projektion oder ein
mobiles Endgerät eingespielt werden. Somit könnten Handbücher in Zukunft ersetzt werden.
MOOCs
Sogenannte Massive Open Online Cources (MOOC) sind offene Lernangebote in verschiedenen
Lernformen, die einen großen Kreis von Lernern adressieren. Man hat auch die Möglichkeit, selbst
Lerninhalte hinzuzufügen.
Interactive E-Books
E-Books sind elektronische Bücher, die auf E-Book Readern oder Tablet PCs gelesen werden können.
Durch interaktive Funktionen können sie auch auf Eingaben ihres Lesers reagieren. Ihr größter Vorteil
ist die schnelle und kostengünstige Aktualisierung des Contents.
Lerntagebücher
Um sich selbst und andere wie den Chef über die Lernfortschritte auf dem Laufenden zu halten, kann
ein Lerner ein digitales Lerntagebuch einrichten. Verbunden mit Zertifikaten lässt sich dieses auch zu
einem E-Portfolio ausweiten, das in standardisierter Form die wichtigsten Qualifikationen eines Lerners
präsentiert.
Microblogging-Dienste
Auf Microblogging-Diensten wie Twitter lassen sich viele Informationen zu den eigenen fachlichen
Interessen finden, indem man Experten zu einem bestimmten Thema folgt. In einer abgeschlossenen
Gruppe lassen sich Twitter Diskussionen für die Zusammenarbeit in Lerngruppen nutzen, um sich über
den Lernfortschritt zu informieren oder Aufgaben im Projekt abzustimmen.

CBT/WBT
Das Computer Based Training (CBT) entspricht einem E-Learning Kurs, der auf CD-ROM/DVD
ausgeliefert wird. Eine Weiterentwicklung ist das Web Based Training (WBT), bei dem die Inhalte der
Kurse online abrufbar und leichter aktualisierbar sind.

Blended Learning ist "Präsenzvorlesung im Wechsel mit virtueller Lehre" mit den Funktionen
"synchrone und asynchrone Kommunikation". Der Mehrwert von Blended Learning ist:
• Gute Integration der virtuellen Anteile in die Präsenzphase
▪ Meist virtuell Facts erarbeiten und präsenz Projekte (auch am Computer) bzw. Fallstudien
bearbeiten
▪ Studierendenfragen mit Antworten im nächsten Durchlauf als Fakten in den virtuellen Teil
aufgenommen
▪ Bessere Motivation durch Präsenzphase
Ein typischer Lernprozess im Blended Learning sieht wie folgt aus: Die Studierenden entnehmen aus
dem Zeitplan der Präsenztermine, welche virtuellen Kapitel sie bis zum Präsenztermin durcharbeiten
190
müssen. Sie drucken sich das Arbeitsskript aus, betrachten die Videos zu den Lerneinheiten, wobei sie,
wie in Präsenzvorlesungen, dabei das Arbeitsskript oder die Folien ergänzen. Dann versuchen sie, falls
vorhanden, die Testdateien zu lösen (z.B. Programmieraufgaben bei Computerkursen) und testen ihr
Wissen an den interaktiven Kontrollfragen je Kapitel. Hierbei stellen sie evtl. Fragen an den Teletutor.
Dann betreten sie das Forum, betrachten die bisherigen Beiträge zu dem Thema, antworten auf dort
gestellte Fragen und bringen ihre Interessen dort ein. So vorbereitet, betritt der Student die Präsenzphase,
wo der Stoff durch Vorlesungen oder Fallstudien vertieft oder ausgeweitet wird. Die Studierenden
erhalten dann bisweilen Aufgaben für die virtuelle Gruppenarbeit. Am Schluss des Kurses steht immer
noch die schriftliche Prüfung, zu der am Tag vorher der Dozent jeweils einen synchronen Chat mit den
Prüfungsteilnehmern bestreitet.

10.3 Strategischen Einsatz von E-Learning am Beispiel der


TH Deggendorf

Partner-
Schule Bachelor Master hoch- Alumni
schulen
Notebook
Weiterbildung
University Video-
Frühstudium -seit 1998
- 21 virt. Kurse aufzeichnungen,
-Mathematik virtuelle
Realserver
-Softwaretechnik - Gemeinsame Master Zertifikatsweiterb
- virt. Studiengang ildung mit 2000
-Grundlagen BWL mit FHs Landshut,
Regensburg, Ingolstadt, TN
-Grundlagen WI - adapitives
Ansbach Ziel: Gute
Lernsystem Finanzierungsque
-Vhb lle,
-bdk-Portal Rückkopplungs-
Abb. 10/1: Lehrprozesskette zum strategischen Einsatz von E-Learning mögl.

10.4 E-Learning und Wissensmanagement


• Web 2.0: Mashup, Podcast, Wiki, Blog, Social Software
• Blog für die Dokumentation, was an welchem Vorlesungstag behandelt wurde
• Mashups mit Google Map zum Illustrieren der Partner in der ganzen Welt
• Podcast von Vorträgen und Vorlesungen
• Social Software um Partner für Lerngruppen oder Freizeitaktivitäten zu finden
• Wikis mit Tipps, wie man eine Klausur besteht:
Beispiel eines Eintrages
Das meiste, was in Mathematik 1 durchgenommen wird, kennt man zwar bereits aus FOS/BOS oder
Gymnasium, dennoch gilt es dieses Fach nicht zu unterschätzen. Es genügt in keinster Weise, den Stoff
nur zu verstehen, man muss in auch konkret anwenden können. Dies ist nur durch Übung zu erreichen,
was mit relativ viel Aufwand verbunden ist, da der Stoffumfang gewaltig ist. Ebenfalls sehr wichtig ist
das richtige Zeitmanagement. Sowohl in der Vorbereitung als auch in der Klausur. Man sollte bereits
während des Semesters die Übungsaufgaben zu den einzelnen Kapiteln bearbeiten nicht alles auf das
Semesterende hinauszögern. In der Klausur sollte man je nach Aufgabe nicht länger benötigen als die
dafür vorgesehene Zeit.

191
10.5 Lernen in 3-D-Welten
Eine besonders interessante Entwicklung für „Lernen im Digitalen Zeitalter“ ist es, die etablierten
Kollaborations- und Kommunikationswerkzeuge (z.B. VoIP, Application Sharing) in den
dreidimensionalen Raum zu überführen. In der iLearn3D Implementierung wird das Open-Source-
Toolkit Project Wonderland1 verwendet, um eine immersive Arbeitsumgebung zu schaffen und dadurch
die synchronen Kollaborationsmöglichkeiten der Lernplattform Moodle zu erweitern.
Potenziale virtueller Welten unter dem Aspekt der Kollaboration für den Bildungssektor:
• Raummetapher, sie erlaubt den Aufenthalt in einem gemeinsamen Raum,
• Multimedialität,
• Interaktivität ermöglicht mehr Gestaltungsmöglichkeiten als klassische starre Lernpfade,
• Vernetzung, d.h. die Interaktion der Benutzer/innen findet in Echtzeit statt,
• Gruppenbildung ist in 3-D-Welten durch die Wahrnehmung der anderen Avatare intuitiver.
Gruppen bilden sich beispielsweise zufällig indem mehrere Avatare beieinanderstehen oder
durch die Gestaltung virtueller Räume.
• Schaffung sozialer Räume, so ermöglichen die nonverbalen Gesten wie Winken und Umarmen
der Avatare eine sozio-emotionale Kommunikation.
Die virtuelle Welt dient in der Deggendorfer Implementierung als Erweiterung der Lernplattform
Moodle zur effizienten Gruppenarbeit. Durch die Unterstützung der Application-Sharing
Funktionalitäten besteht die Möglichkeit Dokumente innerhalb der virtuellen Welt gemeinsam und in
Echtzeit zu bearbeiten. Dabei wird sowohl aktives als auch passives Application-Sharing unterstützt.
Bestimmte Anwendungen der 3-D-Welt (PDF oder Video) können synchron und asynchron betrachtet
werden. Dadurch kann die virtuelle Welt ähnlich einem Groupware System mit integrierter Application-
Sharing Funktionalität verwendet werden. Das LMS dient als zentraler Datenspeicher aus den
Dokumenten geladen bzw. dorthin gespeichert werden können. Somit sind die in der 3-D-Welt erstellte
oder bearbeitete Dokumente auch ohne ein Einloggen in die virtuelle Welt erreichbar. Abb. 10/8 stellt
einen Screenshot einer virtuellen Sitzung dar.

Abb. 10/2: Application-Sharing im virtuellen Campusgelände der Hochschule

Um eine Unabhängigkeit gegenüber proprietären Softwareanbietern und damit einhergehend eine


größere Kontrolle über die erstellte 3-D-Welt für die Bildungseinrichtung zu garantieren, wurde nach
freien Softwarelösungen gesucht und deren Potential erforscht. Dabei fiel die Wahl auf die Plattform
„Project Wonderland“. Ein wichtiges Argument gegen SL ist, dass jede Hochschule im Gegensatz zur

1 siehe https://lg3d-wonderland.dev.java.net/
192
Dependance in Second Live schätzt, wenn sie das vollständige Recht und die Zugriffsfreiheit über ihre
eigen erstellten Lernobjekte hat.

10.6 MOOC (Massive Open Online Course)


(Zehn-) (Hundert-)Tausende Lernende nehmen gratis teil. Jeder hat freien Zugang (ob Student oder
nicht).
Lernende müssen sich selbst organisieren, Muster und Verbindungen erkennen und Entscheidungen
treffen.
Ihr Grundprinzip besteht darin, dass sich Interessierte aus aller Welt ohne Zugangsvoraussetzungen und
kostenlos für das Kursangebot registrieren und es online absolvieren können.
Das Angebot des jeweiligen MOOC umfasst typischerweise Videovorlesungen von erfahrenen
Professorinnen und Professoren, interaktive Übungen und regelmäßige Online-Quizzes zur
Überprüfung des Lernfortschritts.
Die Kursteilnehmerinnen und –teilnehmer werden Teil einer globalen Gemeinschaft von anderen
Interessierten, die gleichzeitig mit ihnen lernen. Sie können sich in verschiedenen Online-
Diskussionsforen vernetzen, um einander Fragen zu stellen, Probleme zu erörtern, Antworten zu finden
und sich so gegenseitig bei der Erarbeitung des Stoffes zu unterstützen.

Lernplattformen sind
• Coursera (22 Mil. eingetragene Nutzer in 1868 Kursen). Bisher bieten auf der ganzen Welt
ausgewählte Universitäten Seminare und Vorlesungen über Coursera an, darunter zum Beispiel
etliche Top-Universitäten aus den USA, etwa Princeton, Duke, Stanford oder Columbia, aber
auch die Hebrew University of Jerusalem, die Hong Kong University of Science and
Technology in China und die Universitäten Edinburgh und Leiden in Europa.
• edX (gemeinsames Projekt von Harvard und MIT mit 59 Kursen)
• Udacity (740000 Studierende mit 28 Kursen der Informatik und Mathematik).
• Europäische Plattform: Eliademy (Finnland), FutureLearn (Großbritannien) und Mirianda
X(Spanien)
• Deutsche Plattform: Iversity (Berlin); OPENhpi; Leuphana und openSAP.

Anders als bei Youtube bestehen Kurse neben den Videos der Professoren auch noch aus
Übungsaufgaben und Fallstudien sowie Diskussionsforen.
Vorteile: freie Zeiteinteilung, Videopassagen wiederholen, verständliche Kurse
Schattenseiten: oft ohne Klausur, Problem der Finanzierung (da keine Teilnahmegebühren erhoben
werden)
Inhalte sind von hoher Qualität.
Kein Feedback von Lehrenden nur von Mitlernenden.
Leistungsbewertung erfolgt maschinell.
“A computer cannot provide the professional feedback of a person.”

Wer kann sich anmelden?


MOOCs sind für jede und jeden offen – es gibt keine formalen Zugangsvoraussetzungen. Um den von
Ihnen gewählten Kurs absolvieren zu können, sollten Sie jedoch Zugang zum Internet haben und
zumindest so viel Englisch können, dass es Ihnen möglich ist, den Kursinhalten zu folgen und die
Seminaraufgaben zu bewältigen.

Pädagogisches Konzept der MOOC-Kurse der LMU:


Die Kursteilnehmerinnen und –Teilnehmer innerhalb eines bestimmten zeitlichen Rahmens in ihrem
eigenen Tempo lernen, die Möglichkeit zu aktiver Teilnahme haben, Feedback zu ihren Leistungen
bekommen und ihren Erkenntnisfortschritt regelmäßig überprüfen können – um so selbst zu sehen, wie
gut sie den Lernstoff beherrschen

193
10.7. Blended Learning 4.0 oder smart Blended Learning
Die Arbeitswelt verändert sich aufgrund der 4. Industriellen Revolution enorm, wie eine Studie mit den
Strategieverantwortlichen und Personalchefs von fast 400 großen Unternehmen aus aller Welt 2016
ergab (World Economic Forum 2016). Das Ergebnis war: 7 Millionen Jobs, vor allem klassische
Bürotätigkeiten, werden verschwinden. In der gleichen Zeit werden, so die Prognose, 2 Millionen neue
Jobs in den Bereichen der Computerwissenschaften, der Mathematik oder Informationstechnologie
entstehen; dies ist eine große Qualifizierungsherausforderung, da auch sehr heterogene Ansprüche zu
erfüllen sind.
Wegen der mittelfristigen gewaltigen Zahl von Umschulungen und der verstärkten
Hochschulausbildung bei IT-Berufen stoßen traditionelle Lehr- und Weiterbildungsmethoden an ihre
Grenzen. Das braucht neue Lern- und Ausbildungskonzepte, eine neue Art und Weise der
Wissensvermittlung. Es braucht „smarte“ Lehrprozesse.
Im weiten Feld der reinen Präsenzlehre bis zur reinen digitalen Lehre zeigt eine empirische Studie, dass
Blended Learning (BL) eine Klausurdurchschnittsnote um 0,4 besser als Präsenzlehre oder reine
virtuelle Lehre erbrachte (Popp u.a. 2014). Interessant ist auch ein Ergebnis an der TH Deggendorf in
Blended Learning Kursen aus dem WS 2017/18 bzgl. der Korrelation von Teilnahme an der
Präsenzphase und geringer Nichtbestehensquote in der Klausur. Im Studiengang BWL waren 73 % der
Klausur-Durchfaller nicht in Präsenzphasen anwesend. Im Studiengang Wirtschaftsinformatik waren
nur 20% der in Präsenzphasen Aktiven unter den Klausur-Nichtbestehern (Popp2018b). Dies
verdeutlicht, dass eine Präsenzphase wichtiger Bestandteil moderner Bildung und Weiterbildung bleiben
sollte. Daher muss für die Herausforderungen in der Aus- und Weiterbildung mit ihrer Heterogenität
der Blended Learning-Prozess mit KI-Techniken und mit Sensoren unterstützt werden, also es muss
smart Blended Learning aufgebaut werden.

10.7.1 Definition von smart


Die erweiterten Funktionen intelligenter, vernetzter Produkte (smarter Produkte) und die von ihnen
erzeugten Daten sind revolutionär (Porter 2014). Smarte Produkte bestehen aus einer physischen, einer
intelligenten und einer Vernetzungs-Komponente (Porter 2014). Die Vernetzung der Studierenden zum
Lernmanagementsystem, aber auch die Vernetzung der „wearable devices“ der Studierenden mit dem
LMS ordnen dieses Lernumfeld zur Kategorie IoT, denn beim IoT („Internet of Things“) handelt es
sich um eine Vernetzung von Gegenständen des Alltags oder von Maschinen per Internet. Geräte
bekommen im Netzwerk eine eindeutige Identität (Adresse) zugeteilt und sind in der Lage, über das
Internet mit Geräten und Benutzer zu kommunizieren.
Die physischen Komponenten sind hier die wearable devices, wie Smartphone oder Smartwatch, die mit
Vernetzungskomponenten einerseits den Menschen beachten und andererseits ihre Daten ins
Lernmanagementsystem schicken. Die KI-Komponente ist in jeder Lernphase im Einsatz und kann
Benutzermodellierung, Chatbot, Maschinelles Lernen usw. sein.
Von den 4 Funktionsgruppen der smarten Geräte (Überwachen, Steuern, Optimieren, Automatisieren)
werden hier die Sensoren für die Funktion Überwachung des Lernenden (Benachrichtigung und
Warnmeldung, wenn sich was ändert) eingesetzt, aber auch zur Steuerung der Funktionen des
Lernsystems und zur Personalisierung des Nutzungserlebnisses.

10.7.2 Smarter Blended Learning Prozess - Überblick


Smarte Lehre benutzt KI-Methoden in allen Phasen des Lernprozesses, der im hier zugrunde liegenden
Blended Learning aus den Prozessschritten von Abb. 10/3 besteht wie Personalisierungsmethoden,
Learning Analytics, Chatbot, „Communities of Practice“ (CoP) und Maschinelles Lernen in der
Prüfungsphase. (Popp et al. 2018a).

194
Abb. 10/3: 7-phasiger Blended Learning Prozess mit KI- und Sensoreneinsatz in jeder Phase für ein
selbstreguliertes Lernen. (Ciolacu 2018)

Der hier zugrunde gelegte smarte Blended-Learning-Prozess besteht aus den folgenden 7 Phasen (siehe
Abbildung 10/3) mit den KI-Techniken und wearable Devices je Phase:

I. Orientierungsphase: Einstiegstest über die Eingangskompetenzen und Konfiguration eines


angepassten Kurses mit nur noch denjenigen Lernbausteinen, bei denen die Kompetenzen des jeweiligen
Studierenden noch nicht genügten (Adaptivität) (Ciolacu u.a 2016). Künftig kann auch ein biometrischer
Fingerabdrucksensor zur Benutzer-Authentifizierung, -Erkennung und Sicherheit eingesetzt werden.
Gleichzeitig sollen in dieser Phase die Vorstellung und ein erstes Training mit der Sensorik stattfinden.
Es werden individuelle Parameter für KI-Lern-Sensorik etabliert. II. Digitale Vorbereitungsphase:
Personalisierung des Inhaltes gemäß folgenden zwei Lerntypen: interaktives Buch und interaktives
Video (passive Adaptivität) (Popp 2018a), Lernkontrolle und Selbstbeobachtung mit Adaptabilität der
Antworten. Erfolgt die Vorbereitung im Learning Lab können die Studierenden stationäre KI-Lern-
Sensorik im Learning Lab verwenden oder falls sie sich zuhause oder mobil vorbereiten, verwenden sie
mittels Wireless Body Area Network (BAN) vernetzte Sensoren (Negra o.J.). III. Interaktive
Präsenzphase: Hier dominieren Gruppenarbeit und Fallstudien-Besprechung. Dabei könnte ein
fahrbarer humanoider Roboter wie Pepper mit Chat und Gestik und Mimik die Fragen der Studierenden
individuell beantworten, z.B. bei Gruppenarbeit. Die Effizienz der Präsenzphase könnte durch
Sensoreneinsatz gesteigert werden. IV. Vernetzungphase: Communities of Practice (CoP) als
Wissensmanagement „von Studierenden für Studierende“ dokumentieren und ermöglichen effizientes
Lernen. Auch kann man sich in CoP vergleichen und erhält Feedback-Training durch direkte und
indirekte Beobachtung (Popp 2015). Mobile KI-Lern-Sensorik könnte hier Feedback-Informationen
liefern. V. Nachbereitungsphase: Chatbots als “intelligente“ Teletutoren beantworten einfache Fragen
mit Fachwissen aus dem Skript. Ihre semantische Intelligenz kommt z.B. von der Verwendung einer
Ontologie. Künftig werden „Wearable Devices“ für das Zeitmanagement und das Leistungsmonitoring
als mobiler Lernbegleiter eingesetzt. In dieser Phase kann auch eine Konzentrationsanalyse mittels
stationärer KI-Lern-Sensorik stattfinden. VI Reflexionsphase: Ein auf neuronalen Netzen basierendes
Frühwarnsystem kann in Form eines Cockpits in Moodle integriert sein und dient zur Selbstkontrolle
und Selbstbeobachtung (Ciolacu et al. 2018b). Wearable Devices können in Zukunft zur Modellierung
des Verhaltens der Studierenden angewendet werden, indem Gesundheitsfaktoren wie Bewegung und
gesunde Pausen überwacht werden (Ciolacu 2018). Es ist ein KI-Lern-Sensorisches Pendant zur
digitalen Vorbereitungsphase zu schaffen. Natürlich kann Biometrie zur Authentifizierung eingesetzt
werden. VII Evaluationsphase: Ein Teil der Klausuren sind automatisch ausgewertete Kompetenztests.
Geforscht wurde am Einsatz der latenten semantischen Analyse (LSA), Word2Vec sowie Watson
Discovery für die Bewertung textueller Klausurfragen. E-Assessment kann in Zukunft die
Studentenidentifikation mit biometrischem Fingerabdrucksensor zum Schutz der individuellen Identität
nutzen.
In der Nachbereitungs- und Reflexionsphase machen die Studenten zyklisch meist mit der digitalen
Vorbereitungsphase weiter.

Die eingesetzten Sensoren helfen das Quality of Experience (QoE), also den Grad der Energie oder des
Ärgers des Lerners zu messen. QoE resultiert aus der Erfüllung der Erwartungen des Nutzers unter
Berücksichtigung der Nützlichkeit (Utility) und/oder der Freude an der Nutzung der Anwendung oder
Dienstleistung angesichts des Charakters und des aktuellen Befindens des Nutzers (Callet, u.a. 2013).
195
Dies geht über die übliche Definition von Usability und User Experience hinaus und bezieht den
individuellen Charakter des Nutzers und die Nutzungssituation mit ein. Damit wird die Messung von
Qualität zu einer umfänglichen Fragestellung, bei der das Erlebnis des Lernens und die Erfüllung
individueller Erwartungen in den Vordergrund gestellt werden. Dies ist in der universitären
Erstausbildung, aber auch insbesondere in der Weiterbildung ein entscheidender Faktor zur effizienten
Aneignung neuer Kompetenzen.

Mögliche Steuerfaktoren für individualisiertes Lernen sind Lerngeschwindigkeit,


Abwechslungsreichtum in den Lernmodalitäten, Wahl aktiver und passiver Phasen des Lernenden und
„incentivbasiertes“ (anreizbezogenes) Feedback zum Fortschritt, einerseits für das Individuum,
andererseits im Vergleich zur Lerngruppe.

Ein wichtiger Faktor der QoE liegt in der Messung der Nutzerzufriedenheit. Hier werden immer mehr
non invasive Sensoren eingesetzt. In der Lehre wären dies neben den direkten Handlungen (Mausclicks),
die Körperbewegungen, insbesondere die Augenbewegungen, und psychophysikalische Messungen
(Elektroenzephalografie (EEG), Electrokardiogram (EKG), Elektrodermale Aktivität („Elec“),
Blutzuckerspiegel, Puls („Heart Rate“), Schritte …). In Kap. 4 konzentriert sich dieser Artikel auf
Sensoren von wearable Devices wie Smartphone oder Smartwatch.

10.7.3 Ergebnisse des KI-Einsatzes im BL-Prozess


In diesem Kapitel werden nur Ergebnisse entlang des BL-Prozesses von Abb. 1 beschrieben, die über
die Ausführungen vom Forum der Lehre 2018 hinaus gehen (Popp2018a).
Anpassung der Kursbausteine an Vorkenntnisse (Adaptivität) in der Orientierungsphase
Die Anpassung geschieht am Anfang durch einen Einstiegstest mit Kurskonfigurator. Beim Einstiegstest
mit Kurskonfigurator ist jedes Kurskapitel mit zwei bis drei Fragen im Einstiegstest vertreten, den das
Programm automatisch auswertet und eine prozentuale Einschätzung des vorhandenen Wissens in dem
jeweiligen Kapitel entwickelt. Daraus generiert es eine Empfehlung, welche Kapitel für den einzelnen
Studierenden aufgrund des vorhandenen Basiswissens überflüssig sind bzw. welche Kapitel aufgrund
von Wissenslücken studiert werden sollten. Aus diesen Ergebnissen konfiguriert das Programm
dynamisch eine individuelle Kursoberfläche. Realisiert wurde der Einstiegstest in Moodle mit Java
Skript-Teilen und die Kurskonfiguration mit einem speziellen Template (Ciolacu 2016).
Adaptivität in der digitalen Vorbereitungsphase
Eine andere Form der Adaptivität ist, wenn bei interaktiven Kontrollfragen das Programm einen
Fehler feststellt und auf eine Zusatzlehreinheit verlinkt um Kenntnisse erwerben zu lassen, damit
dieser Fehler nicht mehr gemacht wird.
Verschiedene Lerntypen bedienen (Personalisierung) in der digitalen Vorbereitungsphase
Der Stoff ist für verschiedene Lerntypen aufbereitet, da nicht jeder/jede Lernende mit den gleichen
virtuellen Materialien gleich gut umgehen kann. Auf der Grundlage der im Jahre 2006 durchgeführten
Experimente mit den Lerntypen empfehlen sich für einen mehr textuell Lernenden das interaktive Buch
und für mehr mediengetrieben Lernende das interaktive Video. Sie decken jeweils den ganzen Stoff ab.
Die Steuerung beim interaktiven Buch ist der mit Hypertext verlinkte Text, der mit Videos und
interaktiven Kontrollfragen durchsetzt ist. Beim interaktiven Video gibt es immer eine Wiederholung
des Tripels „kurzes Video, Test des Gesehenen und Video zum Test“. Bei den eingesetzten Videos, die
eine Länge von nur 5-15 Minuten haben, ist links der Dozent zu sehen und rechts werden die Folien
faktenweise weitergeblättert (Popp 2014). Die Verteilung der Nutzungshäufigkeit ist etwa gleich, wenn
auch in den ersten Kapiteln eines Kurses die Benutzung des interaktiven Buchs überwiegt.
Communities of Practice der mobilen Lerner
Auch der Kontakt unter den Teilnehmern spielt eine große Rolle. Die Lerner sind (mobil) vernetzt und
bilden Communities of Practice (CoP), also virtuelle Lerngruppen. In ihnen geben kundige Studierende
ihr Wissen weiter. Ein gelungenes Beispiel dazu ist das Wissensmanagement „von Studierenden für
Studierende“ der TH Deggendorf, bei dem die Studierenden Tipps & Tricks zu Prüfungen (wie soll
man sich gut auf die jeweilige Prüfung vorbereiten) und digitale Materialien wie Mitschriften zu
Vorlesungen oder Klausurlösungen weitergegeben haben (Popp 2015). Ihre Wissensbasis ist zurzeit mit

196
2600 Wissenseinheiten gefüllt und wird im LMS Moodle verwaltet und über dieses den Studierenden
zugänglich gemacht.
Lokalisierung von Lerner mit Problemen durch Learning Analytics-Methoden in der
Reflektionsphase
Zu den Ausführungen in (Popp2018a, S.74) gab es folgende neue empirische Ergebnisse des
Frühwarnsystems:
Bei der ersten Anwendung der Simulation dieses Frühwarnsystems (gelerntes NN für die Klassifikation
- Klausur bestehen oder Nichtbestehen - hatte Prognosegenauigkeit von 76% im WS 17/18 im
Studiengang BWL) konnte die Durchfallquote in Mathematik auf 11% nahezu halbiert werden, während
sie mit der gleichen Klausur in anderen Studiengängen unverändert bei 35 % lag. Im SS 18 und SS 19
wurde dieses Frühwarnsystem Mitte Juni im Studiengang BWL im Fach Informations- und
Wissensmanagement eingesetzt, denn die Prognosegenauigkeit war in diesem Fach 85% und im
Studiengang WI im Fach Informationsmanagement mit einer Prognosegenauigkeit von 95% . Dadurch
konnte die Zahl der Studierenden, die nicht zur Prüfung angetreten sind, im Vergleich zu den Vorjahren
halbiert werden und die Durchfallquote sank in BWL auf durchschnittlich 3,5% und in WI auf 13%,
was jeweils eine Halbierung zu den vorigen Jahren bedeutete, siehe Abb. 10/5. Die in der Lernphase,
Testphase und Anwendungsphase involvierten Studierendenzahlen sowie die lokalisierten Gefährdeten
zeigt Abb. 10/4.

Phasen BWL Mathe BWL IWM WI IM


Lernphase 115 110 60
Testphase 111 97 53
Anwendungsphasen 91 82; 113 56
Gefundene Gefährdete 20 38; 51 20

Abb. 10/4: Anzahl der Studierenden (Datensätze) nach Semester und Studiengang

Situationsbeschreibung
SS 2016 SS 2017 ST 2018 SS 2019
110 97 82 113
BWL
#Training # Test #Go Live #Go Live
drop-out
durchschnittlich 7.% Durchschnittlich 3.5%
BWL
60 53 56
WI
#Training # Test #Go Live
drop-out WI Durchschnittlich 26% 13%

Abb. 10/5: Halbierung der Durchfallquote durch Frühwarnsystem bei mehreren Einsätzen

Im WS 19/20 lokalisierte das Frühwarnsystem in Deggendorf in Mathe BWL 50 von 117 Studierenden,
in Mathe WI 29 von 68 und in Mathe Künstliche Intelligenz/Cyber Security 23 von 62 sowie an der
OTH Amberg-Weiden in Mathe BWL 44 von 159. Den lokalisierten Gefährdeten wurde die übliche
Warn-E-Mail geschickt. Da der Prüfungsprozess vom WS 19/20 noch nicht abgeschlossen ist, liegen
hierzu noch keine Ergebnisse vor.

Fragenbeantwortung durch intelligente Teletutoren (Chatbots) in der Nachbereitungsphase


Die TH Deggendorf verwendet zum Programmieren von Chatbots ALICE mit der Sprache AIML und
dem Bot-Programm O, das mittels Pattern Matching AIML „versteht“. Program O ist ein AIML
Interpreter, der in PHP programmiert ist und zur Speicherung der Wissensbasis (vorüberlegte Frage in
verschiedenen Varianten, auch mit wild characters, mit der möglichen Antwort darauf) eine MySQL-
Datenbank verwendet. Auszüge von dem durch eine Ontologie „intelligenter“ gemachten Chatbot
finden sich in (Popp 2018a). Der Chatbot hat nun auch eine Sprachausgabe, aber noch keine
Spracheingabe. Er wurde auch für die Beantwortung von Fragen in weiteren Kursen ausgeweitet, siehe
Kap. 3.2.4.

197
Entlastung bei Korrekturarbeit durch automatisch ausgewertete Kompetenztests in der
Evaluationsphase
Seit 4 Jahren werden an der TH Deggendorf nicht curriculare Mathematikklausuren in Form von
Multiple Choice-Fragen, Auswahlboxen und kleinen Zahleneingaben am Rechner absolviert und
automatisch von Moodle ausgewertet.
Interessant sind aber automatische semantische Auswertungen von Kurzantworten. Der einfache
Vergleich der relevanten Textstelle im Vorlesungsskript mit den Test-Antworten durch die Kosinus-
Ähnlichkeit führte mit einem mittleren relativen RMSE von 0,493 zu den schlechtesten
Evaluierungsergebnissen aller getesteten Ansätze. Als Verbesserung hat sich die
Ähnlichkeitsbestimmung zwischen der Test-Antwort und historischen Trainingsantworten
herausgestellt, bei der der Punktewert, der am ähnlichsten Trainingsantwort als Bewertung der Test-
Antwort übernommen wird. Die Ansätze, die die Latente Semantische Analyse verwendeten, erhielten
ebenfalls nur unzureichende Prognoseleistungen. Ansätze, die besonders häufig Übereinstimmungen
zwischen den tatsächlichen und prognostizierten Bewertungen aufweisen, sind der Ontologie-basierte
Ansatz (A03O) und der Ansatz auf Basis des IBM Watson Discovery Service (A06W). In den anderen
Metriken lagen diese beiden Ansätze jedoch im Mittelfeld im Vergleich aller Ansätze. Als beste
Methode zur automatischen semantischen Bewertung von Kurzantworten stellten sich Support-Vektor-
Maschinen (SVM) heraus. SVM (A08SVM in Abb. 10/7) führten zu einem mittleren relativen RMSE
von 0,205 über alle 30 Fragen. Minimal betrug diese Metrik bei einer Frage 0,137 und maximal 0,315.
Bei diesem Ansatz ließ sich zudem die höchste mittlere Korrelation zwischen den tatsächlichen und
prognostizierten Werten mit 0,616 feststellen. SVM erhielten wie Neuronale Netze (A10NN) die besten
Ergebnisse für die maximale Differenz zwischen den Prognosen und Zielwerten, siehe Abb. 10/6 und
Abb. 10/7. (Binder 2019).
Zum Testen wurden von 127 Prüflingen 2788 Kurzantworten zu 83 Prüfungsfragen zum Kurs
„Informations- und Wissensmanagement“ im Ba. BWL gesammelt. Für jede Antwort wurden vom
Prüfer im 0,5-er Schritt Punkt vergeben von 2 bei kleinen Fragen bis 7 Punkte bei umfangreicheren
Fragen. Mit einer Genauigkeit von nahezu 50% genauer Übereinstimmung mit der vom Prüfer
vergebenen Punktezahl ist zwar ein beachtliches Ergebnis erreicht, aber es reicht noch nicht für den
praktischen Einsatz,

Situationsbeschreibung
Term
Studierende Prüfungsfragen Kurzantworten
SS 2017 83 26 1657

WS 17/18 19 29 513

WS 18/19 25 28 618

Total 127 83 2788

Abb. 10/6: Statistik der Dokumente für semantische Kursantworten


Abb. 10/7: Ergebnisse von 4 Methoden der semantischen Bewertung von Kurzantworten (Binder 2019)
Auszug aus Genauigkeitsmaße mit Kennzahlen
verwendete
Verfahren RMSE Genauigkei
A03O 0.28 0.46

A06W 0.37 0.46

A08SVM 0.20 0.33

A10NN 0.23 0.22

198
10.8 Lernmanagementsysteme
Der Einflußbereich eines Lernmanagementsystems konzentriert sich auf die drei Objektgruppen:
Lehrinhalte, Veranstaltungen und Personen:
• Lehrinhalte sind die eigentlichen Lernobjekte in modularer Form. Sie werden durch Metadaten
beschrieben und vorzugsweise durch ein Content-Management-System verwaltet. Wenn
Lehrinhalte nach bestimmten Standards produziert sind, dann sind sie unabhängig und somit in
verschiedene Lernmanagementsysteme (LMS) importierbar. Voraussetzung ist, dass das LMS den
verwendeten Standard unterstützt. An dieser Stelle von Standards zu sprechen ist allerdings
Zukunftsmusik. Es gibt momentan noch keinen echten Standard für Lerninhalte, sondern nur
Spezifikationen als Vorstufe einer Standardisierung.
• Veranstaltungen beinhalten Informationen über einen Kurs wie Lehrinhalte, Lehrziele, Kursleiter,
verwendete Lernressourcen, Ablaufpläne oder Kursorganisation.
• Personen werden in einer Teilnehmer-Datenbank verwaltet. Sie können verschiedene Rollen
annehmen wie Lerner, Autoren, Lektoren, Tutoren, Kursleiter, Verwalter, Administratoren etc.
Fünf hauptsächliche Funktionsbereiche sind von einem LMS abzudecken:
• Präsentation von Inhalten (Text, Grafik, Bild, Ton, Film...)
• Kommunikationswerkzeuge (asynchrone wie z. B. e-Mail, Newsgroups, Webforen und
synchrone wie z. B. Chat, Videoconferencing und Applicationsharing)
• Werkzeuge zur Erstellung von Aufgaben und Übungen
• Evaluations- und Bewertungshilfen
• Administration (von Lernern, Inhalten, Kursen, Lernfortschritten, Terminen)

Die Lernplattform ist nach dem Global Learning Glossar:


„Ein Softwaretool, auf welches im Intranet/Internet zugegriffen werden kann, und das über eine
entsprechende Oberfläche bestimmte Funktionalitäten, wie den Aufruf und die Administration von
Lernern, Lerninhalten, Übungsaufgaben, Kommunikationstools usw. von einer zentralen Stelle aus
ermöglicht. Sie ist die zentrale Schnittstelle einer Lernumgebung zwischen Trainingsanbietern und
Trainingskunden."
Learning Management Systeme (LMS) und Lernplattformen sind demnach Synonyme für ein- und
dieselbe Sache.

10.8.1 Standards
Weil das Erstellen von WBT’s sehr aufwendig und mit hohen Kosten verbunden ist, sollten für ein
bestimmtes LMS erstellte oder zugekaufte Lerninhalte auf mehreren verschiedenen LMS, bzw. nach
einem Umstieg auf einem anderen LMS, ohne Funktionseinschränkungen weiterverwendet werden
können.
Dies wird erst möglich, wenn internationale e-Learning Standards eingehalten werden und damit unter
anderem die Interoperabilität der Lerninhalte gegeben ist.
In den letzten Jahren haben sich in den USA und in Europa mehrere Standardisierungskonsortien
gebildet, die offene Technologie-Standards für Learning Management Systeme und WBT’s definieren.

Die zwei wichtigsten Standardisierungsinitiativen sind:

AICC (Aviation Industry CBT Committee):


Das AICC wurde 1988 als internationale Vereinigung von CBT-Herstellern und Softwarespezialisten der
Luftfahrtindustrie gegründet, die gemeinsam an der Standardisierung von Lernobjekten arbeiten. Es ist der
Vorreiter auf dem Gebiet der Richtlinienentwicklung für Entwicklung, Nutzung und Auswertung von CBT’s
(Computer-based Training). Mit wachsender Popularität des Internets wurden die Empfehlungen auf WBT’s
(Web-based Training) ausgeweitet. Ein Novum, das als bislang einzige Organisation nur AICC bietet, ist eine
Zertifizierung für Lernplattformen, Authoring- und Testing-Tools.
AICC ist momentan eine weit verbreitete Spezifikation, die sehr umfangreich und mächtig ist. Sie
scheint sich zu einem technischen Standard für e-Learning zu etablieren. Durch sein Dateiensystem ist
AICC aber nicht einfach zu implementieren und es gibt keine standardisierten Elemente für Metadaten.

199
SCORM (Shareable Courseware Reference Model):

SCORM ist eine von ADL entwickelte Empfehlung zur Standardisierung von Lernobjekten. Zielsetzung
ist, ein Referenzmodell für webbasierte LMS zur Verfügung zu stellen, die system- und
plattformunabhängig Lerneinheiten verwenden, verarbeiten und austauschen können. Durch die
Trennung von Inhalt und Form und Speicherung der Metadaten nach dem LOM Standard lassen sich
Daten und Objekte einfach referenzieren, analysieren und indizieren.
Die SCORM Spezifikation geht hier ebenfalls den Weg über XML und bietet nicht nur ein einheitliches
Dateiformat für alle benötigten Informationen, sondern z.B. auch alle Kursinformationen in einer
einzigen XML-Datei. Unter Verwendung des SCORM entwickelte Produkte sind im hohen Maße
plattformunabhängig, wiederverwendbar und können auf allen SCORM-fähigen LMS gestartet werden.

Bei der Anschaffung eines LMS bzw. beim Kauf von WBT’s empfiehlt es sich darauf zu achten, daß
diese möglichst viele der obigen Standardisierungsinitiativen unterstützen.

10.8.2 LMS Moodle


Moodle ist ein Shareware LMS zum Download unter www.moodle.de mit weitem Einsatz an
Hochschulen. Moodle unterstützt online Lernprozesse. Die flexible Lern-um-gebung gibt keine
Lerninhalte vor. Sie bietet Kursräume, die von den Trainern, Dozenten und Lehrern mit ihren eigenen
Lerninhalten frei gefüllt werden.
Vielfältige Lernaktivitäten ermöglichen eine abwechslungsreiche und an den Lernzielen orientierte
Gestaltung des Lernens. Moodle fokussiert auf die Lernergruppe und den Lernprozess. Deshalb ist es
flexibel und ohne Programmierkenntnisse von jedem Trainer gestaltbar.
Moodle basiert auf einem konstruktivistischen Lernkonzept. Die aktive Auseinandersetzung mit dem
Lernstoff durch Kommunikation und in Gruppenarbeit sind in moodle besonders einfach.
Tests und Prüfungen mit moodle: Moodle bietet vier verschiedene Test- und Prüfungsszenarien an.
Besonders bemerkenswert ist die Konzeption von peer assessments im Workshop.
Tests bieten unterschiedliche Frageformen (Multiple-Choice, Worteingaben, Zuordnungen, Lückentext,
Auswahlalternativen).
Aufgaben fordern zur Abgabe einer ausführlichen Lösung (z.B. Text) auf.
Übungen fordern zusätzlich zu einer Selbsteinschätzung der eigenen Lösung nach vom Trainer
vorgegebenen Kriterien auf.
Workshops bieten zusätzlich die Möglichkeit des Feedbacks anderer Teilnehmer (Peers) auf die Lösung
eingereichter Arbeiten.
Tests können automatisch im Rahmen von Prüfungen ausgewertet oder zur Selbstüberprüfung durch die
Teilnehmer/innen ausgewertet werden.

Moodle wird seit 1999 von Martin Dougiamas aus Australien (www.moodle.org) entwickelt. Weltweit
sind mehrere tausend Einsätze dokumentiert. Moodle hat sich bewährt bei der Durchführung einzelner
Lehrveranstaltungen, aber auch im Einsatz in Unternehmen und Hochschulen mit zeitgleich mehr als
hundert Kursen und mehreren tausend Teilnehmern.

Das offene Softwarekonzept erlaubt die Anpassung der Software und die Ergänzung um eigene
Lernmodule.
Moodle ist keine „eierlegende Wollmilchsau“. Die Schwerpunkte liegen in der Unterstützung der
gemeinsamen Erarbeitung von Lerninhalten in einer Lernergruppe. Das isolierte Lernen Einzelner ist
mit moodle möglich, aber nicht Ziel der Lernumgebung.
Funktionen wie Audio- oder Videoconferencing (Erweiterung des Chats um Ton- und Bildübertragung),
application sharing (gemeinsame Nutzung eines Anwendungsprogramms) oder Whiteboard-Funktionen
(simultane Darstellung von Inhalten auf einem Bildschirm, der für alle Teilnehmer sichtbar ist) sind
derzeit nicht integriert. Es ist jedoch ohne weiteres möglich in moodle gestaltete Kurse punktuell um
Lernelemente mit externen Tools zu ergänzen.

Kooperation

200
Zur Kooperation können nahezu alle Lernaktivitäten von den Teilnehmerinnen verwendet werden.
Gruppenarbeit erlaubt das abgeschottete Bearbeiten von Aufgabenstellungen und Projekten.

Wikis stellen eine Möglichkeit zur gemeinsamen Bearbeitung von Texten bereit. Dabei werden
vorhandene Texte direkt in einem Fenster bearbeitet und gespeichert. Ein komplizierter Dateiupload
entfällt. Wikis stehen für Trainerinnen, die gesamte Kursgruppe, Teilgruppen und Einzelpersonen zur
Verfügung.

Selbst Wörterbücher können als gemeinsame Lernaufgabe genutzt werden. Dazu erhalten die
Teilnehmerinnen die Aufgabe, gemeinsam zum Lerngegenstand ein Wörterbuch zu erstellen.
Kommentare und Bearbeitungsmöglichkeiten aktivieren die Teilnehmer.

Weitere Module ergänzen den lebendigen Lernprozess durch Journale (Lerntagebücher zur
Dokumentation der persönlichen Auseinandersetzung mit dem Lerninhalt), Kalender, eine
Terminvereinbarung für Sprechstunden oder die Evaluation der Lerneinstellungen und
Lernfahrungen mit Hilfe von COLLES und ATTLS Fragebögen (standardisierte Fragebögen).

Für die Darstellung mathematischer Formeln kann ein Filter genutzt werden, der TeX-Code in
Grafikdateien umwandelt und sichtbar macht.

Übersicht Funktionen von Moodle


Editor
Arbeitsunterlagen erstellen, Vorhandenes weiterverwenden
Teilnehmer – Zugang zum LMS, zu den Kursen, Profil, Datenschutz
Blöcke – Aktivitäten, Bald aktuell, Blogs, Forensuche, Glossar, Kalender, Mitteilungen, Personen,
Testergebnisse
Organisation – Kalender, Arbeitsunterlagen und Lernaktivitäten ordnen, Kurse sichern und
wiederherstellen, Kursdaten importieren
Gruppen
Bewertungen
Glossar – die Wissensdatenbank
Forum
Mitteilungen
Chat
Abstimmung
Umfrage
Aufgabe
Lektion – Unterricht nach Programm (Fragen, PP importieren), Fragenseite, Verzweigungsseite,
Cluster, Statistik, Lektion testen
Test – Fragentypen: Multiple-Choice, Wahr/Falsch, Kurzantwort, Numerisch, Berechnung, Zuordnung,
Beschreibung, Lückentext, Text
Wiki entwickeln
Workshop definieren
SCORM/AICC, LAMS
Datenbank als Sammelstelle

10.8.3 neuere Entwicklungen


Nachteile herkömmlicher LMS sind
▪ Strukturierungsmöglichkeiten oft nicht optimal
▪ Plattform verwirrt durch viele Optionen und Möglichkeiten – im Vergleich zu Social Media
▪ Probleme zentraler IT-Systeme wirken sich auf die Lernplattform aus
▪ Design wirkt altmodisch (2000-er look)
▪ Studierende (und manche Lehrende) finden es langweilig
Andere virtuelle (Lern)räume

201
▪ Facebook-Gruppen für die Lehrveranstaltung bzw. manche Lehrende sind mit den Studierenden
in fb befreundet
▪ Google+ Community mit Links zu Online-Dokumenten
▪ Twitter, Wordpress
Nachteile
▪ Keine Datensicherheit
▪ Nicht alle Studierende und eher wenige Lehrende lieben Social Media
Meine Wünsche an einen virtuellen Lernraum
▪ Intuitiv zu nützen (angelehnt an Social Media)
▪ Bunter, moderner „Look“
▪ Gewisse Freiheit in der Strukturierung
▪ Gewisse Freiheit in der Formatierung
▪ Offene Umgebung: alle sehen (fast) alles
▪ Leichte Abbildung von Gruppenlernprozessen
▪ Unterstützung von Austausch und Vernetzung (etwa like)
▪ Geschützter Bereich: Lernprozesse brauchen gegenseitiges Vertrauen und Sicherheit
▪ Offener Bereich: Präsentation der Ergebnisse im Portfolio
Novoed – Lernplattform der Zukunft?
According to the website: “Novoed is the only online learning platform that provides a connected,
effective and engaging learning environment for students using a combination of techniques in crowd
sourcing, design and analysis of reputation systems, and algorithm design”.

LMS ist mittels Open Application Schnittstellen für die Einbindung von Widgets geöffnet.

10.9 Literatur und Kontrollfragen


1. Ciolacu, Monica; Beer, R. (2016): Adaptive User Interface for Higher Education
Based on Web Technology. Research and Innovation in Industry 4.0. In: Proceedings
of IEEE 22nd International Symposium for Design and Technology in Electronic
Packaging (SIITME) 2016 (Oradea, Romania, October 20-23 2016), S. 300–303.
2. Ciolacu Monica, Ioniță, Leon Binder, Ali F. Tehrani, Heribert Popp, “Enabling IoT in Education 4.0 with
Biosensors from Wearables and Artificial Intelligence”, 2019 IEEE 25th International Symposium for
Design and Technology in Electronic Packaging (SIITME), Cluj-Napoca, Romania, 2019, pp. 17-24.
3. Goertz, Lutz: Wann was für wenn? In Wirtschaft + Weiterbildung 05_2013, S. 10-
13
4. Hennevogl, W., Popp, H. und Renninger, W. (1999): Neue Lehrformen in der SAP-
Ausbildung. In Kopp, H. und Michl, W. (Hrsg.): Multimedia in der Lehre, Neuwied,
Leuchterburg, 1999, S. 62-69.
5. Lindner, C. (2002). Avatare – Digitale Sprecher für Business und Marketing. Berlin:
Springer.
6. Mijic Mario, Martina Reitmaier, Heribert Popp (2009): Kooperatives Lernen in 3-D-
Welten in Kopplung mit einem LMS, In Nicolas Apostolopoulos, Harriet Hoffmann,
Veronika Mansmann, Andreas Schwill (Hrsg.): E-Learning 2009 - Lernen im
digitalen Zeitalter Waxman-Verlag, Münster 2009, S. 291-301
7. Popp, H. (1999): Erfahrungen beim Einsatz von Internet, Fernsehen und CBT in der
Betriebswirtschaft. In Kopp, H. und Michl, W. (Hrsg.): Multimedia in der Lehre,
Neuwied, Leuchterburg, 1999, S. 168-178.
8. Popp, Heribert (2000): "Grundlagen der Wirtschftsinformatik" an Fachhochschulen
als Fernsehserie mit tutorieller Betreuung aus dem Internet, ZfB 3/2000, S.143-
154
9. Popp, Heribert, Zehetmair Michael (2002): E-Learning - Konzept und Erfahrung mit
dem IT-Kompaktkurs als virtueller Studiengang und zur Weiterbildung. In: Bernd
Britzelmaier, Stephan Geberl, Siegfried Weinmann (Hrsg.): Der Mensch im Netz -
Ubiquitous Computing, Teubner, S. 71-82
10. Popp, H., Bugl, B. (2003). Konzept und Erfahrungen mit dem IT-Kompaktkurs. In
Lehmann, B., Vogt, H. (Hrsg.). Weiterbildungsmanagement und Hochschul-

202
entwicklung – Die Zukunft gestalten! (S. 92-99). Hamburg: AUE e. V. Hochschule
und Weiterbildung.
11. Popp, H. und Zehetmair M.(2004): Ubiquitous E-Learning im IT-Kompaktkurs. In
Fischer, C., Bargel, H. (Hrsg.). Didaktik des E-Learning – Pädagogische und
produktionstechnische Patterns im E-Learning. DGWF Band 42:Hamburg, 2004,
S.95-106
12. Popp, H., Herde, G.(2005): Adressatenorientierte Adaptivität und Wirtschaft-
lichkeit im IT-Kompaktkurs. In Breitner, M., Hoppe, G. (Hrsg.): E-Learning -
Einsatzkonzepte und Geschäftsmodelle. Physica-Verlag, 2005, S. 431-441
13. Popp, Heribert (2006):. E-Learning-System bedient die verschiedenen Lernertypen
eines betriebswirtschaftlichen Fachbereichs: Didaktik, Realisierungstechnik und
Evaluation. In Seiler-Schiedt Eva, Kälin Siglinde, Sengstag Christian (Hrsg.): E-
Learning – alltagstaugliche Innovation ? Waxman-Verlag, 2006, S. 141-151
14. Popp Heribert, Huber Eckhard (2006). Steigerung des Humankapitals in KMUs durch
virtuelle Weiterbildung, bei der sich E-Learning-Systeme an die Benutzer anpassen.
In Krieger, David; Bellinger, Andrea (Hrsg.): Wissensmanagement für KMU, Zürich,
2006, S. 219-236
15. Popp Heribert, Renninger Wolfgang (2008): Zur Entwicklung von E-Learning an
bayerischen Fachhochschulen – Auf dem Weg zum nachhaltigen Einsatz. HAW
Diskussionspapier No. 9 Juli 2008, Amberg-Weiden.
16. Popp, Heribert; Reitmaier, Martina (2014): Mathematik an der Hochschule: Die
Potenziale virtuellen Lernens und die Bedeutung von Learning Analytics. DNH 4
_2014, S. 130-133
17. Popp, Heribert; Rick Beer (2014): Evaluation virtueller Mathematik-Kurse –
Lernszenarienvergleich und Learning Analytics. In Jutta Pauschenwein (Hrsg.):
Evaluierung offener Lernszenarien, Tagungsband zum 13. E-learning Tag 2014,
Graz; S.98-108
18. Popp, Heribert; Ciolacu, Monica (2015): Technische Hochschule Deggendorf –
Projekt: V-, W- und A-MINT-Coach. In: Bayerisches Staatsministerium für Bildung
und Kultus, Wissenschaft und Kunst (Hg.): Erfolgreicher MINT-Abschluss an
bayerischen Hochschulen. Bilanz der Hochschulprojekte, S. 72–81. Online verfügbar
https://www.km.bayern.de/download/13359_stmbw_abschlussbericht_best_mint.pdf.
19. World Economic Forum (2016): The Future of Jobs - Employment, Skills and
Workforce. Global Challenge Insight Report 1.2016.

Kontrollfragen
1. Nennen sie sechs Ausprägungen von E-Learning Ressourcen!
2. Erläutern sie, wie eine Hochschule E-Learning strategisch einsetzen kann!
3. Entwickeln sie für ihren Praktikumsbetrieb ein Konzept der virtuellen Weiterbildung!
4. a.) Was sind MOOCs?
b.) Kann ein KMU MOOCs für die Weiterbildung nutzen?
c.) Wie könnte ein KMU MOOCs nutzen?
d.) THD hat MOOCs zu einem strategischen Projekt ernannt. Was könnte die TH Deggendorf
mit MOOCs machen?
5. Erklären sie wie sie Learning Analytics betreiben würden!
6. Nennen sie 6 typische Funktionen von einem LMS.
7. Große Firmen wie IBM und Microsoft wickeln mehr als 50 % ihrer Weiterbildung zur
Steigerung des Humankapitals durch virtuelle Weiterbildung ab.
a.) Nennen sie 6 mögliche Bestandteile solcher virtuellen Kurse.
b.) Beschreiben sie 2 innovative Konzepte in virt. Kursen!
c.) Was könnte hier Blended-Learning-interaktiv sein.
8. Beschreiben sie Lehre 4.0

203
11. Anwendung „Lernende Organisation“
Prof. Dr. Falk Pössnecker, Hochschule Deggendorf

11.1 Verhalten
Warum soll man sich denn mit Wandel überhaupt beschäftigen? Wandel ist ein permanentes Phänomen.
Wandel in Unternehmen kommt in der Regel durch Umweltveränderungen von außen, durch die
unternehmerische Umwelt. Die Komplexität und die Dynamik in unserer technologisierten Welt sind
bekannt. All das führt zu Änderungen und zur Notwendigkeit von Wandel. Aber auch wenn
Unternehmen sich intern ändern müssen, sich zum Beispiel strategisch neu ausrichten,
Kostensenkungsprogramme durchführen müssen, Produktionsprozesse optimieren müssen, dann sind
das Auslöser für Wandel.

Der Wandel in Organisationen hat auch ganz stark etwas mit dem Wertewandel zu tun, der sich in den
sechziger Jahren abgezeichnet hat und vor allem Auswirkungen auf Führung und Zusammenarbeit in
Unternehmen hatte, aber auch auf das Selbstverständnis der Mitarbeiter. Durch die 68iger Generation
ist das Streben nach Partizipation und nach Sinnerfüllung in der Arbeit viel deutlicher geworden als es
vorher schon war.

Zunächst muss man sich fragen, wie Verhalten überhaupt zustande kommt. Abb. 11/1 zeigt das
berühmte Verhaltensquadrat von Rosenstil.

Abb. 11/1: Verhaltensquadrat von Rosenstil

Verhalten hat mehrere Einflüsse. Auf der rechten Seite in Abb. 11/1 sieht man die Einflüsse, die im
Individuum stehen, nämlich das individuelle Wollen, das Können. Auf der linken Seite sehen wir die
Variablen, die außerhalb des Individuums zu suchen sind – soziales Dürfen und Sollen, situative
Ermöglichung.

Je nach Situation, je nach persönlicher Motivation und nach Können, ergeben sich Verhaltensprodukte.
Wichtig für Organisationsentwicklung ist zu wissen, dass man, wenn man Organisationen ändern will,
diese vier Aspekte im Blickfeld haben muss.

Die Abb. 11/2 zeigt das berühmte Eisbergmodell. Hier geht es um die Frage „Wo sollen denn
Organisationen bewegt werden, wo setzt nachhaltiges organisationales Lernen an?“. Hier kann man
sehen, dass, wie im Eisberg, die wichtigsten Einflussfaktoren unter der Oberfläche liegen. Das
204
informelle System, das was man nicht sieht - Normen, Regeln, Glaubensätze, Werte, Einstellungen,
Denkhaltungen, Motivation, Unternehmensklima – hat einen sehr großen Einfluss auf Verhalten,
nämlich ungefähr 90 %. Und das, was man sehen kann, also die Strategien, die Strukturen einer
Organisation, auch beobachtbare Arbeitsprozesse, haben auf das Verhalten relativ wenig Einfluss.

Abb. 11/2: Eisbergmodell

Warum soll man sich denn mit Wandel überhaupt beschäftigen? Wandel ist ein permanentes Phänomen.
Wandel in Unternehmen kommt in der Regel durch Umweltveränderungen von außen, durch die
unternehmerische Umwelt. Die Komplexität und die Dynamik in unserer technologisierten Welt sind
bekannt. All das führt zu Änderungen und zur Notwendigkeit von Wandel. Aber auch wenn
Unternehmen sich intern ändern müssen, sich zum Beispiel strategisch neu ausrichten,
Kostensenkungsprogramme durchführen müssen, Produktionsprozesse optimieren müssen, dann sind
das Auslöser für Wandel.

Abb. 11/3: Bedürfnispyramide nach Maslow


205
Der Wandel in Organisationen hat auch ganz stark etwas mit dem Wertewandel zu tun, der sich in den
sechziger Jahren abgezeichnet hat und vor allem Auswirkungen auf Führung und Zusammenarbeit in
Unternehmen hatte, aber auch auf das Selbstverständnis der Mitarbeiter.

Ganz gut darstellen kann man das mit der weithin bekannten Bedürfnispyramide nach Maslow (siehe
Abb. 11/3). Die Selbstverwirklichungsbedürfnisse, die Ich-Bedürfnisse, also die Wachstumsbedürfnisse
im oberen Teil des Dreiecks, sind heute wichtiger als man sich vorstellen kann. Nach dem Krieg, als es
zu wenig zu Essen und zu Trinken gab, waren die Grundbedürfnisse nicht gestellt und die
Sicherheitsbedürfnisse während des Krieges auch nicht. Durch die 68iger haben die Bedürfnisse nach
Selbstverwirklichung und die Bedürfnisse nach Anerkennung und Geltung eine viel größere Rolle
eingenommen.

11.2 Definition organisationales Lernen


Was heißt „organisationales Lernen“? Wie lautet eine Definition? Es geht, wenn es nachhaltig sein muss,
immer um eine Veränderung der organisationalen Wert- und Wissensbasis. Werte werden verändert und
Wissen wird verändert. Die Kompetenzen sollen verändert werden, vor allem die
Problemlösungskompetenzen, und auch der Bezugsrahmen, also wie man miteinander umgeht, wie man
voneinander denkt, wie man über den Kunden denkt, wie man über Qualität denkt und wie man sein
Handeln danach ausrichtet. Das Lernen in Organisationen ist natürlich mehr als die Summe des
einzelnen Lernens, weil alle mitmachen sollen und weil das Lernen letzten Endes in der Organisation
verankert werden soll. Man kann organisationales Lernen als dreistufigen Prozess auffassen.

• Es lernen Individuen
• Es lernen Kollektive, d.h. Teams
• Das Gelernte muss organisatorisch verankert werden.
Die organisatorische Verankerung ist das Wichtigste, damit ein geändertes Verhalten oder geändertes
Wissen, in einer Organisation bestehen bleibt. Eine Verankerung heißt eine Institutionalisierung oder
eine Verankerung eines Prozesses, eines Vorganges, der sich dann auch wiederholen soll. Das heißt
organisatorische Verankerung.

Lernprinzipien

Die Lernprinzipien, die dabei eine Rolle spielen, sind ganz allgemeingültige - das klassische
Konditionieren, das operante Konditionieren.

Das klassische Konditionieren (Lernen von Reaktionen) ist bekannt vom Pawlow‘schen Hund. Da wird
ein Reiz mit einer Reaktion verbunden. Der Hund sieht Futter, gleichzeitig ertönt eine Glocke und so
fängt dann der Speichelfluss an. Später fängt der Speichelfluss auch an, wenn diese beiden Reize
konditioniert sind. Das heißt, der Hund hört nur noch die Glocke und glaubt, dass er etwas zu essen
bekommt.

„Lernen am Erfolg“ ist die berühmte operante Konditionierung. Sie wurde in den USA durch den
Behaviorismus und durch Skinner sehr stark untersucht und anerkannt. Man geht davon aus, dass wir
ganz stark am Erfolg und am Misserfolg lernen, also durch Belohnung und Bestrafung, vor allem eben
durch Belohnung. Wir können aber auch durch Einsicht lernen, das ist das was uns mit großer
Wahrscheinlichkeit vom Tier unterscheidet, dass wir denken können, dass wir hypothetisch denken
können, dass wir Probleme im Geist durchdenken, vorher lösen können, bevor wir es tatsächlich tun und
dass wir es dann ausprobieren. Das heißt „Lernen durch Einsicht“. Dadurch, dass wir etwas verstehen,
dass wir von anderen Erfahrungen aufnehmen und dass wir unser Denken umstrukturieren können,
bevor wir ein neues Verhalten zeigen.

Menschen sind aber letzten Endes soziale Wesen. Wir lernen am Modell, von Anfang an. Das Kind ahmt
seine Eltern nach, der Jugendliche ahmt andere Jugendliche oder Idole nach. Wir lernen ständig, vor
allem unbewusst. Die meisten Lernvorgänge sind uns mit großer Wahrscheinlichkeit nicht bewusst, aber
wir lernen eben doch.

206
Abb. 11/4: Organisationsklassen des Lernens

In Organisationen kann man das Lernen in drei Ebenen untergliedern, siehe Abb. 11/4. Das Individuum
sollte sein Leben lang lernen und mit großer Wahrscheinlichkeit ist es auch so, dass wir bewusst oder
unbewusst unser Leben lang lernen. In der Organisation, in einer Firma, lernen wir in Teams, in
Gruppen, in Abteilungen und das Ganze muss organisatorisch verankert werden. Das heißt, die
Organisation muss auch mitlernen. Lernen soll auf diesen drei Ebenen stattfinden.

Es gibt noch ein Modell – Anpassungslernen, Veränderungslernen und Prozesslernen - was insgesamt
organisatorisches Lernen erklären soll. Das Anpassungslernen wird auch Single Loop Learning genannt.
Das heißt, eine Handlung führt zu einem Ergebnis. Sind wir mit dem Ergebnis zum Beispiel nicht
zufrieden, dann korrigieren wir unsere Handlungen. Das ist einfaches Single Loop Lernen, weil es nur
einen Kreislauf des Lernens gibt. An den Zielen unserer Handlungen haben wir dabei noch nicht
angesetzt. Beim Veränderungslernen, beim Double Loop Learning, gibt es zwei Kreisläufe. Sind wir
mit dem Ergebnis nicht einverstanden, korrigieren wir unsere Handlung, aber wir denken zum Beispiel
auch über unsere Ziele nach, ob die Ziele noch die richtigen sind. Und dann gibt es die dritte Form des
Lernens, das Prozesslernen oder Deutero Learing, die nachhaltigste Form des Lernens. Da denken wir
nicht nur über unsere Ziele nach, wenn eine Handlung einen Erfolg hat, sondern wir denken über
grundlegende Annahmen und Werte nach, ob diese noch in Ordnung sind. Und erst wenn wir diese
korrigieren, dann ist Lernen wirklich nachhaltig, siehe Abb. 11/5.

Abb. 11/5: Prozesslernen

Lernen und Verlernen hängt ganz eng zusammen und Lernen wird sehr oft unterdrückt. In erster Linie
durch defensive und festgefahrene Verhaltensmuster, d.h. wir sind alle Gewohnheitstiere. Was wir schon
immer so gemacht haben, machen wir auch weiterhin so. Lernen wird auch durch Normen, Privilegien
und Tabus verhindert. Normen sind Verhaltenserwartungen an uns, Privilegien wollen wir nicht
207
aufgeben und Tabus wollen wir möglichst einhalten. All das verhindert aber, wenn es nicht reflektiert
wird, d.h. wenn wir nicht darüber nachdenken, Lernen. Das kann man sehr schön an diesem
dysfunktionalen Verhaltenskreislauf, siehe Abb 11/6, sehen.

Abb. 11/6: Dysfunktionalen Verhaltenskreislauf

Diese dysfunktionalen Verhaltenskreisläufe erhalten sich oft selbst aufrecht. Wenn ein Vorgesetzter
sagt: „Ich muss alles selbst machen, weil mein Mitarbeiter so unselbstständig ist.“, dann delegiert er
nicht. Der Mitarbeiter sagt dann: „Demnächst kündige ich, weil ich keine verantwortungsvollen
Tätigkeiten übernehmen kann.“ Er zieht sich zurück, weicht dem Vorgesetzten aus, dieser glaubt dann,
dass er alles selbst machen muss, delegiert weiterhin nicht und so kommt dieser Kreislauf in Schwung,
der auch sehr schwer zu brechen ist.

11.3 Voraussetzungen, damit Organisationen lernen


Was muss man tun, damit Organisationen lernen? Was sind die Voraussetzungen?

Die Veränderungsbereitschaft muss da sein, d.h. die Mitglieder müssen einsehen, dass sie etwas ändern
müssen und sie müssen motiviert und bereit sein, das zu tun. Sie müssen aber auch selbstkritisch mit
sich sein, sie müssen über das nachdenken, was sie bisher getan haben, ob das auch in der Zukunft noch
wichtig ist. Sie sollen sich möglichst selbst Lernziele setzen, um diese Lernziele dann selbst bewusst zu
verfolgen und sie sollen sich dessen bewusst sein, was sie tun. Das bedeutet, nachdenken über das, was
sie tun und reflektieren, also etwas kritisch überprüfen, was man getan hat oder was man zukünftig tun
möchte.

Anpassung an Wandel führt zum Erfolg. Das hat auch Charles Darwin gesagt. Nicht unbedingt der
Stärkste überlebt, sondern der, der sich am besten anpassen kann. Anpassung hat hier, in diesem Fall,
keine negative Bedeutung, sondern eben die Positive des Sich-Anpassens, Sich-Anpassen-Könnens. Ein
Beispiel ist der T-Rex vor 65 Millionen Jahren, der, als sich die Umwelt infolge eines
Meteoriteneinschlags verändert hat, nicht nachdenken konnte und sich nicht anpassen konnte.

Lernen: Ein Zyklus von Nachdenken, Planen, Handeln und Überprüfung der Lernergebnisse

Lernen ist ein Kreislauf, ein Zyklus von Nachdenken, Planen, Handeln und Überprüfen der
Lernergebnisse. Also, man muss zunächst nachdenken, reflektieren, man muss vorhandenes Wissen auf
Zielähnlichkeit überprüfen. Das heißt, ich muss mir überlegen „Kann ich mit dem, was ich weiß, was
ich kann, meine Ziele erreichen?“. Ich muss dann überlegen was ich brauche, muss planen, muss ggf.
mein Wissen anpassen, muss etwas Neues lernen. Ich muss dann auch mein Verhalten anpassen und ich
muss immer wieder überprüfen, ob das, was ich tue, mit dem zusammenpasst, was ich mir vorgenommen

208
habe und was zum Beispiel die Organisation oder meine soziale Umwelt von mir haben möchte, bzw.
das, was ich selbst erreichen möchte.

Die lernende Organisation: Voraussetzungen

Die Voraussetzungen für die lernende Organisation sind vielfältig, hier sind die wichtigsten
zusammengefasst. Eine Organisation braucht klare Visionen, d.h. eine Organisation muss wissen
„Wohin wollen wir? Wozu sind wir da? Was wollen wir sein? Wo wollen wir uns von unserem
Wettbewerb unterscheiden?“. Man braucht auf jeden Fall gemeinsame Zielsetzungsprozesse, in die
möglichst viele Organisationsmitglieder eingebunden sind. Eine Organisation muss sich aber auch
immer fragen: „Wer ist unser Kunde?“ und „Was hat unser Kunde davon, z.B. unser Produkt zu
kaufen?“.

Wechselseitiges Vertrauen und Teamgeist sind sehr wichtig. Ohne Vertrauen oder ohne eine so genannte
Vertrauensorganisation kann keine Organisation lernen und Teams sind der wichtigste Lernpromotor.

Eine Organisation muss ihre Prozesse anschauen – wie kommen Arbeitsprodukte zustande? Eine
Organisation, die lernen will, braucht möglichst viel Selbstregulation, d.h. Selbststeuerung in Gruppen
und Selbststeuerung von Individuen. Dazu gehört natürlich ein demokratischer Führungsstil. Es gehört
dazu, dass neue Ideen unterstützt werden. Es gehört dazu, dass Personal- und Organisationsentwicklung
integriert sind.

Fehlertoleranz und Belohnung sind sehr wichtige Faktoren. Wenn man für kleine Fehler permanent
bestraft wird und wenn Engagement nicht belohnt wird, dann werden Organisationen sicher nicht lernen.

Die Fähigkeit zur Selbstbeobachtung ist natürlich eine persönliche Fähigkeit, aber eben auch eine
Fähigkeit einer Organisation. Eine Organisation muss lernen, sich selbst zu beobachten.

Wichtige grundlegende Prinzipien des Lernens in Organisationen:

Erreichtes und vorhandene Kompetenzen würdigen und nutzen. In der Regel hat eine Organisation, eine
gesunde und erwachsene Organisation, die Möglichkeit ihre Probleme selbst zu lösen. Es gibt in einer
Organisation unendlich viele Kompetenzen, deren sich eine Organisation oft eben nicht schlüssig ist
oder nicht bewusst ist.

Man soll mehr auf Lösungen als auf Problemanalysen fokussieren. Die meisten Organisationen und die
meisten Individuen schauen sich Probleme viel zu lange an. Wir werden dann von den Problemen
traumatisiert. Man muss Probleme schon analysieren, aber man muss relativ schnell überlegen, wenn
man die Analyse gemacht hat, wie man zu einer Lösung kommt und welche Ziele man daraus ableiten
kann.

Abwertung der Vergangenheit muss man in Organisationen unbedingt vermeiden, auch bei Individuen.
Wenn man Individuen oder Organisationen zu sehr kritisiert, dann wertet man die Vergangenheit ab.
Das führt dazu, dass man sich nicht mehr um die Sache streitet, sondern dass Individuen z. B. ihr
Selbstwertgefühl verteidigen, weil sie sich abgewertet fühlen. Wenn man sagt „Das habt ihr falsch
gemacht.“, wertet man Organisationen und deren Mitglieder ab.

Wichtig ist die Fokussierung auf gemeinsame Ziele. Nur wenn man gemeinsame Ziele hat, kann man
auch gemeinsame Energien entwickeln.

Und natürlich eine Nutzung der vorhandenen Motivationen. Es gibt immer Motivationen. Es gibt
eigentlich keine unmotivierten Mitarbeiter. Die Menschen sind immer motiviert, man muss ihnen einen
Rahmen geben, ihre Motivation einzusetzen.

Das kann man hier leicht sehen, an dem schönen Heger-Comic, siehe Abb. 15/7. Heger ist, wie wir
wissen, ein genialer Wikinger, ein Wikinger-Manager. Hier geht es um die Frage der Ressourcen, bzw.
der Kompetenz. Er hat ein Team bei sich und er muss alle Kompetenzen, alle Ressourcen in diesem
Team nutzen. Deshalb muss er jedem eine Aufgabe geben und stellt eine Frage: „Wer kann nicht

209
schwimmen?“. Jetzt können Sie sich fragen, wo hier die Kompetenz von Sven Glückpilz, der sich gleich
meldet, ist. Wir wissen von Sven Glückspilz, dass er nicht besonders engagiert, nicht besonders
intelligent, nicht besonders stark, nicht besonders clever ist. Er kann auch nicht schwimmen, er ist auf
einem Wikinger-Boot. Was macht ein Wikinger-Chef mit so einem? Sie können überlegen wie die Frage
aufgelöst wird und ob es hier nicht doch eine Kompetenz bei Sven Glückspilz gibt.

Abb. 11/7: Heger Comic zur Motivation

Heger ist ein genialer Führer und er hat die Kompetenz erkannt. Er setzt ihn ein, er gibt ihm die Aufgabe
sich um undichte Stellen zu kümmern und nutzt natürlich hiermit eine Kompetenz, nämlich die Angst
von Sven Glückspilz unterzugehen. Das ist die Kompetenz, die sich hinter einem vermeintlichen Defizit
versteckt. Diese hat man durch die Rekonstruktion eines Defizits und durch die Konstruktion einer
Ressource, ein schönes Beispiel, auch für systemisches Management. Systemisches Management schaut
mehr als alle anderen Management-Ansätze zuvor auf die Ressourcen. Wo ist die Ressource? Wie kann
ich die Ressource nutzen? Wie kann ich die Ressource einsetzen, um ein Ziel zu erreichen?

Nach Motivation betrachten wir weiter die Prinzipien des Lernens.

Anschlussfähigkeit prüfen, d.h. ich muss als Führungskraft, als Berater, als Organisationsentwickler, als
jemand, der organisationales Lernen auslösen will, immer wieder überprüfen, ob ich Anschluss an die
Menschen habe, mit denen ich das machen will. Verstehen sie mich? Können sie mit mir denken?
Möchten sie mit mir etwas verändern? Habe ich auch emotionalen Anschluss an die Mitglieder einer
Organisation?

Maßvoll irritieren bedeutet, dass ich die Menschen nicht überfordern darf. Ich darf nur so weit irritieren,
dass Menschen bereit sind, z.B. ein Defizit zu Erkennen und sagen „Aha, da ist wohl etwas nicht in
Ordnung.“ Das muss sie motivieren etwas zu ändern, es darf sie nicht kaputt machen, es darf sie nicht
so weit irritieren, dass sie nicht mehr mitmachen.

Aufträge und Ziele müssen geklärt werden. Das ist auch eine grundlegende Methode aus der
Systemtheorie oder der systemischen Methoden. Ich muss wissen was mein Auftrag ist, ich muss mein
Ziel vor allem mit meinen Vorgesetzten, meinem Auftraggeber, klären. Das muss man immer wieder
machen, diese Prinzipien sind alle wiederkehrenden Prozesse.
210
Ich muss auch immer wieder zur Bewusstheit und Reflexion anregen, zum Nachdenken über das, was
man tut, und zur Frage „Ist das, was ich tue noch mit den Zielen in Einklang zu bringen?“.

Wenn ich etwas ändern will, etwas neu einführen will, dann muss ich den Leuten, die das machen sollen,
verdeutlichen, warum sie es machen sollen, was der Nutzen ist. Die Menschen handeln sehr
nutzungsorientiert. Ein Mensch tut das, was ihm individuell nützlich ist. Das kann auch manchmal für
andere dysfunktional sein. Aber ich muss möglichst vielen Leuten das Nützliche, das Neue verdeutliche
und auch verkaufen.

11.4 Weitere grundlegende Prinzipien des Lernens in Organisationen.


Man kann sehr gut Veränderungen durchspielen. Man kann so tun, als ob eine Veränderung schon
stattgefunden hat und kann überlegen, wie dann die Konsequenzen sind, was die Veränderung für den
Einzelnen bedeutet. Auch das sind Methoden aus der Systemtheorie, der systemischen Therapie, der
systemischen Beratung.

Wichtig ist, wenn man in neue Organisationen kommt, dass man Schuldsuche vermeidet, dass man nicht
als neuer Vorgesetzter, als neuer Berater fragt „Wer ist daran schuld?“, sondern dass man mehr nach
Lösungen sucht. Die Vergangenheit kann man bekanntlich nicht verändern. Man kann aber die Zukunft
gemeinsam gestalten.

Die Wahrheits- und Objektivitätsansprüche sind zu vermeiden. Das wird am Kippbild mit der alten
Dame deutlich.

Selbstorganisation ist besonders in großen Organisationen ganz wichtig. Denn es kann kein Vorgesetzter
und kein Berater große Gruppen führen, denken Sie an große Konzerne mit hunderttausenden
Mitarbeitern. Gute Vorgesetzte, wie z.B. Prof. Winterkorn von Volkswagen, der Selbstorganisation
ermöglicht, weil er diesen Konzern mit knapp 400 000 Mitarbeitern eben nicht selbst führen kann.
Selbstorganisation wird über die Hierarchie delegiert und wird über Vorgesetzte an Teams und an
Individuen delegiert und ermöglicht. Das ist die Aufgabe von Vorgesetzten, Selbstorganisation zu
ermöglichen.

Ganz wichtig ist auch, dass wir paradoxe Kommunikationen vermeiden. Das heißt zum Beispiel, dass
Vorgesetzte Entscheidungsbefugnisse an Mitarbeitern abgeben, aber dann sofort einhacken, wenn
Mitarbeiter selbstständig agieren und selbstständig entscheiden. Nach dem Motto „So habe ich das aber
auch nicht gemeint.“. Es gehört Vertrauen dazu und paradoxe Kommunikation würde dann
Selbstorganisation und Motivation wiederrum zerstören.

Zielgerichtet ändern und Lernen: Change-Management

Sogar Machiavelli hat sich mit den Folgen von Veränderungen beschäftigt. Er hat darauf hingewiesen,
dass jede Neuerung zu Widerstand führt. Dass jeder, der etwas neu macht, die Leute zu Feinden hat, die
von einer alten Ordnung Vorteile hatten. Das heißt, dass das System zurückschlägt. Eine Neuerung hat
Kinderkrankheiten, man muss damit rechnen, wenn man in Organisationen etwas ändern will. Das muss
man einfach einplanen. Wir sind Gewohnheitstiere, kein Mensch ändert sich gern, keine Organisation
ändert sich gern und man verfällt sehr leicht in das Alte zurück.

Was ist Change-Management oder Organisationsentwicklung?

Die Begriffe werden uneinheitlich benutzt. Man meint aber im Großen und Ganzen das Gleiche.
Change-Management sind sehr oft die Methoden. Organisationales Lernen sind auch Methoden, aber
auch Theorie. Es geht auf jeden Fall um einen dynamischen Vorgang, den möglichst die Mitglieder einer
Organisation anstoßen sollten. Es geht um die Leistungsbereitschaft von Menschen. Diese Prozesse
vollziehen sich in Phasen.

In der Regel muss zunächst eine Problemlage definiert werden. Die problemrelevanten Informationen
müssen gesammelt werden. Sie müssen gemeinsam interpretiert und ausgewertet werden, möglichst mit
der Methode der Survey Guided Feedback. Das bedeutet, dass man gesammelte Daten an alle Beteiligten

211
zurückkoppelt, gemeinsam analysiert, gemeinsam überlegt was zu tun ist, gemeinsame Aktionspläne
und Ziele und auch die möglichen Veränderungen einer Struktur daraus ableitet.

Bei der Organisationsentwicklung geht es immer um zwei große Ziele – einerseits Humanisierung der
Arbeit, aber auch immer gleichzeitig um eine Erhöhung der Leistungsfähigkeit.

In der Regel gibt es drei klassische Phasen, die man an das gruppendynamische Phasenmodell von Kurt
Lewin anlegen kann, der das 1948 schon so erklärt hat. Wenn sich größere Gruppen ändern, wenn sich
Individuen ändern, gibt es ein Auftauen, ein Verändern und ein Einfrieren. Zunächst muss man ein
Problem erkennen. Man braucht ein gemeinsames Problemerkennungsbewusstsein um zum Beispiel
aufzutauen. Man muss Daten sammeln, rückkoppeln etc. Wichtig hier ist, dass man jede
organisatorische Veränderung evaluieren muss, d.h. man braucht Messkriterien, die man auch
regelmäßig prüft.

Abb. 11/8: Doppelte Ansatz der Organisationsentwicklung

Der grundlegende doppelte Ansatz der Organisationsentwicklung, siehe Abb. 11/8, setzt an den
Personen und an den Strukturen an. Also muss man beides beachten. Man muss die Motivationen, die
Kompetenzen von Personen beachten. Man muss aber auch die Struktur der Organisation beachten.
Diese muss zum Beispiel selbstgesteuertes Lernen ermöglichen. Wenn eine organisationale Struktur das
nicht ermöglicht, z.B. mehr Autonomie, mehr Flexibilität, weil es eine krasse und starre Ablauf- und
Aufbauorganisation gibt, dann muss man vielleicht Projektmanagement einführen oder andere Formen
des organisationalen Managements, um in diesem Fall mehr Autonomie zuzulassen.

Dimensionen der Organisationsentwicklung (OE)

Die wichtigsten Dimensionen der Organisationsentwicklung sind zusammengefassend folgende: ein


gemeinsames Problembewusstsein, die Einbeziehung der Beteiligten, das Klären von Sach- und
Beziehungsproblemen. Bei Sachproblemen ist es oft so, dass Beziehungsprobleme zugrunde liegen, das
heißt, dass man sehen muss wie die Menschen zusammenarbeiten, ob sie sich mögen oder nicht und
warum sie sich nicht mögen, warum sie nicht miteinander reden, warum sie ewig nur über eine Sache
reden, die schon längst gelöst ist. Man muss den Menschen die Chance geben, mit ihren Erfahrungen zu
lernen, selbst Erfahrungen zu machen. Man muss ihnen die Chance geben, Prozesse anzusehen, also
nicht nur das Ergebnis zu sehen, sondern auch eben den Prozess zu sehen, der zum Ergebnis führt. Und
man muss ihnen beibringen, dass sie systemumfassend denken, so wie das in den systemischen Ansätzen
vorher schon angedeutet wurde.

212
Die Veränderungsprozesse funktionieren am besten, wenn man einen Change Agent hat. Ein Profi, der
weiß wie alles geht, wie man Veränderungen bewerkstelligen kann, der alles, was ich bisher gesagt habe,
als Theorie kennt und der es schon einige Jahre gemacht hat.

Wandel und Widerstand ist etwas ganz Normales und zu erwarten. Man muss eben den Widerstand
als eine Informationsfunktion betrachten, als ein Informationsgeschenk, das darauf hinweist, dass etwas
noch nicht ganz richtig gemacht wurde. Widerstand ist normal, Widerstand ist kein Defizit und darf vor
allem nicht pathologisiert werden. Also, wir würden uns alle widersetzen, wenn man irgendetwas mit
uns machen möchte, wenn wir nicht ein Teil der Änderung werden. Man kann einfach von sich selbst
mal darauf schließen was in Organisationen passiert.

Abb. 11/9: Erfolgs- und Misserfolgsfaktoren

Wir sind Gewohnheitstiere, wir ändern uns nicht gern. Wenn von außen jemand kommt, der uns ändern
will, das haben wir schon alle persönlich erlebt, dann wehren wir uns. Man darf die Symptome nicht
bekämpfen.
11.5 Kontrollfragen
1. Definieren sie organisationales Lernen (OL) (F7)
2. Skizzieren sie die drei Stufen des OL! (F8)
3. Skizzieren sie die drei Lernformen des OL (F13-F15)
4. Nennen sie Voraussetzungen von OL (F18, F22)
5. Nennen sie mindestens 7 Grundlegende Prinzipien des Lernens in Organisationen (F23, F27,
F30)
6. Zielgerichtet ändern und Lernen heißt Change-Management – Organisationsentwicklung (OE)
sind die Methoden und die Theorie dazu. Beschreiben sie OE.
7. Mit welcher Folge von Veränderungen ist nach Machiavelli zu rechnen und wie ist darauf zu
reagieren?
8. Erklären Sie zwei Theorien wie Verhalten zu Stande kommt?
9. Was ist unter dem doppelten Ansatz der Organisationsentwicklung zu verstehen?
10. Was ist unter Anpassungs-, Veränderungs- und Prozesslernen zu verstehen?
11. Nennen Sie sechs Prinzipien für Organisationales Lernen und erklären Sie zwei
12. Skizzieren Sie den Prozess des organisationalen Lernens?

213

Das könnte Ihnen auch gefallen