Beruflich Dokumente
Kultur Dokumente
1
1 Grundlagen des Wissensmanagements .................................................................. 6
1.1 Definition Daten-Information-Wissen und Wissensqualitäten .......................................................6
1.1.1 Wissen und Wissensverarbeitung.............................................................................................6
1.1.2 Wissensqualitäten.....................................................................................................................9
1.1.3 Wissen ist und bleibt subjektiv ..............................................................................................10
1.2 Bedeutung von Wissen für Unternehmen .....................................................................................11
1.3 Definition des Begriffs Wissensmanagement (WM) ....................................................................12
1.4 Teilprozesse des Wissensmanagements ........................................................................................13
1.5 Die Relevanz von psychologischen Faktoren im Wissensmanagement .......................................15
1.5.1 Unternehmenskultur ist der entscheidende Faktor .................................................................16
1.5.2 Relevante Aspekte für die Wissensmanagement-Kultur ........................................................17
1.5.3 Verhinderungsfaktoren eines effektiven Wissensmanagement - Systems .............................19
1.5.4 Schlussfolgerungen für Führungskräfte .................................................................................20
1.7. Wichtiger Bestandteil des digitalen Wissensmanagements: Künstliche Intelligenz (KI) ............20
1.7.1 Wovon sprechen wir, wenn wir von KI sprechen? – eine Philosophische Betrachtung
(Simon Böhm) .................................................................................................................................20
1.7.2 Versuch einer Definition von KI ............................................................................................21
1.7.3 Phasen der geschichtlichen KI-Entwicklung..........................................................................22
1.7.3.1 Vorgeschichte ..................................................................................................................22
1.7.3.2 Gründungsphase 1956-1966 ............................................................................................22
1.7.3.3 Back to Reality 1966 - 1974 ............................................................................................23
1.7.3.4 Wissensbasierte Epoche 1975-1995 ................................................................................23
1.7.3.5 Moderne Epoche 1995-2010 ...........................................................................................24
1.7.3.6. Kommerzialisierung (2010 – heute) ...............................................................................25
1.7.4 Grobüberblick über die KI Gebiete/-Technologien................................................................26
1.8 Literatur und Kontrollfragen .........................................................................................................27
2. Wissenssuche ....................................................................................................................... 29
2.1 Wissenssuche mit Online-Datenbanken ......................................................................29
2.1.1 Statistik zu Online-Datenbanken ...................................................................29
2.1.2 Bibliographische Daten ..........................................................................................................30
2.1.3 Textuelle und Volltext DB .....................................................................................................31
2.1.4 Faktendatenbank DETHERM ................................................................................................34
2.1.5 Literatur und Kontrollfragen .....................................................................................34
2.2 Wissenssuche im Internet - Suchdienste....................................................................35
2.2.1 Klassen von Suchdiensten und deren Funktionsweise ............................35
2.2.2 Suchoperatoren und Expertensuche ...............................................................35
2.2.3 Suchbegriffe .............................................................................................................36
2.2.4 Bestandteile der Ergebnislisten.........................................................................37
2.2.5 Nutzerverhalten ......................................................................................................37
2.2.6 Neue Entwicklungen und Trends ......................................................................38
2.2.7 Literatur und Kontrollfragen .....................................................................................41
3 Methodische Unterstützung des Wissensmanagements .................................................... 43
3.1 Methoden entlang des Wissensmanagementprozesses .................................................................43
3.2 Methoden zur Förderung des Wissensaustauschs, der Wissenskommunikation und der
Wissensnutzung ..................................................................................................................................48
3.2.1 Lessons Learned .....................................................................................................................48
3.2.2 Best Practice Sharing .............................................................................................................49
3.2.3 Story Telling/Learning History ..............................................................................................49
3.2.4 Wissenskommunikation mit Chatbots....................................................................................50
3.2.4.1 Geschichtliche Entwicklung von Chatbots ......................................................................50
3.2.4.2 Charakteristika von Chatbots...........................................................................................52
3.2.4.3 Leistungstests der Big Four (Weber 2017) ......................................................................52
3.2.4.4 AIML (Artificial Intelligence Markup Language) .........................................................54
3.2.4.5 Beispiele ..........................................................................................................................56
3.2.4.6 Werkzeuge, auch um Chatbots intelligent zu machen....................................................56
2
3.3 Methoden zur Repräsentation von Wissen (Wissensvisualisierung) ............................................60
3.3.1 Wissenskarten ........................................................................................................................60
3.3.2 Ontologien ..............................................................................................................................64
3.3.3 Prozessmodellierung ..............................................................................................................69
3.3.4 Visualisieren mit Metapher-Methode: U-Bahnkarte ..............................................................72
3.4 Wissenssituationsanalyse-Methode .........................................................................................72
3.5 Communities of Practice zur Wissenskommunikation .................................................................73
3.6 Personalisierungsmethode - Benutzermodellierung .....................................................................74
3.6.1 Benutzermodell ......................................................................................................................74
3.6.2 Adaptivität bei Lernanwendungen .........................................................................................76
3.7 Literatur und Kontrollfragen .........................................................................................................78
4 Bewertungsmethoden von Wissen-(smanagement) ........................................ 79
4.1 Das Intellektuelle-Kapital-Modell ...................................................................................79
4.2 Wissenskapitalindex ............................................................................................................81
4.3 Balanced Scorecard .............................................................................................................82
4.3.1 Architektur eine BSC .............................................................................................................82
4.3.2 Beziehung zwischen BSC und WM .......................................................................................83
4.3.3 Fallbeispiel BSC [NN] ...........................................................................................................84
4.4 Wissensbilanz......................................................................................................................87
4.4.1 Allgemein ...............................................................................................................................87
4.4.2 Schritte einer Wissensbilanztoolbox ......................................................................................88
4.4.3 Kontinuierliche Wissensbilanzierung ..............................................................92
4.4.4 Leitfaden für Wissensbilanzerstellung für KMU ................................................................95
4.5 Benchmarking ........................................................................................................................97
4.6 Literatur und Kontrollfragen ............................................................................................98
5. Wissensgenerierung - Business Intelligence ..................................................... 99
5.1 Definition Business Intelligence (BI) ...........................................................................................99
5.2 Executive Information System (EIS) ..........................................................................100
5.3 Data Warehouse .................................................................................................................101
5.3.1 Grundlegende Merkmale ......................................................................................................101
5.3.2 Architektur des Data Warehouse (DW) ...............................................................................102
5.4 OLAP und Data Mining ......................................................................................................105
5.4.1 OLAP ...................................................................................................................................105
5.4.2 Data Mining .........................................................................................................................105
5.5 Methoden des Maschinellen Lernens zur Wissensgenerierung .........................108
5.5.1 Definition Maschinelles Lernen ...........................................................................................109
5.5.2 Anwendungen ML ...............................................................................................................111
5.5.3 Algorithmische Ansätze .......................................................................................................113
5.5.4 Zwei Maschinelle Lernenverfahren .....................................................................................114
5.5.4.1 Support Vektor-Maschinen ( SVM) ..............................................................................114
5.5.4.2 Künstliche neuronale Netze (Artificial neural network NN) .........................................116
5.6 Fallbeispiele ..........................................................................................................................117
5.6.1 Data Warehouse bei Handelsgruppe Globus ........................................................................117
5.6.2 Fallbeispiel Business Intelligence: Analytisches Customer Relationship Management (a-
CRM) ............................................................................................................................................118
5.6.3 Fallbeispiel: BI zum Betriebsergebnis – Controlling: Delta Master ....................................120
5.6.4 Fallstudie Data Mining und BI: Lufthansa...........................................................................124
5.6.5 Anwendung BI: Learning Analytics ....................................................................................126
5.7 Literatur und Kontrollfragen .......................................................................................................128
6. Softwaretechnische Werkzeuge des WM............................................................ 130
6.1 Werkzeuge ............................................................................................................................130
6.2 Web 2.0 Technologien ......................................................................................................133
6.2.1 Überblick ..............................................................................................................................133
6.2.2 E-Collaborations-Werkzeuge ...............................................................................................134
3
6.2.3 Aufbau und Funktionsweise eines Wikis am Beispiel Fraport ..........................................137
6.3 Wissensmanagementsoftware entlang der WM-Prozessschritte............................................138
6.4 Web 3.0-Systeme oder Wissensbasierte Systeme .......................................................................140
6.5 Literatur und Kontrollfragen .......................................................................................................143
7. Wissensmanagementsysteme ................................................................................ 145
7.1 Funktionen von integrierten Wissensmanagementsystemen ...........................145
7.2 Referenzmodell für die Entwicklung von WMS .......................................................146
7.3 Wissensportale ....................................................................................................................147
7.4 Fallbeispiel IBM ...................................................................................................................150
7.5 Softwaretechnische Realisierung des Deggendorfer WMS für Studenten ....150
7.6 Wissensmanagement fürs Personal TH Deggendorf .............................................152
7.6.1 Bedarfsanalyse ............................................................................................................152
7.6.2 Technische Realisierung.....................................................................................153
7.6.3 Vergleich von Portalsoftware für die Anforderungen dieses Wissensmanagements (Schich
2012) .............................................................................................................................................153
7.7 Literatur und Kontrollfragen ..........................................................................................154
8. Risikomanagement im Wissensmanagement ................................................... 156
8.1 Sachlich-technische Wissensrisiken ............................................................................156
8.1.1 Risikoidentifikation ..............................................................................................................156
8.1.2 Maßnahmen gegen sachlich-technische Wissensrisiken ......................................................158
8.1.2.1 Firewalls ........................................................................................................................158
8.1.2.2 Autorisierung .................................................................................................................159
8.1.2.3 Verschlüsselung .............................................................................................................159
8.1.2.4 Datenintegrität ...............................................................................................................160
8.1.2.5 Authentisierung .............................................................................................................160
8.1.2.6 Digitale Signatur ............................................................................................................161
8.1.2.7 Copyright-Schutz: Wasserzeichen .................................................................................162
8.1.2.8 Spam-Mailfilter .............................................................................................................163
8.1.2.9 Phishing-Schutz .............................................................................................................163
8.2 Personelle Wissensrisiken...........................................................................................................164
8.3 Organisatorische Wissensrisiken ................................................................................................165
8.4 Marktbezogene Wissensrisiken ..................................................................................................165
8.5 Fallstudie: Wissensrisikomanagement an einer Hochschule [Küffner 2017] ........................167
8.6 Literatur und Kontrollfragen ..........................................................................................173
9. Wissensmanagement erfolgreich einführen ..................................................... 174
9.1 Sensibilisierung für die Notwendigkeit von WM: Kurzdiagnose .......................174
..........................................................................................................................................................174
9.2 Wissensleitbilder und Wissensziele fürs Unternehmen........................................174
9.3 Ansatzpunkte für ein Kulturaudit .................................................................................180
9.3.1 Strukturierte Interviews ...................................................................................181
9.3.2 Nach dem Kulturaudit .........................................................................................182
9.4 Rollen und Profile in bestehenden Wissensmanagement-Systemen..............182
9.5 Aktionsplan erstellen ........................................................................................................184
9.6 Implementierung von Wissensmanagement ...........................................................185
9.7 Leitfaden zur Einführung von Wissensmanagement an Hochschulen........................................186
9.8 Literatur und Kontrollfragen ..........................................................................................188
10. Anwendung: Virtuelle Weiterbildung zur Steigerung des Humankapitals
................................................................................................................................................ 189
10.1 Bedarfssog und Technologiedruck für virt. Weiterbildung ...............................189
10.2. Kategorisierung von Lehrformen [Goertz 2013] ................................................189
10.3 Strategischen Einsatz von E-Learning am Beispiel der TH Deggendorf191
10.4 E-Learning und Wissensmanagement .....................................................................191
10.5 Lernen in 3-D-Welten.....................................................................................................192
4
10.6 MOOC (Massive Open Online Course) .....................................................................193
10.7. Blended Learning 4.0 oder smart Blended Learning ...............................................................194
10.7.1 Definition von smart ..........................................................................................................194
10.7.2 Smarter Blended Learning Prozess - Überblick .................................................................194
10.7.3 Ergebnisse des KI-Einsatzes im BL-Prozess .....................................................................196
10.8 Lernmanagementsysteme ............................................................................................199
10.8.1 Standards ....................................................................................................................199
10.8.2 LMS Moodle ............................................................................................................200
10.8.3 neuere Entwicklungen .....................................................................................201
10.9 Literatur und Kontrollfragen ........................................................................................202
11. Anwendung „Lernende Organisation“ ......................................................................... 204
11.1 Verhalten..................................................................................................................................204
11.2 Definition organisationales Lernen ...........................................................................................206
11.3 Voraussetzungen, damit Organisationen lernen ........................................................................208
11.4 Weitere grundlegende Prinzipien des Lernens in Organisationen. ...........................................211
11.5 Kontrollfragen...........................................................................................................................213
5
1 Grundlagen des Wissensmanagements
6
Daten
Nach DIN 44300 sind Daten als Zeichen oder kontinuierliche Funktionen definiert. Daten sind also zum
einen eine Abbildung der Realität und zum anderen in der Regel die digitale Repräsentation von Fakten.
Alles was zähl- und messbar ist, kann somit durch binärcodierte Daten ausgedrückt werden.
Beispiel: Zahlen, Wörter und Texte, aber auch physikalische Größen wie Bilder, Graphiken, Sprache
und Musik.
Denn gespeichert werden Bilder oder Musik in binärer beziehungsweise elektronischer Form und sind
dadurch maschinell auswertbar.
Daten unterliegen darüber hinaus einem Lebenszyklus, bei dem die Daten zuerst erstellt, erhoben oder
gesammelt werden. Danach werden sie zur Verarbeitung weitergeleitet. Die Verarbeitung besteht aus
der Berechnung, Überprüfung, Digitalisierung und Übersetzung. Der nächste Schritt umfasst die
Analyse und Interpretation der Daten. Nachdem sie analysiert und interpretiert wurden, werden die
Daten für die zukünftige Nutzung in Systemen gespeichert beziehungsweise archiviert. Die
Archivierung beinhaltet zudem auch das Löschen nicht mehr benötigter Daten. Im nächsten Schritt
müssen nun die Zugangsberechtigungen festgelegt werden. Diese dienen zum Schutz vor Datenverlust
oder der Verwendung durch unberechtigte Personen. In der Nachnutzung findet dann die Anwendung
statt. Hier werden die Daten innerhalb von Informationssystemen genutzt. Der Kreislauf schließt sich,
indem Daten in die Erstellung neuer Daten einbezogen werden.
Datenverarbeitung (DV) ist die Verarbeitung der als Zeichen dargestellten Nachrichten und
Informationen. Diese kann manuell, maschinell oder elektronisch erfolgen. Im letzten Fall spricht man
von elektronischer Datenverarbeitung (EDV).
Nachrichten
Mit Hilfe von Signalen und Zeichen werden Nachrichten formuliert. Diese Nachrichten sind zweckfrei
und in der Formulierung für jeden Empfänger gleich. Sie sind für ihn eine Erweiterung des Wissens,
sofern er die Nachrichten aufnimmt. Die Bedeutung der Nachricht ist aber für die einzelnen Empfänger
unterschiedlich.
Information
Informationen sind im Gegensatz zu Daten zeit- und ortsabhängig. Das heißt, Informationen sind
kontextbezogen und besitzen außerdem immer einen Sender (Quelle) und Empfänger. Der Mensch ist
dabei im Mittelpunkt.
Der allgemeine Informationsbegriff wird in vielen Fällen gleichbedeutend mit Nachricht und Mitteilung
verwendet. Grund dafür ist, dass Nachrichten auch mit Hilfe von Zeichen und Signalen formuliert
werden. Der Unterschied jedoch liegt darin, dass Nachrichten in der Formulierung für jeden Rezipienten
gleich und zweckfrei sind.
Denn Daten werden für eine Person erst interessant und zur Information, wenn ein persönlicher Bezug
besteht. Informationen ändern „die Wahrnehmung des Empfängers in Bezug auf einen Sachverhalt und
wirken sich auf die Beurteilung des Kontexts aus.“
Die Anreicherung der Daten zu Informationen kann sowohl beim Ersteller als auch beim
Empfänger erfolgen. Der Wert einer Information wird aber immer vom Empfänger und
niemals vom Sender festgelegt.
Eine zweckbezogene Nachricht kann daher als Information bezeichnet werden.
Beispiel: Ein Hausmann liest einen deutschen Satz über die Börsenentwicklung der SAP-Aktie, "sie ist
in einer Woche um 20 % gestiegen" - Solange er an Aktien uninteressiert ist, sind diese Worte für ihn
nur Daten, also Zeichen und Syntax. Besitzt er SAP-Aktien oder will er bald welche kaufen, haben die
Daten für ihn eine Bedeutung und so werden die Daten für ihn zur Information.
Informationsverarbeitung (IV, IT) ist die Verarbeitung der zweckbezogenen Nachrichten (als Zeichen
dargestellten Nachrichten, die ein Zweck erfüllt)
7
Beispiel: Denken Sie an eine Akte, die elektronisch weitergereicht wird. Die Akte sind Daten. Die
konkrete Abarbeitungsreihenfolge, mit der die Akte weitergeschickt wird, hängt ja vom Inhalt der Akte
(der Bedeutung der Daten) ab und ist Informationsverarbeitung.
Die Abbildung 1/1 zeigt, dass Zeichen, Daten, Informationen und Wissen in Beziehung
stehen, aber nicht das Gleiche sind. Von Daten wird erst gesprochen, wenn es gelingt, die Zeichen zu
einem regelbasierten Zusammenhang zu bringen. Wird ein zusätzlicher Kontext eingebunden, der den
Daten eine Bedeutung verleiht, so werden sie zur Information. Informationen sind kontextbezogen und
besitzen außerdem immer einen Sender (Quelle) und Empfänger. Der Mensch ist dabei im Mittelpunkt.
Wissen
Popp definierte 1984 Wissen „als die Menge des Modells, die ein System von sich und der Umwelt
gespeichert hat.“ [Popp84]. Inzwischen haben sich eine Vielzahl von Definitionen ergeben.
1.1.2 Wissensqualitäten
Es gibt verschiedene Wissensqualitäten, daher berücksichtigt man in den Wirtschaftswissenschaften
immer mehr die Existenz von Unsicherheit und Unschärfe.
Betrachten wir ein Beispiel aus dem Produktionsprozeß mit verschiedenen Maschinen, auf denen ver-
schiedene Aufträge bearbeitet werden sollen. Wir konzentrieren uns jetzt auf nur eine Maschine, sei es
Maschine A, und auf einen Auftrag, der sei Auftrag 1.
So könnte eine Aussage in der Produktionsplanung lauten:
Die Wahrscheinlichkeit, dass die Wartezeit von Auftrag 1 vor Maschine A 10 Minuten beträgt, ist 0,9
Die Wahrscheinlichkeit rührt von einer Wiederholung desselben Produktionsprozesses her. Es ist ein
Erfahrungswert.
Dagegen hat folgende Aussage ein Glaubensintervall:
Das Plausibilitätsintervall für die Hypothese, dass die Wartezeit von Auftrag 1 vor Maschine A 10
Minuten beträgt, ist (0,85; 0,95)
Dieses Glaubensintervall besteht aus der Plausibilität als obere Grenze .95 und dem Glaubenswert als
untere Grenze .05. Der Glaubensgrad ist dabei das Komplement des Plausibilitätsgrades. Plausibilität
ist der Grad, zu dem eine Verdachtshypothese gerade noch aufrechterhalten werden kann.
Unsicherheitsintervall drückt den Unterschied zwischen unmittelbar belastenden Verdachtsmomenten
und den nicht unmittelbar entlastenden Verdachtsmomenten aus. Glaube=positiver Verdacht;
Plausibilität ist möglicher Verdacht.
Die Möglichkeit, dass die Wartezeit von Auftrag 1 vor Maschine A 10 Minuten beträgt, ist 0,9
Die Möglichkeit drückt im Gegensatz zur Wahrscheinlichkeit nicht die Häufigkeit des Auftretens aus,
sondern die Vereinbarkeit des Auftretens mit subjektiven Vorstellungen. "Ereignis A ist möglich" ist
die schwächste Formulierung über die Realisierung des Ereignisses A.
Eine unscharfe Aussage mit dem unscharfen Term "ungefähr" lautet etwa
Die Wartezeit von Auftrag 1 vor Maschine A beträgt ungefähr 10 Minuten
9
Was der Term „ungefähr“ konkret ausdrückt, versucht man mit sogenannten Zugehörigkeitsfunktionen
zu repräsentieren. Näheres findet man bei der Fuzzy Technik.
Ein letzter Typ unsicheren Wissens ist unvollständiges und verzerrtes Wissen.
Die Wartezeit von Auftrag 1 vor Maschine A beträgt.... Minuten
Hier kann z.B. das fehlende Wort 10 durch Lernen aus dem Zusammenhang erkannt werden.
Seit der anfänglichen Entwicklung heuristischer Modelle haben sich in der internationalen Forschung
verschiedene Schulen herauskristallisiert, auf die sich die aktuellen Arbeiten konzentrieren, z.B. wahr-
scheinlichkeitstheoretische Verfahren, Belief Modelle basierend auf dem Dempster-Shafer Evidenz-
kalkül, Possibilitätstheorie, mit Fuzzy-Mengen operierende Verfahren und für unvollständiges Wissen
die Neuronalen Netze.
Abb.1/2: Verschiedene Sichten auf die Realität am Beispiel einer Kartoffelsicht [Bellinger 2007]
Dieses Phänomen hat systematischen Charakter und kann weder vom Informanten noch vom Benutzer
eines WM-Systems vollständig kontrolliert werden. Ein Unternehmen, das so genannte Tatsachen
betrachtet bzw. zu nutzen sucht, kann somit maximal Intersubjektivität erreichen, niemals jedoch
Objektivität.
In diesem Sinne handelt es sich bei der gemeinsamen Nutzung so genannter Fakten stets um eine
Verabredung von der folgenden Art: So lange niemand widerspricht, wird eine bestimmte Behauptung
als Faktum behandelt. Wenn zum Beispiel in der Organisation "BMW power-Motorclub" die
10
Behauptung "Alle Opel-Fahrer sind Bremser" aufgestellt wird und unwidersprochen bleibt, dann gilt
dies innerhalb des Systems "BMW power-Motorclub" als Faktum.
Je mehr unterschiedliche Standorte oder Standpunkte in einem System vorhanden sind, desto
unterschiedlicher werden die Wahrnehmungen der so genannten Fakten und deren Bewertung sein. Als
Schlussfolgerung lässt sich daraus ableiten, dass ein Unternehmen mit reifen, selbstbewussten
Mitarbeitern ein sehr heterogenes System darstellt, wodurch eine gemeinsame Deutung der Wirklichkeit
wesentlich erschwert wird. In diesem Sinne ist der hochbegabte Einzelkämpfer stets ein Feind eines
objektivierten Wissensmanagements, weil er ein geringeres Interesse am Austausch von Informationen
und damit an nachvollziehbarer Verständigung über Information hat – aus der Erfahrung heraus, dass
ein persönliches Wissen eben stark von seiner Persönlichkeit geprägt wird - sowohl was das Sammeln
als auch was das Nutzen von Wissen anbelangt.
Auch bei der Wissensvermittlung kommt hochbegabten Fachkräften eine besondere Stellung zu. Ihre
Kompetenz ist oft eher unbewusster Natur, von ihnen wird erwartet, dass viele Prozesse automatisiert
ablaufen. Dies impliziert einen hohen Internalisierungsgrad von relevantem Wissen. Um dieses Wissen
für das Wissensmanagement und in weiterer Folge für das Unternehmen zugänglich zu machen, muss
es in eine explizite Form transformiert werden. Das setzt konzeptionelle, didaktische und methodische
Fähigkeiten voraus die vielen Profis zu einem guten Teil abgehen -insbesondere, wenn es sich z.B.
darum handelt, Informationen in ihrer Bedeutung für komplizierte oder komplexe Prozesse und Abläufe
zu kategorisieren.
Produktionsfaktor Wissen klingt gut. Aber was macht Wissen zu einem Produktionsfaktor? Welche
Gestaltungsmöglichkeiten verbinden Unternehmen mit diesem Produktionsfaktor?
Es gibt eine ganze Menge an Gestaltungsfeldern, bei denen neben den klassischen Produktionsfaktoren
Kapital, Arbeit und Ressourcen Wissen und der Umgang mit diesem Gut im Unternehmen eine
gewichtige Rolle spielen. Geht man einmal von den Zielsetzungen aus, die Unternehmen, Ämter und
Institute mit Wissensmanagement-Projekten verbinden, so geht es (unabhängig von der Branche) häufig
um
- Verkürzung von Innovationsprozessen
- Erhöhung der Produktqualität
- Verbesserung der Nähe zum Kunden
- Optimierung der Lieferantenbeziehungen
- Verbesserung der Produktivität von Geschäftsprozessen
- Qualifikation von Mitarbeitern
- Risikobegrenzung kritischer Entscheidungen
Die Bedeutung des Produktionsfaktors Wissen lässt sich übrigens auch daran erkennen, dass man heute
immer häufiger auch das sog. Wissenskapital in die Bewertung von Unternehmen mit einbezieht.
11
Dabei geht es darum, den Wert oder den Wertzuwachs eines Unternehmens, der über das „sichtbare“
Anlage- und Kapitalvermögen hinausgeht, also den „unsichtbaren Wert“, zu erklären. Dies spielt
natürlich insbesondere für die schon erwähnten Know-how-Unternehmen im Dienstleistungsbereich
eine große Rolle, aber auch bei Industrieunternehmen klassischer Prägung wird die Bewertung des
vorhandenen Wissens immer entscheidender.
Der Marktwert eines Unternehmens wird nach dieser Sichtweise zum einen durch das Finanzkapital,
zum anderen durch das Wissenskapital bestimmt. Das Wissenskapital unterscheidet sich wiederum in
das Humankapital und das Strukturkapital eines Unternehmens. Das Humankapital beschreibt
sozusagen den Teil des Wissenskapitals, das in den einzelnen Mitarbeitern steckt – deren Kompetenz,
deren Lernfähigkeit, deren Motivation und Grundeinstellungen. Das Strukturkapital erlaubt eine
Aussage über das organisationale Wissen, über das ein Unternehmen verfügt – Welche Beziehungen
bestehen gegenüber Kunden, Lieferanten oder auch den Anteilseignern, welche Möglichkeiten haben
interne Gruppen, miteinander zu kommunizieren, gibt es Organisationsformen, die den
Wissensaustausch begünstigen und wie ist die Innovationsfähigkeit einzuschätzen?
Nun, bedenkt man, dass eine wesentliche Aufgabe des Managements in der Steigerung des sog.
Unternehmenswerts liegt (bekannt auch als „Shareholder Value“), so liegt es doch nahe, eine Quelle
möglicher Wertschöpfung – nämlich das Wissenskapital mit seinen verschiedenen Indikatoren - auch
entsprechend zu „managen“.
Säule Gestaltungsdimension
▪ Förderung und Gestaltung von Kenntnissen, Fähigkeiten und
Kompetenzen
Mensch
▪ Mensch als Träger des Wissens und als Triebfeder kontinuierlicher
Lernprozesse
▪ Entwicklung einer wissensfreundlichen Kultur
Organisation ▪ Schaffung von Rahmenbedingungen, die den Umgang mit der
Ressource Wissen erleichtern
▪ Implementierung und Gestaltung von Informations- und
Kommunikations-Infrastruktur
Technik
▪ Einsatz von Werkzeugen, die wissensbasierte Prozesse effizient und
nutzerfreundlich unterstützen
Abb. 1/3: Mensch, Organisation und Technik als Säulen ganzheitlichen Wissensmanagements
12
Wissenskommunikation, Wissensrepräsentation, Wissensgenerierung und Wissensnutzung als
Prozesskategorien des Wissensmanagements.
Wissens-
identifi- Wissens- Wissens- Wissens- Wissens- Wissens-
kation erwerb entwick- bewah- verteilung nutzung
lung rung
In Abb. 1/4 muss zuerst identifiziert werden, was wir überhaupt wissen wollen. Bei der
Wissensidentifikation geht es darum, dass im Unternehmen vorhandene Wissen, sei es nun explizit oder
implizit aufzuspüren und transparent zu machen. Wissen, das außerhalb des Unternehmens gefunden
werden kann, muss im Prozess des Wissenserwerbs für das eigene Unternehmen zugänglich gemacht
werden. Die Wissensentwicklung ergänzt den Wissenserwerb von außen. Hier geht es darum, innovative
Ideen, Produkte, Prozesse und Fähigkeiten von Mitarbeitern zu fördern und zu entwickeln. Die
Wissensbewahrung sorgt für die Erhaltung und Aktualisierung des so identifizierten, erworbenen und
entwickelten Wissens. Der Teilprozess der Wissensverteilung kümmert sich um die Bereitstellung
ausgewählten Wissens im Unternehmen und schließlich geht es bei der Wissensnutzung darum, dem
Endanwender Wissen zugänglich zu machen. Das Modell wird ergänzt durch die Definition von
Wissenszielen sowie einem Controlling und Feedback des ganzen Prozesses.
Das Münchner Modell ist von vier Bereichen geprägt, der Wissensrepräsentation, der Wissenskom-
munikation, der Wissensnutzung und der Wissensgenerierung und ebenfalls um die Bereiche der
13
Zielsetzung und Evaluierung ergänzt, siehe Abb. 1/5. Die unterschiedlichen Wissensprozesse werden
dabei zusammengefasst und zueinander in Beziehung gesetzt.
Der Bereich der Wissensrepräsentation befasst sich damit Wissen transparent zu gestalten und
vorhandenes Wissen handhabbar zu machen. Dieser Schritt ist notwendig, da ein großer Anteil des
Wissens im Verborgenen liegt und es sich oftmals um implizites Wissen handelt, das eng mit dem
Wissensträger verbunden ist. Dies birgt vor allem dann eine Gefahr, wenn der Wissensträger mit samt
seinem Wissen aus der Organisation ausscheidet. Dieses Problem kann durch die Dokumentation des
Wissens verhindert werden. Im Einzelnen gehört hierzu die Identifikation, die Explizierung und
Kodifizierung von Wissen (vgl. Abbildung 1/5). Diese so entstandene Sammlung, soll mittels der
technischen Möglichkeiten dokumentiert und bewahrt werden, um es somit den Mitarbeitern nutzbar,
leicht und schnell zugänglich zu machen (Reinmann-Rothmeier, u.a., 2001, S. 32).
Das durch die Wissensrepräsentation sichtbar und nutzbar gemachte Wissen soll durch die
Wissenskommunikation nun innerhalb der Organisation verteilt werden. Dieser Schritt ist unerlässlich,
da alleine durch die Explizierung und Visualisierung des Wissens, dessen Weitergabe, Nutzung und
Weiterentwicklung nicht garantiert werden kann. Besonders bei weit verzweigten Organisationen
kommt diesem Schritt eine besondere Bedeutung zu. Dieser Schritt erfasst neben der Weitergabe von
Informationen und Inhalten, auch den Austausch und die Teilung von Wissen. Darüber hinaus soll durch
diese Interaktion Mehrwerte entstehen und im Zuge der Kooperation der Einzelnen sollen
Synergieeffekte aufgedeckt und genutzt werden. Zudem können durch die direkte Weitergabe und den
damit verbundenen Kontakt zwischen zwei Akteuren Grenzen, die bei der Weitergabe von implizitem
Wissen auftauchen, überwunden werden. Dieser Aspekt erfasst nicht nur die Initialisierung der
Kommunikation, sondern auch deren Aufrechterhaltung. Dabei ist das Ziel, das gewonnen Wissen über
organisationale Strukturen hinweg zu verteilen und somit die gesamte Kommunikation innerhalb der
Organisation zu verbessern (Reinmann-Rothmeier, u.a., 2001, S. 33).
Durch den Schritt der Wissensgenerierung soll neues Wissen in das Unternehmen geholt und es sollen
innovative Ideen entwickelt werden. An dieser Stelle kann zwischen der externen Wissensbeschaffung
14
durch Berater, neue Mitarbeiter oder Kooperationen und der internen Generierung unterschieden
werden. Letztere soll durch Weiterentwicklung von Wissen, Steuerung von Lernprozessen und
Bereitstellung von Netzwerken erreicht werden. Der Bereich der Wissensgenerierung zielt darauf ab,
die Kompetenzen der Mitarbeiter zu verbessern, die Wissensbasis sowie die Lernfähigkeit der
Organisation zu erweitern sowie innovative Prozesse und Ergebnisse voranzutreiben. Diese einzelnen
Aspekte sind notwendig, da zwar durch Explizierung, also Austausch und die Kommunikation, neues
Wissen geschaffen wird, aber dessen Potential nicht erkannt wird und verloren gehen könnte
(Reinmann-Rothmeier, u.a., 2001, S. 37).
Das durch die Repräsentation, Kommunikation und Generierung erschlossene Wissen muss aber auch
durch die Einbindung in Entscheidungen und Arbeitsabläufe genutzt werden. Dieser Schritte der
Wissensnutzung stellt den schwierigsten Teil eines erfolgreichen Managements dar, da es direkt beim
Handeln der Mitarbeiter und somit in die Arbeitsabläufe eingreift. Obgleich alle vorherigen Schritte eine
wichtige Funktion erfüllen, so ist doch der Einsatz dieses Wissens entscheidend. Unter dem Begriff der
Nutzung wird die Einbindung des erzeugten Wissens in die täglichen Abläufe, die Erzeugung von
Produkten und die Erbringung von Dienstleistungen verstanden (vgl. Reinmann-Rothmeier, u.a., 2001,
S. 39 ff.).
15
1.5.1 Unternehmenskultur ist der entscheidende Faktor
Im weitesten Sinne steht und fällt jedes WM-System mit der Unternehmenskultur, wovon die
Wissenskultur eine Teilmenge ist.
16
Erstens: Feedback darf nicht nur Negatives thematisieren, sondern muss genauso auch das Positive
ansprechen - Lob beflügelt.
Hat ein Mitarbeiter mit einem bestimmten Vorgehen Erfolg, so soll er es allgemein bekannt machen -
der "Best Practice"-Ansatz.
Der größte Feind der Erfolgskultur sind also Neid und Missgunst. Diese Haltung, die oft durch eine
Kultivierung des Wettbewerbs unterstützt wird, kann nicht bekämpft, sondern nur substituiert werden:
Durch Betonung des gemeinsamen Erfolges, durch eine Haltung des gegenseitigen Erfolgreichmachens,
durch permanentes Lob.
2. Offenheit ist die Bereitschaft, sich aktiv und konstruktiv mit seiner Umwelt auseinander zu setzen. Sie zeigt
sich:
17
▪ am Interesse auch für solche Themen, die über dem eigenen unmittelbaren Aufgabenbereich hinausgehen
▪ an der Aufgeschlossenheit, Ideen und Anregungen von außen aktiv aufzugreifen und zu verarbeiten
▪ an der Bereitschaft, sich bei anderen aktiv Anregungen zu holen und anderen Lernmöglichkeiten zu
eröffnen
▪ an der Bereitschaft, Wissen zu teilen
▪ an der konstruktiven Auseinandersetzung mit anderen Meinungen
Sehr negative Kultur: man agiert wie eine zugeklappte Muschel.
3. Vertrauen ist die Bereitschaft, Urteile und Handlungen anderer Personen sowie das Verhalten von
Institutionen hinsichtlich der Auswirkungen auf die eigene Person ohne eingehende Prüfung als positiv
anzunehmen und in das eigene Urteilen und Handeln einzubeziehen. Vertrauensquellen können sein:
▪ beobachtetes Verhalten
▪ positive Erfahrungen beziehungsweise fehlende negative Erfahrungen mit Personen oder Institutionen
▪ das Wissen um bestimmte Eigenschaften
▪ Erwartungen an das zukünftige Verhalten von Personen oder Institutionen.
Vertrauen äußert sich im Austausch von Gedanken und Gefühlen. Das führt zu einem steigenden,
wechselseitigen Einfluss und stärkt die Gemeinsamkeiten bei der Suche nach Handlungsmöglichkeiten und
der Umsetzung von Entscheidungen.
Sehr negative Kultur: man fragt niemand um Rat und Hilfe.
4. Mit Lernbereitschaft und -fähigkeit ist die Bereitschaft und Fähigkeit zum Erwerb von Wissen gemeint,
inklusive der daraus resultierenden Handlungskompetenz. Diese zeigt sich zum Beispiel, wenn Mitarbeiter:
▪ Verhaltensänderungen im Zeitablauf zeigen
▪ Impulse von außen annehmen und in das eigene Handeln einfließen lassen
▪ aus den Ergebnissen des Handelns eigene Schlüsse und Konsequenzen ziehen beziehungsweise diese
Erfahrungen in anderen Situationen berücksichtigen.
Sehr negative Kultur: keine Neigung sich in neue Themen und Techniken einarbeiten zu wollen.
5. Konstruktiver Umgang mit Macht ermöglicht den Beteiligten koordinierte Zusammenarbeit, vermindert
Konflikte und erhöht die Effektivität und Gestaltungsspielräume.
▪ Die Handhabung von Macht wird wahrgenommen, wenn Informationen weitergegeben oder zurück
gehalten werden - sowohl auf kollegialer Ebene als auch zwischen den Hierarchieebenen.
▪ Vorgesetzte leben dabei die Kultur des Wissensaustausches und somit die Machtkultur vor.
Sehr negative Kultur: „Wissen ist Macht“ verhindert die Weitergabe jeglicher Information.
Fragebogen Kulturaudit (Legende: Skala von 0 -7 (0=sehr negativ und 7=sehr gut):
18
1.5.3 Verhinderungsfaktoren eines effektiven Wissensmanagement - Systems
Bellinger listet folgende Verhinderungsfaktoren auf [Bellinger 2007, 34]:
Verhinderungsfaktor 1:
Wissen ist Macht, Nichtwissen macht auch nichts - sofern es niemand merkt.
In den meisten Unternehmen werden Professionalität und der Wert einer Person für das Unternehmen
mit nutzbringendem Wissen gleichgesetzt. Die Kehrseite der Medaille ist, dass viele Mitarbeiter (und je
höher die Stellung, desto ausgeprägter) Nichtwissen als Schwäche deuten, die es zu verbergen gilt. Das
macht es schwierig, Wissensaustausch positiv zu sehen. In vielen Unternehmen lernen nur des Juniors
wirklich schnell. Sie können sich erlauben, aktiv bei Kollegen und Vorgesetzen nachzufragen und -
vorausgesetzt diese nehmen sich entsprechend Zeit - von deren Wissen profitieren.
Verhinderungsfaktor 2:
Volle Transparenz eines anderen Mitarbeiters über bei mir vorhandenes Wissen kommt einem
Machtverlust gleich. Stelle ich nämlich einem anderen Mitarbeiter mein gesamtes Wissen zur
Verfügung, so macht mich das potenziell überflüssig. Das gilt es zu verhindern, daher keine
Wissensteilung.
Gegenüber Vorgesetzten gilt oft auch noch der Grundsatz: Was der nicht weiß, macht ihm nicht heiß.
Manche Vorgesetzten spüren das und reagieren mit übermäßiger Kontrolle darauf, setzen Spione ein,
erscheinen unangemeldet bei Sitzungen etc. Die Mitarbeiter deuten das als Misstrauen - es entsteht eine
Abwärts-Spirale.
Verhinderungsfaktor 3:
Das WM-System nicht zu bedienen, zieht keinerlei Sanktionen nach sich. Ein WM-System sollte einfach
und möglichst schlank sein, damit es mit vertretbarem Aufwand kontrolliert werden kann. Außerdem
muss man sich von vornherein darüber Gedanken machen, wie ein Boykott des WM-Systems
sanktioniert werden kann.
Der IT-Abteilung den Lead über das WM-System zu geben, ist nicht zielführend, da diese das
Wichtigste naturgemäß nicht tun kann: Die Fütterung und die Nutzung zu kontrollieren und zu
sanktionieren.
Vehinderungsfaktor 4:
Offizielle und inoffizielle Informationsprozesse klaffen weit auseinander.
Ein Unternehmen ist gut beraten, das so genannte inoffizielle, über das persönliche Beziehungsnetzwerk
laufende Wissensbeschaffungssystem zu sanktionieren, zu systematisieren und damit zu optimieren.
Hier bleibt einem nichts anderes übrig als die informellen WM-Systeme immer wieder einmal zu
thematisieren. Das ist eine wiederkehrende Management-Aufgabe. Ein hilfreiches Tool dafür ist die
Erstellung einer so genannten "Netzwerkkarte".
Verhinderungsfaktor 5:
Überforderung der Mitarbeiter durch Dokumentationszwang.
Die meisten WM-Projekte scheitern schon in einem sehr frühen Stadium. Die Unternehmen stecken sich
häufig bei WM-Systemen zu hohem Ziel. Sämtliche Informationswünsche sollen berücksichtigt werden
und eine umfassende Datenbank wird generiert, in der anschließend viele Daten schlummeren. Leider
führen Strukturierung, Aktualisierung und Anwendung einer derart umfassenden Datenbank zu einer
Überforderung der Mitarbeiter in zweifacher Hinsicht.
Zum einen können die Mitarbeiter kaum noch abschätzen, welche Informationen mit welchem
Genauigkeitsgrad in die Datenbank eingegeben werden sollen, was dazu führt, dass sie diese Tätigkeit
ständig verschieben und als bürokratischen Dokumentationsaufwand missbilligen.
Zum andern wird die Abrufung von Informationen derart komplex, dass sich Mitarbeiter lieber über
alte, bereits eingespielte Wege das notwendige Wissen beschaffen, so dass das neue WM-System bereits
nach kurzer Zeit brach liegt.
19
Übung
Welche Einstellungen der Mitarbeiter sind bei der Einführung von WM erfolgsfördernd?
Welche Einstellungen der Mitarbeiter sind bei der Einführung von WM erfolgsverhindernd?
Verwenden sie bei der Formulierung möglichst Ich-Sätze, wie z.B. „Ich gebe mit Freude mein Wissen
an Kollegen weiter.“
1.7.1 Wovon sprechen wir, wenn wir von KI sprechen? – eine Philosophische
Betrachtung (Simon Böhm)
Unterscheidung zwischen starker und schwacher KI (nach John Searle): schwache KI ist die stetige
Perfektionierung maschineller Rechenleistung, starke KI die möglichst exakte Nachbildung der
menschlichen Intelligenz – was auch immer das genau ist!
Zwei Begriffsaspekte »Künstlichkeit« und »Intelligenz«
Künstlichkeit: steht in Opposition zur Natürlichkeit, bedeutet also Nachbau eines Vorbilds, bloße
Imitation im Unterschied zu echter Aktion
Intelligenz: psychologische Größe, messbar als Denkgeschwindigkeit, Verarbeitung von
Informationen; in diesem Sinne heißt maximal intelligent zu sein, maximale Problemlösekompetenz
zu besitzen
Philosophische Position des Behaviorismus lange Zeit maßgeblich in der psychologischen
Intelligenzforschung: Reiz bewirkt Reaktion, was dazwischen passiert, ist methodisch unzugänglich
20
Dies führte zur Computermetapher des menschlichen Denkens: Wir funktionieren wie ein Rechner,
der nach einem klaren Schema auf Reize mit einer Reaktion antwortet, sozusagen nach dem Input-
Output-Prinzip funktioniert
Die kognitive Wende hat im späten 20. Jahrhundert die Tür der Forschung auch für mentale Prozesse
geöffnet, die zuvor in der Black Box verschlossen waren: insbesondere Neurowissenschaften sind hier
nun Vorreiter und erforschen die neuronalen Mechanismen, die dem Denken zugrunde liegen
Diskussionsfrage: Wenn das menschliche Gehirn nun wie ein Computer zu funktionieren scheint:
Können Computer dann denken?
Hierzu interessant: der irrtümliche Schluss von der Eigenschaft eines Teils (z.B. dem Gehirn) auf ein
ganzes (z.B. die Person). Formal kann das wie folgt nachvollzogen werden:
Dies ist unzutreffend. Zwar brauche ich mein Gehirn, um zu denken. Ich brauche aber genauso einen
funktionierenden Blutkreislauf, um denken zu können. Hieraus zu folgern, mein Blutkreislauf könne
denken, ist ebenso unzulässig, wie zu folgern, mein Gehirn könne denken.
21
Bekannt ist der Turing Test zum Nachweis, ob ein System künstlich intelligent ist. Der Britische
Mathematiker Alan Turing schlug bereits im Jahr 1950 einen empirischen Test zur Überprüfung
intelligenten Verhaltens einer Maschine durch Vergleich mit einem Menschen (Imitationsspiel) vor:
Eine Person befragt einen Menschen und ein künstliches intelligentes System. Der Tester kommuniziert
nur indirekt über ein Textmedium. Der Tester soll allein aus den Antworten auf seine Fragen
entscheiden, wer Mensch und wer Computer ist. Wenn er das nicht kann, dann - so argumentiert Turing
- kann man annehmen, dass die Maschine intelligent ist.
Der Tester kann jede beliebige Frage stellen. Durch die indirekte Kommunikation soll vermieden
werden, dass der Interviewer durch äußeres Erscheinen oder mechanische Eigenschaften (z.B.
synthetische Stimme) beeinflusst wird.
Problem:
Test ist weder konstruktiv noch reproduzierbar und kann mathematisch nicht formalisiert werden
Das allgemeine Verständnis von KI ist einem steten Wandel unterworfen: Wurden zu Beginn Leistungen
von Maschinen wie automatische Schrifterkennung, symbolisches Gleichungslösen, Routenplanung
(heute unter anderem die Grundlage für Navigationssysteme), maschinelle Übersetzung, Erkennung von
Objekten in Bildern, Aufspüren von Strukturen in großen Datenmengen oder auch Schachspiel als Ziele
der KI verstanden, so sind diese Fähigkeiten heute Allgemeingut, auf jedem Smartphone verfügbar und
werden gar nicht mehr als aus der KI kommend oder ihr zugeordnet wahrgenommen.
Man spricht schon vom neuen Ziel der „Artificial General Intelligence“ (AGI) oder auch „Strong AI“.
Deren Zielstellung sind Maschinen, die jede intellektuelle Leistung des Menschen nachbilden,
einschließlich möglicherweise der Ausbildung von maschinellem Bewusstsein.
1.7.3.1 Vorgeschichte
• Philosophy: logic, methods of reasoning mind as physical system foundations of learning,
language, rationality
• Mathematics: formal representation and proof algorithms, computation, (un)decidability,
(in)tractability probability
• Psychology: adaptation phenomena of perception and motor control experimental techniques
(psychophysics, etc.)
• Economics: formal theory of rational decisions
• Linguistics: knowledge representation grammar
• Neuroscience: plastic physical substrate for mental activity
Control theory: homeostatic systems, stability simple optimal agent designs
Nach der Vorphase 1949-1955, bei der 1949 erste Lernregel für Netzwerke aus Neuronen (Hebb)
aufgestellt wurden und der erste Autopilot-Mechanismus eines B24 – Bombers entstand, folgten
folgende 5 Phasen (1.7.3.2-1.7.3.6):
22
dass Computer auch befähigt sind Symbole zu verarbeiten.
1969 DENDRAL: Ableitung von Molekular-Strukturen aus Daten eines Massenspektrometers mit
Regeln zur Identifikation von Substrukturen, die aus einem theoretischen Modell abgeleitet
wurden (Buchanan).
In Europa wird Anfang der 1970er Jahre die Logikprogrammiersprache Prolog entwickelt. Prolog
gilt dabei als europäisches Gegenstück zu LISP und hat den Vorteil, dass die verwendete
Prädikatenlogik direkt als Programmiersprache genutzt werden kann.
23
1975 Entwicklung von Frames (Minsky) zur Wissensrepräsentation, Aufbau von Taxonomien
1976 MYCIN, medizinisches Expertensystem mit 450 Regeln und Unsicherheitsfaktoren von
Shortliffe und Buchanan zur Erkennung von Infektionskrankheiten
1982 R1 ist erstes kommerzielles Expertensystem (Konfiguration von Bestellungen
von Rechnersystemen)
1981 Ankündigung der 5. Rechner-Generation (Prolog-basierte Rechner) durch Japaner mit der
Folge: Forschungsprogramme werden aus Angst vor einer japanischen Vorherrschaft neu belebt
~ Entwicklung von LISP-Maschinen (Symbolics, Lisp Machines Inc.)
~ erste Systeme für die industrielle Bildverarbeitung
~ Wiederaufleben Neuronaler Netzwerke (Multilayer)
1984 Konzeption eines Management Expertensystems [Popp84]
Die Folgezeit ist vor allem durch eine umfassende Mathematisierung des Gebietes, eine Präzisierung
des Konzepts der Wissensverarbeitung und das Aufgreifen neuer Themen gekennzeichnet wie
Verteilte Künstliche Intelligenz (KI), d.h. das Wissen ist auf mehrere Rechner oder Wissensbasen
aufgeteilt und ein Master zieht dieses Wissen zusammen
Neuronale Netze (NN) mit mehreren Schichten wie Hopfield-Modell, Backpropagation
Lernalgorithmus.
Verarbeitung verschiedener Qualitätsstufen von Information, wie z. B. die Verarbeitung unscharfer
Information (Fuzzy).
Fünf Bundesländer richteten Forschungsinstitute für KI ein, die Grundlagenforschung betrieben und
immer mehr dazu übergingen, in Firmen Lösungen mit Hilfe der Techniken der Wissensbasierten
Systeme zu erzeugen. z.B. Bayern mit den FORWISS (1990-1999), Baden-Württemberg mit dem FAW
in Ulm, Saarland mit dem DFKI.
Man wandte sich verstärkt den praktischen Problemen der realen Welt zu.
Man befragte menschliche Experten, wie sie in der Praxis Probleme angingen und nach Lösungen
suchten und bildete dieses Wissen in den Computer ab.
Man verwendete formalisiertes Problemlösungswissen
Es entstanden die sogenannten Expertensysteme.
Erste Systeme zur automatisierten Übersetzung verlassen die Labors und finden ihren praktischen
Einsatz.
Es entstanden immer mehr Werkzeuge, die sich zur Entwicklung von WbS eigneten.
Die Forschungsgruppe WI am FORWISS entwickelte Expertensystem als Elektronische Verkäufer
(Triumph Adler), intelligente Berichtssysteme für GfK und Datev oder SAP.
Die These, Intelligenzphänomene allein auf der Basis von Symbolverarbeitung untersuchen zu können,
ist mittlerweile durch den Einfluss der Kognitions- und Naturwissenschaften relativiert worden, da zur
Erklärung bestimmter Phänomene (insb. der Wahrnehmung) der Einbezug der physikalischen Basis, auf
der die Intelligenz realisiert ist, zu weiteren Erkenntnissen führt.
25
1.7.4 Grobüberblick über die KI Gebiete/-Technologien
Es gibt mehrere grundsätzlich verschiedene Vorgehensweisen, um intelligente Eigenschaften in Systemen zu
realisieren. Man unterscheidet je nach Ausgangspunkt zwischen
Symbolischer Wissensverarbeitung
Subsymbolischer Wissensverarbeitung
Bei der subsymbolischen Wissensverarbeitung will man mittels Maschineller lern-Techniken, z.B.
Neuronaler Netze, intelligentes Verhalten erzwingen.
Bei Neuronalen netzen werden Netzwerke aus Schaltelementen mit geeigneten Verbindungen zwischen ihnen
aufgebaut. Jedes Element kann im Prinzip mit jedem anderen Element verbunden sein. Jedes Element hat eine
bestimmte Anzahl von Eingängen und genau einen Ausgang. Die Verbindungsstärke wird durch einen
Gewichtsfaktor beschrieben. Das Element verhält sich wie ein Schwellenwert, das genau dann ein Signal an seinen
Ausgang weiterleitet, wenn an den Eingängen Signale anliegen, deren gewichtete Summe einen definierten
Schwellwert überschreitet.
Bei der symbolischen Wissensverarbeitung wird versucht, intelligente Phänomene auf der
Begriffsebene zu lösen.
z.B. man hat zwei Aussagen,
Prüfung bestanden
50% der Punkte erreicht
denen weist man Symbole (z.B. p und q) zu und versucht ihre Beziehung zueinander in Implikation, Äquivalenz
oder Negationssymbolik auszudrücken, z.B. hier durch die Implikation q→p.
Das Problem wird von oben her (top-down) angegangen. Man nimmt dabei an, dass sich eine
symbolische Sicht der Begriffe, Wörter und sprachliche Gebilde sowie deren Bedeutung finden lässt.
Weiterhin nimmt man an, dass sich das menschliche rationale Denken auf dieser symbolischen Ebene
simulieren lässt.
Gegenstand der symbolischen Wissensverarbeitung ist die Bedeutung, die sich einem Prozess vermöge
symbolischer Beschreibung zuordnen lässt.
So werden logische Schlüsse mit Hilfe regelbasierter Systeme gezogen, also mit Hilfe von Systemen,
bei denen das Expertenwissen in Regelform vorliegt.
Über den Lauf der Zeit entwickelten sich einige wesentliche Teilbereiche innerhalb der Künstlichen
Intelligenz, siehe Abb. 1/8 ausserhalb des Kreises, von denen betrachten wir nun die wichtigsten
überblicksartig.
26
1.8 Literatur und Kontrollfragen
1. Armutat Sascha, u.a.: Wissensmanagement erfolgreich einführen, DGFP 2002
2. Bellinger Andrea, David Krieger (2007): Wissensmanagement für KMU, cdf
Hochschulverlag Zürich, S. 31 ff
3. Bodendorf Freimut (2006): Daten- und Wissensmanagement. Springer Verlag.
4. Bullinger, H.-J., Wörner, K., Prieto, J. (1998): Wissensmanagement heute – Daten,
Fakten, Trends, Studie des Fraunhofer-Instituts für Arbeitswissenschaft und
Organisation, Stuttgart.
5. Davenport, Th., Prusak, L. (1998): Wenn Ihr Unternehmen wüsste, was es alles weiß
... – Das Praxisbuch zum Wissensmanagement, mi Verlag Moderne Industrie.
6. Müller Michael; Ferdinand Förtsch (2015): Wissensmanagement, Kommunal- und
Schulverlag Wiesbaden, S.30-38
7. Pircher Richard (2010): Wissensmanagement, Wissenstransfer, Wissensnetzwerke –
Konzepte, Methoden und Erfahrungen. Verlag: Publicis Publishing, Erlangen
8. Popp, H. E. (1984): Mensch- Mikrocomputer Kommunikationssystem
- Management Expertensystem in der chemischen Industrie auf der Basis
eines universellen Daten- und Prozeduralmodells auf einem
Mikrocomputerverbundsystem, Dissertation Regensburg, 260 S.
9. Probst, G., Raub, S., Romhardt, K. (1997): Wissen managen – Wie Unternehmen ihre
wertvollste Ressource optimal nutzen, Wiesbaden.
10. Reinmann-Rothmeier, Gabi, Mandl, Heinz (2000): Individuelles Wissensmanagement.
Bern [u.a.], Huber.
11. Reinmann-Rothmeier, G., Mandl, H., Erlach, C., & Neubauer, A. (2001).
Wissensmanagement lernen: Ein Leitfaden zur Gestaltung von Workshops und zum
Selbstlernen. Weinheim und Basel: Beltz.
12. Wille Rudolf (2000). Begriffliche Wissensverarbeitung: Theorie und Praxis.
Informatik-Spektrum 6/2000.
13. Russel Stuart, Norvig Peter: Künstliche Intelligenz. Ein moderner Ansatz. 3.
Auflage, Pearson Studium, 2012
14. Görz, G., Schneeberger, J. & Schmid, U., 2014. Handbuch der Künstlichen
Intelligenz. 5. Hrsg. München: Oldenbourg Verlag München.
15. Knoll Alois Christian: Künstliche Intelligenz und Robotik: Motor für Innovation.
ZD.B DIGITAL DIALOGUE POSITIONSPAPIER 2018.
Kontrollfragen
1. Geben Sie bitte eine kurze Definition von Wissen, Daten und Information
2. Was ist Wissenslogistik?
3. Was macht das Wissenskapital eines Unternehmens aus?
4. Skizzieren sie die Teilprozesse von Wissensmanagement nach Probst und geben sie je
Teilprozess ein Beispiel.
5. Beschreiben sie die Prozesskategorien des WM vom Münchner Modell (Mandl) und
geben sie je Kategorie ein Beispiel.
6. Sie sollen ihr Unternehmen/ihre Fakultät überzeugen WM zu betreiben. Stellen sie
fünf Nutzeffekte von WM dar.
7. Skizzieren sie 4 Kulturfaktoren der Unternehmenskultur fürs WM!
8. Beschreiben sie, wie sie ein Wissenskultur-Audit durchführen würden.
9. Nennen sie 4 Verhinderungsfaktoren eines effektiven Wissensmanagement – Systems!
10. Nennen sie 4 Empfehlungen, die man aus der Betrachtung von Soft Factors für
Führungskräfte bei der Einführung von WM aussprechen kann.
27
11. Da die Ergebnisse eines Kulturaudits schlecht für den Start des
Wissensmanagementprojektes waren, schlagen sie drei kulturverändernde Maßnahmen
vor.
12. Geben Sie einige Eigenschaften an, die intelligentes Handeln (menschliche
Wissensverarbeitung) voraussetzen.
13. Beschreiben Sie das Grundprinzip des Turing – Tests. Was sind Kritikpunkte am Turing-Test?
14. Welche Ereignisse fallen in die Romantische Epoche der KI-Geschichte?
15. Welche drei fundamentalen Schwierigkeiten traten Mitte der sechziger Jahre in der KI-
Forschung auf?
16. Beschreiben sie die aktuelle KI-Phase!
28
2. Wissenssuche
2.1 Wissenssuche mit Online-Datenbanken
Die Anbieter von Datenbankdienstleistungen füttern die Datenbank (DB) mit den Informationen und
stellen diese den Interessenten zur Verfügung.
Weltweit existieren ca. 9500 öffentlich zugängliche Datenbanken (DB) zu den unterschiedlichsten
Fachgebieten.
Die Datenbanken sind heute international nutzbar und umfassen bereits alle denkbaren Gebiete. Die
Palette reicht von Börseninformationen, die weltweit aktuell abgerufen werden können, über
Firmeninformationen bis hin zu Ausarbeitungen zu fast allen Themen. Auch Printmedien speichern
vermehrt ihre Artikel in DB ab.
Einige Verbände weisen auf typische Branchendatenbanken hin oder bieten selbst entsprechenden
Service an. Durch die Übertragungsmöglichkeit auf die eigene Anlage können die Daten unverzüglich
verarbeitet werden.
Unter der URL rzblx10.uni-regensburg.de/dbinfo/?bib_id=allefreien hat man eine Linkliste zu mehreren
Tausend Online-Datenbanken, die in 41 Kategorien eingeteilt sind. Eine davon ist
Wirtschaftswissenschaften mit 333 Online-Datenbanken.
Umsatzverteilung 2003
– Finanzen 58,7%
– Nachrichten 5,8%
– Wirtschaft 26,1%
– Wissenschaft/Technik 5,0%
– Literatur 3,7%
Für Finanzdatenbanken wird von den Benutzern bereits viel gezahlt (z.B. für Auskunft
Kreditwürdigkeit). Finanz-DB wird im Umsatzanteil etwas zurückgehen und Nachrichten-DB und
Wirtschafts-DB ansteigen.
Je nach Art des Inhalts und nach den Nutzungsmöglichkeiten gibt es folgende 5 verschiedene Arten von
Online-Datenbanken:
- bibliographische Datenbanken (Bayerischer Bibliotheksverbund OPAC)
- textuelle Information (WTI Frankfurt)
- numerische Information (DETHERM- thermodynamische und thermophysikalische Daten von
Reinstoffen und Stoffgemischen)
- Volltext DB (Genios)
- multimediale Datenbanken (Online-Informationsdienste, z.B. T-Online oder kicker.de)
Es wird erwartet, dass in den kommenden 15 Jahren bis zu 10% der kleineren Zeitungen und
Zeitschriften vom Markt verschwinden werden, weil die Verbraucher mit Hilfe der leistungsfähigen
Datennetze auf Online-Informationsdienste zurückgreifen.
29
2.1.2 Bibliographische Daten
Bibliografische Datenbanken sind Literaturdatenbanken zu einem bestimmten Fachgebiet oder Thema
und enthalten bibliografische Angaben wie Verfasser, Titel und Erscheinungsjahr eines Werkes,
manchmal auch eine kurze Annotation.
Ausgehend vom Bibliothekskatalog der eigenen Hochschule kann man zentraler Verbundkataloge
anfragen.
Beispiel: unter Schlagwort oder Titel(wörter) „Wissensmanagement“ eingeben; man lässt sich Treffer
über Weblogs anzeigen; verknüpft man Wissensmanagement mit Jahr „2013“; dann geht man auf den
Index-Button bei „Wissensmanagement“ so findet man unter verwandte Begriffe „wissensbasierte
Systeme“; dieser wird markiert→ Auswahl übernehmen→suchen
Bei Verwendung von mehreren Attributen in Abb. 2.1/1 kann man vorne bei jedem Attribut auswählen,
ob diese mit „und“ oder „oder“ oder „und nicht“ verknüpft werden sollen.
Im Unteren Bereich kann man die Suche eingrenzen durch Spracheinstellungen oder durch
Erscheinungsformen (Zeitung, Print-Buch, E-Book, usw.) oder Erscheinungszeit von – bis.
2.) Der „Gateway Bayern“ mit Bestand aller wissenschaftlichen Bibliotheken in Bayern ist unter
folgender Adresse zu erreichen:
https://www.th-deg.de→Studierende→Bibliothek→Recherche und Datenbanken →Buchsuche
→GatewayBayern oder direkt unter: https://opacplus.bib-bvb.de/TouchPoint_touchpoint/start.do
Lesen sie beim ersten Mal die Suchtipps unter den Eingabeformularen!
Anfragebeispiele: Bücher und Berichte von Heribert Popp. Wo steht die Dissertation von 1992 überall?
Frage: outsoursing und nicht offshore
Frage: Seniorentourismus
Suche nach den bibliographischen Daten von einem Tagungsband „Spezialbibliotheken auf dem Weg
zur virtuellen Bibliothek in Hamburg 21-25.3“
Wird man hier nicht fündig, so bietet sich dort die Möglichkeit, direkt im „WorldCat“
(www.worldcat.org), einen übergeordneten Katalog, zu suchen. OCLC hat diesen umfangreichen
Katalog mit über 271 Mio. Einträgen und 1,8 Mrd. Standortreferenzen ins Netz gestellt. Der
30
„WorldCat“ bietet neben der Verschlagwortung (Tagging) auch Nutzerrezensionen. Auf diese Weise
sollen die Nutzer eingebunden werden, um die Attraktivität des Katalogs zu steigern.
Beispiel: Frage: Seniorenmarketing
Oft helfen Thesauri weiter. Sie dienen als Kontrollmöglichkeit, ob der gesuchte Begriff überhaupt im
kontrollierten Vokabular der Datenbank verzeichnet ist.
Hier steht die Onlinedatenbanken TEMA- Technik und Management kostenlos zur Verfügung:
Beispiel: Zunächst bei TEMA Beschreibung anschauen (was sie enthält und wie ein Dokument
aussieht), dann Suchbegriff „genetische Algorithmen“; erstes Dokument markieren und anzeigen lassen;
Zur Suche gehen und INDEX anklicken (man erhält Wortvariationen mit diesen Wörtern; Zur Suche
gehen und auf Thesaurus klicken. Begriff innerhalb Hierarchie evtl. auswählen und für Suche
übernehmen. Sie können hier auch einen Dauerauftrag einrichten, dann wird regelmäßig ihr Suchprofil
gegen die Datenbank gemacht.
Suchbeispiele
1. Welche Patente oder Gebrauchsmuster hat die Firma MAN in Augsburg seit 1996 angemeldet?
(Patentanmelder: MAN Augsburg)
Anmeldezeitraum: 01.01.1996 bis 31.1.2016
Ein Dokument anschauen
2. Ist Herr Klaus Rieck als Erfinder eingetragen?
3. Ist die Patentschrift mit der Publikationsnummer 29521450 in der Datenbank?
4. Gesucht werden Patent- und Gebrauchsmuster zu Airbags in den Jahren zwischen 2006 und 2007.
z.B. Artikel lautet „Auf der Suche nach dem Stein des Weisen; S. 24-36“
Eintippen: „Suche Stein Weisen“
32
Findet man Autor Meffert und Jahr usw.
z.B. „papierlose Logistik“
z.B. Titel „wissensmanagement“ Zeit „letzten 12 Monate“
Folgen sie rechts unten dem Link zu www.Genios.de und betrachten sie dort die Produkte (1000 DB).
Sie finden Datenbanken in den Bereichen
• Pressedatenbanken im Volltext (z.B. Ökotourismus)
• Unternehmensinformationen (über 3 Mio Unternehmen)
• Markt- und Brancheninformationen (über 5000 Marktstudien)
• über 5 Mio. Presseartikel
Man findet weltweite Geschäftskontakte, bis zu 15 Jahre zurückreichende Pressearchive etwa vom
Handelsblatt, Spiegel, Tagesspiegel, Berliner Zeitung, Zeit, VDI-Nachrichten und Regionalzeitungen
sowie spezialisierte Fachsammlungen.
Beispiel: Produkte – Datenbank A-Z; z.B. GfK Dossier oder über alle Datenbanken suchen mit
„Ökotourismus“, Preise der Treffer in den jeweiligen DB anschauen.
JURIS.de ist die umfassende juristische Datenbank für Rechtsprechung (allein 65653 Entscheidungen
der Finanzgerichtsbarkeit und anhängige Revisionen), Literaturnachweise, Bundesrecht, Landesrecht,
EG-Recht, Asylrecht, Umweltrecht und technisches Recht.
(*Java muss am Rechner installiert sein*).
Beispiel: erweiterte Suche; Gericht Deggendorf→Suche,Liste, Dokument
V. Zugriff zu E-Books
www.th-deg.de→Studierende →Bibliothek-->E-Books
https://www.th-deg.de/de/studierende/bibliothek/e-books#nav
1. EBSCOhost eBook Collection (4.400 E-Books aus sämtlichen Fachgebieten
33
2. Springer-eBooks (Technik (2006-2015 – deutsch), Wirtschaft, Informatik (2006-2015 – deutsch),
Wirtschaftswissenschaften (2006-2015 – deutsch),
3. WISO-eBooks
4. De Gruyter-eBooks
5. Hanser-eBooks
6. UTB-eBooks
7. Vahlen-eBooks
Kontrollfragen
1. Wie viele Online-Datenbanken gibt es ungefähr? Welche Klassen erbringen den größten Umsatz?
Wie werden Sie in Deutschland angenommen?
2. Klassifizieren sie Online Datenbanken und geben sie je Klasse ein Beispiel!
3. Charakterisieren Sie die Suche in Online-Datenbanken!
4. Beschreiben Sie grob den Leistungsumfang von WTI-Frankfurt!
34
2.2 Wissenssuche im Internet - Suchdienste
Um im World Wide Web die benötigten Informationen zu finden, können Suchdienste zu Hilfe
genommen werden.
Nutzerstatistik
Laut einer Studie nutzen über 60% der Befragten häufig oder regelmäßig Suchmaschinen. Betrachtet
nach Altersgruppen lässt sich feststellen, dass die Nutzer von Suchmaschinen tendenziell jünger sind
(14 bis 29 Jahre) und die Nutzung mit steigendem Alter der User kontinuierlich abnimmt.
35
Abb. 2.2/1: Maske der Erweiterten Suche bei Google
2.2.3 Suchbegriffe
Die Suchbegriffe d. h. Schlüsselwörter oder Keywords weisen bestimmte Eigenschaften auf, die zu
beachten sind, um zielführende Ergebnisse aus Suchdiensten zu erhalten.
Der Unterschied zwischen Groß- und Kleinschreibung ist kaum noch vorhanden, allerdings stellen
Wörter in Ein- und Mehrzahl für Suchmaschinen verschiedene Begriffe dar. Bei zusammengesetzten
Wörtern sollte je nach Bedeutung die getrennte Schreibweise bevorzugt werden.
Die Reihenfolge der Wortkombination beeinflusst ebenfalls das Suchergebnis. So bringen die
Suchbegriffe „berlin hotel“ (116Mio Treffer) und „hotel berlin“ (166 Mio Treffer) in Google
abweichende Ergebnisse. Mittlerweile verwenden über 50% der User Wortkombinationen, das bedeutet,
sie geben nicht nur ein Schlüsselwort, sondern mehrere Suchbegriffe ein. Dieser Anteil erhöht sich
tendenziell in der Zukunft.
Sonderzeichen wie Bindestriche oder Umlaute werden meist gut erkannt und es macht nur einen
geringen Unterschied in den Ergebnissen. Bei Verwendung der alten oder neuen Rechtschreibung
werden zumeist beide Varianten gefunden.
Stoppwörter, also Wörter, die zwar im Text vorkommen, aber von Suchdiensten anders als normale
Schlüsselwörter behandelt werden, stellen eine weitere Schwierigkeit bei der Suche dar. Dies sind
beispielsweise Artikel (z. B. der, die, das, ein, eine) oder Pronomen (z. B. ich, du, er, sie, es). Vor einiger
Zeit noch ignorierten Suchdienste diese Wörter, was sich mittlerweile geändert hat. So bringt z. B. die
Suche mit dem Stoppwort „in“ (also „hotel in berlin“) bei Google eine höhere Trefferzahl als zuvor.
Desweiteren ist auf die korrekte Rechtschreibung zu achten, wobei fehlerhafte Eingaben meist ebenso
Treffer erbringen, da andere User den gleichen begingen. Viele Suchmaschinen bieten eine
Korrekturfunktion, beispielsweise Google mit dem Hinweis „Meinten Sie:“.
Eine Funktion in Google ermöglicht die Recherche des Beliebtheitsgrades eines bestimmten
Keywords in Verbindung mit einem gewählten Zeitraum, dem regionalen Interesse und den konkret
benutzten Suchbegriffen.
www.google.com/insights/search
Beispiel: deggendorf
36
2.2.4 Bestandteile der Ergebnislisten
Überwiegend bestehen die Ergebnislisten der Suchdienste aus organischen Treffern und Sponsored Ads
sowie Payed-Listing-Einträgen, deren Darstellung je nach Suchdienst variieren. Die organischen Treffer
sind die unbezahlten Suchergebnisse, während die Sponsored Ads und Payed-listing-Einträge von
Unternehmen bezahlte Einträge sind. Diese werden zumeist an prominenter Stelle z. B. am Beginn der
Liste gezeigt und beinhalten kommerzielle Angebote.
Die Reihenfolge der Sponsored Ads/Payed-listening Einträge hängt davon ab, wer für einen Klick mehr
bereit ist zu zahlen. Also die obersten zahlen am meisten für einen Benutzerklick, z.B. bei Google den
Suchbegriff „Versicherungsvergleich“ eingeben.
Die Reihenfolge der organischen Treffer hängt z.B. von Google´s Page Ranking Verfahren ab. Bei
Google werden Treffer weiter oben angezeigt, wenn auf deren Homepage mehr Links von anderen
Homepages verweisen als auf die Homepages der weiter unten angezeigten.
Beispiel: Verweisen z.B. auf die Homepage www.th-deg.de 1100 andere Homepages und auf die
www.oth-aw.de 1200, so wird bei der Frage nach „bayerischen Hochschulen“ der Treffer Amberg-
Weiden vor dem Deggendorfer Treffer angezeigt.
Aus der Aufteilung der Ergebnislisten und Positionierung der Treffer entstanden die zwei
Themenbereiche Suchmaschinenoptimierung (SEO) und Suchmaschinenmarketing (SEM).
Die Suchmaschinenoptimierung umfasst Maßnahmen, die dazu dienen, dass Webseiten auf den
Ergebnisseiten innerhalb der organischen Treffer auf höheren Plätzen erscheinen. So ist ein häufiger
Wechsel der URL Gift für eine gute Position im Google Page-Ranking.
Das Suchmaschinenmarketing befasst sich dagegen mit dem gezielten Einsatz von bezahlten
Suchmaschineneinträgen, um Kunden zu gewinnen.
2.2.5 Nutzerverhalten
Nach einer Statistik der meistgenutzten Suchmaschinen in Deutschland im Februar 2015 hatte die
Suchmaschine Yahoo einen Marktanteil von 1,66 %. Google, die Suchmaschine des US-
amerikanischen Unternehmens Alphabet Inc., war mit großem Abstand Marktführer mit Anteilen von
über 90 %. Das Schlusslicht in dem Ranking bilden die Suchmaschinen von GMX, Search.com und
Conduit mit Marktanteilen von unter 0,05 %.
Bei der mobilen Nutzung von Suchmaschinen entfällt der größte Marktanteil auch auf Google mit
knapp 92 Prozent weltweit. Mit großem Abstand folgen Yahoo (5,98 %) und Bing (1,68 %).
(http://de.statista.com/statistik/daten/studie/167841/umfrage/marktanteile-ausgewaehlter-
suchmaschinen-in-deutschland/)
Als nächster Aspekt soll auf das Vorgehen der Nutzer bei der Auswertung der Ergebnisse von
Suchdiensten eingegangen werden. Untersuchungsgegenstand der zugrunde gelegten Studie war das
Vorgehen bei der Betrachtung einer Google-Ergebnisliste mit den kumulierten Ergebnissen über alle
Such- und Nutzungsszenarien hinweg. Die Aufmerksamkeitsverteilung auf den Google-Ergebnislisten
verläuft nach einem F-Muster, denn die Blicke wandern auf der Suche nach den relevanten Key Words
vertikal auf der linken Seite von oben nach unten. Erscheint nun ein Ergebnis relevant für die eigene
Anfrage, wird es von links nach rechts flüchtig gescannt.
Das primäre Selektionskriterium und Entscheidungsmerkmal zur Auswahl der Treffer ist die Position
des Suchergebnisses, denn die oberen Suchergebnisse suggerieren den Nutzern deren höhere Relevanz.
Rund 45 Prozent der Klicks entfallen auf die oberen organischen Suchergebnisse, während die darüber
liegenden Sponsored Ads von knapp 40% der User ausgewählt werden.
Neben der Positionierung entscheidet vor allem die Übereinstimmung der Ergebnisse mit dem
eingegebenen Suchbegriff, ob das Resultat angeklickt wird, denn das KeyWord wird bereits in der
Überschrift erwartet. Ob nach dem kurzen Abgleich mit dem Ergebnistitel der darunter aufgeführte Text
oder die URL in den Fokus der Betrachtung rückt, ist wiederum abhängig von der Intention des Nutzers.
37
Wegen dem Page-Ranking von Google hat sich eine Backlinking-Technik herausgebildet. Es ist aber
davon auszugehen, dass sich der Umgang mit Backlinks gravierend verändern wird. Google bewertete
ja im Page-Ranking: je öfter von anderen Seiten auf die entsprechende Page verwiesen wurde, desto
besser war jene im Google-Ranking vertreten. Es ist hinreichend bekannt, wie viel Schindluder damit
getrieben wurde: Seitenbetreiber kauften Backlinks im 10.000er-Pack aus Russland, Vietnam oder
China, um ihre Inhalte nach oben zu katapultieren. Darauf reagierte Google schließlich vor gut drei
Jahren mit dem Penguin-Update, das in der Lage ist, überoptimierte Webseiten zu erkennen und in ihrer
Wertung herabzusetzen. Heute geht es bei Backlinks daher um Klasse statt Masse: Statt Verlinkungen
im großen Stil einzukaufen, gilt es vielmehr, Inhalte aufzubauen, die so gut sind, dass sie von allein
verlinkt werden. Content Marketing ist für ein solches organisches Linkbuilding das Gebot der Stunde.
Suchmaschinen wie Google werden immer besser darin, die tatsächliche Inhaltsqualität einer Seite zu
beurteilen und sie mit der Suchintention der Nutzer abzugleichen. Stattdessen werden sogenannte Social
Signs an Bedeutung gewinnen: Empfehlungen von untereinander vernetzten Usern werden in den
nächsten Jahren eine immer wichtigere Rolle spielen.
(http://de.statista.com/themen/111/suchmaschinen/)
2.) Eine weitere Entwicklung der Suchdienste ist die personalisierte Suche. Zum einen ist die
Personalisierung der Eingabemaske z. B. bei Google+ oder Mein Yahoo möglich und zum anderen kann
ein Nutzerprofil generiert werden, das bei zukünftigen Suchen zur Eingrenzung der Treffer
herangezogen wird. Dazu ist allerdings der Zugang zu persönlichen Daten notwendig z. B. E-Mail-
Accounts, Adressbücher oder Shopping-Profile. Anwendungsbeispiele hierfür sind Google
Webprotokoll und My Web von Yahoo.
Vorbei sind auch die Zeiten, in denen alle User die gleichen Suchergebnisse erhielten: Schon jetzt
werden die aufgezeigten Ergebnisse anhand von Faktoren wie der geographischen Position oder der im
Browser eingestellten Sprache regionalisiert. Aber bei der Ergebnisausgabe für regionale Cluster wird
es nicht bleiben: Gerade Google wird immer besser darin, zu erkennen, wo seine Nutzer leben, wohin
sie reisen, wie sie arbeiten und was sie einkaufen. Das mag auf den ersten Blick vor allem erschrecken
– es bietet aber auch die Gelegenheit, jedem Internetuser individuell auf ihn zugeschnittene Ergebnisse
zur Verfügung zu stellen. Schon heute gibt es erste Dienste, bei denen Search Engines Daten kumulieren
und dadurch Services bieten, noch bevor der Nutzer überhaupt nach ihnen sucht. Und in nicht allzu
ferner Zukunft wird dies noch viel weitreichender funktionieren als der Smartphonewecker, der uns eine
halbe Stunde früher weckt, wenn auf unserem Weg zur Arbeit Stau angekündigt ist.
3.) In der sozialen Suche wird auf Social Networking gesetzt, bei dem der User Bekannte, Freunde
oder Kollegen einlädt und von deren Such- sowie Klickverhalten profitiert und umgekehrt.
Voraussetzung sind ähnliche oder identische Interessen z. B. innerhalb einer Firma oder eines Vereins.
Es wird ermöglicht, die Suchanfragen aus dem Bekanntenkreis zu sehen und sogar die betreffenden
Personen via Mail zu kontaktieren.
Die Suchergebnisse werden danach gewichtet, wie interessant die Seiten für andere Benutzer sind, was
ebenfalls die Gründung von Interessensgemeinschaften zu einem bestimmten Themengebiet
voraussetzt. Der Benutzer benötigt für Google Social Search ein Konto bei Google, bei dem er Links
zu seinen sozialen Netzen angibt, also etwa zu seinem öffentlichen Twitter oder Friendfeed-Profil.
Zudem werden auch andere Benutzer in der Gmail-Chat-Liste sowie andere als Freunde, Familie und
Kollegen markierte Personen aus dem Google-Adressbuch ausgewertet.
Google erklärt, dass die Online-Rezension von einem Freund möglicherweise relevanter ist als eine
fremde Rezension. Darum werden in der sozialen Suche Ergebnisse von bestehenden Verbindungen zu
38
Freunden hervorgehoben, doch nicht immer sind diese sofort zu erkennen, da nicht alle Freunde Google
Plus aktiv nutzen um Inhalte öffentlich zu bewerten oder zu teilen. Um die soziale Suche zu
beeinflussen, kommen die Infos ausfolgenden Quellen:
* Blogs, Website und weitere Inhalte, die ein User erstellt oder
geteilt hat
* Bilder, die von den eigenen sozialen Verbindungen geteilt wurden
* Google Reader-Abonnements
* Sämtliche bekannte Web-Profile wie Twitter und Flickr
* Inhalte, die über die Google+1 Schaltfläche empfohlen oder
geteilt wurden
Um personalisierte Ergebnisse in der die soziale Suche zu erhalten, reicht
schon ein Google Mail Konto aus.
Als Nachteile der sozialen Suche ist der notwendige Zugang zu persönlichen Daten zu nennen. Darüber
hinaus müssen Gruppen und Interessensgemeinschaften gebildet sowie gepflegt werden.
Personensuchmaschinen erfassen häufig Profilbilder aus Sozialen Netzwerken und binden diese mittels
eines Link auf ihrer Webseite ein.
Hat der Nutzer in dem Sozialen Netzwerk seine Daten nicht für Dritte
gesperrt, ist eine solche Vorgehensweise der Personensuchmaschinen-betreiber sogar zulässig (OLG
Köln).
http://www.social-searcher.com/google-social-search/
Interessensgemeinschaften kann man mit http://www.xing.de oder http://www.LinkedIn.compflegen
Die wissensbasierte Suche kann verschiedene Ausprägungen aufweisen, die im Folgenden anhand von
Beispielen verdeutlicht werden.
Bei Yahoo! Clever (http://de.answers.yahoo.com) können Fragen gestellt werden, auf die andere Nutzer
per E-Mail oder online antworten. (Yahoo →clever)
COSMiQ (http://www.cosmiq.de/) ist eine Wissenscommunity und Plattform für Meinungs- sowie
Sinnfragen, die ursprünglich von Lycos veröffentlicht wurde und nun von Burda Media betrieben wird.
Als angemeldete User ist man Experte und kann gestellte Fragen beantworten. Diese Antworten werden
vom Fragesteller bewertet und je nach Punktezahl kann der Nutzer im Rang von Einsteiger über
Studenten bis hin zu Professor und Nobelpreisträger aufsteigen.
Google´s Volltextsuche erreicht bei Suchanfragen der Art „plants with edeble leaves“ ihre Grenzen.
Viele Dokumente werden zwar „edible leaves“ enthalten, aber wahrscheinlich nicht das Wort „plants“
oder eine Variation davon. Stattdessen werden dien namen einer bestimmten Pflanze enthalten wie
„broccoli“. Hier würde man das Wissen benötigen, dass es sich bei „broccoli“ um eine spezielle „plant“
handelt. Auch will man als Ergebnis keine Liste von Dokumenten, sondern eine Liste von Pflanzen.
Semantische Suche erfordert eine Funktionalität jenseits dessen, was Volltextsuche imstande ist wie:
Suche nach Vertreter einer gegebenen Klasse anstatt nach Worten, Diversität der Ergebnisse, pro Treffer
Kombination von Informationen aus verschiedenen Quellen.
Beispiel: Online-Demo einer sem. Suchmaschine: broccoli.informatik.uni-freiburg.de. (example Video)
Zu lösende Probleme sind: Wie kommt man an dieses Wissen über Beziehungen, wie zu Ober- und
Unterbegriffsbeziehung (Ontologie). Wie erkennt man in einem Text Referenzen auf Vertreter einer
Klasse, wie händelt man den großen Index? Wie versteht man, nach was gefragt wurde? Wie erstellt
man als Ergebnis Textauszüge.
39
Technik um Semantische Suche zu realisieren: Mittels Ontologien, siehe Kap. 3.2.2.
Google hat mit ALLO eine Möglichkeit entwickelt, per Instant Message mit sogenannten Chatbots zu
kommunizieren. Sie sollen Fragen beantworten und Probleme lösen können, wie das Wall Street Journal
von Quellen erfahren hat. Die Google-Suche kann aktuell schon Fragen beantworten, und mit Google
Now hat Google auch einen sprachgesteuerten Assistenten im Angebot, der reagieren und Suchen
durchführen sowie auch wahrscheinlich benötigte Informationen proaktiv bereitstellen kann. Ein
Chatbot-System würde sich von diesen Angeboten möglicherweise nur durch die Aufbereitung der
Ergebnisse unterscheiden. Google Hangouts hat zwar für Videokonferenzen eine gewisse Verbreitung,
ist aber längst kein so umfassendes Kommunikationsnetz für Freundesgruppen wie die genannten
Konkurrenten. Und Google Messenger ist trotz mindestens 10 Millionen Installationen laut Google Play
weithin ungebräuchlich.
Bei Justanswer.com (http://www.justanswer.com/) stammen die Antworten auf Fragen der rund 1,5
Mio. Nutzer in 145 Ländern von Experten z. B. Mediziner, Juristen oder Mechaniker (zeigt wie viele
Experten gerade online sind). Jeder Frager legt bei der Eingabe der Frage einen Preis selbst fest, den er
bereit ist, für die Antwort zu zahlen. Er muss die erhaltenen Antworten akzeptieren und die befragten
Experten bewerten, bevor diese das angegebene Honorar erhalten.
Ein wesentlicher Nachteil der wissensbasierten Suche ist, dass die Qualität der Antworten nicht
gewährleistet werden kann. Zudem ist eine Moderation notwendig, damit die Inhalte sowie Teilnehmer
kontrolliert werden können.
Abb. 2.2/2: Marktanteile der Suchmaschinen weltweit nach mobiler und stationärer Nutzung (Juni 2015)
[http://de.statista.com/statistik/daten/studie/222849/umfrage/marktanteile-der-suchmaschinen-
weltweit/]
Abschließend stellt sich die Frage, ob die Zukunft für die Suchdienste im Mobilbereich liegt? In Asien
werden die Mehrheit der Suchanfragen bereits über das Handy anstatt online übermittelt. In Deutschland
ist dies (noch) nicht der Fall. Bei der mobilen Suche werden vom User simple, aber nützliche Resultate,
bei denen Zeit und Standort wichtig sind, erwartet.
Die jüngere Nutzergeneration tendiert zur Spracheingabe, die wiederum eine ganz neue Suchqualität
mit sich bringt: Den Eingabebefehl „Siri, ich habe Hunger!“ in „Restaurant Konstanz“ umzuwandeln,
erfordert von der Suchmaschine eine deutlich höhere „Denkleistung“ als eine einfache Keywordsuche.
Vor dem Hintergrund, dass derzeit vor allem Devices mit kleineren Displays wie beispielsweise
40
Smartwatches auf den Markt drängen, ist zu erwarten, dass in den kommenden fünf Jahren auch neue
Formen der Suche entstehen. Gleichzeitig wird die Rolle des Standorts bei der Ergebnisausgabe
weiterwachsen: Googelt ein Nutzer von unterwegs aus per Smartphone nach einem
Bekleidungsgeschäft, sucht er in der Regel nicht den Online-Shop, sondern die Öffnungszeiten. Auch
darauf sollten Unternehmen, die ihren Kunden einen sinnvollen Webauftritt offerieren wollen,
vorbereitet sein.
Zusammenfassend kann das Fazit gezogen werden, dass es in der Zukunft bei Suchdiensten NICHT
mehr nur auf das „SUCHEN“, sondern vielmehr auf das „FILTERN“ ankommt.
Kontrollfragen:
1. Nennen Sie vier Unterschiede zwischen Webkatalogen und Suchmaschinen!
2. Welche Probleme haben Metasuchmaschinen?
3. Angenommen die Suche bringt zu viele oder unpassende Ergebnisse, was können Sie tun, um die
Ergebnisse zu präzisieren?
4. Wozu dient der Suchoperator NOT und wie wird er eingesetzt?
5. Was ist bei der Verwendung der Suchbegriffe zu beachten (4 Aspekte)?
6. Aus welchen grundlegenden Teilen besteht eine Ergebnisliste von Suchdiensten?
7. Nennen Sie die wesentlichen Kriterien bei der Selektion von Treffern bei der Google-Suche!
8. Welche Entwicklungen werden im Bereich der Suchdienste verfolgt? Skizzieren Sie drei Trends
anhand je eines Beispiels.
10. In der Zeitschrift WIRTSCHAFTSINFORMATIK vom 1.2009 steht ein Artikel „Google: das
weltweit erste Information Utility“. Erklären sie das Phänomen Google (ausgehend von der
raffinierten Suchtechnologie bis hin zum größten Datensammler (z.B. für E-Marketing und CRM)
42
3 Methodische Unterstützung des Wissensmanagements
3.1 Methoden entlang des Wissensmanagementprozesses
Abb. 3/1 Überblick über die Methoden des WM [Müller 2015, S. 84]
Abb. 3/1 zeigt von unten nach oben steigenden Reifegraden der Methoden, was immer stärkeren IT-
Einsatz bedingt. Die Spalten lehnen sich an die Teilprozesse des WMs an.
Einfache Lösungen sind [Müller 2015, S. 85-90]:
43
1. Optimierung von Ablagestrukturen: Gut strukturierte Ablagepläne, nach denen die Ablage
auch tatsächlich erfolgt, helfen den Überblick zu behalten und Suchzeit und Ärger über sich
selbst und andere einzusparen.
2. Persönliche Communities: Der persönliche Austausch, die Kommunikation der Menschen
untereinander, ist das einfachste Mittel des Wissenstransfers.
3. Altersgemischte Teams und Wissens-Tandems: Bei Wissens-Tandems arbeiten ein erfahrener
und ein jüngener Kollege zeitlich befristet gemeinsam an einer Aufgabe, um so den
Wissensaustausch in beiden Richtungen zu fördern. Oftmals begleitet ein Coach diesen
Prozess, und er wir mit einem strukturierten Abschlussgespräch abgerundet.
4. Patenschaften, Coaching und Mentoring: Bei Patenschaften wird neuen Mitarbeitern ein
erfahrener Kollege aus derselben Organisationseinheit als Pate an die Seite gestellt. Der Pate
ist Ansprechpartner für den Neuling und bringt ihm die wichtigsten Themen nahe. Beim
Mentoring arbeitet der erfahrene Kollege (Vorgänger) den Nachfolger ein und unterstützt ihn
in der Anfangsphase. Beim Coaching ist der Coach üblicherweise eine externe Person, die
temporär hinzugezogen wird um bestimmte persönliche und berufliche Ziele zu erreichen.
5. Überlappende Einarbeitung und moderierte Übergabe: Die persönliche Einarbeitung eines
Nachfolgers ist der optimale Weg des Personalwechsels. Leider bleiben in öffentlichen
Verwaltungen Stellen meist einige Monate gesperrt. Bei der moderierten Übergabe übergibt
der Vorgänger in einer Reihe von Sitzungen sein Wissen an die Nachfolger, moderiert durch
einen internen oder externen Prozessbegleiter.
6. Checklisten-basierte Wissensicherung: Checklisten sind für jede Organisationseinheit
individuell zu erstellen. Dabei ist in einem Arbeitskreis abzuklären, welche Informationen der
Nachfolger benötigt und in welchen Kategorien diese in welchem Fall zu erfragen sind, um
möglichst viel Wissen weiterzugeben. Problematisch ist, dass nur bewußtes Wissen
weitergegeben werden kann. Unbewußtes Wissen, das in Routine eingesetzt wird, entzieht
sich der Weitergabe.
7. Senior-Berater im Ruhestand. Ehemalige Mitarbeiter stellen ihr Wissen und ihre Erfahrung
nach ihrem Ausscheiden weiterhin dem Unternehmen zur Verfügung.
Richard Pircher hat 2010 folgende sehr gute Methodenstoffsammlung zu 5 WM- Prozesskategorien
aufgestellt [Pircher 2010]:
Wissensidentifikation
• Dokumentation des Wissens in Datenbanken, Intranet, etc.
• After Action Review, Lessons Learned und Debriefing: Teilweise unbewusste Erfahrungen
werden durch gezielte Fragen bewusst gemacht und dokumentiert - zunehmend auch mit
Videounterstützung.
• Good Practices ("Leuchttürme“): Gute Lösungen und Ansätze in der Organisation werden
identifiziert, dokumentiert und bekannt gemacht.
• Strategische Personalentwicklung bzw. Kompetenzmanagement (z. B. Kompetenzmatrix): Die
Handlungskompetenzen der Mitarbeiter werden systematisch erhoben und entsprechend der
Kernkompetenzen der Organisation und ihrer Ziele gefördert. Durch eine Kompetenzmatrix
können individuelles Kompetenzniveau und organisatorische Zielsetzungen miteinander
verbunden und Risikopotentiale (Fluktuation, Pensionierung, etc.) identifiziert werden.
• Wissenskarten/Knowledge Maps:
- Wissensträgerkarten (Gelbe Seiten/Yellow Pages, Who is Who): In einem Verzeichnis der
Mitarbeiter werden Informationen zu deren Wissen gesammelt (z. B. Funktionsprofil, Aus- und
Weiterbildung, Projektbeteiligungen, teilweise bis hin zu privaten Interessen und Hobbies, siehe
Kapitel 3.2.1
- Wissensanwendungskarten: Wissensprozesse: Wer entwickelt oder benötigt welches Wissen
wann?
- Wissensstrukturkarten: Wie hängen Wissensgebiete oder Sachverhalte zusammen?
• Knowledge Broker: Eine Funktion, die die Steigerung der Transparenz des vorhandenen
Wissens und dessen Vernetzung fördert.
44
Wissensrepräsentation
• Inhaltsstrukturierung: Thesaurus, Klassifikation, Taxonomie, Ontologie (Topic Map),
Tagging, Terminologie Management, Clustering-Maschine sind Methoden und
Instrumente, die der Strukturierung und Ordnung von Informationen dienen.
• Wissenskarten (siehe oben bei Wissensidentifikation)
• Informations-und Kommunikationsregeln (Besprechungen, Moderation, Kürzel in
Betreffzeile von E-Mails, der Umgang mit Mobiltelefonen in Besprechungen,
Dateibenennung, etc.), ICK-Handbuch (Information/Communikation/Knowledge)-Handbuch
fördern geteilte mentale Modelle zum Umgang mit Information und zur Kommunikation
von Wissen.
• Instrumente des Datenmanagements: Datenbank, Dokumentenmanagement, Content
Management, Intranet, Internet, Erfahrungsdatenbank, Web 2.0/Social Software, Data
Warehouse, Expertensystem, Organisational Memory, Unternehmensportal dienen der
Speicherung und Zugänglichmachung von Daten.
• Projekt-, Lessons Learned-, Erfahrungsdatenbank: Informationen zur temporären
Organisationsform des Projektes oder/und zu Erfahrungen aus Projekten und Prozessen
sollen dauerhaft zugänglich gemacht werden (siehe auch Wissensidentifikation).
• Wissensträgerkarten (Gelbe Seiten/Yellow Pages, Who ist Who, siehe oben bei
Wissensidentifikation).
• Formular, Checkliste, Dokumentation von Arbeitsprozessen, Protokolle, Handbuch,
Fachliteratur (schriftlich, bildlich, multimedial): Wissen wird dauerhaft zugänglich und
nutzbar gemacht.
• Mappingmethoden (Mind Mapping, Concept Mapping, vgl. Kapitel 3.2): Wissen wird
strukturiert und dokumentiert
• Kompetenzzentrum/Think Tank: Wissen wird in einer eigenen Organisationseinheit
gebündelt und vernetzt
• Motivation zu Wissensdokumentation
o Wissensdokumentation öffentlich machen
o Fixe Entlohnung für abgerufenes / nachgefragtes Wissen
o Mitsprache für „natural leaders“
o Best Paper Awards
o Push-Pull-Prinzip
Wissenserwerb
• Strategische Personalentwicklung bzw. Kompetenzmanagement (eignungsdiagnostische
Verfahren, Kompetenzmatrix, Qualifizierung von Mitarbeiterinnen, Training, Action Training,
Karriereplanung. Informations-Lernreisen, etc.): Durch die Auswahl von Mitarbeitern und
Weiterbildungsmaßnahmen wird Wissen in der Organisation aufgebaut.
• Suchtechnologien (Retrieval durch Suchbegriffe oder Browsing durchstrukturierte, verlinktem
Datenbestand. Agenten/Webcrawler, etc.): Unterstützen das Auffinden von Informationen
(Pull-Prinzip).
• Job Redesign: Job Rotation, Job Enlargement, Job Enrichment (siehe Wissenskommunikation)
- Durch Einblick in andere Arbeitsbereiche oder teilweise Auflösung der Arbeitsteilung sollen
Wissen entwickelt, Sinnzusammenhänge wiederhergestellt, die Arbeitsidentifikation und -
motivation erhöht werden.
• Gruppenarbeit, Lerngruppen, Lernreise, Lernlaboratorium, Lernstatt: fördern das individuelle
und soziale Lernen, die Entwicklung einer lern- und wissensorientierten Organisationskultur
und informelle Netzwerke (Interessens-Cluster).
• Coaching, Mentoren- bzw. Patenschaftsmodelle, "graue" Beraterstäbe, Berater /Trainer-
funktion: Erhöhen die zugängliche Diversität von Sichtweisen für Wissensarbeiter und
verbreitern die Netzwerke.
• Systemsimulation, Rollenspiel, Planspiel, Mikrowelt: Fördern empathisches Wahrnehmen
anderer Perspektiven, Erkennen von Zusammenhängen und vernetztes Denken.
45
Wissensentwicklung
• Methoden zur Förderung von Kreativität und Innovation (Brainstorming, Methode 635
(erhalten sechs Teilnehmer ein jeweils gleich großes Blatt Papier. Dieses wird mit drei Spalten
und sechs Zeilen in 18 Kästchen aufgeteilt. Jeder Teilnehmer wird aufgefordert, in der ersten
Zeile zu einer gegebenen Fragestellung drei Ideen (je Spalte eine) zu formulieren. Jedes Blatt
wird nach angemessener Zeit – je nach Schwierigkeitsgrad der Problemstellung etwa drei bis
fünf Minuten − von allen gleichzeitig, im Uhrzeigersinn weitergereicht. Der Nächste soll
versuchen, die bereits genannten Ideen aufzugreifen, zu ergänzen und weiterzuentwickeln),
Morphologie, Szenario Technik, Denkhüte (Gruppendiskussion, bei der Gruppenmitglieder
durch verschiedenfarbige Hüte repräsentierte Rollen einnehmen. Jeder Hut entspricht einer
Denkweise oder einem Blickwinkel), Analogiebildung, Clustering, Kopfstandtechnik,
Fragenketten, laterales Denken, Lexikonmethode, Osborn-Checklist, Reizwortanalyse,
Synektik, Walt-Disney-Methode, Szenario Methode, Tabula Rasa, TRlZ (z.B.
Innovationsprinzipien und Widerspruchstabelle, Separationsprinzipien zur Lösung
physikalischer Widersprüche, Algorithmus oder auch Schrittverfahren zur Lösung der
Erfindungsprobleme), Entscheidungsmatrix, Entscheidungsunterstützungssysteme,
Vorschlagswesen, Ideenmanagement, Kontinuierliche Verbesserung, Open Innovation, externe
Partner, etc.): Unterstützen die Einnahme neuer Sichtweisen, das Überwinden von
festgefahrenen Erwartungshaltungen und Weltbildern und das systematische Generieren neuer
Lösungsansätze bis hin zum neuartigen Prozess oder Produkt.
• Besprechung, Dialog, Dialogprojekt (siehe Wissenskommunikation)
• After Action Review, Lessons Learned und Debriefing (siehe Wissensidentifikation )
• Soziale formelle und informelle Netzwerke, Kontakte, Networking, Kooperation: Soziale
Interaktion führt nahezu automatisch zur Entwicklung neuer Sichtweisen und neuen Wissens
(kann unterstützt werden durch Social Software und soziale Netzwerkanalyse).
• Wissensgemeinschaften/ Communities of Practice/Interessensgruppen, Qualitätszirkel (siehe
Wissenskommunikation)
• Lernlaboratorium, Szenario Planung, Systemsimulation, Case Study: Was für Sportler oder
Schauspieler selbstverständlich ist, nämlich zu trainieren und zu üben, scheint im Management
und der Wissensarbeit noch ein Fremdwort zu sein. Um komplexe Herausforderungen bzw.
"bösartig vertrackte Probleme" bewältigen zu können, sollte das Denken auf sie vorbereitet sein.
Auch wenn aufgrund der Dynamik und Komplexität nicht vorhersehbar ist, was konkret
geschehen wird, kann eine adäquate Denkweise erlernt und damit neues Wissen entwickelt
werden.
• Interviews mit Anspruchsgruppen (Kunden, Lieferanten, Mitarbeitern, etc.): Durch
verschiedene Sichtweisen kann die Diversität erhöht und damit neues Wissen entwickelt
werden, z. B. durch Open Innovation.
• Externes Benchmarking: Durch den Vergleich mit anderen Organisationen können
Wissensvorsprünge und damit Lernpotentiale sichtbar gemacht werden
• Data Mining: Aus großen Datenmengen sollen Zusammenhänge gefiltert werden, die anders
nicht erkennbar wären
• Open Innovation: Zur Entwicklung neuer oder verbesserter Produkte werden
organisationsexterne Personen wie Kunden eingebunden.
• Portfoliomethoden: In einer stark vereinfachten, zweidimensionalen Darstellungsform werden
Marktsituationen oder andere Wertepaare dargestellt, was die Entscheidungsfindung
unterstützen kann.
• Motivation zu Wissensgenerierung
o Lob für „Best Ideas“; Koppelung mit mat. Anreizen
o Fixe Entlohnung für Vorschläge oder Innovationen
o Spielcharakter (z. B. Feste zur Entwicklung neuer Ideen)
46
Wissenskommunikation
• Informations- und Kommunikationsregeln
• Methoden der reflexiven Kommunikation
• Besprechung, Dialog
• Weiterbildung, Mitarbeiter schulen Mitarbeiter, Computer-based/supported Training (siehe
Kap. 10).
• Mitarbeiter-Info, Newsletter, Informationsveranstaltungen, gemeinsames Frühstück mit
Geschäftsleitung: Informationen werden verteilt (Push-Prinzip), unter Umständen in
zielgruppen- und interessensspezifischer Form, z.B. durch individuelle Themenabonnements.
• Soziale formelle und informelle Netzwerke innerhalb und außerhalb der Organisation,
Experteninterview, Erfahrungsaustausch (kann unterstützt werden durch Social Software).
• Interner Wissensmarkt, interaktive Kommunikationsmöglichkeiten (World Cafe (mit den
passenden Fragen wird versucht, Menschen in ein konstruktives Gespräch miteinander zu
bringen – zu Themen, die für die Teilnehmer relevant sind), Fish Bowl (hier diskutiert eine
kleine Gruppe von Teilnehmern im Innenkreis (im „Goldfisch-Glas“) das Thema, während die
übrigen Teilnehmer in einem Außenkreis die Diskussion beobachten) etc.), Pausengespräche,
Impulsreferat: Durch diversitätsfördernde Settings kann eine dynamische Interaktion mit
entsprechender Wissenskommunikation und -entwicklung entstehen.
• Wissensgemeinschaften/Communities of Practice/Interessensgruppen, Qualitätszirkel:
Gruppen von Personen, die sich für ein gemeinsames Thema interessieren, bilden eine relativ
stabile Gemeinschaft, um Wissen zu kommunizieren und zu entwickeln. Weiter entsteht daraus
häufig ein hierarchie- und funktionsübergreifendes Netzwerk (Interessens-Cluster).
• Formalisierter Expertenstatus, Hotline (Leuchtturm-Prinzip): Personen mit hohem
Kompetenzniveau werden explizit als solche ausgewiesen und stehen zu einem bestimmten Teil
ihrer Arbeitszeit oder auf Gegenverrechnung für Fragen oder Hilfestellungen zur Verfügung.
• Good Practices (siehe Wissensidentifikation)
• Mentoren- bzw. Patenschaftsmodelle, „graue" Beraterstäbe (siehe Wissenserwerb)
• Großgruppenveranstaltungen (z. B. World Cafe, Open Space, Appreciative Inquiry (die
wertschätzende Befragung (oder Erkundung) bildet ein zentrales Element)): Fördern die
Sozialisierung durch strukturierte Kommunikation und Interaktion der Mitarbeiter, und damit
die Vertiefung und Entwicklung geteilter mentaler Modelle.
• Gleitende Übergabe, strukturierter Transfer von Erfahrungswissen, "Wissensstafette": Damit
sollen der Verlust von personengebundenem Wissen reduziert und die Einarbeitungszeiten
verkürzt werden
• Wissensorientierte Raumgestaltung und Architektur (Space Management, Kaffeeecken): Durch
die Berücksichtigung von Kommunikationsprozessen bei der Gestaltung von Räumlichkeiten
und Gebäuden soll die Kommunikationskultur gefördert werden.
• Internes Benchmarking: Der interne Vergleich von Kernkennzahlen soll Wissensvorsprünge
sichtbar und in anderen Bereichen nutzbar machen.
• Knowledge Broker (siehe Wissensidentifikation)
• Job Rotation, Peer Assist (sind Gespräche und werden zu Beginn eines Projekts mit dem Ziel
durchgeführt, über die bevorstehenden Aufgaben einen möglichst ganzheitlichen und
gruppenübergreifend gleichen Eindruck zu gewinnen), etc. (siehe Wissenserwerb)
• "Schwarzes Brett": Kodifikation aktueller Informationen in einfach zugänglicher Kurzform
• Mikroartikel: Erfahrungen werden in kompakter Form gemeinsam mit dem Kontext, in den sie
eingebettet waren, dargestellt.
• Storytelling/Geschichten, Dialog, Interview, therapeutisches Gespräch: Geschichten vermitteln
Lernerfahrungen in ihrer Abfolge, mit dem Kontext und emotionalen Bestandteilen.
• Metapher
• Informations- und Kommunikationstechnologien (Push- und Pull-Prinzip): Ermöglichen bzw.
unterstützen die Kommunikation synchron oder asynchron und in unterschiedlicher Form
bezüglich Kommunikationskanälen (Text, Audio, Video, etc.) sowie sozialer Komplexität (1:
1, 1:n, n.n).
• Persönliches Wissensmanagement, persönliche Wissensstrategie
47
• Immaterielle Anreize zur Förderung der Wissenskommunikation
o Lob und Anerkennung
o Mitspracherecht
o Verantwortung
o Soziale Kontakte / Ansehen
o Fairness in der Kooperation
o Karriere-Transparenz
o Freiheit bei Entscheidungen
o Positive Unternehmenskultur
• Motivation zu Wissensteilung und -nutzung
o Gemeinsame Ausflüge, Veranstaltungen
o Teamentlohnungen
o Lob und Anerkennung für besondere Kenntnisse
o „Mitarbeiter des Monats“
o „Fehler des Monats“
48
Mitarbeiter müssen Fehler dokumentieren dürfen, ohne negative Sanktionen fürchten zu müssen.
Die Dokumentation von Lessons Learned an sich bietet jedoch noch keine Garantie für deren
Nutzung. Deshalb bildet neben der Bereitschaft der Mitarbeiter, ihre Erfahrungen zu doku-
mentieren, die Bereitschaft, das Wissen anderer Mitarbeiter zu nutzen, die Voraussetzung für den
Erfolg von Lessons Learned. 2/3 der Unternehmen haben Lessons Learned im Einsatz.
Beispiel: TUI fördert die Kommunikation zwischen Entscheidungsträgern durch Newschannel,
FAQ, Diskussionsforen, Kommentierungen
49
Erfolgsgeschichten der Geschäftsleitung wie z.B. ein wichtiger Vertragsab schluss oder die
Ankündigung bevorstehender Ereignisse in der Organisation. [Thier 2017]
Das Storytelling in Unternehmen behandelt Themen wir Hierarchie, Statusunterschiede, Sicherheit am
Arbeitsplatz, aber auch die vorhandene Fehlerkultur. (Thier, 2017: 10) Des Weiteren werden
Transformationen eines Unternehmens mit Hilfe der Storytelling-Methode kommuniziert. Hierunter
sind z.B. strukturelle organisatorische Veränderungen, wie Zusammenschlüsse, zu verstehen.
Inspirationsgeschichten sind geeignet, um MitarbeiterInnen durch den Erfolg eines durchgeführten
Projektes zu motivieren und zum Handeln anzuregen. Darüber hinaus existieren Gründungsgeschichten,
welche die Normen und Werte des Unternehmens darstellen. Die Anwendung von Storytelling ist auch
im Marketingbereich einsetzbar, indem beispielsweise Unternehmensporträts aus Kundensicht
veröffentlicht werden. (Thier, 2017: 11ff.)
Die Wirkungsweise von Geschichten ist wissenschaftlich nachgewiesen und hat ergeben, dass
das menschliche Gehirn Informationen, die in Form von Geschichten vermittelt werden, 22 Mal
besser aufnimmt, als aufgelistete Daten und Fakten.
Beispiel: Roman „Das Ziel“ unterweist in der Steuerung einer Fabrik oder der Roman „Der
Termin“ unterweist in Projektmanagment; jeweils in Romanfor m.
50
2012 – Google Now
2012 wurde von dem US - Amerikanischen Unternehmen Google Inc. die Erweiterung der
hauseigenen App Google Search vorgestellt. Das Konkurrenzprodukt zu Apple’s Siri und Samsung’s
S Voice wurde jedoch im Februar 2017 aus den App Stores genommen.
2016 Google Allo
Allo ist ein Instant-Messaging-Dienst von Google. Er enthält einen virtuellen Assistenten und kommt
mit einer „schlauen Antwort“ Funktion, die automatische Vorschläge für eine Antwort gibt. Der Dienst
wurde bei der Google I/O am 18. Mai 2016 vorgestellt und ist seit dem 21. September 2016 verfügbar.
Die App gibt es für Android und iOS. Allo benutzt die Telefonnummer zur Registrierung und
Identifizierung der Nutzer. Allo's "schlaue Antwort" Funktion benutzt Google's "Maschinelles Lernen"
System, um dem Nutzer passende Antwortsmöglichkeiten vorzuschlagen. Auch gesendete Fotos werden
analysiert, um Antworten vorzuschlagen. Wie auch schon in Google's Inbox Applikation, lernt die App
vom Nutzerverhalten, um die Interessen kennenzulernen und Vorschläge für weitere Nachrichten zu
bringen. Allo unterstützt außerdem Google Assistant, einen virtuellen Unterhaltungsassistenten. Bevor
ein Bild verschickt wird, kann der Nutzer eine Zeichnung auf dem Bild anfertigen.
51
3.2.4.2 Charakteristika von Chatbots
Als die entscheidenden Qualitätskriterien eine Chatbots lassen sich in erster Linie folgende Punkte
festhalten, welche im Anschluss näher erläutert werden:
• das Einsatzfeld des Bots muss vorab eindeutig definiert werden
• die Ladezeiten sollten moderat sein
• effiziente und fehlerfreie Patternmatching- und Suchalgorithmen
• die Wissensbasis sollte mindestens so umfangreich wie nötig und so umfassend wie möglich sein
• eine gewisse Qualität der Regeln in der Wissenbasis sollte vorhanden sein (Muster und
Antworten)
• die Wissenbasis sollte vor allem aus Wartungsgründen benutzerfreundlich organisiert sein
• das Bot sollte stets freundlich und keinesfalls beleidigend sein
• Folgeerkennungen, Merken des Gesprächskontextes und Eigenschaften des Users (z.B. Name
oder Wohnort) sind Features, die einem modernen Chatbot nicht fehlen sollten
• der Bot sollte abwechslungsreiche Antworten bringen, Standardsätze wie z.B. “Ich habe Ihre
Eingabe leider nicht verstanden” sollten möglichst vermieden werden
• aktive Gesprächslenkung des Bots ist wünschenswert
• Lernfähigkeit
52
Sprachassistenten ist sehr vielseitig und punktet mit ihrer humorvollen Art und Weise. Cortana
hingegen ist sehr schüchtern, aber dennoch sehr intelligent.
53
Alexa’s gutes Testergebnis kann man dadurch begründen, dass sie eine enorm hohe Anzahl an
Applikationen aufweist. Amazon ermöglich sogenannten Drittanbietern, diese Skills zu entwickeln,
wodurch Alexa von Zeit zu Zeit intelligenter wird und ihr praktisches Wissen ausbauen kann
(Grollmann, 2017). Wie weit jedoch Alexa ihrer Konkurrenz enteilen kann, bleibt die Frage. Die feste
Bindung an den Echo Lautsprecher und das Fehlen auf mobilen Endgeräten könnte ihren rasanten
Aufstieg abbremsen.
In Abb. 3./4 sieht man den Vergleich der Marktführer 2018.
Da die Sprache auf XML basiert, müssen die für XML geltenden Regeln auch hier eingehalten werden.
AIML-Dokumente müssen also grundsätzlich wohlgeformt sein. Folglich sind z.B. geöffnete Elemente
(im Gegensatz zu HTML) immer zu schliessen! Dies gilt auch für die sogenannten „atomic-Tags”, dies
sind Elemente, die keinen Inhalt haben und von daher bereits im Öffnungs-Tag wieder geschlossen
werden können wie z.B. <person/>. Weiterhin müssen die Elemente auch immer korrekt verschachtelt
werden.
Die genaue Spezifikation zur Syntax von XML (und davon abgeleiteten Sprachen) kann unter der
folgenden Adresse eingesehen werden: http://www.w3.org/XML/
Dies sind die vier grundlegenden AIML-Elemente:
<aiml>: kennzeichnet den Beginn und das Ende eines AIML-Dokuments
<category>: kennzeichnet eine sog. Wissenseinheit innerhalb des Dokuments
<pattern>: beinhaltet das Suchmuster innerhalb einer Kategorie
<template>: beinhaltet die Antwort zu dem zugehörigen Pattern
Beim folgenden Beispiel handelt es sich um ein minimales, aber bereits vollständiges und korrektes
AIML-Dokument:
<?xml version="1.0" encoding="ISO-8859-1"?>
<aiml>
<category>
<pattern>*</pattern>
<template>Sorry, ich hab erst eine Antwort!</template>
</category>
</aiml>
54
Beispiel der Programmierung aus Mathematik I –Logik
<category>
<pattern>NEGATION</pattern>
<template>Eine <set name="topic">Negation</set> "Nicht A" ist eine Aussage, die durch
Verneinen der Aussage "A" entsteht.
Die Negation "Nicht A" ist genau dann wahr, wenn "A" falsch ist und genau dann falsch, wenn
"A" wahr ist.</template>
</category>
<category>
<pattern>WAS _ NEGATION</pattern>
<template><srai>NEGATION</srai></template>
</category>
<category>
<pattern>WAS _ NEGATION *</pattern>
<template><srai>NEGATION</srai></template>
</category>
<category>
<pattern>WIE _ NEGATION</pattern>
<template><srai>NEGATION</srai></template>
</category>
<category>
<pattern>WIE _ NEGATION *</pattern>
<template><srai>NEGATION</srai></template>
</category>
category>
<pattern>* NEGATION</pattern>
<template><srai>NEGATION</srai></template>
</category>
<category>
<pattern>* NEGATION *</pattern>
<template><srai>NEGATION</srai></template>
</category>
<category>
<pattern>NEGATIONBEISPIEL</pattern>
<template>"Ich bin nicht schoen" ist beispielweise die Negation (oder das Negat) von "Ich bin
schoen".
Aber Achtung: "Ich bin haeßlich" ist z.B. keine Negation von "Ich bin schoen"!</template>
</category>
<category>
<pattern>_ BEISPIEL _ NEGATION</pattern>
<template><srai>NEGATIONBEISPIEL</srai></template>
Usw.
Wieder alle Varianten angeben
In der Praxis sollte man für jedes Schlüsselmuster vier Kategorien definieren, da es an beliebiger
Position im Satz stehen kann:
Alleinstehende Phrase (Muster), Phrase am Satzanfang (Muster *), Phrase am Satzende (_ Muster)
und Phrase in der Satzmitte (_ Muster *).
Im Template-Bereich der Kategorien kann man den im Muster durch Wildcard erfassten Teil einer
Phrase mit <star/> oder <underscore/> übernehmen. So lässt sich der mit „Ich heiße....“ eingegebene
Name nutzen, um den Gesprächspartner später direkt anzusprechen. Dazu legt man ihn mit dem Set-
Tag in einer Variablen ab. Die Ausgabe der Variablen erfolgt mit dem Get-Tag..
Die Variablen that und Topic verleihen dem Bot eine Art Kurzzeitgedächtnis. Sie steuern den
Gesprächsverlauf.
That erlaubt das Verknüpfen mit Folgekategorien und Topic gruppiert zusammenhängende
Kategorien.
Interpretationssystem (Pattern Matching-System)
Programm-O (Version : 2.6.4, von Elizabeth Perreau and Dave Morton) https://github.com/Program-
O/Program-O
Program O is an AIML interpretor written in PHP, and uses a MySQL database to store chatbot
information, including the AIML files used to formulate the chatbot's responses.
55
3.2.4.5 Beispiele
Dialogbeispiel in Mathematik I
Hier gibt es eine vordefinierte Wissensbasis von Christian Drossmann mit 3000 deutschen
Gesprächsmustern – genug um eine einfache Plaudertasche zu kreieren. Dazu kommt eine umfangreiche
Mathematik I-Wissensbasis, die die Aussagen des Skriptes von Prof. Popp zu Analysis, Lineare Algebra
und Finanzmathematik abdeckt.
Im Folgenden ein Auszug aus einem Dialog:
Bot: Hallo Herzlich Wikommmen! Du kannst dich mit mir unterhalten, indem du das Eingabefeld
nutzt!
Student: Kannst du mir sagen, was eine Implikation ist?
Bot: Bei der Implikation....
Student: Hast du auch ein Beispiel dazu parat?
Bot: Nehmen wir z.B.....
Student: Was ist dann aber eigentlich der Unterschied zwischen Implikation und Äquivalenz?
Bot: Der Unterschied....
Student: Ok, danke!
Bot: Kein Thema.:)
Student: Tschüss!
Bot: Bis später.
Alita von Amadeus hört Kundengespräche am Counter mit und sucht selbständig passende Angebote
heraus, während der Reiseverkäufer sich auf das Kundengespräch konzentriert. Alita analysiert sogar
Tonalität und Emotionen und ordnet so Kunden bestimmten Rendendentypen z.
Tatsächlich live ist Alexa für CheckMyTrip-Kunden Diese virtuelle Assistentin kann sich jeder im
Skill Store von Amazon runterladen und sie beantwortet dann Fragen auf Basis der CheckMyTrip-
Daten (Fragen rund um den nächsten Flug (in D und E)).
Ich kann Alexa fagen, wann der Flug geht, zu welchem Gate ich muss und wo ich parken kann. Ich
kann nach Übergepäcktarif fragen oder lasse gleich einen extra Koffer buchen.
BMW bringt gerade ALEXA an Bord. In USA steht Alexxa in ersten Hotelzimmern und regeln auf
Zuruf Licht, Klimaanlage oder TV.
So installieren sie Alexa mit CheckMyTrip:
1. Suchen sie in Alexa Skll Store unter Skills nach CheckMytrip
2. Klicken sie auf Aktivieren
3. Verknüpfen sie ihr CheckMytrip-Konto oder legen sie ein neues Konto an
4. Öffnen sie den Skill mit “Alexa, öffnr CheckMyTrip”.
Drei aktuelle Frameworks sind von Amazon, von Google und von Microsoft.
1. Aws powered by Amazon
Aws ist die Abkürzung für Amazon Web Services und stellt einen Geschäftsbereich von Amazon.com
dar, der unzählige Cloud-Computing-Anwendungen anbietet. Unter dem Reiter Machine Learning ist
der Service Amazon Lex zu finden. „Amazon Lex ist ein Dienst zur Erstellung von
Konversationsschnittstellen und bietet Technologien für eine automatische Spracherkennung und ein
natürliches Sprachverständnis“ (Amazon Web Services, 2020). Zusammenfassend wird hier die
Technologie, die Amazons Sprachassistenten Alexa zugrunde liegt, zugänglich gemacht. Dabei ist es
dem Nutzer möglich eigenständig in der Lex-Konsole in natürlicher Sprache ein Bot zu programmieren
und bestimmte Intents mit beispielhaften Äußerungen zu befüllen. Dieser kann sowohl Text- als auch
Spracheingaben verarbeiten. In dieser Lex-Konsole ist es ebenfalls möglich das Bot zu testen, zu
überwachen und verpasste Äußerungen (Eingaben, die das Bot nicht verstanden hat) einzupflegen. Dann
kann er an andere Datenquellen angebunden werden und auf der gewünschten Plattform live geschaltet
werden. Es ist möglich den Service erst kostenlos zu testen, so sind keine Investitionen vorab nötig. Im
ersten Jahr sind 10 000 Textanforderungen und 5 000 Sprachanforderungen kostenlos, danach entstehen
Kosten von 0,004$ pro Sprachanfrage und 0,00075$ pro Textanfrage, das heißt es wird nur die benötigte
Rechenleistung in Rechnung gestellt (Amazon Web Services, 2020). Des Weiteren besteht die
Möglichkeit weitere Produkte von Amazon zu nutzen, um das Bot mit noch mehr Fähigkeiten
auszustatten. Zum Beispiel wird das Text-to-Speech Feature mit Amazon Polly freigeschaltet und eine
realistische Sprachausgabe wird möglich. Aktuell unterstützt Amazon Lex nur Englisch (US). Je mehr
57
Beispiele er erhält, umso besser kann er die Intents der Anfragen zuordnen und umso intelligenter wird
er.
2. Dialogflow powered by Google
Das Google SDK – Software Development Kit – ist ähnlich wie bei Amazon eingebettet in viele
verschiedene Anwendungen und Ressourcen. Google Dialogflow wirbt mit herausragenden NLP
Fähigkeiten, einer riesigen Google Cloud Plattform sowie 400 Millionen Google Assistent Geräten, die
bereits weltweit im Umlauf sind (Dialogflow, 2020). Die Konfiguration des Bots erfolgt in einer
Webanwendung, die auch für User ohne technischen Hintergrund leicht zu verstehen und zu benutzen
ist und keine Programmierkenntnisse voraussetzt. Prebuilt Agents sind für bestimmte Anwendungen
und Sprachen verfügbar und downloadbar bzw. zu Dialogflow hinzufügbar. Die bereitgestellten Agents
haben bereits umgesetzte Funktionen wie z.B. Tischreservierungen im Restaurant, Abruf von
Fluginformationen, Hotelbuchungen, Online Shopping, Small Talk oder auch Support in Firmen und
das, abhängig vom Agenten, in bis zu 21 Sprachen (Dialogflow, 2020). Auch hier erfolgt die
Kostenermittlung über das pay-as-you-go-Verfahren. In der kostenlosen Version gibt es bezüglich der
Datenbank-Anbindungen oder Audio Recognition Limitierungen. In den kostenpflichtigen Versionen
wird dies aufgehoben, dafür wird zum Beispiel eine Gebühr ab 0,002$ für Textanfrage oder 0,0065$ pro
15 s Audio Recognition fällig (Dialogflow, 2020). Dank der Möglichkeit bereits vorhandene Beispiele
zu verwenden, verringert sich der Eigenaufwand. Zusätzlich ist es möglich, die verschiedenen Kanäle,
auf denen das Bot zu finden sein soll, mit nur einem Klick zu integrieren. Die Knowledge Base
Connectors unterstützen aktuell nur Englisch (US).
Microsoft Azure Bot Service
Der Azure Bot Service ist ein Produkt von Microsoft und ist ein Teil der vielen Cloud-Computing
Anwendung des Software-Riesen. Der Service steht als Open-Source SDK zur Verfügung und lässt sich
mit Hilfe der Cognitive Services und Business Logic zum intelligenten Assistenten aufbereiten. Um den
Bot zu entwickeln, stehen SDKs bereit, die die Programmiersprachen C#, Typescript oder JavaScript
unterstützen. Hier ist es jedoch nicht möglich in natürlicher Sprache die Gesprächsregeln zu formulieren.
Es kann nur mittels der oben genannten Programmiersprachen geskriptet werden. Daher ist dieses
Framework für Einsteiger nicht geeignet. Der Azure Bot Service gliedert sich in viele verschiedene
Services und der Entwickler selbst wählt aus, welches zusätzliche Feature oder welche Funktionalität
das Bot noch bekommen soll. Als Entwickler hat man die Auswahl ob der Bot als Web Application auf
Azure laufen soll oder ob man den Bot lokal auf eigenen Servern hosten möchte. Der QnA Maker ist
eine Konsole, die automatisiert FAQ-Paare von strukturierten Dokumenten extrahieren kann. Hier wird
keine Programmierung benötigt. Außerdem können einfache Multi-Turn Conversations modelliert
werden. Der QnA Maker kann später dann als Knowledge Base für den Azure Bot Service dienen. LUIS
ist die Abkürzung für Language Understanding Intelligent Service und ist für die Spracherkennung und
–verarbeitung zuständig. Zu beachten ist, dass jeder zusätzliche Service auch zusätzliche Kosten
verursacht. Eine gültige Kreditkarte muss hinterlegt werden und sobald die freien Kontingente
verbraucht sind, wird die Mehrnutzung in Rechnung gestellt. Daher ist es relativ schwierig eine
Abschätzung der Kosten zu treffen, da man zu Beginn eines Projekts nicht final festlegen kann, welche
Services benötigt werden. In der Tabelle 3 werden die Kosten für einige der gängigsten Services
dargestellt, die in Verbindung mit dem Bot Service genutzt werden.
Der Azure Bot Service ist kostenlos für beliebig viele Anfragen auf Standard Channel und 10000
Anfragen pro Monat auf Premium Channels; Das Paket Standard erlaubt beliebig viele Anfragen auf
Standard Channel und €0,422 pro 1000 Anfragen auf Premium Channels.
Synonyme berücksichtigen
Begriffe und Fragen, die des Bots erlernen soll, müssen vom Anwender zusammen mit dem passenden
Text in die AIML-Tabelle eingetragen werden. Jedes einzelne Synonym eines Begriffes musste bisher
eingepflegt werden (z.B., dass Mitteilung synonym zu Information ist).
Ober- unter Begriffe berücksichtigen
Bisher erkennt der Chatbot keinen Zusammenhang zwischen Ober- und Unterbegriffen. Ziel ist es, den
Chatbot so zu verändern, dass er eine Beziehung von einem Begriff sowohl zu dessen Unterbegriffe, als
58
auch zu dessen Oberbegriffen herstellen kann (z.B., dass Fachinformation Unterbegriff von Information
ist).
• User: „Was ist eine Mitteilung?“
• Chatbot: „Informationen sind kontextbezogen und besitzen außerdem immer einen Sender
(Quelle) und Empfänger. Der Mensch ist dabei im Mittelpunkt.“
Ausblick
In der Zeit der Chatbots läuft ein Kaufprozess nun anders ab. Anstatt mühsam die richtige Website zu
finden und dort die Shops aufzurufen, kann der Kunde zum Beispiel über einen Messenger mit einem
Chatbot kommunizieren. Der Chatbot personifiziert im Grunde genommen einen Kundenberater, der
in Echtzeit eine Auswahl an Produkten vorschlägt und nach weiteren gewünschten Details frägt. Je
öfter ein Bot von einem User genutzt wird, desto mehr lernt das Bot über dessen individuellen
Geschmack.
Bots können langes Verweilen in Warteschlangen vermeiden, denn sie sind in der Lage eine große
Anzahl an Kunden gleichzeitig zu beraten. Ein Bot ist also deutlich effizienter und schneller als eine
Schar von Support-Mitarbeitern.
Allein Gedanke, dass man mit Unternehmen genauso kommuniziert wie mit Freunden, und das
Bestreben den Messenger stetig weiterzuentwickeln, lässt die Annahme zu, dass bald jedes
Unternehmen einen eigenen Chatbot besitzen wird.
In Zukunft wird man nicht merken, ob ein Bot oder Mensch mit dem Kunden kommuniziert. Probleme
lösen, Informationen bereitstellen, Beratung, Kaufmotivation, Markenrepräsentation und
Produktvorstellung sind alles Aufgaben, die ein Chatbot in Zukunft perfekt beherrschen wird.
Als abschließendes Fazit ist zu sagen, dass die Thematik Chatbot nicht mehr aufzuhalten ist. Chatbots
sind eine Maschinerie, die die jetzige Welt vor allem im E-Commerce Bereich komplett verändern
werden.
Literatur:
Frank Boguschewski: Selbstredende Homepage – Pandorabots: Wenn Software antwortet. C´t 2005
Heft 12, S. 214-217.
Möbus Claus, Jessen Claudia: Web-Kommunikation mit OpenSource: Chatbots, Virtuelle Messen,
Rich-Media-Content, Berlin:Springer,2005, 320 S
Siegfried Weber: Chatbots – Die intelligente Art der Kommunikation in E-Learning. Bachelorarbeit TH
Deggendorf 2017
TME AG. (10.07.2018). Whitepaper "Chatbots - wie künstliche Intelligenz den Kundenservice
verbessert". Zuletzt abgerufen am 10. 02. 2020 von https://tme-ag.de/whitepaper/chatbots-wie-
kuenstliche-intelligenz-den-kundenservice-verbessert/
Brandt, M. (25.04.2018). Statista. Zuletzt abgerufen am 10. 02. 2020 von Smart Assistants Are Getting
Smarter: https://www.statista.com/chart/9580/how-smart-are-smart-assistants/
Rouse, M. (2017a). TechTarget. Zuletzt abgerufen am 10. 02. 2020 von Platform as a Service (PaaS):
https://searchcloudcomputing.techtarget.com/definition/Platform-as-a-Service-PaaS
Amazon Web Services. (2020). Homepage. Zuletzt abgerufen am 10. 02. 2020 von
https://aws.amazon.com/de/lex/features/
Dialogflow by Google. (2019a). Overview. Zuletzt abgerufen am 10. 02. 2020 von
https://dialogflow.com/
59
3.3 Methoden zur Repräsentation von Wissen (Wissensvisualisierung)
Die Repräsentation des Wissens einer Organisation, also seine Dokumentation, und die Vi -
sualisierung der Wissensstrukturen ist eine Kernaufgabe des Wissensmanagements. Gleich zeitig
dient sie als Grundlage für Wissensmanagementprojekte und für die Konzeption und
Entwicklung von Wissensmanagementsystemen.
Relevante Objekte für die Wissensrepräsentation sind: Prozesse, Personen mit ihren Beziehungen
und Fähigkeiten, Wissensstrukturen und Softwaresysteme, die das Wissensmanagement
unterstützen sollen. Methodische Unterstützung bieten Wissenskarten für die Modellierung von
Personen und Wissensstrukturen, Ontologien zur Modellierung von Wissensstrukturen und die
Prozessmodellierung sowie Methapher. Diese Methoden werden im Folgenden noch näher
dargestellt.
3.3.1 Wissenskarten
Die Literatur unterscheidet nach dem Inhalt fünf verschiedene Arten von Wissenskarten: Wissens -
quellen, Wissensanlagen, Wissensstrukturen, Wissensanwendung und Wissensentwicklung
[Lehner 2012]. Die Analogie zu einer Landkarte trifft nicht für alle vorgestellten Wissenskarten
zu; vor allem bei Wissensanlagekarten spricht man besser von einem Verzeichnis.
Wissensquellenkarten (knowledge source maps) stellen die Experten einer Organisation anhand
einer Reihe selbst gewählter Kriterien graphisch der. Solche Kriterien können das Fachgebiet der
Experten, die Dauer ihrer Erfahrung in der Organisation, funktionale Bereiche der Organisation,
Verantwortungsbereiche oder von ihnen betreute Produkte sein.
Zum Beispiel stellt die Wissensquellenkarte der Abbildung 3/4 die Experten eines Unternehmens
anhand von Fachbereichen (Graphic Design, Animation, Database, Project Management und
Technicians) und den vom Unternehmen angebotenen Produkten, nämlich CD -ROMs,
multimedialen Standalone Terminals und Websites, dar.
Eine solche Wissenskarte kann z.B. Projektleitern bei der Suche nach Mitarbeitern für Kun -
denprojekte helfen. Außerdem werden Lücken in der Kompetenz des Unternehmens sichtbar -
während das Untemehmen die technischen Aspekte von Web-Development-Projekten personell
sehr gut abdecken kann, stehen im dargestellten Beispiel für die Animation oder für des
Projektmanagement nur je ein Experte im ganzen Unternehmen zur Verfügung.
Diane Strong
60
Abb.3/4: Wissensquellenkarte [Lehner 2012]
Mit Wissensanlagekarten (knowledge asset maps) (Verzeichnisse) kann der Bestand an Wissen,
den Einzelne, Teams, Einheiten einer Organisation oder die Organisation als Ganzes hat, sichtbar
gemacht werden. Die Abbildung 3/5 zeigt den Bestand des Wissens einer Gruppe von Beratern.
Der Bestand an Wissen wird auf mehrfache Weise deutlich gemacht - zum einen durch die Größe
der Balken: ein schmaler Balken drückt Grundlagenwissen, ein breiter Balken Expertenwissen im
jeweiligen Bereich aus. Zum anderen verdeutlichen die hell hinterlegten Balken außerdem,
welche Person Training dafür anbieten kann. Diese Darstellung kann, sofern sie webbasiert
umgesetzt wurde, durch weitere Informationen angereichert werden. Mit einem Klick auf einen
der Berater können Kontaktinformationen, mit einem Klick auf einen Balken die durchgeführten
Projekte oder die besuchten Weiterbildungskurse eines Beraters angezeigt we rden.
Tinner, Jeff
Borer, André
Brenner, Carl
Deller, Max
Ehrler, Andi
Gross, Peter
…
Abbildung 3/5: Wissensanlagekarte [Lehner 2012]
Eine Wissensanlagekarte zeigt die Personen, die sich aufgrund ihrer Kenntnisse als wichtig für die
Organisation erweisen (in diesem Beispiel ist es Andi Ehrler, siehe Abb. 3/5). Die Karte kann Schwer-
punkte in der Kompetenz von Mitarbeitern anzeigen, aber auch Bereiche, wo diese einer Wei-
terbildung bedürfen. Mit einer Wissensanlagekarte können die Besetzung von Projekten und
geschäftliche Entscheidungen unterstützt werden (z.B. müsste für den Bereich Merge & Acquisitions
(M&A) das Personal ausgebildet oder aufgestockt bzw. die Beratung in diesem Bereich aufgrund der
geringen Kompetenz eingestellt werden).
61
Beispiel: Welche Mitarbeiter könnten Aufgabe XY bewältigen?
Projektwissen
Projekterfahr
ung
Projekt-
management-
handbuch
PM-Man.doc
Vorlage für
Projektdokume
ntation
Projdoc.dot
Abbildung 3/7 zeigt die Wissensanwendungskarte eines in der Marktforschung tätigen Unternehmens.
Den vier Prozessschritten (im Zentrum der Abbildung) sind in zwei Kreisringen die Softwarewerkzeuge
62
und Methoden zugewiesen, die eben diese Prozessschritte unterstützen. Probst et al. berichten von einer
praktischen Umsetzung von Wissensanwendungskarten als so genannte Kompetenzkarten.
Beispiel: Deutsche Post. Die Karten weisen den Weg zum situationsbedingt relevanten Wissen
METHOD
3.3.2 Ontologien
Auf einer soziokulturellen Ebene erfordern Ontologien die gemeinsame Definition der Begriffe und
deren Zusammenhänge, sowie die verpflichtende Anwendung eines definierten Vokabulars durch die
Anwender im Rahmen der Wissensdomäne.
Diese Definition soll an einem nichttrivialen Beispiel dargestellt werden. Als erster Begriff in der
Definition muss die Domäne erklärt werden. Eine Domäne ist ein genau umrissener Ausschnitt aus
einer „Welt". Die Domäne wird aus dem Anwendungsgebiet bestimmt. In unserem Beispiel ist die
„Welt" die Menge aller Modelle aller Personenwagenhersteller. Als Domäne wählen wir ein
spezifisches Modell, nämlich den Aston Martin Virage (1988-1995).
Die Konzepte (Objekte)in dieser Domäne sind sämtliche Bestandteile, aus welchen der Aston Martin
(AM) Virage zusammengebaut ist. Diese Domäne enthält nur materielle Konzepte, viele Domänen
enthalten aber auch immaterielle Konzepte (wie Ideen). Die Konzepte sind in diesem Falle sämtliche
Teile und Optionsteile aller je gebauten Virage Series 1 (1988 bis 1995). Jedes Konzept entspricht
einem mechanischen oder elektrischen Teil im Fahrzeug. Die Teile sind im Detail definiert und
spezifiziert, so z. B. alle Schrauben in DIN-Normen.
64
Abb. 3/10: Eigenschaften von Objekten und Beziehungen [Frank 2014]
Bemerkung: Aufgrund der Verständlichkeit wird an dieser Stelle auf die Unterscheidung von
»Konzept" (Schraube) und „Instanz“ (spezifisches Teil M6x16 #10 in Abb. 3/9) verzichtet. Sämtliche
Teile (Instanzen) sind in einer Liste enthalten, nämlich im Virage Parts Manual, siehe Ausschnitt
„Lenksäule" in Abb. 3/9. Hier muss angemerkt werden, dass die Modellierung von
Konzept/Subkonzept/Instanz und ihrer Beziehungen eine der großen Herausforderungen beim
Erstellen einer Ontologie ist.
Die nächste Information in einer Ontologie sind die Beziehungen zwischen den Konzepten. Im Beispiel
sind dies topologische Beziehungen zwischen den Teilen des Fahrzeuges, d. h. welches Teil ist wo und
wie montiert.
Die Beziehungen sind als "Explosionszeichnungen” im Virage Parts Manual in grafischer Form
dokumentiert. Die Explosionszeichnungen zeigen jedes Teil mit seiner genauen Lage und seiner
Einbauvorschrift. Wie die Konzepte haben auch die Beziehungen spezifische Eigenschaften, welche in
einer Tabelle, Beispiel sieht man in Abb. 3/8, gelistet sind.
Als letztes Element der Definition einer Ontologie fehlen noch die Axiome und die Prinzipien der
Domäne. Diese sind für die AM Virage Domäne: (a) Es dürfen ausschließlich nur AM-Teile verbaut
werden, (b) Nur AM-zertifizierte Mechaniker dürfen in der Domäne arbeiten, (c) Die von AM
vorgeschriebenen Wartungsintervalle sind strikt einzuhalten etc.
Der wichtige Schritt beim Übergang von der Informationsverarbeitung zur Wissensverarbeitung ist die
Einführung der formalen Semantik, d.h. der maschinenlesbaren Formulierung der Bedeutung der
Konzepte und ihrer Beziehungen. Dank einer vereinbarten formalen Semantik können kooperierende
Computer die Bedeutung von Konzepten und ihren Beziehungen erfassen und diese verarbeiten. Ein
Computer kann das Teil „Part Number 692088: Screw M6x16“ aus Abb. 3/10 mit all seinen
Eigenschaften erfassen. Dies erlaubt ihm z.B. Part Number 692088 aus der AM Virage-Ontologie mit
den Angeboten in einem Katalog (auch eine Ontologie) eines Schraubenlieferanten exakt zu
vergleichen, die Tauglichkeit zu entscheiden und ggf. eine automatische Bestellung auszulösen.
Die nächste Forderung an eine Ontologie ist deshalb ihre Formalisierung, d.h. ihre Darstellung in einer
standardisierten, maschinenlesbaren und maschinenverarbeitbaren Form. Das Werkezeug dazu sind
Ontologiesprachen eingebettet in eine IT-Struktur für die Wissensverarbeitung.
Ontologiesprachen
Das abstrahierte Wissen der Domäne wird durch die Domäne Experten mittels eines Ontologie-Editors
und einer Ontologiesprache erfasst und damit entsteht die formale, maschinenlesbare Ontologie. Die
Ontologie kann von den verschiedenen Anwendungsprogrammen gelesen und verwendet werden. Das
wichtige Instrument hier ist die Ontologiesprache. Eine Ontologiesprache ist ein exakter Formalismus
zur maschinenlesbaren Repräsentation von Wissen und zeichnet sich durch eine eindeutige
Spezifikation von Syntax und Semantik aus. Das Fundament einer Ontologiesprache wird durch ein
Logiksystem gebildet. Das Logiksystem umfasst Variablen und Operatoren und ermöglicht die
Formulierung und den Beweis von Formeln und Sätzen. Ein einfaches und sehr bekanntes
Logiksystem ist die Boole'sche Logik: Hier sind die Variablen binär (haben die Werte ,,0" und ,,1"
oder "falsch" und "wahr"). Die Operatoren sind NEGATION, UND, ODER. Damit lassen sich
beliebig komplexe Gleichungssysteme aufbauen.
Die ersten Ontologiesprachen entstanden aus der Forschung über künstliche Intelligenz. Später wurden
sie durch die Anforderungen der Informatik weiterentwickelt und heute existiert eine Vielzahl von
Ontologiesprachen. Hier soll die "Web Ontology Language" OWL eingeführt werden (die
Buchstabenumstellung von WOL zu OWL ist gewollt und wurde von Tim Finin eingeführt, um diese
Ontologiesprache mit der Weisheit einer Eule zu assoziieren). OWL bildet die vereinheitlichende
Grundlage für das semantische Web und spezifiziert eine strikte Syntax (Form) und Semantik
(Bedeutung).
OWL hat zwei Ausprägungen, die sich durch ihre Ausdruckskraft unterscheiden: OWL Full und OWL
DL. OWL DL ist eine syntaktisch reduzierte Version von OWL Full, welche dank den
Einschränkungen entscheidbar ist. Entscheidbarkeit bedeutet, dass alle in OWL DL formulierten Sätze
maschinell geprüft und mit "wahr" oder "falsch" entschieden werden können. Dies ist ein derart
wichtiger Vorteil, dass meist OWL DL verwendet wird. Das logische Fundament von OWL DL ist die
Description Logic (DL). Ein Benutzer der Ontologie muss sich nicht um die Details der Description
Logic kümmern, die erlaubten Konstrukte sind direkt in der Ontologiesprache verfügbar und im
Ontologie-Editor eingebaut.
Beispiel OWL für Auto siehe Abb. 3/9 (Powertrain ist Antriebsstrang) oben und Beispiel eines
Individuums in RDF, die entweder durch Zugehörigkeit zu einer bestimmten Klasse oder durch ihre
Eigenschaften definiert werden siehe Abb. 3/9 unten.
66
Abb. 3/11: Beispielcode aus OWL (Auto) und RDF (Oper Tosca)
Aus dieser Auflistung geht hervor, dass Änderungen über die Zeit hinweg (letzten vier Spiegelstriche)
den Ontologien zwar zugesprochen werden, in derzeitigen Systemen zumeist jedoch nicht in Form
eines übergeordneten Workflow-Managements integriert sind, sondern händisch nachzuzeichnen sind.
Anforderungen an Ontologien
Eine der wichtigsten Anforderungen einer Ontologie ist es, eine einheitliche Definition von Begriffen
zu geben. Meist beschränkt sich der Entwicklungsprozess auf ein einzelnes Anwendungsgebiet, für
welches eine gemeinsame Ontologie zur Bereinigung semantischer Konflikte aufgebaut wird.
Semantische Konflikt können zum Beispiel Homonyme und Synonyme, aber auch inhaltlich-
strukturelle Probleme oder uneindeutige Wertebereiche und Masseinheiten umfassen.
Dazu muss eine Ontologie klar, eindeutig und kohärent sein, und darüber hinaus auch Schnittstellen
zur Sprache anderer Wissensdomänen berücksichtigen. Und schließlich besteht die Forderung, dass
die Ontologie für eine abgeschlossene Domäne vollständig sein soll, d.h. sie muss alle für das
Verständnis notwendigen Konzepte enthalten.
Unter Klarheit versteht man die Eindeutigkeit definierter Begriffe, aber auch das Definieren der
notwendigen und hinreichenden Bedingungen. Die Eindeutigkeit gewährleistet, dass jeder Begriff nur
eine Deutung zulässt bzw. nur eine Bedeutung besitzt.
Eine Ontologie sollte in sich konsistent sein (Kohärenz), d.h. es sollten nur Schlussfolgerungen
möglich sein, die mit den vorhandenen Definitionen übereinstimmen.
Und weiter sollte es möglich sein, neue Begriffe für einen speziellen Gebrauch zu definieren, ohne
bestehende Definitionen anpassen zu müssen. Letztlich sollten die Konzepte und Beziehungen auf
einer Methode neutralen, von der Kodierung unabhängigen Ebene spezifiziert werden, damit sie in
mehreren Systemen einsetzbar sind.
67
Abb. 3/10 zeigt ein einfaches Beispiel einer Ontologie. Die Konzepte (Fahrzeug, Wasser, Luft) sind
durch die verschiedenen Relationen (Zuordnung zu Oberbegriffen, Synonymen, und dem Raum, wo
sich ein Fahrzeug fortbewegen kann) miteinander verbunden.
Wasser
„für“
Schiff Motorrad
„ist ein“ „ist ein“ „für“ „synonym
“
Auto
„synonym
“
Luft „für“ Flugzeug Wagen
• Finanzontologien.
In der Finanzwirtschaft (Banken, Versicherungen, Börsenplätze, ...) hat die Automatisierung
früh begonnen und ist weit fortgeschritten. Damit Transaktionen zwischen Partnern
vollautomatisch, fehlerarm und schnell durchgeführt werden können, ist eine fehlerfreie
Verständigung notwendig. Diese beruht heute weitgehend auf Finanzontologien. Ein typisches
Anwendungsgebiet ist der Hochfrequenzhandel mit Finanzinstrumenten, bei dem
ausschließliche Computer mit ihren spezialisierten Algorithmen die Partner bilden.
• Unternehmensontologie.
Um ein Unternehmen flexibel und agil zu gestalten, muss seine Struktur genau bekannt sein.
Dies ist die Aufgabe der Unternehmensarchitektur, welche heute als wichtiges
Unterstützungsinstrument eine Unternehmensontologie verwendet. Die
Unternehmensontologie bildet ein Modell des Unternehmens und formalisiert das Wissen über
dessen Struktur, Prozesse, Produkte etc.
• Juristische Ontologien.
Die Gesetze und Verordnungen definieren Konzepte z. B. Straftatbestände, Prozessordnungen
etc. Anwälte und Richter müssen diese Konzepte klar verstehen und präsent haben. Bei
internationalem Recht kommt erschwerend hinzu, dass verschiedene Jurisdiktionen
unterschiedliche Auslegungen haben. Es wurde daher schon früh versucht, das juristische
Wissen zu formalisieren, und daraus sind mehrere Juristische Ontologien und Anwendungen
entstanden.
• Medizinische Ontologien.
Die Medizin verfügt heute über einen riesigen Schatz von wissenschaftlichem und
empirischem Wissen über Krankheiten, Symptome, Behandlung, Wirkstoffe, Nebenwirkungen
etc. Arbeiten zur formalen Erfassung dieses Wissens haben vor Jahrzehnten begonnen, und
68
seit einigen Jahren werden hierzu auch Ontologien eingesetzt. Medizinische Ontologien
ermöglichen den Bau von medizinischen Expertensystemen, welche den Arzt interaktiv bei
Symptomerkennung, Diagnose, Therapien und Beurteilung des Krankheitsverlaufes
unterstützen.
• Geninformationsontologien.
In der heutigen Gentechnikforschung geht viel Zeit verloren, weil die Terminologie sehr
vielfältig und uneinheitlich ist. Forscher finden Information nicht oder duplizieren
Forschungsarbeiten. Diese Geninformationsontologie ist eine kollaborative Arbeit und
versucht, weltweit die Terminologie in diesem Gebiet zu standardisieren.
Protégé ist ein Editor zur Modellierung von Ontologien, der am Institut für Medizinische
Informatik an der Stanford University in Kalifornien konzipiert wurde und der mittlerweile als
Open Source-Anwendung zur Verfügung steht (http://protege.stanford.edu/). Mit Protégé
können Wissensdatenbanken angelegt, mit Informationen gefüllt und Wissen daraus abgefragt
werden. Die Entwicklungs- und Laufzeitumgebung ist in Java programmiert und damit
plattformunabhängig. Protégé verzeichnet gut 300.000 registrierte Nutzer (Stand: Mai 2016).
Die Wissensmodellierung erfolgt mit Protégé-OWL. Es gibt hier noch logische Mechanismen,
durch die implizites Wissen aus der modellierten Datenstruktur – auch übergreifend aus
mehreren Ontologien – inferiert werden kann.
3.3.3 Prozessmodellierung
Wissen ist in die zahlreichen Prozesse einer Organisation eingebettet. Das kann z. B. das Wissen
über einen Produktionsprozess sein (d. h. wie wird ein bestimmter Input zu einem bestimmten
Output transformiert). Unabhängig davon, ob dieses Wissen bekannt oder verborgen ist, leitet die
aus der Vergangenheit stammende Prägung mit Wissen die aktuellen Abläufe und Ent -
scheidungen. Genauso wie Geschäftsprozesse durch Modellierungsmethoden sichtbar und da mit
gestaltbar gemacht werden können, sollen solche Wissensprozesse als wichtiger Bestandteil des
Wissens einer Organisation modelliert und gestaltet werden. Es sollten aber keine neuen
69
Prozessmodelle neben bestehende gestellt werden, vielmehr sollen Geschäftsprozesse gemeinsam
mit den sie begleitenden und steuernden Wissensprozessen in Modellen erfasst werden.
Marketing- Eigene
strategie Produkte Lessons Learned aus
Akquisition
Auftrag erhalten
Keinen Auftrag
erhalten
Kundendaten Auftragsdaten
Abb. 3/12: Geschäftsprozess als EPK mit Elementen der Wissensverarbeitung [Lehner 2012]
Mit dem prozessorientierten Wissensmanagement richtet sich der Fokus auf die wissensintensiven
Prozesse der Organisation und die sie unterstützenden Wissensprozesse und
Wissensmanagementprozess. Mittlerweile existieren viele Ansätzen, um Wissen gemeinsam mit
den Geschäftsprozessen der Organisation zu modellieren. Sie haben , auch Eingang in Software-
Werkzeuge zur Modellierung gefunden: z.B. das modellbasierte Wissensmanagement mit ARIS,
die Knowledge Modeling und Description Language (KMDL).
Die Darstellung von Prozessen erfolgt z.B. mit Hilfe ereignisgesteuerter Prozessketten (E PK),
welche die Funktionen innerhalb eines Prozesses, Ereignisse, Rollen bzw. Personen etc. dar stellt.
Für die Modellierung von Aspekten des Wissensmanagements werden EPKs um Ele mente für
Wissenskategorien (z.B. ovale Denkblase) und dokumentiertes Wissen (z.B. rechteckige
Denkblase) erweitert.
Abbildung 3/12 zeigt ein Beispiel, in dem auch das notwendige Wissen visualisiert wird. In Abb.
3/12 greift ein Mitarbeiter bei der Akquise eines Kunden auf implizites Wissen wie seine
Kenntnisse zur Marktstruktur zurück, zum anderen auf dokumentiertes Wissen (z.B. lessons
learned).
70
Kernaufgabe des geschäftsprozessorientierten
Wissensmanagements ist es, die Wissensflüsse zwischen den
wissensintensiven Aktivitäten möglichst optimal zu ermöglichen.
Als wissensintensive Aktivitäten gelten diejenigen
Prozessaktivitäten, die auf Kernkompetenzen basieren und dem
Bearbeiter ein hohes Maß an Gestaltungs- und
Entscheidungsspielräumen geben z. B. Risikoprüfung im Rahmen
der Kreditbearbeitung. Es ist allerdings keine trennscharfe
Abgrenzung zwischen wissensintensiven und nicht-
wissensintensiven Prozessen möglich. Vielmehr sind verschiedene
Merkmale von wissensorientierten Geschäftsprozessen zu
betrachten, um einen Ansatzpunkt für deren Analyse zu finden.
71
3.3.4 Visualisieren mit Metapher-Methode: U-Bahnkarte
Abb. 3/13 links zeigt, wie in einem Ausbildungszentrum für Gesundheitsberufe die
Einführung eines Qualitätsentwicklungsprojekts durch den Einsatz einer Karte unterstützt
wurde. Ca. 400 Betroffene mussten für die Mitarbeit am Projekt gewonnen werden. Ziel war
es, den unterschiedlichen Zielgruppen einen Überblick plus Details über das Projekt zu
vermitteln. Der Prozess wurde dazu mit der Metapher der U-Bahnkarte abgebildet (Abb. 3/12,
links), wobei die U-Bahnlinien Zielgruppen (z.B. Projektteams, Lernende, Kader)
repräsentieren und die Haltestellen die Meilensteine. Schnell wird klar, wer wann was und mit
wem macht. Die an belebten Orten (z.B. vor dem Lift) aufgehängten Poster in der Größe von
knapp drei Metern zeigen den relevanten Überblick plus Details, regen zum Entdecken und
Diskutieren an und fördern den
3.4 Wissenssituationsanalyse-Methode
Die nachfolgend vorgestellte Methode könnte die Situationsanalyse (wo die Organisation im
Umgang mit WM steht) unterstützen. Die Ergebnisse dieser Analyse bilden die Grundlage für die
Formulierung von Zielen für das Wissensmanagement.
Wissensmanagementprofil
Ziel eines Wissensmanagementprofils ist es, die in einer Organisation (oder einem Teil da von)
gebräuchliche Art und Weise des Umgangs mit Wissen zu bestimmen. Das Ergebnis wird in einem
Profildiagramm dargestellt (siehe Abbildung 3/15).
Dabei werden mehrere Kategorien für die Bestimmung der Art und Weise des Umgangs mit
Wissen vorgegeben und die ihnen zugeordneten Dimensionen in Gegensatzpaaren von Eigen -
schaften bewertet. Bei der Beschaffung von Wissen wird untersucht, ob Wissen eher in der
Organisation oder von außerhalb beschafft wird (Focus), und ob der Suchprozess (Search) dabei
gezielt oder eher zufällig abläuft. Bei der Problemlösung soll geprüft werden, ob diese
vornehmlich durch Einzelne oder im Team stattfindet (Location), ob dabei auf bereits be kannte
Vorgehensweisen (Heuristiken) zurückgegriffen wird oder nicht (Procedures), ob die Lösung
durch praktisches Probieren oder geistige Tätigkeit erarbeitet wird (Activity), und ob bei der
Lösung auf vorhandene Lösung aufgebaut wird, oder man neuartige Lösungen erarbei ten möchte
(Scope). Die Verteilung von Wissen (Dissemination) wird nach Art (informell oder formell) und
der Breite der Verteilung (Breadth) betrachtet. Mit dem Besitz (Ownership) soll gezeigt werden,
wie stark Mitarbeiter Wissen als Teil ihrer selbst ansehen (Identity) und wie Wissen unter den
Mitarbeitern verteilt ist (Resource; z.B. Spezialisten mit abgegrenzten Fachgebieten oder
Überschneidungen im Wissen der Mitarbeiter). Letztlich wird dargestellt, wie das Wissen in der
Organisation bewahrt wird (Representation) - als persönliches Wissen der Mitarbeiter oder explizit in
Dokumenten oder Datenbanken. Die fünf Kategorien können abhängig vom Einsatzzweck oder der Situation
natürlich abgewandelt oder erweitert werden. Mit einem Wissensmanagementprofil kann der Status quo
des Umgangs mit dem Wissen in einer Organisation dargestellt werden.
Wissensbeschaffung
hauptsächlich In der Organisation von außerhalb
Suche: zufällig gezielt
Problemlösen
Von wem? Durch Einzelne Team
Bekannte
Prozedere: Versuch und Irrtum
Vorgehensweisen
Praktisches
Aktivität Geistige Tätigkeit
Probieren
Auf vorhandene
Wie? Neuartige Lösungen
Lösungen aufbauen
Wissensverteilung
Art: informell formell
72
Breite: eng weit
Wissensbesitz
Wer hat es? Die Mitarbeiter Das Team
Wie ist Wissen
Spezialisten Generalisten
verteilt?
Storage/Memory
Wie wird Wissen
Implizit Explizit
in Org. Bewahrt ?
Abb. 3/15: Wissensmanagementprofil
Abb. 3/16: Unterschied zwischen CoP zu anderen Formen von Gruppen [Lehner 2012]
73
Beispiel: Lerngruppen
CoP TUFIS (Infoanalysten Organisation)
Abb. 3/19 zeigt ein Präsentationssystem Keramik, bei dem durch ein Benutzermodell eine Individual
Guided Tour erzeugt wird, unterschiedlich für Schüler oder Techniker. So erhält die Schülerin zum
Thema Verbrennungsmotor die Informationen in der Reihe Medienobjekt, Bild1, Bild 2, Text1 und der
Techniker in der Reihenfolge Medienobjekt, Text2, Text3, Bild3.
3.6.1 Benutzermodell
Der Kernbaustein einer Adaption ist oft ein Benutzermodell, also die Dokumentation der
Benutzereigenschaften im IT-System. Google bietet viele kostenlose Services an. Alle haben das eine
Ziel: so viel Informationen über jeden Benutzer wie nur möglich zu sammeln und sie für jeden
Benutzer in einem Benutzermodell zusammen zu führen.
Die Systematik eines Benutzermodells drückt man am besten mit einem morphologischen Kasten,
bestehend aus den Merkmalen in der ersten Spalte und den verschiedenen Ausprägungen auf den
folgenden Spalten, aus, siehe Abb. 3/18.
Als Hauptanwendungsfelder der Benutzermodellierung/Personalisierung gelten:
• Marketing
• Schulung
• Beratung
74
Product Knowledge
Identical
Rebuy
Domain Knowledge
Modified
Rebuy Expert
Professional
New Purchase
Beginner
Cognitive Style
"fast "slowly
generalizing" specifying"
Individual Presentation
Abb. 3/18: Dimensionen dieses Benutzermodells für Verkaufssystem von Triumph-Adler
Schül
erin Verbrennungs- Verbrennungs- Tech
motor
M B1 B2 T1
motor
M T2 T3 B3
niker
Zündkerzen
Technisch Gleitringe in
e Keramik
Kraftstoffpumpen
Ein Beispiel der Benutzermodellanwendung ist die Homepage der Micro Compact smart GmbH, auf
der mit dem Tool NetMind ein Benutzermodel geführt wird, um Kundenfreundlichkeit zu verbessern
ohne die Privatsphäre zu beeinträchtigen. Der NetMind Tracker@Reporter sammelt auf der smart-
Homepage Daten über Nutzerverhalten und wertet sie aus.
75
Beim Aufbau entschied man sich drei Nutzertypen zu definieren und die Nutzer nach deren
Eigenschaften zu segmentieren. Die zugrundegelegten Nutzertypen sind:
o ökologisch Interessierte
o Technisch Interessierte
o Life Style Orientierte
Es wurden Messkriterien beim Verhalten auf der Homepage definiert, die für diesen oder jenen
Nutzertyp sprechen und es wurden die Informationsseiten der Homepage klassifiziert, für welchem
Nutzertyp sie geeignet sind. Das System beobachtet nun den Benutzer, versucht ihn in eine der drei
Benutzerklassen zu ordnen und bietet bei Links die für diesen Nutzertyp passendste
Informationsdarstellen der gelinkten Seite an. Die Homepage reagiert Dank des Benutzermodells
individuell auf Verhalten des Benutzers; die Site passt sich permanent an den Kunden an.
Weitere Beispiele: amazon.de mit seinem Empfehlungssystem, google.de
Merkmale Ausprägungen
Zweck Selektion Präsentation
Gegenstand Empfänger (Rollenträger, Bediener
Kunde, Gruppe)
Individualisierung Individuell Gruppierend/Stereotyp
Art der Informationen Weiche Informationen Harte Fakten
Veränderbarkeit Statisch Dynamisch
Einsichtigkeit Transparent Intransparent
Gültigkeit Langfristig Kurzfristig
Profilschärfe 0/1 Fuzzy(tendenz)
Gewinnung Implizit Explizit
Wissensakquisition Personell Lernend
Abb. 3/20: Morphologischer Kasten zur Benutzermodellierung [Mertens 2003]
Das Themenfeld Benutzermodellierung ist eng verwandt mit Personalisierung, das seit 2000 im
WWW einen regelrechten Boom erlebt. Viele Portale bieten den Service „My….“ an, d.h. die
Anpassung ihrer Oberfläche an individuelle Eigenschaften, Bedürfnisse und Kenntnisse von
Anwendern.
76
Einstiegstest vertreten, den das Programm automatisch auswertete und eine prozentuale Einschätzung
des vorhandenen Wissens in dem jeweiligen Kapitel entwickelte. Daraus generierte es eine
Empfehlung, welche Kapitel für den einzelnen Studierenden aufgrund des vorhandenen Basiswissens
überflüssig sind bzw. welche Kapitel aufgrund von Wissenslücken studiert werden sollten. Aus diesen
Ergebnissen konfiguriert das Programm dynamisch eine individuelle Kursoberfläche. 2012 gelang
dann mit einem speziellen Template die Adaptivität im LMS Moodle (siehe Abb. 3/22), auch
basierend auf einem Eingangstest (siehe Abb. 3/21).
Abb. 3/22: Auszug aus an den Kenntnisstand angepasst Kursoberfläche (Kap. 1.1 und 1.2 wurden zu
Genüge gewusst und werden nicht mehr angeboten)
Abb. 3/23. zeigt, dass Daten über Lernverhalten (ermittelt mit Learning Analytics) und Eingaben des
Lernenden zusammen mit Sensordaten (Kontextinformationen), gekoppelt mit den Bedürfnissen des
Lernenden und den Eigenschaften des Lernenden, einen adaptiven Mechanismus bilden das
Lernsystem an den Lernen anzupassen mit folgenden Stellschrauben: Lernressource, Rückmeldung,
Visualisierung, Interaktionssteuerung, Rolle, Gruppenformation, Zuweisung Lernpartner und
Lernaktivität.
Kontextdimensionen sind Lokation, Objekte der Umgebung, Personen der Umgebung
Umgebungszustand und Aktivität. Die Identität des Lerners gepaart mit den Kontextinformationen
bestimmen sein Lernverhalten und die Lernerbedürfnisse.
77
Abb. 3/23: Personalisierung und Kontextualisierung bei Lernarrangements [Rensing 2017]
Kontrollfragen
1. Was wären WM-Methoden im Reifegrad 6 im Modell von Müller?
2. Nennen sie drei Methoden zur Förderung des Wissensaustausches und der –nutzung und
beschreiben sie eine näher!
3. Unterscheiden sie nach dem Inhalt die Wissenskarten und beschreiben sie eine Klasse näher!
4. Was sind Ontologien und wie werden sie im Wissensmanagement eingesetzt?
5. Entwickeln sie ein Beispiel einer Ontologie!
6. Entwerfen sie eine Ontologie für den Studiengang BWL.
7. Stellen sie sich vor, Ihre Organisation hat sich das Ziel gesetzt, die Transparenz des Wissens und
den Wissensaustausch zu erhöhen. Machen sie einen Vorschlag, wie man dieses Ziel erreichen
könnte und welche Methoden eingesetzt werden können.
8. Was sind die Kernaufgaben von Geschäftsprozessorientiertes Wissensmanagement? Nennen sie 5
Merkmale von wissensintensiven Prozessen!
9. Was wäre ein wissensintensiver Teilprozess für einen Studierenden (z.B. der BWL)? (warum?)
10. Skizzieren sie eine Wissenssituationsanalyse-Methode.
11. Beschreiben sie die Organisationsmethode der Communities of Practice!
12. Google baut ja von jedem Google-Tool Benutzer ein Benutzermodell. Versuchen sie anhand des
Morphologischen Kastens des Benutzermodells das von Google und Smart zu erklären!
13. Wie würden sie ein Benutzermodell in einem LMS wie ilearn einbauen? Was könnten ilearn mit
ihrem Benutzermodell anders machen als es jetzt agiert?
14. Skizzieren sie entlang des WM-Prozesses je eine WM-Methode höheren Reifegrades.
15. Was wären im WM-Reifegradmodell von Müller Reifegrad 6-Beispiele
16. Skizzieren Sie die geschichtliche Entwicklung von Chatbots.
17. Vergleichen sie die Chatbots der großen amerikanischen internetfirmen.
18. Was versteht man unter AIML?
19. Beschreiben Sie wie die Erstellung von Chatbots vereinfacht und die Qualität der
Antworten verbessert werden kann.
20. Skizzieren Sie wie der Einsatz von Chatbots den Kaufprozess verändert.
21. Frage: Wie kann man den Chatbot intelligenter machen?
78
4 Bewertungsmethoden von Wissen-(smanagement)
„Was man nicht messen kann, kann man auch nicht managen“. Daher ist das Bewerten notwendig,
um die Ressource Wissen zu planen. Der Bewertung von Wissen wird häufig nicht di e Bedeutung
beigemessen, die das Wissen mittlerweile in Organisationen hat.
Intellektuelles Kapital ist eine Form immateriellen Reichtums, der das Potenzial bietet, noch mehr
Reichtum zu schaffen. Vernachlässigt man aber das ganzheitliche Management des Intellektuellen-
Kapitals wird Reichtum zerstört.
Man unterscheidet drei Arten immaterieller Vermögenswerte: die Kompetenz der Mitarbei ter
(Humankapital), die interne (unternehmerisches Kapital) und die externe Struktur (Kunden als
Kapital), siehe Abb. 4/1. Unter Kompetenz versteht man die Fähigkeiten der Mitarbeiter, so zu
handeln, dass materielle wie immaterielle Vermögenswerte geschaffen werden können. Sie
beinhaltet Ausbildung, Fähigkeiten, Erfahrungen, Werturteile und soziale Beziehungen, d.h. jene
Dinge, die den Mitarbeitern und nicht dem Unternehmen gehören. In der internen Struktur sind
Patente, Konzepte, Modelle, Informationssysteme zusammenfasst, also das, was dem
Unternehmen gehört. Die externe Struktur beinhaltet die Beziehungen zu Kunden und
Lieferanten, aber auch Markennamen, Warenzeichen und das Image des Unternehmens.
Beispiel: Schreiben sie die drei wichtigsten Quellen für jede der drei Arten des Intellektuellen-
Kapitals auf, die anderen an der TH Deggendorf spontan in den Sinn kommen.
Skizzieren Sie die aktuelle oder zukünftige Situation im Unternehmen/ Hochschule im Hinblick
darauf, WM auf eine strategische Ebene zu heben.
1. Die Führungskräfte reden über intellektuelles Vermögen (?), managen sie intellektuelles
Vermögen (?), verbreiten qualitative oder quantitative Informationen über intellektuelles
Vermögen (?)
2. Der Chef redet über intellektuelles Vermögen (?), managet sie intellektuelles Vermögen
(?), verbreitet qualitative oder quantitative Informationen über intellektuelles Vermögen
(?)
3. Sie reden über intellektuelles Vermögen (?), managen sie intellektuelles Vermögen (?),
verbreiten qualitative oder quantitative Informationen über intellektuelles Vermögen ( ?)
Wie sehen sie die Entwicklung kurzfristig und langfristig dazu.
Im Rahmen des Wissensmanagement können vier Objekte bewertet werden:
• Das Wissen (die Wissensbasis) selbst,
• Die Aktivität das Wissensmanagements,
79
• Wissensmanagementsprojekte und
• Wissensmanagementssysteme
Letztlich laufen sämtliche Bewertungen auf eine Kontrolle des Erfolgs des WM hinaus.
Ein einfacher Ansatz der Bewertung wäre Marktwert / Wiederbeschaffungskosten
In Abb 4/2 sieht man eine Sammlung monetärer und nicht-monetärer Größen, die der Bewertung
des intellektuellen Kapitals, der immateriellen Vermögenswerte dienen.
Maßstäbe für geistiges
stehen für…
Vermögen bei Humankapital
Prozentsatz der Einnahmen von Ausmaß, in dem Kunden die Beschäftigten und das
Kunden, die die Kompetenz Unternehmen zu Innovationen, dem Erwerb neuen
erweitern (Kunden, für deren Wissens
Zufriedenstellung die Beschäftigten oder einer Ausweitung bestehenden Wissens anregen
neue Fähigkeiten entwickeln
müssen)
Prozentsatz der Kunden, mit denen Ausmaß des Wissensflusses und der
Kooperationen eingegangen wurden Wertschöpfung aufgrund von Beziehungen
zu Kunden
Prozentsatz der Einnahmen, der in das Ausmaß, in dem explizite Formen des
WMS investiert wird intellektuellen Vermögens geschaffen,
gespeichert und genutzt werden
Durchschnittliche Zeit, bis auf Anfragen Fähigkeit, Wissen zu sammeln und zu nutzen
und Forderungen der Kunden reagiert
wird
80
Anteil der patentierten Produkte am Fähigkeit, neues Wissen zu schaffen und es
Umsatz für den Geschäftserfolg zu nutzen
Grad der Nutzung des Wissens (des Potential, das Wissen zu nutzen
WMSs)
Abb. 4/2: Beispiele für Indikatoren
4.2 Wissenskapitalindex
Für die Erhebung eines Wissenskapitalindexes werden Humankapital und Strukturkapital in
Komponenten und diese wiederum in Kategorien unterteilt. Diesen Kategorien werden Indi-
katoren zugeordnet, sodass ein System von Indikatoren zur Bewertung des Wissenskapitals
entsteht. Beispielsweise werden im Humankapital die Komponenten Kompetenz, Bereitschaft
und Lernfähigkeit/Flexibilität unterschieden, beim Strukturkapital die Komponenten Beziehung,
Organisation und Innovation. Bereitschaft wiederum enthält die Kategorien Motivation,
Verhalten und Werte. Ein möglicher Indikator in diesen Kategorien ist die Anzahl Stunden, die
für die Weitergabe bestimmter Informationen innerhalb einer Projektgruppe notwendig sind.
Für die Entwicklung und Nutzung eines Indikatorensystems gibt es folgende Schritte:
• Festlegt einer Strategie für das Unternehmen
• Ableitung von kritischen Erfolgsfaktoren aus der Unternehmensstrategie
• Bestimmen von Indikatoren des Wissenskapitals für die kritischen Erfolgsfaktoren
• Konkretisierung der Indikatoren durch Einbeziehen der Mitarbeiter in die Entwicklung de
Indikatorensystems (dies kann zur Wiederholung der vorangegangenen Schritte füh ren)
• Einsatz und stetige Verbesserung des Indikatorensystems.
Da die Bestimmung des Beitrags zum Unternehmenserfolg nicht für jeden einzelnen Indikator
sinnvoll ist und der Vergleich des Wissenskapitals mit anderen Unternehmen mit einer Vielzahl
von Indikatoren schwer bzw. nicht möglich ist, sollten aus der Menge der Indikato ren ein oder
wenige Indizes, der Wissenskapitalindex, gebildet werden. In einem Beispiel sind vier Indizes
aus je vier Indikatoren gebildet worden. Die Indizes stehen jeweils für ein e Bewertung des
Humankapitals und die drei Komponenten des Strukturkapitals: Beziehung, Organisation und
Innovation. Die Indizes sind dimensionslose Zahlen und können gegeneinander noch einmal nach
ihrem Beitrag zur Strategie des Unternehmens gewichtet werden.
Die Indizes einer Stufe werden etwa mit dem arithmetischen Mittel zu einem Index der nächst
höherer Stufe. Ein Problem ist, wie man die Indikatoren der Blätter dieses
Wissenskapitalberechnungsbaumes, siehe Abb. 4/3, aufstellt.
81
4.3 Balanced Scorecard
Mit der Balance Scorecard soll eine umfassende, ausgewogene (balanced) Betrachtung der
Leistungsfähigkeit einer Organisation gewährleistet werden. Balanced Scorecards schaffen somit
einen Überblick über Ziele und Kennzahlen einer Organisation. Durch die Begrenzung auf wenige
Kennzahlen kann Information Overload vermieden werden. Mit Hilfe von vier Perspektiven
gewährt die Balanced Scorecard Einblicke in die Relationen zwischen verschiedenen Bereichen
einer Organisation, sodass erkannt werden kann, ob z.B. eine Verbesserung in einem Bereich
nicht zu einer Steigerung der Kosten in einem anderen führt. Balanced Scorecards sind
zukunftsorientiert, haben eine Verbindung zur Strategie einer Organisation und stellen neben den
finanziellen auch nicht-monetäre Größen dar. Außerdem ist das Konzept sehr flexibel - die Anzahl
und Art der Perspektiven ist individuell anpassbar.
In Abb. 4/5 wird die Organisation aus vier verschiedenen Perspektiven betrachtet: Finanzen und
Controlling, Kunden, Geschäftsprozesse, Partner und Mitbewerber. Dabei steht das
Finanzgebaren im Zentrum und die Finanzperspektive ist die oberste Ebene. Ihr folgt die
Kundenperspektive, die das Wertangebot beschreibt, das dem Markt zur Verfügung gestellt wird.
Darunter liegt die Perspektive der internen Geschäftsprozesse, welche die Wertkette der
Organisation umfasst. Das Fundament bildet die Lern- und Entwicklungsperspektive.
Bei Balanced Scorecards müssen die aus den strategischen Zielen resultierenden Ziele und
Maßnahmen für die operative Ebene verfeinert werden. Dies führt zu einer intensiven
Beschäftigung mit den gestellten Zielen und ihrer Praktikabilität und kann auch eine Revision der
Ziele nach sich ziehen. Damit wird ein Lerneffekt erreicht. Allein der Prozess, strategische Ziele in
operative Handlungen zu überführen sowie Messkriterien und -instrumente festzulegen, verlangt die
Generierung und den Transfer von Wissen zwischen Mitarbeitern, Abteilungen und verschiedenen
Hierarchieebenen. Die Balanced Scorecard stellt zudem das Gerüst zur Verzahnung von Wissenszielen
und Wissensbewertung dar. Außerdem bewertet sie die Integration des Wissensmanagements in das
unternehmensbezogene Ziel- und Bewertungssystem.
Eine konkrete Operationalisierung der Wissensperspektive ist im Konzept der Balanced Scorecard nicht
zu finden. Vielmehr muss jedes Unternehmen seine eigenen, maßgeschneiderten und
situationsspezifischen Messgrößen erarbeiten, um die relevanten Dimensionen zu erfassen und zu
steuern.
Wenn man eine Balanced Scorecard für das Wissensmanagement entwickelt, werden unterschiedliche
Handlungsfelder betrachtet (Wissensidentifikation, Wissensgenerierung, Wissenstransfer und
Wissensbewahrung). Jedes Handlungsfeld wird seinerseits anhand verschiedener Perspektiven
untersucht. Als Perspektiven können zum Beispiel die externe Perspektive, die interne Perspektive
83
sowie die Mitarbeiterperspektive gewählt werden. Für 2 Wissensprozessschritte ist eine mögliche
Balanced Scorecard des Wissensmanagements in Abb. 4/6-4/7 zu sehen.
84
Schritt 2: Identifikation der Perspektiven und Kennzahlen
An Indikatoren wurden u.a. gesammelt: Medienmüdigkeit, Gadget-Dichte (um regionale
Besonderheiten und den Versorgungsgrad erkennen zu kennen), Arbeitsmarktlage, demografische
Entwicklung. Die Konkretisierung zu Kennzahlen führte u.a. zu den Zusammenhängen von Abb. 4/11.
Abb. 4/12 zeigt die Focusierung auf die strategischen Hauptziele.
85
Abb. 4/9: Focusierung auf strategische Hauptziele
Für die Kennzahlen werden nun Ist- und Soll-Werte festgelegt, siehe Tabelle 9.2.
Dazu wurden die Maßnahmen zur Erreichung der Sollwerte definiert wie kompetente Nutzung der
Gadget-Features oder Beherrschung der Fähigkeit Nutzeraufgaben auf Gadget-Features abzugeben.
Die Verantwortlichen besuchten Zielgruppen.
86
Schritt 5: Ableitung von Aktionen aus der BSC
Das IT-System ist so zu gestalten, dass alle für die Kennzahlen benötigten Daten mit ausreichendem
Informationsgehalt zur Verfügung stehen. Damit es möglich ist, die Wirksamkeit der Frühindikatoren
und der logischen Verknüpfungen zwischen den Kennzahlen zu verifizieren. Festlegung eines aktiven
Feedbackprozesses. Fixieren des Lernprozesses mit den drei Phase Identify (dient neben der Reflexion
bestehender Sachverhalte der Gewinnung und Strukturierung von Ideen), Explore und Implement (hier
wird umgesetzt).
4.4 Wissensbilanz
4.4.1 Allgemein
In der Praxis ist in den letzten Jahren der verstärkte Einsatz von nicht-monetären
Bewertungsinstrumenten, vor allem von Wissensbilanzen zu beobachten. Es begann zunächst in
Konzernen wie beispielsweise EnBW (Energie Baden-Württemberg) oder Infineon Austria, aber auch
immer mehr kleine und mittelständische Unternehmen (KMU) erkennen den Nutzen einer
Wissensbilanz. Aufgrund des globalen Wettbewerbsdrucks sowie der instabilen Wirtschaftslage wird
es immer wichtiger, die individuellen Erfolgsfaktoren zu kennen und langfristig zu entwickeln.
Eine Wissensbilanz ermöglicht es:
Intellektuelles Kapital in strukturierter Form abzubilden und die Zusammenhänge zwischen den
organisationalen Zielen sowie Strategien, den Prozessen, dem immateriellen Vermögen und
letztlich dem Geschäftserfolg aufzuzeigen (Bornemann/Reinhardt 2008)
Die Wissensbilanz ist somit einerseits internes Managementwerkzeug zur strategischen Gestaltung und
Steuerung. Infolgedessen wird die Wettbewerbsfähigkeit erhöht, die Ausrichtung auf die Ziele sowie
die Gestaltung der Prozesse verbessert und das Verständnis für das eigene Unternehmen gestärkt.
Andererseits eignet sich die Wissensbilanz als externes Berichtsinstrument, vor allem zur
Kommunikation gegenüber den Kapitalgebern. Mit der Wissensbilanz steht ein zukunftsorientiertes
87
Dokument zur Verfügung, das bisher vernachlässigte qualitative Faktoren der Organisation umfasst.
Bornemann/Reinhardt 2008)
Der erste ausführliche, praxisbezogene Leitfaden wurde, u. a. auf Initiative des Bundesministeriums für
Wirtschaft und Technologie (BMWi) sowie des Fraunhofer Instituts (Arbeitskreis „Wissensbilanz“ mit
Experten im Wissens- und Unternehmensmanagement) speziell für die Bedürfnisse und Anforderungen
von KMU’s entwickelt und kostenlos zur Verfügung gestellt (http://www.akwissensbilanz.org).
Beispiel Hochschule:
- äußere Rahmenbedingungen
- Vision: Eine führende Fakultät werden
- Zielsetzung: Qualität der Lehre verbessern
- Strategie: Erhöhung der Personalausstattung, Verstärkung der Betreuungsangebote und
Entwicklung innovativer Lehrmethoden
Unternehmensressourcen wirken sich (materiell und immateriell) auf die Geschäftprozesse aus,
die abschließend bestimmte Erfolge hervorbringen sollen. Die Prozesse, die das angestrebte Ziel
besonders beeinflussen (Kernprozesse), müssen identifiziert und kommuniziert werden.
Allerdings sollte man darauf achten, nicht zu viele Prozesse zu erfassen, da die Wissensbilanz
ansonsten zu komplex wird.
3. Geschäftserfolge
Ebenso sollen die Geschäftserfolge erkannt und beschrieben werden, beispielsweise ein
bestimmtes Umsatzvolumen, Gewinn, Marktwachstum, Image oder sonstige messbare
Erfolgsgrößen.
Beispiel Hochschule:
Einflussfaktoren für Humankapital
1) Fachkompetenz des nicht-wissenschaftlichen Personals
2) Lehrkompetenz des wissenschaftlichen Personals, also der Professoren und Dozenten
3) Handlungskompetenz der Studenten, d. h. die Fähigkeit sowie der Wille, die fachlichen
Kompetenzen umzusetzen und zu erweitern.
Geschäftsprozesse: Prüfungsprozess
Geschäftserfolge: Studentenzufriedenheit
Eine Möglichkeit zur Bewertung sind die Dimensionen: Qualität, Quantität und Systematik für jeden
Einflussfaktor. (QQS-Bewertung)
Die Qualität gibt die Güte des jeweiligen Faktors und dessen Beitrag zur Zielerreichung an und die
Quantität die dazugehörige Menge. Die Bewertung in diesen Kategorien ist nicht immer sinnvoll. Zum
Beispiel kann für die Unternehmenskultur nicht beantwortet werden, wie viel Kultur eine Organisation
braucht. Es wird vielmehr geprüft ob die Qualität ausreicht, d. h., ob der Faktor im Sinne der festgelegten
Ziele gut genug ausgeprägt ist.
Die Systematik drückt aus, ob der Faktor regelmäßig überwacht und entwickelt wird. Als Bewertung je
Dimension könnte man sich die Vergabe von prozentualen Werten in der Skala 0 bis 120 vorstellen. Bei
Überschreitung der 100-Prozent-Grenze ist der Einflussfaktor übererfüllt und es sollten
Rationalisierungsmaßnahmen folgen.
In dieser Phase der Wissensbilanzerstellung ist es vor allem erfolgskritisch, ein repräsentatives
Projektteam zusammenzustellen, um zu einer möglichst objektiven (empirisch abgesicherten)
Bewertung zu gelangen. Um einer zu subjektiven oder gar willkürlichen Bewertung vorzubeugen sind
konsistente und begründete Einschätzungen notwendig.
Beispiel Hochschule:
Im Rahmen der Realisierung an einer Hochschule war zu beobachten, dass die Bewertung einen
längeren Zeitraum einnimmt und intensive Diskussionen benötigt. Das Team kann aus dem
Studiendekan, Professoren, nicht wissenschaftlichen Mitarbeitern sowie einigen Studenten bestehen, die
in kleinen Workshops die jeweiligen Einzel- und Mittelwerte erarbeiten, die dann im Fakultätsrat
verabschiedet werden.
Ein Beispiel für die Bewertung des Faktors Studentenkultur an einer Hochschule zeigt Abb. 4/13.
Bewertungsdimension Bewertungsdimension Bewertungsdimension
Qualität Quantität Systematik
Fragestellung Ist unsere Kultur gut Keine Angabe (k. A.) Pflegen und entwickeln wir
genug, um unsere Ziele zu die Studentenkultur
erreichen? systematisch genug, um
unsere Ziele zu erreichen und
Verschlechterungen zu
vermeiden?
Wert 60% k. A. 50%
Begründung Da die Hochschule eher Es ist meistens nicht Es sind keine zielgerichteten
klein und familiär ist (ca. sinnvoll, Quantität und systematischen Maßnahmen
4000 Studierende, 100 Qualität der bekannt. Es tragen allerdings
ProfessorInnen, 200 Studentenkultur zu Einführungstage,
Lehrbeauftragte und 200 unterscheiden, da die Teamarbeiten oder Seminare
MitarbeiterInnen), Dimensionen nicht außerhalb der Hochschule
herrscht ein kooperatives trennscharf sind. zum gegenseitigen
Arbeitsklima.
89
Kennenlernen und Stärkung
des Zusammenhalts bei.
Abb. 4/10: QQS-Bewertung der „Studentenkultur“
Es ist oftmals nicht leicht, die Indikatoren zu identifizieren und zu erheben, denn für das immaterielle
Kapital müssen häufig qualitative Werte herangezogen werden. Zahlen zur Fachkompetenz können
recht einfach errechnet werden, indem die Anzahl der Mitarbeiter, deren fachliche Qualifikation oder
das Durchschnittsalter betrachtet wird. Bei dem Versuch, die Mitarbeitermotivation, Qualität der
Führungskräfte oder Kundenzufriedenheit in einer Zahl auszudrücken, sind jedoch die Schwierigkeiten
nachvollziehbar. Hierbei besteht lediglich die Möglichkeit, über Befragungen zu einem Ergebnis zu
gelangen. Dies erfordert erneut die Kooperation der Betroffenen und einen erhöhten Aufwand zur
Erhebung der Kennzahlen, vor allem unter dem Blickwinkel der jährlichen Wiederholung der
Wissensbilanz zur Aufstellung einer Bewegungsbilanz.
Beispiel Hochschule
Am Fallbeispiel der Hochschule und der vorangegangenen Beurteilung der Studentenkultur bedeutet
dies die Durchführung einer Befragung bei den Studierenden, deren Ergebnisse dann in die Bewertung
einfließen. Ein Indikator ist das Vertrauen unter den Studenten, das bei durchschnittlich 3,07 für die
Befragten im Studiengang BWL lag, bei einer Skala von 1 (bedeutet sehr schlecht) bis 5 (bedeutet sehr
gut).
90
Abb. 4/11: Ausschnitt aus dem Wirkungsnetz einer Hochschule
Die Auswertung der Ergebnisse erfolgt zudem bereits während des Erstellungsprozesses durch deren
Interpretation sowie der Analyse der Auswirkungen auf das Unternehmen.
Im Folgenden soll das Potenzialportfolio genauer betrachtet werden, denn durch die Darstellung in
Quadranten wird das Erkennen von Stärken und Schwächen auf einen Blick ermöglicht (siehe Abb.
4/15). Auf den Achsen werden die durchschnittliche Bewertung (Summe aus den Bewertungen von
Quantität, Qualität und Systematik je Einflussfaktor dividiert durch drei) und die Wirksamkeit (siehe
Schritt 5) abgebildet. An der Position des Einflussfaktors (Intellektuelles Kapital, Prozesse und
Geschäftserfolge) in den vier Quadranten ist erkennbar, ob und welcher Handlungsbedarf besteht. Im
rechten unteren Quadranten sind die Faktoren visualisiert, die eine hohe Bewertung und geringe
Wirkungszusammenhänge aufweisen. Hier besteht kein Handlungsbedarf. Die Stabilisierung von
Faktoren im oberen rechten Quadranten ist ratsam, d. h. der jeweilige Faktor sollte beobachtet werden,
da eine Veränderung starke Auswirkungen auf das Gesamtsystem hätte. Auf der linken unteren Seite
befinden sich die Faktoren, über die Unklarheit herrscht, da sie schwach auf das Gesamtsystem wirken,
aber für die Zielerreichung zu gering ausgeprägt sind. Sie sollten analysiert werden. Im linken oberen
Quadranten stehen die Einflussfaktoren, die entwickelt werden sollten, d. h. der Faktor weist eine
niedrige Bewertung, aber einen hohen Einfluss auf die anderen Faktoren auf. Vor allem hier sind
Ansatzpunkte zur Verbesserung der aktuellen Situation zu finden und die Maßnahmen sollten sich daran
anlehnen.
Beispiel Hochschule
Das abgebildete Beispiel einer Hochschule (siehe Abb. 4/12) zeigt das Strukturkapital. Rechts unten
befindet sich die „Informationstechnik und das explizite Wissen“ seitens des Personals (SK-3) sowie
der Studenten (SK-6). Das bedeutet demzufolge, dass sie gut ausgeprägt sind hinsichtlich der Erreichung
der gesetzten Ziele, wie die Verbesserung der Lehre, und dementsprechend keinen Handlungsbedarf
aufweisen. Im oberen rechten Quadranten sind der „Wissenstransfer und die Kooperation“ (SK-2) sowie
das „Studienangebot“ (SK-7) abgebildet, die stabilisiert werden müssen. Beide Aspekte haben einen
sehr hohen Einfluss auf das Gesamtsystem und könnten aufgrund dessen bei Unruhe und Turbulenzen
negativ wirken. Der „Wissenstransfer der Studenten“ (SK-5), die „Mitarbeiterkultur“ (SK-1) sowie
„Studentenkultur“ (SK-4) im linken unteren Quadranten sollen nochmals analysiert werden. Im linken
oberen Quadranten ist kein Faktor des Strukturkapitals zu finden d. h. kein Faktor ist in den Dimensionen
zu gering ausgeprägt, aber trotzdem mit hohem Einfluss auf das Gesamtsystem.
91
Abb. 4/12: Potenzial-Portfolio des Strukturkapitals einer Hochschule
92
• Förderung des unternehmerischen Denkens und Handelns bei den wechselnd beteiligten
Mitarbeitern
• Steigerung der Motivation der Mitarbeiter durch Einbindung und Wertschätzung im Prozess
• Entlastung der Führung, da vor Entscheidungen notwendige Analysen durch das WB-Team
erfolgen
• Schaffung eines integrierten WMS, das strategisches und operatives WM über ein
kontinuierliches Verfahren miteinander verknüpft.
Abb. 4/13: Arbeitsschritte und Workshopablauf bei kontinuierlicher Wissensbilanzierung [Alwert 2014]
In der Praxis hat sich ein Erstellungsturnus von ein bis drei Jahren als praktikabel herausgestellt. Werden
die strategischen Zielsetzungen des Unternehmens angepasst, ist es auch außerplanmäßig sinnvoll eine
neue Wissensbilanz zu erstellen.
Zur Vorbereitung der kontinuierlichen Wissensbilanzierung sollten sich Projektleitende und
Moderierende einen Überblick über die laufenden und abgeschlossenen Maßnahmen zum In-
tellektuellen Kapital verschaffen. Hierzu ist eine Übersicht über alle Maßnahmen aus der letzten
Wissensbilanz zu beschaffen bzw. zu erstellen. Diese Übersicht erleichtert dem Moderator die
Bewertungen und Diskussionen im Workshop nachzuvollziehen und ggf. gezielt die Wirkung einzelner
Maßnahmen im Wissensbilanz-Team zu hinterfragen.
Der Workshop zur QQS-Bewertung folgt im Wesentlichen dem Standardvor-gehen mit starkem Fokus
auf die Begründungen und ggf. Argumentation von Veränderungen gegenüber der letzten Periode.
93
Es sollte überprüft werden, ob die in der letzten Wissensbilanz definierten Indikatoren weiterhin sinnvoll
sind und ob ggf. neue aufgenommen werden müssen. Nicht mehr benötigte Indikatoren sollten in der
Wissensbilanz-Toolbox als nicht mehr aktiv gekennzeichnet werden.
Im Anschluss werden die aktuellen IST-Werte der Indikatoren erhoben. Wenn möglich, liegen die IST-
Werte bereits zum ersten Workshop-Termin vor und können so in die Bewertungsdiskussion einfließen.
Von besonderer Bedeutung sind dabei die Indikatoren, welche große Änderungen anzeigen und / oder
Aussagen über den Erfolg von Maßnahmen machen.
Schritt 5: Auswertung
Hier ist es wichtig die Veränderungen im Zeitverlauf zu visualisieren und zu interpretieren.
Grundsätzlich gibt es vier unterschiedliche Möglichkeiten, wie Veränderungen in der Bewertung über
die Zeit hinweg zustande kommen können und dementsprechend zu interpretieren sind:
1. Maßnahmen wurden erfolgreich umgesetzt bzw. Ereignisse sind eingetreten, welche das
Intellektuelle Kapital verändert haben.
Beispiele: Mitarbeiterschulungen führen zu einer besseren Bewertung der Fachkompetenzen.
Eine Umstrukturierung erreicht eine verbesserte Kommunikation. Fluktuation führt zu einer
Verschlechterung in der Bewertung des Humankapitals.
2. Der Bewertungsmaßstab hat sich verändert. Der Bewertungsmaßstab für die QQS-Bewertung
ist in der Wissensbilanz von der individuellen Strategie der Organisation abhängig. Es ist also
möglich, dass sich die Einschätzung der Gruppe zu einem Einflussfaktors ändert, weil sich der
strategische Anspruch an den Einflussfaktor verändert hat. In einem solchen Fall ist bei der
Interpretation des Trends streng darauf zu achten, den veränderten Anspruch in der Begründung
mit aufzuführen.
Beispiel: Bei der der letzten Wissensbilanz war die Strategie des Unternehmens, eine nationale
Nische zu bedienen. Dazu waren die vorhandenen Kompetenzen der Mitarbeiter ausreichend.
Die neue Strategie des Unternehmens ist es, international breit aufzutreten. Dazu sind die immer
noch gleichen Kompetenzen aber nicht mehr ausreichend, denn es fehlen z.B. wesentliche
Kenntnisse des Marktes, Sprachkenntnisse und Kompetenzen in den neuen Geschäftsbereichen
etc. Die Bewertung der Kompetenzen fällt daher deutlich niedriger aus, obwohl sich »real«
nichts geändert hat – es sind immer noch die gleichen Personen da.
3. Fehler in der Umsetzung. Einflussfaktoren und / oder Fragestellungen wurden so verändert, dass
in der neuen Periode etwas anderes bewertet wurde.
4. Ungenauigkeiten im Verfahren. Die praktischen Tests haben gezeigt, dass eine Abweichung
von +/- 5% bei der Beantwortung einer Bewertungsfrage nichts Ungewöhnliches ist.
Begründungen für Veränderungen in diesem geringen Maße sollten also nicht durch unnötige
Interpretationen überstrapaziert werden. Veränderungen im Bereich +/-10% und höher, sollten
dagegen begründbar sein. Ist dies nicht der Fall, sollte eine Diskussion im Wissensbilanz-Team
erfolgen und der Wert ggf. auf ein realistisches Niveau angepasst werden.
94
Bei der Zeitreihe nach Kapitalarten in der Übersicht (Abb. 4/14 links) handelt es sich um eine
Auswertung auf oberster Ebene, aufgeschlüsselt nach den Mittelwerten der Quantität, Qualität und
Systematik von Humankapital, Strukturkapital und Beziehungskapital. Diese Auswertung gibt
allerdings nur Aufschluss über sehr grundsätzliche Schwerpunkte im Management der Organisation.
Die Abbildung zeigt bspw. die Entwicklung der Kapitalarten aller Einflussfaktoren über vier Perioden.
Die Visualisierung auf Einflussfaktorenebene, bei der die Mittelwerte aus Quantität, Qualität und
Systematik verwendet werden (s. Abb. 4/14 rechts), zeigt die grundsätzliche Entwicklung der
Einflussfaktoren auf einer zusammenfassenden Ebene und gibt schnell einen guten Überblick über das
gesamte Intellektuelle Kapital. Sie ist daher für das obere Management aber auch für externe
Stakeholder wie Kapitalgeber gut geeignet.
Abb. 4/14: Zeitreihe nach Kapitalarten in der Übersicht und Visualisierung der Einflussfaktoren
Abb. 4/15: Vorgespräch und erster Workshop [Südwestfälische Industrie- und Handelskammer zu
Hagen 2006]
Die Südwestfälische Industrie- und Handelskammer zu Hagen hat im Rahmen eines vom Land
Nordrhein-Westfalen und von der Europäischen Union geförderten Projektes 2005 einen Leitfaden für
die Erstellung von Wissensbilanzen in klein und mittelständischen Unternehmen entworfen. Er richtet
sich an die Geschäftsführung, Projektverantwortliche und interessierte Mitarbeiter und soll
Wissensmanagement sensibilisieren.
95
Zu jedem Kapitel wurden sog. „Aktionen“ erstellt, die bei der Einführung des Wissensmanagement
unterstützen sollen, wie z.B. Testfragen zur Unternehmenskultur. Der Ablauf der Einführung einer
Wissensbilanz wird aus Abbildungen 4/15 ersichtlich.
In einem Vorgespräch wird der weitere Ablauf geplant und festgelegt für welche Bereiche des
Unternehmens eine Wissensbilanz erstellt werden soll. Im ersten Workshop wird die
Ausgangssituation beschrieben indem wichtige Informationen z.B. über Kunden, Mitarbeiter, etc.
gesammelt werden. Außerdem wird das Intelektuelle Kapital erfasst (Leistungsprozesse und Human-,
Struktur-, Beziehungskapital). Abschließend wird das Kapital bewertet.
Der erste Meilenstein, eine einfache Wissensbilanz, ist erzielt.
96
Abb. 4/17: Der letzte Workshop
4.5 Benchmarking
Unter Benchmarking wird im Allgemeinen der systematische Vergleich von Dienstleistun gen,
Prozessen oder Produkten verstanden zur Identifikation von Stärken und Schwächen. Das
Wissensmanagement kann somit gesamtheitlich als Process betrachtet werden, der durch
verschiedene vergleichbare Merkmale geprägt ist. Dies erfordert zum einen die Definition
solcher Merkmale und zum anderen das Vorliegen von Analysen anderer Wissensmanage -
mentprojekte oder Teilprojekte. Grundsätzlich kann Benchmarking vier verschiedene Formen
annehmen:
• Werden die Prozesse des Wissensmanagements in unterschiedlichen Abteilungen, Ge -
schäftsbereichen oder Projekten miteinander verglichen, so spricht man vom internen
Benchmarking. Diese Form ist insbesondere dann geeignet, wenn Zahlen externer
Projekte nicht vorliegen oder es keine vergleichbaren Wissensmanagementprojekte
gibt.
• Das wettbewerbsorientierte Benchmarking stellt einen Vergleich von nahezu
gleichen Wissensmanagementprojekten oder -aktivitäten verschiedener Unternehmen
dar. Ein solches Benchmarking wird sehr oft von Beratungsunternehmen durchgeführt,
die als neutrale Person Einblick in die Wissensmanagementprojekte verschiedener
Unternehmen bekommen.
• Mit dem funktionalen Benchmarking werden nicht identische Prozesse miteinander
verglichen. Dabei sollen Ideen und Best Practices von anderen Branchen oder
Geschäftsbereichen für das eigene Unternehmen oder den eigenen Geschäftsbereich
gewonnen werden. Hierbei ist jedoch stets zu überprüfen, ob diese Ideen auch in einer
veränderten Umgebung realisiert werden können.
• Die Form des generischen Benchmarkings ist geeignet, wenn nur Statistiken mit
anderen Firmen verglichen werden. Als Ergebnis sind hier jedoch keine qualitativen
Aussagen zu erwarten, jedoch kann diese Form des Benchmarkings in Verbindung
mit den weiteren genannten nützlich sein, und es können neue Ideen oder Trends
identifiziert werden
97
4.6 Literatur und Kontrollfragen
Literatur
1. Alwert, K.; Bornemann, M.; Will, M.; Wuscher, S. (2013): Wissensbilanz - Made in Germany.
Leitfaden 2.0 zur Erstellung einer Wissensbilanz. Hrsg. durch das Bundesministerium für
Wirtschaft und Technologie. Berlin. http://www.akwissens-
bilanz.org/Infoservice/Infomaterial/Leitfaden_2.0_ Wissensbilanz_Stand_Nov 2013. pdf. (letzter
Abruf: 23.04.2014).
2. Alwert, K.; Will, M. (2014): Leitfaden Maßnahmen managen. Stuttgart: Fraunhofer Verlag.
3. Bornemann, Manfred; Reinhardt, Rüdiger: Handbuch Wissensbilanz. Umsetzung und Fallstudien.
Berlin 2008.
4. Fischer, Gerrit: Wissensbewertung in der Theorie und Praxis. In: Jaspers, Wolfgang; Fischer
Gerrit (Hrsg.): Wissensmanagement heute. Strategische Konzepte und erfolgreiche Umsetzung.
München 2008, S. 221 – 235.
5. Gutschelhofer, Alfred: Wissensbilanzen an Universitäten – Status quo und Impulse erprobter
Konzepte. In: Bertl, Romuald; Leitner, Karl-Heinz; Riegler, Christian (Hrsg): Forschung und
Entwicklung. Steuerung, Berichterstattung und Prüfung. Wien 2006, S. 249 – 272.
6. Lehner Franz: Wissensmanagment, Hanser 2012, S. 224-242
7. Matzler, Kurt; Hinterhuber, Hans H.; Renzl, Birgit; Rothenberger, Sandra (Hrsg.): Immaterielle
Vermögenswerte. Handbuch der intangible Assets. Berlin 2006, S. 23 –41.
8. Middelhoff, Dirk: Wissensbilanzierung. Intellektuelles Kapital in der Unternehmensbewertung
und periodischen Berichterstattung. Norderstedt 2008.
9. Popp, Heribert, Kreupl, Silke, Mößlein, W. Die Wissensbilanz, in WISU- Das
Wirtschaftsstudium, 2012, Heft 5, S675ff.
10. Südwestfälische Industrie- und Handelskammer zu Hagen (2006), S. 52
11. NN: Fallbeispiel BSC
Kontrollfragen
1. Beschreiben sie das intellektuelle Kapital und wie man es messen könnte in einer Firma (n)?
2. Was ist der Wissenskapitalindex?
3. Wie wird der Wissenskapitalindex ermittelt? Zeigen sie an einem Beispiel, wie man auf die
Werte der Blätter dieses Baumes kommt.
4. Wie funktionieren Wissensbilanzen?
5. Schildern sie das Fallbeispiel Wissensbilanz an einer Fakultät einer Hochschule.
6. Wie wird Balanced Scorecard im Wissensmanagement eingesetzt?
7. Welche Schwierigkeiten können bei der Wissensbilanzerstellung bei der Messung mittels
Indikatoren auftreten?
8. Beschreiben sie die Schritte der kontinuierlichen Wissensbilanzierung
9. Skizzieren sie einen Leitfaden zur Wissensbilanzerstellung.
10. Beschreiben sie, wie sie das Wissen ihres Studiengangs (z.B. BWL) bewerten würden.
98
5. Wissensgenerierung - Business Intelligence
Informationsbeschaffung ist nicht das Durchforsten des Papierbestandes. Informationsbeschaffung lässt
sich durch EIS oder Data Warehouse automatisieren.
Der breite Einsatz von Datenbanksystemen und verbesserte Möglichkeiten der Speicherung von großen
Datenmengen führen zu dem Wunsch, Daten als Führungsinformationen direkt für das Management
bereitzustellen. Die ersten solcher Systeme wurden Management Informationssysteme (MIS) genannt
und führten zu einem Fehlschlag, da damals effiziente Speichertechnologien und geeignete
Analyseverfahren fehlten. Wir betrachten jetzt neue Informationssysteme zur Unterstützung der
Geschäftsleitung. Zunächst untersuchen wir Executive Information Systeme (EIS) für das Top-
Management, dann widmen wir uns dem weiten Feld des Business Intelligenz mit Data Warehouse,
OLAP und Data Mining.
Business Intelligence (BI) beschreibt die Idee, Entscheidungen durch bereits gemachte Erfahrungen
eines Unternehmens zu unterstützen. Dafür muss man die anfallenden Daten des Unternehmens
sammeln, aufbereiten und dem Management in kompakter, verständlicher Form zugänglich machen.
Managern wird ein weit über aktuelle Unternehmenskennzahlen hinausgehender Überblick über die
Lage des Unternehmens geboten. Als Unterschied zu den Techniken wie Optimierung und Simulation
fußen die Methoden des BI primär auf gesammelten Daten. Dies erfordert korrekte und vollständige
Daten. Im Oberbegriff Business Intelligence sind die Themen Data Mining, Kowledge Discovery in
Databases (KDD) und Data Warehouse eingebettet.
Im Jahr 2007 waren unter den Top 5 geplanter Investitionen bei SAP-Anwendern die Investitionen in
BI mit 4,4 % an erster Stelle vor CRM mit 2,4 %. In einer DSAG Investitionsumfrage 2015 investieren
ein Drittel der Unternehmen in mobile Anwendungen, Usability und Analytics.
Die führenden Anbieter von Anwendungssystemen für BI sind: Business Objects (seit 7.08 bei SAP),
SAS, Cognos (nun bei IBM), SAP, IBM, Microstrategy und Hyperion (nun bei Oracle).
Abb. 5/1 stellt Anwendungsgebiete von Business Intelligence dar, wie CRM. Folgende
Anwendungsbeispiele für BI sind vor allem von der Data-Mining-Funktionalität getragen: Bei den
Autokonzern werden mit BI Kundendienstdaten zur Entdeckung von Auffälligkeiten analysiert, im
CRM führt man mit BI Zufriedenheitsanalyse oder Beziehungsanalyse (Haushalt vs. Produkt) durch,
99
bei Banken und Versicherungen werden mit BI Kundenbewertungen oder Stornoprophylaxe erreicht, in
der Telekommunikation hilft BI bei der Betrugs- und Missbrauchsaufdeckung und im Handel betreibt
BI Warenkorbanalyse.
Setzen heute vor allem die Abteilungen Controlling und Finanzen BI-Lösungen ein, wollen künftig alle
Bereiche auf entsprechende Lösungen zugreifen.
100
Folgende Techniken werden in EIS verwendet:
• Ausnahmeberichte (Exception reporting), die durch optische Markierung oder Vorselektion auf
Überschreitungen definierbarer Toleranzgrenzen für Daten(-gruppen) hinweisen.
• Drill-Down-Technik mit der man, meist startend von ausgewählten Berichtselementen, gezielt
detaillierte Informationen in Stufen vordefinierter logischer Abhängigkeiten abrufen kann. So erhält
man z.B. nach einer markanten Abweichung im Bericht „Produktgruppen-Deckungsbeiträge“
automatisch die betroffenen Einzelprodukte und dort wiederum eine Aufstellung nach Regionen,
wenn dies im EIS so vordefiniert ist.
Beispiel Drill Down im Controlling mit Deckungsbeitragsabweichung
Ein wichtiger Bestandteil ist ein Objektfilter, der bei der Untersuchung den Hauptverursacher misst
(größte Streuung der Einzelwerte, z.B. Abstandsmaß 50%).
Beispiel: Deckungsbeitragsabweichung bei Kundengruppen, Regionen und Produktgruppen bringt
die Dimension, in der die Streuung der Einzelabweichung am größten ist, also Produktgruppe F und
A. Das voreingestellte Abstandsmass (50%) gewährleistet, dass nur die wirkliche „Spitzengruppe“
der verursachenden Objekte berücksichtigt wird.
Beispiel: Abb. 5/2 zeigt einen Analyseweg Drill Down mit folgendem Inhalt:
Der Gesamtdeckungsbeitrag (oder das Ergebnis) mag noch im Plan liegen, während sich auf
tieferen Ebenen der Controllinghierarchien große und kleine Abweichungen kompensieren.
Der Navigator identifiziert automatisch Verursacher von Abweichungen und Kompensationen. Der
Anwender hat alle Freiheitsgrade, der Navigator generiert lediglich Vorschläge. So empfiehlt er im
Beispiel die Kundengruppe D (da dort die Streuung der Einzelabweichungen am größten ist) und
dort die Produktgruppe 1 für weitere Analyse, da auf die Verkäufe in dieser Kombination ein großer
Anteil der Gesamtabweichung zurück zuführen ist. Weitere Analysen, die die Abweichungen in
Einzelbestandteile zerlegen, müssen nun die Ursachen aufdecken.
Navigator hat ein Top-Down-Vorgehen und arbeitet komplexe Controllinghierarchien ab. Dabei
macht er auf kritische Sachverhalte aufmerksam. Abb.5/2 zeigt das Ergebnis einer Navigator-
Analyse.
Die Herausforderung liegt im geschickten, effizienten Navigieren. Ziel der IT-Unterstützung ist es
dann, wenn auf einer oberen Hierarchiestufe eine signifikante Differenz gefunden wurde, diese auf
verursachende Kennzahlen zurückzuführen. Diese können auf einer niedrigeren Ebene der gleichen
Hierarchie oder in einer anderen Hierarchie liegen. Jeder Schritt bei der Suche soll solche
Hierarchiestufen aus den verschiedenen Hierarchien selektieren, die einen möglichst hohen Anteil
der Ausgangsabweichung mit wenigen Objekten erklären.
Im Extremfall könnte beispielsweise die Plan-Ist-Differenz des Erlöses einer Sparte ausschließlich
durch eine Artikelgruppe verursacht sein. In diesem Fall wäre die Hierarchiestufe der Artikelgruppe
am geeignetsten für eine Erklärung der Abweichungsursachen.
• Briefing Book sind einfachere Informationszusammenstellungen, die in ihrer Struktur längere Zeit
konstant bleiben und infolgedessen wie starre Formulare gespeichert werden können.
So hat SAP R/3 in jedem Funktionsmodul ein EIS integriert, insbesondere in der Funktion
Informationssystem.
101
Mit einem Data Warehouse führt man die internen Informationsressourcen aus Einkauf, Lager/Bestände,
Personal, Vertrieb, Finanzen mit den externen Informationsressourcen wie Kunden, Lieferanten, Markt,
Wettbewerb zusammen und erzeugt Berichte, Analysen und Trends.
Die grundlegenden Merkmale eines Data Warehouse sind folgende [Behme 98]:
• Vereinheitlichung: Vor Übernahme der Daten in das Data Warehouse ist ein Abgleich der
verschiedenen internen und externen Daten notwendig. Außerdem sind Vereinbarungen über
die im Data Warehouse abgelegten Attribute zu treffen, da in unterschiedlichen Vorsystemen
oftmals gleiche Datenobjekte verschieden benannt sind.
• Themenausrichtung: Die konsequente Themenausrichtung an Sachverhalten des Unternehmens
(z.B. nach Kunden und Produktkriterien) setzt eine Neuorientierung der operativen Daten, die
weitgehend funktions- bzw. prozessorientiert gespeichert werden, voraus.
• Zeitorientierung: Während bei operativen Systemen eine zeitpunktgenaue Betrachtung der
Daten im Mittelpunkt steht, liegt das Interesse bei der Auswertung von entscheidungsrelevanten
Informationen eher in einer Zeitraumbetrachtung (z.B. Trendanalyse).
• Dauerhaftigkeit: Die in einem Data Warehouse gespeicherten Daten werden nach der
fehlerfreien Übernahme und gegebenenfalls erfolgten Korrekturen in der Regel nicht mehr
verändert. Daher dürfen die späteren Zugriffe im Rahmen einer Analyse nur lesend erfolgen.
Die Daten werden nicht gelöscht, sondern ihrer Priorität entsprechend auf unterschiedliche
Medien (z.B. Platten, Bänder) ausgelagert.
Typische Fragen, die man mit einem Date Warehouse beantworten will, sind folgende:
• Berichten, veröffentlichen, verteilen, durchsehen: Wie läuft Produktion?
• Leistungsbemessung: Wie entwickelt sich meine Direktion?
• Ad-hoc-Anfragen: Wo steht aktuell Vermittler Maier?
• Analyse: Sollte ich einen Wettbewerb ausloben?
• Erkennen von Zusammenhängen: Hier ist eine Gelegenheit!
OLAP
DW-Admi-
Data
nistrator
Meta-Daten Mart
Transformations-
u. Extraktionsprozess
unterneh-
mens-
weite
DW- DB
operative •verdichten
Systeme + •integrieren
externe Systeme •filtern
•konvertieren
103
Abb. 3.2/1 Architektur eines Data Warehouse
Abb. 3.2/2 Beispiel eines Front End von DW als Info-Cockpit bei New Office AG.
• Die für diese Transformations- und Extraktionsprozesse benötigten Regeln sind Grundlage für
die Metadaten. Metadaten, die in den klassischen Data Dictionaries von Datenbanken
existieren, haben in den operativen Systemen eher Dokumentationscharakter. Im Data
Warehouse stellen sie dem Entscheider das nötige Wissen zur Verfügung, um herauszufinden
welche Daten vorhanden sind, wie diese genau definiert sind und wie er auf diese zugreifen
kann. Es müssen alle Verdichtungsstufen (z.B. Monats-, Quartals- oder Jahresdaten)
einschließlich eines Zeitplanes (Zeitpunkte der Verdichtung) beschrieben sein, um wiederholte
Konsolidierungen von Benutzern zu vermeiden.
Für das Data-Warehouse-Management stellt die Datenbank mit den Metadaten alle
notwendigen Informationen zur Steuerung der Transformations- sowie der
Distributionsprozesse bereit. Die Metadaten definieren somit sämtliche Informationsflüsse von
den Quell- zu den Zieldatenbanken. Beispiele für Metadaten sind folgende: Welche Daten gibt
es, wo befinden sie sich und in welchem Format liegen sie vor. Wo kommen die Daten her, wer
ist für sie verantwortlich und wann war das letzte Update? Welche Werkzeuge sind zum
Auffinden der Daten geeignet? Ist der gewünschte Bericht schon vorhanden? Wie wird die
Auswertung durchgeführt.
Metadaten kann man sich als Kochrezept vorstellen, in denen steht für welche Fragestellung
welche Daten zu besorgen sind und mit welchen Data Mining Verfahren sie auszuwerten sind.
104
5.4 OLAP und Data Mining
5.4.1 OLAP
OnLine Analytical Processing (OLAP) umfasst eine Reihe von Analysefunktionalitäten, mit denen
mehrdimensionale deskriptive Datenanalysen möglich sind. Dabei werden mehrere Attribute (z.B.
Produktname, Zeit, Vertriebsort) eines Datensatzes als Elemente eines mehrdimensionalen Würfels, des
OLAP-Würfels (OLAP-Cube) aufgefasst. Dies ermöglicht den einfachen Zugriff auf die Datenelemente
entsprechend der gewählten Dimensionen und bietet darüber hinaus eine Reihe von Grundoperationen
wie Slicing, Dicing, Pivoting, Roll-Up und Drill-Down. Beim Slicing wird nur ein Ausschnitt des
Würfels betrachtet und die Daten der aus dem Würfel geschnittenen Scheibe werden analysiert. Beim
Dicing wird der Würfel in mehrere Dimensionen zugeschnitten (Spalten und Zeilen ausgelassen),
wodurch wieder ein Würfel entsteht, der eine Untermenge der Daten des ursprünglichen Würfels enthält.
Beim Pivoting wird der gesamte Würfel gedreht und die Daten werden aus anderen Dimensionen
betrachtet (in SAP-Berichtssystem heißt das „Aufriss wechseln“). Roll-Up betrachtet die Aggregation
der Daten innerhalb einer oder mehrerer Dimensionen. Drill-Down verringert die Aggregation der Daten
und ermöglicht eine detailliertere Betrachtung.
105
Zum Data-Mining gehören Methoden wie künstliche neuronale Netze, Bayes’sches Lernen,
Entscheidungsbäume, instance-based learning, logische Programmierung, Einsatz von Regeln und
statistische Algorithmen, Clustering, Klassifikation, Segmentation von Benutzerdaten, Assoziations-
und Korrelationsanalysen, Sequenzanalysen, Text Mining und Outlier detection (Erkennung von
Ausreißern).
Vier dieser Methodenklassen: Assoziation, Klassifikation, Regression und Cluster betrachten wir nun
kurz. Jede von ihnen gibt es auch in verschiedenen Varianten.
Bei der Clusterung werden Ausprägungen aufgrund ihrer Ähnlichkeit in Gruppen eingeteilt. Die
Gruppen sind vorher nicht bekannt. Alle Objekte eines Clusters haben gemeinsame Eigenschaften. Als
Beispiel kann man entweder eine Clusterung mit den beiden Merkmalen Alter und Kaufkraft vorstellen.
Oder sich ein Resultat der Clusterbildung im Controlling vorstellen, das lautet „Abweichung des
Deckungsbeitrages vom Plan zwischen 23 % und 35 % bei den Verkäufern der Artikelgruppe 4 an
Kundengruppe C.“.
In einem weiteren Beispiel wurde die Zuordnung von 1000 Datensätzen zu 4 Cluster ausgewertet. Dabei
wurde jeweils die Anzahl der Elemente erfasst, die in dem zugehören Cluster eine bestimmte
Merkmalsausprägung besitzt (z.B. gehören 211 zum Cluster 0, siehe Abb. 5/6).
Danach wird zu jeder Merkmalsausprägung der prozentuale Anteil der Elemente in einem Cluster zur
Gesamtheit aller Objekte, die diese Merkmalsausprägung besitzen, berechnet und farbig markiert.
Damit ist man in der Lage, zu jedem Merkmal eine Aussage treffen zu können, wie groß der Einfluss
der einzelnen Merkmalsausprägung auf die Zuordnung eines Kunden zu einem Cluster ist.
So sind z.B. alle Kunden, die 0-1 Kind haben, mit 92% Wahrscheinlichkeit dem Cluster 1 zugeordnet.
Man kann diese Cluster umbenennen und als „Kunden ohne Kinder“ bezeichnen. Mit diesem Wissen
kann bei späteren Marketingaktionen, bei denen es darum geht, kinderfreundliche Hotels zu bewerben
diese Kundengruppe ausgeschlossen werden.
106
Clusterverfahren gibt es u.a. als hierarchische Verfahren, partitionierende Verfahren, K-Means-
Algorithmen.
Die Assoziationsanalyse bezeichnet die Suche nach starken Regeln. Diese daraus folgenden
Assoziationsregeln beschreiben Korrelationen zwischen gemeinsam auftretenden Dingen. Der Zweck
einer Assoziationsanalyse besteht also darin, Items (Elemente einer Menge, wie z. B. einzelne Artikel
eines Warenkorbs) zu ermitteln, die das Auftreten anderer Items innerhalb einer Transaktion
implizieren. Eine solcherart aufgedeckte Beziehung zwischen zwei oder mehr Items kann dann als Regel
der Form „Wenn Item(menge) A, dann Item(menge) B“ bzw. A → B dargestellt werden. Z.B. wer
Urlaub in Sydney bucht, bucht auch Urlaub in Mailand, Side und Shanghai.
Ein typisches Anwendungsfeld sind die Zusammenhänge beim Einkauf, die sogenannte
Warenkorbanalyse, um gezielt Werbemaßnahmen einzuleiten. Bei 80 Prozent der Einkäufe, in denen
Bier gekauft wird, werden auch Kartoffelchips gekauft. Beide Produkte kommen in 10 Prozent der
Einkäufe vor.
Bei der Klassifikation wird ein qualitatives Merkmal durch eine Reihe von anderen Variablen erklärt.
Ziel ist es, ein neues Objekt einer der bekannten Gruppen zuzuordnen. Hier startet man mit einer
Klasseneinteilung einer Objektmenge. Gesucht ist also ein Beschreibungsmodell (Classifier), das für
neue Objekte die Klassenzugehörigkeit bestimmt. Als Technik verwendet man eine Trainingsmenge mit
gegebener Klasseneinteilung. Ein Verfahren ist u.a. das Entscheidungsbaumverfahren.
Entscheidungsbäume (siehe Abb. 5/7) leiten aus einer gegebenen Datenmenge einen Satz von Regeln
ab, um unbekannte Objekte zu klassifizieren. Zum Beispiel kann eine Bank aus den Erfahrungen mit
früheren Kreditgeschäften Regeln ableiten, wenn ein Kunde vermutlich kreditwürdig ist.
Entscheidungsbäume sind intuitiv verständlich und schnell zu erstellen. Sie reagieren aber empfindlich
auf inkonsistente und fehlende Daten.
Bei der Regression wird versucht ein quantitatives Merkmal durch eine Reihe von anderen Variablen zu
erklären (y=f(x,z)). Das Ergebnis dient zu Prognosezwecken. Beispielsweise prognostiziert man die
Nachfrage nach Lebensmitteln in Abhängigkeit von früheren Käufen, dem Wochentag, der Intensität
der Werbeschaltungen usw. Mittels statistischer Regression ermittelt man z. B. die Parameter einer
Regressionskurve (z.B. y=ax+b, Parameter sind a und b). Aus dieser kann man dann für beliebige x-
Werte die y-Werte berechnen (prognostizieren). Z.B. ein vereinfachtes Beispiel, dass die Anzahl der
online-Tests, die ein Student ablegt, nur von der verbrachten Zeit im iLearn-System abhängt. Die Formel
für die Regressionsgerade lautet in diesem Fall:
Anzahl der online Testsi= a+b*Zeit im iLearni.
107
Beispiel: Formeln von Trendkurven (Regression) ermitteln mit EXCEL
Zahlenpaare, z.B.
3 17
6 24
10 33
14 25
18 18
Abb. 5/8: Regression mittels EXCEL (Einfügen Liniendiagramm, dann Diagrammtools, Layout,
Trendlinie, weitere Trendlinienoptionen, Polynom mit Potenz 2.)
Maschinelles Lernen ist es, wenn Computer von Daten lernen ohne explizit programmiert zu werden.
Computer lernen komplexe Funktionen an unstrukturierten Daten anhand von Beispielen und nicht
durch explizite Programmierung. Computer lernen aus den Daten mit einem entsprechenden
Trainingsschema. Das hat großes Potenzial. Das Maschinelle Lernen für das Unternehmen soll bis
2020 jährlich um mehr als 50 % wachsen und einen Markt mit einem Volumen von 4 Mrd. USD
erschließen.
Der aktuelle Boom von Maschinellen Lernen liegt an drei Hauptfaktoren:
1) Big Data. Datenvolumen, die noch vor ein paar Jahren unerreichbar waren, erlauben es uns,
viel größere Netzwerke mit viel mehr Variablen zu trainieren.
2) Großer Rechnerkapazitäten. Erhebliche Verbesserungen der uns zur Verfügung stehenden
Rechenleistung, vor allem auf Grafikkarten oder so genannten GPUs ermöglichen es uns, die riesigen
Mengen an Beispieldaten und Trainingssätzen tatsächlich zu knacken und zu verarbeiten.
3) Verbesserung der Algorithmen des maschinellen Lernens, insbesondere in den Bereichen
Verstärkung Lernen (deep learning and reinforcement learning).
Maschine Learning ermöglicht es uns, den Informationsreichtum, den uns die digitale Transformation
bietet, zu nutzen und die Datenbestände verschiedener Unternehmen in Clouds und Business-
108
Netzwerken zusammenzuführen, um so noch größere Informationspools zu schaffen, aus denen wir
lernen können.
Nach der Prognose von Crisp Research für den Verband Bitkom wird der Markt für Produkte, die auf
Techniken für maschinelles Lernen fußen, also „der globale Umsatz mit Hardware, Software und
Services rund um Cognitive Computing und Machine Learning im Jahr 2017 um 92 Prozent auf 4,3
Milliarden Euro wachsen.“ Und weiter: „Bis zum Jahr 2020 wird sich das Weltmarktvolumen dann
voraussichtlich auf 21,2 Milliarden Euro mehr als verfünffachen.“ In einer ebenfalls von Crisp
durchgeführten Befragung zum Einsatz von Machine Learning in einer Stichprobe von 264 deutschen
Unternehmen sagten 4% der Führungskräfte, dass sie maschinelles Lernen bereits im produktiven
Einsatz in weiten Bereichen ihres Unternehmens haben, 17% setzen es bereits teilweise ein, erste
Erfahrungen haben 25% gemacht, 18% evaluieren die Möglichkeiten und 36% haben noch keine
Aktivitäten in diesem Bereich entwickelt.
Maschinelles Lernen ist ein Oberbegriff für die „künstliche“ Generierung von Wissen aus Erfahrung:
Ein künstliches System lernt aus Beispielen und kann diese nach Beendigung der Lernphase
verallgemeinern. Das heißt, es werden nicht einfach die Beispiele auswendig gelernt, sondern es
„erkennt“ Muster und Gesetzmäßigkeiten in den Lerndaten. So kann das System auch unbekannte
Daten beurteilen (Lerntransfer), siehe Abb. 5/9, oder aber am Lernen unbekannter Daten scheitern
(Überanpassung) [wikipedia]
Das Grundprinzip vom Maschinellen Lernen ist, dass der Computer Erfahrung benötigt, um davon zu
erlernen. Erfahrungen sind die Daten, die wir im Computerprogramm zur Verfügung stellen können.
Das Lernen ist immer in Bezug auf eine bestimmte Reihe von Aufgaben zu sehen, dabei wird die
Leistung gemessen, mit der der Computer je Lernschritt die Aufgabe meistert, um zu sehen, ob er
immer besser diese Aufgaben löst. Das ist anders als das allgemeinere Konzept des Lernens, das wir in
der Alltagssprache haben. Die Computer versuchen, eine bestimmte Aufgabe zu optimieren.
Beispiel: Apfelsortieranlage
Aufgabe: Abbildung von Größe und Farbe eines Apfels auf die Handelsklasse lernen
Performance-Maß: Zahl der korrekt klassifizierten Äpfel
Klasse von Agenten: das Lernverfahren bestimmt die Klasse aller möglichen Funktionen.
Trainingsdaten: (Erfahrung): Trainingsdaten enthalten das Wissen, welches von dem Lernverfahren
extrahiert werden soll.
Testdaten: zeigen, ob der trainierte Agent gut von den gelernten auf neue Daten generalisieren kann.
Maschinelles Lernen bedeutet, dass der Computer versucht, an einer bestimmten Aufgabe von den
Daten, die wir dem Computer geben, zu erlernen. Man kann also sagen, dass Lernen hier wirklich
bedeutet, dass man sich den meist komplexen Entscheidungsfunktionen annähern muss, die der
109
Computer besser und besser zu verstehen versucht, um die Aufgabe, die ihm gegeben wird, zu
erfüllen.
Dieses Modell ist im Grunde eine Funktion, mit der wir eine neue Rezension (bei
Verbrauchermeinungen) klassifizieren und dann die wahrscheinlichste Bezeichnung (label: positiv,
negativ oder neutral) für diese Rezension vorhersagen können.
Wie unterscheidet sich Maschinelles Lernen von künstlicher Intelligenz? Worin unterscheidet es sich
von Analytics? Worin unterscheidet es sich von Data Mining? Versuchen wir also, einige dieser
Begriffe zu relativieren.
Maschinelles Lernen wird in der Regel als Teilgebiet der Künstlichen Intelligenz gesehen. Aber
Künstliche Intelligenz umfasst andere Bereiche als das Maschinelle Lernen, obwohl das Maschinelle
Lernen derzeit wahrscheinlich die vielversprechendste Richtung ist, um einige der Ziele der
Künstlichen Intelligenz zu erreichen. Maschinelles Lernen hat viele verschiedene Teilgebiete, zum
Beispiel künstliche Neuronale Netze oder Tiefenlernen.
Das Thema ist eng verwandt mit „Knowledge Discovery in Databases“ und „Data-Mining“, bei dem
es jedoch vorwiegend um das Finden von neuen Mustern und Gesetzmäßigkeiten geht. Viele
110
Algorithmen können für beide Zwecke verwendet werden. Außerdem können Methoden der
„Knowledge Discovery in Databases“ genutzt werden, um Lerndaten für „Maschinelles Lernen“ zu
produzieren oder vorzuverarbeiten, und Algorithmen aus dem Maschinellen Lernen finden beim Data-
Mining Anwendung. [wikipedia]
Natürlich benutzt das Maschinelle Lernen Mathematik und spezielle Statistiken. Schließlich hat
Machine Learning viele Überschneidungen mit anderen Bereichen wie Data Mining und der
Wissensentdeckung in Datenbanken.
5.5.2 Anwendungen ML
Typische Beispiele für überwachte maschinelle Lernalgorithmen sind zum Beispiel [Müller und
Guido 2017: S.2-4]:
Schauen wir uns also einige der typischen Aufgaben an, die wir zu lösen versuchen, wenn wir
maschinelles Lernen anwenden.
Eines der häufigsten ist Klassifizierung. Es ist eine Art überwachtes maschinelles Lernen, d. h. wir
geben die Eingabedaten und die richtige Antwort auf den Lernalgorithmus während der Trainingszeit.
In einem Trainingsdatensatz erwarten wir also eine Form von Eingaben, die wir oft Instanzen nennen.
Und sie kommen mit einer richtigen Antwort, dass der Computer schließlich lernen sollte,
vorherzusagen. Die Instanzen werden durch Merkmale repräsentiert, die numerische Vektoren sind,
die einige der Attribute der Daten kodieren. Wie sich Features ableiten lassen, werden wir in späteren
Kapiteln näher erläutern. Der Computer versucht, während des Lernens eine Entscheidungsgrenze zu
finden, die die eine Klasse von der anderen Klasse trennt. In unserem Beispiel hier würde er
versuchen, eine Funktion zu erlernen, die die Pluszeichen von den Minuszeichen trennt.
Und so bedeutet Lernen in gewisser Weise, diese Funktion, die die positiven und negativen Instanzen
am besten trennt, zu approximieren. Nach Abschluss des Trainings können wir dieses Modell, diese
Funktion, auf einem ausgedehnten Test- oder Validierungsset auswerten. Das bedeutet, dass wir diese
Funktion übernehmen, sie auf einen neuen Datensatz anwenden und sie mit den korrekten Ergebnissen
vergleichen, um zu sehen, wie gut die Funktion funktioniert.
112
Wenn wir nicht versuchen, eine Kategorie wie Plus oder Minus vorherzusagen, sondern wir
versuchen, eine Zahl vorherzusagen, dann nennen wir das ein Regressionsproblem.
Also wieder einmal würden wir mit einer Form von Daten beginnen, einige Beispiele, die der Input für
den Algorithmus des maschinellen Lernens sind. Wir würden sie als Merkmale darstellen. Und dann
versucht das Training, die richtige Ausgabe vorherzusagen, aber jetzt ist die Ausgabe vielleicht nur
noch eine Zahl statt einer diskreten Kategorie.
Die praktische Umsetzung geschieht mittels Algorithmen. Verschiedene Algorithmen aus dem Bereich
des Maschinellen Lernens lassen sich grob nach diesem Schema einteilen: [wikipedia]
• Überwachtes Lernen (engl. supervised learning). Der Algorithmus lernt eine Funktion aus
gegebenen Paaren von Ein- und Ausgaben. Dabei stellt während des Lernens ein „Lehrer“ den
korrekten Funktionswert zu einer Eingabe bereit. Ziel beim überwachten Lernen ist, dass dem
Netz nach mehreren Rechengängen mit unterschiedlichen Ein- und Ausgaben die Fähigkeit
antrainiert wird, Assoziationen herzustellen. Ein Teilgebiet des überwachten Lernens ist die
automatische Klassifizierung. Ein Anwendungsbeispiel wäre die Handschrifterkennung.
• Teilüberwachtes Lernen (engl. semi-supervised learning). Nur für einen Teil der Eingaben
sind die dazugehörigen Ausgaben bekannt.
• Unüberwachtes Lernen (engl. unsupervised learning). Der Algorithmus erzeugt für eine
gegebene Menge von Eingaben ein Modell, das die Eingaben beschreibt und Vorhersagen
ermöglicht. Dabei gibt es Clustering-Verfahren, die die Daten in mehrere Kategorien einteilen,
die sich durch charakteristische Muster voneinander unterscheiden. Das Netz erstellt somit
selbständig Klassifikatoren, nach denen es die Eingabemuster einteilt. Ein wichtiger
Algorithmus in diesem Zusammenhang ist der EM-Algorithmus, der iterativ die Parameter
eines Modells so festlegt, dass es die gesehenen Daten optimal erklärt. Er legt dabei das
Vorhandensein nicht beobachtbarer Kategorien zugrunde und schätzt abwechselnd die
Zugehörigkeit der Daten zu einer der Kategorien und die Parameter, die die Kategorien
ausmachen. Eine Anwendung des EM-Algorithmus findet sich beispielsweise in den Hidden
Markov Models (HMMs). Andere Methoden des unüberwachten Lernens, z. B.
Hauptkomponentenanalyse, verzichten auf die Kategorisierung. Sie zielen darauf ab, die
beobachteten Daten in eine einfachere Repräsentation zu übersetzen, die sie trotz drastisch
reduzierter Information möglichst genau wiedergibt.
• Bestärkendes Lernen (engl. reinforcement learning). Der Algorithmus lernt durch Belohnung
und Bestrafung eine Taktik, wie in potenziell auftretenden Situationen zu handeln ist, um den
Nutzen des Agenten (d. h. des Systems, zu dem die Lernkomponente gehört) zu maximieren.
Dies ist die häufigste Lernform eines Menschen.
113
•
Aktives Lernen (engl. active learning). Der Algorithmus hat die Möglichkeit für einen Teil der
Eingaben die korrekten Ausgaben zu erfragen. Dabei muss der Algorithmus die Fragen
bestimmen, welche einen hohen Informationsgewinn versprechen, um die Anzahl der Fragen
möglichst klein zu halten.
Jedes Objekt wird durch einen Vektor in einem Vektorraum repräsentiert. Aufgabe der Support Vector
Machine ist es, in diesen Raum eine Hyperebene einzupassen, die als Trennfläche fungiert und die
Trainingsobjekte in zwei Klassen teilt. Der Abstand derjenigen Vektoren, die der Hyperebene am
nächsten liegen, wird dabei maximiert. Dieser breite, leere Rand soll später dafür sorgen, dass auch
Objekte, die nicht genau den Trainingsobjekten entsprechen, möglichst zuverlässig klassifiziert
werden.
Beim Einsetzen der Hyperebene ist es nicht notwendig, alle Trainingsvektoren zu beachten. Vektoren,
die weiter von der Hyperebene entfernt liegen und gewissermaßen hinter einer Front anderer Vektoren
„versteckt“ sind, beeinflussen Lage und Position der Trennebene nicht. Die Hyperebene ist nur von
den ihr an den nächsten liegenden Vektoren abhängig – und auch nur diese werden benötigt, um die
Ebene mathematisch exakt zu beschreiben. Diese nächstliegenden Vektoren werden nach ihrer
Funktion Stützvektoren (engl. support vectors) genannt und verhalfen den Support Vector Machines
zu ihrem Namen.
Eine Hyperebene kann nicht „verbogen“ werden, sodass eine saubere Trennung mit einer Hyperebene
nur dann möglich ist, wenn die Objekte linear trennbar sind. Diese Bedingung ist für reale
114
Trainingsobjektmengen im Allgemeinen nicht erfüllt. Support Vector Machines verwenden im Fall
nichtlinear trennbarer Daten den Kernel-Trick, um eine nichtlineare Klassengrenze einzuziehen.
Die Idee hinter dem Kernel-Trick ist, den Vektorraum und damit auch die darin befindlichen
Trainingsvektoren in einen höherdimensionalen Raum zu überführen. In einem Raum mit genügend
hoher Dimensionsanzahl – im Zweifelsfall unendlich – wird auch die verschachteltste Vektormenge
linear trennbar. In diesem höherdimensionalen Raum wird nun die trennende Hyperebene bestimmt.
Bei der Rücktransformation in den niedrigerdimensionalen Raum wird die lineare Hyperebene zu
einer nichtlinearen, unter Umständen sogar nicht zusammenhängenden Hyperfläche, die die
Trainingsvektoren sauber in zwei Klassen trennt.
Bei diesem Vorgang stellen sich zwei Probleme: Die Hochtransformation ist enorm rechenlastig und
die Darstellung der Trennfläche im niedrigdimensionalen Raum im Allgemeinen unwahrscheinlich
komplex und damit praktisch unbrauchbar. An dieser Stelle setzt der Kernel-Trick an. Verwendet man
zur Beschreibung der Trennfläche geeignete Kernelfunktionen, die im Hochdimensionalen die
Hyperebene beschreiben und trotzdem im Niedrigdimensionalen „gutartig“ bleiben, so ist es möglich,
die Hin- und Rücktransformation umzusetzen, ohne sie tatsächlich rechnerisch ausführen zu müssen.
Auch hier genügt ein Teil der Vektoren, nämlich wiederum die Stützvektoren, um die Klassengrenze
vollständig zu beschreiben.
Sowohl lineare als auch nichtlineare Support Vector Machines lassen sich durch zusätzliche
Schlupfvariablen flexibler gestalten. Die Schlupfvariablen erlauben es dem Klassifikator, einzelne
Objekte falsch zu klassifizieren, „bestrafen“ aber gleichzeitig jede derartige Fehleinordnung. Auf diese
Weise wird zum einen Überanpassung vermieden, zum anderen wird die benötigte Anzahl an
Stützvektoren gesenkt.
Abb. 5/15: Beispiel für eine Klassifizierung mit einer SVM. Zu sehen ist die in den
Eingangsraum abgebildete trennende Hyperebene (schwarze Linie) und die Support-Vektoren
(dünn türkis umkreist).
115
5.5.4.2 Künstliche neuronale Netze (Artificial neural network NN)
Mit Hilfe Neuronaler Netze wird grundlegend versucht menschliche Arbeitsweisen des
Gehirns in Computersystemen und Maschinen nachzubilden. Die KI-Systeme sollen aus
Beispielen in der Lage sein selbstständig zu lernen und ähnlich wie das Gehirn neue
Rückschlüsse und Lösungsansätze für bislang unbekannte Situationen finden. Die Grundidee
für das Forschungsgebiet stammt dabei aus der Überlegung, dass der Großteil der Dinge,
welche Menschen tun, ohne großes Nachdenken ablaufen. wie Fahrradfahren, Autofahren,
Lesen und Schreiben oder Stimmen und Geräusche wieder zu erkennen. Was sind neuronale
Netze überhaupt? Im Endeffekt sind neuronale Netze nichts anderes als ein Netzwerk
bestehend aus bis zu 100 Milliarden Nervenzellen des Gehirns.
Die Nervenzellen und deren Vernetzung untereinander sowie die Verschachtelung sind verantwortlich
für die Wahrnehmung, das Bewusstsein, die Lernfähigkeit und die Assoziationen. Über sogenannte
Dendriten nehmen die einzelnen Neuronen etwaige Reizungen bzw. Erregungen auf und leiten diese
an den Zellkern der Neuronen weiter. Mit Hilfe der Axone wird die Reizung bzw. Erregung an die
nächsten Neuronen weitergeführt. Synapsen bilden die Brücke zwischen Axon eines Neurons und
Dendriten anderer Neuronen. Wichtig dabei ist, dass ein Neuron des Gehirns bis zu 10.000
Verbindungen besitzen kann.
Diese biologische Funktionsweise der natürlichen neuronalen Netze bildet die Grundlage für die
künstlichen Gegenstücke. Etwaige Eingabeinformationen stellen in diesem Zusammenhang die
Eingangswerte dar. Propagierungsfunktionen verknüpfen im Anschluss die Eingabeinformationen mit
den Verbindungsgewichten. Über eine Aktivierungsfunktion wird anschließend der Zustand des
Neurons bestimmt. Zum Schluss wird mit Hilfe einer Ausgabefunktion ein Ausgabewert ermittelt,
welcher an die nachfolgenden Neuronen weitergeleitet werden kann
Die Implementierung des NN erfolgte in Phyton mithilfe des Frameworks “Keras” (basiert auf Tensor-
Flow”) (https://keras.io). Die Lernepochen betrugen 200 und die Fehlerfunktion war Logarithmischer
Fehler.
Der Lernphase folgt eine Testphase und dann eine Arbeitsphase, bei der man das gelernte NN anwendet
Anwendungsbeispiel:
Wir ließen das 2-4-2 Neuronale Netz mit den 115 Datensätzen vom WS 15/16 lernen und testeten die
Prognosegenauigkeit an den 111 Datensätzen vom WS 16/17. Da das NN eine Prognosegenauigkeit von
76 % erreichte, wagten wir im WS 17/18 den ersten Feldversuch. Das gelernte Neuronale Netz
prognostizierte aus den Spuren beim digitalen Lernen des 1. Sem. BWL von Okt. und Nov. 2017 (Anzahl
der Klicks), 21 Gefährdete. Denen schickte das System eine E-Mail mit dieser Einschätzung und den
Hinweis zu mehr Engagement.
5.6 Fallbeispiele
Istzustand
Vertriebsabteilung und Controller setzen Access-Datenbanken und Excel-Dateien ein. Dies ist zu einer
unüberschaubaren Datensammlung angewachsen, die keine zuverlässigen Unternehmenszahlen mehr
bot. Z.B. präsentieren die Mitarbeiter der Geschäftsführung voneinander abweichende Umsatzzahlen,
die zum Teil aus dem SAP-Modul Financials, teils aus der Warenwirtschaft und teils direkt aus den
Point-of-Sales-Systemen einzelner Niederlassungen stammten.
Sollzustand
Data Warehouse auf der Basis eines relationalen Datenbanksystems mit einem einheitlichen
multidimensionalen Datenmodell für Umsatzreports. Daten kommen aus den Kassenterminals der 45
Warenhäuser, 57 Baumärkten und 11 Elektrofachmärkten in Deutschland und Tschechien.
Lösung
Fachspezifisches Data Warehouse, das mit jedem Point of Sales des Handelsunternehmens verbunden
ist. Es sollte sich abgrenzen gegenüber den operativen Geschäftsprozessen und keine SAP-Daten aus
dem Tagesgeschäft anzapfen.
Ziel war der komplette Neuaufbau eines grundlegend eigenständigen Datensystems, das jederzeit
flexibel erweiterbar ist.
Zu den operativen Vorsystemen im Backend zählen die Warenwirtschaft, die Kassensysteme, ein
selbstentwickeltes Planungssystem und SAP Financials. Daran angebunden ist eine zentrale Oracle-
Datenbankinstanz. Die Datenextraktion und Transformation sowie die Befüllung der Datenbank
übernehmen das Abfrage-Tool PL/SQL und der Warehouse Builder von Oracle.
Als Middleware (ein Protokollbündel als Dienstleister zwischen den Anwendungen) fungieren der
Application Server und der Enterprise Manager. Die Frontend-Seite ist ein Portal für die Interaktion der
Benutzer mit dem Gesamtsystem. Die eigentliche DW-Schicht liegt als separater Bereich in der
Datenbank.
117
In jedem Baumarkt oder Warenhaus gibt es eine eigene Warenwirtschaftsinstanz sowie
softwaregestützte Kassensysteme. Dies ist dezentral. Der Buchhaltungs- und Finanzbereich bleibt als
zentrale SAP-Anwendung im Hauptquartier, ebenso das Planungssystem.
Alle halbe Stunde werden die als Textdatei abgespeicherten Umsatzzahlen aus den Kassen automatisch
abgeholt und im Datenpool des DW abgelegt. Anschließend erfolgt die Aufbereitung für die
Berichterstellung. Dabei wird nicht auf Artikelbasis analysiert, sondern aggregiert auf Warengruppen.
Im Tagesverlauf kommen weitere Daten aus der Warenwirtschaft und Informationen aus dem Planungs-
Tool dazu.
Der Bottleneck für die Geschwindigkeit war die Funktion der Extraktion, Transformation und Laden
der Daten. 80 % der Projektdauer entfielen auf die Anpassung und Programmierung dieser Ebene. Es
werden die relational gespeicherten Daten zu multidimensionalen Business-Objekten in Form von Data
Marts aufbereitet und stehen als aggregierte Sichten für weitere Anwendungen zur Verfügung.
Das Frontend ist ein Internet-basiertes Portal, auf das mit einem Browser zugegriffen werden kann. Mit
Hilfe der Push-Technologie lassen sich Meldungen an die Arbeitsgruppe schicken und Aktionen
anstoßen.
Der Abruf und die Aufbereitung der Daten zu aussagefähigen Management-Informationen läuft
reibungslos. Einfach geht die Übertragung auf neue Niederlassungen.
Am meisten beeindruckte die halbstündige Einspielung der Kassendaten europaweit. Die eigentliche
Datenverarbeitung benötigt 5 Minuten. Dazu kommen Datenselektion und Übertragung.
Der Unternehmenserfolg wird bei Fokussierung der Kundenbeziehungen nicht mehr über die vier P’s
(Produkt, Preis, Platz und Promotion) definiert, sondern über die vier K’s:
• Kundenorientierung
Kundenorientierung bedeutet, dass sich die unternehmerischen Aktivitäten konsequent an den
individuellen Wünschen und Bedürfnissen der Kunden orientieren.
• Kundenzufriedenheit
Kundenzufriedenheit bzw. Kundenunzufriedenheit resultiert aus dem Vergleich der subjektiven
Kundenwahrnehmung nach dem Kauf eines Produktes bzw. nach der Inanspruchnahme einer
Leistung mit den Erwartungen, die der Kunde vor der Kaufentscheidung hatte.
• Kundenbindung
Dies sind sämtliche Maßnahmen eines Unternehmens, die darauf abzielen, sowohl die
Verhaltensabsichten als auch das tatsächliche Verhalten eines Kunden gegenüber einem
Anbieter oder dessen Leistungen positiv zu gestalten, um die Beziehung zu diesem Kunden für
die Zukunft zu stabilisieren bzw. auszuweiten.
• Kundenwert
Der Kundenwert aus Anbietersicht wird als direkter oder indirekter Beitrag eines Kunden oder
einer Kundengruppe zur Erreichung der monetären und nichtmonetären Ziele des Anbieters
verstanden, d. h. der Wert des Kunden für das Unternehmen
Der Kundenwert dient den Unternehmen zur Identifikation und Beschreibung der vorhandenen
Ist-Kunden sowie der Zusammenfassung von Kunden in einzelne homogene Segmente.
CRM-Systeme lassen sich von funktionaler Seite aus betrachtet in analytisches, operatives,
kommunikatives und kollaboratives CRM einteilen (siehe Abb. 5/16). Sie werden kommuniziert über
die Kanäle Internet, Telefon und Mobile Technologien (Kommunikatives CRM).
118
Abb. 5/18: Struktur von CRM Softwarelösungen
Analytisches CRM (mit Data Warehouse) [Bruh 2008]
Das analytische CRM dient der systematischen Aufzeichnung, Analyse und Auswertung von
Kundenkontakten und Kundenreaktionen. Damit werden kundenorientierte Entscheidungsprozesse
vorbereitet, unterstützt und vor allem optimiert.
Ziel des analytischen CRMs ist es, mittels datenanalytischer Anwendungen ein fundiertes Verständnis
über Kundenzufriedenheit, wie auch über aktuelles und zukünftiges Kundenverhalten zu gewinnen,
Entscheidungsgrundlagen für Vertrieb und Marketing zu liefern, kundenbezogene Planungen zu
unterstützen und operative Prozesse wie Marketing- und Promotionsaktivitäten zu optimieren.
Mit OLAP (Online Analytical Processing), siehe Kap. 5.5.1, entstehen mehrdimensionale Analysen
durch die Betrachtung der Daten aus verschiedenen Perspektiven mit bereits definierten Dimensionen
und Zusammenhängen.
119
Abb. 5/19: Kreislauf des CRM mittels Data Warehouse [Bruh 2008]
Auch die Aufdeckung von Cross- und Up-Selling Potentialen mit Hilfe von Data-Mining-Verfahren ist
Bestandteil von analytischen CRM-Applikationen.
Die folgende Auflistung beinhaltet typische Kennzahlen der analytischen Aktivitäten:
Kennzahl für die Kundenzufriedenheit, Kennzahl für die Kundenloyalität, Wiederholkaufrate je
Kundensegment und Customer-Lifetime-Value (Gesamtwert, der mit einem Kunden über den gesamten
Customer-Lifecycle erwirtschaftet werden kann).
Weitere Detailfragen, die das analytische CRM beantworten kann bzw. können sollte, sind:
• Welche Kunden sind die profitabelsten über die gesamte Dauer der Kundenbeziehung hinweg?
• Mit welchen Leistungen können Kunden langfristig an das Unternehmen gebunden werden?
• Mit welchen Leistungen können neue Kunden gewonnen werden?
120
Abb. 5/20: Struktur von Ergebnisdatensätzen.
Navigator
Er navigiert durch Objekthierarchien im Prinzip von
Drill Down, siehe Abb. 5/2.
Dieses allgemeine Vorgehen betrachten wir jetzt mit
den Screenshots vom Delta Master 6.0.
(http://www.bissantz.de/files/clicks/deltamaster_clicks_2015-05_pivotnavigation_vordefinieren.pdf)
121
122
Der Navigator zeigt dem Controller den Weg durch die Datenmassen. Er hilft günstige Analysepfade
einzuschlagen, er kann Daten vorfiltern und damit die Analysezeit erheblich verkürzen. Die
Massendaten werden maschinell voruntersucht, so dass nur noch die kritischen Sachverhalte vom
Anwender zu würdigen sind. Der Anwender kann auch eigene Analysepfade einschlagen.
Detector
Der Detector geht Buttom-up vor und sucht mit Hilfe eines auf der statistischen Clusteranalyse (siehe
Kap. 5.4.2) basierenden Data-Mining-Verfahrens selbständig nach interessanten Zusammenhängen auf
der untersten Datenebene. Der Detector sucht in mehrdimensionalen Hierarchien des Controllings nach
ungeahnten Auffälligkeiten. Dabei lokalisieren Clusterverfahren Muster im mehrdimensionalen
Datenraum. Er besteht
• aus einem Speicher mit den Einzelposten der Faktura,
• Clusterverfahren, die zusammengehörigen Gebilde (sog. Cluster) in einem Datenbestand finden,
• Verfahren, die die Vertreter dieser Cluster im Ergebnisdatensatz lokalisieren, Werte berechnen und
die Situation rudimentär beschreiben und
• aus dem Erzeugen von Aussagen in Klartext.
Beispiel: Bei einem Pharmaziehersteller fand der Detector wertvolle Hinweise für die Produkt- und
Konditionspolitik, Dazu wurden Datenmängel aufgedeckt, die das Betriebsergebnis verfälschen.
So war der DB um 1.4 Mio. oder 38 % abgewichen. Es wurde im ersten Schritt die Produktgruppe FBM,
die einen Erklärungsanteil an der Ursache von 87 % hat, lokalisiert
Desweiteren findet er, dass die Abweichung von Verkäufen dieser Produktgruppe FBM an
Kundengruppe C zwischen 23 und 35 % beträgt.
Assoziator
Der Assoziator entdeckt automatisch auffällige Datenpaarungen, die beispielsweise das Kaufverhalten
von Kunden in Form von besonders häufigen Kombinationen gemeinsam gekaufter Produkte
beschreiben.
Mit Assoziativregeln kommt man neuen Ansätzen für die Kunden- und Marktbearbeitung auf die Spur.
So gibt es Produkte und Dienstleistungen, die sich besonders gut im engen und zeitlichen
Zusammenhang verkaufen lassen. Assoziativ-Regeln finden diese Kombinationen (siehe auch Kap.
5.4.2).
123
5.6.4 Fallstudie Data Mining und BI: Lufthansa
Ausgangsbasis:
• Anforderung, ein Tool zu entwickeln, um im Unternehmen verteilte interne und externe Daten
zu analysieren und visualisieren
• Aufbau auf Basis von Data-Mining sowie Business Intelligence Methoden und Technologien
• Analyse und Erschließung des Datenpools mit Data-Mining Methoden
Funktionsweise Insight Mining:
• Import von Dokumenten unterschiedlicher Formate aus verschiedenen Quellen
• Extrahierung und Weiterverarbeitung der enthaltenen Informationen
Texte werden in einzelne Sätze und Wörter zerlegt
Wörter werden anhand von Synonymen zu Konzepten zusammengefasst
Auftretende Gemeinsamkeiten von Konzepten in Texten werden statistisch aufbe-reitet
Bildung eines Konzeptgraphen, der im Insight Mining als Navigation dient
• Nutzer erhält somit jederzeit eine Übersicht passender Dokumente (Darstellung z.B. anhand
sogenannter Knowledge Maps)
• Knowledge Cockpit als Ergänzung, um aussagekräftige Kennzahlen, Trends und Benchmarks
anzuzeigen
• Verschiedenste Inhalte aus Blogs, Foren und Communities können in einem Datenpool
verbunden werden
• Erschließung neuer Zusammenhänge und Ideen
Vorteile Insight Mining:
• Einfache und intuitive Bedienung
• Verknüpft interne und externe Daten
• Keine aufwendige Modellierung logischer Modelle notwendig
• Kontextspezifische und personalisierte Knowledge Maps, die dynamisch erzeugt werden
• „Knowledge Drill Down“ verknüpft Knowledge Maps mit den relevanten Dokumenten
• Unterstützt alle gängigen Dokumentenformate und importiert automatisch neue Dateien aus
Verzeichnissen, Netzlaufwerken und E-Mail-Postfächern
• Sicherheit, keine wichtige Quelle bei der Analyse vergessen zu haben
• Fehlertolerant und mitdenkend: Autospelling, Nutzung von Synonymen, Thesauri und
Grundwortreduktion
• Insight Mining als Software as a Service möglich: Keine internen IT-Abstimmungen,
Wartungsverträge oder Serverkosten
124
Abb. 5/22 Lufthansa Technik BI Screenshot des Konzeptgraphen
125
5.6.5 Anwendung BI: Learning Analytics
Abb.5/24: Clusterverfahren auf Aktivitäten Weidener Studierende im SS16 im vhb Kurs Mathematik I
erbrachte 3 Cluster
Unter Learning Analytics versteht man das Sammeln, Messen, Analysieren und Reporting bzw.
Interpretieren verschiedenster Daten über Lernende und ihr Umfeld, um das Lernverhalten, den
Lernerfolg und die dazugehörigen Umweltbedingungen zu verstehen und zu optimieren. Die Daten
werden von Studierenden produziert, oder für sie erhoben. Ziel der Learning Analytics ist es,
Erkenntnisse über Lehr- und Lernprozesse zu gewinnen und das Lernverhalten der Studierenden zu
verstehen, um einen angemessenen Eingriff zu ermöglichen.
Ziel von Clusterverfahren ist, „eine Menge von Objekten in homogene Gruppen (= Klassen, Cluster,
Typen) zusammenzufassen.
Abb. 5/22 zeigt ein Beispiel für das Ergebnis von Learning Analytics: Die BWL Studierende der OTH
Amberg-Weiden im SS16, von denen 67 Studierende mit der Lernform „rein virtuel“ Mathematik
gelernt haben. Als Ergebnis sieht man 3 Cluster und deren Klausurdurchschnittsnote.
127
5.7 Literatur und Kontrollfragen
1. Behme Wolfgang: Das Data Warehouse-Konzept, WISU 2/1998, S. 148-150
2. Bruh, Manfred; Homburg, Christian: Handbuch Kundenbindungsmanagement. Strategien und
Instrumente für ein erfolgreiches CRM. 6. Aufl. Gabler: Wiesbaden 2008
3. Fischer Joachim; Dangelmeier Wilhelm; Nastansky Ludwig; Suhl Leena: Bausteine der
Wirtschaftsinformatik, 4. Aufl. Erich Schmidt Verlag, Berlin 2008, S. 444-450
4. Grunwald, M.; Taubner, D.: Business Intelligence. Informatik Spektrum 23-5-2009, 2009, S.
398-403
5. Popp, Heribert; Rick Beer: Evaluation virtueller Mathematik-Kurse – Lernszenarienvergleich
und Learning Analytics. In Jutta Pauschenwein (Hrsg.): Evaluierung offener Lernszenarien,
Tagungsband zum 13. E-learning Tag 2014, Graz; S.98-108
Kontrollfragen
1. Worin liegen die Gründe für das Scheitern der Vorläufer heutiger Data Warehouse-Systeme?
2. Was ist BI? Nennen sie 5 Anwendungen von BI!
3. Was ist ein EIS?
4. Welche Techniken werden im EIS verwendet?
5. Was ist Drill Down und was Briefing Book?
6. Was ist der betriebswirtschaftliche Auslöser für Data-Warehouse Lösungen?
7. Wie läßt sich der Informationsbedarf nach Datenart und -quelle unterscheiden?
8. Charakterisieren Sie den Begriff Data-Warehouse?
9. Welche bestimmenden Merkmale zeichnen ein Data-Warehouse aus?
10. Beschreiben sie die bestimmenden Merkmale und die Architektur eines Data-Warehouse!
11. Aus welchen Komponenten besteht eine Data Warehouse-Lösung?
12. Was ist OLAP?
13. Definieren sie Data Mining und Business Intelligence
14. Skizzieren sie drei Data Mining Methoden
15. Sie werden beauftragt, für die Hochschule Deggendorf ein Data Warehouse-System aufzubauen.
Wie gehen sie vor?
16. Sie werden beauftragt, für TUI oder Lufthansa ein Data Warehouse-System oder ein BI-System
aufzubauen. Wie gehen sie vor?
17. Was ist analytisches CRM und welche Rolle nimmt dabei das Data Warehouse ein?
18. Beschreiben sie als Anwendung von Business Intelligence die Learning Analytics!
19. Wie geschieht Wissensentwicklung bei den Learning Analytics?
20. Beschreiben sie das BI Fallbeispiel Delta Master.
21. Was versteht man unter Maschinellem Lernen und warum liegt es derzeit im Trend?
Richtig:
o Bei diesem Ansatz lernen Computer aus Daten ohne explizit programmiert zu werden.
o Ein Grund für den derzeitigen Trend ist die Verbesserung der Algorithmen.
o Mit der zunehmenden Digitalisierung und Automatisierung liegen große Datenvolumen (Big
Data) zur Verfügung, mit denen größere Netzwerke mit viel mehr Variablen trainiert werden
können.
o Durch die Verbesserung der Rechenleistung durch Grafikkarten und GPUs können die großen
Datenvolumen tatsächlich verarbeitet werden.
Falsch:
o Bei diesem Ansatz lernen Computer die Trainingsdaten auswendig.
o Ein Grund für den derzeitigen Trend ist die Entwicklung der ersten mathematischen
Grundlagen.
o Für den Trend ist auch die Erhöhung der Datenqualität der Trainingsdaten verantwortlich.
22. Welche algorithmischen Ansätze gibt es beim Machine Learning.
Richtig:
128
o Supervised Learning
o Unsupervised Learning
o Semi-supervised Learning
o Reinforcement Learning
o Active Learning
Falsch:
o Blended Learning
o E-Learning
o Accelerated Learning
o Concept Learning
23. Beschreiben Sie die grundsätzliche Vorgehensweise beim überwachten Lernen im Machine
Learning.
Es liegen historische Daten vor, die aus Eingaben und Labels bestehen. Diese Daten werden in ein
Training- und ein Test-Set geteilt. Auf Basis des Training-Set wird ein Prognosemodell erstellt. Um
das Modell zu evaluieren wird es auf das Test-Set angewendet, wobei die Labels bei der Prognose
nicht berücksichtigt werden. Nach der Prognose werden die vorhergesagten Labels mit den
tatsächlichen verglichen und z. B. mithilfe einer Wahrheitsmatrix bei einer Klassifikation die
Prognosegenauigkeit bestimmt. Wird eine ausreichende Prognosegenauigkeit erreicht, kann das
Modell für die Prognose von neuen Daten, für die die Labels noch unbekannt sind, eingesetzt
werden.
24. Skizzieren sie 2 Maschinelle Lernverfahren
25. Welche Aussagen über SVM sind wahr?
Richtig:
o SVM steht für Support-Vektor-Maschinen.
o SVM gehört zum Ansatz des überwachten Lernens und wird zur Klassifikation oder Regression
verwendet.
o SVM findet die Hyperebene im Vektorraum, die den Abstand zu den Vektoren, die der
Hyperebene am nächsten liegen, maximiert.
o Die nächstliegenden Vektoren werden auch Stützvektoren genannt und geben der Methode
ihren Namen.
o Sind die Trainingsdaten im Vektorraum nicht linear trennbar, können sie in einen höheren
Dimensionsraum transformiert werden, in dem sie sich linear trennen lassen.
Falsch:
o SVM steht für Separable-Value-Models.
o SVM gehört zum Ansatz des unüberwachten Lernens und wird zum Clustering oder zur
Dimensionsreduzierung verwendet.
o SVM findet die Hyperebene im Vektorraum, die den Abstand zu den Vektoren, die von der
Hyperebene am meisten entfernt liegen, maximiert.
o Schlupfvariablen werden bei SVM verwendet um Unterpassung zu vermeiden und die Anzahl
der Stützvektoren zu vergrößern.
26. Beschreiben Sie, was Künstliche Neuronale Netze sind?
Mithilfe von Künstlichen Neuronalen Netzen sollen menschliche Arbeitsweisen des Gehirns in
Computersystemen und Maschinen nachgebildet werden. Diese Systeme lernen selbstständig aus
Beispielen und können ähnlich wie das Gehirn Rückschlüsse und Lösungsansätze für bislang
unbekannte Situationen finden. Die Topologie eines Neuronalen Netzes besteht aus Neuronen, den
Verbindungen zwischen den Neuronen. Die Neuronen werden in Schichten angeordnet. Das Netz
bekommt Eingabeinformationen zur Verfügung gestellt und verknüpft sie bei der Weiterleitung
durch das Netz durch Propagierungsfunktionen mit den Verbindungsgewichten.
Aktivierungsfunktionen entscheiden über den Zustand des Neurons. Mit einer Ausgabefunktion
wird ein Ausgabewert ermittelt, der an die nachfolgenden Neuronen weitergeleitet werden kann.
129
6. Softwaretechnische Werkzeuge des WM
Wenn wir jetzt einmal die Fülle möglicher Produkte gegenüberstellen, erkennen wir sehr schnell
bestimmte Produktklassen, die Teilbereiche dieses Prozesses mehr oder weniger abdecken. So findet
man heute auf dem Markt der WMS-Produkte, die sich eher auf den Aufbau und die Erschließung einer
Wissensbasis konzentrieren, andere, die primär die Kommunikation und Zusammenarbeit von
Wissensträgern unterstützen, und wiederum andere, die eher die Verbreitung von Wissen zum Ziel
haben.
Die von Lehner [Lehner 2012, S. 267] aufgeführten „Führungsinformationssysteme“ sind in Kap. 3
behandelt.
6.1 Werkzeuge
1. Intranet als Hilfsmittel
In Intranets werden Hyperlinks zwischen Dokumenten angelegt. Eine Suchmaschine recherchiert nach
Web-Dokumenten und das System erstellt daraufhin Volltextindizes für Wissensbanken. Darauf
aufbauend verwaltet ein Dokumentenmanagement-System das verteilte Wissen.
ADL Link der Beratungsgesellschaft Arthur D. Little ist ein WMS auf einer Intranet-Plattform. Es
ist in funktionale Module eingeteilt, die auf einheitlichen Schlagwortstrukturen basieren.
Kernelemente der Module sind „Library Cards“, die „Knowledge Chunks“ („Wissensbrocken“)
enthalten. Auf verschiedenen Servern und Datenbank-Systemen sind weltweit über ein Wide Area
Network vielfältige Inhalte zugreifbar: „Who knows whom?“, Diskussionsforen,
Klientendatenbanken, Mitarbeiterprofile und –biografien, Projektprofile, Kurzzusammenfassungen,
Referenzen usw. Das System wird schrittweise entsprechend neuen Anforderungen ausgebaut.
Beispiel: Intranet bei Sixt
• „table of contents“: Anschriften, Telefonnummern etc. von allen Stationen Weltweit
• „pricing“: Mit Hilfe des Intranets ist es möglich, etwaige Preisänderungen sofort an die
Stationen direkt und ohne Zeitverlust zu übermitteln.
• „manual“: Betriebsanleitung, die alle Situationen berücksichtigt und beinhaltet, die im
täglichen Geschäft vorkommen können.
• „blackboard“: Darstellung von wichtigen Informationen; ersetzt das Verschicken von Memos
und führt zu erheblichen Kosteneinsparungen
• Stationsspezifische Daten: Informationen über die in einer Station zur Verfügung stehenden
bzw. benötigten Fahrzeuge
• Aufbau einer E-Mail Datenbank: Speicherung der Kundenadressen, diese sind anschließend
allen Stationen verfügbar
In einem Prototyp für die KSB AG konnte gezeigt werden, wie sich das Wissen, das Konstrukteure
und Vertriebsingenieure im Kraftwerksbau generiert haben, für neue Aufgaben mithilfe von CBR
reaktivieren lässt.
Die Vorteile von CBR-Systemen sind deren Flexibilität, Robustheit und die Fähigkeit zu
inkrementellem, beständigem Lernen: Jedesmal, wenn ein Problem gelöst wird, kann das Tupel
„Problem-Lösung“ als neue Erfahrung abgespeichert werden.
130
Abb. 6/1a: Beispiel eines Falles und suche nach dem ähnlichsten Problem
3. Know-how-Datenbanken
Know-how-Datenbanken in Industrieunternehmen kann man als geordnete Sammlung von
Anwendungslösungen begreifen. Dabei steht insbesondere bei Investitionsgüterherstellern nicht mehr
das physische Produkt im Vordergrund, sondern der Beitrag zu einer bestimmten Problemlösung beim
Kunden im Sinne einer integrierten Dienstleistung. Besonderns sinnvoll ist ein solches System für
Unternehmen der Investitionsgüterindustrie, die auftragsindividuelle Produkte in großer Variantenzahl
fertigen.
Die Bearbeitung der Informationen erfolgt über Module zur Erfassung, Klassifikation und zum
Retrieval der Anwendungsbeschreibungen. Ein Vertriebsmitarbeiter oder ein Konstrukteur erfasst die
Daten dezentral am Arbeitsplatz, wenn das Unternehmen für einen Kunden die ersten Muster
entwickelt und freigegeben hat oder wenn ein Angebot ausgearbeitet ist. Angestellte in Forschung,
Entwicklung, Fertigung und Vertrieb können bei einem konkreten Anwendungsfall in der Datenbank
recherchieren, um bereits vorhandene oder ähnliche Problemlösungen ausfindig zu machen. Damit
wird insbesondere bei international operierenden Unternehmen der Gefahr entgegengewirkt, dass das
Anwendungswissen zu stark zersplittert.
Man ergänzt die Know-how-Datenbank um Informationen, warum Angebote nicht zu Aufträgen
geführt haben („Lost-Order-Statistik“).
Know-how-Datenbanken erzeugen Nutzeffekte auf der administrativen Ebene (z. B. raschere
Beantwortung von Kundenfragen), unterstützen aber auch die Planung und Kontrolle auf den höheren
Führungsebenen, Beispiele hierfür sind:
• Durch Erkennen häufig vorhandener Spezifikation erhält man Hinweise auf wünschenswerte
Standardprodukte, die an die Stelle von kostentreibenden Varianten treten.
131
• Es entsteht eine Datenbasis mit vielen Informationen für die Unternehmensleitung, z. B. über
die Wettbewerbssituation, technologische Verschiebungen oder veränderte
Kundenpräferenzen.
Bei der Siemens Business Services GmbH & Co. OHG beschrieb man, warum ein Projekt
erfolgreich verlief oder auch nicht, mit welchen Risiken zu rechnen war und wie man diesen
begegnete oder welche Referenzkunden gewonnen wurden. Da diese Kunden nicht auf Dauer als
Referenz gelten können oder wollen, ist periodisch zu prüfen, ob sie in der Wissensdatenbank
verbleiben (Verfallsdatum einer Referenzlösung). Eine entsprechende Aufforderung wird automatisch
generiert.
4. FAQ
Mit FAQ bezeichnet man Systeme, die Antworten (meist von Experten) auf häufig gestellte Fragen
speichern. Im Internet findet sich eine Vielzahl von öffentliche FAQ-Systemen.
Beispiel: Fragen
1. Wie kann man sich an den PCs der TH Deggendorf anmelden?
2. Wie lautet meine Email Adresse an der FH Deggendorf?
Antworten
1. Die Anmeldung erfolgt mit den ersten Buchstaben des Vornamens + den kompletten Nachnamen.
Passwort ist die Matrikelnummer
5. Answer Garden
Das Konzept Answer Garden kombiniert zwei Aufgaben in Zusammenhang mit
Organisationsgedächtnissen:
1) Wiederfinden von Wissen, und zwar sowohl mithilfe der Datenbank- als auch mit der
Kommunikationstechnik.
2) Gezielte Vermittlung des Zugangs zu menschlichen Experten.
Informationen mit Answer Garden wachsen „organisch“ als Frucht der Interaktionen von Experten
und Benutzern mit dem System.
Der erste Ansatz der Suche beinhaltet eine hierarchisch gestaltete Fragenliste, die interaktiv
abgearbeitet werden muss. Im zweiten Ansatz bekommt der Interessent eine Grafik der diagnostischen
Fragen und navigiert darin („Bäume im Garten“). Wenn der Benutzer an einem Knoten nicht
weiterkommt, bedient er den „I’m-Unhappy-Knopf“, woraufhin das System per E-Mail den „Knoten-
Experten“ einschaltet. Dieser erhält mit der elektronischen Post eine „Geschichte“ der Suche durch
den Anfragenden. Der Experte antwortet nicht nur, sondern speichert die Problemlösung im Answer
Garden, vorausgesetzt, die Frage ist von allgemeinem Interesse („Wachstum im Garten“).
132
6.2 Web 2.0 Technologien
6.2.1 Überblick
Wir betrachten kurz die verschiedenen Web 2.0 Technologien, die Einsatz finden.
• Weblogs unterstützen das persönliche Wissens- und Informationsmanagement. Man schreibt,
verweist auf Beiträge und Dokumente, kategorisiert (taggt) und archiviert.
Nutzungsmöglichkeiten:
indem man über sich selbst, innerhalb eines Blogs, Auskunft gibt.
indem man Beiträge mit anderen Beiträgen vernetzt.
indem man beispielswiese RSS-Feeds nutzt um andere Weblogs zu lesen.
• In Wikis werden Inhalte von jedem einzelnen Mitarbeiter selbst organisiert eingestellt, angepasst
und entwickelt. Wissen in Wikis verändert sich fast automatisch von einer subjektiven Meinung
zu einem objektiven Fakt (da Informationen nur dann bestehen bleiben, wenn niemand eine
gegenteilige Meinung dazu schreibt). Die Inhalte der Wikis werden durch die Benutzer überprüft
und bewertet. Folgende Prinzipien werden an ein Wiki gestellt:
6.2.2 E-Collaborations-Werkzeuge
Der Begriff Kollaboration steht eng im Zusammenhang mit den Aspekten der Kommunikation,
Kooperation und Koordination (3K´s). Kommunikation fungiert als Grundlage. Bezieht sich
Kommunikation im Rahmen einer Gruppenarbeit auf die Abstimmung aufgabenbezogener
134
Tätigkeiten, ist die Kommunikation ebenso für die Koordination notwendig. Wird zudem zum Zwecke
der Festlegung gemeinsamer Ziele kommuniziert, so kann dadurch auch noch die Kooperation
unterstützt werden. Kommunikation koordiniert Kooperation und ist selbst wiederum ein
Kooperationsprozess, der koordiniert werden muss. Bei Kollaboration steht ein Gruppenziel und
dessen gemeinsame Verwirklichung im Vordergrund. Dementsprechend wird auch der
Gruppenprozess zur Erreichung des Ziels betrachtet. Den Unterscheidungsaspekt der Kollaboration
liefert somit klar die Realisierung eines Gruppenzieles. Um dieses zu erreichen, sind jedoch wiederum
Kommunikation, Koordination und Kooperation nötig. Kollaboration fungiert damit als Oberbegriff
der 3K’s.
„Kollaboration ist die Arbeit von zwei oder mehr Individuen an gemeinsamem Material, die bewusst
planvoll darauf ausgerichtet wurde, ein gemeinsames Gruppenziel zu erreichen. Zur Erreichung dieses
Gruppenziels sind Kommunikation, Koordination und Kooperation der beteiligten Akteure
notwendig“ (Leimeister 2014, S. 8).
Groupware. umfasst alle aus Software und eventuell spezifischer Hardware bestehenden Systeme,
durch die Gruppenarbeit unterstützt oder ermöglicht wird.
Das wichtigste Charakteristikum von Groupware ist, die interagierenden Personen nicht voneinander
zu isolieren, sondern gegenseitig übereinander zu informieren. Diese sogenannte Awareness-
Information umfasst Details über die Benutzer, gemeinsame Artefakte und die Arbeitsumgebung.
Weitere Eigenschaften, die Groupware auszeichnen sind im Folgenden:
• Gleichzeitige Unterstützung von mehreren Benutzern, wobei diese mit gegenseitiger
Information über den Präsenz ausgestattet werden
• Ermöglichen von expliziter Kommunikation durch das Verbreiten von Nachrichten und von
impliziter Kommunikation durch die Weiterleitung von Veränderungen
• Koordination der Aufgaben aller Gruppenmitglieder durch Wahrnehmung gemeinsamer
Artefakte, Kommunikation und Gruppenentscheidungen
• Erleichterung der Strukturierung von Fragen, Abstimmungen und Auswertungen
• Begünstigung der Generierung von Ideen und der Analyse von Aussagen
• Unterstützung von gemeinsamer Datenhaltung und deren Bearbeitung
Web 2.0 hat große Auswirkungen auf die Kollaboration. Durch die neu entwickelten Plattformen
entstanden innovative Technologien, welche die Kollaboration nicht nur unterstützen, sondern auch im
großen Stil verändern. Dazu gehört in erster Linie Social Software, wie (Web)Blogs, Wikis, Foren,
RSS-Feeds sowie soziale Netzwerke. Durch Web 2.0 wird somit eine besondere Möglichkeit
dargestellt, die unternehmensinterne Zusammenarbeit zu unterstützen und durch selbstorganisierte
Plattformen für die Gruppenarbeit neuartige Wege zu schaffen, Informationen zu finden und zu
systematisieren.
135
Das Workflowmanagement dient größtenteils zur Förderung der Koordination von Arbeitsabläufen
Bei Gruppeneditoren schwankt die Einsortierung eher zwischen Kommunikations- und
Kooperationsunterstützung. Es können beide Aspekte gleichsam gefördert werden und eine genaue
Festlegung ist nicht möglich.
Nun kann diese Taxonomie praktisch angewendet werden, indem die Collaborations-Services der
Unternehmensgruppe Zollner den einzelnen Funktionsbereichen zugeordnet werden. Das Ergebnis ist
in Abb. 6/5 ersichtlich.
Workflow-Systeme
Beispiel: Workflow für das Ereignis „Kunde wird Großkunde“
Es gibt mehrere Einzel- oder Gruppenarbeitsplätze als Bestandteil eines Prozesses. Die Knoten
repräsentieren die Aktivitäten, die zu einem Prozess gehören. Die Pfeile stellen die Ablauflogik dar und
beschreiben darüber hinaus Input und Output der einzelnen Aktivitäten, siehe Abb. 6/6.
Für automatisiertes Arbeiten kommen insbs. gut strukturierte und regelmäßig wiederkehrende Abläufe
in Frage. Schlecht strukturierte, selten auftretende Abläufe oder Ausnahmen, wie z.B, das Auftreten
unvorhergesehener Ereignisse sowie die Behandlung von Arbeitsunterbrechungen und ihrer
Folgewirkungen, müssen gesondert betrachtet werden. Unterbrechungen können eintreten, wenn für die
weitere Arbeit eine nicht vorhandene Information benötigt wird oder ein unvorhergesehenes Ereignis
eintritt. Im Workflow-System können mögliche Unterbrechungsgründe berücksichtigt und Vorschläge
für die Einleitung von Maßnahmen abgelegt werden.
Unter Workflow-Management wird die computerisierte Bearbeitung von Vorgängen verstanden. Sie ist
insbesondere für die Automatisierung stark strukturierter Routinearbeit geeignet. Während sich
Groupware auf die miteinander in Kontakt tretenden PC-Anwender konzentriert, steht bei Workflow die
Aufgabe oder der Vorgang im Mittelpunkt der Betrachtung. Die Aufgabe wird durch die Organisation
gereicht und von mehreren Mitarbeitern sukzessive und parallel bearbeitet. Der Weg eines Dokumentes
über die „Schreibtische“ der Sachbearbeiter oder die Abfolge der einzelnen Arbeitsschritte sind dabei
im Voraus festgelegt.
Workflow-Systeme (WFS) unterstützen Prozesse und dienen der Planung, Steuerung und Überwachung
auf dem Gebiet der Weiterleitung von Informationen über mehrere Stellen. Dabei werden die
Bearbeitungszeit eines Vorgangs und die beteiligten Mitarbeiter berücksichtigt.
WFS bieten die Möglichkeit, Prozesse abzubilden und für die Mitarbeiter transparent zu machen; es ist
also eine ständige Dokumentation des Standes der Vorgangsbearbeitung möglich.
Die Realisierung einer Informationsweiterleitung durch WFS bietet insbs. Vorteile im Bereich der
Vermeidung von Liegezeiten und der besseren Einhaltung von Terminen.
Die Funktionalität von Workflowsystemen bezieht sich neben
• der Informationsweiterleitung
• auf die Zuordnung von Vorgängen zu Mitarbeitern
• auf das Festlegen von Abarbeitungsreihenfolgen sowie
• auf Überwachung und Archivierung.
136
AS 1 AS 3 AS 5
Workflow-Management-System
AS 2 AS 4
Anbieter wären etwa Saperion mit dem Systen DocFlow oder Panvision mit der Software PANFLOW
oder das Tool „T!M“ der Firma TIM Solutions.
Einführung:
137
• Beginn mit einer Administrationsgruppe aus fünf Mitarbeitern aus den Abteilungen
Personalabteilung, Unternehmenskommunikation, Wissensmanagement und IT
• Innerhalb der ersten drei Monate meldeten sich 42 weitere Autoren, so dass nach einem halben
Jahr bereits mehr als 500 Artikel existieren
• nur die Autoren hatten in dieser Phase Rechte, Artikel zu lesen und zu verändern
• Nach der unternehmensweiten Freigabe des Skywikis rasanter Anstieg der Autorenzahl
• Suche der Artikel erfolgt meist direkt und nicht über Kategorien
• regelmäßige Umfragen bezüglich Verbesserungspotentialen
Inhalte:
• Artikel drehen sich rund um Themen des Luftverkehrs, behandeln Technik, stellen Projekte
vor und sammeln Tipps und Tricks
o 8000 Airport-Begriffe in Deutsch/Englisch
o bereichsspezifische Glossare
o Beschreibungen von Arbeitsabläufen
o Projektbeschreibungen
o bebilderte Länderberichte und Flughafen-Beschreibungen, Informationen zur
Flughafeninfrastruktur, Airline-Portraits
o Tipps und Tricks: Wie verwendet man am effektivsten Outlook, Google oder Excel
für die täglichen Arbeiten?
o Beschreibungen aller in der Fraport AG eingesetzten Informationssysteme
o Portraits der Tochterfirmen
o Informationen rund um Personalfragen
• Informationen, die bereits im Intranet stehen, werden nicht ins Skywiki aufgenommen
• wöchentliche Treffen einer Redaktionsgruppe, die sich um die Strukturierung des Wikis
kümmert
• Mitarbeitermotivation durch Kür des monatlich besten Artikels, dieser wird mit einem
Wikingerlogo versehen und in der Flughafenzeitschrift abgedruckt
• Know-how-Träger auf bestimmten Themengebieten werden direkt angesprochen, um ihre
Projekte innerhalb des Wikis darzustellen oder bestehende Artikel gegebenenfalls zu
korrigieren
Folgen:
Inzwischen haben bereits einzelne Abteilungen Bedarf an einem eigenen Wiki angemeldet.
So gibt es bereits ein Wiki für die Software-Entwickler, um Code abzulegen und Fachbücher zu
speichern. Auch die Revisionsabteilung will ein eigenes für kollaboratives Arbeiten.
139
▪ Ablage und Suche
Abb. 6/8: Das Schichtenmodell des Semantic Web: (Kollmann 2010, S. 76)
Mit Hilfe des Ressource Description Framework (RDF) können beliebige Informationen durch
Metadatenbeschreibungen ergänzt werden. Semantische Beziehungen werden dabei als Tripel
140
(Ressource, Eigenschaft, Wert) modelliert. Die Konzepte einer bestimmten Anwendungsdomäne und
deren reziproke Beziehungen werden in Ontologien definiert, z.B. mit der Ontologie Web Language
(OWL) (siehe Kap. 4.3.2). Neben Ressource, Semantik und Ontologie ist auch die auf diesen basierende
automatische Regelverarbeitung durch Inferenzmechanismus (Schlussfolgerung) ein Baustein von
Semantik Web. Hinzu kommen Bausteine zur Prüfung von Sicherheit und Identität, die die
Vertrauenswürdigkeit der erzeugten Inhalte garantieren.
Semantic Web basierter E-Commerce wird es Anbietern von Produkten und Dienstleistungen
ermöglichen, ihre Angebote nur noch einmal auf Ihrer eigenen Website, basierend auf einem offenen
Standard, in maschinen-interpretierbarer Form zu beschreiben. Alle auf Semantic Web Technologien
gestützte Suchmaschinen können diese Angebote für den Benutzer finden und interpretieren. Auf
Semantic Web Technologien basierende Suchmaschinen orientieren sich also nicht mehr wie heutige
Suchmaschinen an Stichworten, sondern können Produkte (inklusive ihrer Produkteigenschaften)
vollständig erfassen und für den Menschen verarbeiten. Das bedeutet, dass Konsumenten im Zuge einer
Suchabfrage über eine auf Semantic Web Technologien basierende neue Suchmaschine, die von Ihnen
gesuchten Produkteigenschaften definieren können und im Ergebnis jene Angebote erhalten, die am
besten Ihren Wünschen entsprechen. Dies ermöglicht es dem Konsumenten, mit Hilfe von digitalen
Assistenten alle am Markt verfügbaren Angebote aktiv in den Entscheidungsprozess einzubeziehen und
jenes Angebot zu finden, dass am besten zu seinen Anforderungen passt.
Unternehmen müssen in Zukunft ihre Produktinformationen nur noch einmal auf ihrer eigenen
Homepage in maschineninterpretierbarer Form angeben und können von allen auf Semantic Web
Technologien basierenden Anwendungen gefunden werden. Auf Konsumentenseite kommt es zu einer
besseren Ressourcenallokation, da es für den Konsumenten leichter wird jenes Angebot zu finden, dass
optimal seinen Anforderungen entspricht. http://www.MyOntology.org/
Das folgende Szenario ist ein konkretes Beispiel:
Der Personal Agent wird beauftragt, ein geeignetes Auto zum Kauf ausfindig zu machen. Er kennt die
Vorlieben des Besitzers und trifft eine Vorauswahl der infrage kommenden Modelle. Der Agent
kontaktiert die Agents verschiedener Anbieter und wählt schließlich eine kleine Auswahl der in der
Nähe befindlichen Anbieter aus. Die Agents tauschen Preise, Produkt-Details und Lieferbedingungen
aus und führen gegebenenfalls automatisch die Verhandlungen durch. Dabei wird der Personal Agent
die Reputation der Anbieter anhand unabhängiger Quellen mitberücksichtigen. Wird tatsächlich ein
geeignetes Angebot gefunden, greift der Agent auf den persönlichen Terminkalender zurück, um freie
Termine zu finden und einen Zeitpunkt zur Probefahrt mit dem Agenten des Anbieters zu vereinbaren.
Schließlich informiert der Personal Agent ein mobiles Endgerät, welches der Besitzer bei sich trägt.
Sind die persönlichen Präferenzen der gesamten Belegschaft und die unternehmerischen Vorgaben in
der semantischen Wissensdatenbank hinterlegt, könnte die Verwaltungsaufgabe Reisemanagement in
Zukunft automatisch von der eigenen unternehmerischen Reise-Applikation übernommen werden.
Blogs und Wikis können die Basis für Web 3.0 legen, da sie Informationen in hierarchisch strukturierte
Gruppen einordnen lassen und Beziehungen zueinander setzen lassen. Existierende Strukturen müssen
entsprechend einer Ontologie (in ihr sind die Komponenten der Blogging- und WikI-Welt und ihre
Beziehungen zueinander festgehalten) in RDF (Ressource Description Framework) überführt werden.
Nachfrageorientierte Plattformen
141
Web 3.0 Plattformen, werden sich die Bedürfnisse des Kunden zu eigen machen, z.B. „optimal zu mir
passendes Auto“. Das geschieht mit intelligenten und benutzerfreundlichen Oberflächen, die Lösungen
aus gesammelten Informationen ableiten.
Kontextadaptive Plattformen
Sie berücksichtigen den Kontext des Benutzers bei der Zusammenstellung von Informationen und
Diensten. Sie werden dem Benutzer gezielt Webressourcen anbieten, die seine individuelle
Bedürfnislage (z.B. Ortsinformation, Nutzerprofil) befriedigen bzw. in der aktuellen Situation mit hoher
Wahrscheinlichkeit von Nutzen sind.
Konfiguratoren
Produktkonfiguratoren werden zunehmend direkt bei der Bestellung über das Internet möglich. sie
ermöglichen Angebote mit hohem Variantenreichtum. Gekoppelt mit dem Engineering-Data-
Managementsystem erlaubt es der Web-Shop, dass der Kunde individuelle Lösungen konstruiert.
Beim kollaborativen Filtern (collaborative filtering) werden Verhaltensmuster von Benutzergruppen
ausgewertet, um auf die Interessen Einzelner zu schließen. Dabei handelt es sich um eine Form des Data-
Mining, das eine explizite Nutzereingabe überflüssig macht.
Aufbauend auf der Bildung von Kundengruppen auf Basis persönlicher Daten wie Shopping-
Transaktionen werden Webinhalte oder Produktempfehlungen, die von Kunden der gleichen
Kundengruppe konsumiert bzw. gekauft wurden, auf der Website angezeigt.
Industrie 4.0
Vernetzung von autonomen, sich situativ selbst steuernden, sich selbst konfigurierenden,
wissensbasierten, sensorgestützten und räumlich verteilten Produktionsressourcen
(Produktionsmaschinen, Roboter, Förder- und Lagersysteme, Betriebsmittel) inklusive deren
Planungs- und Steuerungssysteme."
Logistik 4.0
✓ Agentengesteuerter Transportmitteleinsatz
✓ Situative Routenplanung
✓ Intelligenter Umgebungsüberwacher
✓ AR + Logistik
Home 4.0
✓ Situative Hausfunktionen
✓ Schutz per Gesichtserkennung
✓ Bedarfsabhängige Logistik
✓ Vernetzung mit Smartphones
142
E-Tourismus 4.0
✓ Expertensystem selektiert aus Wünschen passende Reiseziele
✓ Konfigurater von reisepaketen aus Bausteinen
✓ Handy App, situativer Reiseführer am Handy
✓ Aufgrund eines Benutzermodells weitere Reisevorschläge offerieren
E-Governement 4.0
✓ Intelligente Kommunalberater
✓ E-Richter
✓ Grenzenlose/
Autofahren 4.0 (selbstfahrende Autos); alle Fahrdaten einsehbar, Haftung bei Unfällen
E-Business 4.0
• Produktkonfiguratoren
• Einkaufsagenten
• Empfehlungssysteme wie bei Amazon
• Adaptivität der Werbung wie bei Google
Büro 4.0
Genauso wie zuhause will der Mitarbeiter seinen Arbeitsplatz an sich anpassen – also
personalisieren. Der Arbeitsplatz erkennt welcher Mitarbeiter sich darauf einrichtet und passt
Höhe des Schreibtisches und des Bürostuhls an. Dezentrale Abteilungen oder Projektteams
können dadurch in Real-time miteinander über Bild und Ton kommunizieren und kommen damit
einer persönlichen Unterhaltung sehr nahe, welche jedoch nicht vollkommen ersetzt wird.
Labor 4.0
Ausstattungen in den Laboren werden vernetzt. Dadurch können Mitarbeiter die Geräte auch über
Fernzugriffe steuern, Analysen durchführen und Ergebnisse erhalten. Der Fernzugriff erlaubt
zudem eine Fernwartung. Es spielt Flexibilität in der sogenannten Life Science Automatisierung
eine bedeutende Rolle. Durch Robotik-Systeme werden auch im Labor neue Möglichkeiten
geschaffen. So ist es für den Mitarbeiter möglich, diese ebenfalls per Fernzugriff zu steuern.
Das Software-Unternehmen iTiZZiMO integriert Augmented Reality (AR) in Form von Smart Glasses
in den Arbeitsalltag im Labor. Dabei wird jeder wichtige Gegenstand, seien es Mitarbeiterausweise,
Proben- oder Chemikalienfläschchen, mit einem QR-Code versehen, welcher von den Smart Glasses
gescannt wird. Die Smart Glasses erkennen, wenn ein Raum betreten wird, und geben Hinweise zur
Arbeitsschutzausrüstung.
Verwaltung 4.0
Sie ist die "technische Integration von cyber-physischen Systemen in die öffentliche
Verwaltung sowie die Anwendung des Internets der Dinge und der Dienste im
Rahmen der Prozesse des Regierens und Verwaltens.
Dies beinhaltet die sich daraus ergebenden Konsequenzen für die Wertschöpfung,
die Geschäftsmodelle sowie die nachgelagerten Dienstleistungen und die
Arbeitsorganisation". (von Lucke J. 2015, S. 8).
143
3. Leimeister J. M.: Collaboration Engineering: IT-gestützte Zusammenarbeitsprozesse
systematisch entwickeln und durchführen. 1. Aufl., Springer Verlag, Berlin, 2014
4. Lehner Franz: Wissensmanagment, Hanser 2012, S. 246-272
5. Kollmann Tobias: E-Business – Grundlagen elektronischer Geschäftsprozesse in der Net
Economy. 4. Aufl., Gabler:Wiesbaden, 2010
6. Probst, G., Raub, S., Romhardt, K., Wissen managen – Wie Unternehmen ihre wertvollste
Ressource optimal nutzen, Wiesbaden 1997.
7. Popp Heribert, Kreupl Silke: Softwaretechnische Umsetzung von Wissensmanagement zur
Unterstützung der Hochschulziele. In Jürgen Cleve (Hrsg.). WIWITA 2010 – 7. Wismarer
Wirtschaftsinformatiktage, Wismarer Diskussionspapier, ISBN 978-3-939159-84-1, 2010,
S.14-23.
8. Wach Elmar P.: Semantic E-Commerce, E-Commerce-Magazin, 2009, Heft 6.
Kontrollfragen
1. Was für Werkzeuge für ein IT-gestütztes Wissensmanagement gibt es?
2. Skizzieren Sie vier IT-basierte Hilfsmittel des Wissensmanagements!
3. Was ist ein Answer Garden als Werkzeuge für ein IT-gestütztes Wissensmanagement?
4. Wie können Web 2.0 Technologien Wissensmanagement unterstützen?
5. Diskutieren sie, ob und wie Großunternehmen Social Media für ihr Wissensmanagement einsetzen
können!
6. Warum kann ein CRM-System als Wissensmanagementsystem gesehen werden?
7. Erklären sie 3 Semantische Web-Ansätze.
8. Skizzieren sie je eine WM-Software entlang der WM-Prozesskette
144
7. Wissensmanagementsysteme
WMS haben Schwächen bei den Sozialisierungsmechanismen, da man den Transfer von implizitem
Wissen nicht durch Werkzeuge ersetzen kann.
Eine einheitliche Abgrenzung von Wissensmanagementsystemen zu den in Kap. 6 vorgestellten
Systemen ist hier nicht einfach. Ein integriertes WMS vereinigt einige der Singlelösungen. Insbesondere
durch die Integration und den erweiterten Funktionsumfang sind WMS von anderen Softwaresystemen
abzugrenzen.
In der Zwischenzeit sind am Markt verschiedene WMS verfügbar, welche den skizzierten Bedarf durch
standardisierte Lösungen zu decken versuchen. Natürlich ist auch bei diesen Systemen ein gewisser
Anpassungsbedarf erforderlich, man erspart sich aber trotzdem den hohen Aufwand, welcher mit der
Entwicklung und Pflege einer individuellen Lösung verbunden ist.
Die Funktionen eines WMS dienen der Umsetzung der Wissensmanagementprozesse. Dabei ist eine
Vielzahl von Funktionen auszumachen, die in die folgenden Bündel eingeteilt werden können
[Lehner2012, S. 278-280]:
• Kommunikation: Funktionen der synchronen und asynchronen Kommunikation, wie E-
Mail, Workflowmanagement oder Newsgroups.
• Inhaltsmanagement: Funktionen zum Umgang mit Inhalten (z.B. Bildern, Dokumenten
und Lernobjekten).
• Entscheidungsunterstützung: Funktionen zur Auswertung und Zusammenfassung von
Informationen.
• Suche: Funktionen zum Finden von Inhalten und Experten in unterschiedlichen Quellen
(z.B. Datenbanken, Dateiservern, Dokumentenmanagementsystemen).
• Visualisierung: Funktionen zur Präsentation von Informations- und Wissenselementen
sowie der Struktur dieser.
Im nächsten Abschnitt soll aufbauend auf diese Sammlung von wünschenswerten Funktionen auf die
Gestaltung der Architektur eines Referenzmodells eingegangen werden. Dann betrachten wir
Wissensportale. Den Abschluss bilden konkrete Beispiele für Wissensmanagementsysteme.
145
Abbildung 7.1: Idealtypische Architektur eines Wissensmanagementsystems [Lehner2012, S. 284]
Die Abbildung 7.1 zeigt die Architektur eines idealtypischen Wissensmanagementsystems nach
Maier. Hierbei können sechs Schichten identifiziert werden, in denen verschiedene vorher beschriebene
Technologien zum Einsatz kommen. Die Basis stellen dabei Daten- und Wissensquellen dar, welche in
der Praxis in verschiedenen Systemen wie Contentmanagement- und
Dokumentenmanagementsystemen, Dateiservern, Datenbanken oder dem Internet vorliegen. Die
darüber liegende Schicht der Infrastrukturdienste stellt die Anbindung des Wissensmanagementsystems
an die verschiedenen Wissensquellen sicher. Dabei müssen die Informationen und das Wissen aus den
einzelnen Quellen für die weiteren Schichten extrahiert und in ein einheitliches Format überführt
146
werden. Auf der Ebene der Integrationsdienste erfolgt mit Hilfe von Taxonomien und Ontologien eine
Verknüpfung der einzelnen Wissenselemente sowohl auf Basis der Metadaten als auch auf Basis der
Inhalte. Die Wissensdienste werden nach ihren Aufgaben in Zugriffs-, Veröffentlichungs-,
Kollaborations- und Lerndienste eingeteilt. Die Personalisierungsdienste erlauben die Verwaltung von
Benutzerprofilen, anhand derer für die Benutzer relevante Wissenselemente vorselektiert werden
können. Der Zugriff auf ein Wissensmanagementsystem erfolgt über die Dienste der Zugriffsschicht,
welche neben der Authentifizierung und Autorisierung eine Anpassung der darzustellenden Inhalte an
das jeweilige Ausgabegerät vornehmen.
7.3 Wissensportale
Wissensportale fokussieren auf die Bereitstellung von Wissen.
Ihre wesentlichen Eigenschaften sind [Sandkuhl2005]:
1. Sie basieren auf einem gemeinsamen Begriffsraum des Anwendungsgebiets, für das sie
ausgerichtet sind. In der Regel wird ein konzeptionelles Modell der relevanten Begriffe und
Relationen zwischen unterschiedlichen Begriffen definiert (z.B. über Taxonomien oder
Ontologien; Beispiel Wissensnavigator in ilearn)
2. Strukturierte Inhalte bilden die Grundlage für Navigation in und Bereitstellung von Wissen, d.h.
das Informations- und Dokumentmodell muss auf das Anwendungsgebiet ausgerichtet sein.
Neben der Einbeziehung streng strukturierter Informationen aus Datenbanken ist auch eine
Einbindung semi-strukturierter Informationen in Form von Dokumenten erforderlich. Die
Trennung von logischer Struktur und Layoutstruktur ist ebenso wünschenswert wie die
Verwendung relevanter Metadaten (z.B. auf Grundlage des Dublin Core). Z.B. werden im Portal
Veda alle Inhaltstypen mittels so genannter Content Schemata deklariert, die neben Struktur,
Merkmalen, Attributen und Konsistenzbedingungen auch semantische Netze zur Definition
ergänzender Metadaten verwenden (z.B. mit RDF Notation).
3. Unterstützung des Lebenszyklus der Inhalte von Schaffen, Import, Zusammenstellen, Erfassen,
Zugriff/Suche bis zur Anwendung von Wissen und Entfernung.
4. Das Wissensportal muss die Möglichkeit zur Individualisierung sowohl der Inhalte als auch der
Funktionalitäten bieten.
5. Unterstützung kooperativen Arbeitens für das Wissenteilen (Kommunikation, Koordination,
Kollaboration)
6. Spezialisierung auf die Anwendungsdomäne (ausgerichtet auf spezielle Domänen,
Aufgabengebiete und Nutzergruppen)
Neben den Merkmalen sind die bereitgestellten Funktionen bzw. Funktionsbereiche eine weitere
Möglichkeit zur Charakterisierung von Wissensportalen. Im Folgenden finden sich einerseits
Portalfunktionen und typische Wissensportalfunktionen (mit W gekennzeichnet)
• Personalisierung: Personalisierung von Layout, benutzten Ressourcen, Sortierung der
Suchresultate;
Personalisierung von Arbeitsgebiet, Aufgaben und Prozesse, thematischer Interessen (W)
• Suche: Eingebaute Suchfunktion, Suchmaschine, Speichern von Suchresultaten,
Metadatenbasierte Suche;
Navigation im Begriffsraum, Suche auf Basis des Begriffsraums (W) (z.B.
Begriffsnavigator)
• Zusammenarbeiten mit anderen Nutzern: Definieren von Communities, Aufgabenlisten,
gemeinsame Dokumentenbearbeitung
Konferenzfunktion, Expertenvermittlung, Message Board, Planung von Meetings (W)
• Sicherheit: Authentifizierung, LDAP, Integration, Zugriffskontrolle, Verschlüsselung
• Dynamik: Kategoriebasierte Suche, Publikation neuer Inhalte, Benachrichtigung bei neuen
Inhalten, Suchanfragen
Generierung neuen Wissens auf Grundlage des formalisierten Wissens (W) (z.B.
Implikation)
• Erweiterbarkeit/Integration von Anwendungen: XML-Import, Offene Schnittstellen,
Internet-Zugang
Import von Fakten und strukturierten Inhalten (W)
147
• Content Management: Dokumentverzeichnis, Verwendung von Metadaten, Filtern von
Inhalten, Crawler
Management von Dokument- und Informationsmodellen, Metadatenmanagement,
Zuordnung von Inhalten zum Begriffsraum (W)
• Bedienerfreundlichkeit: WebFrontend, Grafische Bedienoberfläche
• Begriffe: Management des Begriffsraums, der Fakten (W), Regel-Editor (W), Zuordnung
Begriffsraum –Metadaten (W)
Als Rahmenarchitektur von Wissensportalen kann man sich drei Schichten vorstellen:
1. Die Datenhaltungsschicht stellt Mechanismen zur Speicherung, Manipulation und Zugriff auf
die im Portal gespeicherten Informationen und Wissen bereit.
2. Die Schicht der Anwendungslogik implementiert Dienste und Funktionen des Wissensportal.
Hier gibt es eine Aufteilung in semantische Mittelware (Navigationsunterstützung,
Inferenzmaschine, Anfragerealisierung und Persistenzmechanismus) und die darauf
aufbauenden Dienstegruppen Kooperation (Gemeinsame Arbeitsbereiche, Joint Editing,
Konferenzdienste), Kontext (Benutzerkontext, Aufgabenunterstützung, Prozessunterstützung),
Konzept (Management, Konzepte/Begriffe, Navigationsdienste, Anfrageunterstützung) und
Content (Management, Inhaltsstrukturen, Metadaten, Konsistenzbedingungen). Kernidee dieser
Aufteilung ist, dass die semantische Middleware alle Dienste bereitstellt, die direkt auf den
Modellen arbeiten, was das konzeptionelle Modell (Begriffsraum) und Inhaltsmodell
(strukturierte Inhalte) sowie deren Integration einschließt. Hier werden Dienste zur
Modifikation der Modelle, Erzeugung spezieller Sichten, Durchführung von Anfragen usw.
bereitgestellt. Die darauf aufbauenden Dienstegruppen implementieren die
Steuerungsaufgaben, d.h. hier werden Dienste zum Management der Modelle bereitgestellt, die
die semantische Middleware benutzen.
3. Auf der Bedienoberflächenebene wird neben den Frontends für Kommunikation,
Administration und domänenspezifischen Anwendungen zwischen Werkzeugen und Personal
Work Management unterschieden. Letztere ist der Schlüsselbereich zur Individualisierung (hier
erhält der Benutzer auf Grundlage seiner Kontextdefinition eine individuelle Aufgaben- und
Prozessunterstützung einschließlich Nutzung und Erwerb von Wissen). Werkzeuge umfassen
Frontends zum Inhaltsmanagment, Management des Begriffsraums, Retrieval usw.
Produkte zu Wissensportalen:
• Microsoft SharePoint (siehe Abb. 7/2)
• IBM ECM
• IBM Lotus Connections
• Open Text ECM Suite (früher: LiveLink)
• SAP NetWeaver Portal
• SAP Knowledge Warehouse
• Hyperwave eKnowledge Suite
• Open-Source-Software O3 Spaces Workplace
• Open-Source-Software Alfresco
148
Abb. 7/2: Funktionen der Wissensportalsoftware SharePoint Server (English et all 2007 S.44-45)
Typische Funktionen von solchen Wissensportalen sind: Komponenten, Taxonomie, Klassifikation, Tag
Clouds, Suche, Community, Content, BI.
149
7.4 Fallbeispiel IBM
IBM nutzt das Wissen aller Mitarbeiter, ja sogar von Kunden, Business Partnern und
Familienangehörigen, um Innovation zu fördern.
• Den richtigen Ansprechpartner unter 350.000 Mitarbeitern
• Die passenden Slides für einenVortrag
• Themenbezogene News
• Die zündende Idee
• Den passenden Karrierepfad
150
Abb.7/5: Architektur von WMS und LMS an Hochschulen
Wissensziele
Pod- und
Bookmarki
Plattforme
Weblogs
Network
Vidcasts
Sharing
Forum
Media
Social
Social
Wikis
Feeds
ng
n
Entscheidungskriterien der potentiellen
X X
Studienanfänger sind bekannt
151
Wissensziele
Pod- und
Bookmarki
Plattforme
Weblogs
Network
Vidcasts
Sharing
Forum
Media
Social
Social
Wikis
Feeds
ng
n
Prozess „Studentenleben“ wird unterstützt X X
7.6.1 Bedarfsanalyse
Sie führt zum Soll-Zustand.
Was wünschen sich die Mitarbeiter für WM?
„Betroffene zu Beteiligten machen“
Mitarbeiterbefragung zu folgenden Themenbereichen:
• Einstieg neuer Mitarbeiter
• Transparenz und Informationsfluss
• Arbeitsgruppen und Projektarbeiten
• Persönliches Wissensmanagement
• Weiterbildung und Kompetenzentwicklung
• Weiterentwicklung der Hochschule (Ideen, Innovationen, Verbesserungsvorschläge)
152
Es ist ein Konzept anhand der Ziele und Maßnahmen detaillierter auszuarbeiten. Zunächst sind
Maßnahmen aus den operativen Zielen sowie den gewonnenen Erkenntnissen aus der Analysephase zu
konkretisieren. Dann sollen Softwarewerkzeuge auf ihre Eignung für dieses WM untersucht werden.
Technische Umsetzung
Für die technische Realisierung ist es notwendig, eine Entscheidung bezüglich der Softwarelösung
und/oder eigenen Umsetzung beispielsweise im existierenden Intranet zu treffen.
Im Abgleich mit der Ist- und Soll-Analyse sowie dem detaillierten Maßnahmenplan ist eine
Produktevaluation durchzuführen, d. h. eine Marktanalyse der vorhandenen Produkte für
Wissensmanagementlösungen gemäß den Anforderungen. Häufig wird der Sharepoint-Server von
Microsoft genutzt und lediglich zusätzlich notwendige Lösungen hinzu programmiert.
Allgemeine Anforderungen an das System sind:
- Nutzerfreundliche und intuitive Bedienung
- Integration von bereits vorhandenen Systemen (z. B. Groupware, Projekt-, Prozess- und/oder
Dokumentenmanagementsystem)
- Möglichkeit differenzierter Zugriffsberechtigungen (anhand Organisationsstruktur und Rollen)
- Integration von unterschiedlichen Dokumententypen (welche vorhanden oder erforderlich sind)
- Ontologiebasierte Suchfunktion
- Information Retrieval
- Kategorisierung und thematische Ordnung (evtl. automatischer Bescheid über neu eingestellte
Dateien)
153
7.7 Literatur und Kontrollfragen
Literatur
1. Bullinger, H.-J., Wörner, K., Prieto, J., Wissensmanagement heute – Daten, Fakten,
Trends, Studie des Frauenhofer-Instituts für Arbeitswissenschaft und Organisation,
Stuttgart 1998.
2. Gottschick, J., Friedrich, H. (et al.): Marktübersicht Wissensportale. Informatik-Spektrum,
Springer Berlin Heidelberg, vol. 28, no. 3, pp. 202-209, 2005
3. Heilmann, H., Wissensmanagement – ein neues Paradigma?, Praxis der
Wirtschaftsinformatik 36(1999)208, S. 7 ff.
4. Lehner Franz, Wissensmanagement, 2012, 4. Auflage, Hanser Verlag, S. 277-306
5. Kreupl, Silke; Popp Heribert: Wissensmanagement an der Hochschule Deggendorf.
Wissensmanagement, Heft 6/2010, 2010, S.18-21
154
6. Popp Heribert, Kreupl, Silke, Mößlein, W. Die Wissensbilanz, in WISU- Das
Wirtschaftsstudium, 2012, Heft 5, S675ff.
7. Popp Heribert, Epple Martin, Zimmermann Volker: Application Integration von E-
Learning mit HIS, WMS oder Kompetenzmanagement. In Andreas Hohenstein, Karl
Wilbers (Hrsg.): Handbuch E-Learning, Kluwer Verlag 2010 (7.14.1-7.14.23)
8. Sandkuhl, K. : Wissensportale, Informatik-Spektrum, Springer Berlin Heidelberg, vol. 28, no.
3, pp. 193-201, 2005
9. Hochstetter 2010, Bachelorarbeit TH Deggendorf
10. Schich 2012, Bachelorarbeit TH Deggendorf
11. English, et al.: SharePoint, 2007, S. 44-45.
Links
http://www.wissenskapital.de/ : Wissenskapital
http://www.wissensmanagement.net/ : Wissensmanagement online
Kontrollfragen
1. Entwickeln sie eine Architektur für ein integriertes Wissensmanagement-System.
2. a.) Was sind wesentliche Eigenschaften von Wissensportalen?
b.) Nennen sie 5 typische wissensbasierte Funktionen von Wissensportalen
3. Entwickeln sie ein Haus des Wissens für ein Unternehmen ihrer Wahl (Funktionen, Bestandteile
und verwendete IT-Werkzeuge)!
4. Beschreiben sie ein Fallbeispiel eines integrierten Wissensmanagement-Systems am Beispiel
von Accenture oder IBM
5. Beschreiben sie mit welchen Software-Werkzeugen man das WM fürs Personal einer
Hochschule einsetzen könnte.
6. Im Wissensmanagement der TH Deggendorf für das Personal ergab es aus der Bedarfsanalyse
u.a. folgende vier Themenstellungen:
1: Einstieg neuer Mitarbeiter bzw. Stellenwechsel
2: Transparenz und Informationsfluss
3: Persönliches Wissensmanagement
4: Weiterbildung und Kompetenzentwicklung
Mit welcher softwaretechnischen Maßnahme könnten sie den jeweiligen Bedarf
befriedigen (jeweils begründen warum)?
7. Beschreiben sie das Wissensmanagementsystem der TH-Deggendorf „Von Studierenden für
Studierende“ (Softwaretechnische Realisierung und Funktionalitäten)
8. Schildern sie ein Wissensmanagementsystem, mit dem man z.B. für eine Hochschule ein WM
aufbauen könnte.
155
8. Risikomanagement im Wissensmanagement
Wissensrisiken umfassen jene Risiken, die im Zusammenhang mit der Ressource Wissen in
Unternehmen auftreten. Früher war vor allem der Wissensverlust, meist bedingt durch
Personalfluktuation, im Vordergrund, aber mittlerweile soll die Organisation ganzheitlich betrachtet
werden. Es existieren vielfältige Definitionen von Wissensrisiken, die sich auf folgende Aussage
verdichten lassen:
„Wissensrisiken treten im Umgang mit Wissen auf und können zu ungewolltem Verlust bzw.
qualitativer und/oder quantitativer Reduktion des Wissens (personell und organisatorisch) führen.“
(Oberschmid, 2009). Beispiele sind Störungen in der Kommunikation, fehlende Transparenz im
Unternehmen oder Technologieänderungen.
Kategorien von Wissensrisiken sind, wie in Abb. 8/1 ersichtlich, personelle Wissensrisiken, die sich auf
das Humankapital beziehen und sachlich-technische, organisatorische sowie marktbezogene
Wissensrisiken, die dem Strukturkapital zuzuordnen sind.
8.1.1 Risikoidentifikation
Günstige Tatgelegenheitssituation durch
• unzureichendes Rechtsbewußtsein (z.B. Hacking als Sport)
• undefinierte Systemzustände (Asynchronous Attack)
156
• zu einfache Passwörter
• Vorhandensein geeigneter Zielobjekte
• Anonymität der Opfer
• Zugänglichkeit der Zielobjekte
• niedriges Aufdeckungs- und Sanktionsrisiko
• hohen Tatertrag
Potentielle Gefahren
Einbruch
Einbruch Diebstahl
Diebstahl Terrorismus
Terrorismus
Allgemeine
Allgemeine Kriminalität
Kriminalität
Brand
Brand
Techn.
Techn. Störungen
Störungen Höhere
Höhere
Betrieb
Betrieb Wasser
Wasser
Gewalt
Gewalt
Nachlässigkeit
Nachlässigkeit
Sturm
Sturm
Computerkriminalität
Computerkriminalität
Unbefugte
Unbefugte Beeinträchtigung
Beeinträchtigung Unbefugte
Unbefugte Modifikation
Modifikation Unbefugter
Unbefugter
der
der Funktionalität
Funktionalität von
von Informationen
Informationen Informationsgewinn
Informationsgewinn
Fälschung
Fälschung
Daten-
Daten- Computer-/
Computer-/ Programm-/
Programm-/
Computer-
Computer- Computer-
Computer- beweis-
beweis-
verände-
verände- Daten-
Daten- Chip-
Chip-
sabotage
sabotage betrug
betrug erheblicher
erheblicher
rungen
rungen spionage
spionage piraterie
piraterie
Daten
Daten
157
Mögliche Täter
mögliche Täter
nicht zum
Zugangs- Zugang
berechtigte Berechtigte
Hacker
eigene fremde
Mitarbeiter Mitarbeiter
grafik6
Anwender Wartung
EDV-Personal Reinigung
Hersteller
Abb. 8/3: Mögliche Täter
8.1.2.1 Firewalls
Einfach ausgedrückt, bietet eine Firewall (Brandmauer) nur einen kleinen Durchlaß, den Sie
kontrollieren können und durch den alle ein- und ausgehenden Informationen hindurch müssen. Eine
Firewall verhindert Einbrüche über das Internet, und eine gute Firewall trägt auch dazu bei, dass keine
vertraulichen Daten nach draußen gelangen.
öffentlich privat
Internet
Firewall
WWW-/FTP-
Server
Abb. 8/4: Firewall
Man kann die Firewall so konfigurieren, dass nur Email-Nachrichten ein- und ausgehen können, so dass
alle nicht Email-bezogenen Attacken abgewehrt werden. Genauso kann man alle anderen Dienste, die
Internet anbietet, unter bestimmten festgelegten Konditionen zulassen. Man kann auch die Prüftools der
Firewall zur Kontrolle der Leitungen verwenden, um Einbruchsversuche von Hackern zu erkennen. Man
kann die Firewall sogar so errichten, dass keine Informationen vom Internet in das eigene
Computersystem gelangen, die eigenen Angestellten das Netz jedoch ohne sonstige Beschränkungen
verwenden können.
158
Idealer weise sollte sich der Rechner außerhalb der Firewall befinden, der die öffentlich zugänglich und
deshalb knackbaren, wie zum Beispiel Web und FTP-Dienste, Netzwerkdienste bereitstellt. Nur
autorisierte Benutzer und berechtigte Internetdienste dürfen die Firewall passieren, wobei sie
automatisch genauestens kontrolliert werden. Die Computer des Unternehmens befinden sich hingegen
vollkommen geschützt innerhalb der Barriere.
Firewalls verteidigen zwar ihr Unternehmen, doch muss man dafür den Preis des eingeschränkten
Zugriffs auf manche Internetdienste beziehungsweise des umständlicheren Gebrauchs von Internet
bezahlen.
8.1.2.2 Autorisierung
Es wurden Barrieren errichtet, durch die nur berechtigte Personen passieren dürfen. Zum Überwinden
dieser Barrieren muss dem System ein Berechtigungsschein vorgelegt werden. Alternativ kann dies auch
implizit durch Zugehörigkeit zu einer berechtigten Gruppe erfolgen. Sicherheitshalber wird zumeist der
Berechtigungsnachweis vom System selbst verwaltet, so dass die Gefahr, durch Fälschung eine
Berechtigung zu erschleichen, von vornherein vermieden werden kann.
Im Bereich von Betriebssystemen sind Fragen der Autorisierung weitgehend geklärt.
Schwieriger ist eine Autorisierung verwaltbar, wenn die rechtevergebende Instanz von der Ressource
getrennt wird. Dann nämlich muss der Benutzer durch Vorlage eines Zertifikates nachweisen, dass er
zur Durchführung einer Handlung berechtigt ist. Als Beispiel sei hier auf die Vorlage einer Vollmacht
verwiesen, wenn eine Person durch eine Vertragspartei autorisiert wird, im Namen der Partei zu
unterschreiben.
Beispiel: Mit Outlook einen Vertreter einrichten.
8.1.2.3 Verschlüsselung
Hier wird angenommen, dass zwischen zwei oder mehreren Parteien Daten auszutauschen sind, die zwar
vom Empfänger, nicht jedoch von potentiellen Angreifern eingesehen werden können. Folglich ist das
Dokument in eine Form zu überführen, aus der ein Angreifer ohne Wissen oder Besitz eines speziellen
Schlüssels das Originaldokument nicht wieder rekonstruieren kann. Dieser Schlüssel kann entweder der
gleiche sein, der zum Verschlüsseln des Dokumentes verwendet wurde (symmetrische Verfahren), oder
ein anderer, der zusammen mit jenem zur Verschlüsselung erzeugt wurde (asymmetrische Verfahren).
Im zweiten Fall ist die Verwendung der beiden Schlüssel hinsichtlich der Ver- oder Entschlüsselung
nicht vorgeschrieben. Wurde jedoch der eine einmal zur Verschlüsselung eingesetzt, kann die
Entschlüsselung nur mit dem anderen erfolgen.
Beim symmetrischen Verfahren kann jeder, der sich den einen Schlüssel kopiert, das Dokument lesen.
Somit ist hierbei besonders darauf zu achten, dass dieser Schlüssel auf einem sicheren Weg an den
Kommunikationspartner transportiert werden kann – man spricht hierbei von einem sicheren Kanal, der
konkret den persönlichen Transport und die Ablieferung per Diskette bedeuten kann. Die einzige
Alternative besteht im verschlüsselten Transfer durch einen zweiten, bereits vorher verteilten Schlüssel.
Das Problem der Verteilung ist damit jedoch nur verlagert. Symmetrische Verfahren werden daher auch
„ Private – Key – Verfahren“ genannt, da der Schlüssel niemals in unberechtigte Hände gelangen darf.
Aus diesem Grunde hat sich im Internet auch das asymmetrische Verfahren durchgesetzt, bei dem
vom generierten Schlüsselpaar einer ausgewählt und fortan als öffentlicher und der andere als privater
bezeichnet wird. Der private wird – ähnlich dem symmetrischen Verfahren – ebenfalls nicht
herausgegeben, auch nicht an andere Kommunikationspartner! Andererseits sollte hingegen der zweite
Schlüssel allen anderen bewusst zugänglich gemacht, also veröffentlicht, werden. Tauschen nun zwei
Kommunikationspartner verschlüsselte Nachrichten aus, so verwenden sie jeweils den öffentlichen
Schlüssel des Empfängers zur Verschlüsselung. Dieser kann beispielsweise seiner Homepage oder
seinen E – Mails entnommen werden. Sendet der Empfänger nun das Dokument zurück, verwendet er
den öffentlichen Schlüssel des ursprünglichen Senders. Da in beiden Fällen nur der Empfänger über den
korrespondierenden privaten Schlüssel verfügt, kann niemand anderes das Dokument entschlüsseln.
Natürlich wird hierbei angenommen, dass der private Schlüssel niemals in andere Hände als in die des
Eigentümers gelangt.
Es ist wichtig, die Aufgabe, ein Dokument als Sequenz von Bytes zu verschlüsseln, von der
Kanalverschlüsselung zu unterscheiden. Im ersten Fall kann das Dokument (z.B. die
Kreditkartennummer) in verschlüsselter Form auch auf der Festplatte des Empfängers abgelegt werden,
159
während im zweiten nur bei der Übertragung im Netz Sicherheit gegenüber Angreifern gewährleistet
wird. Verfahren wie z.B. SSL (Secure Sockets Layer) dienen ein Ende – zu – Ende – Verschlüsselung.
8.1.2.4 Datenintegrität
Ein Angreifer könnte zwischen anderen Teilnehmern übertragende Daten ändern wollen – z.B. Preise,
Termine, Namen oder Kontonummern. Daher ist ein Verfahren erforderlich, welches den
Kommunikationspartnern die Möglichkeit gibt festzustellen, ob ihre Daten unversehrt beim Empfänger
eingetroffen sind. Zu diesem Zweck werden Hash-Algorithmen eingesetzt:
Hash-Algorithmen
Hash-Funktionen dienen dazu, zu einer beliebig großen Datenmenge (ausgedrückt durch einen String
von Bytes) einen sog. Hash-Wert zu ermitteln, der folgende Eigenschaften erfüllt:
▪ Er ist in seiner Länge auf eine vorgegebene Anzahl Bytes festgelegt (üblicherweise weniger als 200
Bit). Da diese Länge meist sehr viel kürzer ist als die Originaldaten, können mehrere
unterschiedliche von ihnen zum gleichen Hash-Wert führen – dies nennt man eine Kollision.
▪ Man kann nicht vom Hash-Wert wieder auf die Originaldaten schließen (daher auch die
Bezeichnung „Einweg-Hash-Funktion“).
▪ Jede auch noch so minimale Änderung des Original-Strings führt zu einem unterschiedlichen Hash-
Wert.
Hash-Werte werden meist auch „Message Digest“ genannt – im Deutschen auch „Fingerabdruck“ einer
Nachricht. Produkte wie PGP oder andere Kryptobibliotheken verfügen über unterschiedliche Hash-
Funktionen, von denen MD5 und SHA die gängigsten sind.
MD5 produziert 128 Bit lange Hash-Werte. SHA bedeutet Secure Hash Algorithm.
Hash-Werte haben eine Länge von 160 Bit, was das Risiko einer Kollisionsattacke reduzieren hilft.
Zur Verifikation der Integrität eines Dokuments ist es erforderlich, den Hash-Wert auf einem sicheren
Kanal zum Empfänger zu transportieren. Dies erfolgt üblicherweise unter Zuhilfenahme der oben
genannten Verschlüsselungsverfahren, so dass ein Angreifer seinen modifizierten Hash-Wert nicht mit
dem vom Empfänger erwarteten Schlüssel chiffrieren kann. Zu diesem Zweck könnte jedes beliebige,
genannte Verfahren eingesetzt werden. Eine Besonderheit ist jedoch bei asymmetrischen gegeben: Die
Verschlüsselung des Hash-Wertes kann als „Unterschrift“ des Senders verwendet werden, wenn dieser
dazu seinen privaten Schlüssel benutzt. Damit sind wir beim Thema der „elektronischen Unterschrift“
angekommen.
8.1.2.5 Authentisierung
Allgemein bedeutet „Authentisierung“ nachzuweisen, dass eine Nachricht von dem Sender kommt, von
dem sie zu sein gibt. Dazu werden biometrische Verfahren eingesetzt. Diese Verfahren beruhen auf der
Erkennung natürlicher menschlicher Identifikationsmerkmale wie z.B. einem Fingerabdruck oder einem
Bild der Netzhaut. Auch die Analyse des Bewegungsablaufes eines Stiftes beim Leisten der Unterschrift,
z.B. auf einem Eingabetableau, zählt zu den biometrischen Verfahren.
Solange diese Verfahren jedoch noch nicht allgemein Verwendung gefunden haben, muss auf andere
Techniken zurückgegriffen werden. Am bekanntesten waren bisher Magnet- oder Chipkarten zum
Nachweis der Authentizität. Auf diesen befindet sich – im primitivsten Fall – ein Code, über den man
nur durch Besitz der Karte verfügen kann. Andere Karten, wie z.B. die Kundenkarten der Banken,
erfordern zusätzlich die Eingabe eines PIN-Codes, der in Verbindung mit der Karte den Kunden
identifiziert. Auch hierbei handelt es sich immer noch um Magnetkarten, die durch einfach
herzustellende Geräte ausgelesen oder manipuliert werden können. Nur die Smart Cards sind in der
Lage, aufgrund ihres eigenen Prozessors und einer sicheren Betriebssystemarchitektur solchen
Angriffen zu widerstehen.
Insgesamt kann also die Authentizität eines Teilnehmers durch verschiedene Merkmalsbereiche
nachgewiesen werden:
▪ Durch den Besitz eines Gegenstandes (engl. Token), der die erforderliche Information enthält (dies
entspricht etwa einem „individuellen Türschlüssel“) (Schlüssel, Karte, Ausweis).
160
▪ Durch Wissen, über das nur die betreffende Person verfügen kann (ein Paßwort oder PIN-Code).
▪ Durch Eigenschaften, die die Person besitzt (biometrische Merkmale) (Fingerabdruck, Stimme,
Netzhaut, Tippverhalten (psylog))
Zur verläßlichen Autorisierung ist der Einsatz von mindestens zwei dieser Methoden notwendig. Die
gebräuchlichsten Verfahren zur Benutzeridentifikation sind heute:
wiederverwendbare Paßwörter
Rückrufsysteme
Frage-Antwort-Systeme
Security-Card
Überraschend gute Ergebnisse erzielt das Messen des Tippverhaltens. Die Regensburger Firma TM3
bietet dazu die Software Keytrac (www.keytrac.de ) an. Gemessen werden etwa die Haltedauer (also
wie lang eine Taste gedrückt wird) und die Übergangsdauer vom Drücken einer Taste bis zum Drücken
der nächsten. Diese insgesamt 10-20 Merkmale sind bei jedem Menschen anders. Es ist keine spezielle
Hardware nötig.
Da der private Schlüssel des Senders mit dem öffentlichen korrespondiert, kann jeder, der über
letzteren verfügt, verifizieren, von wem das Dokument stammt. Technisch erfolgt dies durch
Entschlüsseln des Hash-Wertes mit dem öffentlichen Schlüssel und durch erneutes Anwenden der
161
Hash-Funktion. Sind beide auf diese Weise ermittelten Hash-Werte identisch, ist nachgewiesen, dass
das Dokument so wie ursprünglich beim Sender vorliegt.
• Die digitale Signatur ist eine typische Bit-Folge, die ein Dokument ergänzt und rechtskräftig macht.
• Es gibt diverse Zertifizierer wie Telekom-Tochter Telesec („Dienstleister des Vertrauens“).
• Bonner Regulierungsbehörde für Post und Telekommunikation (www.bundesnetzagentur.de).
kontrolliert und beglaubigt die privaten und öffentlichen Zertifizierungsstellen. Diese werden
dadurch zu vertrauenswürdigen Instanzen für Anbieter und Anwender.
• Im System von Kontrollen und Gegenkontrollen beglaubigen die Zertifizierungsstellen die Identität
der Geschäftspartner im Netz.
• Damit ein Anwender einmal seine Identität feststellen lassen kann, geht er zu einer
Registrierungsstelle (Läden der Telekommunikationsanbieter, Postfilialen,
Einwohnermeldeämter), die seine Daten (Geburtsdatum, Name, Wohnung) an den
übergeordneten Zertifizierer weiterleitet.
• Die Zertifizierungsstelle errechnet (mit RSA- und EI-Gama1-Algorithmen) einen öffentlichen
und einen privaten Schlüssel für den Kunden. Dieses Schlüsselpaar gehört untrennbar
zusammen, wird aber getrennt eingesetzt.
• Der private Schlüssel bleibt geheim, wird auf der Chipkarte gespeichert und ist nicht auslesbar.
Er signiert die zu versendenden Dokumente.
• Der Empfänger überprüft mit dem beglaubigten öffentlichen Schlüssel (dieser wird entweder
mitübertragen oder aus der Datenbank der Zertifizierungsstelle abgerufen) das empfangene
Dokument.
• Die digitale Signatur ist rechtsverbindlich und schafft so Vertrauen zwischen Geschäftspartnern im
Netz
• Der Benutzer kann an jedem Computer, der mit einem entsprechenden Chipkartenleser und der
benötigten Software ausgestattet ist, digital signieren.
• Bisher größte Sicherheitslücke ist der Verlust der Chipkarte. Dann muss man seine digitale Signatur
sperren. Um dieses Sperren zu überprüfen, müssen die Zertifizierungsstellen Verzeichnisdienste
nach der Norm X.509v3 führen.
Die Internet-Lösung besteht daher im Einsatz einer vertrauenswürdigen dritten Partei (engl. Trusted
Third Party, TTP). Im Internet hat sich bei der Verwaltung von Zertifikaten für öffentliche Schlüssel
der Begriff der Zertifizierungsautorität durchgesetzt (engl. Certificate Authority, CA). Diese genießt
so hohes Vertrauen, dass ihre Aussagen von allen Nutzern als gültig angenommen werden können.
Eine Aussage der CA kann damit also sein: „Dieser öffentliche Schlüssel gehört Michael Merz“. Wird
diese Aussage noch von der CA unterschrieben, liegen bereits die
wesentliche Merkmale eines elektronischen Zertifikats vor.
Die Aufgaben der CA bestehen dabei in der Verwaltung von Zertifikaten. Dazu zählen folgende
Funktionen:
▪ Einrichtung von Prozeduren zur Registrierung einer Person und ihres öffentlichen Schlüssels
▪ Schaffung eines Online-Dienstes zur automatischen Verifikation von Schlüsseln anhand von
Zertifikaten
▪ Verwaltung von Schwarzen Listen für ungültige Zertifikate
162
Bildkopien mit dem DigiMarc´s-Wasserzeichen. Wird dann ein Missetäter aufgetan, läßt Playboy ihn
durch seine Rechtsanwälte abmahnen.
8.1.2.8 Spam-Mailfilter
Spam ist das ungefragte Zusenden von E-Mails mit typischerweise kommerziellem Hintergrund. Die
beworbenen Adressen sind aus Usnet Beiträgen oder Websites ohne Zustimmung der Betroffenen
entnommen.
85 % aller weltweit versendeten E-Mails sind Spam.
Heise schätzt, dass die Verbraucher 2006 mit 206 Mrd. Junk Mails zugeschüttet wurden, was pro Kopf
1400 Junk Mails bedeutet (gegenüber 700 in Jahre 2002). Diskussionsgruppen zum Thema Netz-
Mißbrauch wären de.admin.net-abuse. mail oder de.admin.net-abuse. news.
Beispiel Monitoringsystem für Internet ist senderbase.org (dann thread overview)
8.1.2.9 Phishing-Schutz
Password, Harvesting, Fishing
Phishing ist eine Form des Trickbetruges im Internet. Der Phisher schickt seinem Opfer ein offiziell
wirkendes Schreiben, meist E-Mails, die dazu verleiten sollen, vertrauliche Informationen, vor allem
163
Benutzernamen und Passwörter oder PIN und TAN von Online-Banking-Zugängen, im guten Glauben
dem Täter preiszugeben.
Funktionsweise
• Email von einer Bank oder einem Internetdienst (z.B. eBay, PayPal)
• Link zu einer Web-Seite oder ein html-Formular direkt in die Email eingebunden
• Alle eingegebenen Informationen werden direkt an den Phisher gesendet
Der tatsächliche Link lautet anders als der sichtbare Link
Schutz
Niemals einen Link aus Email heraus öffnen – immer direkt auf die Homepage der Firma / Einrichtung
gehen.
Allgemein alle Emails von Banken, Unternehmen usw. sorgfältig überprüfen.
Eine Möglichkeit zur Verminderung dieser Risiken ist das wissensorientierte Fluktuationsmanagement.
Es ermöglicht, personelle Wissensrisiken sichtbar und auftretende Folgen kalkulierbar zu machen, um
unerwünschte Wissensverluste mittels geeigneter Maßnahmen frühzeitig zu verhindern oder
einzudämmen.
Vor der Messung erfolgt jedoch die Identifikation der Wissensrisiken auf individueller Ebene, Gruppen-
, Gesamtunternehmens- und interorganisationaler Ebene. Anschließend können Maßnahmen zur
Risikovermeidung oder –streuung ergriffen werden.
Beispiel der organisatorischen Wissensrisiken auf Gruppenebene
165
• In Bezug auf Kunden: Kundenloyalität, Kundenbindungsquote, Kundenzufriedenheitsindex,
Kundenrentabilität
• In Bezug auf Zulieferer: Analyse des Unternehmensberatereinsatzes hinsichtlich Häufigkeit des
Engagements, Gegenstand der Beratungsleistung, Lessons learned-Ergebnisse
• In Bezug auf Konkurrenz und Substitute: Kompetenz-Audits über Branchenwissen; Konkurrenz
kann kaum gemessen werden (höchstens Änderungsverfolgung im Produkt, Analyse von
Berichten oder Bilanzen)
1. Kunden
2. Zulieferer
3. Konkurrenz
4. Substitute
167
2. Ist-Analyse: Die Ist-Situation ist im Bereich der Arbeitspakete detailliert auszuloten und zu
erarbeiten. Bereitschaft, Fähigkeit und Verständnis für eine Wissenskultur sind zu ermitteln. Mögliche
IT-Lösungen eingrenzen und Lizenzen erwerben.
3. Soll-Konzeption und -implementierung in Pilotbereich: Ablaufschema nach Probst/Raub/Romhadt.
Bereitstellung von Softwareprodukten für die Digitalisierung des Wissens/der Risiken. Durchführung
Experteninterviews, Befragungen und Workshops mit Kreativitätstechniken, besondere Härtefälle sind
im Einzelfall im Rahmen eines Konfliktgespräches auszuloten. Dokumentation Wissensrisiken und
Darstellung im Steuerungsmedium.
Abschluss-/Evaluierungsphase
Projektabschluss mit Übertragung der Tätigkeiten auf die Stabsabteilung. Neue Erkenntnisse,
Verbesserungen, Kosten-Nutzen-Analyse werden eingearbeitet
Ergebnis
Integration in das ganzheitliche Berichtswesen der Hochschulleitung.
168
Engpassrisiko (fehlende, personelle Ressourcen)
Anpassungsrisiko
Austrittsrisiko
169
Motivationsrisiko
Organisatorische Wissensrisiken
Sachlich-technische Wissensrisiken
170
Marktbezogene Wissensrisiken
Risikosteuerung
171
- Personelle Maßnahmen: z.B. Personalentwicklung, Schulung, Motivierung
- Technische Maßnahmen: z.B. im IT-Bereich
- Organisatorische Maßnahmen: z.B. Geschäftsverteilung und –prozesse
Für das WRM empfiehlt es sich die BSC um eine fünfte Perspektive, die
Risikoperspektive, auf Ebene der Lern- und Entwicklungsperspektive zu ergänzen.
Die aus der Gesamt-BSC beispielhaft entwickelte BSC für die Abteilung II (rund
50 Beschäftigte):
172
8.6 Literatur und Kontrollfragen
1. Eckert, C.: IT-Sicherheit, Oldenbourg, München 2. Aufl. 2003
2. Security Management 2011: Handbuch für Informationsschutz, IT-Sicherheit,
Standortsicherheit, Wirtschaftskriminalität und Managerhaftung. Frankfurt am Main, FAZ-Inst.
für Management-, Markt- und Medieninformationen, 2010
3. Annino, Umberto, Romagna, André: IT Security Management - Grundlagen für die betriebliche
IT-Sicherheit mit zahlreichen Beispielen, Aufgaben und Lösungen. Zürich, Compendio
Bildungsmedien, 2010
4. Heinrich Lutz, Stelzer Dirk: Informationsmanagement. Grundlagen, Aufgaben,
Methoden. München 2009
5. Knaese, Birgit: Das Management von Know-how-Risiken. Eine Analyse von
Wissensverlusten im Investment Banking einer Großbank. Wiesbaden 2002
6. Florian Bayer, Steuerung von Wissensrisiken. Dissertation, Martin-Luther-Universität Halle-
Wittenberg, 2009
7. Kerstin Steenberg, Personelle Risiken messen mit dem Bellheimer Verfahren: Eine innovative
Methode für Krankenhäuser. Wiesbaden: Springer Gabler, 2015
8. Mathias Küffner: Konzeptionelle Erarbeitung und prototypische Teilrealisierung eines
Wissensrisikomanagements als Element der strategischen Steuerung für die Zentrale
Verwaltung der Universität Bayreuth. Masterarbeit TH Deggendorf 2017.
9. Annino, Umberto, Romagna, André: IT Security Management - Grundlagen für die betriebliche
IT-Sicherheit mit zahlreichen Beispielen, Aufgaben und Lösungen. Zürich, Compendio
Bildungsmedien, 2010
10. Security Management 2011: Handbuch für Informationsschutz, IT-Sicherheit,
Standortsicherheit, Wirtschaftskriminalität und Managerhaftung. Frankfurt am Main, FAZ-Inst.
für Management-, Markt- und Medieninformationen, 2010
Kontrollfragen
1. Was wird bei der Risikoanalyse analysiert? Beschreiben sie sachlich-technische Wissensrisiken!
2. Was sind Wissensrisiken und wie können sie klassifiziert werden (bitte ausführlich beschreiben)?
3. Was ist personelles Fluktuationsmanagement?
4. Welche Maßnahmen können zur Eindämmung der organisatorischen und marktbezogenen
Wissensrisiken ergriffen werden?
5. Skizzieren Sie das Prinzip einer Firewall!
6. Anfang des WS 2003/04 öffnete ein Mitarbeiter des Deggendorfer RZ die Firewall. Die Folge war
ein Schädling der gigantischen Netload innerhalb der FH erzeugte. Was ist eine Firewall? Welche
Vor- und Nachteile hat der Einsatz einer Firewall für ein Unternehmen?
7. Wie kann man die gegen sachlich-technische Wissensrisiken wirkenden
Datensicherungsmaßnahmen gliedern?
8. Wie realisiert man Datenintegrität?
9. Wie funktioniert die digitale Unterschrift?
10. Skizzieren Sie die Möglichkeiten der Benutzeridentifikation!
11. Wie kann man sich gegen Spam-E-Mails schützen?
12. Was ist Pishing und wie schützt man sich davor?
173
9. Wissensmanagement erfolgreich einführen
Die Leitsätze treffen grundlegende Aussagen über Werte, Ziele und Erfolgskriterien des WMs und
beschreiben das Verhalten gegenüber Mitarbeitern und Gesprächspartnern. Sie stellen somit
grundlegende Formulierungen der Kompetenzen des Unternehmens/der Verwaltungen dar.
Leitsätze sollten allgemein gehalten, klar formuliert, langfristig formuliert, wesentlich für das WM und
umsetzbar und realisierbar sein. Sie sollten das WM vollständig abbilden oder erfassen.
Bei der Erstellung der Leitsätze können sie sich folgende Fragen stellen:
Kompetenz: Was können wir besonders gut? Was tun wir?... Leitsätze
Wissen: Was bedeutet für uns Wissen und wie gehen wir damit um?... Leitsätze
Kommunikation: Wie kommunizieren wir miteinander?... Leitsätze
Qualität: Was verstehen wir unter Qualität?... Leitsätze
Führung: Was verstehen wir unter Führung?... Leitsätze
Mitarbeiter: Wie gehen wir miteinander um?... Leitsätze
Bürger/Kunde: Wie sehen wir Bürger/Kunden?
Wie verhalten wir uns gegenüber unseren Bürgern/Kunden?... Leitsätze
Gesundheit: Was heißt für uns Gesundheit?... Leitsätze
Wirtschaftlichkeit: Wie effizient möchten wir WM betreiben?... Leitsätze
Geschäftspartner: Wie sehen wir unsere Geschäftspartner? Wie verhalten wir uns gegenüber
unseren Geschäftspartnern?... Leitsätze
Umwelt/Natur: Wie nutzen wir die Ressourcen nachhaltig?... Leitsätze
Innovation: Wie innovativ wollen wir beim WM sein… Leitsätze
Die Akzeptanz des WMs ist umso größer, je mehr sich das übergeordnete Leitbild der Verwaltung/des
Unternehmens, das Wissensleitbild, im Gleichgewicht mit den Leitbildern der Abteilungen und des
einzelnen Mitarbeiters befindet.
Ergebnis ist eine Liste mit klar definierten und abgegrenzten Optionen zur möglichen Entwicklung der
bestehenden Geschäftsfelder bzw. des bestehenden Geschäftsmodells.
Diese Optionen können nun im nächsten Schritt bewertet werden. Dabei wird nach den Chancen und
Risiken der jeweiligen Option gefragt und im Strategieteam auf Basis der vorliegenden Daten und
bisher gesammelten Informationen diskutiert.
Entscheidend sind die relativen Abstände des Chancen- und Risiko-Ausmaßes der einzelnen Optionen
zueinander. Im StratOp-Portfolio werden Minimal- und Maximalwerte als optimistische und
176
pessimistische Einschätzung der Chancen und Risiken einer strategischen Option abgetragen und
ergeben eine Fläche, die das Ausmaß der Unsicherheit darstellt.
Man kann die definierten strategischen Optionen entweder im Vorfeld durch die Mitglieder des
Strategieteams mittels Fragebogen bewerten lassen oder die Chancen und Risiken direkt im Workshop
per Kartenabfrage bewerten und diskutieren.
Nun stellt sich die Frage, welches Humankapital, Strukturkapital und Beziehungskapital benötigen
wir, um die oben definierten strategischen Ziele zu erreichen? Dies führt zu Definition von
Wissenszielen.
Bei der Orientierung von Wissenszielen kann der Fokus zum Beispiel auf die Wertschöpfungskette
gelegt werden. Wissensziele werden dann für die jeweiligen Wertschöpfungsstufen formuliert. Hängt
ein Unternehmen stark von externen Partnern ab (z. B. von Zulieferen und Service-Leistern), sollte der
177
Blickwinkel auf die gesamte Lieferkette erweitert werden. Wissensziele werden dann nicht nur für den
eigenen Wertschöpfungsprozess entwickelt, sondern auch für die Schlüsselpartner, da deren
Leistungsentwicklung den eigenen Erfolg mit determiniert.
Daraus ergeben sich die vier Dimensionen der Zielformulierung: Inhalt, Ausmaß Richtung und
Zeitpunkt.
▪ Der Inhalt legt fest, welcher Zustand angestrebt wird.
▪ Das Ausmaß bestimmt, wie viel erreicht werden soll.
▪ Die Richtung gibt an, ob etwas aufgebaut, gehalten oder reduziert wird.
▪ Der Zeitpunkt gibt darüber Auskunft, wann etwas erreicht werden soll.
178
Abb. 9/4: Kreislauf Unternehmensziel, Wissensziel, Maßnahme
Abb. 9/5: Beispiel der Ableitung von Wissensmaßnahmen aus den Unternehmenszielen
Maßnahmen priorisieren:
Falls sehr viele Maßnahmenideen diskutiert werden, ist evtl. eine erste Priorisierung sinnvoll. Dazu kann
eine einfache Frage vorgeschaltet werden: Gibt es ausreichend Budget, Zeit und Ressourcen für die
Umsetzung aller Maßnahmen?
Falls die Frage mit nein beantwortet wird, muss priorisiert werden. Hierzu bieten sich unterschiedliche
Verfahren an, wobei typische Kriterien für die Priorisierung von Maßnahmen die Diskussion und den
179
Entscheidungsprozess unterstützen können: z.B. Nützlichkeit, Dringlichkeit, Wichtigkeit,
Erwünschtheit, Risiko, Machbarkeit (Kosten, Zeit). Die Anwendung der Kriterien führt häufig zum
direkten Ausschluss einzelner Maßnahmen, z.B. weil sie unerwünscht sind, ein zu großes Risiko besteht
oder die Machbarkeit nicht gegeben ist. Folgende Verfahren zur Priorisierung bieten sich an:
• Die Geschäftsführung entscheidet. Dies ist insbesondere in kleinen Unternehmen und in
Familienbetrieben ein häufiges und übliches Verfahren, das jedoch auch in Konzernen nicht
selten anzutreffen ist. Letztlich finden dabei die oben erwähnten Kriterien implizit oder
explizit Anwendung.
• Das MS-Team bespricht die Maßnahmen und entscheidet gemeinsam. Dabei werden die Vor-
und Nachteile der einzelnen Maßnahmen kurz diskutiert und die Gründe schriftlich
festgehalten. Die Entscheidung kann, je nach Größe der Gruppe bzw. Komplexität der
Entscheidungsgründe mit einfachen Verfahren wie »Punkte kleben« unterstützt werden.
• Wenn die Entscheidungssituation aufgrund vielfältiger Gründe und Kriterien kompliziert ist,
kann eine Priorisierung mittels einer Nutzwertanalyse sinnvoll sein.
180
Wer Wissensmanagement in seinem Unternehmen einführen will, muss die aktuell gelebte
Unternehmenskultur beachten und sich über deren Einfluss auf die Prozesse des Wissensmanagements
bewusst sein. Daher ist es wichtig, den Status quo der Unternehmenskultur einer Analyse zu unterziehen.
Nur so lässt sich ermitteln, ob das Unternehmen - beziehungsweise der betreffende
Unternehmensbereich - die notwendigen Voraussetzungen für die Einführung von Wissensmanagement
erfüllt. Tut es das nicht oder nur zum Teil, so ist dringend anzuraten, vor oder spätestens mit der
Einführung von Wissensmanagement auch kulturverändernde Maßnahmen anzustoßen.
Das hier grob skizzierte Wissensmanagement-Kulturaudit bietet für diese Analyse eine Hilfestellung.
Mit Hilfe eines solchen Audits soll festgestellt werden, wie stark die fünf relevanten Kulturaspekte
(Offenheit, Lernbereitschaft, Umgang mit Macht, Vertrauen und Eigenverantwortung, siehe Kap. 1.5.2)
ausgeprägt sind. Die Zustandsanalyse kann auf zwei einander ergänzenden Wegen erfolgen. Zum einen
lassen sich über eine direkte Analyse der einzelnen Aspekte unmittelbare Eindrücke über die kulturelle
Situation gewinnen. Zum anderen erfolgt eine Sammlung und Analyse von Aktionsmustern. Bei dieser
indirekten Analyse wird aus den Aktionsmustern auf die - nicht direkt beobachtbaren - Ausprägungen
der für das Wissensmanagement relevanten Kulturaspekte geschlossen. Die Untersuchung von Ritualen
und auch spontanem Erfolgshandeln liefert durch ihre immanente Symbolik sehr deutliche Hinweise auf
diejenigen Teilbereiche der Unternehmenskultur, die für das betriebliche Alltagsleben insgesamt und
damit auch für den Umgang mit Wissen von großer Bedeutung sind.
Abb. 9/7: Beispiel für einen Fragebogen beim Kulturaudit [Armutat 2002]
Im Rahmen einer direkten Analyse der für das Wissensmanagement relevanten Kulturaspekte können
sehr unterschiedliche Fragen eingesetzt werden. Eine Möglichkeit besteht darin, die fünf Aspekte direkt
bei Mitgliedern des Unternehmens zu erfragen. Hier kann man etwa auf Werkzeuge der
Personaleinschätzung zurückgreifen. So gibt es etwa im Bereich von Mitarbeiter-
181
Beurteilungsgesprächen die Aufforderung an Vorgesetzte und Mitarbeiter, sich selbst und andere
hinsichtlich Offenheit, Lernbereitschaft, Eigenverantwortung usw. einzuschätzen.
Alternativ kann man lediglich Mitglieder von überschaubaren Unternehmenseinheiten (z.B.
Abteilungen) bezüglich ihrer Einschätzung zur Kultur ihres Bereiches befragen. Fragebögen, die eine
Skalierung beinhalten und Raum für individuelle Kommentare bieten, sind sinnvoll. Fragt man
gleichzeitig nach dem IST, dem SOLL und nach Handlungsmöglichkeiten im eigenen Einflussbereich,
entstehen häufig unmittelbar Diskussionen über Verbesserungsmöglichkeiten.
182
Abb. 9/9: Rollenset im WM [Armutat 2002]
Bei den übrigen Rollen hängt es unter anderem davon ab, wie das Wissensmanagement-System
konkret ausgestaltet ist: In welcher Branche ist das Unternehmen aktiv (Industrie vs. Dienstleistung),
hat es mehrere GeschäftsfeIder, ist das Wissensmanagement-System zentralisiert oder dezentralisiert
strukturiert?
▪ Sehr hilfreich für ein gut funktionierendes Wissensmanagement ist der Einsatz von
Contentmanagern. Damit sind Personen gemeint, die sich für spezielle (Fach)-Themen im
Rahmen des Wissensmanagements besonders interessieren und engagieren. Sie greifen diese
Themen und Ideen auf und versuchen sie voranzubringen. Im Kontext des
Wissensmanagements heißt das in der Regel, dass sie die Ersten sind, die eine Community zu
183
einem Thema gründen und diese auch inhaltlich intensiv begleiten, zum Beispiel durch neue
Beiträge und Moderation.
▪ Der Community-Moderator koordiniert und organisiert sämtliche administrativen Tätigkeiten
in einer Comrnunity.
▪ IT-Manager kümmern sich um den Aufbau und den Betrieb der informationstechnischen Seite
des Wissensmanagements.
▪ Wissensbrokers Aufgabe ist es. Das Wissen - sei es extern beschafft oder intern erarbeitet - auf
die einzelnen Teile des Wissensmanagement-Systems zu verteilen. Nicht jede Marktstudie, die
im Rahmen des Wissensmanagements im Produktmanagement von Bedeutung ist, ist auch im
Produktionsbereich von Nutzen. Dem Wissensbroker obliegt es, eine Bewertung neuen
Wissens im Hinblick auf die Nützlichkeit für den Empfänger vorzunehmen.
▪ Es gibt einige Experten auf einem bestimmten Wissensgebiet. Diese erfahrenen Professionals,
die innerhalb des Unternehmens führend in ihrem Wissensgebiet sind, gilt es in die
Community einzubinden.
▪ Anwender eines Wissensmanagement-Systems, auch Wissensarbeiter oder User genannt.
Gemeint sind hiermit nicht Personen, die ausschließlich mit Wissen arbeiten, sondern die ein
Wissensmanagement-System für die Zwecke der Wissensabgabe oder -beschaffung nutzen.
Machen Sie sich bewusst, dass Wissensmanagement nur gut funktionieren kann, wenn es mit
der Unterstützung der Wissensarbeiter eingeführt wird. Sie sind die Wissensträger, deren
„Schätze“ ans Licht gebracht werden sollen. Da niemand gezwungen werden kann, sein
Wissen preiszugeben, müssen Sie auf Freiwilligkeit, eventuell gestützt durch die richtigen
Anreize setzen.
Wie konkret die einzelnen Schritte geplant werden, hängt im Wesentlichen von der
Projektmanagementkultur des jeweiligen Unternehmens ab. Es ist allerdings in jedem Fall sinnvoll,
den Aktionsplan schriftlich zu dokumentieren. Dazu bieten sich sowohl gängige Softwaresysteme für
das Projektmanagement an, als auch einfache, in Handarbeit erstellte Visualisierungen.
184
Abb. 9/10: Projektplan Beispiel Deggendorf
Phase 2: Experimentieren
Die "Gleichgesinnten" bilden ein Netzwerk von Promotern und Interessierten. Um weitere
einflussreiche Führungskräfte und Mitarbeiter zu überzeugen, können zum Beispiel Erfolgsstories
sowie Lernen aus eigener Erfahrung und Beobachtung zum Einsatz kommen. Dies lässt sich besonders
gut durch Pilotvorhaben fördern. Dazu wird im Unternehmen ein relativ autarker Bereich ausgewählt,
in dem Wissensmanagement für eine festgelegte Zeit umgesetzt werden soll. Hier werden
verschiedene Strategien und Vorgehensweisen ausprobiert. Aktivitäten in der Experimentierphase sind
somit
▪ das Kommunizieren von Erfolgsstories
▪ die Auswahl von Pilotbereichen und -vorhaben,
▪ die Entwicklung einer Strategie für die Pilotbereiche und -vorhaben,
▪ die Bereitstellung von Ressourcen sowie
185
▪ die Installierung einer Task Force für die Pilotbereiche und -vorhaben.
Phase 4: Ausweiten
Ein Unternehmen steht an der Schwelle zu Phase vier, wenn andere Unternehmensbereiche Interesse
an Wissensmanagement signalisieren und sich zunehmend ein Bewusstsein für Wissensmanagement
im gesamten Unternehmen entwickelt. Die Phase der Ausweitung ist dementsprechend
gekennzeichnet durch
▪ die Entwicklung einer Strategie zur Ausweitung der Wissensmanagement- Aktivitäten,
▪ die Umsetzung der Wissensmanagement-Aktivitäten in anderen Bereichen und Abteilungen,
▪ die Gestaltung einer unternehmensweiten Informations- und Kommunikationspolitik zum
Thema Wissensmanagement sowie
▪ die Installation einer unternehmensweiten Task-Force.
Phase 5: Institutionalisierung
Institutionalisierung bedeutet in diesem Zusammenhang die Entkoppelung von den ursprünglichen
Promotern. Es erfolgt einer Verankerung in der Institution. Eine Institutionalisierung zeigt sich vor
allen Dingen
▪ in der Integration von Wissensmanagement in der Unternehmenspolitik,
▪ in der Berücksichtigung von Wissensmanagement in den Qualifizierungs- und
Motivationskonzepten,
▪ in der kontinuierlichen Evaluierung als Teil des Controllings,
▪ in der organisatorischen Verankerung sowie
▪ in der Pflege einer Wissenskultur als Teil der Unternehmenskultur.
Abb. 9/12 zeigt die Phasen dieses Rahmenmodells für WM an Hochschulen. Die erste Phase der
Initiierung und Analyse umfasst den Anstoß der Thematik, die Sensibilisierung, den Projektstart und die
Analyse der Organisationskultur, Wissensarten, Wissensträger, Geschäftsprozesse sowie
Wissenssituation in der jeweiligen Hochschule. Diese Ergebnisse fließen unmittelbar in die nächste
Phase ein, in der die Voraussetzungen für ein erfolgreiches Wissensmanagementsystem geschaffen
werden. Mittels Aufklärungs- sowie Überzeugungsarbeit und der Kommunikation von Vorteilen werden
die Organisationsmitglieder verstärkt für die Belange von Wissensmanagement sensibilisiert. Die
identifizierten Barrieren und Verbesserungspotentiale hinsichtlich einer wissensorientierten Kultur
werden durch geeignete Interventionen vermindert bzw. unterstützt. Dazu zählen insbesondere Maß-
nahmen zur Steigerung der Motivation, zur Wissensteilung und Nutzung des Systems.
In der Konzeptionsphase werden die Wissensziele und Maßnahmen abgeleitet sowie deren
Bewertungsindikatoren definiert, die in die Wissensbilanz einfließen. Diese wird ebenso entworfen wie
das Wissensmanagementsystem selbst, das bezüglich Software sowie Werkzeugen der Informations-
und Kommunikationstechnologie betrachtet wird. Überdies kann nun ein detaillierter Aktionsplan mit
Meilensteinen für die Implementierung erarbeitet werden.
186
Abb. 9/12: Phasenmodell zur Einführung von Wissensmanagement an Hochschulen [Kreupl
2009, S. 92]
Die Umsetzung findet zunächst im gewählten Pilotbereich statt, bevor die Ausweitung auf die gesamte
Organisation erfolgt. Rechtzeitig zur Implementierung ist die Schulung der zukünftigen Nutzer
notwendig, um Kenntnisse zur Bedienung und den Angeboten des Systems zu vermitteln. In dieser
Phase wird auch die Wissensbilanz realisiert.
Regelmäßiges Feedback zum Wissensmanagement ist für die Anpassung des Systems und zur
Erlangung von Erfahrungswerten zu dessen Ausweitung wichtig. Somit ist dieser Einführungsschritt
parallel zum vorigen durchzuführen. Die Evaluation ist einerseits durch die User möglich (z. B. mit
Befragung im System) und andererseits mittels der Bewegungsbilanz des Wissens, die durch
Veränderungen der Indikatoren Rückschlüsse auf die Wirkung des Wissensmanagements zulässt.
Die Institutionalisierung bildet den Endpunkt zur Einführung von Wissensmanagement an Hochschulen
und beinhaltet die Verankerung in der Organisation. Das bedeutet, dass das System sowie die
Aufstellung der Wissensbilanz in den Arbeitsalltag integriert ist, die Stelle des Wissensmanagers
installiert wurde, Wissen einen hohen Stellenwert besitzt und eine wissensorientierte Hochschulkultur
vorherrscht. Idealerweise ist dadurch die Entwicklung hin zur lernenden Organisation vollzogen.
Folgende Abbildung zeigt das Vorgehensmodell für die Einführung eines WMs für Studierende an einer
Hochschule [Kreupl 2009].
187
Ausweitung des
Wissen gewinnen
Implementierung des
Technische
Wissensbilanz
Pilotbereich
Maßnahmen
Zielsystem
Kulturaudit
Kernprozesse und
188
10. Anwendung: Digitale Weiterbildung zur Steigerung
des Humankapitals
In der Wirtschaft spielt neben dem Finanzkapital immer mehr das Wissenskapital eine wichtige Rolle,
das sich aufteilt in Strukturkapital und Humankapital. Das Humankapital beschreibt sozusagen den Teil
des Wissenskapitals, das in den einzelnen Mitarbeitern steckt – deren Kompetenz, deren Lernfähigkeit,
deren Motivation und Grundeinstellungen. Der Weiterbildungsmarkt boomt mehr denn je. 15,7 Mill.
hatten 2015 in Deutschland besonderes Interesse an der beruflichen Weiterbildung. Der Umsatz der
Weiterbildungsbranche betrug 2015 10,7 Mrd. € und soll bis 2018 auf 11,5 Mrd. € steigen.
189
Ein Podcast ist eine (meist im Abo) downloadbare Audio-Datei aus dem Internet, über die man sehr
schnell Fakten und Kommentare erhalten kann. Sie lassen sich am Arbeitsplatz und unterwegs anhören.
Social Networks, Foren, Communities of Practice (CoP), Chats
Soziale Netzwerke dienen nicht unmittelbar als Lernwerkzeug, helfen aber, die passenden
Ansprechpartner für bestimmte Themen und Probleme zu finden, mit denen man dann persönlich
Kontakt aufnehmen kann. Manche dieser Sites ermöglichen die Gründung von geschlossenen Gruppen,
die dem fachlichen Informationsaustausch dienen (CoP). Um den Austausch unter den Teilnehmern zu
beleben, wird die Kommunikation in der Regel moderiert und durch die Einbeziehung externer
Fachexperten ergänzt. Bei Foren liegt asynchrone Kommunikation (es vergeht Zeit zwischen einem
Forumsbeitrag und der Reaktion darauf) vor, beim Chat synchrone Kommunikation (sofortige
Reaktion).
Virtual Classroom
Sie bieten die Möglichkeit mit mehreren Teilnehmern gleichzeitig zu lernen, so werden
Gruppenarbeitsphasen ins Internet verlagert. Dienste wie Skype oder Net meeting gehören dazu.
Lernvideos
Bewegte Bilder sind oft anschaulicher als lange Texte – sie helfen z.B. bestimmte Handgriffe und
Arbeitsvorgänge leichter nachzuvollziehen. Videos werden oft in andere Lerninhalte wie WBT
eingebettet.
Augmented Reality (AR)
Der Einsatz von AR („angereicherte Wirklichkeit“) ermöglicht die Ergänzung der realen Wahrnehmung
um zusätzlich computergenerierte Informationen, die über eine Brille, eine Beamer Projektion oder ein
mobiles Endgerät eingespielt werden. Somit könnten Handbücher in Zukunft ersetzt werden.
MOOCs
Sogenannte Massive Open Online Cources (MOOC) sind offene Lernangebote in verschiedenen
Lernformen, die einen großen Kreis von Lernern adressieren. Man hat auch die Möglichkeit, selbst
Lerninhalte hinzuzufügen.
Interactive E-Books
E-Books sind elektronische Bücher, die auf E-Book Readern oder Tablet PCs gelesen werden können.
Durch interaktive Funktionen können sie auch auf Eingaben ihres Lesers reagieren. Ihr größter Vorteil
ist die schnelle und kostengünstige Aktualisierung des Contents.
Lerntagebücher
Um sich selbst und andere wie den Chef über die Lernfortschritte auf dem Laufenden zu halten, kann
ein Lerner ein digitales Lerntagebuch einrichten. Verbunden mit Zertifikaten lässt sich dieses auch zu
einem E-Portfolio ausweiten, das in standardisierter Form die wichtigsten Qualifikationen eines Lerners
präsentiert.
Microblogging-Dienste
Auf Microblogging-Diensten wie Twitter lassen sich viele Informationen zu den eigenen fachlichen
Interessen finden, indem man Experten zu einem bestimmten Thema folgt. In einer abgeschlossenen
Gruppe lassen sich Twitter Diskussionen für die Zusammenarbeit in Lerngruppen nutzen, um sich über
den Lernfortschritt zu informieren oder Aufgaben im Projekt abzustimmen.
CBT/WBT
Das Computer Based Training (CBT) entspricht einem E-Learning Kurs, der auf CD-ROM/DVD
ausgeliefert wird. Eine Weiterentwicklung ist das Web Based Training (WBT), bei dem die Inhalte der
Kurse online abrufbar und leichter aktualisierbar sind.
Blended Learning ist "Präsenzvorlesung im Wechsel mit virtueller Lehre" mit den Funktionen
"synchrone und asynchrone Kommunikation". Der Mehrwert von Blended Learning ist:
• Gute Integration der virtuellen Anteile in die Präsenzphase
▪ Meist virtuell Facts erarbeiten und präsenz Projekte (auch am Computer) bzw. Fallstudien
bearbeiten
▪ Studierendenfragen mit Antworten im nächsten Durchlauf als Fakten in den virtuellen Teil
aufgenommen
▪ Bessere Motivation durch Präsenzphase
Ein typischer Lernprozess im Blended Learning sieht wie folgt aus: Die Studierenden entnehmen aus
dem Zeitplan der Präsenztermine, welche virtuellen Kapitel sie bis zum Präsenztermin durcharbeiten
190
müssen. Sie drucken sich das Arbeitsskript aus, betrachten die Videos zu den Lerneinheiten, wobei sie,
wie in Präsenzvorlesungen, dabei das Arbeitsskript oder die Folien ergänzen. Dann versuchen sie, falls
vorhanden, die Testdateien zu lösen (z.B. Programmieraufgaben bei Computerkursen) und testen ihr
Wissen an den interaktiven Kontrollfragen je Kapitel. Hierbei stellen sie evtl. Fragen an den Teletutor.
Dann betreten sie das Forum, betrachten die bisherigen Beiträge zu dem Thema, antworten auf dort
gestellte Fragen und bringen ihre Interessen dort ein. So vorbereitet, betritt der Student die Präsenzphase,
wo der Stoff durch Vorlesungen oder Fallstudien vertieft oder ausgeweitet wird. Die Studierenden
erhalten dann bisweilen Aufgaben für die virtuelle Gruppenarbeit. Am Schluss des Kurses steht immer
noch die schriftliche Prüfung, zu der am Tag vorher der Dozent jeweils einen synchronen Chat mit den
Prüfungsteilnehmern bestreitet.
Partner-
Schule Bachelor Master hoch- Alumni
schulen
Notebook
Weiterbildung
University Video-
Frühstudium -seit 1998
- 21 virt. Kurse aufzeichnungen,
-Mathematik virtuelle
Realserver
-Softwaretechnik - Gemeinsame Master Zertifikatsweiterb
- virt. Studiengang ildung mit 2000
-Grundlagen BWL mit FHs Landshut,
Regensburg, Ingolstadt, TN
-Grundlagen WI - adapitives
Ansbach Ziel: Gute
Lernsystem Finanzierungsque
-Vhb lle,
-bdk-Portal Rückkopplungs-
Abb. 10/1: Lehrprozesskette zum strategischen Einsatz von E-Learning mögl.
191
10.5 Lernen in 3-D-Welten
Eine besonders interessante Entwicklung für „Lernen im Digitalen Zeitalter“ ist es, die etablierten
Kollaborations- und Kommunikationswerkzeuge (z.B. VoIP, Application Sharing) in den
dreidimensionalen Raum zu überführen. In der iLearn3D Implementierung wird das Open-Source-
Toolkit Project Wonderland1 verwendet, um eine immersive Arbeitsumgebung zu schaffen und dadurch
die synchronen Kollaborationsmöglichkeiten der Lernplattform Moodle zu erweitern.
Potenziale virtueller Welten unter dem Aspekt der Kollaboration für den Bildungssektor:
• Raummetapher, sie erlaubt den Aufenthalt in einem gemeinsamen Raum,
• Multimedialität,
• Interaktivität ermöglicht mehr Gestaltungsmöglichkeiten als klassische starre Lernpfade,
• Vernetzung, d.h. die Interaktion der Benutzer/innen findet in Echtzeit statt,
• Gruppenbildung ist in 3-D-Welten durch die Wahrnehmung der anderen Avatare intuitiver.
Gruppen bilden sich beispielsweise zufällig indem mehrere Avatare beieinanderstehen oder
durch die Gestaltung virtueller Räume.
• Schaffung sozialer Räume, so ermöglichen die nonverbalen Gesten wie Winken und Umarmen
der Avatare eine sozio-emotionale Kommunikation.
Die virtuelle Welt dient in der Deggendorfer Implementierung als Erweiterung der Lernplattform
Moodle zur effizienten Gruppenarbeit. Durch die Unterstützung der Application-Sharing
Funktionalitäten besteht die Möglichkeit Dokumente innerhalb der virtuellen Welt gemeinsam und in
Echtzeit zu bearbeiten. Dabei wird sowohl aktives als auch passives Application-Sharing unterstützt.
Bestimmte Anwendungen der 3-D-Welt (PDF oder Video) können synchron und asynchron betrachtet
werden. Dadurch kann die virtuelle Welt ähnlich einem Groupware System mit integrierter Application-
Sharing Funktionalität verwendet werden. Das LMS dient als zentraler Datenspeicher aus den
Dokumenten geladen bzw. dorthin gespeichert werden können. Somit sind die in der 3-D-Welt erstellte
oder bearbeitete Dokumente auch ohne ein Einloggen in die virtuelle Welt erreichbar. Abb. 10/8 stellt
einen Screenshot einer virtuellen Sitzung dar.
1 siehe https://lg3d-wonderland.dev.java.net/
192
Dependance in Second Live schätzt, wenn sie das vollständige Recht und die Zugriffsfreiheit über ihre
eigen erstellten Lernobjekte hat.
Lernplattformen sind
• Coursera (22 Mil. eingetragene Nutzer in 1868 Kursen). Bisher bieten auf der ganzen Welt
ausgewählte Universitäten Seminare und Vorlesungen über Coursera an, darunter zum Beispiel
etliche Top-Universitäten aus den USA, etwa Princeton, Duke, Stanford oder Columbia, aber
auch die Hebrew University of Jerusalem, die Hong Kong University of Science and
Technology in China und die Universitäten Edinburgh und Leiden in Europa.
• edX (gemeinsames Projekt von Harvard und MIT mit 59 Kursen)
• Udacity (740000 Studierende mit 28 Kursen der Informatik und Mathematik).
• Europäische Plattform: Eliademy (Finnland), FutureLearn (Großbritannien) und Mirianda
X(Spanien)
• Deutsche Plattform: Iversity (Berlin); OPENhpi; Leuphana und openSAP.
Anders als bei Youtube bestehen Kurse neben den Videos der Professoren auch noch aus
Übungsaufgaben und Fallstudien sowie Diskussionsforen.
Vorteile: freie Zeiteinteilung, Videopassagen wiederholen, verständliche Kurse
Schattenseiten: oft ohne Klausur, Problem der Finanzierung (da keine Teilnahmegebühren erhoben
werden)
Inhalte sind von hoher Qualität.
Kein Feedback von Lehrenden nur von Mitlernenden.
Leistungsbewertung erfolgt maschinell.
“A computer cannot provide the professional feedback of a person.”
193
10.7. Blended Learning 4.0 oder smart Blended Learning
Die Arbeitswelt verändert sich aufgrund der 4. Industriellen Revolution enorm, wie eine Studie mit den
Strategieverantwortlichen und Personalchefs von fast 400 großen Unternehmen aus aller Welt 2016
ergab (World Economic Forum 2016). Das Ergebnis war: 7 Millionen Jobs, vor allem klassische
Bürotätigkeiten, werden verschwinden. In der gleichen Zeit werden, so die Prognose, 2 Millionen neue
Jobs in den Bereichen der Computerwissenschaften, der Mathematik oder Informationstechnologie
entstehen; dies ist eine große Qualifizierungsherausforderung, da auch sehr heterogene Ansprüche zu
erfüllen sind.
Wegen der mittelfristigen gewaltigen Zahl von Umschulungen und der verstärkten
Hochschulausbildung bei IT-Berufen stoßen traditionelle Lehr- und Weiterbildungsmethoden an ihre
Grenzen. Das braucht neue Lern- und Ausbildungskonzepte, eine neue Art und Weise der
Wissensvermittlung. Es braucht „smarte“ Lehrprozesse.
Im weiten Feld der reinen Präsenzlehre bis zur reinen digitalen Lehre zeigt eine empirische Studie, dass
Blended Learning (BL) eine Klausurdurchschnittsnote um 0,4 besser als Präsenzlehre oder reine
virtuelle Lehre erbrachte (Popp u.a. 2014). Interessant ist auch ein Ergebnis an der TH Deggendorf in
Blended Learning Kursen aus dem WS 2017/18 bzgl. der Korrelation von Teilnahme an der
Präsenzphase und geringer Nichtbestehensquote in der Klausur. Im Studiengang BWL waren 73 % der
Klausur-Durchfaller nicht in Präsenzphasen anwesend. Im Studiengang Wirtschaftsinformatik waren
nur 20% der in Präsenzphasen Aktiven unter den Klausur-Nichtbestehern (Popp2018b). Dies
verdeutlicht, dass eine Präsenzphase wichtiger Bestandteil moderner Bildung und Weiterbildung bleiben
sollte. Daher muss für die Herausforderungen in der Aus- und Weiterbildung mit ihrer Heterogenität
der Blended Learning-Prozess mit KI-Techniken und mit Sensoren unterstützt werden, also es muss
smart Blended Learning aufgebaut werden.
194
Abb. 10/3: 7-phasiger Blended Learning Prozess mit KI- und Sensoreneinsatz in jeder Phase für ein
selbstreguliertes Lernen. (Ciolacu 2018)
Der hier zugrunde gelegte smarte Blended-Learning-Prozess besteht aus den folgenden 7 Phasen (siehe
Abbildung 10/3) mit den KI-Techniken und wearable Devices je Phase:
Die eingesetzten Sensoren helfen das Quality of Experience (QoE), also den Grad der Energie oder des
Ärgers des Lerners zu messen. QoE resultiert aus der Erfüllung der Erwartungen des Nutzers unter
Berücksichtigung der Nützlichkeit (Utility) und/oder der Freude an der Nutzung der Anwendung oder
Dienstleistung angesichts des Charakters und des aktuellen Befindens des Nutzers (Callet, u.a. 2013).
195
Dies geht über die übliche Definition von Usability und User Experience hinaus und bezieht den
individuellen Charakter des Nutzers und die Nutzungssituation mit ein. Damit wird die Messung von
Qualität zu einer umfänglichen Fragestellung, bei der das Erlebnis des Lernens und die Erfüllung
individueller Erwartungen in den Vordergrund gestellt werden. Dies ist in der universitären
Erstausbildung, aber auch insbesondere in der Weiterbildung ein entscheidender Faktor zur effizienten
Aneignung neuer Kompetenzen.
Ein wichtiger Faktor der QoE liegt in der Messung der Nutzerzufriedenheit. Hier werden immer mehr
non invasive Sensoren eingesetzt. In der Lehre wären dies neben den direkten Handlungen (Mausclicks),
die Körperbewegungen, insbesondere die Augenbewegungen, und psychophysikalische Messungen
(Elektroenzephalografie (EEG), Electrokardiogram (EKG), Elektrodermale Aktivität („Elec“),
Blutzuckerspiegel, Puls („Heart Rate“), Schritte …). In Kap. 4 konzentriert sich dieser Artikel auf
Sensoren von wearable Devices wie Smartphone oder Smartwatch.
196
2600 Wissenseinheiten gefüllt und wird im LMS Moodle verwaltet und über dieses den Studierenden
zugänglich gemacht.
Lokalisierung von Lerner mit Problemen durch Learning Analytics-Methoden in der
Reflektionsphase
Zu den Ausführungen in (Popp2018a, S.74) gab es folgende neue empirische Ergebnisse des
Frühwarnsystems:
Bei der ersten Anwendung der Simulation dieses Frühwarnsystems (gelerntes NN für die Klassifikation
- Klausur bestehen oder Nichtbestehen - hatte Prognosegenauigkeit von 76% im WS 17/18 im
Studiengang BWL) konnte die Durchfallquote in Mathematik auf 11% nahezu halbiert werden, während
sie mit der gleichen Klausur in anderen Studiengängen unverändert bei 35 % lag. Im SS 18 und SS 19
wurde dieses Frühwarnsystem Mitte Juni im Studiengang BWL im Fach Informations- und
Wissensmanagement eingesetzt, denn die Prognosegenauigkeit war in diesem Fach 85% und im
Studiengang WI im Fach Informationsmanagement mit einer Prognosegenauigkeit von 95% . Dadurch
konnte die Zahl der Studierenden, die nicht zur Prüfung angetreten sind, im Vergleich zu den Vorjahren
halbiert werden und die Durchfallquote sank in BWL auf durchschnittlich 3,5% und in WI auf 13%,
was jeweils eine Halbierung zu den vorigen Jahren bedeutete, siehe Abb. 10/5. Die in der Lernphase,
Testphase und Anwendungsphase involvierten Studierendenzahlen sowie die lokalisierten Gefährdeten
zeigt Abb. 10/4.
Abb. 10/4: Anzahl der Studierenden (Datensätze) nach Semester und Studiengang
Situationsbeschreibung
SS 2016 SS 2017 ST 2018 SS 2019
110 97 82 113
BWL
#Training # Test #Go Live #Go Live
drop-out
durchschnittlich 7.% Durchschnittlich 3.5%
BWL
60 53 56
WI
#Training # Test #Go Live
drop-out WI Durchschnittlich 26% 13%
Abb. 10/5: Halbierung der Durchfallquote durch Frühwarnsystem bei mehreren Einsätzen
Im WS 19/20 lokalisierte das Frühwarnsystem in Deggendorf in Mathe BWL 50 von 117 Studierenden,
in Mathe WI 29 von 68 und in Mathe Künstliche Intelligenz/Cyber Security 23 von 62 sowie an der
OTH Amberg-Weiden in Mathe BWL 44 von 159. Den lokalisierten Gefährdeten wurde die übliche
Warn-E-Mail geschickt. Da der Prüfungsprozess vom WS 19/20 noch nicht abgeschlossen ist, liegen
hierzu noch keine Ergebnisse vor.
197
Entlastung bei Korrekturarbeit durch automatisch ausgewertete Kompetenztests in der
Evaluationsphase
Seit 4 Jahren werden an der TH Deggendorf nicht curriculare Mathematikklausuren in Form von
Multiple Choice-Fragen, Auswahlboxen und kleinen Zahleneingaben am Rechner absolviert und
automatisch von Moodle ausgewertet.
Interessant sind aber automatische semantische Auswertungen von Kurzantworten. Der einfache
Vergleich der relevanten Textstelle im Vorlesungsskript mit den Test-Antworten durch die Kosinus-
Ähnlichkeit führte mit einem mittleren relativen RMSE von 0,493 zu den schlechtesten
Evaluierungsergebnissen aller getesteten Ansätze. Als Verbesserung hat sich die
Ähnlichkeitsbestimmung zwischen der Test-Antwort und historischen Trainingsantworten
herausgestellt, bei der der Punktewert, der am ähnlichsten Trainingsantwort als Bewertung der Test-
Antwort übernommen wird. Die Ansätze, die die Latente Semantische Analyse verwendeten, erhielten
ebenfalls nur unzureichende Prognoseleistungen. Ansätze, die besonders häufig Übereinstimmungen
zwischen den tatsächlichen und prognostizierten Bewertungen aufweisen, sind der Ontologie-basierte
Ansatz (A03O) und der Ansatz auf Basis des IBM Watson Discovery Service (A06W). In den anderen
Metriken lagen diese beiden Ansätze jedoch im Mittelfeld im Vergleich aller Ansätze. Als beste
Methode zur automatischen semantischen Bewertung von Kurzantworten stellten sich Support-Vektor-
Maschinen (SVM) heraus. SVM (A08SVM in Abb. 10/7) führten zu einem mittleren relativen RMSE
von 0,205 über alle 30 Fragen. Minimal betrug diese Metrik bei einer Frage 0,137 und maximal 0,315.
Bei diesem Ansatz ließ sich zudem die höchste mittlere Korrelation zwischen den tatsächlichen und
prognostizierten Werten mit 0,616 feststellen. SVM erhielten wie Neuronale Netze (A10NN) die besten
Ergebnisse für die maximale Differenz zwischen den Prognosen und Zielwerten, siehe Abb. 10/6 und
Abb. 10/7. (Binder 2019).
Zum Testen wurden von 127 Prüflingen 2788 Kurzantworten zu 83 Prüfungsfragen zum Kurs
„Informations- und Wissensmanagement“ im Ba. BWL gesammelt. Für jede Antwort wurden vom
Prüfer im 0,5-er Schritt Punkt vergeben von 2 bei kleinen Fragen bis 7 Punkte bei umfangreicheren
Fragen. Mit einer Genauigkeit von nahezu 50% genauer Übereinstimmung mit der vom Prüfer
vergebenen Punktezahl ist zwar ein beachtliches Ergebnis erreicht, aber es reicht noch nicht für den
praktischen Einsatz,
Situationsbeschreibung
Term
Studierende Prüfungsfragen Kurzantworten
SS 2017 83 26 1657
WS 17/18 19 29 513
WS 18/19 25 28 618
198
10.8 Lernmanagementsysteme
Der Einflußbereich eines Lernmanagementsystems konzentriert sich auf die drei Objektgruppen:
Lehrinhalte, Veranstaltungen und Personen:
• Lehrinhalte sind die eigentlichen Lernobjekte in modularer Form. Sie werden durch Metadaten
beschrieben und vorzugsweise durch ein Content-Management-System verwaltet. Wenn
Lehrinhalte nach bestimmten Standards produziert sind, dann sind sie unabhängig und somit in
verschiedene Lernmanagementsysteme (LMS) importierbar. Voraussetzung ist, dass das LMS den
verwendeten Standard unterstützt. An dieser Stelle von Standards zu sprechen ist allerdings
Zukunftsmusik. Es gibt momentan noch keinen echten Standard für Lerninhalte, sondern nur
Spezifikationen als Vorstufe einer Standardisierung.
• Veranstaltungen beinhalten Informationen über einen Kurs wie Lehrinhalte, Lehrziele, Kursleiter,
verwendete Lernressourcen, Ablaufpläne oder Kursorganisation.
• Personen werden in einer Teilnehmer-Datenbank verwaltet. Sie können verschiedene Rollen
annehmen wie Lerner, Autoren, Lektoren, Tutoren, Kursleiter, Verwalter, Administratoren etc.
Fünf hauptsächliche Funktionsbereiche sind von einem LMS abzudecken:
• Präsentation von Inhalten (Text, Grafik, Bild, Ton, Film...)
• Kommunikationswerkzeuge (asynchrone wie z. B. e-Mail, Newsgroups, Webforen und
synchrone wie z. B. Chat, Videoconferencing und Applicationsharing)
• Werkzeuge zur Erstellung von Aufgaben und Übungen
• Evaluations- und Bewertungshilfen
• Administration (von Lernern, Inhalten, Kursen, Lernfortschritten, Terminen)
10.8.1 Standards
Weil das Erstellen von WBT’s sehr aufwendig und mit hohen Kosten verbunden ist, sollten für ein
bestimmtes LMS erstellte oder zugekaufte Lerninhalte auf mehreren verschiedenen LMS, bzw. nach
einem Umstieg auf einem anderen LMS, ohne Funktionseinschränkungen weiterverwendet werden
können.
Dies wird erst möglich, wenn internationale e-Learning Standards eingehalten werden und damit unter
anderem die Interoperabilität der Lerninhalte gegeben ist.
In den letzten Jahren haben sich in den USA und in Europa mehrere Standardisierungskonsortien
gebildet, die offene Technologie-Standards für Learning Management Systeme und WBT’s definieren.
199
SCORM (Shareable Courseware Reference Model):
SCORM ist eine von ADL entwickelte Empfehlung zur Standardisierung von Lernobjekten. Zielsetzung
ist, ein Referenzmodell für webbasierte LMS zur Verfügung zu stellen, die system- und
plattformunabhängig Lerneinheiten verwenden, verarbeiten und austauschen können. Durch die
Trennung von Inhalt und Form und Speicherung der Metadaten nach dem LOM Standard lassen sich
Daten und Objekte einfach referenzieren, analysieren und indizieren.
Die SCORM Spezifikation geht hier ebenfalls den Weg über XML und bietet nicht nur ein einheitliches
Dateiformat für alle benötigten Informationen, sondern z.B. auch alle Kursinformationen in einer
einzigen XML-Datei. Unter Verwendung des SCORM entwickelte Produkte sind im hohen Maße
plattformunabhängig, wiederverwendbar und können auf allen SCORM-fähigen LMS gestartet werden.
Bei der Anschaffung eines LMS bzw. beim Kauf von WBT’s empfiehlt es sich darauf zu achten, daß
diese möglichst viele der obigen Standardisierungsinitiativen unterstützen.
Moodle wird seit 1999 von Martin Dougiamas aus Australien (www.moodle.org) entwickelt. Weltweit
sind mehrere tausend Einsätze dokumentiert. Moodle hat sich bewährt bei der Durchführung einzelner
Lehrveranstaltungen, aber auch im Einsatz in Unternehmen und Hochschulen mit zeitgleich mehr als
hundert Kursen und mehreren tausend Teilnehmern.
Das offene Softwarekonzept erlaubt die Anpassung der Software und die Ergänzung um eigene
Lernmodule.
Moodle ist keine „eierlegende Wollmilchsau“. Die Schwerpunkte liegen in der Unterstützung der
gemeinsamen Erarbeitung von Lerninhalten in einer Lernergruppe. Das isolierte Lernen Einzelner ist
mit moodle möglich, aber nicht Ziel der Lernumgebung.
Funktionen wie Audio- oder Videoconferencing (Erweiterung des Chats um Ton- und Bildübertragung),
application sharing (gemeinsame Nutzung eines Anwendungsprogramms) oder Whiteboard-Funktionen
(simultane Darstellung von Inhalten auf einem Bildschirm, der für alle Teilnehmer sichtbar ist) sind
derzeit nicht integriert. Es ist jedoch ohne weiteres möglich in moodle gestaltete Kurse punktuell um
Lernelemente mit externen Tools zu ergänzen.
Kooperation
200
Zur Kooperation können nahezu alle Lernaktivitäten von den Teilnehmerinnen verwendet werden.
Gruppenarbeit erlaubt das abgeschottete Bearbeiten von Aufgabenstellungen und Projekten.
Wikis stellen eine Möglichkeit zur gemeinsamen Bearbeitung von Texten bereit. Dabei werden
vorhandene Texte direkt in einem Fenster bearbeitet und gespeichert. Ein komplizierter Dateiupload
entfällt. Wikis stehen für Trainerinnen, die gesamte Kursgruppe, Teilgruppen und Einzelpersonen zur
Verfügung.
Selbst Wörterbücher können als gemeinsame Lernaufgabe genutzt werden. Dazu erhalten die
Teilnehmerinnen die Aufgabe, gemeinsam zum Lerngegenstand ein Wörterbuch zu erstellen.
Kommentare und Bearbeitungsmöglichkeiten aktivieren die Teilnehmer.
Weitere Module ergänzen den lebendigen Lernprozess durch Journale (Lerntagebücher zur
Dokumentation der persönlichen Auseinandersetzung mit dem Lerninhalt), Kalender, eine
Terminvereinbarung für Sprechstunden oder die Evaluation der Lerneinstellungen und
Lernfahrungen mit Hilfe von COLLES und ATTLS Fragebögen (standardisierte Fragebögen).
Für die Darstellung mathematischer Formeln kann ein Filter genutzt werden, der TeX-Code in
Grafikdateien umwandelt und sichtbar macht.
201
▪ Facebook-Gruppen für die Lehrveranstaltung bzw. manche Lehrende sind mit den Studierenden
in fb befreundet
▪ Google+ Community mit Links zu Online-Dokumenten
▪ Twitter, Wordpress
Nachteile
▪ Keine Datensicherheit
▪ Nicht alle Studierende und eher wenige Lehrende lieben Social Media
Meine Wünsche an einen virtuellen Lernraum
▪ Intuitiv zu nützen (angelehnt an Social Media)
▪ Bunter, moderner „Look“
▪ Gewisse Freiheit in der Strukturierung
▪ Gewisse Freiheit in der Formatierung
▪ Offene Umgebung: alle sehen (fast) alles
▪ Leichte Abbildung von Gruppenlernprozessen
▪ Unterstützung von Austausch und Vernetzung (etwa like)
▪ Geschützter Bereich: Lernprozesse brauchen gegenseitiges Vertrauen und Sicherheit
▪ Offener Bereich: Präsentation der Ergebnisse im Portfolio
Novoed – Lernplattform der Zukunft?
According to the website: “Novoed is the only online learning platform that provides a connected,
effective and engaging learning environment for students using a combination of techniques in crowd
sourcing, design and analysis of reputation systems, and algorithm design”.
LMS ist mittels Open Application Schnittstellen für die Einbindung von Widgets geöffnet.
202
entwicklung – Die Zukunft gestalten! (S. 92-99). Hamburg: AUE e. V. Hochschule
und Weiterbildung.
11. Popp, H. und Zehetmair M.(2004): Ubiquitous E-Learning im IT-Kompaktkurs. In
Fischer, C., Bargel, H. (Hrsg.). Didaktik des E-Learning – Pädagogische und
produktionstechnische Patterns im E-Learning. DGWF Band 42:Hamburg, 2004,
S.95-106
12. Popp, H., Herde, G.(2005): Adressatenorientierte Adaptivität und Wirtschaft-
lichkeit im IT-Kompaktkurs. In Breitner, M., Hoppe, G. (Hrsg.): E-Learning -
Einsatzkonzepte und Geschäftsmodelle. Physica-Verlag, 2005, S. 431-441
13. Popp, Heribert (2006):. E-Learning-System bedient die verschiedenen Lernertypen
eines betriebswirtschaftlichen Fachbereichs: Didaktik, Realisierungstechnik und
Evaluation. In Seiler-Schiedt Eva, Kälin Siglinde, Sengstag Christian (Hrsg.): E-
Learning – alltagstaugliche Innovation ? Waxman-Verlag, 2006, S. 141-151
14. Popp Heribert, Huber Eckhard (2006). Steigerung des Humankapitals in KMUs durch
virtuelle Weiterbildung, bei der sich E-Learning-Systeme an die Benutzer anpassen.
In Krieger, David; Bellinger, Andrea (Hrsg.): Wissensmanagement für KMU, Zürich,
2006, S. 219-236
15. Popp Heribert, Renninger Wolfgang (2008): Zur Entwicklung von E-Learning an
bayerischen Fachhochschulen – Auf dem Weg zum nachhaltigen Einsatz. HAW
Diskussionspapier No. 9 Juli 2008, Amberg-Weiden.
16. Popp, Heribert; Reitmaier, Martina (2014): Mathematik an der Hochschule: Die
Potenziale virtuellen Lernens und die Bedeutung von Learning Analytics. DNH 4
_2014, S. 130-133
17. Popp, Heribert; Rick Beer (2014): Evaluation virtueller Mathematik-Kurse –
Lernszenarienvergleich und Learning Analytics. In Jutta Pauschenwein (Hrsg.):
Evaluierung offener Lernszenarien, Tagungsband zum 13. E-learning Tag 2014,
Graz; S.98-108
18. Popp, Heribert; Ciolacu, Monica (2015): Technische Hochschule Deggendorf –
Projekt: V-, W- und A-MINT-Coach. In: Bayerisches Staatsministerium für Bildung
und Kultus, Wissenschaft und Kunst (Hg.): Erfolgreicher MINT-Abschluss an
bayerischen Hochschulen. Bilanz der Hochschulprojekte, S. 72–81. Online verfügbar
https://www.km.bayern.de/download/13359_stmbw_abschlussbericht_best_mint.pdf.
19. World Economic Forum (2016): The Future of Jobs - Employment, Skills and
Workforce. Global Challenge Insight Report 1.2016.
Kontrollfragen
1. Nennen sie sechs Ausprägungen von E-Learning Ressourcen!
2. Erläutern sie, wie eine Hochschule E-Learning strategisch einsetzen kann!
3. Entwickeln sie für ihren Praktikumsbetrieb ein Konzept der virtuellen Weiterbildung!
4. a.) Was sind MOOCs?
b.) Kann ein KMU MOOCs für die Weiterbildung nutzen?
c.) Wie könnte ein KMU MOOCs nutzen?
d.) THD hat MOOCs zu einem strategischen Projekt ernannt. Was könnte die TH Deggendorf
mit MOOCs machen?
5. Erklären sie wie sie Learning Analytics betreiben würden!
6. Nennen sie 6 typische Funktionen von einem LMS.
7. Große Firmen wie IBM und Microsoft wickeln mehr als 50 % ihrer Weiterbildung zur
Steigerung des Humankapitals durch virtuelle Weiterbildung ab.
a.) Nennen sie 6 mögliche Bestandteile solcher virtuellen Kurse.
b.) Beschreiben sie 2 innovative Konzepte in virt. Kursen!
c.) Was könnte hier Blended-Learning-interaktiv sein.
8. Beschreiben sie Lehre 4.0
203
11. Anwendung „Lernende Organisation“
Prof. Dr. Falk Pössnecker, Hochschule Deggendorf
11.1 Verhalten
Warum soll man sich denn mit Wandel überhaupt beschäftigen? Wandel ist ein permanentes Phänomen.
Wandel in Unternehmen kommt in der Regel durch Umweltveränderungen von außen, durch die
unternehmerische Umwelt. Die Komplexität und die Dynamik in unserer technologisierten Welt sind
bekannt. All das führt zu Änderungen und zur Notwendigkeit von Wandel. Aber auch wenn
Unternehmen sich intern ändern müssen, sich zum Beispiel strategisch neu ausrichten,
Kostensenkungsprogramme durchführen müssen, Produktionsprozesse optimieren müssen, dann sind
das Auslöser für Wandel.
Der Wandel in Organisationen hat auch ganz stark etwas mit dem Wertewandel zu tun, der sich in den
sechziger Jahren abgezeichnet hat und vor allem Auswirkungen auf Führung und Zusammenarbeit in
Unternehmen hatte, aber auch auf das Selbstverständnis der Mitarbeiter. Durch die 68iger Generation
ist das Streben nach Partizipation und nach Sinnerfüllung in der Arbeit viel deutlicher geworden als es
vorher schon war.
Zunächst muss man sich fragen, wie Verhalten überhaupt zustande kommt. Abb. 11/1 zeigt das
berühmte Verhaltensquadrat von Rosenstil.
Verhalten hat mehrere Einflüsse. Auf der rechten Seite in Abb. 11/1 sieht man die Einflüsse, die im
Individuum stehen, nämlich das individuelle Wollen, das Können. Auf der linken Seite sehen wir die
Variablen, die außerhalb des Individuums zu suchen sind – soziales Dürfen und Sollen, situative
Ermöglichung.
Je nach Situation, je nach persönlicher Motivation und nach Können, ergeben sich Verhaltensprodukte.
Wichtig für Organisationsentwicklung ist zu wissen, dass man, wenn man Organisationen ändern will,
diese vier Aspekte im Blickfeld haben muss.
Die Abb. 11/2 zeigt das berühmte Eisbergmodell. Hier geht es um die Frage „Wo sollen denn
Organisationen bewegt werden, wo setzt nachhaltiges organisationales Lernen an?“. Hier kann man
sehen, dass, wie im Eisberg, die wichtigsten Einflussfaktoren unter der Oberfläche liegen. Das
204
informelle System, das was man nicht sieht - Normen, Regeln, Glaubensätze, Werte, Einstellungen,
Denkhaltungen, Motivation, Unternehmensklima – hat einen sehr großen Einfluss auf Verhalten,
nämlich ungefähr 90 %. Und das, was man sehen kann, also die Strategien, die Strukturen einer
Organisation, auch beobachtbare Arbeitsprozesse, haben auf das Verhalten relativ wenig Einfluss.
Warum soll man sich denn mit Wandel überhaupt beschäftigen? Wandel ist ein permanentes Phänomen.
Wandel in Unternehmen kommt in der Regel durch Umweltveränderungen von außen, durch die
unternehmerische Umwelt. Die Komplexität und die Dynamik in unserer technologisierten Welt sind
bekannt. All das führt zu Änderungen und zur Notwendigkeit von Wandel. Aber auch wenn
Unternehmen sich intern ändern müssen, sich zum Beispiel strategisch neu ausrichten,
Kostensenkungsprogramme durchführen müssen, Produktionsprozesse optimieren müssen, dann sind
das Auslöser für Wandel.
Ganz gut darstellen kann man das mit der weithin bekannten Bedürfnispyramide nach Maslow (siehe
Abb. 11/3). Die Selbstverwirklichungsbedürfnisse, die Ich-Bedürfnisse, also die Wachstumsbedürfnisse
im oberen Teil des Dreiecks, sind heute wichtiger als man sich vorstellen kann. Nach dem Krieg, als es
zu wenig zu Essen und zu Trinken gab, waren die Grundbedürfnisse nicht gestellt und die
Sicherheitsbedürfnisse während des Krieges auch nicht. Durch die 68iger haben die Bedürfnisse nach
Selbstverwirklichung und die Bedürfnisse nach Anerkennung und Geltung eine viel größere Rolle
eingenommen.
• Es lernen Individuen
• Es lernen Kollektive, d.h. Teams
• Das Gelernte muss organisatorisch verankert werden.
Die organisatorische Verankerung ist das Wichtigste, damit ein geändertes Verhalten oder geändertes
Wissen, in einer Organisation bestehen bleibt. Eine Verankerung heißt eine Institutionalisierung oder
eine Verankerung eines Prozesses, eines Vorganges, der sich dann auch wiederholen soll. Das heißt
organisatorische Verankerung.
Lernprinzipien
Die Lernprinzipien, die dabei eine Rolle spielen, sind ganz allgemeingültige - das klassische
Konditionieren, das operante Konditionieren.
Das klassische Konditionieren (Lernen von Reaktionen) ist bekannt vom Pawlow‘schen Hund. Da wird
ein Reiz mit einer Reaktion verbunden. Der Hund sieht Futter, gleichzeitig ertönt eine Glocke und so
fängt dann der Speichelfluss an. Später fängt der Speichelfluss auch an, wenn diese beiden Reize
konditioniert sind. Das heißt, der Hund hört nur noch die Glocke und glaubt, dass er etwas zu essen
bekommt.
„Lernen am Erfolg“ ist die berühmte operante Konditionierung. Sie wurde in den USA durch den
Behaviorismus und durch Skinner sehr stark untersucht und anerkannt. Man geht davon aus, dass wir
ganz stark am Erfolg und am Misserfolg lernen, also durch Belohnung und Bestrafung, vor allem eben
durch Belohnung. Wir können aber auch durch Einsicht lernen, das ist das was uns mit großer
Wahrscheinlichkeit vom Tier unterscheidet, dass wir denken können, dass wir hypothetisch denken
können, dass wir Probleme im Geist durchdenken, vorher lösen können, bevor wir es tatsächlich tun und
dass wir es dann ausprobieren. Das heißt „Lernen durch Einsicht“. Dadurch, dass wir etwas verstehen,
dass wir von anderen Erfahrungen aufnehmen und dass wir unser Denken umstrukturieren können,
bevor wir ein neues Verhalten zeigen.
Menschen sind aber letzten Endes soziale Wesen. Wir lernen am Modell, von Anfang an. Das Kind ahmt
seine Eltern nach, der Jugendliche ahmt andere Jugendliche oder Idole nach. Wir lernen ständig, vor
allem unbewusst. Die meisten Lernvorgänge sind uns mit großer Wahrscheinlichkeit nicht bewusst, aber
wir lernen eben doch.
206
Abb. 11/4: Organisationsklassen des Lernens
In Organisationen kann man das Lernen in drei Ebenen untergliedern, siehe Abb. 11/4. Das Individuum
sollte sein Leben lang lernen und mit großer Wahrscheinlichkeit ist es auch so, dass wir bewusst oder
unbewusst unser Leben lang lernen. In der Organisation, in einer Firma, lernen wir in Teams, in
Gruppen, in Abteilungen und das Ganze muss organisatorisch verankert werden. Das heißt, die
Organisation muss auch mitlernen. Lernen soll auf diesen drei Ebenen stattfinden.
Es gibt noch ein Modell – Anpassungslernen, Veränderungslernen und Prozesslernen - was insgesamt
organisatorisches Lernen erklären soll. Das Anpassungslernen wird auch Single Loop Learning genannt.
Das heißt, eine Handlung führt zu einem Ergebnis. Sind wir mit dem Ergebnis zum Beispiel nicht
zufrieden, dann korrigieren wir unsere Handlungen. Das ist einfaches Single Loop Lernen, weil es nur
einen Kreislauf des Lernens gibt. An den Zielen unserer Handlungen haben wir dabei noch nicht
angesetzt. Beim Veränderungslernen, beim Double Loop Learning, gibt es zwei Kreisläufe. Sind wir
mit dem Ergebnis nicht einverstanden, korrigieren wir unsere Handlung, aber wir denken zum Beispiel
auch über unsere Ziele nach, ob die Ziele noch die richtigen sind. Und dann gibt es die dritte Form des
Lernens, das Prozesslernen oder Deutero Learing, die nachhaltigste Form des Lernens. Da denken wir
nicht nur über unsere Ziele nach, wenn eine Handlung einen Erfolg hat, sondern wir denken über
grundlegende Annahmen und Werte nach, ob diese noch in Ordnung sind. Und erst wenn wir diese
korrigieren, dann ist Lernen wirklich nachhaltig, siehe Abb. 11/5.
Lernen und Verlernen hängt ganz eng zusammen und Lernen wird sehr oft unterdrückt. In erster Linie
durch defensive und festgefahrene Verhaltensmuster, d.h. wir sind alle Gewohnheitstiere. Was wir schon
immer so gemacht haben, machen wir auch weiterhin so. Lernen wird auch durch Normen, Privilegien
und Tabus verhindert. Normen sind Verhaltenserwartungen an uns, Privilegien wollen wir nicht
207
aufgeben und Tabus wollen wir möglichst einhalten. All das verhindert aber, wenn es nicht reflektiert
wird, d.h. wenn wir nicht darüber nachdenken, Lernen. Das kann man sehr schön an diesem
dysfunktionalen Verhaltenskreislauf, siehe Abb 11/6, sehen.
Diese dysfunktionalen Verhaltenskreisläufe erhalten sich oft selbst aufrecht. Wenn ein Vorgesetzter
sagt: „Ich muss alles selbst machen, weil mein Mitarbeiter so unselbstständig ist.“, dann delegiert er
nicht. Der Mitarbeiter sagt dann: „Demnächst kündige ich, weil ich keine verantwortungsvollen
Tätigkeiten übernehmen kann.“ Er zieht sich zurück, weicht dem Vorgesetzten aus, dieser glaubt dann,
dass er alles selbst machen muss, delegiert weiterhin nicht und so kommt dieser Kreislauf in Schwung,
der auch sehr schwer zu brechen ist.
Die Veränderungsbereitschaft muss da sein, d.h. die Mitglieder müssen einsehen, dass sie etwas ändern
müssen und sie müssen motiviert und bereit sein, das zu tun. Sie müssen aber auch selbstkritisch mit
sich sein, sie müssen über das nachdenken, was sie bisher getan haben, ob das auch in der Zukunft noch
wichtig ist. Sie sollen sich möglichst selbst Lernziele setzen, um diese Lernziele dann selbst bewusst zu
verfolgen und sie sollen sich dessen bewusst sein, was sie tun. Das bedeutet, nachdenken über das, was
sie tun und reflektieren, also etwas kritisch überprüfen, was man getan hat oder was man zukünftig tun
möchte.
Anpassung an Wandel führt zum Erfolg. Das hat auch Charles Darwin gesagt. Nicht unbedingt der
Stärkste überlebt, sondern der, der sich am besten anpassen kann. Anpassung hat hier, in diesem Fall,
keine negative Bedeutung, sondern eben die Positive des Sich-Anpassens, Sich-Anpassen-Könnens. Ein
Beispiel ist der T-Rex vor 65 Millionen Jahren, der, als sich die Umwelt infolge eines
Meteoriteneinschlags verändert hat, nicht nachdenken konnte und sich nicht anpassen konnte.
Lernen: Ein Zyklus von Nachdenken, Planen, Handeln und Überprüfung der Lernergebnisse
Lernen ist ein Kreislauf, ein Zyklus von Nachdenken, Planen, Handeln und Überprüfen der
Lernergebnisse. Also, man muss zunächst nachdenken, reflektieren, man muss vorhandenes Wissen auf
Zielähnlichkeit überprüfen. Das heißt, ich muss mir überlegen „Kann ich mit dem, was ich weiß, was
ich kann, meine Ziele erreichen?“. Ich muss dann überlegen was ich brauche, muss planen, muss ggf.
mein Wissen anpassen, muss etwas Neues lernen. Ich muss dann auch mein Verhalten anpassen und ich
muss immer wieder überprüfen, ob das, was ich tue, mit dem zusammenpasst, was ich mir vorgenommen
208
habe und was zum Beispiel die Organisation oder meine soziale Umwelt von mir haben möchte, bzw.
das, was ich selbst erreichen möchte.
Die Voraussetzungen für die lernende Organisation sind vielfältig, hier sind die wichtigsten
zusammengefasst. Eine Organisation braucht klare Visionen, d.h. eine Organisation muss wissen
„Wohin wollen wir? Wozu sind wir da? Was wollen wir sein? Wo wollen wir uns von unserem
Wettbewerb unterscheiden?“. Man braucht auf jeden Fall gemeinsame Zielsetzungsprozesse, in die
möglichst viele Organisationsmitglieder eingebunden sind. Eine Organisation muss sich aber auch
immer fragen: „Wer ist unser Kunde?“ und „Was hat unser Kunde davon, z.B. unser Produkt zu
kaufen?“.
Wechselseitiges Vertrauen und Teamgeist sind sehr wichtig. Ohne Vertrauen oder ohne eine so genannte
Vertrauensorganisation kann keine Organisation lernen und Teams sind der wichtigste Lernpromotor.
Eine Organisation muss ihre Prozesse anschauen – wie kommen Arbeitsprodukte zustande? Eine
Organisation, die lernen will, braucht möglichst viel Selbstregulation, d.h. Selbststeuerung in Gruppen
und Selbststeuerung von Individuen. Dazu gehört natürlich ein demokratischer Führungsstil. Es gehört
dazu, dass neue Ideen unterstützt werden. Es gehört dazu, dass Personal- und Organisationsentwicklung
integriert sind.
Fehlertoleranz und Belohnung sind sehr wichtige Faktoren. Wenn man für kleine Fehler permanent
bestraft wird und wenn Engagement nicht belohnt wird, dann werden Organisationen sicher nicht lernen.
Die Fähigkeit zur Selbstbeobachtung ist natürlich eine persönliche Fähigkeit, aber eben auch eine
Fähigkeit einer Organisation. Eine Organisation muss lernen, sich selbst zu beobachten.
Erreichtes und vorhandene Kompetenzen würdigen und nutzen. In der Regel hat eine Organisation, eine
gesunde und erwachsene Organisation, die Möglichkeit ihre Probleme selbst zu lösen. Es gibt in einer
Organisation unendlich viele Kompetenzen, deren sich eine Organisation oft eben nicht schlüssig ist
oder nicht bewusst ist.
Man soll mehr auf Lösungen als auf Problemanalysen fokussieren. Die meisten Organisationen und die
meisten Individuen schauen sich Probleme viel zu lange an. Wir werden dann von den Problemen
traumatisiert. Man muss Probleme schon analysieren, aber man muss relativ schnell überlegen, wenn
man die Analyse gemacht hat, wie man zu einer Lösung kommt und welche Ziele man daraus ableiten
kann.
Abwertung der Vergangenheit muss man in Organisationen unbedingt vermeiden, auch bei Individuen.
Wenn man Individuen oder Organisationen zu sehr kritisiert, dann wertet man die Vergangenheit ab.
Das führt dazu, dass man sich nicht mehr um die Sache streitet, sondern dass Individuen z. B. ihr
Selbstwertgefühl verteidigen, weil sie sich abgewertet fühlen. Wenn man sagt „Das habt ihr falsch
gemacht.“, wertet man Organisationen und deren Mitglieder ab.
Wichtig ist die Fokussierung auf gemeinsame Ziele. Nur wenn man gemeinsame Ziele hat, kann man
auch gemeinsame Energien entwickeln.
Und natürlich eine Nutzung der vorhandenen Motivationen. Es gibt immer Motivationen. Es gibt
eigentlich keine unmotivierten Mitarbeiter. Die Menschen sind immer motiviert, man muss ihnen einen
Rahmen geben, ihre Motivation einzusetzen.
Das kann man hier leicht sehen, an dem schönen Heger-Comic, siehe Abb. 15/7. Heger ist, wie wir
wissen, ein genialer Wikinger, ein Wikinger-Manager. Hier geht es um die Frage der Ressourcen, bzw.
der Kompetenz. Er hat ein Team bei sich und er muss alle Kompetenzen, alle Ressourcen in diesem
Team nutzen. Deshalb muss er jedem eine Aufgabe geben und stellt eine Frage: „Wer kann nicht
209
schwimmen?“. Jetzt können Sie sich fragen, wo hier die Kompetenz von Sven Glückpilz, der sich gleich
meldet, ist. Wir wissen von Sven Glückspilz, dass er nicht besonders engagiert, nicht besonders
intelligent, nicht besonders stark, nicht besonders clever ist. Er kann auch nicht schwimmen, er ist auf
einem Wikinger-Boot. Was macht ein Wikinger-Chef mit so einem? Sie können überlegen wie die Frage
aufgelöst wird und ob es hier nicht doch eine Kompetenz bei Sven Glückspilz gibt.
Heger ist ein genialer Führer und er hat die Kompetenz erkannt. Er setzt ihn ein, er gibt ihm die Aufgabe
sich um undichte Stellen zu kümmern und nutzt natürlich hiermit eine Kompetenz, nämlich die Angst
von Sven Glückspilz unterzugehen. Das ist die Kompetenz, die sich hinter einem vermeintlichen Defizit
versteckt. Diese hat man durch die Rekonstruktion eines Defizits und durch die Konstruktion einer
Ressource, ein schönes Beispiel, auch für systemisches Management. Systemisches Management schaut
mehr als alle anderen Management-Ansätze zuvor auf die Ressourcen. Wo ist die Ressource? Wie kann
ich die Ressource nutzen? Wie kann ich die Ressource einsetzen, um ein Ziel zu erreichen?
Anschlussfähigkeit prüfen, d.h. ich muss als Führungskraft, als Berater, als Organisationsentwickler, als
jemand, der organisationales Lernen auslösen will, immer wieder überprüfen, ob ich Anschluss an die
Menschen habe, mit denen ich das machen will. Verstehen sie mich? Können sie mit mir denken?
Möchten sie mit mir etwas verändern? Habe ich auch emotionalen Anschluss an die Mitglieder einer
Organisation?
Maßvoll irritieren bedeutet, dass ich die Menschen nicht überfordern darf. Ich darf nur so weit irritieren,
dass Menschen bereit sind, z.B. ein Defizit zu Erkennen und sagen „Aha, da ist wohl etwas nicht in
Ordnung.“ Das muss sie motivieren etwas zu ändern, es darf sie nicht kaputt machen, es darf sie nicht
so weit irritieren, dass sie nicht mehr mitmachen.
Aufträge und Ziele müssen geklärt werden. Das ist auch eine grundlegende Methode aus der
Systemtheorie oder der systemischen Methoden. Ich muss wissen was mein Auftrag ist, ich muss mein
Ziel vor allem mit meinen Vorgesetzten, meinem Auftraggeber, klären. Das muss man immer wieder
machen, diese Prinzipien sind alle wiederkehrenden Prozesse.
210
Ich muss auch immer wieder zur Bewusstheit und Reflexion anregen, zum Nachdenken über das, was
man tut, und zur Frage „Ist das, was ich tue noch mit den Zielen in Einklang zu bringen?“.
Wenn ich etwas ändern will, etwas neu einführen will, dann muss ich den Leuten, die das machen sollen,
verdeutlichen, warum sie es machen sollen, was der Nutzen ist. Die Menschen handeln sehr
nutzungsorientiert. Ein Mensch tut das, was ihm individuell nützlich ist. Das kann auch manchmal für
andere dysfunktional sein. Aber ich muss möglichst vielen Leuten das Nützliche, das Neue verdeutliche
und auch verkaufen.
Wichtig ist, wenn man in neue Organisationen kommt, dass man Schuldsuche vermeidet, dass man nicht
als neuer Vorgesetzter, als neuer Berater fragt „Wer ist daran schuld?“, sondern dass man mehr nach
Lösungen sucht. Die Vergangenheit kann man bekanntlich nicht verändern. Man kann aber die Zukunft
gemeinsam gestalten.
Die Wahrheits- und Objektivitätsansprüche sind zu vermeiden. Das wird am Kippbild mit der alten
Dame deutlich.
Selbstorganisation ist besonders in großen Organisationen ganz wichtig. Denn es kann kein Vorgesetzter
und kein Berater große Gruppen führen, denken Sie an große Konzerne mit hunderttausenden
Mitarbeitern. Gute Vorgesetzte, wie z.B. Prof. Winterkorn von Volkswagen, der Selbstorganisation
ermöglicht, weil er diesen Konzern mit knapp 400 000 Mitarbeitern eben nicht selbst führen kann.
Selbstorganisation wird über die Hierarchie delegiert und wird über Vorgesetzte an Teams und an
Individuen delegiert und ermöglicht. Das ist die Aufgabe von Vorgesetzten, Selbstorganisation zu
ermöglichen.
Ganz wichtig ist auch, dass wir paradoxe Kommunikationen vermeiden. Das heißt zum Beispiel, dass
Vorgesetzte Entscheidungsbefugnisse an Mitarbeitern abgeben, aber dann sofort einhacken, wenn
Mitarbeiter selbstständig agieren und selbstständig entscheiden. Nach dem Motto „So habe ich das aber
auch nicht gemeint.“. Es gehört Vertrauen dazu und paradoxe Kommunikation würde dann
Selbstorganisation und Motivation wiederrum zerstören.
Sogar Machiavelli hat sich mit den Folgen von Veränderungen beschäftigt. Er hat darauf hingewiesen,
dass jede Neuerung zu Widerstand führt. Dass jeder, der etwas neu macht, die Leute zu Feinden hat, die
von einer alten Ordnung Vorteile hatten. Das heißt, dass das System zurückschlägt. Eine Neuerung hat
Kinderkrankheiten, man muss damit rechnen, wenn man in Organisationen etwas ändern will. Das muss
man einfach einplanen. Wir sind Gewohnheitstiere, kein Mensch ändert sich gern, keine Organisation
ändert sich gern und man verfällt sehr leicht in das Alte zurück.
Die Begriffe werden uneinheitlich benutzt. Man meint aber im Großen und Ganzen das Gleiche.
Change-Management sind sehr oft die Methoden. Organisationales Lernen sind auch Methoden, aber
auch Theorie. Es geht auf jeden Fall um einen dynamischen Vorgang, den möglichst die Mitglieder einer
Organisation anstoßen sollten. Es geht um die Leistungsbereitschaft von Menschen. Diese Prozesse
vollziehen sich in Phasen.
In der Regel muss zunächst eine Problemlage definiert werden. Die problemrelevanten Informationen
müssen gesammelt werden. Sie müssen gemeinsam interpretiert und ausgewertet werden, möglichst mit
der Methode der Survey Guided Feedback. Das bedeutet, dass man gesammelte Daten an alle Beteiligten
211
zurückkoppelt, gemeinsam analysiert, gemeinsam überlegt was zu tun ist, gemeinsame Aktionspläne
und Ziele und auch die möglichen Veränderungen einer Struktur daraus ableitet.
Bei der Organisationsentwicklung geht es immer um zwei große Ziele – einerseits Humanisierung der
Arbeit, aber auch immer gleichzeitig um eine Erhöhung der Leistungsfähigkeit.
In der Regel gibt es drei klassische Phasen, die man an das gruppendynamische Phasenmodell von Kurt
Lewin anlegen kann, der das 1948 schon so erklärt hat. Wenn sich größere Gruppen ändern, wenn sich
Individuen ändern, gibt es ein Auftauen, ein Verändern und ein Einfrieren. Zunächst muss man ein
Problem erkennen. Man braucht ein gemeinsames Problemerkennungsbewusstsein um zum Beispiel
aufzutauen. Man muss Daten sammeln, rückkoppeln etc. Wichtig hier ist, dass man jede
organisatorische Veränderung evaluieren muss, d.h. man braucht Messkriterien, die man auch
regelmäßig prüft.
Der grundlegende doppelte Ansatz der Organisationsentwicklung, siehe Abb. 11/8, setzt an den
Personen und an den Strukturen an. Also muss man beides beachten. Man muss die Motivationen, die
Kompetenzen von Personen beachten. Man muss aber auch die Struktur der Organisation beachten.
Diese muss zum Beispiel selbstgesteuertes Lernen ermöglichen. Wenn eine organisationale Struktur das
nicht ermöglicht, z.B. mehr Autonomie, mehr Flexibilität, weil es eine krasse und starre Ablauf- und
Aufbauorganisation gibt, dann muss man vielleicht Projektmanagement einführen oder andere Formen
des organisationalen Managements, um in diesem Fall mehr Autonomie zuzulassen.
212
Die Veränderungsprozesse funktionieren am besten, wenn man einen Change Agent hat. Ein Profi, der
weiß wie alles geht, wie man Veränderungen bewerkstelligen kann, der alles, was ich bisher gesagt habe,
als Theorie kennt und der es schon einige Jahre gemacht hat.
Wandel und Widerstand ist etwas ganz Normales und zu erwarten. Man muss eben den Widerstand
als eine Informationsfunktion betrachten, als ein Informationsgeschenk, das darauf hinweist, dass etwas
noch nicht ganz richtig gemacht wurde. Widerstand ist normal, Widerstand ist kein Defizit und darf vor
allem nicht pathologisiert werden. Also, wir würden uns alle widersetzen, wenn man irgendetwas mit
uns machen möchte, wenn wir nicht ein Teil der Änderung werden. Man kann einfach von sich selbst
mal darauf schließen was in Organisationen passiert.
Wir sind Gewohnheitstiere, wir ändern uns nicht gern. Wenn von außen jemand kommt, der uns ändern
will, das haben wir schon alle persönlich erlebt, dann wehren wir uns. Man darf die Symptome nicht
bekämpfen.
11.5 Kontrollfragen
1. Definieren sie organisationales Lernen (OL) (F7)
2. Skizzieren sie die drei Stufen des OL! (F8)
3. Skizzieren sie die drei Lernformen des OL (F13-F15)
4. Nennen sie Voraussetzungen von OL (F18, F22)
5. Nennen sie mindestens 7 Grundlegende Prinzipien des Lernens in Organisationen (F23, F27,
F30)
6. Zielgerichtet ändern und Lernen heißt Change-Management – Organisationsentwicklung (OE)
sind die Methoden und die Theorie dazu. Beschreiben sie OE.
7. Mit welcher Folge von Veränderungen ist nach Machiavelli zu rechnen und wie ist darauf zu
reagieren?
8. Erklären Sie zwei Theorien wie Verhalten zu Stande kommt?
9. Was ist unter dem doppelten Ansatz der Organisationsentwicklung zu verstehen?
10. Was ist unter Anpassungs-, Veränderungs- und Prozesslernen zu verstehen?
11. Nennen Sie sechs Prinzipien für Organisationales Lernen und erklären Sie zwei
12. Skizzieren Sie den Prozess des organisationalen Lernens?
213