)
Wissensbasierte Systeme in der Wirtschaft 1991
Jörg BiethahnjJürgen Bloech/
Ronald BogaschewskyjUwe Hoppe (Hrsg.)
Wissensbasierte Systeme
in der Wirtschaft 1991
Anwendungen und Tools
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede
Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne
Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für
Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeiche-
rung und Verarbeitung in elektronischen Systemen.
Höchste inhaltliche und technische Qualität unserer Produkte ist unser Ziel. Bei der Produktion und
Verbreitung unserer Bücher wollen wir die Umwelt schonen: Dieses Buch ist auf säurefreiem und
chlorarm gebleichtem Papier gedruckt. Die Einschweißfolie besteht aus Polyäthylen und damit aus
organischen Grundstoffen, die weder bei der Herstellung noch bei der Verbrennung Schadstoffe
freisetzen .
ISBN 978-3-409-13809-3
Vorwort der Herausgeber
Aus der Breite der hiermit verbundenen Problemstellungen wird deutlich, daß eine umfas-
sende Beschäftigung mit dem Thema Wissensbasierte Systeme im betrieblichen Einsatz
die Disziplinen Betriebswirtschaftslehre und Informatik gleichermaßen angeht.
An der Universität Göttingen wurde vor einigen Jahren mit der Gründung des Arbeitskrei-
ses für Wissensbasierte Systeme (GAWS) eine Institution ins Leben gerufen, die der
Koordinierung, Förderung und Weiterentwicklung der wissenschaftlichen Arbeiten im
Bereich Wissensbasierter Systeme und deren Grundlagen sowie angrenzender Gebiete
dient.
Im Herbst 1989 fand das erste Symposium des GAWS in Göttingen statt. Der große Erfolg
ermunterte die Veranstalter im Januar 1991 eine weitere Vortragsveranstaltung dieser Art
abzuhalten, aus dem der vorliegende Tagungsband entstand. Das auch bei dieser Veran-
staltung zu beobachtende große Interesse der zahlreichen Teilnehmer führte zu der
Absicht, ein solches Symposium jährlich abzuhalten. Für das Frühjahr 1992 ist daher das
dritte Symposium des GAWS in der Vorbereitungsphase.
Die Herausgeber
Autorenverzeichnis
Forschungs gebiete:
Simulation, Ganzheitliches Informationsmanagement, Gestaltung von Expertensystemen
Forschungs gebiete:
Materialwirtschaft, Logistik, Produktionsplanung, Unternehmensplanung, Operations
Research, Unternehmenssimulation
Forschungsgebiete:
Materialwirtschaft, Logistik, Produktionsplanung und -Steuerung, PPS-Systeme, Wissens-
basierte Systeme, Hypermedia, Strategischer Einsatz von Informationstechnologie
7
Forschungsgebiete:
Kognitive Leseforschung, Automation von psychologischen Fragebogentests, Personen-
analyse, Automatisierte Wissensakquisition
Forschungs gebiete:
Methodologien des Knowledge Engineering, Tools zur Entwicklung von Wissensbasierten
Systemen, Einsatz von Wissensbasierten Systemen in Kreditinstituten, Hypertext/ Hyper-
media-Systeme
Forschungsgebiete:
Wissensbasierte Diagnostik in Medizin und Betriebswirtschaftslehre, Recyclebare Exper-
tensysteme, Objektorientierte CASE-Tools, Intelligente Simulation
g
Forschungsgebiete:
Informationsmanagement, Nutzeffekte betrieblicher Datenverarbeitung, Gestaltung von
CIM-Konzepten, Wissensbasierte Systeme, Einsatz Neuronaler Netze für betriebswirt-
schaftliche Aufgabenstellungen
Forschungs gebiete:
Expertensysteme in der strategischen Planung, Auswirkungen des EG-Binnenmarktes auf
mittelständische Unternehmen
Inhaltsverzeichnis
S*P*A*R*K
Ein wissensbasiertes System zur Identifizierung strategischer Einsatz-
möglichkeiten von Informationen und Informationstechnologie . . . . . . . . . . . . . 51
Wissensbasierte Systeme besitzen seit jeher eine relativ große Bedeutung im Rahmen des
Forschungsgebietes der Künstlichen Intelligenz, besonders im Hinblick auf Anwendungen
und den konkreten Einsatz in der Praxis. Insbesondere die berühmt gewordenen Diagnose-
systeme (Puppe 1986) wie das in Stanford von Buchanan und Shortliffe entwickelte
System MYCIN zur Diagnose- und Behandlungsunterstützung bei Menengitis und bakteri-
ellen Infekten (Buchanan/Shortliffe 1984) oder das System DEX.C3 zur Fehlerdiagnose in
automatischen Getrieben bei Ford (Henne/Klar/Wittur 1985), und Konfigurationssysteme
wie das System R1 bzw. XCON von Digital Equipment (McDermott 1982) haben hierzu
beigetragen. Inzwischen existieren weltweit zahlreiche erfolgreiche Anwendungen.
In den Zielsystemen der Manager überwiegen der Ausbau wirtschaftlich nutzbarer Po-
tentiale wie Ertragskraft und Finanzkraft der Unternehmung, soweit strategische Zielsy-
steme angesprochen sind, und die Erzielung von Gewinn, Rentabilität und Kostenminima,
soweit operative Zielrichtungen festgelegt werden. Soweit zu erkennen ist, daß Wissensba-
sierte Systeme Unternehmensziele wirksam unterstützen, sind sie attraktiv für den Einsatz
und die Vorbereitung in den Wirtschaftseinheiten.
Anwendungsgebiete wie
Vertriebsbereiche, Export
Qualitätssicherung
Beschaffungsbereiche
Materialwirtschaft
Logistik
Produktion
Produktionsplanung und -Steuerung
Produktentwicklung
14 Wissensbasierte Systeme in der Betriebswirtschaft
Marktdiagnose
Bilanzanalyse
Forschung und Entwicklung sowie Innovation
Investition, Finanzierung
Strategische Allianzen
JointVentures
Mitarbeiterqualifikationen
Standorte und Verteilungen
sind im Hinblick auf den Einsatz von Wissensbasierten Systemen besonders intensiv zu
untersuchen.
Es treten jedoch auch Entwicklungsnotwendigkeiten der Art auf, die neue eigene Wis-
sensbasen benötigen.
Dazu gehören Flächennutzungen, Standortprobleme, Infrastrukturentwicklungen, neue
Technologien und Materialentwicklungen und ähnliche Fragestellungen.
Im Bereich der Aus- und Weiterbildung in und über betriebswirtschaftliche Komplexe
wird die Nutzung Wissensbasierter Systeme ebenfalls zunehmen und dabei zwei Zielsy-
stemen dienen können, den Unternehmenszielen und· den Individualzielen der Personen.
Auch hier gibt es noch neue Wege zu erkennen und zu beschreiten.
Ausbildungen in
Matthias Schumann greift mit Neuronalen Netzen ein Themengebiet auf, das in Forschung
und Anwendung noch weitgehend in den Kinderschuhen steckt. Allerdings eröffnen diese
Konnektionistischen Systeme zum Teil Anwendungsmöglichkeiten, die herkömmliche
Wissensbasierte Systeme nicht bieten. Die Forschung im Bereich Neuronaler Netze ist da-
bei interdisziplinär ausgerichtet und beschäftigt Informatiker, Physiker, Mathematiker,
Biologen, Mediziner und Psychologen gleichermaßen. Ein Hauptaspekt der Forschungen
liegt in der Lernfähigkeit dieser Systeme.
Der Beitrag beschäftigt sich mit den Möglichkeiten, inwieweit Neuronale Netze zur Lö-
sung betriebswirtschaftlicher Probleme beitragen können. Dabei bieten sich in erster Linie
Problemstellungen an, die nicht auf der Basis exakt beschreibbaren Wissens gelöst werden
können. Schumann klassifiziert die bisherigen Anwendungen in Prognosesysteme, Beur-
teilungssysteme, Planungsprobleme und Steuerungssysteme und stellt dazu ausgewählte
Anwendungsgebiete vor.
16 Wissensbasierte Systeme in der Betriebswirtschaft
Die Chancen des Einsatzes Neuronaler Netze werden vor allem in Aufgabenstellungen
gesehen, die dem Bereich der Mustererkennung zuzuordnen sind, oder wo die Lernfä-
higkeit der Systeme Vorteile gegenüber konventionellen Wissensbasierten Systemen
bietet Die Grenzen Konnektionistischer Systeme werden anhand allgemeiner Proble-
matiken, wie z.B. die der Überprüfbarkeit der internen "Wissensstruktur" und des großen
"Trainingsaufwands" bei der Erstellung des Netzes, und anhand spezifischer Probleme,
wie der schnellen Änderung von Sachverhalten bei betriebswirtschaftliehen Aufgaben,
aufgezeigt.
Betriebswirtschaftliche Aufgabenstellungen, die durch den Einsatz Neuronaler Netze even-
tuell besser gelöst werden könnten als mit den bisher verwendeten Hilfsmitteln wie Diskri-
minanzanalysen, Simulationen und heuristischen Verfahren, sind Insolvenzprognosen im
Bereich der Jahresabschlußanalyse, Beurteilung von Investitionsrisiken, Vorabselektion
von Stellenbewerbern, Auswahl von Prioritätsregeln in der Werkstattsteuerung, Umdispo-
sitionen in der Reihenfolgeplanung, Personalemsatzplanung bei Schichtbetrieb und Tou-
renzuordnungsplanung.
Ronald Bogaschewsky stellt mit S*P*A*R*K ein Wissensbasiertes System vor, das bei der
Identifizierung strategischer Einsatzmöglichkeiten von Informationen und Informations-
technologie (I/T) unterstützen soll. Das System wurde am Los Angeles Scientific Center
der IDM, an dem der Autor von August 1989 bis August 1990 mitarbeitete, konzipiert.
Der Facilitator wurde in der Programmiersprache C++ realisiert. Zur Definition des
Wissens wurde eine Knowledge Representation Langnage (KRL) entwickelt. die in hy-
brider Weise Frames, Regeln und Prozeduren vereinigt. Der entwickelte KRL-Translator
dient der Übersetzung von in der KRL beschriebenem Wissen in C++-Code. Die Abarbei-
tung des Wissens erfolgt nach dem Backchaining-Prinzip, wobei durch Realisierung eines
Blackboard-Ansatzes gleichzeitig mehrere Analysetechniken aktiviert sein können.
Weiterhin ist die Erstellung von Szenarios möglich.
Roland Heuermann berichtet über Probleme bei der Evaluation von Tools zur Wis-
sensakquisition. Mit der Wissensakquisition ist eine sehr zeitaufwendige und kostenin-
tensive Phase bei der Erstellung WissensbasierteT Systeme angesprochen. Des weiteren
wird in dieser Phase die Qualität des Systems maßgeblich bestimmt. Zur Erfassung und
Strukturierung von Wissen werden heute teilweise hierfür konzipierte Tools eingesetzt
Diese sind jedoch zum Teil spezifisch für bestimmte Problemtypen der Wissensverarbei-
tung oder sogar an einzelne Entwicklungsumgehungen gebunden.
Bärbel Heller berichtet über Erfahrungen bei der Entwicklung eines Diagnosesystems unter
Verwendung einer kommerziellen Expertensystem-Shell. Ein konkretes Projekt befaßte
sich mit der Bluthochdruck-Therapie, wobei die bei der Entwicklung des Systems
gewonnenen Erfahrungen auf betriebswirtschaftliche Diagnosesysteme übertragbar sind.
Die eingesetzt Shell war Expert System Environment (ESE) von IBM, das auf Mainframes
unter den Betriebssystemen VM und MVS und in einer Runtime-Versionauch auf PS/2
unter DOS verfügbar ist. Der Beitrag lag leider zum Zeitpunkt der Drucklegung des
Tagungsbandes noch nicht vor.
Ulrich Wandel stellt mit HAFÖX ein Wissensbasiertes System vor, das zum Auffinden von
Förderprogrammen im Handwerkswesen dient. Dabei wird die optimale aus einer sehr
großen Zahl möglicher Kombinationen von Fördermöglichkeiten gesucht. Zur Im-
plementierung des Systems wurde Projector-11 verwendet, eine Shell, die Wissen in Form
eines semantischen Netzes speichert.
Wandel stellt in seinem Beitrag Vor- und Nachteile bei der alternativen Verwendung von
Shells und Programmiersprachen bzw. bei Verwendung hybrider Systeme zur Erstellung
WissensbasierteT Systeme gegenüber. In die Bewertung werden auch Kosten-Nutzen-
Aspekte einbezogen.
18 Jürgen Bloech, Ronald Bogaschewsky
Uwe Hoppe stellt den Wissensbasierten Anlageberatungsassistenten ABASS vor, der die
Vermögensanlageberatung in Kreditinstituten unterstützt. Das System ist im Rahmen einer
Kooperation zwischen der Abteilung für Wirtschaftsinformatik der Universität Göttingen
und einem Göttinger Kreditinstitut während einer 15-monatigen Entwicklungszeit entstan-
den.
Die Methodik, die der Entwicklung von ABASS zugrundegelegt wurde, basiert auf einem
Vorgehensmodell zur Entwicklung Wissensbasierter Systeme in Anlehnung an Kurbel so-
wie auf der Erstellung eines Konzeptuellen Modells im Sinne einer implemen-
tationsunabhängigen Darstellung der Expertise auf hohem Abstraktionsniveau.
Aus den unterschiedlichen Darstellungsformen Konzeptueller Modelle wurde das auf der
"Vier-Ebenen-Theorie" der KADS-Methodologie beruhende Modell ausgewählt, da es eine
konzeptuelle Beschreibungssprache im Rahmen einer geschlossenen Methodologie zur
Verfügung stellt.
Das Vorgehensmodell wird, nach Integration des Konzeptuellen Modells, der systemati-
schen Darstellung des Projektverlaufs unterlegt. Im Rahmen der Konzeptionsphase werden
Aspekte der Durchführbarkeit von Expertensystem-Projekten sowie der Analyse des gene-
rischen Problemtypen behandelt Die Wissenserhebung und -analyse ist im wesentlichen
durch die Erstellung des Konzeptuellen Modells gekennzeichnet. Die Beschreibung der
Implementierungsphase beinhaltet eine Kurzdarstellung des verwendeten Tools XiPlus
sowie Aspekte der Operationalisierung und Modularisierung.
Der bisherige Stand des Projekts ist das Ergebnis des ersten Entwicklungszyklus. Der ab-
schließende Ausblick verdeutlicht Aspekte zukünftig nachfolgender Entwicklungszyklen.
Literaturverzeichnis
Buchanan, B.G.; Shortliffe, E.H. (1984), Rule Based Expert Systems: The MYCIN Expe-
riments of the Stanford Heuristic Programming Project, Reading.
Ehrenberg, D.; Krallmann, H.; Rieger, B. (Hrsg.) (1990), Wissensbasierte Systeme in der
Betriebswirtschaft, Berlin.
Henne, P.; Klar, W.; Wittur, K.-H. (1985), Dex.C3 - Ein Expertensystem zur Fehlerdia-
gnose im automatischen Getriebe, in: Brauer, W.; Radig, B. (Hrsg.): Wissensbasierte
Systeme- 01-Kongreß 1985, Berlin.
Hruschka, H. (1988), Neuere Ansätze der Repräsentation von Methoden- und Modell-
wissen in betriebswirtschaftliehen Entscheidungsunterstützungssystemen, in: Ange-
wandte Informatik, Heft 4, S.158-176.
Hruschka, H. (1988a), Use of fuzzy relations in rule-based decision support systems for
business planning problems, in: European Journal of Operational Research 34, S.326-
335.
Ligeza, A. (1988), Expert systems approach to decision support, in: European Journal of
Operational Research 37, S.100-110.
Schumann, M.; Wittrnann, S.; Mertens, P. (1986), Expertensysteme zur Unterstützung des
Wirtschaftsprüfers?, in: Betriebswirtschaftliche Forschung und Praxis 6, S.517-531.
Sieben, G.; Bönig, W.; Hafner, R. (1986), Expertensysteme zur Bewertung ganzer Unter-
nehmen?, in: Betriebswirtschaftliche Forschung und Praxis 6, S.532-549.
Neuronale Netze zur Entscheidungsunterstützung in der
Betriebswirtschaft
Abteilung Wirtschaftsinformatik Il
der Georg-August-Universität Göttingen
Inhaltsverzeichnis
1 Einführung 23
2.2.1 Typologie 27
2.2.2 Lernstrategien 28
3.1 Überblick 31
5 Zukünftige Forschungsbereiche 39
6 Literaturverzeichnis 48
Mattbias Schumann 23
1 Einführung
In der Informatik findet man in jüngerer Zeit verstärkt Publikationen, die sich mit der Idee
beschäftigen, intelligente Maschinen nach dem Vorbild des menschlichen Gehirns zu
bauen. Für die sogenannten "Neuronalen Netze" oder auch "Konnektionistischen Systeme"
erkunden Informatiker, Physiker, Mathematiker, Psychologen, Biologen usw. den Aufbau
und die Einsatzmöglichkeiten. Es interessiert dabei besonders, wie man die Lernfähigkeit
derartiger Systeme nutzen kann.
Nachfolgend wird untersucht, ob solche Anwendungen auch dazu beitragen können, be-
triebswirtschaftliche Problemstellungen zu lösen. Eine erste, allerdings noch geringe Zahl
an Beispielen liegt mittlerweile vor.
Ausgehend von einer Einführung in Neuronale Netze werden ausgewählte Beispiele des
betriebswirtschaftliehen Bereichs skizziert. Für die dabei identifizierten Aufgabenbereiche
findet dann eine Abschätzung von Chancen und Grenzen des Neuronalen Netz-Einsatzes
statt. Schließlich wird versucht, weitere potentielle Einsatzbereiche für Neuronale Netze in
der Betriebswirtschaft aufzuzeigen.
Das Verhalten solcher künstlicher Systeme sowie ihr Aufbau sollen nachfolgend stark
vereinfacht an einem kleinen Beispiel erläutert werden.
An der Universität Singapur hat man ein Neuronales Netz zur Berufsberatung von Schul-
und Hochschulabsolventen entwickelt (Kin/Hwee 1989). Hintergrund war dabei, daß die
Berufsberatung aufgrund der hohen Zahl Ratsuchender völlig überlastet war. Man hatte ein
typisches Massenproblem zu lösen.
Auf der Basis einer Befragung des zu Beratenden, in bezug auf seine Interessen, seine
Fähigkeiten und seine Ausbildung sowie seine Einstellung zu gewissen Berufsgruppen,
unterbreitet das Neuronale Netz einen Vorschlag flir die Berufswahl. Dazu werden ca. 85
Faktoren erhoben und aus fast 300 Berufen ausgewählt.
Man mag nun unter sozialen Aspekten viel Negatives in einer solchen Beratungsform
sehen. Die Autoren des Systems berichteten jedoch auf einer Konferenz im eigenen Land,
wo die Anwendung überhaupt viel Publizität erlangt hat, von einem erfolgreichen Einsatz.
Für den Anwender stellt sich das System als Black Box dar, für die er sein Profil
beschreibt, das weitgehend in der Form von binären Ja/Nein-Entscheidungen in das Netz
eingegeben wird. Er erhält dann vom Neuronalen Netz den ermittelten Berufsvorschlag.
Schaut man sich den internen Aufbau des Systems genauer an, so zeigen sich allerdings
komplexe Strukturen.
Die Neuronen sind in einzelnen Schichten angeordnet, die neben der Ein- und Ausga-
beschicht auch aus zusätzlichen Zwischenschichten bestehen können. Die Eingabe- und
Ausgabeschichten kommunizieren mit der Umwelt. Verbindungen bestehen nur zwischen
Neuronen verschiedener Schichten. Die Stärke jeder Verbindung wird in dem künstlichen
Netz durch ein sogenanntes "Verbindungsgewicht" festgelegt. Eingabeinformationen
werden von der Eingabeschicht über die Zwischenschichten in die Ausgabeschicht und die
zugeordneten Ergebnisse transformiert.
Dazu wird der Output eines Neurons mit Hilfe einer "Propagierungs-" oder "Über-
tragungsfunktion", einer Aktivierungs- und einer Ausgabefunktion bestimmt (Hecht-
Nielsen 1988, S. 37 ff.). Im einfachsten Fall ermittelt die Propagierungsfunktion die Stärke
des Eingangssignals, indem sie die Output-Signale der vorgelagerten Zellen mit den
Mattbias Schurnano 25
technisches l!ltN
Interesse
spiele
Musik- I!~ Pilot
instrument
Brillen- I!~
träger
Die Inputsignale (I) und das Outputsignal (0) können nur die Werte 0 oder 1 annehmen.
Die Gewichte (g) liegen im Bereich zwischen 0 und 1 der Aktivierungszustand (AZ) sei
eine beliebige nicht-negative Zahl und der Schwellenwert (S) der Ausgabefunktion (AGF)
sei auf 1 gesetzt.
g1 = 0,5 AZakt= 1
g2 = 1,0 S=1
g3 = 0,3
Die Propagierungsfunktion (PF) ermittelt den Propagierungswert (PW), indem sie für alle
Inputströme das Produkt aus Inputwert und Gewicht summiert, die Aktivierungsfunktion
(AF) mittelt den Propagierungswert und den aktuellen Aktivierungszustand (AZakt>· Falls
der neue Aktivierungszustand (AZneu) kleiner als der Schwellenwert ist, wird dem Output
der Wert= 0 zugeordnet, sonst 1. Damit erhält man folgenden Outputwert:
26 Neuronale Netze zur Entscheidungsunterstützung
~ neuer
Aktivierungszustand
neuer
g2 t I.* g.
I I ~
Aktivierungszustand ~,.
~
~ ~~T
i=1 =
(Propagierungswert
+aktueller
~
Aktivierungszustand)/2 0 i= 1 0 i=O
...
Y,,
Input x,~
X W
y
>
+1
/ ...., u
Schwellwert-
2. Output Konzept
-1
X
n
n
Y=f( Lw ·X.-ß)
i=1 I I
2.2.1 Typologie
Unterschiedliche Netztypologien ergeben sich aus der Anordnung und Verbindung der
Prozessorelemente, die im Regelfall in Gruppen, sogenannten "Schichten", aufgebaut sind.
Neben den Ein- und Ausgabeschichten findet man Topologien mit Zwischenschichten,
sogenannten "Hidden-Layers". Elementverbindungen bestehen üblicherweise nicht inner-
halb einer Schicht, sondern nur zwischen den verschiedenen Ebenen. Es existieren sowohl
vollständige als auch teilvernetzte Strukturen.
2.2.2 Lernstrategien
Bevor man Netze für eine Anwendung einsetzen kann, sind sie auf das Problem einzustel-
len. Sie werden nicht programmiert sondern trainiert. Ausgangspunkt bildet ein leeres
Netz. Während der Lernphase wird diesem Netz eine große Zahl von Anwendungsbei-
spielen zuführt. Dabei geht es um das Festlegen der Verbindungsgewichte zwischen den
Neuronen und ihren Aktivierungszuständen. Wird beim Training des Netzes zur Berufsbe-
ratung z. B. häufig als Muster festgestellt, daß für den Pilotenberuf prädestinierte Bewer-
ber technisches Interesse besitzen müssen, schwindelfrei sind und keine Brille tragen, so
würden die Verbindungsgewichte zwischen den entsprechenden Eingabeknoten und dem
Ausgabeknoten, der auf den Beruf "Pilot" verweist, verstärkt (siehe Abbildung 1). An
diese Lernphase schließt sich der eigentliche Netzeinsatz an, der z. B. aufgrund sich
ändernder Umweltbedingungen immer wieder durch weitere Lernphasen unterbrochen sein
kann.
Lernregeln beschreiben die Dynamik des Netzes, mit der die synaptischen Verbindungs-
gewichte angepaßt werden. Es können drei Trainingsarten unterschieden werden (Hecht-
Nielsen 1988, S. 449):
Im ersten Fall werden dem Netzwerk zu den gewünschten Ausgaben die zugehörigen
Eingaben bereitgestellt Aufgrund der Abweichung zwischen dem gewünschten und dem
tatsächlichen Output verändert man über eine Funktion die Gewichte der Verbindungen.
Bei dem bewerteten Lernen wird den Eingaben keine Ausgabe zugeordnet Der vom Netz
gelieferten Ausgabe stellt man vielmehr die Bewertung eines Kritikers (Abweichung)
gegenüber.
Im dritten Fall organisiert sich die Ausgabe selbständig. Das Netz erhält weder Ausgabe-
werte noch die Beurteilung seiner Ergebnisse. Es paßt die Gewichte z. B. so an, daß die
Verbindung zwischen zwei Zellen zu verstärken ist, wenn beide Zellen gleichzeitig
aktiviert sind (Hebb'sche Regel).
Das überwachte Lernen sei anband des im betriebswirtschaftliehen Bereich häufig ver-
wendeten "Backpropagation-Algorithmus", bei dem die Gewichte rückwärts, von der Aus-
gabe- zur Eingabeschicht verändert werden, kurz skizziert {Lippmann 1989). Die Lernform
wird auf mehrschichtige, symmetrische Netze angewendet, bei denen die Ausgabe- oder
Schwellenwertfunktion eine kontinuierlich monotone Abbildung der Inputwerte in den
Bereich zwischen 0 und 1 vornimmt.
Matthias Schumann 29
Die vier Schritte zur Anpassung der Gewichte sind in Abbildung 4 dargestellt. Nach dem
Initialisieren in Schritt 1, werden die Gewichte in den Schritten 2 bis 4 solange durch das
Lösen von Testfällen verändert, bis ein stabiler Zustand erreicht ist. Dazu können mehrere
100.000 Iterationen notwendig sein. Zum Anpassen der Gewichte werden folgende
Formeln verwendet:
..........i ..........
Gewichte anpassen
ja
Gewichte anpassen:
W"
1] (t+ 1) = w·1]· (t) + n * f·J * x·1
fj für j, Knoten der Ausgabeschicht
f· = y· (1 - ~-)
J J J
* (d·-
J J
y·)
f· = x· (1 - x·) ~ fk
J J J k
* w·k
J
Anwendungsfelder für Neuronale Netze sind dadurch gekennzeichnet, daß kein exakt be-
schreibbares Wissen zur Problemlösung existiert. Dies ist zum Beispiel ein Abgrenzungs-
merkmal gegenüber Expertensystemen. Typische Einsatzbereiche sind (Kemke 1988, S.
157 ff.):
3.1 Überblick
Ordnet man den bislang bearbeiteten Bereichen Aufgabentypen zu, läßt sich eine Viertei-
lung vornehmen:
Ein Einsatzgebiet Neuronaler Netze, das bislang starke Beachtung gefunden hat, ist die
kurzfristige Aktienkursprognose. Die Ansätze basieren auf der technischen Analyse. Die
Aufgabenstellung wird deshalb gerne gewählt, weil sich der Kursverlauf von Wertpapieren
üblicherweise im kurzfristigen Bereich schlecht glätten läßt und damit konventionelle Pro-
gnosemethoden eine unzureichende Performance zeigen.
Mit einem japanischen Projekt, an dem die Nikko Securities Co. und der Computerher-
steller Fujitsu beteiligt sind, versucht man ein neuronales Aktienprognosesystem zu ent-
wickeln, bei dem für die Handelstage des Folgemonats generelle Kauf- und Verkauf-
vorschläge für die Tokioter Wertpapierbörse gegeben werden (Kimoto/Asakawa 1990).
Als Input-Vektor des fünfschichtigen Backpropagation-Netzwerks werden u.a. die Verän-
derungen des Aktien-Indexes, technische Marktinformationen, der Markt-Zinssatz, der
Durchschnitt des New York Dow-Jones Indexes, der Börsenumsatz sowie die Wech-
selkursrate des Yen verwendet. Die Input-Werte werden vom Neuronalen Netz auf einen
kontinuierlichen [0,1]-Vektor abgebildet. Man benutzt einen rollierenden Lernalgorithmus,
bei dem jeweils ein Vorhersagemonat nach dessen Ablauf als Lerninput ergänzt und der
älteste Monat gestrichen wird. Dabei wurde zwischen einer Kauf-/Halte- und einer Kauf-
Nerkauf-Strategie unterschieden, wobei sich in Tests die Ergebnisse der letzteren als
besser erwiesen haben. Es wird zum Kauf geraten, wenn der Output-Wert des Neuronalen
Netzes über einem Schwellenwert liegt, ansonsten sollte ein Verkauf durchgeführt werden.
Bei einem Vergleich mit der Multiplen Regressions-Analyse (MRA) zeigte das Neuronale
Netz einen Korrelations-Koeffizienten von 0.991 mit den gelernten Daten (100.000
Iterationen), wohingegen dieser bei der MRA nur bei 0.543 lag.
An der University of California in Berkeley hat man ein System zur Beurteilung von
Wertpapieren entwickelt (Dutta/Shekhar 1989). Bisher wurden die Wertpapiere bezüglich
ihres sogenannten Verzugsrisikos mit Hilfe statistischer Methoden, wie z. B. der Regressi-
ons~alyse, klassifiziert. Unter dem Verzugsrisiko ist die Wahrscheinlichkeit zu verstehen,
daß Zinstermine nicht eingehalten werden. Papiere mit sehr niedrigem Risiko werden
dabei der Klasse AAA zugeordnet, anschließend folgt Klasse AA usw.. Als Ein-
flußfaktoren werden unter anderem die Rückzahlungsfähigkeit des Emittenten und dessen
Mattbias Schumann 33
In der Lernphase hatte das dreischichtige gegenüber dem zweischichtigen Netz Vorteile, in
der Testphase jedoch waren keine Unterschiede bezüglich des Performance-Grades festzu-
stellen. Gegenüber einer zusätzlich durchgeführten Regressionsanalyse waren die Netze in
allen Fällen überlegen, die Prognosen der Neuronalen Netze erwiesen sich um mehr als 10
Prozentpunkte besser. Dieses war unabhängig von der Netzanordnung.
In den USA wurden bereits von verschiedenen Anbietern Neuronaler Netze Anwendungen
zur Beurteilung der Kreditwürdigkeit potentieller Schuldner entwickelt. Eines dieser
Systeme stammt von Nestor, ein anderes, das mittlerweile bei mehreren US-Banken einge-
setzt wird, wurde von der Hecht-Nielsen Corp. realisiert (Schulte 1989). Traditionell wird
die Bewertung der Kreditwürdigkeit von Privatkunden mittels eines Punktesystems durch-
gefdhrt, das die Diskriminanzanalyse verwendet. Dabei erhält der Bewerber eine gewisse
Anzahl von Punkten in Abhängigkeit verschiedener Charakteristika. Die wechselseitigen
Einflüsse dieser Charakteristika zueinander werden jedoch nicht berücksichtigt. Deshalb
hat die amerikanische Firma Adaptiv Decision Systems Inc. versucht, das Problem mit
ihrem "First Adaptiv Decision System", welches auf einem Backpropagation-Netz basiert,
anzugehen.
270.000 vergebene Kredite des Jahres 1985, bei denen die Rückzahlungsquote und der Ge-
winn bekannt waren, fanden als Trainings- und Testdaten Verwendung. Die Eingabe-
schicht bestand aus 100 Knoten, die 14 Charakteristika repräsentierten. Darunter wurden
sowohl Merkmale, die mehr symbolischer Natur sind, wie z. B. die berufliche Stellung
oder der vorhandene Grundbesitz, als auch numerisch erfaßbare Kennzeichen, wie z. B.
Alter oder das Einkommen, erfaßt. Die symbolischen Merkmale wurden jeweils mit einem
Inputknoten kodiert, die numerischen Merkmale wurden Wertebereichen zugeordnet. Die
Ausgabeschicht umfaßte einen einzigen Knoten, über den eine Schätzung des "schlechten
Schuldverhältnisses" erfolgt, worunter das erwartete Verhältnis der nicht zurückbezahlten
Restschuld zur ausstehenden jährlichen Schuld zu verstehen ist. Dieses "schlechte Schuld-
verhältnis" ist nicht das optimale Maß zur Beurteilung eines Kreditantrags, es wurde nur
34 Neuronale Netze zur Entscheidungsunterstützung
Ein Problem der Anwendung bestand darin, daß bei Neuronalen Netzen kaum festgestellt
werden kann, wie ein bestimmtes Ergebnis zustande gekommen ist. Wenn jedoch ein
Kreditantrag abgelehnt wird, dann möchte der Kreditsuchende Gründe dafür wissen. Daher
mußte ein Programm entworfen werden, das das Netz beobachtet und somit die Frage
beantworten kann, welche Charakteristika anders ausfallen müßten, damit der potentielle
Schuldner den Kredit bekäme. Das Programm ändert zu jedem Zeitpunkt nur einen Input-
wert, so daß alle möglichen Werte durchgespielt werden. Für jeden dieser Inputs wird die
Veränderung im Endergebnis festgestellt und somit wird ersichtlich, welche Merk-
malsausprägung ftir die Nichtgewährung des Kredits verantwortlich ist.
Eingesetzt wird das auf einem HNC ANZA Bord basierende Netz seit Sommer 1988 von
einer internationalen Finanzierungsgesellschaft mit mehr als 400 Filialen. Die Runtime
Version des Netzes wurde auf vernetzten PCs installiert, wobei über einen Download vom
Host in einem Batchiauf halbjährlich eine Aktualisierung der Daten stattfindet.
Ein ähnliches System entwickelte eine mittelgroße spanische Bank in Zusammenarbeit mit
Arthur Anderson. Das "Credit Card Evaluation System" soll den quantitativen Teil eines
bestehenden wissensbasierten Systems zur Beurteilung von Kreditkarten ablösen. Durch
den kontinuierlichen Rückfluß historischer Daten kann das Netz trainiert werden
(Valino/Rubio 1989)).
Nachfolgend soll eine erste, allgemeine Beurteilung solcher Netze für betriebswirtschaftli-
ehe Fragestellungen versucht werden. Dabei fließen auch Erfahrungen ein, die von Proto-
typen stammen, welche bislang noch nicht angesprochen wurden.
In vielen Beispielen wird darüber berichtet, daß der Zeitbedarf zum Erstellen einer Neuro-
nalen Netz-Anwendung, verglichen mit herkömmlichen Alternativlösungen, sehr gering
ist.
Ein solcher Vergleich wurde mit zwei Anwendungen durchgeführt, die englischsprachige
Texte in eine natürlich-sprachliche akustische Ausgabe umsetzen (Schreter 1988, S. 33 f.).
Mattbias Schumann 35
Es handelt sich dabei um das Neuronale Netz NETtalk und das regelbasierte Expertensy-
stem DECtalk. Der Erstellungsaufwand für NETtalk belief sich auf einige Monate, in
denen die grundlegende Netzstruktur (29 Eingabe-, 120 interne und 21 Ausgabeknoten)
programmiert und die Lernphase vorbereitet wurde. Der eigentliche Lernvorgang konnte in
einer Nacht abgewickelt werden. Dagegen dauerte die Entwicklung des wissensbasierten
Systems mehrere Personenjahre, da jede kontextabhängige Umsetzung eines Buchstabens
in ein Phonem als eigene Regel der Wissensbasis abgeleitet werden mußte. Die Lei-
stungsfähigkeit beider Systeme ist nahezu identisch. Dieses macht die Vorteile beim
Erstellen eines Neuronalen Netzes besonders deutlich.
Als weiterer Vorteil ist zu nennen, daß auch "verrauschte Eingabedaten" behandelt werden
können. Darunter versteht man, daß ein Neuronales Netz eine Lösung findet, obwohl
Input-Informationen vielleicht nur unvollständig vorliegen oder in ihrem Eingabe-Muster
vom Idealbild für eine mögliche Ausgabe-Zuordnung abweichen.
Andere Autoren heben hervor, daß sich ein solches System über das Verändern der
Verbindungsgewichte an eine neue Umweltbedingung anpassen könne.
Allerdings dürfen eine Reihe von Nachteilen, die auf dem Neuronalen Netz-Konzept beru-
hen, nicht übersehen werden:
1. Ergebnisse lassen sich kaum oder nur schwer nachvollziehen, da sie implizit durch das
"Gewichtesystem" entstehen und kein direkter Bezug zum "verbalen" Wissen vorhan-
den ist.
2. Werden Neuronale Netze für Optimierungsprobleme eingesetzt, so sucht das System
ein mögliches Minimum innerhalb des Netzwerkes. Aufgrund der Netzstruktur besteht
aber immer die Gefahr, daß kein globales sondern nur ein lokales Minimum gefunden
wird.
3. Ein weiteres Problem ist die Konfigurierung des Netzes, da es bisher keine Einstel-
lungsregeln für dessen Parameter gibt. Es existieren z. B. keine Hilfen, wie die Einga-
bevektoren für eine konkrete Klassifikationsaufgabe zu finden sind. Hier kann nur ein
Ausprobieren oder die Orientierung an bereits vorhandenen Beispielen weiterhelfen.
Durch ihre Fähigkeit, aus Beispielen zu lernen, machen es Neuronale Netze überflüssig,
Heuristiken abzuleiten, die in Regeln abzubilden sind. Dies hat sich bis heute beispiels-
weise für viele Expertensysteme als schwierig erwiesen, speziell wenn sich das notwen-
dige Wissen nicht scharf abgrenzen läßt. Es bedarf allerdings eines nicht unerheblichen
Aufwandes, um die Beispielfälle zu sammeln und deren Qualität zu überprüfen. Ebenfalls
aufwendig ist es, die Strukturen des Neuronalen Netzes (Anzahl der Knoten, Anzahl der
Schichten) festzulegen. Darüber hinaus sind in der Trainingsphase umfangreiche
Hardwareressourcen erforderlich. Von den im Vergleich zu anderen Vorgehensweisen
dagegen häufig viel kürzeren Systemerstellungszeiten wurde bereits berichtet.
36 Neuronale Netze zur Entscheidungsunterstützung
Erfolgversprechend scheint der Einsatz Neuronaler Netze überall dort, wo die Muster-
erkennung einen Lösungsansatz bietet. Man kann sich kleinere Systeme vorstellen, die
solche Aufgaben für umfassendere, integrierte Anwendungen übernehmen, wie bei-
spielsweise die technische Chartanalyse bei der Anlageberatung oder die Risikobewertung
eines Versicherungsinteressenten als Teil der Kundenberatung. Solche Systeme würden
damit Integrationslücken schließen, die bislang mit algorithmischen oder regelorientierten
Vorgehensweisen nur unzureichend gelöst werden konnten und daher häufig ausgespart
wurden. Sie könnten dann auch z. B. mit Expertensystemen sinnvoll kombiniert werden.
Für die Anlageberatung ist bei den verfügbaren Prototypen eine Integration in
umfassendere Anwendungen notwendig, da im allgemeinen die vorhandene Portfo-
liostruktur des Kunden nicht berücksichtigt wird und damit der Aspekt der Risikostreuung
bei der Beratung unbeachtet bleibt.
Als ähnliche Erweiterungen sind auch Ansätze zur Benutzermodeliierung mit Neuronalen
Netzen zu sehen, wie sie an der Abteilung Wirtschaftsinformatik der Universität Erlangen-
Nürnberg verfolgt werden (Bodendorf 1990). In einem Benutzermodell werden dazu Daten
über den Anwender einer Software gespeichert, die Informationen über sein Dialogver-
halten beschreiben. Daraus lassen sich Rückschlüsse auf die Dialoggestaltung (geübter,
ungeübter Benutzer) ziehen. Mit dem Neuronalen Netz wird nun auf Basis des Benutzer-
verhaltens die Einordnung des Anwenders in einen sogenannten "Stereotyp" versucht, um
in Abhängigkeit dieser Zuordnung den Bildschirmdialog einer Anwendungssoftware
einzustellen. Erste Versuche der Benutzerklassifikation am Beispiel des Betriebssystems
OS/2 zeigen erfolgversprechende Ansätze.
Schließlich wäre es denkbar, daß man Neuronale Netze dort einsetzt, wo bislang ebenfalls
nicht erklärte Simulationsergebnisse verwendet werden, wenn sich nach Versuchen die
Leistungsfähigkeit Konnektionistischer Systeme als vorteilhaft erweist.
Mattbias Schumann 37
Ein Hauptproblem von Beratungssystemen, die auf dem Neuronalen Netz-Ansatz beruhen,
dürfte in der mangelnden Erklärungsfähigkeit liegen. Für das skizzierte System zur
Aktienkursprognose kann eigentlich nur der Anlageberater als Zielperson gesehen werden,
da das Neuronale Netz zwar einen Lösungsvorschlag unterbreitet, dem man aber aufgrund
der impliziten Wissensrepräsentation "blind" vertrauen muß.
Wird dagegen ein Bereich in der Fertigung unterstützt, so ist der Meister in der Werkstatt
oder der Schichtführer eines Fertigungsleitstandes die Zielperson. Eine Anwendung zur
Störungsbeseitigung würde z. B. immer dann eingesetzt, wenn ungeplante Situationen in
der Fertigung (z. B. ein(e) Maschinenausfall/-störung oder ein Materialengpaß) eintreten.
Aufgrund der fehlenden Erklärungsfähigkeit ist allerdings mit großen Akzeptanzpro-
blemen zu rechnen, an denen solche Lösungen im Extremfall scheitern könnten.
Auch Abgangssysteme als Form der Expertensysteme (Mertens 1990), die beispielsweise
verwendet werden sollen, um Ergebnisse eines Simulationsexperiments zu interpretieren,
scheinen als Ergänzung eines Neuronalen Netzes ungeeignet. Praktische Erfahrungen mit
Expertensystemen zeigen, daß für die Erklärung von Ergebnissen, die auf Schlußfolgerun-
gen aufgebaut sind, mindestens soviel "Wissen" erforderlich ist, wie für das Gewinnen der
Lösung selbst. Häufig sind darüber hinaus noch zusätzliche Informationen notwendig, um
auch eine benutzeradäquate Erklärung zu bieten. Dieses ist zur Zeit ebenfalls ein Schwach-
punkt vieler konventioneller Expertensysteme.
Um nun die Ergebnisse des Neuronalen Netzes erklären zu können, müßte ein als
"Ergänzung" vorgesehenes Expertensystem mindestens soviel Wissen beinhalten, wie
implizit das Neuronale Netzwerk. Damit wäre es notwendig, zwei vollständige Systeme
bereitzustellen. Speziell bei unvollständigen Datenstrukturen ist dann aber noch nicht
gewährleistet, daß auch beide Systeme zum gleichen Ergebnis kommen. Insofern läßt sich
das Problem der Erklärungsfähigkeit Neuronaler Netze auch mit einem Abgangssystem
nicht lösen.
Allenfalls kann man sich vorstellen, daß bei zeitkritischen realtime-Entscheidungen das
Netzwerk befragt wird, wo hingegen für Analysen ohne großen Zeitdruck ein Exper-
tensystem eingesetzt wird.
Eventuell könnte man aber auch eine Vorgehensweise beschreiten, die an das in Kapitel
3.2 beschriebene System zur Kreditwürdigkeitsprüfung angelehnt ist. Dazu wäre es
notwendig, daß das Neuronale Beratungssystem um ein Simulationshilfsmittel ergänzt
wird, mit dem sich durch Variation sämtlicher Inputvariablen die Ursache der Empfehlung
schrittweise herausarbeiten läßt. Aufgrund komplexer Abhängigkeiten, insbesondere
dadurch, daß mehrere Zwischenknoten verwendet werden, könnten sich dabei allerdings
Interpretationsprobleme ergeben.
38 Neuronale Netze zur Entscheidungsunterstützung
Jeder 'Fall', den das System bearbeitet, kann die Gewichte verändern, oder
das System wird in Abständen gewartet und während der Zwischenzeiten verändern
sich die Gewichte nicht.
Wählt man die erste Alternative und treten in den Datenbeständen periodische Trends auf,
so werden diese eventuell zu unerwünschten Verfälschungen des Netzes führen. Daher
erscheint es günstiger, die zweite Variante zu benutzen, bei der ein 'Netzwerk-Ingenieur'
die Auswahl und Wartung der Trainingsfälle übernimmt und insofern die Gefahr der
'falschen Trends' gemindert wird. Dennoch hat man dann immer noch das Problem fest-
zulegen, zu welchen Zeitpunkten Trainingsphasen einsetzen sollten. Desgleichen könnte
bei einigen Aufgabenstellungen das vielzitierte Schmalenbachsehe 'Vergleichen des
Schlendrians mit dem Schlendrian' eintreten. Ist der Testdatenbestand bereits ungünstig, so
wird man das System und damit dessen Empfehlungen auch entsprechend ungünstig
einstellen.
Ein weiterer Kritikpunkt sind die Anzahl der Verarbeitungsknoten sowie die im System
verborgenen Ebenen. Viele Knoten erhöhen die Komplexität, so daß man nur schwer die
vom System gegebenen Empfehlungen beurteilen kann. Allerdings haben Untersuchungen
ergeben, daß in Einzelfällen die Systemleistung positiv mit der Anzahl innerer Knoten
korreliert ist. Nach wie vor läßt sich aber keine Empfehlung aussprechen, wie für einzelne
Problemstellungen die Ebenenzahl zu gestalten ist. Hier sind empirische Untersuchungen
bislang widersprüchlich.
Auch der immer als positiv beurteilte Aspekt der Fehlertoleranz muß kritisch hinterfragt
werden. Es ist zu unterscheiden, ob unvollständige oder verrauschte Inputdaten vorliegen
oder ob einzelne Verarbeitungsknoten ausgefallen sind. Zu einer ordnungsgemäßen
Lösungstindung müßten diese Fälle getrennt werden. Dieses geht aber nur, wenn dem
System mitgeteilt wird, welche Inputdaten nicht verfügbar (dies ist relativ einfach) oder
welche mit Störgrößen behaftet sind. Letzteres wäre mit aufwendigen statistischen
Analysen verbunden. Der Ausfall einzelner Netzkomponenten ist dagegen von außen kaum
feststell bar.
Fraglich ist auch, ob in Problembereichen, bei denen sich die Umweltzustände sowie die
Zielsetzungen rasch ändern, der Einsatz Neuronaler Netze erfolgversprechend ist. Als
Beispiel sei hier die Analyse von Kunden-Portfolios im Bankensektor genannt, bei der sich
ständig ändernde Umweltzustände und unterschiedliche Kundenpräferenzen berücksichtigt
werden müssen (Borkowski 1989). Schließlich bleibt anzumerken, daß die Netze durch das
Mattbias Schurnano 39
"Pauken von Beispielen" wohl kaum Fähigkeiten entwickeln werden, neue (kreative)
Lösungen zu finden. Allenfalls werden sie ähnliche Muster/Situationen erkennen und
einordnen.
5 Zukünftige Forschungsbereiche
Altman hat für seine Arbeiten bei der Insolvenzprognose ganze Variablenprofile verwen-
det und einer multivariaten Diskriminanzanalyse unterzogen (Altman 1968). Eine umfas-
sende empirische Untersuchung zur Auswahl von einzubeziehenden Faktoren und ihren
Gewichtungen wurde im deutschsprachigen Raum von Baetge mit 40000 getesteten
Jahresabschlüssen durchgeführt (Baetge/Huß/Niehaus 1986, S. 610). Allerdings kann diese
Vorgehensweise nicht vollständig befriedigen, da sich bei Anwendung der Diskriminanz-
analyse kritisieren läßt, daß Voraussetzungen, wie z. B. eine multivariate Normalverteilung
der verwendeten Variablen, normalerweise nicht erfüllt sind. Trotzdem schneidet das Ver-
fahren regelmäßig relativ gut ab (auch bei Kreditwürdigkeitsprüfungen).
Man könnte sich hier vorstellen, daß man auf Basis historischer Daten Neuronale Netze
trainiert. Dazu müßten die historischen Kennzahlen eines Jahres oder deren Entwicklung
über mehrere Jahre hinweg als Eingangsmuster dienen. Außerdem müßte bekannt sein, ob
das Unternehmen weiterhin solvent ist oder insolvent wurde. Ein Perception Netz, das
einen Knoten als Ausgangsschicht enthält, könnte eingesetzt werden. Es wird zwischen
gefährdeten und risikolosen Unternehmen mit Hilfe eines Schwellenwertes getrennt. Die
40 Neuronale Netze ZID" Entscheidungsunterstützung
Schwierigkeit besteht bei dieser Anwendung darin, festzulegen, wieviele Knoten und
Schichten die Netztypologie besitzen soll, aus wieviel Variablen der Inputvektor besteht
sowie welche Variablen Verwendung fmden sollen. Dazu sind verschiedene Alternativen
aufzubauen und miteinander zu vergleichen.
Bei der Auswahl der verwendeten Kennzahlen lassen sich mehrere Vorgehensweisen
vorstellen:
1. Es werden sämtliche Kennzahlen verwendet, mit denen sich direkt oder indirekt
Aussagen über die Unternehmensperformance ableiten lassen. Damit würde sich ein
relativ großer Inputvektor ergeben.
2. Man führt aufgrund der historischen Daten eine Clusteranalyse durch, um die Trenn-
schärfe einzelner Kennzahlen zu bestimmen und verwendet dann diese. Hierbei ist an-
zumerken, daß ja gerade die Funktionen der Clusteranalyse vom Neuronalen Netz
selbst übernommen werden sollen.
Von Odom und Shara wurde ein erster Test versucht. Sie analysierten die Kennzahlen von
insgesamt 129 Firmen, von denen 65 im nächsten Jahr insolvent wurden und 64 solvent
blieben (Odom/Shara 1990). Als Trainingsgruppe verwendeten sie 74 Firmen (38/36) von
der Grundgesamtheit Die Autoren benutzten die von Altman vorgeschlagenen Kennzah-
len:
Eigenkapital/ Gesamtvermögen,
Einbehaltene Gewinne I Gesamtvermögen,
Gewinne vor Steuern und Zinsen I Gesamtvermögen,
Marktwert des Anlagevermögens I Gesamtschulden,
Umsatz I Gesamtvermögen.
Eingesetzt wurde ein Perception-Netz mit einem Hidden Layer. Als Problem stellte sich
bei der Anwendung die mit der Backpropagation-Regel benötigte Lernphase von 191.400
Iterationen heraus, so daß das Training ca. 24 Stunden benötigte. Die Ergebnisse des
Neuronalen Netzes und einer multivariaten Diskriminanzanalyse wurden für drei Test-
gruppen verglichen:
Die prozentualen Analyseergebnisse in bezugauf die richtige Vorhersage mit den beiden
Verfahren zeigt Abbildung 5. Dabei schneidet das Neuronale Netz bei allen Vergleichen
für insolvente Unternehmen besser ab. Bei den solventen Unternehmen ist dagegen die
Analyse nicht eindeutig. Es muß aber berücksichtigt werden, daß Fehler bei der nicht
erkannten Insolvenzvorhersage größere Konsequenzen haben als solche, bei denen das
Unternehmen als solvent eingestuft wird. Daher sollten weitere Tests durchgeführt werden,
die auf anderen Kennzahlenkombinationen beruhen. An der Abteilung Wirtschaftsinfor-
matik der Universität Erlangen-Nürnberg wurde mit entsprechenden Arbeiten begonnen.
3. Vielleicht könnte man auch die Einstellung von Regeln eines PPS-Systems mit einem
Konnektionistischen System unterstützen. Mertens beschreibt beispielsweise ein auf
der Mustererkennung beruhendes Verfahren zur Auswahl von günstigen Prioritätsre-
geln bei der Werkstattfertigung (Mertens 1977, S. 789 f.). Gerade die schlecht
beherrschbare Mischung alternativer Auswahlregeln zur Auftragseinplanung konnte
damit vereinfacht werden. Seinerzeit hat man als Merkmale einzelne Kennzahlen
gewählt, für die eine Klassenbildung vorgenommen wurde. Abhängig von möglichen
Zielsetzungen (z. B. Kapitalbindung, Termintreue), wurden alternative Prioritätsregeln
simuliert, um für Merkmals-Zielsetzungs-Kombinationen Reihenfolgen für günstige
Prioritätsregeln festzulegen.
Insolvenzprognose
.:' .
'
:
~ ~ ~ ~ ~ ~
00 00 r- 00 \0
~
..... ~
0\
r-:
r-
M
0r-
r-:
r-
N.
0\
r- r-
00
"' "'
Solvenzprognose
Diskriminanzanalyse
Abbildung 6 faßt verschiedene Einsatzbereiche für Neuronale Netze und alternative DV-
gestützte Hilfsmittel für Beurteilungsprobleme tabellarisch zusammen.
Anwendungen, die mit der bereits behandelten Aktienkursprognose vergleichbar sind, fin-
den sich auch in der Volkswirtschaftslehre, etwa bei der Schätzung eines Konjunkturin-
dexwertes. Für die Lernphase lassen sich als Inputvektor Indikatoren wie Auftragsein-
gänge, verschiedene Preisindices oder z. B. der Aktienindex heranziehen (über eine oder
mehrere Perioden, Periodenwerte oder geglättete Werte). Nun könnte man anband der
historischen Daten mit dem jeweiligen Konjunkturindex die Lernphase gestalten
(Zimmermann 1990). Ein solcher Problemansatz läßt sich z. B. mit einem auf der
Mustererkennung basierenden Vorgehen vergleichen, bei dem ebenfalls ein Lernmecha-
nismus für das Verfahren implementiert wird. Als weiteres Anwendungsgebiet könnte die
Wechselkursprognose genannt werden. Abbildung 7 nennt potentielle Forschungsbereiche
für Prognosesysteme.
44 Neuronale Netze zur Entscheidungsunterstützung
Dabei steht man allerdings erst am Anfang. Zu berücksichtigen ist, daß bei einer Änderung
der Fahrer/LKW-Relation und Ausstattung wohl ein neuer Lernprozeß initiiert werden
müßte, für den dann wiederum geeignetes Testmaterial erforderlich wäre.
Eine Vorgehensweise wird hier von Rose u. a. mit dem Expertensystem zur Umdisposition
'Umdex' vorgeschlagen (Rose/Klirnek 1990). Das System läßt sich in die Aufgaben
'Diagnose der Störungswirkungen' und 'Beratung zur Umdisposition' trennen. Ausgehend
von einer Abweichungserkennung werden eine Abweichungsbeurteilung, Maßnahmener-
mittlung und Maßnahmenauswahl durchgeführt. Störungs- sowie auftragsbezogene Beur-
teilungen dienen zur Abweichungsanalyse. Es wird schrittweise, vom Kapazitätsbereich
über den Werkstattauftragsbereich zum einzelnen Kundenauftrag und dem gesamten Auf-
tragsnetz, vorgegangen.
Eine alternative Vorgehensweise ist ein Simulationsansatz, bei dem für eine eng begrenzte
Betrachtungsperiode und einen ausgewählten Werkstattbereich verschiedene Lösungsan-
sätze auf ihre Eignung überprüft werden. Diesem Ansatz muß eine entsprechende
Abweichungserkennung vorausgehen.
Man könnte nun annehmen, daß die beschriebene Aufgabenstellung auch mit einem
Neuronalen Netz gelöst werden kann. Es müßten nur genügend Umdispositionsfli.lle, die
Ursachen ihrer Auslösung sowie die abgeleiteten Umplanungsmaßnahmen gesammelt
werden. Diese könnten dann als Trainingsmaterial für das Neuronale Netz dienen. Es
46 Neuronale Netze zur Entscheidungsunterstützung
lassen sich mehrere Lösungsstufen vorstellen, bei denen das Netz im ersten Schritt nur eine
Maßnahme oder eine Maßnahmenkette zur Störungsbeseitigung vorschlägt. In einem
zweiten Schritt könnte dann die Umplanung direkt vorgenommen werden.
Bei genauerer Betrachtung erweist sich diese Vorgehensweise allerdings als recht
komplex. Welche Input- und Outputdaten werden verwendet? Außerdem muß der
Umplanungszeitraum für alle Testfälle konstant sein. Für den Eingabevektor reicht es
sicher nicht aus, nur die Störung und den betroffenen Auftrag vorzugeben, dem System
müssen in bewerteter Form das umplanungsrelevante Auftragsspektrum und die Ferti-
gungssituation sowie deren Bewertung bekannt sein, um eine Nutzen-Kosten-adäquate
Lösung vorzuschlagen. Als Eingabemuster läßt sich zum Beispiel für eine Ausfallma-
schine eine Engpaßkategorie aufgrund der Nutzungshäufigkeit und Ausfallzeit vorgeben.
Außerdem ist die Bedeutung der betroffenen Werkstattaufträge (z. B. über eine Auf-
tragspriorität) zu klassifizieren. Allerdings stellt sich die Frage, ob nicht auch Informatio-
nen zu den übrigen Maschinen und eingeplanten Aufträgen des betrachteten Bereichs
notwendig sind, da Umplanungswirkungen entsprechend ausstrahlen und dann Aufwen-
dungen in anderen Bereichen erfordern. Es könnte daher der Fall eintreten, daß das Muster
(Beschreibung der Fertigung, der Aufträge usw.) vollständig abgebildet werden müßte,
ähnlich eines Simulationslaufes. Die Kosten der Umplanung, die sich etwa aus zu-
sätzlichen Rüstzeiten, Überstunden oder Konventionalstrafen durch zu späte Abarbeitung
des Auftrags ergeben würden, wären dann zu minimieren. Es müßte nun eine entspre-
chende Arbeitsfolge identifiziert werden. Zu hinterfragen ist z. B., ob man dabei die
übliche Vorgehensweise nicht umkehren müßte und den Werkstattaufträgen Maschinen
zuweisen sollte. Dabei wären die zu einem Kundenauftrag gehörenden Aufträge jeweils
vollständig abzuarbeiten.
Weiterhin ist zu prüfen, ob bei derart umfangreichen Inputdaten ein Lemprozeß überhaupt
möglich ist oder ob die jeweilige Fertigungssituation nicht durch so spezielle Faktoren
gekennzeichnet wird, daß man dem System immer wieder neue Muster zuführt, so daß es
nicht zum gewünschten Einstellen des Netzes kommt. Darüber hinaus kann man ein
Lernen nur unter der Bedingung durchführen, daß sich die verrichteten Arbeitsgänge, die
verwendeten Maschinen, sowie die Zusammensetzung der Fertigungsauftragsstruktur im
Zeitablauf nicht ändert.
Bei den beschriebenen Aufgaben handelt es sich jeweils um einzelne Teilgebiete eines
größeren Anwendungsbereichs, die mit einem Neuronalen Netz zu bearbeiten wären, um
so zu einer Lösung zu kommen, die im größeren Aufgabenkontext verwendet werden
kann. Speziell bei Beratungssystemen umgeht man so die bei Konnektionistischen
Systemen fehlende Erklärungsfähigkeit Beispiele sind die mit Neuronalen Netzen ver-
suchte Aktienprognose in einem System zur umfassenden Anlageberatung oder das
Identifizieren eines Benutzerprofils in einem Beratungssystem, um den Dialog möglichst
anwendergerecht zu führen.
Matthias Schurnano 47
6 Literaturverzeichnis
Baetge, J., Huß, M. und Niehaus, H., (1986), Die statistische Auswertung von
Jahrsabschlüssen zur Informationsgewinnung bei der Abschlußprüfung, in: Die
Wirtschaftsprüfung 39, Nr.22, S.605 ff.
Beaver, W., (1966), Financial Ratios as Predictors of Failure, in: Journal of Accounting
Research 21 ,No. 1, S.71 ff.
Corall, J. (1990), ESPRIT ANNIE Project, in: ffiC (Hrsg.), The Third European Seminar
on Neural Computing: The Marketplace, London.
Kemke, C. (1988), Der Neuere Konnektionismus - Ein Überblick, in: Informatik Spektrum
No. 11, S.143 ff.
Matthias Schumann 49
Kimoto, T. und Asakawa, K. (1990), Stock Market Prediction System with Modular
Neural Networks, in: IJCN International Joint Conference on Neural Networks, San Diego,
California, June 17-21, 1990, Vol. 1, San Diego, S.1 ff.
Kin, C. L. und Hwee, T. A. (1989), Connectionist Expert Systems for Intelligent Advisory
Applications, in: Pau, L. F. et al. (Hrsg.), Expert Systems in Economics, Banking and
Management, Amsterdam u. a., S.167 ff.
Lippmann, R. P.(1987), An Introduction to Computing with Neural Nets, in: IEEE ASSP
Magazine o.Jg., No. 4, S.7 ff.
Odom, M. D. und Sharda, R. (1990), A Neural Network Model for Bankruptcy Prediction,
in: IJCN International Joint Conference on Neural Networks, San Diego, California, June
17-21, 1990, Vol. 2, San Diego, S.163 ff.
Poliac, M. 0. et al. (1987), A Crew Scheduling Problem, in: Butler, C. und Caudill, M.
(Hrsg.), IEEE First International Conference on Neural Networks, Vol. IV, San Diego,
S.779 ff.
Rose, H. und Klimek, St. (1990), Stand des Expertensystems UMDEX zur wissensbasier-
ten flexiblen Umdisposition in der Fertigung, in: Bodendorf, F. und Mertens, P. (Hrsg.),
Universität Erlangen-Nürnberg, Abteilung Wirtschaftsinformatik, Arbeitspapier Nr.
2/1990, Nürnberg.
Schulte, B. (1989), Der Brain-Trust, in: Manager Magazin 14, Nr. 9, S.150 ff.
Valino, J. und Rubio, R. (1989), Credit Card Evaluation System Based on Neural
Computing, in: Bemold, T. (Hrsg.), Commercial Expert Systems in Banking and Finance,
Corporate Knowledge: How to Get, Evaluate, Use and Maintain, Proceedings of the 2.
International Symposium SGAICO, Lugano, S.165 ff.
Zimmermann, H. G. (1990), Neuronale Netze aus Sicht der Ökonomie, in: Fachgruppe
0.1.3 "Neuronale Netze" der Gesellschaft für Informatik e.V. (Hrsg.), Nachrichten
Neuronale Netze 3, S.2 ff.
S*P*A*R*K
Ein Wissensbasiertes System zur Identifizierung strategischer
Einsatzmöglichkeiten von Informationen und Informationstechnologie
1 Einführung 53
2.1 Wettbewerbskräfte 53
4 Konzeptvon S*P*A*R*K 60
4.1 Systemüberblick 60
4.2 Benutzungsoberfläche 61
4.3 Teacher 62
4.5.3 Implementierungskonzept 67
4.5.5 Wissensrepräsentationssprache 70
6 Anhang 76
7 Literaturverzeichnis 81
S*P*A*R*K 53
1 Einführung
Nachfolgend wird das Konzept von S*P*A*R*K und dessen Implementierung vorgestellt.
Der Prototyp integriert eine Hypertext-basierte Lernkomponente mit einer multimedialen
Beispieledatenbank und einer wissensbasierten Komponente.
Nach der Einführung in die Problemstellung der wettbewerbsorientierten Nutzung von IIT,
wird zunächst das Projekt zum Strategie Information Management Support am Los
Angeles Scientific Center (LASC) der IBM vorgestellt, in dessen Rahmen auch
S*P*A*R*K konzipiert wurde. Anschließend erfolgt eine detaillierte Beschreibung des
Konzepts von S*P* A*R*K und seiner Implementierung.
2.1 Wettbewerbskräfte
Der ständig zunehmende Wettbewerbsdruck, dem sich die Unternehmung ausgesetzt sieht,
erfordert die Einleitung effizienter Maßnahmen durch die Geschäftsleitung zur Aufrechter-
haltung bzw. zur Erhöhung der Wettbewerbsfähigkeit Diese Maßnahmen sollten sich auf
die den Wettbewerb beeinflussenden Kräfte konzentrieren, die in der Abbildung 1 darge-
stellt sind (Porter 1980, S.4):
54 Ronald Bogaschewsky
Potentielle neue
Marktteilnehmer
'lt
I Lieferanten
I
I
a .....
,. Konkurrenten ~
'
b I
I Kunden l
~
)I'
I Substitute I
Abb.I: Wettbewerbskräfte nach Porter
Die Unternehmung befindet sich hier in der mittleren Box im Konkurrenzkampf mit ihren
Mitwettbewerbern. Das Zusammenwirken der fünf Wettbewerbskräfte wird bei Benennung
der Pfeile in der Abbildung 1 deutlich:
Der Begriff Informationstechnologie kann hier durchaus mehrere konkrete Technologien umfassen, wie
z.B. die elektronische Datenverarbeitung, Telefon, Telefax, Satellitenübertragungen etc.
2 Daten werden in diesem Beitrag als Grundelemente von Informationen verstanden. Anderen Definitio-
S*P*A*R*K 55
chert, über Datenleitungen transportiert und verteilt, von Datensichtgeräten aus abgerufen
etc. Diese hardwaremäßige Komponente der Informationstechnologie wird durch die
Software ergänzt, die den zweckgerichteten Betrieb und das Zusammenwirken der Hard-
ware ermöglicht. Dies sind u.a. Betriebssysteme, Datenbankmanagementsysteme, Übertra-
gungsprotokolle, Mail-Systeme etc. (siehe auch Bakopoulos 1985).
Zweifellos existieren aber auch betriebliche Bereiche, die sich der rechnergestützten
Informationsverarbeitung entziehen, oder wo erst seit kurzer Zeit Ansätze entwickelt wer-
den, die eine solche Unterstützung ermöglichen. Hier ist insbesondere an Führungsent-
scheidungen zu denken, die häufig auf der Basis unvollständiger und unsicherer Daten
getroffen werden müssen. Unterstützung kann bei einigen dieser Problemstellungen durch
Wissensbasierte Systeme gegeben werden, die u.a. in der Lage sind, unsicheres Wissen auf
einem Rechner abzubilden.
Die beiden genannten Beispiele skizzieren die bis heute vorherrschenden Arten der rech-
nergestützten lnformationsverarbeitung. Die Automatisierung von Tätigkeiten wurde durch
die Integration von Anwendungen und die automatisierte Auswertung von Daten ergänzt.
Die reine Automatisierung hatte als vorrangiges Ziel die schnellere, exaktere und eventuell
komfortablere Erledigung bisher manuell ausgeführter Tätigkeiten. Dagegen nutzen in
integrierten Systemen mehrere Anwendungen die gleichen Daten gemeinsam oder geben
diese an andere Anwendungen weiter. Zusätzlich können Daten analysiert und als Ent-
scheidungsgrundlage aufbereitet werden.
nen, wie z.B. der, daß Daten Informationen in maschinenlesbarer Form sind, soll hier nicht gefolgt wer-
den.
56 Ronald Bogaschewsky
Während die oben genannten integrierten Systeme permanent weiterentwickelt werden, er-
wächst aus der Konzeption von Systemen, die Informationen und Informationstechnologie
mit dem Ziel nutzen, Wettbewerbsvorteile zu erlangen, ein neues Aufgabengebiet Die
Erlangung dieser Wettbewerbsvorteile kann auf verschiedenste Weise verfolgt werden.
Merkmale, die sich positiv auf die eigene Wettbewerbsposition auswirken, liegen in der
Differenzierung der eigenen Produkte bzw. Dienstleistungen von denen der Konkurrenten,
der Entwicklung neuer Produkte, der Steigerung des Kundenservices oder der Senkung der
beim Kunden anfallenden Kosten, z.B. durch die Herstellung wartungsfreier Produkte u.ä.
Dabei ist eine Konzentration auf bestimmte Marktsegmente möglich, die Abhängigkeit
von Lieferanten oder Kunden vom eigenen Unternehmen kann erhöht oder Eintrittsbarrie-
ren für potentielle neue Marktteilnehmer geschaffen werden (Gongla 1989). Die Planung
von Maßnahmen zur Erreichung von Wettbewerbsvorteilen ist der strategischen Planung
zuzuordnen, da es sich hierbei um Aktivitäten handelt, die die Realisierung der Unterneh-
mensziele direkt und langfristig beeinflussen.
Der Einsatz von IIT zur Erlangung von Wettbewerbsvorteilen wird in jüngster Zeit ver-
stärkt in der Literatur diskutiert (Porter 1985; Wiseman 1988; Gongla 1989). Dabei über-
wiegen Darstellungen von Praxisfällen und Auswertungen über die Verbreitung des
strategischen Einsatzes von IIT. Eine geschlossene Theorie ist bisher nicht erkennbar. Es
existieren einzelne Ansätze zur prinzipiellen Beurteilung strategischer An-
wendungsmöglichkeiten von IIT, die jeweils unterschiedliche Sichtweisen der Problematik
in den Vordergrund stellen.
Für eine Unternehmung stellt sich die Frage, wie vorgegangen werden soll, wenn strategi-
sche Einsatzmöglichkeiten für IIT gesucht werden, die die Erlangung eines Wettbewerbs-
vorteils versprechen und auch aufrecht zu erhalten sind. In Unternehmungen werden zu-
nehmend Arbeitsgruppen, die sich aus Mitarbeitern der Abteilung Informationssysteme
rekrutieren, gebildet. Diese sollen nach erfolgversprechenden Einsatzmöglichkeiten von
IIT suchen, stehen damit jedoch oft vor einer schwer lösbaren Aufgabe. Die hiermit
verbundenen Tätigkeiten erfordern eine enge Vertrautheit mit dem oder den
Betrachtungsobjekt(en) (Produkte/Dienstleistungen) und eine gute Kenntnis der
Unternehmungsumwelt Diese Fähigkeiten sind in erster Linie in betriebswirtschaftlich
ausgebildeten und in diesem Bereich in der Praxis tätigen Personen ausgeprägt. Eine wei-
tere Anforderung an die Fähigkeiten der Teammitglieder sind Kenntnisse auf dem Gebiet
der Informationstechnologie, da andernfalls unter technischen Aspekten unrealistische
Anwendungen konzipiert werden könnten. Ein sinnvoll zusammengesetztes Team sollte
daher aus Betriebswirten und Informatikern oder aus Wirtschaftsinformatikern bestehen,
die zudem über Erfahrungen in der Teamarbeit verfügen. Aufgrund des strategischen
Charakters der Aufgabenstellung sollte von Beginn an und während der gesamten Projekt-
dauer das obere Management bzw. die Unternehmensführung eingebunden sein.
Die Hauptproblematik liegt jedoch häufig darin, daß die Aufgabenstellung schlecht struk-
turiert ist und es keine direkten Hilfsmittel zu deren Lösung gibt. Der Problemlö-
sungsprozeß dürfte aus einer Mischung von Ist-Analyse, dem Anfertigen von Prognosen
und Szenarien, der Anregung durch Praxisbeispiele und einem großen Anteil kreativer
S*P*A*R*K 57
ldeenfindung bestehen. Bei einer solchen Vorgehensweise bestehen jedoch in der Regel
für die gegebene Aufgabe keine großen Erfahrungen in der Unternehmung. Zudem man-
gelt es den an der Planung Beteiligten an direkt verfügbaren Analysemethoden und einer
strukturierten Sammlung von Praxisbeispielen. Die Hinzuziehung externer Berater scheint
in diesem Fall zunächst einen Ausweg darzustellen. Allerdings sind adäquat qualifizierte
und erfahrene Berater in diesem Problemfeld bisher ausgesprochen rar und damit sehr
teuer. Weiterhin unterliegt die zu planende strategische Anwendung eventuell einer
strengen Geheimhaltung, die u.U. die Einbeziehung Externer verbietet (siehe auch
lves/Sakamoto/Gongla 1986).
Die dargestellten Schwierigkeiten, die bei der Suche nach strategischen Ein-
satzmöglichkeiten von llT entstehen, ließen die Entwicklung eines rechnergestützten
Hilfsmittels als besonders nutzbringend erscheinen. Mit einem solchen System kann ein
Teil des "Wissens" mehrerer Experten für dieses Aufgabengebiet zur Verfügung gestellt
werden. Ergänzend können die zahlreich veröffentlichten und bekannten Anwendungsbei-
spiele aus der Praxis in entsprechend aufbereiteter und strukturierter Form zugreifbar sein.
Zusätzlich bestände die Möglichkeit, mit dem System eine Lernkomponente bereitzustel-
len, die dem Benutzer das für qualifizierte Entscheidungen notwendige Wissen vermittelt.
Diese Idee führte zur Konzeption von S*P*A*R*K, einem Wissensbasierten System zur
Identifizierung strategischer Einsatzmöglichkeiten von llT. Dabei war es nicht das Ziel,
Entscheidungen vom System treffen zu lassen oder die Rolle eines menschlichen Beraters
vollständig zu übernehmen. Der Entscheidungsprozeß ist daftir zu vielschichtig geartet und
bedarf der Einbeziehung mehrerer Fachleute. Vielmehr soll S*P*A*R*K bei der Generie-
rung eifo/gversprechender Ideen behilflich sein.
Zur Erreichung dieser Ziele wurde ein Beratungssystem, der SIM-Consultant (SIM/C),
entworfen, der in der Abbildung 2 skizziert ist (vgl. Gongla 1988, S.5):
58 Ronald Bogaschewsky
ISession Manager I
- Wettbewerbskräfte
Expert - Geschäftsstrategien
System - Strategische Nutzung von IIT
Environ- - Geschäftsabläufe
ment(ESE) - Informationssysteme
- IT-Strategien
Daten-
I I
Service I I Tool
basen Funktionen I I Box
Kern des Konzepts ist ein Wissensbasiertes System, das die aufgeführten sechs Problembe-
reiche abdecken sollte. Diese sechs Module des SIM-Consultant sollten bei der Durchfüh-
rung der im folgenden aufgeführten Aufgaben behilflich sein (Gongla 1988; Gongla 1987):
Skizzierung von Zielen, Prioritäten, Strategien und Chancen. Ansätze zur Integration
von IIT in die Gesamtstrategie durch Defmition von globalen Aufgaben und Zielen
des Informationsmanagements.
Unterstützung bei der Ermittlung von Effektivität und Effizienz der Dienstleistungen
zur Informationsversorgung in der Unternehmung.
Wie aus der Abbildung 2 ersichtlich wird, sollten die sechs Module unter Verwendung von
IBM's Expert System Environment implementiert werden, das auf Mainframes unter den
Betriebssystemen VM und MYS verfligbar war (IBM 1986). Dabei war vorgesehen, mit
dem Session Manager eine einheitliche Benutzungsoberfläche bereitzustellen und eine
Führung des Benutzers anzubieten. Zusätzliche Servicefunktionen (fool Manager, Data
Manager und Presentation Manager) ermöglichen den Zugriff auf Unterstützungssysteme
(Decision-Support-Systeme, Projekt-Management-Systeme, OR- und Statistik-
Programme), auf verschiedene Datenbasen (Data Dictionaries, Datenbanken, benutzerei-
gene Dateien) und auf Präsentationsprogramme (Report-Generatoren, Grafikprograrnme).
Zunächst wurden Prototypen zu den einzelnen Modulen entwickelt, um auf diese Weise
Erfahrungen flir die Umsetzung des Gesamtkonzepts zu gewinnen.
Aufbauend auf den Ideen von Porter (Porter 1980; Porter 1985) und Arbeiten am
Advanced Business Institute der IBM, wurde für den Bereich Wettbewerbskräfte der
Prototyp FüRCES entwickelt (Gongla 1988). FüRCES hilft bei der Bestimmung der rela-
tiven Stärke der Verhandlungsmacht von Lieferanten und Kunden, der Bedrohung durch
neue Marktteilnehmer, Substitutionsprodukte bzw. -dienstleistungen und durch Konkur-
renten. Anschließend erfolgt eine Analyse möglicher Wirkungen von IIT-Anwendungen
auf die Wettbewerbssituation.
THE STRATEGIST (Schumann 1987c; Schumann 1987d) hilft bei der Analyse von
Geschäftsstrategien durch Verknüpfung eines Marktattraktivitäts-/Marktmacht-Portfolios
mit einem Portfolio, das Technologieattraktivität mit der Verfligbarkeit und Stärke der vor-
handenen Informationstechnologie-Ressourcen kombiniert.
S*P*A*R*K soll bei der Ideengenerierung behilflich sein. Ziel ist das Auffinden erfolg-
versprechender Einsatzmöglichkeiten von IIT zur Erlangung langfristiger Wettbewerbs-
vorteile. In der ersten Version des Prototyps (Ives/Sakamoto/Gongla 1986) sollte eine
Lernkomponente (Tutor) zusammen mit Beispielen aus der Praxis auf einem Videoband
bereitgestellt werden. Eine wissensbasierte Komponente (Facilitator) diente als Unterstüt-
zung bei der Ideenfindung und Bewertung potentieller Einsatzmöglichkeiten von IIT.
Dabei wurde der Customer Resource Life Cycle (CRLC) (lves/Learmonth 1984) ver-
wendet, der aus der Sicht des Kunden den Beschaffungs-, Gebrauchs- bzw. Verbrauchs-,
Instandhaltungs- und Entsorgungsvorgang des Produkts in 13 Stufen darstellt.
Die sehr positiven Reaktionen bei Theoretikern und Praktikern auf diesen ersten Proto-
typen führten zu dem Vorhaben, S*P*A*R*K konzeptionell zu überarbeiten, zu erweitern
und neu zu implementieren. Ziele waren dabei in erster Linie die Bereitstellung weiterer
Methoden neben dem CRLC, die Erweiterung und verbesserte Präsentation der Beispiele-
sammlung, eine bessere Integration der Beispiele in den Prozeß der Ideenfindung, eine
bessere Interaktionsfähigkeit zwischen Benutzer und System (Gongla 1988) sowie die
Bereitstellung des Prototypen auf Workstation-Ebene.
Im folgenden wird das Konzept der aktuellen Version von S*P*A*R*K sowie die einge-
setzte Implementierungstechnik aufgezeigt.
4.1 Systemüberblick
Der aktuellen Version von S*P*A*R*K liegt ein Konzept zugrunde, das eine funktionale
Dreiteilung des Systems in den Teacher, die Example Database (Beispielesammlung) mit
ihrer Zugriffskomponente (Browser) und den Facilitator vorsieht Der Teacher und die
Beispielesammlung wurden gegenüber der ursprünglichen Version von S*P*A*R*K
logisch und physisch voneinander getrennt. Auf die Beispiele, die in eine Datenbank ein-
gestellt wurden, kann im jetzigen Konzept sowohl direkt über den Browser, als auch über
das wissensbasierte Analysehilfsmittel, den Facilitator, zugegriffen werden. Die jeweiligen
Funktionen können über eine Window-orientierte, gemeinsame Benutzungsoberfläche
angesprochen werden. In der Abbildung 3 ist der Aufbau von S*P*A*R*K schematisch
wiedergegeben:
S*P*A*R*K 61
User Interface
Example Knowledge
Database Base
4.2 Benutzungsoberfläche
Da als Zielgruppe potentieller Nutzer von S*P* A*R *K zumindest teilweise Personen
gesehen wurden, die nicht zwangsläufig über Erfahrungen mit dem direkten Umgang mit
Rechnern verfugen, lag der Schwerpunkt bei der Konzeption der Benutzungsoberfläche in
einer möglichst einfachen Systemhandhabung. Somit wurde ein klares Layout angestrebt
sowie eine fehlerarme Befehlseingabeform. Dabei sollte die notwendige Bedienungseffizi-
enz gewahrt bleiben, um geübten Benutzern die Möglichkeit zu schnellen Eingaben zu
bewahren.
Mit dem Presentation Manager stand hierfür ein geeignetes Werkzeug zur Verfügung, mit
dessen Hilfe die Entwicklung einer komfortablen, Window-orientierten Benutzungsober-
fläche möglich ist. Der Benutzer muß lediglich in einige Grundregeln für die Arbeit mit
dieser Oberfläche eingewiesen werden. So ist z.B. zu jedem Zeitpunkt immer nur genau
ein, optisch hervorgehobenes, Window aktiv, d.h. nur dieses Fenster akzeptiert momentan
Eingaben, obwohl eventuell noch weitere Fenster, gegebenenfalls nur teilweise, sichtbar
sind. Sichtbare, aber momentan nicht aktive Windows können durch einfaches Anklicken
62 Ronald Bogaschewsky
mit der Maus aktiviert werden. Zur Überwindung dieser und eventueller weiterer bedie-
nungstechnischer Probleme, ist eine Hilfe-Funktion vorgesehen.
Die Windows enthalten prinzipiell ein Auswahlmenü oder Textinformationen. Über die
Menüs können die einzelnen S*P*A*R*K-Module aufgerufen, eine Eingabe aus einer vor-
gegebenen Menge von Antworten auf Systemfragen oder aus einer Liste von Beispielfallen
ausgewählt werden.
Text-Windows werden für das Anzeigen von Hilfe-Texten und für Erklärungen auf Benut-
zerfragen bezüglich der Vorgehensweise bei Konsultationen des l1acilitators verwendet.
Der elektronische Notizblock benutzt ebenfalls ein Text-Window. In diesem können Ideen,
Bemerkungen, Zwischenergebnisse etc. gespeichert und wieder abgerufen werden. Diese
Funktion soll bei Benutzung jeder Systemkomponente permanent zur Verfügung stehen.
4.3 Teacher
Die Erklärungs- und Lernkomponente, der Teacher, hat zwei grundlegende Zielsetzungen
(Gongla 1989):
Förderung des Verständnisses in welcher Weise IIT zur Erreichung der Geschäftsziele
beitragen können und
Präsentation und Verdeutlichung von Techniken zur Analyse der Unternehmens-
situation.
Die erste Zielsetzung verlangt die Darstellung und Diskussion von Wettbewerbskräften
sowie von Strategien zur Beeinflussung der Wettbewerbsposition der Unternehmung unter
besonderer Berücksichtigung des Einsatzes von IIT. Insofern werden in S*P*A*R*K auch
die ersten beiden Module des SIM-Consultant, zumindest teilweise, mit abgedeckt.
Weiterhin soll im Teacher das Konzept des Systems S*P* A *R*K verdeutlicht werden.
Als benutzungsseitige Anforderung wurde die Entwicklung einer einfachen, aber effizien-
ten Oberfläche gesehen, die dem Benutzer viel Freiheit läßt, sich auf inhaltliche Aspekte
zu konzentrieren.
Eine grundsätzliche Entscheidung war darüber zu treffen, ob der Teacher auf dem Rechner
installiert, in Form eines Videos bereitgestellt oder in klassischer Weise als papiergebun-
denes Dokument realisiert werden sollte. Die notwendige physische Nähe zu anderen
Systemkomponenten und die damit verbundene jederzeitige Verfügbarkeit des Teachers
legte eine Realisierung auf dem Rechner nahe. Dabei erschien es nicht sinnvoll, eine
direkte Umsetzung eines Lehrbuch- oder Dokumentations-Konzeptes auf ein elektroni-
S*P*A*R*K 63
Mit dem Hypertext-Konzept wurde ein Ansatz gefunden, der nicht-lineare Dar-
stellungsweisen von Informationen erlaubt. Durch die Definition von Beziehungen (Links)
zwischen Informationseinheiten (Knoten), können beliebige Informationsstrukturen, z.B.
Hierarchien, Bäume und Netze, geschaffen werden (Bogaschewsky 199lb). Auf diese
Weise können die Verknüpfungen zwischen sich überschneidenden Themenbereichen dar-
gestellt werden. Nach dem gleichen Prinzip ist die Anhindung von Erläuterungen, Defini-
tionen etc. an im Text verwendete Begriffe möglich. Der Benutzer kann die Reihenfolge
des Aufrufs ihn interessierender Informationseinheiten frei bestimmen, wobei aber auch
eine sinnvolle Vorgehensweise vom System vorgeschlagen oder bestimmt werden kann.
Die Bedienung ist in solchen Systemen in der Regel ausgesprochen einfach und erfolgt
über das Anklicken optisch hervorgehobener Texteinheiten oder besonders markierter Fel-
der auf dem Bildschirm, die Bedienungsfunktionen darstellen.
Die Abbildung 4 zeigt beispielhaft einen Bildschirminhalt des Teachers, in dem drei Kate-
gorien für Analysetechniken und ihre Schnittmengen dargestellt sind. Durch Auswählen
eines der markierten Textfelder (hier in Großbuchstaben und Fettschrift) wird zu einem
Informationsknoten verzweigt, der nähere Auskunft über die entsprechende Kategorie bzw.
Schnittmenge und die ihr zugeordneten Techniken gibt. Die markierten Felder am unteren
Bildschirmrand bieten zusätzliche Möglichkeiten zur Fortbewegung im Hypertext-Doku-
ment, wie Zugriff auf die nächste oder vorherige Seite in einer sequentiellen Reihenfolge,
Sprung zum hierarchisch höchsten Knoten etc. Als weitere Zugriffs- und Orientierungs-
hilfen wird eine Indexfunktion und ein grafischer Browser bereitgestellt. Der Index besteht
aus Schlag- und Stichworten und erlaubt den direkten Zugriff auf die den Indexeinträgen
zugeordneten Knoten. Der grafische Browser zeigt Ausschnitte des gesamten Infor-
64 Ronald Bogaschewsky
mationsnetzes in Fonn einer Karte, d.h. es werden Knoten und die zwischen diesen beste-
henden Links verdeutlicht. Durch Anklicken eines der Knoten kann direkt auf diesen
zugegriffen werden.
FOCUS FT
TARGET
Fl
FTI TI
IITUSE
Im Teacher können Informationen auch in Form von statischen und dynamischen Grafiken
(Animation), importierten Videobildern und Tonaufnahmen dargestellt werden. Der
Teacher ist somit als ein Hypermedia-Dokument anzusehen.
Die Realisierung des Teachers erfolgte unter Einsatz der Audio Visual Connection (AVC)
von mM (mM 1989a; IBM 1989b), die ein multimediales Präsentationssystem ist. Damit
mußte die mit dem Presentation Manager geschaffene Benutzungsoberfläche verlassen
werden. Eine anforderungsgerechte Implementierung des Teachers wäre jedoch sonst nicht
möglich gewesen. Der Aufruf des Teachers erfolgt aus der gemeinsamen Oberfläche
heraus, zu der nach Abschluß der Arbeit mit dieser Komponente zurückgekehrt wird.
S*P*A*R*K 65
Von der am LASC angelegten, umfangreichen Sammlung an Praxisbeispielen (ca. 300) für
die strategische Nutzung von IIT wurden bisher ca. 100 in eine Beispieledatenbank einge-
stellt. Auf diese kann sowohl über den Facilitator als auch über eine hierfür geschaffene
Zugangskomponente, den Browser, zugegriffen werden. Alle Beispiele werden schwer-
punktmäßig durch grafische Darstellungen repräsentiert, wobei Animationen (dynamische
Grafiken) sowie geschriebene und gesprochene Texte integriert wurden.
Zur Implementierung der Beispiele wurde Audio Visual Connection (A VC) von IBM
verwendet, das auch für die Realisierung des Teacher-Moduls genutzt wurde (siehe Kap.
4.3).
Der Browser erlaubt einen direkten Zugriff auf die Beispiele. Um geeignete Praxisfälle
auswählen zu können, wurden den Beispielen Attribute aus vier Kategorien (a-d) zugeord-
net Diese Zuordnung von Attributen nutzt auch der Facilitator, um Beispiele zur Ansicht
zu empfehlen, die zu einem Strategievorschlag passen. Im folgenden sind die verwendeten
Attribute innerhalb ihrer jeweiligen Kategorie aufgeführt:
a) IIT-Nutzung
b) Zielobjekt
c) Aktivitäts-Fokus
d) Branche
Durch logische UND-Verknüpfung der Attribute werden Praxisfälle aus dem gesuchten
Bereich extrahiert. Die in der Datenbank gefundenen Beispiele werden alphabetisch auf-
steigend nach ihren Titeln in einem Window aufgeführt. Nach Anklicken eines der Titel
erfolgt die Präsentation des Beispiels auf dem Bildschirm. Nach Ansehen eines Praxisfalls
können weitere Beispiele aufgerufen oder eine neue Abfrage formuliert werden.
Der Facilitator stellt die Kernfunktion von S*P*A*R*K dar. Er dient der eigentlichen Un-
terstützung beim Auffmden von Einsatzmöglichkeiten von IIT zur Erlangung von Wett-
bewerbsvorteilen. Hierzu werden verschiedene Methoden und Techniken bereitgestellt, mit
deren Hilfe die Wettbewerbssituation der Unternehmung unter Berücksichtigung interner
und externer Gegebenheiten analysiert werden kann. Gleichzeitig werden die aktuelle und
mögliche zukünftige informationstechnologische Situationen in der Unternehmung und in
Beziehung zu den Geschäftspartnern berücksichtigt. Nach Abschluß der Analyse werden
vom Facilitator Strategievorschläge unterbreitet, in welchen Bereichen, in bezug auf
welche Zielobjekte und durch welche Maßnahmen IIT zur Verbesserung der Wettbewerbs-
situation genutzt werden könnte. Zusätzlich werden auf diese Strategieempfehlungen
bezogene Praxisfälle aus der Beispieledatenbank zur Ansicht bereitgestellt.
S*P*A*R*K stellt Techniken zur Analyse der Unternehmung und deren Wett-
bewerbssituation bereit, deren Grundelemente entsprechenden Fachveröffentlichungen
entnommen wurden. Jede dieser Techniken repräsentiert eine spezifische Sichtweise der
Unternehmenssituation. Dabei schließen sich diese verschiedenen Ansätze nicht zwangs-
läufig gegenseitig aus, sondern ergänzen sich in der Regel. Auf diese Weise kann ein Pool
von "Experten", dargestellt durch die einzelnen Analysetechniken, gebildet werden, die in
S*P*A*R*K "zusammenarbeiten". Bei der Einbindung der Techniken in die Wissensbank
sind diese teilweise für die Aufgaben des Systems anzupassen oder entsprechend zu erwei-
tern.
Die für die Aufnahme in S*P*A*R*K zunächst vorgesehenen Techniken sind im folgen-
den aufgeführt, wobei die Wissensbasis beliebig um weitere Analysetechniken erweitert
werden kann:
Diese Analysehilfsmittel gehen dabei prinzipiell so vor, daß durch Beantwortung von Fra-
67
gen zur Situation der Unternehmung Attributen, die diese Situation beschreiben, Werte
zugeordnet werden. Die Kombination unterschiedlicher Attribut/Wert-Tupel führt dann zu
einer Gesamtbewertung und zu Strategieempfehlungen.
4.5.3 Implementierungskonzept
Für den rechnergestützten Einsatz der Analysetechniken bot sich eine Implementierung
mittels wissensbasierteT Ansätze an, da sich die zu verwendenden Methoden relativ einfach
mit Wissensrepräsentationstechniken (insbesondere Frames und Regeln) abbilden lassen.
Dabei war zusätzlich eine leichtere Wartbarkeit und Erweiterbarkeit der zu implementie-
renden Analysetechniken gegenüber konventionellen Programmierungskonzepten zu
erwarten. Dies basiert auf der Einsicht, daß die Wissenselemente von der Ablaufstruktur
(Problemlösungsstrategie) getrennt werden können, was bei konventioneller Programmie-
rung nicht der Fall ist (Harmon/King 1990). Ungewöhnlich an einem wissensbasierten
Ansatz war dabei die Zielrichtung der Anwendung. Es sollten nicht, wie z.B. häufig bei
Diagnosesystemen der Fall, aus einer großen Anzahl alternativer Lösungen eine oder
einige wenige vorteilhafte Lösungen ermittelt, sondern auf Basis spezifischer Merkmale
möglichst viele sinnvolle Alternativlösungen gefunden werden.
Eine besondere Forderung an den Facilitator war, ein "Zusammenarbeiten" mehrerer der in
der Wissensbank definierten "Experten" an der gleichen Problemstellung zu ermöglichen.
Für die Realisierung dieser Fähigkeit wurde das Blackboard-Modell als Vorbild gewählt.
Dieses kann als Spezifizierung des Opportunistic-Reasoning-Ansatzes gesehen werden, bei
dem vereinfachend ausgedrückt Wissenselemente bedarfsweise in den Problemlösungspro-
zeß unter alternativer Verfolgung von Forward- oder Backward-Reasoning einbezogen
werden, je nachdem welche Strategie mehr zur Lösungsfindung beizutragen verspricht (Nii
1986).
KnOWledJge sources
Blackboard
ICRLc I
-Fakten
l SOG I
-Daten
I
1 OSF I
- Teilergebnissei IMPG I
Zwischen-
ergebnisse I SAS I
l vcc _]
In der praktischen Arbeit mit dem Facilitator kann davon ausgegangen werden, daß sich
ein Benutzer zunächst auf einen "Experten" konzentriert. Welcher "Experte" besonders
erfolgversprechend für eine Konsultation wäre, kann dabei nach Eingabe einiger grund-
sätzlicher Merkmale in bezog auf die Situation der Unternehmung und Vorgabe einer
eventuellen Zielrichtung der Analyse vom Facilitator vorgeschlagen werden. Ein Wechsel
von Analysetechniken während einer Sitzung käme vor allem dann in Frage, wenn die
aktuell durchgeführte Analyse nicht mit Aussicht auf Erfolg weitergeführt werden kann.
Zusätzlich können sich positive Effekte bei der aufeinanderfolgenden Konsultation von
"Experten" ergeben, die dann auf die bereits ermittelten Daten und Zwischenlösungen
zurückgreifen könnten.
Eine weitere Forderung an den Facilitator war, Szenarios entwickeln zu können. Dies soll
dadurch ermöglicht werden, daß im Zuge einer Konsultation mehrere Antwortoptionen auf
gestellte Fragen verfolgt werden dürfen. In S*P*A*R*K kann daher das Blackboard mit
allen seinen Inhalten zum Zeitpunkt einer Fragestellung dupliziert und von hier aus mit
unterschiedlichen Antwortoptionen weitergearbeitet werden. Eine solche Duplizierung ist
3 Der Session Manager des Systems S*P* A*R*K hat natürlich nichts mit dem im Konzept des SIM-Con-
sultant dargestellten Session Manager zu tun.
S*P*A*R*K 69
mehrfach möglich. Die Szenarios können z.B. für Sensitivitätsanalysen der Strategieemp-
fehlungen, zur Simulation von Reaktionen der Wettbewerbsteilnehmer und zum Auffinden
von (Gegen-)Reaktionen der eigenen Unternehmung auf Aktionen der Wettbewerbs-
teilnehmer genutzt werden.
Attribute, die nicht für einzelne Analysetechniken spezifisch sind, werden in gesonderten
Frames definiert, wie z.B. solche zur Kennzeichnung von Produkten, Lieferanten, Kunden
oder Absatzkanälen. Hierdurch wird eine klare Strukturierung der Wissensbank möglich.
Für die Umsetzung dieser aus Frames, Regeln und Prozeduren bestehenden, hybriden
Wissensrepräsentationsform mußte eine geeignete Entwicklungsumgebung gefunden
werden. Leider stand zum Zeitpunkt des Implementierungsbeginns kein Werkzeug für
PS/2-Rechner zur Verfügung, das diese Forderungen erfüllen konnte. Daher wurde
entschieden, ein Objekt-orientiertes Programmier-Paradigma (siehe auch Wiener/Pinson
1988) für die Implementierung der Wissensbank und die Formulierung der In-
ferenzstrategie zu verwenden.
eine Instanz der jeweiligen Klasse. Bei der Definition von Unterklassen können die
Charakteristika der übergeordneten Klasse ganz oder teilweise vererbt werden
(Vererbungsprinzip) (Cox 1989).
Frames können als Objekte definiert werden, wobei die Slots private Daten beinhalten. Zu
einer übergeordneten FRAME-Klasse werden die für die Arbeit mit den Frames typischen
und notwendigen Operationen vereinbart, die sich auf alle konkreten Ausprägungen von
Frames anwenden lassen und sich auf Frame-Unterklassen vererben. Die Slots stellen
ihrerseits selbst Objekte dar, die einer SLOT-Klasse angehören. Durch das Einkapselungs-
prinzip reicht die Übersendung einer Nachricht mittels einer Prozedur für die Aktivierung
eines Slots aus. Die darauf folgende, durch den Slot ausgelöste Aktion kann dabei abhän-
gig von der Slot-Klasse sein, die z.B. datentypabhängige Operationen vorsieht.
Als Programmiersprache wurde C++ (siehe Stroustrup 1986) ausgewählt, da dieses Pro-
dukt als relativ gut bewährt und weiträumig verfügbar eingestuft werden kann.
4.5.5 Wissensrepräsentationssprache
Um zu vermeiden, daß das Wissen direkt in C++-Code formuliert werden muß, wurde eine
Wissensrepräsentationssprache (Knowledge Representation Language - KRL) entwickelt.
Durch diese soll die Formulierung des Wissens vereinfacht und damit der Aufbau der
Wissensbasis beschleunigt werden. Das in der KRL definierte Wissen wird mit dem für
diesen Zweck entwickelten KRL-Transtator in C++-Code übersetzt (Bogaschewsky
1991a). Die Definition des Wissens erfolgt über die Beschreibung von Frames und ihrer
Slots, der Regeln und der Prozeduren.
Frames weisen dabei die folgende Struktur auf:
FRAME <frameclass>
POST-INSTANTIATION <pi_procname>
FRAME-CONTROL <fc_procname>
SLOT INTEGER I STRING I BOOLEAN <slotname>
ENDSLOT
ENDFRAME
Im einzelnen bedeuten:
POST-INSTANTIATION
Nach der Instanziierung des Frames erfolgt die Ausführung einer hier zu definierenden
Prozedur.
S*P*A*R*K 71
FRAME-CONTROL
An dieser Stelle wird eine Prozedur definiert (siehe die Darstellung weiter unten), in der
z.B. ein Window spezifiziert werden kann, in dem dem Benutzer in Kurzform die ausge-
wählte Analysetechnik beschrieben wird. Hier wird auch der Backchaining-Prozeß durch
Formulierung des DETERMINE-Befehls initiiert sowie die Zuordnung von Beispielen zu
den möglichen Strategieempfehlungen vorgenommen.
SLOT
Die Slots haben jeweils den folgenden Aufbau:
Im einzelnen bedeuten:
MULTIVALUED
Spezifizierung, ob der vorliegendeSloteinen (NO) oder mehrere (YES) Werte annehmen
darf.
TRANSLATION-NAME
Formulierung einer für den Benutzer verständlichen Beschreibung des Slots, die im Rah-
men einer Erklärung der Problemlösungsstrategie verwendet werden würde.
VISIBLE
Entscheidung, ob der Slot für den Benutzer während einer Konsultation sichtbar werden
darf.
PROMPT
Formulierung des Prompt, d.h. z.B. der Frage an den Benutzer für eine Wertzuweisung an
den Slot.
72 Ronald Bogaschewsky
PROMPT-DESCRIPTION
Formulierung eines Erklärungstextes über den Inhalt der PROMPT-Frage an den Benutzer,
der als Antwort auf eine WHAT-Gegenfrage ausgegeben werden würde.
REASON-DESCRIPTION
Text, der begründet warum eine Frage an den Benutzer gestellt wurde, als Antwort auf
eine WHY -Gegenfrage.
MONOTONIC
Entscheidung über monotones Schlußfolgern, d.h. ob Slotwerte nur einmalig zugewiesen
oder der Slot reinitialisiert und erneut besetzt werden kann.
DETERMINATION
Aufruf einer externen C++-Funktion, die den Slotwert ermittelt und in den Slot einträgt.
RULES
Angabe des Namens eines Regelblocks, der mit dem Slot assoziiert ist.
DAEMON
Aufruf einer externen Prozedur, falls die definierten Bedingungen (Conditions) bezogen
auf den Slotwert erfüllt werden.
POST-DETERMINATION
Angabe einer externen Funktion, die nach der Wertzuweisung an den Slot ausgeführt wird.
LEGAL-VALUES
Definition einer Liste der zulässigen Slotwerte.
DEFAULT
Bestimmung eines Standardwertes für den Slot, falls dieser nicht erfolgreich belegt werden
kann.
Die Regeln werden in der üblichen Form definiert und in jeweils einen Regelblock einge-
bettet:
RULES
IF <condl> AND I OR <cond2> ... AND I OR <condn>
THEN <frameclass>.<slotname> IS <slotvalue_expression>
IF ...
THEN ...
ENDRULES
S*P*A*R*K 73
Die Identifizierung der Attribute erfolgt unter Angabe des Framenamens und des Slot-
namens, wobei die erste Angabe nur notwendig ist, wenn der Slot nicht zu dem Frame
gehört, dem der aktuelle Regelblock zugeordnet ist.
Eine Prozedur für die FRAME-CONTROL kann wie folgt definiert werden:
PROCEDURE <procname>
DETERMINE <slotname>
USE_WINDOW <window_template_name> FILLING (
DISPLAY <textstring>
CHOOSE_OPTIONS <list_of_options>
CASE option 1 <pseudocode>
CASE option 2 <pseudocode>
CASE option n <pseudocode>
)
SELECT EXAMPLES WHERE EXNO = <example_id>
SELECT EXAMPLES WHERE <attribute_list>
IF <condition> THEN <pseudocode>
ENDPROCEDURE
Im einzelnen bedeuten:
DETERMINE
Festlegen des Slots, der als Ziel, beim Arbeiten mit einer Analysetechnik ist dies der
Strategie-Slot, bestimmt werden soll. In diesem Fall dient die Prozedur als FRAME-
CONTROL-Funktion.
USE_WINDOW
Auswahl eines vordefinierten Windows für die folgenden Bildschirmaus- und -eingaben.
DISPLAY
Ausgabe eines Textstrings im definierten Window, z.B. als Einleitung zu einer Konsul-
tation.
CHOOSE_OPTIONS
Beschreibung einer Auswahlliste von Optionen für den Benutzer.
SELECT_EXAMPLES
Zusammenstellung einer Beispielliste in Abhängigkeit von der gegebenen Stra-
tegieempfehlung.
74 Ronald Bogaschewsky
Im Anhang findet sich ein Beispiel für die Definition eines Frames (hier für das Oppor-
tunity Search Framework - OSF) sowie der zugeordneten Regeln und Prozeduren. Dabei
wurden einige Beschreibungselemente vereinfacht sowie aus Platzgründen nur ein Teil der
in der Knowledge Representation Language formulierten Repräsentation dieser Analyse-
technik aufgeführt. Aus dem Beispiel wird deutlich, daß nicht alle für das OSF relevanten
Attribute in diesem Frame als Slot definiert worden sind. Die Attribute, die sich auf allge-
meine Merkmale des Produkts bzw. der Dienstleistung, des Absatzkanals, des Kunden, des
Lieferanten, der Konkurrenten etc. beziehen, sind in den jeweiligen Frames, die diese Ob-
jekte beschreiben, definiert. Damit wird das Wissensgebiet besser strukturiert und es wer-
den Redundanzen vermieden.
Aufgrund der Konsolidierung des LASC mit den Scientific Centers in Palo Alto, Cali-
fornia, und Cambridge, Massachusetts, mußte die Entwicklung von S*P*A*R*K vorzeitig
abgebrochen werden. Trotz erheblichen Interesses von Unternehmungen und Universi-
täten, konnte keine Finanzierungsmöglichkeit für eine Fertigstellung des Prototypen
gefunden werden. Der Autor beabsichtigt daher, das Projekt an der Universität Göttingen
fortzuführen. Da die geschaffenen Entwicklungswerkzeuge wie die C++-lnferenzmaschine
und der KRL-Transtator unter Wirtschaftlichkeitsgesichtspunkten nicht mehr gepflegt
werden können, soll eine neue Version von S*P*A*R*K unter Einsatz einer kommerziel-
len Entwicklungsumgebung erstellt werden. Dabei wäre auch zu prüfen, ob Werkzeuge
75
gefunden werden können, die eine Integration der Systemkomponenten von S*P*A*R*K
besser unterstützen. Bisher existieren nur sehr wenige Systeme, die eine effiziente Ver-
knüpfung von Wissensbasierten Systemen, multimedialen Darstellungen und Hypertext-
Dokumenten ermöglichen. Konzeptionelle Verbesserungen und Erweiterungen sind eben-
falls Teil der geplanten Weiterentwicklungsarbeiten.
76 Ronald Bogaschewsky
6 Anhang
FRAME_CONTROL fc_osf
PROCEDURE fc_osf
USE_WINDOW facil_5b
DISPLAY
"Opportunity Search Framework (OSF)"
"(For further information about the OSF see the Teacher module)."
DETERMINE osf.strategy
IF osf.strategy = 'change_channel_struc'
(fARGET=DISTRIBUTION_CHANNELS,
FOCUS=DISTRIBUTION_IMPROVEMENT)
ENDPROCEDURE
S*P*A*R*K 77
MULTIVALUED yes
RULES rl_osf_strategy
LEGAL_VALUES {be_frrst_offer
be_first_add_service
add_service
market_segmentation
illustrate_value
sales_info
make_effective
ally_for_access
seek_partnership
bias_or_let_ask
change_channel_struc
give_guidance
prompt_for_sales
ally_for_volume
provide_cust_IT
improve_relation
ally_for_link
create_switch_cost}
POST_DETERMINATION pd_osf_strategy
ENDSLOT
78 Ronald Bogascbewsky
MULTIVALUED no
PROMPT Do you nonnally trade large quantities of your product per sale ?
ENDSLOT
MULTIVALUED no
ENDSLOT
MULTIVALUED no
PROMPT How would you rate the frequency of deliveries during the time
of a contract ?
ENDSLOT
ENDFRAME
S*P*A*R*K 79
RULES rl_osf_strategy
The rules for detennining which opportunities should be suggested based on the
Opportunity Search Framework.
IF
cust.perc_prod_diff = 'low' AND
large_quantity = 'no' AND
prod.low_price_commodity = 'yes'
THEN
osf.strategy IS 'be_frrst_offer';
IF
cust.perc_prod_diff = 'low' AND
large_quantity = 'yes' AND
prod.low_price_commodity ='yes'
THEN
osf.strategy IS 'be_frrst_add_service';
IF
cust.perc_prod_diff = 'high' AND
prod.low_price_commodity = 'no'
THEN
osf.strategy IS 'illustrate_value';
IF
cust.perc_prod_diff = 'high' AND
prod.low_price_commodity = 'no' AND
cust.buyer_IT_access = 'poor'
THEN
osf.strategy IS 'add_service'
ENDRULES
80 Ronald Bogaschewsky
PROCEDURE pd_osf_strategy
USE-WINDOW facil_5d
IF osf.strategy IS 'be_frrst_add_service'
THEN DISPLAY
"Because of the low price of the product, the purchaser believes he can be served
equally weil by several alternative products. He is likely to accept the frrst satisfactory
offer made to him. Therefore focus on arranging that your offer is the frrst which the
purchaser considers."
"Since large quantities of the product are normally traded, adding services according
to the Customer Resource Life Cycle, especially the stages 'Specify', 'Select', and
'Order' could yield in gaining a competitive advantage for you."
IF osf.strategy IS 'add_service'
THEN DISPLAY
"Since the product has substantial value for the customer, and the product
differentiation perceived by the customer is relatively high, it seems to be reasonable
to assist the customer in his Resource Life Cycle by adding services, especially
'Specify', 'Select', and 'Order'.
lt is assumed tobe not likely that the customer develops his own IT-system, because
of poor access to IT-resources."
ENDPROCEDURE
S*P*A*R*K 81
7 Literaturverzeichnis
Bak:opoulos, J.Y. (1985), Toward a more precise concept oflnformation Technology, Proc.
of the 6th Int. Conf. on Information Systems, S.17-24.
Feeny, D.F., Brownlee, C.G. (1986), Competition in the era of interactive network
services, Oxford Institute of Information Management, Templeton College, Oxford, RDP
86/17.
IBM Corp. (Hrsg.) (1986), Expert System Consulting Environment and Expert System
Development Environment General Information Manual, ffiM-No.GH20-9597.
ffiM Corp. (Hrsg.) (1989a), Audio Visual Connection. User's Guide, IBM-No.01F0344.
ffiM Corp. (Hrsg.) (1989b), Audio Visual Authoring Langnage Reference, IBM-
No.01F0383.
IBM Corp. (Hrsg.) (1989c), Operating System/2. Programming Tools and Information,
ffiM-No.64F0273.
IBM UK (Hrsg.) (o.J.), Strategie Application Search - How to win with Information
Technology, Working Paper ffiM UK Executive Education Facility, Hursley Park,
Hampshire.
82 Ronald Bogaschewsky
Ives, B., Learmonth, G.P. (1984), The information system as a competitive weapon, in:
Communications ofthe ACM 27, No.12, S.1193-1201.
lves, B., Sakamoto, G., Gongla, P. (1986), A facilitative system for identifying competitive
applications of information technology, ffiM Los Angeles Scientific Center Report No.
0320-2789.
King, W.R., Grover, V., Hufnagel, E.H. (1989), Using Information and Information
Technology for Sustainable Competitive Advantage: Some Empirical Evidence, in:
Information & Management 17, S.87-93.
Minsky, M. (1975), A Framework For Representing Knowledge, in: Winston, P.H. (Hrsg.),
The Psychology of Computer Vision, New York, S.211-277.
Nii, H.P. (1986), Blackboard Systems: The Blackboard Model of Problem Solving and the
Evolution of Blackboard Architectures, in: The AI Magazine, Summer 1986, S.38-53.
Parker, M.M., Benson, R.J., Trainor, H.E. (1988), Information Economics, Englewood
Cliffs.
Schumann, M. (1987c), Expert Systems for Business Applications, ffiM Los Angeles
Scientific Center Report No.1987-2813.
Schumann, M. (1987d), Business Strategy Advisor, IBM Los Angeles Scientific Center
Report No.1987-2821.
Thompson, J.M., Mead, K.C. (1988), Boost Your Market Power With Information
Technology, in: Index Group (Hrsg.) lndications, Vol.5, No.2, S.1-6.
Dr. RolandHeuermann
1 Einleitung 87
2 Wissensakquisition 87
3 Evaluation 92
4 Diskussion 100
5 Literaturverzeichnis 102
Evaluation von Tools zur Wissensakquisition 87
1 Einleitung
Eines der bedeutenden theoretischen und praktischen Probleme bei der Erstellung
WissensbasierteT Systeme (im folgenden WBS) ist unter dem Schlagwort "knowledge
acquisition bottleneck" in der Literatur bekannt: Das Erheben von Informationen zum
Aufbau einer Wissensbasis ist ein komplexer, zeitaufwendiger und bisher wenig standardi-
sierter Prozeß, der sowohl einen personellen als auch einen qualitativen Engpaß auf dem
Wege zur Erstellung anwendungsreifer Systeme darstellt. Personell, weil die ein WBS her-
stellenden Wissensingenieure (im folgenden Wl) und die das zu installierende Wissen lie-
femden Personen (in der Regel Experten) zeitlich stark beansprucht werden; qualitativ,
weil die Informationen der Wissensquelle häufig unvollständige, überflüssige oder falsche
Elemente enthalten und erst nach gründlicher Analyse dem Verwendungszweck dienen
könnenl.
Ökonomische Gründe und die erstmalige Möglichkeit der Anwendung auch sehr aufwen-
diger Verfahren haben gerade in jüngster Zeit Anlaß zur Entwicklung von Softwaretools
(im folgenden Tools) zwecks Unterstützung der Wissensakquisition (im folgenden WA)
gegeben. Während Konstruktionsidee und Funktionsweise der Tools in der Regel ausrei-
chend dokumentiert werden, fehlen weitgehend Evaluationsstudien2. Es sind mehrere
Gründe hierfür denkbar. Zum einen ist der größte Teil der Tools erst nach 1985 fertig-
gestellt worden. Neben der relativ kurzen Verfügbarkeil aber sind konzeptionelle Probleme
ein bedeutsames Hindernis für eine eingehende Untersuchung. Diese Probleme sollen im
vorliegenden Beitrag auf dem Hintergrund einer Darstellung von Theorie und Praxis der
W A erläutert werden.
2 Wissensakquisition
a) "Traditionelle" (Grober 1988, S.580) oder "indirekte" WA (Puppe 1989, S.llO), bei
der das Wissen eines Experten von einem WI mit Hilfe von Interviews und anderen
Techniken ohne Unterstützung durch Tools erhoben wird.
b) Direkte WA, bei der interaktive Tools eingesetzt werden und dem Experten bzw. der
sonstigen Wissensquelle selbst der Aufbau der Wissensbasis ermöglicht wird.
Teile des vorliegenden Artikels sind aus der betriebswirtschaftliehen Diplomarbeit des Vedassers
(Heuennann 1989) entnommen. Für das kritische Korrekturlesen des Artikels bedanke ich mich bei
Herrn cand.rer.pol. Klaus-Dieter Achtelik.
2 Eine Ausnahme ist die punktuelle Evaluation des WA-Tools KSSO durch Shaw (Shaw 1988).
88 Roland Heuennano
W A ist ein iterativer Prozeß, der sich in mehrere Phasen gliedern läßt; die meisten Phasen-
schemata in der Uteratur enthalten drei (Buchanan 1986, S.20; Grover 1983, S.436) bis
sechs Phasen (Garg-Janardan/Salvendy 1988, S.388), wobei die Unterschiede zwischen
den Autoren weniger auf Meinungsunterschiede als auf Unterschiede in der Detailliertheit
der Darstellung zurückzuführen sind. Phasen der WA sind z.B. (1) das Erheben des (Roh-)
Wissens, (2) die Analyse der Informationen und (3) die Konstruktion eines Modells der
Wissensdomäne. Die Phasen der W A sind Abschnitte des knowledge Engineering
(Motta/Rajan/Eisenstadt 1990, S.22).
W A ist nicht nur zu Beginn der Erstellung eines Systems notwendig, sondern vielfach auch
fortlaufend im Rahmen der Wartung und Aktualisierung einer Wissensbasis.
W A ist kein bloßer Transfer von Expertenwissen, sondern ein kreativer Prozeß der - in
einigen Domänen überhaupt zum ersten Male unternommenen - formalen Rekonstruktion
von Wissen (Musen 1988, S.26.12).
Umfassende Modelle der W A existieren nicht (Littman 1987, S.90); sie wären Spezialfälle
von universellen Theorien über Problemlösen, Wissen, Wissensdiagnose, Informatik, und
Kommunikation.
Im Sinne einer Grundlagenwissenschaft hat ein solches Modell die inhaltlichen und proze-
duralen Aspekte der W A zu analysieren und zu typologisieren, im Sinne anwendungs-
orientierter Forschung sind auch Aussagen zur Gestaltung des W A-Prozesses unter Ein-
schluß aller beteiligten Personen, Wissensquellen und Werkzeuge zu machen.
Forderungen an ein Rahmenmodell wären in absteigender Reihenfolge der Abstraktion
unter anderem die Formulierung
(1) eines bzw. mehrerer Ziele der WA. Hier hat eine Setzung zu erfolgen, wozu W A dient
und wovon sie sich abzugrenzen hat, und auf welcher Ebene der theoretischen
Beschreibung das Modell selbst sich bewegen will;
(6) generell mehr Klarheit über die Gemeinsamkeiten und Unterschiede zwischen Men-
schen und Computern bzw. WBS als informationsverarbeitenenden Systemen gewon-
nen werden, um Aufschluß über vermeidbare und unvermeidbare Informationsverluste
beim Transfer zu erlangen3.
(8) Konsequenz einer klaren Rahmentheorie von WA ist es auch, für Methodologien, WI-
Tätigkeiten und eingesetzte Diagnoseverfahren eine Strategie zur theoretischen und
empirischen Bewertung entwickeln zu können. Hieraus resultierten dann auch Hin-
weise für
(9) die Konstruktion von Tools, die den Erfordernissen der W A optimal entsprechen; auch
die weitere Entwicklung von KI-Programmiersprachen könnte hierdurch Impulse
erfahren.
3 Z.B. Stichwort: Prinzipielle Leistungsgrenzen der WBS, vgl. zu Gödel-Theorem etc. Fischler/Firschein
1987, S.43f.; zu wissenschaftstheoretischen Aspekten und dem Gegensatz zwischen realem Original
und idealem Modell Fohman, 1985, S.l30f.
90 Roland Heuennano
KADS (knowledge acquisition and document structuring)4 ist die wohl bekannteste
explizite WA-Methodologie. Sie schlägt ein Top-Down-Vorgehen bei der Wissens-
analyse vor.
Ein "offenes" Rahmenmodell für die Validierung von Methodologien und Tools der
WA (Benbasat/Dhaliwal1989), siehe unten.
Die in der WA eingesetzten Verfahren lassen sich in WA-Techniken (im folgenden nur
Techniken) und Tools einteilen. Techniken sind Erhebungsinstrumente, Auswertungs-
prozeduren und Heuristiken, um eine W A durchzuführen; Tools sind softwaregestützte
Techniken (Moore/Agogino 1987, S.214).
Die Mehrzahl der für indirekte W A eingesetzten Techniken sind verschiedene Formen von
Interviews. Hinsichtlich der Strukturiertheit der Interviewsituation kann man unterscheiden
(die Klassifikation der Interviewarten ist in der Literatur nicht einheitlich; hier wird eine
eigene Einteilung vorgenommen) (a) das unstrukturierte "freie" Interview, auch Inten-
sivinterview genannt (Stender 1989, S.55) und (b) das strukturierte Interview, in dem der
WI häufig eingreift und Themen sowie Reihenfolge der Fragen weitgehend festgelegt sind.
Beispiele sind die Zielzerlegung (der WI erfragt Subziele der Problemlösung und gliedert
sein weiteres Interview nach diesen Subzielen), das Leiterverfahren (der WI erfragt wich-
tige Konzepte der Domäne und gliedert danach das weitere Interview), Protokolle Lauten
Denkens (simultan zu Handlungen verbalisiert der Experte seine aktuellen handlungsbezo-
genen Gedankengänge) und Verhaltensanalysen.
Die in Interviews erhobenen Informationen sind häufig lückenhaft und enthalten Fehler
(Gaines 1987, S.455; Gammack/Young 1985, S.108).
Interviews zählen zu den "direkten" Verfahren; die direkten Techniken zeichnen sich
gegenüber den indirekten dadurch aus, daß sich ihre Resultate mehr oder weniger iso-
morph in der Wissensbasis wiederfinden (Linster 1988b, S.103). Indirekte Techniken
dagegen benutzen Algorithmen, die eingehende Daten interpretieren und neue Informatio-
nen gewinnen. Beispiele hierfür sind Repertory-Grids bzw. Konstruktgitterverfahren
(Esterby-Smith 1980, S.9-11). Repertory-Grids können als Ausgangsbasis für eine statisti-
sche Analyse von Konzepten oder Eigenschaften benutzt werden, indem sie als Rohdaten-
matrix für multivariate Verfahren interpretiert werden5. Sortier- und Skalierungsverfahren
dienen der multidimensionalen Datenanalyse; die Verwendung von Sortierverfahren6 wird
in der W A Literatur selten berichtet. Unter den Skalierungsverfahren finden insbesondere
4 Implizit liegt bei den Produzenten jedes Tools eine Vorstellung über eine WA-Methode vor; eine
andere explizite WA-Methodologie ist SMEE (Garg-Janardan/Salvendy 1988, S.387ft).
5 Programme hierfür sind z.B. FOCUS, ENTAlL und INGRID (Gaines/Shaw 1980).
6 Z.B. die Heidelberger Struktur-Lege-Technik (Tergan 1988, S.414417).
Evaluation von Tools zur Wissensakquisition 91
Spezielle Werkzeuge für die Toolerstellung sind in der Regel nicht im Gebrauch. Aus-
nahme ist PROTEGE (Musen 1988, S.26.10), mit dem Tools für spezielle diagnostische
WBS7 erzeugt werden können.
Manche Tools sind für spezielle Expertensysteme oder Shells konzipiert und stellen die
Wissenserwerbskomponente eines Systems bzw. Systemtyps dar, z.B. OPAL ->
ONCOCIN (Musen 1988); TElRESlAS --> MYCIN (Davis/Lenat 1982, S. 229f.;
MOLEKA --> MOLEP (Eshelman 1988); Classika --> MED (Gappa 1988) oder werden
gelegentlich dafür verwendet, z.B. BLIP --> TWAICE (Mellis 1990). Einige der vorlie-
genden Tools werden wohl zu kommerziellen Zwecken eingesetzt (z.B. ETS und
AQUINAS für den Flugzeughersteller BOEING (Boose 1988a, S.297f.), aber meines
Wissens nach nicht selbst vermarktet.
Es gibt eine große Zahl& von Tools mit unterschiedlichen Eigenschaften, zu deren Eintei-
lung Nominal- oder Ordinalkriterien vorgeschlagen wurden. Die umfangreichsten vor-
liegenden Vergleiche benutzen 17 (Boose, 1988b) bzw. 19 Kriterien (Gaines/Boose 1988)
und sind jeweils durch Rating eines Autors entstanden. Aussagekräftige Unterscheidungs-
merkmale sind z.B. die Zahl und Art der in einem Tool integrierten Techniken, der Grad
der Automation von Techniken, die Tiefe des zu erfassenden Wissens (kausales Wissen vs.
Oberflächenwissen), die Domänspezifität von Tools und der Grad an Wahlfreiheit bezüg-
lich der WA-Methode.
3 Evaluation
Evaluation ist die " ... umfassende Bezeichnung für alle Arten der Beurteilung unter
Bezugnahme auf irgendwelche inneren Standards oder äußeren Kriterien ... " (Keller 1988,
S. 531). Zu bestimmende Parameter einer Evaluation sind insbesondere das Evaluations-
ziel, das Evaluationsobjekt und die Evaluationstechniken.
Evaluierung der Model/treue; das Modell im Sinne dieser Evaluation ist bei den
Expertensystemen die Problemlösekompetenz des (der) Experten. Das Vorbild für
Tools ist die Kompetenz des WI zur Durchführung der W A. Die Übereinstimmung
zwischen dem Modell und dem Vorbild wird durch das Messen der Validität9 unter-
sucht. Die Validität drückt den Grad der Meßgenauigkeit bezüglich eines Kriteriums
aus; Kriterien sind Vergleichsdimensionen; ein Kriterium für die Validität eines WBS
ist z.B. der Grad des repräsentationalen Homomorphismus zwischen der
Wissensquelle und der erstellten Wissensbasis (Benbasat/Dhaliwal 1989, S.216). Kri-
terien für Tools sind z.B. die analytischen und kommunikativen Fähigkeiten des
Wissensingenieurs sowie die Leistungsfähigkeit traditionell durchgeführter Techni-
ken. Ein auf kürzerer Abbildungsstrecke gelegenes Vorbild des Tools ist die der Too-
lerstellung zugrunde liegende konzeptionelle Vorstellung, d.h. die explizit oder impli-
zit beabsichtigte WA-Methodologie. Die Untersuchung eines Tools auf korrekte
Umsetzung der Systemvorgaben für einzelne Komponenten und das Zusammenwirken
der Komponenten wird "Verifikation" genannt (Benbasat/Dhaliwal 1989, S.217;
O'Keefe et al. 1987, S.82; Sargent 1984, S.l17).
9 Benbasat und Dhaliwal (Benbasat/Dhaliwal1989, 5.218-219) sehen die Validitätsmessung nicht als
einen möglichen Beitrag zur Evaluation. Verschiedene Arten der Validität werden in der Literatur vor-
gestellt (siehe Benbasat/Dhaliwal1989, 5.218-221; O'Keefe et al. 1987, 5.85-87; 5haw 1988, 55.6f.),
ohne daß es einheitliche Definitionen und eindeutige Abgrenzungen gibt.
Evaluation von Tools zur Wissensakquisition 93
- wie groß der Anteil der durch das Tool verursachten Meßfehler arn Ergebnis ist.
Das Resultat dieser Untersuchung gibt Auskunft über die Reliabilität des Tools.
- ob das Tool bei den Nutzern auf Akzeptanz stößt; Nutzer eines Tools sind Wissens-
ingenieure und/oder Experten.
- ob und inwieweit ergonomische Aspekte bei der Gestaltung des Tools berücksich-
tigt wurden. Wichtige Gesichtspunkte sind unter anderem:
- die Fähigkeit zur übersichtlichen Darstellung bereits erhobenen Wissens;
- die Möglichkeit, domänspezifische Sonderzeichen und Symbole auf dem Bild-
schirm darzustellen;
- die Freiheit des Experten bei der Wahl von Begriffen und der Darstellung von
Beziehungen;
- die Möglichkeit des Ausprobierens und der schnellen Änderung von Eingaben.
Evaluierung der Nützlichkeit; die Analyse der Nützlichkeit befaßt sich mit der rela-
tiven Vorteilhaftigkeit eines Tools sowohl unter ökonomischen als auch unter nicht-
materiellen Gesichtspunkten. Die nichtmateriellen Gesichtspunkte können z.B. der
Grad der Akzeptanz bei Nutzern, die Höhe der Reliabilität und die Höhe der Validität
sein. Die (relative) Nützlichkeit kann in einem Vergleich zwischen zwei und mehr
Tools bzw. einem Tool und traditioneller WA ermittelt werden. Als Meßverfahren ist
hier insbesondere an die Nutzwertanalyse zu denken.
Die aufgeführten "Typen" der Evaluation stellen Bündel von Aspekten des Unter-
suchungsgegenstandes dar, die einander teilweise bedingen: Nützlichkeit und Nutzbarkeit
von Tools z.B. sind nur oberhalb eines bestimmten Mindestniveaus an Validität gegeben;
umgekehrt kann nur ein Tool mit wenig Meßfehlern, d.h. hoher Reliabilität, auch hohe
Validität haben. Die Typologie sagt nichts darüber aus, wie viele verschiedene Verfahren
eingesetzt und wie viele Aspekte eines Tools untersucht werden müssen, um die Zuord-
nung zu einem oder mehreren der Evaluationstypen zu rechtfertigen.
Da umfassende Rahmenmodelle der WA bisher fehlen, kann auch kein vollständiges und
konkretes Modell der Evaluation für Tools existieren; mangels Beispielen für Evalu-
ationsstudien in der Literatur und aufgrund fehlender (pragmatischer) Standards in der
dynamisch wachsenden theoretischen und angewandten Erforschung von Wissensbasierten
Systemen ist der Bestimmung der (des) Evaluationsziele(s) und der methodischen Planung
der Evaluation besondere Aufmerksamkeit zu schenken. Als Neben-Ziel der ersten
Evaluationsstudien für Tools ist somit auch das Beispielgeben anzusehen.
94 Roland Heuermann
Das Objekt der Evaluierung von Tools sind natürlich die Tools selbst. Tools stellen quali-
tative Modelle von Wissensakquisitionskonzepten dar; die mit Hilfe von Tools erstellten
Wissensbasen sind ihrerseits qualitative Modelle der Wissensdomäne (vgl. Clancey 1989;
Motta et al. 1990).
Die Evaluierung dieser Modelle setzt voraus, daß der Untersuchung ein (möglichst expli-
zites) Modell der Interaktionen von allen beteiligten Variablen im Prozeß der Wissensak-
quisition zugrundeliegt. Ein solches Modell muß möglichst den Einfluß aller Variablen auf
die abhängige Variable der Messung spezifizieren, um geeignete Maßnahmen zum Heraus-
filtern oder Kontrollieren der Wirkung von Störvariablen spezifizieren zu können. Ein Bei-
spiel für ein solches Modell ist in Abbildung 1 skizziert; wegen des schon erwähnten
Fehlens universaler Modelle über die Wissensakquisition ist auch dieses spezielle
Teilmodell noch entwicklungsbedürftig.
Die Probleme bei dem Entwurf eines Teilmodells lassen sich anband von drei Aspekten
darstellen:
b) Analyse des Evaluationsobjektes und Bestimmen der Zahl und Art unabhängiger
Variablen;
Eigenarten des Problemraums sind die Art der Problemlösemethode (analytisch oder
synthetisch) und der Domäne.
Evaluation von Tools zur Wissensakquisition 95
a) Menschen
3. Nutzer Zufriedenheit
~ des Experten
und der Nutzer
b) Problemraum
l. Eigenschaften der
Domäne Methode der WA
1--
2. Aufgabe und
Problemlösemethode • ------------------------------
Techniken und
Werkzeuge
-
derWA
~
•
c) Systementwicklung Effizienz des
Wissens-
akquisitions-
d) Organisatorische prozesses
1--
Umgebung
e) Materielle und
finanzielle Rand- 1--
bedingungen
Nur auf den ersten Blick unproblematisch ist die Sichtweise eines Tools als einer unab-
hängigen Variable: Viele Tools beinhalten mehrere verschiedene Techniken, die zum Teil
in festgelegter Sequenz oder auch alternativ eingesetzt werden können. Sollen einzelne der
Techniken Untersuchungsobjekt sein, so ist sicherzustellen, daß in einer Untersuchung ihr
quantitativer und qualitativer Beitrag zur Erstellung einer Wissensbasis repräsentativ ist für
das "übliche" Vorgehen.
96 Roland Heuennann
Die Kombination verschiedener Techniken in einem Tool und die verschiedenen Spielar-
ten "einer" Technik machen es auch schwer, von den Ergebnissen vorliegender
Evaluationsstudien mit isoliert eingesetzten, manuell durchgeführten Techniken (siehe z.B.
Burton et al. 1988; Burton et al. 1990) auf die Qualität von Tools bzw. der gleichnamigen
Techniken innerhalb eines Tools zu schließen.
Manche Tools, z.B. KRITON (Linster 1988a}, bieten neben automatischen auch halbauto-
matische Techniken an und erfordern somit weitgehende Eingriffe des WI bei der
Wissenserhebung. Diese (Stör-) Einflüsse gilt es zu berücksichtigen, falls das Tool selbst
das Evaluationsobjekt sein soll. Denkbar ist allerdings auch, statt des Tools die gesamte
Methode der Wissensakquisition zum Untersuchungsobjekt zu machen. Dies liegt eventu-
ell auch deshalb nahe, weil selbst bei "vollautomatischen" Tools Eingriffe des WI erfor-
derlich sind: Er erläutert dem Experten und den Auftraggebern das gesamte methodische
Vorgehen und führt in die Benutzung des Tools ein.
Innerhalb eines Tools lassen sich noch zwei funktionell verschiedene Modulgruppen unter-
scheiden: Die Techniken und die Benutzerführung. Bei den meisten derzeit vorliegenden
Tools ist die Benutzerführung noch recht eng an die jeweilige Technik gekoppelt. Im ein-
fachsten Fall handelt es sich um Menüleisten, die Auskunft über anzuwählende Routinen
oder andere Optionen geben. Denkbar ist aber auch eine aktive Beratung. In AQUINAS
(Kitto/Boose 1987, S.185f.) ist hierfür ein "Dialogmanager" zuständig. Er ist ein Experten-
system, das die Auswahl der Akquisitionstechniken an dem aktuellen Stand der zu erstel-
lenden Wissensbasis orientiert. Der Dialogmanager läßt sich in zwei verschiedenen Modi
betreiben: Automatische und "unterstützende" Benutzerführung. Bei der automatischen
Benutzerführung steuert er die Operationen, im unterstützenden Modus unterbreitet er
begründete Vorschläge. Bei der Evaluation von Tools wie AQUINAS ist zu überlegen, ob
man die Fähigkeiten der Benutzerführung unabhängig von den Techniken analysieren soll.
Aus der Diskussion folgt die Erkenntnis, daß eine vollständige Untersuchung aller Interak-
tionen zwischen den Ausprägungen der beteiligten Variablen utopisch ist: Es gibt eine
kombinatorische Explosion der möglichen Konstellationen von Variablen.
Auch ein universales Modell der Interdependenzen aller WA-relevanten Variablen ist vor
dem Hintergrund der jeweils speziellen Philosophie der Toolersteller zu interpretieren.
Dies sei an einem kleinen Beispiel erläutert: Bekannt ist, daß kognitive und andere persön-
liche Eigenarten des Experten das Ergebnis einer Evaluation beeinflussen (Shaw 1987,
S.5.6). Ist es das Ziel der Wissensakquisition, eine möglichst intersubjektiv akzeptable
(d.h. objektive) Wissensbasis aufzubauen, dann muß ein Tool bzw. eine Methodologie mit
Evaluation von Tools zur Wissensakquisition 97
Hilfe mehrerer Experten evaluiert werden. Denkbar ist z.B. die voneinander unabhängige
Erstellung zweier oder mehrerer Wissensbasen einer Domäne durch je einen Experten.
Danach sind beide Wissensbasen zu vergleichen, individuelle Unterschiede zwischen
ihnen sind als unerwünschte Streuung zu wertenlO. Ist jedoch die "kognitive Emulation"
(Slatter 1987) des Experten Ziel der WA, so sind individuelle Unterschiede von Wissens-
basen der gleichen Domäne eventuell Ausdruck der erwünschten Abbildung unterschiedli-
cher Expertentypen.
Die Feststellung der Modelltreue eines Tools setzt eine genaue Spezifikation des Vorbilds
voraus. Ist das Vorbild der Wissensingenieur (Verfahren: Validierung), so werden Krite-
rien benötigt, anband derer die Eigenschaften des Wl mit denen des Tools verglichen wer-
den. Das Problem hierbei ist, daß die Eigenschaften eines guten Wissensingenieurs selbst
noch nicht ausreichend untersucht sindll. Das Persönlichkeitsproftl eines guten Wissens-
ingenieurs wird sicher dem eines guten Systemanalytikers ähnlich sein, doch muß er über
bessere kommunikative Fähigkeiten verfügen. Denkbar ist auch, daß als Vorbild für das
Verhalten des Tools nicht eine einzelne Person, sondern ein Team von Wissensingenieuren
ist. Bei der Bestimmung der Eigenschaften und Verhaltensweisen dieses Teams ergeben
sich analoge Schwierigkeiten wie bei einzelnen Wissensingenieuren.
Eine Evaluation der Nützlichkeit und der Nutzbarkeit von Tools kann die Untersuchung
der Qualität einer erstellten Wissensbasis verlangen. Die hierzu verwendeten Kriterien
sollten Merkmale der Domäne sein, die ohne Hilfe des zu evaluierenden Tools erhoben
wurden. Sie müssen daher ihrerseits mit anderen Tools oder aber mit "manuell" durchge-
führten Techniken ermittelt werden, und hierin liegt eine mögliche Quelle der Kritik an der
Objektivität der Kriteriumswerte.
Soll die Nützlichkeit eines Tools durch einen Vergleich mit anderen Tools oder traditionell
durchgeführten Techniken festgestellt werden, so ist das erhebliche Maß an Freiheitsgra-
den bei der Arbeit mit vielen Tools zu beachten. Künstliche Standardisierungen im Ver-
halten von Experten und Wl, die einen technisch gegebenen Spielraum zum Zwecke der
Vergleichbarkeitzweier Untersuchungsobjekte einengen, schränken gleichzeitig den Wert
eines solchen Vergleichs ein.
Ein methodisches Problem bei der Reliabilitätsmessung ist die Tatsache, daß die ohne
erheblichen Aufwand zu berechnenden Reliabilitätsmaße "split-half' (Durchnumerien der
Wissenselemente, Vergleich der ersten Hälfte mit der zweiten) und "odd-even"
(Durchnumerieren der Wissenselemente, Vergleich der geradzahligen mit den ungerad-
zahligen) für die Toolbewertung anband der Wissensbasis als abhängiger Variable nicht
10 Shaw und Gaines (Shaw/Gaines 1988) beschreiben eine Methode, wie mit Hilfe des Tools KSSO ein
Vergleich verschiedener Experten vorgenommen werden kann.
11 Überblick zum Stand der Forschung und Referenzen zu den weiteren Ausführungen finden sich bei
FeUers (Fellers 1987, S.11-14).
98 Roland Heuermann
verwendbar sindl2. Wissensbasen sind inhomogene Gebilde, deren Qualität nicht mit will-
kürlicher Aufteilung in zwei Hälften untersucht werden kann. Eine Reliabilitätsbestim-
mung mit Meßwiederholungen ist in der Regel nur bei Verwenden verschiedener Experten
pro Meßwiederholungszeitpunkt bzw. je Meßwiederholungsgruppe sinnvoll, da ansonsten
bei der zweiten Wissenserhebung wegen der Vorerfahrung aus dem ersten Meßzeitpunkt
Leistungsvorteile resultieren. Meßwiederholung scheidet daher als Methode der Reliabili-
tätsbestimmung aus, wenn das Ziel der W A die kognitive Emutation eines Experten ist
Die sequentielle Durchführung einer Meßwiederholungsuntersuchung ist zudem dann nicht
angebracht, wenn das Wissen einer Domäne sehr schnell veraltet und durch neue Er-
kenntnisse ersetzt wird.
Eher pragmatische Schwierigkeiten der Evaluation sind die Verfügbarkeil von Tools und
Experten. Der Bezug von nichtkommerziellen Tools ist nur über die Autoren bzw.
Hersteller denkbar. Methodisch anspruchsvolle Studien sind in der Regel nur unter Einsatz
mehrerer Experten durchführbar. Der materielle Aufwand für eine empirische Evaluation
kann somit als hoch und die Möglichkeit der Verfugung über ein gewünschtes Tool als
unsicher veranschlagt werden.
Die Ergebnisse der Evaluation eines Tools sind aber nicht nur kulturabhängig, sondern
auch zeitabhängig. Am Beispiel der sehr dynamischen Entwicklungen auf dem Software-
markt, z.B. dem für Textverarbeitungssysteme, zeigt sich, daß die qualitative Bewertung
von Software nur in einem Fall sehr zeitstabil ist: bei schlechter Software. Gute Tools
dagegen verlieren ihre relative Vorteilhaftigkeil mit dem Angebot noch besserer Software.
Dies betrifft primär ihre Nützlichkeit (festgestellt mit einer vergleichenden Messung der
Leistungsfähigkeit), sekundär aber wahrscheinlich auch die Nutzbarkeit: Wenn den bisher
zufriedenen Nutzern eines Tools bekannt wird, daß es leistungsfähigere Produkte gibt,
wird ihre Zufriedenheit mit dem Tool sinken. Ein weiterer indirekter Einfluß der Zeit auf
die Bewertung eines Tools ist durch die Veränderung der Domäne gegeben. Die Halb-
wertszeitvieler Wissensgebiete ist recht kurz; die Veränderung der Domäne besteht häufig
nicht nur im bloßen Austausch veralteter gegen neue Wissenselemente, sondern auch in
der quantitativen und qualitativen Zunahme und in der Art, das Wissen darzustellen bzw.
zu formalisieren. Als Beispiel sei nur die Zunahme statistischer und mathematischer
12 Vgl. Garg-Janardan und Salvendy (Garg-Janardan/Salvendy 1988, S.403) zur Prüfung der SMEE-
Methodologie.
Evaluation von Tools zur Wissensakquisition 99
Wie die vorangehenden Überlegungen gezeigt haben, ist die Evaluation eines Tools ein
Prozeß der Modellbildung, der Zieldefinition, der Variablenauswahl und der praktischen
Durchführung vor dem Hintergrund zeitbezogener Maßstäbe. Die Eigenschaften einer
Evaluation lassen sich unter anderem anhand folgender Kriterien beschreiben:
Die aufgeführten quantitativen und qualitativen Merkmale einer Evaluationsstudie sind vor
dem Hintergrund des jeweiligen Ziels der Untersuchung zu werten. Ziele der Evaluation
sind, wie oben ausgeführt, das Prüfen der Modelltreue, der Nützlichkeit und der Nutzbar-
keit. Die geschilderten Aspekte lassen sich in einer Matrix darstellen, die in Abbildung 2
angedeutet ist. Die Zahl möglicher Kombinationen von Zielen, qualitativen und quan-
titativen Beziehungen ist - wie sich aus den vorangegangenen Ausführungen ergibt - sehr
hoch. Es erscheint daher kaum vorstellbar, daß eine Evaluationsstudie mit der Absicht
einer vollständigen Untersuchung aller Aspekte eines Tools durchgeführt wird. Eine
brauchbare Untersuchung wird sich auf relevante Aspekte beschränken und ist selbst wie
100 Roland Heuennano
derum daran zu messen, inwieweit sie diesen eigenen Ansprüchen vor dem Hintergrund
der bekannten Literatur gerecht wird. Da umfangreiche Evaluationsstudien bisher fehlen,
mangelt es zur Zeit weitgehend an Vergleichsmaßstäben.
Modelltreue
Nutzbarkeit
Nützlichkeit
Zwei besonders relevante Fragestellungen für erste Arbeiten mit begrenztem Unter-
suchungsauftrag sind meines Erachtens
a) der ökonomische Aspekt. Ist der Einsatz eines Tools ökonomischer als die Durchfüh-
rung einer traditionellen WA? Spezieller und "anders herum" formuliert: Lassen sich
allgemeine Bedingungen fmden, unter denen der Einsatz von Tools ökonomisch
ungünstiger ist als der einer traditionellen W A ?
b) der theoretische Aspekt: Wie hoch sind der Grad der Modelltreue und die Reliabilität
eines Tools ? Unterscheiden sich die mit einem Tool erstellten Wissensbasen von
denen bei traditionell durchgeführter W A?
4 Diskussion
Die Evaluierung von Tools ist, wie gezeigt, ein mit zahlreichen Schwierigkeiten behaftetes
Unterfangen. Diese Situationsbeschreibung kann jedoch keinesfalls als Argument gegen
die Durchführung von Evaluationsstudien gewertet werden. Vielmehr ist hiermit nur
erklärt, aus welchen Gründen es noch für keines der zahlreichen Tools eine umfangreiche
Evaluation gibt. Die geschilderten methodischen Schwierigkeiten sind Ausdruck der Tat-
sache, daß die Wissensakquisition allgemein und die softwaregestützte W A im Speziellen
sich noch in der Pionierphase ihrer praktischen Anwendung befinden. Methodische Pro-
Evaluation von Too!s zur Wissensakquisition 101
bleme der Konzeption von Evaluationsstudien sind auch Ausdruck der Tatsache, daß die
Domäne W A bisher nicht ausreichend theoretisch verstanden und praktisch beherrscht
wird13 •
Die Fähigkeit zur Evaluierung von Techniken und Tools ist kein Wissen, das sich unab-
hängig von der Domäne "Wissensakquisition" entwickelt. Wäre dem so, dann könnte man
bis zum Erreichen einer bestimmten Reife der Domäne warten und im Anschluß daran mit
den Evaluationsstudien starten. Vielmehr aber ist zu erwarten, daß die konzeptuellen
Überlegungen zur Evaluierung von Tools und die empirischen Ergebnisse solcher Studien
selbst zu einem Fortschritt in der untersuchten Domäne beitragen werden. Sie können
Konstrukteuren Hinweise zur Gestaltung effizienterer und Anwendern Entscheidungshilfen
zur Auswahl der für ihre Zwecke geeigneten Tools geben.
13 Green und Keyes (Green/Keyes 1987, S. 39) beschreiben am Beispiel der Situation bei WBS einen
Teufelskreis, den es zu durchbrechen gilt:
a) Es liegen keine Validitätsstudien vor.
b) Niemand verlangt nach Validitätsstudien, da sie nicht verfügbar sind.
c) Es können keine Validitätsstudien durchgeführt werden, da mangels Vorerfahrung das
notwendige Wissen hierzu fehlt.
102 Roland Heuermann
5 Literaturverzeichnis
Benbasat, I. und Dhaliwal, J.S. (1989), A framework for the validation of knowledge
acquisition, in: Knowledge Acquisition, 1, 8.215-233.
Boose, J.H. (1985), A knowledge acquisition program for expert systems based on
personal construct psychology, in: International Journal of Man-Machine Studies 23,
8.495-525.
Boose, J.H. (1988a), Uses of repertory grid-centered knowledge acquisition tools for
knowledge-based systems, in: International Journal of Man-Machine Studies 29, 8.287-
310.
Boose, J.H. (1988b), A research framework for knowledge acquisition techniques and
tools, in: Boose, J., Gaines, B. und Linster, M. (Hrsg.), Proceedings of the European
knowledge acquisition workshop (EKAW '88), Sankt Augustin, 8.10.1-10.13.
Buchanan, B.G. (1986), Some approaches to knowledge acquisition, in: Mitchell, T.M.,
Carbonnell, J.G. und Michalski, R.S. (Hrsg.), Machine leaming. A guide to current
research, Boston u.a., S.19-24.
Burton, A.M. et al. (1988), A formal evaluation of knowledge elicitation techniques for
expert systems: Domain 1, in: Moralee, D.S. (Hrsg.), Research and development in expert
systems IV, London u.a., 8.136-145.
Clancey, W.J. (1985), Heuristic classification, in: Artificial Intelligence 25, 8.289-350.
Clancey, W.J. (1989), Viewing knowledge bases as qualitative models, in: IEEE Expert 4,
S.9-22.
Davis, R. und Lenat, D.B. (1982), Knowledge-based systems in artificial intelligence, New
York.
Dhaliwal, J.S. und Benbasat, I. (1990), A framework for the comparative evaluation of
knowledge acquisition tools and techniques, in: Knowledge Acquisition 2, 8.145-166.
Evaluation von Tools zur Wissensakquisition 103
Eshelman, L. (1988), MOLE: a knowledge acquisition tool that buries certainty factors, in:
International Journal ofMan-Machine Studies 29, S.563-577.
Esterby-Smith, M. (1980), The design, analysis and interpretation of repertory grids, in:
International Journal ofMan-Machine Studies 13, S.3-24.
FeUers, J.W. (1987), Key factors in knowledge acquisition, in: Computer Personnel11, S.
10-24.
Fischler, M.A. und Firschein, D. (1987), Intelligence: The eye, the brain, and the
computer, Reading.
Fohmann, L. (1985), Wissenserwerb und maschinelles Lernen, in: Savory, S.E. (Hrsg.),
Künstliche Intelligenz und Expertensysteme, München u.a.
Gammack, J.G. und Young, J.G. (1985), Psychological techniques for eliciting expert
knowledge, in: Bramer, M.A. (Hrsg.), Research and development in expert systems,
London u.a., S.105-116.
Green, C.J.R. und Keyes, M.M. (1987), Verification and validation of expert systems, in:
Proceedings of the Western Comrnitee on Expert Systems, Anaheim/California, S.38-43.
Grober, T.R. (1988), Acquiring strategic knowledge from experts, in: International Journal
of Man-Machine Studies 29, S.579-597.
Keller, J.A. (1986), Evaluation, in: Arnold, W., Eysenck, H.J. und Meili, R. (Hrsg.),
Lexikon der Psychologie, Bd. 1, Freiburg i. Br., S.531.
104 Roland Heuermann
Kitto, C.M. und Boose, J.H. (1989), Heuristics for expertise transfer: an implementation of
a dialog manager for knowledge acquisition, in: International Journal of Man-Machine
Studies 26, S.183-202.
Linster, M. (1988a), KRITON: A knowledge elicitation tool for expert systems, in: Boose,
J., Gaines, B. und Linster, M. (Hrsg.), Proceedings of the European knowledge acquisition
workshop (EKAW '88), Sankt Augustin, S.4.1-4.5.
Linster, M. (1988b), Wissensakquisition: Stand der Dinge und Perspektiven, in: Hendler,
J.A. (Hrsg.), Expert systems, Norwood, S.99-119.
Moore, E.A. und Agogino, A.M. (1987), INFORM: an architecture for expert-directed
knowledge acquisition, in: International Journal of Man-Machine Studies 26, S.213-230.
Musen, M.A. (1988), Conceptual models of interactive knowledge acquisition tools, in:
Boose, J., Gaines, B. und Linster, M. (Hrsg.), Proceedings of the European knowledge
acquisition workshop (EKAW '88), Sankt Augustin, S.26.1-26.15.
Musen, M.A. et al. (1988), Use of a domain model to drive an interactive knowledge-
editing tool, in: Boose, J.H. und Gaines, B.R. (Hrsg.), Knowledge acquisition tools for
expert systems. Knowledge-based systems, vol. 2, London u.a., S.257-273.
Newell, A. (1982), The knowledge Ievel, in: Artificial Intelligence 18, 87-127.
O'Keefe, R.M., Balci, 0. und Smith, B.P. (1987), Validating expert system performance,
in: IEEE Expert 2, S.81-90.
Sargent, R.G. (1985), A tutorial on verification and validation of simulation models, in:
Shephard, S., Pooch, U. und Pegden, D. (Hrsg.), Proceedings of the 1984 winter Simulation
Conference, S.15-22.
Evaluation von Tools zur Wissensakquisition 105
Shaw, M.L. und Gaines, B.R. (1988), A methodology for recognizing consensus,
correspondence, conflict and contrast in a knowledge acquisition system, in: 3rd AAAI-
sponsored Knowledge Acquisition for Knowledge-based Systems Workshop, Banff,
S.30.1-30.19.
Woodward, B. (1990), Knowledge acquisition at the front end: Defining the domain, in:
Knowledge Acquisition 2, S.73-94.
Ein Rahmenmodell für den Einsatz Wissensbasierter Systeme
Projekterfahrungen mit einem Wissensbasierten System zu Förderhilfen
im Handwerk
Hans-Ulrich Wandel
3, Systemtest 113
7 Literaturverzeichnis 127
Ein Rahmenmodell für Wissensbasierte Systeme 109
Als Projekt wurde schließlich die Entwicklung des Wissensbasierten Systems "HAFÖX",
eines Systems zur Beratung von Handwerkern bezüglich der optimalen Kombination von
öffentlichen Förderhilfen für spezifische Betriebszwecke, definiert. Dafür sprachen meh-
rere Gründe: Erstens zeichnet sich die Beratung zu öffentlichen Förderhilfen als hin-
reichend komplexe, gefragte und damit für wissensbasierte Lösungen grundsätzlich inter-
essante Anwendung aus. Dies beweisen "running systems" wie "STAKNETEX"
(Mertens/Borkowski/Geis 1988, S. 116f.) und "OEMI(g)" (Hake Brainware, Mainz) sowie
Datenbankendienste wie "DASTI" (Westdeutsche Landesbank Girozentrale). Zweitens ist
das Wissen über öffentliche Förderhilfen gut eingrenzbar und strukturiert. Drittens konnte
durch die Zusammenarbeit mit dem Seminar für Handwerkswesen an der Universität
Göttingen auf Erfahrungen aus einer Studie zu Förderprogrammen (Bayerisches Staatsmi-
nisterium lür Wirtschaft und Verkehr 1990) zurückgegriffen werden; dies erlaubte eine
schnelle Identifikation der relevanten Wissensquellen und half so, die Zeitdauer des Pro-
jekts zu begrenzen. Schließlich sicherten Kontakte zur Landesgewerbeförderstelle des nie-
dersächsischen Handwerks in Hannover die Vorstellung von "HAFÖX" auf dem Regio-
nallehrgang Nord/li der Betriebsberater der Handwerkskammern im September 1990 in
Bremerhaven und den anschließenden Systemtest bei vier Handwerkskammern.
Als Implementierungsinstrument für "HAFÖX" wurde die auf Personal Computern ablauf-
fähigeShell "PROJECTOR-11"1 gewählt Dies erklärt sich daraus, daß der Hersteller "run-
time"-Versionen dieser Shell für Projektzwecke kostenlos zur Verlügung stellte. Die Wahl
von Projektinhalt und Implementierungswerkzeug sowie der Umfang des Systemstests er-
heben deshalb keinen Anspruch auf Repräsentativität. Ziel des Projektes "HAFÖX" war
die Identifikation von lür die Umsetzung Wissensbasierter Systeme relevanten Zusam-
menhängen.
In die Wissensbasis von "HAFÖX" wurden gemäß der Empfehlung des Seminars für
Handwerkswesen an der Universität Göttingen nur handwerksrelevante Bundesför-
derprogramme und Landesprogramme für Niedersachsen einbezogen.
Als Wissensquelle diente in erster Linie die "Zeitschrift für das gesamte Kreditwesen"
(Sonderausgabe 1990 "Die Finanzierungshilfen des Bundes und der Länder"), die zu allen
aktuellen Förderprogrammen Zweckbindung, Bedingungen, Antragsweg und Fundstelle
nennt Sie wurde ergänzt durch Programmrichtlinien der Kreditanstalt flir Wiederaufbau
und der Deutschen Ausgleichsbank, Texte des Einkommensteuergesetzes und einen Über-
blick zu finanziellen Hilfen der Bundesanstalt flir Arbeit Im ersten Schritt wurden aus
diesen Wissensquellen 45 Förderprogramme identifiziert, wobei der Übersichtlichkeit der
Wissensbasis wegen eine Untergliederung in elf Förderprogrammklassen erfolgte, die
teilweise zur Gewährleistung der funktionalen Einheit der einzelnen Beratungsbereiche
miteinander zu vernetzen waren. Die Förderrichtlinien wurden in einem zweiten Schritt in
Checklistenform aufbereitet, bis schließlich zu jeder Förderhilfe eine Liste zu erfüllender
Förderbedingungen vorlag.
Um eine schnellstmögliche Elimination nicht in Frage kommender Förderprogramme zu
erreichen, wurden die Förderbedingungen im nächsten Schritt ihrer Bedeutung entspre-
chend in eine Rangfolge gebracht, wobei den restriktivsten (d.h. am ehesten verletzten)
Kriterien der höchste Rang zugewiesen wurde. Für mehrere Programme identische Krite-
rien erhielten eine entsprechend höhere Rangfolge.
2 Anmerkung: Dahinter verbirgt sich die Theorie der Darstellung unsicheren Wissens des Expertensy-
stems "MYCIN" (Adams 1984, S. 263-271).
112 Hans-Ulrich Wandel
Für "HAFÖX" wurden auf diese Weise insgesamt acht zum Teil übereinanderliegende
Fenster definiert: Im Fenster "Programmklassen" wählt der Benutzer den Bereich der För-
derberatung, dessen Programme er auf ihre Eignung für einen konkreten Beratungsfall prü-
fen möchte (beispielsweise den Bereich "Existenzgründungsprogramme"). Er läßt sich
dann im Fenster "Förderprogramme" alle zugehörigen Förderhilfen anzeigen und lädt
davon diejenigen, welche er für prüfenswert hält, in das Fenster "Programmauswahl". Auf
diese Weise kann er seinem Wissen entsprechend entweder alle oder auch nur einzelne
Förderhilfen prüfen. In einem weiteren Schritt ruft der Benutzer zu den selektierten För-
derhilfen die Menge der zu erfüllenden Förderbedingungen ihrer Rangfolge entsprechend
im Fenster "Checkliste" ab. Ist eine Bedingung nicht erfüllt, zeigt ihm die Erklärungskom-
ponente diejenigen Förderprogramme an, welche er damit aus der weiteren Betrachtung
ausschließen und im Fenster "Programmauswahl" löschen muß. So bleiben im Fenster
"Programmauswahl" letztlich diejenigen Förderhilfen übrig, welche potentiell in Anspruch
genommen werden können. Diese Förderhilfen müssen nun in einem weiteren Schritt auf
ihre Kombinationsfähigkeit untersucht werden. Das Fenster "Kombination" zeigt an, für
welche Förderprogramme Kombinationsverbote existieren. Unter Berücksichtigung von
Zins- und Tilgungsbedingungen, Laufzeiten, Höchstfördergrenzen und Bürg-
schaftsvorschriften (diese Informationen können in den Fenstern "Konditionen" und
"Bürgschaften" abgerufen werden) wird dann die für den Förderzweck optimale Pro-
grammkombination ermittelt. Abbildung 1 zeigt beispielhaft die Fensteroberfläche von
"HAFÖX", wie sie der Benutzer während der Prüfung der Förderbedingungen sieht:
Förderprogramme
Programmauswahl
Eigenkapitalhilfe
Eigenkapitalhilfe ERP-Darlehen Existenzgründung
ERP-Darlehen Existenzgründung Landesdarlehen Existenzgründung
Landesdarlehen Existenzgründung Ansparzuschuß
Investitionszuschüsse
KfW- Mittelstandsprogramm
Ausbildungsplatzzuschuß
Checkliste
3 Systemtest
Der Nutzen von "HAFÖX" wurde in einer qualitativ verbesserten Betriebsberatung gese-
hen, und zwar zum einen in den Handwerkskammern und zum anderen speziell vor Ort
(vor allem bei der Folgeberatung von Existenzgründern) durch den Einsatz von Laptops.
(Dabei wurde die Verfügbarkeil einer größeren Anzahl möglicher Förderprogramme beim
Einsatz von "HAFÖX" mit einer qualitativen Verbesserung der Beratung gleichgesetzt).
Bei der Beurteilung der Systemwirtschaftlichkeit wurde ein Nutzerkreis von 30 Betriebs-
beratern angenommen. Für einen solchen Nutzerkreis hätte sich die Aktualisierung der
Wissensbasis von "HAFÖX" durch eine zentrale Stelle gelohnt, die aktualisierte Versionen
jeweils an die Betriebsberater versandt hätte.
Auf Basis dieser Überlegungen wurde das Einsatzpotential für "HAFÖX" insgesamt als
gut eingeschätzt.
Der Systemtest bei insgesamt vier Handwerkskammern sollte zeigen, wie realistisch die im
vorausgegangenen Abschnitt angenommenen Nutzeffekte waren, wie die Benutzerfreund-
lichkeit des Systems eingeschätzt bzw. verbessert werden konnte und welche Kosten- und
Nutzenfaktoren die Handwerkskammern als einsatzrelevant erachteten. Die Testergebnisse
deckten mehrere überraschende Effekte auf: Es stellte sich heraus, daß das Förderpro-
grammangebot von "HAFÖX" für die sich auf eine überschaubare Zahl von Programmen
konzentrierende Tagesarbeit der Betriebsberater zu umfangreich war. Die Verfügbarkeit
einer großen Zahl relevanter Förderprogramme wurde nicht mit einer qualitativen Verbes-
serung der Förderberatung gleichgesetzt. Grund war die Spezialisierung der Berater auf
114 Hans-Uirich Wandel
Als wichtige Erkenntnis aus den obigen Testergebnissen kann festgehalten werden, daß die
Beurteilungskriterien der Testteilnehmer im Widerspruch standen zu Diskussionen des
Einsatzes Wissensbasierter Systeme, bei welchen programmiertechnische Aspekte
dominieren. Der Test identifizierte als wichtigstes Beurteilungskriterium die Systemwirt-
schaftlichk:eit, was auch nicht besonders verwundert: Wirtschaftlichkeitsaspekte sollten im
Rahmen der Entwicklung Wissensbasierter Systeme immer dann in den Vordergrund tre-
ten, wenn das Wissen eines speziellen Anwendungsgebietes alternativ konventionell pro-
grammiert werden kann, und dies eventuell günstiger ist. Das aber ist genau dann möglich,
wenn ein Verzicht auf die Darstellung unsicheren Wissens und die Erklärungsfähigkeit des
Anwendungssystems (spezifische Komponenten wissenbasierter Programmierung) die
Qualität der Aufgabenlösung nicht erheblich mindert. In solchen Fällen sind wissensba-
sierte Programmiertechniken (darunter werden alle Techniken zur Programmierung Wis-
sensbasierter Systeme verstanden, also z.B. Shells) vor allem unter Wirtschaftlichkeits-
aspekten, jedoch zusätzlich auch unter Berücksichtigung qualitativer Unterschiede mit
konventionellen Programmiertechniken zu vergleichen. Die höhere Effizienz wissens-
basierter Programmierung allein kann bei einem konkreten Aufgabenumfang deren Einsatz
u.U. nicht rechtfertigen. Allgemein ist daraus zu folgern, daß die Frage nach der zu
verwendenden Programmiertechnik grundsätzlich immer diskutiert, d.h. eine vorzeitige
Festlegung auf ein bestimmtes Programmiertool gleich zu Projektbeginn vermieden
werden sollte. Dies setzt aber eine detaillierte Problemanalyse voraus, auf deren Basis erst
im zweiten Schritt die Wahl der optimalen Programmiertechnik folgt.
Nun kann zwar kritisiert werden, daß der Umfang eines Problems erst nach der Erstellung
eines Prototyps korrekt eingeschätzt werden kann, wie dies ja auch im Rahmen des
Projekts "HAFÖX" geschah. Dagegen ist im Prinzip auch nichts einzuwenden. Eine Unter-
suchung von GEIS/STRASSERIMERTENS empfiehlt sogar eine derartige Vorge-
Ein Rahmenmodell fllr Wissensbasierte Systeme 115
Der Vergleich wissensbasierteT mit konventionellen Lösungen setzt eine "nüchterne" Be-
trachtung WissensbasierteT Systeme voraus. Sieht man wissensbasierte Programmier-
techniken lediglich als eine Art der Programmierung an, welche durch mächtige Befehle
die übersichtliche Modeliierung komplexer Zusammenhänge erlaubt und als Besonderheit
Erklärungsfähigkeit und Mechanismen zur Repräsentation unsicheren Wissens bietet, bil-
det als Konsequenz nicht mehr die Programmiertechnik, sondern das zu lösende Problem
das Zentrum des Interesses. Wichtigster Problemlösungsfaktor wird dann die Wissensmo-
dellierung. Der aus dieser Sichtweise resultierende hohe Problembezug hilft spätere
Umsetzungsprobleme zu vermeiden. Das kann einen wichtigen Beitrag zur Verringerung
des Anwendungsdefizits bei Wissensbasierten Systemen leisten.
Für die obige Sichtweise wissensbasierteT Programmiertechnik spricht u.a. eine Untersu-
chung von GEIS/STRASSERIMERTENS. Sie stellten in einem Vergleich des regelba-
sierten Expertensystems "STAKNETEX" mit dem entscheidungstabellenbasierten Pro-
gramm "STAKNETET" fest, daß konventionelle Programmierung Vorteile bei Antwort-
zeiten und Dokumentation bringt, Änderungen der Wissensbasis jedoch einfacher in Ex-
pertensystemshells durchzuführen sind, und einfachere Aufgabenstellungen sowohl kon-
ventionell als auch mit Shells gelöst werden können (Geis/Straßer/Mertens, 1989, S. 68-
72).
Wie lassen sich nun wissensbasierte Programmiertechniken in die Familie der Program-
miersprachen einordnen? In diesem Zusammenhang ist ein Klassifizierungsansatz von
BALZERT interessant, welcher die verschiedenen Abstraktionsebenen von Programmier-
sprachen verdeutlicht und gleichzeitig deren Evolutionsebene beschreibt:
116 Hans-Uirich Wandel
Evolution
4
(
Objekt-
orientierter
('
Entwurf
r:__ abstraktion
ADT ADA
r:~~.
MODULA-2
SD, PASCAL, C,
0 Abstraktion FORTRAN
keine COBOL,
Abstraktion BASIC, Assembler
Abb. 2: Stufen der Entwurfstechniken (Quelle: Balzert, H., Überblick über die Metho-
den- und Werkzeug/andschaft, in: Balzert, H. (Hrsg.), CASE: Systeme und
Werkzeuge 1989, S. 73)
Im vorausgegangenen Abschnitt wurde erwähnt, daß ein Problem u.U. mit mehreren Pro-
grammierungstechniken gelöst werden kann. Deswegen soll hier beispielhaft für eine al-
ternative Programmierung ein Teil der Wissensbasis des Systems "HAFÖX" in der
Sprache "PASCAL" erläutert werden. Die folgende Darstellung zeigt zunächst einen Teil-
ausschnitt der mit der Shell"PROJECTOR-11" erstellten Wissensbasis von "HAFÖX":
1 #REL1YPES KRITERIDM
2
3#NODE EXISTENZGRÜNDUNG
4#SOURCEOF PROGRAMM
5 EIGENKAPITALHILFE
6 ERP-DARLEHEN EXISTENZGRÜNDUNG
7 LANDESDARLEHEN EXISTENZGRÜNDUNG
8
9#NODE EIGENKAPITALHILFE
10 #SOURCEOF KRITERruM
11 EXISTENZGRÜNDUNG, ÜBERNAHME ODER TÄTIGE
BETEILIGUNG, FOLGEINVESTITIONEN [97]
12 VERSTÄRKUNG DER EIGENKAPITALBASIS [95]
13 VORHABEN. BEI ANTRAGSTELLUNG NOCH NICHT
14 BEGONNEN [94]
15
16#NODE ERP-DARLEHEN EXISTENZGRÜNDUNG
17 #SOURCEOF KRITERITJM
18 HÖCHSTALTER 50 JAHRE [91]
19
20#NODE LANDESDARLEHEN EXISTENZGRÜNDUNG
21 #SOURCEOF KRITERruM
22 VORHABEN BEI ANTRAGSTELLUNG NOCH NICHT
23 BEGONNEN [94)
Abb.3: Exemplarischer Ausschnitt aus der Wissensbasis von "HAFÖX", erstellt mit
der Shell "PROJECTOR-Il".
13/14, 22!23) sowohl für die Förderhilfe "ERP-Darlehen Existenzgründung" als auch für
die Förderhilfe "Eigenkapitalhilfe" gilt Die in eckigen Klammem stehenden "certainty
factors", welche die Rangfolge der einzelnen Kriterien festlegen, werden hier mit der
"MYCIN-Fonnel" (vgL Adams 1984, S. 263-271) addiert und der neue "certainty factor"
beachtet, daß das Kriterium "Vorhaben bei Antragstellung noch nicht begonnen" im
Fenster "Checkliste" an erster Stelle erscheint (vgL Abbildung 1). Und so sieht im
Vergleich die alternative Programmierung des Wissensbasisausschnittes in der Program-
miersprache "PASCAL" aus:
1 PROGRAM HAFOEX;
2
3 typepname = array[1..33] of char;
4
5 var i, hilfe: inleger;
6 antwort: array[1..3] of integer;
7 prog: array[1..3] ofpname;
8
9 procedure programm;
...
10
11 begin prog[l] := 'Eigenkapitalhilfe
12 prog[2] := 'ERP-Darlehen Exislenzgründung ';
13 prog[3] := 'Landesdarlehen Existenzgründung ';
14 write('Geben Sie neben den Programmen, die');
15 wrileln('Sie prilfen möchlen, "1" ein.1:
16
17 fori:= 1 to 3 do
18 begin
19 wrile(prog[i]);
20 readln(antwort[i]);
21 end;
22 end;
23
24 procedure checldiste;
25
26 begin
27 write('Geben Sie im folgenden "1" ein, wenn ein1:
28 wrileln('Krilerium erfüllt ist und "0", wenn es1:
29 wrileln('nicht erfüllt ist1:
30
31 if antwort(1]=1 then
begin write('Exislenzgründung, Übernahme oder Wige
Beleiligung, Folgeinvestitionen: 1:
(siehe Fortsetzung)
Ein Rahmenmodell flir Wissensbasierte Systeme 119
(Fortsetzung)
33 readln(antwort[l]);
34 end;
35
36 if antwort[l ]= 1 then
37 begin write('Verstärlrung der Eigenkapitalbasis:');
38 readln(antwort[l]);
39 end;
40
41 if (antwort[l]=l) or (antwort[3]=1) then
42 begin write('Vomaben bei Anlragstellung noch nicht begonnen: 1;
43 readln(hilfe); if hilfe=O then
44 begin antwort[3]:=0;
45 antwort[l]:=O;
46 end;
47 end;
48
49 if (antwort[l]=l) or (antwort[2] = 1) then
50 begin write('Höchstalter 50 Jahre: ');
51 readln(hilfe); if hilfe = 0
52 then begin antwort[l]:=O;
53 antwort[2]:=0;
54 end;
55 end;
56
57 end;
60 (* Hauptprogramm*)
61
62 begin
63 programm;
64 checkliste;
65 end.
Abbildung 4läßt erkennen, daß in der Programmiersprache "PASCAL" zunächst alle ver-
wendeten Variablen (Zeilen 5-7) samt Typen (Zeile 3) defmiert werden müssen. Das spezi-
fische Wissen über Förderhilfen bildet hier eine Einheit mit den Inferenzstrukturen (Wenn-
Dann-Regeln), die Rangfolge der Ausschlußkriterien ist festgelegt durch die Regelfolge im
Programm. Das Hauptprogramm (Zeilen 63,64), das lediglich die vorher definierten Pro-
zeduren aufruft, skizziert den Programmablauf.
Mit der alternativen Programmierung von "HAFÖX" läßt sich in diesem Fall die gleiche
Aufgabenstellung (die Selektion der optimalen Kombination von Förderhilfen frlr einen
spezifischen Förderzweck) lösen. Die Shellprogrammierung ist zwar eindeutig eleganter,
120 Hans-Ulrich Wandel
letztendlich jedoch lediglich eine andere Wissensdarstellung für die weitere Verarbeitung
im Computer. Ihre Vorteile liegen in der Übersichtlichkeit der zugehörigen Wissensbasis,
der geringen Einarbeitungszeit auch für Nichtprogrammierer und dem Komfort der
Benutzeroberfläche.
Wie aber kann entschieden werden, welche Programmiertechnik die beste ist, falls mehrere
Lösungen in Frage kommen? Die Antwort lautet, daß der Auswahl unter mehreren Mög-
lichkeiten eine Analyse der jeweils mit ihnen verbundenen Kosten und Leistungen zugrun-
dezuliegen hat. SCHMALENBACH unterscheidet hinsichtlich der Bewertung von Kosten
und Leistungen drei Wahlvorgänge: den reinen Kostenvergleich, den reinen Nut-
zenvergleich und den Vergleich von Kosten und Nutzen. Der Kostenvergleich ist anzu-
wenden, wenn lediglich alternative Mittel zur Ausführung einer spezifischen Leistung
beurteilt werden sollen; mit dem Nutzenvergleich läßt sich die alternative Verwendung
einer schon vorhandenen Leistung oder eines vorhandenen Gutes bewerten. In den übrigen
Fällen ist ein Kosten-Nutzen-Vergleich durchzuführen (Schmalenbach 1963, S. 129ff.).
In allen drei Fällen stellt sich die Frage nach der Meßbarkeit der Kosten- und Nutzenfakto-
ren der zu vergleichenden Lösungen. Als Antwort bieten sich verschiedene Verfahren an:
So erlauben statische und dynamische Investitionsrechnungsverfahren die wirtschaftliche
Beurteilung verschiedener Alternativen in bezug auf eine monetäre Zielsetzung (Horvath,
1986, S. 459-462). Dies genügtjedoch in vielen Fällen nicht, da neben monetären Größen
auch qualitative Faktoren zu berücksichtigen sind, die nicht monetär bewertet werden kön-
nen, im Sinne einer ganzheitlichen Beurteilung aber in die Entscheidung miteinbezogen
werden sollten (Kassowitz 1988, S. 89).
Ein geeignetes Instrument zur Berücksichtigung mehrfacher Zielsetzungen bei der Beur-
teilung von Alternativen ist das Verfahren der Nutzwertanalyse. ZANGEMEISTER defi-
niert die Nutzwertanalyse als "Analyse einer Menge komplexer Handlungsalternativen mit
Ein Rahmenmodell für Wissensbasierte Systeme 121
dem Zweck, die Elemente dieser Menge entsprechend den Präferenzen des Entschei-
dungsträgers bezüglich eines multidimensionalen Zielsystems zu ordnen. Die Abbildung
dieser Ordnung erfolgt durch die Angabe der Nutzwerte (Gesamtwerte) der Alternativen"
(Zangemeister 1976, S. 45f.).
Nutzwertanalysen können Wirtschaftlichkeitsrechnungen ergänzen oder sogar ersetzen. Ihr
Vorteilliegt in der Erhöhung der Entscheidungstransparenz und der dadurch verbesserten
Akzeptanz und Durchsetzbarkeil (Weber 1988, S. 49-53). Die einzelnen Bewertungs-
schritte der Nutzwertanalyse implizieren allerdings eine hohe Subjektivität, die, wenn sie
nicht reflektiert wird, deren Ergebnisse fragwürdig macht Diese Subjektivität äußert sich
zum einen in der Festlegung der Zielinhalte - dabei ist zu beachten, daß Ziele, welche
intuitiv gefunden werden, oft voneinander abhängig sind. Letzteres widerspricht dem
Postulat der Nutzenunabhängigkeit (Zangemeister 1976, S. 77-84). Wird aber das Postulat
der Nutzenunabhängigkeit nicht erfüllt, können unbewußt Faktorengewichtungen entste-
hen, welche eine unerwünschte Übergewichtung einzelner Teilziele zur Folge haben.
Bei der Untersuchung der Abhängigkeiten zwischen Zielgrößen sind grundsätzlich kom-
plementäre von konkurrierenden Zielgrößen zu unterscheiden. Komplementäre Ziele kön-
nen sich gegenseitig bedingen - dann ist die Berücksichtigung nur einer Zielgröße im
Rahmen der Nutzwertanalyse sinnvoll; liegt dagegen eine einseitige Abhängigkeit vor,
müssen Unterziele gebildet werden. Konkurrierende Ziele können nur in Form eines Kom-
promisses in die Nutzwertanalyse eingehen.
Eine zweite wichtige Einflußgröße auf die Ergebnisqualität von Nutzwertanalysen ist die
Wahl der richtigen Meßskala. Grundsätzlich können für eine Nutzwertanalyse Nominal-,
Ordinal- oder Intervallskalierungen verwendet werden; in der Praxis beschränkt man sich
meist auf Intervallskalierungen ohne festen Nullpunkt. Für diese Art von Zielwertskalen ist
der Nutzwert einer Alternative mit Hilfe der Additionsregel (Zangemeister 1976, S. 77-84)
zu ermitteln, welche deren Nutzwert aus der Summe der Nutzwertdifferenzen zu anderen
Alternativen errechnet.
Im folgenden Abschnitt wird das geschilderte Bewertungsverfahren anhand einer exempla-
rischen Nutzwertanalyse für "HAFÖX" verdeutlicht.
Nutzen/Kosten Lösung*)
2 3 4 5
Nutzen
Mitarbeitern
Einsparung mehrfacher Beraterbesuche X X X X
arbeiter in Interna
Schnellere Klärung von Spezialfragen X X X X X
Kosten
Aufbau Wissensbasis/Programmierung X X X
Datenbankanschluß/-abfrage X
Laptops X X X X
Schulung X X X X X
Software X X X X
Updates X
Wissensaktualisierung X X X
*) (1): "HAFÖX"
(2): Programmierung in "PASCAL"
(3): Programmierung in "dBASE"
(4): "DASTI"
(5): "OEMI(g)"
2 3 4 5
Dokumentation des internen
Wissens von Mitarbeitern 50% X
Wissensaustausch der Mit-
arbeiter 20% X
Aktualität der
Förderkonditionen 10% X
Benutzerführung 10% X
Förderhilfendokumentation 10% X
Die Bewertungsergebnisse der einzelnen Lösungen werden anschließend mit Hilfe der
Additionsregel (vgl. Abschnitt 5.1.) zu spezifischen Nutzwerten verrechnet. (Dies wird
hier nicht explizit durchgeführt). Aus den Ergebnissen der Wirtschaftlichkeits- und der
Nutzwertanalyse erhält man so u.U. verschiedene Rangfolgen für die einzelnen Alternati-
ven, aus denen man dann über eine subjektive Abwägung monetärer gegen qualitative
Aspekte die optimale Lösung bestimmt.
In den Kapiteln vier und fünf wurde gezeigt, wie beurteilt werden kann, ob die Ent-
wicklung eines Wissenbasierten Systems zur computergestützten Lösung eines konkreten
Problems sinnvoll ist. Insbesondere wurde dabei auf die Erklärungskomponente und die
Möglichkeit der Darstellung unsicheren Wissens verwiesen, welche Wissensbasierte
Systeme auszeichnet. In diesem Abschnitt wird nochmals auf zwei Punkte eingegangen,
die nur ftir die Entwicklung Wissensbasierter Systeme relevant sind: Wissensrepräsentation
und -akquisition.
die Entscheidung für eine spezifische Art der Wissensrepräsentation immer auch die Ak-
zeptanz der ihr zugrundeliegenden Modellannahmen impliziert Wissensre-
präsentationsmodelle lassen sich allgemein als semantische Raum-Modelle, Pro-
duktionssysteme und analoge Repräsentationsansätze klassifizieren; Diskussionsgegen-
stand der KI-Forschung sind vor allem die ersten beiden.
Innerhalb der Gruppe der semantischen Raum-Modelle lassen sich psychometrische
Ansätze, Netzwerkansätze und Schemaansätze differenzieren, wobei ftir die Künstliche-
Intelligenz-Forschung wiederum die letzten beiden relevant sind: Der Netzwerkansatz stellt
mit Hilfe von Konzepten (Knoten) und gerichteten Relationen (Kanten) Begriffswissen
dar. Er garantiert eine realitätsnahe Wissensabbildung, wenn deklaratives Wissen kodiert
und wieder abgerufen werden soll (fergan 1986, S. 36ff.). Der Schemaansatz ist eine
Erweiterung des Netzwerkansatzes: Er repräsentiert geschlossene Wissenseinheiten in
typischen Zusammenhängen und vereint deklaratives und prozedurales Wissen als Kon-
zeptwissen über Objekte, Situationen, Ereignisse bzw. Ereignisfolgen und Handlungen
bzw. Handlungsfolgen. Dazu gehört insbesondere das Konzept der "frames" von MINSKY
und WINOGRAD, welches einzelne Objekte über Relationen miteinander verbindet und
die Abbildung komplexer Situationen, Ereignisse und Aktionen erlaubt (fergan 1986,
s. 104ff.).
In Produktionssystemen, welche sich besonders für die Darstellung menschlicher Infor-
mationsverarbeitungsprozesse eignen, werden alle Wissensstrukturen in Form von Bedin-
gungs-Aktions-Einheiten dargestellt. Dahinter verbirgt sich bei traditionellen Produktions-
systemen die Annahme, daß Wissen ausschließlich als Prozeßwissen vorliegt. Der
bekannteste Ansatz dieser Art stammt von NEWELL und SIMON, welche die Existenz
deklarativen Wissens verneinen und Denkprozesse ausschließlich mit Hilfe von Heuristi-
ken abbilden (fergan 1986, S. 140ff.).
Bei der Entscheidung ftir einen speziellen Wissensrepräsentationsansatz ist dessen
psychologische Angemessenheil zu beurteilen, die wiederum nur empirisch nachzuweisen
ist. Es kann zwar konstatiert werden, daß grundsätzlich alle Ansätze sowohl prozedurnies
als auch deklaratives Wissen abbilden können, doch sollten aus Gründen der Effizienz
Produktionssysteme in erster Linie prozedurnies Wissen und semantische Raum-Modelle
hauptsächlich deklaratives Wissen darstellen. Generell hat dabei der Entscheidung für ein
bestimmtes Modell immer die Überlegung vorausgehen, welche Dimensionen der zu re-
präsentierenden Welt bei der Wissensverarbeitung relevant und wie diese am besten darzu-
stellen sind (Tergan 1986, S. 189ff.).
geschieht unter der Annahme, daß Wissen symbolisch repräsentiert und damit explizierbar
und außerdem strukturiert und zergliederbar ist.) Darüberhinaus ist zu beachten, daß auch
der Prozeß der Wissensakquisition selbst das zu eiWerbende Wissen verändern kann
(Becker 1990, S. 34).
Die vorausgegangenen Kapitel lösten zwar eine Anzahl von Teilfragen, doch stellt sich
nach deren Reflexion die Frage, wie und bis zu welchem Grad ein Problem zu analysieren
ist, bevor entschieden werden kann, ob sich der Einsatz wissensbasierter Programmier-
techniken lohnt. Gesucht wird demnach eine Art der Problemdarstellung, welche nicht auf
die spezifische Umsetzung in Wissensbasierten Systemen ausgerichtet ist. Wissensreprä-
sentationsmodelle scheiden folglich als spezifische Darstellungsform für Wissensbasierte
Systeme aus - das wird besonders klar, wenn man sie mit Programmablaufplänen oder
Struktograrnmen des traditionellen Software Engineering vergleicht.
Als Lösung wird hier die Anlehnung an ein Verfahren von Steels vorgeschlagen, welches
eine detaillierte hierarchische Aufgabenanalyse vor Beginn der eigentlichen Entwicklung
WissensbasierteT Systeme vorsieht: Steels fordert für jede von n Aufgabenhierarchien die
Beschreibung des Problems, der Ein- und Ausgabegrößen, der Aufgabenklasse (Diagnose,
Konfiguration, Planung etc.), des benötigten Wissens, des Situationsmodells, möglicher
Probleme, welche die Tiefe der Aufgabenlösung begrenzen, der Problemlösungstechnik
(einzelne Schritte zur Erarbeitung der Lösung) und weiterer Unteraufgaben. Dieser hierar-
chischen Aufgabenanalyse folgt in einem zweiten Schritt die Wissensakquisition (Steels
1990, S. 37-43).
STEELS hierarchische Aufgabenanalyse resultiert in einem "tiefen" Problemverständnis,
welches in jedem Fall sichert, daß eventuelle Schwierigkeiten einer zu lösenden Aufgabe
schon im Vorfeld der Systementwicklung erkannt werden. Gleichzeitig ist seine Aufga-
benanalyse auch neutral in bezug auf die spätere Wahl der Programmiertechnik Wird im
Anschluß an eine Aufgabenanalyse festgestellt, daß eine effektive Problemlösung die Dar-
stellung unsicheren Wissens und/oder die Erklärungsfahigkeit des fertigen Systems vor-
aussetzt, liegt die Entscheidung für die Entwicklung eines Wissensbasierten Systems auf
der Hand. Dann kann im nächsten Schritt die Übersetzung in eines der in Abschnitt 6.1.
genannten Wissensrepräsentationsmodelle erfolgen und auf dieser Basis schließlich die am
besten geeignete Technik (z.B. eine bestimmte Shell) anhand der Ergebnisse einer Wirt-
schaftlichkeitsrechnung bzw. Nutzwertanalyse selektiert werden. Besteht diese Vorausset-
zung dagegen nicht, sind auch konventionelle Formen der Programmierung als mögliche
Alternativen zu überdenken. Der Entscheidungsprozeß verläuft dann wie in Abschnitt 5.2
126 Hans-Uirich Wandel
beschrieben. Fällt die Entscheidung für eine konventionelle Form der Programmierung,
wird die hierarchische Aufgabenanalyse nicht in ein Wissensrepräsentationsmodell, son-
dern in eine Darstellungsform des traditionellen Software Engineering überführt
(beispielsweise in ein Struktogramm). Das folgende Rahmenmodell faßt die Gesamtheit
der erwähnten Zusammenhänge nochmals graphisch zusammen:
Hierarchische Aufgabenanalyse
Identifikation möglicher
Alternativen zur Entwicklung
eines Wissensbasierten Systems
Wirtschaftlichkeitsrechnung/
Nutzwertanalyse
Traditionelles Softwareengineering
Das obige Rahmenmodell zeigt, daß Ausgangspunkt und zentraler Erfolgsfaktor für die
Entwicklung Wissenbasierter Systeme ein implementationsunabhängiges Wissensmodell
ist. Dieses Wissensmodell wird jedoch nur dann erstellt, wenn im Anschluß an eine detail-
lierte Aufgabenanalyse die Entscheidung für die Entwicklung eines Wissensbasierten
Systems gefallen ist. Andernfalls wird das Problem in einer konventionellen Programmier-
sprache gelöst Das Rahmenmodell lenkt so den Entwicklungsprozeß auf diejenigen
Punkte, welche letztendlich für die praktische Einsatzfahigkeit Wissensbasierter Systeme
relevant sind - Problemverständnis, Wissensidentifikation und Wirtschaftlichkeit - und
leistet so einen Beitrag zur Verringerung des Anwendungsdefizits Wissenbasierter
Systeme.
Ein Rahmenmodell für Wissensbasierte Systeme 127
7 Literaturverzeichnis
Adams, J.B. (1985), Probabilistic Reasoning and Certainty Factors, in: Buchanan, B.G.,
Shortliffe, E.H. (Hrsg.), Rule-Based Expert Systems: The MYCIN Experiments of the
Stanford Heuristic Programming Project, Reading, Massachusetts-Menlo Park, California-
London, S. 263-271.
Becker, B. (1990), Die Veränderung von (Experten-) Wissen durch den Prozeß der
Wissensakquisition, in: KI, Nr. 2, S. 31-34.
Boose, J.H. (1989), A survey of knowledge acquisition techniques and tools, in:
Knowledge Acquisition, Nr. 1, S. 3-37.
Buchanan, B.G., van Meile, W. und Shortliffe, E.H. (1985), EMYCIN: A Knowledge
Engineer's Tool for Constructing Rule-Based Expert Systems, in: Buchanan, B.G. und
Shortliffe, E.H. (Hrsg.), Rule-Based Expert Systems: The MYCIN Experiments of the
Stanford Heuristic Programming Project, Reading, Massachusetts-Menlo Park, California-
London, S. 302-313.
Kesper, J. (1988), KI: Schlüssel zum Erfolg beim praktischen Einsatz, in: KI, Nr. 1, S. 67-
70.
Laske, O.E. (1990), Ungelöste Probleme bei der Wissensakquisition für wissensbasierte
Systeme, in: Kl, Nr. 4, S. 4-12.
Noelke, U. (1985), Das Wesen des Knowledge Engineering, in: Savory, S. (Hrsg.),
Künstliche Intelligenz und Expertensysteme: Ein Forschungsbericht der Nixdorf Computer
AG, München u.a., S. 109-123.
Schirmer, K. (1989), Wissensakquisitionstechniken: TI. Die Wahl der Techniken, in: Kl,
Nr. 1, S. 53-55.
1 Einleitung 131
2 Vorgehensmodelle zur Erstellung von WBS 131
2.1 Klassischer Software Life Cycle und Prototyping 131
2.2 Rapid Prototyping vs. modellbasierte Entwicklung von WBS 135
2.3 Vorgehensmodell zur Entwicklung von WBS nach Kurbel 137
3 Konzeptuelle Modeliierung in der KADS-Methodologie 140
3.1 Überblick über die KADS-Methodologie 140
3.2 Erstellung eines Konzeptuellen Modells 141
3.3 Interpretationsmodelle 143
3.3.1 Taxonomie von Interpretationsmodellen 143
3.3.2 Heuristische Klassifikation nach Clancey 144
4 Darstellung des Projektverlaufes 146
4.1 Modifikationen und Ergänzungen des Vorgehensmodells von Kurbel 146
4.2 Konzeption 149
4.2.1 Analyse der Problemstellung 149
4.2.2 Identifikation der Projektbeteiligten und der Ressourcen 151
4.2.3 Analyse der Durchlührbarkeit 152
1 Einleitung
Vorgestellt wird ein Wissensbasiertes System (WBS) zur Unterstützung der Vermögens-
anlageberatung in Kreditinstituten. Das System wird unter Zugrundelegung einer geschlos-
senen Methodik entwickelt, die auf einem Vorgehensmodell für die Entwicklung Wissens-
basierter Systeme sowie auf einem Konzeptuellen Modell im Sinne einer implementa-
tionsunabhängigen Darstellung des Wissens auf hohem Abstraktionsniveau beruht.
Die Vorgehensweise bei der Erstellung des Konzeptuellen Modells basiert auf den For-
schungsarbeiten von Breuker und Wielinga (Breuker/Wielinga 1989, S.265-295) zur
KADS-Methodologie. Es wird ein Überblick über die Methodologie gegeben unter beson-
derer Berücksichtigung des auf der "Vier-Ebenen-Theorie" beruhenden Konzeptuellen
Modells.
Aufbauend auf der Diskussion des klassischen Software Life Cycle sowie des Rapid
Prototyping Verfahrens wird ein Vorgehensmodell aus der Literatur zugrunde gelegt und
für die Zwecke des Projektes modifiziert bzw. konkretisiert. Es berücksichtigt den iterati-
ven und evolutionären Charakter der Erstellung Wissensbasierter Systeme und teilt den
Entwicklungsprozeß in explizite Zyklen ein.
Der erste Zyklus der Entwicklung von ABASS wird beschrieben. Hierbei wird auf die
Durchführbarkeit, die Kosten-Nutzen-Problematik und die Wissensakquisition eingegan-
gen. Aspekte der Implementierung des Systems unter Verwendung eines PC-basierten
Entwicklungswerkzeuges werden erörtert.
Der abschließende Ausblick zeigt die weitere Vorgehensweise bei der Entwicklung von
ABASSauf.
Ziel des Einsatzes von Vorgehensmodellen bei der Entwicklung von Softwareprodukten ist
eine Reduktion der Komplexität des Entwicklungsvorhabens. Der schwer überschaubare
Entwicklungsprozeß wird in übersichtliche Teile gegliedert (Pomberger/Remmele 1987b,
S.21). Zu diesem Zweck werden funktional und zeitlich zusammengehörige Tätigkeiten zu
sogenannten "Phasen" zusammengefaßt. Die Ergebnisse einer Phase bestehen in der Regel
aus bestimmten Dokumenten bzw. Teilen des zu entwickelnden Systems. Diese Phasener-
gebnisse sind natürliche Kandidaten für die Definition von "Meilensteinen", anband derer
eine Kontrolle des Projektfortschritts auf Basis der zu erstellenden Projektplanung erfolgen
kann (Biethahn/Mucksch/Ruf 1990, S.119).
132 UweHoppe
Ein Vorgehensmodell, welches auf den genannten Prinzipien beruht, verdeutlicht Abbil-
dung 1.
ABASS: Ein Wissensbasierter Anlageberatungsassistent 133
Problemanalyse
und
Istzustandsbeschreibung, Projektauftrag, Grobplan
Grobplanung
System-
spezifikation
-
Systemspezifikation (Pflichtenheft),
Projektplan
System- und
Komponenten- r-
entwurf Systemarchitektur, Komponentenstruktur
''
Implementierung
und Komponenten- -
Systemimplementierung
test
Systemtest
fertiges Produkt
Betrieb und
Wartung
Zeitachse
Der SLC weist eine Reihe von Kritikpunkten auf. So wird die Annahme eines linearen
Projektverlaufes als falsch erachtet. Rückverzweigungen in bereits abgeschlossene Phasen
stellen nicht die Ausnahme sondern vielmehr die Regel dar (Biethahn/Mucksch/Ruf 1990,
S.128). Die hierzu erforderlichen Iterationen werden in vielen Darstellungen von Vorge-
hensmodellen, die auf den Prinzipien des SLC beruhen, berücksichtigt. Unklar bleibt
jedoch zumeist, unter welchen Bedingungen eine Iteration vorzunehmen ist und wieviele
Iterationen vorzusehen sind (Pomberger 1990, S.224).
134 UweHoppe
Die Benutzeranforderungen sind zu Beginn eines Projektes häufig noch unbestimmt und
vage. Die Anforderungen an das System können demzufolge im Zeitablauf variieren, was
auf den im Projektverlauf zunehmenden Erkenntnisstand hinsichtlich der Problemstellung
zurückzuführen ist. Neue Benutzeranforderungen können hinzu kommen, wenn die Ein-
sicht in die Möglichkeiten und das Leistungsvermögen des Zielsystemsl wächst. Die For-
derung nach der Durchführung einer Analyse vor der Implementierung verlangt jedoch
eine möglichst vollständige und korrekte Spezifikation der Benutzerwünsche zu Beginn
des Projektes, was in der Regel kaum möglich ist.
Weiterhin liegt das fertige und ablauffahige Produkt erst spät im Projektverlauf vor. Häu-
fig werden erst bei Testläufen des fertigen Produktes Mißverständnisse zwischen Benut-
zern und Entwicklern deutlich, die zu diesem Zeitpunkt nicht mehr oder nur noch unter
unverhältnismäßig hohen Kosten korrigiert werden können.
Insbesondere der letztgenannte Nachteil des SLC führte zur Verbreitung des Prototyping-
Gedankens in der Softwareentwicklung. Der Begriff des Prototyping beschreibt eine Reihe
an unterschiedlichen Techniken und Vorgehensweisen bei der Softwareentwicklung. Eine
weit verbreitete, auf Floyd (Floyd 1984, S.6 f.) zurückgehende Einteilung untergliedert in
exploratives, experimentelles und evolutionäres Prototyping.
Das experimentelle Prototyping zielt auf die beschriebene Problematik der Ermittlung der
Systemspezifikation ab. In unmittelbarer Zusammenarbeit mit den Benutzern sollen die
Anforderungen hinsichtlich der gewünschten Funktionalität am konkreten Systemprototyp
erhoben werden.
Der Ausdruck Zielsystem wird hier nicht im Sinne eines Systems unternehmenscher Zielsetzungen
gebraucht, sondern bezeichnet die angestrebte endgültige Version des zu entwickelnden Softwarepro-
duktes.
ABASS: Ein Wissensbasierter Anlageberatungsassistent 135
Die einzelnen Arten des Prototyping weisen sehr unterschiedliche Charakteristika auf. Das
explorative Prototyping stellt eine Technik zur Unterstützung der Phasen der Problemana-
lyse und Systemspezifikation dar. Analog unterstützt das experimentelle Prototyping die
Phasen des System- und Komponentenentwurfs.
Hiervon abzugrenzen ist das evolutionäre Prototyping, das die Idee des Lebenszyklus eines
Softwareproduktes und damit ein Grundprinzip des SLC in Frage stellt. Von Prototyping
kann hier eigentlich nur gesprochen werden, da die ersten, frühen Systemversionen allen-
falls Prototypcharakter aufweisen und noch nicht dem "endgültigen" System entsprechen
(Pomberger 1990, S.227; Mayhew/Deamley 1987, S.481).
Als Nachteile des Prototyping lassen sich die noch unzureichende Unterstützung durch
Entwicklungswerkzeuge (Pomberger 1990, S.236; Pomberger/Remmele 1987b, S.23 ff.)
sowie der erforderliche erhöhte Ressourceneinsatz bei der Entwicklung
(Biethahn/Mucksch/Ruf 1990, S.133) nennen.
Im Rahmen des Knowledge Engineering wird die Entwicklung von WBS weitgehend
durch das sogenannte "Rapid Prototyping" geprägt (Karbach 1988, S.10). Hierbei wird
versucht, unter Einsatz von Werkzeugen, möglichst schnell ein ablauffähiges System zu
erstellen. Namenhafte Vertreter des Rapid Prototyping·in der Entwicklung von WBS sind
Hayes-Roth et al. bzw. Buchanan et al. (Hayes-Roth/Waterman/Lenat 1983, S.3 ff.;
Buchanan et al. 1983, S.127 ff.) und Barmon/King (Harmon/King 1987, S.219 ff.). Bereits
nach der Erhebung weniger Fallbeispiele wird eine kleine Wissensbasis erstellt, die suk-
zessive zu dem endgültigen System auszubauen ist. Diese Vorgehensweise erlaubt dem
Knowledge Engineer und dem Experten, das WBS unmittelbar auf fehlendes, inkorrektes
oder inkonsistentes Wissen hin zu überprüfen.
Dem Vorteil, daß das Operationale System dynamisch, d.h. anband seines Verhaltens
geprüft werden kann, stehen jedoch gewichtige Nachteile des Rapid Prototyping gegen-
über (Karbach 1988, S.ll; Kurbel1989, S.86 f.):
Karbach kommt zu dem Urteil, daß die Verwendung des Rapid Prototyping aufgrund die-
ser Nachteile als kritisch beurteilt werden muß (Karbach 1988, S.12).
Während Rapid Prototyping bei kleineren Projekten als vertretbar angesehen werden kann
(Kurbel/Pietsch 1989, S.137), erfordern komplexere Problemstellungen die Unterlegung
eines fundierten Problemlösungsmodells (Tank 1988, S.72). Dieses Konzeptuelle Modell
stellt eine implementationsunabhängige Repräsentation der Expertise dar (Kurbel 1989,
S.86 ff.)2. Analog zur Systemspezifikation des SLC übernimmt das Konzeptuelle Modell
die Rolle einer zusätzlichen Repräsentation, die im Vergleich zum ablauffahigen System
ein höheres Abstraktionsniveau aufweist. Die Darstellung des Wissens in einem derartigen
Modell erlaubt eine Trennung der Tätigkeiten der Wissensakquisition und Wissensreprä-
sentation. Gefordert wird in diesem Zusammenhang der Einsatz eines anwendungsnahen
Knowledge Engineer, der sich mit der Wissenserhebung und der Wissensanalyse beschäf-
tigt, sowie eines systemnahen Knowledge Engineer, der die Codierung des Wissens auf
Basis des Konzeptuellen Modells vornimmt (Tank 1988, S.74).
Weiterhin besteht die Möglichkeit, die Beschreibungsmittel des Modells an den fachspezi-
fischen Termini des Experten zu orientieren, was die Transparenz des Modells aus der
Sicht des Experten erhöht.
Die Darstellungsfonn des Konzeptuellen Modells kann in Abhängigkeit von den Eigen-
schaften der Expertise gewählt werden. Theoretisch kommen hierbei alle als Grundtechni-
ken der Wissensrepräsentation bekannten Fonnen in Frage, beispielsweise Frames, seman-
tische Netze, Regeln etc. (Kurbel1989, S.88). Von besonderer Bedeutung sind Konzeptu-
elle Modelle, die auf einer (mehr oder minder fonnalen) Beschreibungssprache beruhen
und solche, die im Rahmen einer geschlossenen Entwicklungsmethodologie zum Einsatz
kommen. Eine Vorgehensweise, die beide Kennzeichen erfüllt, stellt die KADS-Metho-
dologie dar, die der Entwicklung von AB ASS zugrunde gelegt wurde.
In der Erstellung eines Konzeptuellen Modells vor der Implementierung des Zielsystems
ist eine Rückkehr zu dem Prinzip der "Analyse vor Implementierung" zu sehen3. Ein
charakteristisches Merkmal von WBS ist es jedoch, daß sie vornehmlich für schlecht-
strukturierte Aufgabenstellungen zum Einsatz kommen. Diese auch als "diffus" bezeich-
neten Problemstellungen sind dadurch gekennzeichnet, daß zu Beginn eines Projektes typi-
scherweise kein klares Verständnis für die Expertise vorliegt (Puppe 1988, S.4). Unter
Ein Vorgehensmodell zur Entwicklung von WBS hat sich an den spezifischen Eigen-
schaften des Entwicklungsprozesses von WBS sowie an den Charakteristika Wissensba-
sierter Systeme selbst zu orientieren (Kurbel 1989, S.92). Diese charakteristischen Eigen-
schaften liegen insbesondere in der mangelnden Strukturiertheit der Problemstellungen, für
die WBS typischerweise zum Einsatz kommen .
Das von Kurbel vorgestellte Vorgehensmodell beruht auf der Erkenntnis, daß der Ent-
wicklungsprozeß von WBS zyklischer, iterativer und evolutionärer Natur ist (Kurbel 1989,
S.92 ff.).
Der Prozeß ist iterativ, da eine lineare Vorgehensweise, die bereits bei traditionellen Saft-
wareprojekten als problematisch erachtet wird, bei der Entwicklung von WBS aufgrund
des tendenziell schlechteren Verständnisses der Aufgabenstellung zu Beginn eines WBS-
Projektes um so mehr zu mangelhaften Ergebnissen führen muß. Der Prozeß ist zyklisch,
da eine vollständige und korrekte konzeptuelle Modeliierung in einer einzigen linearen
Sequenz von Phasen problematisch erscheint, und daher von mehreren, aufeinanderfolgen-
den Entwicklungszyklen auszugehen ist. Schließlich ist der Prozeß evo/utionär, da über die
verschiedenen Entwicklungszyklen hinweg das zu entwickelnde System sukzessive in
mehreren Versionen mit im Zeitverlauf zunehmenden Konkretisierungsgrad erstellt wird,
eine Vorgehensweise, die dem evolutionären Prototyping entspricht.
4 Eine ausführliche Beschreibung einer derartigen Untersuchung gibt Clancey (Ciancey 1985, S.289-
350).
138 UweHoppe
lung der Expertise auf hohem Abstraktionsniveau und verbindet diese mit den Prinzipien
des Prototyping. Letzere werden in der evolutionären Vorgehensweise, die dem Grundge-
danken des evolutionären Prototyping entspricht, sowie in Elementen des experimentellen
Prototyping deutlich, da der jeweils in einem Zyklus zu entwickelnde Prototyp als Basis
ftir eine experimentelle Überprüfung des zugrunde gelegten KonzeptDellen Modells gese-
hen werden kann (Kurbe]/Pietsch 1989, S.140).
Konzeption
Entwicklungszyklus
Implementierung
Expertensystem-Version
Modellrevision MilDgelbeseitigung
Die Konzeption ist kein Bestandteil der Entwicklungszyklen und wird daher in der Regel
nur einmal durchlaufen. Die Tätigkeiten haben im wesentlichen vorbereitenden Charakter,
ähnlich wie dies bei konventionellen Projekten der Fall ist. Die Konzeption dient der Auf-
stellung einer groben Zeit- und Budgetplanung, der Identifikation der Projektbeteiligten,
der Definition von Maßstäben zur Beurteilung der Qualität des Zielsystems u.ä. vorbe-
reitenden Tätigkeiten.
Während der Implementierung wird das Konzeptuelle Modell inkrementell, d.h. in aufein-
anderfolgenden Schritten unter Verwendung der Wissensrepräsentationsformen des
gewählten Entwicklungstools in Code umgesetzt. Die Implementierung stellt sich dabei als
eine mehrfach zu durchlaufende Folge von Codierung und Testen dar. Die inkrementeile
Vorgehensweise wird in Abbildung 2 durch die hintereinander liegenden Schichten zum
Ausdruck gebracht.
Die Abnahme dient der Beurteilung sowohl des Konzeptuellen Modells als auch der
jeweils aktuellen Prototyp-Version durch den Experten sowie gegebenenfalls durch einen
Benutzer. Als Beurteilungskriterien dienen die während der Konzeption des Projektes
definierten Qualitätsmaßstäbe. Während der abschließenden Diskussion werden die Ergeb-
nisse und Erfahrungen des Entwicklungszyklus verarbeitet. Aufgetretende Mängel sind zu
unterteilen in solche, die im Rahmen einer einfachen Mängelbeseitigung noch im gleichen
Zyklus behoben werden können, und solche, die Gegenstand der nachfolgenden Modellre-
vision sind. Die Ergebnisse der Diskussion und der Abnahme werden in einem Abnahme-
bericht dokumentiert.
Die Präsentation ist ebenso wie die Konzeption kein Bestandteil der Entwicklungszyklen.
Sie dient der Vorführung des Systems sowie der Übergabe an die Auftraggeber.
Kurbel schlägt eine Folge von zumindest drei Entwicklungszyklen vor, die er mit Initiali-
sierung, Neuorientierung und Stabilisierung bezeichnet (Kurbel1989, S.96 f.).
140 UweHoppe
KADS ist eine Abkürzung für "Knowledge Acquisition and Documentation System" und
beschreibt sowohl eine Methodologie zur Erstellung von WBS (Breuker/Wielinga 1987,
S.1-6; Breuker/Wielinga 1989) als auch ein Softwaresystem, das auf Basis der Methodo-
logie den Entwicklungsprozeß unterstützen soll (Anjewierden 1987, S.1-12).
Abstraktionsebene
Detailliertes Design-Modell
Das Grundverständnis der KADS-Methodologie beruht auf der Sichtweise, daß die Ent-
wicklung von WBS ein Modellierungsprozeß ist, der auf Abstraktions- und Transfor-
mationsvorgängen basiert. Die konzeptuelle Lücke zwischen dem in der Regel in verbaler
Form vorliegenden Wissen des Experten und dem ablauffähigen WBS wird durch eine
Reihe von Modellen mit variierendem Abstraktionsgrad systematisch überbrückt. Einen
Überblick gibt Abbildung 3.
Die Autoren nennen eine Reihe von Grundsätzen, die jedoch teilweise nur den Charakter
von "Daumenregeln" haben, die bei der Entwicklung von WBS zu beachten sind. Von
wirklich zentraler Bedeutung lassen sich drei Prinzipien ausmachen:
1. In einer Abkehr von der Vorgehensweise des Rapid Prototyping beziehen sich die
Autoren wieder auf die Grundlagen des traditionellen Software Life Cycle, indem sie
eine vollständige Analyse der Daten vor den nachfolgenden Design- und
Implementierungsabläufen verlangen (Breuker/Wielinga 1989, S.273)6.
Das Konzeptuelle Modell ist das zentrale, bislang am besten untersuchte Modell in der
KADS-Methodologie. Basierend auf dem Grundgedanken, daß die Expertise auf unter-
schiedlichen Ebenen zu analysieren und repräsentieren ist, stellt das Konzeptuelle Modell
eine Abbildung des Expertenwissens auf epistemologischer Ebene dar. Zur Erstellung
dieses Modells wurde eine Sprache, die Knowledge Conceptual Model Language (KCML)
entworfen.
"A modeHing language provides a vocabulary in which the expertise can be expressed in a
coherent way" (Breuker/Wielinga 1989, S.272).
6 Dies bedeutet letztlich, daß auf einen zyklisch angelegten Entwicklungsprozeß venichtet wird, da das
System in einer linearen Abfolge von Analyse- und Implementierungstätigkeiten erstellt wird, die nur
einmal durchlaufen wird.
7 Vgl. die Ausführungen in Kapitel3.3 der Arbeit.
142 UweHoppe
Die Semantik der Modellierungssprache beruht auf der "four layer theory"
(Breuker/Wielinga 1989, S.274; Hayward/Wielinga/Breuker 1988, S.152 ff.; Schreiber et
al. 1988, S.7-4 ff.):
"The four layer theory which constitutes rather a view on expert problern solving than a
fully elaborated and evaluated theory is based upon two premises. The frrst one holds that
it is possible and useful to distinguish between several generic types of knowledge; the
second, that these types of knowledge can be organised in layers, which have limited
interactions" (Breuker/Wielinga 1989, S.274 f.).
Domain LevelS:
Der Domain Level stellt eine Abbildung der Konzepte der Domäne und ihrer statischen
Beziehungen in einer axiomatischen Struktur auf der Basis von "consists-of'-, "depends-
upon"-, "part-of'-, "causes"- Beziehungen u.ä. dar.
Inference Level:
Der lnference Level beschreibt die Schlußfolgerungskompetenz des Domain Level. Diese
Kompetenz ist abstrakt, da sie losgelöst von konkreten Domänenkonzepten lediglich die
möglichen Inferenzen beschreibt. Die Kompetenz dokumentiert sich in einer Menge von
Knowledge Sources9, die als Schlußfolgerungsfunktionen, wie beispielsweise "abstract",
"assemble" u.ä. interpretiert werden können. Der Input und Output der Knowledge Sources
besteht aus sogenannten Meta Classes, welche die Rollen beschreiben, die die Domänen-
konzepte im Verlaufe des Schlußfolgerungsprozesses annehmen können. So kann bei-
spielsweise ein Domänenkonzept "Rechnerkonfiguration" im Inferenzverlauf sowohl die
Rolle einer Hypothese als auch die der endgültigen Lösul}g spielen. Knowledge Sources
und Meta Classes bilden zusammen die Inferenzstruktur.
Task Level:
Auf dem Task Level wird die Aufgabenstruktur beschrieben. Die hieraus resultierende
Task Structure spezifiziert, wie die lnferenzstruktur verwendet werden kann, um das
Problem zu lösen. Die Elemente der KCML zur Beschreibung der Task Structure sind
Goals und Control Statements:
8 Die Ausdrücke Level und Layer werden hier im Zusammenhang mit dem Konzeptuellen Modell der
KADS-Methodologie synonym verwendet.
9 Breuker weist auf die unterschiedliche Bedeutung des Begriffes "Knowledge Source" im Gegensatz zur
Verwendung in den Forschungsarbeiten des HEARSAY-Projekts hin (Breuker/Wielinga 1989, S.275).
ABASS: Ein Wissensbasierter Anlageberatungsassistent 143
Strategie Leyel:
3.3 Interpretationsmodelle
3.3.1 Taxonomie von Interpretationsmodellen
Hinter der Forderung, die Wissenakquisition modellgestützt zu betreiben, verbirgt sich der
Gedanke, daß Expertise mit Hinblick auf gleiche oder ähnliche Schlußfolgerungsmuster in
Klassen eingeteilt werden kann (Breuker/Wielinga 1987, S.5). So weist der Problemlö-
sungsprozeß in so unterschiedlichen Aufgabenstellungen wie der Diagnose biologischer
Systeme oder der Fehlersuche in technischen Systemen durchaus vergleichbare Schlußfol-
gerungsprozesse auf, beispielsweise in Form der Erstellung von Hypothesen über
"Fehlfunktionen", dem Testen dieser Hypothesen auf Evidenz u.ä. (Breuker/Wielinga
1987, S.5).
Die Einteilung dieser Muster in Klassen führt zur Formulierung sogenannter Generle
Tasks11, protoypischer Aufgabenstellungen, die mit einer bestimmten Schlußfolgerungs-
methode verbunden sind (Breuker/Wielinga 1989, S'.273). Wenn es nun gelingt, in einer
frühen Phase der Wissensakquisition Schlußfolgerungsmuster in der Expertise zu identifi-
zieren, die auf eine gegebene Generle Task hinweisen, so läßt sich der weitere Wissensak-
quisitionsprozeß modellgetrieben, d.h. mit Hinblick auf die bekannten Muster der Generle
Task betreiben. Der Knowledge Engineer kann so beispielsweise entdecken, daß Wissen
10 Hayward et al. sprechen von einem "plan, monitor, repair cycle", (Hayward/Wielinga/Breuker 1988,
5.152).
11 Der Ausdruck "Generic Task" geht aufChandrasekaran zurück (Bylander/Chandrasekaran 1987,
5.231- 243; Chandrasekaran 1986a, 5.23-30).
144 UweHoppe
für bestimmte Inferenzprozesse, die aufgrund des Modells zu erwarten sind, noch nicht
erhoben ist und somit das Wissen "top-down", d.h. ausgehend von der Generle Task,
akquirieren.
Ein weiterer Vorteilliegt darin, daß neu erhobenen Wissens in der Regel schnell anband
des Modells identifiziert und eingeordnet werden kann. Aufgrund dieser Eigenschaft, die
Interpretation des erhobenen Wissens zu unterstützen, werden Generle Tasks im Rahmen
der KADS-Methodologie als Interpretationsmodelle bezeichnet (Breuker/Wielinga 1989,
S.285 ff.). Ein Interpretationsmodell ist aufgabenspezifisch, indem es typische Inferenz-
muster beinhaltet, nicht jedoch domänenspezifisch, da es von den jeweiligen Konzepten,
die von Domäne zu Domäne variieren, abstrahiert.
Natürlich ist die Verwendung von Interpretationsmodellen für eine zielgerichtete
Wissensakquisition nur dann zweckmäßig, wenn für einen signifikant großen Anteil von
Praxisproblemen geeignete, d.h. in Hinblick auf die reale Problemstellung hinreichend
ähnliche Modelle zur Verfügung stehen. Benötigt wird somit eine Bibliothek von lnter-
pretationsmodellen, nach Möglichkeit unter Zugrundelegung einer Klas8eneinteilung,
damit eine schnelle Zuordnung der Interpretationsmodelle zu der jeweiligen realen Pro-
blemstellung erfolgen kann.
Der Prozeß der erstmaligen Analyse und Def"mition von Interpretationsmodellen ist auf-
wendig. Ein ausführliches Beispiel gibt Clanceys Analyse der Heuristischen Klassifikation,
die als analytisches Interpretationsmodell in die Bibliothek aufgenommen wurde, und im
folgenden Kapitel erläutert wird (Clancey 1985, S.289-350). Die Arbeiten der Forschungs-
gruppe um Chandrasekaran, die bisher zu einer Unterscheidung von sechs verschiedenen
Grundtypen von Generle Tasks führten, geben weitere Beispiele für die Analyse von
Generle Tasks (Chandrasekaran 1986b, S.41-64}.
Die Analyse der XPS zeigte auf, daß die jeweiligen Inferenzprozesse nicht aus einer belie-
bigen Kette von Implikationen bestehen. Sie setzen vielmehr Relationen zwischen Kon-
zepten in einer systematischen Art und Weise zusammen. Die untersuchten Systeme
ABASS: Ein Wissensbasierter Anlageberatungsassistent 145
Unter Klassifikation ist die Identifizierung eines unbekannten Objektes oder Phänomens
als ein Mitglied einer bekannten Klasse von Objekten, Ereignissen oder Prozessen zu ver-
stehen. Diese Klassen sind typischerweise hierarchisch organisiert. Der Prozeß der
Identifikation ist üblicherweise gekennzeichnet durch den Vergleich von Beobachtungs-
werten eines unbekannten Entity gegenüber Eigenschaften einer bekannten Klasse.
In der einfachen Klassifikation können Daten direkt oder nach Abstraktion mit Eigen-
schaften der Lösung in Beziehung gesetzt werden. Eine Abstraktion der Daten ist notwen-
dig, wenn die zur Identifikation notwendigen Eigenschaften der Lösungen nicht unmittel-
bar durch die Eingabedaten gegeben sind, sondern durch Abstraktionsprozesse, definitori-
scher Art, qualitativer Art oder durch Generalisierung abgeleitet werden müssen.
In der Heuristischen Klassifikation können Lösungen und Eigenschaften von Lösungen
ebenso heuristisch durch direkte, nicht hierarchische Assoziation mit Konzepten in
anderen Klassifikationshierarchien in Verbindung gebracht werden. Eine heuristische
Beziehung ist unsicher, basiert auf Annahmen, typischen Eigenschaften, und verdeutlicht
manchmal nur eine schlecht verstandene Korrelation. Eine Heuristik ist häufig empirischer
Natur, abgeleitet von Erfahrungen aus Problemlösungsprozessen. Dies verdeutlicht den
Charakter von Heuristiken als "Daumenregeln".
abstrahierte abstrahierte
Daten Lösungen
Daten Lösung
Eine wichtige Eigenschaft von Klassifikation ist, daß der Problemlöset aus einer Menge
vordefinierter Lösungen auswählt, im Gegensatz zu Problemstellungen, bei denen die
Lösungen generiert werden müssen. Clancey nimmt diese Eigenschaft zum Anlaß, die von
ihm entwickelte Taxonomie von generischen Problemlösungstypen anband einer Unter-
teilung in analytische und synthetische Problemlösungstypen aufzubauen.
Für die Zwecke der Beschreibung des ABASS-Projektes sind die Phaseninhalte des in
Kapitel 2.3 der Arbeit beschriebenen Vorgehensmodells weiter zu untergliedern. Die
Inhalte bzw. Tätigkeiten orientieren sich im wesentlichen an Buchanan et al. (Buchanan et
al. 1983, S.139 ff.), die die Wissensakquisition in die Aufgabenbereiche Identifikation,
Konzeptualisierung, Formalisierung, Implementierung und Testen zerlegen. Kurbel weist
darauf hin, daß es sich bei dieser Einteilung nicht um Phasen im Sinne eines Vorgehens-
modells handelt, sondern um Aufgabenkomplexe, die unmittelbar oder mittelbar mit der
ABASS: Ein Wissensbasierter Anlageberatungsassistent 147
Wissensakquisition verbunden sind (Kurbel 1989, S.70 ff.). Die Zusammenfassung der
einzelnen Aktivitäten zu logisch zusammengehörigen Phasen sowie die zeitliche Reihen-
folge wird durch das Vorgehensmodell determiniert.
Konzeption
Die folgende Liste erhebt keinen Anspruch auf Vollständigkeit. Es handelt sich allerdings
um die Tätigkeiten, die unverzichtbar innerhalb eines XPS-Projektes durchzuführen sind.
Die Aufzählung verdeutlicht nicht die zeitliche Reihenfolge der Tätigkeiten. Diese können
teilweise parallel verfolgt werden, wobei allerdings die Analyse der Problemstellung Vor-
aussetzung für die Beurteilung der Durchführbarkeit des Projektes ist und auch eine wich-
tige Rolle bei der Auswahl der Ressourcen spielt. Als Schwerpunkte können die folgenden
Tätigkeiten genannt werden:
Die Analyse der Problemstellung dient der Beschreibung und Abgrenzung der
Problemstellung, der Zerlegung der Problemstellung in Teilprobleme sowie der Bestim-
mung des Problemtyps. Da die Wissensakquisition zielgerichtet, unter Verwendung eines
Interpretationsmodells betrieben werden soll, ist es erforderlich, ein der realen
Problemstellung möglichst adäquates Interpretationsmodell auszuwählen bzw. zu erstellen.
Es bietet sich an, diese Auswahl im Rahmen der Problemanalyse durchzuführen, da an
dieser Stelle ohnehin der Problemlösungstyp zu untersuchen ist.
Die Identifikation der Projektbeteiligten und der Ressourcen dient im wesentlichen der
Identiftkation eines geeigneten Experten sowie der Sicherung der Unterstützung durch das
Management des Unternehmens. Erste Überlegungen hinsichtlich der Auswahl von Ent-
wicklungshardware und -software können angestellt werden.
Die Analyse der Durchführbarkeit dient der Beurteilung der Frage, ob eine reale
Problemstellung unter technischen, personellen und ökonomischen Gesichtspunkten mit
Hilfe eines XPS zu realisieren ist. Hierbei erfolgt eine Einteilung der Analyse in die Beur-
teilung der technischen Durchführbarkeit, der personellen Durchführbarkeit und der
ökonomische Durchführbarkeit.
In der Phase Wissenserhebung und -analyset2 erfolgt eine Extraktion des Wissens des
Experten unter Anwendung geeigneter Wissenserhebungstechniken. Die Wissensanalyse
besteht aus der Konzeptualisierung und Formalisierung des Wissens.
12 Dieser Ergänzung wird der Vorzug gegeben gegenüber "Wissenserhebung", da sie den Prozeß der
Wissensakquisition, der in dieser Phase zur Erstellung des KonzeptDellen Modells führt, besser
beschreibt
148 UweHoppe
Die Formalisierung umfaßt nach Buchanan et al. eine Überführung der Konzepte, Teilpro-
bleme und des Kontrollflusses in eine formale Darstellung und dient insofern der Vorbe-
reitung der Implementierung. Betrachtet man die Formalisierung genauer, so fällt auf, daß
das KonzeptDelle Modell der KADS-Methodologie in großen Teilen auch ein Ergebnis der
Formalisierung ist Allerdings ist das Ausmaß der Formalheit der Darstellung relativ
beschränkt Es gibt für die Knowledge Conceptual ModeHing Language keine festgelegte
Semantik der sprachlichen Beschreibungselemente, so daß das Verständnis eines Konzep-
tDellen Modells mehr oder minder auf Intuition basiert (Karbach/Voß/fong 1988, S.31-
3 f.).
Somit ist das KonzeptDelle Modell sowohl durch Tätigkeiten der Konzeptualisierung als
auch der Formalisierung gekennzeichnet. Es bietet sich an, die weitere Untergliederung der
Tätigkeiten der Wissensanalyse anband der Struktur des KonzeptDellen Modells vorzu-
nehmen und in die Erstellung des Domain Level, der Task Structure, des Inference Level
sowie, sofern erforderlich, des Strategie Level zu unterteilen.
Die Implementierung dient der Abbildung des (mehr oder minder) formalisierten Wissens
auf die Wissensrepräsentationsfonnen, die durch das gewählte Tool zur Verfügung gestellt
werden. Eine Orientierungshilfe bei der Implementierung bieten AI-Methoden13, die
bestimmte Inferenztechniken und Wissensrepräsentationsformen nahelegen. Bei der Ver-
wendung eines rein regelbasierten Tools sind die Möglichkeiten des Designs der Wissens-
basis durch den Knowledge Engineer vergleichsweise beschränkt, da alle Wissensarten
unter Verwendung des uniformen Regelmechanismus codiert werden müssen.
Das Testen des Systems erfolgt im ständigen Wechsel mit der fortschreitenden Codierung
des Wissens. Weiterhin finden umfangreiche Testläufe in der Abnahmephase des Systems
unter Verwendung der bereits in der Konzeptionsphase festgelegten Beurteilungskriterien
statt. Die Bedeutung von Testfällen kann nicht genug betont werden. Die Aussage "Keine
Testfälle, kein Expertensystemprojekt" von Greenwen verdient in diesem Zusammenhang
Beachtung (Greenwell1988, S.134).
13 Der Begriff der AI-Methode ist in der Artifiziellen Intelligenz (AI) nicht eindeutig festgelegt. Häufig
werden diese Verfahren unter dem Begriff "Suchverfahren" behandelt. Rich nennt in diesem Zusam-
menhang u.a. Vorwärts- und Rückwllrtssuche, Erzeugen und Prüfen (Generate-and-Test), Bergsteigen
(Hili-Ciimbing) und Bestensuche (Best-FJrSt-Search) (Rich 1988, S.59 ff.; Pearl 1984, S.33 ff.).
ABASS: Ein Wissensbasierter Anlageberatungsassistent 149
Die weitere Unterteilung der Phase "Implementierung und Testen" gliedert sich in eine
Kurzbeschreibung des verwendeten Tools, in eine Diskussion der Aspekte der Operationa-
lisierung des Konzeptuellen Modells, eine Darstellung der Modularisierungsgesichtspunkte
sowie eine Analyse der Testergebnisse.
4.2 Konzeption
Die Analyse der Problemstellung umfaßt die Problemdefinition, die Zerlegung der
Problemstellung in Teilprobleme sowie die Bestimmung des Problemtyps.
Problemdefinition
Die Zerlegung in Teilprobleme erfolgte anhand der Phasen eines Beratungsablaufes, wie
sie von dem an der Entwicklung von ABASS beteiligten Experten identifiziert wurden. Es
lassen sich folgende Phasen unterscheiden:
14 Es spricht einiges dafür, für diese Anlageformen eigene XPS zu entwickeln. Diese könnten dann aller-
dings zusammen mit ABASS innerhalb eines übergreifenden XPS zum Einsatz kommen, beispielsweise
auf Basis einer Blackboard-Architektur (Hayes-Roth 1985).
15 Eine weitere Unterteilung bzw. Darstellung auf unterschiedlichen Detaillierungsebenen ist möglich.
150 UweHoppe
Die Bestimmung des Problemtyps bzw. der zugrunde liegende Generle Task erfolgt
anband der Kriterien Funktion, Wissensorganisation und Kontrollstrategie
(Chandrasekaran 1987, S.1184).
Die Funktion der Generic Task wird ermittelt anband einer Analyse der Natur von Input
und Output der Problemstellung.
Der Input liegt vor in Form des Kundenprofils sowie seines Anlagebedarfs. Diese Infor-
mationen sind durch das System zu erfragen bzw. dem System über einen zu realisierenden
Datenbankanschluß zur Verfügung zu stellen. Es ist davon auszugehen, daß die Informa-
tionen weitestgehend vollständig ermittelt werden können. Es handelt sich zumeist um
Fakten, deren Sicherheit außer Frage steht. Vereinzelt sind subjektive Beurteilungen erfor-
derlich, beispielsweise bei der Ermittlung des Risikoprofils des Kunden.
Der Output, d.h. die Lösung, besteht aus einer Liste von mehreren, nach Angabe des
Experten aus drei Anlagevorschlägen, die dem Kunden unterbreitet werden. Die möglichen
Anlagevorschläge sind explizit gegeben, d.h. müssen nicht durch das XPS generiert wer-
den.
Die Natur der Beziehungen zwischen Input und Output ist heuristisch. Es gibt keine
"optimalen" Anlagevorschläge für einen Kunden, da viele, teilweise sich widersprechende
Kriterien eine Rolle spielen (z.B. Risiko und Ertrag).
Kennzeichnend für die Wissensorganisation ist eine hierarchische Struktur der Teillösun-
gen (Anlageformen), wie sie in Abbildung 8 (Kapitel 4.3.2.1) dargestellt wird. Die Basis
der Hierarchie (Balzert 1982, S.31 f.) beruht auf Owner-Member-Beziehungen.
Sobald eine Lösungsklasse etabliert ist, erfolgt eine Untersuchung der Eignung von Anla-
geformen in den untergeordneten Klassen der gegebenen Hierarchie, da Evidenz für eine
bestimmte Lösungsklasse gleichzeitig auch immer Evidenz für Member untergeordneter
Klassen darstellt. Dieser Verfeinerungsprozeß wird durch "Establish-Refine" beschrieben.
Die Zusammensetzung des Projektteams des ersten Entwicklungszyklus von ABASS ent-
sprach dem Schema "ein Experte, ein Knowledge Engineer". Kurbel weist darauf hin, daß
eine derartige Projektzusammensetzung nur für kleinere XPS-Projekte in Frage kommt.
Bei größeren Projekten ist ein arbeitsteiliger Prozeß erforderlich 16. Ein weiterer systemna-
her Knowledge Engineer wäre jedoch auch im vorliegenden Fall wünschenswert gewesen,
um eine personelle Trennung der Tätigkeiten von Wissenserhebung und-analysevon der
Implementierung durchzuführen. Der Verzicht auf die Einbeziehung weiterer Experten
wurde möglich, da ein prinzipieller Konsens hinsichtlich der Vorgehensweise bei der
Vermögensanlageberatung gegeben war, so daß sich die Problematik der Berücksichtigung
des Wissens mehrerer Experten nicht ergab.
Zusätzlich wurden wissenschaftliche Hilfskräfte für die Zwecke der Dokumentation, die
Erstellung von Hilfe- und Erklärungstexten sowie die Programmierung von C-Modulen
eingesetzt.
Wichtigste Wissensquelle ist das Erfahrungswissen des Experten. Daneben standen eine
Reihe von schriftlichen Informationen zu Märkten, Produkten und Unternehmen zur Ver-
fügung, die typischerweise während des Beratungsprozesses von den Beratern eingesetzt
bzw. in Form von Werbematerial und Broschüren der Kundschaft zur Verfügung gestellt
werden.
Die Auswahl der Entwicklungssoftware erfolgte auf Basis der Erfahrungen, die in einem
anderen Projekt im Zusammenhang mit einem Vergleich von Tools zur Erstellung von
WBS gewonnen werden konnten (Biethahn/Hoppe 1990). Die Entscheidung fiel zu Gun-
sten von XiPlus, einem regelbasierten Werkzeug, das auf IBM-kompatiblen Rechnern zum
Einsatz kommen kann. Neben den relativ geringen Hardwareanforderungen sprachen die
Möglichkeiten zum schnellen Aufbau einer menü- und maskenorientierten Benutzer-
oberfläche für das Tool, da hierdurch die Benutzerakzeptanz positiv beeinflußt werden
kann. Der Problemtyp der Heuristischen Klassifikation kann mit regelbasierten Systemen,
die wie XiPlus über die Möglichkeit zur Erstellung einer Inferenzstrategie des
"Opportunistic Reasoning" verfügen, realisiert werden (Clancey 1985, S.335 ff.).
Es gab keine bzw. nur geringe Zeitrestriktionen. Budgetrestriktionen kamen nicht zum
Tragen, da nur geringe Kosten für die Anschaffung von Software sowie Opportunitätsko-
sten für die entgangene Arbeitszeit des Experten angefallen sind.
16 Basierend auf einem Rollenkonzept gibt Kurbel ein Organisationsmodell für die Ablauforganisation
großer XPS-Projekte (Kurbel1989, S.98 ff.).
152 Uwe Hoppe
Die Analyse der Durchführbarkeit eines XPS-Projektes gliedert sich in die Analyse der
technischen Durchführbarkeit, der personellen Durchführbarkeit sowie der ökonomischen
Durchführbarkeit
Technische Durchführbarkeit:
Die Forderung nach im Zeitverlauf möglichst stabilem Wissen zielt ab auf die Wartungs-
problematik von XPS. Die Wartung dient der Beseitigung aufgetretender Unkorrektheiten
sowie der Anpassung des Systems an geänderte Wissensinhalte und Wissensverarbeitungs-
abläufe. Eine zu hohe Dynamik des Wissens kann die Entwicklung eines XPS gänzlich
verhindern, da der Wartungsaufwand nicht mehr beherrschbar wirdl7.
Die Analyse des Beratungsprozesses bei der Vermögensanlage von Kunden ergibt, daß es
sich um eine semi-strukturierte Problemstellung handelt (Mertens/Allgeyer 1983, S.703).
Die notwendigen Informationen stehen zwar nahezu vollständig zur Verfügung. Allerdings
erfordert die Einschätzung der Risikobereitschaft und des Anlageziels des Kunden ein
gewisses Maß an subjektiven Einschätzungen, die jedoch in Zusammenarbeit zwischen
dem Benutzer und einem XPS behandelt werden können (Greenwell1988, S.125 ff.). Die
Zusammenhänge zwischen den Eingabedaten und den Lösungen in Form von geeigneten
Anlagen sind heuristischer Natur. Es gibt eine Vielzahl von Kriterien zur Beurteilung der
Eignung von Anlageformen für einen bestimmten Kunden, die in immer wieder wechseln-
der Zusammensetzung für die Problemlösung herangezogen werden. Eine konventionelle
Lösung kann daher verneint werden.
17 Mertens berichtet über zwei Fälle, in denen die Wartungsproblematik zu einem Fehlschlag des Projekts
führte (Mertens 1987, S.187 ff.).
ABASS: Ein Wissensbasierter Anlageberatungsassistent 153
Personelle Durchführbarkeit:
Von entscheidender Bedeutung ist die Verftigbarkeit des Experten während der Projekt-
dauer (Kurbel1989, S.182). Waterman verlangt, daß der Experte zumindest mit der Hälfte
bis Dreiviertel seiner Arbeitszeit ftir die Entwicklung des Systems zur Verfügung steht
(Waterman 1986, S.185, 193). Dem stehtjedoch entgegen, daß Experten im Unternehmen
definitionsgemäß knapp sind, ihre Arbeitszeit somit wertvoll ist, und die entgangene
Arbeitszeit Opportunitätskosten verursacht.
Der Experte soll glaubwürdig sein, damit die Akzeptanz des XPS bei den Benutzern nicht
beeinträchtigt wird. Er soll motiviert und kooperativ sein, da der Knowledge Engineer
darauf angewiesen ist, daß der Experte sein Wissen möglichst vollständig und korrekt ver-
balisiert Der Experte sollte über hinreichende kommunikative Fähigkeiten verfügen, um
sein Wisssen artikulieren zu können.
Der implementationsnahe Knowledge Engineer sollte eine Reihe von Erfahrungen bei der
Erstellung von WBS, insbesondere hinsichtlich des Einsatzes von XPS-Entwicklungstools
gemacht haben. Das Konzeptuelle Modell ist die Schnittstelle zwischen anwendungsnahem
und implementationsnahem Knowledge Engineer, so daß auch diesbezügliche Kenntnisse
erforderlich sind.
Bei der Entwicklung von ABASS stand während .des ersten Zyklus ein Experte, der die
geforderten Eigenschaften aufwies, zur V~ügung. Allerdings beschränkte sich das Aus-
maß der Verfügbarkeil auf nur wenige Wochenstunden. Daß die Performance des XPS
hierdurch nicht beeinträchtigt wurde, ist auf zwei Dinge zurückzuführen. Zum einen ver-
fügte der Knowledge Engineer über umfangreiche Kenntnisse der Domäne, was die erfor-
derliche Interaktion mit dem Experten sicherlich verringert hat 19. Zum anderen wurde für
den ersten Zyklus ein Zeitraum von 15 Monaten benötigt. Es ist anzunehmen, daß diese
Zeit bei einer stärkeren Verfügbarkeil des Experten (allerdings auch des Knowledge
Engineer) erheblich hätte verkürzt werden können20.
Sowohl der unmittelbare Fachvorgesetzte des Experten als auch ein Mitglied des zweiköp-
figen Vorstandes der Bank waren an der Planung des Projektes beteiligt. Der Leiter der
DV-Abteilung des Kreditinstitutes war bei dem ersten Gespräch zwecks Absprache des
Kooperationsabkommens sowie an den Präsentationen beteiligt. Ein anderer Mitarbeiter
der DV-Abteilung stand für Gespräche hinsichtlich der Möglichkeit zur Integration des
XPS in die betriebliche Einsatzumgebung zur Verfügung. Die Aufnahme eines Benutzers
in das Projektteam ist erst für den zweiten Entwicklungszyklus geplant.
Ökonomische Durchführbarkeit
Die Analyse der ökonomischen Durchführbarkeit der Entwicklung eines XPS dient der
Beurteilung der Frage, ob die Realisierung des Projektes unter Abwägung der zu erwarten-
den Entwicklungskosten sowie der zu erwartenden Nutzeneffekte gerechtfertigt ist. Zur
Beurteilung dieser Frage ist eine Kosten-Nutzen-Analyse erforderlich. Die in dem Bereich
des Software Engineering angewandten Verfahren eignen sich in der Regel nicht. Die
Durchführung einer betriebswirtschaftlich fundierten Kosten-Nutzen-Analyse stellt auf-
grundder zahlreichen Unsicherheiten zu Beginn eines XPS-Projektes eine nur schwer lös-
bare Aufgabe dar (Puppe 1988, S.152).
Die Kosten eines XPS-Projektes ergeben sich aus den Kosten für Hard- und Software
sowie den Personalkosten. Die Kosten für das Entwicklungswerkzeug sind im Vergleich
zu den anderen Kostenkomponenten häufig vernachlässigbar gering (Puppe 1988, S.152).
Auch die Hardware dürfte keinen fmanziellen Engpaß verursachen, da zunehmend auch
leistungsfähige Tools auf Personal-Computern oder Workstation des unteren Leistungs-
spektrums angeboten werden. Entscheidend für die Beurteilung der Kosten sind die Perso-
nalkosten.
Wesentliche Determinante der Personalkosten ist der Entwicklungsaufwand des XPS. Für
die Abschätzung des Entwicklungsaufwandes von XPS-Projekten nennt Waterman, in
Abhängigkeit vom Schierigkeitsgrad des Entwicklungsvorhabens, einen Entwicklungsauf-
19 Hierbei ist allerdings die Gefahr zu beachten, daß der Knowledge Engineer beginnt, seine eigene
"Expertise" zu modellieren, anstatt der des Experten.
20 Greenweil nennt eine Zykluszeit von 34 Monaten (Greenwell1988, 5.137 f.).
ABASS: Ein Wissensbasierter Anlageberatungsassistent 155
wand zwischen sechs und dreißig Personenjahren (Waterman 1986, S.184 f.). Kurbelleitet
hieraus eine Entwicklungsdauer für ein System zwischen zwei und sechs Jahren ab (Kurbel
1989, S.182 f.).
Harrnon und King beziffern die gesamten Entwicklungskosten für XPS zwischen
$ 40.000,-- und $ 5 Mio, in Abhängigkeit von der Größe bzw. der Anzahl der Regeln des
Systems (Hannon/King 1987, S.224)21.
Kosten für ABASS sind, wie bereits ausgeführt wurde, während des ersten Zyklus nur in
geringem Umfang angefallen. Dies ist jedoch auf die spezielle Form einer Kooperation
zwischen Wissenschaft und Praxis zurückzuführen und kann nicht verallgemeinert werden.
Der Entwicklungsaufwand von AB ASS beläuft sich bisher auf ca. ein Personenjahr. Dieser
setzt sich zusammen aus insgesamt 100 Stunden (h) für Interviews, ca. 600 h für die
Analyse des erhobenen Wissens sowie ca. 1200 h für die anschließende Implementierung.
Hieraus lassen sich die Relationen zwischen Wissenserhebung, Wissensanalyse und
Wissensoperationalisierung (Implementierung) von 1:6:12 ableiten22.
Nutzeneffekte
Mertens führt eine Liste von Nutzeneffekten an, die mit dem Einsatz von XPS verbunden
sein können (Mertens 1987, S.192 f.). Die wesentlichen mit dem Einsatz von ABASS ver-
bundenen Nutzeneffekte sind:
Wissensmultiplikation, die ein Angebot bzw. die Ausweitung eines ggf. vorhandenen
Angebots an Beratungsleistungen in der Vermögensberatung in den Geschäftsstellen
erlaubt.
Verbesserte Qualität der Beratung auf den Geschäftsstellen durch Berücksichtigung
bzw. Angebot von mehr Anlagealtemativen.
Entlastung der Berater von Routinetätigkeiten, verbunden mit einer gleichzeitigen
Freisetzung von Kapazitäten für höherqualifizierte Tätigkeiten, beispielsweise im
Bereich der Betreuung der vermögenden Privatkundschaft, mit ggf. höheren
Deckungsbeiträgen, als sie im Bereich der Universalkundschaft zu erzielen wären.
Arbeitszusammenführung im Bereich der Kundenberatung in den Geschäftsstellen, da
die Berater im verstärkten Maße spezialisierte Beratungsleistungen anbieten können.
Gleichzeitig dient dies der Unterstützung marktorientierter Organisationskonzepte.
21 Diese Meßgröße ist sicherlich nur bedingt geeignet für die Abschätzung der Größe eines Systems, da
sie eine Verwendung hybrider, mit objektorientierten Wissensrepräsentationsformen ausgestatteter
Tools nicht berücksichtigt. Darüberhinaus können Regeln eine sehr unterschiedliche Größe, gemessen
in der Anzahl der Prämissen und Konklusionen, aufweisen. Ein der Problemstellung nicht adäquates
Werkzeug kann die Anzahl der erforderlichen Regeln vervielfachen. Schließlich kann eine ineffiziente
Wissensorganisation in einer größeren Wissensbank, als notwendig gewesen wäre, resultieren.
22 Ähnliche Relationen werden von Greenweil genannt (Greenwell1988, S.120 ff.). BartMlemy et al.
nennen ein Verhältnis von 10:1 zwischen Abschrift und Analyse der Transkripte einerseits und 1
Stunde Interview andererseits (BartMlemy et al. 1987, S.26).
156 UweHoppe
4.3.1 Wissenserhebung
Wissenserhebungstechniken
I
I I I
Interviewtechniken Beobachtung des Experten indirekte Techniken Reviewtechniken
- General weighted
networks
- Conceptual Sorting
(card - sort - method)
Die Interviewtechniken sind bekannt aus dem Bereich der Sozialwissenschaften und
werden auch in konventionellen Projekten als Erhebungstechniken eingesetzt. Implizites,
auch als "kompiliert" bezeichnetes Wissen (Kurbel 1989, S.77 f.), das sich einer
Verbalisierung durch den Experten entzieht, kann durch verschiedene Formen der Beob-
achtung des Experten angegangen werden. Diesem Zweck dienen auch verschiedene indi-
ABASS: Ein WissensbasierteT Anlageberatungsassistent 157
1) Welches Wissen gehört zu dem Bereich "Vermögensberatung"? Was muß man wissen, um das
Fachgebiet zu beherrschen?
2) Welche Rolle spielt Allgemeinwissen, "gesunder Menschenverstand" sowie Wissen aus anderen
Fachgebieten für die Vermögensberatung?
3) Gibt es viele Konzepte in dem Fachgebiet und sind diese Konzepte komplex oder eher einfach?
4) Wie strukturiert ist das Wissen des Fachgebietes? Wie sieht der Konzeptgraph aus?
5) Inwieweit beruht die Beratung auf subjektiven Beurteilungen? Kommen alle Berater zu denselben
Beurteilungen?
6) Wie gut ist das Fachgebiet dokumentiert? Woher stammen die Dokumentationen und in welcher
Form liegen sie vor?
7) Inwieweit ist das Wissen im Bereich der Vermögensberatung Änderungen unterworfen?
8) Wie verläßlich ist das Wissen in der Vermögensberatung? Beruht es auf Gesetzen, Verordnungen,
internen Anweisungen etc.?
23 Der Fragebogen wurde in Anlehnung an Greenweil erstellt bzw. modifiziert (Greenwelll988, S.76 ff.).
158 Uwe Hoppe
4.3.2 Wissensanalyse
Der Domain Level des Konzeptuellen Modells von AB ASS, das für den Initialisierungszy-
klus als verbindlich zugrunde gelegt wurde, verdeutlicht die wesentlichen Konzepte, die
für den Beratungsprozeß in der Vermögensanlage von Bedeutung sind. Die folgende Dar-
stellung beruht im wesentlichen auf einer "Is-A-Hierarchie".
Name
persönliche / - Alter
Daten ~ Beruf
Kontonummer
Kunden-
informationen
Giro
Konten~SpM Zusammen-
Depot< setzung
Informationen zu Wert
Märkten. Unter-
nehmen, Produkten
Beratungs-
konzepte Anlageziel
Laufzeit
Rückzahlungsm
Investments
Anlage-~ Aktien
kategorien L ECU
~international"' EWS
Renten --------- sonstige
inländisch
Die Graphik verdeutlicht, daß die Konzepte in vier Hauptgruppen eingeteilt sind: Kun-
deninforrnationen, Informationen zu Märkten, Produkten und Unternehmen, Anlagebedarf
des Kunden und Anlagekategorien. Aus Gründen der Übersichtlichkeit stellt die Abbildung
lediglich einen Ausschnitt aus dem gesamten Domain Level dar. Der Detaillierungsgrad
der Modeliierung orientiert sich an dem Umfang des in dem jeweiligen Zyklus angestreb-
ten Prototypen. Die folgende Abbildung zeigt die detaillierte Konzeptstruktur des Bera-
tungskonzepts "Anlagekategorien" auf.
Anlagekategorien
I
Renten Aktien Investments Optionsscheine Sparanlagen Edelmetalle Optionen
Aktien-/
ECU
Rentenfonds
EWS
sonstige ($) Geldmarktfonds
Die Abbildung 9 zeigt den Inference Level des Konzeptuellen Modells von ABASS.
Die Ähnlichkeit mit dem "Hufeisenmodell" von Clanceys Heuristischer Klassifikation ist
beabsichtigt und entspricht den Ergebnissen der Analyse des Problemtyps in der Konzep-
tionsphase. Es bestehenjedoch zwei wesentliche Unterschiede:
160 UweHoppe
Zum einen werden die Daten (zumindest bei dem derzeitigen Stand des Modells) nicht
abstrahiert sondern zumeist direkt für heuristische Schlußfolgerungen verwandt, was in der
Abbildung 9 durch die Knowledge Source "spezifiziere" zum Ausdruck kommt, die aus
der Fallbeschreibung der Problemstellung die Evidenzparameter ermittelt.
Evidenz Hypothese
Teillösung
Fallbeschreibung
Lösung
Im Gegensatz zum Inference Level des Modells, das lediglich eine abstrakte Schlußfolge-
rungskompetenz aufzeigt, konkretisiert die Task Structure des Konzeptuellen Modells von
ABASS den Kontrollfluß in Form von Sequenzen bzw. Iterationen von Zielen und Unter-
zielen.
ABASS: Ein Wissensbasierter Anlageberatungsassistent 161
ennittle ( Lösung )
ennittle ( Fallbeschreibung )
ennittle ( Hypothesen )
spezifiziere ( Evidenz )
assoziiere ( Hypothese )
ennittle ( Teillösungen )
verfeinere ( Hypothese )
Die Darstellungsform orientiert sich an derjenigen, die die Autoren der KADS-Methodolo-
gie verwenden. Allerdings scheint auch nichts gegen eine Abbildungsform wie sie bei-
spielsweise durch Struktogramme gegeben ist, zu sprechen, da diese über die notwendigen
Darstellungsmöglichkeiten verfugen.
XiPlus wird für unterschiedlichste Hardwareplattformen angeboten. Die für die Entwick-
lung von ABASS zugrunde gelegte Shell ist auf die INTEL Prozessorfamilie 80X86 unter
DOS ausgerichtet, was den verfügbaren Hauptspeicher auf 640 KB beschränkt24.
24 Für die Version 3.5 ist die Möglichkeit der Ausnutzung von Expansionsspeicher vorgesehen.
162 UweHoppe
Es existieren Schnittstellen für den Zugriff auf Dateien im ASCII-Format sowie Dateien
von Tabellenkalkulationsprogrammen. XiPlus unterstützt die Einbindung externer Pro-
gramme durch Schnittstellen zu C, BASIC und ASSEMBLER. Ebenso besteht die Mög-
lichkeit, gesondert erstellte "Graphik-Hardcopies" sowie Graphiken, die mit externen
Graphiksystemen erstellt wurden, während der Konsultation anzuzeigen.
Die Umsetzung eines KonzeptDellen Modells in ein ablauffähiges System ist ein Bereich,
der derzeit noch nicht ausreichend erforscht ist. Die Autoren der KADS-Methodologie for-
dern die Transfonnation des KonzeptDellen Modells in ein sogenanntes Design-Modell
(Schreiber et al. 1988, S.7-9). Karbach, Voß und Tong bezeichnen diesen Vorgang als "far
too liberal", da nur wenig Anhaltspunkte für eine systematische Umsetzung bestehen, und
nehmen eine direkte Transfonnation in die Wissensrepräsentationsformen des Tools
ZDEST-2 vor (Karbach/Voß/fong 1988, S.31-3 f.) Diese Vorgehensweise wird erleichtert
dadurch, daß ZDEST-2 über Wissensrepräsentationsformen auf einem hohem Abstrak-
tionsniveau verfügt, die zudem in Anzahl und Aufbau dem 4-Ebenen-Modell der KADS-
Methodologie ähneln.
Bei der Verwendung einer kommerziellen XPS-Shell stellt sich die Frage, welche
Wissensrepräsentationsformen zur Verfügung stehen, um die Transfonnation durchzufüh-
ren. Das für die Implementierung des 1. Prototypen von ABASS gewählte Tool XiPlus
verfügt lediglich über Regeln zur Repräsentation, so daß ein ernsthafter Versuch, das auf
den vier Ebenen beschriebene Wissen in einer systematischen Art und Weise in den uni-
formen Regelmechanismus zu "transformieren", nicht unternommen wurde.
werte eine Lösungsalternative defmitiv von einer weiteren Verfolgung ausschließt. So ver-
bieten sich beispielsweise bestimmte Sparanlagefonnen, wenn der Kunde Wert auf eine
jederzeitige Liquidierbarkeit seiner getätigten Investition legt.
Eine etablierte bzw. bestätigte Hypothese wird anschließend im Rahmen der Kontroll-
struktur des Establish-Refine bis zur konkreten Anlageform verfeinert. Die beiden skiz-
zierten Kontrollstrategien waren insbesondere hilfreich bei der Bildung funktionaler
Blöcke im Rahmen der Modularisierung des Systems.
4.4.3 Modularisierung
Ein Modul ist eine funktionale Einheit, die über eine weitestgehende Kontextunabhängig-
keit verfügen soll (Balzert 1982, S.45). Schnittstellen zu anderen Moduln sind explizit
definiert. Was konkret ein Modul konstituiert, ist abhängig von den Möglichkeiten des
Tools. Die Basis für die Modularisierung des Programmcodes in XiPlus ist die einzelne
(physische) Wissensbasis25.
Eine Wissensbasis in XiPlus ist eine Sequenz von Regeln, Fakten und Kommentaren. Der
Übergang zu anderen Wissensbasen erfolgt durch expliziten Aufruf innerhalb einer Regel-
konklusion, wobei die notwendigen Übergabeparameter spezifiziert werden müssen.
Die Einteilung von ABASS in einzelne Wissensbasen orientiert sich im wesentlichen an
den Beratungsphasen und damit an der Zerlegung der Problemstellung in Teilaufgaben
("Erhebung der Anfangsdaten" bis "Unterbreitung der Anlagevorschläge"). Die Ermittlung
geeigneter Anlagen gliedert sich gemäß der "Hypothesize-and-Test"-Strategie, die der
Implementierung zugrunde gelegt wurde, in eine Wissensbasis "Ermittlung hypothetischer
Anlagen" sowie "Überprüfung der hypothetischen Anlagen". In der Wissensbasis
"Erklärung der Anlagevorschläge" werden die dem Kunden unterbreiteten Anlagevor-
schläge auf Anforderung explizit erläutert26. Die verbleibenden Wissensbasen enthalten
das Wissen zu den einzelnen Anlagekategorien bzw. -formen (z.B. Investments). Sie bil-
den eine hierarchische Struktur gemäß der Strukturierung der Anlagekategorien, wie sie in
Abbildung 8 verdeutlicht wurde, wobei die Hierarchie beim derzeitigen Stand des Prototy-
pen nur flach ausgeprägt ist.
25 Im Gegensatz zur logischen Wissensbasis, die die Gesamtheit des repräsentierten Wissens verkörpert.
26 Bezüglich der Beurteilung der Erklärungsfähigkeit des Systems vgl. Kapite14.4.4 .
164 UweHoppe
Die Modularisierung innerhalb der Wissensbasen kann durch Bildung von Regelgruppen
geschehen. XiPlus bietet jedoch keine Möglichkeiten der Definition von Regelgruppen, so
daß eine (schwache) Strukturierung lediglich in Form sequentiell aufgelisteter, zusammen-
gehöriger Regeln, die durch Kommentare voneinander getrennt sind, erfolgen kann. Die
Zusammengehörigkeit der Regeln ergibt sich zumeist daraus, daß diese Schlußfolgerungen
über gleiche Attribute ermöglichen. Sinnvoll ist auch eine Trennung von Regeln, die
lediglich Kontrollcharakter haben (Metaregeln) von solchen, die die eigentlichen Ermitt-
lungsziele direkt verfolgen.
Die Überprüfung des Verhaltens eines XPS anband von Testfällen ist von zentraler
Bedeutung für die erfolgreiche Durchführung eines Projektes. Die Testaktivitäten verteilen
sich hierbei über verschiedene Phasen des Entwicklungsprozesses.
Im Rahmen des sogenannten Refinement findet ein iterativer Zyklus von Implementierung
und Test statt:
"Refinement of the prototype normally involves recycling through the implementation and
testing stages in order to tune or adjust the rules and their control structures until the
expected behaviour is obtained" (Gaschnig et al. 1983, S.149).
Zu diesem Zweck wurden in Zusammenarbeit mit dem Experten in einem ersten Durch-
gang zwölf Testfälle anband eines Fragebogens (Abbildung 12) erhoben.
ABASS: Ein Wissensbasierter Anlageberatungsassistent 165
1. An1agebedarf:
Anlagebetrag 30.000,--
Anlagezeitraum 5 Jahre
Liquidierbarkeit: [ ] am Ende der Anlagezeit [ x ] jederzeit
Einzahlungsart: [ ] Raten [ x ] Einmalbetrag
Rückzahlungsart [ ]laufende Entnahme [ x ] Einmalbetrag
Herkunft des [ x ] fällige Anlage [ ] LV/Bausparvertrag
Anlagebetrags: [ 1Spar-/Girokonto [ 1Sonstiges
[ ] Hausverlcauf
- wenn fällige Anlage, Art? Bundesobligationen
- wenn Sonstiges, was?
2. Risikofreudigkeit des Kunden:
3. Anlageziel:
[ x] hohe Verzinsung [ ] Werterhalt [ ] spekulative Erträge
4. Depotzusammensetzung:
1 Bank-Inhaber-Schuldverschreibung
2 Bundesobligationen
3 vergleichbare Rentenpapiere
7. Sonstige Besonderheiten: keine
Die Fragebögen wurden von dem Experten jeweils nach einem Kundengespräch ausgefüllt.
Der Fragebogen enthält Angaben zu allen von ABASS benötigten Input-Informationen und
dokumentiert die Anlagevorschläge, die in der konkreten Situation dem Kunden unter-
breitet wurden.
166 UweHoppe
Die Testfälle, die im Rahmen des Verfeinerungsprozesses zum Einsatz kommen, haben in
diesem Stadium der Entwicklung im wesentlichen Routinecharakter. Die Frage, welche
Merkmalsausprägungen einen Routinefall auszeichnen, ist in Abhängigkeit von der Pro-
blemstellung zu beantworten. Im Falle der Vermögensberatung handelt es sich um solche
Fälle, in denen der Anlagebetrag, die Anlagedauer, das Risikoprofil des Kunden und ähn-
liche Attribute bestimmte Wertebereiche nicht verlassen. Im Gegensatz hierzu weisen
Grenzfälle Besonderheiten auf, die in dieser Form nicht alltäglich sind bzw. nur einen
geringen Anteil an der Gesamtzahl der Beratungen haben. Derartige Grenzfälle sind im
Rahmen einer vollständigen Evaluation des Systems von Bedeutung.
Der geeignete Zeitpunkt für eine strukturierte Evaluation des Systems ist durch die Phase
der Abnahme gegeben. Gegenstand der Bewertung sind nach Gaschnig et al. (Gaschnig et
al. 1983, S.254 ff.):
Während der Experte, ggf. auch ein neutraler Experte, der nicht in die eigentliche
Wissensakquisition eingeschaltet war, die Qualität der Lösungen des XPS anband der in
der Problemdefinition festgelegten Maßstäbe beurteilt, konzentriert sich ein Benutzer des
Systems auf die Bewertung des Dialogs, der Hilfe- und Erklärungsmöglichkeiten u.ä. Die
Effizienz des Systems wird anband der Antwortzeiten bei gegebenem Hard- und Software-
einsatz bewertet.
Die Bewertung der Lösungen von ABASS durch den Experten hat aufgezeigt, daß in der
weitaus überwiegenden Anzahl aller Testfälle die Lösungen mit denen des menschlichen
Experten übereinstimmen. Abweichungen sind teilweise in der Reihenfolge der drei unter-
breiteten Anlagevorschläge aufgetreten, was jedoch zur einer kaum nachweislichen Verän-
derung der Qualität der Lösungen fUhrt. Andere Abweichungen beruhen auf dem teilweise
noch unzureichenden Detaillierungsgrad der Lösungen, beispielsweise wenn der Experte
eine konkrete Aktie empfiehlt, ABASS sich jedoch mit der Aussage "inländische Aktie"
begnügt.
Eine Evaluation der Benutzerschnittstelle von ABASS durch einen Benutzer steht noch
aus. Erste Reaktionen bei Präsentationen des Systems waren jedoch durchweg positiver
Natur, was auch auf die graphische, menü- und maskenorientierte Oberfläche des Tools
zurückzufUhren sein dürfte. Allerdings ist die Erklärungskomponente noch zu verbessern.
Der Hauptgrund für die derzeit noch mangelnde Erklärungsfähigkeit liegt in dem unifor-
men Repräsentationsmechanismus, den das Tool zur Verfügung stellt. Der Entwickler ist
gezwungen, das für die Realisierung der Kontrollstrategie erforderliche Wissen ebenfalls
in Regeln (Metaregeln) abzubilden. Bei Anforderung einer Erklärung kann es daher dazu
kommen, daß ein "Regeltrace" angezeigt wird, der lediglich der Inferenzsteuerung dient
und zumeist sehr unverständlich und verwirrend ist. Diese Problematik sollte durch einen
in Erwägung zu ziehenden Werkzeugwechsel entschärft werden.
5 Ausblick
Das XPS AB ASS befindet sich derzeit unmittelbar vor der Präsentation, die den Initialisie-
rungszyklus abschließt. Im Rahmen dieser Präsentation ist seitens des Managements des
Kreditinstitutes die Entscheidung über die Weiterentwicklung oder Einstellung des Pro-
jektes zu treffen. Von entscheidender Bedeutung wird hierbei die Frage sein, inwiefern es
gelingt, das System in die vorhandenen Informationssysteme des Institutes zu integrieren.
Die Fülle und die Dynamik des für die Beratung in der Vermögensanlage benötigten
Wissens über Märkte (Börsen), Unternehmen und Produkte der Bank erfordert einen jeder-
zeitigen und zuverlässigen Zugriff auf die Kunden- und Depotdatenbanken. Eine Alterna-
tive hierzu stellt sich nicht, da eine Eingabe der Daten zur Konsultationszeit im Dialog sich
naturgemäß verbietet und die Kompetenz des Systems ohne den Datenzugang, insbeson-
dere in den Anlagekategorien Aktien, Optionsscheine und Optionen, stark absinken würde.
Neben den technischen Problemen der Integration ist der Rechtfertigung des Systems
erhöhte Bedeutung zuzumessen. Während die ökonomische Durchführbarkeit des Systems
aufgrund der vernachlässigbaren Kosten des ersten Prototypen vergleichsweise oberfläch-
lich behandelt werden konnte, ist nun eine erneute Kosten-Nutzen-Analyse erforderlich,
die auf einer im Vergleich zum Beginn des Projektes verbesserten Datenbasis aufsetzen
kann. Hierbei ist insbesondere zu untersuchen, inwiefern dem System monetär quantifi-
zierbare Nutzeneffekte beispielsweise in Form ersparten Schulungsaufwandes, zusätzlicher
Provisionseinnahmen aufgrund eines ausgeweiteten Geschäftsvolumens im Bereich der
Vermögensanlageberatung und eingesparte Personalkosten durch Einsatz weniger qualifi-
zierten Personals zugerechnet werden können.
Weiterhin ist ein Wechsel des Entwicklungstools vorgesehen, da ein rein regelbasiertes
Werkzeug den Anforderungen der Problemstellung in diesem Stadium der Entwicklung
nicht mehr gewachsen ist. Erforderlich ist ein hybrides Tool, das neben Regeln über eine
objektorientierte Darstellungsform des Wissens verfügt, beispielsweise in Form von
Framesund den dazugehörigen Vererbungsmechanismen. Eine große Rolle bei der Taol-
auswahl wird die Frage der vorhandenen Schnittstellen, insbesondere solcher zu Daten-
banksystemen, spielen. In diesem Zusammenhang ist zu prüfen, ob unter Integrationsge-
sichtspunkten eine Implementierung von AB ASS auf einem Mainframe zu empfehlen ist.
Ein hybrides Tool wäre dann auch eine geeignete Basis, um eine methodische Umsetzung
des Konzeptuellen Modells der KADS-Methodologie vorzunehmen.
168 Uwe Hoppe
6 Literaturverzeichnis
Biethahn, J. und Hoppe, U. (1990), Vergleich von Tools zur Erstellung wissensbasierteT
Systeme auf Basis der Entwicklung einer konkreten Applikation, in: Ehrenberg, D.,
Krallmann, H. und Rieger, B. (Hrsg.), Wissensbasierte Systeme in der Betriebswirtschaft,
Berlin, S. 113-132.
Gabriel, R.: Software Engineering (1990), in: Kurbel, K. und Strunz, H. (Hrsg.): Handbuch
Wirtschaftsinformatik, Stuttgart, S.257-273.
Gaschnig, J. et al. (1983), Evaluation of Expert Systems. Issues and Case Studies, in:
Hayes-Roth, F., Waterman, D. A. und Lenat, D. B. (eds.): Building Expert Systems,
London u.a., S.241-280.
Karbach, W., Voß, A. und Tong, X. (1988), Filling in the Knowledge Acquisition Gap: via
KADS'Models of Expertise to ZDEST-2's Expert Systems, in: Boose, J. H., Gaines, B. R.
und Linster, M. (eds.): Proceedings of the European Knowledge Acquisition Workshop
(EKAW'88) GMD-Studie Nr. 143, St. Augustin, S. 31-1- 31-17.
Kurbel, K., Labentz, M. und Pietsch, W. (1987), Prototyping und Projektmanagement bei
großen Entwicklungsteams, in: Information Management, Nr. 1, S. 6-15.
Newell, A. (1982}, The Knowledge Level, in: Artificial lntelligence, 18, S. 87-127.
Pearl, J. (1984), Heuristics. Intelligent Search Strategies for Computer Problem Solving,
Reading (Mass.).
Schreiber, G. et al. (1988), ModeHing in KBS Development, in: Boose, J. H., Gaines, B. R.
und Linster, M. (eds.): Proceedings of the European Knowledge Acquisition Workshop
(EKAW'88), GMD-Studie Nr. 143, St. Augustin, S. 7-1 - 7-15.
Tank, W. (1988), Entwurfsziele bei der Entwicklung von Expertensystemen, in: KI, Nr. 3,
s. 69-76.
Waterman, D. A (1986), A Guide to Expert Systems, Reading (Mass.) u.a.
1 Einführung 173
7 Literaturverzeichnis 181
Abstrakte Datentypen zur flexiblen Wissensrepräsentation und -Verarbeitung 173
1 Einführung
Mit hybriden Systemen ist zwar die Forderung nach der Verfügbarkeit der Repräsenta-
tionsformen erfüllt, jedoch stehen diese unabhängig nebeneinander. Daher muß sich der
Knowledge-Engineer auch hier wieder sehr früh entscheiden, welcher Teil des Wissens in
174 Thomas Kretschmar
welchen Komponenten abgelegt wird. Auch bei der Entwicklung seiner Problemlösungs-
strategie nimmt er auf konkrete Regeln, Frames etc. Bezug und schafft sich damit eine eher
starre Struktur.
2.2 Supemetze
1989 wurde in einem ersten Schritt versucht, durch die Entwicklung sog. Supernetze die
unterschiedlichen Eigenschaften der gängigsten Repräsentationsformen in einer überge-
ordneten Repräsentationsform zu vereinigen (Vgl. Kretschmar 1990 a, S. 144 ff.):
Die bedingte oder unbedingte Verbindung von Objekten durch Formeln (Constraint-
Systeme).
Die Repräsentation des gesamten Wissens erfolgt in einem gerichteten Graphen, zu dessen
Knoten und Kanten zusätzliche Attribute wie Namen, Repräsentationstyp, Kantengewicht,
Schwellwert etc. gespeichert werden. Dabei nutzt jede herkömmliche Repräsentationsform
nur Teile der Eigenschaften des gesamten Netzes. Schnittstellen zwischen den Repräsenta-
tionsformen sind nicht mehr erforderlich. Die Integration erfolgt direkt im Netz durch die
Benutzung gemeinsamer Knoten. Dadurch wird auch die Integritätsprüfung der gesamten
Wissensbasis erleichtert.
Ein wesentlicher Grund für die gute Integrationsmöglichkeit ist die große Ähnlichkeit bzw.
Kompatibilität der Repräsentationsformen. So kann beispielsweise die Regel "IF A and (B
or not C) 1HEN D" auch als Formel"D = A * (max{B,1-C))" dargestellt werden. Auch
können Implikationsnetze als semantische Netze mit der Kantenbezeichnung "daraus folgt"
interpretiert werden.
Das dargestellte Konzept sieht jedoch für die Wissensverarbeitung unterschiedliche lnfe-
renzmaschinen vor, die nur auf Teilen der Supernetze arbeiten. Für das gesetzte Ziel müßte
eine einzige Inferenzmaschine konzipiert werden, deren Problemlösungsstrategie auf
Wissen in abstrakter Form definiert ist, damit die gesamte Wissensbasis mit den verschie-
denen Repräsentationsformen verarbeitet werden kann.
Abstrakte Datentypen zur flexiblen Wissensrepräsentation und -Verarbeitung 175
Ein gutes Konzept für die Verarbeitung abstrakten Wissens bietet die objektorientierte
Programmierung (Vgl. Stoyan/Wedekind 1983; Rarnarnoorthy/Sheu 1988). Mit Hilfe
abstrakter Datentypen läßt sich ein Grundtyp aller Wissensrepräsentationsformen mit der
Vereinigungsmenge ihrer Eigenschaften definieren. Mit diesem Grundtyp kann ein generi-
sches System aufgebaut werden, in dem konkrete klassische Repräsentationsformen als
Ableitung des Grundtyps implementiert sind. In Abb. 1 sind einige Ableitungen beispiel-
haft dargestellt.
Generischer Grundtyp
- Bezeichnung
- Repräsentationstyp
- Gruppenzugehörigkeit
- Verarbeitungsvorschrift
- Dateneingänge
- Datenausgänge
gerichtete semantische
Beziehung
Für jeden abgeleiteten Repräsentationstyp muß nun einmalig festgelegt werden, wie die
definierten Eigenschaften ausgeprägt sind. So wird als Verarbeitungsvorschrift für die Pro-
duktionsregel defmiert, daß der Bedingungsteillogisch auszuwerten ist und gegebenenfalls
der Aktionsteil auszuführen ist. Dateneingangswerte sind die Werte der im Bedingungsteil
verwendeten Objekte. Datenausgaben köMte die Veränderung der im Aktionsteil verwen-
deten Objekte sein (Ist der Bedingungsteil nicht erfüllt so ist die Veränderung Null). Durch
Gruppierungen können die Regeln strukturiert werden, wie es beispielsweise durch die
FCBs (Focus Control Blocks) in ESE (IBM) ermöglicht wird (Vgl. auch Leith 1983).
Die semantische Beziehung kann mit Hilfe der Gruppenzugehörigkeit realisiert werden. So
beschreibt die Gruppe "hat Anzeichen" Ursachen-Wirkungs-Beziehungen oder die Gruppe
"hat Quelle" verweist auf weiterführende Literatur. Für jede inhaltlich neue Beziehung
muß eine neue Gruppe verwendet werden. Die Verarbeitungsvorschrift beschreibt die
Überführung der Wahrheitszustände der Eingabeobjekte in Wahrheitszustände der Aus-
gabeobjekte, wobei Unsicherheit der semantischen Beziehung berücksichtigt werden kaM.
Auch das Wissen des Benutzers über den Zusammenhang von Objekten kaM als Reprä-
sentationstyp aufgefaßt werden. In diesem Fall gehen über die Dateneingänge Informatio-
nen zu denen es in der Wissensbasis kein weiteres Wissen gibt, in das Objekt "Benutzer".
Die Verarbeitungsvorschrift transformiert die Eingabeobjekte in eine konkrete Frage. Die
Antworten des Benutzers werden analysiert und zu aktivierende Objekte werden über die
Datenausgänge ausgegeben. In der Gruppenzugehörigkeit könnte der zu befragende
Benutzer festgelegt werden. So können mehrere Benutzer bzw. Experten direkt in den
Inferenzprozeß mit einbezogen werden.
Schließlich kann eine betriebliche (bzw. eine für andere Anwendungen entsprechende)
Datenbank als Teil einer Wissensbasis gesehen werden. Die Verarbeitungsvorschrift
beschreibt beispielsweise die Generierung von SQL-Abfragen und die Umsetzung der
Antworten in Objektaktivierungen. ·
Aus der Sicht des XPS-Shell-Entwicklers, der die Problemlösungsstrategie beschreibt, ist
die Wissensbasis eine homogene Struktur aus vielen Elementen des generischen Grund-
typs. Dabei können die Teilmengen gleichen Typs als herkömmliche Repräsentati-
onsstrukturen aufgefaßt werden, wie in Abb. 2 dargestellt.
Abstrakte Datentypen zur flexiblen Wissensrepräsentation und -verarbeitung 177
So bilden alle erfaßten Regeln eine Regelbasis, alle Modellgleichungen ein mathemati-
sches Modell und alle Beziehungen semantischer Art ein semantisches Netz. Hinter allen
vorgesehenen Datenbankrecherchen steht das "Wissen" der gesamten betrieblichen
Datenbank.
4 Repräsentationsunabhängige Problemlösungsstrategien
Die Wissensbasis liegt nach o.g. Vorgehensweise in einer geeigneten Form vor, um von
der jeweiligen Repräsentationsform unabhängige Problemlösungsstrategien zu formulie-
ren, indem auf den abstrakten generischen Grundtyp Bezug genommen wird. Dazu müssen
Operationen definiert werden, die auch von jedem abgeleiteten Datentyp ausgeftihrt wer-
den können; beispielsweise
Initialisierung, Aktivierung und Deaktivierung
Vorwärtsverarbeitung
Rückwärtsverarbeitung
Erklärung und Verfolgung
Ein- und Ausgabe der Parameter
178 Thomas Kretschmar
Mit Hilfe der genannten Operationen können nun zunächst klassische Problemlösungs-
strategien implementiert werden. So können forward- und backward-chaining durch eine
iterative Vorwärts- bzw. Rückwärtsverarbeitung realisiert werden.
Durch eine mengenorientierte Sicht kann die Problemlösungsstrategie abstrakt formuliert
werden; z.B. eine diagnostische Strategie (Vgl. Wieding/Kretschmar/Schönle 1988):
3) Alle Objekte der Gruppe "hat Ursache" werden durch forward-chaining verarbeitet,
um die Menge der mögliche Ursachen zu erhalten
4) Alle Objekte der Gruppe "hat Anzeichen" werden durch forward-chaining verarbeitet
und alle Objekte der Gruppe "hat Ursache" werden durch backward-chaining verar-
beitet, um die Menge der weiteren mögliche Symptome zu erhalten.
An Schritt 3) kann nun sehr gut der Vorteil der abstrakten Datentypen veranschaulicht
werden: Die abstrakte Anweisung "Vorwärtsverarbeitung" führt dazu, daß auf Grund der
eingegebenen Zustände Regeln ausgeftihrt werden, Kennzahlen in Modellen berechnet
werden und Beziehungspfeile mit der Bezeichnung "hat Ursache" in semantischen Netzen
Abstrakte Datentypen mr flexiblen Wissensrepräsentation und -Verarbeitung 179
verfolgt werden. Darüber hinaus werden gegebenenfalls Statistiken aus einer Datenbank
abgerufen und Anfragen an andere Benutzer gestartet Ob alle oder nur Teile dieser Aktio-
nen ausgeführt werden, hängt von der Struktur des zur Verfügung stehenden Wissens ab
und entscheidet sich erst zur Laufzeit
Die dargestellten abstrakten und abgeleiteten Datentypen und die auf Ihnen definierten
Operationen werden zur Zeit in C++ unter UNIX auf einem IBM RISC System/6000
implementiert Als Datenbank wird INFORMIX (lnformix Software GmbH) eingesetzt.
Die Repräsentationsformen und einige Problemlösungsstrategien stehen C++-Program-
mierern in einer Bibliothek zur Verfügung.
Darüber hinaus soll unter dem Systemnamen GEFOREX (generator for recyclable XPS)
ein Maus- und menügesteuerter Generator entwickelt werden, mit dem der Benutzer auch
ohne Programmierkenntnisse seine Problemlösungsstrategie beschreiben kann.
6 Abschließende Bemerkungen
Das dargestellte Konzept stellt einen Ansatz zur Realisierung ganzheitlicher Informations-
systeme dar (Vgl. Biethahn/Muksch/Ruf 1990). Unstrukturiertes Benutzerwissen, Texte,
Datenbanktabellen und Wissen in vielen heute noch nicht standardisierten Repräsentati-
onsformen werden als Ableitung einer abstrakten Informationseinheit in ein generisches
System eingeordnet Nicht mehr die Strukturierung nach technisch gegebenen Repräsenta-
tionsformen sondern nach inhaltlichen Gesichtpunkten rückt damit in den Vordergrund.
Dies wäre ohne abstrakte Wissensverarbeitung nicht möglich, da die Struktur des diagno-
stischen Wissen in Medizin (Vgl. Wieding, Kretschmar, Schönte 1990) (z.B. Regeln) und
Betriebswirtschaft (z.B. Kennzahlensysteme) zu unterschiedlich ist. Darüber hinaus kann
180 Thomas Kretschmar
der Transfer von Problemlösungsstrategien von einer Fachrichtung in eine andere auch zu
neuen Erkenntnissen führen. In jedem Fall wäre mit einer erheblichen Kosteneinsparung
zu rechnen, wenn nur ein kleiner Teil der unzähligen Prototypen in zukünftigen Projekten
wiederverwendet werden könnte.
Abstrakte Datentypen zur flexiblen Wissensrepräsentation Wld -Verarbeitung 181
7 Literaturverzeichnis
Leith, P. (1983), Hierarchically Structured Production Rules, in: The Computer Journal26,
1-5.
Ramamoorthy, C.V. und Sheu, P.C. (1988), Object-Oriented Systems, in: Intelligent
Systemsand their Applications, IEEE Expert, Fall.
Wieding, J.U., Kretschmar, T. und Schönle, P.W. (1988), Mengen und Abbildungen in
wissensbasierten Systemen zur Unterstützung der Diagnose-Findung, in: Angewandte
Informatik 8, S. 337-242.
1 Vorbemerkungen 185
5 Ausblick 189
6 Literaturverzeichnis 190
Ein Ansatz zur systematischen WissensverarbeibJng 185
1 Vorbemerkungen
Nichtkenner setzen die Datenverarbeitung heute gern mit der Entwicklung von Experten-
systemen (XPS) gleich. Die Vertreter dieser Auffassung sind der Meinung, Expertensy-
steme seien häufig das Allheilmittel bei allen betrieblichen Problemen, zu deren Lösung
normalerweise Intelligenz und Wissen erforderlich ist, da sie auch bei nicht wohlstruk-
turierten Problemen anwendbar sind.
Auf der anderen Seite gibt es Meinungen, nach denen behauptet wird, Expertensysteme
seien neue Namen für das, was man immer hatte, und zwar Programme. Jedoch wurde für
die Erstellung von Expertensystemen ein anderer Weg beschritten. Man orientierte sich an
den Forderungen für den Aufbau eines Expertensystems, nämlich der Trennung von
Wissensbasis und Problemlösungskomponente. Werden diese Charakteristika bei der Er-
stellung berücksichtigt, so werden die Erkenntnisse der ganzheitlichen Erstellung von
Informationssystemen im Bereich des Softwareengineerings übersehen. Aus diesem Grund
kann man auch die Expertensysteme als schlechtstrukturierte Programme auffassen (da der
ganzheitliche Ansatz keine Anwendung findet).
Zu dem Vergleich und den verschiedenen Expertensystemen vgl. Biethahn, J.; Hoppe, U., Vergleich
von Tools zur Erstellung wissensbasierter Systeme auf der Basis der Entwicklung einer konkreten
Applikation, in: Wissenbasierte Systeme in der Betriebswirtschaft, hrsg. v. D. Ehrenberg, H.
Krallmann, B. Rieger, Berlin 1990, S. 113-132.
186 Iörg Biethahn
Mit jeder der Shells wurde ein Expertensystem erstellt Dabei konnten folgende Erfahrun-
gen gesammelt werden:
2) Die Tools sind weitgehend anwendungsneutral geplant, d.h. sie sind für die Lösung
von Problemen aller Anwendungsbereiche vorgesehen. Dennoch sind sie von der
Konstruktion her sehr unterschiedlich und der Funktionsumfang insbesondere bzgl.
der Benutzeroberfläche differiert sehr stark, sodaß sie für spezielle Aufgaben-
stellungen unterschiedlich geeignet erscheinen.
3) Die Tools sind - obwohl sie weitgehend unter UNIX laufen, trotzdem nicht völlig
hardware- oder anlagenneutral, d.h. die gewonnenen Erfahrungen sind nur teilweise
auf andere UNIX-Systeme übertragbar.
4) Der größte Aufwand bei der Erstellung eines XPS liegt in der Sammlung und Gestal-
tung (design) von Wissen.
6) Bei der Entwicklung der Expertensysteme wurde außerdem deutlich, daß aufgrund der
Unterschiedlichkeit der Tools für jedes System eine völlig eigenständige Wissensbasis
erstellt werden mußte.
7) Zusätzlich erwies sich, daß keine der Shells eine komplette Abbildung des erforder-
lichen Wissens zuließ. Es mußten zusätzliche Routinen in PROLOG, C oder PASCAL
geschrieben werden. Insofern mußte festgestellt werden, daß die Shells nicht zur
Lösung von Problemen aller Problemkategorien geeignet sind. D.h. die Problem-
neutralität der Shells ist nicht gegeben und eine weitgehend problemorientierte
Wissensabbildung kann erst durch zusätzliche Programmierung in den Elementar-
sprachen erreicht werden.
9) Bei der Erstellung des Expertensystems mit Natural Expert war dagegen durch die
Verwendung der funktionalen Sprache fast alles möglich, jedoch mußte hierfür eine
höhere Problemabstraktion gefordert werden. Es liegt also durch Anwendung der
funktionalen Sprache eine größere Problemneutralität vor, jedoch ist die Problem-
distanz aufgrund der Art der Sprache größer. Der Grund hierfür liegt in der unter-
schiedlichen Wissensdarstellung innerhalb der verschiedenen Tools. Dieses könnte
eventuell überwunden werden, indem man - wie bereits erwähnt - auf der Basis dieser
Sprache anwendungsspezifische Shells entwickelt. Diese Erfahrung wäre vergleichbar
mit dem Übergang von der dritten auf die vierte Generation von Programmier-
sprachen.
Die Anwendung der Expertensystem-Tools machte deutlich, daß das für das Experten-
system erforderliche Wissen sich im Voraus - wie es sonst bei Softwaresystemen üblich ist
- nicht bestimmen läßt.
Insofern stellt sich die Frage: "Was ist das Wissen einer Problemdomäne, das in das zu
entwickelnde Expertensystem eingehen soll?'' Diese Frage läßt sich auch nicht klar beant-
worten, da wir nicht einmal genau wissen, was Wissen an sich ist und in welcher Form das
Wissen im Menschen vorliegt. Ein Modell der Wissensdarstellung ist das der neuronalen
Netze, dessen Grenzen im Beitrag von Schumann deutlich wurden. Andere Formen wären
die Darstellungen in Form von Zustandsbeschreibungen, von Bildern oder gar von textu-
ellen Wiedergaben. Wir wissen nicht, ob flir die Darstellung des Wissens im Menschen
eine Form überwiegend ist oder ob diese Repräsentationsformen dort auch nebeneinander
zur Anwendung kommen.
Weitgehend einig scheint man sich darin zu sein, daß man kaum von sequentiellen Dar-
stellungsformen wie Texten ausgehen kann, da sich Teilaspekte hiervon auch mehrdimen-
sional in Netzen darstellen lassen. Wir wissen nur, daß wir nicht in der Lage sind, das was
unser Wissen ausmacht, erschöpfend zu beschreiben.
Auch wissen wir nicht - trotz aller Bemühungen im Bereich der Modeliierung des men-
schlichen Gehirns im Bereich der neuronalen Netze - wie dieses Wissen im Menschen
bearbeitet wird und wie daraus Schlüsse gezogen werden.
Dennoch sind wir im Bereich der Expertensysteme gezwungen, Wissen von Experten so in
Computern darzustellen, daß die vom Rechner ermittelten Ergebnisse denen entsprechen,
die ein menschlicher Experte erhalten würde.
zugeben, bis der normalerweise durch den Experten erzeugte Output zu einem engen
Wissensgebiet oder einer Problemdomäne in gleicher oder ähnlicher Weise durch das
Expertensystem entsteht.
Es wird also nicht so vorgegangen, daß nach dem erforderlichen Input an sich - wie bei der
traditionellen Datenverarbeitung - gesucht wird, sondern es wird, da ohnehin mit der
Lückenhaftigkeit des Wissens und der Wissensverarbeitung gerechnet wird, das Input-
wissen solange modifiziert und ergänzt bis die gewünschten Ergebnisse entstehen. Von
einer wirklich systematischen Wissenssammlung, bzw. dem Streben nach vollständigem
Wissen, kann also nur in den wenigsten Fällen ausgegangen werden. Die Art der Wissens-
sammlung hängt dabei von der verwendeten Shell ab, aus der das Expertensystem ent-
stehen soll.
Wie bereits geschildert wurde, wissen wir, daß unser Wissen über die Repräsentation und
die Verarbeitung von Wissen ausgesprochen unvollkommen ist. Wir sind bei der Erstel-
lung von wissensbasierten Systemen derzeit gewohnt, dieses ganz speziell für eine
schmale, d.h. auf eine Problemdomäne konzentrierte, Wissensverarbeitung zu sammeln
und aufzubereiten. Dabei haben sich fast alle XPS-Konstrukteure fast kommentarlos damit
abgefunden, daß wir das Wissen, wie es die meisten Expertensystemsheils verlangen, in
formatierter Form darstellen. Dieses fällt kaum auf, da wir es aus den traditionellen
Datenbanken gewohnt sind. Damit haben wir uns auch abgefunden, daß das Wissen in
Spalten gepreßt und von allem Beiwerk und von allen Zusatzinformationen befreit wird.
Da andererseits das Wissen i.d.R. aus in verbaler Form dargestelltem Wissen - also aus
vollen Sätzen - extrahiert wird, entsteht auf diese Weise viel überflüssige Arbeit, denn
zunächst wird das verftigbare Wissen in unformatierter Form erhoben. Im nächsten Schritt
wird es durch die in den Tools gewünschten Darstellungsformen wie z.B. Regeln oder
Frames vom derzeit nicht benötigten Beiwerk befreit. Schließlich wird das derzeit nicht
benötigte Wissen vernichtet. Wäre es da nicht sinnvoll, das zunächst erhobene Wissen ftir
alle Anwendungsfälle zu speichern und danach daraus das für das Expertensystem
erforderliche Wissen im Rahmen eines konzeptuellen Modells zu extrahieren? Hierzu be-
darf es der Nutzung von Erkenntnissen aus dem Bereich der natürlichsprachlichen
Systeme. Erste Hilfen kann hier der Einsatz von Information Retrieval Systemen bringen.
Aus den obigen Überlegungen resultiert das folgende Konzept für eine Wissensdarstellung.
einfließen als auch für wissensbasierte Systeme verwendet werden, d.h. sie können
automatisch in die Wissensbasen integriert werden und gehen so in die Expertensysteme
ein.
Dieser Ansatz ist eher zukunftsorientiert, da momentan nur geringe Erfahrungen sowohl in
der Integration von unterschiedlichen Datenbanken und Textsystemen als auch in der
Unterscheidung von Texten innerhalb formatierter Systeme durch Information Retrieval
existieren.
2. Um das o.g. Ziel zu erreichen, sind aber die Wissensbasen anders zu gestalten. Zunächst
ist der Bereich der kurzfristig gültigen, d.h. temporären Daten von dem der permanenten
Daten oder Fakten zu trennen. Für den permanenten Bereich ist eine Schnittstelle zu
Datenbanken zu schaffen, damit die auch vom XPS benötigten Daten im Rahmen des
Datenbanksystems stets wirtschaftlich aktualisiert und gewartet werden können. Der
Bereich der temporären Daten ist danach, ebenso wie der Bereich der Fakten, problem-
adäquat und möglichst wirtschaftlich aus den Datenbanken über ein geeignetes Extrakt-
management zu gestalten.
3. Auch sollte versucht werden, die Methoden zur Wissensrepräsentation und der -bear-
beitung zu generalisieren und zu standardisieren, so daß über eine Schnittstelle eine Abbil-
dung der Probleme möglich wird und nicht mehr eine Anpassung der Probleme an die
Tools erforderlich ist. Dazu sind sicher speziellere, problemnähere Shells zu entwickeln.
4. Daneben wäre es sicher wünschenswert, wenn sich im Bereich der XPS - ähnlich wie im
Bereich der Datenbanken und dem der Programmierung - Normen durchsetzten, damit der
Nutzer nach objektiveren Kriterien seine ExpertensystemsheUs auswählen kann.
Zusammenfassend läßt sich also die Wissensakquisition flir Expertensysteme nur dann
wirtschaftlich und zuverlässig bewältigen, wenn die Erstellung und der Betrieb der Exper-
tensysteme nicht als isolierte Insellösungen, sondern als ein Teil der gesamtbetrieblichen
Informationsbereitstellungsaufgaben verstanden wird.
5 Ausblick
1. Alle Zusammenhänge und Anforderungen werden über ein Dictionary und das Opera-
ting System organisiert.
2. Es existiert ein Datenbanksystem mit den Bestandteilen formatierter und soweit wie
möglich nicht formatierter Informationen.
3. Das traditionelle Programmsystem greift auf Anforderung einzelner Benutzer auf die
Daten in der Datenbank zurück.
190 Jörg Biethahn
5. Ein Tool- und Sprachsystem steht zur Unterstützung aller Anwendungen zur Verfü-
gung.
Betriebliches Infonnationssystem
Programmsystem = 0
e 0
2
"'>.
Tool- I Sprachsystem "'"'
~
.B
Cl)
a:l
Wissensbasierte Systeme Benutzern
Diese Untergliederung dürfte durchaus nicht nur einen Blick in eine allzu ferne Zukunft
darstellen.
6 Literaturverzeichnis
Biethahn, J.; Hoppe, U., Vergleich von Tools zur Erstellung wissensbasierteT Systeme auf
der Basis der Entwicklung einer konkreten Applikation, in: Wissenbasierte Systeme in der
Betriebswirtschaft, hrsg. v. D. Ehrenberg, H. Krallmann, B. Rieger, Berlin 1990, S. 113-
132.
Gabler-Literatur
zum Thema "Wirtschaftsinformatik''
GABLER
BETRIEBSWIRTSCHAFTLICHER VERLAG DR. TH. GABLER, TAUNUSSTRASSE 54, 6200 WIESBADEN
Gabler-Uteratur
zum Thema "Wirtschaftsinformatik"
GABLER
BETRIEBSWIRTSCHAFTLICHER VERLAG DR. TH. GABLER, TAUNUSSfRASSE 54, 6200 WIESBADEN