Sie sind auf Seite 1von 186

Biethahn/Bloech/Bogaschewsky/Hoppe (Hrsg.

)
Wissensbasierte Systeme in der Wirtschaft 1991
Jörg BiethahnjJürgen Bloech/
Ronald BogaschewskyjUwe Hoppe (Hrsg.)

Wissensbasierte Systeme
in der Wirtschaft 1991
Anwendungen und Tools

SPRINGER FACHMEDIEN WIESBADEN GMBH


Prof. Dr. Jörg Biethahn lehrt Wirtschaftsinformatik und Operations Research an der Universität
Göttingen.
Prof. Dr. Jürgen Bloech lehrt Organisation und Leitung, Produktion und Operations Research an
der Universität Göttingen. ·
Dr. Ronald Bogaschewskyist Akademischer Rat an der Abteilung für Unternehmensplanung der
Universität Göttingen und arbeitet auf den Gebieten Produktion und Wirtschaftsinformatik.
Dipi.-Kfm. Uwe Hoppe ist wissenschaftlicher Mitarbeiter am Lehrstuhl Wirtschaftsinformatik an
der Universität Göttingen und arbeitet auf dem Gebiet der Wissensbasierten Systeme, insbesondere
der Entwicklungsmethodik und Applikationen.

Die Deutsche Bibliothek- CIP-Einheitsaufnahme

Wissensbasierte Systeme in der Wirtschaft 1991 :


Anwendungen und tools I Jörg Biethahn ... (Hrsg.).
ISBN 978-3-409-13809-3 ISBN 978-3-663-12855-7 (eBook)
DOI 10.1007/978-3-663- I 2855-7
NE: Biethahn, Jörg [Hrsg.]

Redaktion: Ronald Bogaschewsky, Uwe Hoppe

© Springer Fachmedien Wiesbaden 1991


Ursprünglich erschienen bei Betriebswirtschaftlicher Verlag Dr. Tb. Gabler GmbH, Wiesbaden 1991

Lektorat: Jutta Hauser-Fahr

Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede
Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne
Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für
Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeiche-
rung und Verarbeitung in elektronischen Systemen.

Höchste inhaltliche und technische Qualität unserer Produkte ist unser Ziel. Bei der Produktion und
Verbreitung unserer Bücher wollen wir die Umwelt schonen: Dieses Buch ist auf säurefreiem und
chlorarm gebleichtem Papier gedruckt. Die Einschweißfolie besteht aus Polyäthylen und damit aus
organischen Grundstoffen, die weder bei der Herstellung noch bei der Verbrennung Schadstoffe
freisetzen .

ISBN 978-3-409-13809-3
Vorwort der Herausgeber

Wissensbasierte Systeme gewinnen zunehmend Bedeutung in betrieblichen Anwendungen,


da mit Hilfe dieser Systeme Problemstellungen angegangen werden können, deren Lösung
mittels konventioneller BOY-Anwendungen nicht oder nur schlecht möglich war.

Aus diesen Gründen ist es zwingend notwendig, betriebliche Anwendungsmöglichkeiten


Wissensbasierter Systeme zu untersuchen. Dies muß sowohl in technischer als auch in
wirtschaftlicher Hinsicht erfolgen. Die hiermit verbundenen Aufgaben sind daher vielfäl-
tig, wie z.B. die Durchführung von Kosten-Nutzen-Analysen und Akzeptanzvergleichen
sowie die mit der Entwicklung von Wissensbasierten Systemen verbundenen Tätigkeiten
wie Wissensakquisition, Auswahl von Wissensrepräsentationsformen und -Verarbeitungs-
techniken, Auswahl von Tools und Programmiersprachen sowie die Entwicklung von Vor-
gehensmodellen zur Entwicklung Wissensbasierter Systeme. Ein wichtiges Thema ist die
Einbindung Wissensbasierter Systeme in ihre Einsatzumgebung, d.h. vor allem in betrieb-
liche Abläufe mit den beteiligten Menschen sowie die Verknüpfung mit bestehenden
informationsverarbeitenden Systemen.

Aus der Breite der hiermit verbundenen Problemstellungen wird deutlich, daß eine umfas-
sende Beschäftigung mit dem Thema Wissensbasierte Systeme im betrieblichen Einsatz
die Disziplinen Betriebswirtschaftslehre und Informatik gleichermaßen angeht.

An der Universität Göttingen wurde vor einigen Jahren mit der Gründung des Arbeitskrei-
ses für Wissensbasierte Systeme (GAWS) eine Institution ins Leben gerufen, die der
Koordinierung, Förderung und Weiterentwicklung der wissenschaftlichen Arbeiten im
Bereich Wissensbasierter Systeme und deren Grundlagen sowie angrenzender Gebiete
dient.

Im Herbst 1989 fand das erste Symposium des GAWS in Göttingen statt. Der große Erfolg
ermunterte die Veranstalter im Januar 1991 eine weitere Vortragsveranstaltung dieser Art
abzuhalten, aus dem der vorliegende Tagungsband entstand. Das auch bei dieser Veran-
staltung zu beobachtende große Interesse der zahlreichen Teilnehmer führte zu der
Absicht, ein solches Symposium jährlich abzuhalten. Für das Frühjahr 1992 ist daher das
dritte Symposium des GAWS in der Vorbereitungsphase.

Die Herausgeber
Autorenverzeichnis

Prof Dr. Jörg Biethahn

Institut für Unternehmensführung, Besteuerung und Wirtschaftsinformatik


Abteilung Wirtschaftsinformatik I
Platz der Göttinger Sieben 7
D-3400 Göttingen
Tel.: 0551/394440
Fax.: 0551/399679

Forschungs gebiete:
Simulation, Ganzheitliches Informationsmanagement, Gestaltung von Expertensystemen

Prof Dr. Jürgen Bloech

Institut für Betriebswirtschaftliche Produktions- und Investitionsforschung


Abteilung für Unternehmensplanung
Platz der Göttinger Sieben 3
D-3400 Göttingen
Tel.: 0551/397257
Fax.: 0551/399343
E-mail: BLOECH at DGOWISOl.EARN

Forschungs gebiete:
Materialwirtschaft, Logistik, Produktionsplanung, Unternehmensplanung, Operations
Research, Unternehmenssimulation

Dr. Ronald Bogaschewsky

Institut für Betriebswirtschaftliche Produktions- und Investitionsforschung


Abteilung für Unternehmensplanung
Platz der Göttinger Sieben 3
D-3400 Göttingen
Tel.: 0551/398193
Fax.: 0551/399343
E-Mail: BOGA at DGOWISOl.EARN

Forschungsgebiete:
Materialwirtschaft, Logistik, Produktionsplanung und -Steuerung, PPS-Systeme, Wissens-
basierte Systeme, Hypermedia, Strategischer Einsatz von Informationstechnologie
7

Dr. Roland Heuermann

Institut für Psychologie


Goßlerstraße 14
D-3400 Göttingen

Forschungsgebiete:
Kognitive Leseforschung, Automation von psychologischen Fragebogentests, Personen-
analyse, Automatisierte Wissensakquisition

Dip/. Kfm. Uwe Hoppe

Institut für Untemehmensführung, Besteuerung und Wirtschaftsinformatik


Abteilung Wirtschaftsinformatik I
Platz der Göttinger Sieben 7
D-3400 Göttingen
Tel.: 0551/394438
Fax.: 0551/399679
E-Mail: HOPPE at DGOWISOl.EARN

Forschungs gebiete:
Methodologien des Knowledge Engineering, Tools zur Entwicklung von Wissensbasierten
Systemen, Einsatz von Wissensbasierten Systemen in Kreditinstituten, Hypertext/ Hyper-
media-Systeme

Dr. Thomas Kretschmar

AXON EDV-Untemehmensberatung GmbH


Hannoversche Str. 53a
D-3400 Göttingen
Tel.: 0551/503880

Forschungsgebiete:
Wissensbasierte Diagnostik in Medizin und Betriebswirtschaftslehre, Recyclebare Exper-
tensysteme, Objektorientierte CASE-Tools, Intelligente Simulation
g

Prof. Dr. Matthias Schumann

Institut für Unternehmensführung, Besteuerung und Wirtschaftsinformatik


Abteilung Wirtschaftsinformatik II
Platz der Göttinger Sieben 7
D-3400 Göttingen
Tel.: 0551/394442
Fax.: 0551/399679

Forschungsgebiete:
Informationsmanagement, Nutzeffekte betrieblicher Datenverarbeitung, Gestaltung von
CIM-Konzepten, Wissensbasierte Systeme, Einsatz Neuronaler Netze für betriebswirt-
schaftliche Aufgabenstellungen

Hans-Ulrich Wandel, M.BA.

Institut für Betriebswirtschaftliche Produktions- und Investitionsforschung


Abteilung für Unternehmensplanung
Platz der Göttinger Sieben 3
D-3400 Göttingen
Tel.: 0551/397257
E-Mail: WANDEL at DGOWISOl.EARN

Forschungs gebiete:
Expertensysteme in der strategischen Planung, Auswirkungen des EG-Binnenmarktes auf
mittelständische Unternehmen
Inhaltsverzeichnis

Wissensbasierte Systeme in der Betriebswirtschaft


2. Symposium des Göttinger Arbeitskreises für
Wissensbasierte Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .11

Prof Dr. Jürgen Bloech, Dr. Ronald Bogaschewsky

Neuronale Netze zur Entscheidungsunterstützung in der Betriebswirtschaft ..... 21

Prof Dr. Matthias Schumann

S*P*A*R*K
Ein wissensbasiertes System zur Identifizierung strategischer Einsatz-
möglichkeiten von Informationen und Informationstechnologie . . . . . . . . . . . . . 51

Dr. Ronald Bogaschewsky

Probleme bei der Evaluation von Tools zur Wissensakquisition . . . . . . . . . . . . . 85

Dr. Roland Heuermann

Ein Rahmenmodell für den Einsatz Wissensbasierter Systeme


Projekterfahrungen mit einem Wissensbasierten System zu Förderhilfen im
Handwerk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

Hans-Uirich Wandel, M.B.A.

ABASS- Ein wissensbasierter Anlageberatungsassistent


Modellbasierte Entwicklung eines Expertensystems unter Verwendung eines
systematischen Vorgehensmodells . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129

Dipl.-Kfm. Uwe Hoppe

Abstrakte Datentypen zur flexiblen Wissensrepräsentation und -Verarbeitung ... 171

Dr. Thomas Kretschmar

Ein Ansatz zur systematischen Wissensverarbeitung auf der Basis der


Erfahrungen beim Einsatz von XPS-Shells . . . . . . . . . . . . . . . . . . . . . . . . . 183

Prof Dr. Jörg Biethahn


Wissensbasierte Systeme in der Betriebswirtschaft
2. Symposium des Göttinger Arbeitskreises für Wissensbasierte Systeme

Prof Dr. Jürgen Bloech, Dr. Ronald Bogaschewsky

Institut für Betriebswirtschaftliche Produktions- und Investitionsforschung der


Georg-August-Universität Göttingen
Jürgen Bloech, Ronald Bogaschewsky 13

Betriebswirtschaftliche Anwendungsbereiche Wissensbasierter Systeme

Wissensbasierte Systeme besitzen seit jeher eine relativ große Bedeutung im Rahmen des
Forschungsgebietes der Künstlichen Intelligenz, besonders im Hinblick auf Anwendungen
und den konkreten Einsatz in der Praxis. Insbesondere die berühmt gewordenen Diagnose-
systeme (Puppe 1986) wie das in Stanford von Buchanan und Shortliffe entwickelte
System MYCIN zur Diagnose- und Behandlungsunterstützung bei Menengitis und bakteri-
ellen Infekten (Buchanan/Shortliffe 1984) oder das System DEX.C3 zur Fehlerdiagnose in
automatischen Getrieben bei Ford (Henne/Klar/Wittur 1985), und Konfigurationssysteme
wie das System R1 bzw. XCON von Digital Equipment (McDermott 1982) haben hierzu
beigetragen. Inzwischen existieren weltweit zahlreiche erfolgreiche Anwendungen.

Wissensbasierte Systeme gewinnen in jüngster Zeit auch zunehmend in der Be-


triebswirtschaft an Bedeutung. Es existieren Ansätze zur Integration Wissensbasierter
Systeme in Entscheidungsunterstützungssysteme (Hruschka 1988) bzw. Decision-Support-
Systeme (Ligeza 1988; Hruschka 1988a), zur Bewertung ganzer Unternehmungen
(Sieben/Bönig/Hafner 1986; Schumann/Wittmann/Mertens 1986), und zum Einsatz in ver-
schiedensten betrieblichen Teilbereichen (Mertens/Borkowski/Geis 1990; Ehren-
berg/Krallmann/Rieger 1990).

Das 2. Symposium des Göttinger Arbeitskreises für Wissensbasierte Systeme (GAWS)


konzentriert sich auf Wissensbasierte Systeme in der Betriebswirtschaft. Insbesondere
werden Anwendungsgebiete aufgezeigt, Applikationen vorgestellt, Probleme der Wis-
sensakquisition und Tools zur Erstellung Wissensbasierter Systeme diskutiert.

In betriebswirtschaftliehen Funktionsbereichen schreitet die Anwendung Wissensbasierter


Systeme noch relativ zögernd fort. Dies liegt auch daran, daß viele verantwortliche Mana-
ger den zukünftigen Nutzen und die Einsatzmöglichkeiten noch nicht erkennen können.

In den Zielsystemen der Manager überwiegen der Ausbau wirtschaftlich nutzbarer Po-
tentiale wie Ertragskraft und Finanzkraft der Unternehmung, soweit strategische Zielsy-
steme angesprochen sind, und die Erzielung von Gewinn, Rentabilität und Kostenminima,
soweit operative Zielrichtungen festgelegt werden. Soweit zu erkennen ist, daß Wissensba-
sierte Systeme Unternehmensziele wirksam unterstützen, sind sie attraktiv für den Einsatz
und die Vorbereitung in den Wirtschaftseinheiten.

Anwendungsgebiete wie

Vertriebsbereiche, Export
Qualitätssicherung
Beschaffungsbereiche
Materialwirtschaft
Logistik
Produktion
Produktionsplanung und -Steuerung
Produktentwicklung
14 Wissensbasierte Systeme in der Betriebswirtschaft

Marktdiagnose
Bilanzanalyse
Forschung und Entwicklung sowie Innovation
Investition, Finanzierung
Strategische Allianzen
JointVentures
Mitarbeiterqualifikationen
Standorte und Verteilungen

sind im Hinblick auf den Einsatz von Wissensbasierten Systemen besonders intensiv zu
untersuchen.

Es geht dabei um das Erkunden

neuer Absatzmöglichkeiten aus der Diagnose der Marktumsysteme,


neuer Beschaffungsmöglichkeiten aus der Diagnose der Beschaffungsumsysteme,
neuer Finanzstrukturen aus der Diagnose der Kredit- und Kapitalmärkte,
neuer Produktionsmöglichkeiten aus der Diagnose der Produktstrukturen, Produkti-
onsprozesse und Technologien,
neuer Organisationsstrukturen aus der Diagnose der Aufgaben, Mittel und gestaltbarer
Systeme,
neuer Abläufe aus der Diagnose der Aufgaben, Strukturen, Personalpotentiale, Soll-
größen und Abweichungen

und weiterer Bereiche.

Weiterhin können Wissensbasierte Systeme die Fertigungssteuerung bei komplexen Pro-


duktionsstrukturell sinnvoll unterstützen und als Zu- bzw. Abgangssysteme bei der Nut-
zung von Softwaresystemen, z.B. Produktionsplanungs- und -steuerungssystemen, dienen.

In den hochindustrialisierten und zugleich dichtbesiedelten Ländern unserer Erde treten


Fragestellungen auf, die den Wohlstand, die Lebensqualität und die Freiheit der Bevöl-
kerung betreffen.

Materialbedarf, Materialverbrauch, Flächenbedarf, Abfallentstehung und Entsorgung,


Energieverbrauch und Umwelterhaltung sprechen Probleme an, deren Lösung auch ein
Anliegen der Unternehmungen ist. Die Unternehmen gehören zu der Gruppe der Insti-
tutionen, welche einen Teil der Probleme schaffen.
Soweit Wissensbasierte Systeme den Faktorverzehr reduzieren oder die Umwelterhaltung
fördern können, stellen sie ein wertvolles Instrumentarium für die Lösung diesbezüglicher
Probleme dar.
Teilweise können Zielsetzungen der Umwelterhaltung, des Materialeinsatzes, der Pro-
duktion und Logistik sowie der Investition so in die entstehenden Wissensbasierten Sy-
steme einbezogen werden, daß sie zusammen mit den oben angesprochenen betrieblichen
Bereichen integriert sind.
Jürgen Bloech, Ronald Bogaschewsky 15

Es treten jedoch auch Entwicklungsnotwendigkeiten der Art auf, die neue eigene Wis-
sensbasen benötigen.
Dazu gehören Flächennutzungen, Standortprobleme, Infrastrukturentwicklungen, neue
Technologien und Materialentwicklungen und ähnliche Fragestellungen.
Im Bereich der Aus- und Weiterbildung in und über betriebswirtschaftliche Komplexe
wird die Nutzung Wissensbasierter Systeme ebenfalls zunehmen und dabei zwei Zielsy-
stemen dienen können, den Unternehmenszielen und· den Individualzielen der Personen.
Auch hier gibt es noch neue Wege zu erkennen und zu beschreiten.

Beispielhaft seien aufgeführt:

Ausbildungen in

Rechnungswesen und Controlling


Optimalplanung
Strategische Planung
Unternehmensdiagnose
Marktdiagnose
Förderungssysteme
Investitions- und Standortplanung, usw.

Durch die Integration von Unternehmenssimulationen und Wissensbasierten Systemen läßt


sich auch die Qualität der Entscheidungsvorbereitung beeinflussen.
In welche Richtungen weisen die anstehenden Vorträge beim 2. Symposium des Göttinger
Arbeitskreises für Wissensbasierte Systeme (GAWS) ?

Kurzbeschreibung der Symposiumsbeiträge

Matthias Schumann greift mit Neuronalen Netzen ein Themengebiet auf, das in Forschung
und Anwendung noch weitgehend in den Kinderschuhen steckt. Allerdings eröffnen diese
Konnektionistischen Systeme zum Teil Anwendungsmöglichkeiten, die herkömmliche
Wissensbasierte Systeme nicht bieten. Die Forschung im Bereich Neuronaler Netze ist da-
bei interdisziplinär ausgerichtet und beschäftigt Informatiker, Physiker, Mathematiker,
Biologen, Mediziner und Psychologen gleichermaßen. Ein Hauptaspekt der Forschungen
liegt in der Lernfähigkeit dieser Systeme.

Der Beitrag beschäftigt sich mit den Möglichkeiten, inwieweit Neuronale Netze zur Lö-
sung betriebswirtschaftlicher Probleme beitragen können. Dabei bieten sich in erster Linie
Problemstellungen an, die nicht auf der Basis exakt beschreibbaren Wissens gelöst werden
können. Schumann klassifiziert die bisherigen Anwendungen in Prognosesysteme, Beur-
teilungssysteme, Planungsprobleme und Steuerungssysteme und stellt dazu ausgewählte
Anwendungsgebiete vor.
16 Wissensbasierte Systeme in der Betriebswirtschaft

Die Chancen des Einsatzes Neuronaler Netze werden vor allem in Aufgabenstellungen
gesehen, die dem Bereich der Mustererkennung zuzuordnen sind, oder wo die Lernfä-
higkeit der Systeme Vorteile gegenüber konventionellen Wissensbasierten Systemen
bietet Die Grenzen Konnektionistischer Systeme werden anhand allgemeiner Proble-
matiken, wie z.B. die der Überprüfbarkeit der internen "Wissensstruktur" und des großen
"Trainingsaufwands" bei der Erstellung des Netzes, und anhand spezifischer Probleme,
wie der schnellen Änderung von Sachverhalten bei betriebswirtschaftliehen Aufgaben,
aufgezeigt.
Betriebswirtschaftliche Aufgabenstellungen, die durch den Einsatz Neuronaler Netze even-
tuell besser gelöst werden könnten als mit den bisher verwendeten Hilfsmitteln wie Diskri-
minanzanalysen, Simulationen und heuristischen Verfahren, sind Insolvenzprognosen im
Bereich der Jahresabschlußanalyse, Beurteilung von Investitionsrisiken, Vorabselektion
von Stellenbewerbern, Auswahl von Prioritätsregeln in der Werkstattsteuerung, Umdispo-
sitionen in der Reihenfolgeplanung, Personalemsatzplanung bei Schichtbetrieb und Tou-
renzuordnungsplanung.

Ronald Bogaschewsky stellt mit S*P*A*R*K ein Wissensbasiertes System vor, das bei der
Identifizierung strategischer Einsatzmöglichkeiten von Informationen und Informations-
technologie (I/T) unterstützen soll. Das System wurde am Los Angeles Scientific Center
der IDM, an dem der Autor von August 1989 bis August 1990 mitarbeitete, konzipiert.

Der Einsatz von Informationstechnologie zur Erzielung von Wettbewerbsvorteilen gewinnt


zunehmend an Bedeutung und kann als logische Konsequenz der zunehmenden Bedeutung
des Faktors Information und die in diesem Zusammenhang zum Einsatz kommenden
Technologien gesehen werden.
Betriebliche Entscheidungsträger stehen vor einer schwer lösbaren Aufgabe, wenn nach
strategischen, d.h. den Betrieb bzw. seine Wettbewerbssituation nachhaltig positiv
beeinflussende, Einsatzmöglichkeiten von IIT gesucht werden soll. Erfahrungen sind für
diese Aufgabe häufig nicht intern verfügbar und die Hinzuziehung qualifizierter externer
Berater ist sehr kostenintensiv und mit Vertraulichkeitsproblemen behaftet.
S*P*A*R*K versucht hier Unterstützung zu bieten, indem das System eine wis-
sensbasierte Komponente (Facilitator), die Strategieempfehlungen geben kann, mit einer
umfangreichen multimedialen Beispieledatenbank und einer Lernkomponente (Teacher),
die die im Facilitator eingesetzten Analysetechniken und Konzepte verdeutlicht, integriert.
Im Facilitator kommen dabei mehrere, der Literatur entnommene Analysetechniken zum
Einsatz, die parallel an der jeweiligen Analyse arbeiten können. Auf die Beispieledaten-
bank, die mit vertonten Darstellungen unterlegte, statische und dynamische Grafiken ent-
hält, kann direkt über eine Auswahlfunktion (Browser) und in Zusammenhang mit dem
Facilitator, nach einer Strategieempfehlung, zugegriffen werden. Der Teacher wurde basie-
rend auf dem Hypertext-Konzept realisiert.
Jürgen Bloech, Ronald Bogaschewsk:y 17

Der Facilitator wurde in der Programmiersprache C++ realisiert. Zur Definition des
Wissens wurde eine Knowledge Representation Langnage (KRL) entwickelt. die in hy-
brider Weise Frames, Regeln und Prozeduren vereinigt. Der entwickelte KRL-Translator
dient der Übersetzung von in der KRL beschriebenem Wissen in C++-Code. Die Abarbei-
tung des Wissens erfolgt nach dem Backchaining-Prinzip, wobei durch Realisierung eines
Blackboard-Ansatzes gleichzeitig mehrere Analysetechniken aktiviert sein können.
Weiterhin ist die Erstellung von Szenarios möglich.

Roland Heuermann berichtet über Probleme bei der Evaluation von Tools zur Wis-
sensakquisition. Mit der Wissensakquisition ist eine sehr zeitaufwendige und kostenin-
tensive Phase bei der Erstellung WissensbasierteT Systeme angesprochen. Des weiteren
wird in dieser Phase die Qualität des Systems maßgeblich bestimmt. Zur Erfassung und
Strukturierung von Wissen werden heute teilweise hierfür konzipierte Tools eingesetzt
Diese sind jedoch zum Teil spezifisch für bestimmte Problemtypen der Wissensverarbei-
tung oder sogar an einzelne Entwicklungsumgehungen gebunden.

Die Beurteilung von Wissensakquisitionstools wird anband standardisierter Be-


wertungskriterien vorgenommen. Dabei ist auf eine sinnvolle Zusammenstellung von Kri-
terien zu achten. Das Untersuchungsobjekt bezieht sich auf die unterschiedlichen Ei-
genschaften des jeweiligen Tools, die zu bewerten sind. Als Meßverfahren sind z.B. Re-
liabilität, Validität und Nützlichkeit denkbar. Schließlich ist der Maßstab für eine quali-
tative Beurteilung festzulegen. Weiterhin ist die zugrundeliegende Methodolgie der
Wissensakquisition zu berücksichtigen.

Bärbel Heller berichtet über Erfahrungen bei der Entwicklung eines Diagnosesystems unter
Verwendung einer kommerziellen Expertensystem-Shell. Ein konkretes Projekt befaßte
sich mit der Bluthochdruck-Therapie, wobei die bei der Entwicklung des Systems
gewonnenen Erfahrungen auf betriebswirtschaftliche Diagnosesysteme übertragbar sind.
Die eingesetzt Shell war Expert System Environment (ESE) von IBM, das auf Mainframes
unter den Betriebssystemen VM und MVS und in einer Runtime-Versionauch auf PS/2
unter DOS verfügbar ist. Der Beitrag lag leider zum Zeitpunkt der Drucklegung des
Tagungsbandes noch nicht vor.

Ulrich Wandel stellt mit HAFÖX ein Wissensbasiertes System vor, das zum Auffinden von
Förderprogrammen im Handwerkswesen dient. Dabei wird die optimale aus einer sehr
großen Zahl möglicher Kombinationen von Fördermöglichkeiten gesucht. Zur Im-
plementierung des Systems wurde Projector-11 verwendet, eine Shell, die Wissen in Form
eines semantischen Netzes speichert.

Wandel stellt in seinem Beitrag Vor- und Nachteile bei der alternativen Verwendung von
Shells und Programmiersprachen bzw. bei Verwendung hybrider Systeme zur Erstellung
WissensbasierteT Systeme gegenüber. In die Bewertung werden auch Kosten-Nutzen-
Aspekte einbezogen.
18 Jürgen Bloech, Ronald Bogaschewsky

Uwe Hoppe stellt den Wissensbasierten Anlageberatungsassistenten ABASS vor, der die
Vermögensanlageberatung in Kreditinstituten unterstützt. Das System ist im Rahmen einer
Kooperation zwischen der Abteilung für Wirtschaftsinformatik der Universität Göttingen
und einem Göttinger Kreditinstitut während einer 15-monatigen Entwicklungszeit entstan-
den.

Die Methodik, die der Entwicklung von ABASS zugrundegelegt wurde, basiert auf einem
Vorgehensmodell zur Entwicklung Wissensbasierter Systeme in Anlehnung an Kurbel so-
wie auf der Erstellung eines Konzeptuellen Modells im Sinne einer implemen-
tationsunabhängigen Darstellung der Expertise auf hohem Abstraktionsniveau.
Aus den unterschiedlichen Darstellungsformen Konzeptueller Modelle wurde das auf der
"Vier-Ebenen-Theorie" der KADS-Methodologie beruhende Modell ausgewählt, da es eine
konzeptuelle Beschreibungssprache im Rahmen einer geschlossenen Methodologie zur
Verfügung stellt.
Das Vorgehensmodell wird, nach Integration des Konzeptuellen Modells, der systemati-
schen Darstellung des Projektverlaufs unterlegt. Im Rahmen der Konzeptionsphase werden
Aspekte der Durchführbarkeit von Expertensystem-Projekten sowie der Analyse des gene-
rischen Problemtypen behandelt Die Wissenserhebung und -analyse ist im wesentlichen
durch die Erstellung des Konzeptuellen Modells gekennzeichnet. Die Beschreibung der
Implementierungsphase beinhaltet eine Kurzdarstellung des verwendeten Tools XiPlus
sowie Aspekte der Operationalisierung und Modularisierung.

Der bisherige Stand des Projekts ist das Ergebnis des ersten Entwicklungszyklus. Der ab-
schließende Ausblick verdeutlicht Aspekte zukünftig nachfolgender Entwicklungszyklen.

Thomas Kretschmar behandelt Probleme der flexiblen Wissensrepräsentation und -Verar-


beitung. Ausgehend von der Problemstellung, daß bei der Erstellung Wissensbasierter
Systeme häufig zu sehr die für den Entwickler verfügbare oder vertraute Entwicklungs-
umgebung im Vordergrund steht, wird eine Wissensrepräsentationsform vorgeschlagen,
die auf abstrakten Datentypen basiert. Auf Basis der definierten abstrakten Datentypen
wird dann die Problemlösungsstrategie beschrieben. Eine Konkretisierung des Wissens
und der Inferenzstrategie findet automatisch und erst zum Zeitpunkt der Verarbeitung statt.

Dieses Konzept wurde unter Ableitung allgemeingültiger Mechanismen der Wissens-


verarbeitung erstellt und in der Programmiersprache C++ implementiert. Am Beispiel
eines Wissensbasierten Systems zur Kreditwürdigkeitprüfung wird das vorgelegte Konzept
verdeutlicht.
Wissensbasierte Systeme in der Betriebswirtschaft 19

Literaturverzeichnis

Buchanan, B.G.; Shortliffe, E.H. (1984), Rule Based Expert Systems: The MYCIN Expe-
riments of the Stanford Heuristic Programming Project, Reading.

Ehrenberg, D.; Krallmann, H.; Rieger, B. (Hrsg.) (1990), Wissensbasierte Systeme in der
Betriebswirtschaft, Berlin.

Henne, P.; Klar, W.; Wittur, K.-H. (1985), Dex.C3 - Ein Expertensystem zur Fehlerdia-
gnose im automatischen Getriebe, in: Brauer, W.; Radig, B. (Hrsg.): Wissensbasierte
Systeme- 01-Kongreß 1985, Berlin.

Hruschka, H. (1988), Neuere Ansätze der Repräsentation von Methoden- und Modell-
wissen in betriebswirtschaftliehen Entscheidungsunterstützungssystemen, in: Ange-
wandte Informatik, Heft 4, S.158-176.

Hruschka, H. (1988a), Use of fuzzy relations in rule-based decision support systems for
business planning problems, in: European Journal of Operational Research 34, S.326-
335.

Ligeza, A. (1988), Expert systems approach to decision support, in: European Journal of
Operational Research 37, S.100-110.

McDermott, J. (1982), A Rule-Based Configurer of Computer Systems, in: Artificial In-


telligence 19, S.39-88.

Mertens, P.; Borkowski, V.; Geis, W. (1990), Betriebliche Expertensystem-Anwendungen,


2.Aufl., Berlin.

Puppe,F. (1986), Diagnostik-Expertensysteme, in: Informatik Spektrum 9, S.293-308.

Schumann, M.; Wittrnann, S.; Mertens, P. (1986), Expertensysteme zur Unterstützung des
Wirtschaftsprüfers?, in: Betriebswirtschaftliche Forschung und Praxis 6, S.517-531.

Sieben, G.; Bönig, W.; Hafner, R. (1986), Expertensysteme zur Bewertung ganzer Unter-
nehmen?, in: Betriebswirtschaftliche Forschung und Praxis 6, S.532-549.
Neuronale Netze zur Entscheidungsunterstützung in der
Betriebswirtschaft

Prof Dr. Matthias Schumann

Abteilung Wirtschaftsinformatik Il
der Georg-August-Universität Göttingen
Inhaltsverzeichnis

1 Einführung 23

2 Grundlagen Neuronaler Netze 23

2.1 Begriff und Elemente 23

2.2 Beschreibungsmerkmale Neuronaler Netze 26

2.2.1 Typologie 27

2.2.2 Lernstrategien 28

2.3 Allgemeine Anwendungsfelder Neuronaler Netze 30

3 Einsatz Neuronaler Netze in der Betriebswirtschaft 31

3.1 Überblick 31

3.2 Ausgewählte Anwendungsbeispiele 31

4 Beurteilung des Einsatzes Neuronaler Netze in der Betriebswirtschaft 34

4.1 Allgemeine Aspekte beim Einsatz Neuronaler Netze im betriebs-


wirtschaftlichen Bereich 34

4.2 Chancen des Einsatzes Neuronaler Netze im betriebswirtschaftliehen


Bereich 35

4.3 Grenzen des Einsatzes Neuronaler Netze im betriebswirtschaftliehen


Bereich 37

5 Zukünftige Forschungsbereiche 39

6 Literaturverzeichnis 48
Mattbias Schumann 23

1 Einführung

In der Informatik findet man in jüngerer Zeit verstärkt Publikationen, die sich mit der Idee
beschäftigen, intelligente Maschinen nach dem Vorbild des menschlichen Gehirns zu
bauen. Für die sogenannten "Neuronalen Netze" oder auch "Konnektionistischen Systeme"
erkunden Informatiker, Physiker, Mathematiker, Psychologen, Biologen usw. den Aufbau
und die Einsatzmöglichkeiten. Es interessiert dabei besonders, wie man die Lernfähigkeit
derartiger Systeme nutzen kann.

Nachfolgend wird untersucht, ob solche Anwendungen auch dazu beitragen können, be-
triebswirtschaftliche Problemstellungen zu lösen. Eine erste, allerdings noch geringe Zahl
an Beispielen liegt mittlerweile vor.

Ausgehend von einer Einführung in Neuronale Netze werden ausgewählte Beispiele des
betriebswirtschaftliehen Bereichs skizziert. Für die dabei identifizierten Aufgabenbereiche
findet dann eine Abschätzung von Chancen und Grenzen des Neuronalen Netz-Einsatzes
statt. Schließlich wird versucht, weitere potentielle Einsatzbereiche für Neuronale Netze in
der Betriebswirtschaft aufzuzeigen.

2 Grundlagen Neuronaler Netze

2.1 Begriff und Elemente

Konnektionistische Systeme lassen sich auf Forschungsarbeiten der Neurophysiologie zu-


rückführen, in denen die These vertreten wird, daß die Informationsverarbeitung im Ner-
vensystem im wesentlichen auf der Übertragung von "Erregungen" zwischen sogenannten
Neuronen beruht. Die Nervenzellen unterscheiden dabei als einzelnes Element nur wenig
Zustände und senden im allgemeinen dann, wenn gewisse Schwellenwerte oder
"Erregungszustände" überschritten werden, Reize über die Synapsen an andere Nerven-
zellen aus, die dort zu Veränderungen des Erregungszustandes führen. Komplex wird
dieses Verhalten durch die hohe Zahl der Zellen sowie die Vielzahl der Verknüpfungen
zwischen ihnen. So werden aus relativ simplen Einzelelementen äußerst komplexe
Gesamtstrukturen.

Konnektionistische Netzwerke der Neuroinformatik versuchen diese Gestaltungsformen


aufzugreifen. Interessant ist dabei insbesondere, daß man auch hier auf einfache Verarbei-
tungselemente setzt, wobei man die Komplexität durch die Vemetzung zwischen den
einzelnen Elementen erzielt. Insbesondere wird versucht, Systeme zu bauen, die durch das
Zuführen möglichst vieler Beispielfälle weitgehend selbständig lernen. Außerdem sollen
massiv parallele Verarbeitungsprozesse genutzt werden. Erste Ansätze gehen bereits auf
das Ende der 40er, Anfang der 50er Jahre zurück. Die Forschungsrichtung wurde dann
allerdings vorübergehend nicht weitergeführt, nachdem Minsky, einer der Väter der
24 Neuronale Netze zur Entscheidungsunterstützung

Künstlichen Intelligenz, sich 1969 in seinem mit Papert herausgegebenen Buch


"Perceptrons" kritisch zu den Erfolgsaussichten äußerte (Minsky/Papert 1969).

Das Verhalten solcher künstlicher Systeme sowie ihr Aufbau sollen nachfolgend stark
vereinfacht an einem kleinen Beispiel erläutert werden.

An der Universität Singapur hat man ein Neuronales Netz zur Berufsberatung von Schul-
und Hochschulabsolventen entwickelt (Kin/Hwee 1989). Hintergrund war dabei, daß die
Berufsberatung aufgrund der hohen Zahl Ratsuchender völlig überlastet war. Man hatte ein
typisches Massenproblem zu lösen.

Auf der Basis einer Befragung des zu Beratenden, in bezug auf seine Interessen, seine
Fähigkeiten und seine Ausbildung sowie seine Einstellung zu gewissen Berufsgruppen,
unterbreitet das Neuronale Netz einen Vorschlag flir die Berufswahl. Dazu werden ca. 85
Faktoren erhoben und aus fast 300 Berufen ausgewählt.

Man mag nun unter sozialen Aspekten viel Negatives in einer solchen Beratungsform
sehen. Die Autoren des Systems berichteten jedoch auf einer Konferenz im eigenen Land,
wo die Anwendung überhaupt viel Publizität erlangt hat, von einem erfolgreichen Einsatz.

Für den Anwender stellt sich das System als Black Box dar, für die er sein Profil
beschreibt, das weitgehend in der Form von binären Ja/Nein-Entscheidungen in das Netz
eingegeben wird. Er erhält dann vom Neuronalen Netz den ermittelten Berufsvorschlag.

Schaut man sich den internen Aufbau des Systems genauer an, so zeigen sich allerdings
komplexe Strukturen.

Die Verarbeitungselemente der Neuronalen Netze sind Zellen, Neuronen oder


Prozessorelemente. Jedes Element kann Input-Signale empfangen, die im wesentlichen
von vorgelagerten Zellen stammen. Netzabhängig können diese Signale die Werte 0/1 oder
einen kontinuierlichen Wert innerhalb eines vorgegebenen Intervalls annehmen. Ein Pro-
zessorelement gibt dabei genau ein Signal aus, welches an andere Elemente weitergeleitet
wird. Abbildung 1 beschreibt die Grundstruktur.

Die Neuronen sind in einzelnen Schichten angeordnet, die neben der Ein- und Ausga-
beschicht auch aus zusätzlichen Zwischenschichten bestehen können. Die Eingabe- und
Ausgabeschichten kommunizieren mit der Umwelt. Verbindungen bestehen nur zwischen
Neuronen verschiedener Schichten. Die Stärke jeder Verbindung wird in dem künstlichen
Netz durch ein sogenanntes "Verbindungsgewicht" festgelegt. Eingabeinformationen
werden von der Eingabeschicht über die Zwischenschichten in die Ausgabeschicht und die
zugeordneten Ergebnisse transformiert.

Dazu wird der Output eines Neurons mit Hilfe einer "Propagierungs-" oder "Über-
tragungsfunktion", einer Aktivierungs- und einer Ausgabefunktion bestimmt (Hecht-
Nielsen 1988, S. 37 ff.). Im einfachsten Fall ermittelt die Propagierungsfunktion die Stärke
des Eingangssignals, indem sie die Output-Signale der vorgelagerten Zellen mit den
Mattbias Schurnano 25

zugehörigen Verbindungsgewichten multipliziert und aufsummiert. Für jedes Pro-


zessorelement ist der Aktivierungszustand in einem Speicher abgelegt. Die Aktivierungs-
funktion berechnet aus der Stärke des Eingangssignals und dem vorhandenen Aktivie-
rungszustand den jeweils neuen Aktivierungszustand. Die Ausgabefunktion bestimmt
schließlich die Stärke des Signals an die nachfolgenden Zellen. Häufig wird einfach ein
Schwellenwert mit dem Aktivierungszustand verglichen. Teilweise kann auch der Aktivie-
rungszustand mittels eines solchen Schwellenwertes bestimmt werden. Das folgende einfa-
che Beispiel veranschaulicht die Zusammenhänge (freleaven 1989, S. 5 ff.):

Eingaben Verbindungen Ausgaben

technisches l!ltN
Interesse

spiele
Musik- I!~ Pilot
instrument

Brillen- I!~
träger

Eingabe- Zwischen- Ausgabe-


schicht schicht schicht

Abb.l: Elemente eines Neuronalen Netzes

Die Inputsignale (I) und das Outputsignal (0) können nur die Werte 0 oder 1 annehmen.
Die Gewichte (g) liegen im Bereich zwischen 0 und 1 der Aktivierungszustand (AZ) sei
eine beliebige nicht-negative Zahl und der Schwellenwert (S) der Ausgabefunktion (AGF)
sei auf 1 gesetzt.

g1 = 0,5 AZakt= 1
g2 = 1,0 S=1
g3 = 0,3

Die Propagierungsfunktion (PF) ermittelt den Propagierungswert (PW), indem sie für alle
Inputströme das Produkt aus Inputwert und Gewicht summiert, die Aktivierungsfunktion
(AF) mittelt den Propagierungswert und den aktuellen Aktivierungszustand (AZakt>· Falls
der neue Aktivierungszustand (AZneu) kleiner als der Schwellenwert ist, wird dem Output
der Wert= 0 zugeordnet, sonst 1. Damit erhält man folgenden Outputwert:
26 Neuronale Netze zur Entscheidungsunterstützung

PF: PW=I1 *g1 +I2*g2+I3*g3=1*0,5+0*1,0+1*0,3 =0,8


AF: AZneu = (PW + AZakt)/2 = (0,8 + 1)/2 = 0,9
AGF: AZneu < S; 0,9 < 1 ==> 0 = 0

Abbildung 2 beschreibt den Verarbeitungsablauf. Für die Aktivierung eines Neurons


bilden damit die Verbindungsgewichte eine maßgebliche Komponente. Es werden in der
Regel komplexere Propagierungsfunktionen eingesetzt. Abbildung 3 zeigt weitere Alter-
nativen. Aufwendige Funktionen können zeitliche Abhängigkeiten oder komplexere
Operationen als eine Summation der Inputwerte enthalten.

Hardware-technisch lassen sich solche Netze durch spezielle Neuro-Boards unterstützen,


die zumeist ähnlich eines Coprozessors in Rechnern verwendet werden und entsprechende
Elementstrukturen und -Verknüpfungen bereitstellen (Hecht-Nielsen 1988). In der oberen
Leistungsklasse könnte man Transputer einsetzen, die nach dem Multiple Instruction
Stream - Multiple Data Stream (MIMD)-Modus arbeiten, wobei jeder Prozessor ein
eigenes Teilprogramm ausführt (Hertweck/Jülich 1990).

Propagierungs- Aktivierungs- Ausgabe-


funktion funktion funktion

~ neuer
Aktivierungszustand
neuer
g2 t I.* g.
I I ~
Aktivierungszustand ~,.
~

Schwellen wert? L:i.

~ ~~T
i=1 =
(Propagierungswert
+aktueller

~
Aktivierungszustand)/2 0 i= 1 0 i=O

...

Eingabe- Neuron Ausgabe-


signale signale

Abb. 2: Bestimmung der Ausgabeinformationen

2.2 Beschreibungsmerkmale Neuronaler Netze

Neuronale Netze können nach recht unterschiedlichen Erscheinungsformen klassifiziert


werden. Hier interessieren insbesondere die verschiedenen Netztypologien. Nachfolgend
werden außerdem die Lernregeln, über die sich solche Netze trainieren lassen, dargestellt.
Mattbias Schumann 27

Y,,
Input x,~
X W
y
>
+1
/ ...., u
Schwellwert-
2. Output Konzept
-1
X
n

n
Y=f( Lw ·X.-ß)
i=1 I I

Y = f(u) YJ\ YJ'


+1 +1 ..,---
,.... u [ -1 I 1]- Verteilung ,.... u SIGMOIDE-
- 1
Verteilung
-1

Abb. 3: Beispiele für Propagierungsfunktionen

2.2.1 Typologie

Unterschiedliche Netztypologien ergeben sich aus der Anordnung und Verbindung der
Prozessorelemente, die im Regelfall in Gruppen, sogenannten "Schichten", aufgebaut sind.
Neben den Ein- und Ausgabeschichten findet man Topologien mit Zwischenschichten,
sogenannten "Hidden-Layers". Elementverbindungen bestehen üblicherweise nicht inner-
halb einer Schicht, sondern nur zwischen den verschiedenen Ebenen. Es existieren sowohl
vollständige als auch teilvernetzte Strukturen.

Weitere Unterscheidungsmerkmale sind (Hecht-Nielsen 1989, Kernke 1988):

Die Art der Informationen im Netz (binär, kontinuierlich),


die Richtung des Informationsflusses zwischen den Neuronenschichten (feed forward,
feed backward oder kombiniert),
die Gleichzeitigkeit der Infonnationsverarbeitung innerhalb des Netzes (synchron,
asynchron),
die Homogenität der Verknüpfungsstruktur (symmetrisch oder asymmetrisch, voll-
ständig oder unvollständig verbunden) sowie
die Homogenität der Neuronen (Art der internen Parameter, Anzahl der Eingänge).
28 Neuronale Netze zur Entscheidungsunterstützung

2.2.2 Lernstrategien

Bevor man Netze für eine Anwendung einsetzen kann, sind sie auf das Problem einzustel-
len. Sie werden nicht programmiert sondern trainiert. Ausgangspunkt bildet ein leeres
Netz. Während der Lernphase wird diesem Netz eine große Zahl von Anwendungsbei-
spielen zuführt. Dabei geht es um das Festlegen der Verbindungsgewichte zwischen den
Neuronen und ihren Aktivierungszuständen. Wird beim Training des Netzes zur Berufsbe-
ratung z. B. häufig als Muster festgestellt, daß für den Pilotenberuf prädestinierte Bewer-
ber technisches Interesse besitzen müssen, schwindelfrei sind und keine Brille tragen, so
würden die Verbindungsgewichte zwischen den entsprechenden Eingabeknoten und dem
Ausgabeknoten, der auf den Beruf "Pilot" verweist, verstärkt (siehe Abbildung 1). An
diese Lernphase schließt sich der eigentliche Netzeinsatz an, der z. B. aufgrund sich
ändernder Umweltbedingungen immer wieder durch weitere Lernphasen unterbrochen sein
kann.

Lernregeln beschreiben die Dynamik des Netzes, mit der die synaptischen Verbindungs-
gewichte angepaßt werden. Es können drei Trainingsarten unterschieden werden (Hecht-
Nielsen 1988, S. 449):

Das überwachte Lernen,


das bewertete Lernen und
das selbstorganisierte Lernen.

Im ersten Fall werden dem Netzwerk zu den gewünschten Ausgaben die zugehörigen
Eingaben bereitgestellt Aufgrund der Abweichung zwischen dem gewünschten und dem
tatsächlichen Output verändert man über eine Funktion die Gewichte der Verbindungen.

Bei dem bewerteten Lernen wird den Eingaben keine Ausgabe zugeordnet Der vom Netz
gelieferten Ausgabe stellt man vielmehr die Bewertung eines Kritikers (Abweichung)
gegenüber.

Im dritten Fall organisiert sich die Ausgabe selbständig. Das Netz erhält weder Ausgabe-
werte noch die Beurteilung seiner Ergebnisse. Es paßt die Gewichte z. B. so an, daß die
Verbindung zwischen zwei Zellen zu verstärken ist, wenn beide Zellen gleichzeitig
aktiviert sind (Hebb'sche Regel).

Das überwachte Lernen sei anband des im betriebswirtschaftliehen Bereich häufig ver-
wendeten "Backpropagation-Algorithmus", bei dem die Gewichte rückwärts, von der Aus-
gabe- zur Eingabeschicht verändert werden, kurz skizziert {Lippmann 1989). Die Lernform
wird auf mehrschichtige, symmetrische Netze angewendet, bei denen die Ausgabe- oder
Schwellenwertfunktion eine kontinuierlich monotone Abbildung der Inputwerte in den
Bereich zwischen 0 und 1 vornimmt.
Matthias Schumann 29

Die vier Schritte zur Anpassung der Gewichte sind in Abbildung 4 dargestellt. Nach dem
Initialisieren in Schritt 1, werden die Gewichte in den Schritten 2 bis 4 solange durch das
Lösen von Testfällen verändert, bis ein stabiler Zustand erreicht ist. Dazu können mehrere
100.000 Iterationen notwendig sein. Zum Anpassen der Gewichte werden folgende
Formeln verwendet:

Alle Gewichte Wij und Anfangswerte


durch kleine Zufallszahlen vorbesetzen

Einlesen des Eingabevektors


(xr··· Xn) und des gewünschten
Ausgabevektors (d 1 .... dm ).

Bestimmen der Ausgabewerte


durch das Netz (y1 ... Ym)

..........i ..........
Gewichte anpassen

ja

Abb. 4: Ablauf eines überwachten Lernprozesses


30 Neuronale Netze zur Entscheidungsunterstützung

Gewichte anpassen:

W"
1] (t+ 1) = w·1]· (t) + n * f·J * x·1
fj für j, Knoten der Ausgabeschicht

f· = y· (1 - ~-)
J J J
* (d·-
J J
y·)

fj für j, Knoten einer inneren Schicht:

f· = x· (1 - x·) ~ fk
J J J k
* w·k
J

dy gewünschter Ausgabewert des Knotens j;


Yf vom Netz bestimmter Ausgabewert des Knotens j;
Wij (t): Gewicht zwischen Knoten i und j zum Zeitpunkt t;
n: Anpassungsgeschwindigkeit, üblicherweise << 1;
fy Fehler-Faktor für Knoten j;
Xf Ausgabe des Knotens i;
xy Ausgabe des Knotens j;
k: für Knoten in Schichten über Knoten j.

2.3 Allgemeine Anwendungsfelder Neuronaler Netze

Anwendungsfelder für Neuronale Netze sind dadurch gekennzeichnet, daß kein exakt be-
schreibbares Wissen zur Problemlösung existiert. Dies ist zum Beispiel ein Abgrenzungs-
merkmal gegenüber Expertensystemen. Typische Einsatzbereiche sind (Kemke 1988, S.
157 ff.):

Mustererkennung, sowohl im visuellen als auch im sprac.hlichen Bereich. Es lassen


sich z. B. Bewegtbilder analysieren, um Objekte zu identifizieren oder gleichartige
Bewegungsabläufe herauszufiltern.
Assoziativspeicher als Anwendungen zur Dokumentspeicherung und zum -retrieval.
Speziell bei Volltextdatenbanken soll das Dokumentretrieval verbessert werden, so
daß man nicht mehr auf eine direkte Deskriptoren-Selektions-Beziehung angewiesen
ist. Damit könnte man die Precision und den Recall der Retrievalsysteme steigern.
Optimierungsrechnungen, die aufgrund ihrer Komplexität ansonsten überwiegend mit
Heuristiken behandelt werden.
Statistische Vorhersagemethoden und Zuordnungsprobleme, wenn sich Glättungsver-
fahren schlecht anwenden lassen. Neuronale Netze sind nicht auf parametrische
Gleichungen zur Prognose angewiesen und treffen schwächere Annahmen über
zugrundeliegende Funktionen oder Verteilungen als statistische Verfahren.
Mattbias Schumann 31

3 Einsatz Neuronaler Netze in der Betriebswirtschaft

3.1 Überblick

Die nachfolgenden quantitativen Aussagen beruhen teilweise auf einer kleinen


Literaturerhebung, die im ersten Quartal 1990 an der Abteilung Wirtschaftsinformatik der
Universität Erlangen-Nürnberg durchgeführt wurde (Ziegler 1990). Aufgabe war es,
Anwendungen (Running-Systems oder Prototypen) Konnektionistischer Systeme im
betriebswirtschaftliehen Bereich zusammenzutragen und zu klassifizieren. Dabei wurden
insgesamt 63 Applikationen identifiziert. Im Fertigungsbereich stehen bei den einzelnen
Systemen allerdings oft stärker technische als betriebswirtschaftliche Fragestellungen im
Vordergrund.

Ordnet man den bislang bearbeiteten Bereichen Aufgabentypen zu, läßt sich eine Viertei-
lung vornehmen:

1. Prognosesysteme werden vorwiegend von Banken und Versicherungen eingesetzt.


Dabei geht es um die Vorhersage kurzfristiger Wechselkursschwankungen oder die
Entwicklung von Wertpapierkursen. Man könnte auch die Beurteilung der zukünftigen
Zahlungsfähigkeit von Kreditkunden dieser Klasse zuordnen. Häufig finden sich
Aufgabenstellungen, die man "herkömmlich" mit der multivariaten Diskriminanzana-
lyse bearbeitet.
2. Beurteilungssysteme analysieren die Produktqualität, z. B. in der Fertigung. Ein
weiteres Anwendungsgebiet ist die Risikoanalyse bei Versicherungen, um die finan-
ziellen Folgen eines möglichen Vertragsabschlusses abzuschätzen.
3. Planungsprobleme, die man bisher mit heuristischen Verfahren des Operations
Research löst, werden mit Neuronalen Netzen abgebildet. Zum einen bearbeitet man
Travelling-Salesman-Probleme für die Vertriebseinsatzsteuerung und zum anderen
experimentieren Forscher mit Aufgabenstellungen der Personaleinsatzplanung und
Schichtzuteilung, die starken Bezug zum Stundenplanproblem haben.
4. Steuerungssysteme regeln den Einsatz von Fertigungsanlagen oder Transportsystemen
im Industriebetrieb. Hier könnten aber auch allgemeine Probleme des Warenflusses
untersucht werden. Auch dazu gibt es erste Ansätze. Sie sind bislang allerdings stark
technisch orientiert (z. B. im Bereich der Robotik), so daß diese Gruppe hier nicht
weiter behandelt werden soll.

3.2 Ausgewählte Anwendungsbeispiele

Nachfolgend sollen einige ausgewählte Beispiele aus verschiedenen Aufgabenklassen


skizziert werden, bei denen der betriebswirtschaftliche Bezug besonders ausgeprägt ist und
mit denen auch schon erste Erfahrungen gewonnen wurden.
32 Neuronale Netze zur EntscheidungsuntersUltzung

Ein Einsatzgebiet Neuronaler Netze, das bislang starke Beachtung gefunden hat, ist die
kurzfristige Aktienkursprognose. Die Ansätze basieren auf der technischen Analyse. Die
Aufgabenstellung wird deshalb gerne gewählt, weil sich der Kursverlauf von Wertpapieren
üblicherweise im kurzfristigen Bereich schlecht glätten läßt und damit konventionelle Pro-
gnosemethoden eine unzureichende Performance zeigen.

Als Inputvektor werden z. B. Kurswerte, absolute und/oder relative Veränderungen sowie


die Veränderungsrichtung von Aktien eingesetzt, für die dann Prognosen gewagt werden.
Die berichteten Ergebnisse sind sowohl für die einbezogenen Aktien als auch für verschie-
dene Vorhersagezeiträume schwankend. Allgemein läßt sich nur feststellen, daß eine stei-
gende Zahl von Lernschritten nicht unbedingt die Trefferzahl erhöht. Dennoch wurden z.
B. bei Tests von der Expert Informatik GmbH zufriedenstellende Ergebnisse erreicht
(Expert Informatik GmbH 1989).

Mit einem japanischen Projekt, an dem die Nikko Securities Co. und der Computerher-
steller Fujitsu beteiligt sind, versucht man ein neuronales Aktienprognosesystem zu ent-
wickeln, bei dem für die Handelstage des Folgemonats generelle Kauf- und Verkauf-
vorschläge für die Tokioter Wertpapierbörse gegeben werden (Kimoto/Asakawa 1990).
Als Input-Vektor des fünfschichtigen Backpropagation-Netzwerks werden u.a. die Verän-
derungen des Aktien-Indexes, technische Marktinformationen, der Markt-Zinssatz, der
Durchschnitt des New York Dow-Jones Indexes, der Börsenumsatz sowie die Wech-
selkursrate des Yen verwendet. Die Input-Werte werden vom Neuronalen Netz auf einen
kontinuierlichen [0,1]-Vektor abgebildet. Man benutzt einen rollierenden Lernalgorithmus,
bei dem jeweils ein Vorhersagemonat nach dessen Ablauf als Lerninput ergänzt und der
älteste Monat gestrichen wird. Dabei wurde zwischen einer Kauf-/Halte- und einer Kauf-
Nerkauf-Strategie unterschieden, wobei sich in Tests die Ergebnisse der letzteren als
besser erwiesen haben. Es wird zum Kauf geraten, wenn der Output-Wert des Neuronalen
Netzes über einem Schwellenwert liegt, ansonsten sollte ein Verkauf durchgeführt werden.

Bei einem Vergleich mit der Multiplen Regressions-Analyse (MRA) zeigte das Neuronale
Netz einen Korrelations-Koeffizienten von 0.991 mit den gelernten Daten (100.000
Iterationen), wohingegen dieser bei der MRA nur bei 0.543 lag.

Interessant erscheinen Versuche, durch Vergleich von Chartformationen einer technischen


Analyse und einer Cluster-Analyse für die interne Repräsentation des Neuronalen Netzes
Regeln abzuleiten, die die Wichtigkeit einzelner Kriterien bei gewissen Trendverläufen be-
schreiben. Damit würden sich erste Ergebnisse ableiten lassen, welche Kennzahlen Einfluß
auf gewisse Marktsituationen haben.

An der University of California in Berkeley hat man ein System zur Beurteilung von
Wertpapieren entwickelt (Dutta/Shekhar 1989). Bisher wurden die Wertpapiere bezüglich
ihres sogenannten Verzugsrisikos mit Hilfe statistischer Methoden, wie z. B. der Regressi-
ons~alyse, klassifiziert. Unter dem Verzugsrisiko ist die Wahrscheinlichkeit zu verstehen,
daß Zinstermine nicht eingehalten werden. Papiere mit sehr niedrigem Risiko werden
dabei der Klasse AAA zugeordnet, anschließend folgt Klasse AA usw.. Als Ein-
flußfaktoren werden unter anderem die Rückzahlungsfähigkeit des Emittenten und dessen
Mattbias Schumann 33

Bereitschaft zur Rückzahlung berücksichtigt. Letzteres wird über verschiedene Variablen


ennittelt, die sich nur schwer präzise charakterisieren lassen. Aus diesem Grund liefern
statistische Analysemethoden in vielen Fällen unzureichende Resultate.

Dieses bewog die Forscher, Wertpapiere mit Hilfe eines Backpropagation-Netzes zu


beurteilen. Als Eingabedaten dienten zehn Variablen, wie z. B. das Verhältnis der Gesamt-
schulden zum Nettovermögen oder die Wachstumsrate der letzten fünf Jahre. Die Gesamt-
datenmenge umfaßte 47 zufällig ausgewählte Wertpapiere, wovon 30 für die Lernphase
verwendet wurden. Für alle Wertpapiere, die man einbezog, liegt der Fälligkeitsterntin zur
Zurückzahlung zwischen 1998 und 2003. Mit den restlichen 17 Papieren wurde in der
Testphase der Performance-Grad des Netzes festgestellt. Sie dienten damit als Kontroll-
Größe. Das Netz mußte beurteilen, ob die Papiere der Klasse AA zuzuordnen waren. Um
repräsentative Aussagen machen zu können, benutzten die Wissenschaftler unterschiedlich
konfigurierte Netze, die in der Anzahl der Schichten und der Anzahl der Elemente pro
Schicht divergierten. Außerdem wurden die Versuche sowohl für Netze mit 10 Ein-
gabevariablen als auch für Netze mit 6 Eingabevariablen durchgeführt.

In der Lernphase hatte das dreischichtige gegenüber dem zweischichtigen Netz Vorteile, in
der Testphase jedoch waren keine Unterschiede bezüglich des Performance-Grades festzu-
stellen. Gegenüber einer zusätzlich durchgeführten Regressionsanalyse waren die Netze in
allen Fällen überlegen, die Prognosen der Neuronalen Netze erwiesen sich um mehr als 10
Prozentpunkte besser. Dieses war unabhängig von der Netzanordnung.

In den USA wurden bereits von verschiedenen Anbietern Neuronaler Netze Anwendungen
zur Beurteilung der Kreditwürdigkeit potentieller Schuldner entwickelt. Eines dieser
Systeme stammt von Nestor, ein anderes, das mittlerweile bei mehreren US-Banken einge-
setzt wird, wurde von der Hecht-Nielsen Corp. realisiert (Schulte 1989). Traditionell wird
die Bewertung der Kreditwürdigkeit von Privatkunden mittels eines Punktesystems durch-
gefdhrt, das die Diskriminanzanalyse verwendet. Dabei erhält der Bewerber eine gewisse
Anzahl von Punkten in Abhängigkeit verschiedener Charakteristika. Die wechselseitigen
Einflüsse dieser Charakteristika zueinander werden jedoch nicht berücksichtigt. Deshalb
hat die amerikanische Firma Adaptiv Decision Systems Inc. versucht, das Problem mit
ihrem "First Adaptiv Decision System", welches auf einem Backpropagation-Netz basiert,
anzugehen.

270.000 vergebene Kredite des Jahres 1985, bei denen die Rückzahlungsquote und der Ge-
winn bekannt waren, fanden als Trainings- und Testdaten Verwendung. Die Eingabe-
schicht bestand aus 100 Knoten, die 14 Charakteristika repräsentierten. Darunter wurden
sowohl Merkmale, die mehr symbolischer Natur sind, wie z. B. die berufliche Stellung
oder der vorhandene Grundbesitz, als auch numerisch erfaßbare Kennzeichen, wie z. B.
Alter oder das Einkommen, erfaßt. Die symbolischen Merkmale wurden jeweils mit einem
Inputknoten kodiert, die numerischen Merkmale wurden Wertebereichen zugeordnet. Die
Ausgabeschicht umfaßte einen einzigen Knoten, über den eine Schätzung des "schlechten
Schuldverhältnisses" erfolgt, worunter das erwartete Verhältnis der nicht zurückbezahlten
Restschuld zur ausstehenden jährlichen Schuld zu verstehen ist. Dieses "schlechte Schuld-
verhältnis" ist nicht das optimale Maß zur Beurteilung eines Kreditantrags, es wurde nur
34 Neuronale Netze zur Entscheidungsunterstützung

benutzt, um die Akzeptanz der Angestellten bezüglich des Konnektionistischen Netzes zu


verbessern. Nach einigen Tests mit unterschiedlich angeordneten Zwischenschichten
zeigte es sich, daß das Netzwerk mit nur einem Knoten in der Zwischenschicht die besten
Ergebnisse erbrachte. Mehr Knoten verlangsamten nur den Lernprozeß. Kritisch ist hier zu
hinterfragen, ob der Netzaufbau ohne parallele Verarbeitung in den Zwischenschichten
nicht Methoden der konventionellen Mustererkennung entspricht.

Ein Problem der Anwendung bestand darin, daß bei Neuronalen Netzen kaum festgestellt
werden kann, wie ein bestimmtes Ergebnis zustande gekommen ist. Wenn jedoch ein
Kreditantrag abgelehnt wird, dann möchte der Kreditsuchende Gründe dafür wissen. Daher
mußte ein Programm entworfen werden, das das Netz beobachtet und somit die Frage
beantworten kann, welche Charakteristika anders ausfallen müßten, damit der potentielle
Schuldner den Kredit bekäme. Das Programm ändert zu jedem Zeitpunkt nur einen Input-
wert, so daß alle möglichen Werte durchgespielt werden. Für jeden dieser Inputs wird die
Veränderung im Endergebnis festgestellt und somit wird ersichtlich, welche Merk-
malsausprägung ftir die Nichtgewährung des Kredits verantwortlich ist.

Eingesetzt wird das auf einem HNC ANZA Bord basierende Netz seit Sommer 1988 von
einer internationalen Finanzierungsgesellschaft mit mehr als 400 Filialen. Die Runtime
Version des Netzes wurde auf vernetzten PCs installiert, wobei über einen Download vom
Host in einem Batchiauf halbjährlich eine Aktualisierung der Daten stattfindet.

Ein ähnliches System entwickelte eine mittelgroße spanische Bank in Zusammenarbeit mit
Arthur Anderson. Das "Credit Card Evaluation System" soll den quantitativen Teil eines
bestehenden wissensbasierten Systems zur Beurteilung von Kreditkarten ablösen. Durch
den kontinuierlichen Rückfluß historischer Daten kann das Netz trainiert werden
(Valino/Rubio 1989)).

4 Beurteilung des Einsatzes Neuronaler Netze in der Betriebswirtschaft

Nachfolgend soll eine erste, allgemeine Beurteilung solcher Netze für betriebswirtschaftli-
ehe Fragestellungen versucht werden. Dabei fließen auch Erfahrungen ein, die von Proto-
typen stammen, welche bislang noch nicht angesprochen wurden.

4.1 Allgemeine Aspekte beim Einsatz Neuronaler Netze im betriebs-


wirtschaftlichen Bereich

In vielen Beispielen wird darüber berichtet, daß der Zeitbedarf zum Erstellen einer Neuro-
nalen Netz-Anwendung, verglichen mit herkömmlichen Alternativlösungen, sehr gering
ist.

Ein solcher Vergleich wurde mit zwei Anwendungen durchgeführt, die englischsprachige
Texte in eine natürlich-sprachliche akustische Ausgabe umsetzen (Schreter 1988, S. 33 f.).
Mattbias Schumann 35

Es handelt sich dabei um das Neuronale Netz NETtalk und das regelbasierte Expertensy-
stem DECtalk. Der Erstellungsaufwand für NETtalk belief sich auf einige Monate, in
denen die grundlegende Netzstruktur (29 Eingabe-, 120 interne und 21 Ausgabeknoten)
programmiert und die Lernphase vorbereitet wurde. Der eigentliche Lernvorgang konnte in
einer Nacht abgewickelt werden. Dagegen dauerte die Entwicklung des wissensbasierten
Systems mehrere Personenjahre, da jede kontextabhängige Umsetzung eines Buchstabens
in ein Phonem als eigene Regel der Wissensbasis abgeleitet werden mußte. Die Lei-
stungsfähigkeit beider Systeme ist nahezu identisch. Dieses macht die Vorteile beim
Erstellen eines Neuronalen Netzes besonders deutlich.

Als weiterer Vorteil ist zu nennen, daß auch "verrauschte Eingabedaten" behandelt werden
können. Darunter versteht man, daß ein Neuronales Netz eine Lösung findet, obwohl
Input-Informationen vielleicht nur unvollständig vorliegen oder in ihrem Eingabe-Muster
vom Idealbild für eine mögliche Ausgabe-Zuordnung abweichen.

Andere Autoren heben hervor, daß sich ein solches System über das Verändern der
Verbindungsgewichte an eine neue Umweltbedingung anpassen könne.

Allerdings dürfen eine Reihe von Nachteilen, die auf dem Neuronalen Netz-Konzept beru-
hen, nicht übersehen werden:

1. Ergebnisse lassen sich kaum oder nur schwer nachvollziehen, da sie implizit durch das
"Gewichtesystem" entstehen und kein direkter Bezug zum "verbalen" Wissen vorhan-
den ist.
2. Werden Neuronale Netze für Optimierungsprobleme eingesetzt, so sucht das System
ein mögliches Minimum innerhalb des Netzwerkes. Aufgrund der Netzstruktur besteht
aber immer die Gefahr, daß kein globales sondern nur ein lokales Minimum gefunden
wird.
3. Ein weiteres Problem ist die Konfigurierung des Netzes, da es bisher keine Einstel-
lungsregeln für dessen Parameter gibt. Es existieren z. B. keine Hilfen, wie die Einga-
bevektoren für eine konkrete Klassifikationsaufgabe zu finden sind. Hier kann nur ein
Ausprobieren oder die Orientierung an bereits vorhandenen Beispielen weiterhelfen.

4.2 Chancen des Einsatzes Neuronaler Netze im betriebswirtschaftli-


ehen Bereich

Durch ihre Fähigkeit, aus Beispielen zu lernen, machen es Neuronale Netze überflüssig,
Heuristiken abzuleiten, die in Regeln abzubilden sind. Dies hat sich bis heute beispiels-
weise für viele Expertensysteme als schwierig erwiesen, speziell wenn sich das notwen-
dige Wissen nicht scharf abgrenzen läßt. Es bedarf allerdings eines nicht unerheblichen
Aufwandes, um die Beispielfälle zu sammeln und deren Qualität zu überprüfen. Ebenfalls
aufwendig ist es, die Strukturen des Neuronalen Netzes (Anzahl der Knoten, Anzahl der
Schichten) festzulegen. Darüber hinaus sind in der Trainingsphase umfangreiche
Hardwareressourcen erforderlich. Von den im Vergleich zu anderen Vorgehensweisen
dagegen häufig viel kürzeren Systemerstellungszeiten wurde bereits berichtet.
36 Neuronale Netze zur Entscheidungsunterstützung

Die Wartungsproblematik spielt bei Konnektionistischen Netzen eine wesentlich geringere


Rolle als bei konventionellen Systemen, da die Wissensbasis durch neue Beispiele auto-
matisch angepaßt werden kann. Ähnliche Erkenntnisse hat auch die Expert Informatik
GmbH, Überlingen, bei der Entwicklung eines Systems zur täglichen Aktienkursprognose
gewonnen (Expert Informatik GmbH 1989). Aufgrund des enormen Aufwandes, der er-
forderlich gewesen wäre, um das notwendige Wissen für ein Expertensystem zu akquirie-
ren, umzusetzen und zu aktualisieren, verwarf man diese Idee. Erste Versuche mit Neuro-
nalen Netzen zeigten, daß sich der Erstellungsaufwand erheblich reduzieren läßt und mit
einer gut gestalteten Lernphase ansprechende Prognoseergebnisse zu erreichen sind. So
könnte sich ein System durch dauerndes oder periodisches Lernen an sich ändernde
Umweltbedingungen anpassen (wie z. B. für das in Kapitel 3.2 dargestellte System). Die-
ses wäre eine Vorteil bei der Prognose von Aktienkursen oder im Makrobereich bei
Konjunkturverläufen. Auch im Fertigungsbereich könnte man flexibler auf veränderte
Zielsetzungen bei der Kundenbedienung (Steht die schnelle Kundenbedienung oder die
kostenminimale Produktion im Vordergrund?) oder geänderte Auftragsstrukturen, die zeit-
lichen Schwankungen unterliegen, reagieren. (Überwiegen Kunden mit großen Auftrags-
losen oder solche mit Einzelaufträgen?)

Erfolgversprechend scheint der Einsatz Neuronaler Netze überall dort, wo die Muster-
erkennung einen Lösungsansatz bietet. Man kann sich kleinere Systeme vorstellen, die
solche Aufgaben für umfassendere, integrierte Anwendungen übernehmen, wie bei-
spielsweise die technische Chartanalyse bei der Anlageberatung oder die Risikobewertung
eines Versicherungsinteressenten als Teil der Kundenberatung. Solche Systeme würden
damit Integrationslücken schließen, die bislang mit algorithmischen oder regelorientierten
Vorgehensweisen nur unzureichend gelöst werden konnten und daher häufig ausgespart
wurden. Sie könnten dann auch z. B. mit Expertensystemen sinnvoll kombiniert werden.
Für die Anlageberatung ist bei den verfügbaren Prototypen eine Integration in
umfassendere Anwendungen notwendig, da im allgemeinen die vorhandene Portfo-
liostruktur des Kunden nicht berücksichtigt wird und damit der Aspekt der Risikostreuung
bei der Beratung unbeachtet bleibt.

Als ähnliche Erweiterungen sind auch Ansätze zur Benutzermodeliierung mit Neuronalen
Netzen zu sehen, wie sie an der Abteilung Wirtschaftsinformatik der Universität Erlangen-
Nürnberg verfolgt werden (Bodendorf 1990). In einem Benutzermodell werden dazu Daten
über den Anwender einer Software gespeichert, die Informationen über sein Dialogver-
halten beschreiben. Daraus lassen sich Rückschlüsse auf die Dialoggestaltung (geübter,
ungeübter Benutzer) ziehen. Mit dem Neuronalen Netz wird nun auf Basis des Benutzer-
verhaltens die Einordnung des Anwenders in einen sogenannten "Stereotyp" versucht, um
in Abhängigkeit dieser Zuordnung den Bildschirmdialog einer Anwendungssoftware
einzustellen. Erste Versuche der Benutzerklassifikation am Beispiel des Betriebssystems
OS/2 zeigen erfolgversprechende Ansätze.

Schließlich wäre es denkbar, daß man Neuronale Netze dort einsetzt, wo bislang ebenfalls
nicht erklärte Simulationsergebnisse verwendet werden, wenn sich nach Versuchen die
Leistungsfähigkeit Konnektionistischer Systeme als vorteilhaft erweist.
Mattbias Schumann 37

4.3 Grenzen des Einsatzes Neuronaler Netze im betriebswirtschaftli-


ehen Bereich

Ein Hauptproblem von Beratungssystemen, die auf dem Neuronalen Netz-Ansatz beruhen,
dürfte in der mangelnden Erklärungsfähigkeit liegen. Für das skizzierte System zur
Aktienkursprognose kann eigentlich nur der Anlageberater als Zielperson gesehen werden,
da das Neuronale Netz zwar einen Lösungsvorschlag unterbreitet, dem man aber aufgrund
der impliziten Wissensrepräsentation "blind" vertrauen muß.

Wird dagegen ein Bereich in der Fertigung unterstützt, so ist der Meister in der Werkstatt
oder der Schichtführer eines Fertigungsleitstandes die Zielperson. Eine Anwendung zur
Störungsbeseitigung würde z. B. immer dann eingesetzt, wenn ungeplante Situationen in
der Fertigung (z. B. ein(e) Maschinenausfall/-störung oder ein Materialengpaß) eintreten.
Aufgrund der fehlenden Erklärungsfähigkeit ist allerdings mit großen Akzeptanzpro-
blemen zu rechnen, an denen solche Lösungen im Extremfall scheitern könnten.

Auch Abgangssysteme als Form der Expertensysteme (Mertens 1990), die beispielsweise
verwendet werden sollen, um Ergebnisse eines Simulationsexperiments zu interpretieren,
scheinen als Ergänzung eines Neuronalen Netzes ungeeignet. Praktische Erfahrungen mit
Expertensystemen zeigen, daß für die Erklärung von Ergebnissen, die auf Schlußfolgerun-
gen aufgebaut sind, mindestens soviel "Wissen" erforderlich ist, wie für das Gewinnen der
Lösung selbst. Häufig sind darüber hinaus noch zusätzliche Informationen notwendig, um
auch eine benutzeradäquate Erklärung zu bieten. Dieses ist zur Zeit ebenfalls ein Schwach-
punkt vieler konventioneller Expertensysteme.

Um nun die Ergebnisse des Neuronalen Netzes erklären zu können, müßte ein als
"Ergänzung" vorgesehenes Expertensystem mindestens soviel Wissen beinhalten, wie
implizit das Neuronale Netzwerk. Damit wäre es notwendig, zwei vollständige Systeme
bereitzustellen. Speziell bei unvollständigen Datenstrukturen ist dann aber noch nicht
gewährleistet, daß auch beide Systeme zum gleichen Ergebnis kommen. Insofern läßt sich
das Problem der Erklärungsfähigkeit Neuronaler Netze auch mit einem Abgangssystem
nicht lösen.

Allenfalls kann man sich vorstellen, daß bei zeitkritischen realtime-Entscheidungen das
Netzwerk befragt wird, wo hingegen für Analysen ohne großen Zeitdruck ein Exper-
tensystem eingesetzt wird.

Eventuell könnte man aber auch eine Vorgehensweise beschreiten, die an das in Kapitel
3.2 beschriebene System zur Kreditwürdigkeitsprüfung angelehnt ist. Dazu wäre es
notwendig, daß das Neuronale Beratungssystem um ein Simulationshilfsmittel ergänzt
wird, mit dem sich durch Variation sämtlicher Inputvariablen die Ursache der Empfehlung
schrittweise herausarbeiten läßt. Aufgrund komplexer Abhängigkeiten, insbesondere
dadurch, daß mehrere Zwischenknoten verwendet werden, könnten sich dabei allerdings
Interpretationsprobleme ergeben.
38 Neuronale Netze zur Entscheidungsunterstützung

Erfahrungen in anderen Einsatzgebieten zeigen, daß ein umfangreicher Datenbestand not-


wendig ist, um in der Trainingsphase ein zufriedenstellendes Leistungsverhalten Kon-
nektionistischer Systeme einzustellen. Teilweise werden dazu mehrere tausend Fälle
benötigt. Hier stellt sich die Frage, ob in der Betriebswirtschaft in sämtlichen angespro-
chenen Bereichen genügend Beispiele erhoben werden können, um das Training des
Systems durchzuführen. Überhaupt muß der Gesichtspunkt des Lernens kritisch hinterfragt
werden. Zwei Varianten könnte man dabei nutzen (Papert 1987):

Jeder 'Fall', den das System bearbeitet, kann die Gewichte verändern, oder
das System wird in Abständen gewartet und während der Zwischenzeiten verändern
sich die Gewichte nicht.

Wählt man die erste Alternative und treten in den Datenbeständen periodische Trends auf,
so werden diese eventuell zu unerwünschten Verfälschungen des Netzes führen. Daher
erscheint es günstiger, die zweite Variante zu benutzen, bei der ein 'Netzwerk-Ingenieur'
die Auswahl und Wartung der Trainingsfälle übernimmt und insofern die Gefahr der
'falschen Trends' gemindert wird. Dennoch hat man dann immer noch das Problem fest-
zulegen, zu welchen Zeitpunkten Trainingsphasen einsetzen sollten. Desgleichen könnte
bei einigen Aufgabenstellungen das vielzitierte Schmalenbachsehe 'Vergleichen des
Schlendrians mit dem Schlendrian' eintreten. Ist der Testdatenbestand bereits ungünstig, so
wird man das System und damit dessen Empfehlungen auch entsprechend ungünstig
einstellen.

Ein weiterer Kritikpunkt sind die Anzahl der Verarbeitungsknoten sowie die im System
verborgenen Ebenen. Viele Knoten erhöhen die Komplexität, so daß man nur schwer die
vom System gegebenen Empfehlungen beurteilen kann. Allerdings haben Untersuchungen
ergeben, daß in Einzelfällen die Systemleistung positiv mit der Anzahl innerer Knoten
korreliert ist. Nach wie vor läßt sich aber keine Empfehlung aussprechen, wie für einzelne
Problemstellungen die Ebenenzahl zu gestalten ist. Hier sind empirische Untersuchungen
bislang widersprüchlich.

Auch der immer als positiv beurteilte Aspekt der Fehlertoleranz muß kritisch hinterfragt
werden. Es ist zu unterscheiden, ob unvollständige oder verrauschte Inputdaten vorliegen
oder ob einzelne Verarbeitungsknoten ausgefallen sind. Zu einer ordnungsgemäßen
Lösungstindung müßten diese Fälle getrennt werden. Dieses geht aber nur, wenn dem
System mitgeteilt wird, welche Inputdaten nicht verfügbar (dies ist relativ einfach) oder
welche mit Störgrößen behaftet sind. Letzteres wäre mit aufwendigen statistischen
Analysen verbunden. Der Ausfall einzelner Netzkomponenten ist dagegen von außen kaum
feststell bar.

Fraglich ist auch, ob in Problembereichen, bei denen sich die Umweltzustände sowie die
Zielsetzungen rasch ändern, der Einsatz Neuronaler Netze erfolgversprechend ist. Als
Beispiel sei hier die Analyse von Kunden-Portfolios im Bankensektor genannt, bei der sich
ständig ändernde Umweltzustände und unterschiedliche Kundenpräferenzen berücksichtigt
werden müssen (Borkowski 1989). Schließlich bleibt anzumerken, daß die Netze durch das
Mattbias Schurnano 39

"Pauken von Beispielen" wohl kaum Fähigkeiten entwickeln werden, neue (kreative)
Lösungen zu finden. Allenfalls werden sie ähnliche Muster/Situationen erkennen und
einordnen.

5 Zukünftige Forschungsbereiche

Nachfolgend sollen zukünftige Forschungsbereiche anhand potentieller Einsatzgebiete der


Neuronalen Netze dargestellt werden, für die es in umfangreichen empirischen Untersu-
chungen gilt, die Leistungsfähigkeit des Ansatzes zu alternativen Hilfsmitteln zu überprü-
fen. So könnten in Einzelfällen vielleicht bessere Ergebnisse als mit Diskriminanzanaly-
sen, Sirnutationen oder heuristischen Verfahren erzielt werden. Für einige der aufgeführten
Gebiete liegen dabei bereits erste kleinere und daher noch nicht verallgemeinerbare
Resultate vor. Die weiteren Einsatzideen sind nach Beurteilungssystemen, Prognosesyste-
men und Planungssystemen klassifiziert.

Bei der Jahresabschlußanalyse versucht eine Forschungsrichtung, die Insolvenzgefährdung


von Unternehmen anhand bestimmter betrieblicher Kennzahlen zu prognostizieren. Diese
Analysen gehen zum Teil auf die klassischen Arbeiten von Beaver zurück, der mit einem
dichotomistischen Klassifikationstest die Unternehmen eingeteilt (Beaver 1966, S. 71 ff.)
hat Als problematisch erwies sich dabei die Beschränkung auf jeweils eine einzige
Kennzahl, mit der häufig widersprüchliche und stichprobenabhängige Ergebnisse auftra-
ten.

Altman hat für seine Arbeiten bei der Insolvenzprognose ganze Variablenprofile verwen-
det und einer multivariaten Diskriminanzanalyse unterzogen (Altman 1968). Eine umfas-
sende empirische Untersuchung zur Auswahl von einzubeziehenden Faktoren und ihren
Gewichtungen wurde im deutschsprachigen Raum von Baetge mit 40000 getesteten
Jahresabschlüssen durchgeführt (Baetge/Huß/Niehaus 1986, S. 610). Allerdings kann diese
Vorgehensweise nicht vollständig befriedigen, da sich bei Anwendung der Diskriminanz-
analyse kritisieren läßt, daß Voraussetzungen, wie z. B. eine multivariate Normalverteilung
der verwendeten Variablen, normalerweise nicht erfüllt sind. Trotzdem schneidet das Ver-
fahren regelmäßig relativ gut ab (auch bei Kreditwürdigkeitsprüfungen).

Auch eine Mustererkennung, bei der mit einem Variablenraster, z. B. Kenn-


zahlenausprägungen, vorab definierte Mustertypen verglichen werden, führte bislang nicht
zu einer zufriedenstellenden Lösung. Bei dieser Vorgehensweise werden beispielsweise
charakteristische Krisenmuster definiert (Grenz 1987).

Man könnte sich hier vorstellen, daß man auf Basis historischer Daten Neuronale Netze
trainiert. Dazu müßten die historischen Kennzahlen eines Jahres oder deren Entwicklung
über mehrere Jahre hinweg als Eingangsmuster dienen. Außerdem müßte bekannt sein, ob
das Unternehmen weiterhin solvent ist oder insolvent wurde. Ein Perception Netz, das
einen Knoten als Ausgangsschicht enthält, könnte eingesetzt werden. Es wird zwischen
gefährdeten und risikolosen Unternehmen mit Hilfe eines Schwellenwertes getrennt. Die
40 Neuronale Netze ZID" Entscheidungsunterstützung

Schwierigkeit besteht bei dieser Anwendung darin, festzulegen, wieviele Knoten und
Schichten die Netztypologie besitzen soll, aus wieviel Variablen der Inputvektor besteht
sowie welche Variablen Verwendung fmden sollen. Dazu sind verschiedene Alternativen
aufzubauen und miteinander zu vergleichen.

Bei der Auswahl der verwendeten Kennzahlen lassen sich mehrere Vorgehensweisen
vorstellen:

1. Es werden sämtliche Kennzahlen verwendet, mit denen sich direkt oder indirekt
Aussagen über die Unternehmensperformance ableiten lassen. Damit würde sich ein
relativ großer Inputvektor ergeben.

2. Man führt aufgrund der historischen Daten eine Clusteranalyse durch, um die Trenn-
schärfe einzelner Kennzahlen zu bestimmen und verwendet dann diese. Hierbei ist an-
zumerken, daß ja gerade die Funktionen der Clusteranalyse vom Neuronalen Netz
selbst übernommen werden sollen.

3. Man orientiert sich an Faktoren, die z. B. in die Baetgesche Diskriminanzanalyse ein-


fließen.

Von Odom und Shara wurde ein erster Test versucht. Sie analysierten die Kennzahlen von
insgesamt 129 Firmen, von denen 65 im nächsten Jahr insolvent wurden und 64 solvent
blieben (Odom/Shara 1990). Als Trainingsgruppe verwendeten sie 74 Firmen (38/36) von
der Grundgesamtheit Die Autoren benutzten die von Altman vorgeschlagenen Kennzah-
len:

Eigenkapital/ Gesamtvermögen,
Einbehaltene Gewinne I Gesamtvermögen,
Gewinne vor Steuern und Zinsen I Gesamtvermögen,
Marktwert des Anlagevermögens I Gesamtschulden,
Umsatz I Gesamtvermögen.

Eingesetzt wurde ein Perception-Netz mit einem Hidden Layer. Als Problem stellte sich
bei der Anwendung die mit der Backpropagation-Regel benötigte Lernphase von 191.400
Iterationen heraus, so daß das Training ca. 24 Stunden benötigte. Die Ergebnisse des
Neuronalen Netzes und einer multivariaten Diskriminanzanalyse wurden für drei Test-
gruppen verglichen:

das proportional verteilte Material,


eine 80/20-Verteilung sowie
eine 90/10 Verteilung,

jeweils bezogen auf solvente und insolvente Unternehmen in der Testgesamtheit


Mattbias Schumann 41

Die prozentualen Analyseergebnisse in bezugauf die richtige Vorhersage mit den beiden
Verfahren zeigt Abbildung 5. Dabei schneidet das Neuronale Netz bei allen Vergleichen
für insolvente Unternehmen besser ab. Bei den solventen Unternehmen ist dagegen die
Analyse nicht eindeutig. Es muß aber berücksichtigt werden, daß Fehler bei der nicht
erkannten Insolvenzvorhersage größere Konsequenzen haben als solche, bei denen das
Unternehmen als solvent eingestuft wird. Daher sollten weitere Tests durchgeführt werden,
die auf anderen Kennzahlenkombinationen beruhen. An der Abteilung Wirtschaftsinfor-
matik der Universität Erlangen-Nürnberg wurde mit entsprechenden Arbeiten begonnen.

Ähnliche Aufgabenstellungen mit Beurteilungscharakter wie die Insolvenzprognose für


Unternehmen, die konventionell mit Ansätzen der Diskriminanzanalyse oder Mustererken-
nung gelöst werden und sich zum Test Neuronaler Netze eignen würden, liegen in folgen-
den Bereichen:

1. Eine Beurteilung von qualitativen Investitionsrisiken, die üblicherweise mit Check-


listen und Punktbewertungsverfahren erfolgt, könnte mit Konnektionistischen Syste-
men nachgebildet werden. Eventuell sollte man sich dabei auf bestimmte Investitions-
bereiche beschränken, etwa die Beurteilung von DV-Projekten.

2. Für Personalberatungen oder Großunternehmen könnte es sich anbieten, die erste


Selektion von Bewerbern für eine Stellenausschreibung mit einem Neuronalen Netz
durchzuführen. Als Muster wären dann die Ausschreibungscharakteristika mit den
Bewerberprofilen zu vergleichen. Um das System trainieren zu können, müßten
ähnliche Bewerbungen schon vorher vorgelegen haben. Besser noch wäre es, wenn
man ehemalige Bewerber und ihr damaliges Profil aufgrundeiner ex post Einschät-
zung als Trainingsmaterial verwenden könnte. Fraglich ist allerdings, ob man für das
Training wirklich charakteristische Profile für einzelne Arbeitsplätze!fätigkeiten
verfügbar hat.

3. Vielleicht könnte man auch die Einstellung von Regeln eines PPS-Systems mit einem
Konnektionistischen System unterstützen. Mertens beschreibt beispielsweise ein auf
der Mustererkennung beruhendes Verfahren zur Auswahl von günstigen Prioritätsre-
geln bei der Werkstattfertigung (Mertens 1977, S. 789 f.). Gerade die schlecht
beherrschbare Mischung alternativer Auswahlregeln zur Auftragseinplanung konnte
damit vereinfacht werden. Seinerzeit hat man als Merkmale einzelne Kennzahlen
gewählt, für die eine Klassenbildung vorgenommen wurde. Abhängig von möglichen
Zielsetzungen (z. B. Kapitalbindung, Termintreue), wurden alternative Prioritätsregeln
simuliert, um für Merkmals-Zielsetzungs-Kombinationen Reihenfolgen für günstige
Prioritätsregeln festzulegen.

Bei einem ausreichenden Datenbestand an Merkmals-, Zielgrößen- und Prioritätsre-


gel-Kombinationen könnte man auch das Training eines Neuronalen Netzes versu-
chen. Problematisch ist hier auch die Gewinnung der Testfälle sowie die Konsistenz in
der Zusammensetzung des Auftragsbestandes. Kommt es zu größeren Schwankungen,
müßte die Struktur des Auftragsbestandes ebenfalls im Input-Vektor zum Ausdruck
gebracht werden.
42 Neuronale Netze zur Entscheidungsunterstützung

Insolvenzprognose

.:' .
'
:

~ ~ ~ ~ ~ ~
00 00 r- 00 \0
~
..... ~
0\
r-:
r-
M
0r-
r-:
r-
N.
0\
r- r-
00
"' "'

50/50 80/20 90/10

Solvenzprognose

50/50 80/20 90/10


r· ..................... ····:
: :
.-·······--···-··········. Neuronales Nelz

Diskriminanzanalyse

Abb.5: Prozentsatz richtig erkannter Zuordnungen


Mattbias Schumann 43

Abbildung 6 faßt verschiedene Einsatzbereiche für Neuronale Netze und alternative DV-
gestützte Hilfsmittel für Beurteilungsprobleme tabellarisch zusammen.

Aufgabenbereich Andere Hilfsmittel

l. Jahresabschlußanalyse zur Multivariate Diskriminanzanalyse,


Insolvenzprognose Mustererkennung

2. Risikoanalyse beim Ab- Scoring-Modelle, persönliche Ein-


schluß von Versicherungs- schätzung, Expertensysteme
verträgen

3. Auswahl von Prioritätsregeln personelle Auswahl, Mustererkennung


zur Werkstattsteuerung

4. Personalauswahl Profilvergleich, Nutzwertanalysen

5. Prüfungsvorgänge der Checklistenprüfung


internen Revision

Abb. 6: Potentielle Einsatzgebiete Neuronaler Netze bei Beurteilungsproblemen

Anwendungen, die mit der bereits behandelten Aktienkursprognose vergleichbar sind, fin-
den sich auch in der Volkswirtschaftslehre, etwa bei der Schätzung eines Konjunkturin-
dexwertes. Für die Lernphase lassen sich als Inputvektor Indikatoren wie Auftragsein-
gänge, verschiedene Preisindices oder z. B. der Aktienindex heranziehen (über eine oder
mehrere Perioden, Periodenwerte oder geglättete Werte). Nun könnte man anband der
historischen Daten mit dem jeweiligen Konjunkturindex die Lernphase gestalten
(Zimmermann 1990). Ein solcher Problemansatz läßt sich z. B. mit einem auf der
Mustererkennung basierenden Vorgehen vergleichen, bei dem ebenfalls ein Lernmecha-
nismus für das Verfahren implementiert wird. Als weiteres Anwendungsgebiet könnte die
Wechselkursprognose genannt werden. Abbildung 7 nennt potentielle Forschungsbereiche
für Prognosesysteme.
44 Neuronale Netze zur Entscheidungsunterstützung

Aufgabenbereich Andere Hilfsmittel

1. Konjunkturprognose statistische Prognosemethoden,


Mustererkennung

2. Wechselkursprognose statistische Prognosemethoden

3. Absatzprognose bei Vorhersagemodelle zur Prognose


unregelmäßigem Bedarf unregelmäßigen Bedarfs

4. Stichprobenumfang bei Wahrscheinlichkeitsrechnungen,


der Wareneingangs- Prognosemethoden
prüfung

Abb. 7: Potentielle Einsatzgebiete Neuronaler Netze bei Prognoseproblemen

Ein mögliches Anwendungsgebiet mit Planungscharakter ist die Personaleinsatzplanung


bei Schichtbetrieb. Dabei gilt es, Mitarbeiter so einzuteilen, daß das notwendige Personal
mit den benötigten Fähigkeiten während der Schichtzeiten zur Verfügung steht, die jewei-
ligen Arbeitszeiten zusammenhängend sind sowie flexible Arbeitszeitwünsche des Perso-
nals berücksichtigt werden. Dazu wurde z. B. an der Universität von Minnesota ein Neu-
ronales Netz zur Personaleinplanung für Fast Food Restaurants entwickelt (Poliac et al.
1987). Ebenfalls hat man bereits die Personaleinsatzplanung bei Fluglinien erfolgreich mit
Neuronalen Netzen versucht (Corall1990).

Eine sehr ähnliche Aufgabenstellung ist das Tourenzuordnungsproblem bei Speditionen


oder Fuhrparks. Die Aufgabe besteht darin, nachdem die klassische Tourenplanung durch-
geführt wurde, Fahrer und LKW's für die einzelnen Touren zu bestimmen. Zu
berücksichtigen sind LKW-Größen, andere technische LKW-Nebenbedingungen sowie ge-
setzliche Bestimmungen für die Fahrer, die das Zuordnungsproblem komplex gestalten.

Es müssen entsprechende Tourenmerkmale, Tourenkombinationen (Input) und Fah-


rer/LKW-Zuordnungen (Output) als Trainingsmaterial dienen. Da bisher überwiegend mit
manuellen Lösungen (z. B. Plantafeln) gearbeitet wurde, läßt sich wiederum die Qualität
der Ergebnisse nur schwer abschätzen. Mittlerweile gibt es auch erste Versuche, Experten-
system-gestützte Anwendungen für diesen Bereich einzusetzen (Lorch/Borkowski 1990).
Mattbias Schumann 45

Dabei steht man allerdings erst am Anfang. Zu berücksichtigen ist, daß bei einer Änderung
der Fahrer/LKW-Relation und Ausstattung wohl ein neuer Lernprozeß initiiert werden
müßte, für den dann wiederum geeignetes Testmaterial erforderlich wäre.

In der Produktionsplanung und -Steuerung gibt es einen weiteren Problembereich, an dem


Konnektionistische Netze getestet werden könnten. Die von einem PPS-System erstellten
Produktionspläne werden oft durch unvorhersehbare Störungen in der Fertigung rasch un-
brauchbar. Schätzungen besagen, daß Betriebe bis zu 80 Prozent der Pläne ändern müssen,
wobei Neuplanungen rechenaufwendig sind. Bei Mittelbetrieben haben hier auch Eilauf-
träge oder der Musterbau Einfluß. Aufgrund der Komplexität ist dabei teilweise der
Fertigungsdisponent überfordert.

Moderne DV-Konzepte sollen nun helfen, die Informationslücke zwischen PPS-Planungs-


läufen zu schließen. Vornehmlich werden Probleme im Bereich lokaler Arbeitsplatz-
gruppen behandelt, bei denen Kapazitätsausfälle oder ein zeitlicher Auftragsverzug im
Vordergrund stehen. So soll eine 'kombinatorische Explosion' des Lösungsraumes vermie-
den werden.

Eine Vorgehensweise wird hier von Rose u. a. mit dem Expertensystem zur Umdisposition
'Umdex' vorgeschlagen (Rose/Klirnek 1990). Das System läßt sich in die Aufgaben
'Diagnose der Störungswirkungen' und 'Beratung zur Umdisposition' trennen. Ausgehend
von einer Abweichungserkennung werden eine Abweichungsbeurteilung, Maßnahmener-
mittlung und Maßnahmenauswahl durchgeführt. Störungs- sowie auftragsbezogene Beur-
teilungen dienen zur Abweichungsanalyse. Es wird schrittweise, vom Kapazitätsbereich
über den Werkstattauftragsbereich zum einzelnen Kundenauftrag und dem gesamten Auf-
tragsnetz, vorgegangen.

Bei der Maßnahmenermittlung testet das System die Anwendbarkeit einzelner


Umplanungsmaßnahmen sowie die daraus entstehenden Nutzeffekte und Aufwendungen.
Dazu wird die konkrete Fertigungssituation herangezogen und eine Alternativensimulation
durchgeführt. Beispielhafte Lösungsvorschläge sind eine Verlagerung von Aufträgen auf
Ausweichanlagen, der Einsatz von Überstunden oder das Verschieben von Wartungsar-
beiten. Das System trennt zwischen Maßnahmen bei Kapazitätsausfall und solchen bei
Verzug von Aufträgen. Bei letzteren stehen das Splitten oder Überlappen von Fertigungs-
losen im Vordergrund.

Eine alternative Vorgehensweise ist ein Simulationsansatz, bei dem für eine eng begrenzte
Betrachtungsperiode und einen ausgewählten Werkstattbereich verschiedene Lösungsan-
sätze auf ihre Eignung überprüft werden. Diesem Ansatz muß eine entsprechende
Abweichungserkennung vorausgehen.

Man könnte nun annehmen, daß die beschriebene Aufgabenstellung auch mit einem
Neuronalen Netz gelöst werden kann. Es müßten nur genügend Umdispositionsfli.lle, die
Ursachen ihrer Auslösung sowie die abgeleiteten Umplanungsmaßnahmen gesammelt
werden. Diese könnten dann als Trainingsmaterial für das Neuronale Netz dienen. Es
46 Neuronale Netze zur Entscheidungsunterstützung

lassen sich mehrere Lösungsstufen vorstellen, bei denen das Netz im ersten Schritt nur eine
Maßnahme oder eine Maßnahmenkette zur Störungsbeseitigung vorschlägt. In einem
zweiten Schritt könnte dann die Umplanung direkt vorgenommen werden.
Bei genauerer Betrachtung erweist sich diese Vorgehensweise allerdings als recht
komplex. Welche Input- und Outputdaten werden verwendet? Außerdem muß der
Umplanungszeitraum für alle Testfälle konstant sein. Für den Eingabevektor reicht es
sicher nicht aus, nur die Störung und den betroffenen Auftrag vorzugeben, dem System
müssen in bewerteter Form das umplanungsrelevante Auftragsspektrum und die Ferti-
gungssituation sowie deren Bewertung bekannt sein, um eine Nutzen-Kosten-adäquate
Lösung vorzuschlagen. Als Eingabemuster läßt sich zum Beispiel für eine Ausfallma-
schine eine Engpaßkategorie aufgrund der Nutzungshäufigkeit und Ausfallzeit vorgeben.
Außerdem ist die Bedeutung der betroffenen Werkstattaufträge (z. B. über eine Auf-
tragspriorität) zu klassifizieren. Allerdings stellt sich die Frage, ob nicht auch Informatio-
nen zu den übrigen Maschinen und eingeplanten Aufträgen des betrachteten Bereichs
notwendig sind, da Umplanungswirkungen entsprechend ausstrahlen und dann Aufwen-
dungen in anderen Bereichen erfordern. Es könnte daher der Fall eintreten, daß das Muster
(Beschreibung der Fertigung, der Aufträge usw.) vollständig abgebildet werden müßte,
ähnlich eines Simulationslaufes. Die Kosten der Umplanung, die sich etwa aus zu-
sätzlichen Rüstzeiten, Überstunden oder Konventionalstrafen durch zu späte Abarbeitung
des Auftrags ergeben würden, wären dann zu minimieren. Es müßte nun eine entspre-
chende Arbeitsfolge identifiziert werden. Zu hinterfragen ist z. B., ob man dabei die
übliche Vorgehensweise nicht umkehren müßte und den Werkstattaufträgen Maschinen
zuweisen sollte. Dabei wären die zu einem Kundenauftrag gehörenden Aufträge jeweils
vollständig abzuarbeiten.

Weiterhin ist zu prüfen, ob bei derart umfangreichen Inputdaten ein Lemprozeß überhaupt
möglich ist oder ob die jeweilige Fertigungssituation nicht durch so spezielle Faktoren
gekennzeichnet wird, daß man dem System immer wieder neue Muster zuführt, so daß es
nicht zum gewünschten Einstellen des Netzes kommt. Darüber hinaus kann man ein
Lernen nur unter der Bedingung durchführen, daß sich die verrichteten Arbeitsgänge, die
verwendeten Maschinen, sowie die Zusammensetzung der Fertigungsauftragsstruktur im
Zeitablauf nicht ändert.

Abbildung 8 zeigt mögliche Problemstellungen des Planungsbereichs noch einmal im


Überblick.

Bei den beschriebenen Aufgaben handelt es sich jeweils um einzelne Teilgebiete eines
größeren Anwendungsbereichs, die mit einem Neuronalen Netz zu bearbeiten wären, um
so zu einer Lösung zu kommen, die im größeren Aufgabenkontext verwendet werden
kann. Speziell bei Beratungssystemen umgeht man so die bei Konnektionistischen
Systemen fehlende Erklärungsfähigkeit Beispiele sind die mit Neuronalen Netzen ver-
suchte Aktienprognose in einem System zur umfassenden Anlageberatung oder das
Identifizieren eines Benutzerprofils in einem Beratungssystem, um den Dialog möglichst
anwendergerecht zu führen.
Matthias Schurnano 47

Schließlich sollte man es vermeiden, unkritisch, möglichst viele Problemstellungen an die


Neuronalen Netze zu übertragen, um sich dann mit der gefundenen Lösung zufrieden zu
geben. Auch die theoretische Weiterentwicklung der Betriebswirtschaft in bezug auf das
explizite, regelorientierte Wissen für ausgewählte Anwendungsgebiete erscheint weiterhin
ausgesprochen wichtig.

Aufgabenbereich Andere Hilfsmittel

1. Travelling -Salesman- heuristische Verfahren


Probleme

2. Personaleinsatzplanung Optimierungsmodelle (ganzzahlig),


Simulation, heuristische Verfahren

3. LKW- und Fahrerzu- Optimierungsmodelle, personell mit


ordnung in der Touren- Plantafeln, Expertensysteme
planung

4. Umdisposition in der personelle Umplanung, Simulation,


Fertigung Expertensysteme

Abb. 8: Potentielle Einsatzgebiete Neuronaler Netze bei Planungsproblemen


48 Neuronale Netze zur Entscheidungsunterstützung

6 Literaturverzeichnis

Altman, E. I. (1968), Financial Ratios, Discriminant Analysis and the Prediction of


Corporate Bankruptcy, in: The Journal of Finance 9, S.589 ff.

Baetge, J., Huß, M. und Niehaus, H., (1986), Die statistische Auswertung von
Jahrsabschlüssen zur Informationsgewinnung bei der Abschlußprüfung, in: Die
Wirtschaftsprüfung 39, Nr.22, S.605 ff.

Beaver, W., (1966), Financial Ratios as Predictors of Failure, in: Journal of Accounting
Research 21 ,No. 1, S.71 ff.

Bodendorf, F. (1990), Benutzermodeliierung mit Hilfe Neuronaler Netze, in: Reuter, A.


(Hrsg.), 20. GI-Jahrestagung, Informatik auf dem Weg zum Anwender, Informatik-
Fachberichte, Beideiberg u. a., S.348 ff.

Borkowski, V. (1989), Erstellung eines konzeptuellen Rahmens zur Durchführung von


Vergleichen zwischen Expertensystemen und alternativen Entscheidungsunterstützungs-
Systemen und Überprüfung der Zweckmäßigkeit am Beispiel des Bankensektors,
Diplomarbeit, Erlangen.

Corall, J. (1990), ESPRIT ANNIE Project, in: ffiC (Hrsg.), The Third European Seminar
on Neural Computing: The Marketplace, London.

Dutta, S. und Shekhar, S. (1989), An Artificial Intelligence Approach to Predicting Bond


Ratings, in: Pau, L. F. et al. (Hrsg.), Expert Systems in Economics, Banking and
Management, Amsterdam u. a., 8.59 ff.

Expert Informatik GmbH (1990), (Hrsg.), Kurzfristige Aktienkursprognose mit


Neuronalen Netzen, Überlingen .

Grenz, T. (1987), Dimensionen und Typen der Unternehmenskrise- Analysemöglichkeiten


auf der Grundlage von Jahrsabschlußinformationen, Frankfurt u.a.

Hecht-Nielsen, R. (1988), Neurocomputing: Pieking the Human Brain, in: IEEE-Spectrum


o.Jg. No. 3, S.36 ff.

Hertweck, F. und Jülich, A. (1990), Transputer-Systeme ftir die Steuerung und


Datenerfassung bei physikalischen Experimenten, in: Handbuch der modernen
Datenverarbeitung Nr. 155, S.95 ff.

Kemke, C. (1988), Der Neuere Konnektionismus - Ein Überblick, in: Informatik Spektrum
No. 11, S.143 ff.
Matthias Schumann 49

Kimoto, T. und Asakawa, K. (1990), Stock Market Prediction System with Modular
Neural Networks, in: IJCN International Joint Conference on Neural Networks, San Diego,
California, June 17-21, 1990, Vol. 1, San Diego, S.1 ff.

Kin, C. L. und Hwee, T. A. (1989), Connectionist Expert Systems for Intelligent Advisory
Applications, in: Pau, L. F. et al. (Hrsg.), Expert Systems in Economics, Banking and
Management, Amsterdam u. a., S.167 ff.

Lippmann, R. P.(1987), An Introduction to Computing with Neural Nets, in: IEEE ASSP
Magazine o.Jg., No. 4, S.7 ff.

Lorch, A. und Borkowski, V. (1990), RATOUREX- Expertensystem zur Steuerung des


Werkfernverkehrs, in: Bodendorf, F. und Mertens, P. (Hrsg.), Universität Erlangen-
Nürnberg, Abteilung Wirtschaftsinformatik, Arbeitspapier Nr. 3/1990, Nürnberg.

Mertens, P. (1977), Die Theorie der Mustererkennung in den Wirtschaftswissenschaften,


in: Zeitschrift für betriebswirtschaftliche Forschung 29, S.777 ff.

Mertens, P. (1990), Zugangssysteme als Weg zur Beherschung komplexer DV-


Anwendungen, in: Reuter, A. (Hrsg.), 20. GI-Jahrestagung, Informatik auf dem Weg zum
Anwender, Informatik-Fachberichte, Heidelberg u. a., S.56 ff.

Minsky, M. und Papert, S. (1969), Perceptrons, Cambridge.

Odom, M. D. und Sharda, R. (1990), A Neural Network Model for Bankruptcy Prediction,
in: IJCN International Joint Conference on Neural Networks, San Diego, California, June
17-21, 1990, Vol. 2, San Diego, S.163 ff.

Papert, S. (1987), One AI or many? Daedalus Winter, S.1 ff.

Poliac, M. 0. et al. (1987), A Crew Scheduling Problem, in: Butler, C. und Caudill, M.
(Hrsg.), IEEE First International Conference on Neural Networks, Vol. IV, San Diego,
S.779 ff.

Rose, H. und Klimek, St. (1990), Stand des Expertensystems UMDEX zur wissensbasier-
ten flexiblen Umdisposition in der Fertigung, in: Bodendorf, F. und Mertens, P. (Hrsg.),
Universität Erlangen-Nürnberg, Abteilung Wirtschaftsinformatik, Arbeitspapier Nr.
2/1990, Nürnberg.

Schreter, Z. (1988), Connectionist Models: Virtues and Problems, in: SGAICO-Newsletter,


SI-Information 20, No. 8, S.27 ff.

Schulte, B. (1989), Der Brain-Trust, in: Manager Magazin 14, Nr. 9, S.150 ff.

Treleaven, P. C. (1989), Neurocomputers, in: International Journal of Neurocomputing 1,


No. 1, S.4 ff.
50 Neuronale Netze zur Entscheidungsunterstützung

Valino, J. und Rubio, R. (1989), Credit Card Evaluation System Based on Neural
Computing, in: Bemold, T. (Hrsg.), Commercial Expert Systems in Banking and Finance,
Corporate Knowledge: How to Get, Evaluate, Use and Maintain, Proceedings of the 2.
International Symposium SGAICO, Lugano, S.165 ff.

Ziegler, U. (1990), Neuronale Netze in betriebswirtschaftliehen Anwendungen- Möglich-


keiten und potentielle Vorteile im Vergleich mit anderen entscheidungsunterstützenden
Methoden, Diplomarbeit, Nümberg .

Zimmermann, H. G. (1990), Neuronale Netze aus Sicht der Ökonomie, in: Fachgruppe
0.1.3 "Neuronale Netze" der Gesellschaft für Informatik e.V. (Hrsg.), Nachrichten
Neuronale Netze 3, S.2 ff.
S*P*A*R*K
Ein Wissensbasiertes System zur Identifizierung strategischer
Einsatzmöglichkeiten von Informationen und Informationstechnologie

Dr. Ronald Bogaschewsky

Institutfür Betriebswirtschaftliche Produktions- und Investitionsforschung der


Georg-August-Universität Göttingen
Inhaltsverzeichnis

1 Einführung 53

2 Wettbewerbsorientierte Nutzung von IIT 53

2.1 Wettbewerbskräfte 53

2.2 Nutzung von Informationen und Informationstechnologie 54

2.3 Strategische Nutzung von IIT 56

3 S*P*A*R*K im Rahmen des SIMS-Projekts 57

4 Konzeptvon S*P*A*R*K 60

4.1 Systemüberblick 60

4.2 Benutzungsoberfläche 61

4.3 Teacher 62

4.4 Browser und Beispieledatenbank 65

4.5 Facilitator und Wissensbank 66

4.5.1 Aufgaben und Funktionen des Facilitators 66

4.5.2 Beispiele für verwendete Analysetechniken 66

4.5.3 Implementierungskonzept 67

4.5.4 Umsetzung des Konzepts 69

4.5.5 Wissensrepräsentationssprache 70

5 Implementierungsstand und geplante Weiterentwicklungen 74

6 Anhang 76

7 Literaturverzeichnis 81
S*P*A*R*K 53

1 Einführung

Eine Möglichkeit das langfristige Bestehen einer Unternehmung im Wettbewerb


sicherzustellen oder sogar Wettbewerbsvorteile zu erlangen, besteht im zielgerichteten
Einsatz von 'Informationen und Informationstechnologie' (IIT). Das Auffinden dieser stra-
tegischen Einsatzmöglichkeiten für IIT bereitet häufig erhebliche Schwierigkeiten, da die
Aufgabenstellung schlecht strukturiert ist und es keine direkten Hilfsmittel zu deren
Lösung gibt. Die Schwierigkeiten, die bei der Suche nach strategischen Ein-
satzmöglichkeiten von IIT entstehen, ließen die Entwicklung eines rechnergestützten
Hilfsmittels als besonders nutzbringend erscheinen. Diese Idee führte zur Konzeption von
S*P*A*R*K, einem Wissensbasierten System zur Identifizierung strategischer Einsatz-
möglichkeiten von IIT, das bei der Generierung erfolgversprechender Ideen behilflich sein
soll.

Nachfolgend wird das Konzept von S*P*A*R*K und dessen Implementierung vorgestellt.
Der Prototyp integriert eine Hypertext-basierte Lernkomponente mit einer multimedialen
Beispieledatenbank und einer wissensbasierten Komponente.

Nach der Einführung in die Problemstellung der wettbewerbsorientierten Nutzung von IIT,
wird zunächst das Projekt zum Strategie Information Management Support am Los
Angeles Scientific Center (LASC) der IBM vorgestellt, in dessen Rahmen auch
S*P*A*R*K konzipiert wurde. Anschließend erfolgt eine detaillierte Beschreibung des
Konzepts von S*P* A*R*K und seiner Implementierung.

2 Wettbewerbsorientierte Nutzung von IIT

2.1 Wettbewerbskräfte

Der ständig zunehmende Wettbewerbsdruck, dem sich die Unternehmung ausgesetzt sieht,
erfordert die Einleitung effizienter Maßnahmen durch die Geschäftsleitung zur Aufrechter-
haltung bzw. zur Erhöhung der Wettbewerbsfähigkeit Diese Maßnahmen sollten sich auf
die den Wettbewerb beeinflussenden Kräfte konzentrieren, die in der Abbildung 1 darge-
stellt sind (Porter 1980, S.4):
54 Ronald Bogaschewsky

Potentielle neue
Marktteilnehmer

'lt

I Lieferanten
I
I
a .....
,. Konkurrenten ~

'
b I
I Kunden l
~
)I'

I Substitute I
Abb.I: Wettbewerbskräfte nach Porter

Die Unternehmung befindet sich hier in der mittleren Box im Konkurrenzkampf mit ihren
Mitwettbewerbern. Das Zusammenwirken der fünf Wettbewerbskräfte wird bei Benennung
der Pfeile in der Abbildung 1 deutlich:

a) Verhandlungsmacht der Lieferanten


b) Verhandlungsmacht der Kunden
c) Bedrohung durch potentielle neue Marktteilnehmer
d) Bedrohung durch Substitute
e) Konkurrenz unter Anbietern

2.2 Nutzung von Informationen und Informationstechnologie

Eine Möglichkeit das langfristige Bestehen in diesem Wettbewerb sicherzustellen oder


sogar Wettbewerbsvorteile zu erlangen, besteht im zielgerichteten Einsatz von Infor-
mationen und Informationstechnologie (IIT)l (siehe auch Schumann 1990;
Schumann/Hohe 1988). In modernen Unternehmungen ist heute ein wesentlicher Teil der
Erfassung, der Speicherung, des Transports, der Verwaltung und der Verarbeitung von
Informationen eng mit der Informationstechnologie verbunden. So wird z.B. ein erhebli-
cher Teil der Daten,2 die als Grundlage für Informationen dienen, auf Rechnern gespei-

Der Begriff Informationstechnologie kann hier durchaus mehrere konkrete Technologien umfassen, wie
z.B. die elektronische Datenverarbeitung, Telefon, Telefax, Satellitenübertragungen etc.
2 Daten werden in diesem Beitrag als Grundelemente von Informationen verstanden. Anderen Definitio-
S*P*A*R*K 55

chert, über Datenleitungen transportiert und verteilt, von Datensichtgeräten aus abgerufen
etc. Diese hardwaremäßige Komponente der Informationstechnologie wird durch die
Software ergänzt, die den zweckgerichteten Betrieb und das Zusammenwirken der Hard-
ware ermöglicht. Dies sind u.a. Betriebssysteme, Datenbankmanagementsysteme, Übertra-
gungsprotokolle, Mail-Systeme etc. (siehe auch Bakopoulos 1985).

Zweifellos existieren aber auch betriebliche Bereiche, die sich der rechnergestützten
Informationsverarbeitung entziehen, oder wo erst seit kurzer Zeit Ansätze entwickelt wer-
den, die eine solche Unterstützung ermöglichen. Hier ist insbesondere an Führungsent-
scheidungen zu denken, die häufig auf der Basis unvollständiger und unsicherer Daten
getroffen werden müssen. Unterstützung kann bei einigen dieser Problemstellungen durch
Wissensbasierte Systeme gegeben werden, die u.a. in der Lage sind, unsicheres Wissen auf
einem Rechner abzubilden.

Grundsätzlich sollte unterschieden werden, ob beim Einsatz von Informationstechnologie


die Anwendung einer Technologie an sich oder die zielgerichtete Nutzung von Informatio-
nen unter Einsatz von Informationstechnologie im Vordergrund steht. Eine solche Diffe-
renzierung erleichtert die effiziente und effektive Planung und Durchführung von entspre-
chenden Projekten (King/Grover/Hufnagel 1989). Als Beispiel für eine Anwendung mit
dem Schwerpunkt Informationstechnologie könnte die Umstellung einer bisher manuell
geführten Lieferantenkartei auf ein Datenbanksystem sein. Die Daten werden dann in einer
Datenbank auf dem Rechner anstatt in einer Kartei gespeichert. Würde nun die gleiche
Datenbank dafür genutzt, um z.B. durch Ermittlung lieferantenbezogener Einkaufswerte
Informationen für Einkaufsverhandlungen zu gewinnen, stände die Nutzung von I nforma-
tionen im Vordergrund.

Die beiden genannten Beispiele skizzieren die bis heute vorherrschenden Arten der rech-
nergestützten lnformationsverarbeitung. Die Automatisierung von Tätigkeiten wurde durch
die Integration von Anwendungen und die automatisierte Auswertung von Daten ergänzt.
Die reine Automatisierung hatte als vorrangiges Ziel die schnellere, exaktere und eventuell
komfortablere Erledigung bisher manuell ausgeführter Tätigkeiten. Dagegen nutzen in
integrierten Systemen mehrere Anwendungen die gleichen Daten gemeinsam oder geben
diese an andere Anwendungen weiter. Zusätzlich können Daten analysiert und als Ent-
scheidungsgrundlage aufbereitet werden.

nen, wie z.B. der, daß Daten Informationen in maschinenlesbarer Form sind, soll hier nicht gefolgt wer-
den.
56 Ronald Bogaschewsky

2.3 Strategische Nutzung von ßT

Während die oben genannten integrierten Systeme permanent weiterentwickelt werden, er-
wächst aus der Konzeption von Systemen, die Informationen und Informationstechnologie
mit dem Ziel nutzen, Wettbewerbsvorteile zu erlangen, ein neues Aufgabengebiet Die
Erlangung dieser Wettbewerbsvorteile kann auf verschiedenste Weise verfolgt werden.
Merkmale, die sich positiv auf die eigene Wettbewerbsposition auswirken, liegen in der
Differenzierung der eigenen Produkte bzw. Dienstleistungen von denen der Konkurrenten,
der Entwicklung neuer Produkte, der Steigerung des Kundenservices oder der Senkung der
beim Kunden anfallenden Kosten, z.B. durch die Herstellung wartungsfreier Produkte u.ä.
Dabei ist eine Konzentration auf bestimmte Marktsegmente möglich, die Abhängigkeit
von Lieferanten oder Kunden vom eigenen Unternehmen kann erhöht oder Eintrittsbarrie-
ren für potentielle neue Marktteilnehmer geschaffen werden (Gongla 1989). Die Planung
von Maßnahmen zur Erreichung von Wettbewerbsvorteilen ist der strategischen Planung
zuzuordnen, da es sich hierbei um Aktivitäten handelt, die die Realisierung der Unterneh-
mensziele direkt und langfristig beeinflussen.

Der Einsatz von IIT zur Erlangung von Wettbewerbsvorteilen wird in jüngster Zeit ver-
stärkt in der Literatur diskutiert (Porter 1985; Wiseman 1988; Gongla 1989). Dabei über-
wiegen Darstellungen von Praxisfällen und Auswertungen über die Verbreitung des
strategischen Einsatzes von IIT. Eine geschlossene Theorie ist bisher nicht erkennbar. Es
existieren einzelne Ansätze zur prinzipiellen Beurteilung strategischer An-
wendungsmöglichkeiten von IIT, die jeweils unterschiedliche Sichtweisen der Problematik
in den Vordergrund stellen.

Für eine Unternehmung stellt sich die Frage, wie vorgegangen werden soll, wenn strategi-
sche Einsatzmöglichkeiten für IIT gesucht werden, die die Erlangung eines Wettbewerbs-
vorteils versprechen und auch aufrecht zu erhalten sind. In Unternehmungen werden zu-
nehmend Arbeitsgruppen, die sich aus Mitarbeitern der Abteilung Informationssysteme
rekrutieren, gebildet. Diese sollen nach erfolgversprechenden Einsatzmöglichkeiten von
IIT suchen, stehen damit jedoch oft vor einer schwer lösbaren Aufgabe. Die hiermit
verbundenen Tätigkeiten erfordern eine enge Vertrautheit mit dem oder den
Betrachtungsobjekt(en) (Produkte/Dienstleistungen) und eine gute Kenntnis der
Unternehmungsumwelt Diese Fähigkeiten sind in erster Linie in betriebswirtschaftlich
ausgebildeten und in diesem Bereich in der Praxis tätigen Personen ausgeprägt. Eine wei-
tere Anforderung an die Fähigkeiten der Teammitglieder sind Kenntnisse auf dem Gebiet
der Informationstechnologie, da andernfalls unter technischen Aspekten unrealistische
Anwendungen konzipiert werden könnten. Ein sinnvoll zusammengesetztes Team sollte
daher aus Betriebswirten und Informatikern oder aus Wirtschaftsinformatikern bestehen,
die zudem über Erfahrungen in der Teamarbeit verfügen. Aufgrund des strategischen
Charakters der Aufgabenstellung sollte von Beginn an und während der gesamten Projekt-
dauer das obere Management bzw. die Unternehmensführung eingebunden sein.
Die Hauptproblematik liegt jedoch häufig darin, daß die Aufgabenstellung schlecht struk-
turiert ist und es keine direkten Hilfsmittel zu deren Lösung gibt. Der Problemlö-
sungsprozeß dürfte aus einer Mischung von Ist-Analyse, dem Anfertigen von Prognosen
und Szenarien, der Anregung durch Praxisbeispiele und einem großen Anteil kreativer
S*P*A*R*K 57

ldeenfindung bestehen. Bei einer solchen Vorgehensweise bestehen jedoch in der Regel
für die gegebene Aufgabe keine großen Erfahrungen in der Unternehmung. Zudem man-
gelt es den an der Planung Beteiligten an direkt verfügbaren Analysemethoden und einer
strukturierten Sammlung von Praxisbeispielen. Die Hinzuziehung externer Berater scheint
in diesem Fall zunächst einen Ausweg darzustellen. Allerdings sind adäquat qualifizierte
und erfahrene Berater in diesem Problemfeld bisher ausgesprochen rar und damit sehr
teuer. Weiterhin unterliegt die zu planende strategische Anwendung eventuell einer
strengen Geheimhaltung, die u.U. die Einbeziehung Externer verbietet (siehe auch
lves/Sakamoto/Gongla 1986).

Die dargestellten Schwierigkeiten, die bei der Suche nach strategischen Ein-
satzmöglichkeiten von llT entstehen, ließen die Entwicklung eines rechnergestützten
Hilfsmittels als besonders nutzbringend erscheinen. Mit einem solchen System kann ein
Teil des "Wissens" mehrerer Experten für dieses Aufgabengebiet zur Verfügung gestellt
werden. Ergänzend können die zahlreich veröffentlichten und bekannten Anwendungsbei-
spiele aus der Praxis in entsprechend aufbereiteter und strukturierter Form zugreifbar sein.
Zusätzlich bestände die Möglichkeit, mit dem System eine Lernkomponente bereitzustel-
len, die dem Benutzer das für qualifizierte Entscheidungen notwendige Wissen vermittelt.

Diese Idee führte zur Konzeption von S*P*A*R*K, einem Wissensbasierten System zur
Identifizierung strategischer Einsatzmöglichkeiten von llT. Dabei war es nicht das Ziel,
Entscheidungen vom System treffen zu lassen oder die Rolle eines menschlichen Beraters
vollständig zu übernehmen. Der Entscheidungsprozeß ist daftir zu vielschichtig geartet und
bedarf der Einbeziehung mehrerer Fachleute. Vielmehr soll S*P*A*R*K bei der Generie-
rung eifo/gversprechender Ideen behilflich sein.

Da ein solches System nicht zwangsläufig firmenspezifisches Wissen beinhalten muß,


kann es für Unternehmungen unterschiedlichster Branche und Größe gleichermaßen ein-
setzbar sein. Bei Implementierung des Systems auf Workstation-Ebene könnte somit eine
kostengünstige Hilfe für mit der Planung beauftragte Mitarbeiter und eine Alternative zu
externen Beratern zur Verfügung gestellt werden.

3 S*P*A*R*K im Rahmen des SIMS-Projekts

S*P*A*R*K wurde im Rahmen des SIMS-Projektes (Strategie Information Management


Support) am Los Angeles Scientific Center der IBM konzipiert. Ziele des SIMS-Projektes
waren (Gongla 1988):

Konzepte und Methoden zur Betrachtung strategischer Aspekte des Informations-


managements zu entwicklen und
die entwickelten Methoden und Konzepte in rechnerbasierte Unterstützungssysteme
für Manager umzusetzen.

Zur Erreichung dieser Ziele wurde ein Beratungssystem, der SIM-Consultant (SIM/C),
entworfen, der in der Abbildung 2 skizziert ist (vgl. Gongla 1988, S.5):
58 Ronald Bogaschewsky

ISession Manager I

- Wettbewerbskräfte
Expert - Geschäftsstrategien
System - Strategische Nutzung von IIT
Environ- - Geschäftsabläufe
ment(ESE) - Informationssysteme
- IT-Strategien

Daten-
I I
Service I I Tool
basen Funktionen I I Box

Abb2: Der SIM-Consultant

Kern des Konzepts ist ein Wissensbasiertes System, das die aufgeführten sechs Problembe-
reiche abdecken sollte. Diese sechs Module des SIM-Consultant sollten bei der Durchfüh-
rung der im folgenden aufgeführten Aufgaben behilflich sein (Gongla 1988; Gongla 1987):

1. Analyse der Wettbewerbskräfte

Förderung des Verständnisses beim Benutzer für die relevanten Wettbewerbskräfte


und Bestimmung der relativen Stärken und Schwächen der Unternehmung.

2. Analyse der Geschäftsstrategien

Skizzierung von Zielen, Prioritäten, Strategien und Chancen. Ansätze zur Integration
von IIT in die Gesamtstrategie durch Defmition von globalen Aufgaben und Zielen
des Informationsmanagements.

3. Analyse strategischer Nutzungsmöglichkeiten von IIT

Unterstützung beim Auffinden und Bewerten von strategischen Einsatzmöglichkeiten


von IIT mit dem Ziel der Erlangung langfristiger Wettbewerbsvorteile.

4. Analyse der Geschäftsabläufe

Förderung des Verständnisses für Geschäftsabläufe. Bestimmung potentieller


Bereiche, die Ausgangspunkt für die Erzielung von Kostenvorteilen oder zur Verbes-
serung der Produktdifferenzierung gegenüber Konkurrenten sein können.
S*P*A*R*K 59

5. Analyse bestehender Informationssysteme

Unterstützung bei der Ermittlung von Effektivität und Effizienz der Dienstleistungen
zur Informationsversorgung in der Unternehmung.

6. Analyse der Informationstechnologie-Strategie

Unterstützung bei der Entwicklung einer Informationsfluß-Architekturund von Stra-


tegien für Informationssysteme als generelle Richtlinie für zukünftige Sy-
stementwicklungen.

Wie aus der Abbildung 2 ersichtlich wird, sollten die sechs Module unter Verwendung von
IBM's Expert System Environment implementiert werden, das auf Mainframes unter den
Betriebssystemen VM und MYS verfligbar war (IBM 1986). Dabei war vorgesehen, mit
dem Session Manager eine einheitliche Benutzungsoberfläche bereitzustellen und eine
Führung des Benutzers anzubieten. Zusätzliche Servicefunktionen (fool Manager, Data
Manager und Presentation Manager) ermöglichen den Zugriff auf Unterstützungssysteme
(Decision-Support-Systeme, Projekt-Management-Systeme, OR- und Statistik-
Programme), auf verschiedene Datenbasen (Data Dictionaries, Datenbanken, benutzerei-
gene Dateien) und auf Präsentationsprogramme (Report-Generatoren, Grafikprograrnme).

Zunächst wurden Prototypen zu den einzelnen Modulen entwickelt, um auf diese Weise
Erfahrungen flir die Umsetzung des Gesamtkonzepts zu gewinnen.
Aufbauend auf den Ideen von Porter (Porter 1980; Porter 1985) und Arbeiten am
Advanced Business Institute der IBM, wurde für den Bereich Wettbewerbskräfte der
Prototyp FüRCES entwickelt (Gongla 1988). FüRCES hilft bei der Bestimmung der rela-
tiven Stärke der Verhandlungsmacht von Lieferanten und Kunden, der Bedrohung durch
neue Marktteilnehmer, Substitutionsprodukte bzw. -dienstleistungen und durch Konkur-
renten. Anschließend erfolgt eine Analyse möglicher Wirkungen von IIT-Anwendungen
auf die Wettbewerbssituation.

THE STRATEGIST (Schumann 1987c; Schumann 1987d) hilft bei der Analyse von
Geschäftsstrategien durch Verknüpfung eines Marktattraktivitäts-/Marktmacht-Portfolios
mit einem Portfolio, das Technologieattraktivität mit der Verfligbarkeit und Stärke der vor-
handenen Informationstechnologie-Ressourcen kombiniert.

Der Prototyp POSITION (McFarlan/McKenney/Pyburn 1983) analysiert bestehende


Informationssysteme durch Bestimmung des strategischen Einflusses der bestehenden
Informationssysteme und des Portfolios geplanter bzw. in der Entwicklung befindlicher
Anwendungsentwicklungen.

KEwiE (Knowledge-based Enterprise-wide Information Economics)


(Parker/Benson/Trainor 1988; Schumann 1987a; Schumann 1987b) ist ein prototypisches
System, das bei der Bewertung und Einstufung in eine Prioritätsreihenfolge vorgeschlage-
ner strategischer Anwendungsmöglichkeiten von fiT unterstützen soll.
60 Ronald Bogaschewsky

S*P*A*R*K soll bei der Ideengenerierung behilflich sein. Ziel ist das Auffinden erfolg-
versprechender Einsatzmöglichkeiten von IIT zur Erlangung langfristiger Wettbewerbs-
vorteile. In der ersten Version des Prototyps (Ives/Sakamoto/Gongla 1986) sollte eine
Lernkomponente (Tutor) zusammen mit Beispielen aus der Praxis auf einem Videoband
bereitgestellt werden. Eine wissensbasierte Komponente (Facilitator) diente als Unterstüt-
zung bei der Ideenfindung und Bewertung potentieller Einsatzmöglichkeiten von IIT.
Dabei wurde der Customer Resource Life Cycle (CRLC) (lves/Learmonth 1984) ver-
wendet, der aus der Sicht des Kunden den Beschaffungs-, Gebrauchs- bzw. Verbrauchs-,
Instandhaltungs- und Entsorgungsvorgang des Produkts in 13 Stufen darstellt.

Die sehr positiven Reaktionen bei Theoretikern und Praktikern auf diesen ersten Proto-
typen führten zu dem Vorhaben, S*P*A*R*K konzeptionell zu überarbeiten, zu erweitern
und neu zu implementieren. Ziele waren dabei in erster Linie die Bereitstellung weiterer
Methoden neben dem CRLC, die Erweiterung und verbesserte Präsentation der Beispiele-
sammlung, eine bessere Integration der Beispiele in den Prozeß der Ideenfindung, eine
bessere Interaktionsfähigkeit zwischen Benutzer und System (Gongla 1988) sowie die
Bereitstellung des Prototypen auf Workstation-Ebene.
Im folgenden wird das Konzept der aktuellen Version von S*P*A*R*K sowie die einge-
setzte Implementierungstechnik aufgezeigt.

4 Konzept von S*P* A*R*K

4.1 Systemüberblick

Der aktuellen Version von S*P*A*R*K liegt ein Konzept zugrunde, das eine funktionale
Dreiteilung des Systems in den Teacher, die Example Database (Beispielesammlung) mit
ihrer Zugriffskomponente (Browser) und den Facilitator vorsieht Der Teacher und die
Beispielesammlung wurden gegenüber der ursprünglichen Version von S*P*A*R*K
logisch und physisch voneinander getrennt. Auf die Beispiele, die in eine Datenbank ein-
gestellt wurden, kann im jetzigen Konzept sowohl direkt über den Browser, als auch über
das wissensbasierte Analysehilfsmittel, den Facilitator, zugegriffen werden. Die jeweiligen
Funktionen können über eine Window-orientierte, gemeinsame Benutzungsoberfläche
angesprochen werden. In der Abbildung 3 ist der Aufbau von S*P*A*R*K schematisch
wiedergegeben:
S*P*A*R*K 61

User Interface

Example Knowledge
Database Base

Abb.3: S*P*A*R*K Systemüberblick

Aufgrund des potentiellen Nutzerkreises-Manager von Unternehmungen verschiedenster


Größenordnung, Mitarbeiter von Informationssystem-Abteilungen, Ausbildungsabteilun-
gen, Beratungsinstitute, Universitätsinstitute - wurde die Realisierung des Prototyps auf
unterer Workstation-Ebene angestrebt Konkret wurden Rechner der Serie Personal
System/2 (PS/2) von ffiM ab der Modellgröße 8560 als Implementierungsplattform aus-
gewählt. Als Betriebssystem wurde wegen der zu erwartenden hohen Anforderungen an
adressierbaren Hauptspeicher das Operating System/2 (OS/2) (siehe ffiM 1989c) benutzt.
Hierfür sprach auch die Tatsache, daß unter OS/2 weitere Software für die Entwicklung
der Benutzungsoberfläche und zur Realisierung des Teachers und der Beispieledatenbank
zur Verfugung stand.

4.2 Benutzungsoberfläche

Da als Zielgruppe potentieller Nutzer von S*P* A*R *K zumindest teilweise Personen
gesehen wurden, die nicht zwangsläufig über Erfahrungen mit dem direkten Umgang mit
Rechnern verfugen, lag der Schwerpunkt bei der Konzeption der Benutzungsoberfläche in
einer möglichst einfachen Systemhandhabung. Somit wurde ein klares Layout angestrebt
sowie eine fehlerarme Befehlseingabeform. Dabei sollte die notwendige Bedienungseffizi-
enz gewahrt bleiben, um geübten Benutzern die Möglichkeit zu schnellen Eingaben zu
bewahren.

Mit dem Presentation Manager stand hierfür ein geeignetes Werkzeug zur Verfügung, mit
dessen Hilfe die Entwicklung einer komfortablen, Window-orientierten Benutzungsober-
fläche möglich ist. Der Benutzer muß lediglich in einige Grundregeln für die Arbeit mit
dieser Oberfläche eingewiesen werden. So ist z.B. zu jedem Zeitpunkt immer nur genau
ein, optisch hervorgehobenes, Window aktiv, d.h. nur dieses Fenster akzeptiert momentan
Eingaben, obwohl eventuell noch weitere Fenster, gegebenenfalls nur teilweise, sichtbar
sind. Sichtbare, aber momentan nicht aktive Windows können durch einfaches Anklicken
62 Ronald Bogaschewsky

mit der Maus aktiviert werden. Zur Überwindung dieser und eventueller weiterer bedie-
nungstechnischer Probleme, ist eine Hilfe-Funktion vorgesehen.

Die Windows enthalten prinzipiell ein Auswahlmenü oder Textinformationen. Über die
Menüs können die einzelnen S*P*A*R*K-Module aufgerufen, eine Eingabe aus einer vor-
gegebenen Menge von Antworten auf Systemfragen oder aus einer Liste von Beispielfallen
ausgewählt werden.

Text-Windows werden für das Anzeigen von Hilfe-Texten und für Erklärungen auf Benut-
zerfragen bezüglich der Vorgehensweise bei Konsultationen des l1acilitators verwendet.

Der elektronische Notizblock benutzt ebenfalls ein Text-Window. In diesem können Ideen,
Bemerkungen, Zwischenergebnisse etc. gespeichert und wieder abgerufen werden. Diese
Funktion soll bei Benutzung jeder Systemkomponente permanent zur Verfügung stehen.

4.3 Teacher

Die Erklärungs- und Lernkomponente, der Teacher, hat zwei grundlegende Zielsetzungen
(Gongla 1989):

Förderung des Verständnisses in welcher Weise IIT zur Erreichung der Geschäftsziele
beitragen können und
Präsentation und Verdeutlichung von Techniken zur Analyse der Unternehmens-
situation.

Die erste Zielsetzung verlangt die Darstellung und Diskussion von Wettbewerbskräften
sowie von Strategien zur Beeinflussung der Wettbewerbsposition der Unternehmung unter
besonderer Berücksichtigung des Einsatzes von IIT. Insofern werden in S*P*A*R*K auch
die ersten beiden Module des SIM-Consultant, zumindest teilweise, mit abgedeckt.

Die Verdeutlichung der im Facilitator verfügbaren Analysetechniken, die das Auffinden


strategischer Einsatzmöglichkeiten von IIT unterstützen sollen, stellt den zweiten inhaltli-
chen Schwerpunkt des Teachers dar.

Weiterhin soll im Teacher das Konzept des Systems S*P* A *R*K verdeutlicht werden.

Als benutzungsseitige Anforderung wurde die Entwicklung einer einfachen, aber effizien-
ten Oberfläche gesehen, die dem Benutzer viel Freiheit läßt, sich auf inhaltliche Aspekte
zu konzentrieren.

Eine grundsätzliche Entscheidung war darüber zu treffen, ob der Teacher auf dem Rechner
installiert, in Form eines Videos bereitgestellt oder in klassischer Weise als papiergebun-
denes Dokument realisiert werden sollte. Die notwendige physische Nähe zu anderen
Systemkomponenten und die damit verbundene jederzeitige Verfügbarkeit des Teachers
legte eine Realisierung auf dem Rechner nahe. Dabei erschien es nicht sinnvoll, eine
direkte Umsetzung eines Lehrbuch- oder Dokumentations-Konzeptes auf ein elektroni-
S*P*A*R*K 63

sches Medium vorzunehmen. Vielmehr sollten die weiterreichenden Möglichkeiten des


Rechners, wie z.B. die flexiblere Verknüpfbarkeit von Informationen, ausgenutzt werden.
Andernfalls könnte nicht zwangsläufig eine gleichhohe Akzeptanz wie für ein
papiergebundenes Dokument erreicht werden, da diese Form der Informationsbereitstel-
lung bei gleichen Inhalten von den Anwendern häufig gegenüber elektronischen Medien
präferiert werden.

Die Anforderungen an den Teacher waren komplex (Bogaschewsky 1991a):

Die zu behandelnden Themengebiete sind vielfach untereinander verknüpft.


Häufige Begriffserläuterungen sind notwendig.
Der Benutzer sollte möglichst frei in der Reihenfolge des Abrufs von
Erläuterungen sein.
Der Benutzer sollte sich nicht "gelehrmeistert" fühlen.
Das System sollte eine möglichst effektive und effiziente Arbeitsweise
erlauben.
Dazu kommt die Tatsache, daß
der Benutzer häufig relativer Computer-Laie ist.

Aufgrund dieser Anforderungen schieden konventionelle (sequentielle) Dar-


stellungsweisen der Sachgebiete aus, wie auch z.B. lernerfolgsorientierte Konzepte.

Mit dem Hypertext-Konzept wurde ein Ansatz gefunden, der nicht-lineare Dar-
stellungsweisen von Informationen erlaubt. Durch die Definition von Beziehungen (Links)
zwischen Informationseinheiten (Knoten), können beliebige Informationsstrukturen, z.B.
Hierarchien, Bäume und Netze, geschaffen werden (Bogaschewsky 199lb). Auf diese
Weise können die Verknüpfungen zwischen sich überschneidenden Themenbereichen dar-
gestellt werden. Nach dem gleichen Prinzip ist die Anhindung von Erläuterungen, Defini-
tionen etc. an im Text verwendete Begriffe möglich. Der Benutzer kann die Reihenfolge
des Aufrufs ihn interessierender Informationseinheiten frei bestimmen, wobei aber auch
eine sinnvolle Vorgehensweise vom System vorgeschlagen oder bestimmt werden kann.
Die Bedienung ist in solchen Systemen in der Regel ausgesprochen einfach und erfolgt
über das Anklicken optisch hervorgehobener Texteinheiten oder besonders markierter Fel-
der auf dem Bildschirm, die Bedienungsfunktionen darstellen.

Die Abbildung 4 zeigt beispielhaft einen Bildschirminhalt des Teachers, in dem drei Kate-
gorien für Analysetechniken und ihre Schnittmengen dargestellt sind. Durch Auswählen
eines der markierten Textfelder (hier in Großbuchstaben und Fettschrift) wird zu einem
Informationsknoten verzweigt, der nähere Auskunft über die entsprechende Kategorie bzw.
Schnittmenge und die ihr zugeordneten Techniken gibt. Die markierten Felder am unteren
Bildschirmrand bieten zusätzliche Möglichkeiten zur Fortbewegung im Hypertext-Doku-
ment, wie Zugriff auf die nächste oder vorherige Seite in einer sequentiellen Reihenfolge,
Sprung zum hierarchisch höchsten Knoten etc. Als weitere Zugriffs- und Orientierungs-
hilfen wird eine Indexfunktion und ein grafischer Browser bereitgestellt. Der Index besteht
aus Schlag- und Stichworten und erlaubt den direkten Zugriff auf die den Indexeinträgen
zugeordneten Knoten. Der grafische Browser zeigt Ausschnitte des gesamten Infor-
64 Ronald Bogaschewsky

mationsnetzes in Fonn einer Karte, d.h. es werden Knoten und die zwischen diesen beste-
henden Links verdeutlicht. Durch Anklicken eines der Knoten kann direkt auf diesen
zugegriffen werden.

S*P*A*R*K Domains Teacher

Domains of conceptual frameworks

FOCUS FT
TARGET

Fl
FTI TI

IITUSE

Abb.4: Anzeigen eines Informationsknotens im Teacher

Im Teacher können Informationen auch in Form von statischen und dynamischen Grafiken
(Animation), importierten Videobildern und Tonaufnahmen dargestellt werden. Der
Teacher ist somit als ein Hypermedia-Dokument anzusehen.
Die Realisierung des Teachers erfolgte unter Einsatz der Audio Visual Connection (AVC)
von mM (mM 1989a; IBM 1989b), die ein multimediales Präsentationssystem ist. Damit
mußte die mit dem Presentation Manager geschaffene Benutzungsoberfläche verlassen
werden. Eine anforderungsgerechte Implementierung des Teachers wäre jedoch sonst nicht
möglich gewesen. Der Aufruf des Teachers erfolgt aus der gemeinsamen Oberfläche
heraus, zu der nach Abschluß der Arbeit mit dieser Komponente zurückgekehrt wird.
S*P*A*R*K 65

4.4 Browser und Beispieledatenbank

Von der am LASC angelegten, umfangreichen Sammlung an Praxisbeispielen (ca. 300) für
die strategische Nutzung von IIT wurden bisher ca. 100 in eine Beispieledatenbank einge-
stellt. Auf diese kann sowohl über den Facilitator als auch über eine hierfür geschaffene
Zugangskomponente, den Browser, zugegriffen werden. Alle Beispiele werden schwer-
punktmäßig durch grafische Darstellungen repräsentiert, wobei Animationen (dynamische
Grafiken) sowie geschriebene und gesprochene Texte integriert wurden.

Zur Implementierung der Beispiele wurde Audio Visual Connection (A VC) von IBM
verwendet, das auch für die Realisierung des Teacher-Moduls genutzt wurde (siehe Kap.
4.3).

Der Browser erlaubt einen direkten Zugriff auf die Beispiele. Um geeignete Praxisfälle
auswählen zu können, wurden den Beispielen Attribute aus vier Kategorien (a-d) zugeord-
net Diese Zuordnung von Attributen nutzt auch der Facilitator, um Beispiele zur Ansicht
zu empfehlen, die zu einem Strategievorschlag passen. Im folgenden sind die verwendeten
Attribute innerhalb ihrer jeweiligen Kategorie aufgeführt:

a) IIT-Nutzung

al) Aktivitäten automatisieren a2) Integration von Systemen


a3) Informationsnutzung a4) Produktbezogene IIT-Nutzung

b) Zielobjekt

bl) Kunden b2) Lieferanten


b3) Konkurrenten b4) Eigene Unternehmung
b5) Substitute b6) Absatzkanäle
b7) Kooperationspartner b8) Pot. neue Marktteilnehmer
b9) Institutionen, die wettbewerbsbeeinflussende Regeln erlassen

c) Aktivitäts-Fokus

cl) Prozeßwechsel c2) Produktivität


c3) Produkt-Differenzierung c4) Produkt-Qualität
eS) Produkt-Entwicklung c6) Wachstum
c7) Marketing c8) Marktsegmentierung
c9) Distribution

d) Branche

dl) Material und Ausrüstung d2) Energie


d3} Menschen d4) Information/Kommunikation
d5) Geld und Kredit
66 Ronald Bogaschewsky

Durch logische UND-Verknüpfung der Attribute werden Praxisfälle aus dem gesuchten
Bereich extrahiert. Die in der Datenbank gefundenen Beispiele werden alphabetisch auf-
steigend nach ihren Titeln in einem Window aufgeführt. Nach Anklicken eines der Titel
erfolgt die Präsentation des Beispiels auf dem Bildschirm. Nach Ansehen eines Praxisfalls
können weitere Beispiele aufgerufen oder eine neue Abfrage formuliert werden.

4.5 Facilitator und Wissensbank

4.5.1 Aufgaben und Funktionen des Facilitators

Der Facilitator stellt die Kernfunktion von S*P*A*R*K dar. Er dient der eigentlichen Un-
terstützung beim Auffmden von Einsatzmöglichkeiten von IIT zur Erlangung von Wett-
bewerbsvorteilen. Hierzu werden verschiedene Methoden und Techniken bereitgestellt, mit
deren Hilfe die Wettbewerbssituation der Unternehmung unter Berücksichtigung interner
und externer Gegebenheiten analysiert werden kann. Gleichzeitig werden die aktuelle und
mögliche zukünftige informationstechnologische Situationen in der Unternehmung und in
Beziehung zu den Geschäftspartnern berücksichtigt. Nach Abschluß der Analyse werden
vom Facilitator Strategievorschläge unterbreitet, in welchen Bereichen, in bezug auf
welche Zielobjekte und durch welche Maßnahmen IIT zur Verbesserung der Wettbewerbs-
situation genutzt werden könnte. Zusätzlich werden auf diese Strategieempfehlungen
bezogene Praxisfälle aus der Beispieledatenbank zur Ansicht bereitgestellt.

4.5.2 Beispiele für verwendete Analysetechniken

S*P*A*R*K stellt Techniken zur Analyse der Unternehmung und deren Wett-
bewerbssituation bereit, deren Grundelemente entsprechenden Fachveröffentlichungen
entnommen wurden. Jede dieser Techniken repräsentiert eine spezifische Sichtweise der
Unternehmenssituation. Dabei schließen sich diese verschiedenen Ansätze nicht zwangs-
läufig gegenseitig aus, sondern ergänzen sich in der Regel. Auf diese Weise kann ein Pool
von "Experten", dargestellt durch die einzelnen Analysetechniken, gebildet werden, die in
S*P*A*R*K "zusammenarbeiten". Bei der Einbindung der Techniken in die Wissensbank
sind diese teilweise für die Aufgaben des Systems anzupassen oder entsprechend zu erwei-
tern.
Die für die Aufnahme in S*P*A*R*K zunächst vorgesehenen Techniken sind im folgen-
den aufgeführt, wobei die Wissensbasis beliebig um weitere Analysetechniken erweitert
werden kann:

Customer Resource Life Cycle (CRLC) (lves/Learmonth 1984),


Opportunity Search Framework (OSF) (Feeny/Brownlee 1986),
Strategie Option Generator (SOG) (Wiseman 1988),
Market Power Grid (MPG) (Thompson/Mead 1988),
Strategie Application Search (SAS) (IBM o.J.) und das
Value Chain Konzept (VCC) (Porter 1985).

Diese Analysehilfsmittel gehen dabei prinzipiell so vor, daß durch Beantwortung von Fra-
67

gen zur Situation der Unternehmung Attributen, die diese Situation beschreiben, Werte
zugeordnet werden. Die Kombination unterschiedlicher Attribut/Wert-Tupel führt dann zu
einer Gesamtbewertung und zu Strategieempfehlungen.

4.5.3 Implementierungskonzept

Für den rechnergestützten Einsatz der Analysetechniken bot sich eine Implementierung
mittels wissensbasierteT Ansätze an, da sich die zu verwendenden Methoden relativ einfach
mit Wissensrepräsentationstechniken (insbesondere Frames und Regeln) abbilden lassen.
Dabei war zusätzlich eine leichtere Wartbarkeit und Erweiterbarkeit der zu implementie-
renden Analysetechniken gegenüber konventionellen Programmierungskonzepten zu
erwarten. Dies basiert auf der Einsicht, daß die Wissenselemente von der Ablaufstruktur
(Problemlösungsstrategie) getrennt werden können, was bei konventioneller Programmie-
rung nicht der Fall ist (Harmon/King 1990). Ungewöhnlich an einem wissensbasierten
Ansatz war dabei die Zielrichtung der Anwendung. Es sollten nicht, wie z.B. häufig bei
Diagnosesystemen der Fall, aus einer großen Anzahl alternativer Lösungen eine oder
einige wenige vorteilhafte Lösungen ermittelt, sondern auf Basis spezifischer Merkmale
möglichst viele sinnvolle Alternativlösungen gefunden werden.

Eine besondere Forderung an den Facilitator war, ein "Zusammenarbeiten" mehrerer der in
der Wissensbank definierten "Experten" an der gleichen Problemstellung zu ermöglichen.
Für die Realisierung dieser Fähigkeit wurde das Blackboard-Modell als Vorbild gewählt.
Dieses kann als Spezifizierung des Opportunistic-Reasoning-Ansatzes gesehen werden, bei
dem vereinfachend ausgedrückt Wissenselemente bedarfsweise in den Problemlösungspro-
zeß unter alternativer Verfolgung von Forward- oder Backward-Reasoning einbezogen
werden, je nachdem welche Strategie mehr zur Lösungsfindung beizutragen verspricht (Nii
1986).

Das Blackboard-Modell sieht eine zentrale "Datensammelstelle", das Blackboard, vor, in


die Eingabedaten (Fakten) und Zwischenergebnisse eingetragen werden. Voneinander
unabhängige "Wissensquellen" (Knowledge Sources), in S*P*A*R*K sind dies die
"Experten" bzw. Analysetechniken, beobachten die Datenänderungen auf dem Blackboard
und prüfen nach jedem Eintrag, ob sie zu einer Lösungsfindung beitragen können. Intern
erfolgt dies durch Vergleichen der Blackboard Daten mit den Konditionen zur Aktivierung
einer Wissensquelle. Gegebenenfalls ergänzt eine Wissensquelle die Einträge auf dem
Blackboard und zieht sich dann wieder in die "Beobachterposition" zurück. Die
Wissensquellen reagieren somit opportunistisch auf die Veränderungen auf dem Black-
board. Dieses wird ausschließlich von den Wissensquellen verändert, und letztere kommu-
nizieren nur über das Blackboard miteinander. Dabei können die Wissensquellen auch In-
formationen nur für sich allein nutzen und nicht über das Blackboard mit den anderen
Quellen teilen, falls dies sinnvoll ist.
68 Ronald Bogaschewsky

Die Abbildung 5 zeigt die Struktur des Blackboard-Modells in der S*P*A*R*K-Anwen-


dung:

KnOWledJge sources
Blackboard
ICRLc I
-Fakten
l SOG I
-Daten
I
1 OSF I
- Teilergebnissei IMPG I
Zwischen-
ergebnisse I SAS I
l vcc _]

Abb.5: Blackboard-Konzept in S*P*A*R*K

Da die Implementierung dieses Konzeptes in einer seriell arbeitenden Rechnerumgebung


vorgenommen wird, muß eine Monitor-Komponente über die Reihenfolge entscheiden, in
der geprüft werden soll, welche Wissensquelle als nächstes auf das Blackboard zugreifen
darf. S*P*A*R*K sieht hierfür den Session Manager3 vor.

In der praktischen Arbeit mit dem Facilitator kann davon ausgegangen werden, daß sich
ein Benutzer zunächst auf einen "Experten" konzentriert. Welcher "Experte" besonders
erfolgversprechend für eine Konsultation wäre, kann dabei nach Eingabe einiger grund-
sätzlicher Merkmale in bezog auf die Situation der Unternehmung und Vorgabe einer
eventuellen Zielrichtung der Analyse vom Facilitator vorgeschlagen werden. Ein Wechsel
von Analysetechniken während einer Sitzung käme vor allem dann in Frage, wenn die
aktuell durchgeführte Analyse nicht mit Aussicht auf Erfolg weitergeführt werden kann.
Zusätzlich können sich positive Effekte bei der aufeinanderfolgenden Konsultation von
"Experten" ergeben, die dann auf die bereits ermittelten Daten und Zwischenlösungen
zurückgreifen könnten.

Eine weitere Forderung an den Facilitator war, Szenarios entwickeln zu können. Dies soll
dadurch ermöglicht werden, daß im Zuge einer Konsultation mehrere Antwortoptionen auf
gestellte Fragen verfolgt werden dürfen. In S*P*A*R*K kann daher das Blackboard mit
allen seinen Inhalten zum Zeitpunkt einer Fragestellung dupliziert und von hier aus mit
unterschiedlichen Antwortoptionen weitergearbeitet werden. Eine solche Duplizierung ist

3 Der Session Manager des Systems S*P* A*R*K hat natürlich nichts mit dem im Konzept des SIM-Con-
sultant dargestellten Session Manager zu tun.
S*P*A*R*K 69

mehrfach möglich. Die Szenarios können z.B. für Sensitivitätsanalysen der Strategieemp-
fehlungen, zur Simulation von Reaktionen der Wettbewerbsteilnehmer und zum Auffinden
von (Gegen-)Reaktionen der eigenen Unternehmung auf Aktionen der Wettbewerbs-
teilnehmer genutzt werden.

4.5.4 Umsetzung des Konzepts

Zur Implementierung des Blackboard-Modells mit den verschiedenen Analysetechniken


als Wissensquellen mußte eine geeignete Wissensrepräsentationsform und eine effiziente
Problemlösungsstrategie gefunden werden. Zur Darstellung des Wissens schien eine
Frame-Struktur (Minsky 1975; Frost 1986) vorteilhaft zu sein. Jede Analysetechnik kann
durch einen Frame beschrieben werden. Die jeweiligen Attribute werden durch Slots defi-
niert. Ein 'Strategie'-Slot ist für die Aufnahme der resultierenden Strategieempfehlung(en)
vorgesehen. Für die Ermittlung dieses Slot-Wertes (unter Umständen kann ein Slot auch
mehrere Werte gleichzeitig annehmen) wird eine definierte Menge von Regeln auf ihre
Anwendbarkeit geprüft und gegebenenfalls ausgeführt. Im einzelnen wird geprüft, ob die
im Bedingungsteil einer Regel geforderten Attributwerte mit den Slotwerten dieser Attri-
bute übereinstimmen. Dabei können Attribute, die in den Slots unterschiedlicher Frames
definiert sind, kombiniert werden. Die Ermittlung der Attributwerte kann durch Befragung
des Benutzers erfolgen oder es wird eine Prozedur aufgerufen, die dem Slot, eventuell
nach Vomahme von Berechnungen, Datenbank-Zugriffen u.ä., einen Wert zuordnet.

Attribute, die nicht für einzelne Analysetechniken spezifisch sind, werden in gesonderten
Frames definiert, wie z.B. solche zur Kennzeichnung von Produkten, Lieferanten, Kunden
oder Absatzkanälen. Hierdurch wird eine klare Strukturierung der Wissensbank möglich.

Für die Umsetzung dieser aus Frames, Regeln und Prozeduren bestehenden, hybriden
Wissensrepräsentationsform mußte eine geeignete Entwicklungsumgebung gefunden
werden. Leider stand zum Zeitpunkt des Implementierungsbeginns kein Werkzeug für
PS/2-Rechner zur Verfügung, das diese Forderungen erfüllen konnte. Daher wurde
entschieden, ein Objekt-orientiertes Programmier-Paradigma (siehe auch Wiener/Pinson
1988) für die Implementierung der Wissensbank und die Formulierung der In-
ferenzstrategie zu verwenden.

Objekt-orientierte Ansätze erlauben die Definition abstrakter Datentypen (Objekte), denen


private (lokale) Daten zugeordnet werden können, und die über eine Menge von Prozedu-
ren verfügen, die auf diese Daten zugreifen können. Mit den Objekten kann nur über die
öffentlich (global) verfügbaren Prozeduren kommuniziert werden, indem dem jeweiligen
Objekt mitgeteilt wird, was der Kommunikationspartner von diesem möchte. Das Objekt
führt die geforderte Tätigkeit durch Aktivierung einer seiner Prozeduren aus, ohne daß der
Benutzer über die Details der Durchführungsweise dieser Tätigkeit Kenntnis hat
(Einkapselungsprinzip). Diese Vorgehensweisen (Methoden) werden für Objektklassen
definiert, die einen neuen Datentyp beschreiben. Hierbei muß zwischen privaten und
öffentlichen Methoden unterschieden werden, d.h. solchen, die nur in der definierten
Klasse gelten, und solchen, die auch in anderen Klassen anwendbar sind. Jedes Objekt ist
70 Ronald Bogaschewsky

eine Instanz der jeweiligen Klasse. Bei der Definition von Unterklassen können die
Charakteristika der übergeordneten Klasse ganz oder teilweise vererbt werden
(Vererbungsprinzip) (Cox 1989).

Frames können als Objekte definiert werden, wobei die Slots private Daten beinhalten. Zu
einer übergeordneten FRAME-Klasse werden die für die Arbeit mit den Frames typischen
und notwendigen Operationen vereinbart, die sich auf alle konkreten Ausprägungen von
Frames anwenden lassen und sich auf Frame-Unterklassen vererben. Die Slots stellen
ihrerseits selbst Objekte dar, die einer SLOT-Klasse angehören. Durch das Einkapselungs-
prinzip reicht die Übersendung einer Nachricht mittels einer Prozedur für die Aktivierung
eines Slots aus. Die darauf folgende, durch den Slot ausgelöste Aktion kann dabei abhän-
gig von der Slot-Klasse sein, die z.B. datentypabhängige Operationen vorsieht.
Als Programmiersprache wurde C++ (siehe Stroustrup 1986) ausgewählt, da dieses Pro-
dukt als relativ gut bewährt und weiträumig verfügbar eingestuft werden kann.

4.5.5 Wissensrepräsentationssprache

Um zu vermeiden, daß das Wissen direkt in C++-Code formuliert werden muß, wurde eine
Wissensrepräsentationssprache (Knowledge Representation Language - KRL) entwickelt.
Durch diese soll die Formulierung des Wissens vereinfacht und damit der Aufbau der
Wissensbasis beschleunigt werden. Das in der KRL definierte Wissen wird mit dem für
diesen Zweck entwickelten KRL-Transtator in C++-Code übersetzt (Bogaschewsky
1991a). Die Definition des Wissens erfolgt über die Beschreibung von Frames und ihrer
Slots, der Regeln und der Prozeduren.
Frames weisen dabei die folgende Struktur auf:

FRAME <frameclass>
POST-INSTANTIATION <pi_procname>
FRAME-CONTROL <fc_procname>
SLOT INTEGER I STRING I BOOLEAN <slotname>

ENDSLOT
ENDFRAME

Im einzelnen bedeuten:

POST-INSTANTIATION
Nach der Instanziierung des Frames erfolgt die Ausführung einer hier zu definierenden
Prozedur.
S*P*A*R*K 71

FRAME-CONTROL
An dieser Stelle wird eine Prozedur definiert (siehe die Darstellung weiter unten), in der
z.B. ein Window spezifiziert werden kann, in dem dem Benutzer in Kurzform die ausge-
wählte Analysetechnik beschrieben wird. Hier wird auch der Backchaining-Prozeß durch
Formulierung des DETERMINE-Befehls initiiert sowie die Zuordnung von Beispielen zu
den möglichen Strategieempfehlungen vorgenommen.

SLOT
Die Slots haben jeweils den folgenden Aufbau:

SLOT INTEGER I STRING I BOOLEAN <slotname>


MULTIVALUED YES I NO
TRANSLATION-NAME <pretty print name>
VISIBLE YES I NO
PROMPT <input prompt text>
PROMPT-DESCRIPTION <text>
REASON-DESCRIPTION <text>
MONOTONIC YES I NO
DETERMINATION <dt_procname>
RULES <rl_procname>
DAEMON <condition> <dm_procname>
POST-DETERMINATION <pd_procname>
LEGAL-V ALUES <vall val2 ... valn> I <valmin-valmax>
DEFAULT <legal value>
ENDSLOT

Im einzelnen bedeuten:

SLOT INTEGER I STRING I BOOLEAN <slotname>


Benennung des Slot und Zuweisung eines Datentyps.

MULTIVALUED
Spezifizierung, ob der vorliegendeSloteinen (NO) oder mehrere (YES) Werte annehmen
darf.

TRANSLATION-NAME
Formulierung einer für den Benutzer verständlichen Beschreibung des Slots, die im Rah-
men einer Erklärung der Problemlösungsstrategie verwendet werden würde.

VISIBLE
Entscheidung, ob der Slot für den Benutzer während einer Konsultation sichtbar werden
darf.

PROMPT
Formulierung des Prompt, d.h. z.B. der Frage an den Benutzer für eine Wertzuweisung an
den Slot.
72 Ronald Bogaschewsky

PROMPT-DESCRIPTION
Formulierung eines Erklärungstextes über den Inhalt der PROMPT-Frage an den Benutzer,
der als Antwort auf eine WHAT-Gegenfrage ausgegeben werden würde.

REASON-DESCRIPTION
Text, der begründet warum eine Frage an den Benutzer gestellt wurde, als Antwort auf
eine WHY -Gegenfrage.

MONOTONIC
Entscheidung über monotones Schlußfolgern, d.h. ob Slotwerte nur einmalig zugewiesen
oder der Slot reinitialisiert und erneut besetzt werden kann.

DETERMINATION
Aufruf einer externen C++-Funktion, die den Slotwert ermittelt und in den Slot einträgt.

RULES
Angabe des Namens eines Regelblocks, der mit dem Slot assoziiert ist.

DAEMON
Aufruf einer externen Prozedur, falls die definierten Bedingungen (Conditions) bezogen
auf den Slotwert erfüllt werden.

POST-DETERMINATION
Angabe einer externen Funktion, die nach der Wertzuweisung an den Slot ausgeführt wird.

LEGAL-VALUES
Definition einer Liste der zulässigen Slotwerte.

DEFAULT
Bestimmung eines Standardwertes für den Slot, falls dieser nicht erfolgreich belegt werden
kann.

Die Regeln werden in der üblichen Form definiert und in jeweils einen Regelblock einge-
bettet:

RULES
IF <condl> AND I OR <cond2> ... AND I OR <condn>
THEN <frameclass>.<slotname> IS <slotvalue_expression>
IF ...
THEN ...

ENDRULES
S*P*A*R*K 73

Die Identifizierung der Attribute erfolgt unter Angabe des Framenamens und des Slot-
namens, wobei die erste Angabe nur notwendig ist, wenn der Slot nicht zu dem Frame
gehört, dem der aktuelle Regelblock zugeordnet ist.

Eine Prozedur für die FRAME-CONTROL kann wie folgt definiert werden:

PROCEDURE <procname>
DETERMINE <slotname>
USE_WINDOW <window_template_name> FILLING (
DISPLAY <textstring>
CHOOSE_OPTIONS <list_of_options>
CASE option 1 <pseudocode>
CASE option 2 <pseudocode>
CASE option n <pseudocode>
)
SELECT EXAMPLES WHERE EXNO = <example_id>
SELECT EXAMPLES WHERE <attribute_list>
IF <condition> THEN <pseudocode>
ENDPROCEDURE

Im einzelnen bedeuten:

DETERMINE
Festlegen des Slots, der als Ziel, beim Arbeiten mit einer Analysetechnik ist dies der
Strategie-Slot, bestimmt werden soll. In diesem Fall dient die Prozedur als FRAME-
CONTROL-Funktion.

USE_WINDOW
Auswahl eines vordefinierten Windows für die folgenden Bildschirmaus- und -eingaben.

DISPLAY
Ausgabe eines Textstrings im definierten Window, z.B. als Einleitung zu einer Konsul-
tation.

CHOOSE_OPTIONS
Beschreibung einer Auswahlliste von Optionen für den Benutzer.

CASE option <pseudocode>


Alternative Vorgehensweise, je nach gewählter Option, wird im Pseudocode festgelegt.

SELECT_EXAMPLES
Zusammenstellung einer Beispielliste in Abhängigkeit von der gegebenen Stra-
tegieempfehlung.
74 Ronald Bogaschewsky

IF <condition> THEN <pseudocode>


Zum Beispiel Definition der Strategieempfehlungen in Abhängigkeit von den Werten des
Strategie-Slots.

Im Anhang findet sich ein Beispiel für die Definition eines Frames (hier für das Oppor-
tunity Search Framework - OSF) sowie der zugeordneten Regeln und Prozeduren. Dabei
wurden einige Beschreibungselemente vereinfacht sowie aus Platzgründen nur ein Teil der
in der Knowledge Representation Language formulierten Repräsentation dieser Analyse-
technik aufgeführt. Aus dem Beispiel wird deutlich, daß nicht alle für das OSF relevanten
Attribute in diesem Frame als Slot definiert worden sind. Die Attribute, die sich auf allge-
meine Merkmale des Produkts bzw. der Dienstleistung, des Absatzkanals, des Kunden, des
Lieferanten, der Konkurrenten etc. beziehen, sind in den jeweiligen Frames, die diese Ob-
jekte beschreiben, definiert. Damit wird das Wissensgebiet besser strukturiert und es wer-
den Redundanzen vermieden.

5 Implementierungsstand und geplante Weiterentwicklungen


Von den Funktionskomponenten des Systems S*P*A*R*K können der Teacher und der
Browser als weitgehend fertiggestellt angesehen werden. Die Beispielesammlung bedarf
weiterer Überarbeitung. Weiterhin kann diese Sammlung weiter ausgebaut werden, da
bereits 200 weitere Beispiele erfaßt wurden, und noch Beispiele u.a. aus dem deutsch-
sprachigen Raum hinzugenommen werden sollten.

Die Benutzungsoberfläche bedarf einer Vervollständigung in Hinsicht auf die Hilfe-Funk-


tion und den elektronischen Notizblock.

In die Wissensbasis wurden bisher zwei Analysetechniken, das Opportunity Search


Framework und das Market Power Grid, aufgenommen. Diese sind bisher nicht abschlie-
ßend getestet worden. Weiterhin bedarf der Session Manager, der die Ak-
tivierungsreihenfolge der "Experten" im Rahmen eines Blackboard-Modells überwachen
soll, weiterer Implementierungsarbeit

Der KRL-Translator bedarf einer Erweiterung, da in Pseudocode formulierte Prozeduren


bisher nicht übersetzt werden können und damit direkt in C++-Code geschrieben werden
müssen.

Aufgrund der Konsolidierung des LASC mit den Scientific Centers in Palo Alto, Cali-
fornia, und Cambridge, Massachusetts, mußte die Entwicklung von S*P*A*R*K vorzeitig
abgebrochen werden. Trotz erheblichen Interesses von Unternehmungen und Universi-
täten, konnte keine Finanzierungsmöglichkeit für eine Fertigstellung des Prototypen
gefunden werden. Der Autor beabsichtigt daher, das Projekt an der Universität Göttingen
fortzuführen. Da die geschaffenen Entwicklungswerkzeuge wie die C++-lnferenzmaschine
und der KRL-Transtator unter Wirtschaftlichkeitsgesichtspunkten nicht mehr gepflegt
werden können, soll eine neue Version von S*P*A*R*K unter Einsatz einer kommerziel-
len Entwicklungsumgebung erstellt werden. Dabei wäre auch zu prüfen, ob Werkzeuge
75

gefunden werden können, die eine Integration der Systemkomponenten von S*P*A*R*K
besser unterstützen. Bisher existieren nur sehr wenige Systeme, die eine effiziente Ver-
knüpfung von Wissensbasierten Systemen, multimedialen Darstellungen und Hypertext-
Dokumenten ermöglichen. Konzeptionelle Verbesserungen und Erweiterungen sind eben-
falls Teil der geplanten Weiterentwicklungsarbeiten.
76 Ronald Bogaschewsky

6 Anhang

FRAME OSF Opportunity Search Framework

FRAME_CONTROL fc_osf

PROCEDURE fc_osf

USE_WINDOW facil_5b

DISPLAY
"Opportunity Search Framework (OSF)"

"The OSF analyses the company's situation by ass1gmng values to the


six attributes: Perceived Product Differentiation, Sector Channel
Structure, Relationship between Need and Product, Frequency of
Purehase Decision, Frequency of Delivery within Contract and
Buyer's Access to IT resources."

"According to your answers conceming the questions associated with


these attributes, the OSF will give recommendations on how to
apply llT successfully."

"(For further information about the OSF see the Teacher module)."

DETERMINE osf.strategy

IF osf.strategy = 'change_channel_struc'

THEN SELECT_EXAMPLES WHERE

(fARGET=DISTRIBUTION_CHANNELS,
FOCUS=DISTRIBUTION_IMPROVEMENT)

USE_WINDOW browser_3 FILLING {

CHOOSE_OPTIONS (Iist of selected examples)}

ENDPROCEDURE
S*P*A*R*K 77

SLOT STRING strategy

MULTIVALUED yes

TRANSLATION-NAME 'Opportunities suggested by the OSF'

RULES rl_osf_strategy

LEGAL_VALUES {be_frrst_offer
be_first_add_service
add_service
market_segmentation
illustrate_value
sales_info
make_effective
ally_for_access
seek_partnership
bias_or_let_ask
change_channel_struc
give_guidance
prompt_for_sales
ally_for_volume
provide_cust_IT
improve_relation
ally_for_link
create_switch_cost}

POST_DETERMINATION pd_osf_strategy

ENDSLOT
78 Ronald Bogascbewsky

SLOT S1RING large_quantity

MULTIVALUED no

PROMPT Do you nonnally trade large quantities of your product per sale ?

PROMPT_DESCRIPTION The significance of a sale differs with the price


of the product and the arnount of products traded per sale.

LEGAL_VALUES {yes, no}

ENDSLOT

SLOT S1RING complex_project

MULTIVALUED no

PROMPT ls the buyer's purchase decision often in connection with a


complex project ?

PROMPT_DESCRIPTION Purehase decisions that are connected to a


complex project or that are part of a complex investment have to
fit into the entire investmentprogram. Therefore, the customer
needs sometimes help in assessing this prograrn.

LEGAL_VALUES {yes, no}

ENDSLOT

SLOT S1RING freq_delivery_contract

MULTIVALUED no

PROMPT How would you rate the frequency of deliveries during the time
of a contract ?

PROMPT_DESCRIPTION Sometimes the frequency ofpurchase decisions is


low, but there is a regular contact between you and the customer inbetween purchase
decisions (call-offs against contract, service, maintenance). Therefore, the
development of an IT-system can sometimes be reasonable in spite of few orders at
a specific location.

LEGAL_VALUES {low, high}

ENDSLOT
ENDFRAME
S*P*A*R*K 79

RULES rl_osf_strategy

The rules for detennining which opportunities should be suggested based on the
Opportunity Search Framework.

IF
cust.perc_prod_diff = 'low' AND
large_quantity = 'no' AND
prod.low_price_commodity = 'yes'
THEN
osf.strategy IS 'be_frrst_offer';
IF
cust.perc_prod_diff = 'low' AND
large_quantity = 'yes' AND
prod.low_price_commodity ='yes'
THEN
osf.strategy IS 'be_frrst_add_service';

IF
cust.perc_prod_diff = 'high' AND
prod.low_price_commodity = 'no'
THEN
osf.strategy IS 'illustrate_value';

IF
cust.perc_prod_diff = 'high' AND
prod.low_price_commodity = 'no' AND
cust.buyer_IT_access = 'poor'
THEN
osf.strategy IS 'add_service'

ENDRULES
80 Ronald Bogaschewsky

PROCEDURE pd_osf_strategy

USE-WINDOW facil_5d

IF osf.strategy IS 'be_frrst_add_service'

THEN DISPLAY

"Because of the low price of the product, the purchaser believes he can be served
equally weil by several alternative products. He is likely to accept the frrst satisfactory
offer made to him. Therefore focus on arranging that your offer is the frrst which the
purchaser considers."

"Since large quantities of the product are normally traded, adding services according
to the Customer Resource Life Cycle, especially the stages 'Specify', 'Select', and
'Order' could yield in gaining a competitive advantage for you."

IF osf.strategy IS 'add_service'

THEN DISPLAY

"Since the product has substantial value for the customer, and the product
differentiation perceived by the customer is relatively high, it seems to be reasonable
to assist the customer in his Resource Life Cycle by adding services, especially
'Specify', 'Select', and 'Order'.

lt is assumed tobe not likely that the customer develops his own IT-system, because
of poor access to IT-resources."

ENDPROCEDURE
S*P*A*R*K 81

7 Literaturverzeichnis

Bak:opoulos, J.Y. (1985), Toward a more precise concept oflnformation Technology, Proc.
of the 6th Int. Conf. on Information Systems, S.17-24.

Bogaschewsky, R. et al. (1991a), S*P*A*R*K Implementation, ffiM Palo Alto Scientific


Center Report, Palo Alto.

Bogaschewsky, R. (1991b), Hypertext/Hypermedia - Ein Überblick, in: Informatik


Spektrum, angenommen zur Veröffentlichung.

Cox, B.J. (1989), Object-Oriented Programming. An Evolutionary Approach, Reading

Feeny, D.F., Brownlee, C.G. (1986), Competition in the era of interactive network
services, Oxford Institute of Information Management, Templeton College, Oxford, RDP
86/17.

Frost, R. (1986), Introduction to Knowledge Base Systems, New York.

Gongla, P. et al. (1987), Doing Strategie Information Management. How An Expert


System Can Help, ffiM Los Angeles Scientific Center Report.

Gongla, P. et al. (1988), Strategie Information Management Support (SIMS): Project


Overview, ffiM Los Angeles Scientific Center Report No. 1988-2829.

Gongla, P. et al. (1989), S*P*A*R*K: A knowledge-based system for identifying


competitive uses ofinformation technology, in: ffiM Systems Journal28, No.4, S.628-645.

Hannon, P.; King, D. (1990), Expertensysteme in der Praxis, 5.Aufl., München-Wien.

IBM Corp. (Hrsg.) (1986), Expert System Consulting Environment and Expert System
Development Environment General Information Manual, ffiM-No.GH20-9597.

ffiM Corp. (Hrsg.) (1989a), Audio Visual Connection. User's Guide, IBM-No.01F0344.

ffiM Corp. (Hrsg.) (1989b), Audio Visual Authoring Langnage Reference, IBM-
No.01F0383.

IBM Corp. (Hrsg.) (1989c), Operating System/2. Programming Tools and Information,
ffiM-No.64F0273.

IBM UK (Hrsg.) (o.J.), Strategie Application Search - How to win with Information
Technology, Working Paper ffiM UK Executive Education Facility, Hursley Park,
Hampshire.
82 Ronald Bogaschewsky

Ives, B., Learmonth, G.P. (1984), The information system as a competitive weapon, in:
Communications ofthe ACM 27, No.12, S.1193-1201.

lves, B., Sakamoto, G., Gongla, P. (1986), A facilitative system for identifying competitive
applications of information technology, ffiM Los Angeles Scientific Center Report No.
0320-2789.

King, W.R., Grover, V., Hufnagel, E.H. (1989), Using Information and Information
Technology for Sustainable Competitive Advantage: Some Empirical Evidence, in:
Information & Management 17, S.87-93.

McFarlan, F.W., McKenney, J.L., Pyburn, P. (1983), The Information Archipelago -


Plotring a Course, in: Harvard Business Review, Jan.-Feb., S.145-156.

Minsky, M. (1975), A Framework For Representing Knowledge, in: Winston, P.H. (Hrsg.),
The Psychology of Computer Vision, New York, S.211-277.

Nii, H.P. (1986), Blackboard Systems: The Blackboard Model of Problem Solving and the
Evolution of Blackboard Architectures, in: The AI Magazine, Summer 1986, S.38-53.

Parker, M.M., Benson, R.J., Trainor, H.E. (1988), Information Economics, Englewood
Cliffs.

Porter, M.E. (1980), Competitive Strategy, New York.

Porter, M.E. (1985), Competitive Advantage, New York.

Schumann, M. (1987a), Methods to quantify the value of Office automation, mM Los


Angeles Scientific Center Report No.1987-2812.

Schumann, M. (1987b}, Selection and prioritization of information technology, IBM Los


Angeles Scientific Center Report No.1987-2819.

Schumann, M. (1987c), Expert Systems for Business Applications, ffiM Los Angeles
Scientific Center Report No.1987-2813.

Schumann, M. (1987d), Business Strategy Advisor, IBM Los Angeles Scientific Center
Report No.1987-2821.

Schumann, M. (1990}, Abschätzung von Nutzeffekten zwischenbetrieblicher In-


formationsverarbeitung, in: Wirtschaftsinformatik 32, S.307-319.

Schumann, M., Hohe, U. (1988), Nutzeffekte strategischer Informationsverarbeitung, in:


Angewandte Informatik 12, S.515-523.

Stroustrup, B. (1986}, The C++ Programming Language, Reading.


83

Thompson, J.M., Mead, K.C. (1988), Boost Your Market Power With Information
Technology, in: Index Group (Hrsg.) lndications, Vol.5, No.2, S.1-6.

Wiener, R.S., Pinson, L.J. (1988), An Introduction to Object-Oriented Programming and


C++, Reading.

Wiseman, C. (1988), Strategie Information Systems, Homewood.


Probleme bei der Evaluation von Tools zur Wissensakquisition

Dr. RolandHeuermann

Institutfür Psychologie der


Georg-August-Universität Göttingen
Inhaltsverzeichnis

1 Einleitung 87

2 Wissensakquisition 87

2.1 Begriff der Wissensakquisition 87

2.2 Theorie der Wissensakquisition 88

2.3 Techniken und Tools der Wissensakquisition 90

3 Evaluation 92

3.1 Begriff und Arten der Evaluation 92

3.2 Probleme bei der Bestimmung von Parametern der Evaluation 94

3.2.1 Probleme bei der Isolierung des Evaluationsobjektes 94

3.2.2 Probleme bei bestimmten Evaluationszielen, -methoden


und -techniken 97

3.3 Pragmatische Probleme 98

3.4 Evaluation der Evaluation 99

4 Diskussion 100

5 Literaturverzeichnis 102
Evaluation von Tools zur Wissensakquisition 87

1 Einleitung

Eines der bedeutenden theoretischen und praktischen Probleme bei der Erstellung
WissensbasierteT Systeme (im folgenden WBS) ist unter dem Schlagwort "knowledge
acquisition bottleneck" in der Literatur bekannt: Das Erheben von Informationen zum
Aufbau einer Wissensbasis ist ein komplexer, zeitaufwendiger und bisher wenig standardi-
sierter Prozeß, der sowohl einen personellen als auch einen qualitativen Engpaß auf dem
Wege zur Erstellung anwendungsreifer Systeme darstellt. Personell, weil die ein WBS her-
stellenden Wissensingenieure (im folgenden Wl) und die das zu installierende Wissen lie-
femden Personen (in der Regel Experten) zeitlich stark beansprucht werden; qualitativ,
weil die Informationen der Wissensquelle häufig unvollständige, überflüssige oder falsche
Elemente enthalten und erst nach gründlicher Analyse dem Verwendungszweck dienen
könnenl.

Ökonomische Gründe und die erstmalige Möglichkeit der Anwendung auch sehr aufwen-
diger Verfahren haben gerade in jüngster Zeit Anlaß zur Entwicklung von Softwaretools
(im folgenden Tools) zwecks Unterstützung der Wissensakquisition (im folgenden WA)
gegeben. Während Konstruktionsidee und Funktionsweise der Tools in der Regel ausrei-
chend dokumentiert werden, fehlen weitgehend Evaluationsstudien2. Es sind mehrere
Gründe hierfür denkbar. Zum einen ist der größte Teil der Tools erst nach 1985 fertig-
gestellt worden. Neben der relativ kurzen Verfügbarkeil aber sind konzeptionelle Probleme
ein bedeutsames Hindernis für eine eingehende Untersuchung. Diese Probleme sollen im
vorliegenden Beitrag auf dem Hintergrund einer Darstellung von Theorie und Praxis der
W A erläutert werden.

2 Wissensakquisition

2.1 Begriff der Wissensakquisition

In der Literatur werden drei verschiedene Arten der Wissensakquisition unterschieden:

a) "Traditionelle" (Grober 1988, S.580) oder "indirekte" WA (Puppe 1989, S.llO), bei
der das Wissen eines Experten von einem WI mit Hilfe von Interviews und anderen
Techniken ohne Unterstützung durch Tools erhoben wird.

b) Direkte WA, bei der interaktive Tools eingesetzt werden und dem Experten bzw. der
sonstigen Wissensquelle selbst der Aufbau der Wissensbasis ermöglicht wird.

Teile des vorliegenden Artikels sind aus der betriebswirtschaftliehen Diplomarbeit des Vedassers
(Heuennann 1989) entnommen. Für das kritische Korrekturlesen des Artikels bedanke ich mich bei
Herrn cand.rer.pol. Klaus-Dieter Achtelik.
2 Eine Ausnahme ist die punktuelle Evaluation des WA-Tools KSSO durch Shaw (Shaw 1988).
88 Roland Heuennano

c) Automatische Wissensakquisition, bei der mit Hilfe von maschinellen Lernprogram-


men Lehrbuchtexte, Protokolle von Interviews usw. ohne Hilfe des WI analysiert wer-
den.

Zu experimentellen oder kommerziellen Zwecken kommt derzeit die traditionelle W A


allein oder in Kombination mit Methoden der direkten W A zum Einsatz. Automatische
W A wird z.Zt. nur experimentell, punktuell und in Kombination mit anderen WA-Arten
praktiziert.

W A ist ein iterativer Prozeß, der sich in mehrere Phasen gliedern läßt; die meisten Phasen-
schemata in der Uteratur enthalten drei (Buchanan 1986, S.20; Grover 1983, S.436) bis
sechs Phasen (Garg-Janardan/Salvendy 1988, S.388), wobei die Unterschiede zwischen
den Autoren weniger auf Meinungsunterschiede als auf Unterschiede in der Detailliertheit
der Darstellung zurückzuführen sind. Phasen der WA sind z.B. (1) das Erheben des (Roh-)
Wissens, (2) die Analyse der Informationen und (3) die Konstruktion eines Modells der
Wissensdomäne. Die Phasen der W A sind Abschnitte des knowledge Engineering
(Motta/Rajan/Eisenstadt 1990, S.22).

W A ist nicht nur zu Beginn der Erstellung eines Systems notwendig, sondern vielfach auch
fortlaufend im Rahmen der Wartung und Aktualisierung einer Wissensbasis.

W A ist kein bloßer Transfer von Expertenwissen, sondern ein kreativer Prozeß der - in
einigen Domänen überhaupt zum ersten Male unternommenen - formalen Rekonstruktion
von Wissen (Musen 1988, S.26.12).

2.2 Theorie der Wissensakquisition

Umfassende Modelle der W A existieren nicht (Littman 1987, S.90); sie wären Spezialfälle
von universellen Theorien über Problemlösen, Wissen, Wissensdiagnose, Informatik, und
Kommunikation.
Im Sinne einer Grundlagenwissenschaft hat ein solches Modell die inhaltlichen und proze-
duralen Aspekte der W A zu analysieren und zu typologisieren, im Sinne anwendungs-
orientierter Forschung sind auch Aussagen zur Gestaltung des W A-Prozesses unter Ein-
schluß aller beteiligten Personen, Wissensquellen und Werkzeuge zu machen.
Forderungen an ein Rahmenmodell wären in absteigender Reihenfolge der Abstraktion
unter anderem die Formulierung

(1) eines bzw. mehrerer Ziele der WA. Hier hat eine Setzung zu erfolgen, wozu W A dient
und wovon sie sich abzugrenzen hat, und auf welcher Ebene der theoretischen
Beschreibung das Modell selbst sich bewegen will;

(2) einer Taxonomie der Wissenselemente im Problemraum,

(3) der Struktur(en) dieser Wissenselemente in einem (mehreren) Repräsentationsmo-


dell(en)
Evaluation von Tools zur Wissensakquisition 89

(4) und einem (mehreren) Inferenzmechanismus(/-men). Das Vorgehen zur Bestimmung


der Elemente einer Rahmentheorie des Wissens wäre eine psychologisch orientierte
ontologische Analyse.

(5) Zu erhebende Wissenstypen sollten bestimmten Diagnoseverfahren zugeordnet wer-


den können und es sollte

(6) generell mehr Klarheit über die Gemeinsamkeiten und Unterschiede zwischen Men-
schen und Computern bzw. WBS als informationsverarbeitenenden Systemen gewon-
nen werden, um Aufschluß über vermeidbare und unvermeidbare Informationsverluste
beim Transfer zu erlangen3.

(7) Es sollte versucht werden, aufgrund der aufgeführten theoretischen Erkenntnisse W A-


Prozesse bis hin zum ingenieurmäßigen Verfahren (Lutze 1987, S.225) zu standardi-
sieren; denkbar ist, daß es mehrere verschiedene Methodologien für spezielle Bereiche
und Zielsetzungen (z.B. kognitive Emulation) geben muß.

(8) Konsequenz einer klaren Rahmentheorie von WA ist es auch, für Methodologien, WI-
Tätigkeiten und eingesetzte Diagnoseverfahren eine Strategie zur theoretischen und
empirischen Bewertung entwickeln zu können. Hieraus resultierten dann auch Hin-
weise für

(9) die Konstruktion von Tools, die den Erfordernissen der W A optimal entsprechen; auch
die weitere Entwicklung von KI-Programmiersprachen könnte hierdurch Impulse
erfahren.

Punktuelle Beiträge zu einem Rahmenmodell der W A sind in absteigender Reihenfolge an


Abstraktion z.B.

Newells Postulierung eines "knowledge Ievel'' (Newell1982): Wissen wird funktionell


und nicht strukturell definiert. Der Ziel-Mittel-Aspekt des Wissens ist zu beachten.
Wenn die Gefahr besteht, durch die Benutzung bestimmter Implementationsroutinen
Aspekte des Expertenwissens zu vernachlässigen, sind in einem ersten Schritt der W A
implementationsunabhängige Repräsentationsformen zu benutzen.

Clancey's Analyse heuristischer Klassifikationsverfahren (Clancey 1985, S.290);


Clancey führt die Analyse einer Problemart auf dem "knowledge Ievel'' durch und
entwirft eine Taxonomie für das Gebiet.

3 Z.B. Stichwort: Prinzipielle Leistungsgrenzen der WBS, vgl. zu Gödel-Theorem etc. Fischler/Firschein
1987, S.43f.; zu wissenschaftstheoretischen Aspekten und dem Gegensatz zwischen realem Original
und idealem Modell Fohman, 1985, S.l30f.
90 Roland Heuennano

KADS (knowledge acquisition and document structuring)4 ist die wohl bekannteste
explizite WA-Methodologie. Sie schlägt ein Top-Down-Vorgehen bei der Wissens-
analyse vor.

Ein "offenes" Rahmenmodell für die Validierung von Methodologien und Tools der
WA (Benbasat/Dhaliwal1989), siehe unten.

2.3 Techniken und Tools der Wissensakquisition

Die in der WA eingesetzten Verfahren lassen sich in WA-Techniken (im folgenden nur
Techniken) und Tools einteilen. Techniken sind Erhebungsinstrumente, Auswertungs-
prozeduren und Heuristiken, um eine W A durchzuführen; Tools sind softwaregestützte
Techniken (Moore/Agogino 1987, S.214).

Die Mehrzahl der für indirekte W A eingesetzten Techniken sind verschiedene Formen von
Interviews. Hinsichtlich der Strukturiertheit der Interviewsituation kann man unterscheiden
(die Klassifikation der Interviewarten ist in der Literatur nicht einheitlich; hier wird eine
eigene Einteilung vorgenommen) (a) das unstrukturierte "freie" Interview, auch Inten-
sivinterview genannt (Stender 1989, S.55) und (b) das strukturierte Interview, in dem der
WI häufig eingreift und Themen sowie Reihenfolge der Fragen weitgehend festgelegt sind.
Beispiele sind die Zielzerlegung (der WI erfragt Subziele der Problemlösung und gliedert
sein weiteres Interview nach diesen Subzielen), das Leiterverfahren (der WI erfragt wich-
tige Konzepte der Domäne und gliedert danach das weitere Interview), Protokolle Lauten
Denkens (simultan zu Handlungen verbalisiert der Experte seine aktuellen handlungsbezo-
genen Gedankengänge) und Verhaltensanalysen.

Die in Interviews erhobenen Informationen sind häufig lückenhaft und enthalten Fehler
(Gaines 1987, S.455; Gammack/Young 1985, S.108).

Interviews zählen zu den "direkten" Verfahren; die direkten Techniken zeichnen sich
gegenüber den indirekten dadurch aus, daß sich ihre Resultate mehr oder weniger iso-
morph in der Wissensbasis wiederfinden (Linster 1988b, S.103). Indirekte Techniken
dagegen benutzen Algorithmen, die eingehende Daten interpretieren und neue Informatio-
nen gewinnen. Beispiele hierfür sind Repertory-Grids bzw. Konstruktgitterverfahren
(Esterby-Smith 1980, S.9-11). Repertory-Grids können als Ausgangsbasis für eine statisti-
sche Analyse von Konzepten oder Eigenschaften benutzt werden, indem sie als Rohdaten-
matrix für multivariate Verfahren interpretiert werden5. Sortier- und Skalierungsverfahren
dienen der multidimensionalen Datenanalyse; die Verwendung von Sortierverfahren6 wird
in der W A Literatur selten berichtet. Unter den Skalierungsverfahren finden insbesondere

4 Implizit liegt bei den Produzenten jedes Tools eine Vorstellung über eine WA-Methode vor; eine
andere explizite WA-Methodologie ist SMEE (Garg-Janardan/Salvendy 1988, S.387ft).
5 Programme hierfür sind z.B. FOCUS, ENTAlL und INGRID (Gaines/Shaw 1980).
6 Z.B. die Heidelberger Struktur-Lege-Technik (Tergan 1988, S.414417).
Evaluation von Tools zur Wissensakquisition 91

die verschiedenen Techniken der multidimensionalen Skalierung (Beschreibung der Ver-


fahren in Backhaus 1987, S.317f.) und der Clusteranalyse (z.B. Cooke/McDonald 1987,
S.535) Verwendung.

Tools sind interaktive Wissenserwerbskomponenten; im Gegensatz zu Shells und Toolkits


dienen sie ausschließlich zum Aufbau der Wissensbasis. Im Gegensatz zu den herkömm-
lichen Wissenserwerbskomponenten von WBS verlangen Tools keine implementations-
nahe Formalisierung des einzugebenden Wissens, sondern ermöglichen eine komfortablere
Kommunikation.

Spezielle Werkzeuge für die Toolerstellung sind in der Regel nicht im Gebrauch. Aus-
nahme ist PROTEGE (Musen 1988, S.26.10), mit dem Tools für spezielle diagnostische
WBS7 erzeugt werden können.

Manche Tools sind für spezielle Expertensysteme oder Shells konzipiert und stellen die
Wissenserwerbskomponente eines Systems bzw. Systemtyps dar, z.B. OPAL ->
ONCOCIN (Musen 1988); TElRESlAS --> MYCIN (Davis/Lenat 1982, S. 229f.;
MOLEKA --> MOLEP (Eshelman 1988); Classika --> MED (Gappa 1988) oder werden
gelegentlich dafür verwendet, z.B. BLIP --> TWAICE (Mellis 1990). Einige der vorlie-
genden Tools werden wohl zu kommerziellen Zwecken eingesetzt (z.B. ETS und
AQUINAS für den Flugzeughersteller BOEING (Boose 1988a, S.297f.), aber meines
Wissens nach nicht selbst vermarktet.

Es gibt eine große Zahl& von Tools mit unterschiedlichen Eigenschaften, zu deren Eintei-
lung Nominal- oder Ordinalkriterien vorgeschlagen wurden. Die umfangreichsten vor-
liegenden Vergleiche benutzen 17 (Boose, 1988b) bzw. 19 Kriterien (Gaines/Boose 1988)
und sind jeweils durch Rating eines Autors entstanden. Aussagekräftige Unterscheidungs-
merkmale sind z.B. die Zahl und Art der in einem Tool integrierten Techniken, der Grad
der Automation von Techniken, die Tiefe des zu erfassenden Wissens (kausales Wissen vs.
Oberflächenwissen), die Domänspezifität von Tools und der Grad an Wahlfreiheit bezüg-
lich der WA-Methode.

7 Tools ähnlich OPAL (Musen et al. 1987).


8 In einer vergleichenden Untersuchung (Boose 1988b, S.l0.7-l0.10) werden 52 Tools aufgelistet.
92 Roland Heuermann

3 Evaluation

3.1 Begriff und Arten der Evaluation

Evaluation ist die " ... umfassende Bezeichnung für alle Arten der Beurteilung unter
Bezugnahme auf irgendwelche inneren Standards oder äußeren Kriterien ... " (Keller 1988,
S. 531). Zu bestimmende Parameter einer Evaluation sind insbesondere das Evaluations-
ziel, das Evaluationsobjekt und die Evaluationstechniken.

Wissenschaftliche Evaluation ist gekennzeichnet durch die Intention der methodisch


begründeten Untersuchung von Eigenschaften eines Evaluationsobjektes; das Objekt der
Evaluierung von Wissensakquisition kann unter anderem ausschließlich ein Tool, eine ein-
zelne Technik oder aber auch ein ganzer WA-Prozeß inklusive softwaregestützter Verfah-
ren und dem Verhalten des Wissensingenieurs sein. Kennzeichen einer methodisch
anspruchsvollen Arbeit ist in der Regel das Erheben von empirischen (Primär-) Daten, die
inferenzstatistisch ausgewertet werden. Denkbar ist auch die Verwendung von empirischen
Daten aus der Literatur, sog. Sekundärdaten. Evaluation ist ein Prozeß, dessen erster
Schritt die Definition der (oder des) Ziele(s) einer Untersuchung ist. Benbasat und
Dhaliwal (Benbasat/Dhaliwal 1989, S.218) unterscheiden drei Typen der Evaluation ftir
WBS, die hier analog für Tools und zusammen mit möglichen Qualitätsmaßstäben diffe-
renziert werden sollen:

Evaluierung der Model/treue; das Modell im Sinne dieser Evaluation ist bei den
Expertensystemen die Problemlösekompetenz des (der) Experten. Das Vorbild für
Tools ist die Kompetenz des WI zur Durchführung der W A. Die Übereinstimmung
zwischen dem Modell und dem Vorbild wird durch das Messen der Validität9 unter-
sucht. Die Validität drückt den Grad der Meßgenauigkeit bezüglich eines Kriteriums
aus; Kriterien sind Vergleichsdimensionen; ein Kriterium für die Validität eines WBS
ist z.B. der Grad des repräsentationalen Homomorphismus zwischen der
Wissensquelle und der erstellten Wissensbasis (Benbasat/Dhaliwal 1989, S.216). Kri-
terien für Tools sind z.B. die analytischen und kommunikativen Fähigkeiten des
Wissensingenieurs sowie die Leistungsfähigkeit traditionell durchgeführter Techni-
ken. Ein auf kürzerer Abbildungsstrecke gelegenes Vorbild des Tools ist die der Too-
lerstellung zugrunde liegende konzeptionelle Vorstellung, d.h. die explizit oder impli-
zit beabsichtigte WA-Methodologie. Die Untersuchung eines Tools auf korrekte
Umsetzung der Systemvorgaben für einzelne Komponenten und das Zusammenwirken
der Komponenten wird "Verifikation" genannt (Benbasat/Dhaliwal 1989, S.217;
O'Keefe et al. 1987, S.82; Sargent 1984, S.l17).

9 Benbasat und Dhaliwal (Benbasat/Dhaliwal1989, 5.218-219) sehen die Validitätsmessung nicht als
einen möglichen Beitrag zur Evaluation. Verschiedene Arten der Validität werden in der Literatur vor-
gestellt (siehe Benbasat/Dhaliwal1989, 5.218-221; O'Keefe et al. 1987, 5.85-87; 5haw 1988, 55.6f.),
ohne daß es einheitliche Definitionen und eindeutige Abgrenzungen gibt.
Evaluation von Tools zur Wissensakquisition 93

Evaluierung der Nutzbarkeit; hier ist festzustellen,

- wie groß der Anteil der durch das Tool verursachten Meßfehler arn Ergebnis ist.
Das Resultat dieser Untersuchung gibt Auskunft über die Reliabilität des Tools.

- ob das Tool bei den Nutzern auf Akzeptanz stößt; Nutzer eines Tools sind Wissens-
ingenieure und/oder Experten.

- ob und inwieweit ergonomische Aspekte bei der Gestaltung des Tools berücksich-
tigt wurden. Wichtige Gesichtspunkte sind unter anderem:
- die Fähigkeit zur übersichtlichen Darstellung bereits erhobenen Wissens;
- die Möglichkeit, domänspezifische Sonderzeichen und Symbole auf dem Bild-
schirm darzustellen;
- die Freiheit des Experten bei der Wahl von Begriffen und der Darstellung von
Beziehungen;
- die Möglichkeit des Ausprobierens und der schnellen Änderung von Eingaben.

Evaluierung der Nützlichkeit; die Analyse der Nützlichkeit befaßt sich mit der rela-
tiven Vorteilhaftigkeit eines Tools sowohl unter ökonomischen als auch unter nicht-
materiellen Gesichtspunkten. Die nichtmateriellen Gesichtspunkte können z.B. der
Grad der Akzeptanz bei Nutzern, die Höhe der Reliabilität und die Höhe der Validität
sein. Die (relative) Nützlichkeit kann in einem Vergleich zwischen zwei und mehr
Tools bzw. einem Tool und traditioneller WA ermittelt werden. Als Meßverfahren ist
hier insbesondere an die Nutzwertanalyse zu denken.

Die aufgeführten "Typen" der Evaluation stellen Bündel von Aspekten des Unter-
suchungsgegenstandes dar, die einander teilweise bedingen: Nützlichkeit und Nutzbarkeit
von Tools z.B. sind nur oberhalb eines bestimmten Mindestniveaus an Validität gegeben;
umgekehrt kann nur ein Tool mit wenig Meßfehlern, d.h. hoher Reliabilität, auch hohe
Validität haben. Die Typologie sagt nichts darüber aus, wie viele verschiedene Verfahren
eingesetzt und wie viele Aspekte eines Tools untersucht werden müssen, um die Zuord-
nung zu einem oder mehreren der Evaluationstypen zu rechtfertigen.

Da umfassende Rahmenmodelle der WA bisher fehlen, kann auch kein vollständiges und
konkretes Modell der Evaluation für Tools existieren; mangels Beispielen für Evalu-
ationsstudien in der Literatur und aufgrund fehlender (pragmatischer) Standards in der
dynamisch wachsenden theoretischen und angewandten Erforschung von Wissensbasierten
Systemen ist der Bestimmung der (des) Evaluationsziele(s) und der methodischen Planung
der Evaluation besondere Aufmerksamkeit zu schenken. Als Neben-Ziel der ersten
Evaluationsstudien für Tools ist somit auch das Beispielgeben anzusehen.
94 Roland Heuermann

3.2 Probleme bei der Bestimmung von Parametern der Evaluation


3.2.1 Probleme bei der Isolierung des Evaluationsobjektes

Das Objekt der Evaluierung von Tools sind natürlich die Tools selbst. Tools stellen quali-
tative Modelle von Wissensakquisitionskonzepten dar; die mit Hilfe von Tools erstellten
Wissensbasen sind ihrerseits qualitative Modelle der Wissensdomäne (vgl. Clancey 1989;
Motta et al. 1990).

Die Evaluierung dieser Modelle setzt voraus, daß der Untersuchung ein (möglichst expli-
zites) Modell der Interaktionen von allen beteiligten Variablen im Prozeß der Wissensak-
quisition zugrundeliegt. Ein solches Modell muß möglichst den Einfluß aller Variablen auf
die abhängige Variable der Messung spezifizieren, um geeignete Maßnahmen zum Heraus-
filtern oder Kontrollieren der Wirkung von Störvariablen spezifizieren zu können. Ein Bei-
spiel für ein solches Modell ist in Abbildung 1 skizziert; wegen des schon erwähnten
Fehlens universaler Modelle über die Wissensakquisition ist auch dieses spezielle
Teilmodell noch entwicklungsbedürftig.

Die Probleme bei dem Entwurf eines Teilmodells lassen sich anband von drei Aspekten
darstellen:

a) Ermitteln der Zahl und der Art von Moderatorvariablen;

b) Analyse des Evaluationsobjektes und Bestimmen der Zahl und Art unabhängiger
Variablen;

c) Bestimmen der Relation zwischen Moderatorvariablen, unabhängigen Variablen und


abhängigen Variablen.

Die wichtigsten Gruppen von Moderatorvariablen sind die am W A-Prozeß beteiligten


Menschen und die Eigenarten des Problemraums. Die Zahl der möglichen Ausprägungen
der Variablen innerhalb dieser Gruppen läßt sich nicht genau angeben. Dies läßt sich am
Beispiel der Experten und Wissensingenieure verdeutlichen: Bei ihnen sind unter anderem
die Arten des kognitiven Stils, der kommunikativen Fähigkeiten und analytischen
Kompetenz zu beachten. Wie viele relevante Ausprägungsgrade dieser Eigenschaften
existieren läßt sich nicht pauschal für alle Domänen angeben. Aber nicht nur die Zahl der
Ausprägungsgrade einer einzelnen Eigenschaft, z.B. des kognitiven Stils, ist von Interesse,
vielmehr macht gerade die Kombination der Ausprägungsgrade verschiedener Eigen-
schaften auf Seiten des Experten und auf Seiten des Wissensingenieurs ihren jeweiligen
Persönlichkeitstyp aus.

Eigenarten des Problemraums sind die Art der Problemlösemethode (analytisch oder
synthetisch) und der Domäne.
Evaluation von Tools zur Wissensakquisition 95

Moderatorvariablen unabhängige Variablen abhängige Variablen

a) Menschen

l. Experte Qualität der


~ Wissensbasis
f--
2. Wissensingenieur

3. Nutzer Zufriedenheit
~ des Experten
und der Nutzer

b) Problemraum

l. Eigenschaften der
Domäne Methode der WA
1--

2. Aufgabe und
Problemlösemethode • ------------------------------
Techniken und
Werkzeuge
-

derWA

~

c) Systementwicklung Effizienz des
Wissens-
akquisitions-
d) Organisatorische prozesses
1--
Umgebung

e) Materielle und
finanzielle Rand- 1--
bedingungen

Abb.l: Funktionale Beziehung der Variablen im Kontext der Wissensakquisition


(modifiziert aus Dhaliwal!Benbasat 1990, S.l46).

Nur auf den ersten Blick unproblematisch ist die Sichtweise eines Tools als einer unab-
hängigen Variable: Viele Tools beinhalten mehrere verschiedene Techniken, die zum Teil
in festgelegter Sequenz oder auch alternativ eingesetzt werden können. Sollen einzelne der
Techniken Untersuchungsobjekt sein, so ist sicherzustellen, daß in einer Untersuchung ihr
quantitativer und qualitativer Beitrag zur Erstellung einer Wissensbasis repräsentativ ist für
das "übliche" Vorgehen.
96 Roland Heuennann

Die Kombination verschiedener Techniken in einem Tool und die verschiedenen Spielar-
ten "einer" Technik machen es auch schwer, von den Ergebnissen vorliegender
Evaluationsstudien mit isoliert eingesetzten, manuell durchgeführten Techniken (siehe z.B.
Burton et al. 1988; Burton et al. 1990) auf die Qualität von Tools bzw. der gleichnamigen
Techniken innerhalb eines Tools zu schließen.

Manche Tools, z.B. KRITON (Linster 1988a}, bieten neben automatischen auch halbauto-
matische Techniken an und erfordern somit weitgehende Eingriffe des WI bei der
Wissenserhebung. Diese (Stör-) Einflüsse gilt es zu berücksichtigen, falls das Tool selbst
das Evaluationsobjekt sein soll. Denkbar ist allerdings auch, statt des Tools die gesamte
Methode der Wissensakquisition zum Untersuchungsobjekt zu machen. Dies liegt eventu-
ell auch deshalb nahe, weil selbst bei "vollautomatischen" Tools Eingriffe des WI erfor-
derlich sind: Er erläutert dem Experten und den Auftraggebern das gesamte methodische
Vorgehen und führt in die Benutzung des Tools ein.

Innerhalb eines Tools lassen sich noch zwei funktionell verschiedene Modulgruppen unter-
scheiden: Die Techniken und die Benutzerführung. Bei den meisten derzeit vorliegenden
Tools ist die Benutzerführung noch recht eng an die jeweilige Technik gekoppelt. Im ein-
fachsten Fall handelt es sich um Menüleisten, die Auskunft über anzuwählende Routinen
oder andere Optionen geben. Denkbar ist aber auch eine aktive Beratung. In AQUINAS
(Kitto/Boose 1987, S.185f.) ist hierfür ein "Dialogmanager" zuständig. Er ist ein Experten-
system, das die Auswahl der Akquisitionstechniken an dem aktuellen Stand der zu erstel-
lenden Wissensbasis orientiert. Der Dialogmanager läßt sich in zwei verschiedenen Modi
betreiben: Automatische und "unterstützende" Benutzerführung. Bei der automatischen
Benutzerführung steuert er die Operationen, im unterstützenden Modus unterbreitet er
begründete Vorschläge. Bei der Evaluation von Tools wie AQUINAS ist zu überlegen, ob
man die Fähigkeiten der Benutzerführung unabhängig von den Techniken analysieren soll.

Die Beziehungen zwischen Moderatorvariablen, unabhängigen und abhängigen Variabeln


folgen nicht logisch "aus der Natur" der Variablen, sondern bedürfen der noch ausstehen-
den empirischen Untersuchung. Denkbar ist z.B. folgender Zusammenhang: Experten mit
relativ schlechter kommunikativer und analytischer Kompetenz profitieren mehr von einer
intelligenten Benutzerführung eines Tools als Experten mit hoher Kompetenz. Bei relativ
einfachen Domänen und enger Aufgabenstellung sind Tools mit wenigen Techniken
angemessener als Tools mit vielen Techniken.

Aus der Diskussion folgt die Erkenntnis, daß eine vollständige Untersuchung aller Interak-
tionen zwischen den Ausprägungen der beteiligten Variablen utopisch ist: Es gibt eine
kombinatorische Explosion der möglichen Konstellationen von Variablen.

Auch ein universales Modell der Interdependenzen aller WA-relevanten Variablen ist vor
dem Hintergrund der jeweils speziellen Philosophie der Toolersteller zu interpretieren.
Dies sei an einem kleinen Beispiel erläutert: Bekannt ist, daß kognitive und andere persön-
liche Eigenarten des Experten das Ergebnis einer Evaluation beeinflussen (Shaw 1987,
S.5.6). Ist es das Ziel der Wissensakquisition, eine möglichst intersubjektiv akzeptable
(d.h. objektive) Wissensbasis aufzubauen, dann muß ein Tool bzw. eine Methodologie mit
Evaluation von Tools zur Wissensakquisition 97

Hilfe mehrerer Experten evaluiert werden. Denkbar ist z.B. die voneinander unabhängige
Erstellung zweier oder mehrerer Wissensbasen einer Domäne durch je einen Experten.
Danach sind beide Wissensbasen zu vergleichen, individuelle Unterschiede zwischen
ihnen sind als unerwünschte Streuung zu wertenlO. Ist jedoch die "kognitive Emulation"
(Slatter 1987) des Experten Ziel der WA, so sind individuelle Unterschiede von Wissens-
basen der gleichen Domäne eventuell Ausdruck der erwünschten Abbildung unterschiedli-
cher Expertentypen.

3.2.2 Probleme bei bestimmten Evaluationszielen, -methoden und -techniken

Die Feststellung der Modelltreue eines Tools setzt eine genaue Spezifikation des Vorbilds
voraus. Ist das Vorbild der Wissensingenieur (Verfahren: Validierung), so werden Krite-
rien benötigt, anband derer die Eigenschaften des Wl mit denen des Tools verglichen wer-
den. Das Problem hierbei ist, daß die Eigenschaften eines guten Wissensingenieurs selbst
noch nicht ausreichend untersucht sindll. Das Persönlichkeitsproftl eines guten Wissens-
ingenieurs wird sicher dem eines guten Systemanalytikers ähnlich sein, doch muß er über
bessere kommunikative Fähigkeiten verfügen. Denkbar ist auch, daß als Vorbild für das
Verhalten des Tools nicht eine einzelne Person, sondern ein Team von Wissensingenieuren
ist. Bei der Bestimmung der Eigenschaften und Verhaltensweisen dieses Teams ergeben
sich analoge Schwierigkeiten wie bei einzelnen Wissensingenieuren.

Eine Evaluation der Nützlichkeit und der Nutzbarkeit von Tools kann die Untersuchung
der Qualität einer erstellten Wissensbasis verlangen. Die hierzu verwendeten Kriterien
sollten Merkmale der Domäne sein, die ohne Hilfe des zu evaluierenden Tools erhoben
wurden. Sie müssen daher ihrerseits mit anderen Tools oder aber mit "manuell" durchge-
führten Techniken ermittelt werden, und hierin liegt eine mögliche Quelle der Kritik an der
Objektivität der Kriteriumswerte.

Soll die Nützlichkeit eines Tools durch einen Vergleich mit anderen Tools oder traditionell
durchgeführten Techniken festgestellt werden, so ist das erhebliche Maß an Freiheitsgra-
den bei der Arbeit mit vielen Tools zu beachten. Künstliche Standardisierungen im Ver-
halten von Experten und Wl, die einen technisch gegebenen Spielraum zum Zwecke der
Vergleichbarkeitzweier Untersuchungsobjekte einengen, schränken gleichzeitig den Wert
eines solchen Vergleichs ein.

Ein methodisches Problem bei der Reliabilitätsmessung ist die Tatsache, daß die ohne
erheblichen Aufwand zu berechnenden Reliabilitätsmaße "split-half' (Durchnumerien der
Wissenselemente, Vergleich der ersten Hälfte mit der zweiten) und "odd-even"
(Durchnumerieren der Wissenselemente, Vergleich der geradzahligen mit den ungerad-
zahligen) für die Toolbewertung anband der Wissensbasis als abhängiger Variable nicht

10 Shaw und Gaines (Shaw/Gaines 1988) beschreiben eine Methode, wie mit Hilfe des Tools KSSO ein
Vergleich verschiedener Experten vorgenommen werden kann.
11 Überblick zum Stand der Forschung und Referenzen zu den weiteren Ausführungen finden sich bei
FeUers (Fellers 1987, S.11-14).
98 Roland Heuermann

verwendbar sindl2. Wissensbasen sind inhomogene Gebilde, deren Qualität nicht mit will-
kürlicher Aufteilung in zwei Hälften untersucht werden kann. Eine Reliabilitätsbestim-
mung mit Meßwiederholungen ist in der Regel nur bei Verwenden verschiedener Experten
pro Meßwiederholungszeitpunkt bzw. je Meßwiederholungsgruppe sinnvoll, da ansonsten
bei der zweiten Wissenserhebung wegen der Vorerfahrung aus dem ersten Meßzeitpunkt
Leistungsvorteile resultieren. Meßwiederholung scheidet daher als Methode der Reliabili-
tätsbestimmung aus, wenn das Ziel der W A die kognitive Emutation eines Experten ist
Die sequentielle Durchführung einer Meßwiederholungsuntersuchung ist zudem dann nicht
angebracht, wenn das Wissen einer Domäne sehr schnell veraltet und durch neue Er-
kenntnisse ersetzt wird.

3.3 Pragmatische Probleme

Eher pragmatische Schwierigkeiten der Evaluation sind die Verfügbarkeil von Tools und
Experten. Der Bezug von nichtkommerziellen Tools ist nur über die Autoren bzw.
Hersteller denkbar. Methodisch anspruchsvolle Studien sind in der Regel nur unter Einsatz
mehrerer Experten durchführbar. Der materielle Aufwand für eine empirische Evaluation
kann somit als hoch und die Möglichkeit der Verfugung über ein gewünschtes Tool als
unsicher veranschlagt werden.

Manche Domäne weisttrotzder zunehmenden internationalen Verflechtung vieler Wissen-


schaften gewisse nationale Eigenarten auf. So gibt es z.B. trotz internationaler Klassifika-
tionssysteme für psychiatrische Erkrankungen Unterschiede in der "praktischen" Diagno-
stik zwischen dem deutschen und dem angloamerikanischen Sprachraum. Diese Situation
mag es angemessen erscheinen lassen, die Nützlichkeits-Evaluierung von Tools in jedem
Sprachraum oder Kulturraum gesondert vorzunehmen. Hinderlich könnte hier sein, daß die
meisten der vorliegenden Tools englischsprachig sind.

Die Ergebnisse der Evaluation eines Tools sind aber nicht nur kulturabhängig, sondern
auch zeitabhängig. Am Beispiel der sehr dynamischen Entwicklungen auf dem Software-
markt, z.B. dem für Textverarbeitungssysteme, zeigt sich, daß die qualitative Bewertung
von Software nur in einem Fall sehr zeitstabil ist: bei schlechter Software. Gute Tools
dagegen verlieren ihre relative Vorteilhaftigkeil mit dem Angebot noch besserer Software.
Dies betrifft primär ihre Nützlichkeit (festgestellt mit einer vergleichenden Messung der
Leistungsfähigkeit), sekundär aber wahrscheinlich auch die Nutzbarkeit: Wenn den bisher
zufriedenen Nutzern eines Tools bekannt wird, daß es leistungsfähigere Produkte gibt,
wird ihre Zufriedenheit mit dem Tool sinken. Ein weiterer indirekter Einfluß der Zeit auf
die Bewertung eines Tools ist durch die Veränderung der Domäne gegeben. Die Halb-
wertszeitvieler Wissensgebiete ist recht kurz; die Veränderung der Domäne besteht häufig
nicht nur im bloßen Austausch veralteter gegen neue Wissenselemente, sondern auch in
der quantitativen und qualitativen Zunahme und in der Art, das Wissen darzustellen bzw.
zu formalisieren. Als Beispiel sei nur die Zunahme statistischer und mathematischer

12 Vgl. Garg-Janardan und Salvendy (Garg-Janardan/Salvendy 1988, S.403) zur Prüfung der SMEE-
Methodologie.
Evaluation von Tools zur Wissensakquisition 99

Methoden in weiten Bereichen naturwissenschaftlicher und geisteswissenschaftlicher


Fächer genannt. Die Brauchbarkeit von Tools kann auch dadurch vermindert werden, daß
sie qualitativ neue Wissensarten einer Domäne nicht mehr optimal erheben können. Diese
Gefahr ist für domänspezifische Tools und Tools mit wenigen Techniken größer als für
Tools mit vielen Techniken.

3.4 Evaluation der Evaluation

Wie die vorangehenden Überlegungen gezeigt haben, ist die Evaluation eines Tools ein
Prozeß der Modellbildung, der Zieldefinition, der Variablenauswahl und der praktischen
Durchführung vor dem Hintergrund zeitbezogener Maßstäbe. Die Eigenschaften einer
Evaluation lassen sich unter anderem anhand folgender Kriterien beschreiben:

- quantitativ: - Zahl der verglichenen Tools;


- Zahl der verglichenen Techniken;
-Zahl der benutzten Vergleichskriterien;
- Zahl der einbezogenen Experten;
- Zahl der einbezogenen Wissensingenieure;

- qualitativ: - Art der evaluierten Techniken;


- Art der evaluierten WA-Methode(n);
- Objekt der Evaluation:
a) Tool + Methode der W A + WI;
b) Tool + Methode der W A;
c) Tool (Techniken+ Benutzerftihrung);
d) alle Techniken des Tools;
e) einzelne Techniken des Tools;
-Art der Vergleichsmaßstäbe/-kriterien:
a) numerische Kriterien
(z.B. Korrelationskoeffizienten);
b) nicht-numerische Kriterien
(z.B. Plausibilitätsüberlegungen,
Erfahrung von Benutzern).

Die aufgeführten quantitativen und qualitativen Merkmale einer Evaluationsstudie sind vor
dem Hintergrund des jeweiligen Ziels der Untersuchung zu werten. Ziele der Evaluation
sind, wie oben ausgeführt, das Prüfen der Modelltreue, der Nützlichkeit und der Nutzbar-
keit. Die geschilderten Aspekte lassen sich in einer Matrix darstellen, die in Abbildung 2
angedeutet ist. Die Zahl möglicher Kombinationen von Zielen, qualitativen und quan-
titativen Beziehungen ist - wie sich aus den vorangegangenen Ausführungen ergibt - sehr
hoch. Es erscheint daher kaum vorstellbar, daß eine Evaluationsstudie mit der Absicht
einer vollständigen Untersuchung aller Aspekte eines Tools durchgeführt wird. Eine
brauchbare Untersuchung wird sich auf relevante Aspekte beschränken und ist selbst wie
100 Roland Heuennano

derum daran zu messen, inwieweit sie diesen eigenen Ansprüchen vor dem Hintergrund
der bekannten Literatur gerecht wird. Da umfangreiche Evaluationsstudien bisher fehlen,
mangelt es zur Zeit weitgehend an Vergleichsmaßstäben.

Zieleder Methode der Evaluation


Evaluation qualitativ quantitativ

Modelltreue

Nutzbarkeit

Nützlichkeit

Abb. 2: Bewertungsmatrix für Evaluationsstudien.

Zwei besonders relevante Fragestellungen für erste Arbeiten mit begrenztem Unter-
suchungsauftrag sind meines Erachtens

a) der ökonomische Aspekt. Ist der Einsatz eines Tools ökonomischer als die Durchfüh-
rung einer traditionellen WA? Spezieller und "anders herum" formuliert: Lassen sich
allgemeine Bedingungen fmden, unter denen der Einsatz von Tools ökonomisch
ungünstiger ist als der einer traditionellen W A ?

b) der theoretische Aspekt: Wie hoch sind der Grad der Modelltreue und die Reliabilität
eines Tools ? Unterscheiden sich die mit einem Tool erstellten Wissensbasen von
denen bei traditionell durchgeführter W A?

4 Diskussion

Die Evaluierung von Tools ist, wie gezeigt, ein mit zahlreichen Schwierigkeiten behaftetes
Unterfangen. Diese Situationsbeschreibung kann jedoch keinesfalls als Argument gegen
die Durchführung von Evaluationsstudien gewertet werden. Vielmehr ist hiermit nur
erklärt, aus welchen Gründen es noch für keines der zahlreichen Tools eine umfangreiche
Evaluation gibt. Die geschilderten methodischen Schwierigkeiten sind Ausdruck der Tat-
sache, daß die Wissensakquisition allgemein und die softwaregestützte W A im Speziellen
sich noch in der Pionierphase ihrer praktischen Anwendung befinden. Methodische Pro-
Evaluation von Too!s zur Wissensakquisition 101

bleme der Konzeption von Evaluationsstudien sind auch Ausdruck der Tatsache, daß die
Domäne W A bisher nicht ausreichend theoretisch verstanden und praktisch beherrscht
wird13 •

Die Fähigkeit zur Evaluierung von Techniken und Tools ist kein Wissen, das sich unab-
hängig von der Domäne "Wissensakquisition" entwickelt. Wäre dem so, dann könnte man
bis zum Erreichen einer bestimmten Reife der Domäne warten und im Anschluß daran mit
den Evaluationsstudien starten. Vielmehr aber ist zu erwarten, daß die konzeptuellen
Überlegungen zur Evaluierung von Tools und die empirischen Ergebnisse solcher Studien
selbst zu einem Fortschritt in der untersuchten Domäne beitragen werden. Sie können
Konstrukteuren Hinweise zur Gestaltung effizienterer und Anwendern Entscheidungshilfen
zur Auswahl der für ihre Zwecke geeigneten Tools geben.

13 Green und Keyes (Green/Keyes 1987, S. 39) beschreiben am Beispiel der Situation bei WBS einen
Teufelskreis, den es zu durchbrechen gilt:
a) Es liegen keine Validitätsstudien vor.
b) Niemand verlangt nach Validitätsstudien, da sie nicht verfügbar sind.
c) Es können keine Validitätsstudien durchgeführt werden, da mangels Vorerfahrung das
notwendige Wissen hierzu fehlt.
102 Roland Heuermann

5 Literaturverzeichnis

Badehaus, K. (1987), Multivariate Analysemethoden: Eine anwendungsorientierte


Einführung, Berlin u.a.

Benbasat, I. und Dhaliwal, J.S. (1989), A framework for the validation of knowledge
acquisition, in: Knowledge Acquisition, 1, 8.215-233.

Boose, J.H. (1985), A knowledge acquisition program for expert systems based on
personal construct psychology, in: International Journal of Man-Machine Studies 23,
8.495-525.

Boose, J.H. (1988a), Uses of repertory grid-centered knowledge acquisition tools for
knowledge-based systems, in: International Journal of Man-Machine Studies 29, 8.287-
310.

Boose, J.H. (1988b), A research framework for knowledge acquisition techniques and
tools, in: Boose, J., Gaines, B. und Linster, M. (Hrsg.), Proceedings of the European
knowledge acquisition workshop (EKAW '88), Sankt Augustin, 8.10.1-10.13.

Buchanan, B.G. (1986), Some approaches to knowledge acquisition, in: Mitchell, T.M.,
Carbonnell, J.G. und Michalski, R.S. (Hrsg.), Machine leaming. A guide to current
research, Boston u.a., S.19-24.

Burton, A.M. et al. (1988), A formal evaluation of knowledge elicitation techniques for
expert systems: Domain 1, in: Moralee, D.S. (Hrsg.), Research and development in expert
systems IV, London u.a., 8.136-145.

Burton, A.M. et a. (1990), The efficacy of knowledge elicitation techniques: A comparison


across domains and Ievels of expertise. In: Knowledge Acquisition 2, 8.167-178.

Clancey, W.J. (1985), Heuristic classification, in: Artificial Intelligence 25, 8.289-350.

Clancey, W.J. (1989), Viewing knowledge bases as qualitative models, in: IEEE Expert 4,
S.9-22.

Cooke, N.M. und McDonald, E. (1987), The application of psychological scaling


techniques to knowledge elicitation for knowledge-based systems, in: International Journal
of Man-Machine Studies 26, 8.533-550.

Davis, R. und Lenat, D.B. (1982), Knowledge-based systems in artificial intelligence, New
York.

Dhaliwal, J.S. und Benbasat, I. (1990), A framework for the comparative evaluation of
knowledge acquisition tools and techniques, in: Knowledge Acquisition 2, 8.145-166.
Evaluation von Tools zur Wissensakquisition 103

Eshelman, L. (1988), MOLE: a knowledge acquisition tool that buries certainty factors, in:
International Journal ofMan-Machine Studies 29, S.563-577.

Esterby-Smith, M. (1980), The design, analysis and interpretation of repertory grids, in:
International Journal ofMan-Machine Studies 13, S.3-24.

FeUers, J.W. (1987), Key factors in knowledge acquisition, in: Computer Personnel11, S.
10-24.

Fischler, M.A. und Firschein, D. (1987), Intelligence: The eye, the brain, and the
computer, Reading.

Fohmann, L. (1985), Wissenserwerb und maschinelles Lernen, in: Savory, S.E. (Hrsg.),
Künstliche Intelligenz und Expertensysteme, München u.a.

Gaines, B.R. (1987), An overview of knowledge-acquisition and transfer, in: International


Journal ofMan-Machine Studies 26, S.453-472.

Gammack, J.G. und Young, J.G. (1985), Psychological techniques for eliciting expert
knowledge, in: Bramer, M.A. (Hrsg.), Research and development in expert systems,
London u.a., S.105-116.

Gappa, U. (1988), CLASSIKA: a knowledge acquisition system facilitating the


formalization of advanced aspects in heuristic classification, in: Boose, J., Gaines, B. und
Linster, M. (Hrsg.), Proceedings of the European knowledge acquisition workshop
(EKAW '88), Sankt Augustin, S.19.1-19.16.

Garg-Janardan, C. und Salvendy, G. (1988), A structured knowledge elicitation


methodology for building expert systems, in: International Journal of Man-Machine
Studies 29, S.377-406.

Green, C.J.R. und Keyes, M.M. (1987), Verification and validation of expert systems, in:
Proceedings of the Western Comrnitee on Expert Systems, Anaheim/California, S.38-43.

Grover, M.D. (1983), A pragrnatic knowledge acquisition methodology, in: Proceedings of


the 8th International Joint Conference on Artificial Intelligence, S.436-438.

Grober, T.R. (1988), Acquiring strategic knowledge from experts, in: International Journal
of Man-Machine Studies 29, S.579-597.

Heuermann, R. (1989), Psychologische Aspekte der Wissensakquisition im Rahmen der


Entwicklung wissensbasierter Systeme, Göttingen, unveröffentlichte Diplomarbeit im
Fachbereich Wirtschaftswissenschaften.

Keller, J.A. (1986), Evaluation, in: Arnold, W., Eysenck, H.J. und Meili, R. (Hrsg.),
Lexikon der Psychologie, Bd. 1, Freiburg i. Br., S.531.
104 Roland Heuermann

Kitto, C.M. und Boose, J.H. (1989), Heuristics for expertise transfer: an implementation of
a dialog manager for knowledge acquisition, in: International Journal of Man-Machine
Studies 26, S.183-202.

Linster, M. (1988a), KRITON: A knowledge elicitation tool for expert systems, in: Boose,
J., Gaines, B. und Linster, M. (Hrsg.), Proceedings of the European knowledge acquisition
workshop (EKAW '88), Sankt Augustin, S.4.1-4.5.

Linster, M. (1988b), Wissensakquisition: Stand der Dinge und Perspektiven, in: Hendler,
J.A. (Hrsg.), Expert systems, Norwood, S.99-119.

Littman, D.C. (1987), Modelling human expertise in knowledge engineering: Some


preliminary observations, in: International Journal of Man-Machine-Studies 26, S.81-92.

Lutze, R. (1987), Von der Wissensakquisition zur Phylogenese wissensbasierter Systeme,


in: Balzert, H., Heyer, G. und Lutze, R. (Hrsg.), Expertensysteme '87. Konzepte und
Werkzeuge, Stuttgart, S.222-239.

Mellis, W. (1990), LERNER: Wissensakquisition und Maschinelles Lernen, in: KI 1, S.8-


10.

Moore, E.A. und Agogino, A.M. (1987), INFORM: an architecture for expert-directed
knowledge acquisition, in: International Journal of Man-Machine Studies 26, S.213-230.

Motta, E., Rajan, T. und Eisenstadt, M. (1990), Knowledge acquisition as a process of


model refinement, in: Knowledge Acquisition 2, S.21-49.

Musen, M.A. (1988), Conceptual models of interactive knowledge acquisition tools, in:
Boose, J., Gaines, B. und Linster, M. (Hrsg.), Proceedings of the European knowledge
acquisition workshop (EKAW '88), Sankt Augustin, S.26.1-26.15.

Musen, M.A. et al. (1988), Use of a domain model to drive an interactive knowledge-
editing tool, in: Boose, J.H. und Gaines, B.R. (Hrsg.), Knowledge acquisition tools for
expert systems. Knowledge-based systems, vol. 2, London u.a., S.257-273.

Newell, A. (1982), The knowledge Ievel, in: Artificial Intelligence 18, 87-127.

O'Keefe, R.M., Balci, 0. und Smith, B.P. (1987), Validating expert system performance,
in: IEEE Expert 2, S.81-90.

Puppe, F. (1988), Einführung in Expertensysteme, Berlin u.a.

Sargent, R.G. (1985), A tutorial on verification and validation of simulation models, in:
Shephard, S., Pooch, U. und Pegden, D. (Hrsg.), Proceedings of the 1984 winter Simulation
Conference, S.15-22.
Evaluation von Tools zur Wissensakquisition 105

Shaw, M.L. (1988), Problems of validation in a knowledge acquisition system using


multiple experts, in: Boose, J., Gaines, B. und Linster, M. (Hrsg.), Proceedings of the
European Knowledge Acquisition workshop (EAKW '88), Sankt Augustin, S.5.1-5.15.

Shaw, M.L. und Gaines, B.R. (1988), A methodology for recognizing consensus,
correspondence, conflict and contrast in a knowledge acquisition system, in: 3rd AAAI-
sponsored Knowledge Acquisition for Knowledge-based Systems Workshop, Banff,
S.30.1-30.19.

Slatter, P.E. (1987), Building expert systems: Cognitive emulation, Chichester.

Stender, J.(1989), Wissenserhebung und -strukturierung in Expertensystemen. Ein


induktiver Ansatz, Haar bei München.

Tergan, S.O. (1986), Modelle der Wissensrepräsentation als Grundlage qualitativer


Wissensdiagnostik, Opladen.

Woodward, B. (1990), Knowledge acquisition at the front end: Defining the domain, in:
Knowledge Acquisition 2, S.73-94.
Ein Rahmenmodell für den Einsatz Wissensbasierter Systeme
Projekterfahrungen mit einem Wissensbasierten System zu Förderhilfen
im Handwerk

Hans-Ulrich Wandel

Institut für Betriebswirtschaftliche Produktions- und Investitionsforschung der


Georg-August-Universität Göttingen
Inhaltsverzeichnis

1 Problemstellung und Vorgehensweise 109

1.1 Ziel der Arbeit 109

1.2 Hintergründe für die Entwicklung des Wissensbasierten Systems


"HAFÖX" 110

2 Das Wissensbasierte System "HAFÖX" 111

2.1 Aufbau der Wissensbasis von "HAFÖX" 111

2.2 Funktionsweise von "HAFÖX" 111

3, Systemtest 113

3.1 Ausgangsthesen zum Einsatz von "HAFÖX" in der Betriebsberatung


der Handwerkskammern 113

3.2 Beurteilung von "HAFÖX" durch vier Handwerkskammern 113

4 Ein Konzept Wissenbasiertet Programmierung 115

4.1 "Shells" versus konventionelle Programmiersprachen 115

4.2 Alternative Programmierung von "HAFÖX" 117

5 Bewertung Wissenbasiertet Systeme 120

5.1 Verfahren der Bewertung 120

5.2 Beispielhafte Bewertung von "HAFÖX" 121

6 Einsatz Wissensbasiertet Systeme in der betrieblichen Praxis 123

6.1 Bedeutung von Wissensrepräsentation und -akquisition 123

6.2 Ein Rahmenmodell für den Einsatz Wissensbasiertet Systeme 125

7 Literaturverzeichnis 127
Ein Rahmenmodell für Wissensbasierte Systeme 109

1 Problemstellung und Vorgehensweise

1.1 Ziel der Arbeit

Wissensbasierte Programmiertechniken ennöglichen die Darstellung komplexer Zusam-


menhänge, welche mit Hilfe konventioneller Programmiersprachen u.U. nur schwer reprä-
sentiert werden können. So eröffnen insbesondere Erklärungskomponenten und Funktio-
nen zur Einbindung unsicheren Wissens (Buchanan/van Melle/Shortliffe 1985, S.302-313)
Wissensbasierten Systemen neue Einsatzgebiete, die konventionellen Programmier-
sprachen bisher vorenthalten waren. Andererseits herrscht aber nach einer anfänglichen
Euphorie augenblicklich eine gewisse Nüchternheit hinsichtlich der Leistungsfähigkeit
Wissensbasierter Systeme. Schon deren Definition läßt ahnen, daß sich in bezug auf ihre
Einsatzmöglichkeiten komplexe Fragestellungen ergeben: Wissensbasierte Systeme inte-
grieren Konzepte und Techniken aus den Bereichen Datenbanken, fonnale Logik, Exper-
tensysteme und natürlichsprachliche Systeme und bestehen aus einer Wissensbasis,
Mechanismen zur Aufrechterhaltung der Datensicherheit und -integrität und Eingabe-
Ausgabe-Routinen für deduktive Systemabfragen (Frost 1986, S. 5-7).

Die potentiellen Anwendungsgebiete Wissenbasierter Systeme reichen in der Betriebswirt-


schaft von der Produktionssteuerung bis hin zur Entscheidungsunterstützung der Unter-
nehmensführung (Mertens/Borkowski/Geis 1988; Scheer 1989; Zelewski 1986). Für die
praktische Anwendung jedoch birgt die Mächtigkeit wissensbasierter Programmierung
eine Gefahr, da sie leicht zu einer Überbetonung technischer Aspekte bei der Systement-
wicklung verleitet. Dies belegt u.a. eine Untersuchung von MERTENS: 1990 waren von
insgesamt 697 Expertensystem-Prototypen in deutschsprachigen Ländern lediglich 144 in
die betriebliche Praxis überführt (Mertens 1990, S. 18f.)
Ziel dieser Arbeit ist es, einen Beitrag zur Klärung des Anwendungsdefizits bei Wissens-
basierten Systemen zu leisten. Dabei wird von der These ausgegangen, daß nicht Pro-
grammiertechnik, sondern Problemanalyse und Wissensmodellierung im Zentrum der
Entwicklung Wissensbasierter Systeme stehen müssen. Die Untennauerung dieser These
erfolgt in zwei Schritten: In den Kapiteln zwei und drei werden Entwicklung und System-
test des Wissensbasierten Systems "HAFÖX" (Handwerksförderhilfenberatungsexperte)
erläutert. welches die empirische Basis dieser Arbeit darstellt In den Kapiteln vier und
fünf werden dann die im Systemtest aufgedeckten Zusammenhänge theoretisch betrachtet
und schließlich im sechsten Kapitel zu einem Rahmenmodell flir den Einsatz Wissens-
basierter Systeme integriert.
110 Hans-Uirich Wandel

1.2 Hintergründe für die Entwicklung des Wissensbasierten Systems


"HAFOX"

Für die konkrete Entwicklung eines Wissensbasierten Systems zur Hypothesengenerierung


für diese Arbeit sprach vor allem die Tatsache, daß die Ursachen des Anwendungsdefizits
bei betrieblichen Wissensbasierten Systemen im Übergangsstadium zwischen Prototyp und
Praxiseinsatz zu suchen sind. Folglich war es am aussichtsreichsten, durch Entwicklung
und Test einer Beispielanwendung Aufschluß über die Gründe für dieses Anwendungsde-
fizit zu erhalten. Der Entscheidung für die Entwicklung einer Beispielanwendung folgte
die Wahl eines geeigneten Projekts. Hierbei standen pragmatische Überlegungen zu Pro-
jektdauer, Verfügbarkeil von Wissensquellen und betrieblichen Testmöglichkeiten im
Vordergrund. Die zeitliche Beschränkung der Projektdauer machte es nötig, Fragen der
Integration Wissensbasierter Systeme in konventionelle Umgehungen, die sich oft als
erfolgskritischer Faktor (Kesper 1988, S. 67f.) erweist, aus der Untersuchung aus-
klammern. Das im sechsten Kapitel vorgestellte Rahmenmodell ist insofern noch erweite-
rungsbedürftig.

Als Projekt wurde schließlich die Entwicklung des Wissensbasierten Systems "HAFÖX",
eines Systems zur Beratung von Handwerkern bezüglich der optimalen Kombination von
öffentlichen Förderhilfen für spezifische Betriebszwecke, definiert. Dafür sprachen meh-
rere Gründe: Erstens zeichnet sich die Beratung zu öffentlichen Förderhilfen als hin-
reichend komplexe, gefragte und damit für wissensbasierte Lösungen grundsätzlich inter-
essante Anwendung aus. Dies beweisen "running systems" wie "STAKNETEX"
(Mertens/Borkowski/Geis 1988, S. 116f.) und "OEMI(g)" (Hake Brainware, Mainz) sowie
Datenbankendienste wie "DASTI" (Westdeutsche Landesbank Girozentrale). Zweitens ist
das Wissen über öffentliche Förderhilfen gut eingrenzbar und strukturiert. Drittens konnte
durch die Zusammenarbeit mit dem Seminar für Handwerkswesen an der Universität
Göttingen auf Erfahrungen aus einer Studie zu Förderprogrammen (Bayerisches Staatsmi-
nisterium lür Wirtschaft und Verkehr 1990) zurückgegriffen werden; dies erlaubte eine
schnelle Identifikation der relevanten Wissensquellen und half so, die Zeitdauer des Pro-
jekts zu begrenzen. Schließlich sicherten Kontakte zur Landesgewerbeförderstelle des nie-
dersächsischen Handwerks in Hannover die Vorstellung von "HAFÖX" auf dem Regio-
nallehrgang Nord/li der Betriebsberater der Handwerkskammern im September 1990 in
Bremerhaven und den anschließenden Systemtest bei vier Handwerkskammern.

Als Implementierungsinstrument für "HAFÖX" wurde die auf Personal Computern ablauf-
fähigeShell "PROJECTOR-11"1 gewählt Dies erklärt sich daraus, daß der Hersteller "run-
time"-Versionen dieser Shell für Projektzwecke kostenlos zur Verlügung stellte. Die Wahl
von Projektinhalt und Implementierungswerkzeug sowie der Umfang des Systemstests er-
heben deshalb keinen Anspruch auf Repräsentativität. Ziel des Projektes "HAFÖX" war
die Identifikation von lür die Umsetzung Wissensbasierter Systeme relevanten Zusam-
menhängen.

Anmerkung: Hersteller ist die AXON EDV -Untemehmensberatung, Göttingen.


Ein Rahmenmodell für Wissensbasierte Systeme 111

2 Das Wissensbasierte System "HAFÖX"

2.1 Aufbau der Wissensbasis von "HAFÖX"

In die Wissensbasis von "HAFÖX" wurden gemäß der Empfehlung des Seminars für
Handwerkswesen an der Universität Göttingen nur handwerksrelevante Bundesför-
derprogramme und Landesprogramme für Niedersachsen einbezogen.

Als Wissensquelle diente in erster Linie die "Zeitschrift für das gesamte Kreditwesen"
(Sonderausgabe 1990 "Die Finanzierungshilfen des Bundes und der Länder"), die zu allen
aktuellen Förderprogrammen Zweckbindung, Bedingungen, Antragsweg und Fundstelle
nennt Sie wurde ergänzt durch Programmrichtlinien der Kreditanstalt flir Wiederaufbau
und der Deutschen Ausgleichsbank, Texte des Einkommensteuergesetzes und einen Über-
blick zu finanziellen Hilfen der Bundesanstalt flir Arbeit Im ersten Schritt wurden aus
diesen Wissensquellen 45 Förderprogramme identifiziert, wobei der Übersichtlichkeit der
Wissensbasis wegen eine Untergliederung in elf Förderprogrammklassen erfolgte, die
teilweise zur Gewährleistung der funktionalen Einheit der einzelnen Beratungsbereiche
miteinander zu vernetzen waren. Die Förderrichtlinien wurden in einem zweiten Schritt in
Checklistenform aufbereitet, bis schließlich zu jeder Förderhilfe eine Liste zu erfüllender
Förderbedingungen vorlag.
Um eine schnellstmögliche Elimination nicht in Frage kommender Förderprogramme zu
erreichen, wurden die Förderbedingungen im nächsten Schritt ihrer Bedeutung entspre-
chend in eine Rangfolge gebracht, wobei den restriktivsten (d.h. am ehesten verletzten)
Kriterien der höchste Rang zugewiesen wurde. Für mehrere Programme identische Krite-
rien erhielten eine entsprechend höhere Rangfolge.

2.2 Funktionsweise von "HAFÖX"

Grundlage des Wissensbasierten Systems "HAFÖX" ist dieShell "PROJECTOR-11", wel-


che die Implementation eines semantischen Netzes darstellt, dessen Pfeile mit "certainty
factors"2 gewichtet werden können. Dabei sind die Knoten dieses semantischen Netzes
Objekte der Wissensbasis, welche mit anderen Objekten über Relationen verbunden wer-
den. Kernstück der Shell ist eine Projektionsfunktion, welche einer Menge von Ausgangs-
objekten eine Menge von Zielobjekten zuordnet (Kretschmar 1990, S. 109-112) und spezi-
fische Sichten auf die Wissensbasis erlaubt. Applikationen werden vom Benutzer auf einer
frei definierbaren Fensteroberfläche erstellt. Dabei legt der Benutzer ein oder mehrere Ein-
gabefenster fest, auf welchen dann Projektionen gestartet werden, deren Ergebnisse in
jeweils einem Ausgabefenster erscheinen.

2 Anmerkung: Dahinter verbirgt sich die Theorie der Darstellung unsicheren Wissens des Expertensy-
stems "MYCIN" (Adams 1984, S. 263-271).
112 Hans-Ulrich Wandel

Für "HAFÖX" wurden auf diese Weise insgesamt acht zum Teil übereinanderliegende
Fenster definiert: Im Fenster "Programmklassen" wählt der Benutzer den Bereich der För-
derberatung, dessen Programme er auf ihre Eignung für einen konkreten Beratungsfall prü-
fen möchte (beispielsweise den Bereich "Existenzgründungsprogramme"). Er läßt sich
dann im Fenster "Förderprogramme" alle zugehörigen Förderhilfen anzeigen und lädt
davon diejenigen, welche er für prüfenswert hält, in das Fenster "Programmauswahl". Auf
diese Weise kann er seinem Wissen entsprechend entweder alle oder auch nur einzelne
Förderhilfen prüfen. In einem weiteren Schritt ruft der Benutzer zu den selektierten För-
derhilfen die Menge der zu erfüllenden Förderbedingungen ihrer Rangfolge entsprechend
im Fenster "Checkliste" ab. Ist eine Bedingung nicht erfüllt, zeigt ihm die Erklärungskom-
ponente diejenigen Förderprogramme an, welche er damit aus der weiteren Betrachtung
ausschließen und im Fenster "Programmauswahl" löschen muß. So bleiben im Fenster
"Programmauswahl" letztlich diejenigen Förderhilfen übrig, welche potentiell in Anspruch
genommen werden können. Diese Förderhilfen müssen nun in einem weiteren Schritt auf
ihre Kombinationsfähigkeit untersucht werden. Das Fenster "Kombination" zeigt an, für
welche Förderprogramme Kombinationsverbote existieren. Unter Berücksichtigung von
Zins- und Tilgungsbedingungen, Laufzeiten, Höchstfördergrenzen und Bürg-
schaftsvorschriften (diese Informationen können in den Fenstern "Konditionen" und
"Bürgschaften" abgerufen werden) wird dann die für den Förderzweck optimale Pro-
grammkombination ermittelt. Abbildung 1 zeigt beispielhaft die Fensteroberfläche von
"HAFÖX", wie sie der Benutzer während der Prüfung der Förderbedingungen sieht:

Förderprogramme
Programmauswahl
Eigenkapitalhilfe
Eigenkapitalhilfe ERP-Darlehen Existenzgründung
ERP-Darlehen Existenzgründung Landesdarlehen Existenzgründung
Landesdarlehen Existenzgründung Ansparzuschuß
Investitionszuschüsse
KfW- Mittelstandsprogramm
Ausbildungsplatzzuschuß

Checkliste

Vorhaben bei Antragstellung noch nicht begonnen


Existenzgründung, Übernahme oder tätige Beteiligung
Verstärkung der Eigenkapitalbasis
Höchstalter 50 Jahre

Abb.l: Die Fensteroberfläche von "HAFÖX"


Ein Ralunenmodell für Wissensbasierte Systeme 113

3 Systemtest

3.1 Ausgangsthesen zum Einsatz von "HAFÖX" in der Betriebsbera-


tung der Handwerkskammern

In diesem Abschnitt werden diejenigen Gesichtspunkte präsentiert, welche zur Konzeption


des Systemtests für "HAFÖX" llihrten. Die hier beschriebenen Überlegungen zu den
potentiellen Einsatzmöglichkeiten von "HAFÖX" wurden den tatsächlichen Testergebnis-
sen gegenübergestellt. Aus den Differenzen zwischen Ausgangsthesen und Testergebnis-
sen wurden dann Möglichkeiten zur Überwindung des Anwendungsdefizits bei Wissensba-
sierten Systemen abgeleitet.

Im Zentrum der Identifikation potentieller Nutzeffekte (Ausgangsthesen) standen die


Tätigkeiten der potentiellen Anwender und Testteilnehmer von "HAFÖX" (Betriebsberater
der Handwerkskammern) und deren Computerausstattung: Aus einer Dokumentation der
Landesgewerbeförderstelle des niedersächsischen Handwerks konnte entnommen werden,
daß Betriebsberater fast ausschließlich Einzelberatungen durchführen, wovon über 40%
auf den Bereich Existenzgründungsberatung entfallen. Die potentiellen Einsatzorte von
"HAFÖX" (in den Handwerkskammern oder in den Betrieben vor Ort) konnten aus der
Ausstattung der Betriebsberater mit Personal Computern und Laptops abgeleitet werden.

Der Nutzen von "HAFÖX" wurde in einer qualitativ verbesserten Betriebsberatung gese-
hen, und zwar zum einen in den Handwerkskammern und zum anderen speziell vor Ort
(vor allem bei der Folgeberatung von Existenzgründern) durch den Einsatz von Laptops.
(Dabei wurde die Verfügbarkeil einer größeren Anzahl möglicher Förderprogramme beim
Einsatz von "HAFÖX" mit einer qualitativen Verbesserung der Beratung gleichgesetzt).
Bei der Beurteilung der Systemwirtschaftlichkeit wurde ein Nutzerkreis von 30 Betriebs-
beratern angenommen. Für einen solchen Nutzerkreis hätte sich die Aktualisierung der
Wissensbasis von "HAFÖX" durch eine zentrale Stelle gelohnt, die aktualisierte Versionen
jeweils an die Betriebsberater versandt hätte.
Auf Basis dieser Überlegungen wurde das Einsatzpotential für "HAFÖX" insgesamt als
gut eingeschätzt.

3.2 Beurteilung von "HAFÖX" durch vier Handwerkskammern

Der Systemtest bei insgesamt vier Handwerkskammern sollte zeigen, wie realistisch die im
vorausgegangenen Abschnitt angenommenen Nutzeffekte waren, wie die Benutzerfreund-
lichkeit des Systems eingeschätzt bzw. verbessert werden konnte und welche Kosten- und
Nutzenfaktoren die Handwerkskammern als einsatzrelevant erachteten. Die Testergebnisse
deckten mehrere überraschende Effekte auf: Es stellte sich heraus, daß das Förderpro-
grammangebot von "HAFÖX" für die sich auf eine überschaubare Zahl von Programmen
konzentrierende Tagesarbeit der Betriebsberater zu umfangreich war. Die Verfügbarkeit
einer großen Zahl relevanter Förderprogramme wurde nicht mit einer qualitativen Verbes-
serung der Förderberatung gleichgesetzt. Grund war die Spezialisierung der Berater auf
114 Hans-Uirich Wandel

bestimmte Fördergebiete wie Existenzgründung, Regional- oder Technologieförderung,


welche nicht den Rückgriff auf das gesamte Spektrum von Förderhilfen erforderte.
Ein weiteres überraschendes Ergebnis war die Feststellung der Testteilnehmer, daß Nutzef-
fekte des Einsatzes von "HAFÖX" in den Handwerkskammern vor allem in der Verbesse-
rung der Dokumentation des individuellen Wissens lagen. Die Testteilnehmer sahen es als
wünschenswert an, selbst "ihre" Wissensbasis ergänzen zu können, um eigene Beo-
bachtungen oder Anmerkungen zu den vom System angebotenen Richtlinientexten einzu-
bringen. Als weiteren Nutzeffekt nannten sie die Verbesserung der Mitarbeiterkom-
munikation durch den Betrieb einer gemeinsamen Wissensbasis in einem lokalen Netz-
werk, die individuelle Ergänzungen sofort für alle Netzbenutzer verfügbar gemacht hätte.
Schließlich wurde festgestellt, daß die Aktualisierung der Wissensbasis durch eine zentrale
Stelle (wie in Abschnitt 3.1 beschrieben) praktisch nicht durchführbar war.
Die Testteilnehmer beurteilten "HAFÖX" auch im Vergleich zu alternativen Realisie-
rungskonzepten. So wurde beispielsweise die alternative Realisierung des Förderbera-
tungssystems mit dem Datenbankprogramm "dBASE" vorgeschlagen, wodurch in einem
konkreten Fall Softwarekosten hätten gespart werden können.
Der insgesamt recht kritisch beurteilten Einsatzfähigkeit von "HAFÖX" am Beratungsort
Handwerkskammer stand die sehr positive Beurteilung seiner Einsatzmöglichkeiten vor
Ort gegenüber. So wurde "HAFÖX" auf Laptops installiert als ideales Nachschlagewerk
zur Abklärung schwieriger Einzelfragen gesehen.

Als wichtige Erkenntnis aus den obigen Testergebnissen kann festgehalten werden, daß die
Beurteilungskriterien der Testteilnehmer im Widerspruch standen zu Diskussionen des
Einsatzes Wissensbasierter Systeme, bei welchen programmiertechnische Aspekte
dominieren. Der Test identifizierte als wichtigstes Beurteilungskriterium die Systemwirt-
schaftlichk:eit, was auch nicht besonders verwundert: Wirtschaftlichkeitsaspekte sollten im
Rahmen der Entwicklung Wissensbasierter Systeme immer dann in den Vordergrund tre-
ten, wenn das Wissen eines speziellen Anwendungsgebietes alternativ konventionell pro-
grammiert werden kann, und dies eventuell günstiger ist. Das aber ist genau dann möglich,
wenn ein Verzicht auf die Darstellung unsicheren Wissens und die Erklärungsfähigkeit des
Anwendungssystems (spezifische Komponenten wissenbasierter Programmierung) die
Qualität der Aufgabenlösung nicht erheblich mindert. In solchen Fällen sind wissensba-
sierte Programmiertechniken (darunter werden alle Techniken zur Programmierung Wis-
sensbasierter Systeme verstanden, also z.B. Shells) vor allem unter Wirtschaftlichkeits-
aspekten, jedoch zusätzlich auch unter Berücksichtigung qualitativer Unterschiede mit
konventionellen Programmiertechniken zu vergleichen. Die höhere Effizienz wissens-
basierter Programmierung allein kann bei einem konkreten Aufgabenumfang deren Einsatz
u.U. nicht rechtfertigen. Allgemein ist daraus zu folgern, daß die Frage nach der zu
verwendenden Programmiertechnik grundsätzlich immer diskutiert, d.h. eine vorzeitige
Festlegung auf ein bestimmtes Programmiertool gleich zu Projektbeginn vermieden
werden sollte. Dies setzt aber eine detaillierte Problemanalyse voraus, auf deren Basis erst
im zweiten Schritt die Wahl der optimalen Programmiertechnik folgt.
Nun kann zwar kritisiert werden, daß der Umfang eines Problems erst nach der Erstellung
eines Prototyps korrekt eingeschätzt werden kann, wie dies ja auch im Rahmen des
Projekts "HAFÖX" geschah. Dagegen ist im Prinzip auch nichts einzuwenden. Eine Unter-
suchung von GEIS/STRASSERIMERTENS empfiehlt sogar eine derartige Vorge-
Ein Rahmenmodell fllr Wissensbasierte Systeme 115

hensweise (GEIS/STRAßERIMERTENS 1989, S. 68-72). Wesentlich ist nur, daß wissens-


basierte Programmiertechniken als ein Weg zur computergestützten Problemlösung ver-
standen werden, der zwar andere Entwicklungsmethoden als das traditionelle Software
Engineering verlangt, im übrigen aber der Einreihung wissensbasierteT Programmierung in
die Familie der Programmiersprachen nicht entgegensteht.

4 Ein Konzept Wissenbasierter Programmierung

4.1 "Shells" versus konventionelle Programmiersprachen

Der Vergleich wissensbasierteT mit konventionellen Lösungen setzt eine "nüchterne" Be-
trachtung WissensbasierteT Systeme voraus. Sieht man wissensbasierte Programmier-
techniken lediglich als eine Art der Programmierung an, welche durch mächtige Befehle
die übersichtliche Modeliierung komplexer Zusammenhänge erlaubt und als Besonderheit
Erklärungsfähigkeit und Mechanismen zur Repräsentation unsicheren Wissens bietet, bil-
det als Konsequenz nicht mehr die Programmiertechnik, sondern das zu lösende Problem
das Zentrum des Interesses. Wichtigster Problemlösungsfaktor wird dann die Wissensmo-
dellierung. Der aus dieser Sichtweise resultierende hohe Problembezug hilft spätere
Umsetzungsprobleme zu vermeiden. Das kann einen wichtigen Beitrag zur Verringerung
des Anwendungsdefizits bei Wissensbasierten Systemen leisten.
Für die obige Sichtweise wissensbasierteT Programmiertechnik spricht u.a. eine Untersu-
chung von GEIS/STRASSERIMERTENS. Sie stellten in einem Vergleich des regelba-
sierten Expertensystems "STAKNETEX" mit dem entscheidungstabellenbasierten Pro-
gramm "STAKNETET" fest, daß konventionelle Programmierung Vorteile bei Antwort-
zeiten und Dokumentation bringt, Änderungen der Wissensbasis jedoch einfacher in Ex-
pertensystemshells durchzuführen sind, und einfachere Aufgabenstellungen sowohl kon-
ventionell als auch mit Shells gelöst werden können (Geis/Straßer/Mertens, 1989, S. 68-
72).

Wie lassen sich nun wissensbasierte Programmiertechniken in die Familie der Program-
miersprachen einordnen? In diesem Zusammenhang ist ein Klassifizierungsansatz von
BALZERT interessant, welcher die verschiedenen Abstraktionsebenen von Programmier-
sprachen verdeutlicht und gleichzeitig deren Evolutionsebene beschreibt:
116 Hans-Uirich Wandel

Evolution

4
(
Objekt-
orientierter

('
Entwurf

r:__ abstraktion
ADT ADA

r:~~.
MODULA-2

SD, PASCAL, C,
0 Abstraktion FORTRAN

keine COBOL,
Abstraktion BASIC, Assembler

Abb. 2: Stufen der Entwurfstechniken (Quelle: Balzert, H., Überblick über die Metho-
den- und Werkzeug/andschaft, in: Balzert, H. (Hrsg.), CASE: Systeme und
Werkzeuge 1989, S. 73)

Erweitert man diese Klassifizierung beispielsweise um Shells (stellvertretend für andere


Arten wissensbasierter Programmierung), die etwas über der objektorientierten Program-
mierung anzusiedeln wären, entsteht ein integriertes Programmiersprachenkonzept,
welches die Zuordnung spezifischer Typen computergestützt zu lösender Probleme zu
einer oder auch mehreren Entwurfsebenen zuläßt. Neben einer theoretisch korrekten
Zuordnung werden natürlich im Einzelfall auch individuelle Komponenten wie Vertraut-
heit mit bestimmten Programmiersprachen und Anforderungen an Benutzerschnittstelle
und Effizienz der Programmierung die Auswahl der geeigneten Implementierungssprache
beeinflussen, doch grundsätzlich existiert damit ein Schema für die Beziehung zwischen
Problemtyp und Programmierungstechnik
Ein Rahmenmodell für Wissensbasierte Systeme 117

4.2 Alternative Programmierung von "HAFÖX"

Im vorausgegangenen Abschnitt wurde erwähnt, daß ein Problem u.U. mit mehreren Pro-
grammierungstechniken gelöst werden kann. Deswegen soll hier beispielhaft für eine al-
ternative Programmierung ein Teil der Wissensbasis des Systems "HAFÖX" in der
Sprache "PASCAL" erläutert werden. Die folgende Darstellung zeigt zunächst einen Teil-
ausschnitt der mit der Shell"PROJECTOR-11" erstellten Wissensbasis von "HAFÖX":

1 #REL1YPES KRITERIDM
2
3#NODE EXISTENZGRÜNDUNG
4#SOURCEOF PROGRAMM
5 EIGENKAPITALHILFE
6 ERP-DARLEHEN EXISTENZGRÜNDUNG
7 LANDESDARLEHEN EXISTENZGRÜNDUNG
8
9#NODE EIGENKAPITALHILFE
10 #SOURCEOF KRITERruM
11 EXISTENZGRÜNDUNG, ÜBERNAHME ODER TÄTIGE
BETEILIGUNG, FOLGEINVESTITIONEN [97]
12 VERSTÄRKUNG DER EIGENKAPITALBASIS [95]
13 VORHABEN. BEI ANTRAGSTELLUNG NOCH NICHT
14 BEGONNEN [94]
15
16#NODE ERP-DARLEHEN EXISTENZGRÜNDUNG
17 #SOURCEOF KRITERITJM
18 HÖCHSTALTER 50 JAHRE [91]
19
20#NODE LANDESDARLEHEN EXISTENZGRÜNDUNG
21 #SOURCEOF KRITERruM
22 VORHABEN BEI ANTRAGSTELLUNG NOCH NICHT
23 BEGONNEN [94)

Abb.3: Exemplarischer Ausschnitt aus der Wissensbasis von "HAFÖX", erstellt mit
der Shell "PROJECTOR-Il".

Die Knoten des in "PROJECTOR-11" implementierten semantischen Netzes werden in


Darstellung 3 als "#node" definiert, die von den Knoten ausgehenden, mit "certainty
factors" gewichteten Relationen mit Hilfe des Befehls "#RELTYPES" vereinbart. Der
Befehl"#SOURCEOF" kennzeichnet die von einem Knoten ausgehenden Relationen.
Nun zur Bedeutung der Wissensbasis: Die Zeilen 3-7 zeigen die Definition der Programme
"Eigenkapitalhilfe", "ERP-Darlehen Existenzgründung" und "Landesdarlehen Existenz-
gründung" als Förderhilfen aus dem Bereich "Existenzgründung". Unter diesen Förderhil-
fen werden die jeweils zu erfullenden Förderbedingungen aufgelistet. Dabei wird berück-
sichtigt, daß das Kriterium "Vorhaben bei Antragstellung noch nicht begonnen" (Zeilen
118 Hans-Uirich Wandel

13/14, 22!23) sowohl für die Förderhilfe "ERP-Darlehen Existenzgründung" als auch für
die Förderhilfe "Eigenkapitalhilfe" gilt Die in eckigen Klammem stehenden "certainty
factors", welche die Rangfolge der einzelnen Kriterien festlegen, werden hier mit der
"MYCIN-Fonnel" (vgL Adams 1984, S. 263-271) addiert und der neue "certainty factor"
beachtet, daß das Kriterium "Vorhaben bei Antragstellung noch nicht begonnen" im
Fenster "Checkliste" an erster Stelle erscheint (vgL Abbildung 1). Und so sieht im
Vergleich die alternative Programmierung des Wissensbasisausschnittes in der Program-
miersprache "PASCAL" aus:

1 PROGRAM HAFOEX;
2
3 typepname = array[1..33] of char;
4
5 var i, hilfe: inleger;
6 antwort: array[1..3] of integer;
7 prog: array[1..3] ofpname;
8
9 procedure programm;

...
10
11 begin prog[l] := 'Eigenkapitalhilfe
12 prog[2] := 'ERP-Darlehen Exislenzgründung ';
13 prog[3] := 'Landesdarlehen Existenzgründung ';
14 write('Geben Sie neben den Programmen, die');
15 wrileln('Sie prilfen möchlen, "1" ein.1:
16
17 fori:= 1 to 3 do
18 begin
19 wrile(prog[i]);
20 readln(antwort[i]);
21 end;
22 end;
23
24 procedure checldiste;
25
26 begin
27 write('Geben Sie im folgenden "1" ein, wenn ein1:
28 wrileln('Krilerium erfüllt ist und "0", wenn es1:
29 wrileln('nicht erfüllt ist1:
30
31 if antwort(1]=1 then
begin write('Exislenzgründung, Übernahme oder Wige
Beleiligung, Folgeinvestitionen: 1:
(siehe Fortsetzung)
Ein Rahmenmodell flir Wissensbasierte Systeme 119

(Fortsetzung)
33 readln(antwort[l]);
34 end;
35
36 if antwort[l ]= 1 then
37 begin write('Verstärlrung der Eigenkapitalbasis:');
38 readln(antwort[l]);
39 end;
40
41 if (antwort[l]=l) or (antwort[3]=1) then
42 begin write('Vomaben bei Anlragstellung noch nicht begonnen: 1;
43 readln(hilfe); if hilfe=O then
44 begin antwort[3]:=0;
45 antwort[l]:=O;
46 end;
47 end;
48
49 if (antwort[l]=l) or (antwort[2] = 1) then
50 begin write('Höchstalter 50 Jahre: ');
51 readln(hilfe); if hilfe = 0
52 then begin antwort[l]:=O;
53 antwort[2]:=0;
54 end;
55 end;
56
57 end;
60 (* Hauptprogramm*)
61
62 begin
63 programm;
64 checkliste;
65 end.

Abb.4: Programmcode in "PASCAL"

Abbildung 4läßt erkennen, daß in der Programmiersprache "PASCAL" zunächst alle ver-
wendeten Variablen (Zeilen 5-7) samt Typen (Zeile 3) defmiert werden müssen. Das spezi-
fische Wissen über Förderhilfen bildet hier eine Einheit mit den Inferenzstrukturen (Wenn-
Dann-Regeln), die Rangfolge der Ausschlußkriterien ist festgelegt durch die Regelfolge im
Programm. Das Hauptprogramm (Zeilen 63,64), das lediglich die vorher definierten Pro-
zeduren aufruft, skizziert den Programmablauf.

Mit der alternativen Programmierung von "HAFÖX" läßt sich in diesem Fall die gleiche
Aufgabenstellung (die Selektion der optimalen Kombination von Förderhilfen frlr einen
spezifischen Förderzweck) lösen. Die Shellprogrammierung ist zwar eindeutig eleganter,
120 Hans-Ulrich Wandel

letztendlich jedoch lediglich eine andere Wissensdarstellung für die weitere Verarbeitung
im Computer. Ihre Vorteile liegen in der Übersichtlichkeit der zugehörigen Wissensbasis,
der geringen Einarbeitungszeit auch für Nichtprogrammierer und dem Komfort der
Benutzeroberfläche.

5 Bewertung Wissenbasierter Systeme

5.1 Verfahren der Bewertung

Die im vorausgegangenen Kapitel dargestellte Einordnung wissensbasierter Programmier-


techniken in die Reihe der Programmiersprachen hat auch eine wichtige Konsequenz für
die Bewertung Wissensbasierter Systeme. Dadurch, daß sie das Interesse weg von Fragen
der technischen Realisierung und hin auf die Problemlösung lenkt, öffnet sie erstens den
Blick für Implementierungsalternativen, die im folgenden systematisch bewertet werden
müssen; zweitens verhindert sie, daß mit der Programmierung begonnen wird, bevor eine
detaillierte Problemanalyse vorgenommen und geprüft worden ist, welche Vor- und
Nachteile mögliche Alternativen besitzen. Als Teilergebnis kann also festgehalten werden,
daß die Methode der inkrementeilen Erweiterung der Wissensbasen von Prototypen
(Noelke 1985, S. 112-121), welche die Festlegung auf eine bestimmte Implementierungs-
umgebung gleich zu Projektbeginn voraussetzt, nicht als geeignetes Konzept für die Ent-
wicklung Wissensbasierter Systeme erscheint.

Wie aber kann entschieden werden, welche Programmiertechnik die beste ist, falls mehrere
Lösungen in Frage kommen? Die Antwort lautet, daß der Auswahl unter mehreren Mög-
lichkeiten eine Analyse der jeweils mit ihnen verbundenen Kosten und Leistungen zugrun-
dezuliegen hat. SCHMALENBACH unterscheidet hinsichtlich der Bewertung von Kosten
und Leistungen drei Wahlvorgänge: den reinen Kostenvergleich, den reinen Nut-
zenvergleich und den Vergleich von Kosten und Nutzen. Der Kostenvergleich ist anzu-
wenden, wenn lediglich alternative Mittel zur Ausführung einer spezifischen Leistung
beurteilt werden sollen; mit dem Nutzenvergleich läßt sich die alternative Verwendung
einer schon vorhandenen Leistung oder eines vorhandenen Gutes bewerten. In den übrigen
Fällen ist ein Kosten-Nutzen-Vergleich durchzuführen (Schmalenbach 1963, S. 129ff.).
In allen drei Fällen stellt sich die Frage nach der Meßbarkeit der Kosten- und Nutzenfakto-
ren der zu vergleichenden Lösungen. Als Antwort bieten sich verschiedene Verfahren an:
So erlauben statische und dynamische Investitionsrechnungsverfahren die wirtschaftliche
Beurteilung verschiedener Alternativen in bezug auf eine monetäre Zielsetzung (Horvath,
1986, S. 459-462). Dies genügtjedoch in vielen Fällen nicht, da neben monetären Größen
auch qualitative Faktoren zu berücksichtigen sind, die nicht monetär bewertet werden kön-
nen, im Sinne einer ganzheitlichen Beurteilung aber in die Entscheidung miteinbezogen
werden sollten (Kassowitz 1988, S. 89).
Ein geeignetes Instrument zur Berücksichtigung mehrfacher Zielsetzungen bei der Beur-
teilung von Alternativen ist das Verfahren der Nutzwertanalyse. ZANGEMEISTER defi-
niert die Nutzwertanalyse als "Analyse einer Menge komplexer Handlungsalternativen mit
Ein Rahmenmodell für Wissensbasierte Systeme 121

dem Zweck, die Elemente dieser Menge entsprechend den Präferenzen des Entschei-
dungsträgers bezüglich eines multidimensionalen Zielsystems zu ordnen. Die Abbildung
dieser Ordnung erfolgt durch die Angabe der Nutzwerte (Gesamtwerte) der Alternativen"
(Zangemeister 1976, S. 45f.).
Nutzwertanalysen können Wirtschaftlichkeitsrechnungen ergänzen oder sogar ersetzen. Ihr
Vorteilliegt in der Erhöhung der Entscheidungstransparenz und der dadurch verbesserten
Akzeptanz und Durchsetzbarkeil (Weber 1988, S. 49-53). Die einzelnen Bewertungs-
schritte der Nutzwertanalyse implizieren allerdings eine hohe Subjektivität, die, wenn sie
nicht reflektiert wird, deren Ergebnisse fragwürdig macht Diese Subjektivität äußert sich
zum einen in der Festlegung der Zielinhalte - dabei ist zu beachten, daß Ziele, welche
intuitiv gefunden werden, oft voneinander abhängig sind. Letzteres widerspricht dem
Postulat der Nutzenunabhängigkeit (Zangemeister 1976, S. 77-84). Wird aber das Postulat
der Nutzenunabhängigkeit nicht erfüllt, können unbewußt Faktorengewichtungen entste-
hen, welche eine unerwünschte Übergewichtung einzelner Teilziele zur Folge haben.
Bei der Untersuchung der Abhängigkeiten zwischen Zielgrößen sind grundsätzlich kom-
plementäre von konkurrierenden Zielgrößen zu unterscheiden. Komplementäre Ziele kön-
nen sich gegenseitig bedingen - dann ist die Berücksichtigung nur einer Zielgröße im
Rahmen der Nutzwertanalyse sinnvoll; liegt dagegen eine einseitige Abhängigkeit vor,
müssen Unterziele gebildet werden. Konkurrierende Ziele können nur in Form eines Kom-
promisses in die Nutzwertanalyse eingehen.
Eine zweite wichtige Einflußgröße auf die Ergebnisqualität von Nutzwertanalysen ist die
Wahl der richtigen Meßskala. Grundsätzlich können für eine Nutzwertanalyse Nominal-,
Ordinal- oder Intervallskalierungen verwendet werden; in der Praxis beschränkt man sich
meist auf Intervallskalierungen ohne festen Nullpunkt. Für diese Art von Zielwertskalen ist
der Nutzwert einer Alternative mit Hilfe der Additionsregel (Zangemeister 1976, S. 77-84)
zu ermitteln, welche deren Nutzwert aus der Summe der Nutzwertdifferenzen zu anderen
Alternativen errechnet.
Im folgenden Abschnitt wird das geschilderte Bewertungsverfahren anhand einer exempla-
rischen Nutzwertanalyse für "HAFÖX" verdeutlicht.

5.2 Beispielhafte Bewertung von "HAFÖX"

In diesem Abschnitt werden vier Alternativen zum Wissensbasierten System "HAFÖX"


bewertet: Ein in der Sprache "PASCAL" programmiertes System, ein in der Datenbank-
sprache von "dBASE" programmiertes System, der Anschluß an eine Förderhilfendaten-
bank (z.B. an die Datenbank "DASTI" der Westdeutschen Landesbank Girozentrale) und
der Kauf eines auf Personal Computern ablauffähigen Förderberatungsprogramms, hier das
Programm "OEMI(g)" (Hake Brainware GmbH, Mainz). Dies soll veranschaulichen, daß
Wissensbasierte Systeme durchaus nicht als einzige Lösungsmöglichkeit im Raum stehen
brauchen und Bewertungsfragen somit häufig eine wichtige Rolle spielen.

Eine Wirtschaftlichkeitsrechnung allein würde zur Bestimmung der optimalen Lösung


nicht ausreichen, da die betrachteten Alternativen hinsichtlich ihrer Einsetzbarkeit qualita-
tive Unterschiede aufweisen. Eine derartige Wirtschaftlichkeitsrechnung - die hier nicht
weiter ausgeführt werden soll - würde folgende Ausgangsbasis haben:
122 Hans-Ulrich Wandel

Nutzen/Kosten Lösung*)

2 3 4 5

Nutzen

Dokumentation des Wissens von X X X

Mitarbeitern
Einsparung mehrfacher Beraterbesuche X X X X

durch Einsatz von Laptops


Schnellere Einarbeitung neuer Mit- X X X

arbeiter in Interna
Schnellere Klärung von Spezialfragen X X X X X

Kosten

Aufbau Wissensbasis/Programmierung X X X

Datenbankanschluß/-abfrage X

Laptops X X X X

Schulung X X X X X

Software X X X X

Updates X
Wissensaktualisierung X X X

*) (1): "HAFÖX"
(2): Programmierung in "PASCAL"
(3): Programmierung in "dBASE"
(4): "DASTI"
(5): "OEMI(g)"

Abb. 5: Wirtschaftlichkeit verschiedener Lösungen

Eine Wirtschaftlichkeitsrechnung aber würde folgende qualitative Nutzenfaktoren nicht


berücksichtigen:

Benutzerführung zur Lösung von Beratungsfragen


Verbesserung der individuellen Förderhilfendokumentation
Verbesserung des Mitarbeiteraustausches bei gemeinsamer Wissensbasis der Mitarbeiter im
Rechnernetz
Verbesserung der standardisierten Förderhilfendokumentation

Abb. 6: Qualitative Nutzenfaktoren verschiedener Lösungen


Ein Rahmenmodell für Wissensbasierte Systeme 123

Diese Nutzenfaktoren können jedoch als Teilziele einer ergänzenden Nutzwertanalyse in


die Entscheidung miteinbezogen werden. Dazu ist zuerst eine gewichtete Bewertungsskala
zu entwerfen. Das Profil von "HAFÖX" könnte dabei bewertet wie folgt aussehen:

Teilziel Gewicht Ausprägung*)

2 3 4 5
Dokumentation des internen
Wissens von Mitarbeitern 50% X
Wissensaustausch der Mit-
arbeiter 20% X
Aktualität der
Förderkonditionen 10% X
Benutzerführung 10% X
Förderhilfendokumentation 10% X

*) I = sehr schlecht, 5 = sehr gut

Abb. 7: Bewertungsprofil von "HAFÖX"

Die Bewertungsergebnisse der einzelnen Lösungen werden anschließend mit Hilfe der
Additionsregel (vgl. Abschnitt 5.1.) zu spezifischen Nutzwerten verrechnet. (Dies wird
hier nicht explizit durchgeführt). Aus den Ergebnissen der Wirtschaftlichkeits- und der
Nutzwertanalyse erhält man so u.U. verschiedene Rangfolgen für die einzelnen Alternati-
ven, aus denen man dann über eine subjektive Abwägung monetärer gegen qualitative
Aspekte die optimale Lösung bestimmt.

6 Einsatz Wissensbasierter Systeme in der betrieblichen Praxis

6.1 Bedeutung von Wissensrepräsentation und -akquisition

In den Kapiteln vier und fünf wurde gezeigt, wie beurteilt werden kann, ob die Ent-
wicklung eines Wissenbasierten Systems zur computergestützten Lösung eines konkreten
Problems sinnvoll ist. Insbesondere wurde dabei auf die Erklärungskomponente und die
Möglichkeit der Darstellung unsicheren Wissens verwiesen, welche Wissensbasierte
Systeme auszeichnet. In diesem Abschnitt wird nochmals auf zwei Punkte eingegangen,
die nur ftir die Entwicklung Wissensbasierter Systeme relevant sind: Wissensrepräsentation
und -akquisition.

Der Wissensrepräsentation kommt im Rahmen der Entwicklung Wissensbasierter Systeme


eine große Bedeutung zu, denn die ftir die jeweilige Aufgabenstellung geeigneten Wissens-
repräsentationsmodelle bestimmen maßgeblich die Qualität der Wissensmodellierung, auf
deren Bedeutung schon hingewiesen wurde. In diesem Zusammenhang ist zu beachten, daß
124 Hans-Ulrich Wandel

die Entscheidung für eine spezifische Art der Wissensrepräsentation immer auch die Ak-
zeptanz der ihr zugrundeliegenden Modellannahmen impliziert Wissensre-
präsentationsmodelle lassen sich allgemein als semantische Raum-Modelle, Pro-
duktionssysteme und analoge Repräsentationsansätze klassifizieren; Diskussionsgegen-
stand der KI-Forschung sind vor allem die ersten beiden.
Innerhalb der Gruppe der semantischen Raum-Modelle lassen sich psychometrische
Ansätze, Netzwerkansätze und Schemaansätze differenzieren, wobei ftir die Künstliche-
Intelligenz-Forschung wiederum die letzten beiden relevant sind: Der Netzwerkansatz stellt
mit Hilfe von Konzepten (Knoten) und gerichteten Relationen (Kanten) Begriffswissen
dar. Er garantiert eine realitätsnahe Wissensabbildung, wenn deklaratives Wissen kodiert
und wieder abgerufen werden soll (fergan 1986, S. 36ff.). Der Schemaansatz ist eine
Erweiterung des Netzwerkansatzes: Er repräsentiert geschlossene Wissenseinheiten in
typischen Zusammenhängen und vereint deklaratives und prozedurales Wissen als Kon-
zeptwissen über Objekte, Situationen, Ereignisse bzw. Ereignisfolgen und Handlungen
bzw. Handlungsfolgen. Dazu gehört insbesondere das Konzept der "frames" von MINSKY
und WINOGRAD, welches einzelne Objekte über Relationen miteinander verbindet und
die Abbildung komplexer Situationen, Ereignisse und Aktionen erlaubt (fergan 1986,
s. 104ff.).
In Produktionssystemen, welche sich besonders für die Darstellung menschlicher Infor-
mationsverarbeitungsprozesse eignen, werden alle Wissensstrukturen in Form von Bedin-
gungs-Aktions-Einheiten dargestellt. Dahinter verbirgt sich bei traditionellen Produktions-
systemen die Annahme, daß Wissen ausschließlich als Prozeßwissen vorliegt. Der
bekannteste Ansatz dieser Art stammt von NEWELL und SIMON, welche die Existenz
deklarativen Wissens verneinen und Denkprozesse ausschließlich mit Hilfe von Heuristi-
ken abbilden (fergan 1986, S. 140ff.).
Bei der Entscheidung ftir einen speziellen Wissensrepräsentationsansatz ist dessen
psychologische Angemessenheil zu beurteilen, die wiederum nur empirisch nachzuweisen
ist. Es kann zwar konstatiert werden, daß grundsätzlich alle Ansätze sowohl prozedurnies
als auch deklaratives Wissen abbilden können, doch sollten aus Gründen der Effizienz
Produktionssysteme in erster Linie prozedurnies Wissen und semantische Raum-Modelle
hauptsächlich deklaratives Wissen darstellen. Generell hat dabei der Entscheidung für ein
bestimmtes Modell immer die Überlegung vorausgehen, welche Dimensionen der zu re-
präsentierenden Welt bei der Wissensverarbeitung relevant und wie diese am besten darzu-
stellen sind (Tergan 1986, S. 189ff.).

Wissensrepräsentation darf nicht isoliert, sondern nur im Zusammenhang mit Wissensak-


quisition verstanden werden. Gemeinsamer Inhalt von Wissensrepräsentation und -akqui-
sition ist die möglichst realitätsgetreue Abbildung menschlichen Wissens. Wissenserwerb
und -Verarbeitung sind so Instrumente zur Bewältigung eines Abbildungsproblems bzw.
eines Übertragungsprozesses zwischen menschlichem Hirn und Computer. Der Entschei-
dung ftir ein bestimmtes Wissensrepräsentationsmodell folgt der Erwerb unter dessen Pa-
radigma mit Hilfe geeigneter Wissenserwerbstechniken3, wobei erkenntnistheoretische
Prämissen die Grenzen des Erwerbs menschlicher Expertise definieren. (Wissenakquisition

3 Anmerkung: Für einen umfassenden Überblick zu Wissensakquisitionstechniken vgl. Boose 1989;


Schirmer 1989; Paal1990.
Ein Rahmenmodell für Wissensbasierte Systeme 125

geschieht unter der Annahme, daß Wissen symbolisch repräsentiert und damit explizierbar
und außerdem strukturiert und zergliederbar ist.) Darüberhinaus ist zu beachten, daß auch
der Prozeß der Wissensakquisition selbst das zu eiWerbende Wissen verändern kann
(Becker 1990, S. 34).

Die Überlegungen zu Wissensrepräsention und -akquisition beschreiben das Feld, inner-


halb dessen sich die Entwicklung Wissensbasierter Systeme abspielt. Sie zeigen, daß die
Entwicklung Wissensbasierter Systeme ein vielschichtiges Problem ist, welches entspre-
chend systematisch aufgegriffen werden muß, und daß die einzelnen Komponenten des
Entwicklungsprozesses dabei aufeinander abzustimmen sind. Diese Abstimmungsprozesse
sind zusarnmengefaßt in dem Rahmenmodell des folgenden Abschnitts, das die Ergebnisse
aller vorausgegangen Überlegungen integriert und in ihrer Gesamtheit überblicken läßt.

6.2 Ein Rahmenmodell für den Einsatz Wissensbasierter Systeme

Die vorausgegangenen Kapitel lösten zwar eine Anzahl von Teilfragen, doch stellt sich
nach deren Reflexion die Frage, wie und bis zu welchem Grad ein Problem zu analysieren
ist, bevor entschieden werden kann, ob sich der Einsatz wissensbasierter Programmier-
techniken lohnt. Gesucht wird demnach eine Art der Problemdarstellung, welche nicht auf
die spezifische Umsetzung in Wissensbasierten Systemen ausgerichtet ist. Wissensreprä-
sentationsmodelle scheiden folglich als spezifische Darstellungsform für Wissensbasierte
Systeme aus - das wird besonders klar, wenn man sie mit Programmablaufplänen oder
Struktograrnmen des traditionellen Software Engineering vergleicht.
Als Lösung wird hier die Anlehnung an ein Verfahren von Steels vorgeschlagen, welches
eine detaillierte hierarchische Aufgabenanalyse vor Beginn der eigentlichen Entwicklung
WissensbasierteT Systeme vorsieht: Steels fordert für jede von n Aufgabenhierarchien die
Beschreibung des Problems, der Ein- und Ausgabegrößen, der Aufgabenklasse (Diagnose,
Konfiguration, Planung etc.), des benötigten Wissens, des Situationsmodells, möglicher
Probleme, welche die Tiefe der Aufgabenlösung begrenzen, der Problemlösungstechnik
(einzelne Schritte zur Erarbeitung der Lösung) und weiterer Unteraufgaben. Dieser hierar-
chischen Aufgabenanalyse folgt in einem zweiten Schritt die Wissensakquisition (Steels
1990, S. 37-43).
STEELS hierarchische Aufgabenanalyse resultiert in einem "tiefen" Problemverständnis,
welches in jedem Fall sichert, daß eventuelle Schwierigkeiten einer zu lösenden Aufgabe
schon im Vorfeld der Systementwicklung erkannt werden. Gleichzeitig ist seine Aufga-
benanalyse auch neutral in bezug auf die spätere Wahl der Programmiertechnik Wird im
Anschluß an eine Aufgabenanalyse festgestellt, daß eine effektive Problemlösung die Dar-
stellung unsicheren Wissens und/oder die Erklärungsfahigkeit des fertigen Systems vor-
aussetzt, liegt die Entscheidung für die Entwicklung eines Wissensbasierten Systems auf
der Hand. Dann kann im nächsten Schritt die Übersetzung in eines der in Abschnitt 6.1.
genannten Wissensrepräsentationsmodelle erfolgen und auf dieser Basis schließlich die am
besten geeignete Technik (z.B. eine bestimmte Shell) anhand der Ergebnisse einer Wirt-
schaftlichkeitsrechnung bzw. Nutzwertanalyse selektiert werden. Besteht diese Vorausset-
zung dagegen nicht, sind auch konventionelle Formen der Programmierung als mögliche
Alternativen zu überdenken. Der Entscheidungsprozeß verläuft dann wie in Abschnitt 5.2
126 Hans-Uirich Wandel

beschrieben. Fällt die Entscheidung für eine konventionelle Form der Programmierung,
wird die hierarchische Aufgabenanalyse nicht in ein Wissensrepräsentationsmodell, son-
dern in eine Darstellungsform des traditionellen Software Engineering überführt
(beispielsweise in ein Struktogramm). Das folgende Rahmenmodell faßt die Gesamtheit
der erwähnten Zusammenhänge nochmals graphisch zusammen:

Hierarchische Aufgabenanalyse

Identifikation möglicher
Alternativen zur Entwicklung
eines Wissensbasierten Systems

Wirtschaftlichkeitsrechnung/
Nutzwertanalyse

Traditionelles Softwareengineering

Abb. 8: Ein Rahmenmodellfür den Einsatz Wissensbasierter Systeme

Das obige Rahmenmodell zeigt, daß Ausgangspunkt und zentraler Erfolgsfaktor für die
Entwicklung Wissenbasierter Systeme ein implementationsunabhängiges Wissensmodell
ist. Dieses Wissensmodell wird jedoch nur dann erstellt, wenn im Anschluß an eine detail-
lierte Aufgabenanalyse die Entscheidung für die Entwicklung eines Wissensbasierten
Systems gefallen ist. Andernfalls wird das Problem in einer konventionellen Programmier-
sprache gelöst Das Rahmenmodell lenkt so den Entwicklungsprozeß auf diejenigen
Punkte, welche letztendlich für die praktische Einsatzfahigkeit Wissensbasierter Systeme
relevant sind - Problemverständnis, Wissensidentifikation und Wirtschaftlichkeit - und
leistet so einen Beitrag zur Verringerung des Anwendungsdefizits Wissenbasierter
Systeme.
Ein Rahmenmodell für Wissensbasierte Systeme 127

7 Literaturverzeichnis

Adams, J.B. (1985), Probabilistic Reasoning and Certainty Factors, in: Buchanan, B.G.,
Shortliffe, E.H. (Hrsg.), Rule-Based Expert Systems: The MYCIN Experiments of the
Stanford Heuristic Programming Project, Reading, Massachusetts-Menlo Park, California-
London, S. 263-271.

AXON EDV-Unternehmensberatung (1989), Benutzerhandbuch zu PROJECfOR-11: Ein


Expertensystemgenerator für Diagnostik und Klassifikation, Göttingen.

Becker, B. (1990), Die Veränderung von (Experten-) Wissen durch den Prozeß der
Wissensakquisition, in: KI, Nr. 2, S. 31-34.

Bayerisches Staatsministerium für Wirtschaft und Verkehr (1990) (Hrsg.),


Förderprogramme für das Handwerk in Bayern (erstellt vom Seminar für Handwerkswesen
an der Universität Göttingen), München.

Boose, J.H. (1989), A survey of knowledge acquisition techniques and tools, in:
Knowledge Acquisition, Nr. 1, S. 3-37.

Buchanan, B.G., van Meile, W. und Shortliffe, E.H. (1985), EMYCIN: A Knowledge
Engineer's Tool for Constructing Rule-Based Expert Systems, in: Buchanan, B.G. und
Shortliffe, E.H. (Hrsg.), Rule-Based Expert Systems: The MYCIN Experiments of the
Stanford Heuristic Programming Project, Reading, Massachusetts-Menlo Park, California-
London, S. 302-313.

Frost, R. (1986), Introduction to Knowledge Base Systems, London.

Geis, W., Straßer, N. und Mertens, P. (1989), Ausgewählte Vergleiche von


Expertensystemen mit alternativen Entscheidungsunterstützungs-Methoden, in: Kl, Nr. 3,
S. 68-72.

Horvath, P. (1986), Controlling, 2., neubearb. Aufl., München.

Kassowitz, G. (1988), Personal-Computer-Einsatz beurteilt mit Hilfe der Kosten-Nutzen-


Analyse, Bern u.a.

Kesper, J. (1988), KI: Schlüssel zum Erfolg beim praktischen Einsatz, in: KI, Nr. 1, S. 67-
70.

Kretschmar, T. (1990), Wissensbasierte betriebliche Diagnostik: Realisierung von


Expertensystemen, Wiesbaden.
128 Hans-Uhich Wandel

Landesgewerbeförderstelle des niedersächsischen Handwerks e.V. (1988),


Betriebsvergleichende Untersuchung über die organisationseigene betriebswirtschaftliche
Betriebsberatung des Handwerks, Hannover.

Laske, O.E. (1990), Ungelöste Probleme bei der Wissensakquisition für wissensbasierte
Systeme, in: Kl, Nr. 4, S. 4-12.

Mertens, P. (1990), Betriebliche Expertensysteme in der BRD, in Österreich und in der


Schweiz, in: Ehrenberg, D., Krallmann, H. und Rieger, B. (Hrsg.), Wissensbasierte Sys-
teme in der Betriebswirtschaft: Grundlagen, Entwicklung, Anwendung, S. 17-38,
Betriebliche Informations-und Kommunikationssysteme, Bd. 15, Berlin.

Mertens, P., Borkowski, V. und Geis, W. (1988), Betriebliche Expertensystem-Anwen-


dungen: Eine Materialsammlung, Bd. 31, Berlin u.a.

Noelke, U. (1985), Das Wesen des Knowledge Engineering, in: Savory, S. (Hrsg.),
Künstliche Intelligenz und Expertensysteme: Ein Forschungsbericht der Nixdorf Computer
AG, München u.a., S. 109-123.

Paal, T. (1990), Auswahlgesichtspunkte für Wissenserwerbstechniken, in: Kl, Nr. 2, S. 56-


58.

Scheer, A.-W. (1989), Betriebliche Expertensysteme ß - Einsatz von Expertensystem-


Prototypen in betriebswirtschaftliehen Funktionsbereichen, Wiesbaden.

Schirmer, K. (1989), Wissensakquisitionstechniken: TI. Die Wahl der Techniken, in: Kl,
Nr. 1, S. 53-55.

Schmalenbach, E. (1963), Kostenrechnung und Preispolitik, 8. Auflage bearbeitet von


Bauer, R., Köln u.a.

Steels, L. (1990), Components of Expertise, in: AI Magazine, Nr. 2, S. 29-49.

Tergan, S.-O. (1986), Modelle der Wissensrepräsentation als Grundlage qualitativer


Wissensdiagnostik, Opladen.

Weber, J. (1988), Einftihrung in das Controlling, Stuttgart.

Zangemeister, C. (1976), Nutzwertanalyse in der Systemtechnik: Eine Methodik zur


multidimensionalen Bewertung und Auswahl von Projektaltemativen, 4. Auflage,
München.

Zelewski, S. (1986), Expertensysteme - Übersicht über Konzeptionen und


betriebswirtschaftliche Anwendungsmöglichkeiten, Arbeitsbericht Nr. 17 (2. Auflage des
Arbeitsberichts 14/1986), Köln.
ABASS - Ein wissensbasierter Anlageberatungsassistent
Modellbasierte Entwicklung eines Expertensystems unter Verwendung
eines systematischen Vorgehensmodells

Dipl.-Kfm. Uwe Hoppe

Abteilung Wirtschaftsinformatik I der


Georg-August-Universität Göttingen
Inhaltsverzeichnis

1 Einleitung 131
2 Vorgehensmodelle zur Erstellung von WBS 131
2.1 Klassischer Software Life Cycle und Prototyping 131
2.2 Rapid Prototyping vs. modellbasierte Entwicklung von WBS 135
2.3 Vorgehensmodell zur Entwicklung von WBS nach Kurbel 137
3 Konzeptuelle Modeliierung in der KADS-Methodologie 140
3.1 Überblick über die KADS-Methodologie 140
3.2 Erstellung eines Konzeptuellen Modells 141
3.3 Interpretationsmodelle 143
3.3.1 Taxonomie von Interpretationsmodellen 143
3.3.2 Heuristische Klassifikation nach Clancey 144
4 Darstellung des Projektverlaufes 146
4.1 Modifikationen und Ergänzungen des Vorgehensmodells von Kurbel 146
4.2 Konzeption 149
4.2.1 Analyse der Problemstellung 149
4.2.2 Identifikation der Projektbeteiligten und der Ressourcen 151
4.2.3 Analyse der Durchlührbarkeit 152

4.3 Wissenserhebung und -analyse 156


4.3.1 Wissenserhebung 156
4.3.2 Wissensanalyse 158
4.3.2.1 Domain Layer 158
4.3.2.2 Inference Layer 159
4.3.2.3 Task Structure 160
4.4 Implementierung und Testen 161
4.4.1 Kurzbeschreibung des Tools 161

4.4.2 Umsetzung des Konzeptuellen Modells in eine opera-


tionale Form 162
4.4.3 Modularisierung 163
4.4.4 Test und Evaluation 164
5 Ausblick 167
6 Literaturverzeichnis 168
ABASS: Ein Wissensbasierter Anlageberatungsassistent 131

1 Einleitung

Vorgestellt wird ein Wissensbasiertes System (WBS) zur Unterstützung der Vermögens-
anlageberatung in Kreditinstituten. Das System wird unter Zugrundelegung einer geschlos-
senen Methodik entwickelt, die auf einem Vorgehensmodell für die Entwicklung Wissens-
basierter Systeme sowie auf einem Konzeptuellen Modell im Sinne einer implementa-
tionsunabhängigen Darstellung des Wissens auf hohem Abstraktionsniveau beruht.

Die Vorgehensweise bei der Erstellung des Konzeptuellen Modells basiert auf den For-
schungsarbeiten von Breuker und Wielinga (Breuker/Wielinga 1989, S.265-295) zur
KADS-Methodologie. Es wird ein Überblick über die Methodologie gegeben unter beson-
derer Berücksichtigung des auf der "Vier-Ebenen-Theorie" beruhenden Konzeptuellen
Modells.

Aufbauend auf der Diskussion des klassischen Software Life Cycle sowie des Rapid
Prototyping Verfahrens wird ein Vorgehensmodell aus der Literatur zugrunde gelegt und
für die Zwecke des Projektes modifiziert bzw. konkretisiert. Es berücksichtigt den iterati-
ven und evolutionären Charakter der Erstellung Wissensbasierter Systeme und teilt den
Entwicklungsprozeß in explizite Zyklen ein.

Der erste Zyklus der Entwicklung von ABASS wird beschrieben. Hierbei wird auf die
Durchführbarkeit, die Kosten-Nutzen-Problematik und die Wissensakquisition eingegan-
gen. Aspekte der Implementierung des Systems unter Verwendung eines PC-basierten
Entwicklungswerkzeuges werden erörtert.

Der abschließende Ausblick zeigt die weitere Vorgehensweise bei der Entwicklung von
ABASSauf.

2 Vorgehensmodelle zur Erstellung von WBS

2.1 Klassischer Software Life Cycle und Prototyping

Ziel des Einsatzes von Vorgehensmodellen bei der Entwicklung von Softwareprodukten ist
eine Reduktion der Komplexität des Entwicklungsvorhabens. Der schwer überschaubare
Entwicklungsprozeß wird in übersichtliche Teile gegliedert (Pomberger/Remmele 1987b,
S.21). Zu diesem Zweck werden funktional und zeitlich zusammengehörige Tätigkeiten zu
sogenannten "Phasen" zusammengefaßt. Die Ergebnisse einer Phase bestehen in der Regel
aus bestimmten Dokumenten bzw. Teilen des zu entwickelnden Systems. Diese Phasener-
gebnisse sind natürliche Kandidaten für die Definition von "Meilensteinen", anband derer
eine Kontrolle des Projektfortschritts auf Basis der zu erstellenden Projektplanung erfolgen
kann (Biethahn/Mucksch/Ruf 1990, S.119).
132 UweHoppe

Es gibt eine große Anzahl verschiedener Vorgehensmodelle im Bereich des Software


Engineering (Biethahn/Mucksch/Ruf 1990, S.122). Die unterschiedlichen Modelle
unterliegen jedoch im wesentlichen den gleichen Prinzipien. Es wird davon ausgegangen,
daß ein Softwareprodukt eine Reihe von Phasen von der Konzeption des Systems bis zur
Wartung und Pflege im täglichen Einsatz durchläuft. Diese Phasen beschreiben den
Lebenszyklus des Produktes. Die einzelnen Phasen werden in einer sequentiellen Folge
durchlaufen, d.h. der Beginn einer Phase setzt die Ergebnisse der vorhergehenden Phase
voraus (Pomberger/Remmele 1987b, S.21). Iterationen in Form von Rückverzweigungen
in bereits abgeschlossene Phasen stellen die Ausnahme dar und sind aufgrund der damit
verbundenen, zusätzlichen Kosten nach Möglichkeit zu vermeiden. Dabei wird davon aus-
gegangen, daß es möglich ist, eine vollständige Analyse der Spezifikation des Systems zu
erstellen, bevor mit den Implementierungsarbeiten begonnen wird. Das zu entwickelnde
Produkt durchläuft eine Reihe von Entwicklungsstadien mit im Zeitverlauf zunehmendem
Konkretisierungsgrad (Kurbel/Labentz/Pietsch 1987, S.9; Pomberger 1990, S.222). Dieser
Top-Down-Verfeinerungsprozeß beruht auf dem Abstraktionsprinzip (Gabriel 1990,
S.263 f.) und trägt seinerseits zur Komplexitätsreduktion bei.

Ein Vorgehensmodell, welches auf den genannten Prinzipien beruht, verdeutlicht Abbil-
dung 1.
ABASS: Ein Wissensbasierter Anlageberatungsassistent 133

Problemanalyse
und
Istzustandsbeschreibung, Projektauftrag, Grobplan
Grobplanung

System-
spezifikation
-
Systemspezifikation (Pflichtenheft),
Projektplan

System- und
Komponenten- r-
entwurf Systemarchitektur, Komponentenstruktur

''
Implementierung
und Komponenten- -
Systemimplementierung
test

Systemtest
fertiges Produkt

Betrieb und
Wartung

Zeitachse

Abb.l: Der Software Life Cycle (SLC)(Pomberger 1990, S.219)

Der SLC weist eine Reihe von Kritikpunkten auf. So wird die Annahme eines linearen
Projektverlaufes als falsch erachtet. Rückverzweigungen in bereits abgeschlossene Phasen
stellen nicht die Ausnahme sondern vielmehr die Regel dar (Biethahn/Mucksch/Ruf 1990,
S.128). Die hierzu erforderlichen Iterationen werden in vielen Darstellungen von Vorge-
hensmodellen, die auf den Prinzipien des SLC beruhen, berücksichtigt. Unklar bleibt
jedoch zumeist, unter welchen Bedingungen eine Iteration vorzunehmen ist und wieviele
Iterationen vorzusehen sind (Pomberger 1990, S.224).
134 UweHoppe

Die Benutzeranforderungen sind zu Beginn eines Projektes häufig noch unbestimmt und
vage. Die Anforderungen an das System können demzufolge im Zeitablauf variieren, was
auf den im Projektverlauf zunehmenden Erkenntnisstand hinsichtlich der Problemstellung
zurückzuführen ist. Neue Benutzeranforderungen können hinzu kommen, wenn die Ein-
sicht in die Möglichkeiten und das Leistungsvermögen des Zielsystemsl wächst. Die For-
derung nach der Durchführung einer Analyse vor der Implementierung verlangt jedoch
eine möglichst vollständige und korrekte Spezifikation der Benutzerwünsche zu Beginn
des Projektes, was in der Regel kaum möglich ist.

Weiterhin liegt das fertige und ablauffahige Produkt erst spät im Projektverlauf vor. Häu-
fig werden erst bei Testläufen des fertigen Produktes Mißverständnisse zwischen Benut-
zern und Entwicklern deutlich, die zu diesem Zeitpunkt nicht mehr oder nur noch unter
unverhältnismäßig hohen Kosten korrigiert werden können.

Insbesondere der letztgenannte Nachteil des SLC führte zur Verbreitung des Prototyping-
Gedankens in der Softwareentwicklung. Der Begriff des Prototyping beschreibt eine Reihe
an unterschiedlichen Techniken und Vorgehensweisen bei der Softwareentwicklung. Eine
weit verbreitete, auf Floyd (Floyd 1984, S.6 f.) zurückgehende Einteilung untergliedert in
exploratives, experimentelles und evolutionäres Prototyping.

Das experimentelle Prototyping zielt auf die beschriebene Problematik der Ermittlung der
Systemspezifikation ab. In unmittelbarer Zusammenarbeit mit den Benutzern sollen die
Anforderungen hinsichtlich der gewünschten Funktionalität am konkreten Systemprototyp
erhoben werden.

Das experimentelle Prototyping dient der Untersuchung der Realisierbarkeit von


Systemarchitekturen, Lösungsansätzen u.ä. Der Prototyp soll das Zusammenspiel zwischen
den einzelnen Systemkomponenten simulieren, die Angemessenheit der definierten
Schnittstellen aufzeigen sowie die Flexibilität der gewählten Architektur verdeutlichen.

Das evolutionäre Prototyping beruht auf einer inkrementellen Systementwicklung. Das


Softwareprodukt entsteht hierbei in einer Reihe aufeinanderfolgender Versionen, wobei die
jeweils fertiggestellte Version Ausgangspunkt für den nächsten Entwicklungszyklus ist.
Der Entwicklungsprozeß verliert hierdurch seinen Projektcharakter und wird zu einer stän-
dig durchzuführenden Aufgabe (Pomberger 1990, S.227). Hinsichtlich der Ermittlung der
Spezifikation beschränkt man sich bei der Entwicklung der einzelnen Versionen auf die
Anforderungen, die in diesem Stadium des Entwicklungsvorhabens mit hinreichender
Genauigkeit bekannt sind. Die Erfahrungen bei der Erstellung der laufenden Version för-
dern die Einsicht in die Problemstellung und erlauben die Zugrundelegung einer detail-
lierteren Spezifikation im nächsten Zyklus.

Der Ausdruck Zielsystem wird hier nicht im Sinne eines Systems unternehmenscher Zielsetzungen
gebraucht, sondern bezeichnet die angestrebte endgültige Version des zu entwickelnden Softwarepro-
duktes.
ABASS: Ein Wissensbasierter Anlageberatungsassistent 135

Die einzelnen Arten des Prototyping weisen sehr unterschiedliche Charakteristika auf. Das
explorative Prototyping stellt eine Technik zur Unterstützung der Phasen der Problemana-
lyse und Systemspezifikation dar. Analog unterstützt das experimentelle Prototyping die
Phasen des System- und Komponentenentwurfs.

Hiervon abzugrenzen ist das evolutionäre Prototyping, das die Idee des Lebenszyklus eines
Softwareproduktes und damit ein Grundprinzip des SLC in Frage stellt. Von Prototyping
kann hier eigentlich nur gesprochen werden, da die ersten, frühen Systemversionen allen-
falls Prototypcharakter aufweisen und noch nicht dem "endgültigen" System entsprechen
(Pomberger 1990, S.227; Mayhew/Deamley 1987, S.481).

Als Nachteile des Prototyping lassen sich die noch unzureichende Unterstützung durch
Entwicklungswerkzeuge (Pomberger 1990, S.236; Pomberger/Remmele 1987b, S.23 ff.)
sowie der erforderliche erhöhte Ressourceneinsatz bei der Entwicklung
(Biethahn/Mucksch/Ruf 1990, S.133) nennen.

2.2 Rapid Prototyping vs. modellbasierte Entwicklung von WBS

Im Rahmen des Knowledge Engineering wird die Entwicklung von WBS weitgehend
durch das sogenannte "Rapid Prototyping" geprägt (Karbach 1988, S.10). Hierbei wird
versucht, unter Einsatz von Werkzeugen, möglichst schnell ein ablauffähiges System zu
erstellen. Namenhafte Vertreter des Rapid Prototyping·in der Entwicklung von WBS sind
Hayes-Roth et al. bzw. Buchanan et al. (Hayes-Roth/Waterman/Lenat 1983, S.3 ff.;
Buchanan et al. 1983, S.127 ff.) und Barmon/King (Harmon/King 1987, S.219 ff.). Bereits
nach der Erhebung weniger Fallbeispiele wird eine kleine Wissensbasis erstellt, die suk-
zessive zu dem endgültigen System auszubauen ist. Diese Vorgehensweise erlaubt dem
Knowledge Engineer und dem Experten, das WBS unmittelbar auf fehlendes, inkorrektes
oder inkonsistentes Wissen hin zu überprüfen.

Dem Vorteil, daß das Operationale System dynamisch, d.h. anband seines Verhaltens
geprüft werden kann, stehen jedoch gewichtige Nachteile des Rapid Prototyping gegen-
über (Karbach 1988, S.ll; Kurbel1989, S.86 f.):

Es kommt zu einer Vermischung der Tätigkeiten der Wissensanalyse und Wissensre-


präsentation.
Diese Vermischung erfordert, daß der Knowledge Engineer, der die Erhebung und
Analyse des Wissens durchführt, auch die Wissensbasis implementiert, was einen
arbeitsteiligen Prozeß erschwert.
Sowohl der Experte als auch der Knowledge Engineer sind frühzeitig mit Implemen-
tierungsdetails beschäftigt, anstatt sich einer möglichst vollständigen und korrekten
Erhebung und Analyse des Wissens zu widmen.
Die Wissensrepräsentationsformen des gewählten Werkzeuges stellen die einzige zur
Verfügung stehende Darstellungsmöglichkeit dar. Diese entspricht jedoch weder hin-
sichtlich des Abstraktionsniveaus noch hinsichtlich der Terminologie der Begriffswelt
des Experten.
136 UweHoppe

Diese Wissensrepräsentationsfonnalismen sind, insbesondere bei Einsatz von Shells,


auf bestimmte Fonnen beschränkt. Es besteht die Gefahr, daß die Erhebung des
Wissens sich auf solche Teile bzw. Wissensarten beschränkt, die mit den zur Verfü-
gung stehenden Wissensrepräsentationsfonnen abgebildet werden können. Das
Problem wird dem Werkzeug angepaßt.

Karbach kommt zu dem Urteil, daß die Verwendung des Rapid Prototyping aufgrund die-
ser Nachteile als kritisch beurteilt werden muß (Karbach 1988, S.12).

Während Rapid Prototyping bei kleineren Projekten als vertretbar angesehen werden kann
(Kurbel/Pietsch 1989, S.137), erfordern komplexere Problemstellungen die Unterlegung
eines fundierten Problemlösungsmodells (Tank 1988, S.72). Dieses Konzeptuelle Modell
stellt eine implementationsunabhängige Repräsentation der Expertise dar (Kurbel 1989,
S.86 ff.)2. Analog zur Systemspezifikation des SLC übernimmt das Konzeptuelle Modell
die Rolle einer zusätzlichen Repräsentation, die im Vergleich zum ablauffahigen System
ein höheres Abstraktionsniveau aufweist. Die Darstellung des Wissens in einem derartigen
Modell erlaubt eine Trennung der Tätigkeiten der Wissensakquisition und Wissensreprä-
sentation. Gefordert wird in diesem Zusammenhang der Einsatz eines anwendungsnahen
Knowledge Engineer, der sich mit der Wissenserhebung und der Wissensanalyse beschäf-
tigt, sowie eines systemnahen Knowledge Engineer, der die Codierung des Wissens auf
Basis des Konzeptuellen Modells vornimmt (Tank 1988, S.74).

Weiterhin besteht die Möglichkeit, die Beschreibungsmittel des Modells an den fachspezi-
fischen Termini des Experten zu orientieren, was die Transparenz des Modells aus der
Sicht des Experten erhöht.

Die Darstellungsfonn des Konzeptuellen Modells kann in Abhängigkeit von den Eigen-
schaften der Expertise gewählt werden. Theoretisch kommen hierbei alle als Grundtechni-
ken der Wissensrepräsentation bekannten Fonnen in Frage, beispielsweise Frames, seman-
tische Netze, Regeln etc. (Kurbel1989, S.88). Von besonderer Bedeutung sind Konzeptu-
elle Modelle, die auf einer (mehr oder minder fonnalen) Beschreibungssprache beruhen
und solche, die im Rahmen einer geschlossenen Entwicklungsmethodologie zum Einsatz
kommen. Eine Vorgehensweise, die beide Kennzeichen erfüllt, stellt die KADS-Metho-
dologie dar, die der Entwicklung von AB ASS zugrunde gelegt wurde.

In der Erstellung eines Konzeptuellen Modells vor der Implementierung des Zielsystems
ist eine Rückkehr zu dem Prinzip der "Analyse vor Implementierung" zu sehen3. Ein
charakteristisches Merkmal von WBS ist es jedoch, daß sie vornehmlich für schlecht-
strukturierte Aufgabenstellungen zum Einsatz kommen. Diese auch als "diffus" bezeich-
neten Problemstellungen sind dadurch gekennzeichnet, daß zu Beginn eines Projektes typi-
scherweise kein klares Verständnis für die Expertise vorliegt (Puppe 1988, S.4). Unter

2 Kurbel verwendet den Begriff "Konzeptionelles Wissensmodell" .


3 Vgl. die Ausführungen zum SLC in Kapitel 2.1 der Arbeit.
ABASS: Ein Wissensbasierter Anlageberatungsassistent 137

diesem Gesichtspunkt erscheint es optimistisch, die Erstellung eines Konzeptuellen


Modells zu unternehmen, ohne hierzu auf die Möglichkeiten zur Analyse der Anforderun-
gen anband eines Prototypen zurückzugreifen.

Im Rahmen von Forschungsarbeiten zur Natur von Problem- oder Aufgabenstellungen


wurden typische Problemstellungen auf die ihnen zugrunde liegenden Repräsentations-
und Verarbeitungsmuster hin untersucht4. So sind heute eine Reihe "generischer"
Problemstellungen, insbesondere im Bereich diagnostischer Aufgabenstellungen bekannt,
die gut genug verstanden sind, um ähnliche Probleme frühzeitig im Projektverlauf identifi-
zieren und bereits vorhandene Erfahrungen auf sie anwenden zu können. Der ehrgeizigste
Ansatz in diesem Zusammenhang stellt wiederum die bereits erwähnte KADS-Methodolo-
gie dar, die eine Bibliothek sogenannter Interpretationsmodelle zur Verfügung stellt. Die
Erstellung eines Konzeptuellen Modells der Expertise reduziert sich somit auf die Identi-
fikation eines hinreichend ähnlichen generischen Modells sowie eine eventuell notwendig
werdenden Anpassung an die reale Problemstellung.

2.3 Vorgehensmodell zur Entwicklung von WBS nach Kurbel

Ein Vorgehensmodell zur Entwicklung von WBS hat sich an den spezifischen Eigen-
schaften des Entwicklungsprozesses von WBS sowie an den Charakteristika Wissensba-
sierter Systeme selbst zu orientieren (Kurbel 1989, S.92). Diese charakteristischen Eigen-
schaften liegen insbesondere in der mangelnden Strukturiertheit der Problemstellungen, für
die WBS typischerweise zum Einsatz kommen .

Das von Kurbel vorgestellte Vorgehensmodell beruht auf der Erkenntnis, daß der Ent-
wicklungsprozeß von WBS zyklischer, iterativer und evolutionärer Natur ist (Kurbel 1989,
S.92 ff.).

Der Prozeß ist iterativ, da eine lineare Vorgehensweise, die bereits bei traditionellen Saft-
wareprojekten als problematisch erachtet wird, bei der Entwicklung von WBS aufgrund
des tendenziell schlechteren Verständnisses der Aufgabenstellung zu Beginn eines WBS-
Projektes um so mehr zu mangelhaften Ergebnissen führen muß. Der Prozeß ist zyklisch,
da eine vollständige und korrekte konzeptuelle Modeliierung in einer einzigen linearen
Sequenz von Phasen problematisch erscheint, und daher von mehreren, aufeinanderfolgen-
den Entwicklungszyklen auszugehen ist. Schließlich ist der Prozeß evo/utionär, da über die
verschiedenen Entwicklungszyklen hinweg das zu entwickelnde System sukzessive in
mehreren Versionen mit im Zeitverlauf zunehmenden Konkretisierungsgrad erstellt wird,
eine Vorgehensweise, die dem evolutionären Prototyping entspricht.

Ein Vorgehensmodell, das diesem Charakter des Entwicklungsprozesses Rechnung tragen


will, stellt somit einen Kompromiß dar. Es berücksichtigt die Prinzipien der Konzeptuellen
Modeliierung mit den genannten Vorteilen einer implementationsunabhängigen Darstel-

4 Eine ausführliche Beschreibung einer derartigen Untersuchung gibt Clancey (Ciancey 1985, S.289-
350).
138 UweHoppe

lung der Expertise auf hohem Abstraktionsniveau und verbindet diese mit den Prinzipien
des Prototyping. Letzere werden in der evolutionären Vorgehensweise, die dem Grundge-
danken des evolutionären Prototyping entspricht, sowie in Elementen des experimentellen
Prototyping deutlich, da der jeweils in einem Zyklus zu entwickelnde Prototyp als Basis
ftir eine experimentelle Überprüfung des zugrunde gelegten KonzeptDellen Modells gese-
hen werden kann (Kurbe]/Pietsch 1989, S.140).

Konzeption

Entwicklungszyklus

...------ Wissensmodell Wissensmängel -----.

Implementierung

Expertensystem-Version

Modellrevision MilDgelbeseitigung

Abb.2: Vorgehensmodellfür die Entwicklung von WBS (Kurbe/1989, S.95)


ABASS: Ein Wissensbasierter Anlageberatungsassistent 139

Abbildung 2 verdeutlicht, daß das Konzeptuelle Modell inkrementeil entsteht. Zu Beginn


eines Entwicklungszyklus wird zunächst ein Konzeptuelles Modell erstellt, das für den
weiteren Verlauf des Zyklus verbindlich ist. Jeder Zyklus umfaßt die Phasen von der
Wissenserhebung bis hin zur Diskussion. Der Pfeil "Modellrevision" verdeutlicht den Start
eines neuen Zyklus. Das Konzeptuelle Modell wird im Lichte der während des vergange-
nen Zyklus erworbenen Erkenntnisse überarbeitet und wiederum für die nachfolgenden
Zyklustätigkeiten zugrunde gelegt.

Die Konzeption ist kein Bestandteil der Entwicklungszyklen und wird daher in der Regel
nur einmal durchlaufen. Die Tätigkeiten haben im wesentlichen vorbereitenden Charakter,
ähnlich wie dies bei konventionellen Projekten der Fall ist. Die Konzeption dient der Auf-
stellung einer groben Zeit- und Budgetplanung, der Identifikation der Projektbeteiligten,
der Definition von Maßstäben zur Beurteilung der Qualität des Zielsystems u.ä. vorbe-
reitenden Tätigkeiten.

Die Wissenserhebung erfolgt durch Anwendung verschiedener Wissenserhebungstech-


niken. Häufig handelt es sich hierbei um Interviews in strukturierter oder fokussierter
Form. Es schließt sich die Analyse des erhobenen Wissens an, die direkt in ein Konzep-
tuelles Modell mündet.

Während der Implementierung wird das Konzeptuelle Modell inkrementell, d.h. in aufein-
anderfolgenden Schritten unter Verwendung der Wissensrepräsentationsformen des
gewählten Entwicklungstools in Code umgesetzt. Die Implementierung stellt sich dabei als
eine mehrfach zu durchlaufende Folge von Codierung und Testen dar. Die inkrementeile
Vorgehensweise wird in Abbildung 2 durch die hintereinander liegenden Schichten zum
Ausdruck gebracht.

Die Abnahme dient der Beurteilung sowohl des Konzeptuellen Modells als auch der
jeweils aktuellen Prototyp-Version durch den Experten sowie gegebenenfalls durch einen
Benutzer. Als Beurteilungskriterien dienen die während der Konzeption des Projektes
definierten Qualitätsmaßstäbe. Während der abschließenden Diskussion werden die Ergeb-
nisse und Erfahrungen des Entwicklungszyklus verarbeitet. Aufgetretende Mängel sind zu
unterteilen in solche, die im Rahmen einer einfachen Mängelbeseitigung noch im gleichen
Zyklus behoben werden können, und solche, die Gegenstand der nachfolgenden Modellre-
vision sind. Die Ergebnisse der Diskussion und der Abnahme werden in einem Abnahme-
bericht dokumentiert.

Die Präsentation ist ebenso wie die Konzeption kein Bestandteil der Entwicklungszyklen.
Sie dient der Vorführung des Systems sowie der Übergabe an die Auftraggeber.

Kurbel schlägt eine Folge von zumindest drei Entwicklungszyklen vor, die er mit Initiali-
sierung, Neuorientierung und Stabilisierung bezeichnet (Kurbel1989, S.96 f.).
140 UweHoppe

Das Vorgehensmodell erhebt keinen Anspruch auf generelle Gültigkeit. Modifikationen


sind denkbar. Eine derartige Modifikation wird im Verlaufe dieser Arbeit erforderlich
werden, um die Erstellung des Konzeptuellen Modells im Rahmen der KADS-Methodolo-
gie in das Vorgehensmodell von Kurbel zu integrierens.

3 KonzeptneUe Modeliierung in der KADS-Methodologie

3.1 Überblick über die KADS-Methodologie

KADS ist eine Abkürzung für "Knowledge Acquisition and Documentation System" und
beschreibt sowohl eine Methodologie zur Erstellung von WBS (Breuker/Wielinga 1987,
S.1-6; Breuker/Wielinga 1989) als auch ein Softwaresystem, das auf Basis der Methodo-
logie den Entwicklungsprozeß unterstützen soll (Anjewierden 1987, S.1-12).

Abstraktionsebene

Detailliertes Design-Modell

Stadien der Systementwicklung

Abb. 3: Entwicklungskurve Wissensbasierter Systeme (Wielinga/Bredeweg/Breuker


1988, S.104)

5 Vgl. die Ausführungen in Kapitel4.1 der Arbeit.


ABASS: Ein Wissensbasierter Anlageberatungsassistent 141

Das Grundverständnis der KADS-Methodologie beruht auf der Sichtweise, daß die Ent-
wicklung von WBS ein Modellierungsprozeß ist, der auf Abstraktions- und Transfor-
mationsvorgängen basiert. Die konzeptuelle Lücke zwischen dem in der Regel in verbaler
Form vorliegenden Wissen des Experten und dem ablauffähigen WBS wird durch eine
Reihe von Modellen mit variierendem Abstraktionsgrad systematisch überbrückt. Einen
Überblick gibt Abbildung 3.

Die Autoren nennen eine Reihe von Grundsätzen, die jedoch teilweise nur den Charakter
von "Daumenregeln" haben, die bei der Entwicklung von WBS zu beachten sind. Von
wirklich zentraler Bedeutung lassen sich drei Prinzipien ausmachen:

1. In einer Abkehr von der Vorgehensweise des Rapid Prototyping beziehen sich die
Autoren wieder auf die Grundlagen des traditionellen Software Life Cycle, indem sie
eine vollständige Analyse der Daten vor den nachfolgenden Design- und
Implementierungsabläufen verlangen (Breuker/Wielinga 1989, S.273)6.

2. Wissen ist auf unterschiedlichen Ebenen zu analysieren, wobei der epistemologischen


Ebene eine zentrale Rolle zukommt (Hayward/Wielinga/Breuker 1988, S.150).

3. Diese Wissensanalyse sollte so früh wie möglich modellgetrieben vorgenommen


werden, um die ineffiziente "bottom-up"-Vorgehensweise bei der Erhebung des
Wissens durch eine zielgerichtete, auf gegebene Modellstrukturen ausgerichtete "top-
down"-Analyse zu ersetzen?.

Eine wesentliche Komponente der KADS-Methodologie ist die Knowledge Conceptual


Modelling Language (KCML), die eine Beschreibung des Wissens auf epistemologischer
Ebene erlaubt.

3.2 Erstellung eines Konzeptuellen Modells

Das Konzeptuelle Modell ist das zentrale, bislang am besten untersuchte Modell in der
KADS-Methodologie. Basierend auf dem Grundgedanken, daß die Expertise auf unter-
schiedlichen Ebenen zu analysieren und repräsentieren ist, stellt das Konzeptuelle Modell
eine Abbildung des Expertenwissens auf epistemologischer Ebene dar. Zur Erstellung
dieses Modells wurde eine Sprache, die Knowledge Conceptual Model Language (KCML)
entworfen.

"A modeHing language provides a vocabulary in which the expertise can be expressed in a
coherent way" (Breuker/Wielinga 1989, S.272).

6 Dies bedeutet letztlich, daß auf einen zyklisch angelegten Entwicklungsprozeß venichtet wird, da das
System in einer linearen Abfolge von Analyse- und Implementierungstätigkeiten erstellt wird, die nur
einmal durchlaufen wird.
7 Vgl. die Ausführungen in Kapitel3.3 der Arbeit.
142 UweHoppe

Die Semantik der Modellierungssprache beruht auf der "four layer theory"
(Breuker/Wielinga 1989, S.274; Hayward/Wielinga/Breuker 1988, S.152 ff.; Schreiber et
al. 1988, S.7-4 ff.):

"The four layer theory which constitutes rather a view on expert problern solving than a
fully elaborated and evaluated theory is based upon two premises. The frrst one holds that
it is possible and useful to distinguish between several generic types of knowledge; the
second, that these types of knowledge can be organised in layers, which have limited
interactions" (Breuker/Wielinga 1989, S.274 f.).

Im folgenden sollen die verschiedenen Schichten, in denen die Expertise zu beschreiben


ist, jeweils kurz erläutert werden.

Domain LevelS:

Der Domain Level stellt eine Abbildung der Konzepte der Domäne und ihrer statischen
Beziehungen in einer axiomatischen Struktur auf der Basis von "consists-of'-, "depends-
upon"-, "part-of'-, "causes"- Beziehungen u.ä. dar.

Inference Level:

Der lnference Level beschreibt die Schlußfolgerungskompetenz des Domain Level. Diese
Kompetenz ist abstrakt, da sie losgelöst von konkreten Domänenkonzepten lediglich die
möglichen Inferenzen beschreibt. Die Kompetenz dokumentiert sich in einer Menge von
Knowledge Sources9, die als Schlußfolgerungsfunktionen, wie beispielsweise "abstract",
"assemble" u.ä. interpretiert werden können. Der Input und Output der Knowledge Sources
besteht aus sogenannten Meta Classes, welche die Rollen beschreiben, die die Domänen-
konzepte im Verlaufe des Schlußfolgerungsprozesses annehmen können. So kann bei-
spielsweise ein Domänenkonzept "Rechnerkonfiguration" im Inferenzverlauf sowohl die
Rolle einer Hypothese als auch die der endgültigen Lösul}g spielen. Knowledge Sources
und Meta Classes bilden zusammen die Inferenzstruktur.

Task Level:

Auf dem Task Level wird die Aufgabenstruktur beschrieben. Die hieraus resultierende
Task Structure spezifiziert, wie die lnferenzstruktur verwendet werden kann, um das
Problem zu lösen. Die Elemente der KCML zur Beschreibung der Task Structure sind
Goals und Control Statements:

8 Die Ausdrücke Level und Layer werden hier im Zusammenhang mit dem Konzeptuellen Modell der
KADS-Methodologie synonym verwendet.
9 Breuker weist auf die unterschiedliche Bedeutung des Begriffes "Knowledge Source" im Gegensatz zur
Verwendung in den Forschungsarbeiten des HEARSAY-Projekts hin (Breuker/Wielinga 1989, S.275).
ABASS: Ein Wissensbasierter Anlageberatungsassistent 143

Goals: Es lassen sich primitive und zusammengesetzte Goals unterscheiden. Primitive


Goals bestehen in der einfachsten Form aus einer Knowledge Source und einer Meta
Class, beispielsweise "specify (hypothesis)". Zusammengesetzte Goals bestehen aus
einer Struktur von primitiven Goals.
Control Statements: um nicht nur einfache Sequenzen von Goals zu ermöglichen, wird
das Vokabular um die Möglichkeiten der Iteration (while-statement) und Auswahl (if-
statement) erweitert.

Strategie Leyel:

Ein flexibler Problemlösungsprozeß bedingt, daß die Problemlösungsstrategie an die


jeweiligen Umstände hinsichtlich der Verfügbarkeil benötigter Daten, der Absichten der
Benutzer sowie des jeweiligen Problemtyps angepaßt werden kann. Hierzu wird Schluß-
folgerungskompetenz zur Aufstellung von Plänen, Überwachung der Plandurchführung
und Abänderung der Pläne benötigtiO, Der Strategie Level ist vergleichsweise wenig unter-
sucht, da eine strategische Schlußfolgerungskompetenz flir ein WBS in einer eng abge-
grenzten Domäne aufgrund der in der Regel ftxen, "fest verdrahteten" Problemlösungs-
strategie kaum erforderlich ist (Hayward/Wielinga/Breuker 1988, S.152).

3.3 Interpretationsmodelle
3.3.1 Taxonomie von Interpretationsmodellen

Hinter der Forderung, die Wissenakquisition modellgestützt zu betreiben, verbirgt sich der
Gedanke, daß Expertise mit Hinblick auf gleiche oder ähnliche Schlußfolgerungsmuster in
Klassen eingeteilt werden kann (Breuker/Wielinga 1987, S.5). So weist der Problemlö-
sungsprozeß in so unterschiedlichen Aufgabenstellungen wie der Diagnose biologischer
Systeme oder der Fehlersuche in technischen Systemen durchaus vergleichbare Schlußfol-
gerungsprozesse auf, beispielsweise in Form der Erstellung von Hypothesen über
"Fehlfunktionen", dem Testen dieser Hypothesen auf Evidenz u.ä. (Breuker/Wielinga
1987, S.5).

Die Einteilung dieser Muster in Klassen führt zur Formulierung sogenannter Generle
Tasks11, protoypischer Aufgabenstellungen, die mit einer bestimmten Schlußfolgerungs-
methode verbunden sind (Breuker/Wielinga 1989, S'.273). Wenn es nun gelingt, in einer
frühen Phase der Wissensakquisition Schlußfolgerungsmuster in der Expertise zu identifi-
zieren, die auf eine gegebene Generle Task hinweisen, so läßt sich der weitere Wissensak-
quisitionsprozeß modellgetrieben, d.h. mit Hinblick auf die bekannten Muster der Generle
Task betreiben. Der Knowledge Engineer kann so beispielsweise entdecken, daß Wissen

10 Hayward et al. sprechen von einem "plan, monitor, repair cycle", (Hayward/Wielinga/Breuker 1988,
5.152).
11 Der Ausdruck "Generic Task" geht aufChandrasekaran zurück (Bylander/Chandrasekaran 1987,
5.231- 243; Chandrasekaran 1986a, 5.23-30).
144 UweHoppe

für bestimmte Inferenzprozesse, die aufgrund des Modells zu erwarten sind, noch nicht
erhoben ist und somit das Wissen "top-down", d.h. ausgehend von der Generle Task,
akquirieren.

Ein weiterer Vorteilliegt darin, daß neu erhobenen Wissens in der Regel schnell anband
des Modells identifiziert und eingeordnet werden kann. Aufgrund dieser Eigenschaft, die
Interpretation des erhobenen Wissens zu unterstützen, werden Generle Tasks im Rahmen
der KADS-Methodologie als Interpretationsmodelle bezeichnet (Breuker/Wielinga 1989,
S.285 ff.). Ein Interpretationsmodell ist aufgabenspezifisch, indem es typische Inferenz-
muster beinhaltet, nicht jedoch domänenspezifisch, da es von den jeweiligen Konzepten,
die von Domäne zu Domäne variieren, abstrahiert.
Natürlich ist die Verwendung von Interpretationsmodellen für eine zielgerichtete
Wissensakquisition nur dann zweckmäßig, wenn für einen signifikant großen Anteil von
Praxisproblemen geeignete, d.h. in Hinblick auf die reale Problemstellung hinreichend
ähnliche Modelle zur Verfügung stehen. Benötigt wird somit eine Bibliothek von lnter-
pretationsmodellen, nach Möglichkeit unter Zugrundelegung einer Klas8eneinteilung,
damit eine schnelle Zuordnung der Interpretationsmodelle zu der jeweiligen realen Pro-
blemstellung erfolgen kann.

Im Rahmen der KADS-Methodologie wurde eine derartige Bibliothek entwickelt


(Breuker/Wielinga 1989, S.286). Ziel war es hierbei, möglichst elementare Modelle zu
definieren, die als Bausteine für die abzubildende Expertise dienen können (Chandraseka-
ran 1986a, S.28 ff.). Die reale Problemstellung läßt sich somit aus generischen Interpreta-
tionsmodellen zusammensetzen.

Der Prozeß der erstmaligen Analyse und Def"mition von Interpretationsmodellen ist auf-
wendig. Ein ausführliches Beispiel gibt Clanceys Analyse der Heuristischen Klassifikation,
die als analytisches Interpretationsmodell in die Bibliothek aufgenommen wurde, und im
folgenden Kapitel erläutert wird (Clancey 1985, S.289-350). Die Arbeiten der Forschungs-
gruppe um Chandrasekaran, die bisher zu einer Unterscheidung von sechs verschiedenen
Grundtypen von Generle Tasks führten, geben weitere Beispiele für die Analyse von
Generle Tasks (Chandrasekaran 1986b, S.41-64}.

3.3.2 Heuristische Klassifikation nach Clancey

Das Modell der Heuristischen Klassifikation ist im Zuge einer Knowledge-Level-Analyse


existierender Expertensysteme (XPS) entstanden, die nach Newell als eine Spezifikation
dessen, was ein WBS in der Lage zu tun sein sollte, dient (Newell1982). Diese Beschrei-
bung ist zu unterscheiden von den Mechanismen zur Repräsentation des Wissens, die zur
Implementierung des XPS eingesetzt werden.

Die Analyse der XPS zeigte auf, daß die jeweiligen Inferenzprozesse nicht aus einer belie-
bigen Kette von Implikationen bestehen. Sie setzen vielmehr Relationen zwischen Kon-
zepten in einer systematischen Art und Weise zusammen. Die untersuchten Systeme
ABASS: Ein Wissensbasierter Anlageberatungsassistent 145

arbeiten mit Klassifikationen, indem sie Konzepte aus verschiedenen Klassifikations-


hierarchien über nicht hierarchische, unsichere Schlußfolgerungen verbinden. Clancey
nennt diese Vorgehensweise Heuristische Klassifikation.

Unter Klassifikation ist die Identifizierung eines unbekannten Objektes oder Phänomens
als ein Mitglied einer bekannten Klasse von Objekten, Ereignissen oder Prozessen zu ver-
stehen. Diese Klassen sind typischerweise hierarchisch organisiert. Der Prozeß der
Identifikation ist üblicherweise gekennzeichnet durch den Vergleich von Beobachtungs-
werten eines unbekannten Entity gegenüber Eigenschaften einer bekannten Klasse.

In der einfachen Klassifikation können Daten direkt oder nach Abstraktion mit Eigen-
schaften der Lösung in Beziehung gesetzt werden. Eine Abstraktion der Daten ist notwen-
dig, wenn die zur Identifikation notwendigen Eigenschaften der Lösungen nicht unmittel-
bar durch die Eingabedaten gegeben sind, sondern durch Abstraktionsprozesse, definitori-
scher Art, qualitativer Art oder durch Generalisierung abgeleitet werden müssen.
In der Heuristischen Klassifikation können Lösungen und Eigenschaften von Lösungen
ebenso heuristisch durch direkte, nicht hierarchische Assoziation mit Konzepten in
anderen Klassifikationshierarchien in Verbindung gebracht werden. Eine heuristische
Beziehung ist unsicher, basiert auf Annahmen, typischen Eigenschaften, und verdeutlicht
manchmal nur eine schlecht verstandene Korrelation. Eine Heuristik ist häufig empirischer
Natur, abgeleitet von Erfahrungen aus Problemlösungsprozessen. Dies verdeutlicht den
Charakter von Heuristiken als "Daumenregeln".

Zusammengefaßt läßt sich sagen, daß in der Heuristischen Klassifikation abstrahierte


Daten mit spezifischen Problemlösungen oder Eigenschaften, die eine Lösung beschreiben,
assoziiert werden. Abbildung 4 verdeutlicht, wie die Ausdrücke Daten, Datenabstraktio-
nen, Lösungsabstraktionen und Lösungen systematisch über verschiedene Arten von Rela-
tionen miteinander verbunden sind. Dies ist die Struktur der Inferenz in der Heuristischen
Klassifikation. Die Begriffe Abstraktion und Verfeinerung stellen Vereinfachungen dar,
die lediglich eine übliche Reihenfolge (Verallgemeinerung von Daten und Verfeinerung
von Lösungen) beschreiben.
146 UweHoppe

abstrahierte abstrahierte
Daten Lösungen

Daten Lösung

Abb.4: lnferenzstruktur der Heuristischen Klassifikation (Ciancey 1985, S.296)

Eine wichtige Eigenschaft von Klassifikation ist, daß der Problemlöset aus einer Menge
vordefinierter Lösungen auswählt, im Gegensatz zu Problemstellungen, bei denen die
Lösungen generiert werden müssen. Clancey nimmt diese Eigenschaft zum Anlaß, die von
ihm entwickelte Taxonomie von generischen Problemlösungstypen anband einer Unter-
teilung in analytische und synthetische Problemlösungstypen aufzubauen.

4 Darstellung des Projektverlaufes

4.1 Modifikationen und Ergänzungen des Vorgebensmodells von


Kurbel

Für die Zwecke der Beschreibung des ABASS-Projektes sind die Phaseninhalte des in
Kapitel 2.3 der Arbeit beschriebenen Vorgehensmodells weiter zu untergliedern. Die
Inhalte bzw. Tätigkeiten orientieren sich im wesentlichen an Buchanan et al. (Buchanan et
al. 1983, S.139 ff.), die die Wissensakquisition in die Aufgabenbereiche Identifikation,
Konzeptualisierung, Formalisierung, Implementierung und Testen zerlegen. Kurbel weist
darauf hin, daß es sich bei dieser Einteilung nicht um Phasen im Sinne eines Vorgehens-
modells handelt, sondern um Aufgabenkomplexe, die unmittelbar oder mittelbar mit der
ABASS: Ein Wissensbasierter Anlageberatungsassistent 147

Wissensakquisition verbunden sind (Kurbel 1989, S.70 ff.). Die Zusammenfassung der
einzelnen Aktivitäten zu logisch zusammengehörigen Phasen sowie die zeitliche Reihen-
folge wird durch das Vorgehensmodell determiniert.

Konzeption

Die folgende Liste erhebt keinen Anspruch auf Vollständigkeit. Es handelt sich allerdings
um die Tätigkeiten, die unverzichtbar innerhalb eines XPS-Projektes durchzuführen sind.
Die Aufzählung verdeutlicht nicht die zeitliche Reihenfolge der Tätigkeiten. Diese können
teilweise parallel verfolgt werden, wobei allerdings die Analyse der Problemstellung Vor-
aussetzung für die Beurteilung der Durchführbarkeit des Projektes ist und auch eine wich-
tige Rolle bei der Auswahl der Ressourcen spielt. Als Schwerpunkte können die folgenden
Tätigkeiten genannt werden:

Analyse der Problemstellung,


Identifikation der Projektbeteiligten und der Projektressourcen,
Analyse der Durchführbarkeit des Projekts.

Die Analyse der Problemstellung dient der Beschreibung und Abgrenzung der
Problemstellung, der Zerlegung der Problemstellung in Teilprobleme sowie der Bestim-
mung des Problemtyps. Da die Wissensakquisition zielgerichtet, unter Verwendung eines
Interpretationsmodells betrieben werden soll, ist es erforderlich, ein der realen
Problemstellung möglichst adäquates Interpretationsmodell auszuwählen bzw. zu erstellen.
Es bietet sich an, diese Auswahl im Rahmen der Problemanalyse durchzuführen, da an
dieser Stelle ohnehin der Problemlösungstyp zu untersuchen ist.

Die Identifikation der Projektbeteiligten und der Ressourcen dient im wesentlichen der
Identiftkation eines geeigneten Experten sowie der Sicherung der Unterstützung durch das
Management des Unternehmens. Erste Überlegungen hinsichtlich der Auswahl von Ent-
wicklungshardware und -software können angestellt werden.

Die Analyse der Durchführbarkeit dient der Beurteilung der Frage, ob eine reale
Problemstellung unter technischen, personellen und ökonomischen Gesichtspunkten mit
Hilfe eines XPS zu realisieren ist. Hierbei erfolgt eine Einteilung der Analyse in die Beur-
teilung der technischen Durchführbarkeit, der personellen Durchführbarkeit und der
ökonomische Durchführbarkeit.

Wissenserhebung und -analyse

In der Phase Wissenserhebung und -analyset2 erfolgt eine Extraktion des Wissens des
Experten unter Anwendung geeigneter Wissenserhebungstechniken. Die Wissensanalyse
besteht aus der Konzeptualisierung und Formalisierung des Wissens.

12 Dieser Ergänzung wird der Vorzug gegeben gegenüber "Wissenserhebung", da sie den Prozeß der
Wissensakquisition, der in dieser Phase zur Erstellung des KonzeptDellen Modells führt, besser
beschreibt
148 UweHoppe

In der Konzeptualisierung erfolgt eine Beschreibung der wesentlichen Domänenkonzepte


sowie ihrer Beziehungen untereinander. Weiterhin werden der Problemlösungsprozeß,
erkennbare Nebenbedingungen des Prozesses sowie der Kontrollfluß beschrieben. Sichtba-
rer Ausdruck dieser Tätigkeiten ist das KonzeptDelle Modell in Form des Domain Level,
des Inference Level und der Task Structure .

Die Formalisierung umfaßt nach Buchanan et al. eine Überführung der Konzepte, Teilpro-
bleme und des Kontrollflusses in eine formale Darstellung und dient insofern der Vorbe-
reitung der Implementierung. Betrachtet man die Formalisierung genauer, so fällt auf, daß
das KonzeptDelle Modell der KADS-Methodologie in großen Teilen auch ein Ergebnis der
Formalisierung ist Allerdings ist das Ausmaß der Formalheit der Darstellung relativ
beschränkt Es gibt für die Knowledge Conceptual ModeHing Language keine festgelegte
Semantik der sprachlichen Beschreibungselemente, so daß das Verständnis eines Konzep-
tDellen Modells mehr oder minder auf Intuition basiert (Karbach/Voß/fong 1988, S.31-
3 f.).

Somit ist das KonzeptDelle Modell sowohl durch Tätigkeiten der Konzeptualisierung als
auch der Formalisierung gekennzeichnet. Es bietet sich an, die weitere Untergliederung der
Tätigkeiten der Wissensanalyse anband der Struktur des KonzeptDellen Modells vorzu-
nehmen und in die Erstellung des Domain Level, der Task Structure, des Inference Level
sowie, sofern erforderlich, des Strategie Level zu unterteilen.

Implementiernn& und Testen

Die Implementierung dient der Abbildung des (mehr oder minder) formalisierten Wissens
auf die Wissensrepräsentationsfonnen, die durch das gewählte Tool zur Verfügung gestellt
werden. Eine Orientierungshilfe bei der Implementierung bieten AI-Methoden13, die
bestimmte Inferenztechniken und Wissensrepräsentationsformen nahelegen. Bei der Ver-
wendung eines rein regelbasierten Tools sind die Möglichkeiten des Designs der Wissens-
basis durch den Knowledge Engineer vergleichsweise beschränkt, da alle Wissensarten
unter Verwendung des uniformen Regelmechanismus codiert werden müssen.

Das Testen des Systems erfolgt im ständigen Wechsel mit der fortschreitenden Codierung
des Wissens. Weiterhin finden umfangreiche Testläufe in der Abnahmephase des Systems
unter Verwendung der bereits in der Konzeptionsphase festgelegten Beurteilungskriterien
statt. Die Bedeutung von Testfällen kann nicht genug betont werden. Die Aussage "Keine
Testfälle, kein Expertensystemprojekt" von Greenwen verdient in diesem Zusammenhang
Beachtung (Greenwell1988, S.134).

13 Der Begriff der AI-Methode ist in der Artifiziellen Intelligenz (AI) nicht eindeutig festgelegt. Häufig
werden diese Verfahren unter dem Begriff "Suchverfahren" behandelt. Rich nennt in diesem Zusam-
menhang u.a. Vorwärts- und Rückwllrtssuche, Erzeugen und Prüfen (Generate-and-Test), Bergsteigen
(Hili-Ciimbing) und Bestensuche (Best-FJrSt-Search) (Rich 1988, S.59 ff.; Pearl 1984, S.33 ff.).
ABASS: Ein Wissensbasierter Anlageberatungsassistent 149

Die weitere Unterteilung der Phase "Implementierung und Testen" gliedert sich in eine
Kurzbeschreibung des verwendeten Tools, in eine Diskussion der Aspekte der Operationa-
lisierung des Konzeptuellen Modells, eine Darstellung der Modularisierungsgesichtspunkte
sowie eine Analyse der Testergebnisse.

4.2 Konzeption

4.2.1 Analyse der Problemstellung

Die Analyse der Problemstellung umfaßt die Problemdefinition, die Zerlegung der
Problemstellung in Teilprobleme sowie die Bestimmung des Problemtyps.

Problemdefinition

Das zu entwickelnde WBS soll innerhalb der Domäne "Vermögensberatung" Anlagevor-


schläge für Kunden ermitteln. Die Interaktion mit dem System erfolgt unter Einschaltung
eines Bankberaters. Die Abgrenzung des Systems kann in zweierlei Hinsicht erfolgen,
hinsichtlich des Beratungsumfangs und der Beratungstiefe.

Der Beratungsumfang soll im wesentlichen die Anlagekategorien "Renten", "Investments",


"Sparanlagen", "Aktien", "Optionsscheine" und "Optionen" umfassen. Die Beratungstiefe,
die den Detaillierungsgrad der Lösung beschreibt, soll nach Möglichkeit die konkrete
Anlage liefern, z.B. "Bundesobligation Serie 94 von 1991".
Die ursprüngliche Absicht, im 1. Entwicklungszyklus auch Anlageformen im Rahmen von
Allfinanzkonzepten zu berücksichtigen (z.B. Lebensversicherungen, Bausparverträge)
wurde fallengelassent4. Buchanan et al. weisen darauf hin, daß die Tatsache, daß eine
Systemabgrenzung erst nach mehreren Iterationen zustande kommt, nicht ungewöhnlich ist
(Buchanan et al. 1983, S.l41).

Zerlegung der Problemstellung in Teilprobleme:

Die Zerlegung in Teilprobleme erfolgte anhand der Phasen eines Beratungsablaufes, wie
sie von dem an der Entwicklung von ABASS beteiligten Experten identifiziert wurden. Es
lassen sich folgende Phasen unterscheiden:

Erhebung der persönlichen Daten des Kunden und des Anlagebedarfs ,


Bestandsanalyse bereits vorhandener Vermögensanlagen,
Ermittlung geeigneter Anlagevorschläge und
Unterbreitung der Anlagevorschläge15.

14 Es spricht einiges dafür, für diese Anlageformen eigene XPS zu entwickeln. Diese könnten dann aller-
dings zusammen mit ABASS innerhalb eines übergreifenden XPS zum Einsatz kommen, beispielsweise
auf Basis einer Blackboard-Architektur (Hayes-Roth 1985).
15 Eine weitere Unterteilung bzw. Darstellung auf unterschiedlichen Detaillierungsebenen ist möglich.
150 UweHoppe

Bestimmung des Problemtyps:

Die Bestimmung des Problemtyps bzw. der zugrunde liegende Generle Task erfolgt
anband der Kriterien Funktion, Wissensorganisation und Kontrollstrategie
(Chandrasekaran 1987, S.1184).

Die Funktion der Generic Task wird ermittelt anband einer Analyse der Natur von Input
und Output der Problemstellung.

Der Input liegt vor in Form des Kundenprofils sowie seines Anlagebedarfs. Diese Infor-
mationen sind durch das System zu erfragen bzw. dem System über einen zu realisierenden
Datenbankanschluß zur Verfügung zu stellen. Es ist davon auszugehen, daß die Informa-
tionen weitestgehend vollständig ermittelt werden können. Es handelt sich zumeist um
Fakten, deren Sicherheit außer Frage steht. Vereinzelt sind subjektive Beurteilungen erfor-
derlich, beispielsweise bei der Ermittlung des Risikoprofils des Kunden.

Der Output, d.h. die Lösung, besteht aus einer Liste von mehreren, nach Angabe des
Experten aus drei Anlagevorschlägen, die dem Kunden unterbreitet werden. Die möglichen
Anlagevorschläge sind explizit gegeben, d.h. müssen nicht durch das XPS generiert wer-
den.

Die Natur der Beziehungen zwischen Input und Output ist heuristisch. Es gibt keine
"optimalen" Anlagevorschläge für einen Kunden, da viele, teilweise sich widersprechende
Kriterien eine Rolle spielen (z.B. Risiko und Ertrag).

Kennzeichnend für die Wissensorganisation ist eine hierarchische Struktur der Teillösun-
gen (Anlageformen), wie sie in Abbildung 8 (Kapitel 4.3.2.1) dargestellt wird. Die Basis
der Hierarchie (Balzert 1982, S.31 f.) beruht auf Owner-Member-Beziehungen.

Die Kontrollstrategie ist gekennzeichnet durch eine "Hypothesize-and-Test"-Strategie


(Puppe 1988, S.77 ff.) sowie eine "Establish-Refine"-Strategie (Chandrasekaran 1986a,
S.25). Erstere besteht darin, daß die Eingabedaten (zumeist direkt) für heuristische Schluß-
folgerungen über mögliche Lösungen herangezogen werden. Diese Schlußfolgerungen sind
zunächst hypothetischer Natur und daher auf bestimmte Voraussetzungen oder Nebenbe-
dingungen hin zu prüfen.

Sobald eine Lösungsklasse etabliert ist, erfolgt eine Untersuchung der Eignung von Anla-
geformen in den untergeordneten Klassen der gegebenen Hierarchie, da Evidenz für eine
bestimmte Lösungsklasse gleichzeitig auch immer Evidenz für Member untergeordneter
Klassen darstellt. Dieser Verfeinerungsprozeß wird durch "Establish-Refine" beschrieben.

Hinsichtlich der Identifikation eines Interpretationsmodells aus der KADS-Methodologie


läßt sich sagen, daß das WBS eine analytische Aufgabenstellung verfolgt, da die Anlage-
vorschläge aus einer gegebenen Lösungsmenge selektiert werden. Das Interpretationsmo-
dell, daß die beschriebene Generle Task hinreichend genau umschreibt, ist das Modell der
Heuristischen Klassifikation, das in Kapitel 3.3.2 der Arbeit beschrieben wurde.
ABASS: Ein Wissensbasierter Anlageberatungsassistent 151

4.2.2 Identifikation der Projektbeteiligten und der Ressourcen

Die Zusammensetzung des Projektteams des ersten Entwicklungszyklus von ABASS ent-
sprach dem Schema "ein Experte, ein Knowledge Engineer". Kurbel weist darauf hin, daß
eine derartige Projektzusammensetzung nur für kleinere XPS-Projekte in Frage kommt.
Bei größeren Projekten ist ein arbeitsteiliger Prozeß erforderlich 16. Ein weiterer systemna-
her Knowledge Engineer wäre jedoch auch im vorliegenden Fall wünschenswert gewesen,
um eine personelle Trennung der Tätigkeiten von Wissenserhebung und-analysevon der
Implementierung durchzuführen. Der Verzicht auf die Einbeziehung weiterer Experten
wurde möglich, da ein prinzipieller Konsens hinsichtlich der Vorgehensweise bei der
Vermögensanlageberatung gegeben war, so daß sich die Problematik der Berücksichtigung
des Wissens mehrerer Experten nicht ergab.

Zusätzlich wurden wissenschaftliche Hilfskräfte für die Zwecke der Dokumentation, die
Erstellung von Hilfe- und Erklärungstexten sowie die Programmierung von C-Modulen
eingesetzt.

Typische Ressourcen eines XPS-Projektes sind Wissensquellen, Hard-und Software sowie


gegebene Zeit- und Budgetrestriktionen (Buchanan et al. 1983, S.142).

Wichtigste Wissensquelle ist das Erfahrungswissen des Experten. Daneben standen eine
Reihe von schriftlichen Informationen zu Märkten, Produkten und Unternehmen zur Ver-
fügung, die typischerweise während des Beratungsprozesses von den Beratern eingesetzt
bzw. in Form von Werbematerial und Broschüren der Kundschaft zur Verfügung gestellt
werden.

Die Auswahl der Entwicklungssoftware erfolgte auf Basis der Erfahrungen, die in einem
anderen Projekt im Zusammenhang mit einem Vergleich von Tools zur Erstellung von
WBS gewonnen werden konnten (Biethahn/Hoppe 1990). Die Entscheidung fiel zu Gun-
sten von XiPlus, einem regelbasierten Werkzeug, das auf IBM-kompatiblen Rechnern zum
Einsatz kommen kann. Neben den relativ geringen Hardwareanforderungen sprachen die
Möglichkeiten zum schnellen Aufbau einer menü- und maskenorientierten Benutzer-
oberfläche für das Tool, da hierdurch die Benutzerakzeptanz positiv beeinflußt werden
kann. Der Problemtyp der Heuristischen Klassifikation kann mit regelbasierten Systemen,
die wie XiPlus über die Möglichkeit zur Erstellung einer Inferenzstrategie des
"Opportunistic Reasoning" verfügen, realisiert werden (Clancey 1985, S.335 ff.).

Es gab keine bzw. nur geringe Zeitrestriktionen. Budgetrestriktionen kamen nicht zum
Tragen, da nur geringe Kosten für die Anschaffung von Software sowie Opportunitätsko-
sten für die entgangene Arbeitszeit des Experten angefallen sind.

16 Basierend auf einem Rollenkonzept gibt Kurbel ein Organisationsmodell für die Ablauforganisation
großer XPS-Projekte (Kurbel1989, S.98 ff.).
152 Uwe Hoppe

4.2.3 Analyse der Durchführbarkeit

Die Analyse der Durchführbarkeit eines XPS-Projektes gliedert sich in die Analyse der
technischen Durchführbarkeit, der personellen Durchführbarkeit sowie der ökonomischen
Durchführbarkeit

Technische Durchführbarkeit:

Zunächst ist zu prüfen, ob eine vorliegende Problernstellung mit Hilfe konventioneller


Softwaretechnologie bearbeitet werden kann, da dies in der Regel mit geringeren Kosten
verbunden ist als bei XPS-Projekten (Greenwell 1988, S.120 ff.). XPS befmden sich in
einem Spannungsfeld zwischen wohl-strukturierten Aufgabenstellungen, die besser kon-
ventionell zu bearbeiten sind, und schlecht-strukturierten Problemen, die sich einer rech-
nergestützten Lösung entziehen (Hoppe 1991). Eine Reihe von Problemeigenschaften
können die Verwirklichung eines XPS-Ansatzes erschweren oder ganz verhindern. So ist
eine enge Abgrenzung der Aufgabenstellung erforderlich, da es mit den Mitteln der heuti-
gen XPS-Technologie nicht möglich ist, Allgemeinwissen in ausreichenden Mengen in den
Systemen abzubilden, was die Bearbeitung genereller, gegebenenfalls sich über mehrere
Domänen erstreckender Aufgabenstellungen erlauben würde. Darüberhinaus verfügen XPS
nicht über das, was man gemeinhin als "gesunden Menschenverstand" bezeichnet. Dieser
erlaubt einem menschlichen Experten, auch bei einem Überschreiten der Wissensgrenzen
seines Fachgebietes, weiterhin plausible Schlußfolgerungen zu ziehen, auch wenn diese
sich nicht mehr auf "Expertenniveau" bewegen dürften. XPS hingegen weisen einen soge-
nannten "Kliff-und-Plateau-Effekt" (Puppe 1988, S.177) auf, d.h. bei Erreichen der Gren-
zen des definierten Aufgabenbereiches fällt die Leistungsfähigkeit des Systems rapide ab.

Die Forderung nach im Zeitverlauf möglichst stabilem Wissen zielt ab auf die Wartungs-
problematik von XPS. Die Wartung dient der Beseitigung aufgetretender Unkorrektheiten
sowie der Anpassung des Systems an geänderte Wissensinhalte und Wissensverarbeitungs-
abläufe. Eine zu hohe Dynamik des Wissens kann die Entwicklung eines XPS gänzlich
verhindern, da der Wartungsaufwand nicht mehr beherrschbar wirdl7.

Die Analyse des Beratungsprozesses bei der Vermögensanlage von Kunden ergibt, daß es
sich um eine semi-strukturierte Problemstellung handelt (Mertens/Allgeyer 1983, S.703).
Die notwendigen Informationen stehen zwar nahezu vollständig zur Verfügung. Allerdings
erfordert die Einschätzung der Risikobereitschaft und des Anlageziels des Kunden ein
gewisses Maß an subjektiven Einschätzungen, die jedoch in Zusammenarbeit zwischen
dem Benutzer und einem XPS behandelt werden können (Greenwell1988, S.125 ff.). Die
Zusammenhänge zwischen den Eingabedaten und den Lösungen in Form von geeigneten
Anlagen sind heuristischer Natur. Es gibt eine Vielzahl von Kriterien zur Beurteilung der
Eignung von Anlageformen für einen bestimmten Kunden, die in immer wieder wechseln-
der Zusammensetzung für die Problemlösung herangezogen werden. Eine konventionelle
Lösung kann daher verneint werden.

17 Mertens berichtet über zwei Fälle, in denen die Wartungsproblematik zu einem Fehlschlag des Projekts
führte (Mertens 1987, S.187 ff.).
ABASS: Ein Wissensbasierter Anlageberatungsassistent 153

Die Aufgabenstellung ist als hinreichend abgegrenzt zu betrachten, da lediglich Spezial-


wissen und kein Allgemeinwissen erforderlich ist. Die Dynamik des Wissens hingegen ist
zu problematisieren. Der Großteil der Informationen zu Märkten (Börsen), Unternehmen
und Produkten, die innerhalb des Problemlösungsprozesses zum Einsatz kommen, sind
einem starken Wechsel unterworfen. Es handelt sich jedoch weitestgehend um Faktenwis-
sen, dessen laufende Aktualisierung durch Integration des XPS, beispielsweise durch
Anschluß an vorhandene Datenbanksysteme, erfolgen kann.

Personelle Durchführbarkeit:

Von entscheidender Bedeutung ist die Verftigbarkeit des Experten während der Projekt-
dauer (Kurbel1989, S.182). Waterman verlangt, daß der Experte zumindest mit der Hälfte
bis Dreiviertel seiner Arbeitszeit ftir die Entwicklung des Systems zur Verfügung steht
(Waterman 1986, S.185, 193). Dem stehtjedoch entgegen, daß Experten im Unternehmen
definitionsgemäß knapp sind, ihre Arbeitszeit somit wertvoll ist, und die entgangene
Arbeitszeit Opportunitätskosten verursacht.

Der Experte soll glaubwürdig sein, damit die Akzeptanz des XPS bei den Benutzern nicht
beeinträchtigt wird. Er soll motiviert und kooperativ sein, da der Knowledge Engineer
darauf angewiesen ist, daß der Experte sein Wissen möglichst vollständig und korrekt ver-
balisiert Der Experte sollte über hinreichende kommunikative Fähigkeiten verfügen, um
sein Wisssen artikulieren zu können.

Der anwendungsnahe Knowledge Engineer benötigt Kenntnisse über Wissenserhebungs-


techniken und die Erstellung konzeptueller Modelle. Psychologische Kenntnisse sind zur
Erhaltung der Motivation des Experten von großer Bedeutung. Die erforderlichen Grund-
kenntnisse der Domäne erwirbt sich der anwendungsnahe Knowledge Engineer während
des Projektverlaufs.

Der implementationsnahe Knowledge Engineer sollte eine Reihe von Erfahrungen bei der
Erstellung von WBS, insbesondere hinsichtlich des Einsatzes von XPS-Entwicklungstools
gemacht haben. Das Konzeptuelle Modell ist die Schnittstelle zwischen anwendungsnahem
und implementationsnahem Knowledge Engineer, so daß auch diesbezügliche Kenntnisse
erforderlich sind.

Das höhere Management ist aufgrund der mit XPS-Entwicklungsvorhaben üblicherweise


verbundenen hohen Entwicklungskosten und der häufig strategisch ausgerichteten Nutzen-
effekte in das Projekt miteinzubeziehen ts. Der unmittelbare Vorgesetzte des Experten ist
aufgrund der erforderlichen Freistellung des Experten und der daraus resultierenden Mehr-
belastung anderer Mitarbeiter der Abteilung zu gewinnen. Hinzuweisen ist auf die Unter-
stützung einer gegebenenfalls vorhandenen DV-Abteilung, die auch unter Integrationsge-
sichtspunkten erforderlich ist.

18 Vgl. die Ausführungen zur ökonomischen Durchführbarkeit in Kapitel4.2.3 der Arbeit.


154 UweHoppe

Bei der Entwicklung von ABASS stand während .des ersten Zyklus ein Experte, der die
geforderten Eigenschaften aufwies, zur V~ügung. Allerdings beschränkte sich das Aus-
maß der Verfügbarkeil auf nur wenige Wochenstunden. Daß die Performance des XPS
hierdurch nicht beeinträchtigt wurde, ist auf zwei Dinge zurückzuführen. Zum einen ver-
fügte der Knowledge Engineer über umfangreiche Kenntnisse der Domäne, was die erfor-
derliche Interaktion mit dem Experten sicherlich verringert hat 19. Zum anderen wurde für
den ersten Zyklus ein Zeitraum von 15 Monaten benötigt. Es ist anzunehmen, daß diese
Zeit bei einer stärkeren Verfügbarkeil des Experten (allerdings auch des Knowledge
Engineer) erheblich hätte verkürzt werden können20.

Sowohl der unmittelbare Fachvorgesetzte des Experten als auch ein Mitglied des zweiköp-
figen Vorstandes der Bank waren an der Planung des Projektes beteiligt. Der Leiter der
DV-Abteilung des Kreditinstitutes war bei dem ersten Gespräch zwecks Absprache des
Kooperationsabkommens sowie an den Präsentationen beteiligt. Ein anderer Mitarbeiter
der DV-Abteilung stand für Gespräche hinsichtlich der Möglichkeit zur Integration des
XPS in die betriebliche Einsatzumgebung zur Verfügung. Die Aufnahme eines Benutzers
in das Projektteam ist erst für den zweiten Entwicklungszyklus geplant.

Ökonomische Durchführbarkeit

Die Analyse der ökonomischen Durchführbarkeit der Entwicklung eines XPS dient der
Beurteilung der Frage, ob die Realisierung des Projektes unter Abwägung der zu erwarten-
den Entwicklungskosten sowie der zu erwartenden Nutzeneffekte gerechtfertigt ist. Zur
Beurteilung dieser Frage ist eine Kosten-Nutzen-Analyse erforderlich. Die in dem Bereich
des Software Engineering angewandten Verfahren eignen sich in der Regel nicht. Die
Durchführung einer betriebswirtschaftlich fundierten Kosten-Nutzen-Analyse stellt auf-
grundder zahlreichen Unsicherheiten zu Beginn eines XPS-Projektes eine nur schwer lös-
bare Aufgabe dar (Puppe 1988, S.152).

Die Kosten eines XPS-Projektes ergeben sich aus den Kosten für Hard- und Software
sowie den Personalkosten. Die Kosten für das Entwicklungswerkzeug sind im Vergleich
zu den anderen Kostenkomponenten häufig vernachlässigbar gering (Puppe 1988, S.152).
Auch die Hardware dürfte keinen fmanziellen Engpaß verursachen, da zunehmend auch
leistungsfähige Tools auf Personal-Computern oder Workstation des unteren Leistungs-
spektrums angeboten werden. Entscheidend für die Beurteilung der Kosten sind die Perso-
nalkosten.
Wesentliche Determinante der Personalkosten ist der Entwicklungsaufwand des XPS. Für
die Abschätzung des Entwicklungsaufwandes von XPS-Projekten nennt Waterman, in
Abhängigkeit vom Schierigkeitsgrad des Entwicklungsvorhabens, einen Entwicklungsauf-

19 Hierbei ist allerdings die Gefahr zu beachten, daß der Knowledge Engineer beginnt, seine eigene
"Expertise" zu modellieren, anstatt der des Experten.
20 Greenweil nennt eine Zykluszeit von 34 Monaten (Greenwell1988, 5.137 f.).
ABASS: Ein Wissensbasierter Anlageberatungsassistent 155

wand zwischen sechs und dreißig Personenjahren (Waterman 1986, S.184 f.). Kurbelleitet
hieraus eine Entwicklungsdauer für ein System zwischen zwei und sechs Jahren ab (Kurbel
1989, S.182 f.).

Harrnon und King beziffern die gesamten Entwicklungskosten für XPS zwischen
$ 40.000,-- und $ 5 Mio, in Abhängigkeit von der Größe bzw. der Anzahl der Regeln des
Systems (Hannon/King 1987, S.224)21.

Kosten für ABASS sind, wie bereits ausgeführt wurde, während des ersten Zyklus nur in
geringem Umfang angefallen. Dies ist jedoch auf die spezielle Form einer Kooperation
zwischen Wissenschaft und Praxis zurückzuführen und kann nicht verallgemeinert werden.
Der Entwicklungsaufwand von AB ASS beläuft sich bisher auf ca. ein Personenjahr. Dieser
setzt sich zusammen aus insgesamt 100 Stunden (h) für Interviews, ca. 600 h für die
Analyse des erhobenen Wissens sowie ca. 1200 h für die anschließende Implementierung.
Hieraus lassen sich die Relationen zwischen Wissenserhebung, Wissensanalyse und
Wissensoperationalisierung (Implementierung) von 1:6:12 ableiten22.

Nutzeneffekte

Mertens führt eine Liste von Nutzeneffekten an, die mit dem Einsatz von XPS verbunden
sein können (Mertens 1987, S.192 f.). Die wesentlichen mit dem Einsatz von ABASS ver-
bundenen Nutzeneffekte sind:

Wissensmultiplikation, die ein Angebot bzw. die Ausweitung eines ggf. vorhandenen
Angebots an Beratungsleistungen in der Vermögensberatung in den Geschäftsstellen
erlaubt.
Verbesserte Qualität der Beratung auf den Geschäftsstellen durch Berücksichtigung
bzw. Angebot von mehr Anlagealtemativen.
Entlastung der Berater von Routinetätigkeiten, verbunden mit einer gleichzeitigen
Freisetzung von Kapazitäten für höherqualifizierte Tätigkeiten, beispielsweise im
Bereich der Betreuung der vermögenden Privatkundschaft, mit ggf. höheren
Deckungsbeiträgen, als sie im Bereich der Universalkundschaft zu erzielen wären.
Arbeitszusammenführung im Bereich der Kundenberatung in den Geschäftsstellen, da
die Berater im verstärkten Maße spezialisierte Beratungsleistungen anbieten können.
Gleichzeitig dient dies der Unterstützung marktorientierter Organisationskonzepte.

21 Diese Meßgröße ist sicherlich nur bedingt geeignet für die Abschätzung der Größe eines Systems, da
sie eine Verwendung hybrider, mit objektorientierten Wissensrepräsentationsformen ausgestatteter
Tools nicht berücksichtigt. Darüberhinaus können Regeln eine sehr unterschiedliche Größe, gemessen
in der Anzahl der Prämissen und Konklusionen, aufweisen. Ein der Problemstellung nicht adäquates
Werkzeug kann die Anzahl der erforderlichen Regeln vervielfachen. Schließlich kann eine ineffiziente
Wissensorganisation in einer größeren Wissensbank, als notwendig gewesen wäre, resultieren.
22 Ähnliche Relationen werden von Greenweil genannt (Greenwell1988, S.120 ff.). BartMlemy et al.
nennen ein Verhältnis von 10:1 zwischen Abschrift und Analyse der Transkripte einerseits und 1
Stunde Interview andererseits (BartMlemy et al. 1987, S.26).
156 UweHoppe

Systematische Aufbereitung des im Bereich der Vermögensanlageberatung eingesetz-


ten Wissens, das somit auch für andere Zwecke, beispielsweise für die Schulung von
Auszubildenden zur Verfügung steht.
Sammlung allgemeiner Erfahrungen hinsichtlich der Entwicklung und des Einsatz von
XPS in Kreditinstituten.

4.3 Wissenserhebung und -analyse

4.3.1 Wissenserhebung

Die folgende Abbildung gibt einen Überblick über Wissenserhebungstechniken nach


Karbach.

Wissenserhebungstechniken
I
I I I
Interviewtechniken Beobachtung des Experten indirekte Techniken Reviewtechniken

- Strukturiertes Interview - "lautes Denken" - Konstruktgitterverfahren - Imaginäres


Brainstorming
- Unstrukturiertes Interview -Introspektion - Multidimensionale
Skalierung -Bionik
- Fokussiertes Interview - Dialoge mit Klienten
- Johnson hierarchical - Force Fit Spiel
dustering

- General weighted
networks

- Conceptual Sorting
(card - sort - method)

- Drawing closed curves

- Inferential flow analysis

- Ordered trees from recall

Abb. 5: Wissenserhebungstechniken (Karbach 1988, S59 jf.)

Die Interviewtechniken sind bekannt aus dem Bereich der Sozialwissenschaften und
werden auch in konventionellen Projekten als Erhebungstechniken eingesetzt. Implizites,
auch als "kompiliert" bezeichnetes Wissen (Kurbel 1989, S.77 f.), das sich einer
Verbalisierung durch den Experten entzieht, kann durch verschiedene Formen der Beob-
achtung des Experten angegangen werden. Diesem Zweck dienen auch verschiedene indi-
ABASS: Ein WissensbasierteT Anlageberatungsassistent 157

rekte Techniken, die darüberhinaus durch vergleichsweise neutrale Fragestellungen die


Gefahr der Beeinflussung des Experten reduzieren. Review-Techniken verfolgen das Ziel,
bereits erhobenes Wissen auf Konsistenz, Korrektheit, Vollständigkeit u.ä. hin zu überprü-
fen.

Die Wissenserhebung während des ersten Entwicklungszyklus von ABASS erfolgte in


Form von Interviews. Die Orientierung in die Domäne konnte aufgrund der bereits vor-
handenen Kenntnisse des Knowledge Engineer im wesentlichen auf die Durchführung
eines unstrukturierten Interviews beschränkt werden. Im Gegenzug wurde eine Präsenta-
tion eines kleinen wissensbasierten Beispielsystems durchgeführt, um dem Experten einen
Einblick in die Grundtechniken der Wissensrepräsentation und -Verarbeitung zu geben. Zur
Erhebung des für die Beurteilung der Durchführbarkeit sowie der Analyse der
Problemstellung nötigen Wissens wurde ein strukturiertes Interview durchgeführt, das sich
über insgesamt sechs Sitzungen hinzog. Dieses Interview konnte weitestgehend standardi-
siert, im Sinne einer "Checkliste", vollzogen werden. Abbildung 6 gibt einen Ausschnitt
(Fragen zur Domäne) aus diesem Interview23:

1) Welches Wissen gehört zu dem Bereich "Vermögensberatung"? Was muß man wissen, um das
Fachgebiet zu beherrschen?
2) Welche Rolle spielt Allgemeinwissen, "gesunder Menschenverstand" sowie Wissen aus anderen
Fachgebieten für die Vermögensberatung?
3) Gibt es viele Konzepte in dem Fachgebiet und sind diese Konzepte komplex oder eher einfach?
4) Wie strukturiert ist das Wissen des Fachgebietes? Wie sieht der Konzeptgraph aus?
5) Inwieweit beruht die Beratung auf subjektiven Beurteilungen? Kommen alle Berater zu denselben
Beurteilungen?
6) Wie gut ist das Fachgebiet dokumentiert? Woher stammen die Dokumentationen und in welcher
Form liegen sie vor?
7) Inwieweit ist das Wissen im Bereich der Vermögensberatung Änderungen unterworfen?
8) Wie verläßlich ist das Wissen in der Vermögensberatung? Beruht es auf Gesetzen, Verordnungen,
internen Anweisungen etc.?

Abb. 6: Interview, Fragen zur Domäne

Die eigentliche Wissensakquisition im Anschluß an die Konzeptionsphase war durch


fokussierte Interviews gekennzeichnet. Hierbei galt es, das für die Erstellung des Konzep-
tuellen Modells erforderliche Wissen über Konzepte, Strukturen, Strategien, Rechtferti-
gungen von Wissensteilen u.ä. zu erheben. Der jeweilige Fokus des Interviews orientierte
sich an dem identifizierten InterpretationsmodelL So wurden im Anschluß an die Identifi-
kation und Strukturierung der Domänenkonzepte Interviews zur Erhebung der Eingabeda-
ten sowie deren Verarbeitungsprozesse, Interviews zur Erhebung der Heuristiken, die eine
Assoziation von Lösungsklassen erlauben, und Interviews hinsichtlich der Verfeinerung
der Lösungen durchgeführt. Von dem Modell ging in dieser Phase der Entwicklung eine
starke Orientierungshilfe für die Planung der Interviews sowie für die Einordnung des
erhobenen Wissens aus.

23 Der Fragebogen wurde in Anlehnung an Greenweil erstellt bzw. modifiziert (Greenwelll988, S.76 ff.).
158 Uwe Hoppe

4.3.2 Wissensanalyse

4.3.2.1 Domain Layer

Der Domain Level des Konzeptuellen Modells von AB ASS, das für den Initialisierungszy-
klus als verbindlich zugrunde gelegt wurde, verdeutlicht die wesentlichen Konzepte, die
für den Beratungsprozeß in der Vermögensanlage von Bedeutung sind. Die folgende Dar-
stellung beruht im wesentlichen auf einer "Is-A-Hierarchie".

Name
persönliche / - Alter
Daten ~ Beruf
Kontonummer

Kunden-
informationen
Giro
Konten~SpM Zusammen-
Depot< setzung
Informationen zu Wert
Märkten. Unter-
nehmen, Produkten
Beratungs-
konzepte Anlageziel

Laufzeit

Rückzahlungsm

Investments
Anlage-~ Aktien
kategorien L ECU
~international"' EWS
Renten --------- sonstige
inländisch

Abb. 7: Domain Layer von ABASS


ABASS: Ein Wissensbasierter Anlageberatungsassistent 159

Die Graphik verdeutlicht, daß die Konzepte in vier Hauptgruppen eingeteilt sind: Kun-
deninforrnationen, Informationen zu Märkten, Produkten und Unternehmen, Anlagebedarf
des Kunden und Anlagekategorien. Aus Gründen der Übersichtlichkeit stellt die Abbildung
lediglich einen Ausschnitt aus dem gesamten Domain Level dar. Der Detaillierungsgrad
der Modeliierung orientiert sich an dem Umfang des in dem jeweiligen Zyklus angestreb-
ten Prototypen. Die folgende Abbildung zeigt die detaillierte Konzeptstruktur des Bera-
tungskonzepts "Anlagekategorien" auf.

Anlagekategorien

I
Renten Aktien Investments Optionsscheine Sparanlagen Edelmetalle Optionen

Aktien-/
ECU
Rentenfonds
EWS
sonstige ($) Geldmarktfonds

Abb. 8: Domain Layer von ABASS, Anlagekategorien

4.3.2.2 Inference Layer

Die Abbildung 9 zeigt den Inference Level des Konzeptuellen Modells von ABASS.

Die Ähnlichkeit mit dem "Hufeisenmodell" von Clanceys Heuristischer Klassifikation ist
beabsichtigt und entspricht den Ergebnissen der Analyse des Problemtyps in der Konzep-
tionsphase. Es bestehenjedoch zwei wesentliche Unterschiede:
160 UweHoppe

Zum einen werden die Daten (zumindest bei dem derzeitigen Stand des Modells) nicht
abstrahiert sondern zumeist direkt für heuristische Schlußfolgerungen verwandt, was in der
Abbildung 9 durch die Knowledge Source "spezifiziere" zum Ausdruck kommt, die aus
der Fallbeschreibung der Problemstellung die Evidenzparameter ermittelt.

Evidenz Hypothese

Teillösung

Fallbeschreibung

Lösung

Abb. 9: lnference Layer von ABASS

Zum anderen schließt sich an den Verfeinerungsprozeß in der Lösungshierarchie eine


Knowledge Source an, die mehrere (in der Regel drei) geeignete Anlageformen zu einem
gemeinsamen, dem Kunden zu unterbreitenden Vorschlag zusammenfaßt Es ist nicht aus-
zuschließen, daß die Natur dieses Teils der Inferenzstruktur sich in folgenden Entwick-
lungszyklen als synthetisch erweist.

4.3.2.3 Task Structure

Im Gegensatz zum Inference Level des Modells, das lediglich eine abstrakte Schlußfolge-
rungskompetenz aufzeigt, konkretisiert die Task Structure des Konzeptuellen Modells von
ABASS den Kontrollfluß in Form von Sequenzen bzw. Iterationen von Zielen und Unter-
zielen.
ABASS: Ein Wissensbasierter Anlageberatungsassistent 161

ennittle ( Lösung )

ennittle ( Fallbeschreibung )

ennittle ( Hypothesen )

solange ( Evidenz vorhanden )

spezifiziere ( Evidenz )

assoziiere ( Hypothese )

ennittle ( Teillösungen )

solange ( # Teillösungen < 3 )

verfeinere ( Hypothese )

setze zusammen ( Teillösungen )

Abb. 10: Task Structure von ABASS

Die Darstellungsform orientiert sich an derjenigen, die die Autoren der KADS-Methodolo-
gie verwenden. Allerdings scheint auch nichts gegen eine Abbildungsform wie sie bei-
spielsweise durch Struktogramme gegeben ist, zu sprechen, da diese über die notwendigen
Darstellungsmöglichkeiten verfugen.

4.4 Implementierung und Testen


4.4.1 Kurzbeschreibung des Tools

XiPlus wird für unterschiedlichste Hardwareplattformen angeboten. Die für die Entwick-
lung von ABASS zugrunde gelegte Shell ist auf die INTEL Prozessorfamilie 80X86 unter
DOS ausgerichtet, was den verfügbaren Hauptspeicher auf 640 KB beschränkt24.

Hinsichtlich der Wissensrepräsentation stehen Regeln als uniformer Wissens-


repräsentationsmechanismus zur Verfügung. Durch die Möglichkeit der Verwendung
"variabler" Regeln läßt sich der Inferenzprozeß flexibler gestalten und die Anzahl der
erforderlichen Regeln in bestimmten Situationen reduzieren.

24 Für die Version 3.5 ist die Möglichkeit der Ausnutzung von Expansionsspeicher vorgesehen.
162 UweHoppe

Die Ablaufsteuerung erfolgt durch Vorwärts- und Rückwärtsverkettung spezifizierter


Goals, wobei Mischformen dieser Strategien möglich sind ("Opportunistic Reasoning").
Die jeweiligen Ermittlungsziele können durch explizite Definition innerhalb der Wissens-
basen sowie über spezielle vorwärtsverkettende Regeln ("Sobald-Regeln"), die in Abhän-
gigkeit von definierten Ereignissen (''Triggern") angestoßen werden, spezifiziert werden.

Es existieren Schnittstellen für den Zugriff auf Dateien im ASCII-Format sowie Dateien
von Tabellenkalkulationsprogrammen. XiPlus unterstützt die Einbindung externer Pro-
gramme durch Schnittstellen zu C, BASIC und ASSEMBLER. Ebenso besteht die Mög-
lichkeit, gesondert erstellte "Graphik-Hardcopies" sowie Graphiken, die mit externen
Graphiksystemen erstellt wurden, während der Konsultation anzuzeigen.

4.4.2 Umsetzung des Konzeptuellen Modells in eine Operationale Form

Die Umsetzung eines KonzeptDellen Modells in ein ablauffähiges System ist ein Bereich,
der derzeit noch nicht ausreichend erforscht ist. Die Autoren der KADS-Methodologie for-
dern die Transfonnation des KonzeptDellen Modells in ein sogenanntes Design-Modell
(Schreiber et al. 1988, S.7-9). Karbach, Voß und Tong bezeichnen diesen Vorgang als "far
too liberal", da nur wenig Anhaltspunkte für eine systematische Umsetzung bestehen, und
nehmen eine direkte Transfonnation in die Wissensrepräsentationsformen des Tools
ZDEST-2 vor (Karbach/Voß/fong 1988, S.31-3 f.) Diese Vorgehensweise wird erleichtert
dadurch, daß ZDEST-2 über Wissensrepräsentationsformen auf einem hohem Abstrak-
tionsniveau verfügt, die zudem in Anzahl und Aufbau dem 4-Ebenen-Modell der KADS-
Methodologie ähneln.

Bei der Verwendung einer kommerziellen XPS-Shell stellt sich die Frage, welche
Wissensrepräsentationsformen zur Verfügung stehen, um die Transfonnation durchzufüh-
ren. Das für die Implementierung des 1. Prototypen von ABASS gewählte Tool XiPlus
verfügt lediglich über Regeln zur Repräsentation, so daß ein ernsthafter Versuch, das auf
den vier Ebenen beschriebene Wissen in einer systematischen Art und Weise in den uni-
formen Regelmechanismus zu "transformieren", nicht unternommen wurde.

So mußte die Operationalisierung sich an allgemeinen Anhaltspunkten orientieren, die in


erster Linie durch die Zerlegung der Problemstellung in Teilprobleme sowie die verfolgten
Strategien des "Hypothesize-and-Test" bzw. "Establish-Refme" gegeben waren.
Die Hypothesize-and-Test-Strategie unternimmt eine Teilung des Problemlösungsprozes-
ses in einen Hypothesen generierenden Teil und einen Teil, der den Test dieser Hypothe-
sen auf ihre Gültigkeit hin vornimmt Die Generierung der Hypothesen beruht auf solchen
Attributen, die eine möglichst hohe Spezifität aufweisen (z.B. Anlageziel des Kunden),
d.h. Evidenz für eine möglichst eng abgegrenzte Menge von Lösungsalternativen liefern
bzw. ganze Gruppen von Lösungskandidaten ausschließen. Der Test dieser Hypothesen
erfolgte in ABASS anband von Attributen, die den Charakter von Nebenbedingungen
haben, dergestalt, daß das Vorhandensein bzw. Nichtvorhandensein bestimmter Attribut-
ABASS: Ein Wissensbasierter Anlageberatungsassistent 163

werte eine Lösungsalternative defmitiv von einer weiteren Verfolgung ausschließt. So ver-
bieten sich beispielsweise bestimmte Sparanlagefonnen, wenn der Kunde Wert auf eine
jederzeitige Liquidierbarkeit seiner getätigten Investition legt.

Eine etablierte bzw. bestätigte Hypothese wird anschließend im Rahmen der Kontroll-
struktur des Establish-Refine bis zur konkreten Anlageform verfeinert. Die beiden skiz-
zierten Kontrollstrategien waren insbesondere hilfreich bei der Bildung funktionaler
Blöcke im Rahmen der Modularisierung des Systems.

4.4.3 Modularisierung

"Die Aufteilung eines Gesamtproblems in einzelne Teilprobleme bzw. eines Programm-


systems in einzelne Moduln wird als Modularisierung bezeichnet." (Gabriel 1990, S.264).
Modularisierung ist somit sowohl bei der Zerlegung der Problemstellung in Teilprobleme,
die innerhalb der Konzeptionsphase erfolgt, als auch während der Implementierungsphase
von Bedeutung. Hierbei wird ein transparentes und wartbares Softwaresystem angestrebt.

Ein Modul ist eine funktionale Einheit, die über eine weitestgehende Kontextunabhängig-
keit verfügen soll (Balzert 1982, S.45). Schnittstellen zu anderen Moduln sind explizit
definiert. Was konkret ein Modul konstituiert, ist abhängig von den Möglichkeiten des
Tools. Die Basis für die Modularisierung des Programmcodes in XiPlus ist die einzelne
(physische) Wissensbasis25.

Eine Wissensbasis in XiPlus ist eine Sequenz von Regeln, Fakten und Kommentaren. Der
Übergang zu anderen Wissensbasen erfolgt durch expliziten Aufruf innerhalb einer Regel-
konklusion, wobei die notwendigen Übergabeparameter spezifiziert werden müssen.
Die Einteilung von ABASS in einzelne Wissensbasen orientiert sich im wesentlichen an
den Beratungsphasen und damit an der Zerlegung der Problemstellung in Teilaufgaben
("Erhebung der Anfangsdaten" bis "Unterbreitung der Anlagevorschläge"). Die Ermittlung
geeigneter Anlagen gliedert sich gemäß der "Hypothesize-and-Test"-Strategie, die der
Implementierung zugrunde gelegt wurde, in eine Wissensbasis "Ermittlung hypothetischer
Anlagen" sowie "Überprüfung der hypothetischen Anlagen". In der Wissensbasis
"Erklärung der Anlagevorschläge" werden die dem Kunden unterbreiteten Anlagevor-
schläge auf Anforderung explizit erläutert26. Die verbleibenden Wissensbasen enthalten
das Wissen zu den einzelnen Anlagekategorien bzw. -formen (z.B. Investments). Sie bil-
den eine hierarchische Struktur gemäß der Strukturierung der Anlagekategorien, wie sie in
Abbildung 8 verdeutlicht wurde, wobei die Hierarchie beim derzeitigen Stand des Prototy-
pen nur flach ausgeprägt ist.

25 Im Gegensatz zur logischen Wissensbasis, die die Gesamtheit des repräsentierten Wissens verkörpert.
26 Bezüglich der Beurteilung der Erklärungsfähigkeit des Systems vgl. Kapite14.4.4 .
164 UweHoppe

Erhebung der Anfangsdaten


Ennittlung hypothetischer Anlagen
Überprüfung der hypothetischen Anlagen
Unterbreitung der Anlagevorschläge
Erklärung der Anlagevorschläge
Investments
Aktien
Edelmetalle
Inländische Renten
Internationale Renten
Optionen
Optionsscheine
Sparanlagen
Investmentsparverträge
Berichte und Produktinfos

Abb. 11: Wissensbasen in ABASS

Die Modularisierung innerhalb der Wissensbasen kann durch Bildung von Regelgruppen
geschehen. XiPlus bietet jedoch keine Möglichkeiten der Definition von Regelgruppen, so
daß eine (schwache) Strukturierung lediglich in Form sequentiell aufgelisteter, zusammen-
gehöriger Regeln, die durch Kommentare voneinander getrennt sind, erfolgen kann. Die
Zusammengehörigkeit der Regeln ergibt sich zumeist daraus, daß diese Schlußfolgerungen
über gleiche Attribute ermöglichen. Sinnvoll ist auch eine Trennung von Regeln, die
lediglich Kontrollcharakter haben (Metaregeln) von solchen, die die eigentlichen Ermitt-
lungsziele direkt verfolgen.

Abschließend ist erwähnenswert, daß die Modularisierung in einzelne Wissensbasen zwar


der Reduktion der Komplexität und damit der Beherrschbarkeil des gesamten repräsen-
tierten Wissens dient, in erster Linie jedoch durch die knappen Hauptspeicherressourcen
des Tools diktiert wird.

4.4.4 Test und Evaluation

Die Überprüfung des Verhaltens eines XPS anband von Testfällen ist von zentraler
Bedeutung für die erfolgreiche Durchführung eines Projektes. Die Testaktivitäten verteilen
sich hierbei über verschiedene Phasen des Entwicklungsprozesses.
Im Rahmen des sogenannten Refinement findet ein iterativer Zyklus von Implementierung
und Test statt:
"Refinement of the prototype normally involves recycling through the implementation and
testing stages in order to tune or adjust the rules and their control structures until the
expected behaviour is obtained" (Gaschnig et al. 1983, S.149).
Zu diesem Zweck wurden in Zusammenarbeit mit dem Experten in einem ersten Durch-
gang zwölf Testfälle anband eines Fragebogens (Abbildung 12) erhoben.
ABASS: Ein Wissensbasierter Anlageberatungsassistent 165

1. An1agebedarf:

Anlagebetrag 30.000,--
Anlagezeitraum 5 Jahre
Liquidierbarkeit: [ ] am Ende der Anlagezeit [ x ] jederzeit
Einzahlungsart: [ ] Raten [ x ] Einmalbetrag
Rückzahlungsart [ ]laufende Entnahme [ x ] Einmalbetrag
Herkunft des [ x ] fällige Anlage [ ] LV/Bausparvertrag
Anlagebetrags: [ 1Spar-/Girokonto [ 1Sonstiges
[ ] Hausverlcauf
- wenn fällige Anlage, Art? Bundesobligationen
- wenn Sonstiges, was?
2. Risikofreudigkeit des Kunden:

[ ] wenig risikofreudig [ 1risikobereit


[ x ] bedingt risikofreudig [ ] spekulativ

3. Anlageziel:
[ x] hohe Verzinsung [ ] Werterhalt [ ] spekulative Erträge
4. Depotzusammensetzung:

Art der Anlage: Betrag in TDM

Aktien nationaVintemational 510


Renten nationallinternational 40/0
Optionsscheine 0
Investment 0
Cash 6
5. Besondere Vorstellung des Kunden: keine
6. Unterbreitete Anlagevorschläge:

1 Bank-Inhaber-Schuldverschreibung
2 Bundesobligationen
3 vergleichbare Rentenpapiere
7. Sonstige Besonderheiten: keine

Abb. 12: Fragebogen zur Erhebung von Testfällen

Die Fragebögen wurden von dem Experten jeweils nach einem Kundengespräch ausgefüllt.
Der Fragebogen enthält Angaben zu allen von ABASS benötigten Input-Informationen und
dokumentiert die Anlagevorschläge, die in der konkreten Situation dem Kunden unter-
breitet wurden.
166 UweHoppe

Die Testfälle, die im Rahmen des Verfeinerungsprozesses zum Einsatz kommen, haben in
diesem Stadium der Entwicklung im wesentlichen Routinecharakter. Die Frage, welche
Merkmalsausprägungen einen Routinefall auszeichnen, ist in Abhängigkeit von der Pro-
blemstellung zu beantworten. Im Falle der Vermögensberatung handelt es sich um solche
Fälle, in denen der Anlagebetrag, die Anlagedauer, das Risikoprofil des Kunden und ähn-
liche Attribute bestimmte Wertebereiche nicht verlassen. Im Gegensatz hierzu weisen
Grenzfälle Besonderheiten auf, die in dieser Form nicht alltäglich sind bzw. nur einen
geringen Anteil an der Gesamtzahl der Beratungen haben. Derartige Grenzfälle sind im
Rahmen einer vollständigen Evaluation des Systems von Bedeutung.

Der geeignete Zeitpunkt für eine strukturierte Evaluation des Systems ist durch die Phase
der Abnahme gegeben. Gegenstand der Bewertung sind nach Gaschnig et al. (Gaschnig et
al. 1983, S.254 ff.):

die Qualität der Lösungen,


die Qualität der Mensch-Maschine-Interaktion,
die Effizienz des Systems sowie
das Verhältnis von Kosten und Nutzen des XPS27.

Während der Experte, ggf. auch ein neutraler Experte, der nicht in die eigentliche
Wissensakquisition eingeschaltet war, die Qualität der Lösungen des XPS anband der in
der Problemdefinition festgelegten Maßstäbe beurteilt, konzentriert sich ein Benutzer des
Systems auf die Bewertung des Dialogs, der Hilfe- und Erklärungsmöglichkeiten u.ä. Die
Effizienz des Systems wird anband der Antwortzeiten bei gegebenem Hard- und Software-
einsatz bewertet.

Die Bewertung der Lösungen von ABASS durch den Experten hat aufgezeigt, daß in der
weitaus überwiegenden Anzahl aller Testfälle die Lösungen mit denen des menschlichen
Experten übereinstimmen. Abweichungen sind teilweise in der Reihenfolge der drei unter-
breiteten Anlagevorschläge aufgetreten, was jedoch zur einer kaum nachweislichen Verän-
derung der Qualität der Lösungen fUhrt. Andere Abweichungen beruhen auf dem teilweise
noch unzureichenden Detaillierungsgrad der Lösungen, beispielsweise wenn der Experte
eine konkrete Aktie empfiehlt, ABASS sich jedoch mit der Aussage "inländische Aktie"
begnügt.

Eine Evaluation der Benutzerschnittstelle von ABASS durch einen Benutzer steht noch
aus. Erste Reaktionen bei Präsentationen des Systems waren jedoch durchweg positiver
Natur, was auch auf die graphische, menü- und maskenorientierte Oberfläche des Tools
zurückzufUhren sein dürfte. Allerdings ist die Erklärungskomponente noch zu verbessern.
Der Hauptgrund für die derzeit noch mangelnde Erklärungsfähigkeit liegt in dem unifor-
men Repräsentationsmechanismus, den das Tool zur Verfügung stellt. Der Entwickler ist
gezwungen, das für die Realisierung der Kontrollstrategie erforderliche Wissen ebenfalls
in Regeln (Metaregeln) abzubilden. Bei Anforderung einer Erklärung kann es daher dazu

27 Gaschnig et al. sprechen in diesem Zusammenhang von "cost-effectiveness"


ABASS: Ein Wissensbasierter Anlageberatungsassistent 167

kommen, daß ein "Regeltrace" angezeigt wird, der lediglich der Inferenzsteuerung dient
und zumeist sehr unverständlich und verwirrend ist. Diese Problematik sollte durch einen
in Erwägung zu ziehenden Werkzeugwechsel entschärft werden.

5 Ausblick

Das XPS AB ASS befindet sich derzeit unmittelbar vor der Präsentation, die den Initialisie-
rungszyklus abschließt. Im Rahmen dieser Präsentation ist seitens des Managements des
Kreditinstitutes die Entscheidung über die Weiterentwicklung oder Einstellung des Pro-
jektes zu treffen. Von entscheidender Bedeutung wird hierbei die Frage sein, inwiefern es
gelingt, das System in die vorhandenen Informationssysteme des Institutes zu integrieren.
Die Fülle und die Dynamik des für die Beratung in der Vermögensanlage benötigten
Wissens über Märkte (Börsen), Unternehmen und Produkte der Bank erfordert einen jeder-
zeitigen und zuverlässigen Zugriff auf die Kunden- und Depotdatenbanken. Eine Alterna-
tive hierzu stellt sich nicht, da eine Eingabe der Daten zur Konsultationszeit im Dialog sich
naturgemäß verbietet und die Kompetenz des Systems ohne den Datenzugang, insbeson-
dere in den Anlagekategorien Aktien, Optionsscheine und Optionen, stark absinken würde.

Neben den technischen Problemen der Integration ist der Rechtfertigung des Systems
erhöhte Bedeutung zuzumessen. Während die ökonomische Durchführbarkeit des Systems
aufgrund der vernachlässigbaren Kosten des ersten Prototypen vergleichsweise oberfläch-
lich behandelt werden konnte, ist nun eine erneute Kosten-Nutzen-Analyse erforderlich,
die auf einer im Vergleich zum Beginn des Projektes verbesserten Datenbasis aufsetzen
kann. Hierbei ist insbesondere zu untersuchen, inwiefern dem System monetär quantifi-
zierbare Nutzeneffekte beispielsweise in Form ersparten Schulungsaufwandes, zusätzlicher
Provisionseinnahmen aufgrund eines ausgeweiteten Geschäftsvolumens im Bereich der
Vermögensanlageberatung und eingesparte Personalkosten durch Einsatz weniger qualifi-
zierten Personals zugerechnet werden können.

Die Erstellung eines zweiten Prototypen im Rahmen eines Neuorientierungszyklus würde


ein größeres Team erfordern, das neben einem anwendungsnahen und einem implementa-
tionsnahen Knowledge Engineer sowie einem Experten zumindest einen Benutzer enthal-
ten sollte.

Weiterhin ist ein Wechsel des Entwicklungstools vorgesehen, da ein rein regelbasiertes
Werkzeug den Anforderungen der Problemstellung in diesem Stadium der Entwicklung
nicht mehr gewachsen ist. Erforderlich ist ein hybrides Tool, das neben Regeln über eine
objektorientierte Darstellungsform des Wissens verfügt, beispielsweise in Form von
Framesund den dazugehörigen Vererbungsmechanismen. Eine große Rolle bei der Taol-
auswahl wird die Frage der vorhandenen Schnittstellen, insbesondere solcher zu Daten-
banksystemen, spielen. In diesem Zusammenhang ist zu prüfen, ob unter Integrationsge-
sichtspunkten eine Implementierung von AB ASS auf einem Mainframe zu empfehlen ist.
Ein hybrides Tool wäre dann auch eine geeignete Basis, um eine methodische Umsetzung
des Konzeptuellen Modells der KADS-Methodologie vorzunehmen.
168 Uwe Hoppe

6 Literaturverzeichnis

Anjewierden, A. (1987), The KADS System, Unveröffentlicher Forschungsbericht

Balzert, H. (1982), Die Entwicklung von Software-Systemen. Prinzipien, Methoden,


Sprachen, Werkzeuge, Wien.

Barthelemy, S. et al. (1987), D3, Requirements Analysis in KBS Development ESPRIT


P1098, A Methodology for Knowledge Based Systems Development

Biethahn, J. und Hoppe, U. (1990), Vergleich von Tools zur Erstellung wissensbasierteT
Systeme auf Basis der Entwicklung einer konkreten Applikation, in: Ehrenberg, D.,
Krallmann, H. und Rieger, B. (Hrsg.), Wissensbasierte Systeme in der Betriebswirtschaft,
Berlin, S. 113-132.

Biethahn, J., Mucksch, H. und Ruf, W. (1990), Ganzheitliches Informationsmanagement


Bd. I Grundlagen, München u.a.

Breuker, J., Wielinga, B. (1987), Knowledge Acquisition as Modelling Expertise: The


KADS Methodology, Unveröffentlichter Forschungsbericht

Breuker, J., Wielinga, B. (1989), Models of Expertise in Knowledge Acquisition, in:


Guida, G. und Tasso, C. (eds.), Topics in Expert System Design. Methodologies and Tools,
Amsterdam u.a., S. 265-295.

Buchanan, B. G. et al. (1983), Constructing an Expert System, in: Hayes-Roth, F.,


Waterman, D. A. und Lenat, D. B. (eds.), Building Expert Systems, London u.a., S. 127-
167.

Bylander, T. und Chandrasekaran, B. (1987), Generle Tasks for Knowledge-based


Reasoning. The "Right" Level of Abstraction for Knowledge Acquisition, in: International
Journal ofMan-Machine Studies, vol. 26, No.2, S. 231-243.

Chandrasekaran, B. (1986a), Generle Tasks in Knowledge-Based Reasoning. High-Level


Building Blocks for Expert System Design, in: IEEE Expert, (Fall)/1986, S. 23-30.

Chandrasekaran, B. (1986b): Expert Systems: Matehing Techniques to Tasks, in:


Reitrnan, W. (ed.): Artificial Intelligence Applications for Business, New Jersey, S. 41-64.

Chandrasekaran, B. (1987), Towards a Functional Architecture for lntelligence Based on


Generle Information Processing Tasks, in: Dermott, J. M. (ed.), IJCAI 87, Proceedings of
the Tenth International Joint Conference on Artificial lntelligence, Milan, August 23 - 28,
1987, Vol. 2., Los Altos, S. 1183-1192.

Clancey, W. J. (1985), Heuristic Classification, in: Artificial Intelligence, 27, S. 289-350.


ABASS: Ein Wissensbasierter Anlageberatungsassistent 169

Floyd, C. (1984), A Systematic Look at Prototyping, in: Budde, R. et al. (eds.),


Approaches to Prototyping, Berlin u.a., S. 1-181.

Gabriel, R.: Software Engineering (1990), in: Kurbel, K. und Strunz, H. (Hrsg.): Handbuch
Wirtschaftsinformatik, Stuttgart, S.257-273.

Gaschnig, J. et al. (1983), Evaluation of Expert Systems. Issues and Case Studies, in:
Hayes-Roth, F., Waterman, D. A. und Lenat, D. B. (eds.): Building Expert Systems,
London u.a., S.241-280.

Greenwell, M. (1988), Knowledge Engineering for Expert Systems, New York.

Harmon, P. und King, D. (1987), Expertensysteme in der Praxis. Perspektiven, Werkzeuge,


Erfahrungen, 2., erg. Aufl., München u.a.

Hayes-Roth, B. (1985): A Blackboard Architecture for Control, in: Artificial Intelligence,


26, s. 251-321.

Hayes-Roth, F., Waterman, D. A. und Lenat, D. B. (1983), An Overview of Expert


Systems, in: Hayes-Roth, F., Waterman, D. A. und Lenat, D. B. (eds.): Building Expert
Systems, London u.a., S. 3-29.

Hayward, S. A., Wielinga, B. J. und Breuker, J. A. (1988), Structured Analysis of


Knowledge, in: Boose, J. H. und Gaines, B. R. (eds.), Knowledge Acquisition Tools for
Expert Systems. Knowledge-Based Systems, Vol. 2, London, S. 149-160.

Hoppe, U. (1991), Methodische Aspekte der Entwicklung Wissensbasierter Systeme,


erscheint in: Biethahn, J. und Hoppe, U. (Hrsg.), Einführung in die Entwicklung von
Expertensystemen, Wiesbaden.

Karbach, W. (1988), Methoden und Techniken des Knowledge Engineering, GMD-Studie


Nr. 338, Sankt Augustin.

Karbach, W., Voß, A. und Tong, X. (1988), Filling in the Knowledge Acquisition Gap: via
KADS'Models of Expertise to ZDEST-2's Expert Systems, in: Boose, J. H., Gaines, B. R.
und Linster, M. (eds.): Proceedings of the European Knowledge Acquisition Workshop
(EKAW'88) GMD-Studie Nr. 143, St. Augustin, S. 31-1- 31-17.

Kurbel, K. (1989), Entwicklung und Einsatz von Expertensystemen. Eine


anwendungsorientierte Einführung in wissensbasierte Systeme, Berlin.

Kurbel, K., Labentz, M. und Pietsch, W. (1987), Prototyping und Projektmanagement bei
großen Entwicklungsteams, in: Information Management, Nr. 1, S. 6-15.

Kurbel, K. und Pietsch, W. (1989), Expertensystem-Projekte: Entwicklungsmethodik,


Organisation und Management, in: Informatik-Spektrum, Nr. 12, S. 133-146.
170 UweHoppe

Mayhew, P. J. und Dearnley, P. A. (1987), An Alternative Prototyping Classification, in:


The Computer Journal, vol. 30, No. 6, S. 481-484.

Mertens, P. (1987), Expertensysteme in den betrieblichen Funktionsbereichen- Chancen,


Erfolge, Mißerfolge, in: Brauer, W. und Wahlster, W. (Hrsg.): Wissensbasierte Systeme.
2. Internationaler GI-Kongreß München, Oktober 1987, Berlin u.a., S. 181-206.

Mertens, P. und Allgeyer, K. (1983), Künstliche Intelligenz in der Betriebswirtschaft, in:


ZtB, Jg. 53, Nr.7, S. 686-709.

Newell, A. (1982}, The Knowledge Level, in: Artificial lntelligence, 18, S. 87-127.

Pearl, J. (1984), Heuristics. Intelligent Search Strategies for Computer Problem Solving,
Reading (Mass.).

Pomberger, G. (1990), Methodik der Softwareentwicklung, in: Kurbel, K. und Strunz, H.


(Hrsg.): Handbuch Wirtschaftsinformatik, Stuttgart, S. 215-236.

Pomberger, G. und Remmele, W. (1987a}, Prototyping-orientierte Software-Entwicklung,


in: Information Management, Nr. 2, S. 28-35.

Pomberger, G. und Remmele, W. (1987b), Werkzeuge und Hilfsmittel für Rapid


Prototyping, in: Information Management, Nr. 4, S. 20-25.

Puppe, F. (1988}, Einführung in die Expertensysteme, Berlin u.a.

Rieb, E. (1988}, KI- Einführung und Anwendungen, Harnburg u.a.

Schreiber, G. et al. (1988), ModeHing in KBS Development, in: Boose, J. H., Gaines, B. R.
und Linster, M. (eds.): Proceedings of the European Knowledge Acquisition Workshop
(EKAW'88), GMD-Studie Nr. 143, St. Augustin, S. 7-1 - 7-15.

Tank, W. (1988), Entwurfsziele bei der Entwicklung von Expertensystemen, in: KI, Nr. 3,
s. 69-76.
Waterman, D. A (1986), A Guide to Expert Systems, Reading (Mass.) u.a.

Wielinga, B. J., Bredeweg, B. und Breuker, J. A. (1988), Knowledge Acquisition for


Expert Systems, in: Nossum, R. T. (Hrsg.): Advanced Topics in Artificial lntelligence. 2nd
Advanced Course, ACAI '87, Oslo, Norway, July 28- August 7, 1987, Berlin, S. 96-124.
Abstrakte Datentypen zur flexiblen Wissensrepräsentation und
-verarbeitung

Dr. Thomas Kretschmar

Fa. AXON EDV-Unternehmensberatung GmbH


Inhaltsverzeichnis

1 Einführung 173

2 Bisherige Ansätze der integrierten Wissensrepräsentation 173

2.1 Hybride Systeme 173

2.2 Supemetze 174

3 Abstrakte Repräsentationsformen und ihre Eigenschaften 175

3.1 Der generische Grundtyp 175

3.2 Abgeleitete Datentypen 176

3.3 Struktur der Wissensbasis 176

4 Repräsentationsunabhängige Problemlösungsstrategien 177

4.1 Operationen auf einzelnen Datentypen 177

4.2 Mengenorientierte Wissensverarbeitung an einem Beispiel 178

5 Entwicklungsstand der Realisierung 179

6 Abschließende Bemerkungen 179

7 Literaturverzeichnis 181
Abstrakte Datentypen zur flexiblen Wissensrepräsentation und -Verarbeitung 173

1 Einführung

Bei der Modeliierung betrieblicher Entscheidungsprozesse in Expertensystemen (XPS)


kann der XPS-Shell-Entwickler auf eine Vielzahl entwickelter-Wissensrepräsentationsfor-
men und Verarbeitungstechniken zurückgreifen. Dabei läuft er oft Gefahr, daß diese Tech-
niken, und nicht die betriebliche Aufgabenstellung, im Vordergrund steht. Insbesondere
durch eine zu frühe Festlegung auf konkrete Repräsentationsformen (z.B. Regeln, Texte,
Frames) gerät er während der Realisierungsphase häufig in eine Sackgasse. Liegt das
Wissen später doch in einer anderen Repräsentationsform als geplant vor, so muß zu einer
sehr frühen Projektphase zurückgekehrt werden.

In dieser Arbeit werden bekannte Formen der Wissensrepräsentation in ein generisches


System eingeordnet. Ausgehend von einem abstrakten Datentyp werden mögliche konkrete
Repräsentationsformen abgeleitet, die dann dem Knowledge-Engineer zur Verfügung
stehen. Er erfaßt das Wissen in einer oder mehreren dieser Repräsentationsformen.
Der XPS-Shell-Entwickler beschreibt zeitlich parallel dazu die Strategie der Wissensver-
arbeitung auf Basis der abstrakten Datentypen. Eine automatische Konkretisierung findet
erst zum Zeitpunkt der Wissensverabeitung statt, wenn das Wissen in einer konkreten
Repräsentationsform vorliegt. Die beiden Komponenten XPS-Shell und Wissensbasis
können so auch jeweils für andere Zwecke wiederverwendet werden. Die kann zu einer
erheblichen Kostensenkung bei der XPS-Entwicklung beitragen.

Zur Realisierung dieses Konzeptes wurden allgemeingültige Mechanismen der Wissens-


verarbeitung abgeleitet und in der Programmiersprache C++ implementiert. Mit Hilfe
dieser Mechanismen wird die Problemlösungsstrategie entwickelt

2 Bisherige Ansätze der integrierten Wissensrepräsentation

2.1 Hybride Systeme

Will sich der Knowledge-Engineer die Wahl der geeigneten Wissensrepräsenationsform


bis zu den letzten Phasen des Projektes offenhalten, so benötigt er ein XPS-Tools, das
möglichst viele dieser Repräsentationsformen unterstützt. Hybride Systeme wie
KRYPTON, KL-TWO, BABYLON, KEE, GURU und viele andere bieten die Möglichkeit
der Wissensrepräsentation in so unterschiedlichen Repräsentationsebenen wie Simulati-
onsmodelle, Frames, freie Texten und Regeln unter Verwendung verschiedener Formen
der Logik.

Mit hybriden Systemen ist zwar die Forderung nach der Verfügbarkeit der Repräsenta-
tionsformen erfüllt, jedoch stehen diese unabhängig nebeneinander. Daher muß sich der
Knowledge-Engineer auch hier wieder sehr früh entscheiden, welcher Teil des Wissens in
174 Thomas Kretschmar

welchen Komponenten abgelegt wird. Auch bei der Entwicklung seiner Problemlösungs-
strategie nimmt er auf konkrete Regeln, Frames etc. Bezug und schafft sich damit eine eher
starre Struktur.

2.2 Supemetze

1989 wurde in einem ersten Schritt versucht, durch die Entwicklung sog. Supernetze die
unterschiedlichen Eigenschaften der gängigsten Repräsentationsformen in einer überge-
ordneten Repräsentationsform zu vereinigen (Vgl. Kretschmar 1990 a, S. 144 ff.):

Die bedingte oder unbedingte Verbindung von Objekten durch Formeln (Constraint-
Systeme).

Die benamte Verbindung von Objekten zur Darstellung semantischer Beziehungen


(Semantische Netze).

Logische Operator-Knoten zur Darstellung von logischen Verknüpfungen


{lmplikationsnetze).

Vererbbarkeil von Eigenschaften anderer Objekte zur Realisierung generischer


Systeme (Frames).

Kantengewichtungen zur Darstellung unsicheren Wissens (Assoziative Systeme).

Schwellwerte zur Regelung der Knotenaktivierung (Konnektionistische Modelle).

Die Repräsentation des gesamten Wissens erfolgt in einem gerichteten Graphen, zu dessen
Knoten und Kanten zusätzliche Attribute wie Namen, Repräsentationstyp, Kantengewicht,
Schwellwert etc. gespeichert werden. Dabei nutzt jede herkömmliche Repräsentationsform
nur Teile der Eigenschaften des gesamten Netzes. Schnittstellen zwischen den Repräsenta-
tionsformen sind nicht mehr erforderlich. Die Integration erfolgt direkt im Netz durch die
Benutzung gemeinsamer Knoten. Dadurch wird auch die Integritätsprüfung der gesamten
Wissensbasis erleichtert.

Ein wesentlicher Grund für die gute Integrationsmöglichkeit ist die große Ähnlichkeit bzw.
Kompatibilität der Repräsentationsformen. So kann beispielsweise die Regel "IF A and (B
or not C) 1HEN D" auch als Formel"D = A * (max{B,1-C))" dargestellt werden. Auch
können Implikationsnetze als semantische Netze mit der Kantenbezeichnung "daraus folgt"
interpretiert werden.

Das dargestellte Konzept sieht jedoch für die Wissensverarbeitung unterschiedliche lnfe-
renzmaschinen vor, die nur auf Teilen der Supernetze arbeiten. Für das gesetzte Ziel müßte
eine einzige Inferenzmaschine konzipiert werden, deren Problemlösungsstrategie auf
Wissen in abstrakter Form definiert ist, damit die gesamte Wissensbasis mit den verschie-
denen Repräsentationsformen verarbeitet werden kann.
Abstrakte Datentypen zur flexiblen Wissensrepräsentation und -Verarbeitung 175

3 Abstrakte Repräsentationsformen und ihre Eigenschaften

3.1 Der generische Grundtyp

Ein gutes Konzept für die Verarbeitung abstrakten Wissens bietet die objektorientierte
Programmierung (Vgl. Stoyan/Wedekind 1983; Rarnarnoorthy/Sheu 1988). Mit Hilfe
abstrakter Datentypen läßt sich ein Grundtyp aller Wissensrepräsentationsformen mit der
Vereinigungsmenge ihrer Eigenschaften definieren. Mit diesem Grundtyp kann ein generi-
sches System aufgebaut werden, in dem konkrete klassische Repräsentationsformen als
Ableitung des Grundtyps implementiert sind. In Abb. 1 sind einige Ableitungen beispiel-
haft dargestellt.

Generischer Grundtyp
- Bezeichnung
- Repräsentationstyp
- Gruppenzugehörigkeit
- Verarbeitungsvorschrift
- Dateneingänge
- Datenausgänge

gerichtete semantische
Beziehung

Abb.l: Ein abstrakter Datentyp der Wissensrepräsentation und seine Ableitungen

In den abgeleiteten Datentypen werden rur diejenigen Eigenschaften implementiert, die


von den Eigenschaften des Grundtyps abweichen. So kann beispielsweise grundsätzlich
festgelegt werde, daß jeder Teil der Wissensbasis einen Namen und einen Repräsentati-
onstyp (Abstrakter Typ, Regel, Gleichung, semantische Beziehung, etc.) besitzt. Eine
Gruppenzugehörigkeit ermöglicht die Strukturierung der Wissensbasis und eine Verarbei-
tungsvorschrift beschreibt, wie eine Inferenzkomponente das Element abzuarbeiten hat.
Hier kann auch die Behandlung von. Datenunsicherheit berücksichtigt werden. Schließlich
kann festgelegt werden, .daß die Dateneingänge und Datenausgänge in Anzahl und Werte-
bereich definiert werden müssen.
176 Thomas Kretschmar

3.2 Abgeleitete Datentypen

Für jeden abgeleiteten Repräsentationstyp muß nun einmalig festgelegt werden, wie die
definierten Eigenschaften ausgeprägt sind. So wird als Verarbeitungsvorschrift für die Pro-
duktionsregel defmiert, daß der Bedingungsteillogisch auszuwerten ist und gegebenenfalls
der Aktionsteil auszuführen ist. Dateneingangswerte sind die Werte der im Bedingungsteil
verwendeten Objekte. Datenausgaben köMte die Veränderung der im Aktionsteil verwen-
deten Objekte sein (Ist der Bedingungsteil nicht erfüllt so ist die Veränderung Null). Durch
Gruppierungen können die Regeln strukturiert werden, wie es beispielsweise durch die
FCBs (Focus Control Blocks) in ESE (IBM) ermöglicht wird (Vgl. auch Leith 1983).

Entsprechend wird bei der Implementierung eines Modellgleichungstyps verfahren. Die


Verarbeitungsvorschrift legt fest, daß eine Berechnung zu erfolgen hat (welche Berech-
nung steht im konkreten Wissenselement selbst). Dateneingangswerte sind die Werte der
verwendeten Objekte. Bei Zuweisungen wird das Ergebnis der Berechnung ausgegeben,
bei Constraints werden Informationen über deren Verletzung ausgegeben.

Die semantische Beziehung kann mit Hilfe der Gruppenzugehörigkeit realisiert werden. So
beschreibt die Gruppe "hat Anzeichen" Ursachen-Wirkungs-Beziehungen oder die Gruppe
"hat Quelle" verweist auf weiterführende Literatur. Für jede inhaltlich neue Beziehung
muß eine neue Gruppe verwendet werden. Die Verarbeitungsvorschrift beschreibt die
Überführung der Wahrheitszustände der Eingabeobjekte in Wahrheitszustände der Aus-
gabeobjekte, wobei Unsicherheit der semantischen Beziehung berücksichtigt werden kaM.

Auch das Wissen des Benutzers über den Zusammenhang von Objekten kaM als Reprä-
sentationstyp aufgefaßt werden. In diesem Fall gehen über die Dateneingänge Informatio-
nen zu denen es in der Wissensbasis kein weiteres Wissen gibt, in das Objekt "Benutzer".
Die Verarbeitungsvorschrift transformiert die Eingabeobjekte in eine konkrete Frage. Die
Antworten des Benutzers werden analysiert und zu aktivierende Objekte werden über die
Datenausgänge ausgegeben. In der Gruppenzugehörigkeit könnte der zu befragende
Benutzer festgelegt werden. So können mehrere Benutzer bzw. Experten direkt in den
Inferenzprozeß mit einbezogen werden.

Schließlich kann eine betriebliche (bzw. eine für andere Anwendungen entsprechende)
Datenbank als Teil einer Wissensbasis gesehen werden. Die Verarbeitungsvorschrift
beschreibt beispielsweise die Generierung von SQL-Abfragen und die Umsetzung der
Antworten in Objektaktivierungen. ·

3.3 Struktur der Wissensbasis

Aus der Sicht des XPS-Shell-Entwicklers, der die Problemlösungsstrategie beschreibt, ist
die Wissensbasis eine homogene Struktur aus vielen Elementen des generischen Grund-
typs. Dabei können die Teilmengen gleichen Typs als herkömmliche Repräsentati-
onsstrukturen aufgefaßt werden, wie in Abb. 2 dargestellt.
Abstrakte Datentypen zur flexiblen Wissensrepräsentation und -verarbeitung 177

Wissensbasis aus vielen


Elementen des Grundtyps

Abb. 2: Gliederung der Wissensbasis nach Repräsentationstyp

So bilden alle erfaßten Regeln eine Regelbasis, alle Modellgleichungen ein mathemati-
sches Modell und alle Beziehungen semantischer Art ein semantisches Netz. Hinter allen
vorgesehenen Datenbankrecherchen steht das "Wissen" der gesamten betrieblichen
Datenbank.

Die Elemente des Repräsentationstyps Benutzerabfrage bilden das Benutzerwissen, wobei


durch die Verwendung gemeinsamer Objekte eine Integration des Wissens aller beteiligten
Benutzer erreicht werden kann. Allein diese Komponente könnte dazu verwendet werden,
Benutzer bei der Lösung einer Aufgabe zu koordinieren, sodaß das Ziel gemeinsam erar-
beitet wird. (Angesichts der Verfügbarkeil weltweiter Netzwerke müssen diese sich nicht
notwendigerweise an einem Ort befinden.)

4 Repräsentationsunabhängige Problemlösungsstrategien

4.1 Operationen auf einzelnen Datentypen

Die Wissensbasis liegt nach o.g. Vorgehensweise in einer geeigneten Form vor, um von
der jeweiligen Repräsentationsform unabhängige Problemlösungsstrategien zu formulie-
ren, indem auf den abstrakten generischen Grundtyp Bezug genommen wird. Dazu müssen
Operationen definiert werden, die auch von jedem abgeleiteten Datentyp ausgeftihrt wer-
den können; beispielsweise
Initialisierung, Aktivierung und Deaktivierung
Vorwärtsverarbeitung
Rückwärtsverarbeitung
Erklärung und Verfolgung
Ein- und Ausgabe der Parameter
178 Thomas Kretschmar

Die Initialisierung eines Wissensobjektes dient der Anfangsbelegung interner Variablen


sowie technischer Notwendigkeiten wie Belegung von Hauptspeicher, Öffnen von Dateien
oder der Verbindungsaufbau für eine Datenleitung. Durch Aktivierung bzw. Deaktivierung
können für einen Inferenzprozeß Teile der Wissensbasis ein- bzw. ausgeblendet werden.
Dies kann Teil der Problemlösungsstrategie sein oder aus Gründen der Performance-Ver-
besserung erforderlich werden.

Die Vorwärtsverarbeitung eines abstrakten Elementes beschreibt die normale Verarbei-


tung; also in den konkreten Fällen die datengesteuerte Abarbeitung einer Regel, die
Berechnung einer Gleichung, die Verfolgung einer semantischen Beziehung, die Anfrage
an einen Benutzer oder eine Datenbank. Die Rückwärtsverarbeitung eines abstrakten Ele-
mentes beschreibt Verarbeitung in entgegengesetzter Richtung; also die zielgesteuerte
Abarbeitung einer Regel, die Auflösung einer Gleichung nach den Eingangsvariablen, die
gegengerlebte Verfolgung einer semantischen Beziehung oder die Anfrage an den Benut-
zer nach Voraussetzungen. Die Datenbankrecherche ist nicht umkehrbar.

4.2 Mengenorientierte Wissensverarbeitung an einem Beispiel

Mit Hilfe der genannten Operationen können nun zunächst klassische Problemlösungs-
strategien implementiert werden. So können forward- und backward-chaining durch eine
iterative Vorwärts- bzw. Rückwärtsverarbeitung realisiert werden.
Durch eine mengenorientierte Sicht kann die Problemlösungsstrategie abstrakt formuliert
werden; z.B. eine diagnostische Strategie (Vgl. Wieding/Kretschmar/Schönle 1988):

1) Eine Wissensbasis wird geöffnet und alle Objekte werden initialisiert.

2) Der Benutzer erfaßt festgestellte Symptome, in dem er Variablen betriebliche Daten


zuweist oder Zustände auf "wahr" setzt.

3) Alle Objekte der Gruppe "hat Ursache" werden durch forward-chaining verarbeitet,
um die Menge der mögliche Ursachen zu erhalten

4) Alle Objekte der Gruppe "hat Anzeichen" werden durch forward-chaining verarbeitet
und alle Objekte der Gruppe "hat Ursache" werden durch backward-chaining verar-
beitet, um die Menge der weiteren mögliche Symptome zu erhalten.

Es hat sich bewährt, Operatoren der Mengenalgebra (Vereinigungsmenge, Schnittmenge


und Differenzenmenge) zu implementieren um die Strategie gezielt zu steuern (Vgl.
Kretschmar 1990b). So kann beispielsweise die Menge möglicher Symptome um die
Menge geklärter Symptome reduziert werden.

An Schritt 3) kann nun sehr gut der Vorteil der abstrakten Datentypen veranschaulicht
werden: Die abstrakte Anweisung "Vorwärtsverarbeitung" führt dazu, daß auf Grund der
eingegebenen Zustände Regeln ausgeftihrt werden, Kennzahlen in Modellen berechnet
werden und Beziehungspfeile mit der Bezeichnung "hat Ursache" in semantischen Netzen
Abstrakte Datentypen mr flexiblen Wissensrepräsentation und -Verarbeitung 179

verfolgt werden. Darüber hinaus werden gegebenenfalls Statistiken aus einer Datenbank
abgerufen und Anfragen an andere Benutzer gestartet Ob alle oder nur Teile dieser Aktio-
nen ausgeführt werden, hängt von der Struktur des zur Verfügung stehenden Wissens ab
und entscheidet sich erst zur Laufzeit

5 Entwicklungsstand der Realisierung

Die dargestellten abstrakten und abgeleiteten Datentypen und die auf Ihnen definierten
Operationen werden zur Zeit in C++ unter UNIX auf einem IBM RISC System/6000
implementiert Als Datenbank wird INFORMIX (lnformix Software GmbH) eingesetzt.
Die Repräsentationsformen und einige Problemlösungsstrategien stehen C++-Program-
mierern in einer Bibliothek zur Verfügung.

Darüber hinaus soll unter dem Systemnamen GEFOREX (generator for recyclable XPS)
ein Maus- und menügesteuerter Generator entwickelt werden, mit dem der Benutzer auch
ohne Programmierkenntnisse seine Problemlösungsstrategie beschreiben kann.

Als Pilotanwendung soll ein Wissensbasiertes System zur Kreditwürdigkeitsprüfung ent-


wickelt werden. Dazu wurden bereits von Studenten Interviews mit erfahrenen Kredit-
sachbearbeitern von fünf Göttinger Geschäftsbanken durchgeführt.

6 Abschließende Bemerkungen

Das dargestellte Konzept stellt einen Ansatz zur Realisierung ganzheitlicher Informations-
systeme dar (Vgl. Biethahn/Muksch/Ruf 1990). Unstrukturiertes Benutzerwissen, Texte,
Datenbanktabellen und Wissen in vielen heute noch nicht standardisierten Repräsentati-
onsformen werden als Ableitung einer abstrakten Informationseinheit in ein generisches
System eingeordnet Nicht mehr die Strukturierung nach technisch gegebenen Repräsenta-
tionsformen sondern nach inhaltlichen Gesichtpunkten rückt damit in den Vordergrund.

Das Konzept ermöglicht die Entwicklung wiederverwendbarer Expertensysteme. So kann


beispielsweise ein System mit einer für die Kreditwürdigkeitsprüfung entwickelten
diagnosiseben Strategie auch für die medizinische Diagnostik eingesetzt werden. Kosten
fallen nur bei der Entwicklung der Wissensbasis an. Die Kosten für die Programmierung
der Oberfläche und der Inferenz entfallen.

Dies wäre ohne abstrakte Wissensverarbeitung nicht möglich, da die Struktur des diagno-
stischen Wissen in Medizin (Vgl. Wieding, Kretschmar, Schönte 1990) (z.B. Regeln) und
Betriebswirtschaft (z.B. Kennzahlensysteme) zu unterschiedlich ist. Darüber hinaus kann
180 Thomas Kretschmar

der Transfer von Problemlösungsstrategien von einer Fachrichtung in eine andere auch zu
neuen Erkenntnissen führen. In jedem Fall wäre mit einer erheblichen Kosteneinsparung
zu rechnen, wenn nur ein kleiner Teil der unzähligen Prototypen in zukünftigen Projekten
wiederverwendet werden könnte.
Abstrakte Datentypen zur flexiblen Wissensrepräsentation Wld -Verarbeitung 181

7 Literaturverzeichnis

Biethahn, J., Mucksch, H. und Ruf, W. (1990), Ganzheitliches lnfonnationsmanagement,


Oldenbourg u.a.

Kretschmar, T. (1990a), PROJECfOR II- Ein Konzept zur Verarbeitung diagnostischen


Wissens in semantischen Netzen. In: Ehrenberg, D., Krallmann, H., Rieger, B.:
Wissensbasierte Systeme in der Betriebswirtschaft, S.207-216.

Kretschmar, T. (1990b), Wissensbasierte betriebliche Diagnostik, Wiesbaden.

Leith, P. (1983), Hierarchically Structured Production Rules, in: The Computer Journal26,
1-5.

Ramamoorthy, C.V. und Sheu, P.C. (1988), Object-Oriented Systems, in: Intelligent
Systemsand their Applications, IEEE Expert, Fall.

Stoyan, H. und Wedekind, H. (1983), Objektorientierte Software- und


Harwarearchitekturen, Stuttgart.

Wieding, J.U., Kretschmar, T. und Schönle, P.W. (1988), Mengen und Abbildungen in
wissensbasierten Systemen zur Unterstützung der Diagnose-Findung, in: Angewandte
Informatik 8, S. 337-242.

Wieding, J.U., Kretschmar, T. und Schönle, P.W. 1990, Development of a computer-aided


reference system for differential diagnostics support, in: Methods of Information in
Medicine 29, S. 132- 139.
Ein Ansatz zur systematischen Wissensverarbeitung auf der
Basis der Erfahrungen beim Einsatz von XPS-Shells

Prof Dr. Jörg Biethahn

Abteilung Wirtschaftsinformatik I der


Georg-August-Universität Göttingen
Inhaltsverzeichnis

1 Vorbemerkungen 185

2 Ergebnisse der Entwicklung der Expertensysteme 186

3 Ennittlung des erforderlichen Wissens 187

4 Anforderungen an die Wissensakquisition bei der


Verwendung von Expertensystem-SheUs 188

5 Ausblick 189

6 Literaturverzeichnis 190
Ein Ansatz zur systematischen WissensverarbeibJng 185

1 Vorbemerkungen

Nichtkenner setzen die Datenverarbeitung heute gern mit der Entwicklung von Experten-
systemen (XPS) gleich. Die Vertreter dieser Auffassung sind der Meinung, Expertensy-
steme seien häufig das Allheilmittel bei allen betrieblichen Problemen, zu deren Lösung
normalerweise Intelligenz und Wissen erforderlich ist, da sie auch bei nicht wohlstruk-
turierten Problemen anwendbar sind.

Auf der anderen Seite gibt es Meinungen, nach denen behauptet wird, Expertensysteme
seien neue Namen für das, was man immer hatte, und zwar Programme. Jedoch wurde für
die Erstellung von Expertensystemen ein anderer Weg beschritten. Man orientierte sich an
den Forderungen für den Aufbau eines Expertensystems, nämlich der Trennung von
Wissensbasis und Problemlösungskomponente. Werden diese Charakteristika bei der Er-
stellung berücksichtigt, so werden die Erkenntnisse der ganzheitlichen Erstellung von
Informationssystemen im Bereich des Softwareengineerings übersehen. Aus diesem Grund
kann man auch die Expertensysteme als schlechtstrukturierte Programme auffassen (da der
ganzheitliche Ansatz keine Anwendung findet).

Um uns in dieser Auseinandersetzung eine eigene Meinung bilden zu können, erwarben


wir mehrere voneinander unabhängige, d.h. von unterschiedlichen Softwarehäusern er-
stellte Expertensystem-Shells, wobei es das Ziel war, die oben genannten Schwachpunkte
anband einer konkreten XPS-Entwicklung zu verdeutlichen. Zusätzlich wollten wir damit
feststellen, wo die Grenzen von mit Expertensystem-SheUs entwickelten Expertensyste-
men liegen. Bekanntlich dürfte es keine Grenzen geben, denn Expertensystem-SheUs
sollen eigentlich fertig entwickelte Expertensysteme sein, die nur noch mit Wissen
"angefüllt" werden müssen.
Schließlich wollten wir prüfen, wie man derartige Expertensysteme in ein ganzheitliches
betriebliches Informationssystem integrieren kann.
Die Auswahl der verschiedenen Shells geschah weitgehend unter dem Kostenaspekt, je-
doch wurde zusätzlich darauf geachtet, daß es sich um generell für alle Aufgabenstellun-
gen geeignete Systeme handelte. Als weiteres Auswahlkriterium wurde von uns gefordert,
daß die Anforderungen der einzelnen Shells an die zugrundeliegende Hardware unter-
schiedlich sein sollten.
Um mittels des geplanten Vergleiches zu generelleren Ergebnissen zu kommen, ent-
wickelten wir mit jeder dieser Shells ein gleichartiges, aber nicht zu komplexes Experten-
system!.

Zu dem Vergleich und den verschiedenen Expertensystemen vgl. Biethahn, J.; Hoppe, U., Vergleich
von Tools zur Erstellung wissensbasierter Systeme auf der Basis der Entwicklung einer konkreten
Applikation, in: Wissenbasierte Systeme in der Betriebswirtschaft, hrsg. v. D. Ehrenberg, H.
Krallmann, B. Rieger, Berlin 1990, S. 113-132.
186 Iörg Biethahn

2 Ergebnisse der Entwicklung der Expertensysteme

Mit jeder der Shells wurde ein Expertensystem erstellt Dabei konnten folgende Erfahrun-
gen gesammelt werden:

1) Der Einarbeitungsaufwand, um mit einer Shell ein Expertensystem zu erstellen, ist


i.d.R. nicht unerheblich. Er beträgt z.T. mehrere Mannmonate. Ein derartiger Ein-
arbeitungsaufwand führt leicht dazu, daß die Expertensystementwickler bei der einmal
kennengelernten Shell bleiben und nicht dem technischen Fortschritt folgen.

2) Die Tools sind weitgehend anwendungsneutral geplant, d.h. sie sind für die Lösung
von Problemen aller Anwendungsbereiche vorgesehen. Dennoch sind sie von der
Konstruktion her sehr unterschiedlich und der Funktionsumfang insbesondere bzgl.
der Benutzeroberfläche differiert sehr stark, sodaß sie für spezielle Aufgaben-
stellungen unterschiedlich geeignet erscheinen.

3) Die Tools sind - obwohl sie weitgehend unter UNIX laufen, trotzdem nicht völlig
hardware- oder anlagenneutral, d.h. die gewonnenen Erfahrungen sind nur teilweise
auf andere UNIX-Systeme übertragbar.

4) Der größte Aufwand bei der Erstellung eines XPS liegt in der Sammlung und Gestal-
tung (design) von Wissen.

5) Die Darstellung des Wissens erfolgt im konzeptuellen Modell zunächst weitgehend


tool- und anwendungsunabhängig, es wird erst im Rahmen der konkreten Entwicklung
speziell für ein XPS mit einer Shell gestaltet

6) Bei der Entwicklung der Expertensysteme wurde außerdem deutlich, daß aufgrund der
Unterschiedlichkeit der Tools für jedes System eine völlig eigenständige Wissensbasis
erstellt werden mußte.

7) Zusätzlich erwies sich, daß keine der Shells eine komplette Abbildung des erforder-
lichen Wissens zuließ. Es mußten zusätzliche Routinen in PROLOG, C oder PASCAL
geschrieben werden. Insofern mußte festgestellt werden, daß die Shells nicht zur
Lösung von Problemen aller Problemkategorien geeignet sind. D.h. die Problem-
neutralität der Shells ist nicht gegeben und eine weitgehend problemorientierte
Wissensabbildung kann erst durch zusätzliche Programmierung in den Elementar-
sprachen erreicht werden.

8) Eine exakte Vorabdefinition des für das zu entwickelnde System erforderlichen


Wissens ist nur schwer möglich. Es wurde aufgrund der verfügbaren
Wissensdarstellungsmethoden und der Lösungsstrategien sowohl von der Art als auch
vom Umfang her recht unterschiedliches Wissen gefordert. Mit der Wissensakquisi-
tion wurde erst dann aufgehört, wenn das Expertensystem befriedigende Ergebnisse
erwarten ließ.
Ein Ansatz zur systematischen Wissensverarbeitung 187

9) Bei der Erstellung des Expertensystems mit Natural Expert war dagegen durch die
Verwendung der funktionalen Sprache fast alles möglich, jedoch mußte hierfür eine
höhere Problemabstraktion gefordert werden. Es liegt also durch Anwendung der
funktionalen Sprache eine größere Problemneutralität vor, jedoch ist die Problem-
distanz aufgrund der Art der Sprache größer. Der Grund hierfür liegt in der unter-
schiedlichen Wissensdarstellung innerhalb der verschiedenen Tools. Dieses könnte
eventuell überwunden werden, indem man - wie bereits erwähnt - auf der Basis dieser
Sprache anwendungsspezifische Shells entwickelt. Diese Erfahrung wäre vergleichbar
mit dem Übergang von der dritten auf die vierte Generation von Programmier-
sprachen.

3 Ermittlung des erforderlichen Wissens

Die Anwendung der Expertensystem-Tools machte deutlich, daß das für das Experten-
system erforderliche Wissen sich im Voraus - wie es sonst bei Softwaresystemen üblich ist
- nicht bestimmen läßt.
Insofern stellt sich die Frage: "Was ist das Wissen einer Problemdomäne, das in das zu
entwickelnde Expertensystem eingehen soll?'' Diese Frage läßt sich auch nicht klar beant-
worten, da wir nicht einmal genau wissen, was Wissen an sich ist und in welcher Form das
Wissen im Menschen vorliegt. Ein Modell der Wissensdarstellung ist das der neuronalen
Netze, dessen Grenzen im Beitrag von Schumann deutlich wurden. Andere Formen wären
die Darstellungen in Form von Zustandsbeschreibungen, von Bildern oder gar von textu-
ellen Wiedergaben. Wir wissen nicht, ob flir die Darstellung des Wissens im Menschen
eine Form überwiegend ist oder ob diese Repräsentationsformen dort auch nebeneinander
zur Anwendung kommen.

Weitgehend einig scheint man sich darin zu sein, daß man kaum von sequentiellen Dar-
stellungsformen wie Texten ausgehen kann, da sich Teilaspekte hiervon auch mehrdimen-
sional in Netzen darstellen lassen. Wir wissen nur, daß wir nicht in der Lage sind, das was
unser Wissen ausmacht, erschöpfend zu beschreiben.

Auch wissen wir nicht - trotz aller Bemühungen im Bereich der Modeliierung des men-
schlichen Gehirns im Bereich der neuronalen Netze - wie dieses Wissen im Menschen
bearbeitet wird und wie daraus Schlüsse gezogen werden.

Dennoch sind wir im Bereich der Expertensysteme gezwungen, Wissen von Experten so in
Computern darzustellen, daß die vom Rechner ermittelten Ergebnisse denen entsprechen,
die ein menschlicher Experte erhalten würde.

Da neben der Wissensrepräsentationsform auch der Abarbeitungs- bzw. Schlußfolgerungs-


prozeß weitestgehend durch die Tools vorgegeben ist, besteht aufgrund der Unzuläng-
lichkeit des Wissens über die Gestaltung und Verarbeitung des Wissens die Aufgabe der
Gestalter wissensbasierter Systeme darin, auf experimentellem Wege solange Wissen ein
188 Jörg Biethahn

zugeben, bis der normalerweise durch den Experten erzeugte Output zu einem engen
Wissensgebiet oder einer Problemdomäne in gleicher oder ähnlicher Weise durch das
Expertensystem entsteht.

Es wird also nicht so vorgegangen, daß nach dem erforderlichen Input an sich - wie bei der
traditionellen Datenverarbeitung - gesucht wird, sondern es wird, da ohnehin mit der
Lückenhaftigkeit des Wissens und der Wissensverarbeitung gerechnet wird, das Input-
wissen solange modifiziert und ergänzt bis die gewünschten Ergebnisse entstehen. Von
einer wirklich systematischen Wissenssammlung, bzw. dem Streben nach vollständigem
Wissen, kann also nur in den wenigsten Fällen ausgegangen werden. Die Art der Wissens-
sammlung hängt dabei von der verwendeten Shell ab, aus der das Expertensystem ent-
stehen soll.

4 Anforderungen an die Wissensakquisition bei der Verwendung von


Expertensystem-Sheils

Wie bereits geschildert wurde, wissen wir, daß unser Wissen über die Repräsentation und
die Verarbeitung von Wissen ausgesprochen unvollkommen ist. Wir sind bei der Erstel-
lung von wissensbasierten Systemen derzeit gewohnt, dieses ganz speziell für eine
schmale, d.h. auf eine Problemdomäne konzentrierte, Wissensverarbeitung zu sammeln
und aufzubereiten. Dabei haben sich fast alle XPS-Konstrukteure fast kommentarlos damit
abgefunden, daß wir das Wissen, wie es die meisten Expertensystemsheils verlangen, in
formatierter Form darstellen. Dieses fällt kaum auf, da wir es aus den traditionellen
Datenbanken gewohnt sind. Damit haben wir uns auch abgefunden, daß das Wissen in
Spalten gepreßt und von allem Beiwerk und von allen Zusatzinformationen befreit wird.
Da andererseits das Wissen i.d.R. aus in verbaler Form dargestelltem Wissen - also aus
vollen Sätzen - extrahiert wird, entsteht auf diese Weise viel überflüssige Arbeit, denn
zunächst wird das verftigbare Wissen in unformatierter Form erhoben. Im nächsten Schritt
wird es durch die in den Tools gewünschten Darstellungsformen wie z.B. Regeln oder
Frames vom derzeit nicht benötigten Beiwerk befreit. Schließlich wird das derzeit nicht
benötigte Wissen vernichtet. Wäre es da nicht sinnvoll, das zunächst erhobene Wissen ftir
alle Anwendungsfälle zu speichern und danach daraus das für das Expertensystem
erforderliche Wissen im Rahmen eines konzeptuellen Modells zu extrahieren? Hierzu be-
darf es der Nutzung von Erkenntnissen aus dem Bereich der natürlichsprachlichen
Systeme. Erste Hilfen kann hier der Einsatz von Information Retrieval Systemen bringen.

Aus den obigen Überlegungen resultiert das folgende Konzept für eine Wissensdarstellung.

1. Das erhobene Wissen sollte zunächst in Textdatenbanken in verbaler Form bereitgestellt


werden. Aus diesen Datenbanken sollte erst in einer zweiten Ebene Wissen mit Hilfe der
Methoden der Information Retrieval Systeme extrahiert werden. (Erfahrungen mit natür-
lichsprachlichen Systemen wäre hierbei hilfreich. Im Rahmen des Extraktionsprozesses
entstehen auch die für alle Aufgabenlösungen des kommerziellen Bereichs benötigten for-
matierten Daten. Diese können dann wieder sowohl in die traditionellen Anwendungen
Ein Ansatz zur systematischen Wissensverarbeitung 189

einfließen als auch für wissensbasierte Systeme verwendet werden, d.h. sie können
automatisch in die Wissensbasen integriert werden und gehen so in die Expertensysteme
ein.

Dieser Ansatz ist eher zukunftsorientiert, da momentan nur geringe Erfahrungen sowohl in
der Integration von unterschiedlichen Datenbanken und Textsystemen als auch in der
Unterscheidung von Texten innerhalb formatierter Systeme durch Information Retrieval
existieren.

2. Um das o.g. Ziel zu erreichen, sind aber die Wissensbasen anders zu gestalten. Zunächst
ist der Bereich der kurzfristig gültigen, d.h. temporären Daten von dem der permanenten
Daten oder Fakten zu trennen. Für den permanenten Bereich ist eine Schnittstelle zu
Datenbanken zu schaffen, damit die auch vom XPS benötigten Daten im Rahmen des
Datenbanksystems stets wirtschaftlich aktualisiert und gewartet werden können. Der
Bereich der temporären Daten ist danach, ebenso wie der Bereich der Fakten, problem-
adäquat und möglichst wirtschaftlich aus den Datenbanken über ein geeignetes Extrakt-
management zu gestalten.

3. Auch sollte versucht werden, die Methoden zur Wissensrepräsentation und der -bear-
beitung zu generalisieren und zu standardisieren, so daß über eine Schnittstelle eine Abbil-
dung der Probleme möglich wird und nicht mehr eine Anpassung der Probleme an die
Tools erforderlich ist. Dazu sind sicher speziellere, problemnähere Shells zu entwickeln.

4. Daneben wäre es sicher wünschenswert, wenn sich im Bereich der XPS - ähnlich wie im
Bereich der Datenbanken und dem der Programmierung - Normen durchsetzten, damit der
Nutzer nach objektiveren Kriterien seine ExpertensystemsheUs auswählen kann.

Zusammenfassend läßt sich also die Wissensakquisition flir Expertensysteme nur dann
wirtschaftlich und zuverlässig bewältigen, wenn die Erstellung und der Betrieb der Exper-
tensysteme nicht als isolierte Insellösungen, sondern als ein Teil der gesamtbetrieblichen
Informationsbereitstellungsaufgaben verstanden wird.

5 Ausblick

Unter Beachtung dieser Forderung könnte das gesamtbetriebliche Informationswesen den


in Abbildung 1 dargestellten Aufbau erhalten:

1. Alle Zusammenhänge und Anforderungen werden über ein Dictionary und das Opera-
ting System organisiert.

2. Es existiert ein Datenbanksystem mit den Bestandteilen formatierter und soweit wie
möglich nicht formatierter Informationen.

3. Das traditionelle Programmsystem greift auf Anforderung einzelner Benutzer auf die
Daten in der Datenbank zurück.
190 Jörg Biethahn

4. Es liegen Expertensysteme vor, die von den verschiedensten Nutzern angefordert


werden und deren Wissensbasen größtenteils aus den zentralen Datenbanken gespeist
werden.

5. Ein Tool- und Sprachsystem steht zur Unterstützung aller Anwendungen zur Verfü-
gung.

Betriebliches Infonnationssystem

Daten- I Datenverwaltungssystem Benutzer 1


Textbank für fonnatierte und un- ~
c:: Benutzer 2
fonnatierte Daten ·.::0
...,5
c::
0

Programmsystem = 0
e 0
2
"'>.
Tool- I Sprachsystem "'"'
~
.B
Cl)
a:l
Wissensbasierte Systeme Benutzern

Abb.l: Schematischer Aufbau einen gesamtbetrieblichen Informationssystems

Diese Untergliederung dürfte durchaus nicht nur einen Blick in eine allzu ferne Zukunft
darstellen.

6 Literaturverzeichnis

Biethahn, J.; Hoppe, U., Vergleich von Tools zur Erstellung wissensbasierteT Systeme auf
der Basis der Entwicklung einer konkreten Applikation, in: Wissenbasierte Systeme in der
Betriebswirtschaft, hrsg. v. D. Ehrenberg, H. Krallmann, B. Rieger, Berlin 1990, S. 113-
132.
Gabler-Literatur
zum Thema "Wirtschaftsinformatik''

Dietrich Adam (Schriftleitung) Peter Mertens


Fertigungssteuerung I Integrierte
Grundlagen der Informationsverarbeitung
Produktionsplanung Teil1: Administrations-und
und -steuerung Dispositionssysteme in der Industrie
(Schriften zur Unternehmens- 8., völlig neu bearbeitete
führung, Band 38) und erweiterte Auflage 1991,
1988, 178 Seiten, XIV, 298 Seiten, Broschur 42,- DM
Broschur 44,- DM ISBN 3-409-69047-6
ISBN 3-409-17907-0
Peter Mertens/ Joachim Griese
Fertigungssteuerung II Integrierte
Systeme zur Fertigungssteuerung Informationsverarbeitung
(Schriften zur Unternehmens- Teil 2: Planungs- und Kontrollsysteme
führung, Band 39) in der Industrie
1988, 181 Seiten, 6., völlig neu bearbeitete
Broschur 44,- DM und erweiterte Auflage 1991,
ISBN 3-409-17908-9 XIV, 270 Seiten, Broschur 38,- DM
ISBN 3-409-69106-5
Jörg Biethahn/Uwe Hoppe (Hrsg.l
Entwicklung von Jörn-Axel Meyer
Expertensystemen Marketinginformatik
Eine Einführung Grundlagen und Perspektiven der
1991, 300 Seiten, Co mputeri nteg ration
Broschur 68,- DM 1991, 134 Seiten, Broschur 39,80 DM
ISBN 3-409-13388-7 ISBN 3-409-13383-6

Karl Kurbel Dieter B. Preßmar (Schriftleitung)


Programmentwicklung Büro-Automation
5., vollständig überarbeitete (Schriften zur Unternehmensführung,
Auflage 1990, XIV, 199 Seiten, Band 42)
Broschur 44,- DM 1990, 156 Seiten, Broschur 44,- DM
ISBN 3-409-31925-5 ISBN 3-409-13129-9

GABLER
BETRIEBSWIRTSCHAFTLICHER VERLAG DR. TH. GABLER, TAUNUSSTRASSE 54, 6200 WIESBADEN
Gabler-Uteratur
zum Thema "Wirtschaftsinformatik"

Kari-Heinz Rau/ Betriebliche


Eberhard Stickel IHrsg.l Expertensysteme II
Software Engineering Einsatz von Expertensystem-
Erfahrungsberichte aus Prototypen in betriebswirtschaft-
Dienstleistungsunternehmen, liehen Funktionsbereichen
Handel und Industrie !Schriften zur Unternehmensführung,
I Praxis der Wirtschaftsinformatikl Band 401
1991, VIII, 174 Seiten, 1989, 145 Seiten,
Broschur DM 44,- Broschur 42,- DM
lSBN 3-409-13368-2 ISBN 3-409-17909-7

Stefan Spang/Wolfgang Kraemer


Expertensysteme
Joachim Reese Entscheidungsgrundlage für das
Wirtschaftsinformatik Management
Eine Einführung 1991, ca. 288 Seiten,
1990, 166 Seiten, Broschur ca. 89,-
Broschur 29,80 DM ISBN 3-409-13361-5
ISBN 3-409-13380-1
Eberhard Stickel
Datenbankdesign
Methoden und Obungen
August-Wilhelm Scheer
I Praxis der Wirtschaftsinformatikl
!Schriftleitung)
1991, 148 Seiten,
Betriebliche Broschur 39,80 DM
Expertensysteme I ISBN 3-409-13937-0
Einsatz von Expertensystemen
in der Betriebswirtschaft -
Eine Bestandsaufnahme
!Schriften zur Unternehmens- Zu beziehen über den Buchhandel
führung, Band 36) oder den Verlag.
1988, 176 Seiten, Stand der Angaben und Preise:
Broschur 44,- DM 1.6.1991
ISBN 3-409-17905-4 Anderungen vorbehalten.

GABLER
BETRIEBSWIRTSCHAFTLICHER VERLAG DR. TH. GABLER, TAUNUSSfRASSE 54, 6200 WIESBADEN

Das könnte Ihnen auch gefallen