Entdecken Sie eBooks
Kategorien
Entdecken Sie Hörbücher
Kategorien
Entdecken Sie Zeitschriften
Kategorien
Entdecken Sie Dokumente
Kategorien
Masterarbeit
Matrikelnummer: 3681515
Übermittlungsdatum: 23.01.2017
Sperrvermerk und Selbstständigkeitserklärung
Sperrvermerk
Die vorliegende Arbeit enthält firmeninterne Informationen und vertrauliche Daten des
Unternehmens Infineon Technologies Dresden GmbH. Sie darf aus diesem Grund nur zu
Prüfungszwecken verwendet und ohne ausdrückliche Genehmigung der Firma und des Verfassers
weder Dritten zugänglich gemacht, noch ganz oder in Auszügen veröffentlicht werden.
Dresden, 23.01.2017
Selbstständigkeitserklärung
Hiermit erkläre ich, Robert Amthor, dass ich die vorliegende Masterarbeit
selbstständig verfasst und keine anderen als die angegebenen Quellen und Hilfsmittel verwendet
habe.
Dresden, 23.01.2017
Inhaltsverzeichnis I
Inhaltsverzeichnis
Inhaltsverzeichnis.................................................................................................................... I
Abbildungsverzeichnis ......................................................................................................... III
Tabellenverzeichnis .............................................................................................................. IV
Abkürzungen .......................................................................................................................... V
1 Einleitung ........................................................................................................................ 1
1.1 Motivation .............................................................................................................. 1
1.2 Forschungsdesign und Aufbau ................................................................................ 3
2 Grundlagen ..................................................................................................................... 7
2.1 Eigenschaften der Halbleiterfertigung ..................................................................... 7
2.2 Modellierung und Analyse von Entscheidungsprozessen ........................................10
2.2.1 Modell und Modellierung ..........................................................................10
2.2.2 Entscheidung und Entscheidungsmodell ....................................................12
2.2.3 Prozessbegriff und Prozessanalyse .............................................................14
2.3 Automatisierung betrieblicher Aufgaben ................................................................17
2.3.1 Betriebliche Aufgaben ...............................................................................17
2.3.2 Formale Kriterien der Automatisierbarkeit .................................................20
2.3.3 Sachliche Kriterien der Automatisierbarkeit ...............................................21
2.3.4 Automatisierung von Entscheidungsaufgaben ............................................24
2.4 Automatisierung im Kontext von Industrie 4.0 .......................................................26
2.4.1 Hintergrund und Einordnung .....................................................................26
2.4.2 Industrie 4.0 und Cyber-Physische Systeme ...............................................27
2.4.3 Künstliche Intelligenz und Wissensbasierte Systeme ..................................30
3 Prozesserhebung und Analyse .......................................................................................33
3.1 Unternehmensvorstellung.......................................................................................33
3.2 Ziel und Vorgehen .................................................................................................34
3.3 Einordnung und allgemeine Prozessmerkmale ........................................................35
3.3.1 Defektdichteprozess...................................................................................35
3.3.2 Prozess nach Defektdichtemeldung ............................................................37
3.4 Fertigungsbereich I: Chemisch-Mechanisches Polieren ..........................................41
3.4.1 Fertigungsprozess ......................................................................................41
3.4.2 Prozess nach Defektdichtemeldung ............................................................43
Inhaltsverzeichnis II
Abbildungsverzeichnis
Tabellenverzeichnis
Abkürzungen
DD Defektdichte
DDWB Defektdichte-Wissensbasis
FK Fachkraft
FKWB Fachkraft-Wissensbasis
IH Instandhaltung
IHWB Instandhaltungs-Wissensbasis
IS Informationssystem
LIT Lithografie
m Maschineller Aufgabenträger
p Personeller Aufgabenträger
WB Wissensbasis
Einleitung 1
1 Einleitung
1.1 Motivation
Die Globalisierung und Internationalisierung der Märkte führen zu einer enormen Verschärfung
des Wettbewerbs. Unternehmen sind dadurch insbesondere einer Erhöhung des Kosten- und
Leistungsdrucks ausgesetzt und sehen sich zu permanenter Rationalisierung gezwungen. Dies
verlangt die konsequente Suche nach Potentialen zur Optimierung und Kostensenkung in allen
Unternehmensbereichen. Deshalb schlug die Promotorengruppe Kommunikation der
Forschungsunion Wirtschaft – Wissenschaft der deutschen Bundesregierung im Januar 2011 ein
Zukunftsprojekt unter dem Namen Industrie 4.0 vor (vgl. Kagermann et al. (2011) S. 2). Im
Rahmen der Hannover-Messe im April 2011 wurde die Initiative anschließend der Öffentlichkeit
präsentiert und ist heute ein zentrales Aktionsfeld der Zukunftsaufgabe „Digitale Wirtschaft und
Gesellschaft“ der Hightech-Strategie der Bundesregierung (vgl. BMBF (2014) S. 16). Ziel der
Aktivitäten ist es, die deutsche Industrie für die Zukunft der Produktion zu rüsten, um sich im
internationalen Wettbewerb zu behaupten und letztendlich Wertschöpfung, Wohlstand und
Lebensqualität in Deutschland zu sichern. Zur industrieübergreifenden Koordinierung der
Umsetzung dieser Ziele wurde im April 2013 die Plattform Industrie 4.0 als Zusammenschluss
verschiedener Industrieverbände gegründet. Die Kernidee von Industrie 4.0 ist der Einzug des
Internet der Dinge in die Fabrik, welcher nach der Mechanisierung, der Elektrifizierung und der
Informatisierung der Produktion eine vierte industrielle Revolution auslöse (vgl. Kagermann et
al. (2013) S. 5). Dies beinhaltet einen Wandel von einer zentral gesteuerten, hin zu einer sich
selbst steuernden, flexiblen Produktion (vgl. Leyh et al. (2016) S. 983). Bemerkenswert ist, dass
erstmals eine industrielle Revolution ausgerufen wird, bevor sie stattgefunden hat (vgl. Drath
(2016) S. 18f.). Es handelt sich daher um eine Zukunftsvision, die Voraussagen zur
weitergehenden Digitalisierung der Produktion und die Einbindung von Internettechnologien in
die Fertigung trifft.
Der Halbleiterindustrie steht in diesem Zusammenhang eine besondere Rolle zu, da sie durch ihre
Produkte sowohl die technischen Grundlagen der vierten industriellen Revolution liefert, als auch
selbst aufgrund der komplexen Fertigungsstrukturen ein breites Anwendungsfeld zur Umsetzung
des Konzeptes bietet. In den vergangenen fünf Jahrzehnten wurde die Halbleiterindustrie
wesentlich durch die branchenweite Zielsetzung des „Moore‘s Law“ geprägt, welche die
Verdopplung der Anzahl der Transistoren pro Chip alle 24 Monate vorsieht (vgl. Moore (1965)
S. 114ff., Moore (1975) S. 11ff.; Puffer (2007) S. 10ff.). Bei der kontinuierlichen Verringerung
der Strukturgrößen werden jedoch zunehmend die Grenzen der Physik erreicht, weshalb die
Leistungsfähigkeit der integrierten Schaltungen in naher Zukunft nicht mehr durch die
Reduzierung der geometrischen Abmessungen gesteigert werden kann (vgl. ITRS 2.0 (2015) S.
1f.; Mertens (2006) S. 109f.; Waldrop (2016) S. 145). Aufgrund der hohen
Innovationsgeschwindigkeit in der Branche bestehen deshalb einerseits technologische
Herausforderungen wie die Erforschung neuer Basismaterialien oder die Integration in vertikaler
Einleitung 2
Die Automatisierung von bisher durch den Menschen durchgeführten Tätigkeiten stellt eine
Möglichkeit der Optimierung von Produktionsprozessen dar und ist gleichzeitig ein Element von
Industrie 4.0. Die sich dabei ergebende Kostensenkung resultiert zum Großteil aus den
Einsparungen der Personalkosten des Fertigungspersonals, wodurch die Automatisierung
entscheidend zur Erhöhung der Wettbewerbsfähigkeit beiträgt (vgl. Lunze (2012) S. 17). Vor dem
Hintergrund des globalen Wettbewerbs hat die Automatisierung eine große strategische
Bedeutung für den Produktionsstandort Deutschland, der aufgrund der sehr hohen Arbeitskosten
einen Kostennachteil gegenüber Schwellenländern und den meisten großen Industrienationen hat
(vgl. Schröder (2016) S. 43ff.). Wegen des dominierenden Personalkostenanteils in vielen
Unternehmen sind deutliche Effizienzsteigerungen durch die Substitution von Personal durch
Kapital zu erwarten (vgl. Posluschny (2012) S. 12). Gleichzeitig sind in vielen Industrieländern
aufgrund des demografischen Wandels strukturelle Veränderungen des Arbeitsmarktes zu
beobachten, die zu einem Mangel an qualifizierten Fachkräften führen (vgl. Holtbrügge (2015) S.
5). Mit Industrie 4.0 halten zunehmend Methoden der Informatik und der Künstlichen Intelligenz
Einzug in die Automatisierung betrieblicher Fertigungsprozesse (vgl. Kagermann et al. (2013) S.
95). Wurden bisher viele einfache und repetitive Tätigkeiten von Maschinen realisiert, ist es durch
miteinander vernetzte, intelligente Maschinen möglich diesen Trend auf komplexe Aufgaben und
Entscheidungen zu erweitern, die Erfahrung und umfassendes Expertenwissen voraussetzen. Im
Kontext von Industrie 4.0 und vor dem Hintergrund des weiter zunehmenden Kostendrucks sind
die Automatisierungspotentiale dieser Prozesse in der Halbleiterindustrie zu untersuchen. Für
moderne Halbleiterfabriken stellt sich die Frage, wie sie das Konzept von Industrie 4.0 zur
Automatisierung und Optimierung solcher komplexen Entscheidungsprozesse verwenden
können.
Einleitung 3
Aufgrund der Vielzahl von Forschungsmethoden in der Wissenschaft ist es empfehlenswert, die
getroffenen Grundannahmen und die Vorgehensweise bei der Forschung zur Erreichung der
Forschungsziele offenzulegen. Als Forschungsdesign wird der einer wissenschaftlichen Arbeit
zugrundeliegende wissenschaftstheoretische Rahmen bezeichnet und kann, wie in Abbildung 1
dargestellt, nach Becker et al. (2004) in drei miteinander in Beziehung stehende Elemente
unterteilt werden. Im Mittelpunkt steht die Auswahl der Forschungsmethode, welche sowohl von
den formulierten Erkenntnis- und Gestaltungszielen, als auch von der wissenschaftstheoretischen
Grundposition des Forschers abhängig ist. Die Forschungsziele und die Grundposition können
sich dabei gegenseitig beeinflussen (vgl. Becker et al. (2004) S. 336f.).
Forschungsdesign
Wissenschaftstheoretische
Forschungsziel(e)
Grundposition
Forschungsmetode(n)
ausgegangen, die unabhängig vom menschlichen Denken und Sprechen außerhalb des
menschlichen Bewusstseins existiert. Aus epistemologischer Sicht ist der Erkenntnisprozess
jedoch zum Teil subjektabhängig und daher dem Konstruktivismus zuzuordnen. Aufgrund der
Subjektivität der Erkenntnis liegt der Arbeit die Konsenstheorie als Wahrheitstheorie zugrunde.
Diese betrachtet eine Aussage genau dann als wahr, wenn sie unter idealen und optimalen
Bedingungen für alle Teilnehmer einer Sprachgemeinschaft rational akzeptierbar ist (vgl. Becker
et al. (2004) S. 344ff.; Delfmann (2006) S. 23; Heinrich et al. (2011) S. 58; Kornmeier (2007) S.
31ff.).
Die Forschungsziele der vorliegenden Arbeit lassen sich dem Forschungsparadigma der
konstruktionsorientierten Wirtschaftsinformatik zuordnen. 2 Dieser auch als gestaltungsorientierte
Forschung oder Design Science bezeichnete Ansatz beruht auf der Identifikation und Analyse von
Problemen analog dem Vorgehen in den Ingenieurswissenschaften. Die Problemlösung erfolgt
durch die Konstruktion von neuen und innovativen Artefakten. Wesentliche Ziele sind
dementsprechend Handlungsanleitungen für die Konstruktion und den Betrieb von
Informationssystemen. Der Ausgangspunkt ist die Sollvorstellung eines Informationssystems,
welche als Ziel für die Suche nach Mitteln für die Konstruktion des Systems unter gegebenen
Restriktionen dient (vgl. Hevner et al. (2004) S. 75ff.; Hevner (2007) S. 87ff.; Österle et al. (2011)
S. 7ff.).
1
Eine Fachkraft ist ein Mitarbeiter in der Fertigung. Sie ist organisatorisch einem Fertigungsbereich
zugeordnet und übernimmt Aufgaben wie die Überwachung und Bedienung der Fertigungsanlagen, das
Bearbeiten von Standard- und Problemlosen sowie Fehler- und Prozessanalysen.
2
Alternativ existiert das verhaltensorientierte Forschungsparadigma, dem ein behavioristischer Ansatz
zugrunde liegt. Hierbei werden Theorien zu beobachtetem Verhalten entwickelt und mittels empirischer
Überprüfung begründet. Die Theorien beziehen sich auf organisationale oder menschliche Phänomene,
die im Zusammenhang mit der Analyse, dem Entwurf, der Einführung, der Steuerung und der Nutzung
von Informationssystemen auftreten (vgl. Frank (2007) S. 162; Hevner et al. (2004) S. 76).
Einleitung 5
Aus den Forschungszielen lassen sich weiterhin die drei für die vorliegende Arbeit relevanten
Forschungsfragen ableiten:
1. Durch welche Eigenschaften und Aufgaben ist der Prozess nach Defektdichtemeldung als
Anwendungsbereich für Informationssysteme charakterisiert und wie ist dessen
Automatisierbarkeit zu bewerten?
2. Wie können die Fachkraftaufgaben des Prozesses nach Defektdichtemeldung unter
Verwendung der Automatisierungslösung automatisiert werden und durch welche
Komponenten und Merkmale ist dieses Konzept gekennzeichnet?
3. Wie kann das entworfene Automatisierungskonzept prototypisch umgesetzt werden und
welche Erkenntnisse lassen sich daraus ableiten?
Der Aufbau der Arbeit ist in Abbildung 2 grafisch dargestellt. Er orientiert sich an den Phasen der
gestaltungsorientierten Forschung nach Österle et al. (2011) und an den Etappen der
Systementwicklung nach Schwarzer & Krcmar (2014) (vgl. Österle et al. (2011) S. 9; Schwarzer
& Krcmar (2014) S. 144ff.).
In Kapitel 1 wird zunächst in die Thematik eingeleitet. Das Kapitel schließt mit Ausführungen
zum zugrundeliegenden Forschungsdesign, mit den für die Untersuchungen relevanten
Fragestellungen sowie dem Aufbau der Arbeit ab.
Kapitel 2 dient der Herausarbeitung der für die Untersuchungen benötigten theoretischen
Grundlagen. Sie bilden die Basis für die Phase der Analyse in der gestaltungsorientierten
Forschung sowie in der Systementwicklung. Zunächst erfolgt eine allgemeine Charakterisierung
der Halbleiterfertigung. Anschließend werden die Grundlagen der Modellierung und der Analyse
von Entscheidungsprozessen erarbeitet. Es folgen eine Erläuterung der Grundlagen betrieblicher
Aufgaben und deren Prüfung auf Automatisierbarkeit, bevor Ansätze zur Automatisierung von
Entscheidungen vorgestellt werden. Das Kapitel schließt mit Ausführungen zur Automatisierung
Einleitung 6
im Kontext von Industrie 4.0 und der Rolle von Methoden der Künstlichen Intelligenz.
Nach einer kurzen Vorstellung des Unternehmens wird in Kapitel 3 der Ist-Zustand des Prozesses
nach Defektdichtemeldung als zentraler Untersuchungsgegenstand der Arbeit charakterisiert. Die
Ausführungen entsprechen der Analysephase der gestaltungsorientierten Forschung und der
Systementwicklung. Zunächst werden allgemeine Eigenschaften des Prozesses erörtert, bevor die
Ansätze der Prozessgestaltung in drei Fertigungsbereichen genauer untersucht werden.
Anschließend erfolgt in Kapitel 4 die Entwicklung des Automatisierungskonzepts für den Prozess
nach Defektdichtemeldung. Dafür wird zunächst die zu verwendende Automatisierungslösung
präsentiert und danach detailliert auf die Elemente des Konzepts eingegangen. Mit dem Kapitel
werden die Entwurfsphase nach Österle et al. (2011) sowie Elemente der Analyse- und der
Entwurfsetappe nach Schwarzer & Krcmar (2014) realisiert.
Das entwickelte Konzept wird in Kapitel 5 prototypisch umgesetzt und gemäß den Anforderungen
für die gestaltungsorientierte Forschung einer Evaluation unterzogen. Zu diesem Zweck wird das
Automatisierungskonzept in Testfällen überprüft. Das Kapitel repräsentiert Elemente des
Entwurfs und der Implementierung in der Systementwicklung.
In Kapitel 6 werden die Kernaussagen der Arbeit zusammengefasst und die Forschungsfragen
beantwortet. Dies bildet die Grundlage für die Diffusionsphase der gestaltungsorientierten
Forschung.
2 Grundlagen
Prozesserhebung und
3 Analyse
Analyse Analyse
Entwicklung des
4 Entwurf
Entwurf Automatisierungskonzepts
Prototypische Umsetzung
5 Implementierung
Evaluation und Evaluation
6 Fazit Einführung
Diffusion
Laufender Betrieb
2 Grundlagen
3
Neben Silizium wird für einige Spezialanwendungen auch Gallium-Arsenid oder Germanium als
Grundmaterial verwendet. Der Durchmesser der kreisrunden (Silizium)-Substrate konnte im Laufe der
Zeit gesteigert werden. Moderne Halbleiterfabriken produzieren aktuell mit Scheibendurchmessern von
300 mm. Der Übergang zur 450 mm-Technologie wird untersucht (vgl. ITRS 2.0 (2015) S. 50; Puffer
(2007) S. 21f.).
4
Die anspruchsvollsten Technologien bestehen zurzeit aus ca. 40 verschiedenen Schichten (vgl. ITRS 2.0
(2015) S. 6; Mönch et al. (2013) S. 11).
5
Chips sind integrierte Schaltkreise, die mikroelektronische Schaltungen mit einer Vielzahl an
elektronischen Bauelementen realisieren. Sie bilden das Herzstück von Halbleiterbauelementen, welche
heutzutage in nahezu jedem technischen Gegenstand verbaut sind (vgl. Hilbrich (2011) S. 400).
6
Eine Wafer-Map ist eine elektronische Karte, die eine Halbleiterscheibe repräsentiert. Sie dient der
Erfassung und Speicherung von detektierten Abweichungen und deren Koordinaten auf dem Wafer.
7
Klassischerweise erfolgt dabei zunächst das Chipbonden, bei dem ein funktionsfähiger Chip auf das
Substrat geklebt wird. Die Anschlussstellen des Chips werden danach beispielsweise mittels Drahtbonden
mit dem Substrat kontaktiert, bevor die Verkapselung des Chips erfolgt. Der Trend geht dabei zur
sogenannten System-In-Package-Aufbautechnik (SiP), bei der mehrere Chips zu 3D-Multichip-Packages
übereinandergestapelt werden (vgl. Klemmt (2012) S. 12f.; Lamson et al. (2008) S. 32–4).
Grundlagen 8
Die Untersuchungen der vorliegenden Arbeit beschränken sich auf die Frontend-Phase der
Halbleiterfertigung, da die im Rahmen dieses Produktionsabschnitts getätigten Prozesse
90 Prozent der Kapitalkosten verursachen und für 80 Prozent der Gesamtdurchlaufzeit
verantwortlich sind (vgl. Leachman (2002) S. 7). Die Scheibenfertigung stellt damit den
wichtigsten Teil in der Wertschöpfungskette dar.
Baugruppen-
Frontend Wafer-Test Backend
fertigung
Aufgrund der geringen Strukturgrößen bestehen bei der Bearbeitung der Wafer hohe
Anforderungen an die Qualität der Herstellungsprozesse und der Fertigungsumgebung.
Insbesondere Partikel beeinträchtigen die Eigenschaften der Bauelemente erheblich und führen
zu ausbeutemindernden Defekten auf den Scheiben. Die Produktion der mikroelektronischen
Schaltungen findet daher in Reinräumen statt. Hier werden Umgebungsbedingungen wie
Temperatur oder Luftfeuchtigkeit konstant gehalten und die Anzahl der Partikel in der Luft
geregelt. Je nach Anzahl der Partikel in einem festgelegten Luftvolumen existieren verschiedene
Reinraumklassen (vgl. Bödige (2011) S. 117ff.; DIN EN ISO 14644-1 (2016) S. 13f.; Puffer
(2007) S. 35f.).
Automatisierungsgrad klassifizieren.8 Dieser konnte über die Jahre gesteigert werden. Demnach
lassen sich manuelle, teilautomatisierte und vollautomatisierte Anlagen unterscheiden. Die
Bearbeitung der Wafer an manuellen Anlagen wird vollständig vom Menschen durchgeführt,
wodurch in der Regel keine Daten zur Prozessüberwachung erfasst werden können. Bei
teilautomatisierten Anlagen wird ein Teil der Fertigungsprozesse durch eine interne
Anlagensteuerung realisiert. Es ist jedoch ein manuelles Eingreifen in den Fertigungsprozess
notwendig. Die Prozesse bleiben dadurch wenig transparent, da die vom Mitarbeiter ausgeführten
Schritte häufig nicht elektronisch erfasst werden. Vollautomatisierte Anlagen benötigen keinen
Mitarbeiter für die Bearbeitung der Scheiben. Die Steuerung der Prozesse übernimmt vollständig
die interne Anlagensteuerung, die mit dem Fertigungsmanagementsystem 9 über definierte
Schnittstellen verbunden ist. Auf diese Weise werden während der Bearbeitung der Wafer
verschiedene Prozessparameter erfasst und gespeichert (vgl. Gißrau (2013) S. 18f.).
Rohwafer Frontendfertigung
Schicht-
Polieren
abscheidung
Prozessierter
Wafer
Oxidation/ Foto-
Ätzen
Diffusion lithografie
Wafer-Test Ionen-
Backend implantation
Baugruppen-
fertigung
Die Halbleiterindustrie wird als Schlüsselindustrie für Industrie 4.0 bezeichnet. Zum einen liefert
sie durch immer leistungsfähigere Produkte wie Mikrocontroller oder Leistungshalbleiter die
Voraussetzung für die Integration von eingebetteten Systemen in die Produktion. Zum anderen
wurden über die letzten Jahrzehnte, insbesondere in der Frontendfertigung, Elemente von
Industrie 4.0 bereits realisiert. Aufgrund der dort herrschenden, oben beschriebenen Komplexität
8
Eine weitere Möglichkeit der Unterteilung ist die allgemeine Anlagenkonfiguration. Hierbei werden
Einzelscheiben-, Cluster- und Batch-Anlagen unterschieden. Einzelscheiben-Anlagen dienen der
Bearbeitung von jeweils einer Scheibe. Cluster-Anlagen sind besondere Einzelscheiben-Anlagen, die
mehrere Prozesskammern besitzen und daher mehrere Scheiben gleichzeitig bearbeiten können. In
Batch-Anlagen werden zur gleichen Zeit die Wafer eines oder mehrerer Lose in einer Prozesskammer
bearbeitet (vgl. Gißrau (2013) S. 15ff.; Stubbe (2010) S. 30ff.).
9
Ein Fertigungsmanagementsystem ist ein prozessnah arbeitendes und zeitnah reagierendes
Informationssystem zur Fertigungssteuerung. Es organisiert und unterstützt sämtliche
Fertigungsprozesse, gewährleistet die Durchführung des Produktionsablaufs und sorgt für den Austausch
von Informationen mit der Umgebung. Häufig wird es auch als Manufacturing Execution System (MES)
bezeichnet (vgl. VDI-Richtlinie 5600 (2016) S. 4f.).
Grundlagen 10
10
RFID ist eine Technologie zur automatischen Identifikation in vielfältigen Anwendungsgebieten. Ein
RFID-System besteht aus Transpondern, Lesegeräten sowie Informationssystemen zur Steuerung des
Auslesens und Beschreibens der Transponder. Die Ausstattung von Produkten mit Transpondern
ermöglicht Potentiale für die Optimierung der gesamten Wertschöpfungskette und mehr Transparenz für
den Kunden (vgl. Tamm & Tribowski (2010) S. 1ff.).
11
Das 1973 von Harrington vorgestellte Konzept bezeichnet die integrierte Informationsverarbeitung für
betriebswirtschaftliche und technische Aufgaben eines Industriebetriebs, bei der alle Informationsströme
in einem Gesamtsystem integriert werden. Dabei werden die Datenstrukturen unabhängig von einzelnen
Anwendungen entworfen, sodass eine anwendungsunabhängige Datenorganisation vorliegt. Ein weiteres
wichtiges Element ist der vorgangs- bzw. prozessorientierte Ansatz, innerhalb dessen konkrete Abläufe
in ihrem Zusammenhang und unabhängig von den Strukturen der Aufbauorganisation betrachtet und
durch Informationssysteme begleitet werden. Während der Vorgangsbearbeitung werden zusätzlich
kleine Regelkreise gebildet, um zeitnah mögliche Abweichungen zu erkennen und dadurch
gegebenenfalls korrigierend in den Steuerungsprozess eingreifen zu können (vgl. Harrington (1973) S.
211ff.; Mertens (2013) S. 352f.; Scheer (1990) S. 2ff.).
Grundlagen 11
Objektsystem, einem Modellsystem und der Modellabbildung. Das Objektsystem umfasst die
subjektive Interpretation eines betrachteten Ausschnitts der Realwelt und ihrer relevanten
Umwelt. Als Modellsystem wird das subjektive Abbild des Objektsystems bezeichnet, welches
von einem Subjekt zu einem bestimmten Zweck erstellt wird. Die Beziehung zwischen Objekt-
und Modellsystem ist durch die Modellabbildung festgelegt, welche die Systemkomponenten des
Objektsystems auf Systemkomponenten des Modellsystems überträgt. Der Zweck des Modells ist
die Informationsgewinnung über den augenblicklichen Zustand (vgl. Ferstl & Sinz (2013) S.
134f.; Schwarzer & Krcmar (2014) S. 94; Thomas (2006) S. 54ff.). Das abbildungsorientierte
Modellverständnis kommt in der vorliegenden Arbeit schwerpunktmäßig bei der Beschreibung
und Analyse des Ist-Zustands des Prozesses nach Defektdichtemeldung in Kapitel 3 zum Einsatz.
Als Modellierung wird die korrespondierende methodische Tätigkeit der Erstellung von Modellen
bezeichnet. Nach Wand & Weber (2002) findet sie innerhalb des in Abbildung 5 dargestellten
Bezugsrahmens statt. Die Modellierungssprache definiert die sprachlichen Konstrukte sowie
Regeln zu deren Verknüpfung, die eine Domäne repräsentieren. Die Vorgehensweise, wie ein
Modell unter Verwendung der Modellierungssprache zu konstruieren ist, wird mit der
Grundlagen 12
Modellierungskontext
Modellierungsmethode
Modellierungs- Modell
sprache
Das Lösen von Entscheidungsproblemen ist eine wesentliche Herausforderung in allen Bereichen
unseres Lebens. Unter einer Entscheidung wird allgemein ein Wahlakt verstanden, bei dem eine
Handlungsalternative aus einer Menge mehrerer Alternativen (mehr oder weniger bewusst)
ausgewählt wird. Dabei erfolgt die Auswahl der Handlungsalternative, welche die beste Option
in Hinblick auf ein Ziel zu sein scheint (vgl. Bamberg et al. (2012) S. 1; Laux et al. (2014) S. 3ff.;
Rommelspacher (2011) S. 61f.; Schiemenz & Schönert (2005) S. 26).
Ergebnismatrix dargestellt (vgl. Bamberg et al. (2012) S. 1ff.; Laux et al. (2014) S. 31ff.).
Objektsystem
Entscheidungsfeld
Informationen Aktionen
Informationssystem Entscheidungslogik
Zielsystem
Subjektsystem
Das Zielsystem umfasst die das Objektsystem betreffenden Zielgrößen sowie die notwendigen
Wertprämissen des Entscheidungsträgers, um einerseits die Informationsgewinnung zielorientiert
auszurichten und um andererseits die gewonnenen Informationen entscheidungslogisch zu
verarbeiten. Mit den Zielgrößen wird festgelegt, welche Handlungskonsequenzen für den
Entscheidungsträger von Bedeutung sind und wie diese bewertet werden können. In der
Betriebswirtschaft wird häufig zwischen finanziellen Zielgrößen wie Gewinn oder Kosten und
nicht-finanziellen Zielgrößen wie Marktanteil oder Image unterschieden. Mithilfe der
Wertprämissen erfolgt die Auswahl einer bestimmten Handlungsalternative, wenn mehrere
Alternativen zu zielrelevanten Ergebnissen führen. In der Präferenzrelation wird die Intensität des
Strebens nach den Zielgrößen festgelegt. Dazu erfolgt eine Bewertung der unterschiedlichen
Handlungskonsequenzen in Bezug auf die Zielgrößen mithilfe der Höhen-, Arten-, Zeit- sowie
Risiko- und Unsicherheitspräferenzrelation (vgl. Bamberg et al. (2012) S. 27f.; Laux et al. (2014)
S. 34).
In der Betriebswirtschaft wird die Prozessorientierung seit den späten 1980er bzw. den frühen
1990er Jahren diskutiert. Die Wurzeln liegen in den Konzepten des Total Quality
Management12 (TQM) und des Business Process Reengineering13 (BPR). Die funktionsorientierte
Sichtweise auf das Unternehmen wird bei der Prozessorientierung verdrängt und die Gestaltung
von Unternehmensprozessen in den Mittelpunkt gestellt. Damit geht ein Wandel bei der
Gestaltung von Informationssystemen einher, weshalb auch für die Wirtschaftsinformatik das
Management und die Verbesserung von betrieblichen Prozessen zu den Kernthemen gehören (vgl.
Becker et al. (2012) S. 215).
Zur Klärung des Prozessverständnisses wurde aufbauend auf diesen Ansätzen die
Prozessdefinition für die vorliegende Arbeit entwickelt. In Abbildung 7 ist diese schematisch
dargestellt. Ein Prozess ist durch folgende zentralen Merkmale gekennzeichnet:
12
Unter Total Quality Management (TQM) wird die grundsätzliche Philosophie eines unternehmensweiten
Qualitätsbewusstseins verstanden. Alle Aktivitäten, Akteure, Prozesse und Bereiche des Unternehmens
werden ganzheitlich gesteuert und gestaltet, um eine praktikable Null-Fehler-Qualität zu erreichen (vgl.
Deming (1986) S. 1ff.; Schmitt & Pfeifer (2015) S. 44; Töpfer (2007) S. 891).
13
Business Process Reengineering (BPR) beschreibt einen Managementansatz zur Analyse und radikalen
Restrukturierung von Unternehmensprozessen, um Verbesserungen des Kundennutzens, der Kosten, der
Qualität und der Zeit zu realisieren (vgl. Davenport (1993) S. 1ff.; Hammer & Champy (1993) S. 50ff.).
Grundlagen 15
Schmelzer & Sesselmann (2013) ordnen die Prozessanalyse dem Prozesscontrolling zu, welches
auf existierende Prozesse angewandt wird und dem Aufspüren, Interpretieren und Bewerten von
Prozessproblemen dient (vgl. Schmelzer & Sesselmann (2013) S. 285). In beiden Fällen stellt die
Prozessanalyse eine wertneutrale und an den Analysezielen ausgerichtete Untersuchung von
Prozessen dar, die entweder qualitativ und textgestützt oder quantitativ auf Basis von Kennzahlen
erfolgt. Die Prozessanalyse dient der gezielten Aufdeckung von Fehlern, Problemen,
Schwachstellen und Verschwendung in Prozessen und bildet damit die Grundlage für die
Prozessoptimierung (vgl. Seidlmeier (2015) S. 106).
Prozessverantwortlicher
Prozess
Input Output
Transformation
Prozessziele
Abbildung 7: Prozessbegriff
(in Anlehnung an Becker (2008) S. 7; Posluschny (2012) S. 79; Schmelzer & Sesselmann (2013) S. 53)
In Anlehnung an Seidlmeier (2015) erfolgt die Prozessanalyse in zwei Stufen. Auf der ersten
Stufe wird der Prozess in seinem Ist-Zustand aufgenommen. Dazu sind alle für die Analyse
relevanten Informationen, wie bereits vorhandene Prozessdokumentationen und Hilfsmittel,
zusammenzutragen. Durch Interviews mit den Prozessverantwortlichen und allen
Prozessbeteiligten lässt sich der Prozess gemeinsam beschreiben. Zur übersichtlichen Darstellung
der Definitionsmerkmale des Prozesses eignet sich beispielsweise das Prozessdefinitionsblatt
nach Becker (2008), welches in der vorliegenden Arbeit in Kapitel 3.3.2 Anwendung findet (vgl.
Becker (2008) S. 123ff.; Seidlmeier (2015) S. 107).
Auf der zweiten Stufe erfolgt die eigentliche Prozessanalyse, die nach Allweyer (2012) anhand
der in Abbildung 8 dargestellten Kriterien durchgeführt wird. Das Gewicht der einzelnen
Kriterien ist vom konkreten Analysefall abhängig. Zu Beginn der Analyse ist daher zu klären,
welche Bedeutung die Kriterien für den zu untersuchenden Prozess haben. Die Analysekriterien
Kosten, Nutzen, Zeit und Qualität sind gleichzeitig Zielkriterien der Prozessoptimierung, da eine
Prozessverbesserung durch Minimierung der Kosten, Erhöhung des Kundennutzens, Verkürzung
der Durchlaufzeit oder Erhöhung der Qualität des Prozesses erreicht wird. Diese Kriterien
entsprechen den typischen Zielen in der Produktion (vgl. Bloech et al. (2014) S. 9). Die übrigen
Analysekriterien wirken sich auf diese vier Kriterien aus. Beispielsweise haben System- und
Medienbrüche hohe Kosten und Prozessdurchlaufzeiten bei verminderter Qualität zur Folge, da
ein Wechsel zwischen verschiedenen, nicht integrierten Informationssystemen eine aufwändige
manuelle Datenübertragung erfordert, die durch eine bestimmte Fehlerquote gekennzeichnet ist
(vgl. Allweyer (2012) S. 227ff.).
Grundlagen 16
Auslastung und
Organisations- System- und Datenredundanzen
Tätigkeitsprofile
brüche Medienbrüche und -integration
der Mitarbeiter
Die Prozessmodellierung ist ein wesentliches Instrument für die Dokumentation und die
Prozessanalyse. Gemäß dem abbildungsorientierten Modellverständnis werden
Realitätsausschnitte zur Analyse in einem Geschäftsprozessmodell abgebildet, wobei je nach
Zwecksetzung der Modellierung beispielsweise eine Reorganisation, eine Softwareauswahl oder
eine Automatisierung der Arbeitsabläufe erfolgt (vgl. Fischermanns (2013) S. 229f.; Gadatsch
(2013) S. 2f.). Für Prozessmodelle existiert eine Vielzahl an Modellierungsmethoden.
Grundsätzlich wird zwischen skriptbasierten Methoden (Skriptsprachen) und grafischen
Methoden (Diagrammsprachen) unterschieden. Bei den Skriptsprachen werden Prozessmodelle
mit einer formalen Notation, die einer Programmiersprache ähnelt, erstellt. Diagrammsprachen
dienen der Erstellung von Darstellungsmodellen und lassen sich in datenflussorientierte,
kontrollflussorientierte und objektorientierte Ansätze klassifizieren. Gadatsch (2013) bietet einen
Überblick über die wichtigsten Diagrammsprachen (vgl. Fischermanns (2013) S. 39; Gadatsch
(2013) S. 63f.). In der vorliegenden Arbeit wird die Modellierungssprache Business Process
Model and Notation (BPMN) in der Version 2.0 verwendet, da sie für Prozessgestaltungen
geeignet ist, die die halb- oder vollautomatisierte Prozesslösungen zum Ziel haben. Sie ist als
Diagrammsprache nach dem kontrollflussorientierten Ansatz einzuordnen. BPMN 2.0 ist
weiterhin herstellerunabhängig und seit dem Jahr 2013 international standardisiert (vgl. Ferstl &
Sinz (2013) S. 189; Fischermanns (2013) S. 232; ISO/IEC 19510 (2013) S. 1ff.).
Entscheidung
Informations- Informations- Ausführung
und Aktions-
erfassung analyse der Aktion
auswahl
Kosiol (1962) definiert für die Betriebswirtschaft eine Aufgabe als Zielsetzung für
zweckbezogenes menschliches Handeln. Sie ist weiterhin durch folgende fünf Merkmale bzw.
Bestandteile gekennzeichnet (vgl. Kosiol (1962) S. 43):
1. Eine Aufgabe besteht aus einem Verrichtungsvorgang, der entweder rein geistig oder in
einer Kombination von geistiger und körperlicher Tätigkeit durchzuführen ist.
2. Eine Aufgabe bezieht sich auf ein Aufgabenobjekt, an dem die Verrichtung erfolgt.
3. Eine Aufgabe verwendet bei der Verrichtung Arbeits- und Hilfsmittel.
4. Eine Aufgabe vollzieht sich in einem Raum.
5. Eine Aufgabe wird in einer bestimmten Zeitspanne realisiert.
Im Rahmen der Wirtschaftsinformatik und vor dem Hintergrund der Automatisierung ist es
notwendig die lediglich auf personelle Aufgabenträger beschränkte Aufgabendefinition nach
Kosiol (1962) um die Einbeziehung maschineller Aufgabenträger zu erweitern (vgl. Ferstl & Sinz
(2013) S. 97f.). In diesem Sinne ist ein Informationssystem ein System zur
Informationsproduktion und -verteilung. Es dient der Deckung der Informationsnachfrage für
bestimmte Aufgaben und Aufgabenträger (vgl. Heinrich et al. (2011) S. 251). Nach
DIN IEC 60050-351 wird eine solche Einrichtung auch als Automat bezeichnet. Es handelt sich
um ein selbsttätig arbeitendes, künstliches System, dessen Verhalten entweder schrittweise durch
vorgegebene Entscheidungsregeln oder zeitkontinuierlich durch festgelegte Beziehungen
bestimmt wird. Ein Automat ist selbsttätig in dem Sinne, dass er unter festgelegten Bedingungen
ohne menschliches Eingreifen arbeitet. Die Entscheidungen des Systems werden als
Ausgangsgrößen aus den Eingangs- und Zustandsgrößen ermittelt. Automatisierung bezeichnet
folglich den Einsatz von selbsttätigen Automaten (vgl. DIN IEC 60050-351 (2014) S. 30f.).
In Abbildung 10 ist die detaillierte Struktur einer Aufgabe und ihres Lösungsverfahrens nach
Ferstl & Sinz (2013) dargestellt. Demnach wird zwischen der Außensicht und der Innensicht
einer Aufgabe unterschieden. Die Außensicht einer Aufgabe charakterisiert das äußere Verhalten
der Aufgabe und ist durch das Aufgabenobjekt, die Sach- und Formalziele sowie die Vor- und
Nachereignisse der Aufgabe bestimmt. Sie dient der aufgabenträgerunabhängigen Definition
welche Attribute eines betrieblichen Systems von der Aufgabe betroffen sind und welche Ziele
Grundlagen 18
zu welchem Zeitpunkt mit der Aufgabe erreicht werden sollen. Eine Aufgabendurchführung wird
dabei von den Vorereignissen ausgelöst und erzeugt nach Ende der Durchführung bestimmte
Nachereignisse (vgl. Ferstl & Sinz (2013) S. 98).
Lösungsverfahren
Vor- Nach-
ereignisse Aktionensteuerung ereignisse
Aktionen- Aktionen-
ergebnisse auslösung
Aktion Außensicht
Innensicht
Aufgabenobjekt
Die Innensicht einer Aufgabe legt das aufgabenträgerspezifische Lösungsverfahren der Aufgabe
fest. Es besteht aus einer Menge von Aktionen, die parallel oder sequentiell auf das
Aufgabenobjekt wirken bzw. bestimmte Zustände des Aufgabenobjekts erfassen. Die
Aktionensteuerung übernimmt die Regelung der Reihenfolge der Aktionen zur Verfolgung der
Sach- und Formalziele. Sie bildet zusammen mit den Aktionen einen Regelkreis, bei dem die
Aktionen von der Aktionensteuerung ausgelöst werden. Im Falle von rückgekoppelten
Lösungsverfahren erfolgt zusätzlich die Übermittlung der Aktionenergebnisse an die
Aktionensteuerung. Die Aktionensteuerung ist zudem über die Vor- und Nachereignisse mit vor-
und nachgelagerten Aufgaben verknüpft (vgl. Ferstl & Sinz (2013) S. 102f.).
Die Durchführung einer Aufgabe durch einen Aufgabenträger wird als Vorgang oder Workflow
bezeichnet. Nach Ferstl & Sinz (2013) wird ein solcher Vorgang in die drei Teilschritte
Aktionen,
Aktionensteuerung und
Vorgangsauslösung
unterteilt (vgl. Ferstl & Sinz (2013) S. 113f.). Bei der Vorgangsauslösung erhält die
Aktionensteuerung eine Nachricht zur Initiierung der entsprechenden Lösungsaktivitäten und
übernimmt die Vorgabe der durchzuführenden Aktionen. Mithilfe der Aktionen wird das
Lösungsverfahren einer bestimmten Aufgabe durchgeführt (vgl. Ferstl & Sinz (2013) S. 113f.).
Für jeden dieser drei Teilschritte erfolgt die Zuordnung eines personellen (p) oder eines
maschinellen (m) Aufgabenträgers. Auf diese Weise entstehen unterschiedliche
Grundlagen 19
Die Beschreibung des Automatisierungsgrades einer Aufgabe ist durch ein Tupel mit den drei
Teilschritten Aktionen, Aktionensteuerung und Vorgangsauslösung als Attribute möglich, wobei
die jeweilige Ausprägung der Attribute dem ausführenden Aufgabenträger entspricht. In
Tabelle 1 sind entsprechende Kombinationen aufgeführt. Wenn als Ausprägung eines Attributs
sowohl maschinelle, als auch personelle Aufgabenträger in Frage kommen, wird das Zeichen „_“
verwendet. Den höchsten Automatisierungsgrad weist die Vollautomatisierung auf, bei der alle
Teilschritte einer Aufgabe vollständig von maschinellen Aufgabenträgern ausgeführt werden. 14
Ist eine Aufgabe nicht automatisiert, liegt die vollständig personelle Durchführung vor.
Teilautomatisierung beschreibt die gemeinsame Durchführung einer Aufgabe durch personelle
und maschinelle Aufgabenträger. Wie ebenfalls in Tabelle 1 ersichtlich, wird der
Zielerreichungsgrad bei der Teilautomatisierung weiter in personelle Vorgangsauslösung,
Automatisierung der Aktionen und Automatisierung der Steuerung differenziert (vgl. Ferstl &
Sinz (2013) S. 114; Mertens (2013) S. 21f.).
14
Inwieweit die Vollautomatisierung als allgemeine Zielsetzung in der Wirtschaftsinformatik sinnvoll ist,
wird in der Literatur diskutiert. Mertens (1995) plädiert für die sinnhafte Vollautomation als Langfristziel
und konkrete Utopie der Wirtschaftsinformatik (vgl. Mertens (1995) S. 48f.). Eine kritische
Auseinandersetzung mit diesen Thesen wird von Eversmann (2003) durchgeführt (vgl. Eversmann (2003)
S. 1ff.). Die entsprechende Stellungnahme liefert Mertens (2006) (vgl. Mertens (2006) S. 116ff.).
Grundlagen 20
Die Prüfung von Aufgaben hinsichtlich Automatisierbarkeit erfolgt nach Ferstl & Sinz (2013)
anhand von formalen und sachlichen Kriterien. Die formalen Kriterien sind notwendige
Bedingungen für die Automatisierung und dienen der Prüfung, inwieweit eine Aufgabe mithilfe
eines Lösungsverfahrens automatisiert werden kann. Es lassen sich zwei formale Kriterien
unterscheiden (vgl. Ferstl & Sinz (2013) S. 115ff.).
Das erste formale Kriterium prüft die funktionale Beschreibbarkeit eines Lösungsverfahrens
durch die formale Darstellung einer Input-Output-Beziehung in funktionaler, parametrisierter
oder stochastischer Form. Dabei wird in Abhängigkeit von Grad der Zielerreichung zwischen
exakten, approximierenden, heuristischen und lernenden Lösungsverfahren unterschieden.
Mithilfe exakter Verfahren werden exakte Lösungen in endlicher Zeit im Lösungsraum des
Aufgabenobjektes ermittelt, die bezüglich der Sach- und Formalziele der Aufgabe optimal sind.
Approximierende Verfahren nähern sich dem Optimum mit zunehmender Schrittzahl an und in
jedem Schritt ist der Abstand zur exakten Lösung bestimmbar. Heuristische Verfahren basieren
ebenfalls auf der schrittweisen Annäherung an eine exakte Lösung, wobei der Abstand zum
Optimum hier in der Regel nicht ermittelt werden kann. Lernende Verfahren setzen keine
Vorkenntnisse über spezifische Aufgabeneigenschaften voraus, benötigen aber Lernschritte für
die Lösung der Aufgabe, in denen das Aufgabenobjekt und die Aufgabenziele erkundet werden
(vgl. Ferstl & Sinz (2013) S. 106).
Das zweite formale Kriterium ist durch die Forderung nach einer adäquaten Modellierung der
Diskurswelt einer Aufgabe gekennzeichnet und bezweckt die Struktur- und Verhaltenstreue
zwischen Diskurswelt und Aufgabe. Dazu wird, wie in Tabelle 2 ersichtlich, dem Modelltyp der
zu automatisierenden Aufgabe der Strukturiertheitsgrad der Diskurswelt gegenübergestellt. Die
Kombination aus Modelltyp und Strukturiertheitsgrad beschreibt verschiedene Problemtypen der
Automatisierung (vgl. Ferstl & Sinz (2013) S. 118).
Nach dem Grad an verfügbarem Wissen über die Diskurswelt werden vier verschiedene
Modelltypen von Aufgaben unterschieden. Bei analytischen Modellen liegt der Modellbildung
und -überprüfung eine geschlossene Theorie zugrunde. Häufig werden mathematische Modelle
modelliert, wie beispielsweise in der Produktionsplanung. Wissensbasierte Modelle werden
mithilfe von Wissen aus Beobachtungen, Erfahrungen und logischen Ableitungen erstellt,
welches durch Konsultationen von Experten der Diskurswelt ermittelt wird. Die Abbildung von
Wissen in Systemen ist ein Teilgebiet der Künstlichen Intelligenz (vgl. Kapitel 2.4.3).
Konnektionistische Modelle treffen lediglich Aussagen bezüglich der Außensicht auf ein Problem
der Diskurswelt, indem dieses als Black-Box-System mit In- und Outputs abgebildet wird.
Strukturelle systeminterne Zustände werden nicht betrachtet. Ein Beispiel für konnektionistische
Modelle sind Neuronale Netze. Natürlichsprachige Beschreibungen kommen zum Einsatz, wenn
eine formale Modellierung aufgrund der Komplexität des Diskurssystems nicht möglich ist.
Erfassbare Teilaspekte können in diesem Fall natürlichsprachig beschrieben werden.
Entsprechende Formulierungen sind allerdings nicht automatisierbar (vgl. Ferstl & Sinz (2013)
S. 104f.).
Grundlagen 21
Mit dem Strukturiertheitsgrad der Diskurswelt wird beschrieben, inwieweit die Abgrenzung,
Erfassung, Strukturierung und das Verstehen des Ausschnitts der Diskurswelt möglich ist. Hierbei
sind wohlstrukturierte und schlechtstrukturierte Probleme zu unterscheiden (vgl. Ferstl & Sinz
(2013) S. 115ff.). Das Wissen über wohlstrukturierte Probleme ist lediglich durch wirtschaftliche
Kriterien begrenzt. Es wird zwischen analytischen Modellen, wissensbasierten Modellen oder
natürlichsprachigen Beschreibungen differenziert. Die Lösungsverfahren der analytischen und
wissensbasierten Modelle sind automatisierbar. Wesentlicher Unterschied zwischen beiden
Modellarten ist die oben beschriebene Art des verfügbaren Wissens. Schlechtstrukturierte
Probleme sind gekennzeichnet durch vages, nicht vollständiges bzw. nicht überprüfbares Wissen
über die Diskurswelt, d.h. bezüglich Aufgabenobjekt, Aufgabenziele oder Lösungsverfahren. Das
für die Modellierung verfügbare Wissen bezieht sich in der Regel auf intuitives Expertenwissen.
Bei der Modellbildung finden wissensbasierte Modelle, konnektionistische Modelle für eine
automatische Anpassung an eine sich ändernde Diskurswelt sowie natürlichsprachige
Beschreibungen der bekannten Elemente Anwendung (vgl. Ferstl & Sinz (2013) S. 118f.).
Die sachlichen Kriterien sind hinreichende Bedingungen für die Automatisierbarkeit und basieren
auf einer Analyse der Wirtschaftlichkeit der alternativen Durchführung von Aufgaben durch
menschliche oder maschinelle Aufgabenträger. Dabei erfolgt die Bewertung der Vorteile der
Automatisierung hinsichtlich relevanter Zielkriterien. Die Automatisierung soll zu einer
Optimierung dieser Zielkriterien führen, wodurch sie letztlich zu einer Prozessverbesserung
beiträgt. Die sachlichen Kriterien der Automatisierbarkeit stimmen daher im Wesentlichen mit
den Kriterien der Prozessanalyse und den Zielgrößen der Produktion überein. Die Bewertung der
manuellen oder automatisierten Aufgabendurchführung ist jedoch nicht als Gegenüberstellung zu
sehen. Stattdessen sind insbesondere teilautomatisierte Lösungen zu betrachten, da durch die
Kooperation die spezifischen Stärken beider Aufgabenträger genutzt werden können (vgl. Ferstl
& Sinz (2013) S. 119). Tabelle 3 zeigt einen Vergleich der Stärken des personellen und des
Grundlagen 22
Die Kostenminimierung wird als hauptsächliches monetäres Ziel in der Produktion angesehen
(vgl. Bloech et al. (2014) S. 9). Bei der Analyse von Aufgaben hinsichtlich Automatisierbarkeit
müssen daher die Planungs-, Durchführungs- und Kontrollkosten der Aufgabe für einen
personellen bzw. einen maschinellen Aufgabenträger sowie die Kosten für die
Mensch-Computer-Interaktion betrachtet werden. Beim Menschen fallen in der Planungsphase
beispielsweise Kosten für die Stellenbeschreibung, für interne und externe Schulungen sowie für
sonstige Mitarbeitereinweisungen an. Während der Durchführung der Aufgabe entstehen Kosten
für den Arbeitsplatz und für die Kommunikation sowie Personalkosten für den Mitarbeiter. Die
hohen und kontinuierlich steigenden Personalkosten stellen insbesondere für die Produktion in
Industrieländern eine große Herausforderung dar (vgl. Groover (2008) S. 12). Weitere Kosten
entstehen durch die Nichtverfügbarkeit des Personals, beispielsweise im Rahmen von
Pausenzeiten. Kontrollkosten beziehen sich beim personellen Aufgabenträger auf Kosten für
zusätzliche Qualitätsprüfungen der Aufgabenergebnisse, zum Beispiel hinsichtlich Fehler
aufgrund von Konzentrationsschwächen (vgl. Ferstl & Sinz (2013) S. 120f.).
Da automatisierte Systeme eine hohe Zuverlässigkeit bei der Durchführung von Aufgaben
besitzen und in der Lage sind Aufgaben mit höherer Gleichmäßigkeit und Konformität bezüglich
Qualitätsspezifikationen auszuführen, führt die Automatisierung zu einer Erhöhung der Prozess-
und Produktqualität in der Produktion. Durch die Automatisierung werden Tätigkeiten
ermöglicht, die aufgrund sehr hoher Anforderungen bezüglich des Genauigkeits-,
Miniaturisierungs- oder Komplexitätsgrades vom Menschen nicht realisiert werden können (vgl.
Groover (2008) S. 12). Der Einsatz von Maschinen und Automaten ermöglicht dadurch Potentiale
für die Etablierung von Qualitätsniveaus, die durch manuell ausgeführte Aufgaben nicht erreicht
werden können. Die Automatisierung betrieblicher Aufgaben schafft zudem Möglichkeiten der
Standardisierung und Vereinheitlichung betrieblicher Abläufe. Damit einher geht eine hohe
Transparenz bei der Erfüllung der generalisierten Aufgaben durch maschinelle Aufgabenträger
(vgl. Ferstl & Sinz (2013) S. 124).
Maschinelle Aufgabenträger zeichnen sich durch das schnelle Ausführen von Routinetätigkeiten
aus, die zum Teil auch parallel durchgeführt werden können. Die Automatisierung verkürzt die
Durchführungsdauer einer Aufgabe. In der Produktion wird durch die Automatisierung daher eine
Reduzierung der Zielgröße Durchlaufzeit erreicht. Darüber hinaus steigert die Automatisierung
in der Regel die Produktionsrate, sodass höhere Output-Mengen erzielt werden. Die Erhöhung
der Ausbringungsmenge führt zu einer Steigerung der Zielgröße Produktivität (vgl. Bloech et al.
(2014) S. 8; Groover (2008) S. 12).
Die hohe Verfügbarkeit ist ein weiterer Vorteil der maschinellen Aufgabenträger. Im Vergleich
zum Menschen bestehen beispielsweise keine Einschränkungen bezüglich gesetzlichen
Arbeitszeiten oder Wochenenden. Produktionsunterbrechungen, die durch die Abwesenheit des
Produktionsfaktors Mensch verursacht werden, sind reduziert. In diesem Zusammenhang
adressiert die Automatisierung auch strukturelle Defizite. Viele entwickelte Industrienationen
unterliegen einem demografischen Wandel, weshalb ein Mangel an Arbeitskräften herrscht (vgl.
Holtbrügge (2015) S. 5). Durch die Automatisierung werden diese Effekte abgeschwächt, da
entsprechende Aufgaben vom Menschen auf einen Automaten übertragen werden. Da der Mensch
bei der Automatisierung auch bei ermüdenden und belastenden Routineaufgaben durch
Maschinen substituiert wird, wird er entsprechend entlastet. Dadurch verbessert die
Automatisierung die allgemeinen Arbeitsbedingungen in der Gesellschaft. Der Mensch kann sich
auf komplexe und abstrakte Aufgaben gemäß seinem Stärkenprofil konzentrieren. Die Sicherheit
der Arbeitsumgebung für die Fertigungsmitarbeiter wird durch die Automatisierung verbessert,
da die aktive Beteiligung des Menschen an der Ausführung der Fertigungsprozesse zurückgeht
und die Fertigungsmitarbeiter zunehmend vernetzende, koordinierende und überwachende
Tätigkeiten übernehmen (vgl. Groover (2008) S. 12; Holtbrügge (2015) S. 5).
Grundlagen 24
Zielgrößen
Input Output
Aufgabe
Speicher
Kapitel 2.3.2). Dabei wird eine Entscheidung analog zum Verständnis der Entscheidungsaufgabe
und in Verbindung mit der allgemeinen Systemtheorie 15 als ein Input-Output-System betrachtet.
Ein Programm ist die steuernde Struktur des Informationsverarbeitungsprozesses eines Systems.
Mit einem Entscheidungsprogramm werden deshalb die Anweisungen von Vorgesetzten ersetzt.
Weiterhin wird bei Entscheidungsprogrammen zwischen dem Konditional- und
Zweckprogrammansatz unterschieden (vgl. Luhmann (1991) S. 255ff.; March & Simon (1995) S.
144ff.; Rommelspacher (2011) S. 81f.).
Der Ansatz von Zweckprogrammen betrachtet die Ziele und die Handlungsalternativen der
Entscheidungssituation. Durch die Vorgabe von Zielen und der dafür einzusetzenden
Handlungsalternativen erfolgt ein erstrebenswerter Entwurf der Zukunft. Zweckprogramme
erfüllen aufgrund der Berücksichtigung von Zielen das zweite formale Kriterium der adäquaten
Modellierung der Entscheidungssituation. Da Zweckprogramme lediglich den Output der
Entscheidungssituation definieren und den Input nicht betrachten bzw. variant lassen, ist die
Forderung einer Input-Output-Beziehung gemäß dem ersten formalen Kriterium nach
Ferstl & Sinz (2013) allerdings nicht erfüllt (vgl. Drepper (2003) S. 148f.; Luhmann (1991) S.
257ff.; Rommelspacher (2011) S. 84f.).
Der Automatisierungsansatz mittels Zweckprogrammen eignet sich eher für die Automatisierung
von Entscheidungen auf Führungsebene, da Zweckprogramme die Ziele berücksichtigen, die die
Grundlage für die Auswahl einer Handlungsalternative bilden. Durch die Realisierung der
Input-Output-Relation sind Konditionalprogramme für die Automatisierung von operativen
Entscheidungen geeignet. Auf dieser Ebene kann davon ausgegangen werden, dass die Ziele im
Wesentlichen bereits auf einer höheren Ebene, z.B. im Rahmen von Führungsentscheidungen,
15
Innerhalb der allgemeinen Systemtheorie werden Systeme jeglicher Art beschrieben und deren Verhalten
untersucht. Systeme werden als komplexe Strukturen mit Ursache-Wirkungs-Zusammenhängen
abgebildet. Die Systemtheorie wird unter anderem zur ganzheitlichen Analyse des Aufbaus und der
Funktionsweise von betrieblichen Informationssystemen angewendet (vgl. Ferstl & Sinz (2013) S. 13).
Grundlagen 26
Als Revolution wird allgemein eine grundlegende und dauerhafte strukturelle Veränderung eines
oder mehrerer Systeme bezeichnet (vgl. Weiß (2011) S. 541). In der Geschichtswissenschaft wird
der Revolutionsbegriff in Zusammenhang mit der Industrialisierung verwendet, da seit langer Zeit
bestehende soziale Bindungen, wirtschaftliche Beziehungen, kulturelle Kontexte und politische
Verhältnisse grundlegend neu strukturiert wurden (vgl. Liedtke (2012) S. 9). Bisher wurden drei
industrielle Revolutionen vollzogen, die jeweils zu tiefgreifenden Veränderungen in der
Gesellschaft führten. Eine entscheidende Rolle in jeder Umbruchphase spielte dabei die
Steigerung der Produktivität, welche durch vielfältige Innovationen erreicht wurde (vgl.
Geschwill & Nieswandt (2016) S. 12).
Die erste industrielle Revolution wurde durch die Textilindustrie in Großbritannien in der zweiten
Hälfte des 18. Jahrhunderts eingeleitet. Die Erfindung der Dampfmaschine führte zu einer
erheblichen Steigerung der Produktivität durch Mechanisierung und zur Bildung von ersten
Fabriken als zentralisierte Produktionsstätten (vgl. Liedtke (2012) S. 32ff.; Ziegler (2012) S. 2ff.).
Mit der zweiten industriellen Revolution wird der Übergang zur arbeitsteiligen Massenproduktion
im späten 19. Jahrhundert bezeichnet. Die Umsetzung des Taylorismus 16 in Form von
Fließbändern unter Verwendung von elektrischer Energie gilt als Höhepunkt dieser
Industrialisierung (vgl. Ziegler (2012) S. 101ff.). Zu Beginn der 1970er Jahre setzt die dritte
industrielle Revolution ein. Erfindungen wie der Computer und die speicherprogrammierbare
Steuerung ermöglichten den breiten Einsatz von Elektronik und Informationstechnologie. In der
Produktion wurde dadurch die Automatisierung der Produktionsprozesse weiter vorangetrieben
und manuelle Arbeit zunehmend durch Maschinen und Roboter ersetzt (vgl. Kagermann et al.
(2013) S. 18).
Das Konzept der vierten industriellen Revolution greift viele Ideen der dritten industriellen
Revolution auf und setzt sie in einen neuen Zusammenhang. Die dahinterstehende technische
Innovation ist, wie bei der dritten industriellen Revolution, die Digitalisierung und die
weitergehende Informatisierung. Grundlegende Innovation ist das sogenannte Internet der Dinge,
welches die Vernetzung und Kommunikation von intelligenten Gegenständen ermöglicht. Der
Mensch soll vom Internet der Dinge bei seinen Tätigkeiten unaufdringlich unterstützt werden.
16
Taylorismus bezeichnet die von Taylor (1913) geprägte Anschauung der Zerlegung von Gesamtaufgaben
in einfache Einzeltätigkeiten, welche von darauf maximal trainierten Arbeitern dauerhaft ausgeführt
werden. Dabei erfolgt die strikte Trennung zwischen ausführenden und vorgebenden Tätigkeiten (vgl.
Taylor (1913) S. 24ff.; Töpfer (2007) S. 144).
Grundlagen 27
Das Ziel von Industrie 4.0 ist eine Produktion, die sich eigenständig hinsichtlich
Ressourceneffizienz optimiert. Im Zentrum steht die umfassende Digitalisierung von
Produktionssystemen und Produkten sowie deren Vernetzung im Internet der Dinge. Dies
ermöglicht den Austausch von Informationen zwischen Produktionsfaktoren und die integrierte
Informationsweitergabe im Wertschöpfungsnetzwerk. Vollständig automatisierte
Produktionsanlagen interagieren eigenständig miteinander und realisieren somit das sogenannte
Smart Factory-Konzept, bei dem eine echtzeitnahe, dezentrale und weitgehend autonome
Steuerung der Produktion erfolgt. Auf diese Weise trägt Industrie 4.0 dazu bei die Komplexität
von Wertschöpfungsnetzwerken zu beherrschen sowie ihre Effizienz und Qualität zu steigern
(vgl. Huber & Kaiser (2015) S. 682; Kaufmann & Forstner (2014) S. 360; Lemke & Brenner
(2015) S. 37; Schulz (2015) S. 1).
Industrie 4.0 beinhaltet die Integration im Produktionssektor als Kernidee und setzt damit ein
Leitthema der Wirtschaftsinformatik um (vgl. Mertens et al. (2012) S. 8f.). Die Vernetzung der
Produktion vollzieht sich in den drei Dimensionen der vertikalen Integration, der horizontalen
Integration sowie der Integration von Engineering-Prozessen. Die vertikale Integration bezeichnet
die Integration verschiedener Informationssysteme auf unterschiedlichen Hierarchieebenen zu
einer durchgängigen Lösung. Intelligente Produkte werden dadurch jederzeit identifizierbar und
zu jedem Zeitpunkt ist ihre Produktionshistorie bekannt. Diese Informationen bilden die
Grundlage für die Optimierung der Produktionsprozesse. Die horizontale Integration bezieht sich
auf die Integration verschiedener Informationssysteme entlang des Material-, Energie- oder
Informationsflusses und vollzieht sich sowohl innerhalb eines Unternehmens, als auch im
Rahmen von strategischen Wertschöpfungsnetzwerken über Unternehmensgrenzen hinweg. Mit
der Integration von Engineering-Prozessen wird die Integration von Informationssystemen über
die gesamte Wertschöpfungskette eines Produkts von der Produktentwicklung über das
Engineering des Produktionssystems bis zur Produktion und dem Service bezeichnet (vgl. Huber
17
Industrie 4.0 ist in diesem Sinne nur ein Anwendungsfeld des Internets der Dinge, welches in den
verschiedensten privaten, geschäftlichen und wissenschaftlichen Bereichen Anwendung findet.
Beispielsweise werden mithilfe von intelligenten und vernetzten Smart Products, wie beispielsweise mit
Sensoren ausgestattete Armbänder, Daten erfasst, die die Grundlage für die Optimierung von Gesundheit
und Fitness bilden. Ein anderes Beispiel sind Smart Home-Anwendungen, die durch intelligente Systeme
die Steuerung von Heizung oder Licht in Gebäuden über das Internet oder mobile Endgeräte ermöglichen
(vgl. Huber & Kaiser (2015) S. 683; Lemke & Brenner (2015) S. 35f.).
Grundlagen 28
Eine wichtige technische Voraussetzung für Industrie 4.0 ist die Ausstattung von Objekten,
Produktionsanlagen oder Logistikkomponenten mit eingebetteten Systemen. Auf diese Weise
entstehen intelligente Cyber-Physische Systeme (CPS). Über entsprechende Schnittstellen sind
CPS in der Lage Internetdienste zu nutzen und miteinander zu kommunizieren. Dies führt zum
Zusammenwachsen von realer und virtueller Welt, indem vernetzte physische Objekte eine
zweite, virtuelle Identität als Datenobjekte im Netz erhalten. Über ihr virtuelles Abbild können
physische Objekte einerseits im Netz identifiziert und analysiert werden. Andererseits
veröffentlichen sie mittels ihrer virtuellen Identität auch Wissen und Daten im Netz,
beispielsweise zu ihrer Funktion, ihren Bedürfnissen und über Sensoren ermittelte Eigenschaften
ihrer Umwelt. Durch die Vernetzung von CPS werden autonome und dezentrale Netzwerke
aufgebaut, die in der Lage sind sich eigenständig zu optimieren (vgl. Bauernhansl (2014b) S. 105,
Bauernhansl (2014a) S. 15f.; Huber & Kaiser (2015) S. 682).
Obwohl die Kommunikation zwischen CPS nicht zwingend über das Internet abgewickelt werden
muss, sondern beispielsweise auch über ein privates Firmennetz, ein Firmenverbundnetz oder ein
anderes geschlossenes Unternehmensnetz erfolgen kann, wird im Zusammenhang mit
Industrie 4.0 meist das Internet der Dinge als Kommunikationsnetz betrachtet. Das Internet der
Dinge ermöglicht die eigenständige Kommunikation der intelligenten Geräte und Maschinen mit
anderen Kommunikationsteilnehmern im Netz. Es stößt immer weiter in die reale Welt vor und
stellt eine neuartige Plattform der Informationsverarbeitung und Kommunikation in der
Produktion dar, welche große Datenmengen empfängt, transferiert und organisiert (vgl. Drath
(2016) S. 19; Huber & Kaiser (2015) S. 683; Laudon et al. (2016) S. 236; Lemke & Brenner
(2015) S. 34f.; Lu (2010) S. 2259).
Ein Cyber-Physisches System ist ein System aus physischen und zugehörigen virtuellen Objekten,
die über Informationsnetzwerke miteinander interagieren. Es besteht aus drei verschiedenen
Ebenen, die in Abbildung 12 schematisch skizziert sind. Die erste Ebene bezieht sich auf die
physischen Objekte, zum Beispiel eine Produktionsanlage. Die jederzeit und überall verfügbaren
Daten und Modelle dieser physischen Objekte bilden in einer vernetzten Infrastruktur die zweite
Ebene. Innerhalb der dritten Ebene sind die Dienste und Algorithmen definiert, die den
übergreifenden Datenaustausch ermöglichen. Es entstehen intelligente Produkte und
Produktionseinheiten, die beispielsweise in der Lage sind Qualitätsabweichungen selbstständig
zu diagnostizieren und entsprechend entgegenzuwirken. Dies bildet die Basis für eine
selbstständige kontextsensitive Entscheidungsfindung und die automatische Optimierung des
Produktionssystems (vgl. Drath (2016) S. 20; Vogel-Heuser (2014) S. 44).
Für die klassische Automatisierungstechnik stellen das Konzept von Industrie 4.0 und die
Cyber-Physischen Systeme eine große Herausforderung dar, da sie nicht deren traditionellen
hierarchischen Architekturen folgen. Klassischerweise werden die technischen
Produktionsprozesse und deren Dynamik beim modellbasierten Entwurf und Betrieb
automatisierter Anlagen mit einbezogen. Dabei entstehen typischerweise viele unterschiedliche
IT-Systeme nebeneinander, die nur bedingt miteinander vernetzt sind und aufgrund
Grundlagen 29
3
Dienstesystem • Algorithmen
2 • Dokumente • Topologie
Datenspeicher • Prozessdaten • …
• 3D Modelle
1
• Automatisierungskomponenten
Physische Objekte • Mensch
Ein Cyber-Physisches System ist ein Gesamtsystem, welches aus verschiedenen Untersystemen
besteht, die getrennt entwickelt wurden und auch unabhängig voneinander agieren können (vgl.
Lüth (2016) S. 26). Die Voraussetzung für die Kommunikation und den Datenaustausch zwischen
heterogenen Anlagen und Geräten verschiedener Hersteller sind standardisierte
Kommunikationsregeln und einheitliche Datenformate. Die Entwicklung von entsprechenden
Referenzarchitekturen ist Gegenstand aktueller Forschung, wie beispielsweise im Rahmen des
Referenzarchitekturmodells Industrie 4.0 (RAMI4.0) (vgl. DIN SPEC 91345 (2016) S. 1ff.). Ein
geeigneter Lösungsansatz, der eine geringe Standardisierung erfordert, sind serviceorientierte
Architekturen. Hierbei handelt es sich um eine Softwarearchitektur, deren Grundprinzip der
Aufbau aus lose gekoppelten Funktionsbausteinen ist. Diese Elemente haben klar definierte
fachliche Aufgaben und werden auch als Dienste bezeichnet. Über Schnittstellen sind Dienste in
der Lage Informationen austauschen (vgl. Laudon et al. (2016) S. 247; Reinheimer et al. (2007)
S. 7f.; Vogel-Heuser (2014) S. 40f.).
Neben der Kommunikation mit anderen autonomen Systemen kooperieren CPS mit dem
Menschen, um mit ihm gemeinsam komplexe Aufgaben arbeitsteilig zu lösen. Die integriert
vorhandenen Daten werden dem Menschen in geeigneter Form zur Verfügung gestellt. CPS
ermitteln Zusammenhänge in den verfügbaren Daten und stellen dem Menschen die
Informationen zur Verfügung. Sie bieten verschiedene Interaktionsmöglichkeiten, sodass der
Mensch in der Lage ist, geeignete Informationen zu suchen und entsprechende
Schlussfolgerungen zu ziehen. Dazu berücksichtigt die Datenaufbereitung unter anderem die
Aufgabe und Rolle des Menschen sowie dessen individuelle Bedürfnisse wie beispielsweise
altersspezifische Eigenschaften (vgl. Lüth (2016) S. 26; Vogel-Heuser (2014) S. 45f.).
Grundlagen 30
Der sich auf das rationale Handeln beziehende KI-Ansatz führt zum Begriff des intelligenten
Agenten. Allgemein wird unter einem Agenten ein System verstanden, welches Informationen
verarbeitet und aus einer Eingabe eine Ausgabe produziert. Intelligente Agenten verhalten sich in
einer Umgebung autonom und verfolgen eigene Ziele. Sie handeln rational, indem sie
Informationen aus ihrer Umgebung empfangen, die Informationen nutzen, um bestmögliche
Entscheidungen zu treffen und auf diese Weise auf ihre Umgebung einwirken. Intelligente
Agenten sind in der Lage sowohl auf erwartete, als auch auf unerwartete Ereignisse zu reagieren,
sich an Veränderungen anzupassen und ihre Umgebung zu steuern oder zu beeinflussen (vgl. Ertel
(2016) S. 18ff.; Lunze (2016) S. 21f.; Russel & Norvig (2012) S. 25).
Intelligente Agenten eignen sich zur Automatisierung von Entscheidungen, da sie als
selbstausführende Systeme eigenständig Entscheidungen treffen. Im Gegensatz zu intelligent
arbeitenden technischen Systemen in der Automatisierungstechnik, die in der Regel durch
Algorithmen gesteuert werden, basiert die Intelligenz von KI-Agenten auf symbolischer
Wissensverarbeitung auf Basis von Regeln und erlerntem Wissen. Der Übergang ist jedoch
fließend und der Einsatz der Künstlichen Intelligenz in der Technik soll die bisher durch
analytische Informationsverarbeitung realisierten Funktionen ergänzen und erweitern. Die
Einbringung von Methoden der Künstlichen Intelligenz in die industrielle
Automatisierungstechnik zur Auswertung von Sensordaten in vernetzten Produktionssystemen ist
ein Forschungsfeld im Bereich Industrie 4.0 (vgl. Kagermann et al. (2013) S. 95; Lunze (2016)
S. 22f.).
Die symbolische Wissensverarbeitung eignet sich insbesondere für die Automatisierung von
Entscheidungsproblemen in komplexen Systemen und Entscheidungsaufgaben, bei denen die
Kenntnisse über technische Randbedingungen unsicher und unvollständig sind. Das betrifft vor
allem Aufgaben mit qualitativen Zielvorgaben, die von menschlichen Aufgabenträgern durch
Erfahrung und Intuition gelöst werden und für die keine analytischen Modelle existieren. Die
Grundlagen 31
Schaffung, Nutzung und Wartung künstlicher Wissenssysteme ist ein wichtiges Teilgebiet der
Künstlichen Intelligenz. Durch künstliche Wissenssysteme wird es für die
Automatisierungstechnik möglich vom Menschen erworbenes Wissen zu übernehmen und dieses
maschinell verfügbar zu machen (vgl. Favre-Bulle (2004) S. 324; Lunze (2016) S. 22f.).
Nach Probst et al. (2012) wird mit Wissen die Gesamtheit der Kenntnisse und Fähigkeiten
bezeichnet, die Individuen zur Lösung von Problemen einsetzen. Der Wissensbegriff umfasst
theoretische Erkenntnisse, praktische Alltagsregeln und Handlungsanweisungen. Wissen basiert
auf Daten und Informationen, wobei es im Unterschied zu diesen immer an Personen gebunden
ist. Es wird demzufolge von Individuen konstruiert und repräsentiert deren Erwartungen in Form
von Ursache-Wirkungs-Zusammenhängen. Insbesondere ist die Denk- und Erkenntnisfähigkeit
des Individuums als kognitiver Agent von Bedeutung (Probst et al. (2012) S. 23).
Das Grundkonzept wissensbasierter Systeme ist in Abbildung 13 dargestellt und basiert auf der
Trennung von Wissensrepräsentation und Wissensverarbeitung. Ein wissensbasiertes System
besteht aus einer Wissensbasis und einer Inferenzmaschine. Die Wissensbasis enthält das für die
betrachtete Problemklasse benötigte Wissen mit Folgerungsregeln und Informationen als Modell
des Gegenstandsbereichs. Es liegt beispielsweise in Form von Regeln oder semantischen Netzen
vor und kann maschinell verarbeitet werden. Die Auswertung der Wissensbasis und die
Verarbeitung des dort hinterlegten Wissens übernimmt die Inferenzmaschine, die einen
Algorithmus realisiert, mit dem ein gegebenes Problem gelöst wird. Durch die Inferenzmaschine
ist ein wissensbasiertes System als maschineller Aufgabenträger in der Lage eigenständig
Probleme zu lösen. Mit der Inferenzkomponente wird das dynamische Verhalten und die
Ablaufbeziehungen zur Durchführung von Teilfunktionen eines wissensbasierten Systems
bestimmt (vgl. Ferstl & Sinz (2013) S. 367f.). Aus Prozesssicht wird damit gleichzeitig die
Reihenfolge der durch das System durchgeführten Aufgaben festgelegt. Wissensbasierte Systeme
sind den Dispositionssystemen als Teil operativer Systeme zuzuordnen, da sie der Vorbereitung
von menschlichen Entscheidungsaufgaben dienen oder diese automatisiert ausführen und damit
den menschlichen Aufgabenträger entlasten. Wenn in einem wissensbasierten System implizites
Wissen von Experten eines Fach- oder Anwendungsbereichs abgebildet wird, wird häufig auch
von Expertensystemen gesprochen (DIN IEC 60050-351 (2014) S. 34; vgl. Favre-Bulle (2004) S.
324f.; Heinrich et al. (2011) S. 256f.; Kurbel (1992) S. 18; Lunze (2016) S. 465; Mertens (2013)
S. 27).
Grundlagen 32
Inferenzmaschine
(Problemlösungskomponente)
Wissensbasis
Die Wissensrepräsentation dient der Überführung von informellem Wissen über den
Diskursbereich in eine formalisierte, maschinell verarbeitbare Form. Dabei findet eine
Modellbildung bzw. Modellierung statt, deren Grundlagen oben bereits erläutert wurden (vgl.
Kapitel 2.2.1). In Abbildung 14 ist der Weg zur Lösung einer konkreten Problemstellung oder
Entscheidungssituation in wissensbasierten Systemen dargestellt. Zunächst wird eine für eine
ganze Klasse von Entscheidungsaufgaben geltende Problemstellung definiert und das benötigte
Wissen durch Modellierung formalisiert. Zu dem Wissen über eine Problemklasse zählen Fakten
des Diskursbereichs und Operationen zur Umformung des Problems. In der Lösungsstrategie ist
das Wissen zur Steuerung des Inferenzprozesses hinterlegt. Es umfasst die Richtlinien für die
Verwendung der Operationen zur Lösung eines gegebenen Problems. Bei der Algorithmierung
wird das allgemeine Problemwissen mit der Lösungsstrategie verknüpft, sodass eine explizite
Beschreibung des Lösungswegs entsteht. Dabei wird eine Folge von Lösungsschritten bzw.
Aufgaben erzeugt, in der die Operationen eindeutig hintereinander angeordnet sind. Auf diese
Weise ist ein wissensbasiertes System in der Lage eigenständig den Problemlösungsprozess zu
steuern. Durch Befolgen der Anweisungen kann der Algorithmus ausgeführt und auf die
Eingangsdaten angewandt werden. Diese werden durch den Algorithmus verarbeitet, wodurch die
Lösung des gegebenen Problems beschrieben wird (vgl. Lunze (2016) S. 477f.).
Algorithmierung
Daten Algorithmus
Verarbeitung
Lösung
3.1 Unternehmensvorstellung
Die Infineon Technologies Dresden GmbH (IFD) ist einer der größten Fertigungs- und
Entwicklungsstandorte des deutschen Halbleiterherstellers Infineon Technologies AG. Seit der
Gründung im Jahr 1994 wurden mehr als drei Milliarden Euro in den Standort investiert. Heute
beschäftigt Infineon in Dresden mehr als 2.000 Mitarbeiter (vgl. Infineon Technologies Dresden
GmbH (2016) S. 6).
In der Fertigung von IFD werden über 400 verschiedene Produkte auf Basis von Siliziumscheiben
mit Durchmessern von 200 mm und 300 mm hergestellt. Das Produktspektrum reicht von
Automobilelektronik- über Sicherheits- und Chipkartenanwendungen bis hin zu Lösungen für das
Energiemanagement und die Steuerungselektronik. Bei der im Jahr 2011 gestarteten Fertigung
auf 300 mm Wafern handelt es sich um die weltweit erste Hochvolumenfabrik für
Leistungshalbleiter mit einem solchen Scheibendurchmesser. Die Fertigung zeichnet sich durch
kurze Durchlaufzeiten, gehobene Sicherheitsstandards und ein Qualitätsniveau mit hoher
Ausbeute aus. Damit setzt sie die Null-Fehler-Philosophie des Unternehmens um (vgl. Infineon
Technologies Dresden GmbH (2016) S. 8). Aufgrund der Vielfalt an unterschiedlichen Produkten
ist die Fabrik durch eine entsprechend große Anzahl an verschiedenen Fertigungsanlagen und
Fertigungsprozessen gekennzeichnet. Daraus ergibt sich eine hohe Variabilität im
Defektverhalten, da Defekte in der Halbleiterfertigung maßgeblich vom Anlagentyp und von den
Fertigungsprozessen bestimmt werden. In der Halbleiterfertigung von IFD existiert daher
umfassendes und vielfältiges Expertenwissen zum Umgang mit detektierten
Qualitätsabweichungen auf den Scheiben.
Zur Beantwortung der ersten Forschungsfrage soll eine qualitative Prozessanalyse des Prozesses
nach Defektdichtemeldung erfolgen. Gemäß den Anforderungen der Analysephase in der
gestaltungsorientierten Forschung nach Österle et al (2011) wird die Problemstellung der
vorliegenden Arbeit in der Praxis erhoben und beschrieben. Zielstellung ist die Charakterisierung
des Prozesses und die Identifikation von vorhandenen Schwachstellen und Ineffizienzen. Der
Schwerpunkt liegt auf den verschiedenen von der Fachkraft ausgeführten Aufgaben des Prozesses
und deren Automatisierbarkeit. Auf diese Weise bildet die Prozessanalyse den Ausgangspunkt
für den Entwurf eines Konzepts zur Automatisierung des Prozesses nach Defektdichtemeldung.
Für die Prozessanalyse wird ein zweistufiges Vorgehen gewählt. In einem ersten Schritt erfolgt
in Kapitel 3.3 eine allgemeine Analyse des Prozesses nach Defektdichtemeldung. Zur Einordnung
und zum besseren Verständnis wird zunächst der Defektdichteprozess, der dem Prozess nach
Defektdichtemeldung vorgelagert ist, beschrieben. Anschließend wird der Prozess nach
Defektdichtemeldung als Entscheidungsprozess definiert und anhand der in Kapitel 2.2.3
ausgearbeiteten allgemeinen Prozessmerkmale charakterisiert.
Im zweiten Schritt wird in den Kapiteln 3.4, 3.5 und 3.6 eine detaillierte Prozessanalyse zur
Identifikation von Schwachstellen durchgeführt. Aufgrund von wesentlichen Unterschieden in
der Prozessgestaltung findet die detaillierte Prozessanalyse getrennt nach Fertigungsbereichen
statt. Um ein möglichst umfassendes Bild zu gewinnen, werden dazu die drei Fertigungsbereiche
Chemisch-Mechanisches Polieren, Lithografie und Chemical Vapour Deposition ausgewählt. Für
jeden der Bereiche werden zunächst die technologischen Grundlagen der verwendeten
Fertigungsverfahren herausgearbeitet und mögliche Ursachen von Defekten beschrieben. Dazu
werden für jeden Fertigungsbereich charakteristische Defektarten vorgestellt. Danach erfolgt die
eigentliche Analyse des Prozesses nach Defektdichtemeldung in den einzelnen
Fertigungsbereichen. Bei der Analyse der Aufgaben erfolgt die Verwendung des Stufenmodells
der Informationsverarbeitung in einem Entscheidungsprozess nach Parasuraman et al. (2000)
(vgl. Kapitel 2.2.3). Zusätzlich werden die Informationssysteme, die zur Unterstützung der
Aufgabendurchführung verwendet werden, mitbetrachtet. Ein Schwerpunkt der Analyse liegt auf
den Lösungsverfahren der im Prozess durchgeführten Aufgaben, sodass ermittelt werden kann,
ob die Aufgaben gemäß den formalen Kriterien automatisiert werden können.
Zur Bewertung der Automatisierbarkeit der Aufgaben gemäß sachlicher Kriterien werden die
Aufgaben des Prozesses anhand der Kriterien der Prozessanalyse nach Allweyer (2012) analysiert
(vgl. Kapitel 2.3.3). Als ein wichtiges Analysekriterium wird der Nutzen der Aufgaben in
Hinblick auf das Prozessziel betrachtet. Hierbei sollen nicht zielführende
Aufgabendurchführungen, die im Sinne des Lean Managements 18 Verschwendung darstellen,
identifiziert werden. Für notwendige Aufgaben soll die alternative Durchführung durch den
Menschen oder einen Automaten genauer erörtert werden. Dabei werden die Zeit, die Kosten und
18
Die Grundidee des Lean Management ist eine schlanke und effiziente Unternehmensführung, die durch
die Elimination von Verschwendung realisiert wird (vgl. Klevers (2013) S. 20f.; Ono (2013) S. 52ff.;
Womack et al. (2013) S. 23).
Prozesserhebung und Analyse 35
die Qualität der Aufgabendurchführung für den personellen und maschinellen Aufgabenträger
analysiert. In die Analyse werden zudem die Einflussfaktoren nach Allweyer (2012) mit
einbezogen, welche sich auf diese Kriterien auswirken. Dies betrifft insbesondere System- und
Medienbrüche sowie Datenredundanzen und Integrationsaspekte bezüglich der verwendeten
Informationssysteme.
3.3.1 Defektdichteprozess
19
Quality Gates sind eine Methodik zur Absicherung von Prozessketten, bei der ein komplexer Prozess in
verschiedene Abschnitte gegliedert wird. Nach dem Abschluss eines jeden Abschnitts werden dabei
Kontrollpunkte eingefügt, bei denen die Prozessergebnisse hinsichtlich Ziel- oder Qualitätskriterien
überprüft werden (vgl. Schmitt & Pfeifer (2015) S. 588f.).
Prozesserhebung und Analyse 36
Verursachende
Entscheidung über Fertigungsbereich
Anlage
Los treffen informieren
identifizieren
Information an
Fertigungsbereich
gesendet
Klassifizierungs-
fachkraft
Fehler
klassifizieren
Defektdichte
Spezifikations-
verletzung?
Hochautomatisierung
Los erreicht
Quality Gate
nein
die Entscheidung, ob das entsprechende Los trotz Auffälligkeiten für den nächsten
Produktionsabschnitt freigegeben, vorübergehend bis zu einer Entscheidung des zuständigen
Qualitätsingenieurs gestoppt oder verworfen werden muss. Der Fachkraft stehen hierfür ebenfalls
vielfältige Entscheidungshilfen in einer Datenbank zur Verfügung. Zur Entscheidungsfindung
kann die Fachkraft beispielsweise auch ein erneutes Review oder eine Materialanalyse der
entdeckten Defekte veranlassen. In den entsprechenden Entscheidungshilfen finden sich ebenfalls
Hinweise auf den fehlerverursachenden Anlagentyp, sodass die Defektdichtefachkraft mittels
Loshistorie eine verdächtige Anlage bzw., wenn möglich, die fehlerverursachende
Anlageneinheit identifizieren kann. Zum Abschluss des Defektdichteprozesses werden die
ermittelten Informationen an den jeweiligen Fertigungsbereich gemeldet, wo das prozess- und
anlagenspezifische Wissen liegt.
In den einzelnen Fertigungsbereichen von IFD stellt sich bei Eingang einer Defektdichtemeldung
die Frage, wie die Informationen zur Fehlerbehebung an der verdächtigten Anlage genutzt werden
können. Aus Prozesssicht sind die einzelnen Fertigungsbereiche damit als Kunden des
vorgelagerten Defektdichteprozesses anzusehen, für die von der Defektdichteabteilung eine
Leistung in Form von Informationen zu detektierten Auffälligkeiten an einer Produktionsanlage
erzeugt wird. Im Unterschied zum Defektdichteprozess steht jedoch nicht die Produktqualität des
Fertigungsloses, sondern die Fertigungsqualität der Produktionsanlagen und deren Fehlverhalten
im Mittelpunkt. Der Prozess nach Defektdichtemeldung ist als Schnittstelle zwischen der
Produktionsqualitätskontrolle und der Anlageninstandhaltung im Produktionssektor des
Industriebetriebs einzuordnen (vgl. Mertens (2013) S. 232ff.). Es handelt sich um einen
Unterstützungsprozess, der im engeren Sinne nicht wertschöpfend ist. Der Prozess ist jedoch
notwendig, um das Qualitätsniveau der wertschöpfenden Fertigungsschritte aufrechtzuerhalten
und zu sichern.
Das übergeordnete Ziel des Prozesses nach Defektdichtemeldung ist die Sicherstellung eines
hohen Qualitätsniveaus auffälliger Fertigungsanlagen bei gleichzeitiger Gewährleistung einer
hohen Produktivität durch eine hohe Maschinenverfügbarkeit. Dies sind konkurrierende
Zielsetzungen, da Aktivitäten zur Aufrechterhaltung der Fertigungsqualität wie
Instandhaltungsmaßnahmen in der Regel die Verfügbarkeit der Anlagen für wertschöpfende
Prozesse senken und daher negative Auswirkungen auf die Produktivität haben. Allerdings sind
entsprechende Maßnahmen unumgänglich, um beispielsweise Folgekosten durch Ausschuss zu
vermeiden. Der untersuchte Prozess befindet sich folglich im Spannungsfeld der drei
Produktionszielgrößen Qualität, Kosten und Zeit.
über die Problemsituation und leitet unter Verwendung von anlagenspezifischem Wissen und
technologischem Knowhow bezüglich der jeweiligen Produktionsprozesse die Auswahl einer
Maßnahme zur Qualitätssicherung ab. Die geschilderten Charakteristika entsprechen den in
Kapitel 2.2.2 erläuterten Merkmalen einer Entscheidungssituation. Beim Prozess nach
Defektdichterückmeldung handelt es sich folglich um einen Entscheidungsprozess.
Prozessname
Prozess nach Defektdichtemeldung
Prozessverantwortlicher
Prozessingenieur und Anlagenexperte des Fertigungsbereichs
Startsignal Aufgaben Ergebnis
Eingang einer • Verarbeitung der gemeldeten Anlage für Fertigungs-
Defektdichtemeldung Informationen und Ableiten prozesse freigegeben
von Maßnahmen
Input • Durchführung von Output
Qualitätssicherungs-
Defektdichteinformationen maßnahmen an der Qualitätsniveau der Anlage
betreffenden Anlage gesichert
• Kontrolle der Maßnahmen
Lieferant (Input) • Durchführen der Kunde (Output)
Anlagenfreigabe
Fachkraft Defektdichte Fertigungsprozesse des
Fertigungsbereichs
Verantwortlich für den Prozess sind die entsprechenden Prozessingenieure und Anlagenexperten
in den Fertigungsbereichen. Sie verfügen über das notwendige technologische und
anlagenspezifische Wissen zur Beurteilung der verschiedenen Fehlerbilder. Aus diesem Grund
legen sie die Aufgaben der Fachkraft für jede konkrete Problemsituation in
Handlungsanweisungen fest. Diese werden als Entscheidungshilfen in einer
bereichsübergreifenden, webbasierten Entscheidungshilfedatenbank gespeichert und können von
der Fachkraft in der Fertigung über einen mit dem Firmennetz verbundenen Computer abgerufen
werden. Die einzelnen Entscheidungshilfen beziehen sich nicht nur auf den Umgang mit
Meldungen der Defektdichteabteilung, sondern dienen als allgemeine Grundlage in der Fertigung
für den Umgang mit Problemen und Abweichungen vom Sollprozess. Beispielsweise wird die
Prozesserhebung und Analyse 39
Die Fachkraftmitarbeiter der Fertigungsabteilungen sind die Aufgabenträger der Aufgaben des
Entscheidungsprozesses. Sie treffen die Entscheidungen für bestimmte Maßnahmen im engeren
Sinne nicht selbstständig, sondern arbeiten die von Prozess- und Anlagenexperten definierten
Handlungsanweisungen ab. Das Vorhandensein von allgemeinen Vorschriften zum
Entscheidungsverhalten in unterschiedlichen Situationen deutet bereits auf die
Automatisierbarkeit der Entscheidungsaufgaben hin. Weiterhin wird auf diese Weise
gewährleistet, dass unterschiedliche Aufgabenträger in ähnlichen Entscheidungssituationen
gleich entscheiden. Die Entscheidungshilfen sind daher ein wichtiges Element, um den hohen
Qualitätsanforderungen in der Halbleiterfertigung gerecht zu werden.
Startpunkt des Prozesses bildet der Eingang einer Defektdichtemeldung im Fertigungsbereich als
Ergebnis des oben charakterisierten Defektdichteprozesses. Die im Defektdichteprozess
ermittelten Informationen zu Qualitätsabweichungen sind der Input des Prozesses nach
Defektdichtemeldung. Er wird von der Fachkraft der Defektdichteabteilung durch das Senden der
Meldung geliefert.
Bei der Analyse der Inputinformationen fällt auf, dass diese einheitlich via E-Mail-Nachricht an
die Fertigungsbereiche gesendet werden. Hierfür stehen in der Defektdichteabteilung für jeden
einzelnen Defekttyp E-Mail-Vorlagen zur Verfügung, die von der Defektdichtefachkraft mit den
ermittelten fallspezifischen Informationen ergänzt und an die Fachbereiche übermittelt werden.
In Anhang A2 ist beispielhaft eine E-Mail-Vorlage für die Defektdichtemeldung an den
Fertigungsbereich Chemisch-Mechanisches Polieren dargestellt. Auffällig ist, dass sich die
einzelnen E-Mail-Vorlagen in ihrer Struktur oft unterscheiden. Jedoch gleichen sich die
übermittelten Informationen. Sie lassen sich in die drei Kategorien allgemeine Losdaten,
Defektdaten und Daten zur verdächtigten Anlage unterteilen. Tabelle 4 zeigt die gruppierten
Inputparameter für den Prozess nach Defektdichtemeldung. Die weiteren Informationen zum
Fehlerbild und zur verdächtigten Anlageneinheit werden nur übermittelt, wenn weitere
Analyseergebnisse wie beispielsweise eine Materialanalyse von Partikeln oder die entsprechende
Korrelation zu einer Anlageneinheit vorliegen. Der Fokus der Untersuchungen der vorliegenden
Arbeit liegt auf Defektdichtemeldungen, die sich auf Produktlose beziehen. Die Information, ob
es sich bei dem auffälligen Los um ein Freigabelos handelt, wird im Folgenden nicht
vordergründig betrachtet.
Das Ergebnis bzw. der Output des Prozesses ist die für die Fertigungsprozesse freigegebene
Anlage, deren Qualitätsniveau durch den Prozess gesichert wurde. Die Kunden des Prozesses sind
daher die Fertigungsbereiche selbst, da der Prozess die anforderungsgerechte Ausführung der
Fertigungsprozesse für die Anlagen des Fertigungsbereichs gewährleistet.
Die Prozessleistung bzw. die Aufgaben des Prozesses bestehen in der Verarbeitung der
Defektdichteinformationen und dem Ableiten von Maßnahmen zur Sicherung der
Fertigungsqualität, der Durchführung dieser Maßnahmen, der Kontrolle der Maßnahmen sowie
der Freigabe der verdächtigten Anlage. Art und Umfang der Maßnahmen sind sehr stark von der
Prozesserhebung und Analyse 40
Kategorie Parameter
Allgemeine Losdaten Losnummer
Arbeitsplan
Prozessoperation
Defektdichteoperation
Freigabelos (ja/nein)
Defektdaten Detektiertes Fehlerbild (verbale Beschreibung)
Weitere Informationen zum Fehlerbild (optional)
Betroffene Wafer
Link zur Wafer-Map
Link zur Defektdichte-Entscheidungshilfe
Daten zur verdächtigten Anlage Verdächtigte Anlage
Verdächtigte Anlageneinheit (optional)
Ein Teil der Aufgaben lässt sich gemäß den Stufen der Informationsverarbeitung in einem
Entscheidungsprozess nach Parasuraman et al. (2000) einordnen (vgl. Kapitel 2.2.3). So führt die
Fachkraft zunächst Aufgaben der Informationserfassung und -analyse durch. Im Anschluss wird
eine Entscheidung bezüglich einer einzuleitenden Maßnahme zur Qualitätssicherung für die
jeweilige Anlage getroffen. Gemäß der vierten Stufe der Informationsverarbeitung wird die
Maßnahme daraufhin ausgeführt. Aufgrund der hohen Qualitätsanforderungen in der
Halbleiterfertigung ist das für allgemeine Entscheidungsprozesse entwickelte Vierstufen-Modell
nach Parasuraman et al. (2000) jedoch um zwei qualitätsspezifische Stufen zu erweitern. Dazu
erfolgt nach der Ausführung der Maßnahme die Kontrolle der durchgeführten Maßnahme in
einem fünften Schritt, bei der die Wirksamkeit hinsichtlich der Behebung des aufgetretenen
Qualitätsproblems überprüft wird. Auf der letzten Stufe des Entscheidungsprozesses erfolgt die
Freigabe der Fertigungsanlage für die wertschöpfenden Fertigungsprozesse.
Damit ergeben sich sechs Stufen zur Systematisierung der Aufgaben des Entscheidungsprozesses
nach Defektdichtemeldung. In Abbildung 17 sind diese sechs Stufen im Prozessverlauf
dargestellt. Sie werden nicht notwendigerweise vollständig durchlaufen. So kann das Ergebnis
der dritten Stufe das Entscheiden für keine Maßnahme an der entsprechenden Anlage sein, da der
Vorfall nicht als kritisch für die Fertigungsqualität der Anlage betrachtet wird. In diesem Fall
werden lediglich die Stufen I, II und III des Entscheidungsprozesses durchlaufen. Weiterhin
können im Prozess nach Defektdichtemeldung Rückkopplungen auftreten, sodass die Stufen der
Informationsverarbeitung nicht immer chronologisch abgearbeitet werden. Ergibt die Kontrolle
Prozesserhebung und Analyse 41
der Maßnahme beispielsweise negative Resultate, erfolgt ein Rücksprung zur Phase der
Informationsanalyse, in der die Entscheidungssituation neu bewertet wird. Für die Freigabe der
Anlage ist eine ähnliche Rückkopplung im Falle negativer Ergebnisse vorgesehen.
Maßnahme
notwendig?
III
I II
Entscheidung und
Informations- Informations- nein
Auswahl der
erfassung analyse
Maßnahme
Defektdichte- Anlage
meldung freigegeben
ja
erhalten
IV
Ausführung der
Maßnahme
V
Kontrolle der
Maßnahme
nein ok?
ja
VI
Freigabe
nein ok? ja
Anlage
freigegeben
3.4.1 Fertigungsprozess
Der erste Fertigungsbereich für die Detailanalyse des Prozesses nach Defektdichtemeldung ist
das Chemisch-Mechanische Polieren (CMP). Hier wird in mechanischen Schleifverfahren mit
Polierkörnern und chemischen Zusätzen Material von der Scheibenoberfläche abgetragen.
CMP-Techniken werden häufig nach Beschichtungsverfahren eingesetzt, welche geringe
Konformitäten bezüglich der Dicke der abgeschiedenen Schichten an Kanten- bzw.
Stufenstrukturen aufweisen. Solche unebenen Strukturen führen beispielsweise bei
Metallisierungsschichten zu erhöhten Stromdichten und unerwünschter Elektromigration, die
Leiterbahnen vorzeitig altern lassen. Mittels CMP werden solche Unebenheiten vor der
Weiterbearbeitung der Wafer großflächig planarisiert. Typischerweise werden so
Metallisierungsschichten aus Kupfer, Tantal oder Wolfram, Dielektrika wie Siliziumdioxid und
Polysiliziumschichten abgetragen. Der CMP-Prozess unterscheidet sich je nach Anwendung. Da
der Materialabtrag mithilfe aktiver chemischer Komponenten erfolgt, wird CMP teilweise auch
Prozesserhebung und Analyse 42
als Ätztechnik bezeichnet (vgl. Göbel (2014) S. 360; Hilleringmann (2014) S. 122ff.).
Abbildung 18 zeigt schematisch den Aufbau einer CMP-Anlage nach dem in der Praxis
verbreiteten Rotationspolierprinzip. Hierbei ist der Wafer mit der abzutragenden Schicht an einem
rotierenden Polierkopf befestigt, der die Scheibenoberfläche mit Druck gegen eine sich drehende
Polierscheibe presst. Auf diese Weise wird mechanisch Material von der Scheibenoberfläche
abgetragen. Für einen gleichmäßigen Materialabtrag führt der Polierkopf neben der Rotation
zusätzlich eine oszillierende Bewegung in radialer Richtung aus. Die Polierscheibe besteht aus
dem Polierteller und dem darauf befestigten Poliertuch, welches abnutzbar ist und gelegentlich
ausgetauscht werden muss. Dem Prozess werden kontinuierlich Wasser und eine chemische
Lösung als Schleifmittel zugeführt, welches durch die Rotation der Polierscheibe zum Polierkopf
transportiert wird. Neben der Realisierung des chemischen Materialabtrags, sorgt das
Schleifmittel auch für die Aufnahme und Verdünnung des abgetragenen Materials. Darüber
hinaus wird das Poliertuch permanent durch die Diamantspitzen des mitlaufenden Konditionierers
aufgeraut. Durch die Aufrechterhaltung der Rauigkeit des Tuchs soll die Abtragrate über die
Nutzungsdauer konstant gehalten werden. Neben den Rotationspolieranlagen existieren
Orbitalpolierer, bei denen Polierkopf und Polierscheibe Orbitalbewegungen ausführen und das
Schleifmittel in der Regel über den Polierkopf zugeführt wird (vgl. Hilleringmann (2014) S. 125;
Tsujimura (2008) S. 57).
Wasser Lösung
Polierkopf
Konditionierer
Diamant
Wafer
Poliertuch
Polierscheibe Polierteller
Im Hinblick auf die Verursachung von Defekten spielen verschiedene Faktoren des
CMP-Prozesses eine Rolle. Entscheidend ist die Materialart der abzutragenden Schicht, da diese
die Art der Durchführung des CMP-Prozesses stark beeinflusst. Allgemein lassen sich
CMP-Defekte in Partikel, Rückstände, Kratzer und Korrosionsdefekte unterteilen. Da beim
Materialabtrag notwendigerweise Partikel in Form des abgetragenen Materials entstehen, gilt
CMP als vergleichsweise dreckiger Prozess und als eine Hauptquelle für Partikel. Auch
nachgelagerte Reinigungsschritte können Restpartikel nicht immer vollständig beseitigen. Neben
diesen Partikeln können auch Rückstände des Schleifmittels an der Scheibenoberfläche bzw. in
Öffnungen verbleiben. Darüber hinaus sind die Eigenschaften der Polierscheibe Einflussfaktoren
für Defekte auf den Wafern. Eine zu harte Polierscheibe kann beispielsweise Kratzer auf den
Wafern erzeugen. Kratzer auf der Scheibenoberfläche werden zudem durch die Bürsten, welche
während der Reinigungsschritte nach dem eigentlichen CMP-Prozess eingesetzt werden, oder
durch Handhabungsroboter verursacht. Beim Abtrag metallischer Schichten, insbesondere bei
reaktionsfreudigen Kupferebenen, können zudem Korrosionsdefekte auftreten. Ursache hierfür
sind Komponenten der Schleifmittellösung, die die Materialschicht chemisch angreifen (vgl.
Hilleringmann (2014) S. 126; Lefevre (2008) S. 511ff.).
Der Automatisierungsgrad des Prozesses ist gering. Der Prozess wird zwar elektronisch durch
eine E-Mail-Nachricht angestoßen, die eigentliche Vorgangsauslösung und die
Aktionensteuerung der einzelnen Aktivitäten übernimmt jedoch die Fachkraft. Obwohl der
Prozess inhaltlich gut strukturiert und dokumentiert ist, werden der Fachkraft viele Freiheiten
hinsichtlich des Prozessablaufs gelassen. Die Festlegung, wann welche Aktion durchzuführen ist,
ist inhaltlich durch die Entscheidungshilfen bestimmt, die praktische Auslösung der Aufgabe und
die Aktionensteuerung liegt aber bei der Fachkraft. Die Folge sind Ineffizienzen bei der
Prozessausführung durch unterschiedliche Herangehensweisen in der Praxis, die je nach
Prozessinstanz und ausführendem Mitarbeiter variieren. Dabei wird der Prozess häufig als eine
individuelle, kausale Problemeingrenzung und -bestimmung anstatt der Abarbeitung einer
festgelegten Aufgabensequenz betrachtet. Eine weitere Gefahr der personellen
Vorgangsauslösung und Aktionensteuerung sind Unterschiede in der Prozessqualität, die sich
letztlich negativ auf die Fertigungsqualität und damit auf die Ausbeute auswirken können.
Prozesserhebung und Analyse 44
Die Durchführung der Aufgaben wird ebenfalls größtenteils von der Fachkraft als personeller
Aufgabenträger ausgeführt, wobei sie bei der Abarbeitung der Aufgaben von verschiedenen
Informationssystemen unterstützt wird. Die Analyse der Aktionen ergibt auch hier, dass
Ineffizienzen vorhanden sind. Die Vielzahl an unterschiedlichen Informationssystemen im
Prozess führt beispielsweise zu System- und Medienbrüchen. Viele Aktivitäten dienen dem
Zusammentragen von Informationen und Daten, die bereits bekannt und in verschiedenen
Informationssystemen der Fertigung gespeichert sind. Zum Teil werden auch Informationen von
einem Informationssystem händisch in ein anderes Informationssystem übertragen, wodurch
Datenredundanzen entstehen. Die in den Aufgaben ermittelten Informationen bilden die
Grundlage für die Auswahl einer Handlungsalternative, die für eine bestimmte
Entscheidungssituation vorgegeben sind. Die Entscheidungstiefe der Fachkraft ist
dementsprechend gering. Im Folgenden werden die Aufgaben der Fachkraft anhand der
identifizierten sechs Stufen im Prozess nach Defektdichtemeldung näher beschrieben. Tabelle 5
zeigt eine Übersicht über die den Stufen zugeordneten Beispielaufgaben.
Stufe I: Informationserfassung
Mit den Aufgaben der Stufe der Informationserfassung werden die von der Defektdichte
gemeldeten Informationen von der CMP-Fachkraft erfasst. Hierzu zählen zunächst Aufgaben wie
das Öffnen, Lesen und Verstehen der E-Mail-Nachricht. Die Fachkraft öffnet den Link zur
Wafer-Map und betrachtet die Fotos zu den gemeldeten Defekten. Darüber hinaus fallen auf der
ersten Stufe Aufgaben zur Dokumentation des Prozesses nach Defektdichtemeldung an. Dafür
existiert im Fertigungsbereich CMP eine eigene Datenbank zur Protokollierung von
Defektdichtemeldungen, die neben der Dokumentation der Prozessausführung auch der
Prozessüberwachung dient. Für jede Defektdichtemeldung ist ein Datenbankeintrag von der
Fachkraft zu erstellen. Dazu öffnet die Fachkraft ein Template, in welches die Informationen aus
der Defektdichtemeldung hineinkopiert werden. Über das Template wird an unterschiedlichen
Stellen im Prozess zudem der aktuelle Auftragsstatus aktualisiert. In der Praxis wird bei Eingang
der Defektdichtenachricht darüber hinaus häufig eine Plausibilitätsprüfung hinsichtlich der
Relevanz der Meldung für den Fertigungsbereich CMP durchgeführt. Hierzu wird zum Teil auch
Rücksprache mit der Fachkraft der Defektdichteabteilung gehalten.
Die Aufgaben auf der Stufe der Informationserfassung dienen dem Nachvollziehen und dem
Dokumentieren der Defektdichtemeldung. Insbesondere die Dokumentationsaufgaben sind nicht
zwingend für die Bearbeitung des Prozesses notwendig, da sie nicht zu einem
Informationsgewinn beitragen und keinen Nutzen für die Bearbeitung der jeweiligen Meldung
generieren. Es fallen jedoch Personalkosten für die Fachkraft an, die während der Ausführung der
Aufgaben keine anderen Aufgaben erledigen kann. Obwohl die Aufgaben nicht nutzenbringend
sind, wird während der Beobachtungen festgestellt, dass die Fachkraft viel Zeit mit deren
Ausführung verbringt. Dadurch wird die Prozessdurchlaufzeit unnötig verlängert. Bei den
Dokumentationsaufgaben entstehen weitere Ineffizienzen in Form von Systembrüchen und
Datenredundanzen, da die Informationen aus der Defektdichtemeldung im Wesentlichen in die
Datenbank kopiert werden.
Prozesserhebung und Analyse 45
Das weitere Vorgehen bei der Informationsanalyse ist abhängig von der im konkreten Fall
vorliegenden Entscheidungssituation. Die Abarbeitung der Aufgaben ist für jede allgemeine
Entscheidungssituation entscheidungsbaumartig im Sinne einer Handlungsanweisung aufbereitet.
Je nach Situation sind für die Auswahl einer Maßnahme noch weitere Entscheidungskriterien zu
ermitteln. Hierzu zählt die Bestimmung der Fehlerhäufigkeit. Ausschlaggebend dafür ist die
Anzahl auffälliger Lose mit gleichem Fehlerbild an der jeweiligen Anlage sowie die Anzahl der
betroffenen Wafer innerhalb eines Loses. Die Häufigkeit ist meist über einen Zeitraum von
24 Stunden zu ermitteln. Für die Bestimmung der Anzahl auffälliger Lose nutzt die Fachkraft eine
Webansicht auf die Datenbank für Defektdichtemeldungen, die die im Rahmen der
Dokumentationsaufgaben erstellten Einträge visualisiert und somit einen Überblick über aktuelle
Qualitätsprobleme an den verschiedenen Fertigungsanlagen bietet. Weitere Einflussfaktoren für
die Entscheidung ergeben sich im Zusammenhang mit bereits eingeleiteten
Qualitätssicherungsmaßnahmen. So ist die Auswahl einer Maßnahme abhängig von den
Ergebnissen bereits durchgeführter Maßnahmen an der betreffenden Anlage. Die CMP-Fachkraft
findet diese Angaben ebenfalls in der Webansicht auf die Datenbank, da hier entsprechende
Aktionen dokumentiert werden.
Am Ende der zweiten Stufe ist die konkrete Entscheidungssituation soweit spezifiziert, dass die
Auswahl einer Maßnahme gemäß der Entscheidungshilfe erfolgen kann. Die Aufgaben sind daher
wertbringend bzw. nutzenstiftend in dem Sinne, dass sie den Prozess der
Informationsverarbeitung der Defektdichtemeldung vorantreiben. Allerdings treten bei der
personellen Durchführung der Aufgaben Ineffizienzen auf. Beispielsweise handelt es sich bei den
Aufgaben zur Ermittlung der Fehlerhäufigkeit um einfache Tätigkeiten, die der Beschaffung von
bereits in Informationssystemen vorhandenen Informationen dienen. Bei der personellen
Durchführung kommt es zu Systembrüchen, da die Fachkraft beispielsweise zur Webansicht der
Datenbank wechseln muss. Die manuelle Abfrage der Häufigkeiten verlängert die Durchlaufzeit
des Prozesses und verursacht dadurch unnötige Kosten. Hinsichtlich Qualitätsaspekten besteht
bei manuell ausgeführten Aufgaben der Informationsanalyse die Gefahr von Fehlinterpretationen,
beispielsweise bei der Zuordnung der Daten eines konkreten Problemfalls zu einer allgemeinen
Entscheidungssituation. Bei den Beobachtungen in der Praxis fällt darüber hinaus auf, dass die
Handlungsanweisungen in den Entscheidungshilfen teilweise gar nicht zurate gezogen werden.
Stattdessen erfolgt die Bearbeitung der Defektdichtemeldung anhand von subjektiven
Erfahrungswerten. Vor dem Hintergrund der hohen Qualitätsanforderungen in der
Halbleiterfertigung stellt dies ein erhebliches Risiko dar.
Auf der dritten Stufe im Prozess nach Defektdichtemeldung trifft die Fachkraft eine Entscheidung
und wählt eine Maßnahme zur Sicherung der Fertigungsqualität an der betreffenden Anlage aus.
Da in den Entscheidungshilfen die durchzuführenden Maßnahmen für jede
Entscheidungssituation von den Prozessverantwortlichen festgelegt wurden, trifft die Fachkraft
die Entscheidung nicht selbst, sondern wendet die festgelegte Auswahl einer Maßnahme auf den
konkreten Fall an. Für jede Entscheidungssituation sind in den Entscheidungshilfen Regeln mit
Bedingungsteil und zugeordneten Maßnahmen definiert. Es handelt sich daher um eine
Prozesserhebung und Analyse 47
Die Aufgaben der Fachkraft auf der vierten Stufe im Prozess nach Defektdichtemeldung beziehen
sich auf die Ausführung der abgeleiteten Qualitätssicherungsmaßnahmen an der verdächtigten
Anlage. Sie lassen sich grob in folgende fünf Arten unterteilen, wobei in manchen Situationen
gleichzeitig mehrere Alternativen durchzuführen sind:
Keine Maßnahme,
Anlage oder Anlageneinheit sperren,
Vorgänger- und Folgelose zur Defektdichteinspektion schicken,
Prozessverantwortlichen kontaktieren und
Instandhaltung informieren.
Ergibt die Abarbeitung der Entscheidungshilfen, dass in der konkreten Problemsituation keine
Maßnahmen durchzuführen sind, ist der Prozess an dieser Stelle beendet. Der
Prozessverantwortliche stuft die entsprechenden Defektdichtemeldungen nicht als kritisch für das
Qualitätsniveau der Anlage ein. Die Anlage ist trotz der Meldung weiterhin für die
Fertigungsprozesse zugelassen. Obwohl im engeren Sinne keine Maßnahme ausgeführt wird,
wird dieser Fall der vierten Stufen des Prozesses zugeordnet. Für die Fachkraft fallen
Dokumentationsaufgaben an, da sie eine entsprechende Notiz in der Datenbank verfassen und die
Defektdichte-E-Mail im E-Mail-Programm archivieren muss. Hierbei handelt es sich um
zusätzliche Aufgaben, die die Prozessdurchlaufzeit unnötig verlängern, da sie durchgeführt
werden, obwohl das Problem bereits gelöst wurde.
Sind die Informationen der Defektdichtemeldung als kritisch bezüglich des Qualitätsniveaus der
Fertigungsanlage einzustufen, hat die Fachkraft zunächst die Sperrung der betroffenen Anlage
bzw. Anlageneinheit zu veranlassen, um weitere Einbußen bei der Fertigungsausbeute an der
fehlerhaften Anlage zu vermeiden. Der Fachkraft steht dazu ein IT-Tool zur Verfügung, mit dem
sie über eine Nachricht in das Fertigungsmanagementsystem eingreifen und der verdächtigen
Anlage einen Status der Nichtverfügbarkeit zuweisen kann. Dadurch wird vom
Fertigungsmanagementsystem kein zusätzliches Los zur Bearbeitung an die auffällige Anlage
geschickt. Eine weitere Maßnahme ist das Entsenden der Vorgänger- und Nachfolgerlose des
auffälligen Loses zur Defektdichteinspektion. Es handelt sich hierbei ebenfalls um Aufgaben, bei
denen von der Fachkraft Nachrichten an das Fertigungsmanagementsystem gesendet werden.
Zuvor muss die Fachkraft die entsprechenden Vorgänger- und Nachfolgerlose ermitteln. Beide
Maßnahmen sind aufgrund der hohen Qualitätsanforderungen an die Produkte der
Halbleiterindustrie zwingend notwendig. Nichtsdestotrotz entstehen bei der personellen
Durchführung dieser Maßnahmen Kosten und die Aufgaben verlängern die Durchlaufzeit des
Prozesses. Da sich bei den Maßnahmen im Wesentlichen um einfache Befehle an das
Fertigungsmanagement handelt, lassen sich die Aufgaben durch automatisches Senden einer
entsprechenden Nachricht gut automatisieren. Das Ermitteln der Vorgänger- und Nachfolgerlose
bezieht sich auf die Abfrage von Informationen, die bereits in Informationssystemen vorhanden
Prozesserhebung und Analyse 48
sind und ist ebenfalls automatisierbar. Die personelle Durchführung dieser Aufgaben nimmt viel
Zeit in Anspruch und führt zu Systembrüchen. Eine Automatisierung der Aufgaben bringt folglich
Effizienzgewinne hinsichtlich der Durchlaufzeit. Darüber hinaus werden die Prozesskosten
gesenkt, da beim maschinellen Aufgabenträger keine Personalkosten anfallen.
Eine weitere mögliche Maßnahme auf der vierten Stufe im Prozess nach Defektdichtemeldung ist
das Kontaktieren des Prozessverantwortlichen. Dies ist insbesondere bei Spezialfällen oder bei
besonders kritischen Defekten auf den Wafern notwendig. Da ausschließlich der
Prozessverantwortliche über das zur Beurteilung notwendige Wissen verfügt und darüber hinaus
die Verantwortung für die Qualität der CMP-Fertigungsprozesse trägt, entscheidet er über das
weitere Vorgehen. Für die Benachrichtigung des Prozessverantwortlichen ist das
Kommunikationsmittel nicht vorgeschrieben, sodass die Fachkraft zwischen E-Mail-Nachricht,
Telefon oder Instant Messaging wählen kann. Das Informieren des Prozessverantwortlichen ist
eine einfache Tätigkeit, deren Automatisierung Durchlaufzeit- und Kostenpotentiale hinsichtlich
der Personalkosten verspricht. Durch die Übergabe an den Prozessverantwortlichen entsteht aus
Prozesssicht ein Organisationsbruch, der Einbußen bei der Durchlaufzeit zur Folge hat, da der
Prozessverantwortliche die Meldung beispielsweise nicht sofort bearbeitet. Aus
Qualitätsgesichtspunkten ist die Übergabe jedoch zwingend notwendig.
Die Übergabe des Problems an die Instandhaltung ist eine weitere Möglichkeit für eine
Maßnahme zur Sicherung des Qualitätsniveaus. In den Entscheidungshilfen ist dazu für jeden
Problemtyp eine Bezeichnung für einen speziellen Instandhaltungsauftrag hinterlegt. Aufgabe der
Fachkraft ist es, einem Instandhaltungsmitarbeiter diese Auftragsbezeichnung und die betroffene
Anlage zu übermitteln. Auch hier ist kein einheitliches Vorgehen für den Kommunikationsweg
festgelegt, in der Praxis wird die Aufgabe jedoch meist mittels Telefon ausgeführt. Die Fachkraft
kann erst mit der Bearbeitung des Prozesses fortsetzen, wenn eine Rückmeldung des
Instandhaltungsmitarbeiters vorliegt. Obwohl die Instandhaltungsaktivitäten ein Teilprozess des
Gesamtprozesses nach Defektdichtemeldung sind, werden sie häufig nicht als Teil des Prozesses,
sondern isoliert betrachtet. So wird in den Entscheidungshilfen, bis auf die Bezeichnung des
Instandhaltungsauftrags, kaum auf die Instandhaltungsaktivitäten eingegangen. Der Grund
hierfür ist, dass an dieser Stelle ein Wechsel der Organisationseinheiten eintritt. Das Vorgehen
für die Instandhaltung wird von den Anlagenexperten des Fertigungsbereichs festgelegt und von
einem Instandhaltungsmitarbeiter ausgeführt.
Aufgrund der hohen Qualitätsanforderungen an die Fertigungsprozesse sind die Aufgaben der
Kontrolle der durchgeführten Maßnahmen zwingend notwendig. Wegen des hohen
Automatisierungsgrads der Halbleiterfertigung beschränken sich die Aufgaben der Fachkraft
jedoch zunächst auf das Senden von Nachrichten an das Fertigungsmanagementsystem bzw. an
die Anlagensteuerung der Fertigungsanlage. Hierbei handelt es sich um einfache Aufgaben, die
leicht formalisiert und automatisiert abgebildet werden können. Sobald Ergebnisse der Kontrollen
vorliegen, werden diese von der Fachkraft bewertet. Dazu muss eine tiefergehende kausale
Analyse der vorhandenen Informationen erfolgen, die sich nur schwer durch maschinelle
Aufgabenträger realisieren lässt.
Regel auf Gleichheit von Produkt, Polierebene und Anlagenrezept zwischen dem Freigabelos und
dem Los der Defektdichtemeldung zu achten. Das Freigabelos ist gemäß den Anforderungen dem
regulären CMP-Fertigungsprozess zu unterziehen. Dazu sendet die Fachkraft eine Nachricht an
das Fertigungsmanagementsystem, welches den Transport des ermittelten Loses zu der
auffälligen Anlage und die Bearbeitung des Loses veranlasst. Grundsätzlich lassen sich die
begleitende und die wartende Anlagenfreigabe unterscheiden. Bei der begleitenden Freigabe ist
die betreffende Anlage bzw. Anlageneinheit nach der Bearbeitung des Freigabeloses für die
Fertigungsprozesse durch eine Nachricht an das Fertigungsmanagementsystem freizuschalten. In
diesem Falle können Produktlose von der Anlage bearbeitet werden, bevor ein
Inspektionsergebnis des Freigabeloses vorliegt. Bei der wartenden Freigabe darf die
Fertigungsanlage erst nach einem spezifikationserfüllenden Ergebnis der Inspektion für
Produktlose freigegeben werden.
Im Anschluss wird das Freigabelos regulär an den im Arbeitsplan vorgesehenen Quality Gates
von der Defektdichte inspiziert. Die Anzahl der dabei zu inspizierenden Wafer ist abhängig vom
aufgetretenen Defekttyp und muss von der CMP-Fachkraft mit angegeben werden. Nach erfolgter
Inspektion meldet die Defektdichte dem Fertigungsbereich das Ergebnis über eine
E-Mail-Nachricht. Die Struktur der Meldung ähnelt den in Kapitel 3.3.2 beschriebenen
Charakteristika einer Erstmeldung zu einer verdächtigten Anlage, wobei ein Vermerk beim
Inputparameter Freigabelos erfolgt. Weist die Defektdichte Defekte auf den Wafern des
Freigabeloses nach, hat die Fachkraft den Vorfall neu zu analysieren und erneut Maßnahmen zur
Qualitätssicherung abzuleiten. Häufig ist in diesem Fall die Sperrung der Anlage und das
Informieren des Prozessverantwortlichen vorgesehen.
Ähnlich wie bei den Aufgaben der fünften Stufe lässt sich ein Teil der Fachkraftaufgaben der
Freigabe gut automatisieren. Dies betrifft die Aufgaben des Ermittelns eines Freigabeloses, das
Starten des Freigabeloses und die Freigabe der Fertigungsanlage, da diese dem Abfragen von
Informationen aus Fertigungssystemen oder dem Senden von Nachrichten entsprechen, die gut
formalisiert werden können. Die Auswertung der Inspektionsergebnisse umfassen Aufgaben, die
zu den Stärken personeller Aufgabenträger zählen, da die Ergebnisse im Kontext aller zur
Defektdichtemeldung bekannten Informationen bewertet werden.
3.5.1 Fertigungsprozess
Die Lithografie (LIT) bildet die Grundlage für die weitere Bearbeitung und Strukturierung der
Wafer in der Halbleiterfertigung. Lithografische Prozesse werden für jede Schicht bei der
Fertigung von integrierten Schaltungen benötigt und verursachen rund ein Drittel der
Fertigungskosten in der Frontendfertigung (vgl. Hibbs (2007) S. 5f.; Ziller (2011) S. 282).
der Belichtung mittels optischer Techniken Strukturen projiziert. Die Strukturen befinden sich
auf einer Fotomaske aus Quarzglas, welche an den Stellen, die lichtundurchlässig sein sollen, mit
Chrom beschichtet ist. Durch die Belichtung wird der Fotolack aktiviert, wobei je nach Art des
Lacks unterschiedliche chemische Vorgänge stattfinden. Bei Positivlacken werden die belichteten
Bereiche löslich gemacht, wohingegen Negativlacke durch die Lichteinwirkung quer vernetzt und
gehärtet werden. Hierbei wird eine Entwicklerlösung aufgetragen, die lösliche Teile des Fotolacks
herauswäscht und so eine Lackstruktur erzeugt. Im Falle eines Positivlacks bleiben die
unbelichteten Bereiche erhalten, sodass an der Waferoberfläche ein Abbild der Maske entsteht.
Bei Negativlacken werden die unbelichteten Bereiche gelöst, sodass die belichteten Gebiete an
der Waferoberfläche haften bleiben und somit ein inverses Bild der Fotomaske erzeugt wird. Die
so entstandene Struktur wird im Anschluss in einem Umluftofen gehärtet. Durch die
Strukturierung des Fotolacks kann in weiteren Verfahren selektiv in bestimmten Bereichen auf
dem Wafer beispielsweise Material abgetragen oder Fremdionen zur Dotierung implantiert
werden (vgl. Göbel (2014) S. 361; Hilleringmann (2014) S. 33f.; Ziller (2011) S. 282f.).
Maske
Fotolack
Silizium Silizium Silizium
Zur Umsetzung dieses technologischen Prozessablaufs werden in der Lithografie mit dem
Belackungs-, dem Belichtungs- und dem Entwicklungssystem drei Anlagensysteme benötigt. Zur
Reduzierung der Warte- und Transportzeiten existieren komplexe lithografische Clusteranlagen,
die Belackungs-, Belichtungs- und Entwicklungssystem miteinander integrieren. Entsprechende
Anlagen werden mit unstrukturierten Wafern beladen, die im Anschluss automatisiert und von
einer Steuereinheit gesteuert belackt, belichtet und entwickelt werden. Die Handhabung der
Wafer zwischen Belackung und Belichtung, sowie zwischen Belichtung und Entwicklung
übernehmen interne Roboter (vgl. Madou (2011) S. 66).
Ähnlich wie im Fertigungsbereich CMP ist der Prozess nach Defektdichtemeldung in der
Lithografie inhaltlich gut aufbereitet und strukturiert. Im Fertigungsbereich LIT wird die
bereichsübergreifende Entscheidungshilfedatenbank jedoch nicht verwendet. Stattdessen existiert
mit dem LIT-Fehlerkatalog eine eigene Datenbank auf Oracle-Basis zur Aufbereitung des
Wissens über Defekte an verschiedenen Anlagentypen. Über eine grafische Benutzeroberfläche
greift die Fachkraft auf diese Datenbank zu, in der alle im Fertigungsbereich bekannten
Defektarten strukturiert aufgeführt sind. Zum Zeitpunkt der Analysen sind in der Datenbank
insgesamt 137 verschiedene Defektsituationen beschrieben. Die Fachkraft hat die Möglichkeit
einen spezifischen Defekt über bestimmte Filterkriterien zu ermitteln. Hierzu zählen der
Defektobertyp, der Defektuntertyp, zugeordnete Arbeitspläne und die Clustergruppe, die dem
Anlagentyp entspricht. Für jeden Defekt sind in der Datenbank weitere Erläuterungen,
Besonderheiten und Beispielbilder hinterlegt und über die Benutzeroberfläche sichtbar. Weiterhin
können über eine Schaltfläche die dem Defekt von den Prozessverantwortlichen aus
Erfahrungswissen zugeordneten Maßnahmen in Textform aufgerufen werden. Diese sind nach
Zuständigkeit in Maßnahmen der Fachkraft, Maßnahmen der Instandhaltung sowie Maßnahmen
zur Anlagenfreigabe unterteilt. Der LIT-Fehlerkatalog erfüllt damit den gleichen
Funktionsumfang wie die Entscheidungshilfen im Fertigungsbereich CMP.
Der Prozess nach Defektdichtemeldung in der Lithografie hat einen eher kausalen Ansatz zur
Lösung der Qualitätsabweichungen mit nur gering ausgeprägtem prozessorientierten Charakter.
Wie im Fertigungsbereich CMP, gibt es in der Lithografie keinen stringenten Weg bei der
20
Bei der Kontaktbelichtung wird die Maske durch atmosphärischen Druck direkt auf die belackte
Halbleiterscheibe gepresst, was zu einer hohen Defektdichte in der Lackebene führt. Alternativ existieren
die Abstandsbelichtung und die Projektionsbelichtung. Die Abstandsbelichtung zeichnet sich durch einen
definierten Abstand zwischen Wafer und Maske aus. Dadurch wird jedoch die Auflösung durch
Beugungseffekte verringert. Aus diesem Grund wurde die Projektionsbelichtung entwickelt, bei der
zusätzlich optische Linsen zwischen Lichtquelle und Maske sowie zwischen Maske und
Scheibenoberfläche eingesetzt werden (vgl. Hilleringmann (2014) S. 39ff.; Ziller (2011) S. 322ff.).
Prozesserhebung und Analyse 53
Abarbeitung des Entscheidungsprozesses. Die Aufgaben der Fachkraft und deren Reihenfolge
sind von vielen verschiedenen Faktoren, insbesondere dem spezifischen Fehlerbild, abhängig. Sie
weisen jedoch gewisse Ähnlichkeiten mit den Aufgaben im CMP-Bereich auf und lassen sich in
die sechs Stufen der Aufgaben des Entscheidungsprozesses klassifizieren. Der
Automatisierungsgrad der Aufgaben ist sehr gering und die Fachkraft hat viele Freiheiten bei der
Ausführung des Prozesses nach Defektdichtemeldung.
Stufe I: Informationserfassung
Nach Eingang einer Defektdichtemeldung hat die Lithografie-Fachkraft die Meldung zunächst zu
verstehen und zu dokumentieren. Dazu wird die E-Mail-Nachricht geöffnet und inhaltlich
nachvollzogen. Unter anderem betrachtet die Fachkraft die während des Review erstellten Fotos
der Defekte und führt eine Relevanzprüfung der Meldung durch. Als Dokumentationswerkzeug
steht in der Lithografie das Anlagenbuch zur Verfügung, welches auf einer Microsoft
Accessdatenbank basiert. Es dient der notizbuchartigen Erfassung von Auffälligkeiten und
Maßnahmen an den Fertigungsanlagen in der Lithografie. Das Anlagenbuch wird als
gemeinsames Hilfsmittel von der Fachkraft und von den Mitarbeitern der Instandhaltung des
Fertigungsbereichs genutzt.
Die Auswahl einer Maßnahme zur Sicherung der Fertigungsqualität an der betreffenden Anlage
ist von den Prozessverantwortlichen der Lithografie im LIT-Fehlerkatalog festgelegt. Sobald die
Defektdichtemeldung einer allgemeinen Entscheidungssituation aus dem LIT-Fehlerkatalog
zugeordnet wurde, trifft die Fachkraft die dort hinterlegte Entscheidung.
Prozesserhebung und Analyse 54
Bevor die Kontrolle der Maßnahmen erfolgen kann, sind die Fertigungsanlagen in der Regel
mittels Rüstvorgängen einzustellen und zu kalibrieren. Beispielsweise wird von der Fachkraft die
Spülung der Clusteranlage veranlasst. Zur Kontrolle der durchgeführten Maßnahmen werden in
der Lithografie sogenannte Clustertests durchgeführt. Hierbei wird die Bearbeitung von
speziellen Testwafern durch eine Nachricht an die Anlagensteuerung gestartet. Die Anzahl der
Testscheiben ist abhängig vom vorliegenden Defektbild und im LIT-Fehlerkatalog hinterlegt.
Anschließend werden die Wafer beispielsweise einer Schräglichtkontrolle zur Bewertung der
Bearbeitungsresultate unterzogen.
Die Freigabe der Anlage erfolgt durch eine Nachricht an das Fertigungsmanagementsystem. Je
nach vorliegender Defektsituation wird entweder davor oder danach eine spezifische Anzahl an
Produktlosen über weitere Nachrichten an das Fertigungsmanagementsystem zur Bearbeitung an
die Lithografie-Anlage geschickt. Die Freigabelose werden im Anschluss einer Inspektion
unterzogen, deren Ergebnisse von der Fachkraft ausgewertet werden müssen.
3.6.1 Fertigungsprozess
Der Bereich Chemical Vapour Deposition (CVD) ist ein Fertigungsbereich in der Halbleiterfabrik
von IFD, in welchem die Wafer mit verschiedenen Materialen beschichtet werden. Das
Grundprinzip des CVD-Fertigungsverfahrens ist das Herbeiführen einer chemischen Reaktion an
der Substratoberfläche, indem ausgewählte Gase bei definiertem Druck und Temperatur über die
Wafer geleitet werden. Auf diese Weise wird ein dünner Materialfilm, beispielsweise
Siliziumoxid oder Siliziumnitrid auf dem Wafer abgeschieden. CVD ist neben dem Aufwachsen
durch thermische Oxidation und physikalischen Abscheideverfahren wie dem Aufdampfen oder
der Kathodenzerstäubung eine Methode der Schichttechnik in der Halbleiterfertigung. Zum
Aufbringen einer Materialschicht wird, wie in Abbildung 20 dargestellt, das schichtbildende
Material mithilfe eines Trägergases in das Reaktionsgefäß geleitet. An der Scheibenoberfläche
werden die chemischen Verbindungen des Gases thermisch zersetzt. Der Wafer dient dabei
lediglich als Trägermaterial für die Anlagerung der zersetzten Atome bzw. Moleküle und nimmt
nicht am Reaktionsprozess teil. Über ein Pumpsystem werden die bei der Reaktion entstehenden
Prozesserhebung und Analyse 55
Chemische
Reaktion
Wafer
Neben wichtigen Prozessparametern wie Gasfluss, Temperatur und Druck wird die
Fertigungsqualität und Ausbeute des CVD-Prozesses durch verschiedene anlagenbezogene
Faktoren beeinflusst. Im Vergleich zu der rein thermisch aktivierten Gasphasenabscheidung sind
plasmaunterstützte CVD-Verfahren relativ partikelarm. Dennoch können durch defekte Teile der
Fertigungsanlage Verunreinigungen und Partikel hervorgerufen werden. Defekte in der
Gasaufbereitung oder nicht ordnungsgemäß funktionierende Vakuumpumpen sind beispielsweise
mögliche Verursacher von Fremdpartikeln. Entsprechende Verunreinigungen und
Kontaminationen können zur Einbettung von Fremdmaterial oder Veränderungen der
Materialeigenschaften der abgeschiedenen Dünnschicht führen. Folgen sind beispielsweise
Unregelmäßigkeiten der Kristallstruktur oder mechanische Spannungen im Material durch zu
starke thermische Belastung. Ein weiterer unerwünschter Effekt von Partikeln ergibt sich aus der
Tatsache, dass durch sie möglicherweise Teile des Reaktionsgases gebunden werden.
Unerwünschte Defekte auf den Scheiben können darüber hinaus auch durch sich während des
Fertigungsprozesses bildende Ablagerungen an den Reaktorwänden entstehen, die sich lösen und
auf der Waferoberfläche niederschlagen. (vgl. Allendorf et al. (2008) S. 141; Franssila (2010) S.
435; Hilleringmann (2014) S. 107; Krumdieck (2008) S. 38f.).
Prozesserhebung und Analyse 56
Im Gegensatz zu den Fertigungsbereichen CMP und LIT ist der Prozess nach
Defektdichtemeldung wenig strukturiert. In der webbasierten Entscheidungshilfedatenbank sind
zwar Entscheidungshilfen für unterschiedliche Arten von Defektdichtemeldungen angelegt,
allerdings werden beim Aufbau der Entscheidungshilfen von den Fertigungsingenieuren des
Bereiches teils sehr unterschiedliche Ansätze gewählt. Die Folge sind sehr heterogene
Handlungsanweisungen mit unterschiedlichen Aufgaben für verschiedene
Defektdichtemeldungen, die einen stark technologisch geprägten Charakter haben. Die Defekte
werden häufig nur textuell beschrieben, Beispielfotos für einen optischen Vergleich der
Defektbilder einer speziellen Meldung mit allgemeinen Defekttypen fehlen.
Stufe I: Informationserfassung
In der Phase der Informationsanalyse hat die CVD-Fachkraft die Aufgabe, die für die
Defektdichtemeldung relevante Entscheidungshilfe in der Entscheidungshilfedatenbank zu
ermitteln. Dazu kann die Fachkraft die Entscheidungshilfen für den Bereich CVD über die die
Defektdichtemeldung betreffende Fertigungsanlage oder über die relevante Prozessoperation
filtern. Anhand der textuellen Beschreibung erfolgt schließlich die Auswahl der zutreffenden
Handlungsanweisung.
Eine häufig auftretende Aufgabe der vierten Stufe im Entscheidungsprozess ist das Sperren der
Kammer, auf die sich die Defektdichtemeldung bezieht. Hierfür sendet die Fachkraft eine
Nachricht an das Fertigungsmanagementsystem. In einigen Situationen wird das Problem von der
Fachkraft an die Instandhaltung übergeben. Für die Kommunikation mit der Instandhaltung
existiert im Fertigungsbereich CVD ein IT-Tool, in welches die Fachkraft einen Eintrag zum
Defektdichteproblem verfasst.
Nach der Ausführung von Maßnahmen, insbesondere nach Instandhaltungsaktivitäten, wird der
Erfolg der Maßnahmen wie in den anderen Fertigungsbereichen mittels Anlagenkontrollscheiben
kontrolliert. Über Nachrichten an das Fertigungsmanagementsystem löst die Fachkraft die
Bestellung und Bearbeitung der Testscheiben aus. Nach der automatischen Messung der im
Kontrollrezept hinterlegten Parameter erhält die Fachkraft eine Nachricht mit den entsprechenden
Ergebnissen. Die Fachkraft übernimmt im Anschluss die Bewertung der Ergebnisse, deren
Kriterien teilweise in eigenen Entscheidungshilfen definiert sind, die lediglich die Aufgaben der
Fachkraft für die Kontrolle der Maßnahme und die Freigabe enthalten. Teilweise sind die
jeweiligen Anweisungen auch in den Entscheidungshilfen für die Bearbeitung einer
Defektdichtemeldung integriert.
Für die Freigabe der betroffenen Anlage bzw. Anlagenkammer wählt die Fachkraft über ein
Fertigungsinformationssystem zur Ablaufplanung in Abhängigkeit des Defekttyps ein oder
mehrere Produktivlose aus, welche im nächsten Schritt mit dem relevanten CVD-Verfahren
prozessiert werden soll. Damit das ausgewählte Freigabelos an der Fertigungsanlage bearbeitet
wird, ist von der Fachkraft eine entsprechende Nachricht an das Fertigungsmanagementsystem
zu senden. Nach der Bearbeitung veranlasst die Fachkraft die Messung des Loses und beurteilt
die Ergebnisse gemäß den Vorgaben. Liegen positive Resultate vor, sendet die Fachkraft eine
Nachricht über die Verfügbarkeit der Anlage oder Kammer an das Fertigungsmanagementsystem
und gibt diese damit für die Fertigungsprozesse frei.
Prozesserhebung und Analyse 58
Das Ergebnis der Analyse des Prozesses nach Defektdichtemeldung ist, dass in jedem
Fertigungsbereich eine eigene Herangehensweise für den Umgang mit Defektdichtemeldungen
existiert. Der Grund hierfür sind die sehr komplexen und sich stark unterscheidenden
Einzelprozesse der Fertigung, die jeweils unterschiedliche Qualitätsprobleme und Fehlerbilder
hervorrufen. In jedem Fachbereich existiert bereichsspezifisches Wissen zum Umgang mit
Defektdichtemeldungen für unterschiedliche Einzelprozesse und an verschiedenen
Anlagentypen. Der Prozess hat keinen stringenten, allgemeinen Ablauf, sondern einen eher
kausalen Charakter mit unterschiedlichen Prozessverläufen je nach vorliegender
Entscheidungssituation. Zudem wird der Prozess isoliert in den einzelnen Fertigungsbereichen
betrachtet. Ein integrierter, bereichsübergreifender Prozessansatz fehlt. Ein Indiz hierfür ist die
Vielzahl an unterschiedlichen und fertigungsbereichsspezifischen Informationssystemen, die als
Hilfsmittel im Prozess verwendet werden.
Die Fachkraft wird bei der Bearbeitung der Defektdichtemeldung zwar von einer Vielzahl
unterschiedlicher Informationssysteme unterstützt, die Aktionen, die Aktionensteuerung und die
Vorgangsauslösung werden jedoch vom personellen Aufgabenträger ausgeführt. Damit liegt nach
Ferstl & Sinz (2013) eine vollständig personelle Durchführung des Prozesses vor (vgl.
Kapitel 2.3.1). Durch den geringen Automatisierungsgrad ergeben sich eine Reihe von
Ineffizienzen bei der Ausführung des Prozesses. Die personelle Aufgabensteuerung hat eine hohe
Inhomogenität bei der Prozessausführung zur Folge, was zu Einbußen bei der Prozessqualität
führt. Zwar ist das Vorgehen in den Handlungsanweisungen durch die Prozessverantwortlichen
festgelegt, dennoch werden sämtliche durchzuführenden Aufgaben ausschließlich von der
Fachkraft gesteuert. Der Fachkraft werden viele Freiheiten im Prozess nach Defektdichtemeldung
gelassen. Daraus folgt eine sehr heterogene Ausführung des Prozesses in der Praxis, die
individuell vom ausführenden Aufgabenträger abhängig und damit anfällig für Fehler ist.
Prozesserhebung und Analyse 59
Bei der Ausführung der Aufgaben ergeben sich weitere Ineffizienzen. Viele Aktivitäten dienen
dem Zusammentragen von Informationen, die bereits in verschiedenen Informationssystemen der
Fertigung gespeichert sind, oder dem Senden von Nachrichten an das
Fertigungsmanagementsystem dienen. Dadurch entstehen System- und Medienbrüche im
Prozess. Durch die ausschließlich personelle Durchführung der Aufgaben werden die
Prozessdurchlaufzeit verlängert und vermeidbare Kosten verursacht. Die Fachkraft ist durch diese
einfachen Aufgaben der Ermittlung von Informationen, die automatisiert abgefragt werden
können, als personelle Ressource an den Prozess gebunden und steht in dieser Zeit nicht für
andere Aufgaben zur Verfügung. Stattdessen entstehen bei der Ausführung der Aufgaben hohe
Personalkosten.
Die personelle Aktionensteuerung und Ausführung der Aktionen führt darüber hinaus dazu, dass
der Prozess durch eine hohe Intransparenz geprägt ist. Die Bearbeitung der Aufgaben ist nicht
nachzuverfolgen und eine Historie der Bearbeitung der Defektdichtemeldung wird nicht erfasst.
Entsprechende Auswertungen zum Defektverhalten und darauf aufbauendes Lernen im Prozess
sind nicht möglich. Zudem besteht die Gefahr, dass eine falsch durchgeführte Bewertung der
Defektdichtemeldung nicht erkannt wird. In einigen Fertigungsbereichen hat die Fachkraft daher
die Aufgabe die Bearbeitungen der Defektdichtemeldungen zu dokumentieren. Dies führt dazu,
dass die Prozessdurchlaufzeit durch unnötige und nicht zielführende Dokumentationsaufgaben
verlängert wird und gleichzeitig die Prozesskosten durch Bindung der Fachkraft erhöht werden.
Da die Aufgaben des Prozesses nach Defektdichtemeldung auf dem Experten- und
Erfahrungswissen der Prozessverantwortlichen beruhen, handelt es sich um den wissensbasierten
Problemtypen der Automatisierung nach Ferstl & Sinz (2013) (vgl. Kapitel 2.3.2). Das Wissen
bezieht sich auf das Defektverhalten bzw. das Qualitätsniveau der Fertigungsanlagen als
Aufgabenobjekt mit dem Ziel einer möglichst schnellen und abgesicherten Requalifizierung der
Maschine für die Fertigungsprozesse. Der Entscheidungsprozess ist durch einen
semi-strukturierten Strukturiertheitsgrad der Diskurswelt gekennzeichnet, da teilweise nicht alle
Informationen für die Entscheidung bekannt sind. Allerdings sind die für die Entscheidung
notwendigen Informationen in unterschiedlichen Informationssystemen gespeichert und können
im Rahmen der Informationsanalyse ermittelt werden. Die Aufgaben des Prozesses nach
Defektdichtemeldung sind daher automatisierbar, wobei als Lösungsverfahren entweder ein
Algorithmus oder Schlussfolgerungen in Frage kommen.
Entwicklung des Automatisierungskonzepts 60
Ein Ziel der vorliegenden Arbeit ist die Entwicklung eines Automatisierungskonzepts für den
Entscheidungsprozess nach Defektdichtemeldung unter Verwendung der Softwarelösung Raptor
Diagnostics Suite (RDS) der Fa. Semantis Information Builders GmbH. Damit erfolgen die
Umsetzung der Entwurfsphase der gestaltungsorientierten Forschung nach Österle et al (2011)
und die Beantwortung der zweiten Forschungsfrage. Das Automatisierungskonzept soll die in
Kapitel 2.4.2 geschilderten Anforderungen eines Cyber-Physischen Systems im Kontext von
Industrie 4.0 erfüllen. Die Ebene der physischen Objekte des CPS wird im Prozess nach
Defektdichtemeldung durch die Fertigungsanlagen der Halbleiterfertigung und ihre
Anlagenkomponenten realisiert. Das Automatisierungskonzept muss daher den Datenspeicher
und das Dienstesystem auf der zweiten und dritten Ebene des CPS verwirklichen.
Der Entscheidungsprozess nach Defektdichtemeldung ist durch eine hohe Komplexität des
Entscheidungsfeldes charakterisiert. Je nach Fertigungsbereich und Einzelprozess sind viele
verschiedene Fehlerbilder möglich, die unterschiedliche Handlungsalternativen zur Folge haben.
Um eine konkrete Entscheidungssituation einordnen zu können und um eine adäquate
Entscheidung zu treffen, ist Wissen über dieses komplexe Entscheidungsfeld notwendig. Die
Automatisierung muss dem kausalen und auf Expertenwissen basierenden Prozesscharakter
gerecht werden. Da für die Entscheidungsfindung im Prozess nach Defektdichtemeldung
umfangreiches Wissen benötigt wird, muss das Automatisierungskonzept die Abbildung dieses
Wissens gewährleisten. Das Konzept soll die bisher vorhandenen Dokumentationen und Ansätze
der Wissensaufbereitung, insbesondere die webbasierten Entscheidungshilfen, ersetzen und
maschinell verarbeitbar machen. Die Digitalisierung des Wissens bildet damit die Grundlage für
die automatisierte Entscheidungsfindung durch Künstliche Intelligenz. Auf diese Weise setzt das
Automatisierungskonzept weitere Elemente von Industrie 4.0 um. Es trägt durch die
Digitalisierung und Verarbeitung von Wissen dazu bei, die Adaptionsfähigkeit der
Fertigungsprozesse zu steigern und sie somit dynamischer zu gestalten. Darüber hinaus soll durch
die Digitalisierung des Expertenwissens das für die Bearbeitung des Prozesses notwendige
Knowhow gesichert werden.
durch Synergieeffekte und effizientere Nutzung der Ressourcen, wie beispielsweise der flexible
Einsatz der Fachkräfte in verschiedenen Abteilungen, erzielt werden. Darüber hinaus soll sich das
Konzept nahtlos in die bestehende IT-Umgebung der Halbleiterfertigung integrieren lassen und
somit die Vorgangs- und Prozessintegration funktionsübergreifend vorantreiben.
Primäres Ziel ist nicht die vollständige Automatisierung der Fachkraftaufgaben des Prozesses,
sondern die Adressierung der identifizierten Potentiale in der Prozessausführung unter Nutzung
der Vorteile der personellen und der maschinellen Aufgabenausführung. Vor allem einfache
Aufgaben der Sammlung von bereits in Informationssystemen vorhandenen Daten während der
Informationsanalyse sollen mithilfe der dritten CPS-Ebene automatisiert werden, um die
Fachkraft zu entlasten. Die für die Entscheidung benötigten Informationen sollen gemäß den
Anforderungen der Fertigungsbereiche automatisch ermittelt, aufbereitet und der Fachkraft zur
Verfügung gestellt werden. Auf diese Weise soll das Automatisierungskonzept dazu beitragen,
dass die Fachkraft schnell die richtige Entscheidung treffen kann bzw. dass die Grundlage für das
automatische Treffen von Standardentscheidungen gelegt ist. Neben der automatisierten
Datenermittlung soll die Automatisierungslösung selbstständig Aktionen anhand der bekannten
Daten für die Entscheidung vorschlagen. Die Vorschlagskomponente hat einen adaptiven,
lernenden Charakter, das heißt das System lernt eigenständig aus gelösten Fällen in der
Vergangenheit und passt vorgeschlagene Maßnahmen für neue Situationen entsprechend an.
Das Automatisierungskonzept muss aufgrund der Auswirkungen des Prozesses auf die
Fertigungsqualität den inhaltlichen Anforderungen der einzelnen Fertigungsbereiche gerecht
werden. Die Prozessqualität hat unmittelbare Auswirkungen auf die Qualität der produzierten
Chips und auf den Unternehmenserfolg, da eine fehlerhafte Anlage Minderungen der
Entwicklung des Automatisierungskonzepts 62
Fertigungsausbeute verursacht. Die Automatisierung des Prozesses darf die hohen Anforderungen
an die Prozessqualität der wertschöpfenden Fertigungsprozesse nicht beeinträchtigen. Aufgrund
der Vielfalt der technologischen Prozesse und dem dadurch sehr spezifischen Prozesswissen ist
der Prozess nach Defektdichtemeldung stark an die Fertigungsbereiche gebunden. Das Wissen
zur Bearbeitung und Modifizierung des Prozesses liegt bei den Prozessverantwortlichen der
einzelnen Fertigungsbereiche bzw. den Anlagenexperten der Instandhaltung und kann nur schwer
in andere Organisationseinheiten überführt werden. Das Automatisierungskonzept des Prozesses
muss diese organisatorischen Aspekte berücksichtigen.
Die Basis der Entwicklung des Automatisierungskonzepts bilden die Erkenntnisse der
Analysephase des Prozesses nach Defektdichtemeldung aus Kapitel 3. Weiterhin werden
umfassende Inhaltsanalysen von Produktdefinitionen der Automatisierungslösung sowie von
internen Spezifikationsdokumenten und Schulungsunterlagen, die im Unternehmen zum
Zeitpunkt der Untersuchungen verfügbar waren, durchgeführt. Im folgenden Unterkapitel wird
zunächst die zu verwendende Automatisierungslösung vorgestellt. Danach werden die Aspekte,
die bei der Automatisierung des Prozesses nach Defektdichtemeldung mit RDS zu beachten sind,
präsentiert. Das Automatisierungskonzept setzt sich aus der Wissensrepräsentationskomponente,
der Wissensverarbeitungskomponente sowie der Auswertungs- und Lernkomponente zusammen.
Der Aufbau orientiert sich an den drei Hauptkomponenten der Raptor Diagnostics Suite.
Die Softwarelösung Raptor Diagnostics Suite der Fa. Semantis Information Builders GmbH ist
ein wissensbasiertes Diagnosesystem, welches ursprünglich für die Automatisierung von
Fehlerdiagnose- und Instandhaltungsprozessen in Werkstätten der Automobilindustrie entwickelt
wurde (vgl. Semantis Information Builders GmbH (2016) S. 1ff.). Es ist als wissensbasierter
Automatisierungsansatz einzuordnen, welcher das induktive Schließen als Lösungsverfahren
verwendet. Die Aufgaben des Prozesses nach Defektdichtemeldung lassen sich nach
Ferstl & Sinz (2013) als wissensbasierten Modelltyp charakterisieren, der durch Schließen gelöst
werden kann (vgl. Kapitel 3.7). Folglich eignet sich RDS für die Automatisierung des Prozesses
nach Defektdichtemeldung.
Entwicklung des Automatisierungskonzepts 63
RDS ist als wissensbasiertes System für die Diagnostik als Problemlösungstyp bzw. für deren
Wissensdarstellung zur Modellbeschreibung konzipiert. Bei der Diagnostik werden
Analyseverfahren eingesetzt, die aus einer gegebenen Menge an Alternativen eine Lösung
auswählen und so beispielsweise dem Auffinden von Fehlern in technischen Geräten oder
Krankheitsursachen bei Lebewesen dienen. Der Problembereich der Diagnostik besteht aus den
zwei disjunkten Mengen der Problemmerkmale (Symptome) und der Problemlösungen
(Diagnosen) sowie aus typischerweise unsicherem Wissen über deren Beziehung zueinander.
Dabei kann für ein Problem nur eine unvollständige Teilmenge der Symptome gegeben sein und
die Lösung des Problems besteht aus einer oder mehreren Diagnosen. Typisch für die Diagnostik
ist das Schließen von Beobachtungen auf Systemzustände oder Objekte, welche die
Beobachtungen hervorrufen. Dies stellt eine Form der Abduktion dar. Die Schlussfolgerung ist
logisch nicht zwingend, da eine Beobachtung unterschiedliche Ursachen haben kann. Zur
Vermeidung solcher Unsicherheiten und zur Verbesserung der Qualität der Problemlösung
können vom Diagnostiksystem zusätzliche Symptome angefordert werden (vgl. Ferstl & Sinz
(2013) S. 367; Kurbel (1992) S. 139; Puppe (1991) S. 74ff.).
Für die Diagnostik wird von RDS die sogenannte Fehlerbaumanalyse als zentrales
Analyseverfahren verwendet. Die Fehlerbaumanalyse ist eine systematische Methode des
Qualitätsmanagements zur Suche nach Ursachen für einen vorgegebenen Fehler in technischen
Systemen. Schrittweise werden alle möglichen Ursachen identifiziert, die zu einem bestimmten
Fehler, Ereignis oder Symptom führen. Die Ursachen werden iterativ soweit analysiert bis die
Kernursache für das unerwünschte Ereignis ermittelt wurde. Das Ziel der Fehlerbaumanalyse sind
abgesicherte Aussagen über das Verhalten eines technischen Systems in Hinblick auf
unerwünschte Fehlerereignisse. Zum einen können Zuverlässigkeitskenngrößen wie
Ausfallwahrscheinlichkeiten geschätzt und entsprechende Prognosen für unerwünschte
Ereignisse getroffen werden. Zum anderen kann bei Eintritt eines Fehlers eine systematische
Analyse und Diagnose des Ereignisses erfolgen und potentielle Ursachen ermittelt werden. Sind
die Ursachen identifiziert, lassen sich anschließend Maßnahmen zur Behebung des Problems
ableiten (vgl. DIN 25424 (1981) S. 2; Edler et al. (2015) S. 1; Schmitt & Pfeifer (2015) S. 566).
Die Raptor Diagnostics Suite besteht aus den drei Hauptkomponenten Autoren-, Laufzeit- und
Evaluierungsumgebung. Die Autorenumgebung dient der Darstellung und grafischen
Modellierung von Wissen. Sie stellt die Wissensbasis-Komponente eines wissensbasierten
Systems dar (vgl. Kapitel 2.4.3). RDS unterstützt einen objektorientierten Ansatz für die
Wissensrepräsentation. Grundidee dieser Wissensdarstellung ist die Verwendung des
objektorientierten Paradigmas, welches auch in der objektorientierten Programmierung
angewandt wird (vgl. Ferstl & Sinz (2013) S. 367). Um dem Konzept der Fehlerbaumanalyse bei
der Erstellung der Wissensbasis gerecht zu werden, sind die wichtigsten Objekttypen Fehler, Test
und Reparatur mit jeweils unterschiedlichen Attributen bzw. Eigenschaften. Test- und
Reparaturobjekte werden einem oder mehreren Fehlerobjekten zugeordnet. Für die Objekte
werden verschiedene Regeln bzw. Bedingungen als Attribute definiert, sodass die
Autorenumgebung auch Elemente der sogenannten regelorientierten Wissensrepräsentation
Entwicklung des Automatisierungskonzepts 64
sowie der Constraints 21 unterstützt. Die mit der Autorenumgebung erstellten Wissensbasen
werden in unterschiedlichen Dateien gespeichert. Aus diesem Grund enthält die
Autorenumgebung zusätzlich Elemente zur Registrierung und Administration der
Wissensbasisdateien (vgl. Semantis Information Builders GmbH (2016) S. 2).
Die Laufzeitumgebung realisiert die Inferenzkomponente des wissensbasierten Systems und dient
der Verarbeitung des Wissens einer Wissensbasisdatei zur Lösung eines konkreten
Diagnostikproblems. Von RDS werden verschiedene Schlussverfahren unterstützt. Das
Auswerten von Regeln mit monotonem Schließen nach der klassischen Logik ist ebenso möglich
wie das nichtmonotone Schließen, bei dem Schlüsse durch neu hinzukommende Informationen
revidiert werden. Insbesondere wird das für die Diagnostik typische probabilistische Schließen
unterstützt, welches den Umgang mit Unsicherheiten, zum Beispiel bei der Symptomerhebung
oder -bewertung, ermöglicht. Im Falle der Wissensmodellierung in Form von multiplen
Entscheidungsbäumen oder Fehlernetzen erfolgt die schrittweise Abarbeitung der Fehlerstruktur
im Diagnostikprozess auf Grundlage der Berechnung von Wahrscheinlichkeiten für die
Fehlerobjekte mithilfe der Bayes'schen Wahrscheinlichkeitstheorie. Dies ermöglicht die
Bestimmung der wahrscheinlichsten Diagnose unter Annahme der vorhandenen Symptome zu
jedem Zeitpunkt im Diagnostikprozess (vgl. Puppe (1991) S. 43f.; Semantis Information Builders
GmbH (2016) S. 3).
Der Nutzer wird vom Laufzeitsystem durch die Aufgaben des gesamten Diagnostikprozesses im
Sinne einer Aktionensteuerung geführt. Zusätzlich zur eigentlichen Diagnostik, also der
Identifikation bestimmter Fehler, unterstützt die Laufzeitumgebung die Ausführung der zu einem
identifizierten Fehler zugeordneten Reparaturmaßnahmen sowie die anschließende Verifikation
dieser Maßnahmen bis zur Lösung des Problems. Neben der vollständig automatisierten
Aktionensteuerung ermöglicht die Laufzeitkomponente auch die manuelle Steuerung durch
Eingreifen des Benutzers in den Diagnostikprozess. Dazu kann er eigenständig bestimmte
Handlungsalternativen für den weiteren Diagnostikablauf auswählen. Die Inferenzkomponente
dient dem Benutzer zur Entscheidungsunterstützung, indem es dem Benutzer die Ergebnisse der
verschiedenen Diagnostikstrategien als Entscheidungsgrundlage zur Verfügung stellt. So werden
beispielsweise kontextabhängig alle an einer bestimmten Stelle im Diagnostikprozess möglichen
Fehlerkandidaten mithilfe von probabilistischen Schlussverfahren berechneten
Wahrscheinlichkeiten angezeigt. Darüber hinaus besitzt die Laufzeitkomponente und deren
grafische Benutzeroberfläche noch weitere Merkmale wie die Verknüpfung von externen Medien
oder eine Notizbuch-Funktion für kontextabhängige Anmerkungen. Für jeden Diagnostikvorgang
werden vom Laufzeitsystem Sitzungsprotokolle erzeugt.
Ein weiteres Element der Laufzeitumgebung ist eine Komponente zur Auftragsverwaltung, in der
für jedes Problem ein Arbeitsauftrag erzeugt wird. Für den Benutzer werden die verschiedenen
21
Bei der Regelorientierung wird Wissen in Form von Wenn-Dann-Beziehungen beschrieben. In RDS wird
daher der Konditionalprogrammansatz für die Automatisierung von Entscheidungen angewendet. Das
Konzept von Constraints ist die Abgrenzung von Lösungsräumen durch Rand- und Nebenbedingungen,
die die Problemlösung in jedem Fall erfüllen muss. Sie repräsentieren die Beziehungen zwischen
unterschiedlichen Objekten und können u.a. mithilfe von Regeln implementiert werden (vgl. Ferstl &
Sinz (2013) S. 367; Puppe (1991) S. 42).
Entwicklung des Automatisierungskonzepts 65
Die Evaluierungsumgebung dient der Dokumentation und Auswertung der vom Laufzeitsystem
erzeugten Sitzungsprotokolle. Durch statistische Analysen ermöglicht es Aussagen zu den
historischen Fehlerhäufigkeiten. Auf Grundlage der Auswertungen lassen sich Aussagen über die
System- und Prozessqualität ableiten. Darüber hinaus kann mit der Auswertung der Daten neues
Wissen zur Verbesserung der Prozesse gewonnen und die Wissensbasen entsprechend aktualisiert
werden. Dadurch ermöglicht die Evaluierungsumgebung gleichzeitig die eigenständige
Optimierung der Inferenzstrategien auf Grundlage von automatischen Auswertungen der
Sitzungsprotokolle (vgl. Semantis Information Builders GmbH (2016) S. 3).
4.3 Wissensrepräsentationskomponente
Die Aspekte der Wissensrepräsentation zielen auf eine adäquate Modellierung des für die
Wissensverarbeitung benötigten Wissens in der Autorenumgebung von RDS ab. Dadurch wird
das allgemeine Wissen der Prozessverantwortlichen über den Problembereich der
Defektdichtemeldungen abgebildet. Im Sinne der Diagnostik werden alle möglichen bzw.
allgemein bekannten Diagnosen in einer Wissensbasis hinterlegt. Durch die Abbildung des
Wissens wird die Grundlage für die Automatisierung der Aufgaben des Prozesses nach
Defektdichtemeldung geschaffen. Gleichzeitig digitalisiert die Wissensrepräsentation das
Prozesswissen und stellt die zweite Ebene und Teile der dritten Ebene des Cyber-Physischen
Systems dar (vgl. Kapitel 2.4.2). Die Wissensrepräsentation umfasst den grundlegenden Ansatz
der Wissensdarstellung, den Aufbau und die Struktur der Wissensbasen, die Festlegung der
dazugehörigen Interpretationsregeln und Lösungsstrategien sowie organisatorische Aspekte.
Wie bereits erwähnt, strebt die Defektdichte (DD) ebenfalls die Automatisierung der Prozesse zur
Analyse der Defekte und Ermittlung einer verdächtigten Anlage mittels RDS an (vgl. Kapitel 4.1).
Der Aufbau der zugehörigen Defektdichtewissensbasis (DDWB) muss separat von den
Wissensbasen des Prozesses nach Defektdichtemeldung erfolgen, da die Defektdichte
Qualitätsabweichungen aus Produktsicht betrachtet. Im Prozess nach Defektdichtemeldung steht
die Qualität des Fertigungsprozesses einer Anlage im Mittelpunkt, welche die Abweichungen der
Produktqualität verursacht. Aufgrund des unterschiedlichen Problemfokus sind deshalb die
Wissensbasen für den Defektdichteprozess und den Prozess nach Defektdichtemeldung
voneinander zu trennen.
Bei der Wissensrepräsentation des Prozesses nach Defektdichtemeldung sind zwei voneinander
zu unterscheidende Problemfälle im Ablauf des Prozesses nach Defektdichtemeldung relevant.
Im ersten Fall ergibt die Analyse der Fachkraft (FK) im Fertigungsbereich, dass entweder keine
Maßnahmen oder Maßnahmen durch die Fachkraft durchzuführen sind. Der gesamte Prozess nach
Entwicklung des Automatisierungskonzepts 66
Folglich sind zwei grundlegende Ansätze für den Aufbau der Wissensbasen des Prozesses nach
Defektdichtemeldung denkbar. Abbildung 21 zeigt schematisch den funktionsorientierten
Ansatz, bei dem der Aufbau der Wissensbasen (WB) gemäß den Verantwortlichkeiten im Prozess
getrennt wird, sodass sowohl eine Wissensbasis für die Aufgaben der Fachkraft (FKWB), als auch
eine Wissensbasis für die Instandhaltungsaktivitäten (IHWB) aufgebaut wird. Für den Fall, dass
das Entscheidungsergebnis keine Maßnahme oder eine von der Fachkraft des Fertigungsbereichs
durchzuführende Maßnahme vorsieht, ist in der Wissensbasis der Fachkraft der gesamte Prozess
abgebildet. Die entsprechende Wissensbasis enthält das für die Ausführung des Prozesses
notwendige und vollständige Wissen für die Informationserfassung bis zur Freigabe der Anlage.
Falls im Entscheidungsprozess nach Defektdichtemeldung fehlerbehebende Maßnahmen von der
Instandhaltung durchgeführt werden müssen, ist zunächst die Informationserfassung, -analyse,
Entscheidung und Aktionsauswahl in der Wissensbasis der Fachkraft abgebildet. Die
anschließenden Instandhaltungsmaßnahmen werden von der Instandhaltung in einer separaten
Wissensbasis hinterlegt. Für die Fachkraftaufgaben der Maßnahmenkontrolle und der
Anlagenfreigabe wird eine Wissensbasis der Fachkraft verwendet. Dabei handelt es sich entweder
um die Wissensbasis, mit welcher auch die Aufgaben der Informationserfassung, -analyse und
Entscheidungsfindung realisiert werden, oder um eine separate Fachkraft-Wissensbasis, die
ausschließlich die Kontroll- und Freigabeaufgaben abbildet.
Fall 1: Fall 2:
• Defektanalyse • Defektanalyse
• Ermittlung der Anlage • Ermittlung der Anlage DDWB
DD • Meldung an Fertigungsbereich DD • Meldung an Fertigungsbereich
• Erfassung und Analyse der Meldung • Erfassung und Analyse der Meldung
• Keine Maßnahmen oder eigene • Entscheidung und Generierung von FKWB
FK Maßnahmen mit Kontrolle und Freigabe FK Instandhaltungsauftrag
• Instandhaltungsmaßnahmen IHWB
IH
• Kontrolle der Instandhaltungs-
maßnahmen FKWB
FK • Freigabe der Anlage
gemeinsam eine integrierte Wissensbasis für den gesamten Prozess nach Defektdichtemeldung.
In dieser Wissensbasis sind die Aufgaben des gesamten Entscheidungsprozesses von der
Informationserfassung bis zur Anlagenfreigabe abgebildet.
Fall 1: Fall 2:
• Defektanalyse • Defektanalyse
• Ermittlung der Anlage • Ermittlung der Anlage DDWB
DD • Meldung an Fertigungsbereich DD • Meldung an Fertigungsbereich
• Erfassung und Analyse der Meldung • Erfassung und Analyse der Meldung
• Keine Maßnahmen oder eigene • Entscheidung und Generierung von
FK Maßnahmen mit Kontrolle und Freigabe FK Instandhaltungsauftrag
• Instandhaltungsmaßnahmen
IH
Integrierte WB für • Kontrolle der Instandhaltungs-
Prozess nach DD-Meldung maßnahmen
FK • Freigabe der Anlage
Die Gegenüberstellung beider Ansätze in Tabelle 6 zeigt, dass beim funktionsorientierten Ansatz
mit einer einfacheren Struktur der Wissensbasen und einer hohen Konformität mit den aktuellen
Verantwortlichkeiten im Prozess nach Defektdichtemeldung zu rechnen ist. Da beim Aufbau und
der Wartung der Wissensbasen jeweils nur ein Autor je Wissensbasis benötigt wird, ist zudem
kein Autorenkonzept für die gemeinsame Bearbeitung einer Wissensbasis von mehreren Autoren
notwendig. Weil die Bearbeitung der Aufgaben des Fertigungsbereichs und der Instandhaltung in
unterschiedlichen Wissensbasen erfolgt, ist beim funktionsorientierten Ansatz weiterhin kein
Rollenkonzept im Laufzeitsystem zu berücksichtigen.
Aufgrund dieser Vorzüge wird die Auswahl des prozessorientierten Ansatzes für die
Wissensrepräsentation des Automatisierungskonzepts empfohlen. Die Nachteile des
Entwicklung des Automatisierungskonzepts 68
Ein Ergebnis der Prozessanalyse ist, dass der Prozess nach Defektdichtemeldung auf
fertigungsprozess- und anlagenspezifischem Wissen basiert, da die Unterschiede im
Defektverhalten der Fertigungsanlagen aus der Vielfalt an technologischen Prozessen und
Anlagenaufbauten in der Halbleiterfertigung resultieren. Beim Aufbau der Wissensbasen müssen
diese Zusammenhänge berücksichtigt werden. Es empfiehlt sich Defektdichtefamilien als
Entwicklung des Automatisierungskonzepts 69
Für den Aufbau und die Strukturierung der Wissensbasen stellt sich weiterhin die Frage wie der
Entscheidungsprozess mit den Aufgaben aller sechs Stufen innerhalb der Autorenumgebung von
RDS modelliert werden kann. Deshalb wird im Folgenden das Strukturkonzept einer
Wissensbasis in RDS für den Prozess nach Defektdichtemeldung entwickelt, welches in Tabelle 7
skizziert ist. Es integriert alle Elemente des Entscheidungsprozesses, ist konform mit dem
prozessorientierten Ansatz der Wissensrepräsentation und setzt das Grundprinzip der Diagnostik
in RDS aus Inspektion, Reparatur und Verifikation von Fehlerobjekten um.
Die Zuordnung eines Auftrags zu einer Wissensbasis erfolgt anhand der verdächtigten Anlage.
Damit ist bereits ein Teil der Informationserfassung realisiert. Für das weitere Vorgehen im
Entscheidungsprozess ist ein hierarchischer Fehlerbaum anzulegen, in welchem für jede bekannte
und für die Wissensbasis relevante Defektsituation ein Fehlerobjekt angelegt wird. Einzelne
Fehlerobjekte mit gleichen Eigenschaften sind dann in verschiedene Zwischen- und
Oberdefektkategorien zu gruppieren. Bei der Gruppierung ist so vorzugehen, dass im Rahmen der
Informationsanalyse möglichst wenige Schritte für die Auswertung der Baumstruktur und die
Identifikation eines spezifischen Defekts, der im Fehlerbaum einem Blattfehler entspricht,
benötigt werden. Für die Informationsanalyse der Defekte müssen den Fehlerobjekten auf allen
Ebenen beim Aufbau der Wissensbasis Testobjekte von Typ Inspektion zugeordnet werden. Auf
diese Weise kann ein Blattknoten stufenweise im Fehlerbaum ermittelt werden. Wurde ein
Blattfehler eindeutig identifiziert, kann eine automatisierte Entscheidung gemäß innerhalb des
Fehlerobjekts definierter Regeln erfolgen bzw. der Fachkraft entsprechende Maßnahmen
vorgeschlagen werden.
Für die weitere Strukturierung der Wissensbasis sind drei Hierarchieebenen relevant. Auf der
Ebene der Blattknoten sind jedem Fehlerobjekt Reparaturobjekte und Testobjekte vom Typ
Verifikation zuzuordnen. Die Reparaturobjekte korrespondieren mit den Aufgaben der vierten
und einem Teil der fünften Stufe des Prozesses nach Defektdichtemeldung. Für jede einzelne
Aufgabe ist ein separates Reparaturobjekt anzulegen. Gemäß dem prozessorientierten Ansatz der
Wissensrepräsentation sind sowohl die Aufgaben der Fachkraft des Fertigungsbereichs, als auch
Maßnahmen der Instandhaltung zu berücksichtigen. Die Aufgaben der fünften Stufe, die durch
Reparaturobjekte realisiert werden, beziehen sich auf die durchzuführenden Kontrollaufgaben.
Für die Auswertung der Ergebnisse dieser Kontrollaufgaben, bei der die Prüfung des Erfolgs der
durchgeführten Maßnahmen der vierten Stufe erfolgt, werden dem Blattfehler Testobjekte vom
Typ Verifikation zugeordnet. Im Falle eines Scheiterns der Verifikation können alternative
Maßnahmen durch die Zuordnung weiterer Reparaturobjekte zum Blattfehler realisiert werden.
Auf der nächst höheren Ebene der Fehlerhierarchie werden die Aufgaben der Anlagenfreigabe
definiert. Hierzu werden den Fehlerobjekten auf der Zwischenebene sowohl Reparatur-, als auch
Testobjekte vom Typ Verifikation zugeordnet. Durch die Nutzung einer höheren Ebene in der
Fehlerbaumhierarchie ist gewährleistet, dass die Aufgaben der Freigabe erst nach erfolgreicher
Verifikation des Blattfehlers ausgeführt werden. Die Anlagenfreigabe wird daher erst vom
System initiiert, wenn gesichert ist, dass die durchgeführten Maßnahmen zur Qualitätssicherung
der Anlage erfolgreich waren. Zu beachten ist, dass die so zugeordneten Aufgaben nach der
Verifikation von allen Blattfehlern des jeweiligen Zweiges initiiert werden. Ist dies nur für
bestimmte Blattfehler erwünscht, muss eine zusätzliche Hierarchieebene im Fehlerbaum angelegt
werden. Durch die Reparaturobjekte werden die Aufgaben der Anlagenfreigabe in der
Wissensbasis abgebildet. Die Verifikationstests realisieren die Bewertung der Ergebnisse dieser
Aufgaben. Scheitert die Verifikation, ist wie bei der Auswertung der Kontrollaufgaben die
Definition von alternativen Freigabeaufgaben durch zusätzliche Reparaturobjekte möglich.
Die Lösungsstrategie des wissensbasierten Systems wird maßgeblich mit der Struktur der
Wissensrepräsentation bestimmt, da diese das Prozessverhalten des Systems vorbestimmt.
Nichtsdestotrotz muss die detaillierte Gestaltung der Lösungsstrategie erfolgen, bei der die
einzelnen Aktionen der Aufgaben und deren Aufgabenträger festgelegt werden. Hierzu werden
innerhalb der Autorenumgebung von RDS den einzelnen Fehler-, Test- und Reparaturobjekten
Attribute zugewiesen. Für jede einzelne Aufgabe ist eine Automatisierung bzw.
Teilautomatisierung zu prüfen und die Definition der Attribute gemäß dem festgelegten
Aufgabenträger anzupassen.
Die Automatisierung der Aufgaben lässt sich mithilfe von Diensten realisieren. Sie repräsentieren
einen Teil des Dienstesystems auf der dritten Ebene des Cyber-Physischen Systems (vgl.
Kapitel 2.4.2). Wie in der Prozessanalyse ermittelt, eignen sich hierfür Routinetätigkeiten und
einfache Aufgaben auf allen Stufen des Entscheidungsprozesses nach Defektdichtemeldung, da
sie im Wesentlichen dem Senden von Nachrichten oder der Ermittlung von Informationen dienen,
die bereits in anderen Informationssystemen elektronisch erfasst sind. Die Test- bzw.
Reparaturobjekte sind mit servicebasierten Abfragen zu verknüpfen, die eine Schnittstelle zu den
anderen Informationssystemen in der Halbleiterfertigung bilden. Um eine reibungslose
Integration des Automatisierungskonzepts zu gewährleisten, sind die Anforderungen für jede
Schnittstelle unter Berücksichtigung der spezifischen Eigenschaften der peripheren
Informationssysteme zu ermitteln.
Die Grenzen der Automatisierung aufgrund formaler oder sachlicher Kriterien sind für jede
Aufgabe zu ergründen. Ein Beispiel sind die von der Fachkraft durchgeführten Aufgaben der
Bildverarbeitung, bei dem das Defektbild einer Meldung mit typischen Defektbildern aus der
Vergangenheit verglichen wird, um die Defektdichtemeldung zu verifizieren und zu präzisieren.
Die Attribute der Objekte müssen daher auch für personelle Aufgabenträger angepasst werden.
Hierfür werden innerhalb der Test- und Reparaturobjekte textbasierte Handlungsanweisungen
bezüglich der durchzuführenden Aufgaben hinterlegt. Diese Anweisungen werden der Fachkraft
und dem Instandhaltungspersonal zur Bearbeitung einer konkreten Defektdichtemeldung in der
Laufzeitumgebung angezeigt. Bei Testobjekten werden zudem die Eingabemöglichkeiten zur
Beantwortung des Tests festgelegt. Beispielsweise können dem Aufgabenträger verschiedene
Antwortoptionen wie mögliche Defektbilder vorgegeben werden, aus denen dieser die
zutreffende Möglichkeit auswählt.
Fachkraft sowie für den Mitarbeiter der Instandhaltung denkbar. Die Zuordnung von Rollen zu
Objekten bildet die Grundlage für die Auftragsverwaltung (vgl. Kapitel 4.4.2).
Für die Wissensrepräsentation sind neben der inhaltlichen Überführung des Wissens in
Wissensbasen organisatorische Aspekte für deren Aufbau zu betrachten. Da beim Ansatz der
Wissensrepräsentation die Prozessorientierung gewählt wird, kommt dem Autorenkonzept eine
besondere Bedeutung zu, da sowohl Prozessexperten des Fertigungsbereichs, als auch
Anlagenexperten der Instandhaltung gemeinsam an der Erstellung einer Wissensbasis beteiligt
sind (vgl. Kapitel 4.3.1). Das Autorenkonzept muss daher die gemeinsame Bearbeitung einer
Wissensbasis durch unterschiedliche Wissensträger ermöglichen. Es soll möglichst klar und
eindeutig die Verantwortlichkeiten bei der Entwicklung und Wartung von Wissensbasen
abgrenzen, damit Doppelarbeit vermieden wird.
Grundsätzlich bestehen zwei Möglichkeiten für den Aufbau der Wissensbasen im Prozess nach
Defektdichtemeldung. Sie sind in Tabelle 8 mit ihren Vor- und Nachteilen gegenübergestellt.
Eine Option ist die Bildung einer zentralen Autorengruppe, deren Mitglieder als
fertigungsbereichsübergreifende Automatisierungsexperten für die Erstellung der Wissensbasen
verantwortlich sind. Die Autoren haben einen guten Gesamtüberblick, weswegen sich die
Anforderungen an eine standardisierte und abteilungsübergreifende Betrachtungsweise bei der
Modellierung realisieren lassen. Dadurch können Synergie- und Lerneffekte gut genutzt werden.
Weiterhin können Autoren für die Modellierung ausgewählt werden, die eine entsprechende
IT-Kompetenz besitzen und für die Aufgaben als Wissensingenieur qualifiziert sind. Folglich
erfolgt der Aufbau der Wissensbasen in Einklang mit den Funktionalitäten der
Automatisierungslösung. Zur Umsetzung des zentralen Autorenkonzepts werden jedoch
entsprechend qualifizierte personelle Ressourcen benötigt. Da für die Abbildung des Prozesses
ein hoher Detailgrad an Prozesswissen benötigt wird, ist zudem ein Wissenstransfer zwischen der
Autorengruppe und den Prozessexperten in den Fertigungsbereichen notwendig. Damit
verbunden sind Abstimmungsaufwände und die Gefahr von Missverständnissen.
Alternativ ist ein dezentrales Autorenkonzept möglich, bei dem die Prozessverantwortlichen als
Wissensträger selbst die Wissensbasen ihres Verantwortungsbereiches aufbauen. Ein
Wissenstransfer zwischen den Prozessexperten und Externen ist nicht notwendig, da die Autoren
über detailliertes fachliches Wissen zum Diskursobjekt einer Defektdichtemeldung verfügen.
Inhaltliche Missverständnisse bei der Modellierung der Wissensbasen sind ausgeschlossen und
Abstimmungsaufwände werden vermieden. Die Vorgehensweise, dass das für die Ausführung
des Prozesses notwendige Wissen von den Prozessverantwortlichen aufbereitet wird, entspricht
zudem der aktuellen Praxis. Da das Wissen bisher in Informationssystemen wie der
Entwicklung des Automatisierungskonzepts 73
Vorteile Nachteile
Zentrale Autorengruppe Standardisierung Zusätzliche Ressourcen
Qualifikation vorhanden notwendig
Beim Prozess nach Defektdichtemeldung handelt es sich um einen Prozess, der auf
umfangreichem Wissen mit hohem Detailgrad basiert. Gleichzeitig sind die Anforderungen an
die Prozessqualität sehr hoch, die auf der strategischen Bedeutung der Fertigungsqualität in der
Halbleiterfertigung beruhen. Das dezentrale Autorenkonzept wird diesen Anforderungen gerecht,
da die Experten der Fertigungsprozesse aktiv die Erstellung der Wissensbasen vorantreiben. Aus
diesem Grund wird das dezentrale Autorenkonzept empfohlen. Dabei besteht jedoch die Gefahr
der Entwicklung heterogener Lösungen in den Fertigungsbereichen, sodass die Zielstellung der
Standardisierung durch das Automatisierungskonzept nicht realisiert wird. Zur Umsetzung des
dezentralen Autorenkonzepts wird daher die Ernennung von RDS-Experten in den einzelnen
Fertigungsbereichen vorgeschlagen, die als zentrale Ansprechpartner für den Bereich
entsprechend tiefergehend in den Funktionalitäten der Automatisierungslösung geschult werden.
Gleichzeitig müssen sie inhaltliches Verständnis der Prozesse im jeweiligen Fertigungsbereich
besitzen. Idealerweise sind sie selbst Verantwortliche im Prozess nach Defektdichtemeldung. Die
zentralen RDS-Experten legen die fabrikweiten Standards der Modellierung fest und koordinieren
die Modellierung der Wissensbasen in ihrem Fertigungsbereich. Sie sorgen für die Umsetzung
der Standardisierung und kontrollieren deren Erfüllung in ihrem Fertigungsbereich. Zur
Abstimmung und Behandlung von Problemen bei der Modellierung ist ein regelmäßiger
Austausch empfehlenswert, an welchem die zentralen RDS-Experten aus allen
Fertigungsbereichen teilnehmen.
Entwicklung des Automatisierungskonzepts 74
4.4 Wissensverarbeitungskomponente
4.4.1 Input-Schnittstelle
Durch die Input-Schnittstelle soll der Integrationsgedanke der Prozess- und Vorgangsintegration
des Automatisierungskonzepts realisiert werden. In diesem Zusammenhang ist die Integration mit
dem vorgelagerten Defektdichteprozess von Bedeutung, weil die Ergebnisse des
Defektdichteprozesses als Inputdaten im Prozess nach Defektdichtemeldung erfasst und
verarbeitet werden. Da auch die Defektdichte die Automatisierung ihrer Prozesse mit der Raptor
Diagnostics Suite vorantreibt, stellt sich die Frage, wie die entsprechenden Informationen
innerhalb von RDS übermittelt werden können. Die Input-Schnittstelle ist für die
Informationsbeschaffung zuständig und realisiert das Informationssystem des in Kapitel 2.2.2
vorgestellten Entscheidungsmodells. Gleichzeitig setzt es durch die Integration einen Teil der
dritten Ebene des Cyber-Physischen Systems um.
Um eine reibungslose Integration zwischen dem Defektdichteprozess und dem Prozess nach
Defektdichtemeldung zu gewährleisten, muss im Falle der notwendigen Rückmeldung eines
Defektvorfalls an einen Fachbereich aus dem Defektdichteauftrag automatisch ein Auftrag für die
Fachkraft des Fertigungsbereichs generiert werden. Die Modellierung eines entsprechenden
Objekts und die Definition des korrespondierenden Dienstes innerhalb von RDS mit den
benötigten Parametern ist bei der Erstellung der Wissensbasen in der Defektdichte zu
berücksichtigen und an der richtigen Stelle im Prozess hinzuzufügen. Durch die automatische
Generierung eines Fertigungsbereichsauftrags aus einem Defektdichteauftrag heraus werden
Ineffizienzen durch einen Systemwechsel über das E-Mail-Programm verhindert. Weiterhin ist
mit einer Erhöhung der Datenqualität an der Schnittstelle zu rechnen, weil die Daten für einen
bestimmten Defektfall nicht manuell von der Defektdichtefachkraft eingetragen werden müssen.
Die einem Auftrag zugeordneten Informationen lassen sich in die vier Kategorien Metadaten,
Identifikationsdaten, Symptomdaten und Laufzeitdaten einteilen. Die Metadaten eines Auftrags
umfassen die allgemeinen Eigenschaften eines Auftrags, wie beispielsweise eine eindeutige
Auftrags-ID zur Identifikation und den Zeitstempel der Erstellung des Auftrags. Anhand der
Identifikationsdaten erfolgt die Zuordnung eines Auftrags zu einer Wissensbasis. Sie definieren
Entwicklung des Automatisierungskonzepts 75
den grundlegenden Untersuchungsgegenstand eines Auftrags. Als Symptomdaten werden die für
einen konkreten Auftrag geltenden speziellen Merkmale des zu untersuchenden Problems
bezeichnet, die bereits zu Beginn des Auftrags zur Verfügung stehen. Bei den Laufzeitdaten
handelt es sich um Informationen und Merkmale, die während der Bearbeitung eines Auftrags
ermittelt werden, wodurch beispielsweise das zugrundeliegende Problem näher charakterisiert
wird. Alle vier Kategorien von Auftragsdaten müssen in der Historie eines Auftrags gespeichert
werden. Auf diese Weise wird die Datenübertragung vom Defektdichteauftrag zum
Fertigungsbereichsauftrag sowie die Auswertung der Auftragsdurchführung gewährleistet.
Defektdichteauftrag Fertigungsbereichsauftrag
Metadaten Auftrags-ID des Auftrags-ID des
Defektdichteauftrags Fertigungsbereichsauftrags
Erstellungszeitstempel des Erstellungszeitstempel des
Defektdichteauftrags Fertigungsbereichsauftrags
Auftrags-ID des
Defektdichteauftrags
Identifikationsdaten Losnummer Verdächtigte Anlage
Verdächtigte Anlageneinheit
Symptomdaten Fehlercode Detektiertes Fehlerbild
Betroffene Wafer Betroffene Wafer
Link zur Wafer-Map Link zur Wafer-Map
Arbeitsplan Losnummer
Defektdichteoperation Arbeitsplan
Prozessoperation
Defektdichteoperation
Laufzeitdaten Detektiertes Fehlerbild Fehlerhäufigkeit
Prozessoperation Ausgeführte Objekte
Verdächtigte Anlage Ergebnisse
Verdächtigte Anlageneinheit Bearbeiter
Bearbeiter
Bei der Generierung eines Auftrags für den Fertigungsbereich aus einem Defektdichteauftrag
müssen gleichzeitig dessen Metadaten generiert werden. Diese umfasst die Vergabe einer
eindeutigen Auftrags-ID für den Fertigungsbereichsauftrag, den Zeitstempel der Erstellung des
Auftrags sowie die Auftrags-ID des Defektdichteauftrags, durch welchen die
Auftragsgenerierung veranlasst wurde. Die Verknüpfung des entsprechenden
Defektdichteauftrags bildet ein wichtiges Element für die Input-Schnittstelle, da mithilfe der
zugeordneten Auftrags-ID des Defektdichteauftrags das Auslesen bzw. das Übertragen der Daten
vom Defektdichteauftrag zum Fertigungsbereichsauftrag ermöglicht wird. Die Zuordnung ersetzt
den Link zur Entscheidungshilfe der Defektdichte als Inputparameter der aktuellen
Entwicklung des Automatisierungskonzepts 76
Prozessdurchführung. Aus diesem Grund muss die Input-Schnittstelle die Metadaten eines
Defektdichteauftrags in Metadaten eines Fertigungsbereichsauftrags überführen können.
Über die Auftrags-ID des zugeordneten Defektdichteauftrags können alle weiteren Auftragsdaten
und Ergebnisse ausgelesen und dem Fertigungsbereichsauftrag zugeordnet werden. Zu beachten
ist, dass die gleichen Attribute im Fertigungsbereichsauftrag teilweise anderen
Auftragsdatenkategorien zugeordnet werden müssen. Ein wesentlicher Unterschied zwischen den
Aufträgen der Defektdichte und der Fertigungsbereiche besteht bei den Identifikationsdaten. Die
Defektdichte untersucht ein Fertigungslos und dessen Qualitätsabweichungen (vgl.
Kapitel 3.3.1). Der Identifikationsparameter eines Defektdichteauftrags ist daher die Losnummer.
In den Fertigungsbereichen steht dagegen die verdächtigte Anlage bzw. Anlageneinheit im
Mittelpunkt. Hierbei handelt es sich um eine Information, die während der Laufzeit im
Defektdichteauftrag ermittelt wird. Die Input-Schnittstelle muss daher Laufzeitdaten aus dem
Defektdichteauftrag in Identifikationsdaten für den Fertigungsbereichsauftrag umwandeln.
Wurde die verdächtigte Anlage bzw. Anlageneinheit einem Fertigungsbereichsauftrag
zugeordnet, ist die Ermittlung der für den Auftrag relevanten Wissensbasis möglich.
Weiterhin muss die Input-Schnittstelle das Auslesen von Identifikations-, Symptom- und
Laufzeitdaten des Defektdichteauftrags und deren Übertragung in Symptomdaten des
Fertigungsbereichsauftrags gewährleisten. Die Losnummer als Identifikationsparameter in der
Defektdichte ist zwar nicht der Fokus des Prozesses in den Fertigungsbereichen, allerdings wird
die Information für einige Aufgaben, beispielsweise für die Ermittlung von Vorgänger- und
Nachfolgerlosen, benötigt. Sie ist daher als Symptominformation im Auftrag des
Fertigungsbereiches zu führen. Der einem Defektfall zugeordnete Arbeitsplan eines auffälligen
Loses ist ein Beispiel für die notwendige Übertragung von Symptomdaten des
Defektdichteauftrags in Symptomdaten des Fertigungsbereichsauftrags. Eine Information, die
erst durch den Prozess der Defektdichtdichte während der Laufzeit ermittelt wird, ist das
detektierte Fehlerbild. In den Fertigungsbereichen dient die Information jedoch als Symptom,
weshalb die Input-Schnittstelle auch die Überführung von Laufzeitdaten in Symptomdaten
erfüllen muss. Hierbei ist zu prüfen, inwieweit der Inputparameter der weiteren Informationen
zum Fehlerbild in den Parameter des detektierten Fehlerbildes integriert werden kann.
4.4.2 Auftragsverwaltung
Voraussetzung ist die Vergabe von Rollen bei der Definition der Lösungsstrategie in der
Wissensrepräsentation. Für jedes einer Aufgabe entsprechende Test- oder Reparaturobjekt der
Wissensbasis ist dazu die Rolle des vorgesehenen personellen Aufgabenträgers als Attribut
zuzuweisen (vgl. Kapitel 4.3.3). Im Folgenden wird die Vergabe der Rollen „Fachkraft“ sowie
Entwicklung des Automatisierungskonzepts 77
Zugeordnete Wissensbasis,
Aktuelles Objekt,
Rolle des aktuellen Objekts und
Auftragsstatus.
Wie bereits erwähnt, erfolgt die eindeutige Zuordnung eines Auftrags für den Prozess nach
Defektdichtemeldung anhand der verdächtigten Anlage als Identifikationsparameter (vgl.
Kapitel 4.3.2). Die so zugeordnete Wissensbasis ist als Eigenschaft des Fertigungsauftrags zu
hinterlegen. Während der Ausführung der zugeordneten Wissensbasis in der Laufzeitumgebung
muss der aktuelle Stand der Bearbeitung des Auftrags festgehalten werden. Hierfür wird das
aktuell zu bearbeitende bzw. das sich gerade in Bearbeitung befindliche Test- oder
Reparaturobjekt der zugeordneten Wissensbasis zur Laufzeit ermittelt. Sobald das aktuelle Objekt
identifiziert wurde, kann auch die dem Objekt zugewiesene Rolle bestimmt werden. Der
Auftragsstatus bildet den aktuellen Zustand der Bearbeitung des Auftrags ab. Es existieren fünf
Ausprägungen:
Offen,
In Bearbeitung,
Pausiert,
Warten und
Beendet.
Sobald die Inferenzkomponente ein Objekt erreicht, dem die Rolle „Instandhaltung“ zugeordnet
ist, wechselt der Auftragsstatus zu „Warten“. Er bleibt mit „Warten“ belegt, bis ein Mitarbeiter
der Instandhaltung mit der Bearbeitung des Auftrags beginnt. Zu diesem Zeitpunkt wechselt der
Status zu „In Bearbeitung“. Während der Aktivitäten der Instandhaltung muss das Pausieren und
Entwicklung des Automatisierungskonzepts 78
die Wiederaufnahme des Auftrags mit entsprechenden Änderungen des Auftragsstatus möglich
sein.
Nach Abschluss der Aufgaben der Instandhaltung ist dem aktuellem Objekt erneut die Rolle
„Fachkraft“ zugeordnet. Der Auftragsstatus wechselt zu „Warten“, was dem zuständigen
Fachkraftmitarbeiter die Möglichkeit der Weiterbearbeitung der Defektdichtemeldung
signalisiert. Sobald die Fachkraft die Bearbeitung des Auftrags wiederaufnimmt, ändert sich der
Auftragsstatus erneut zu „In Bearbeitung“. Wurde die Defektdichtemeldung vollständig
bearbeitet, ist kein aktuelles Objekt mehr verfügbar und der Inferenzmechanismus wird beendet.
In diesem Falle ist der Auftragsstatus mit „Beendet“ zu belegen.
Aus der Kombination aus Rolle des aktuellen Objektes und dem Auftragsstatus lässt sich in der
Laufzeit für jede Rolle eine individuelle Auftragsliste generieren. Diese zeigt der Fachkraft bzw.
dem Instandhaltungsmitarbeiter zu jedem Zeitpunkt alle Aufträge, die von der jeweiligen Rolle
bearbeitet werden müssen oder bereits bearbeitet werden, mit ihrem aktuellen Auftragsstatus
übersichtsartig an. Die Auftragsverwaltung erfüllt damit die Anforderungen von Industrie 4.0, da
sie die individuellen Bedürfnisse des Menschen in Abhängigkeit seiner Rolle berücksichtigt (vgl.
Kapitel 2.4.2). Weiterhin besteht die Möglichkeit dem Mitarbeiter Aufträge anzuzeigen, deren
aktuelles Objekt eine andere Rolle besitzt. Auf diese Weise kann beispielsweise die Fachkraft den
Fortschritt der Bearbeitung des Auftrags in der Instandhaltung überprüfen. Ein weiterer Vorteil
ist die einfache Erweiterbarkeit des Rollenkonzepts um zusätzliche Rollen. Durch den
Entwicklung des Automatisierungskonzepts 79
dynamischen Charakter der Auftragsverwaltung können für die hinzugefügten Rollen ebenfalls
individuelle Auftragslisten erzeugt werden.
Bei der Automatisierung des Prozesses nach Defektdichtemeldung ist die Auswertung der
durchgeführten Auftragsdaten unter Nutzung der Evaluierungskomponente von RDS zu
berücksichtigen. Auf diese Weise werden die Grundlagen für eine Rückmeldung zur
Verbesserung und Optimierung der Wissensrepräsentation gelegt und Lernen ermöglicht.
Die Automatisierung der Aktionensteuerung schafft die Voraussetzungen für eine automatisierte
Prozessdokumentation. In jedem Prozessdurchlauf werden zur Laufzeit innerhalb von RDS
automatisch die von personellen oder maschinellen Aufgabenträgern bearbeiteten Test- und
Reparaturobjekte sowie deren Resultate in bestimmten Sitzungsdaten gespeichert. RDS realisiert
damit die Dokumentationsaufgaben im Prozess nach Defektdichtemeldung. Durch die
Automatisierung der Dokumentation werden Effizienzgewinne bei den Prozesskosten und der
Durchlaufzeit erreicht, da der personelle Aufgabenträger nicht an den Prozess gebunden ist.
Zudem gewährleistet die Automatisierung eine hohe Qualität der Prozessdaten.
Die automatische Dokumentation der durchgeführten Aufgaben und deren Ergebnisse führt zu
einer Erhöhung der Transparenz im Prozess nach Defektdichtemeldung. Durch die automatische
Ermittlung von Prozessdaten wird die Entwicklung eines Kennzahlensystems zur quantitativen
Prozessanalyse und -überwachung ermöglicht. Beispielsweise lassen sich Auswertungen zu den
Häufigkeiten von Defekten je nach Anlagentyp realisieren. Denkbar ist in diesem Zusammenhang
auch ein fertigungsbereichsübergreifender Vergleich der Prozessleistung. Dies bildet
Anhaltspunkte für die Priorisierung von Maßnahmen der Prozessoptimierung. Besonders in den
Fertigungsbereichen, in denen bisher keine Dokumentation durchgeführt wird und die Gestaltung
des Prozesses auf subjektiven Erfahrungswerten basiert, lassen sich durch eine entsprechende
Auswertung der Laufzeitdaten neue Erkenntnisse gewinnen und Ineffizienzen im Prozess
aufdecken.
Auf diese Weise wird neues Wissen für die Prozessdurchführung erworben und Lernen im
Prozess nach Defektdichtemeldung ermöglicht. Durch die Erkenntnisse aus den Auswertungen
der Laufzeitdaten haben die Fertigungsbereiche die Möglichkeit, das allgemeine Wissen in den
Wissensbasen zu überarbeiten. Die Prozessverantwortlichen können daraus
Optimierungspotentiale ableiten und eine entsprechende Aktualisierung der zugrundeliegenden
Wissensbasis umsetzen. Zum Beispiel sind Analysen bezüglich Umstrukturierungen der
Prozessaufgaben möglich, bei denen modellierte Objekte, die nicht zielführende Aufgaben
repräsentieren, eliminiert werden. Die Auswertungs- und Lernkomponente gewährleistet so die
Aktualität der Wissensrepräsentation. Neuartige, bisher unbekannte Defektvorfälle können leicht
identifiziert und von den Prozessverantwortlichen mit allen ermittelten Eigenschaften genauer
analysiert werden, da alle Parameter strukturiert in einer Auftragssitzungsdatei hinterlegt sind.
Prototypische Umsetzung und Evaluation 80
In diesem Kapitel soll mithilfe einer prototypischen Umsetzung das in Kapitel 4 entwickelte
Automatisierungskonzept umgesetzt und die dritte Forschungsfrage beantwortet werden. Die
entworfenen Spezifikationen des Automatisierungskonzepts werden mit der zu verwendenden
Automatisierungslösung Raptor Diagnostics Suite beispielhaft realisiert, um die Programmlogik
in Testfällen zu überprüfen. Im Erkenntnisprozess der gestaltungsorientierten Forschung nach
Österle et al. (2011) entsprechen die Untersuchungen der Phase der Evaluation.