Sie sind auf Seite 1von 4

Menschliche Zuverlässigkeit – Repititorium

Informationen vorab:
o Immer eine Frage zum Skript und eine Transferfrage je Aufgabe.
o 10 Fragen gesamt ca.
o Was bedeutet Model XY?
o Wie würden sie Model XY anwenden?
o Jede Frage 5 Punkte = 10 P pro Frage
o Klausur allgemein: Leitartikel am Anfang (z.B. Zeitungsartikel von Spiegel Online,
dann Klausur aufbauend auf dem Artikel mit Anwendung von Modellen aus MeZu1
bezogen auf den Artikel)

1. Teil
a. Keine Folien speziell
2. Teil - Unfallmodelle
a. Unterschiedliche Modelle und Modellierungsansätze vom sequentiellen über
epidemiologischen & systemischen Unfallmodell
b. Vor- & Nachteile der unterschiedlichen Modelle kennen – was ist der Nachteil
sequentieller Unfallmodelle im Vergleich zu systemischen Unfallmodellen?
Siehe Skript erster Teil (nicht auswendig lernen sondern Unterschiede kennen
und wiedergeben können).
c. Arbeitsebenen kennen – schweizer Käse und von Frau Levison
i. Typische Frage: Was sagt Reason und welche Arbeitsebenen werden in
einem Arbeitssystem unterschieden? F. 2-31, 2-33
ii. Anwendungsfrage, mögliche Beispiel:
1. wie sähen die Arbeitsebenen für ein Impfzentrum aus (Bezug F.
2-33)?
2. Arbeitsebenen für Logistikunternehmen, Fahrrad-Reparatur-
Laden
3. Allgmein – irgendein Arbeitssystem aus dem Alltag
iii. Ereignisanalyse 2-42, 2-43 ff.
1. Unterscheidung Ursachen-, Auftretens- & Gestaltungsorientiert
 nicht auswendig lernen, sondern „Systematik verstanden
haben und drei unterschiedliche Sichtweisen unterscheiden
können“
2. CAHR-Modell F. 2-58, 2-59 (siehe Vorlesungsaufzeichnung) 
Storyboard aufbauen, Detail-Analyse mit Hilfe des Mensch-
Maschine-Systems
3. RWE-Modell (vereinfacht, anwendungsorientiert) F. 2-51 ff.
a. In Klausur dann SPON-Artikel: Aufgabe ist das Ereignis
analytisch auseinander zu nehmen: Storyboard
aufbauen, bestimmte Aspekte des Ereignisses in einer
Detailanalyse mit dem Mensch-Maschine-System
machen.
iv. Kein hoch-technisches Ereigniss sonder eins, mit dem jeder etwas
anfangen kann --> anschauen: CAHR-Ereignisanalyse S. 2-58 -->
nochmal checken: Video -16:40 --> ausserdem checken: S. 2-60
v. „Ja das wäre zu sagen zu Teil 2. üblicherweise mache ich das dann
aber auch so wenn so eine Ereignisanalyse, ich hatte ja eben gesagt 10
Fragen, dass diese Art des Analyse so 2 - 3 Fragen je nach Komplexität
des ereignisses und wieviel Zeit man dafür braucht, dann auch
entsprechend honoriert wird das heißt also abhängig von der
Komplexität des ereignisses würde ich dann auch die punkte die man
da erreichen kann auch höher bewerten.“
vi. Kausalkette! F. 2-43
3. Teil – Kausaltkette und Verarbeitungszyklus menschlichen verhaltens
a. Unterscheidung zwischen Aufgaben und zielorientierten Verhalten F. 3-5
b. Frage wird in Ereignisanalyse mit untergebracht F.3-36, 3-39
c. wir uns die Autofahrerin an doch die fahrradfahrerin die haben wir uns jetzt
einen zielorientierten noch gar nicht angeguckt was davon ist jetzt
aufgabenorientiert verkehrt gelaufen?
d. Was ist zielorientiert verkehrt gelaufen? Was ist das eigentlich der
Unterschied zwischen den beiden?
e. Triggerfaktoren 3-28 etwas genauer angucken die einen dazu verleiten
zielorientiert zu denken – zu dem Teil der Daten würde ich jetzt hier an der
Stelle auch für die Klausur das als relevant einstufen
4. Teil – Einbindung menschlicher Arbeitsfehler in die Systemanalyse
a. „So und da hatten wir das was wir heute eigentlich besprochen hatten, das
waren auch die wichtigen Punkte für mich für die Klausur Vorbereitung also
dass man weiß wie das“
b. Risiko definiert ist 4-8 ff. und vorher wie das dort zwischen oberen und
unteren grenzrisiko was darunter zu verstehen ist
c. wir hatten zwar sehr intensiv diskutiert zwischen deterministischen
probabilistic würde ich aber in der Klausur weniger mit den Fokus drauf legen
d. kleines Beispiel: wie sieht die Zuverlässigkeit von einem System aus? Da
nehme ein ganz einfaches System  welche systemelemente gibt es und wie
kann man diese bewerten 4-15? Welche Zuverlässigkeiten erreicht man
aufgabenorientiert also das was wir hier angesprochen hatten Folie 42 was
sind typische dinge Zuverlässigkeit die man im aufgabenorientierten Bereich
annimmt und welche Zielorientierten Zuverlässigkeit kann man erreichen. das
wären so Dinge, also stellen sie sich da auf ein sehr einfaches Beispiel ein mal
diese unterschiedlichen Bewertung so wie wir es jetzt für die Spritze gemacht
haben aber auch nicht sehr viel detaillierter. Dass sie diesen Gedankengang
nachvollziehen können. Also quasi so wie wir es jetzt gerade für die Corona-
Impfung gemacht haben dass man das mal sozusagen sich auf dem Niveau
vorbereitet für den Teil 4 --> keine konkreten Zahlen auswendig lernen.
/// Zwischenfrage: Zahlen auswendig lernen? ///
Sträter: nicht auswendig lernen aber dass man dass sie wissen dass
aufgabenorientierte zuverlässigkeit so im bereich bei 10^(-3) anfangen und
dann eigentlich nur durch Komplexität und Zeitdruck sich verschlechtern. Und
das im zielorientierten aber die Zuverlässigkeit irgendwo im Bereich 10^(-1)
liegen also Faktor hundert anders das sollten sollten sie schon irgendwie
abgespeichert haben. Größenordnungen können, ziel- & aufgabenorientiere
verstehen. Aber das ist ja auch wenn man jetzt mal verstanden hat was das
zielorientiert und macht und was das aufgabenorientiert äh ist für uns
Menschen dann ist das auch logisch dass das auch beim orientierte immer
besser ist das Ziel entierte.
/// Keine Namen auswendig kennen /// Ironie der Automatisierung: was sind
typische Ironien nach Cambridge? 3 Ironien kennen! Anwendungsfall:
Impfzentrum will automatisches Spritzenaufziehsystem einführen: was sagt
Cambridge dazu? Transferfrage.
Kein Rechenbeispiel: Rechenbaum
e. Coronabeispiel durchgehen: gute Vorbereitung --> menschliche Fehler auf
unterschiedlichen Arbeitsebenen.

Notizen zur Vorlesung:

Unfallmodellierung – Drei Hauptansätze

1. Sequentielle Modellierung
1.1. Social Environment  Fault of Person  Unsafe Act  Accident  Injury
1.2. Zu starke Vereinfachung bei der Suche nach Unfallursachen: „single-cause“ 
beispiel Steuerhinterziehung vom DGF. Suche nach einem Beschuldigten (=single
cause = Franz Beckenbauer?) wird der Komplexität der Sache nicht gerecht, also zu
stark vereinfachend.
1.3. Grundannahme: ein System befindet sich in einem wohldefinierten, normativen
Zustand
1.3.1. Bsp. Stuhl kracht unter Last einer Person zusammen: sog. System-Designer hat
nicht beachtet, dass viele Menschen übergewichtig sind. Hätte er es gewusst,
hätte er robustere Stühle gebaut.
1.4. „menschliches Versagen“ (bad apple … fauler Apfel) ist kein gutes Modell
1.5. Weiterentwicklung des Modells (2-14)  Vincoli: Nicht nur auf eine Person
konzentrieren, sondern weitere Inputs einbeziehen. Nicht streng linear, sondern
Wechselwirkungen und Einflüsse werden von außen an die Entwicklung
herangetragen. Nicht nur Individuum präsentieren.
1.5.1. Lack of Control  Basic Causes  Immediate causes  Incident  Loss
1.6. Lack of Control: Planungs-, Führungs- & Kontrollprozesse
1.7.  Blatter wird abgewählt und die Ursache sei nach sequentiellem Modell
vermeintlich geklärt, aber das stimmt nicht.
2. Epidemiologische Unfallmodelle
2.1. Analogie: Zellkörper. Beispiel Beckenbauer DFB-Skandal 2-22
2.1.1. Host: Beckenbauer
2.1.2. Barriers: Schweigen, nicht in Öffentlichkeit Auftreten
2.1.3. Environment: Presse, Medien
2.1.4. Agent: Kollegen aus der FIFA, die spezifisch Stellung nehmen müssen (wie
Viren)
2.2. 2-23 Offensichtliche Faktoren: physisch sichtbare Faktoren, die das System
beeinträchtigt (Beckenbauer: Kollegen aus DFB und FIFA, die auf ihn einwirken)
2.3. Verborgene Faktoren: Faktoren, die nicht spezifisch wirken, aber im System wirken
(Beispiel investigative Journalisten: man weiß nicht wer genau recherchiert, aber
dennoch ist klar, dass recherchiert wird)
2.3.1. Kausalität wird mit Leistungsabweichung ersetzt: z.B. Virus  schwächt das
System und führt so zu Abweichung der Leistung
2.3.2. Externe Welt
2.3.3. Barriers: alles was dazu dient unerwartete Folgen abwehren kann (z.B. nicht
mehr in Öffentlichkeit Auftreten als Beckenbauer oder Brandschutztür in
Flughafen oder Bahn-Schranken-System = rein technische Barriere). Bsp-
Nagelbett gegen Fahrtrichtung auf Autobahn
2.3.4. Latente Bedingungen: im System verborgene Aspekte, erst nach Unfall zu
erkennen (Bsp. VW Diesel: Software-Beschiss kam erst nach Unfall raus, für
Öffentlichkeit eigentlich latenter Faktor)
2.3.5. AEB Modell nach Svenson

2.4. Systemische Unfallmodelle


2.4.1. Arbeitsebenen nach Reason:

Das könnte Ihnen auch gefallen