Beruflich Dokumente
Kultur Dokumente
Deliverables
Forschungsprojekt zur Weiterentwicklung der Safety Management
Systeme (SMS) in Betrieben der Schweizer Luftfahrt zur Erhaltung
und Erhöhung des hohen Sicherheitsstandards
Prof. Dr. Toni Wäfler, MSc Giulio Nisoli, BSc Rahel Gugerli
Kontakt
Email: toni.waefler@fhnw.ch
1 Einleitung 6
2 Ausgangslage 8
3 Evaluation (AP 4) 10
3.2 Evaluationsmethode 11
Seite 2/59
4.3.1 Application Concept 26
4.5 Appendix 51
5 Literaturverzeichnis 56
6 Abbildungsverzeichnis 58
7 Tabellenverzeichnis 59
Seite 3/59
Management Summary
Gegenstand des vorliegenden Dokuments ist die inhaltliche Berichterstattung zum zweiten
Meilenstein (per 31.7.2017) der Massnahme "Weiterentwicklung der Safety-Management-
Systeme (SMS)" gemäss der Verfügung vom 9. Februar 2016 über das Beitragsgesuch im
Rahmen der Spezialfinanzierung Luftverkehr (SFLV) (Referenz: BAZL / 2015-094).
Der zweite Meilenstein umfasst den Projektschritt "Validierungsphase" mit dem Arbeitspaket
(AP) 5. Ebenfalls abgeschlossen wurden während dieser Zeitperiode AP 3 und AP 4, die
beim Abschluss des erstens Meilensteins per 30.9.2016 noch in Bearbeitung waren. Folgend
wird beschrieben, was in diesen Arbeitspaketen erarbeitet wurde.
Den vor dem theoretischen Hintergrund von Safety-II zentralen Teil des Safety-II based
Tools wird durch das Safety-II based Measure Evaluation Tool verkörpert. Dieses wurde in
AP 5 pilotiert und formativ evaluiert, wobei dies mit der in AP 4 eigens dazu entwickelten
Evaluationsmethode geschah. Das Safety-II based Measure Evaluation Tool unterstützt die
Konzeptualisierung von Safety-I und Safety-II basierten Massnahmen (vgl. Definitionen in
Kapitel 4.3.2). Mittels der Analyse von Ausführungsbedingungen und menschlichen Anpas-
sungsleistungen soll untersucht werden, ob bereits bestehende Safety-I basierte Massnah-
men Anpassungsleistungen behindern und so zu unerwünschten Nebenwirkungen führen.
Dadurch soll die Entwicklung bzw. Anpassung von Safety-I, aber auch Safety-II basierten
Massnahmen unterstützt werden.
Die Prüfung der Wirksamkeit von Massnahmen ist ein wichtiges Element des Teilprozesses
Safety Assurance im generischen Referenzprozess von SMS nach Stolzer, Halford und Gog-
lia (2008), welcher der Entwicklung der im Pflichtenheft festgelegten Ziele zugrunde gelegt
wurde (vgl. erste Berichterstattung). Die im Pflichtenheft aus AP 1 festgelegten Ziele 13 und
14 beziehen sich auf die Überprüfung der Umsetzung und der Wirksamkeit von Massnah-
men. Sie waren dementsprechend auch als Ziele für die Safety Assurance entwickelt wor-
den. Das Safety-II based Measure Evaluation Tool, das mit den theoretischen Grundlagen
von Safety-II fundiert ist und auf dem der Fokus dieses Projekts liegt, ist auf den Teilprozess
Risk Management ausgerichtet. Mit der Entwicklung der zwei Tools ist es gelungen, die bei-
den Teilprozesse des generischen Referenzprozesses, das Risk Management und die Sa-
fety Assurance, angemessen zu berücksichtigen. Somit liegt nun eine Methode vor, mit der
bestehende SMS weiterentwickelt werden können. Mit den zwei Tools wird auch eine wichti-
ge Unterscheidung zwischen der Konzeptualisierung und der Umsetzung von Massnahmen
vorgenommen. So kann auch eine sehr gut konzeptualisierte Massnahme schlecht imple-
mentiert werden und/oder nicht wirksam sein. Um die Ziele 13 und 14 erreichen zu können,
wurde das Effectiveness Assessment Tool entwickelt. Das Effectiveness Assessment Tool
ist weiter in der Lage, Rahmenbedingungen zu identifizieren, die den Gültigkeitsbereich von
Massnahmen definieren (Ziel 5). Das Effectiveness Assessment Tool kann entweder mit
Seite 4/59
dem Safety-II based Measure Evaluation Tool, das alle weiteren im Pflichtenheft definierten
Ziele erfüllt, oder unabhängig davon eingesetzt werden.
Deliverable von AP 4 ist eine Evaluationsmethode für das gesamte Safety-II based Tool.
Dementsprechend wurde eine Evaluationsmethode für das Safety-II based Measure Evalua-
tion Tool und eine für das Effectiveness Assessment Tool entwickelt. Dazu wurden die rele-
vanten Kriterien beschrieben, die das Safety-II based Tool zu erfüllen hat. Im Weiteren wur-
den Instruktionen zur Anwendung der Evaluationsmethode erarbeitet. Die Evaluationsme-
thode besteht aus objektiven und subjektiven Messungen. Als Kriterien für die subjektiven
Messungen wurden die in AP 2 identifizierten Rahmenbedingungen gewählt, die das Safety-
II based Tool berücksichtigen muss. Dadurch kann beurteilt werden, inwieweit potentielle
Anwender einschätzen, ob das Safety-II based Tool in ihren Betrieben tatsächlich eingesetzt
werden kann. Als Kriterien für die objektiven Messungen wurden die in AP 1 erarbeiteten
Ziele gewählt, die das Safety-II based Tool erreichen muss. Daraus wurden konkrete Indika-
toren abgeleitet. Anhand dieser Indikatoren kann überprüft werden, ob das Tool die Ziele
tatsächlich erreicht.
Um den Praxispartner nicht übermässig zu beanspruchen und aufgrund der Fundierung des
Safety-II based Measure Evaluation Tools auf den theoretischen Grundlagen von Safety-II,
das im Zentrum dieses Projekts steht, wurde nur das Safety-II based Measure Evaluation
Tool evaluiert. Um das Safety-II based Measure Evaluation Tool evaluieren und optimieren
zu können, wurde die in AP 4 entwickelte Methode für die objektiven Messungen eingesetzt.
Dadurch konnte nach jeder Pilotierung des Safety-II based Measure Evaluation Tools geprüft
werden, ob bzw. inwiefern welche Ziele erreicht sind. Dank der formativen Evaluation wurden
wichtige Informationen gewonnen, die es ermöglicht haben, das Safety-II based Measure
Evaluation Tool kontinuierlich weiterzuentwickeln und zu finalisieren. Die finale Version des
Safety-II based Measure Evaluation Tools erreicht alle Ziele, die für dieses Tool definiert
wurden. Die in AP 2 identifizierten Rahmenbedingungen sind im Implementierungs- und
Ausbildungskonzept zu berücksichtigen. Dementsprechend werden die subjektiven Messun-
gen wie geplant in AP 6 in Form von Interviews mit Safety Experten durchgeführt.
Seite 5/59
1 Einleitung
Systeme werden immer komplexer und dynamischer. Darüber hinaus entstehen nicht alle
Ereignisse kausal. Nicht nur menschliche Fehler oder Defizite im System können zu Ereig-
nissen führen. Ereignisse können auch "emergent" als Resultat von zufälligen Interaktionen
verschiedener Faktoren entstehen. Zum einen können sich unerwünschte emergente Ereig-
nisse auch aus der Interaktion fehlerfreier Prozesse ergeben. Dies weil das Unerwünschte
nicht aufgrund von Fehlern oder Defiziten in den beteiligten Faktoren entsteht, sondern auf-
grund von deren Interaktion. Zum anderen sind emergente Ereignisse schwierig vorherseh-
bar und daher in der Regel unerwartet. Beides ist für bestehende SMS schwierig zu handha-
ben. Für die Förderung der Sicherheit ist es zentral, nicht nur die Fehler im System zu redu-
zieren – "Ultra-Safe-Ansatz" (Amalberti, 2013) – sondern auch das System gegen unerwarte-
te Dynamiken resistenter zu machen – "Ultra-Resilient-Ansatz" (Amalberti, 2013). Bezüglich
Human Factors sollen daher nicht nur menschliche Schwächen identifiziert und reduziert
werden. Wesentlich ist es auch, menschliche Stärken zu identifizieren und kontinuierlich wei-
terzuentwickeln. Unter anderem sollen dabei Anpassungsleistungen des Menschen als
Grundlage der Resilienz von Systemen gefördert werden. Aus dieser Perspektive wird der
Mensch nicht nur als Risikofaktor angesehen, sondern auch als Sicherheitsfaktor. Hollnagel
(2014) bezeichnet diesen Ansatz als "Safety-II".
Vor diesem Hintergrund ist das Ziel des vorliegenden Projektes die Erarbeitung eines praxis-
tauglichen, Safety-II basierten Tools, das anschlussfähig an bestehende SMS ist und damit
einen Beitrag zu deren Weiterentwicklung leistet. Das Projekt wird von der Fachhochschule
Nordwestschweiz in enger Kooperation mit SR Technics erarbeitet.
Seite 6/59
Der dritte Projektschritt "Validierungsphase" besteht aus dem umfangreichen Arbeitspa-
ket 5. Dieses dient der Validierung des zuvor entwickelten Safety-II based Measure Evaluati-
on Tools (AP 3) durch seine Anwendung und Evaluation anhand der in AP 4 entwickelten
Evaluationsmethode. Deliverable des AP 5 ist das getestete und optimierte Safety-II based
Measure Evaluation Tool, das Effectiveness Assessment Tool und deren Einsatzkonzepte
für ein konkretes, praxiserprobtes Vorgehen. Diese sind in Kapitel 4 des vorliegenden Be-
richtes beschrieben.
Seite 7/59
2 Ausgangslage
AP 3, 4 und 5 basieren auf den Ergebnissen von AP 1 und 2. Aus diesem Grund sind nach-
folgend die Deliverables der ersten zwei Arbeitspakete nochmals aufgeführt.
Tabelle 1: Pflichtenheft mit spezifischen Zielen für das Safety-II based Tool
Das Safety-II based Tool identifiziert und beschreibt Stärken von Anpassungsleistungen.
Das Safety-II based Tool identifiziert und beschreibt Schwächen von Anpassungsleistungen.
Das Safety-II based Tool identifiziert und beschreibt Vorteile von Massnahmen.
Das Safety-II based Tool identifiziert und beschreibt Nachteile von Massnahmen.
Das Safety-II based Tool gibt Hinweise dazu, wie Massnahmen hinsichtlich identifizierter (Neben-)
Wirkungen angepasst werden sollten.
Das Safety-II based Tool berücksichtigt Daten aus dem Monitoring von KPI's, Ereignisanalysen,
Audits und weiteren Untersuchungen.
Seite 8/59
2.2 Pflichtenheft mit spezifischen Rahmenbedingungen
In der Tabelle 2 sind die spezifischen Rahmenbedingungen abgebildet, die das Safety-II
based Tool berücksichtigen soll.
Tabelle 2: Pflichtenheft mit spezifischen Rahmenbedingungen für das Safety-II based Tool
Hohe Akzeptanz des SMS-Tools durch die · Erkennen von Nutzen und Sinn
Mitarbeitenden aufgrund des wahrgenommenen · Hoher Bezug zur Praxis
Nutzens · Unterstützung im Arbeitsalltag
Sprache · Englisch
Seite 9/59
3 Evaluation (AP 4)
Als Vorarbeit für die Validierungsphase waren von einem Safety Experten des Praxispartners
(SR Technics) auf Basis von vorgängig festgelegten Anforderungen der Testbereich für das
Safety-II based Measure Evaluation Tool ausgewählt sowie Unterlagen vergangener Root
Cause Analysen für die Pilotierung zusammengestellt und aufbereitet worden. Eine zentrale
Anforderung lag im Vorliegen einer oder mehrerer Safety-I basierten Massnahmen als Resul-
tat einer Root Cause Analyse als Ansatzpunkt für das Safety-II based Measure Evaluation
Tool. Auf dieser Grundlage erfolgte am 31.01.2017 eine erste Pilotierung bei SR Technics.
Dabei wurde das Safety-II based Measure Evaluation Tool an einem der eingebrachten si-
cherheitsrelevanten Vorkommnissen, die mit einer Root Cause Analyse untersucht worden
waren, getestet. Am 14.03.2017 wurde ein Workshop mit Safety Experten von SR Technics,
Air Zermatt, Flughafen Zürich AG, REGA, Skyguide, Swiss International Air Lines Ltd. und
Zimex Aviation Ltd. durchgeführt. Dabei wurden die methodische Vorgehensweise der Kon-
zeptumsetzung des Safety-II based Measure Evaluation Tools sowie die Ergebnisse dieser
ersten Pilotierung vorgestellt und gemeinsam diskutiert. Eine weitere Pilotierung des Safety-
II based Measure Evaluation Tools bei SR Technics fand am 7.04.2017 statt. Dabei wurde
zunächst an einer Root Cause Analyse teilgenommen, die von einem Gremium der SR
Technics durchgeführt wurde. Mit diesem Vorgehen war es möglich, im Anschluss einen Teil
der an der Untersuchung dieses aktuellen, sicherheitsrelevanten Vorkommnisses involvier-
ten Safety Experten und Mitarbeitenden aus der Linie sowie die Person, die von einer Ar-
beitsvorschrift abgewichen war, in die Pilotierung des Safety-II based Measure Evaluation
Tools einzubeziehen. Dies war insbesondere für die Identifikation der zentralen Informatio-
nen zu den Ausführungsbedingungen von besonderer Relevanz. Dasselbe Vorkommnis
konnte in verschiedenen Zusammensetzungen dieser Personen am 3.05.2017 und am
19.05.2017 mit dem Safety-II based Measure Evaluation Tool weiter untersucht werden.
Zwei weitere Pilotierungen mit dem Safety-II based Measure Evaluation Tool fanden am
5.04.2017 mit Helvetic Airways AG und am 2.05.2017 anlässlich einer Zusammenkunft der
Sparte Flugsicherheit der Luftwaffe statt. Beide Organisationen konnten aufgrund einer Ver-
hinderung deren Vertreter am Workshop vom 14.03.2017 nicht teilnehmen, bekundeten aber
grosses Interesse am Tool, weshalb sie für diese weiteren Pilotierungen angefragt wurden.
Das Tool wurde auch bei diesen Organisationen anhand eines sicherheitsrelevanten Vor-
kommnisses getestet.
Seite 10/59
based Measure Evaluation Tool erfüllen soll, als zufriedenstellend zu erachten sind. Diese
finale Version, die zusammen mit dem Effectiveness Assessment Tool das Deliverable von
AP 5 darstellt, ist in Kapitel 4 zu finden.
3.2 Evaluationsmethode
3.2.1.1 Definition
Der Begriff Evaluation ist sehr verbreitet und wird oft angewendet, ohne dass immer klar ist,
was er bedeutet. Aus diesem Grund ist es wichtig, an dieser Stelle den Begriff einzugrenzen
und zu definieren. Grundsätzlich ist eine Evaluation ein Prozess, in welchem Informationen
gesammelt werden, um einen Sachverhalt zu bewerten. Diese Bewertung wird zielgerichtet
vorgenommen, um Entscheidungen zu treffen. Eine Evaluation kann somit als die systemati-
sche Untersuchung des Wertes eines Objektes definiert werden. Sie hat das Ziel, Unsicher-
heit zu reduzieren, die mit Entscheidungen verbunden ist (Stockmann, 2007).
3.2.1.2 Evaluationsarten
Klassisch wird zwischen zwei grundlegenden Arten von Evaluation, der formativen und der
summativen Evaluation, unterschieden. Diese werden im Folgenden kurz beschrieben:
Evaluationen können dazu dienen, die aktive Gestaltung eines Projektes zu unterstützen.
Diese Art von Evaluation ist prozessorientiert, konstruktiv und kommunikationsfördernd an-
gelegt und wird als formativ bezeichnet. Formative Evaluationen werden während der Im-
plementationsphase durchgeführt, mit dem Ziel, das Projektmanagement bei der Steuerung
zu unterstützen. Durch formative Evaluationen wird also die Strategie bzw. das Programm
eines Projektes während seiner Umsetzung verbessert. Dafür werden Informationen über
den Projektverlauf und die Projektergebnisse gesammelt, systematisiert und bewertet, so-
dass Entscheidungshilfen für die Durchführung gegeben und schon frühzeitig Korrekturen
am Projektdesign ermöglicht werden.
Evaluationen können aber auch nach Abschluss eines Projektes durchgeführt werden. Diese
Evaluationsart ist zusammenfassend, bilanzierend und ergebnisorientiert und wird als sum-
mativ bezeichnet. Ziel dieser Art von Evaluation ist es, den vollen Umfang der Wirkungen,
die durch ein Projekt ausgelöst wurden, zu erfassen und zu bewerten sowie Zusammenhän-
ge aufzudecken. Dadurch wird also festgestellt, ob die Strategie bzw. das Programm eines
Projektes wirksam ist. Dazu soll die Kausalitätsfrage beantwortet werden. Dies bedeutet,
dass die Frage nach den Ursachen der beobachteten Wirkungen genau untersucht werden
soll. Eine weitere wichtige Aufgabe von summativen Evaluationen besteht darin, die Nach-
haltigkeit eines Projektes zu überprüfen (Patton, 2015; Stockmann, 2007).
Seite 11/59
Ein erstes Ziel von Evaluationen kann darin bestehen, Erkenntnisse für die Projektsteuerung
zu gewinnen. Dies bedeutet, dass Informationen gesammelt und beurteilt werden, um daraus
Steuerungsentscheidungen abzuleiten.
Ein zweites Ziel, das Evaluationen verfolgen können, besteht in der Kontrolle. Dabei soll
festgestellt werden, ob die festgelegten Ziele erreicht wurden. Hierfür werden meistens "Er-
folgs"-Kriterien wie Effektivität, Effizienz, Akzeptanz oder Nachhaltigkeit verwendet.
3.2.3.1 Struktur
Durch die Durchführung und Auswertung von Interviews mit Safety Experten in der Aviatik
wurden spezifische Ziele formuliert, die das Tool erreichen soll (AP 1), und Rahmenbedin-
gungen identifiziert, die berücksichtigt werden sollen, um die Anschlussfähigkeit des Tools
sicherzustellen (AP 2). Die Evaluationsmethode im vorliegenden Projekt basiert auf diesen
Zielen und Rahmenbedingungen (vgl. Tabelle 1 und 2).
Um zu überprüfen, ob die Ziele des Safety-II based Tools tatsächlich erreicht werden kön-
nen, wurden objektive Indikatoren für jedes Ziel formuliert. Dies bedeutet, dass für jedes Ziel
definiert wurde, welche Daten durch die Anwendung des Tools generiert werden müssen,
damit das Ziel als erreicht betrachtet werden kann. Ob das Tool die Ziele erreicht, kann also
objektiv durch die Anwendung des Tools überprüft werden.
Inwiefern das Safety-II based Tool die von den Safety Experten aus der Aviatik formulierten
Rahmenbedingungen erfüllt, muss subjektiv eingeschätzt werden. Die Ergebnisse, die durch
die Anwendung des Safety-II based Tools generiert werden, beantworten nicht, ob das Tool
in den Organisationen der Aviatik tatsächlich gut anwendbar ist. Dafür sind Einschätzungen
von Safety Experten notwendig. Die Rahmenbedingungen sind in AP 2 mittels Interviews mit
Safety Experten identifiziert worden. Safety Experten stellen die potentiellen Hauptnutzer des
Tools dar und verfügen über die Erfahrung und das Wissen, die notwendig sind, um ein-
schätzen zu können, ob das neue Tool von Operateuren im Safety Bereich wertgeschätzt,
akzeptiert, verstanden und schlussendlich tatsächlich angewendet werden wird. Ob das Tool
Seite 12/59
die in AP 2 identifizierten Rahmenbedingungen berücksichtigt, soll also von Experten subjek-
tiv eingeschätzt werden. Die subjektiven Einschätzungen von Safety Experten werden in
AP 6 erfasst. Dadurch kann überprüft werden, ob das Safety-II based Tool die Rahmenbe-
dingungen erfüllt, die im in AP 6 zu entwickelnden Implementierungs- und Ausbildungskon-
zept berücksichtigt werden müssen. Die Evaluationsmethode ist aus den eben erwähnten
Überlegungen in zwei Teile strukturiert:
1. Der erste Teil bezieht sich auf objektive Messungen, mithilfe derer überprüft werden
kann, ob das Safety-II based Tool die spezifischen Ziele (Deliverable von AP 1) er-
reicht.
2. Der zweite Teil bezieht sich auf subjektive Messungen, mit denen man überprüfen
kann, ob das Safety-II based Tool die definierten Rahmenbedingungen (Deliverable
von AP 2) erfüllt.
3.2.3.2 Methodik
Seite 13/59
Tabelle 3: Ableitung von Indikatoren aus den Zielen des Safety-II based Tools
Ziele des
Indikatoren Beschreibung der Logik
Safety-II based Tools
Seite 14/59
Stärken von Anpassungsleistungen sind
alle positiven Effekte, die aus dem Vorneh-
6. Das Safety-II based 6. Wird erkannt, ob
men von Anpassungsleistungen entstehen.
Tool identifiziert und durch die Anpas-
Erwünschte Ziele, die dank den Anpas-
beschreibt Stärken sungsleistungen er-
sungsleistungen erreicht werden können,
von Anpassungsleis- wünschte Ziele er-
stellen den Hauptgrund dar, weshalb sie
tungen. reicht werden?
vorgenommen werden, und stellen dem-
nach deren zentralen positiven Effekt dar.
Seite 15/59
durch die Massnah-
me behindert wird?
13. Das Safety-II based 13. Wird erkannt, ob Mas- Das Safety-II based Tool soll überprüfen,
Tool prüft, ob Mass-
snahmen tatsächlich ob Massnahmen tatsächlich umgesetzt
nahmen umgesetzt
umgesetzt werden? werden.
werden.
Seite 16/59
Eine Massnahme ist effektiv, wenn sie das
Ziel erreicht, für das sie eingeführt wurde.
Um dies zu überprüfen, soll beurteilt wer-
den, ob:
die Operateure über das notwendige
14.1 Werden kognitive
Wissen zur Befolgung der Massnahme
Aspekte identifiziert? verfügen (kognitive Aspekte)
14.2 Werden affektive die Operateure der Massnahme gegen-
Aspekte identifiziert? über positiv eingestellt sind, d.h. die
14.3 Werden verhaltens- Massnahme beispielsweise als reali-
bezogene Aspekte sierbar einschätzen (affektive Aspekte)
14. Das Safety-II based identifiziert? das von den Operateuren gezeigte Ver-
Tool prüft die Wirk-
14.4 Werden transferbe- halten massnahmenkonform ist (verhal-
samkeit von Mass-
günstigende bzw. tensbezogene Aspekte)
nahmen.
-behindernde Bedin- die Bedingungen der Organisation ein
gungen identifiziert? massnahmenkonformes Verhalten be-
14.5 Wird erkannt, ob das günstigen oder behindern (transferbe-
angestrebte Ziel der günstigende bzw. -behindernde Bedin-
Massnahme erreicht gungen)
wird? das angestrebte Ziel der Massnahme
tatsächlich erreicht wird und die Mass-
nahme unter den aktuellen Rahmenbe-
dingungen noch Gültigkeit hat (Ergeb-
nis)
(vgl. Definitionen in Kapitel 4.4.3)
Seite 17/59
3.3 Deliverable: Evaluationsmethode inkl. Instruktionen zur Anwendung
Seite 18/59
Da das Effectiveness Assessment
Tool die Effektivität von Massnah-
men überprüft, ist dieses Tool bes-
ser geeignet, den Kontext zu unter-
suchen, in welchem die Massnah-
me eingeführt wird (d.h. die Rah-
menbedingungen einer Massnah-
me).
Seite 19/59
Schritt 8: In diesem Schritt wird
untersucht, auf welchen Kriterien
9.1 Wird erkannt, ob das (die im Schritt 5a identifiziert wur-
Eintreten von uner- den) basierend der Operateur ent-
wünschten Ereignissen, scheiden soll, wie bzw. welche
die auf die Anpassungs- Aufgaben er priorisieren soll. Falls
leistungen zurückzufüh- die Massnahme Anpassungsleis-
ren ist, durch die Mass- tungen behindert, die basierend auf
nahme zugelassen wird? diesen Kriterien korrekt entschie-
den wurden, verhindert die Mass-
nahme das Erreichen von er-
9. Das Safety-II based wünschten Zielen.
Tool identifiziert und
beschreibt Nachteile
von Massnahmen. Schritt 8: In diesem Schritt wird
untersucht, auf welchen Kriterien
(die im Schritt 5a identifiziert wur-
9.2 Wird erkannt, ob das
den) basierend der Operateur ent-
Erreichen von erwünsch-
scheiden soll, wie bzw. welche
ten Zielen, die auf die
Aufgaben er priorisieren soll. Falls
Anpassungsleistungen
die Massnahme Anpassungsleis-
zurückzuführen ist, durch
tungen zulässt, die basierend auf
die Massnahme behin-
diesen Kriterien falsch entschieden
dert wird?
wurden, lässt die Massnahme das
Eintreten von unerwünschten Er-
eignissen zu.
Seite 20/59
3.3.1.2 Effectiveness Assessment Tool
Das Effectiveness Assessment Tool ist in zwei Teile gegliedert: (i) einen Methodenteil zum
Prozess der Ableitung und der Messung von Indikatoren der Umsetzung und der Wirksam-
keitsprüfung sowie (ii) einen Leitfaden mit Fragen zur Unterstützung dieses Prozesses. In
Tabelle 5 wird beschrieben, anhand welcher Fragen zu beantworten ist, ob die Indikatoren
bzw. die Ziele des Effectiveness Assessment Tools erreicht werden. Auch hier gelten die
Ziele als erreicht, wenn die entsprechenden Indikatoren durch Bejahen der Frage als erfüllt
anzusehen sind.
Schritte im
Ziele des Effectiveness Assessment Tool,
Indikatoren
Safety-II based Tools in welchen die Indikatoren erfüllt
werden sollen
Seite 21/59
3.3.2 Subjektive Messungen
Für die Durchführung der Interviews wurde ein Leitfaden von Fragen formuliert (vgl. Tabel-
le 6). Diese entsprechen den in AP 2 identifizierten Rahmenbedingungen, die das Safety-II
based Tool berücksichtigen soll.
1. Berücksichtigt das Tool die gesetzlichen Vorschriften? Könnte das Tool die gesetzlichen Vor-
schriften besser berücksichtigen? Wie?
2. Ermöglicht das Tool das Erreichen eines guten Verhältnisses zwischen Aufwand und Nutzen?
Wie kann der Aufwand der Anwendung des Tools reduziert werden? Wie kann der Nutzen er-
höht werden?
3. Ist das Tool einfach gestaltet (z.B. wird es kurz beschrieben, sind seine Funktionsweise, Abläufe
und Prozesse einfach verständlich und logisch, ist seine Anwendung einfach)? Was könnte ver-
einfacht werden?
4. Ist das Tool gut in den Arbeitsalltag integrierbar (z.B. ist es gut in der eigenen Arbeit anwendbar,
wird es regelmässig gebraucht, vereinfacht es den Arbeitsalltag)? Was sollte verbessert werden,
damit das Tool noch besser in den Arbeitsalltag integriert werden kann?
5. Erreicht das Tool bei den Anwendenden eine hohe Akzeptanz aufgrund des wahrgenommenen
Nutzens (z.B. wird sein Sinn erkannt, weist es einen deutlichen Bezug zur Praxis auf, unterstützt
es den Arbeitsalltag)? Was könnte verbessert werden, damit der Nutzen des Tools deutlicher
wird?
6. Erreicht das Tool bei den Anwendenden eine hohe Akzeptanz aufgrund von Prozesstranspa-
renz (z.B. ist sein Ziel nachvollziehbar, ist seine Funktionsweise gut verständlich, macht die
Plausibilität der Ergebnisse das Tool vertrauenswürdig)? Wie könnte die Prozesstransparenz
erhöht werden?
7. Erreicht das Tool bei den Anwendenden eine hohe Akzeptanz aufgrund seiner Mitarbeiten-
denorientierung (z.B. macht die Anwendung des Tools Spass, entsteht durch die Anwendung
des Tools Wertschätzung gegenüber der Arbeit der Mitarbeitenden, werden die Mitarbeitenden
in die Entwicklung des Tools einbezogen)? Was könnte verbessert werden, um den Bedürfnis-
sen der Mitarbeitenden noch mehr zu entsprechen?
8. Wird das Tool gut geschult und eingeführt (z.B. verfügen die Anwendenden über ein gemeinsa-
mes Verständnis für die Anwendung des Tools)? Wie können Schulung und Einführung des
Tools verbessert werden?
9. Sind die Ergebnisse gut sichtbar (z.B. sind Veränderungen durch das Tool gut sichtbar, sind die
Ergebnisse einfach verständlich und plausibel)? Wie könnte die Sichtbarkeit der Ergebnisse
verbessert werden?
Seite 22/59
3.4 Ergebnisse der Evaluation
Seite 23/59
4 Deliverable AP 3 & 5: Safety-II based Tool sowie Einsatzkonzept
Nachstehend wird das Safety-II based Tool mit Einsatzkonzept beschrieben. Dieses wurde in
Form eines Manuals gestaltet. Da sich aus den in AP 2 identifizierten Rahmenbedingungen
(vgl. Tabelle 2) ergab, dass eine englische Version des Safety-II based Tools seine Umsetz-
barkeit unterstützen würde, wurde das Manual auf Englisch verfasst. In diesem wird zuerst
eine Einführung in das Safety-II based Tool gemacht und die Struktur des Manuals beschrie-
ben. Im Manual wird zuerst das Konzept des Safety-II based Tools erklärt. Darauf folgt ein
erster Teil, in welchem auf das Safety-II based Measure Evaluation Tool eingegangen wird,
und darauf ein zweiter Teil, in welchem das Effectiveness Assessment Tool beschrieben
wird.
The Safety-II based Tool is divided in two parts: a "Safety-II based Measure Evaluation Tool"
and an "Effectiveness Assessment Tool". The reasoning for this structure of the Safety-II
based Tool is discussed in chapter 4.2. Chapter 4.3 describes the Safety-II based Measure
Evaluation Tool with its application concept, the definitions of the terms used, its goals, its
description, and the tool itself. Chapter 4.4 describes the Effectiveness Assessment Tool with
its application concept, the relevant terms and the tool itself.
Seite 24/59
and on the other hand give insights of how the operator has to adjust his performance (sec-
ondary operating conditions). Framework conditions on the other side are more general and
stable over time. They influence the operating conditions. These should also be considered
because they describe the context of a safety measure or an organizational change and
hence, whether it is actual and appropriate in the specific context where it is (to be) imple-
mented. As discussed, safety measures or any organizational change should take into ac-
count both, weaknesses and strengths of prioritizations / adjustment performances. Against
this background, the Safety-II based Tool is conceived to identify possible side effects of
safety measures or other organizational changes (5). By impeding the human operator to
adapt their performance to operating conditions, safety measures or other organizational
changes could:
1. Hinder the positive effects of prioritizations / adjustment performances,
2. Force somehow to compensate for the lacking prioritizations / adjustment perfor-
mances somewhere else,
3. Force the human operator to adapt his performance anyway hidden as a violation.
The two remaining elements of the Safety-II based Tool are the implementation control (6)
and the effectiveness control. It is in fact important to distinguish the conceptualization of a
safety measure from its implementation. Even a very good concept may be implemented
poorly. This is why the Safety-II based Tool aims also at assessing if the safety measure or
any other organizational change is in fact really implemented (6). But even if it is really im-
plemented it must be checked if this implementation is effective, i.e. if the goal why it was
introduced in the first place is really achieved. For this reason, the Safety-II based Tool also
provide support for effectiveness control (7) measures. As it is important to distinguish be-
tween the concept of a safety measure or another organizational change and its implementa-
tion, the two last element of the Safety-II based Tool, the implementation control (6) and the
effectiveness control (7) are separated from the rest of the tool. The Safety-II based Tool is
therefore divided in a Safety-II based Measure Evaluation Tool that analyses and aims at
improving the concept of safety measures and an Effectiveness Assessment Tool that
aims at checking the implementation and assessing the effectiveness of safety measures,
even though this last part does not exclusively base on safety-II assumption.
Seite 25/59
4.3 Safety-II based Measure Evaluation Tool
Time requirements For application of the Safety-II based Measure Evaluation Tool should be re-
for the application served a half of a day.
Seite 26/59
4.3.2 Definitions of Relevant Terms
In Table 2 the main terms of the Safety-II based Measure Evaluation Tool are defined.
Table 2: Definitions of relevant terms of the Safety-II based Measure Evaluation Tool
Safety-I measures:
Safety-I measures aim at improving safety. However, they base on the
assumption that it is possible to completely eliminate the necessity to
prioritize from a function, i.e. that it is possible to perform every job
thoroughly. Hence, safety measures aim at limiting the scope of action
of the human operator performing a function and specify – more or
less precisely – the one-best-way to execute a function that has to be
followed thoroughly.
Safety measures
Safety-II measures:
Safety-II measures as well aim at improving safety. However, they
base on the assumption that it is not always possible to perform every
job thoroughly, i.e. that sometimes the operator has to prioritize jobs
over others by being more thorough in the prioritized jobs and more
efficient (i.e. less thorough) in other jobs (ETTO: Efficiency Thorough-
ness Trade Off) (Hollnagel, Hounsgaard, & Colligan, 2014). Safety-II
measures aim at completing safety-I measures by supporting the op-
erator when he needs to prioritize.
A function comprises the activities that are needed to produce a cer-
tain result, i.e. a function describes what people, organisations and/or
technical systems have to do when performing a task aiming to
achieve a specified objective. If the objective is "maintained technical
device" the corresponding function is "maintaining the technical de-
vice" (Hollnagel et al., 2014).
Function and job
A job is a specific instantiation of a function, it is normally planned with
a due date. If the function is "maintaining the technical device" a corre-
sponding job is the execution of a specific order to perform that
maintenance at a designated device. Often jobs are planned by plan-
ning systems (e.g. ERP) and are ordered by assignments.
The core function is the very function in the focus of the analysis when
Core function applying the Safety-II based Measure Evaluation Tool.
Seite 27/59
Aspects of a function (Figure 2) describe basic characteristics of a
function. They cover its output as well as its operating conditions.
Every function has six aspects that characterize it: Output, Inputs,
Time, Controls, Preconditions and Resources. Depending on the con-
crete state of these operating conditions, the core function has to be
executed in different ways to achieve its output. Therefore, the opera-
ting conditions influence the execution of a function.
Outputs:
The outputs are that which is the result of the function.
Operating conditions:
- Inputs:
Inputs cover that which activates the function and/or
is used or transformed to produce the output.
- Times:
Times are temporal aspects that affect how the func-
tion is carried out (constraint, resource).
- Controls:
Controls supervise or regulate the function, e.g.
plans, procedures, guidelines or other functions.
- Preconditions:
Preconditions are system conditions that must be ful-
Aspects of a function filled before a function can be carried out.
- Resources:
Resources contain that which is needed or consumed
by the function when it is active (matter, energy, com-
petence, software, manpower).
Seite 28/59
Primary operating conditions cause a necessity to do prioritizations /
adjustment performances when performing a job. Thus, primary oper-
ating conditions determine the reason «why» there must be a trade-off
between efficiency and thoroughness (ETTO-principle) when perform-
ing a job. Scarcity of time is an example for a primary operating condi-
tion. The reason for scarcity of time can be manifold: Too little time
planned for performing a job, too many jobs planned for a time period,
etc. Primary operating conditions do not give an indication regarding
what (e.g. which job) should be prioritized over what (e.g. which other
job). They only determine the need to prioritize. Often primary operat-
ing conditions are not job specific but due to the set of jobs given in a
certain job situation.
In order to do so, the Safety-II based Measure Evaluation Tool aims at achieving the follow-
ing objectives:
Seite 29/59
4.3.4 Description of the Safety-II based Measure Evaluation Tool
The Safety-II based Measure Evaluation Tool can be integrated in already existing tools
(goal 11) – e.g. root cause analyses – and is structured in several steps. For every step guid-
ing questions are provided. Following the eight steps of the Safety-II based Measure Evalua-
tion Tool are described:
1. In a first step, the core function should be identified. The core function is per defini-
tion the function where the prioritization / adjustment performance, considered as a
deviation, took place. Through this step it is therefore possible to identify the work as
it really is done and not as it should be done according to the specifications of the
safety measure (goal 1) and to identify the prioritizations / adjustment performances
that the operator actually did (goal 2).
2. In the second step, the concept of the six aspects should be introduced.
3. In a third step, the output should be identified in order to identify wanted and unwant-
ed outcomes of the core function.
4. In the fourth step, the first operating condition, the input, should be identified (goal 4).
Also, variabilities that could arise in the input should be identified in this step.
5. In step 5, the remaining operating conditions and the variabilities that could arise in
these operating conditions should be identified (goal 4). In this step, for all the oper-
ating conditions (including the input) should be further specified if they are primary or
secondary operating conditions, whereby some of them can be both. This is crucial
because through the identification of primary operating conditions the appropriate-
ness of a safety measure can partially be improved (in step 8) from a safety-I per-
spective by reducing the variabilities in the operating conditions that force the opera-
tor to adjust his performance. On the other side, in a safety-II perspective, the identi-
fication of secondary operating conditions would allow to formulate criteria based on
which the operator should decide how / which jobs he should prioritize when the pri-
oritization / adjustment performance cannot be avoided (goal 10).
6. In step 6, the importance of the operating conditions (i.e. how much they influence
the decision of prioritization) should be determined.
7. The consequences of the prioritization / adjustment performance should be identified
in step 7. Through this step the necessity of prioritization / adjustment performance
(goal 3), strengths and weaknesses of prioritization / adjustment performance (goals
5 and 6) and possible side effects of safety measures (goal 9) can be assessed.
8. In step eight, suggestions for developing / improving the safety measure should be
formulated (goal 10).
Seite 30/59
Prioritizations / adjustment performances that are identified to be correct
based on the criteria identified in step 5 should be supported. These lead in
fact to positive outcomes – where the positive outcomes correspond to the
strengths of the prioritization / adjustment performance identified in step 7.
Prioritizations / adjustment performances that are identified to be incorrect
based on the criteria identified in step 5 should be hindered. These in fact
lead to negative outcomes – where the negative outcomes correspond to the
weaknesses of the prioritization / adjustment performance identified in step 7.
This step allows so to identify advantages of safety measures (i.e. supporting the
strengths or hindering the weaknesses of prioritizations / adjustment performances)
that should be enhanced (goal 7) and also to identify disadvantages of safety
measures (i.e. hindering the strengths or allowing the weaknesses of prioritizations /
adjustment performances) that should be reduced (goal 8). This permits to develop
better designed or improve already existing safety measures by enhancing their
strengths and reducing their weaknesses.
Output:
Wanted outcomes:
o What is (normally) the result / the output of this core function?
o What indicates (normally) that the function is completed?
o How does the human operator see that the job is done?
o ...
Unwanted outcomes:
o What should not result from the action/task/job/function?
o What indicates the human operator that he did not do his job satisfactorily / perfectly?
o ...
Seite 31/59
4. Identification of the input under normal operations (and the respective variabilities)
Input:
Input:
o What activates the function? What starts the function?
o How does the human operator know that he has to perform the function?
o ...
Level of variability: How much can the operating conditions variate?
o What does it mean that they are strongly present?
o What does it mean that they are moderately present?
o What does it mean that they are little present?
Key questions to identify variability: Regarding all operating conditions:
o What uncertainties / ambiguities may occur?
o What may be / is usually unclear for the human operator?
o What may be scarce or lacking? What obstacles may occur?
o ...
5a. Identification of the operating conditions (and the respective variabilities, cf. 5b)
5b. Identification of (degree of) variabilities (maybe mixed with step 5a)
Which of the identified operating conditions are the most important, i.e. have the biggest influence
on the prioritization?
Which are the less important, i.e. have the smallest influence on the prioritization?
Seite 32/59
7. Impact of the absence of adjustment performances (unscheduled performances that the employees
have to execute to adapt to variabilities in the operating conditions)
Safety-I measures – fix the problem (in order to reduce the necessity for prioritizing):
o Which ones of the variabilities in the operating conditions (all or only the most important)
can be reduced?
Safety-II measures – make sure that in the (unavoidable) remaining need for prioritizing, prioritiza-
tions are done in an appropriate way
o On which ones of the criteria included in the secondary conditions should human opera-
tors base their prioritizations?
o Can the adjustment performances that follow these prioritizations be allowed / can such a
scope of action be integrated in a safety measure?
Seite 33/59
4.4 Effectiveness Assessment Tool
Times of application
The application of the tool requires only the manual of the tool. For the docu-
Material mentation, templates were developed which can be used if necessary. These
are included in the appendix (cf. Table 8).
The person, that is responsible for the application of the tool, facilitates the pro-
cess and tracks its state. Furthermore, this person decides whether and when
Users other persons have to be involved. Sometimes, it might be useful to consult
subject matter experts. To fulfill the function as facilitator this person has to been
trained in applying the tool.
Seite 34/59
4.4.3 Definitions of Relevant Terms
Table 5 contains definitions of the relevant terms of the Effectiveness Assessment Tool.
Seite 35/59
4.4.4 Introduction in Methodology
Safety measures usually refer to specific safety issues. Examples for such issues are lack of
safety awareness or objects on a landing strip that can be dangerous. Regardless of what
the safety measures are, indicators for their measurement have to be developed and meth-
ods for the measurement of these indicators have to be defined. Figure 4 shows the process
of development, measurement and assessment of indicators. The whole process will be ex-
plained by reference to an (fictional) example. This example assumes that a safety measure
demands the application of a new checklist in the cockpit. The reason is the appearance of
incidents that were assessed as a risk for flight safety. The new checklist was designed by a
safety expert. The target group of this safety measure is the pilots.
Seite 36/59
4.4.5 Step 1 - Development of Indicators
In the following sections information on the steps of development of indicators are provided.
The example presented in Figure 5 is explained step by step.
Seite 37/59
There are two types of indicators: quantitative indicators and qualitative indicators. The dif-
ference is based on the scales of measurement. A scale represents a reference system and
describes the way in which characteristics of indicators are recorded. This is explained more
detailed in the following chapters.
Figure 7: Example of a rating system for behavior (cf. Klampfer et al., 2001, S. 26)
If qualitative indicators are chosen, the number of categories and their content must be de-
fined. This means for example, if there are two categories with good and bad behavior, it is
also necessary to define what good and bad behavior is. It is important that the definitions
are clear comprehensible, unambiguous and easily to understand (Martin & Bateson, 2007).
Seite 38/59
In the example shown in Figure 5 a reference for the indicator "rate of incidents" might be the
number in the previous year. The comparison of the number of incidents of the previous year
and the current number allows a statement regarding the improvement or reduction. For the
indicator "self-appraisal by pilots" a reference could be a mean value of 4 on the five-point
rating scale.
4.4.6.1.1 Objectivity
Objectivity refers to the degree of independence of the results from the examiner. The quality
criterion objectivity can be differentiated into three aspects: objectivity of examination, evalu-
ation and interpretation (Lienert & Raatz, 1998).
Seite 39/59
which have a closed response format, a high objectivity of evaluation is given. In the case of
methods with open question answering (e.g. open questions in a questionnaire or in an inter-
view) that require interpretation, a high objectivity of evaluation is more difficult to achieve. In
contrast to closed response formats, the evaluating person has to decide whether or not a
given answer points in the aimed direction (Lienert & Raatz, 1998). For this, detailed evalua-
tion rules are necessary, the consistent application of which has to be tested (Moosbrugger &
Kelava, 2012).
Objectivity of interpretation is the independence of the interpretation of the result of the ex-
amination by the examiner. A perfect objectivity of interpretation is achieved if different exam-
iners draw the same conclusions from the same evaluation results (Lienert & Raatz, 1998).
4.4.6.1.2 Reliability
Reliability is the degree of accuracy with which a method measures a certain fact (Lienert &
Raatz, 1998). Accuracy means that the measured values of the examination are as free as
possible from measurement errors. The prerequisite for the reliability of a method is its objec-
tivity (Schermelleh-Engel & Werner, 2012). The judgment of an examiner is accurate when
he or she is interchangeable. This is the case when the differences of several examiners are
negligibly small for the same subject (Wirtz & Caspar, 2002). The following example illus-
trates the difference between objectivity and reliability: A recruitment interview is objective if
there is a list with questions (interview guide), all the questions are asked to every interview-
ee in the same order, all interviews take an equally time and there are standardized instruc-
tions for the evaluation of the answers and the interpretation of the results of the evaluation.
The measures to ensure objectivity are used to prevent measurement errors which can arise,
for example through the influence of sympathy and antipathy between interviewers and inter-
viewees, self-presentation strategies of interviewees etc. In addition, errors in the evaluation
are reduced since all interviewers evaluate the answers in the same way. Thus the interview
is a reliable method because it measures the characteristics of interviewees as freely as
possible from non-relevant factors.
4.4.6.1.3 Validity
The validity of a method indicates the degree of accuracy with which this method actually
measures the fact that it is intended to measure or predict (Lienert & Raatz, 1998). Reliability
is an important prerequisite for the validity of a test (Schermelleh-Engel & Werner, 2012).
The following example illustrates the difference between reliability and validity: A recruitment
interview that intends to measure analytical skills but actually measures expertise (which is
not the same as analytical skills) is not valid, but can nevertheless measure expertise objec-
tively and reliably.
Seite 40/59
There are different types of questionnaire surveys (based on Bhattacherjee, 2012):
- Common are mail surveys, where the questionnaire is mailed to a selected group of
people and willing participants can answer the questionnaire and return it in postage-
prepaid envelopes.
- A more recent type is an online or web survey. Participants may receive an e-mail re-
quest for participation in the survey with a link to an online website or as an alterna-
tive the survey may be embedded into an e-mail and can be completed and returned
via e-mail.
Questionnaires can have different types of questions (based on Jonkisz, Moosbrugger &
Brandt, 2012):
- For open questions are no response alternatives specified. The answer is formulated
by the person himself. An advantage of this type of questions is that they require a
reproduction of knowledge or a self-generated response. This makes random re-
sponses (random selection of response options) more difficult. Open questions are
much time-consuming for the participant (and the evaluator). That can be seen as a
disadvantage. Furthermore the evaluation objectivity and therefore also the interpre-
tation objectivity is restricted because of the often occurring ambiguity of the given
answers. Besides, this type of questions are challenging for participants with difficul-
ties in writing.
- Closed questions are characterized by the fact that several alternatives for answers
are offered. The task for the participants is to select the most appropriate or correct
answer category for them. An advantage of this type of question is that it is very eco-
nomical in answering by participants and in the evaluation. Very often the evaluation
of the given responses is done computer-assisted by immediate input of the respons-
es in the computer by participants. As a result, the evaluation objectivity is usually
higher than that of questions with free response format.
Closed questions can have different response formats (based on Bhattacherjee, 2012):
- Dichotomous response, where participants have to select one of two possible choic-
es, e.g. true/false, yes/no, agree/disagree.
- Nominal response, where participants are asked to choose one of more than two un-
ordered options, e.g. place of residence: Zurich, Bern, Basel or other.
- Ordinal response, where participants have more than two ordered options, e.g. age
class: 20-29, 30-39, 40-49, 50-59, 60-69.
- Interval (metric) scaled response, where participants are presented with a rating
scale, e.g. 1-5 or 1-7 points to express the degree of job satisfaction. There are differ-
ing views on the question whether rating scales are ordinal or metric scaled. The re-
search practice assumes that rating scales measure the respective characteristic
metrically (Bortz & Schuster, 2010).
Answers in questionnaires depend strongly on the wording of the questions. The following
should be considered (based on Bhattacherjee, 2012):
Seite 41/59
- Consistency, which means that questions should not use verbalizations or expres-
sions that may be interpreted differently by different participants.
- Uniqueness, which is the absence of double-barreled questions that have multiple
answers, e.g. "Are you satisfied with your tasks and your supervisor?".
It is recommended to conduct a pretest to evaluate the questions before starting the ques-
tionnaire survey. This can help to enhance the quality of the received answers, for example
through the identification of questions that are understood differently by different participants.
A common pretest procedure is an interview with the aim to gain information on whether a
question generates the information that is intended by its constructors (Faulbaum, Prüfer &
Rexroth, 2009). For example, it is of interest how questions or terms are interpreted and un-
derstood (Prüfer & Rexroth, 2005). The following techniques can easily be used in such in-
terviews (based on Faulbaum et al., 2009):
4.4.6.2.2 Interview
Interviews are a method to collect data about people and their preferences, thoughts, and
behaviors in a systematic way (Bhattacherjee, 2012).
There are various forms of interviews from structured, through semi-structured, to unstruc-
tured interviews. These forms can be described as follows (based on Edwards & Holland,
2013):
- In a structured interview the interviewer has prepared all questions beforehand (inter-
view guide) and they are put in the same order to each interviewee. There is no or
only little flexibility available to the interviewer.
- In a semi-structured interview the interviewer has a list of questions (interview guide)
he wants to cover in the interview. There is flexibility in how and when the questions
are put and how the interviewee can respond.
- In an unstructured interview the interviewer has goals for the interview and its topic,
but the importance of this form of interview is to allow the interviewee to talk from his
own perspective using his own ideas and meanings that is familiar to him. The inter-
viewer can use a single question in the beginning of the interview, where the inter-
viewee is encouraged to tell his story.
There are also different types of questions – open and closed questions (see above in sec-
tion questionnaires). Closed questions in interviews are questions where participants are
asked to classify their answer, e.g. "On a scale from 1 to 3, where 1 means «I totally disa-
gree», 2 means «I partly agree » and 3 means «I totally agree», how would you rate the fol-
lowing statement […]?". Open questions in interviews are similar to those in questionnaires
(e.g. "May I ask you to describe the situation […]?"). An advantage of this type of questions
Seite 42/59
in interviews is the possibility to ask again for more depth (e.g. "What happened next?" /
"Who was involved?").
Interviews are an interactional exchange of dialogue. The dialogue can proceed in different
compositions (based on Edwards & Holland, 2013):
Interviews can take place in different settings (based on Edwards & Holland, 2013):
Interviews can be documented with notes in a document created for this purpose («inter-
view protocol») or – more elaborately and therefore probably mostly not feasible in practice –
with transcripts from audio records (Mayring, 2014). It is crucial to write down the given an-
swers without already interpreting them. Therefore the answers should be documented as
complete as possible.
4.4.6.2.3 Observation
Observations are a method to collect data of behavior or events that cannot be asked and
the observed persons are not aware of. They are also a method to verify subjective percep-
tions of people (e.g. the feeling of being interrupted during work often does not necessarily
mean that many interruptions occur). The focus of observations is often on verbal and non-
verbal behavior, social behavior and interaction, and on processes (not results).
Seite 43/59
Observations can be classified with the following criteria (based on Greve & Wentura,
1997):
There are different types of measure in observations (based on Martin & Bateson, 2007):
- Latency is the time from a certain stimulus (e.g. an alert) to the onset of a specified
behavior or event. Latency is measured in time units, e.g. seconds, minutes or hours.
- Frequency is the number of events of occurrences of a specified behavior or event
(e.g. the number of interruptions). This information is only useful and informative
when the total time of which the observed behavior or event is recorded (number per
time).
- Duration is the length of time for which a specified behavior or event lasts (e.g. resus-
citation). Duration is also measured in time units, e.g. seconds, minutes or hours. If a
single act out of a behavior is measured (e.g. the positioning of a patient before start-
ing chest compression and ventilation) it is also necessary to measure the total dura-
tion of the behavior (resuscitation). This allows statements as "2 out of 10 minutes" or
"20% of the time fell on".
- Intensity is the estimation of intensity of a behavior (e.g. situation awareness). The in-
tensity is measured with behavioral marker systems, which usually contain an order
(e.g. 1 = «very bad» to 5 = «very good»).This type is challenging. The categories of
the behavioral marker system must be theoretically well-founded and well defined.
Otherwise, the measurement is error-prone (cf. quality criteria) and non-transparent.
Two basic types of sampling can be differentiated (based on Martin & Bateson, 2007). The
choice of the type depends on the subject of the observation.
Seite 44/59
- Continuous recording or event sampling with continuous observation over a certain
period of time (e.g. "How many times does a certain event occur in a shift of a me-
chanic?"). This type is useful to determine the "true" duration of a behavior or event,
but it may sometimes be difficult to determine the beginning and the end of the be-
havior/event.
- Time sampling, which means the observation of short sequences within a longer epi-
sode (e.g. "How many times does a specific event occur within 10 minutes during the
shift of a mechanic?"). This type is useful when expected behavior or events occur
repeatedly. However, it does not allow determining the "true" duration of a behavior or
event.
Frequency distributions describe how often the different characteristics (e.g. step 1, step 2,
step 3, step 4, step 5 on a five-point scale) of a variable (e.g. an item concerning job satisfac-
tion) occur. It is necessary to differentiate between absolute and relative frequencies: the
absolute frequency indicates how frequently a characteristic is present (e.g. 38 out of 180
employees who participated in the survey are very satisfied with their job). To calculate the
relative frequency, the absolute frequency is referred to the total number (e.g. 21% of the
employees are very satisfied with their job). Histograms and pie charts are well suited to pre-
sent frequencies. Figure 9 illustrates the difference between absolute and relative frequen-
cies in a histogram (on the left part) and a pie chart (on the right part).
Seite 45/59
Figure 9: Absolute and relative frequencies presented in a histogram and a pie chart
The mean value is very common to express the frequency distribution by a single value
which is to represent the entire distribution as well as possible (e.g. the average of the em-
ployee's job satisfaction is 3.5 or a mechanic is interrupted on average 27 times by a tele-
phone call in a shift). The mean value can be calculated if the data is interval (metric) scaled,
which also applies to rating scales (cf. chapter 4.4.6.2). If data is for example dichotomous
(e.g. yes/no) or nominal scaled (e.g. place of residence: Zurich, Bern, Basel or other) a mean
value is little meaningful. It makes sense to make a statement as "The employees are on
average rather satisfied", but not "The employees have their place of residence on average
in Zurich". For such data frequency distributions must be used.
There are three basic forms of content analysis (based on Mayring, 2014):
- The objective of the summary is to reduce text material to the essential contents. The
summary is intended to represent the entire base material. This form is useful to ob-
tain an overview which is the case when little is known about a problem or situation
(e.g. a summary based on notes of an unstructured observation).
- The explication aims to provide additional material on specific parts or issues to gain
a deeper understanding (e.g. an explication of the answers to an open question in the
interview regarding the perception of support of supervisors or to an open question
regarding the reasons for turnover).
- The object of structuring is to filter out particular aspects of the material with prede-
fined criteria. There are several sub forms of this type of analysis. One of these is well
suited for practice. Scaling aims to assess material or certain material parts on a
scale (usually on an ordinal scale). The criteria on which the material is to be as-
sessed on the scale and the scale itself are defined beforehand. An example: If it is
known from literature that autonomy is an important factor for job satisfaction, it is
possible to systematically evaluate interview protocols with regard to statements on
autonomy. Statements can then be assessed on a scale. This scale could have three
steps: 1 = «feels high autonomy at work», 2 = «feels partial autonomy at work», 3 =
«feels little autonomy at work». It has to be described what indicators for these steps
are (e.g. "indicators for a feeling of high autonomy are […]").
Seite 46/59
The procedure of a content analysis is as shown in Figure 10 (based on Mayring, 2014;
adapted to practice):
In the example made with the application of new checklist in the cockpit, the frequency of
incidents has to be compared with the numbers of incidents last year and the mean value
calculated for the self-appraisal of pilots has to be checked against the defined mean value
of 4.
Seite 47/59
Table 6: Guiding questions for implementation check and effectiveness assessment
1. Development of indicators
Implementation Check
How could the implementation of the measure be checked? Which indicators are appropriate for the
measurement?
Effectiveness Assessment
Attitude
What are important characteristics of the attitude of an individual that is supportive or hindering to
the application of the measure? How can these characteristics be recognized?
Does the employee's assessment of the advantages of the measure in comparison to the costs af-
fect the application of the measure? How? And how can this assessment be recognized?
Do the employees assess the measure as
o desirable (Do they expect a value from applying the measure?)
o reasonable (Do they assess the measure as appropriate for the aim of the measure?)
o feasible (Are they convinced that their behavior actually leads to the aim of the measure?)
How can the subjectively assessed desirability, reasonability and feasibility be recognized?
Knowledge
Do employees know the measure's directives? Do employees know the changes due to the meas-
ure in their daily work? How can this be recognized?
Have employees built the knowledge that is needed to follow the measure's directives? How can
this be recognized?
Behavior
How does conform behavior differ from not conform behavior? How can conform / not conform be-
havior be recognized?
Seite 48/59
Transfer promoters and barriers (the list is not exhaustive; there might be other and/or more transfer
promoters and barriers)
Accordance of the measure with workplace:
o Does the measure fit into existing processes? How can a fit be recognized?
o Are there any existing procedures that are contradictory to the new measure? How can con-
tradictions be recognized?
o Does the measure consider the working environment? Are the needed resources (personnel,
time and material) to implement the measure available? What are other important influencing
factors in regard to the implementation of the measure?
Culture for something new:
o How could the organization's/department's/team's culture for changes and innovations be de-
scribed? How does the culture affect the application of the measure? And how can this be
recognized?
Resources:
o Are the needed resources (personnel, time and material) to perform the measure available?
How can this be recognized?
Support of supervisors:
o Do supervisors commit themselves to the measure? How can their commitment be recog-
nized?
o Do supervisors provide support to follow the measures directives? How can supportive ac-
tions be recognized?
Support of team colleagues:
o Do team colleagues commit to the measure? How can their commitment be recognized?
o Do team colleagues provide support to follow the measures directives? How can supportive
actions be recognized?
Feedback:
o Do employees receive feedback if showing a behavior that is in conformity with the measure,
for example from supervisors or through the task itself? How can this be recognized?
Outcome
How can be recognized whether the pursued aim of the measure is achieved?
What were the framework conditions when developing and implementing the measure? What are
the current framework conditions? Is the measure still valid under the current framework conditions?
How can this be recognized?
2. Definition of references
Seite 49/59
4. Methods of evaluation of data
Which method(s) seem(s) to be able to evaluate the collected data having regard to the type of data
(quantitative data or qualitative data) and the kind of scale (e.g. ordinal or interval)?
If a qualitative method is chosen, what form of content analysis is appropriate considering the ques-
tioning of the examination?
Is it meaningful to combine quantitative and qualitative methods? How?
5. Assessment of indicators
Seite 50/59
4.5 Appendix
Both However, the same OC could have primary and secondary character.
Seite 51/59
Figure 11: Template with the definitions of the operating conditions
Seite 52/59
Figure 12: Template for the identification of the core function and of the operating conditions
Seite 53/59
4.5.2 Templates for the Effectiveness Assessment Tool
Table 8: Templates for the documentation of development, measurement and assessment of indicators
Description of construct:
.....................................................................................................................................................
.....................................................................................................................................................
.....................................................................................................................................................
.....................................................................................................................................................
.....................................................................................................................................................
.....................................................................................................................................................
Indicators (quantitative or qualitative) that allow a conclusion on the construct and references to
☐
assess the indicators after their measurement are set
Indicator 1: ...........................................................................................................................
...........................................................................................................................
...........................................................................................................................
Reference: ...........................................................................................................................
...........................................................................................................................
Indicator 2: ...........................................................................................................................
...........................................................................................................................
...........................................................................................................................
Reference: ...........................................................................................................................
...........................................................................................................................
Indicator 3: ...........................................................................................................................
...........................................................................................................................
...........................................................................................................................
Reference: ...........................................................................................................................
...........................................................................................................................
Seite 54/59
Method(s) for collecting and evaluating data to measure the indicators are set taking account of
☐
quality criteria
Measurement ...........................................................................................................................
of indicator 1:
...........................................................................................................................
...........................................................................................................................
...........................................................................................................................
...........................................................................................................................
Measurement ...........................................................................................................................
of indicator 2:
...........................................................................................................................
...........................................................................................................................
...........................................................................................................................
...........................................................................................................................
Measurement ...........................................................................................................................
of indicator 3:
...........................................................................................................................
...........................................................................................................................
...........................................................................................................................
...........................................................................................................................
☐ Statement of progress/regress is made through comparison of the results with the references set
Summary of statement:
.....................................................................................................................................................
.....................................................................................................................................................
.....................................................................................................................................................
.....................................................................................................................................................
.....................................................................................................................................................
.....................................................................................................................................................
Seite 55/59
5 Literaturverzeichnis
Amalberti, R. (2013). Navigating Safety. Dordrecht: Springer.
Bhattacherjee, A. (2012). Social Science Research: Principles, Methods, and Practices. Flor-
ida, FL: University of South Florida.
Bortz, J. & Schuster, C. (2010). Statistik für Human- und Sozialwissenschaftler (7. Aufl.). Ber-
lin: Springer. doi:10.1007/978-3-642-12770-0
Faulbaum, F., Prüfer, P. & Rexroth, M. (2009). Was ist eine gute Frage? Die systematische
Evaluation der Fragenqualität. Wiesbaden: VS Verlag.
Hollnagel, E. (2014). Safety-I and Safety II. The Past and the Future of Safety Management.
Farnham: Ashgate.
Hollnagel, E., Hounsgaard, J., & Colligan, L. (2014). FRAM-the Functional Resonance Anal-
ysis Method: A Handbook for the Practical Use of the Method. Centre for Quality, Re-
gion of Southern Denmark.
Jonkisz, E., Moosbrugger H. & Brandt, H. (2012). Planung und Entwicklung von Tests und
Fragebogen. In H. Moosbrugger & A. Kelava (Hrsg.), Testtheorie und Fragebogenkon-
struktion (S. 27–74). Berlin: Springer. doi:10.1007/978-3-642-20072-4
Klampfer, B., Flin, R., Helmreich, R. L., Häusler, R., Sexton, B., Fletcher, G. et al. (2001).
Enhancing Performance in High Risk Environments: Recommendations for the Use of
Behavioural Markers. Zürich: Gottlieb Daimler und Karl Benz Stiftung.
Lienert, G. A. & Raatz, U. (1998). Testaufbau und Testanalyse (6. Aufl.). Weinheim: Beltz.
Manser, T., Perry, J. & Schmutz, J. (2013). Verhalten ist messbar: Behavioural Marker Sys-
teme und Kompetenzentwicklung. In M. St.Pierre, & G. Breuer (Hrsg.), Simulation in der
Medizin (S. 170–180). Berlin: Springer.
Patton, M. Q. (2015). Qualitative research & evaluation methods: Integrating theory and
practice (4th ed.). Thousand Oaks, California: SAGE.
Prüfer, P. & Rexroth, M. (2005). Kognitive Interviews. Mannheim: Zentrum für Umfragen,
Methoden und Analysen.
Seite 56/59
Schermelleh-Engel, K. & Werner, C. S. (2012). Methoden der Reliabilitätsbestimmung. In H.
Moosbrugger & A. Kelava (Hrsg.), Testtheorie und Fragebogenkonstruktion (2. Aufl.,
S. 119–141). Berlin: Springer. doi:10.1007/978-3-642-20072-4
Stolzer, A. J., Halford, C. D & Goglia, J. J. (2008). Safety Management Systems in Aviation.
UK: Ashgate.
Seite 57/59
6 Abbildungsverzeichnis
Figure 1: Concept of the hexagon of the Safety-II based Tool 25
Figure 7: Example of a rating system for behavior (cf. Klampfer et al., 2001, S. 26) 38
Figure 9: Absolute and relative frequencies presented in a histogram and a pie chart 46
Figure 12: Template for the identification of the core function and of the operating
conditions 53
Seite 58/59
7 Tabellenverzeichnis
Tabelle 1: Pflichtenheft mit spezifischen Zielen für das Safety-II based Tool 8
Tabelle 2: Pflichtenheft mit spezifischen Rahmenbedingungen für das Safety-II based Tool 9
Tabelle 3: Ableitung von Indikatoren aus den Zielen des Safety-II based Tools 14
Table 2: Definitions of relevant terms of the Safety-II based Measure Evaluation Tool 27
Table 7: Template with the definitions of primary and secondary operating conditions 51
Seite 59/59