Beruflich Dokumente
Kultur Dokumente
Arbeitswissenschaft
Unter Mitarbeit von
Marcel Mayer und Klaus Fuchs
13
Univ.-Prof. Dr.-Ing. Dipl.-Wirt.-Ing Univ.-Prof. em. Dr.-Ing. Dipl.-Wirt.-Ing.
Christopher Schlick Holger Luczak
Institut für Arbeitswissenschaft Institut für Arbeitswissenschaft
der RWTH Aachen der RWTH Aachen
Bergdriesch 27 Bergdriesch 27
52062 Aachen 52062 Aachen
Deutschland Deutschland
c.schlick@iaw.rwth-aachen.de h.luczak@iaw.rwth-aachen.de
und Standards durch Abbildungen und Tabellen, die vielfach von den Studieren-
den gewünscht wurde. Aufgrund des großen Buchumfangs hat sich die Marktein-
führung leider um ein Jahr verspätet. Hierfür wird in mehrfacher Hinsicht um
Nachsicht gebeten.
Nunmehr liegt jedoch mit der dritten Auflage ein komplett überarbeitetes Werk
vor, das sich an den bereits für die erste und zweite Auflage geltenden Leitlinien
orientiert und somit eine konzeptionelle Kontinuität gewährleistet:
x Zentrale Gegenstände arbeitswissenschaftlicher Forschung und Lehre sind
Arbeitspersonen, Arbeitsformen und die Arbeitsumgebung, die für eine fach-
systematische Wissensaufbereitung in den technischen, organisatorischen
und humanwissenschaftlichen Kontext des Arbeitssystems gestellt werden.
x Die Arbeitswissenschaft hat eine integrative Funktion hinsichtlich natur- und
ingenieurwissenschaftlicher Erkenntnisse einerseits sowie sozialwissen-
schaftlicher Erkenntnisse andererseits, wobei die Wissenserzeugung, Stoffse-
lektion und -aufbereitung stets auf den arbeitenden Menschen zentriert ist.
x Die Arbeitswissenschaft bedient sich teilweise eklektisch der Modelle und
Methoden anderer, in der Regel stärker grundlagenbezogener Disziplinen
und leistet originäre Beiträge zum wissenschaftlichen und technischen Fort-
schritt durch Ordnungs- und Überbaumodelle von Erkenntnissen sowie die
Verknüpfung von Arbeitsanalyse und -gestaltung auf der Grundlage von wis-
senschaftlich objektiven, validen und reliablen Gestaltungsvorschlägen bzw.
-regeln.
Über die oben genannten zentralen Gegenstände arbeitswissenschaftlicher For-
schung und Lehre hinaus wurden wesentliche Erweiterungen und Ergänzungen
der Kapitelstruktur vorgenommen. Aufgrund des in den letzten Jahren stark ge-
stiegenen Stellenwerts organisatorischer Konzepte, Maßnahmen und Inter-
ventionen wurden eigenständige Kapitel zur Betriebs- und Arbeitsorganisation
sowie der damit eng verbundenen Gruppen- und Teamarbeit verfasst. Sie sollen
auf vielfachen Wunsch der Studierenden dem Leser einen kurzen, aber prägnanten
Überblick vermitteln und einen leichten Einstieg in die zitierte Spezialliteratur
ermöglichen. Weiterhin werden querschnittliche Themengebiete zur Arbeitswirt-
schaft sowie zur Arbeitszeit nach den für das Verständnis wichtigen organisatori-
schen Grundlagen behandelt. Wie bereits in den vorherigen Auflagen ist der
Arbeitsschutz Gegenstand eines eigenen Kapitels und wurde aufgrund der beson-
deren praktischen Bedeutung um Konzepte zur betrieblichen Gesundheits-
förderung ergänzt. Schließlich wurde die in Forschung und Lehre an technischen
Universitäten prioritäre Ergonomie strukturell wesentlich aufgewertet und bildet
nunmehr ein eigenständiges abschließendes Buchkapitel. Gegenüber den vorheri-
gen Auflagen wurden die energetischen, informatorischen und anthropometrischen
Gestaltungsprinzipien der Ergonomie wesentlich erweitert sowie um eigenständi-
ge Abschnitte für die ergonomische Produkt- und Produktionsgestaltung ergänzt.
Die sich auf sämtliche Kapitel erstreckende Aktualisierung und Überarbeitung
des Stoffes wurde in erheblichem Maße von den wissenschaftlichen Mitarbeitern
VIII Arbeitswissenschaft
In der vorliegenden dritten Auflage ist es den Herausgebern (noch) nicht gelun-
gen, die Geschlechtsneutralität des Textes durchgängig zu gewährleisten. In
zukünftigen Revisionen soll dieser anspruchsvollen Aufgabe besondere Aufmerk-
samkeit gewidmet werden. Es muss deshalb an dieser Stelle bei dem Hinweis
bleiben, dass Begriffe, die in der rein maskulinen Form verwendet werden (z.B.
„Benutzer“) die weibliche Form einschließen. Dies gilt zumindest für Text-
passagen, die nicht auf fremde Publikationen referenzieren.
Inhaltsverzeichnis
1 Einführung ...................................................................................................... 1
1.1 Begriffliche Klärungen .............................................................................. 1
1.1.1 Zum Begriff „Arbeit“ .......................................................................... 1
1.1.2 Zwei Aspekte von Arbeit ..................................................................... 2
1.1.3 Arbeit als Einsatz menschlicher Ressourcen ....................................... 3
1.1.4 Arbeit als Herstellung von Produkten und Dienstleistungen ............... 6
1.2 Gegenstand von Arbeitswissenschaft ........................................................ 7
1.2.1 Definitionen ......................................................................................... 7
1.2.2 Theorie-Praxis-Verhältnis.................................................................. 10
1.3 Arbeitsbegriffe, Menschenbilder und das Theorie-Praxis-Verhältnis
arbeitsbezogener Wissenschaften ............................................................ 13
1.3.1 Wirtschaftswissenschaften ................................................................. 14
1.3.2 Soziologie .......................................................................................... 16
1.3.3 Pädagogik .......................................................................................... 18
1.3.4 Rechtswissenschaft ............................................................................ 20
1.3.5 Arbeits- und Organisationspsychologie ............................................. 21
1.3.6 Arbeitsmedizin ................................................................................... 22
1.3.7 Ingenieurwissenschaften .................................................................... 23
1.3.8 Schlussfolgerungen für eine pluri- und interdisziplinäre
Arbeitswissenschaft ........................................................................... 26
1.4 Ordnungszusammenhänge arbeitsbezogener Erkenntnisse und
Gestaltungsansätze .................................................................................. 27
1.4.1 Fundament- und Überbaumodelle...................................................... 27
1.4.2 Hierarchiemodelle.............................................................................. 27
1.4.3 Ebenen- und Segmentmodelle ........................................................... 28
1.4.4 Betrachtungsebenen von Arbeitsprozessen ........................................ 30
1.5 Aufgaben der Arbeitswissenschaft .......................................................... 32
1.5.1 Analysieren ........................................................................................ 34
1.5.1.1 Systemische Analyseansätze ........................................................ 34
1.5.1.2 Belastungs-Beanspruchungs-Konzept .......................................... 38
1.5.1.3 Handlungsregulationstheorie........................................................ 43
1.5.1.4 Generelle Methoden und Techniken zur empirischen Analyse .... 51
1.5.1.4.1 Beobachtung ........................................................................... 51
1.5.1.4.2 Befragung ............................................................................... 53
1.5.1.4.3 Physiologische Messtechnik ................................................... 55
1.5.1.4.4 Physikalische und chemische Messverfahren ......................... 56
X Arbeitswissenschaft
2 Arbeitsperson ................................................................................................ 87
2.1 Konstitution ............................................................................................. 89
2.1.1 Geschlecht ......................................................................................... 89
2.1.1.1 Definition ..................................................................................... 89
2.1.1.2 Rechtliche Grundlagen ................................................................. 90
2.1.1.3 Biologische Aspekte..................................................................... 91
2.1.1.4 Gender Mainstreaming ................................................................. 95
2.1.1.5 Arbeitsmarkt................................................................................. 96
2.1.1.6 Arbeitssituation .......................................................................... 102
2.1.2 Nationalität und ethnische Herkunft ................................................ 108
2.1.2.1 Definition und Relevanz ............................................................ 108
2.1.2.2 Rechtliche Grundlagen ............................................................... 109
2.1.2.3 Interkulturelle Zusammenarbeit ................................................. 110
2.2 Disposition ............................................................................................ 112
2.2.1 Persönlichkeit .................................................................................. 112
2.2.1.1 Definition und Relevanz ............................................................ 112
2.2.1.2 Messung der Persönlichkeit ....................................................... 113
2.2.1.3 Persönlichkeitsentfaltung ........................................................... 114
2.2.2 Alter ................................................................................................. 116
2.2.2.1 Demographische Entwicklung ................................................... 116
2.2.2.2 Jugendliche................................................................................. 118
2.2.2.3 Ältere Arbeitspersonen............................................................... 120
2.2.2.3.1 Leistungsfähigkeit ................................................................ 122
2.2.2.3.2 Leistungsbereitschaft ............................................................ 131
2.2.2.3.3 Produktivität ......................................................................... 132
2.2.2.3.4 Gestaltungs- und Interventionsstrategien ............................. 133
2.2.3 Intelligenz ........................................................................................ 134
2.2.3.1 Definition und Relevanz ............................................................ 134
2.2.3.2 Intelligenzmessung..................................................................... 135
Inhaltsverzeichnis XI
sern, aber auch bei der Arbeit im Freien zu ungünstigen Jahreszeiten oder in
extremen Klimazonen.
x Tätigkeiten, die schwere körperliche Arbeit (z.B. Be- und
Entladetätigkeiten), ständige Konzentration (z.B. Tätigkeiten in Leitwarten,
visuelle Prüfung in der Qualitätskontrolle) oder unbequeme Körperhaltungen
(z.B. Montage oder Schweißen über Kopf) erfordern.
x Monotone (insbesondere kurzzyklische, repetitive) Tätigkeiten, z.B. manuel-
les Einlegen und Entnahme von Teilen in Stanzen, Pressen usw., u.U. nach
vorgegebenem Arbeitstakt (z.B. in Form des sogenannten getakteten Fließ-
bands) und Tätigkeiten, die keine Entscheidungsspielräume und Partizipa-
tionsmöglichkeiten hinsichtlich Planung und Gestaltung der eigenen Arbeit
bieten. Im Zusammenhang mit dem Einsatz von Informationstechnologie
dringen solche, aus kurzen Zyklen aufgebaute Tätigkeiten zunehmend in den
Bereich von Dienstleistungen vor.
x Soziale Isolation oder erschwerte Kommunikation während der Arbeit durch
Absonderung von Arbeitsplätzen, die besondere Umgebungsbedingungen er-
fordern (z.B. Werkstoffprüfung unter UV-Licht) oder aus sonstigen Gründen
aus dem betrieblichen Zusammenhang ausgegliedert sind. In diesem Zu-
sammenhang sind auch Heimarbeit oder außerbetriebliche Arbeitsstätten mit
Computerarbeitsplätzen, sog. „Telearbeit“, zu nennen.
x Organisatorische Bedingungen, die die sozialen Beziehungen außerhalb der
Arbeit und die Freizeitgestaltung beeinträchtigen, insbesondere durch un-
günstige Arbeitszeiten (Nacht, Wochenende, Schichtarbeit). Neben Berei-
chen, in denen sich ungünstige Arbeitszeiten aus der Natur der Arbeit herlei-
ten (z.B. Krankenpflege, Feuerwehr, Verkehrswesen, Gastronomie), finden
sich auch solche, in denen organisatorische Rahmenbedingungen ungünstige
Arbeitszeiten erzwingen (z.B. Kooperation mit weltweit verteilten Partnern
in verschiedenen Zeitzonen) oder in denen Schicht- und Wochenendarbeit
aus ökonomischen Gründen erfolgt (bessere Auslastung kapitalintensiver Be-
triebsmittel). Betraf der ökonomische Aspekt früher hauptsächlich die Pro-
duktion, so betrifft er heute in zunehmendem Maße auch Forschungs- und
Entwicklungsbereiche (z.B. Ingenieure, die an teuren Versuchsträgern arbei-
ten).
Das Spektrum der Gestaltungsmaßnahmen, um den genannten Problemen ab-
zuhelfen, ist vielfältig. Es reicht von der Vermeidung bzw. Substitution gesund-
heitsschädlicher Arbeitsstoffe über Gefahrenaufklärung und Verhaltensmaßregeln,
sicherheitstechnischen Maßnahmen konstruktiver Art und gezieltem Einsatz von
Automatisierung, Gestaltung von Arbeitsablauf und Aspekten der Arbeitsteilung
bis zu Maßnahmen der Partizipation und Dezentralisierung von Kompetenzen und
Zuständigkeiten. Darüber hinaus ist aufgrund des tiefgreifenden Strukturwandels
in den letzten Jahren eine wesentliche Weiterentwicklung der arbeitswissenschaft-
lichen Leitbilder zu verzeichnen (siehe GfA 2000). So wird nicht mehr alleinig auf
das Vermeiden ungünstiger Gestaltungszustände abgezielt, sondern versucht eine
neue Qualität der Arbeit zu fördern, die beispielsweise durch eine intensive
6 Arbeitswissenschaft
1.2.1 Definitionen
Mit den Begriffen „Humanisierung“ und „Rationalisierung“ sind zwei wesentliche
Zielsetzungen der Arbeitswissenschaft angesprochen: Arbeit sowohl menschenge-
recht als auch effektiv und effizient zu gestalten.
Eine an Humanisierungszielen ausgerichtete Rationalisierung (sog. humanori-
entierte Rationalisierung) geht dabei von dem Verständnis aus, dass humane Ar-
beitsbedingungen auch zugleich zu Effektivität (Ergebniserreichung) und Effizi-
enz (geringer Ressourceneinsatz) führen. Die Berücksichtigung der „Ressource
Mensch“ hat daher eine hohe Bedeutung erlangt. Eine einseitige Verfolgung des
einen oder anderen Zieles führt zu deutlich suboptimalen Gestaltungszuständen.
Einer „Kerndefinition“ der Arbeitswissenschaft zufolge (LUCZAK u.
VOLPERT 1987), beschäftigt sie sich mit der jeweils systematischen Analyse,
Ordnung und Gestaltung der technischen, organisatorischen und sozialen Bedin-
gungen von Arbeitsprozessen mit dem Ziel, dass die arbeitenden Menschen in
produktiven und effizienten Arbeitsprozessen
x schädigungslose, ausführbare, erträgliche und beeinträchtigungsfreie Ar-
beitsbedingungen vorfinden,
x Standards sozialer Angemessenheit nach Arbeitsinhalt, Arbeitsaufgabe, Ar-
beitsumgebung sowie Entlohnung und Kooperation erfüllt sehen,
x Handlungsspielräume entfalten, Fähigkeiten erwerben und in Kooperation
mit anderen ihre Persönlichkeit erhalten und entwickeln können.
Gegenstand der Arbeitswissenschaft ist es also, bestehende Arbeitsbedingungen
zu analysieren, das dabei gewonnene Wissen systematisch aufzubereiten und
daraus Gestaltungsregeln abzuleiten. Da gleichzeitig eine Reihe von Zielvorstel-
8 Arbeitswissenschaft
lungen benannt ist, ist damit ein Rahmen für eine Bewertung von realen und kon-
zipierten Arbeitsbedingungen gegeben. Die Arbeitswissenschaft ist dabei eine
relativ junge „Disziplin“ (PREUSCHEN 1973). Abgesehen von philosophischen
und theologischen Ansätzen (siehe HACKSTEIN 1977a; ROHMERT u. LUCZAK
1975) gab es bis zum Zeitalter der industriellen Revolution keine wissenschaftliche
Auseinandersetzung mit der Beziehung Mensch-Arbeit. Erst die technischen,
wirtschaftlichen und sozialen Umwälzungen dieser Epoche erzeugten einen ge-
sellschaftlichen Bedarf nach einer wissenschaftlichen Analyse und Gestaltung
menschlicher Arbeit:
x FÜRSTENBERG (1981) zufolge wurde von den Wissenschaften die Beschäfti-
gung mit der menschlichen Arbeit zuvor als nicht lohnend erachtet, da aus-
reichend viele, politisch unmündige Arbeitskräfte zur Verfügung standen.
x Die Distanz der klassischen Geistes- und Naturwissenschaften zu der Welt
des Alltäglichen ließ die menschliche Arbeit, die in der bestehenden Ausprä-
gung ausgeführt werden musste und deren Ausprägung als unveränderbar
galt, als Objekt für wissenschaftliche Betrachtungen uninteressant erscheinen
(PREUSCHEN 1973).
x Die industrielle Revolution brachte einschneidende Veränderungen der
menschlichen Arbeit mit sich (z.B. Arbeitsteilung, hoher Leistungsdruck,
schlechte, unangepasste Ernährung). Erst die auftretenden Probleme gaben
einen Anstoß zu wissenschaftlicher Durchdringung des Objekts „menschli-
che Arbeit“ (PREUSCHEN 1973).
x Das existierende Handlungswissen, gewonnen aus der betrieblichen Erfah-
rung, konnte nicht mehr ausreichend ausgeweitet werden, um angestrebte
Ziele zu erreichen, und eine wissenschaftliche Betrachtungsweise zur Beur-
teilung von Gestaltungsmaßnahmen in Bezug auf ihre Auswirkungen musste
entwickelt werden (LUCZAK u. ROHMERT 1984).
Die Begriffe „Ergonomie“ und „Arbeitswissenschaft“ tauchen soweit be-
kannt erstmals bei JASTRZEBOWSKI im Jahre 1857 in der Literatur auf (Abb.
1.1). Die dort gegebene Definition orientiert sich bereits an der Zielvorstellung
einer Arbeitswissenschaft, die einerseits auf die Humanisierung und andererseits
auf die Rationalisierung menschlicher Arbeit abhebt, und ist somit immer noch
aktuell.
Allein für die deutschsprachige Literatur von 1923 bis 1975 kann HACKSTEIN
(1977a) 49 Stellen belegen, an denen Aussagen zur Begriffsbestimmung, zu den
Zielen und Aufgaben, zur Einordnung und Abgrenzung der Arbeitswissenschaft
getroffen werden. In den 80er Jahren des letzten Jahrhunderts fand eine breite
Diskussion zwischen verschiedenen fachlichen Ausrichtungen innerhalb der Ar-
beitswissenschaft (sozialwissenschaftlich, ingenieurwissenschaftlich etc.) sowie
unterschiedlichen Rezipientenkreisen arbeitswissenschaftlicher Erkenntnisse (z.B.
Institutionen von Arbeitgebern und Arbeitnehmern) bezüglich der fachlichen
Abgrenzung sowie des gesellschaftlichen Interessenbezugs der Arbeitswissen-
schaft (TOLKSDORF 1984; ABHOLZ et al. 1981; SPITZLEY 1985; ZFA 1982) statt.
Einführung 9
Abb. 1.1: Erste bekannte Definition von Ergonomie und Arbeitswissenschaft nach
JASTRZEBOWSKI (1857) Abdruck aus einer polnischen Wochenzeitschrift
10 Arbeitswissenschaft
In der Definition der IEA wird auch die zuvor schon beschriebene Optimierung
von humanitären („human well-being“) und effektivitätsorientierten („overall
system performance“) Zielen als ein wesentliches Charakteristikum der Wissen-
schaftsdisziplin bezeichnet. Zudem weist die Definition der IEA auf die Wurzeln
der Disziplin in der Arbeitswelt hin (und greift hier auch die Bezeichnung „scien-
ce of work“ auf) und kennzeichnet den in jüngerer Zeit erweiterten Anwendungs-
bereich von „Ergonomics“ („all aspects of human activity“).
1.2.2 Theorie-Praxis-Verhältnis
Die Arbeitswissenschaft ist eine angewandte Disziplin, die auf den steten Kontakt
zur Praxis angewiesen ist. Schließlich verdankt sie ihre Entstehung praktischen
Problemstellungen, die nicht mehr allein durch Erfahrungswissen zu lösen waren,
sondern wissenschaftliche Bemühungen um Aufklärung der Ursache-Wirkungs-
Beziehungen erforderten (LUCZAK u. ROHMERT 1984). Ein Zusammenhang von
Theorie und Praxis resultiert zunächst aus einem Vorlauf im Sinne einer Phasen-
beziehung, der die Theorie gegenüber der Praxis auszeichnet und theoretische
Forschung rechtfertigen muss. Kausal-analytisches Wissen als Leistung der Theo-
rie wird im Zuge praktischer Deutung in technologische Erkenntnis transformiert
und anschließend durch die Filter praktischer Zielsetzungen und Erfahrungen
selektiert. Durch Praxis wird der Wahrheitsgehalt theoretischer Aussagen geprüft,
d.h. der Wert der Aussagen bemisst sich daran, ob sie dem objektiven Sachverhalt,
über den sie etwas aussagen will, gerecht wird. Im Prinzip hat die Praxis damit die
Funktion, Kriterium der wissenschaftlichen Erkenntnis im Theoriebezug zu sein
und als Prüfstein der Wahrheit zu dienen. In diesem wechselseitigen Zusammen-
hang stehen auch Theorie und Praxis in der Arbeitswissenschaft. Aufgrund kom-
plexer Ursache-Wirkungs-Beziehungen, eines schwierigen messtechnischen Zu-
gangs, werden arbeitswissenschaftliche Problemfelder, wie z.B. Leistungsmerk-
male von Arbeitspersonen, Körperfunktionen und Umgebungsparameter, häufig
isoliert behandelt. Im jeweiligen Kontext werden daraus auch Gestaltungs- und
Umsetzungshinweise für Einzelprobleme abgeleitet. Ausgangspunkt ist jedoch
selten eine gesamte arbeitswissenschaftliche Sichtweise, sondern je nach Einzel-
problem, eine naturwissenschaftliche, medizinische, physiologische, psychologi-
sche, pädagogische etc. Betrachtung von Einzelphänomenen. Die Vorgehensweise
ist überwiegend analytisch (siehe Kap. 1.5.1). In einem „bottom up“-Verfahren
kann, ausgehend von Einzelphänomenen, Arbeitsgestaltung betrieben werden;
jedoch ist dieses Vorgehen nicht auf übergreifende Gestaltungsziele orientiert,
vielmehr auf das Einzelphänomen und seine Bewertungsmaßstäbe.
Das Gestaltungsziel ergibt sich also nicht aus dem Arbeitsprozess selbst oder
der wissenschaftlichen Auseinandersetzung mit diesem, sondern aus wirtschaftli-
chen (Kapitalverwertung), politisch-rechtlichen (z.B. Fürsorgepflicht des Arbeit-
gebers), gesellschaftlichen und ethischen (z.B. Wertnormen, Akzeptanz) Motiven.
Aus diesen erst entsteht eine Notwendigkeit oder Verpflichtung zur Beschäftigung
mit Fragen des Arbeitsschutzes, der Arbeitsplatz- und Arbeitsablaufgestaltung
Einführung 11
Gesamtproblem Gesamtlösung
(komplex, nicht direkt lösbar)
A l
Analyse S th
Synthese
Teilprobleme Teillösungen
(lösbar bzw. Lösung bekannt)
spezifische Betrachtungs-
Identitätsprinzipien weise von Einzel-
disziplinen (Aspekte)
Erkenntnisobjekte Arbeitsbegriffe
Beurteilungsansätze Menschenbilder
Unterschiede ergeben sich zunächst aus dem Identitätsprinzip, welches sich aus
der Einbindung in die jeweilige „Mutterdisziplin“ ergibt und zu spezifischen Be-
trachtungsweisen (Aspekten) des gemeinsamen Erfahrungsobjekts führt. Dies hat
zur Folge, dass kein einheitliches Erkenntnisobjekt „menschliche Arbeit“ zugrun-
de liegt, sondern disziplinenspezifische Arbeitsbegriffe, z.B. Arbeit als Produk-
tionsfaktor, Arbeit als Verausgabung menschlicher Ressourcen etc.
Die Beurteilung von Arbeit orientiert sich wiederum an spezifischen Men-
schenbildern, die mit den jeweiligen Arbeitsbegriffen korrespondieren. Grundlage
für eine Beurteilung können danach Kosten, Schädigungslosigkeit, Persönlich-
14 Arbeitswissenschaft
1.3.1 Wirtschaftswissenschaften
Innerhalb der Wirtschaftswissenschaften existieren entsprechend der mehr oder
weniger generalisierenden Betrachtung von Arbeitsprozessen verschiedenartige
Arbeitsbegriffe und Menschenbilder:
Die Volkswirtschaftslehre (VWL) versucht, wirtschaftliche Zusammenhänge
und Gesetzmäßigkeiten aus einer makroskopischen Perspektive zu verstehen,
bevor Details oder auch die Wirkungen bestimmter Eingriffe in die Wirtschaft
untersucht werden (SCHIERENBECK u. WÖHLE 2008). Dafür werden Modelle
wirtschaftlicher Vorgänge entwickelt, welche das Verhalten von Haushalten und
Betrieben in Märkten beschreiben und die Entwicklung von Preisen, Löhnen,
Produktion und Handel anhand eines breiten Spektrums von Einflussgrößen erklä-
ren.
Infolgedessen ist in der Volkswirtschaft Arbeit auf abstrakter Ebene ein ele-
mentarer Produktionsfaktor, das Arbeitsergebnis ist in Form von Kapital akku-
mulierbar. Der Mensch wird als rationaler Träger von Entscheidungen nach Nut-
zenerwägungen gesehen, die nach wirtschaftlichen Kriterien und Rah-
menbedingungen gefällt werden. Aus den volkswirtschaftlichen Produktionstheo-
rien lassen sich aufgrund der Ausrichtung auf Wirtschaftssysteme nur sehr allge-
meine Gestaltungsaussagen für die arbeitsbezogene Praxis treffen, wie zum Bei-
spiel für die Steuerung des Arbeitsmarktes, der Wachstumsraten oder der Ent-
Einführung 15
1.3.2 Soziologie
Die für die Arbeitswissenschaft besonders relevanten soziologischen Teildiszipli-
nen der Arbeits-, Industrie- und Betriebssoziologie lassen sich nicht einheitlich
und trennscharf definieren. Daher wird hier weniger eine Differenzierung verwen-
deter Arbeitsbegriffe, sondern eine Differenzierung unterschiedlicher Betrach-
tungsebenen der Arbeitssoziologie als übergeordnete Teildisziplin vorgenommen.
Die Betrachtungsebenen und die auf ihnen fokussierten Analyseaspekte sind als
interdependent zu verstehen. Auf der ersten Ebene bilden das Individuum als
Arbeitsperson, seine spezifische Arbeitssituation und seine Funktion als Teil eines
Arbeitssystems den Mittelpunkt der Betrachtung. Hier finden Überlegungen zur
Arbeitszufriedenheit und -motivation sowie Analysen zur Arbeitssystem- und
Einführung 17
Im Grenzbereich zwischen der dritten und vierten Ebene ist ein „klassischer“
Bereich der Arbeitssoziologie anzusiedeln, der gemeinhin als Industriesoziologie
bezeichnet wird und sich mit den ökonomischen, sozialen und politischen Bedin-
gungen der Herausbildung und des Wandels von Strukturen industrieller Produk-
tion befasst. Aufgrund der Expansion des Dienstleistungssektors gegenüber dem
industriellen Sektor wechselt hier der Betrachtungsfokus zunehmend von der
industriellen Produktion auf Geschäftsprozesse in indirekten bzw. Dienstleis-
tungsbereichen. Einfluss nimmt hier die Wirtschaftssoziologie als soziologische
Teildisziplin, sofern sie sich dem wirtschaftlichen Handeln als eine besondere
Form des sozialen Handelns, den Strukturen und Prozessen in der Wirtschaft als
ein gesellschaftliches Teilsystem und dem Verhältnis von Wirtschaft und Gesell-
schaft widmet. In diesem Bereich sind bspw. Themen wie die Internationalisie-
rung und Globalisierung von Wirtschaftsstrukturen und die damit verbundenen
Bedingungen und Auswirkungen für nationen- und kulturübergreifende Unter-
nehmenskooperationen anzusiedeln (BECKENBACH 1991).
Einen umfassenden Blick auf das Zusammenspiel von Arbeits- und Lebenswelt
bietet schließlich die vierte Betrachtungsebene, welche die Lebensweltperspektive
von Arbeitspersonen und die sozial-kulturelle Prägung der Arbeitswirklichkeit
untersucht. Arbeit wird dabei im Kontext des Lebenszusammenhangs gesehen, der
Arbeitsverhalten und -einstellung maßgeblich determiniert. Aus dem sehr umfas-
senden Bereich der Soziologie der Moderne bzw. der Soziologie moderner, (wirt-
schaftlich) entwickelter Gesellschaften werden Anregungen etwa in Form der
Wertewandeldiskussion und der Betonung des Subjektivitätsbedarfs in immer
komplexer werdenden gesellschaftlichen und damit auch wirtschaftlichen Prozes-
sen geliefert.
1.3.3 Pädagogik
Innerhalb der Pädagogik, deren Arbeitsbegriff sich im Hinblick auf den Erfah-
rungs-, Qualifikations- und Professionalisierungsbereich mit dem der Soziologie
überschneidet, sind drei Sichtweisen menschlicher Arbeit zu nennen (SCHELTEN
1995, SCHELTEN 1997): Die der Arbeitslehre, der Berufsbildungsforschung und
der Arbeitspädagogik. Arbeitsbegriffe sind jeweils die Lehr- und Lerninhalte, das
Menschenbild ist das des lernenden Menschen. Die genannten Disziplinen unter-
scheiden sich vor allem durch ihre Lehr- und Lerninhalte sowie durch die Umge-
bung, in der gelehrt wird, also durch ihre Gestaltungsfelder.
Die Arbeitslehre versucht z.B. an allgemeinbildenden Schulen ein Bewusstsein
für die Probleme der Arbeitswelt zu vermitteln. Diese Inhalte sind jedoch nicht
fachspezifisch.
Die Berufsbildungsforschung beschäftigt sich im Gegensatz zur Arbeitslehre
mit der Ermittlung von Grundlagen, Inhalten und Zielen der Berufsbildung, um
diese an technische, wirtschaftliche und gesellschaftliche Entwicklungen anzupas-
sen. Sie ist eine wesentliche Aufgabe des Bundesinstitutes für Berufsbildung.
Hierzu gehört auch die Erstellung von Lehrplänen zur Vermittlung von berufsspe-
Einführung 19
zifischen Lerninhalten. Sie orientiert sich dabei an den Anforderungen des gelehr-
ten Berufes. Die Ausbildung findet bspw. an berufsbildenden Schulen, Fachschu-
len, Hochschulen oder im dualen System (Schule und Betrieb) statt.
Im Bereich der Arbeitspädagogik geht es um die Erforschung der Vorausset-
zungen, Durchführungen und Ergebnisse aktuellen Arbeitslernens einerseits und
um Qualifizierungsmaßnahmen für die Bewältigung von Arbeit andererseits (RE-
FA 1991). Die Gestaltungsfelder der innerbetrieblichen Einweisung, Ausbildung,
Fort- und Weiterbildung sind damit der Arbeitspädagogik zuzuordnen.
Innerhalb der oben beschriebenen Teildisziplinen ist keine einheitliche Zielvor-
stellung mit dem Arbeitsbegriff verbunden. Selbst innerhalb dieser Teildisziplinen
differieren die Begriffsverständnisse von Arbeit und dem zugrunde gelegten Men-
schenbild.
Im Folgenden wird beispielhaft ein Begriffsverständnis der Berufsbildungsfor-
schung dargestellt, um den grundsätzlichen Unterschied eines pädagogischen
Ansatzes zu wirtschaftswissenschaftlichen Ansätzen, in denen Arbeit im Wesent-
lichen als ein elementarer Produktionsfaktor betrachtet wird, herauszuarbeiten.
In dem berufspädagogischen Ansatz der „Arbeitsorientierten Exemplarik“ von
LISOP u. HUISINGA (1994) wird Arbeit nicht verengt als Erwerbsarbeit gesehen,
vielmehr beschreiben sie Arbeit in einem umfassenden Sinne als pädagogische
Kategorie menschlicher Entfaltung. Arbeit wird in diesem Ansatz insofern als eine
sinnerfüllte Tätigkeit gesehen, als dass (1) in ihr und durch sie menschliche Poten-
ziale entäußert und angeeignet werden und sie (2) das Medium der Befriedigung
der Lebensbedürfnisse ist.
Dem Begriff der Arbeit wird das Phänomen der Entfremdung gegenübergestellt
und mit den folgenden Kriterien erörtert:
x „Machtlosigkeit im Sinne des Ausgeliefertseins an sogenannte Sachzwänge,
die sich verselbständigt und verabsolutiert haben;
x Sinnlosigkeit im Sinne der Ausweglosigkeit, weil keine Möglichkeit der Ein-
sicht in Zusammenhänge besteht und die Folgen von Entscheidungen im
Dunkeln bleiben;
x Normlosigkeit aufgrund sozialer Desintegration der Individuen wie von
Desintegriertheit des Sozialgefüges selbst, häufig bei gleichzeitiger Isolie-
rung gesellschaftlicher Gruppen und deren Normen;
x Selbstentfremdung im Sinne der Außenlenkung und des Manipuliertwerdens
des Menschen, der Verkrüppelung der Autonomie bis hin zur Sinnentleerung
der Arbeit, ja des Lebens, indem das eigene Sein zu einem entäußerten und
veräußerlichten Objekt gerät, ja im Extremfall auf seine bloß vegetative Er-
scheinungsform zurückzusinken droht.“ (LISOP u. HUISINGA 1994)
Mit der Kategorie von Arbeit stellen sie somit die Frage nach Entfremdung und
der Aufhebung von Entfremdung als Wesensbestimmung des Menschen und sie
stellen die Frage nach der Entfaltung des menschlichen Wesens als Kategorie von
Bildung und Erziehung. Beim Beantworten dieser Frage gehen sie von dem fol-
genden Menschenbild aus: „Subjekt ist der selbstbestimmte, aktive, die ihn umge-
20 Arbeitswissenschaft
bene Welt und die Geschichte reflektierende und bewusst gestaltende wie sich
selbst entfaltende Mensch.“ (LISOP u. HUISINGA 1994)
Mit diesem Arbeits- und Subjektbegriff wird beispielhaft deutlich, dass päda-
gogische im Gegensatz zu wirtschaftswissenschaftlichen Ansätzen nicht die
höchste Effektivität des Arbeitsprozesses selbst, sondern die Effektivität in der
geistigen und gruppenbezogenen Auseinandersetzung mit den Arbeitsbedingungen
zum Ziel haben.
1.3.4 Rechtswissenschaft
Die Rechtswissenschaft betrachtet Arbeit als Gegenstand rechtlicher Regelungen
auf zwei Ebenen. Einerseits als Institution innerhalb der Gesellschaft mit Kollek-
tivverträgen, Arbeitsverbänden, Tarifvertragsrecht, Betriebsverfassungsrecht usw.,
andererseits als Aufeinandertreffen von Individualsphären (Arbeitnehmer-
Arbeitgeber), die von ihren Machtverhältnissen her nicht gleichrangig sind (Ar-
beitsschutzrecht, Kündigungsschutz, Datenschutz u.A.). Dementsprechend existie-
ren auf beiden Ebenen unterschiedliche Menschenbilder und zwar
x Kollektive zur Vertretung von Interessenlagen und
x natürliche Personen, die mit Rechten und Pflichten sowie der Fähigkeit, die-
se Rechte und Pflichten in einem bestimmten Umfang wahrzunehmen, aus-
gestattet sind.
Auf beiden Ebenen bildet, basierend auf rechtsphilosophischen Grundlagen,
das Schutzbedürfnis der Arbeitnehmerseite die Basis für gestaltende Eingriffe
(z.B. Gesetze). Dabei wird häufig auf arbeitswissenschaftliche Erkenntnisse zu-
rückgegriffen (z.B. Grenzen für Überforderung, Schädigung usw.). Da nicht alle
Rahmenbedingungen im Detail gesetzlich geregelt werden können, und zudem
oftmals einer dynamischen Veränderung unterworfen sind, kommt Kollektivver-
einbarungen (Tarifverträgen und Betriebsvereinbarungen) eine wichtige Rolle zur
Gestaltung von Arbeitsbeziehungen zu. Individuelle Regelungen werden auf der
Basis von Einzelarbeitsverträgen geschlossen, die zusätzliche Vereinbarungen zu
kollektivvertraglich oder gesetzlich nicht geregelten Fragen enthalten. Die Rechts-
akte der Europäischen Union und die Rechtssprechung des Europäischen Ge-
richtshofes nehmen vermehrt Einfluss auf die nationalen Rechtsordnungen. Damit
ergibt sich folgende Rechtssystematik (SCHNEIDER 1996, RICHARDI u. WLOTZKE
1993):
x Grundgesetz (z.B. Gleichberechtigung von Mann und Frau im Arbeitsleben,
freie Wahl des Arbeitsplatzes, etc.)
x Arbeitsrechtliche Gesetze (z.B. Arbeitszeitgesetz, Arbeitsschutzgesetzgebung
(siehe Kap.8.1), Betriebsverfassungsgesetz, etc.)
x Kollektives Arbeitsrecht in Form von Tarifverträgen und Betriebsvereinba-
rungen
x Individualarbeitsrecht in Form von Einzelarbeitsverträgen.
Einführung 21
1.3.6 Arbeitsmedizin
Die Arbeitsmedizin ist die medizinische, vorwiegend präventiv orientierte Fach-
disziplin, die sich mit der Untersuchung, Bewertung, Begutachtung und Beeinflus-
sung der Wechselbeziehungen zwischen Anforderungen, Bedingungen, Organisa-
tion der Arbeit einerseits sowie dem Menschen, seiner Gesundheit, seiner Arbeits-
und Beschäftigungsfähigkeit und seinen Krankheiten andererseits befasst. Die
Ziele der Arbeitsmedizin bestehen in der Förderung, Erhaltung und Wiederherstel-
lung von Gesundheit sowie der Arbeits- und Beschäftigungsfähigkeit des Men-
schen (DGAUM 2004). Kennzeichnend für das Menschenbild einer modernen Ar-
beitsmedizin ist die ganzheitliche Betrachtung des arbeitenden Menschen mit
besonderer Berücksichtigung somatischer, aber auch psychischer und sozialer
Prozesse (PERLEBACH 2007).
Aufgrund des gemeinsamen Bezuges auf die Arbeitsphysiologie als konstituti-
ves Element, besteht eine enge Verbindung zwischen der Arbeitsmedizin und der
Arbeitswissenschaft (LUCZAK et al. 1983; STRASSER 2007). Dabei betrachtet die
Arbeitsphysiologie vorwiegend den Bau und die Funktion des menschlichen Kör-
pers und seiner Organsysteme mit dem Ziel, eine seinen Fähigkeiten entsprechen-
de Umgebung zu schaffen. Sozusagen als Nebeneffekt wird damit erreicht, dass
der Arbeitsprozess optimiert und eine rationellere Leistungserstellung ermöglicht
wird.
Einführung 23
1.3.7 Ingenieurwissenschaften
Frühe ingenieurwissenschaftliche Ansätze zur Analyse, Bewertung und Gestaltung
menschlicher Arbeit finden sich bei Leonardo da Vinci (siehe HACKSTEIN 1977b),
dessen Werk bekanntlich nicht nur zahlreiche Kunstwerke, sondern auch eine
große Anzahl von Entwürfen für Maschinen und Gebäude umfasst. Leonardo da
Vinci hat intensiv die Bewegungen des Menschen studiert, um sie unter anderem
in den von ihm erfundenen Maschinen nachzuvollziehen (MOUNIER 1963). Darü-
ber hinaus hat er seine durch Beobachtungen und Messungen gewonnenen ar-
24 Arbeitswissenschaft
Technik genutzt werden, wird als Arbeit verstanden. Aus dem Verhältnis zur
Technik ergeben sich dann zwei verschiedenartige Menschenbilder einerseits
der Mensch, der Technik durchschaut und an ihrer Weiterentwicklung beteiligt ist
(„homo faber“), andererseits der Mensch, der der Technik ausgeliefert ist, der sie
lediglich konsumiert und der auf sie reagiert, ohne die Zusammenhänge zu kennen
(„animal rationale“, siehe Kap. 1.1.2).
Über die Nutzung von Technik als Mittel der Gestaltung menschlicher Arbeit
hinaus ist der Einsatz von ingenieurwissenschaftlichen Methoden zum besseren
Verständnis und zur Vorhersage menschlicher Vorgänge beim Arbeiten ein ganz
wesentlicher Bezug der Ingenieurwissenschaften zur Arbeitswissenschaft. So
werden z.B. biomechanische Ersatzmodelle des Menschen zur Analyse, Bewer-
tung und Gestaltung körperlicher Arbeit verwendet (Kap. 3.2, Kap. 10.1.3.4) so-
wie thermodynamische Modelle, um die Wärmeregulation unter verschiedenen
klimatischen Bedingung zu beschreiben (Kap. 9.4). Es werden die Methoden der
Regelungstechnik bzw. Systemtheorie verwendet, um Regelkreise mit dem Men-
schen als Regler und dem zu führenden Arbeitsmittel bzw. der zu führenden Ma-
schine als Regelstrecke aufzubauen und zu berechnen (Kap. 3.3.1.2.3). Die Me-
thoden der Informationstheorie dienen dazu, Reaktionszeiten bei der Mensch-
Maschine-Interaktion vorherzusagen, die Komplexität der Interaktionsprozesse zu
bewerten sowie ganz allgemein die menschliche Informationsverarbeitung zu
modellieren (Kap. 3.3.1.2.2). Die Signalentdeckungstheorie, die ursprünglich in
der Nachrichtentechnik entstanden ist, wird genutzt, um sicherzustellen, dass
kritische Ereignisse in der Arbeitsumgebung sicher wahrgenommen werden und
eine angemessene Reaktion erfolgt (Kap. 3.3.1.2.1). Ferner nimmt die Nutzenthe-
orie (utility theory) eine historisch besondere Stellung bei der Modellierung der
menschlichen Hypothesenbildung und Handlungsauswahl ein und dient dazu,
menschliches Verhalten in komplexen Mensch-Maschine-Systemen vorherzusa-
gen und zu bewerten (Kap. 3.3.2.2.2.1). Schließlich sind systemtechnische Metho-
den in der Arbeitswissenschaft weit verbreitet, um beispielsweise Arbeitsstruktu-
ren und -prozesse zu beschreiben sowie Ursache-Wirkungs-Beziehungen zu mo-
dellieren (Kap. 1.5.1.1).
Aufgrund der vielfältigen methodischen Bezüge ist es es nicht überraschend,
dass ingenieurwissenschaftliche Modellvorstellungen oft die Grundlage arbeits-
wissenschaftlicher Konzepte sind insbesondere im Hinblick auf die (technische)
Ergonomie. So basiert das Belastungs-Beanspruchungs-Konzept (siehe Kap.
1.5.1.2) auf einer Analogie zur technischen Mechanik und ist systemtechnisch
formuliert. Ergonomische Gestaltungskonzepte beziehen ihre Grundlagen i.d.R.
auf die Konstruktionsmethodik (siehe Kap. 10.3.1). Dies gilt sowohl für die Struk-
turierung von Informationen über technisch komplexe Systeme (z.B. in Form von
Abstraktionshierarchien, siehe Kap. 3.3.2.2.5.1, Kap. 10.1.2.3.2.1) als auch die
konstruktionsmethodische Vorgehensweise bei der menschzentrierten Auslegung.
Arbeitswissenschaftliche Optimierungskonzepte stützen sich zum Teil auf Ziel-
funktionen, die für Ingenieurwissenschaften typisch sind, beispielsweise die Ma-
ximierung des Wirkungsgrads oder die Minimierung des Risikos eines Schadens-
26 Arbeitswissenschaft
1.4.2 Hierarchiemodelle
Bei diesen Ordnungsmodellen ist eine Hierarchie nicht auf eine Ordnung von
Disziplinen, sondern auf Beurteilungsebenen des Verhältnisses Mensch-Arbeit
bezogen. So sind zum Beispiel zur Erzielung menschengerechter Arbeitsbedin-
gungen menschliche Bedürfnisse in verschiedenen Wertungsebenen in einer be-
stimmten Reihenfolge zu erfüllen. Als arbeitswissenschaftliche Beurteilungsebe-
nen können die Kriterien Ausführbarkeit, Erträglichkeit, Zumutbarkeit und Zu-
friedenheit menschlicher Arbeit (siehe Kap. 1.5.2) definiert werden. Darüber hin-
aus werden die menschlichen Bedürfnisse z.B. im Rahmen der Maslow´schen
Motivationstheorie in einen hierarchischen Zusammenhang gestellt (siehe
Kap. 2.4.1.2).
Die Hierarchie der Ebenen ergibt sich aus der Ordnungsbedingung, dass die Er-
füllung der menschlichen Bedürfnisse auf einer niedrigeren Ebene Voraussetzung
für deren Erfüllung auf der nächsten Ebene ist. Ein Beispiel für die Verletzung
dieser Bedingung ist der Fall eines Menschen, der infolge seiner persönlichen
Motivation eine hohe subjektive Arbeitszufriedenheit erfährt, jedoch bei seiner
Tätigkeit durch eine mangelnde ergonomische Gestaltung des Arbeitsplatzes im
Hinblick auf Schädigungslosigkeit gesundheitlichen Schaden nimmt. In diesem
Fall wurde die vorgestellte Hierarchie nicht eingehalten.
28 Arbeitswissenschaft
Strukturebenen Verlaufsebenen
des Arbeitsprozesses des Arbeitsprozesses
(Betrachtungsgegenstand)
S7
Weitester Kontext
Produktions- und Verkehrsverhältnisse V6
S6 Arbeitsbezogene politische Aktion
Mittlerer Kontext
Struktur des Betriebes V5
S5 Auseinandersetzung der betrieblichen Akteure
Nächster Kontext
Struktur der Arbeitsgruppe V4
S4 Kooperative Gruppenarbeit
Subjektsystem
S bj kt t
Tätigkeitssystem einer Person V3
S3 Motivbezogene Tätigkeit
Funktionale Mittel der Person
Zweckgebundene Subsysteme (Aufgaben) V2
S2 Zielgerichtete bewusst regulierte Handlung
Obere Ebene körperlicher Mittel
P d kti S
Produktive Subsysteme
b t (Sensumotorik)
(S t ik) V1
Sensumotorische Automatismen
S1 (Operationen)
Untere Ebene körperlicher Mittel
Reproduktive Subsysteme des Körpers
7.
Arbeit und Gesellschaft
6.
Betriebliche Arbeitsbeziehungen und Organisation
(Produktion, Dienstleistung, Verwaltung)
5.
Kooperationsformen in Arbeitsgruppen
4.
Personales Handeln und Arbeitsformen
3.1 3.2
Psychische Regulation der Arbeitstätigkeit Systembetrachtung von Arbeitsplätzen
2.1 2.2
Biologische und psychologische Grundlagen Technische Grundlagen der Arbeitsgestaltung
Die Ebene (6) hat die betrieblichen Arbeitsbeziehungen zum Gegenstand. Dies
sind Fragen der Mitbestimmung und Personalvertretung (Aufgaben von Betriebs-
bzw. Personalräten) sowie Fragen der Organisation und andere unternehmensstra-
tegische Entscheidungen, soweit sie die menschliche Arbeit betreffen (Industrial
Relations).
Die nach diesem Schema umfassendste Betrachtungsebene (7) bezieht sich auf
den gesellschaftlichen Kontext von Arbeit. Typische Fragestellungen auf dieser
Ebene beschäftigen sich mit der Arbeit in der Gesetzgebung (Arbeitsrecht), Arbeit
als volkswirtschaftlicher Produktionsfaktor, strukturellen und konjunkturellen
Veränderungen von Beschäftigung und Arbeitsmarkt, beruflichen Bildungskon-
zepten sowie überbetrieblichen Aktivitäten der Tarifpartner.
32 Arbeitswissenschaft
Ebenen Disziplinen
Macro-
Ergonomics
Wirtschaftsswissenschaften
Arbeit und Gesellschaft
Soziologie
Betriebliche Arbeitsbeziehungen Arbeits- und Organisationspsychologie
g
und Organisation
internatioonaler Sprachgebrauch
im deuttschsprachigen Raum
Kooperationsformen in
Arbeitsgruppen
Arbbeitswissenschaft
Pädagogik
Kern der
Arbeitsumgebung
Abb. 1.6: Verknüpfung von Fachdisziplinen mit den Betrachtungsebenen der Arbeitswis-
senschaft
schen. Mit Bezug auf den in Abb. 1.2. dargestellten Problemlösezyklus ist Ordnen
in arbeitswissenschaftlichen Gestaltungsfragen bereits Bestandteil der Synthese.
Hierzu ist bei existierenden Arbeitssystemen zumindest eine Bewertung des Aus-
gangszustands im Hinblick auf die in der Kerndefinition genannten Kriterien not-
wendig sowie eine vorausschauende (antizipative) Bewertung der Wirksamkeit
von Aktivitäten, mit denen im Hinblick auf die Arbeitsperson und -aufgaben bes-
sere Gestaltungszustände erreicht werden können. Aber auch auf einer reinen
Modellebene wird es bei komplexen Arbeitssystemen unumgänglich sein, die
theoretisch möglichen Gestaltungszustände einem personenzentrierten Bewer-
tungsschema mit Kriterien unterschiedlicher Gewichtung zu unterwerfen und für
das Aufstellen und Lösen einer Zielfunktion zu nutzen. Insofern setzt das Ordnen
in der Regel eine dezidierte Bewertung voraus. Diesbezüglich wurden unter-
schiedliche Konzepte entwickelt, die in Kap. 1.5.2 eingeführt und diskutiert wer-
den.
Schließlich ist die Arbeitssystemgestaltung ein (zumeist) kreativer und in
Kenntnis der Bewertungs- und Ordnungszusammenhänge methodisch geleiteter
Schaffensprozess des Arbeitsplaners bzw. der Arbeitspersonen selbst, bei wel-
chem durch ihre Tätigkeit ein Arbeitsmittel, Arbeitsobjekt, Arbeitsprozess o.Ä.
zielgerichtet und bewusst verändert wird, das heißt, erzeugt, angepasst oder neu
entwickelt wird und dadurch eine bestimmte Funktion, Form oder Gestalt verlie-
hen bekommt. Dies schließt die Entwicklung von Maßnahmenplänen ein. Diesbe-
züglich wurden vielfältige Modellvorstellungen entwickelt, die in Kapitel 1.5.3
kurz eingeführt werden und in Kapitel 10 im Hinblick auf die ergonomische Ge-
staltung von Arbeitssystemen im Detail behandelt werden.
1.5.1 Analysieren
1.5.1.1 SystemischeĆAnalyseansätzeĆĆ
Der Systemansatz bietet eine allgemeingültige Darstellungsweise für die Struktur
verschiedener Phänomene. Kennzeichen eines Systems ist, dass es über eine Sys-
temgrenze, die es von der Umgebung abteilt, Systemelemente und Beziehungen
zwischen den Elementen und ggf. zur Umgebung verfügt (Abb. 1.7). Das betrach-
tete System kann einerseits Teil- oder Subsystem eines übergeordneten Systems
sein und andererseits als Elemente wiederum Subsysteme enthalten.
Damit kann beispielsweise die Struktur technischer Systeme (Bauteile, Bau-
gruppen, Maschine, Maschinenverband etc.) mit entsprechenden Beziehungen der
Elemente untereinander und mit der Umgebung (Verbindung, Relativbewegung,
Kraftübertragung, Energiezufuhr etc.) beschrieben werden.
Einführung 35
Auch der menschliche Organismus kann als System aufgefasst werden, welches
mit der Umgebung in vielfältigen Beziehungen steht (Handlungen, soziale Interak-
tion, Stoffwechsel etc.) und über verschiedene Subsysteme (Organe) verfügt, die
untereinander in funktioneller Beziehung stehen und ihrerseits Subsysteme (Zel-
len) enthalten. Umgekehrt kann der einzelne Mensch als Element übergeordneter
(sozialer) Systeme, z.B. einer Arbeitsgruppe oder Abteilung, betrachtet werden.
Das Zusammenwirken von Menschen und technischen Systemen wird im so-
ziotechnischen Systemansatz betont (siehe EMERY 1959; EMERY u. THORSRUD
1982; TRIST 1990; SYDOW 1985). Danach besteht ein sog. „soziotechnisches Sys-
tem“ aus einem sozialen und einem technischen Teilsystem, die miteinander ver-
knüpft sind und in Wechselwirkung stehen.
Beziehungen
System
Systemelemente Umgebung
Arbeitsauftrag
Zielvorgabe/ZwecksetzungĆ
Arbeitsperson(en)
Eingabe Ausgabe
Arbeittsaufgabe Einwirkung Rückwirkung
Arbeitsmittel
Geräte,ĆWerkzeuge
Material Einwirkung Rückwirkung ArbeitsergebnisĆ
Information QuantitätĆ
Energie Arbeitsobjekte Qualität
Arbeitsstoffe
Umwelteinflüsse
SozialĆ/ĆEmotional PhysikalischĆ/ĆOrganismisch
OrganisatorischĆ/ĆKommunikativ ChemischĆ/ĆStofflich
Arbeits- Arbeits-
aufgabe ergebnis
Wirksystem
Arbeitsperson Arbeitsperson
• Information I2 • Information I2´
• Material m • Material m´
• Energie E2 Arbeitsmittel • Energie E2´
Arbeitsraum
Arbeitsobjekte
Störung
Abb. 1.9: Erweitertes Arbeitssystem (das im Bild oben dargestellte definierte Ziel wird aus
dem Arbeitsauftrag abgeleitet, wohingegen das erreichte Ziel den Erfüllungsgrad be-
schreibt)
1.5.1.2 Belastungs-Beanspruchungs-KonzeptĆ
Mit dem Belastungs-Beanspruchungs-Konzept (ROHMERT 1983, 1984) steht ein
theoretischer Ansatz zur Verfügung, mit dem die menschbezogenen Phänomene
eines Arbeitssystems in einen Ursache-Wirkungs-Zusammenhang gebracht wer-
den können.
Als Analysekonzept bietet eine Belastungs-Beanspruchungs-Betrachtung die
Möglichkeit der Interpretation vorliegender Tätigkeitsbedingungen. Die Nutzung
von Belastungs-Beanspruchungs-Beziehungen im Rahmen eines Messkonzeptes
erlaubt die gezielte Untersuchung der Wirkung definierter Tätigkeitsbedingungen
auf den Menschen.
Der Grundgedanke des Belastungs-Beanspruchungs-Konzepts fußt auf einer
Analogie zur technischen Mechanik. Belastung meint dort die Gesamtheit der
äußeren Einwirkungen, z.B. Kräfte, die auf ein Bauteil einwirken, während unter
Beanspruchung die daraus resultierenden inneren Spannungen in dem Bauteil
verstanden werden. Letztere hängen sowohl von der Höhe der Belastung als auch
der Geometrie und Werkstoffeigenschaften des Bauteils ab (Abb. 1.10).
Entsprechend werden in der Arbeitswissenschaft unter Belastung die äußeren
Merkmale der Arbeitssituation (z.B. Arbeitsaufgabe, physikalische, chemische,
organisatorische und soziale Umgebungsbedingungen, besondere Ausführungsbe-
dingungen wie Zeitdruck etc.) verstanden, während unter Beanspruchung die
Einführung 39
Bean spruchungĆ
nimmt zu
BelastungĆ
bleibt konstant
Die Beanspruchung ist dabei nicht nur eine Funktion der Belastung, sondern
hängt auch von individuellen Eigenschaften und Fähigkeiten (z.B. Gewöhnungs-
grad, Qualifikation) des Individuums ab (KIRCHNER 1986; ROHMERT 1983, 1984)
(Abb. 1.11). Eine gleiche Belastung führt somit bei verschiedenen Menschen zu
unterschiedlicher Beanspruchung.
mit individuellen
Einflüsse, die im individuelle
Eigenschaften,
Arbeitssystem auf Auswirkung der
Fähigkeiten,
den Menschen Belastung im
Fertigkeiten und
einwirken
i ik M
Menschen
h
Bedürfnissen
nander wirksam werden können (siehe auch Kap. 9). Im Arbeitsablauf sind Belas-
tungsabschnitte (LAURIG 1992) dadurch definiert, dass innerhalb eines Abschnitts
die Belastungshöhe und der Belastungstyp als konstant aufgefasst werden können
(Abb. 1.12).
Belastungshöhe
Belastungs-
Belastungs
Ta Te
dauer
Belaastungshöhe
Belastungs-
Ta Te dauer
Energetische Arbeit
g g g
Bewegungslängen
Informatorische Arbeit
Arbeitsumgebung
Arbeitsorganisation Belastungs-
Ta Te dauer
Abb. 1.12: Zeitliche und inhaltliche Ebenen der Belastungsanalyse (aus BRUDER 1993)
physikalische
Schwere oder Bewegungs-
Arbeitsformen//-arten
energetische Größen
ogen
Genauigkeit elemente z.B.
Belastung z.B. Gewicht,
einer Arbeit nach MTM
aufgabenbezo
K f oder
Kraft d W Weg
subjektive
Belastung aus physikalische
Intensität eines Feststellung
physikalischer Größen z.B.
zB
situationsgebunden
Arbeitsumgebung
g
Belastung aus
Unterstellungs- Feststellung zum Darstellung von
der sozialen
verhältnis Betriebsklima Soziogrammen
Umgebung
Dauer-
Ausführbarkeit Dauerleistungsfähigkeit
beanspruchungsgrenze
Erträglichkeit
Teilbeanspruchung:
Skelett
Teilbelastung aus: Sehnen / Bänder (+)
(arbeitsbezogenen) Muskeln / Atmung Übung,
Bezogen auf die in Abb. 1.8 sowie Abb. 1.9 dargestellten Arbeitssystemmodel-
le ergeben sich mit einem derart erweiterten Belastungs-Beanspruchungs-Konzept
die in Abb. 1.14 wiedergegebenen Ein- und Rückwirkungen in einem Arbeitssys-
tem.
ANFORDERUNGEN
verlangen bestimmte
EIGENSCHAFTEN
Anforderungen und Auswirkungen bestimmen die
BELASTUNG
und zusammen mit den Eigenschaften die
Arbeitsbedingungen
Rück- bzw. Auswirkung
BEANSPRUCHUNG
Einwirkung durch
Arrbeitsmethoden
von A
Objektseite des Arbeitssystems
Arbeitsaufgabe, Arbeitsraum,
Arbeitsobjekt, Arbeitsmittel,
Arbeitsumgebung etc.
1.5.1.3 HandlungsregulationstheorieĆ
Ausgangspunkt der Entwicklung der Handlungsregulationstheorie ist die Kritik an
der Vorstellung, menschliches Handeln ließe sich im Rahmen einer eindimensio-
nalen und eindirektionalen Ursache-Wirkungs-Beziehung – wie sie dem Belas-
tungs-Beanspruchungs-Konzept in seiner einfachen Form zugrunde liegt – erklä-
ren (MILLER et al. 1973).
Implizit sind Vorstellungen der Handlungsregulationstheorie auch in der Ent-
scheidungstheorie und der betriebswirtschaftlichen Organisationslehre (sie-
he Kap. 1.3.1), d.h. in ökonomisch orientierten Analysezusammenhängen, identi-
fizierbar, ebenso wie in technisch orientierten Analysekonzepten, wie z.B. der
Konstruktionslehre (siehe PAHL et al. 2006) und Software-Technik (siehe BALZERT
2001).
dingungen. Das Handlungsziel ist der Fixpunkt einer ansonsten recht variablen
Ausführung, aber ohne Reflexion der Realisierungsbedingungen ist die Aufstel-
lung von Zielen sinnlos (MÜHLFELDER 2003).
AUFGABE und
Ausführungsbedingungen
Ziel 2
Vergleich (veränderte)
(Vorwegnahme 2 mit
UMWELT
Vorsatz und Programm)
RÜCK- Ziel 1
MELDUNG (Vorwegnahme 1 mit
Vorsatz und Programm)
Vorwegnahme, Vergleich
Vergleich
Vorsatz, Programm
Rück- Vorwegnahme, Rück- Vorwegnahme,
meldung Vorsatz, Programm meldung Vorsatz, Programm
Veränderung Veränderung
Abb. 1.15: Darstellung der hierarchischen Struktur einer regulativen Funktionseinheit nach
HACKER (2005)
Der Grundgedanke ist der folgende: Ziele und die zugehörigen Handlungspro-
gramme sind so gegliedert, dass übergeordnete, allgemeine Konstrukte in einer
abgekürzten Form die untergeordneten, speziellen Konstrukte beinhalten bzw.
erzeugen. Der Hierarchie der Ziele entspricht eine Hierarchie der Handlungspro-
gramme, die neben bewusstseinspflichtigen Vorgaben auch nichtbewusstseins-
pflichtige Programme postulieren. Die Zielbildung erfolgt realistisch nach Be-
dürfnissen und Möglichkeiten der handelnden Person.
Die untergeordneten Ziele und Programme können aus den übergeordneten
aufweitend abgeleitet sein. Damit kann einerseits bei begrenzter Verarbeitungska-
pazität Bewusstsein für vor- und nachbereitende, verallgemeinerte Leistungen frei
bleiben. Andererseits wird die ausgegliederte, an nachgeordnete Regulationsvor-
Einführung 47
Psychische Abfolgestruktur
Operationenfolge
3)) Beispielhafte
p logische
g Struktur für die Tagesplanung
g p g eines Studierenden
Heutige Tagesaufgaben
Bad Geld Einkauf Gemüse Gemüse Skripte Übungen Richtlinie Vorlage Bericht Sport Freunde
putzen holen erledigen waschen kochen lesen rechnen lesen erstellen erstellen treiben anrufen
Abb. 1.16: Darstellung der hierarchischen Struktur einer Ziel- bzw. Programmdekodierung
nach HACKER (2005) einschließlich eines Beispiels
Erschließungsplanung
bewusstseinspflichtig
Bereichsplanung
kontrolliert
bewusstseinsfähig,
aber nicht Teilzeitplanung
bewusstseinspflichtig
automatisiert
H dl
Handlungsplanung
l
nicht
bewusstseinsfähig
Handlungsausführung
bewussteinspflichtige bewusstseinspflichtige
Intellektuelle intellektuelle Analyse- - Heuristiken
Regulationsebene und Synthesevorgänge - Strategien
verschiedener Niveaus - Pläne
bewusstseinsfähige
b t i fähi
Perzeptiv-begriffliche wahrnehmungsinterne bewusstseinsfähige
Regulationsebene Urteils- und Handlungsschemata
Klassifikationsprozesse
nichtbewusstseinsfähige nichtbewusstseinsfähige
Automatisierte
A t ti i t ki ä th ti h
kinästhetische St
Stereotypen
t
Regulationsebene orientierende (Fertigkeiten),
Rezeptionen Bewegungsentwürfe
Abb. 1.18: Darstellung der multiplen Beziehungen zwischen vorbereitenden und realisie-
renden Regulationsbestandteilen nach HACKER (2005)
1.5.1.4 GenerelleĆMethodenĆundĆTechnikenĆzurĆempirischenĆAnalyseĆ
(1) Offen vs. verdeckt: Ist der Beobachter (oder ein technisches Hilfsmittel wie
z.B. Kamera) als solche erkennbar oder nicht? Falls erwartet wird, dass sich
das zu beobachtende Geschehen, insbesondere das Verhalten von Personen,
dadurch ändert, dass bekannt ist, dass eine Beobachtung stattfindet (Problem
der Reaktivität), kann es sinnvoll sein, verdeckt zu beobachten. Korrekter-
weise sollten die betroffenen Personen nachträglich darüber aufgeklärt wer-
den und ihnen die Möglichkeit gegeben werden, die Bereitschaft zur Ver-
wendung der gewonnenen Daten zu verweigern. Neben ethischen Erwägun-
gen sind auch eine Reihe rechtlicher Rahmenbedingungen zu beachten, so
dass der verdeckten Beobachtung in arbeitswissenschaftlichen Untersuchun-
gen nur geringe Bedeutung zukommt.
(2) Teilnehmend vs. nicht-teilnehmend: Nimmt der Beobachter am zu beobach-
tenden Geschehen teil oder steht er außerhalb? Teilnehmende Beobachtung
liegt z.B. vor, wenn der Forscher bei einer Felduntersuchung in einem Be-
trieb selbst auf einem normalen Arbeitsplatz mitarbeitet, um den Betriebsab-
lauf möglichst wenig zu stören und / oder möglichst authentische Informa-
tionen zu erhalten. Letzteres gilt vor allem im Zusammenhang mit einer ver-
deckten Vorgehensweise.
(3) Systematisch vs. unsystematisch: Erfolgt die Beobachtung systematisch nach
einem standardisierten Schema oder unsystematisch, explorativ, mit gerin-
gem Vorwissen über Arbeitsaufgabe und Arbeitssituation. Je präziser die
Fragestellung ist und je umfassender die Vorkenntnisse über den Unter-
suchungsgegenstand sind, desto stärker können systematisierte Verfahren
eingesetzt werden, womit auch die Auswertung der Beobachtungsergebnisse
erleichtert wird.
(4) Künstliche vs. natürliche Situation: Ist die zu beobachtende Situation allein
zum Zweck der Beobachtung bestimmter Gestaltungszustände hergestellt
worden oder besteht sie unabhängig von der Untersuchung? Hiermit ist die
Unterscheidung von Labor- und Feldstudien sowie simulierten Arbeitsplät-
zen (z.B. Flugsimulator, Fahrsimulator) angesprochen.
(5) Selbst- vs. Fremdbeobachtung: Ist der Beobachter seine eigene Versuchsper-
son? Der Selbstbeobachtung kommt in arbeitswissenschaftlichen Untersu-
chungen nur in Einzelfällen und in Ergänzung zu anderen Methoden oder im
Vorfeld von Erhebungen eine gewisse Bedeutung zu. Beispielsweise kann im
Rahmen einer Arbeitsanalyse der Arbeitswissenschaftler die zu untersuchen-
de Tätigkeit selbst ausüben, um besondere Schwierigkeiten oder Erschwer-
nisse zu erkennen.
In der arbeitswissenschaftlichen Forschung herrscht die offene, nicht-
teilnehmende Fremdbeobachtung vor. Offene Beobachtung bedeutet jedoch nicht
unbedingt, dass zu beobachtende Personen zuvor über die genaue Forschungsfra-
gestellung aufgeklärt werden müssen. In vielen Fällen ist es sogar notwendig, dass
diese während der Durchführung der Untersuchung im Unklaren bleibt, damit das
Verhalten der beobachteten Person dadurch nicht beeinflusst wird.
Einführung 53
1.5.1.4.2 Befragung
Befragungstechniken lassen sich nach dem Standardisierungsgrad der Frage und
Antwortmöglichkeiten in vier Hauptgruppen einteilen (FRIELING u.
SONNTAG 1999), die nach der Durchführungsart (schriftlich, mündlich) noch
weiter differenziert werden können:
(1) Standardisierte Fragen und standardisierte Antworten: Die Befragung erfolgt
im Allgemeinen schriftlich, typischer Vertreter dieser Befragungsform ist der
Fragebogen mit vorgegebenen Antwortmöglichkeiten zum Ankreuzen. Die
Antwortmöglichkeiten können aus zwei (janein, richtigfalsch etc.) oder
aus mehreren Alternativen bestehen (z.B. Intensitätsskala:
kaumetwaseinigermaßenziemlichüberwiegendvöllig oder Häufigkeits-
skala: nieseltenmanchmaloft).
Ein generelles Problem dieses Befragungstyps ist, dass alle möglichen Ant-
worten bereits vorher bekannt und im Fragebogen vorgesehen sein müssen.
Ein weiteres Problem liegt darin, dass der Befragte bei Verständnisproble-
men keine Möglichkeit zum Nachfragen hat und, z.B. bei postalischer Befra-
gung, nicht immer klar ist, wer den Bogen ausgefüllt hat. Vorteilhaft ist da-
gegen die einfache Auswertung, die sogar automatisch erfolgen kann.
Häufig angewandt wird diese Befragungsart im Zusammenhang arbeitswis-
senschaftlicher Untersuchungen zur Erfassung der subjektiv erlebten Bean-
spruchung. Bekannte Vertreter sind der BLV-Bogen nach KÜNSTLER (1980)
und die Eigenzustandsskala nach NITSCH (1976) (Abb. 1.19). Diese ähnlich
aufgebauten Bögen bestehen aus einer Liste von Eigenschaftswörtern (müde,
gelangweilt, nervös etc.), denen jeweils eine mehrstufige Intensitätsskala
(s.o.) zugeordnet ist.
(2) Standardisierte Fragen und nicht-standardisierte Antworten: Die Befragung
erfolgt entweder als standardisiertes Interview, in dem der Befragte auf im
Wortlaut vorgegebene Fragen frei antwortet oder schriftlich als Fragebogen,
in dem der Befragte die Antworten selbst formuliert. Die auftretenden Ant-
worten können nachträglich verschiedenen Kategorien zugeordnet werden.
Der Vorteil gegenüber standardisierten Antwortmöglichkeiten besteht darin,
dass der Befrager die verschiedenen Antworten, die auftreten, zum Zeitpunkt
der Befragung noch nicht vorhersehen muss, dafür ist die Auswertung auf-
wändiger.
(3) Nicht-standardisierte Fragen mit standardisierten Antworten: Diesem Befra-
gungstyp kommt kaum praktische Bedeutung zu. Denkbar wäre z.B., dass
eine freigestellte Frage durch Auswahl einer von mehreren vorgelegten Ab-
bildungen oder vorgegebenen Statements beantwortet werden muss. Nicht
standardisierte Fragen kommen praktisch nur in mündlicher Form (Inter-
view) vor.
(4) Nicht-standardisierte Fragen und nicht-standardisierte Antworten: Diese als
freies Interview oder narratives Interview bezeichnete Befragungsform ist
besonders dann geeignet, wenn über den Befragungsgegenstand sehr wenig
54 Arbeitswissenschaft
bekannt ist und vor Beginn des Interviews noch keine Fragen ausformuliert
werden können, sondern sich erst im Laufe des Gesprächs ergeben. Eine
größere Zahl von Interviews systematisch auszuwerten ist sehr aufwendig, so
dass sich diese Technik vor allem für Einzelfallstudien eignet.
AufĆmeinenĆaugenblicklichenĆZustandĆzutreffend
einiger-Ć über-Ć
kaumĆ etwasĆ maßenĆ ziemlichĆ wiegendĆ völligĆ
1 2 3 4 5 6
gespannt
schläfrig
beliebt
kraftvoll
gutgelaunt
routiniert
anstrengungsbereit
unbefangen
.........
denen Tätigkeiten selbst, der Umgang mit bestimmten Werkzeugen oder Werk-
zeugfunktionalitäten etc., besondere Beanspruchungen hervorruft. Diese Phasen
können weitere Ansatzpunkte für Gestaltungsverbesserungen von Arbeitssystemen
liefern. So bietet sich bspw. die Möglichkeit, Beanspruchungszustände einer Per-
son mit Hilfe von Befragung, Beobachtung oder physiologischer Messtechnik zu
erfassen, um dann im Nachhinein verbale Protokolle dieser Phasen von den Perso-
nen anfertigen zu lassen. Werden die Handlungsverläufe mit Video dokumentiert,
so lässt sich in diesen Fällen von beanspruchungs- oder verhaltensinduzierter
Videoselbstkonfrontation sprechen. Der Vorteil derartiger Methodenkombinatio-
nen ist neben der Aufwandsreduktion, dass objektive Messgrößen (z.B. erfasste
Beanspruchungszustände mit Hilfe physiologischer Größen) und subjektive Erklä-
rungen für diesen Zustand kombiniert werden können. Ursache-Wirkungs-
Zusammenhänge können damit besser interpretiert werden.
1.5.1.4.3 Physiologische Messtechnik
Beanspruchungszustände einer Person lassen sich durch Befragung oder Beobach-
tung oftmals nicht ermitteln, da die Befragung in kurzen Abständen den zu unter-
suchenden Vorgang behindern würde oder äußere Anzeichen schwer zu interpre-
tieren sind. Darüber hinaus bestehen mitunter Bedenken, dass die betroffenen
Personen wissentlich oder unwissentlich falsche Auskünfte erteilen oder sich in
sonstiger Weise verstellen. Physiologische Größen (z.B. die Herzschlagfrequenz)
gelten als „objektiv“, da die Versuchsperson diese üblicherweise nicht willentlich
beeinflussen kann, außerdem können sie (wie auch einige andere physiologische
Größen) kontinuierlich erfasst werden. Mitunter ist es auch möglich Beanspru-
chungszustände aufzuzeigen, die den betroffenen Personen gar nicht bewusst sind
und durch die weniger aufwendige Befragung auch nicht erfasst werden könnten.
Folgende physiologische Größen gegliedert nach den organismischen Teil-
systemen werden in der arbeitswissenschaftlichen Forschung häufig erfasst
(LUCZAK 1987; MARTIN u. VENABLES 1980):
x Herz-Kreislaufsystem: Herzschlagfrequenz, Arhythmie (Schwankungen der
Momentanherzschlagfrequenz ), Atemfrequenz, Blutdruck.
x Stütz- und Bewegungsapparat: Elektromyogramm (Elektrische Erscheinun-
gen im Zusammenhang mit der Aktivierung von Muskeln) (EMG), Biome-
chanische Größen.
x Großhirnrinde: Elektroenzephalogramm (Elektrische Erscheinungen der
Großhirnrinde „Gehirnströme") (EEG).
x Sehapparat: Blickbewegung, Lidschlussfrequenz, Flimmerverschmelzungs-
frequenz (diejenige Blinkfrequenz einer Lichtquelle, bei der der Eindruck
von Flimmern in kontinuierliches Leuchten übergeht)
x Hautoberfläche: Elektrodermale Aktivität (z.B. Hautwiderstandsreaktionen).
x Metabolisches System: Atemvolumen, O2-Aufnahme, CO2-Abgabe, Ener-
gieumsatz.
56 Arbeitswissenschaft
1.5.1.5 SpezifischeĆVerfahrenĆundĆWerkzeugeĆfürĆdieĆArbeitsanalyseĆ
Bei der Entscheidung für ein Verfahren oder Werkzeug, mit dessen Hilfe arbeits-
wissenschaftliche Analysen durchgeführt werden sollen, besteht im Allgemeinen
die Alternative, entweder für den speziellen Untersuchungsfall gezielt ein Instru-
ment zu entwickeln oder ein erprobtes Standardverfahren einzusetzen.
Der Vorteil der erstgenannten Vorgehensweise besteht darin, dass das Erhe-
bungsinstrument (z.B. Fragebogen, Interviewleitfaden, Beobachtungsschema) an
die spezielle Fragestellung und Besonderheiten des Untersuchungsfeldes (z.B.
Einführung 57
einer Beeinträchtigung oder Schädigung führt (siehe hierzu auch ULICH 2005). Die
ursprünglich separat entwickelten Verfahren RHIA und VERA stehen als Ver-
fahrenskombination sowohl für Büroarbeit (RHIA/VERA-Büro von LEITNER
et al. 1993) als auch für Produktionsarbeit (RHIA/VERA-Produktion von
OESTERREICH et al. 2000) zur Verfügung.
Zu den (eher) bedingungsbezogenen Analyseverfahren zählen auch das Instru-
ment zur Stressbezogenen Tätigkeitsanalyse (ISTA; SEMMER 1984, SEMMER et al.
1999), der Leitfaden zur Kontrastiven Aufgabenanalyse (KABA) von DUNCKEL et
al. (1993) sowie das Verfahren KOMPASS zur Komplementären Analyse und
Gestaltung von Produktionsaufgaben in soziotechnischen Systemen von GROTE et
al. (1999).
Im Unterschied zu den bedingungsbezogenen Verfahren sind personenbezoge-
ne Arbeitsanalyseverfahren auf die Erhebung der subjektiven Wahrnehmung und
Einschätzung der Arbeitstätigkeit und ihrer Ausführungsbedingungen durch die
Arbeitsperson gerichtet (SCHÜPBACH u. ZÖLCH 2007). Die personenbezogene
Arbeitsanalyse untersucht explizit die individuelle Vorgehensweise, die Einstel-
lungen und Meinungen des Stelleninhabers sowie dessen Redefinition des Ar-
beitsauftrages (FRIELING u. BUCH 2007). Typisch sind schriftliche Befragungen
mit standardisierten Fragebögen. Anhand der Daten sollen bestehende Unterschie-
de zwischen den Arbeitspersonen hinsichtlich der Bewältigung von Aufgaben
bzw. des Umgangs mit den gegebenen Arbeitsbedingungen identifiziert werden,
um darauf aufbauend beispielsweise Empfehlungen für eine differentielle Arbeits-
gestaltung (Kap. 1.5.3.2) geben zu können.
Ein Beispiel für ein personenbezogenes Verfahren zur Analyse von Arbeitstä-
tigkeiten ist der Job Diagnostic Survey (JDS) von HACKMANN u. OLDHAM
(1975). Der standardisierte Fragebogen operationalisiert die im Job Characteristics
Model (siehe Kap. 5.4.2.4) postulierten Zusammenhänge zwischen charakteristi-
schen Merkmalen der Arbeitstätigkeit und personenbezogenen Auswirkungen, wie
der Arbeitsmotivation und der Arbeitszufriedenheit (siehe deutsche Übersetzung
von SCHMIDT et al. 1985; SCHMIDT u. KLEINBECK 1999). Erfasst wird die subjek-
tive Einschätzung der Arbeitspersonen. Zu dieser Verfahrenskategorie zählen auch
das Job Characteristics Inventory (JCI) als Weiterentwicklung des JDS von SIMS
et al. (1976), der Job Descriptive Index (JDI) von SMITH et al. (1969, Revision siehe
BALZER et al. 1997) sowie die Fragebögen zur (salutogenetischen) subjektiven
Arbeitsanalyse SAA bzw. SALSA von UDRIS u. ALIOTH (1980) bzw. RIMANN u.
UDRIS (1997). Ebenfalls zu nennen sind die zahlreichen Instrumente zur Erfassung
der mentalen Beanspruchung, wie z.B. die Beanspruchungsmessskalen (BMS) von
PLATH u. RICHTER (1984) (siehe hierzu Kap. 3.3.3.2.4).
Weitergehende Literaturanalysen und Überblicksdarstellungen zu Arbeitsanaly-
severfahren finden sich in LUCZAK (1997), DUNCKEL (1999b), SCHÜPBACH u.
ZÖLCH (2007), SCHÜTTE (1986, 2009) sowie RICHTER u. KUHN (2005). In den
bisherigen Ausführungen wurde deutlich, dass zur differenzierten Beschreibung
von Arbeitsanalyseverfahren und damit auch für die Auswahl eines geeigneten
Verfahrens zahlreiche Kriterien herangezogen werden können und sollten, wie
Einführung 61
Anlass
z.B. viele Arbeitsunfälle
Nutzergruppe Analysetiefe
• Experten • Expertenverfahren
• geschult • Screeningverfahren
• ungeschult • orientierendes Verf.
B
Branche
h
Tätigkeitsklassen
• tätigkeitsspezifisch
• tätigkeitsübergreifend
Methode Datengewinnung
Beobachtung
Befragung
f etc.
Statistische Gütekriterien
Verfügbarkeit von
Utilitätskriterien + Vergleichsdatensätzen u.
Auswertemethoden
Verfahrensauswahl und
Einsatzentscheidung
1.5.2.1 EbenenschemaĆnachĆRohmertĆundĆKirchnerĆ
Gegenstand arbeitswissenschaftlicher Bewertung ist im Allgemeinen eine sächli-
che oder konzipierte Arbeitssituation, also die Gesamtheit der Arbeit einschließ-
lich ihrer physikalisch-chemischen, technischen, organisatorischen und sozialen
Rahmenbedingungen. Aufgrund der inhärenten Komplexität werden in der Regel
multiple Kriteriensysteme zur Bewertung verwendet. Aufbauend auf der Bewer-
tung kann dann die Ordnung der Beziehungen zwischen Mensch und Arbeit erfol-
gen, die sich auf bestimmte Ordnungshierarchien bzw. -schemata stützt und damit
eine methodisch geleitete Beurteilung von Priorititäten und Posterioritäten ermög-
licht.
Primäres Beurteilungskriterium ist, neben anderen, z.B. ökonomischer und
technischer Art, die „Menschengerechtheit“ der Arbeit, also inwieweit sie in dem
Sinne menschengerecht ist, dass sie den physischen, psychischen und sozialen
Anforderungen und Bedürfnissen des Menschen entspricht. Da eine Arbeitssitua-
tion an sich weder gut noch schlecht ist, erfolgt die Bewertung und Beurteilung
anhand der physischen und psychischen Wirkungen, die sie beim Menschen her-
vorruft. In der Diktion des oben dargestellten Belastungs-Beanspruchungs-
Konzepts erfolgt die Beurteilung der Belastung durch die Arbeitssituation über
den Umweg der Bewertung der korrespondierenden Beanspruchung des arbeiten-
den Menschen.
Zur Belastungsbeurteilung liegt ein von KIRCHNER (1972) eingeführtes Schema
vor, welches vier Einzelkriterien, nämlich Ausführbarkeit, Erträglichkeit, Zumut-
barkeit und Zufriedenheit, hierarchisch miteinander verbindet (Tabelle 1.2). Die-
ses Schema entfaltet insofern eine ordnende Wirkung, als im Zusammenhang mit
Gestaltungsmaßnahmen die Kriterien auf der jeweils elementareren Ebene zu-
nächst erfüllt sein sollen, bevor die Kriterien der nächsthöheren Ebene in Betracht
gezogen werden können.
Im Sinn der Hierarchie ist zunächst die Ausführbarkeit der Arbeit sicherzustel-
len. Dazu ist erforderlich, dass die Anforderungen sich innerhalb der Grenzen
menschlicher Leistungsfähigkeit bewegen, etwa hinsichtlich der Erreichbarkeit
von Stellteilen, erforderlicher Körperkräfte oder der Wahrnehmbarkeit von Signa-
len. Dabei ist auch zu berücksichtigen, dass die Grenzen der sensorischen, kogni-
tiven und motorischen Fähigkeiten zwischen einzelnen Individuen stark streuen
können. Explizit nicht berücksichtigt wird auf dieser Ebene, über welchen Zeit-
raum und mit welcher Anstrengung, Überwindung etc. die Ausführung verbunden
ist.
Die Erträglichkeit der Arbeit berücksichtigt zusätzlich, dass auch bei gegebe-
ner Ausführbarkeit eine Arbeit nicht zwangsläufig auch über einen längeren
Zeitraum durchgeführt werden kann, ohne dass es z.B. zu Schädigungen kommt.
Kriterium der Erträglichkeit ist also, dass die Arbeit über die Dauer des Berufsle-
bens bei gegebener täglicher Arbeitszeit sowie Pausen- und Urlaubsregelungen
64 Arbeitswissenschaft
anthropometrisches,Ćpsycho-
physischesĆĆundĆtechnischesĆ
vorwiegendĆ Ausführbarkeit
ProblemĆ
naturwissen-
(ErgonomieĆi.e.S.)
schaftlich
arbeitsphysiologisches,Ć
arbeitsmedizinischesĆundĆ
Erträglichkeit technischesĆProblemĆ
vorwiegend (Arbeitsphysiologie,Ć
vorwiegendĆ kollektiv-Ć ErgonomieĆu.ĆArbeitsmedizin)
individual- bezogen
bezogen soziologischesĆundĆökonomischesĆ
Zumutbarkeit ProblemĆ(Arbeitssoziologie,ĆArbeits-
psychologie,ĆPersonalwirtschafts-Ć
lehre,ĆRationalisierungsforschung)
vorwiegendĆ (sozial-)ĆpsychologischesĆundĆöko-
kulturwissen- nomischesĆĆProblemĆ(Arbeits-ĆundĆ
Zufriedenheit Sozial/Individualpsychologie,Ć
schaftlich
Personalwirtschaftslehre)
Mit Einbeziehung der Zumutbarkeit wird der Rahmen einer nur naturwissen-
schaftlichen Betrachtung verlassen, und es werden (im weiteren Sinne) soziale
Aspekte mit berücksichtigt. In die Zumutbarkeit gehen vor allem kollektive Nor-
men (z.B. gesetzlicher oder tarifvertraglicher Art) ein. Das Niveau dessen, was als
zumutbar empfunden wird, hängt damit stärker als bei den zuvor betrachteten
Ebenen (auf denen im Wesentlichen ein „gesicherter Kenntnisstand“ maßgebend
ist) von den aktuellen sozio-ökonomischen Rahmenbedingungen ab. Beispielswei-
se können überdurchschnittliche Bezahlung (z.B. in Form von Gefahren- oder
Erschwerniszulagen) oder hohe Arbeitslosenzahlen dazu führen, dass Arbeitsplät-
ze als zumutbar empfunden werden, die unter anderen Bedingungen nicht akzep-
tiert würden. Dies zeigt, dass Zumutbarkeit kein alleiniges Kriterium sein kann,
sondern die vorgenannten Kriterien ebenfalls erfüllt sein müssen.
Der Begriff der Zufriedenheit hebt schließlich stärker als die Zumutbarkeit auf
die individuelle Bewertung und Beurteilung der Arbeitssituation ab. Zufriedenheit
in der Arbeit liegt üblicherweise dann vor, wenn die objektiven Merkmale der
Arbeitssituation den individuellen Erwartungen entsprechen. Daraus leitet sich
aber auch ab, dass es keinen objektiv beschreibbaren Gestaltungszustand von
Einführung 65
Arbeit geben kann, der mit Sicherheit bei jedem möglichen Stelleninhaber auch
zur Zufriedenheit führt. Einerseits ist es weder ökonomisch noch sozial vertretbar,
Arbeitsgestaltungsmaßnahmen an (möglicherweise überzogenen) Vorstellungen
Einzelner zu orientieren, andererseits – und das ist der problematischere Aspekt –
ist es möglich, dass unerfüllte Erwartungen zu einer steten Senkung des An-
spruchsniveaus führen, so dass letztlich auch Zufriedenheit unter objektiv unak-
zeptablen Arbeitsbedingungen möglich ist (sog. resignative Arbeitszufriedenheit,
siehe BRUGGEMANN et al. 1975). Zufriedenheit mit der Arbeit kann somit zwar als
notwendige, keinesfalls jedoch als hinreichende Bedingung betrachtet werden, da
auch hier zunächst die Erfüllung der Kriterien der untergeordneten Ebenen sicher-
gestellt sein muss.
1.5.2.2 EbenenschemaĆnachĆHackerĆ
Ein zumindest formal ähnliches Schema, wie das zuvor dargestellte nach Rohmert
und Kirchner, wurde von HACKER (1986) eingeführt (Abb. 1.21). Die vier Beurtei-
lungsebenen stehen ebenfalls in einem hierarchisch strukturierten Zusammenhang,
d.h. auch hier sind zunächst die Kriterien tieferer Ebenen zu erfüllen, bevor über-
geordnete in die Betrachtung einbezogen werden. Da sich das hier beschriebene
Konzept als eine Weiterentwicklung u.A. des Ansatzes von Rohmert und Kirchner
versteht, weist es auch einige deutliche Parallelen insbesondere auf den unteren
Ebenen zu diesem auf.
Mögliche
BEWERTUNGSEBENEN UNTEREBENEN KRITERIEN
(Beispiele)
Realisierung
o Zeitanteil für
- selbstständige
- +
4
Persönlichkeits-
förderlichkeit
Weiterentwicklung
Erhaltung ሽausgewählter LV - schöpferische
Verrichtungen
Dequalifizierung o Erforderliche
Lernaktivitäten
Gesundheitsschäden
- + - ausgeschlossen o MAK-Werte
2 Schädigungslosigkeit - möglich o BK-Morbidität
- höchstwahrscheinlich o Unfälle
Unter Ausführbarkeit der Arbeit ist inhaltlich das gleiche, wie im vorausge-
gangenen Abschnitt zu verstehen.
Der Aspekt der Schädigungslosigkeit ist im oben genannten Konzept in der Er-
träglichkeit enthalten und meint insbesondere die Vermeidung von Gesundheits-
schäden durch Unfälle, Berufskrankheiten oder Schadstoffe.
Das Kriterium der Beeinträchtigungsfreiheit (im Konzept von Rohmert und
Kirchner ebenfalls in der Erträglichkeit enthalten) bezieht sich gegenüber der
Schädigungslosigkeit auf kurzfristige Belastungswirkungen, die im Regelfall
innerhalb von Arbeitspausen und Freizeit kompensiert werden sollten.
Der eigentliche Unterschied gegenüber dem Konzept nach Rohmert und Kirch-
ner manifestiert sich in der Forderung nach Persönlichkeitsförderlichkeit: Stärker
als in dem Begriff Zufriedenheit klingt darin das dynamische Element einer (per-
manenten) Entwicklung der Persönlichkeit in der Arbeit an. Während Zufrieden-
heit als empirische Kategorie (die Person gibt an, zufrieden zu sein) hinreichend
hinterlegt ist, setzt die Operationalisierung von Persönlichkeitsförderlichkeit eine
entsprechende Vorstellung davon, was Persönlichkeit ausmacht, voraus, also ein
(psychologisches) Menschenbild. Im vorliegenden Fall leitet sich dieses in we-
sentlichen Punkten aus der weiter oben dargestellten Handlungsregulationstheorie
ab. Neben Möglichkeiten sozialer Kooperation und (gesellschaftlicher) Anerken-
nung der Arbeit ist danach eine Einbeziehung zunehmend höherer Regulations-
ebenen erforderlich (mit anderen Worten: zunehmende Einbeziehung von Pla-
nungs- und Kontrolltätigkeiten in die Arbeitsaufgabe bei gleichzeitiger
Routinisierung elementarer Bestandteile). Teilweise wird der Begriff der „Persön-
lichkeitsförderlichkeit“ als zu deterministisch d.h. an einem zu eng (extern oder
kollektiv) definierten Menschenbild orientiert, abgelehnt. Weitere Ablehnungs-
gründe sind die mit dem Begriff der „Förderlichkeit“ eventuell verbundene Vor-
stellung eines idealen Sollzustands, der mit gezielten Interventionen erreicht wer-
den kann. Alternativ wird der Begriff der „Persönlichkeitsentfaltung“ vorgeschla-
gen, womit auf individuell unterschiedliche Ziele und Möglichkeiten der Entfal-
tung abgehoben wird. Damit wird ein Begriff gewählt, der auch verfassungsrecht-
lich im Grundgesetz als elementares Personenrecht definiert ist (LUCZAK 1989).
Sozialverträglichkeit
Zufriedenheit und
Persönlichkeitsentfaltung
Zumutbarkeit und
Beeinträchtigungsfreiheit
Ausführbarkeit
Schädigungslosigkeit
Schädig ngslosigkeit und
nd
Erträglichkeit
Ć
Abb. 1.22: Arbeitswissenschaftliche Kriterien und Ordnungszusammenhänge in Anleh-
nung an die Betrachtungsebenen von Arbeitsprozessen (LUCZAK u. VOLPERT 1987)
1.5.2.4 Bewertungs-ĆundĆBeurteilungsprinzipienĆ
Die oben dargestellten Konzepte skizzieren zunächst nur einen groben Rahmen in
Form von Zielvorstellungen. Die Bewertung und Beurteilung konkreter Arbeits-
bedingungen muss deshalb durch ergänzende Bewertungs- und Beurteilungsprin-
zipen erfolgen. Es lassen sich folgende Ansätze unterscheiden:
x Sollwerte: Für verschiedene quantitativ bestimmbare Merkmale von Arbeits-
bedingungen lässt sich ein Optimum und unter Berücksichtigung notwendi-
ger Toleranzen ein Optimalbereich angeben. Die Gestaltung hat dann darauf
abzuzielen, einen Zustand herbeizuführen, der unter jeweils zu beachtenden
Voraussetzungen innerhalb der Spanne zwischen einem gegebenen Minimal-
und Maximalwert liegt. Beispielsweise lässt sich für das Raumklima (Kons-
tellation aus Lufttemperatur, -feuchte und -geschwindigkeit) für verschiede-
ne Tätigkeiten ein sog. Behaglichkeitsbereich angeben (siehe Kap. 9.4).
x Grenzwerte: Für andere ebenfalls quantifizierbare Bestimmungsgrößen der
Arbeitssituation gibt es keinen Idealbereich, anzustreben ist vielmehr, dass
ein bestimmtes Merkmal überhaupt nicht auftritt. Da dies nicht in allen Fäl-
len möglich ist, existieren für jeweils festgelegte Rahmenbedingungen
Grenzwerte, die auf keinen Fall überschritten werden dürfen. Solche Grenz-
werte liegen beispielsweise in Form maximaler Arbeitsplatzkonzentrationen
(Arbeitsplatzgrenzwerte) für verschiedene gefährliche bzw. gesundheits-
schädliche Arbeitsstoffe vor (siehe Kap. 9.6).
x Extremalwerte: Daneben existieren Bestimmungsgrößen, für die sich weder
ein Soll- noch ein Grenzwert sinnvoll angeben lässt, an die aber Maximie-
rungs- bzw. Minimierungsforderungen gestellt werden können. Beispiels-
weise lässt sich für Arbeitszufriedenheit weder ein Optimum noch eine ver-
nünftige untere Schranke angeben. Hier kann lediglich in einem Vergleich
zwischen verschiedenen Konstellationen von Arbeitsbedingungen derjenigen
der Vorzug gegeben werden, die die größte Zufriedenheit bzw. geringste Un-
zufriedenheit hervorruft.
x Binäre Entscheidung und ordinale Klassifikation: Oftmals liegen Gestal-
tungsregeln vor, so dass die Beurteilung eines Ist-Zustandes auf eine Ja-
Nein-Entscheidung, ob eine Regel eingehalten ist oder nicht, reduziert wer-
den kann. Beispiel: Verfügt eine Maschine über einen „Not-Aus“-Schalter?
Auch Rangfolgen (Beispiel: „nicht geeignet“ bis „vollständig geeignet“) las-
sen sich so definieren.
Vielfach hat sich in der Anwendung arbeitswissenschaftlicher Erkenntnisse
in der Praxis das Ampelschema nach DIN EN 614 durchgesetzt. Bei diesem
Schema werden folgende drei Stufen unterschieden:
o GRÜN (niedriges Risiko, empfehlenswert):
Vernachlässigbares Risiko einer Erkrankung oder Verletzung, welches
für alle in Frage kommenden Arbeitspersonen auf einem annehmbar
niedrigen Niveau ist.
o GELB (mögliches Risiko, nicht empfehlenswert):
Einführung 69
1.5.3 Gestalten
1.5.3.1 GestaltungsprinzipienĆ
Ziel der Arbeitsgestaltung ist die Optimierung des gesamten Arbeitssystems, also
ein möglichst günstiges Verhältnis von Input (Material, Rohstoffe, Energie, In-
formation) und Output (Produkt, ggf. Zwischenprodukt oder Dienstleistung), bei
gleichzeitiger Berücksichtigung der in Kap. 1.5.2 genannten Humankriterien.
Dabei ergeben sich die Zielsetzung sowie die Bewertungskriterien, durch die der
Grad der Zielerreichung operationalisiert wird, in der Regel nicht aus dem Ar-
beitsprozess selbst, sondern aus wirtschaftlichen, politisch-rechtlichen, ökologi-
schen, gesellschaftlichen oder ethischen Motiven. So entstehen beispielsweise
wirtschaftliche Motive aus der Absicht einer möglichst wirksamen Verwertung
des eingesetzten Kapitals sowie Gewinnerzielung. Politisch-rechtliche Motive
leiten sich z.B. aus der Fürsorgepflicht des Arbeitsgebers ab, die sich in Deutsch-
land aus §§241 Abs. 2, 617-619 BGB als Nebenpflicht aus dem Arbeitsverhältnis
ergibt. Ökologische Motive stützen sich häufig auf das Konzept der Nachhaltig-
keit, das die Nutzung eines regenerierbaren (Arbeits-)Systems in einer Weise
fordert, bei welcher dieses System in seinen wesentlichen Eigenschaften erhalten
bleibt und sein Bestand auf natürliche Weise nachwachsen kann. Schließlich ist
die Schädigungsvermeidung ein wohl unbestrittenes ethisches Postulat und des-
halb auch ein bereits benanntes Humankriterium.
Im Prozess der Arbeitsgestaltung (siehe Kap. 1.2.2) ist zu beachten, dass den
Fähigkeiten und Fertigkeiten der Arbeitspersonen – auch bei besonderer Eignung
im Einzelfall – recht enge evolutionsbedingte Grenzen gesetzt sind, die durch
Ausbildung und Training nur in gewissem Umfang verschoben werden können.
Dies betrifft z.B. die maximal erzeugbaren Körperkräfte, die Empfindlichkeit der
Sinnesorgane, die Geschwindigkeit der Informationsverarbeitung sowie die Resis-
tenz gegenüber verschiedenen Umgebungseinflüssen (Hitze, Kälte, toxische Sub-
stanzen, ionisierende Strahlung etc.). Neben diesen biologischen Grundgegeben-
70 Arbeitswissenschaft
1.5.3.2 GestaltungsstrategienĆ
Bezogen auf den Zeitpunkt der Berücksichtigung arbeitswissenschaftlicher Krite-
rien und Erkenntnisse im Prozess der Gestaltung lassen sich prinzipiell zwei Fälle
unterscheiden:
x Bestehende Arbeitsstrukturen und -prozesse werden nachträglich den (verän-
derten) Anforderungen menschlicher Arbeit angepasst.
x Arbeitswissenschaftliche Ziele, Kriterien und Erkenntnisse werden bereits im
Stadium des Entwurfs neuer Arbeitsstrukturen/-prozesse berücksichtigt.
Die unterschiedlichen Fälle charakterisieren verschiedene Strategien der Ar-
beitsgestaltung. Der erstgenannten Strategie kommt aus arbeitswissenschaftlicher
Sicht insofern eine besondere Bedeutung zu, als in der Praxis häufig bestehende
Arbeitssysteme nachträglich angepasst werden müssen. Man spricht auch von sog.
Humanisierungsmaßnahmen. In diesem Fall handelt es sich also um eine korrigie-
rende bzw. korrektive Arbeitsgestaltung. Derartige Maßnahmen beschränken sich
häufig auf die ergonomische (z.B. Änderung von Stellteilen, nachträgliche Schall-
dämmung) und organisatorische Gestaltung (z.B. Einführung von teilautonomer
Gruppenarbeit, siehe Kap. 5.5).
Werden Arbeitssysteme grundlegend neu gestaltet, so können die Erfordernisse
menschlicher Arbeit von vornherein berücksichtigt werden. Es bietet sich demzu-
72 Arbeitswissenschaft
Strategien Ziele
Abb. 1.23: Ansatz des “Ergonomic Quality in Design“ (EQUID) (IEA 2009)
1.5.3.4 ArbeitsgestaltungĆundĆProduktgestaltungĆ
1.6 Literatur
Luczak H, Reichwald R, Spath D (2004) Service Engineering in der Praxis. Gabler Verlag,
Wiesbaden
Luczak H, Rohmert W, Rutenfranz J (1983) Was ist Arbeitsphysiologie? In: Rohmert W,
Rutenfranz J (Hrsg) Praktische Arbeitsphysiologie. Georg Thieme Verlag, Stuttgart
New York
Lüders E (1999) Analyse psychischer Belastungen in der Arbeit: Das RHIA-Verfahren. In:
Dunckel H (Hrsg) Handbuch psychologischer Arbeitsanalyseverfahren (Mensch,
Technik, Organisation, Bd. 14). vdf Hochschulverlag an der ETH Zürich, Zürich,
S 365-396
Manske F (1987) Ende oder Wandel des Taylorismus. Soziale Welt. Zeitschrift für sozial-
wissenschaftliche Forschung und Praxis 38:166
Manske F (1991) Nicht die Qualifikation allein… In: WSI Mitteilungen, Monatsschrift des
Wirtschafts- und Sozialwissenschaftlichen Instituts in der Hans-Böckler-Stiftung
44:400-409
Manske F (1994) Facharbeiter und Ingenieure im „deutschen Produktionsmodell“. In: WSI
Mitteilungen, Monatsschrift des Wirtschafts- und Sozialwissenschaftlichen Instituts in
der Hans-Böckler-Stiftung, 47:415-425
Martin I, Venables PH (Hrsg) (1980) Techniques in Psychophysiology. John Wiley &
Sons, Chichester New York Brisbane Toronto
McCormick EJ, Jeanneret PR, Mecham RC (1969) The development and background of the
Position Analysis Questionnaire (PAQ) (No.6). Purdue University, Occupational Re-
search Center, West Lafayette
McCormick EJ, Jeanneret PR, Mecham RC (1972) A study of job characteristics and job
dimensions as based on the Position Analysis Questionnaire (PAQ). Journal of Applied
Psychology 56:347-368
Miller GA, Galantner E, Pribram KH (1960) Plans and the structure of behavior. Holt, New
York NY
Miller GA, Galenter E, Pribram KH (1973) Pläne und Strukturen des Verhaltens. Ernst
Klett Verlag, Stuttgart (Amerikanische Originalausgabe: 1960).
Morrison PR, Noble G (1987) Individual Differences and Ergonomic Factors in Perfor-
mance on a Videotex-Type Task. Behavior an Information Technology 6:69-88
Mounier P (1963) Léonard de Vinci et l´étude des mouvements. L´étude du travail 136:15-
32
Mühlfelder M (2003) Das kollektive Handlungsfeld. Ein Konzept zur Modellierung inter-
personell koordinierten Handelns. Dissertation, Universität Flensburg
Müller J (1990) Arbeitsmethoden der Technikwissenschaften-Systematik, Heuristik, Krea-
tivität. Springer, Berlin
Nerdinger FW, Blickle G, Schaper N (2008) Arbeits- und Organisationspsychologie.
Springer Verlag, Berlin Heidelberg New York
Nitsch JR (1976) Die Eigenzustandsskala (EZ-Skala) - Ein Verfahren zur
hierarchischmehrdimensionalen Befindlichkeitsskalierung. In: Nitsch JR, Udris I
(Hrsg) Beanspruchung im Sport, Bd. 4. Limprecht, Bad Homburg
North K, Rohmert W (1980) Ermittlung der Arbeitsanforderung für Leistungsgeminderte.
Int Arch Occup Environ Health 47:143-154
Oesterreich R (1999) VERA: Verfahren zur Ermittlung von Regulationserfordernissen. In:
Dunckel H (Hrsg) Handbuch psychologischer Arbeitsanalyseverfahren (Mensch,
Technik, Organisation, Bd. 14). vdf Hochschulverlag an der ETH Zürich, Zürich,
S 539-557
Oesterreich R, Leitner K, Resch M (2000) Analyse psychischer Anforderungen und Belas-
tungen in der Produktionsarbeit. Das Verfahren RHIA/VERA-Produktion. Handbuch.
Hogrefe, Göttingen
Einführung 81
Schüpbach H, Zölch M (2007) Analyse und Bewertung von Arbeitssystemen und Arbeitstä-
tigkeiten. In: Schuler H (Hrsg) Lehrbuch Organisationspsychologie, 4. Aufl. Huber,
Bern, S 197-220
Schütte M (1986) Zusammenstellung von Verfahren zur Ermittlung des subjektiven Be-
anspruchungserlebens bei informatorischer Belastung. Zeitschrift für Arbeitswissen-
schaft 40:83-89
Schütte M (2009) Methods for Measuring Mental Stress. In: Schlick C (Hrsg) Industrial
Engineering and Ergonomics. Springer, Berlin
Schumann M, Baethge-Kinsky V, Kuhlmann M, Kurz C, Neumann U (1994) Der Wandel
der Produktionsarbeit im Zugriff neuer Produktionskonzepte. In: Beckenbach N, Treek
W (Hrsg) Umbrüche gesellschaftlicher Arbeit (Sonderband 9 der Sozialen Welt, S. 11-
44). O.Schwartz, Göttingen
Seibt A, Knauth P, Griefahn B, Stork J, Kessel R, Tautz A, Schiele R (2006) Nacht- und
Schichtarbeit. Leitlinie der Deutschen Gesellschaft für Arbeitsmedizin und Umwelt-
medizin e.V. http://www.dgaum.de/index.php/publikationen/leitlinien/ leitlinienar-
beitsmedizin/109-nachtschicht (Zugriff: 21.08.09)
Semmer NK (1984) Stressbezogene Tätigkeitsanalyse. Beltz, Weinheim Basel
Semmer NK, Mohr G (2001) Arbeit und Gesundheit: Konzepte und Ergebnisse der arbeits-
psychologischen Stressforschung. In: Psychologische Rundschau 52:150-158
Semmer NK, Zapf D, Dunckel H (1999) Instrument zur Stressbezogenen Tätigkeitsanalyse
(ISTA). In: Dunckel H (Hrsg) Handbuch psychologischer Arbeitsanalyseverfahren
(Mensch, Technik, Organisation, Bd. 14). vdf Hochschulverlag an der ETH Zürich,
Zürich, S 179-204
Sims HP, Szilagyi AD, Keller RT (1976) The Measurement of Job Characteristics. Acade-
my of Management Journal 19:195-212
Smith PC, Kendall LM, Hulin CL (1969) The Measurement of Satisfaction in Work and
Retirement. Rand McNally, Chicago IL
SOBANE (2009) SOBANE - Eine partizipative Managementstrategie zur Verbesserung
von Gesundheit und Sicherheit bei der Arbeit. http://www.sobane.be/langues/
al/sobane%20allemand%2012-1-07.pdf (Zugriff: 27.08.2009)
Spitzley H (1985) Arbeit und Technik: Zur Diskussion von historischen Entwicklungen,
aktuellen Tendenzen und Perspektiven in der Arbeitswissenschaft. In: Fricke W, Krahn
K, Peter G (Hrsg) Arbeit und Technik als politische Gestaltungsaufgabe. Verlag Neue
Gesellschaft, Bonn
Staehle W H (1999) Management: Eine verhaltenswissenschaftliche Perspektive, 8. Aufl.
Vahlen, München
Stamm V (1982) Ursprünge der Wirtschaftsgesellschaft. Europäische Verlagsanstalt,
Frankfurt aM
Steinmann H, Schreyögg G (2005) Management. Grundlagen der Unternehmensführung,
6. Aufl. Gabler, Wiesbaden
Stirn H (1980) Arbeitswissenschaft. Leske-Verlag, Opladen
Stock-Homburg R (2008) Personalmanagement. Theorien – Konzepte - Instrumente. Gab-
ler Verlag, Wiesbaden
Stoll R (2007) Arbeitsphysiologie. In: Landau K (Hrsg) Lexikon Arbeitsgestaltung. Best
Practice im Arbeitsprozess, 1. Aufl. Gentner Verlag, Stuttgart, S 151-153
Strasser H (2007) Zur Entwicklung der Arbeitsphysiologie und Ergonomie im deutschspra-
chigen Raum – Aufgaben und Ziele in Lehre und Forschung. Zeitschrift für Arbeits-
wissenschaft 61:133-159
Strohm O, Ulich E (Hrsg) (1997) Unternehmen arbeitspsychologisch bewerten. Ein
Mehrebenenansatz unter besonderer Berücksichtigung von Mensch, Technik und Or-
84 Arbeitswissenschaft
ganisation. In: Ulich E (Hrsg) Schriftenreihe Mensch, Technik, Organisation, Band 10.
vdf Hochschulverlag, Zürich
Sydow J (1985) Der soziotechnische Ansatz der Arbeits- und Organisationsgestaltung.
Campus, Frankfurt aM
Taylor FW (1919) Die Grundsätze wissenschaftlicher Betriebsführung. Oldenbourg, Mün-
chen (Neudruck: Weinheim: Beltz PVU1995)
Thommen JP, Achleitner AK (2006). Allgemeine Betriebswirtschaftlehre, 5. Aufl. Gabler
Verlag, Wiesbaden
Tolksdorf G (1984) Zur Entwicklung der Arbeitsforschung in der Bundesrepublik Deutsch-
land von 1947 bis 1983. Kleine Verlag, Bielefeld
Triebe JK (1980) Untersuchungen zum Lernprozess während des Erwerbs der Grundquali-
fikation (Montage eines kompletten Motors). Arbeits- und sozialpsychologische Un-
tersuchungen von Arbeitsstrukturen im Bereich der Aggregatefertigung der Volkswa-
genwerk AG. HA 80-019. BMFT, Bonn
Triebe JK (1981) Aspekte beruflichen Handelns und Lernens. Eine Feld-und Längsschnitt-
untersuchung zu ausgewählten Merkmalen der Struktur und Genese von Handlungs-
strategien bei einer Montagetätigkeit. Unpublished Disseration, University of Bern
Trist E (1990) Sozio-technische Systeme: Ursprünge und Konzepte. Organisationsentwick-
lung 9:10-26
Udris I, Alioth A (1980) Fragebogen zur subjektiven Arbeitsanalyse (SAA). In: Martin E,
Udris I, Ackermann U, Ögerli K (Hrsg) Monotonie in der Industrie. Hans Huber Ver-
lag, Bern, S 49-68
Ulich E (1978) Über das Prinzip der differentiellen Arbeitsgestaltung. Industrielle Organi-
sation 47:566-568
Ulich E (2005) Arbeitspsychologie, 6 Auflage. Schäffer-Poeschel Verlag, Stuttgart
VDI 2221 (1986) Methodik zum Entwickeln und Konstruieren technischer Systeme und
Produkte. Beuth Verlag, Berlin Köln
Volpert W (1992) Wie wir handeln - was wir können. Asanger, Heidelberg
Volpert W, Oesterreich R, Gablenz-Kolakovic S, Krogoll T, Resch M (1983) Verfahren zur
Ermittlung von Regulationserfordernissen in der Arbeitstätigkeit (VERA). Verlag
TÜV Rheinland GmbH, Köln
Von Rosenstiel LV (2007) Grundlagen der Organisationspsychologie, 6. Aufl. Schäffer-
Poeschel, Stuttgart
Wahrig G (Hrsg) (1986) Deutsches Wörterbuch. Mosaik-Verlag, München
Wittke V (1990) Systematische Rationalisierung – zur Analyse aktueller
Umbruchsprozesse in der industriellen Produktion. In: Berstermann R, Brandherm-
Böhmker R (Hrsg) Systematische Rationalisierung als sozialer Prozess. Bonn
Wöhe G (2008) Einführung in die Allgemeine Betriebswirtschaftslehre, 23. Aufl. Vahlen,
München
Zapf D, Dormann C (2006) Gesundheit und Arbeitsschutz. In: Schuler H (Hrsg) Lehrbuch
Personalpsychologie, 2. Aufl. Hogrefe Verlag, Göttingen
Zapf D, Isic A, Fischbach A, Dormann C (2003) Emotionsarbeit in Dienstleistungsberufen:
Das Konzept und seine Implikationen für die Personal- und Organisationsentwicklung.
In: Hamborg KC, Holling H (Hrsg) Innovative Ansätze der Personal- und Organisati-
onsentwicklung. Hogrefe Verlag, Göttingen
Zapf D, Semmer NK (2004) Streß und Gesundheit in Organisationen. In: Schuler H (Hrsg)
Enzyklopädie der Psychologie, Themenbereich D, Serie III, Band 3 Organisationspsy-
chologie, 2. Aufl. Hogrefe, Göttingen, S 1007-1112
ZfA (Zeitschrift für Arbeitswissenschaft) (1982) Aufsätze verschiedener Autoren zur integ-
rativen Arbeitswissenschaft. Zeitschrift für Arbeitswissenschaft 36
Einführung 85
menschliche Leistung
In ihrer Gesamtheit bestimmen alle Merkmale, wie die Arbeit gestaltet werden
muss, welche Personen eingesetzt werden können oder wie sie zu qualifizieren
sind, um eine gewünschte Arbeitsleistung sicherzustellen. Da die Merkmale
unterschiedliche Wirkungsrichtungen und -stärken in Bezug auf eine zu
erbringende Leistung haben, also leistungssteigernd oder -mindernd wirken
können, müssen sie gemeinsam betrachtet werden. Entsprechend der
Kerndefinition der Arbeitswissenschaft (Kap. 1.2.1) reicht eine statische
Betrachtung nicht aus, sondern es müssen bei der Arbeitssystemgestaltung zu
erwartende und gewünschte Veränderungen berücksichtigt bzw. ermöglicht
werden (z.B. Alterungsprozesse und Persönlichkeitsentfaltung) und unerwünschte
Veränderungen bzw. Wirkungen vermieden werden (z.B. Gesundheits-
schädigungen). Hierbei sollten Überschneidungen zwischen den einzelnen
Dimensionen bedacht werden. Zum Beispiel lassen sich alternsbedingte
Fähigkeitsveränderungen durch entsprechende Qualifizierungsmaßnahmen
kompensieren.
2.1 Konstitution
2.1.1 Geschlecht
2.1.1.1 DefinitionĆ
Das Geschlecht eines Menschen kann unter biologischen Aspekten definiert wer-
den oder aber unter sozialen, sog. Gender-Aspekten (BISCHOF-KÖHLER 2004).
Man unterscheidet:
x Genetisches Geschlecht: Das genetische Geschlecht wird über die Ge-
schlechtschromosomenpaare definiert (Mann: XY; Frau: XX).
x Gonadales Geschlecht: Die Definition des gonadalen Geschlechts erfolgt
über die Geschlechtsmerkmale Keimdrüse, Eierstock oder Hoden. Die Dif-
ferenzierung ist zum einen genetisch bestimmt und zum anderen wird sie
hormonell gesteuert.
x Morphologisches/genitales Geschlecht: Das morphologische Geschlecht wird
rein durch die äußeren sichtbaren Geschlechtsmerkmale (Genitalien) defi-
niert.
90 Arbeitswissenschaft
x Soziales Geschlecht: Das soziale Geschlecht definiert sich aus den biologi-
schen, psychologischen und sozialen Aspekten der Geschlechtszugehörigkeit
und der Betrachtung der Geschlechterrolle.
x Identitätsgeschlecht: Das Identitätsgeschlecht bezeichnet das Geschlecht,
dem sich ein Mensch zugehörig fühlt. Meistens stimmt dies mit dem geneti-
schen Geschlecht überein.
Während im Deutschen nur ein Wort für „Geschlecht“ existiert, wird im Engli-
schen zwischen "Sex" und "Gender" differenziert. Unter „Sex“ wird im Allgemei-
nen das biologische Geschlecht verstanden. Der Begriff „Gender“ (häufig verein-
fachend als „soziales Geschlecht“ übersetzt) erfasst hingegen die sozialen und
kulturellen Geschlechterrollen, die weiblich und männlich konnotierten Eigen-
schaften und Verhaltensweisen und das Verhältnis von Frauen und Männern zuei-
nander (siehe STIEGLER 2000; MEUSER u. NEUSÜSS 2004; KRELL et al. 2008).
Die historisch gewachsenen, im jeweiligen gesellschaftlichen Kontext zuge-
schriebenen bzw. erlernten Geschlechterrollen sind keineswegs als unveränderbar
zu betrachten, sondern als (politisch) gestaltbar.
Nach einer kurzen Darstellung der rechtlichen Grundlagen wird in Kapitel
2.1.1.3 zunächst auf biologische bzw. physiologische Aspekte eingegangen. Gen-
der-Aspekte werden in den anschließenden Kapiteln angesprochen, indem der
Ansatz des Gender Mainstreaming (Kap. 2.1.1.4) vorgestellt und ein Blick auf den
Arbeitsmarkt (Kap. 2.1.1.5) und die Arbeitssituation (Kap. 2.1.1.6) geworfen wird.
2.1.1.2 RechtlicheĆGrundlagenĆ
Die Gleichstellung der Geschlechter ist im Grundgesetz verankert: „Männer und
Frauen sind gleichberechtigt“ (Art. 3 Abs. 2 S. 1 GG). Mit der Änderung des
Grundgesetzes im Jahr 1994 hat sich der Staat außerdem dazu verpflichtet, „die
tatsächliche Durchsetzung der Gleichberechtigung von Frauen und Männern“ zu
fördern und „auf die Beseitigung bestehender Nachteile“ hinzuwirken
(Art. 3 Abs. 2 S. 2 GG).
Die Verpflichtung zur Umsetzung und Beachtung von Gleichstellung findet
sich in weiteren nationalen Gesetzen wieder. Zu nennen sind das Bundesgleich-
stellungsgesetz (BGleiG), das Soldatinnen- und Soldatengleichstellungsgesetz
(SGleiG), das Sozialgesetzbuch VIII zur Kinder- und Jugendhilfe (§9 SGB VIII)
und das Sozialgesetzbuch III zur Arbeitsförderung (z.B. §1 SGB III, in 2001 ge-
ändert durch das sog. Job-AQTIV-Gesetz). Im SGB III ist beispielsweise festge-
legt, dass die Leistungen der Arbeitsförderung (u.A.) auf die Überwindung des
geschlechtsspezifischen Ausbildungs- und Arbeitsmarktes hinwirken sollen.
Seit dem Jahr 2006 ist darüber hinaus das Allgemeine Gleichbehandlungsgesetz
(AGG) in Kraft. „Ziel des Gesetzes ist, Benachteiligungen aus Gründen der Rasse
oder wegen der ethnischen Herkunft, des Geschlechts, der Religion oder Weltan-
schauung, einer Behinderung, des Alters oder der sexuellen Identität zu verhin-
dern oder zu beseitigen“ (§ 1 AGG). Das AGG enthält zivil- und arbeitsrechtliche
Regelungen. Der Schwerpunkt liegt auf dem Schutz vor Diskriminierung in Be-
Arbeitsperson 91
2.1.1.3 BiologischeĆAspekteĆ
Zurecht weist RESCH (2007) darauf hin, dass zahlreiche bisher als gesichert
geltende geschlechtsspezifische Unterschiede starken Schwankungen unterworfen
sind bzw. sogar als überholt gelten sollten. Die folgende Darstellung konzentriert
sich auf wenige nachgewiesene anatomische und physiologische Unterschiede, die
beispielsweise bei der Personaleinsatzplanung, im personenbezogenen
Arbeitsschutz oder bei der ergonomischen Gestaltung von „barrierefreien“
Arbeitsplätzen berücksichtigt werden sollten.
Für die Kraftbegrenzung am Arbeitsplatz ist von Bedeutung, dass für maximal
mögliche (isometrische, isotonische oder auxotonische) Muskelkräfte, zum
Beispiel für das Bewegen von Lasten in der Fertigung, von Frauen im Mittel etwa
zwei Drittel der für Männer ermittelten Werte erwartet werden können
(HETTINGER u. HOLLMANN 1969).
Abb. 2.2 zeigt die empirischen Perzentilwerte für Frauen und Männer in Bezug
auf die isometrischen Maximalkräfte (nach Daten von RÜHMANN u. SCHMIDTKE
1992). Hier gilt, dass Frauen etwa die Hälfte der isomterischen Maximalkräfte von
Männern zu erbringen vermögen.
Abb. 2.2: Empirische Perzentilwerte in Bezug auf isometrische Maximalkräfte (nach Daten
von RÜHMANN u. SCHMIDTKE 1992)
92 Arbeitswissenschaft
Die in Abb. 2.2 grau hinterlegten Bereiche (graue Linien) spiegeln jeweils die
Vertrauensbereiche wider, wobei eine statistische Sicherheit von 95% zugrunde
gelegt wird.
Angaben zu maximal möglichen Kräften können für verschiedene
Kraftrichtungen aus sog. Kräfteatlanten oder DIN-Normen entnommen werden
(DIN 33411; DIN EN 1005; ROHMERT et al. 1994; WAKULA et al. 2009). Ein Auszug
aus einem Kräfteatlas für die manuelle Montage ist in Abb. 2.3 zu sehen. Für
Frauen ist hier ein Korrekturfaktor von 0,5 anzuwenden.
Diese Unterschiede lassen sich sowohl auf geringere Anteile verfügbarer
Muskelmasse zurückführen, als auch auf geschlechtsbedingte Unterschiede im
Kreislauf- und Atmungssystem.
Montagespezifischer Kraftatlas
Fmax Alle Kräfte in Newton [N]
Ganzkörperkräfte, beidhändig, Männer; (Korrekturfaktor
für Frauenwerte: 0,5)
Die angegebenen Werte sind die Resultierenden der Kraftvektoren
auf 5 N gerundet
P15 : 15. männliches Kraftperzentil (für Planungsanalysen)
P 50: 50. männliches Kraftperzentil (für Ist-Analysen)
aufrecht P15 P50 gebeugt P15 P50 Überkopf P15 P50
+A 380 515 +A 320 485 +A 360 455
-A 405 530 -A 305 405 -A 410 520
+B 260 340 +B 315 420 +B 245 330
-B 380 505 -B 440 645 -B 395 525
+C 205 315 +C 225 335 +C 160 235
-C 170 280 -C 140 230 -C 150 235
stehen - aufrecht h = 1500 mm gebeugt h = 1100 mm Überkopf h = 1700 mm
+A 320 450 +A 275 410 +A 345 460
-A 345 455 -A 290 360 -A 410 520
+B 335 485 +B 335 555 +B 320 430
-B 370 530 -B 340 475 -B 340 445
+C 225 335 +C 220 310 +C 200 300
-C 180 265 -C 160 230 -C 200 295
knien - aufrecht h = 800 mm gebeugt h = 600 mm Überkopf h = 1100 mm
+A 315 435 +A 295 425 +A 330 410
-A 375 465 -A 300 400 -A 395 475
+B 330 435 +B 380 485 +B 305 390
-B 315 410 -B 325 450 -B 325 390
+C 190 270 +C 205 300 +C 155 215
-C 175 260 -C 155 230 -C 150 220
sitzen - aufrecht h = 1000 mm gebeugt h = 800 mm Überkopf h = 1200 mm
Abb. 2.3: Auszug aus einem montagespezifischen Kraftatlas (WAKULA et al. 2009)
kontinuierlichen Abfall der Leistungsfähigkeit, der bei den Männern relativ stärker
ist als bei den Frauen. Diese geschlechtsspezifischen Unterschiede der
kardiopulmonalen Leistungsfähigkeit hängen von den Dimensions- und
Massenunterschieden der für die körperliche Leistungsfähigkeit relevanten
Organsysteme ab. Berücksichtigt man diese Verhältnisse in einem ersten Schritt
durch Bezug auf die Körpermasse, so verringern sich die Alters- und
Geschlechtsunterschiede deutlich, und die Varianz wird kleiner, wobei die
Alterswerte der Frauen unter denen der Männer verbleiben (SELIGER u.
BATUNEK 1976; LANGE-ANDERSEN et al. 1978). Dieser verbleibende Unterschied
ist bedingt durch die Unterschiede in der Körperkomposition, da Frauen einen
relativ höheren Fettanteil an der Körpermasse aufweisen. Berücksichtigt man auch
diesen Faktor, z.B. bei Bezug der Leistungsfähigkeit auf die sog. fettfreie
Körpermasse („lean body mass“) oder auf die Zellmasse (BURMEISTER et al.
1972), dann verschwinden die Alters- und Geschlechtsunterschiede der
Leistungsfähigkeit weitgehend. Dennoch muss man feststellen, dass die
Dauerleistungsgrenze für eine tägliche Arbeit von acht Stunden, wenn man für sie
einen Energieumsatz entsprechend 30% der maximalen O2-Aufnahme zugrunde
legt, eine Alters- und Geschlechtsabhängigkeit aufweist (RUTENFRANZ 1983).
Abb. 2.4 zeigt die Unterschiede in der Muskelkraft von Männern und Frauen in
Abhängigkeit vom Lebensalter. Insofern ist HIERSCHE (1973) zuzustimmen, der
schreibt: „Die Leistungsfähigkeit des Mannes im Arbeitsprozess ist anatomisch
und physiologisch im Gegensatz zur allgemeinen Meinung nicht
geschlechtsspezifisch begrenzt, sondern gegenüber der der Frau anders gestaltet“.
Abb. 2.4: Unterschiede der Muskelkraft von Männern und Frauen in Abhängigkeit des
Lebensalters (HETTINGER 1993)
Dabei darf jedoch nicht vergessen werden, dass der Mensch für mechanische
Arbeit generell wenig geeignet ist. Der Wirkungsgrad des Menschen für
mechanische Arbeit liegt zwischen 1% und max. 30% (Fahrrad fahren)
(ROHMERT 1983). Der Mensch ist eben keine „Kraft-“, sondern eine „Denk-
maschine“. Und im Bereich der Denkleistungen lassen sich keine signifikanten
geschlechtsspezifischen Unterschiede feststellen (LAURIG 1990).
94 Arbeitswissenschaft
Relativ große Ausfälle zeigen Männer bei der Farbsichtigkeit. Auf eine Frau
mit Störungen des Farbsinns kommen 20 Männer mit denselben (DOBT 1973), was
darauf zurückzuführen ist, dass dieses Defizit x-chromosomal gebunden ist und
vererbt wird. Auch die Altershörminderung ist bei Frauen geringer als bei
Männern (DAVIS 1983).
Obwohl die Variationskoeffizienten der Körpermaße im Vergleich zu anderen
Eigenschaften verhältnismäßig gering sind, haben die geschlechtsbedingten
Unterschiede der Körpermaße für die Arbeitsplatzgestaltung große praktische
Bedeutung. Frauen haben im Vergleich zu Männern eine im Durchschnitt um
10 cm geringere Körperhöhe. Abb. 2.5 zeigt die Einteilung der Körperhöhen in
Körpergrößenklassen nach der DIN 33402-2. Geschlechtsbedingte Unterschiede
lassen sich auch bei anderen Körpermaßen nachweisen (DIN 33402-2). Eine Studie,
die die Gelenkwinkel von Männern und Frauen während eine Fertigungsaufgabe
untersuchte, ergab bspw., dass der Ellenbogenwinkel bei Männern geringer war
als bei Frauen, wohingegen der Schulterwinkel wiederum bei Männern im Schnitt
grösser war als bei Frauen (O´SULLIVAN u. GALLWEY 2002).
Frauen Männer
2.1.1.4 GenderĆMainstreamingĆ
Der Ansatz des Gender Mainstreaming wurde vor allem auf den
Weltfrauenkonferenzen der Vereinten Nationen (1985 in Nairobi, 1995 in Peking)
entwickelt und hat seither Eingang in die Politik der Europäischen Union und ihrer
Mitgliedstaaten gefunden. Mit dem 1999 in Kraft getretenen Amsterdamer Vertrag
haben sich die EU-Mitgliedstaaten zu einer Gleichstellungspolitik im Sinne des
Gender Mainstreaming verpflichtet (ausführliche Darstellungen der historischen
Entwicklung usw. finden sich z.B. in FREY 2003 und KRELL 2008). Diese
Verpflichtung hat u.A. auch zu Veränderungen der bundesdeutschen
Gesetzgebung geführt (siehe Kap. 2.1.1.2).
Eine häufig zitierte Definition von Gender Mainstreaming findet sich in KRELL
et al. (2008): „Gender Mainstreaming besteht in der (Re-)Organisation,
Verbesserung, Entwicklung und Evaluierung der Entscheidungsprozesse, mit dem
Ziel, dass die an politischer Gestaltung beteiligten Akteure und Akteurinnen den
Blickwinkel der Gleichstellung zwischen Frauen und Männern in allen Bereichen
und auf allen Ebenen einnehmen.“ (Die Autorinnen beziehen sich dabei auf einen
vom Europarat beauftragten Sachverständigenbericht aus dem Jahre 1998.)
Ausgangspunkt bildet die Erkenntnis, dass es keine geschlechtsneutrale
Wirklichkeit gibt (MEUSER u. NEUSÜSS 2004). Als politische Strategie zielt
Gender Mainstreaming auf die nachhaltige Beseitigung bestehender
Ungleichheiten bzw. Ungleichbehandlungen von Frauen und Männern respektive
auf die Herstellung von Chancengleichheit und Gleichberechtigung in Politik,
Wirtschaft und Gesellschaft. Bei der Umsetzung dieser Strategie geht es deshalb
nicht ausschließlich oder vorrangig um die Entwicklung von Sondermaßnahmen
für Frauen; das Augenmerk ist vielmehr auf die Geschlechterverhältnisse zu
richten (JUNG u. KÜPPER 2001).
Der Begriff Gender Mainstreaming wird auch außerhalb von Politik und
Verwaltung verwendet und bringt i.A. die bewusste Integration der
Gleichstellungsperspektive und die durchgängige Berücksichtigung der
Lebenssituationen und Interessen von Frauen und Männern zum Ausdruck.
In dem Bemühen, die Gleichstellung auf dem Arbeitsmarkt voranzutreiben,
initiierte die Bundesregierung im Jahr 2001 den Abschluss einer Vereinbarung zur
96 Arbeitswissenschaft
2.1.1.5 ArbeitsmarktĆ
Seit Ende der 1960er Jahre leben immer weniger Frauen und Männer in der
tradierten Rollenverteilung – den Männern der Beruf, die Produktion und der
Gelderwerb (indirekte Familienpflichten), den Frauen die Familie, die Haushalts-
und Kinderversorgung (direkte Familienpflichten). Eine Entwicklung, die u.A.
einer während der letzten 100 Jahre sehr aktiven Frauenbewegung zu verdanken
ist und die mittlerweile durch eine intensive Gleichstellungspolitik auf Bundes-
und Länderebene vorangetrieben wird (siehe auch Kap. 2.1.1.4).
Die klassische Arbeitsteilung zwischen den Geschlechtern beruht auf dem
Vollzeit-Normalarbeitsverhältnis des Mannes, das sich in der Industriegesellschaft
entwickelte. Es war auf die Bedürfnisse der Normalfamilie abgestimmt und bot
ein gewisses Maß an (Arbeitsplatz-)Sicherheit für die Versorgung der Familie.
Inzwischen ist der Typ des Familienvaters und alleinigen Ernährers auf dem
Arbeitsmarkt in die Minderheit geraten. „Doppelverdiener“ („DINKS - Double
Arbeitsperson 97
Income No Kids“) und alleinstehende Berufstätige sind in der Mehrzahl. Das Ende
der Versorgungsehe ist in Sicht (2006 standen beispielsweise 373.681
Eheschließungen 190.928 Ehescheidungen gegenüber). Von lebenslanger
Sicherheit nicht erwerbstätiger (Ehe-)Frauen kann nicht mehr die Rede sein. Im
2008 reformierten Unterhaltsrecht wird mit dem Grundsatz der Eigen-
verantwortung (§1569 BGB) klargestellt, dass es nach der Scheidung jedem
Ehegatten selbst obliegt, für seinen Lebensunterhalt zu sorgen.
Bezüglich der Beschäftigungsmöglichkeiten und Arbeitsbedingungen für
Frauen und Männer ergeben sich jedoch Unterschiede auf einem Arbeitsmarkt,
der – trotz zahlreicher gleichstellungspolitischer Maßnahmen – nach wie vor
geschlechtsspezifisch ist (RESCH 2007). Frauen sind noch immer in „niedrigeren“
beruflichen Positionen anzutreffen und arbeiten nicht selten unterhalb ihrer
Qualifikation mit geringeren oder gar fehlenden Weiterbildungsmöglichkeiten und
Aufstiegschancen. Die als typisch männlich zu bezeichnenden Tätigkeitsfelder
sind häufig besser dotiert und mit einem höheren sozialen Status belegt.
Berufsspektrum
Das Spektrum von Frauen- und Männerberufen hat sich in den letzten 100 Jahren
durchaus verändert. Die Frauenberufstätigkeit konzentrierte sich in diesem
Zeitraum allerdings stärker als die der Männer auf wenige Bereiche. Fast 82%
aller erwerbstätigen Frauen waren 1925 in nur 10 Berufen anzutreffen, wobei an
der Spitze die mithelfenden Familienangehörigen standen, gefolgt von
Hauswirtschaftsberufen und der Landarbeit. Bei den Männern waren hingegen nur
54% auf wenige Berufsbereiche konzentriert. Auch bei ihnen rangierten die
landwirtschaftlichen Berufe an der Spitze, gefolgt von den Verwaltungs- und
Verkaufsberufen.
Mit der Zeit hat sich das Berufsspektrum für Frauen geweitet (wenngleich es
insgesamt auch heute noch auf wenige Berufe konzentriert ist, insbesondere im
Vergleich zum Spektrum der männlichen Erwerbstätigen). Es sind in den 30er und
40er Jahren des letzten Jahrhunderts „moderne“ Berufe wie Reinigungsberufe und
Lagerarbeit, später dann Hilfsberufe in der Krankenpflege dazugekommen. In den
1980er Jahren stieg mit dem Lehrerberuf erstmals ein Beruf mit
(Fach)Hochschulabschluss in den Kreis der zehn „größten“ Frauenberufe auf. Die
Berufe der Investitions- und Konsumgüterproduktion verloren an Gewicht und
Berufe des Dienstleistungssektors traten an ihre Stelle. Nicht in jedem Fall war der
Tertiarisierungsprozess aber mit einer Höherqualifizierung der Beschäftigten
verbunden.
In den letzten Jahren ist die Bedeutung des tertiären Sektors immer größer
geworden. Der Dienstleistungssektor ist seit 1996 um 3,2 Millionen auf 25,5
Millionen Erwerbstätige im Jahr 2006 angewachsen (das entspricht 72,3% der
Erwerbstätigen in 2006). Nach Ergebnissen des Mikrozensus waren 2006 im
Dienstleistungssektor mehr Frauen als Männer beschäftigt; die Differenz lag über
zwei Millionen. Weibliche Erwerbstätige waren vor allem in den
Wirtschaftsabschnitten der sonstigen öffentlichen und privaten Dienstleistungen
98 Arbeitswissenschaft
Erwerbsbeteiligung
Im Jahr 2006 lag der Anteil der Erwerbspersonen an der Gesamtbevölkerung in
Deutschland mit 50,5% um 1,6 Prozentpunkte höher als 1996 (48,9%) und stieg
damit erstmals seit der Wiedervereinigung an. Die Zunahme resultiert aus einer
Arbeitsperson 99
höheren Erwerbsquote der Frauen, die seit 1996 um knapp vier Prozentpunkte auf
44,7% zugenommen hat, während die Erwerbsquote für die Männer mit 56,6%
weiterhin leicht rückläufig war (WINGERTER 2008). Die Erwerbsquote steht dabei
für den Anteil der Erwerbspersonen an der gleichaltrigen Gruppe in der
Gesamtbevölkerung und schließt auch Erwerbslose mit ein. Erwerbstätigenquoten
geben hingegen den Anteil der erwerbstätigen Frauen und Männer an der
entsprechenden weiblichen bzw. männlichen Bevölkerungsgruppe an. Zu den
Erwerbstätigen werden auch die Personen gezählt, deren Arbeitsverhältnis zum
Erhebungszeitpunkt ruht, z.B. die Personen in Elternzeit.
Die Erwerbstätigenquoten von Frauen und Männern entwickelten sich seit 1993
gegenläufig. Die Quote verringerte sich bei den Männern im betrachteten Zeit-
raum um 0,3 Prozentpunkte auf 74,7%. Dagegen stieg diese bei den Frauen um
9,0 Prozentpunkte auf 64,0%. Bei einer Bewertung des Anstiegs der
Frauenerwerbstätigenquote ist allerdings zu berücksichtigen, dass die Erhöhung
der Quote einherging mit einer deutlichen Zunahme der Teilzeitbeschäftigung
(plus 3,1 Millionen), während sich die Zahl der vollzeitbeschäftigten Frauen um
0,9 Millionen verminderte (STATISTISCHES BUNDESAMT 2008), weitere Daten
und Analysen finden sich im sog. Gender-Datenreport, siehe CORNELISSEN
2005).
2004 gab es in Deutschland rund 11,6 Millionen Frauen und 9,9 Millionen
Männer im erwerbsfähigen Alter (15 bis 64 Jahre), die mit mindestens einem
leiblichen, Stief- oder Adoptivkind in einem gemeinsamen Haushalt lebten. 7,1
Millionen dieser Mütter und 8,4 Millionen dieser Väter waren aktiv erwerbstätig,
d.h. sie übten ihren Beruf zum Zeitpunkt der Befragung wirklich aus und waren
nicht, z.B. wegen Elternzeit, übergangsweise abwesend. Somit betrug die
Erwerbstätigenquote der aktiv erwerbstätigen Mütter 61%, wohingegen sie mit
85% bei den Vätern deutlich höher lag (STATISTISCHES BUNDESAMT 2006a).
Die aktive Erwerbsbeteiligung von Müttern, unabhängig davon, ob diese in
Voll- oder Teilzeit ausgeübt wird, variiert deutlich mit der Anzahl der Kinder. Je
mehr Kinder zu betreuen sind, desto seltener sind Frauen aktiv erwerbstätig.
Spätestens mit dem dritten Kind im Haushalt gibt ein hoher Anteil der Mütter den
Beruf, zumindest vorübergehend, auf. Im früheren Bundesgebiet nimmt die
Vollzeittätigkeit der Mütter mit jedem weiteren Kind schrittweise ab, während sie
bei den Müttern in den neuen Ländern und Berlin-Ost erst nach dem dritten Kind
deutlich zurückgeht. Allerdings sind Mütter in den neuen Ländern und Berlin-Ost
mit drei und mehr Kindern mit 29% mehr als doppelt so häufig in Vollzeit tätig als
Mütter im früheren Bundesgebiet (12%). Abb. 2.6 zeigt die Erwerbsquoten von
Frauen und Männern mit Kindern in Abhängigkeit von der Anzahl der Kinder
(STATISTISCHES BUNDESAMT 2006a).
100 Arbeitswissenschaft
Abb. 2.6: Erwerbstätigenquoten von Männern und Frauen mit Kindern im März 2004
(STATISTISCHES BUNDESAMT 2006a) [Prozentualer Anteil der Erwerbstätigen an der
Bevölkerung im erwerbsfähigen Alter (15 bis unter 65 Jahren); Ergebnisse des
Mikrozensus – Bevölkerung (Konzept der Lebensformen); Erwerbstätige im Alter von 15
bis unter 65 Jahren ohne vorübergehende Beurlaubte (z. B. wegen Elternzeit); Kinder: In
einer Eltern-Kind-Gemeinschaft lebende ledige Kinder]
Politische Steuerungselemente
Je nach Arbeitsmarktlage wird versucht, (Haus-)Frauen als Arbeitskräfte zu
gewinnen, oder sie vom Arbeitsmarkt zu drängen. Dies geschieht häufig
„versteckt“, aber oft genug auch offen mittels der Sozial- und Familienpolitik.
Versteckt waren diese Arbeitsmarktsteuerungsfunktionen z.B. in den besonderen
Arbeitsschutzbestimmungen für Frauen (GERHARD 1988). Dort gab es bis zum
Bundesverfassungsgerichtsurteil vom 28.01.1992 („Benachteiligung von Frauen
Arbeitsperson 101
Elternteilen aufzuteilen und damit auch dem Vater des Kindes die Möglichkeit zur
Betreuung zu geben (BMFSFJ 2009).
2.1.1.6 ArbeitssituationĆ
Die Zahlen zur Beteiligung am Erwerbsleben (siehe Kap. 2.1.1.5) haben nur eine
bedingte Aussagekraft für die Beschreibung der Arbeitssituation, mit der Frauen
und auch Männer konfrontiert werden. Die Arbeitssituation wird vor allem durch
die geschlechtsspezifische Arbeitsteilung und die daraus häufig resultierenden
geringer qualifizierten Arbeitsfelder von Frauen geprägt. So haben die tradierte
Teilung der gesellschaftlichen Arbeit zwischen den Geschlechtern, sozial-
politische Schutzmaßnahmen u.a.m. zu einem frauenspezifischen Arbeitsmarkt
geführt, der durch spezifische Arbeitsbedingungen, Aufstiegsmöglichkeiten und
Entgeltregelungen gekennzeichnet ist.
Es fällt auf, dass die weiblichen Erwerbstätigen vorrangig in arbeitsintensiven
Branchen und Zweigen beschäftigt sind: im Handel, insbesondere Einzelhandel;
im Bereich Dienstleistungen von Unternehmen und freien Berufen, insbesondere
Gaststätten- und Beherbergungsgewerbe, Wäschereien, Reinigungen; auf den
unteren und mittleren Sachbearbeiterebenen in Dienstleistungsbetrieben, im
öffentlichen Dienst und in Industrieverwaltungen; in konsumnahen Bereichen der
Elektroindustrie und der feinmechanisch-optischen Industrie. Vor allem sind sie
aber in jenen Industriezweigen bzw. Wirtschaftsgruppen tätig, in denen die
Konjunkturempfindlichkeit noch durch saisonale Schwankungen (Nahrungs- und
Genussmittelindustrie, Einzelhandel, Gaststätten- und Beherbergungsgewerbe)
und modebedingte Absatzschwankungen (Bekleidungs-, Lederverarbeitende- und
Textilindustrie) überlagert bzw. verstärkt wird (siehe auch Kap. 2.1.1.5).
Quantitative Veränderungen erfuhren die frauenspezifischen Arbeitsplätze
durch den Einsatz neuer Fertigungstechnologien in Verbindung mit arbeits-
organisatorischen Maßnahmen in den traditionellen Fraueneinsatzbereichen (z.B.
Textil-, Nahrungs- und Genussmittelindustrie), die zu einer teilweise erheblichen
Reduktion des Frauenanteils führten.
Die Einführung neuer Technologie hat in fast allen klassischen
Frauenarbeitsfeldern auch zu erheblichen qualitativen Veränderungen in den
Anforderungsstrukturen (Qualifikation, Belastung, Disposition, Kooperation)
geführt. Dies betrifft vor allem hocharbeitsteilige Arbeitsprozesse in den
Bereichen, die durch „Automatisierungssperren“ gekennzeichnet sind oder für die
noch keine kostengünstigen technologischen Möglichkeiten (Automatisierungs-
lücken) entwickelt worden sind, und schließlich dort, wo die Technologie geringe
Qualifikationen abfordernde und (zumeist psychisch) hochbelastende Rest-
funktionen übrig lässt. Wie hoch in einigen Extrembereichen der partialisierten
„Nutzung“ menschlicher Sensumotorik die Zumutbarkeitsschwelle angesetzt ist,
wird z. B. bei der Sichtkontrolle in der Qualitätssicherung deutlich.
In den Bereichen des Versicherungs- und Kreditwesens, in den Verwaltungen
der gewerblichen Wirtschaft und des öffentlichen Dienstes, in denen Massendaten
Arbeitsperson 103
Frauen in Führungspositionen
Im Rahmen des Mikrozensus (repräsentative 1%-Stichprobe der Bevölkerung,
entspricht etwa 800.000 Datensätzen) werden alle vier Jahre Daten zum Thema
Führungskräfte in Deutschland erhoben. Aus diesen Daten lässt sich ableiten, dass
der Frauenanteil bei abhängig beschäftigten Führungskräften in der
Privatwirtschaft gestiegen ist und zwar von 21% in 2000 auf 23% in 2004.
Allerdings trifft diese Steigerung nur für Frauen zu, die unter 30 Jahren sind.
Während der typischen Zeiten von Familiengründung und Kinderbetreuung sinkt
der Anteil und verbleibt anschließend auf einem niedrigen Niveau. In der
Altersgruppe der Frauen unter 30 Jahren liegt der Anteil an Führungspositionen
noch bei 43%, bei den 30- bis 34-Jährigen sinkt diese Quote auf etwa 30% ab und
bei den 35- bis 49-Jährigen liegt sie nur noch bei knapp über 20% (KLEINERT
2006).
Eine durch das IAB (Institut für Arbeitsmarkt- und Berufsforschung der
Bundesagentur für Arbeit) im Jahr 2004 durchgeführte Führungskräftestudie mit
16.000 Betrieben brachte u.A. folgende Ergebnisse: In der obersten Leitungsebene
von Betrieben ist nur jede vierte Führungskraft eine Frau; in der zweiten
Führungsebene liegt der Frauenanteil bereits über 40%; kleine Betriebe werden
häufiger von Frauen geführt als große und in Großbetrieben liegt der Frauenanteil
in der ersten Führungsebene lediglich bei 4% (BRADER U. LEWERENZ 2006).
Tabelle 2.2: Erwerbstätigenquoten von Müttern und Vätern, nach Alter des jüngsten
Kindes differenziert (STATISTISCHES BUNDESAMT 2006b) [Ergebnisse des Mikrozen-
sus – Bevölkerung (Lebensformenkonzept); 1) Anteil der aktiv Erwerbstätigen (ohne vorü-
bergehend Beurlaubte, zum Beispiel wegen Mutterschutz, Elternzeit) an der Bevölkerung;
2) Anteil der Vollzeit-/Teilzeiterwerbstätigen an allen aktiv Erwerbstätigen; 3) Elternteile
im erwerbsfähigen Alter mit im Haushalt lebendem jüngsten Kind unter 15 Jahren, auch
Stief-, Pflege- und Adoptivkind]
Mütter 3)
Zusammen . . . . . . . . . . . . . . 55,7 24,1 75,9 60,6 56,8 43,2
unter 3 . . . . . . . . . . . . . . . 30,6 31,7 68,3 40,9 55,1 44,9
3– 5 . . . . . . . . . . . . . . . 53,7 20,6 79,4 64,0 53,9 46,1
6– 9 . . . . . . . . . . . . . . . 64,7 20,0 80,0 68,6 56,5 43,5
10 – 14 . . . . . . . . . . . . . . . 71,0 26,2 73,8 71,6 60,1 39,9
Väter 3)
Zusammen . . . . . . . . . . . . . . 88,7 96,3 3,7 80,0 93,6 6,4
unter 3 . . . . . . . . . . . . . . . 87,1 95,3 4,7 77,4 91,2 8,8
3– 5 . . . . . . . . . . . . . . . 88,6 96,6 3,4 80,7 93,3 6,7
6– 9 . . . . . . . . . . . . . . . 90,0 96,6 3,4 82,6 94,9 5,1
10 – 14 . . . . . . . . . . . . . . . 88,9 96,7 3,3 80,2 95,1 4,9
_________________
Ergebnisse des Mikrozensus – Bevölkerung (Lebensformenkonzept).
Abb. 2.7: Was die Vereinbarkeit von Familie und Beruf am meisten erleichtert: Besondere
Bedeutung der Kinderbetreuung (IFD 2008)
Im Jahr 2004 gab es für rund neun von zehn westdeutschen Kindern im
Kindergartenalter Plätze in Kindergärten und ähnlichen Einrichtungen. Trotz
dieser hohen Versorgungsquote mangelt es allerdings bei den drei- bis
sechsjährigen Kindern besonders in Gebieten Westdeutschlands an
Betreuungsmöglichkeiten über Mittag und an Ganztagsplätzen (BdReg 2008). Eine
2003 durchgeführte Unternehmensbefragung konnte zeigen, dass lediglich 1,9%
der Unternehmen einen Betriebskindergarten und 1,8% eine Betriebskinderkrippe
unterhalten. 1,4% der Unternehmen mieten zur Nutzung für die Kinder ihrer
Beschäftigten Kindergartenbelegplätze in betriebsnahen Einrichtungen an und 1%
der Unternehmen bieten einen Tagesmütterservice an (WAGNER 2005).
Für eine Verbesserung der Möglichkeiten, Familie und Beruf zu vereinbaren,
besteht also nach wie vor Handlungsbedarf. Dass sich die Umsetzung
familienfreundlicher Maßnahmen, wie z.B. Flexibilisierung der Arbeitszeiten,
Einführung von Wiedereingliederungsprogrammen oder Unterstützung bei der
Kinderbetreuung, auch für Unternehmen betriebswirtschaftlich rechnet, konnte
eine Studie des Bundesministeriums für Familie, Senioren, Frauen und Jugend
zeigen (BMFSFJ 2005).
108 Arbeitswissenschaft
2.1.2.1 DefinitionĆundĆRelevanzĆ
Der Begriff der Nationalität wird hier politisch verstanden. Die Nationalität be-
zeichnet damit die Zugehörigkeit zu einer Nation und entspricht weitgehend dem
Begriff der Staatsangehörigkeit. Das Merkmal „ethnische Herkunft“ meint die
Zugehörigkeit zu einer kulturellen, räumlich begrenzten Völkergruppe oder einem
Stamm (HOPFNER u. NAUMANN 2007). Eine ethnische Gruppe ist gekennzeichnet
durch Vorstellungen einer kollektiven Identität. Diese tatsächlichen oder
vermeintlichen Gemeinsamkeiten und Verbindungen können sich auf
unterschiedliche Aspekte beziehen: z.B. Sprache (wir gehören zusammen, weil
wir die gleiche Sprache sprechen), Geschichte (gemeinsame Vergangenheit),
Religion (gemeinsamer Glaube), Kultur (geteilte Normen, Werte, Rituale). Von
Bedeutung sind auch Vorstellungen von einer gemeinsamen Herkunft. Dabei ist es
nicht entscheidend, ob eine Abstammungsgemeinschaft real vorliegt oder nicht:
Die Bezeichnung "Ethnie" wird vor allem über die Selbstzuschreibung der
jeweiligen Gruppe definiert. Als Fremdzuschreibung können ethnische Merkmale
allerdings auch der Legitimierung von Ausgrenzung und Diskriminierung dienen
(IDA 2009).
Nach den Zahlen des Statistischen Bundesamtes wies das
Ausländerzentralregister (AZR) Ende 2008 rund 6,73 Millionen Personen in
Deutschland auf, die ausschließlich eine ausländische oder keine
Staatsbürgerschaft besaßen. Das entspricht einem Anteil von rund 8% an der
Gesamtbevölkerung. Dies ist jedoch nur ein Teil der in Deutschland lebenden
Menschen mit fremden Wurzeln. Seit dem Jahr 2005 ermöglichen die Daten der
amtlichen Statistik auch die Identifizierung von Personen mit
Migrationshintergrund. Im vorliegenden Kontext versteht man unter Migration die
dauerhafte Wanderung (Abwanderung und Zuwanderung) von Menschen in ein
anderes Land. Arbeitsmigration bezeichnet die Abwanderung, um in einem Nicht-
Heimatland eine Arbeit aufzunehmen. Zur Bevölkerung mit
Arbeitsperson 109
2.1.2.2 RechtlicheĆGrundlagenĆ
Die Unionsbürgerschaft verleiht das Recht auf den Schutz vor Diskriminierung,
unter Anderem aus Gründen der ethnischen Herkunft. Dieses Recht ist in der
Charta der Grundrechte der Europäischen Union verankert. In der nationalen
Gesetzgebung ist der Schutz vor Diskriminierung im Allgemeinen
Gleichbehandlungsgesetz (AGG) geregelt, das seit dem Jahr 2006 in Kraft ist
(siehe Kap. 2.1.1.2).
Die Möglichkeiten und Bedingungen der Einreise, des Aufenthaltes, der
Erwerbstätigkeit und der Integration von Ausländern werden durch das
Aufenthaltsgesetz (AufenthG) geregelt. „Ausländer ist jeder der nicht Deutscher
im Sinne des Artikels 116 Abs. 1 des Grundgesetzes ist.“ (§2 Abs. 1 AufenthG).
Im Aufenthaltsgesetz ist ferner bestimmt, dass sich die Zulassung ausländischer
Beschäftigter „… an den Erfordernissen des Wirtschaftsstandortes Deutschland
unter Berücksichtigung der Verhältnisse auf dem Arbeitsmarkt und dem
Erfordernis, die Arbeitslosigkeit wirksam zu bekämpfen“ (Abschnitt 4, §18
AufenthG) zu orientieren hat.
Seit dem 1. Januar 2005 sieht das Aufenthaltsgesetz vier Aufenthaltstitel vor:
1) das Visum für kurzfristige Aufenthalte, 2) die befristete Aufenthaltserlaubnis,
3) die unbefristete Niederlassungserlaubnis und 4) die ebenfalls unbefristete
Erlaubnis zum Daueraufenthalt-EG (für EU-Bürger). An die Stelle des früheren
110 Arbeitswissenschaft
2.1.2.3 InterkulturelleĆZusammenarbeitĆ
Interkulturelle Zusammenarbeit kann sowohl als Chance gesehen als auch als
problematisch beschrieben werden. Als problematisch anzusehen ist die häufig
unbewusste Überzeugung, dass die eigenen Werte, Denk- und Handlungsmuster
die einzig richtigen sind (BUSCH u. SCHENK 2005). Selbst in kulturell homogenen
Teams müssen erst gemeinsame Standards erarbeitet werden, um die
Zusammenarbeit und Kommunikation möglichst effizient zu gestalten und
Konflikte zu vermeiden. BUSCH u. SCHENK (2005) berichten aus ihren
Praxiserfahrungen, dass „der Grad an auftretenden Irritationen, Unsicherheiten,
kommunikativen Fehlinterpretationen, Missverständnissen bis hin zu ernsthaften
Kontaktstörungen und zum Abbruch des Kontaktes …“ um so höher ist, je größer
die kulturellen Unterschiede sind.
Um die interkulturelle Zusammenarbeit zu beschreiben, wird häufig der bereits
oben eingeführte Begriff Diversity verwendet. Das dahinter liegende Konzept
steht für die Vielfältigkeit und Unterschiedlichkeit von Lebensstilen und
-entwürfen, die die Gesellschaft charakterisieren (FAGER 2006). Das Konzept soll
zum Ausdruck bringen, dass die menschliche Vielfalt positiv anzusehen ist und
darin zahlreiche Möglichkeiten für gesellschaftliche und ökonomische
Entwicklung liegen. Allerdings ist Diversity nicht ausschließlich auf eine
kulturelle Vielfalt oder ethnische Zugehörigkeit hin zu verstehen, sondern auch
bezogen auf Geschlecht, Erscheinung, Status in der Organisation,
Arbeitserfahrungen, Strategien usw. (ARETZ u. HANSEN 2003).
Arbeitsperson 111
2.2 Disposition
2.2.1 Persönlichkeit
2.2.1.1 DefinitionĆundĆRelevanzĆ
Persönlichkeit ist das Forschungsgebiet der Persönlichkeitspsychologie, die sich
wissenschaftlich mit den individuellen Unterschieden im Verhalten und Erleben
von Menschen auseinandersetzt.
Das Konstrukt Persönlichkeit wird von EYSENCK (1970) definiert als „die mehr
oder weniger stabile und dauerhafte Organisation des Charakters, Temperaments,
Intellekts und Körperbaus eines Menschen, die seine einzigartige Anpassung an
die Umwelt bestimmt“ (EYSENCK 1970).
GUILFORD (1974) bezieht den Begriff trait ein: „Die Persönlichkeit eines
Individuums ist seine einzigartige Struktur von Persönlichkeitszügen (traits). Ein
trait ist jeder abstrahierbare und relativ konstante Persönlichkeitszug, hinsichtlich
dessen eine Person von anderen Personen unterscheidbar ist.“ (GUILFORD 1974)
Somit ist Persönlichkeit ein Konstrukt, das die charakteristischen, zeitlich
überdauernden Denk-, Gefühls- und Verhaltensmuster eines Individuums im
Umgang mit seiner Umwelt beinhaltet. Die Persönlichkeitsforschung beschreibt
die inter- und intraindividuellen Differenzen der Persönlichkeit und beruft sich
dabei auf unterschiedliche Theorien, die sich nach der Forschungsrichtung und
den jeweiligen Ansätzen der einzelnen Begründer ausrichten. Hier zu nennen
wären bspw.:
x Kognitive Persönlichkeitstheorien (George A. Kelly)
x Lerntheoretische Ansätze (Skinner, Watson)
x Phänomenologische Theorie (Carl Rogers)
x Psychodynamische Theorien (Freud)
x Sozial-kognitive Theorie (Bandura, Mischel)
x Trait-Theorien (Eigenschaftstheorien) (Allport, Eysenck, Cattell).
Das Wissen um die Persönlichkeit einer Arbeitsperson ist vor allem hinsichtlich
der Berufs- und Laufbahnberatung, der Personalauswahl und der
Organisationsgestaltung und -entwicklung von großem Interesse (siehe Kap.5).
Um die Struktur der Persönlichkeit zu charakterisieren wird häufig das Fünf-
Faktoren-Modell (Big Five) verwendet (GOLDBERG 1990; WIGGINS u. PINCUS
1992), das Eigenschaftsbegriffe, die einen Menschen beschreiben, auf fünf
grundlegenden Dimensionen beschreibt. Diese sind:
(1) Neurotizismus
stabil, ruhig, zufrieden versus gespannt, ängstlich, nervös, launisch
(2) Extraversion
gesprächig, aktiv, offen, energiegeladen versus still, reserviert,
zurückgezogen, schüchtern
Arbeitsperson 113
(3) Offenheit
breit interessiert, fantasievoll, kreativ, intellektuell versus gewöhnlich,
einseitig interessiert, einfach, oberflächlich
(4) Verträglichkeit
mitfühlend, nett, bewundernd, herzlich, freundlich versus kalt, unfreundlich,
streitsüchtig, unbarmherzig
(5) Gewissenhaftigkeit
organisiert, sorgfältig, zuverlässig, verantwortungsbewusst versus sorglos,
unordentlich, leichtsinnig, verantwortungslos.
2.2.1.2 MessungĆderĆPersönlichkeitĆ
Zur Messung von Persönlichkeit gibt es zahlreiche Inventare, häufig in Form von
standardisierten Fragebögen, in denen die Selbsteinschätzung über die eigenen
Merkmale und Verhaltensweisen erfragt wird. Fragebogenverfahren sind
ökonomisch, genügen dem Gütekriterium der Objektivität und in der Regel auch
der Reliabilität und Validität. BORKENAU et al. (2005) beschreiben einige
Einschränkungen, die sich aufgrund des Einsatzes von Fragebögen ergeben.
Hierzu gehören bspw., dass sie leicht verfälschbar sind, indem die Befragten
absichtlich unrichtige Angaben vornehmen. Auch zählen hierzu die zahlreichen
Fehlertendenzen bei der Selbstbeurteilung (siehe auch Kap. 1.5.1.4.2).
Besonders häufig wird das oben genannte Fünf-Faktoren-Inventar von Costa
und McCrae verwendet, das auf den fünf Persönlichkeitsdimensionen basiert.
Beispiele für die einzelnen Dimensionen (je 12 Sätze) der insgesamt 60 Items
sind: „Manchmal erscheint mir alles düster und hoffnungslos“ (Neurotizismus),
„Ich habe gerne viele Leute um mich herum“ (Extraversion), „Ungewöhnliche
Dinge wie bestimmte Gerüche oder die Namen ferner Länder können starke
Stimmungen in mir erzeugen“ (Offenheit für neue Erfahrungen), „Ich könnte
niemanden betrügen, selbst wenn ich es wollte“ (Verträglichkeit) und „Ich arbeite
hart, um meine Ziele zu erreichen“ (Gewissenhaftigkeit) (PERVIN et al. 2005).
Eine andere Art der Erfassung von „traits“ im Sinne von stabilen
Persönlichkeitsmerkmalen ist die Erfragung der Selbstbewertung (core self-
evaluation). Hier werden Variablen wie Selbstwert (self-esteem),
Selbstwirksamkeit (self-efficacy), Selbstkontrolle (locus of control) und negative
Affektivität abgefragt und somit die individuelle Selbstbeurteilung und
Einschätzung der Person erfasst.
Die neuere Forschung rückt Implizite Assoziationstests (IAT) in den
Vordergrund (BORKENAU et al. 2005), da andere Testverfahren an mangelnder
interner Konsistenz und Stabilität sowie begrenzter Sensitivität für individuelle
Unterschiede leiden. IAT sind computergestützte Testverfahren. Die
Versuchspersonen müssen zwischen zwei Kategorien unterscheiden (z.B. Mann /
Frau, dünner Mensch / dicker Mensch, dunkle Hautfarbe / helle Hautfarbe) und
gleichzeitig positive und negative Attribute zuordnen (wundervoll, angenehm,
grauenhaft, hässlich etc.). Während des Tests müssen die Befragten so schnell wie
114 Arbeitswissenschaft
2.2.1.3 PersönlichkeitsentfaltungĆ
Dem Konzept der Persönlichkeit wird heute eine hohe Bedeutung im Hinblick auf
Leistungs- und Eignungsvorhersagen für Schule, Studium und Beruf zugewiesen.
Von dem zuvor beschriebenen Fünf-Faktoren-Modell erweisen sich vor allen
Dingen Gewissenhaftigkeit, emotionale Stabilität sowie Extraversion als relevant
bspw. für beruflichen Erfolg und Zufriedenheit (siehe BORKENAU et al. 2005). Die
Dimension Offenheit ist verwendbar, um Trainingserfolg vorherzusagen, und die
Dimension Verträglichkeit kann die Zusammenarbeit in einem Team positiv
beeinflussen.
Neben der Vorhersagbarkeit von Leistung und Erfolg ist auch die Gestaltung
der Arbeit hinsichtlich der Persönlichkeitsentfaltung ein wichtiges Anliegen der
Arbeitswissenschaft (siehe Kap. 1.5.2).
ULICH (2005) analysiert zahlreiche Längsschnittstudien und beschreibt den
Einfluss der Arbeitsbedingungen auf die Persönlichkeit über Lern- und
Generalisierungsprozesse. Nachgewiesen werden konnten unter anderem
Zusammenhänge zwischen den Merkmalen der Arbeitstätigkeit sowie der
Persönlichkeitsmerkmale Selbstvertrauen, intellektuelle Flexibilität,
Moralbewusstsein, soziale Kompetenz, internale Kontrolle sowie Erweiterung
fachlicher Qualifikation.
Arbeit als Möglichkeit zur Persönlichkeitsentfaltung versucht,
persönlichkeitsorientierte Ziele (Selbstverwirklichung, Autonomie) derart in
Arbeits- und Organisationsstrukturen einzubringen, dass Arbeitsbedingungen und
persönliche Ziele komplementär gestaltet werden können. Es wird davon
ausgegangen, dass ein derartiger Einsatz menschlicher Ressourcen auch auf der
Leistungsseite (Output) zu einer Verbesserung führt. Allerdings muss auch
Arbeitsperson 115
Gewissenhaftigkeit Verträglichkeit
75- 80-
Anteil am Skalenmaximum [%]
Neurotizismus Offenheit
59 - 85 -
Anteil am Skalenmaximum [%]
Extraversion
65-
Anteil am Skalenmaximum [%]
63-
61- Frauen – Mittelwerte
59-
57- Männer – Mittelwerte
55-
53- Frauen – Regressionsanpassung
51-
49- Männer – Regressionsanpassung
47-
45-
21 24 27 30 3 3 36 39 42 45 48 51 54 57 60
Alter
Abb. 2.8: Persönlichkeitsentwicklung mit dem Alter – Strukturelle Merkmale („Big Five“,
nach SRIVASTAVA et al. 2003, Daten einer Internet-Studie an 132.515 Personen)
2.2.2 Alter
Jahr 2005 stellte die mittlere Altersgruppe der 30- bis 49-jährigen mit 50% den
größten Anteil an der Erwerbsbevölkerung im Vergleich zu den Jungen mit 20%
(20 bis 29 Jahre) und den Älteren mit 30% (50 bis 64 Jahre). Im Jahr 2050 werden
die mittlere Gruppe mit 43% und die ältere Gruppe mit 40% voraussichtlich
wesentlich ähnliche Anteile aufweisen, wobei der Anteil der Jüngeren sich nicht
so stark ändern wird. Die Bevölkerung im Erwerbsalter wird somit in den
kommenden Jahrzehnten immer stärker durch die Älteren geprägt
(STATISTISCHES BUNDESAMT 2006e).
2.2.2.2 JugendlicheĆ
Wenn man nicht auf die gesetzlichen Altersgrenzen zurückgreift, ist es schwierig,
die Jugendzeit gegenüber der Kindheit und dem Erwachsenenalter abzugrenzen.
Das Jugendarbeitsschutzgesetz (JArbSchG) definiert:
x Kinder sind Personen unter 15 Jahren bzw. Vollzeitschulpflichtige
x Jugendliche sind Personen ab 15 und unter 18 Jahren.
Man könnte auch den Zeitpunkt der Arbeitsaufnahme als Grenze verwenden,
dieses ist aber aus dem Grunde umstritten, dass eine eindeutige Trennung von
Berufsausbildung und Berufsausübung nicht möglich ist. Hinzu kommt die
Tendenz, die Ausbildung mehr und mehr vom Arbeitsplatz zur Schule zu
verlagern.
Die Bestimmung eines Zeitpunktes, an dem ein Jugendlicher seine Entwicklung
zum Erwachsenen abgeschlossen hat, gestaltet sich also abgesehen von den
rechtlichen Grundlagen problematisch. Die größte Schwierigkeit besteht darin, die
körperliche und geistige Entwicklung zu beurteilen, da die interindividuelle
Streuung zu hoch ist.
Insbesondere durch die unterschiedliche körperliche Entwicklung in der
Pubertät ist eine starke Inhomogenität in dieser Gruppe zu beobachten. Aufgrund
der noch ungünstigen Proportionen haben Jugendliche oftmals ergonomische
Probleme, da sie häufig an Arbeitsplätzen arbeiten müssen, die für Erwachsene
entworfen wurden. Dazu kommen noch die nicht voll entwickelten
physiologischen und sensumotorischen Eigenschaften, wie Muskelkraft, Herz-
und Lungenleistungsfähigkeit, Geschicklichkeit und Reaktionsvermögen. Die
Leistungsfähigkeit des Herz-Kreislaufsystems, dargestellt in Abb. 2.10 am
Kriterium der maximalen Sauerstoffaufnahme pro Minute, ist im Kindesalter
zwischen Mädchen und Jungen noch nicht unterschiedlich. Aufgrund einer
höheren jährlichen Leistungszuwachsrate von 5-7% erreichen Jungen bzw.
Männer jedoch später ein höheres Niveau, wobei die maximale Leistungsfähigkeit
des Herz-Kreislaufsystems etwa mit dem 20. Lebensjahr erreicht wird. Bei
Mädchen bzw. Frauen ist die maximale Leistungsfähigkeit bereits mit dem 14.-16.
Lebensjahr erreicht.
In der Regel ist es für Jugendliche schwierig, ihre Kräfte ökonomisch
einzusetzen und Anforderungen und Gefahren richtig einzuschätzen. Versuche, so
Arbeitsperson 119
2.2.2.3 ÄltereĆArbeitspersonenĆ
Es gibt keine gesetzlichen Bestimmungen, die eine Grenze festlegen, ab wann eine
Arbeitsperson „alt” ist. In der betrieblichen Praxis geht man daher meistens von
der Verrentung bzw. Pensionierung als Übergang aus, allerdings muss man
beachten, dass keine Höchstaltersgrenze für die Ausübung der meisten Tätigkeiten
besteht. Der Ruhestandstermin entstand im Zuge der Verallgemeinerung der
öffentlichen Rentensysteme. Vom Beginn des letzten Jahrhunderts bis etwa 1970
konzentrierte sich der Zeitpunkt für das Ausscheiden aus dem Erwerbsleben um
das 65. Lebensjahr. Danach ließ sich feststellen, dass das durchschnittliche
Zugangsalter der Versichertenrenten – wegen Alters und wegen verminderter
Erwerbsfähigkeit – mehr oder weniger kontinuierlich sank. Jedoch ist seit dem
Jahr 1999 wieder ein Ansteigen des durchschnittlichen Zugangsalters
festzustellen. Im Jahr 2007 lag es bei 61,0 Jahren (1980: 59,2 Jahre). Zu beachten
ist, dass das durchschnittliche Zugangsalter wegen verminderter Erwerbsfähigkeit
weiterhin abnimmt (1970: 58,3 Jahre, 2007: 50,1 Jahre), während der
Rentenzugang wegen Alters tendenziell immer später erfolgt (2007: 63,3 Jahre,
DEUTSCHE RENTENVERSICHERUNG 2008). In Rezessionsphasen wiederum
verschärft sich die Tendenz zur Frühverrentung, da die Möglichkeit, Arbeitskräfte
durch vorzeitigen Ruhestand abzubauen, den sozialen Frieden in der Regel
weniger gefährdet als Entlassungen.
Aufgrund der auch langfristig zu erwartenden angespannten Lage auf dem
Arbeitsmarkt sind die Einsatzmöglichkeiten älterer Arbeitsperson von besonderem
Interesse. Allgemein ist die Leistungsfähigkeit älterer Arbeitspersonen nicht vom
kalendarischen Alter abhängig und schwer einzuschätzen (SHEPHARD 2000). Dies
hat folgende Gründe:
(1) Die Streuung der individuellen Fähigkeiten ist bei älteren Arbeitspersonen
dominierender als deren mittlere Abnahme (ILMARINEN u. TEMPEL 2002).
(2) Leistung und Leistungsbereitschaft sind stark von den Arbeitsaufgaben und
-bedingungen abhängig.
Die Arbeitswissenschaft distanziert sich inzwischen von der Auffassung einer
generellen Verschlechterung der Fähigkeiten mit zunehmendem Alter (Ablehnung
der sog. „Defizit“-Theorie, siehe LANDAU et al. 2007). Stattdessen postuliert das
sog. „Kompensations-Modell“, dass nicht alle körperlichen und geistigen
Funktionen notwendigerweise und in gleicher Weise einem Abbau und Verfall
unterliegen. Mithin können Fähigkeiten – insbesondere der sozialen Kompetenz –
im Altersverlauf stabil bleiben oder auch zunehmen (ADENAUER 2002, Tabelle
2.3; LUCZAK et al. 2010, Abb. 2.11).
Arbeitsperson 121
Abb. 2.11: Kompensations-Modell versus Defizit-Modell (aus LUCZAK et al. 2010); die
mittlere Leistungsabnahme im Alter, welche die Vorhersagen des Defizit-Modells domi-
niert, lässt sich in einem kontrastierenden Erklärungsansatz durch die Akkumulation der
Individualverläufe begründen, die für sich genommen lange Zeit konstant bleiben und erst
nach dem Erreichen einer individuellen Grenze im hohen Alter deutlich abfallen
Unter ungünstigen Umständen, z.B. unter hoher Dauerbelastung, ist jedoch mit
zunehmendem Alter eher mit Einbußen zu rechnen (KENNY et al. 2008). Diese
Veränderungen sind allerdings nicht immer messbar oder ziehen oftmals nicht
einmal negative Auswirkungen auf Wertschöpfungsprozesse nach sich.
Vor diesem Hintergrund ist die Sinnhaftigkeit einer fixen oder lediglich nach
unten durch Vorruhestandsregelungen flexiblen Altersgrenze in Frage zu stellen.
Bereits in den 60er Jahren gab es in der Bundesrepublik eine Diskussion über die
Flexibilisierung der Altersgrenze (LEHR 2003). Angesichts einer dauerhaft hohen
Arbeitslosigkeit wird diese immer wieder sowohl von den Gewerkschaften als
auch von den politischen Parteien aufgegriffen, z.B. im Zusammenhang mit der
sog. Altersteilzeit.
122 Arbeitswissenschaft
Defizit-Modell Kompensations-Modell
x bis Anfang 1990 x seit Anfang 1990; Perspektivenwechsel
x einseitig negative Betrachtungsweise des x differenzierte Sichtweise des Alterns und Alters
Alterns und Alters x Wandel von Fähigkeiten im Alter:
x Altern und Alter = Abbau und Verfall von o z. T. abnehmend
Qualifikation und Leistung o stabil bleibend
o zunehmend
x betrifft alle Altersentwicklungen aller Menschen, x weitere Differenzierung:
d.h. Annahme: Alle Menschen altern in gleicher o Unterschiede zwischen den Individuen; jeder
Weise altert zu einem anderen Zeitpunkt und in
unterschiedlicher Weise (Einfluss hat auch die
Lebensbiographie)
o Unterschiede in den Alterungsprozessen
verschiedener Organe und Funktionen
innerhalb eines Individuums (Zu- oder
Abnahme von Funktionen)
o Unterschiede in der körperlichen und geistigen
Entwicklung
o auch im Alter ist Verhaltensänderung sowie
Lernen möglich
o differenzierte Beurteilung der
Leistungsfähigkeit Älterer
2.2.2.3.1 Leistungsfähigkeit
Mittelwertsvergleiche, die für energetisch-effektorische Arbeit einen
altersbedingten Abbau der Leistungsfähigkeit von Mitte 20 an aufzeigen, können
aufgrund der großen Streuung nicht pauschal auf ältere Arbeitspersonen sowie
andere Arbeitsformen angewandt werden (SILVERSTEIN 2008). Die Beurteilung
der Leistungsfähigkeit sollte sich daher immer auf die Person und die von ihr zu
verrichtende Tätigkeit beziehen. Zudem können im Fall von Querschnittstudien im
Gegensatz zu Längsschnittstudien Verzerrungen durch die Berücksichtigung von
hinsichtlich bestimmter Merkmale unterschiedlichen Geburtskohorten entstehen,
die ein falsches Bild vermitteln (Abb. 2.12).
Bei Querschnittstudien zu Veränderungen mit dem Alter werden einmalig
Personen aus unterschiedlichen Kohorten untersucht, wobei Längsschnittstudien
bzw. genauer gesagt sog. Panelstudien Erhebungen einer bestimmten Stichprobe
zu mehreren Zeitpunkten beinhalten. Dadurch wird die Ableitung
kohortenspezifischer Verläufe ermöglicht.
Arbeitsperson 123
Abb. 2.12: Verzerrung des Altersverlaufs eines beliebigen Kriteriums aufgrund von
Kohorteneffekten im Fall einer Querschnittstudie (idealisierte Darstellung)
%ĆT
100 0,5Ća.
90
8Ća.
80
70
60 25Ća.
47Ća.
50 54Ća.
40
82Ća.
30
20
10
300 350 400 450 500 550 600 650 700 750 800 nm
20 Jahre
250
60 Jahre
200
2099
183
Lichtbedarf [%]
150
183
100
1000
1000
1000
50
0
100 300 900
E [lx]
Abb. 2.14: Unterschied im Lichtbedarf LB zwischen alten (60 Jahre) und jungen
Arbeitspersonen (20 Jahre = 100%) bei verschiedenen aufgabenbezogenen Beleuchtungs-
stärken (aus HANDBUCH FÜR BELEUCHTUNG 1975)
Arbeitsperson 125
16
14
Akkomodationsbreite [Dioptrien]
12
Streubreite
10
0
5 15 25 35 45 55 65 75
Alter [Jahre]
-10
0 30 Jahre
Hörschwellenabweeichung ǻH
10
50 Jahre
20
30
40
70 Jahre
m
50
w
60
100 1000 10000
Frequenz [Hz]
Abb. 2.16: Obere Hörgrenze in Abhängigkeit des Alters (Daten aus DIN EN ISO 7029)
Intelligenz-
leistung
Gesamtintelligenz
Kompensation
durchĆWissen
undĆErfahrung
Elementar-
intelligenz
Lebensalter
Abb. 2.17: Schematische Darstellung des Verlaufs von Intelligenzleistung bei
zunehmendem Alter (nach HACKER u. RAUM 1992)
altersadäquat aktuell zu halten bzw. auszubauen. Nach BUCK et al. (2002) ist bei
der Gestaltung von Fort- und Weiterbildung für ältere Arbeitspersonen
insbesondere auf Folgendes zu achten:
x „Lernentwöhnte“ benötigen unabhängig vom Alter die Möglichkeit, den
Lernprozess zeitlich zu steuern (selbstbestimmtes Lerntempo).
x Auf eventuell vorhandene Ängste, die vermittelten Lerninhalte nicht
bewältigen zu können, muss eingegangen werden, und diese Ängste sollten
nicht als mangelnde Lernmotivation fehlinterpretiert werden.
x Es ist wichtig, dass auf Erfahrungen und Tätigkeitsinhalte der Teilnehmer
Bezug genommen wird, d.h. anhand praktischer Fragestellungen und
Aufgaben lassen sich theoretische bzw. abstrakte Lerninhalte älteren
Mitarbeiter/-innen häufig besser vermitteln bzw. werden offener
aufgenommen (aufgabenbezogenes, arbeitsnahes Lernen).
Überdies kann eine Vor-Ort-Schulung inklusive direkter Anwendung von
bspw. vermittelten Arbeitsmethoden gegenüber einer Qualifikationsveranstaltung
in einem externen Seminarraum vorteilhaft sein. Neben Fort- und Weiterbildung
kann aber auch durch vollständige und herausfordernde Tätigkeiten und die mit
ihnen gegebenenfalls einhergehenden Lerneffekte der „Veralterung“ von
Qualifikationen entgegengewirkt werden (BRUGGMANN 2000).
2.2.2.3.2 Leistungsbereitschaft
Grundsätzlich gilt, dass eine „optimale“ Leistungsfähigkeit älterer Arbeits-
personen nur dann erreicht werden kann, wenn ihre Leistungsbereitschaft
entwickelt und gefördert wird. Wesentlich hierbei sind die Arbeitsmotivation,
Arbeitszufriedenheit und das emotionale Erleben während der Arbeit. Bei älteren
Berufstätigen treten zukunftsorientierte Motive (z.B. Interessantheit der Tätigkeit
oder persönliche Selbstverwirklichung) im Vergleich zu jüngeren Berufstätigen
eher in den Hintergrund. Dagegen erhalten emotionsbezogene Motive (wie etwa
gegenseitige Hilfeleistung oder Autonomie) einen signifikant höheren Stellenwert.
Relativ konstant über das Alter haben Spaß und Freude an der Arbeit eine sehr
hohe Bedeutung, während gesellschaftliches Ansehen die niedrigste Bedeutung
hat (GRUBE u. HERTEL 2008).
Hinsichtlich der Arbeitszufriedenheit wurden bislang unterschiedliche
Zusammenhänge zum Alter in wissenschaftlichen Untersuchungen festgestellt.
Sowohl U-förmige Verläufe mit dem Minimum im mittleren Alter (z.B.
HERZBERG et al. 1957; HOCHWARTER et al. 2001) als auch lineare positive Trends
(z.B. BRUSH et al. 1987; RHODES 1983; SCHULTE 2005), d.h. eine stetig
zunehmende Arbeitszufriedenheit mit dem Alter wurden in Studien gefunden.
Hier ist nach Ansicht von GRUBE u. HERTEL (2008) die jeweils angewandte
Methodik der Zufriedenheitsmessung ein wesentlicher Einflussfaktor auf die
Ergebnisse, und es bedarf weiterer Forschungsanstrengungen im Bereich der
Messinstrumente.
Vergleichende Untersuchungen bei älteren Beschäftigten haben ein höheres
Engagement, eine höhere Einsatzbereitschaft, eine stärkere Betriebsbindung und
132 Arbeitswissenschaft
2.2.2.3.3 Produktivität
Die in der betrieblichen Praxis teilweise anzutreffende Vermutung, dass mit einer
älter werdenden Belegschaft Produktivitätseinbußen zu erwarten sind, lässt sich
durch wissenschaftliche Studien, die potenzielle Störgrößen soweit möglich
kontrollieren, nicht belegen. Vielmehr zeigt eine Untersuchung des Zentrums für
Europäische Wirtschaftsforschung anhand von Längsschnittdaten des sog. Linked
Employer-Employee-Datensatzes (LIAB) des Instituts für Arbeitsmarkt- und
Berufsforschung aus den Jahren 1997-2005, dass die Unternehmensproduktivität
bis zur Altersgruppe „50-55 Jahre“ kontinuierlich ansteigt und danach nur leicht
abfällt (Abb. 2.18)
Bruttowertschöpfung
0,8
0,6
0,4
0,2
0,0
20 25 30 35 40 45 50 55 60
-0,2
-0,4
-0,6
Ͳ0,8
Alter
2.2.3 Intelligenz
2.2.3.1 DefinitionĆundĆRelevanzĆ
Obwohl die Intelligenzforschung fast so alt ist wie die Psychologie selbst, gibt es
bis heute keine einheitliche Definition dieses Konstruktes. STEINMAYR u.
AMELANG (2007) fassen die Gemeinsamkeiten der meisten Intelligenzdefinitionen
wie folgt zusammen:
Arbeitsperson 135
2.2.3.2 IntelligenzmessungĆ
Das Thema Intelligenz ruft wegen seiner gesellschaftlichen Relevanz zahlreiche
Stellungnahmen hervor, die es schwer machen, einen Gesamtüberblick über die
Einflüsse der einzelnen Forscher zu geben. Die historischen Abhandlungen
unterscheiden sich sehr stark und zwar vor allen Dingen dahin gehend, welche
Persönlichkeiten welchen Einfluss auf das heutige Konzept der Intelligenz hatten
und welche Ergebnisse als Erfolg oder als Misserfolg zu werten sind. Als
gesichert ist anzusehen, dass Francis Galton der erste Wissenschaftler war, der
über Intelligenz und Intelligenzmessung publizierte (GALTON 1883, GALTON
1908). Er beschäftigte sich mit der Frage, wie geistig zurückgebliebene Kinder
unterrichtet werden müssten. Zu diesem Zweck wollte er die Intelligenz dieser
Kinder erheben. In umfangreichen Langzeitstudien konnte Galton bspw.
nachweisen, dass Kinder, die auf einer Altersstufe als zurückgeblieben eingestuft
worden waren, noch weiter hinter das Intelligenzalter ihrer Altersgruppe
zurückfielen, wenn sie älter wurden (ZIMBARDO u. GERRIG 2004). Weiterhin
ergaben seine Untersuchungen, dass einfache Reaktionszeiten oder Fähigkeiten im
sensorischen Bereich keine Zusammenhänge zeigten zu anderen Aspekten der
Bildung und Begabung (NEUBAUER 1995).
Galtons Untersuchungen inspirierten zahlreiche Forscher seiner Zeit. So
standardisierte TERMAN (1916) Galtons Test und entwickelte weitere
altersspezifische Normdaten durch Testung von sehr großen Kinderstichproben.
Der so entstandene Test wird als Stanford-Binet-Intelligenztest bezeichnet. Dabei
berief sich Terman auf STERN (1912), der einen sog. Altersquotienten postulierte,
der jedoch heute nicht mehr gebräuchlich ist. Stern definierte den
Intelligenzquotienten als das Verhältnis des Intelligenzalters zum Lebensalter.
Terman, dem durch die Entwicklung des Standford-Binet-Tests sehr große
Beachtung zuteil wurde, vertrat die Ansicht, dass der Intelligenzquotient IQ
136 Arbeitswissenschaft
Angabe der Intelligenz durch einen von einem Intelligenztest gemessenen IQ ist
daher mit Vorsicht zu werten.
BORKENAU et al. (2005) berichten über Zusammenhänge zwischen Intelligenz
und Berufserfolg zwischen r = 0,51 und r = 0,62. Der Zusammenhang zwischen
Studienerfolg und Intelligenz liegt zwischen r = 0,32 und r = 0,36.
In Unternehmen wird daher dem Konstrukt Intelligenz großes Interesse
beigemessen. Intelligenztests werden vor allem in größeren Betrieben in
Kombination mit anderen Fähigkeitstests (technisches Verständnis,
Maschineschreiben, Sozialverhalten, Führungsqualitäten etc.) zur Beurteilung der
Fähigkeiten von einzustellendem Personal verwendet.
Intelligenz ableiten würde. Man würde erwarten, dass sich diese Aussagen durch
die Durchführung von standardisierten Intelligenztests überprüfen ließen. Es
stellte sich heraus, dass wirklich die Ergebnisse von Männern und Frauen
differierten. Die Ursache dafür ist, dass tatsächlich Unterschiede zwischen
Männern und Frauen in der Intelligenzleistung bestehen und diese sich je nach
Testkonstruktion mehr oder weniger stark auswirken. Die Hauptunterschiede sind:
x Frauen erbringen im Allgemeinen bessere akademische Leistungen (sie
bekommen bessere Noten in Schulen und Universitäten (SHERMAN 1971))
x Frauen besitzen eine höhere Leistungsfähigkeit bei verbalen Fähigkeitstests
x Männer leisten mehr bei Tests, die Technikverständnis messen
x Männer leisten mehr bei räumlichen Fähigkeitstests (WITKIN et al. 1962).
Damit sich diese Unterschiede nicht durch die Auswahl bestimmter Merkmale
bei der Testkonstruktion bemerkbar machen, haben u.A. TERMAN u. MERRILL
(1937), die maßgeblich den Stanford-Binet-Test überarbeiteten, die Testitems, die
große Unterschiede bei Männern und Frauen aufwiesen, aus der endgültigen
Version des Testes entfernt. Somit weist dieser Test im Durchschnitt für Frauen
und Männer identische Ergebnisse auf.
Die Diskussion, ob Intelligenz geschlechtsabhängig ist, ist eng verbunden mit
der Frage, ob Intelligenz durch das Erbgut oder die Umgebungsfaktoren festgelegt
wird (siehe unten). Allgemein lässt sich sagen, dass sehr wohl
Geschlechtsunterschiede existieren, diese sich jedoch nicht in der allgemeinen
Intelligenzleistung äußern, sondern dass die Schwerpunkte der Leistungsfähigkeit
in unterschiedlichen Bereichen liegen (siehe Kap. 2.1.1).
2.2.3.3 IntelligenzmodelleĆ
Intelligenz ist eine Eigenschaft eines Individuums, die als positiv eingestuft wird:
Je mehr man davon hat, umso besser. Intelligenz ist nicht, wie z.B. Körpergröße
oder Haarfarbe, direkt beobachtbar, sondern muss aus dem Verhalten erschlossen
werden. Hieran muss sich die Überlegung anschließen, ob Intelligenz eine
einheitliche, allgemeine Fähigkeit oder eine mehr oder weniger offene Vielzahl
von Einzelfähigkeiten ist. Vor diesem Hintergrund unterscheidet man die globalen
(ganzheitlichen) und die operationalen Intelligenzdefinitionen.
2.2.3.3.1 Globale Intelligenzdefinitionen
Die globalen (ganzheitlichen) Definitionen versuchen, das Wesen der Intelligenz
in seiner Gesamtheit zu beschreiben. Auf formale Aussagen über
Zusammensetzung und Struktur von Intelligenz wird in der Regel verzichtet. Im
Folgenden sind einige Beispiele für ganzheitliche Intelligenzdefinitionen gegeben:
Antike
Intelligenz ist die Funktion höchsten abstrakten Erkennens, als Einsicht oder
Verständnis (intellectus) der Vernunft (ratio) und dem sinnlichen Erkennen
(sensatio) übergeordnet.
Arbeitsperson 139
STERN (1912)
Intelligenz ist die allgemeine Fähigkeit eines Individuums, sein Denken bewusst
auf neue Forderungen einzustellen; sie ist allgemein geistige Anpassungsfähigkeit
an neue Aufgaben und Bedingungen des Lebens.
HOFSTÄTTER (1966)
Intelligenz ist die Fähigkeit zur Auffindung von Redundanz.
WECHSLER (1964)
Intelligenz ist die zusammengesetzte und globale Fähigkeit des Individuums,
zweckvoll zu handeln, vernünftig zu denken und sich mit seiner Umgebung
wirkungsvoll auseinanderzusetzen.
Das bedeutendste ganzheitliche Intelligenzmodell ist das Stufenleitermodell,
das hauptsächlich auf Arbeiten von BINET u. SIMON (1905) sowie TERMAN (1916)
zurückgeht und bereits Grundergebnisse späterer Intelligenzforschung
vorwegnimmt:
x Intelligenz variiert interindividuell
x Intelligenz ist abhängig vom Lebensalter.
Das Stufenleitermodell entwickelt die Idee, dass der durchschnittliche „mentale
Alterswert“ oder das „Intelligenzalter“ mit dem chronologischen Alter
übereinstimmt, und schwächere Personen lediglich im „mentalen Wachstum“
zurückgeblieben sind und somit einen mentalen Alterswert haben, der geringer als
das chronologische Alter ist. Ein Intelligenztest nach diesem Modell ist daher
derart konzipiert, dass die Schwierigkeit der Aufgaben kontinuierlich ansteigt und
so beschaffen ist, dass sie jeweils von einer bestimmten Altersstufe gerade noch
gelöst werden kann. Damit erhält man eine Skala (Stufenleiter) für die Intelligenz.
Diesen Überlegungen liegen folgende Annahmen zugrunde:
x Intellektuelle Fähigkeiten entwickeln sich bis zu einem Höchstalter linear
und stetig
x Ein Entwicklungsvorsprung ist ein Anzeichen für höhere Intelligenz und
umgekehrt
x Die Entwicklung der Intelligenz ist mit einem bestimmten Alter beendet.
Insbesondere die letzte Annahme ist problematisch, weil das Alter, in dem die
Entwicklung der Intelligenz beendet sein soll, nur schwer anzugeben ist.
Außerdem war die Berechnungsmethode für den mentalen Alterswert fragwürdig.
140 Arbeitswissenschaft
T1 T2
s1
s2
T3 s3
g
s4 sn
T4
Tn
Abb. 2.19: Das Zweifaktorenmodell von Spearman (T1 bis Tn sind die Korrelationen
zwischen verschiedenartigen Intelligenztests, die grauen Felder stellen die extrahierten
Faktoren dar und die hellen Felder entsprechen den nicht bestimmbaren
Residualkorrelationen)
Abb. 2.20: Multifaktorenmodell von Thurstone (T1 bis Tn sind die Korrelationen zwischen
verschiedenartigen Intelligenztests, die grauen Felder stellen die extrahierten Faktoren dar
und die hellen Felder entsprechen den nicht bestimmbaren Residualkorrelationen)
142 Arbeitswissenschaft
anderen Worten, die Effektivität des Unterarmes ist viel stärker von der Kraft des
Oberarmes abhängig als umgekehrt. Dies ist die Bedeutung der hierarchisch
funktionalen Abhängigkeit.
führte dabei die Begriffe fluid general intelligence gf(h) (fluide Intelligenz) und
crystallized general intelligence gc (kristalline Intelligenz) ein. Die kristalline
Intelligenz besteht aus dem erworbenen Wissen und der Fähigkeit, auf dieses
Wissen auch zuzugreifen. Gemessen wird die kristalline Intelligenz mit
Wortschatztests, Tests zur Überprüfung des Allgemeinwissens oder mit
Rechentests. Die fluide Intelligenz ist als Fähigkeit zu interpretieren,
Zusammenhänge, die komplex sind, zu erkennen und auch Probleme zu lösen.
Erhoben wird diese Intelligenz mit Matrizenaufgaben und Anordnungen
räumlicher Art, die zur Lösung logische Schlussfolgerungen erfordern
(ZIMBARDO u. GERRIG 2004).
Das Besondere an Cattells Modell ist die Zerlegung der Intelligenz in ererbte
und erworbene Anteile. Nach Cattell handelt es sich bei dem gf-Faktor um die
vom Lernschicksal und den Umgebungsbedingungen unabhängige, genetisch
veranlagte Intelligenz und bei der kristallisierten Intelligenz um den durch
Lernvorgänge ausgelösten Komplex schulischer und familiärer Erfahrungen.
Das Intelligenzmodell ist allerdings bezüglich seiner physiologischen und
erbpsychologischen Gegebenheiten weitgehend spekulativ und konnte nicht
eindeutig bestätigt werden. Bei Nachfolgeuntersuchungen nach Cattells
Versuchsdesign konnten die strukturellen Eigenschaften des Modells bestätigt
werden; bei abweichenden Versuchsplänen war diese Bestätigung allerdings schon
erheblich schwieriger.
2.2.3.4 IntelligenzĆ-ĆererbtĆoderĆerworben?Ć
Der Einfluss des Erbgutes bzw. der Umgebung auf die Intelligenzleistung ist und
war Gegenstand zahlreicher Diskussionen. Es handelt sich hierbei um essenzielle
Fragen der sozialen Verantwortung und der Gestaltung von Bildungssystemen.
Dementsprechend wurden die diversen wissenschaftlichen Ergebnisse oftmals für
politische Ideen missbraucht.
Die Amerikaner ERLENMEYER-KIMLING u. JARVICK (1963) haben 52
unabhängige Untersuchungen in 8 Ländern ausgewertet, die insgesamt über 30000
Korrelationspaare umfassten. Das Ergebnis ist in Abb. 2.22 dargestellt und lässt
sich im Sinne sowohl der Vererbungs- als auch der Umgebungstheorie
interpretieren.
Im Sinne der Vererbungstheorie:
x Die mittlere Korrelation bei eineiigen Zwillingen (0,87 und 0,75) ist
erheblich höher als bei zweieiigen (0,56 und 0,49).
x Die Korrelation bei eineiigen Zwillingen, die getrennt aufgewachsen sind, ist
höher (0,75) als bei zweieiigen Zwillingen (0,56 und 0,49) und Ge-
schwistern, die zusammen aufgewachsen sind (0,55).
x Die Korrelationen für Geschwister (0,47 und 0,55), zweieiige Zwillinge
(0,49 und 0,56) und Eltern und Kindern (0,5) liegen um den Wert von 0,5
(sie haben jeweils 50% der Gene gemeinsam).
Arbeitsperson 145
x Großeltern und Enkel haben eine Korrelation von etwa 0,25 (sie haben 25%
gemeinsame Gene).
x Die Korrelationen von Pflegeeltern zu ihren Kindern sind gering.
Im Sinne der Umgebungstheorie:
x Eineiige Zwillinge, die zusammen aufgewachsen sind, haben keine 100%ige
Korrelation.
x Eineiige Zwillinge, die zusammen aufgewachsen sind (0,87), haben eine
höhere Korrelation als getrennt aufgewachsene (0,75).
x Geschwister, die zusammen aufgewachsen sind (0,55), haben eine höhere
Korrelation als getrennt aufgewachsene (0,47).
0,9
0,87
0,8
0,75
0,7
0,6
Korrrelation
0,55 0,56
0,5 0,5
0 47
0,47 0 49
0,49
0,4
0,3
0,27
0,24
0,2 0,2
0,1
0 0
nge,
nge,
nkel
aufgewachsen
aufgewachsen
ndte
nge,
nge,
Kind
ennt
Kind
aufgewachssen
Geschwistter,
Geschwistter,
en
en
en
Nichtverwandtte
en
es
en
n,
Großeltern-En
zusamme
Zweieiige Zwillin
aufgewachse
aufgewachse
Pflegeeltern-K
Zweieiige Zwillin
Eltern-K
Nichtverwan
getrenntt
Eineiige Zwillin
Eineiige Zwillin
Personen, getre
Personen
zusamme
verschiedene
zusammen n
aufgewachse
Geschlecht
Geschlecht
getrennt
gleiches
Im Einklang mit der Umgebungstheorie wurde in den 70er Jahren die These
entwickelt, dass die Arbeitsplatz- und Tätigkeitsgestaltung einen wesentlichen
Einfluss auf die Entwicklung der geistigen Leistungsfähigkeit hat. Obwohl viele
Untersuchungen zu diesem Thema methodische Schwächen haben, kann die
Schlussfolgerung gezogen werden, dass die Intelligenz durch Tätigkeiten auf
niedrigem Niveau negativ und durch anspruchsvolle positiv beeinflusst wird.
SCHLEICHER (1973), der in einer Querschnittsanalyse 500 männliche Personen im
Alter von 16 bis 68 Jahren unter Anwendung mehrerer Teile des
Intelligenzstrukturtests (I-S-T, AMTHAUER 1953) untersuchte, konnte deutliche
Hinweise auf diese Schlussfolgerung finden.
männlich weiblich
Maler Kunsthandwerker
2.2.4 Gesundheit
2.2.4.1 DefinitionĆundĆRelevanzĆ
Die Weltgesundheitsorganisation (WHO) hat im Jahr 1946 Gesundheit als
„Zustand vollkommenen körperlichen, geistigen und sozialen Wohlbefindens und
nicht allein das Fehlen von Krankheit und Gebrechen“ beschrieben. Mit dieser
Definition wurde Gesundheit zunächst in ihren körperlichen, psychischen und
sozialen Dimensionen gesehen.
Die WHO definiert heute Gesundheit als „positiver funktioneller
Gesamtzustand im Sinne eines dynamischen biopsychologischen
Gleichgewichtszustandes, der erhalten bzw. immer wieder hergestellt werden
muss“ (WHO 1986). Das Gleichgewichtszustandsmodell betont die aktive Rolle
von Arbeitspersonen bei der Erhaltung und Förderung ihrer Gesundheit sowie im
Genesungs- und Rehabilitationsprozess.
Arbeitsperson 147
Während dieser Ansatz die aktive Rolle des Individuums in den Mittelpunkt
rückt, fokussiert die Definition der „Gesundheitsförderung“ stärker auf eine
Handlungsorientierung der Gruppe bzw. eine „gesundheitsfördernde
Gesamtpolitik“, indem Gesundheitsförderung als „Prozess, allen Menschen ein
höheres Maß an Selbstbestimmung zu ermöglichen und sie damit zur Stärkung
ihrer Gesundheit zu befähigen“ (WHO 1986) beschrieben wird (siehe Kap. 8).
Das Leitprinzip besteht darin, persönliche Kompetenzen, körperliche und
geistige „Ressourcen“ sowie soziale und gesellschaftliche Verhältnisse, die
Gesundheit bedingen und fördern, zu aktivieren, zu unterstützen und zu
stabilisieren (siehe Kap. 8.2.1).
Adressat der Gesundheitsförderung im Betrieb sind Arbeitspersonen aller
Lebensphasen und Altersstufen. Eine besondere Rolle kommt in diesem
Zusammenhang Menschen mit Beeinträchtigung und Behinderung zu, die deshalb
in den folgenden Kapiteln in den Fokus gerückt werden. Akute Erkrankungen und
ihre Auswirkungen auf die Leistungsfähigkeit werden hingegen im Weiteren nicht
behandelt. Dem Ansatz der WHO folgend ist das Ziel, Menschen trotz
Beeinträchtigung und Behinderung ein gesundes (Arbeits-)Leben zu ermöglichen
und sie bei der Bewältigung unterschiedlicher Lebensphasen und Verfolgung von
Karrierewegen zu unterstützen.
Menschen mit einer Behinderung gelten grundsätzlich nicht als „nicht gesund“.
Dabei ist zu beachten, dass Behinderungen in ca. 80% der Fälle auf eine Krankheit
zurückzuführen sind (STATISTISCHES BUNDESAMT 2009). Um eine soziale und
berufliche Integration bzw. Reintegration zu ermöglichen, bedarf die Mehrzahl der
Menschen adäquater Unterstützungsangebote (u.A. medizinischer, psychosozialer,
pädagogischer Art).
Der Begriff der Behinderung lässt sich schwer definieren (EURICH 2008; vgl.
Definitionen im Sozialgesetzbuch in Kap. 2.2.4.2). Der Begriff steht im Kontext
vielfältiger Lebensbezüge und ist mehrdimensional zu betrachten. Nicht die
Schädigung und die Beeinträchtigung sind ausschlaggebend, sondern die Folgen,
die sich daraus für das Individuum ergeben.
1980 wurde die erste Fassung der International Classification of Impairments,
Disabilities and Handicaps (ICIDH) – ein Klassifikationsschema von Krankheiten
und Behinderung – durch die WHO publiziert. Die WHO hat 2001 die neue
Klassifikation nach ICF (International Classification of Functioning, Disability
and Health) genehmigt, die die ICIDH ablöste. Die ICF dient als länder- und
fachübergreifende einheitliche Klassifikation zur Beschreibung des funktionalen
Gesundheitszustandes, der Behinderung, der sozialen Beeinträchtigung und der
relevanten Umgebungsfaktoren einer Person. Während das alte Modell
defizitorientiert angelegt war ist das neue Modell ressourcen- und defizitorientiert.
Das klassische biopsychosoziale Modell wurde erweitert, insbesondere wurde der
Lebenshintergrund der Betroffenen mitberücksichtigt (Kontextfaktoren), indem
die Partizipation (Teilhabe) und deren Beeinträchtigung als Wechselwirkung
zwischen dem gesundheitlichen Problem und ihren personen- und
umweltbezogenen Kontextfaktoren betrachtet wird (RENTSCH u. BUCHER 2006).
148 Arbeitswissenschaft
Die ICF ist hierarchisch aufgebaut. Die Informationen werden in zwei Teile
gegliedert, wobei sich der eine Teil mit der Funktionsfähigkeit und Behinderung
(Körperfunktionen und -strukturen, Schädigungen, Aktivitäten und Partizipation)
und der andere Teil mit den Kontextfaktoren (Umweltfaktoren, personenbezogene
Faktoren) befasst. Die Dimensionen sind wie folgt:
x Schädigungen sind Beeinträchtigungen einer Körperfunktion oder -struktur,
wie z.B. eine wesentliche Abweichung oder ein Verlust (funktionell, z.B. ein
fehlender Arm).
x Unter Partizipation versteht man das Einbezogensein in eine Lebenssituation.
Dies bedeutet bis zu einem gewissen Grad eigenständig zu sein und fähig zu
sein, die eigene Lebenssituation unter Kontrolle zu haben, auch wenn die
Aktivitäten nicht selbst ausgeführt werden.
x Umweltfaktoren bilden die materielle, soziale und einstellungsbezogene
Umwelt eines Menschen. Diese Faktoren liegen außerhalb des Individuums
und können u.A. seine Leistung, seine Leistungsfähigkeit oder seine
Körperfunktionen und -strukturen positiv oder negativ beeinflussen.
x Personenbezogene Faktoren sind der spezielle Hintergrund des Lebens und
der Lebensführung eines Menschen. Sie umfassen Gegebenheiten des
Menschen, die nicht Teil ihrer Gesundheitsproblems oder -zustandes sind.
Diese Faktoren können u.A. Konstitutionsmerkmale wie Geschlecht,
ethnische Zugehörigkeit oder Dispositionsmerkmale wie Alter, Fitness,
Lebensstil, sozialer Hintergrund, Bildung und Ausbildung, Beruf sowie
vergangene oder gegenwärtige Erfahrungen, allgemeine Verhaltensmuster
und Charakter, individuelles psychisches Leistungsvermögen und andere
Merkmale umfassen, die bei Behinderungen auf jeder Ebene eine Rolle
spielen können.
x Schließlich bezeichnet eine Aktivität generell die Durchführung einer
Arbeitsaufgabe durch einen Menschen.
Die Interdependenzen zwischen den Dimensionen sind in Abb. 2.24 dargestellt.
Nach Abb. 2.24 stehen die Umweltfaktoren und die personenbezogenen
Faktoren in einer Wechselwirkung mit der Komponente Schädigung sowie den
Aktivitäten und der Partizipation. Behinderung ist das Resultat der Beziehung
zwischen dem Gesundheitsproblem eines Menschen und seinen
personenbezogenen Faktoren einerseits und den externen Faktoren, welche die
Umwelteinflüsse repräsentieren, andererseits. Aufgrund dieser Beziehungen
können verschiedene Konstellationen unterschiedliche Einflüsse auf denselben
Menschen haben. Folglich ist Behinderung das Resultat komplexer
Wechselwirkungen zwischen den Komponenten des Körpers und der Komponente
von Aktivitäten und Partizipation sowie den Kontextfaktoren (RENTSCH u.
BUCHER 2006).
Arbeitsperson 149
2.2.4.2 RechtlicheĆGrundlagenĆ
In Deutschland wurden in dem Neunten Buch des Sozialgesetzbuches (SGB IX)
(„Rehabilitation und Teilhabe behinderter Menschen“) wesentliche Aspekte der
ICF aufgenommen. Das zum 01.07.2001 in Kraft getretene SGB IX, welches das
Schwerbehindertengesetz (SchwbG) abgelöst hat, hat zum Ziel, Menschen mit
Behinderung oder von Behinderung bedrohte Menschen in ihrer
Selbstbestimmung und in der gleichberechtigten Teilhabe am Leben in der
Gesellschaft zu fördern. Der erste Teil des SGB IX enthält Regelungen zur
Rehabilitation von Menschen mit Behinderung oder von Behinderung bedrohter
Menschen. Das bisherige SchwbG wurde in den zweiten Teil des Gesetzes
integriert. Es enthält die „besonderen Regelungen zur Teilhabe schwerbehinderter
Menschen”.
Als sozialpolitisches Ziel aller Teilhabeleistungen nennt §1 des SGB IX die
Selbstbestimmung von Menschen mit Behinderung und ihre umfassende Teilhabe
am Leben in der Gesellschaft. Das SGB IX definiert in §2 die Begriffe
Behinderung und Schwerbehinderung.
Nach §2 Abs. 1 SGB IX gelten Menschen als behindert, „wenn ihre körperliche
Funktion, geistige Fähigkeit oder seelische Gesundheit mit hoher
Wahrscheinlichkeit länger als sechs Monate von dem für das Lebensalter
typischen Zustand abweichen und daher ihre Teilhabe am Leben in der
Gesellschaft beeinträchtigt ist. Sie sind von Behinderung bedroht, wenn die
Beeinträchtigung zu erwarten ist.“
150 Arbeitswissenschaft
Diese Begriffsbestimmung lehnt sich an Vorschläge der WHO an. Sie orientiert
sich nicht an wirklichen oder vermeintlichen Defiziten, sondern im Vordergrund
steht das Ziel der Teilhabe an verschiedenen Lebensbereichen. Dabei ist als
Abweichung vom "typischen Zustand" der Verlust oder die Beeinträchtigung von
- im jeweiligen Lebensalter - normalerweise vorhandenen körperlichen, geistigen
oder seelischen Strukturen zu verstehen. Folgt aus dieser Schädigung eine
Teilhabebeeinträchtigung, die sich in einem oder mehreren Lebensbereichen
auswirkt, liegt eine Behinderung vor.
Menschen im Sinne des §2 Abs. 2 SGB IX sind schwerbehindert, „wenn bei
ihnen ein Grad der Behinderung von wenigstens 50 vorliegt und sie ihren
Wohnsitz, ihren gewöhnlichen Aufenthalt oder ihre Beschäftigung auf einem
Arbeitsplatz im Sinne des §73 rechtmäßig im Geltungsbereich dieses
Gesetzbuches haben.“
Menschen mit einem Grad der Behinderung „von weniger als 50, aber
wenigstens 30“ können Menschen mit einer Schwerbehinderung gleichgestellt
werden, wenn sie infolge ihrer Behinderung ohne die Gleichstellung einen
geeigneten Arbeitsplatz im Sinne des §73 nicht erlangen oder nicht behalten
können (gleichgestellte behinderte Menschen) (§2 Abs. 3 SGB IX).
Während der Begriff Grad der Behinderung (GdB) in Zusammenhang mit dem
Schwerbehindertenrecht verwendet wird (Teil 2 SGB IX), wird der Grad der
Schädigungsfolgen (GdS) (hat die frühere Bezeichnung MdE, die Minderung der
Erwerbsfähigkeit, abgelöst) im sozialen Entschädigungsrecht und im Rahmen der
gesetzlichen Unfallversicherung genannt. Rechtlich stellen GdS und GdB einen
wichtigen Rahmen dar und sind zugleich Zugangsvoraussetzungen zur Erlangung
von sozialstaatlichen Leistungen (von steuerrechtlichen Begünstigungen bis hin zu
auf Behinderung basierenden Renten).
GdS und GdB werden nach gleichen Grundsätzen bemessen. Sie können
zwischen 20 und 100 variieren. Sie werden in 10er-Schritten gestaffelt. GdS und
GdB unterscheiden sich lediglich dadurch, dass der GdS nur auf die
Schädigungsfolgen (kausal) und der GdB auf alle Gesundheitsstörungen
unabhängig von ihrer Ursache (final) bezogen ist. Der GdB bezieht sich allein auf
die Auswirkungen einer Behinderung in allen Lebensbereichen und ist
grundsätzlich unabhängig vom ausgeübten oder angestrebten Beruf. Er wird somit
als ein Maß für einen körperlichen, geistigen, seelischen und sozialen Mangel
verstanden. Der GdB sagt nichts über die tatsächliche Beeinträchtigung der
Leistungsfähigkeit und die Belastbarkeit am Arbeitsplatz aus. Deshalb ist zu
prüfen, ob die funktionellen Einschränkungen die vorgesehene Tätigkeit
beeinträchtigen. Entscheidend ist immer eine Gesamtsicht der tatsächlichen
Beeinträchtigung. Für die Feststellung gibt es bundesweite Richtlinien, die sog.
„Versorgungsmedizinischen Grundsätze", die am 1. Januar 2009 in Kraft getreten
sind.
Als „leistungsgewandelt” wird eine gesundheitlich beeinträchtigte
Arbeitsperson bezeichnet, der kein Grad der Behinderung zuerkannt wurde. Von
„leistungsgewandelt“ kann gesprochen werden, wenn eine Krankheit zu einer
Arbeitsperson 151
2.2.4.3 ArtenĆvonĆBehinderungenĆ
In der Bundesrepublik Deutschland waren im Januar 2008 6,9 Millionen
Menschen bei den Versorgungsämtern als Schwerbehinderte amtlich anerkannt.
Verglichen mit der Gesamtbevölkerung entspricht dies einem Anteil von 8,4%.
Statistisch gesehen war somit jeder zwölfte Einwohner in Deutschland
schwerbehindert.
Die Schwerbehindertenquote ist durch zwei wesentliche Charakteristika
gekennzeichnet. Zum einen steigt die Schwerbehindertenquote mit zunehmenden
Alter an (mehr als die Hälfte der schwerbehinderten Menschen (54,4%) waren
152 Arbeitswissenschaft
2007 65 Jahre und älter) und zum anderen ist die Schwerbehindertenquote bei
Männern höher als bei Frauen.
Insgesamt haben körperliche Behinderungen den größten Anteil an den
Behinderungsarten. 2007 litten fast 2/3 der schwerbehinderten Menschen unter
körperlichen Behinderungen (siehe Tabelle 2.5).
Tabelle 2.5: Häufigkeiten der schwersten Behinderungen im Jahr 2007 (Daten nach
STATISTISCHES BUNDESAMT 2009)
Abb. 2.25: Ursachen der schwersten Behinderungen im Jahr 2007 (Daten nach
STATISTISCHES BUNDESAMT 2009)
Arbeitsperson 153
Eine geistige Behinderung stellt meistens eine Folge von prä-, peri- und
postnatalen Faktoren dar. NEUHÄUSER u. STEINHAUSEN (2003) unterscheiden
folgende Ursachen für eine geistige Behinderung:
x Genetische Bedingungen (z.B. Genmutationen durch ein verändertes
Genprodukt, z.B. Enzymdefekt)
x Chromosomenanomalien (z.B. Down-Syndrom, spezielle Genmutation, bei
der das 21. Chromosom oder Teile davon dreifach vorliegen)
x Stoffwechselstörungen (z.B. angeborene Unterfunkunktion der Schilddrüse)
x Sauerstoffmangel während der Geburt
x Schwangerschaftsbelastungen durch Substanzmissbrauch der Mutter
(Rauchen, Alkoholabusus)
x Umweltgifte (polychlorierte Biphenyle, z.B. PCB)
x Infektionen (z.B. HIV-Infektionen).
156 Arbeitswissenschaft
2.2.4.4 BeruflicheĆRehabilitationĆ
Üblicherweise wird zwischen medizinischen, beruflichen, schulischen und
sozialen Leistungen zur Rehabilitation unterschieden (NAGEL 2007).
Rehabilitation von Menschen mit Behinderung umfasst eine Vielzahl von
Maßnahmen mit dem Ziel, in allen Bereichen der körperlichen, sensorischen,
geistigen, psychischen und sozial funktionalen Aktivitäten das für jeden Einzelnen
optimale Ergebnis, das insbesondere auch die Teilhabe am Arbeitsleben umfasst,
zu erreichen.
Berufliche Rehabilitation ist Teil des umfassenden Systems der Rehabilitation,
das einerseits die Wiederherstellung des körperlichen und seelischen
Wohlbefindens und andererseits die soziale und berufliche Integration bzw.
Reintegration zum Ziel hat (HINZ u. BOBAN 2001).
Berufliche Rehabilitation und Teilhabe am Arbeitsleben wird durch die drei
folgenden Begriffspaare bestimmt:
(1) Berufliche Rehabilitation/Eingliederung (sozialpolitische Sichtweise)
(2) Normalisierung/Integration (soziologische Sichtweise)
(3) Bildung/Qualifizierung (pädagogische Sichtweise).
Diese Gesichtspunkte veranschaulichen die Notwendigkeit eines ganzheitlichen
Gestaltungskonzeptes der Leistungen zur Teilhabe am Arbeitsleben (GRAMPP
2003).
Rechtliche Grundlagen für die berufliche Rehabilitation stellen vor allem das
dritte Buch des Sozialgesetzbuches (SGB III) und das neunte Buch des
Sozialgesetzbuches (SGB IX) dar.
Als Rehabilitationsträger für Leistungen zur Teilhabe am Arbeitsleben kommen
die Träger der Gesetzlichen Rentenversicherung, der Gesetzlichen
Unfallversicherung und der sozialen Entschädigung bei Gesundheitsschäden oder
die Bundesagentur für Arbeit in Betracht. Bei technischen und
arbeitsorganisatorischen Fragestellungen können technische Berater der
Arbeitsagentur oder das Integrationsamt Unterstützung bieten (MAIER-LENZ u.
LENK 2005).
zusammengefasst (BECK u. MAU 2007). Die LTA umfassen eine breite Palette von
Angeboten, die individuell und flexibel erbracht werden sollen (ebd.):
x Hilfen zur Erhaltung oder Erlangung eines Arbeitsplatzes einschließlich
Beratung und Vermittlung, Mobilitätshilfen (z.B. Beihilfen für Reise-/
Fahrtkosten, Umzug, Trennungsgeld), Trainingsmaßnahmen
x Berufsvorbereitung einschließlich erforderlicher Grundausbildung
x Berufliche Anpassung und Weiterbildung
x Berufliche Ausbildung (inkl. Umschulung)
x Überbrückungsgeld
x Kraftfahrzeughilfen (z.B. Erwerb der Fahrerlaubnis, Kfz-Anschaffung,
behindertengerechte Ausstattung)
x Arbeitsassistenz (z.B. Gebärdendolmetscher)
x Hilfsmittel (z.B. Sitz-Steh-Hilfe)
x Technische Arbeitshilfen (z.B. Hebe-Hilfen).
Die berufliche Rehabilitation wird häufig in den Unternehmen durchgeführt,
bspw. durch die Einrichtung von Betriebsstätten oder Werkstattbereichen, die mit
unterschiedlicher Bindung an die Produktion des Unternehmens Arbeitsaufträge
ausführen. Diese Formen der betrieblichen Rehabilitation gewinnen sowohl unter
psychologischen und sozialen als auch unter wirtschaftlichen Gesichtspunkten
zunehmend an Bedeutung.
Arbeitgeber sind durch die arbeitsrechtliche Fürsorgepflicht angehalten, für
schwerbehinderte Beschäftigte angemessene Arbeitsvoraussetzungen zu schaffen
(§93 SGB IX), dazu zählt u.A. eine behinderungsgerechte Gestaltung des
Arbeitsplatzes, des Arbeitsumfeldes, der Arbeitsorganisation und der Arbeitszeit
sowie die Ausstattung des Arbeitsplatzes mit den erforderlichen technischen
Arbeitshilfen.
Bei einer Arbeitsunfähigkeit einer Arbeitsperson von mehr als sechs Wochen
muss der Arbeitgeber mit Betriebsrat und Personalrat mit Zustimmung und
Beteiligung der betroffenen Person klären, wie die Arbeitsunfähigkeit überwunden
werden kann, mit welchen Leistungen und Hilfen erneuter Arbeitsunfähigkeit
vorgebeugt und wie der Arbeitsplatz erhalten werden kann (WELTI 2005).
Wenn diese Art der Qualifizierung aufgrund der Schwere der Behinderung
nicht möglich ist, kommt eine berufliche Rehabilitation in einer überbetrieblichen
Einrichtung in Betracht. Zu den überbetrieblichen Rehabilitationseinrichtungen
zählen:
x Berufsbildungswerke
x Berufsförderungswerke
x Werkstätten für behinderte Menschen.
Berufsbildungswerke (BBW) sind überregionale Einrichtungen, die jungen
Erwachsenen und Jugendlichen mit Behinderungen eine berufliche Erstausbildung
ermöglichen. Das Ziel der Berufsbildungswerke ist die Eingliederung der
Rehabilitanden in den allgemeinen Arbeitsmarkt sowie deren persönliche, soziale
und gesellschaftliche Integration. Zu diesem Zweck bieten die BBW Maßnahmen
158 Arbeitswissenschaft
2.2.4.5 BeschäftigungssituationĆvonĆMenschenĆmitĆBehinderungĆ
Die Beschäftigungsquote schwerbehinderter Menschen entwickelte sich in den
letzten Jahren positiv. So steigt seit dem Jahr 2000 die Beschäftigungsquote leicht
an. Im Jahr 2006 wies die Statistik der Bundesagentur für Arbeit eine
Beschäftigungsquote schwerbehinderter Menschen von 4,3% aus. Im Vergleich
zum Jahr 2000 ist die Beschäftigungsquote um 0,6% gestiegen. Die privaten
Arbeitsperson 161
Angaben in %
7
5,7 5,9
6 5,4 5,6
5,2 5,1 5,2
5 4,3
4 4,1 4,2 Private Wirtschaft
3,7 3,8 3,8
4
3,7 3,8 Öffentlicher Dienst
3 3,4 3,4 3,6 3,6
3,3
2 Durchschnittliche
Beschäftigungsquote
1
0
2000 2001 2002 2003 2004 2005 2006
Tabelle 2.7: Auszug aus DIN EN ISO 9999: Hilfsmittel für Menschen mit Behinderungen
Hilfsmittel für Menschen mit Behinderungen
04 Hilfsmittel für die persönliche medizinische Behandlung
05 Hilfsmittel für das Training von Fähigkeiten
06 Orthesen und Prothesen
09 Hilfsmittel für die persönliche Versorgung und Sicherheit
12 Hilfsmittel für die persönliche Mobilität
15 Hilfsmittel im Haushalt
18 Mobiliar und Hilfen zur Wohnungs- und Gebäudeanpassung
22 Hilfsmittel für Kommunikation und Information
03 Sehhilfen
06 Hörhilfen
09 Sprechhilfen
12 Schreib- und Zeichenhilfen
15 Rechenhilfen
18 Hilfmittel zur Verarbeitung von visueller Information sowie Audio- und
Videoinformation
21 Hilfsmittel für die Nahkommunikation
24 Hilfsmittel für Telefonie (und Telematik)
27 Hilfsmittel für das Alamieren, Anzeigen und Signalisieren
30 Lesehilfen
33 Computer und Terminals
36 Eingabegräte für Computer
39 Ausgabegeräte für Computer
24 Hilfsmittel für die Handhabung von Objekten und Vorrichtungen
04 Kennzeichnungsmaterialien und-werkzeuge
06 Hilfsmittel zum Hantieren mit Behältern
09 Hilfsmittel zur Bedienung und Steuerung von Vorrichtungen
13 Hilgsmittel für die Fernsteuerung
18 Hilfsmittel, die Arm- und/oder Hand und/oder Fingerfunktion unterstützen
und/oder ersetzen
21 Hilfsmittel zur Vergrößerung der Reichweite
24 Positionierungshilfen
27 Haltevorrichtungen
30 Hilfsmittel für die Positionsänderung und das Heben
36 Trage- und Transporthilfen
39 Transportfahrzeuge im industriellen Bereich
42 Förderer
45 Kräne
27 Hilfsmittel für eine bessere Gestaltung der Umgebung, Werkzeuge und
Maschinen
30 Hilfsmittel für die Freizeit
164 Arbeitswissenschaft
Gesetzliche Bestimmungen
Durch das Schwerbehindertenrecht (SGB IX) versucht der Gesetzgeber, Nachteile
von Menschen mit Behinderung in Arbeitssystemen auszugleichen. Es gilt nur für
Schwerbehinderte und ihnen Gleichgestellte, nicht jedoch für
Leistungsgewandelte. Das Schwerbehindertenrecht verpflichtet alle Arbeitgeber
bei der Besetzung freier Stellen zu prüfen, ob sie Schwerbehinderte oder ihnen
Gleichgestellte darauf beschäftigen können.
Für Schwerbehinderte gelten nach dem Schwerbehindertenrecht besondere
gesetzliche Bestimmungen:
Beschäftigungspflicht (§71 Abs. 1 SGB IX):
Private und öffentliche Arbeitgeber (Arbeitgeber) mit jahresdurchschnittlich
monatlich mindestens 20 Arbeitsplätzen im Sinne des § 73 haben auf wenigstens 5
Prozent der Arbeitsplätze schwerbehinderte Menschen zu beschäftigen. Dabei sind
schwerbehinderte Frauen besonders zu berücksichtigen. Abweichend von Satz 1
haben Arbeitgeber mit jahresdurchschnittlich monatlich weniger als 40
Arbeitsplätzen jahresdurchschnittlich je Monat einen schwerbehinderten
Menschen, Arbeitgeber mit jahresdurchschnittlich monatlich weniger als 60
Arbeitsplätzen jahresdurchschnittlich je Monat zwei schwerbehinderte Menschen
zu beschäftigen.
Ausgleichsabgabe (§77 Abs. 1 SGB IX):
Sie wird von Arbeitgebern erhoben, die die vorgeschriebene Zahl
schwerbehinderter Menschen nicht beschäftigen. Diese Zahlung entbindet jedoch
nicht von der Verpflichtung zur Beschäftigung schwerbehinderter Menschen. Die
Ausgleichsabgabe wird auf der Grundlage einer jahresdurchschnittlichen
Beschäftigungsquote ermittelt.
Die Ausgleichsabgabe beträgt je unbesetzten Pflichtarbeitsplatz zwischen 105
Euro bei einer jahresdurchschnittlichen Beschäftigungsquote von 3% bis weniger
als dem geltenden Pflichtsatz und 260 Euro bei einer jahresdurchschnittlichen
Beschäftigungsquote von weniger als 2% (§77 Abs. 2 SGB IX). Sie soll die
Arbeitgeber zur vermehrten Einstellung veranlassen, zumindest aber
166 Arbeitswissenschaft
2.2.5 Biorhythmus
2.2.5.1 DefinitionĆundĆRelevanzĆ
Fast alle menschlichen Körperfunktionen verändern sich periodisch innerhalb
eines gewissen Bezugszeitraums mehr oder weniger stark um einen Mittelwert.
Diese Veränderungen sind biologisch bedingt. Hinzu kommen noch
Veränderungen, die aufgrund der Umwelteinwirkungen hervorgerufen werden.
Diese Aktivitätsänderungen beeinflussen den Menschen sowie seine Reaktionen
auf äußere Reize.
Die biologischen Veränderungen (Biorhythmen) können eine Periodendauer
von wenigen Millisekunden bis zu einem Jahr und darüber aufweisen. Bei kurzen
Rhythmen geht man davon aus, dass diese endogen fixiert sind und auch dann
aufrechterhalten werden, wenn äußere Bedingungen, wie zum Beispiel Zeitgeber,
wegfallen. Lange Rhythmen unterliegen sehr häufig sozialen Komponenten.
2.2.5.2 PeriodischeĆWechselĆ
Zur Unterscheidung der einflussreichsten Zyklen des menschlichen Lebens
können die Biorhythmen nach ihrer Periodendauer eingeteilt werden in:
x Jahresrhythmik (zirkaanuale Rhythmik)
x Lunarrhythmik
x Wochenrhythmik (zirkaseptane Rhythmik)
x Zirkadiane Rhythmik
x Ultradiane Rhythmik.
Die Jahresrhythmik betrifft bspw. die physische und psychische
Leistungsbereitschaft und die Stimmungslage. Ausschlaggebend für die
Entstehung und Aufrechterhaltung der Jahresrhythmik sind klimatische
Veränderungen und teilweise damit verbundene Verhaltensweisen.
Das Wissen um die Existenz der Lunarrhythmik ist aufgrund des weiblichen
Menstruationszyklus weit verbreitet. Aber auch viele andere Abläufe des
menschlichen Körpers sind von der Lunarrhythmik abhängig, wie bspw. der
Schlaf.
Die Wochenrhythmik ist weniger biologisch bedingt als vielmehr von der
zeitlichen Organisation der Freizeit und der Arbeit abhängig, wie bspw. vermehrte
Unfälle an Montagen oder eine höhere Suizidrate am Wochenende.
Die Zirkadiane Rhythmik, also die Schwankungen innerhalb einer Dauer von
etwa 24 Stunden, ist der für die Arbeitszeitgestaltung wichtigste Zyklus. Als
Hauptantriebe für diese Rhythmik sind der Hell-Dunkel-Wechsel und die sozialen
Zeitgeber zu nennen. Aber auch ohne diese Einflüsse bleibt diese Rhythmik
bestehen, wie sog. Bunkerversuche zeigten (ASCHOFF 1964, siehe Abb. 2.27).
Von zahlreichen physiologischen Funktionen lassen sich zirkadiane Rhythmen
nachweisen wie bspw. die Produktion des Hormons Melatonin, die
Herzschlagfrequenz oder die Körperkerntemperatur. Viele dieser Veränderungen
168 Arbeitswissenschaft
Abb. 2.27: Freilaufende Rhythmik einer Person unter konstanten Lebensbedingungen (sog.
Bunkerversuche) ohne Zeitgeber (nach ASCHOFF u. WEVER 1962)
GRAF (1954) nannte diese Schwankungen der Leistung über den Tagesverlauf
die physiologische Arbeitskurve (Abb. 2.28). Das Arbeiten nach diesem
Rhythmus wird subjektiv als besonders natürlich empfunden. Neben der
physiologischen Arbeitskurve wird die Leistungsfähigkeit durch weitere Faktoren,
wie die Leistungsbereitschaft (Motivation), Zeitpunkte der Nahrungsaufnahme
usw., beeinflusst.
Auch die Aufmerksamkeit, die unter anderem für den Arbeitsvollzug von
großem Interesse ist, unterliegt einer zirkadianen Rhythmik. Sie zeigt eine hohe
Korrelation mit der Mundtemperatur und verläuft, mit einer geringen
Arbeitsperson 169
Abb. 2.28: Verlauf der physiologischen Arbeitskurve über 24 Stunden (nach GRAF 1954)
2.2.5.3 BiorhythmikĆinĆderĆPraxisĆ
Besonders das Wissen um die zirkadiane Rhythmik und das enge Zusammenspiel
zwischen den einzelnen physiologischen Rhythmen machen deutlich, dass ein
Eingreifen – wie bspw. durch Interkontinentalflüge oder Nachtarbeit – mit
weitreichenden Folgen verbunden ist. Deutlich wird dies bei der Gestaltung der
Arbeitszeit, vor allem bei der Gestaltung von Nachtarbeit. Die physiologischen
Belange des Körpers müssen berücksichtigt werden, um Leistungsschwächen,
Fehler, überhöhte Belastung, Beanspruchung und Ermüdung entgegenzuwirken.
Näheres zur Gestaltung von Arbeitszeiten findet sich in Kapitel 6.
2.3.1 Qualifikation
Der Begriff der Qualifikation wird meist im Kontext betrieblicher Arbeitsprozesse
verwendet. Er stellt die Gesamtheit aller Fähigkeiten, Kenntnisse und Fertigkeiten
dar, welche an eine bestimmte Person gebunden und auf deren Arbeitshandeln
bezogen sind, über welche diese Arbeitsperson zur Ausübung einer bestimmten
Funktion oder von Tätigkeiten am Arbeitsplatz verfügen muss (ZABECK 1991).
Qualifikationen stellen sozusagen das Komplement zu den Tätigkeits-
anforderungen in einem Arbeitssystem dar.
Qualifikationen sind Lernresultate der Arbeitsperson. Sie werden bewusst oder
unbewusst in Lernprozessen erworben. Wichtig sind in diesem Zusammenhang
die Verwertbarkeit und Anwendbarkeit von Qualifikationen, die den Begriff nicht
auf abstraktes und theoretisches Wissen beschränken, sondern das Ausführen von
Handlungen in konkreten Situationen ermöglichen. Dabei spiegelt die Verwert-
barkeit den Nutzen der Qualifikationen wider, während Anwendbarkeit die
Fähigkeit zum Ausdruck bringt, erworbene Qualifikationen auch einsetzen zu
können.
2.3.1.1 QualifikationsdimensionenĆundĆNiveaustufenĆ
Sehr häufig wird der Qualifikationsbegriff dahingehend eingeengt, dass lediglich
der Zusammenhang zwischen einer zertifizierten, durch Ordnungsmittel
beschriebenen Ausbildung und konkreten Arbeitsplatzanforderungen gesehen wird
und dadurch die Qualifikationsziele auf den kognitiven und sensumotorischen
Bereich beschränkt bleiben. Zu betrachten sind aber außerdem die sog. affektiven
Merkmale im Sinne von Einstellungen oder Werthaltungen.
Die taxonomische Gliederung von Qualifikationen nach DAUENHAUER (1981)
berücksichtigt dies durch die Unterscheidung von kognitiven, affektiven und
sensumotorischen Dimensionen, die wiederum je nach Komplexität verschiedenen
Lernzielstufen unterliegen (siehe Tabelle 2.8).
Tabelle 2.8: Taxonomische Gliederung von Qualifikationen nach DAUENHAUER (1981)
HorizontaleĆDimensionen
ĆĆĆĆbereitschaftĆ
VerständnisĆ Beantwortungs-Ć HandhabungĆ
ĆĆĆĆbereitschaftĆ
AnwendungĆ Bewertungs-Ć AusführungĆ
ĆĆĆĆbereitschaftĆ
Beurteilung Verantwortungs-Ć Beherrschung
ĆĆĆĆbereitschaft
Arbeitsperson 173
2.3.1.2 QualifikationenĆalsĆLernresultateĆ
Lernen ist das bewusste oder unbewusste Erwerben bestimmter Qualifikationen
(LAURIG 1990). Dabei wird eine Art „Grundmuster“ eben dieser Qualifikationen
erzeugt. Eine Verbesserung des Ablaufes ist dann durch regelmäßiges oder
unregelmäßiges Wiederholen, also einer Übungsphase im Lernprozess zu
erreichen.
Die Entwicklung von Qualifikationen eines Individuums kann mit Hilfe von
Lernkurven mathematisch beschrieben werden. Es gibt verschiedene Lernkurven-
Modelle (siehe HIEBER 1991), die das betriebliche Lernen anhand verschiedener
Variablen quantifizieren. Das sog. Lerngesetz der industriellen Produktion
beschreibt einen gesetzesmäßigen Zusammenhang in allgemeiner Form, um
verschiedene Größen in Beziehung zu setzen. Damit sind in erster Linie Vorgänge
zu verstehen, die eine Verminderung des zur Herstellung einer Produktionseinheit
notwendigen Inputs zur Folge haben. Konkret ist nach BAUR (1979) das
Lerngesetz beschrieben als die „aus individuellen wie kollektiven Lernprozessen
der am Produktionsprozess mitwirkenden Menschen resultierende, gesetzmäßige
Abnahme des Fertigungsaufwandes je Fertigungseinheit mit zunehmender Anzahl
der erzeugten Einheiten“.
Dieser grundlegende Zusammenhang lässt sich in Form einer Potenzfunktion
des Lernens wie folgt darstellen (HIEBER 1991):
Y A x b (2.1)
Die logarithmierte Form ist auch vielfach anzutreffen:
log Y log A b log x (2.2)
Y Faktoreneinsatzmenge oder Kostengröße für die im Rahmen der
kumulierten Produktionsmenge zuletzt produzierte Einheit
A Faktoreneinsatzmenge oder Kostengröße für die im Rahmen der
kumulierten Produktionsmenge zuerst produzierte Einheit
x kumulierte Produktionsmenge
b Lernindex / Steigungsparameter (siehe dazu BAUR 1967).
In der Arbeitswissenschaft werden die Größen entsprechend des sog. „Power
Law of Practice“ konkretisiert (ROSENBLOOM et al. 1987). Dabei ergibt sich aus
der obigen Gleichung die Funktion
Tn T1 n a (2.3)
Tn Zeit zur Ausführung einer Arbeit im n-ten Versuch
T1 Zeit zur Ausführung einer Arbeit nach dem ersten Versuch
n Anzahl der Versuche
a Steigungsparameter [0,2…0,6].
176 Arbeitswissenschaft
In Abb. 2.30 wird beispielhaft eine Lernkurve entsprechend des Power Law of
Practice für eine sensumotorische Qualifikation aufgezeigt. Es wird der
Lernkurvenverlauf für die Ausführungszeit für einen Arbeitszyklus bei der
Montage von Vergaser-Klappenstutzen in Abhängigkeit der Gesamtzahl der
Arbeitszyklen dargestellt (GREIFF 2001). Bis zur Erreichung der Endleistung von
110 Sekunden Montagezeit pro Stück sind ca. 3.000 Zyklen, d.h. montierte Teile,
notwendig.
Ein wichtiger Parameter dieser Kurve, die Anfangslernleistung, ist dabei (auch)
abhängig vom Übungsstand der Arbeitsperson bei ähnlicher Verrichtung. I.d.R.
gilt: Je weniger Vorkenntnisse der Lernende besitzt, desto höher ist die
Ausführungszeit bei Übungsbeginn, desto stärker fällt die Lernkurve und desto
größer ist die (relative) Leistungsverbesserung.
Für die Vorhersage der gesamten Übungs- oder Anlernzeit ist es wichtig, aus
dem Verlauf der Lernkurve den Zeitpunkt zu schätzen, an dem die gewünschte
Endleistung erreicht sein wird. Dieser ist u.A. abhängig von der Komplexität der
Arbeitsaufgabe, der Arbeitsumgebung, den Vorkenntnissen der Arbeitsperson, ih-
ren Eigenschaften und auch von der Übungsform. Bislang sind lediglich
Prognoseverfahren für sehr einfache Tätigkeiten entwickelt worden, so dass man
in der Praxis auf Erfahrungswerte angewiesen ist.
2.3.1.3 QualifizierungsmaßnahmenĆ
Qualifizierungsmaßnahmen für Arbeitspersonen werden üblicherweise in
Anlehnung an die Lernsituation am Arbeitsplatz entwickelt. Die Lern-
möglichkeiten orientieren sich arbeitsplatzbezogen an entsprechenden Lern- und
Arbeitsaufgaben. In Tabelle 2.9 wird ein Überblick zu Methoden der
Qualifizierung gegeben. Eine besondere Bedeutung kommt dabei der Vier-Stufen-
Arbeitsperson 177
Lernerzentriert Leittextmethode
Trainingsmethode
2.3.2 Kompetenz
Der Kompetenzbegriff hat den betrieblichen sowie privaten Alltag erobert und
wird dabei in unterschiedliche Bedeutungen und diversen historischen
Ableitungen verwendet (LUCZAK u. FRENZ 2008). Im Folgenden wird der
arbeitswissenschaftliche Verwendungszusammenhang des Kompetenzbegriffes
dargestellt und erläutert, und es werden Möglichkeiten vorgestellt, Kompetenzen
zu messen. Weiterhin wird auf Aspekte der Kompetenzentwicklung eingegangen.
Ausgangspunkt hier ist die in Deutschland häufig verwendete Definition von
Kompetenz nach WEINERT (2001). Danach sind Kompetenzen „die bei Individuen
verfügbaren oder durch sie erlernbaren kognitiven Fähigkeiten und Fertigkeiten,
um bestimmte Probleme zu lösen, sowie die damit verbundenen motivationalen,
volitionalen und sozialen Bereitschaften und Fähigkeiten, um die
Problemlösungen in variablen Situationen erfolgreich und verantwortungsvoll
nutzen zu können“.
Diese Definition entstand auf der Grundlage eines Gutachtens der OECD
(Organisation for Economic Co-operation and Developement). Sie wurde im
Zusammenhang mit der OECD-Studie DeSeCo (Definition and Selection of
Competencies: Theoretical and Conceptual Foundations sowohl im
deutschsprachigen Raum als auch auf internationaler Bühne umfangreich
diskutiert und findet weltweit Anerkennung (FOSS u. KNUDSEN 1996; RYCHEN u.
SALGANIK 2001; STERNBERG u. KAUFMAN 1998; PALINCSAR 1998).
Arbeitsperson 179
2.3.2.1 KompetenzdimensionenĆ
Zur Differenzierung von Kompetenzdimensionen sind in unterschiedlichen
Anwendungsbereichen zahlreiche theoretische Modelle entwickelt worden.
Puristische Modelle unterscheiden auf Grund der Subjekt-Objekt-Beziehung oft
nur zwischen Fach-, Human- und Sozialkompetenz. Z.B. wird im Modell der
beruflichen Handlungskompetenz nach BADER u. MÜLLER (2002) basierend auf
der in der pädagogischen Anthropologie üblichen Unterscheidung in Sach-,
Sozial- und humane Selbstkompetenz differenziert.
Die Fachkompetenz ergibt sich auf Grund der Subjekt-Objekt-Beziehungen, die
Sozialkompetenz auf Grund der Beziehung zwischen unterschiedlichen Subjekten,
während die Personalkompetenz Aspekte der Kompetenz bezogen auf das eigene
Subjekt beschreibt (LUCZAK u. FRENZ 2008).
Auch das Modell von SONNTAG u. SCHAPER (1999) greift die Subjekt-Objekt-
Relationen auf, unterscheidet aber aufgrund des besonderen
Applikationszusammenhangs, nämlich Unternehmensprozesse kreativ zu
gestalten, zwischen vier Kompetenzarten: personale Kompetenz, aktivitäts- und
umsetzungsorientierte Kompetenz, fachlich-methodische Kompetenz sowie die
sozial-kommunikative Kompetenz.
180 Arbeitswissenschaft
2.3.2.2 KompetenzniveausĆ
Neben einer Unterscheidung in Kompetenzdimensionen liegen Kompetenzen in
unterschiedlichen qualitativen und quantitativen Ausprägungen vor, so dass
Niveaustufen der Kompetenz zu definieren sind und diese auf unterschiedlichen
Ebenen erfasst werden sollten. Exemplarisch wird in der folgenden Abb. 2.31 eine
Möglichkeit aufgezeigt, in Abhängigkeit vom Verwendungszusammenhang
zwischen unterschiedlichen Niveaustufen zu unterscheiden (BADER 2004).
Gestalten Lösungsstrategien
Sprache Fachsprache
Verstehen Modellbildung (z. B. System)
Gestalten Werkregeln
Sprache Werkstattsprache
Verstehen Werkstatterfahrung
2.3.2.3 KompetenzmessungĆundĆ-entwicklungĆ
Im Zusammenhang mit dem Kompetenzbegriff ergibt sich auch die Frage nach der
empirischen Erhebung von Kompetenzen. Wie können Kompetenzen ermittelt
werden, wenn sie doch innere, unbeobachtbare Voraussetzungen, Fähigkeiten oder
Veranlagungen des selbst organisierten Handelns einer Person sind? Kompetenz
ist also stets eine Form von Zuschreibung (Attribution) aufgrund eines Urteils des
Beobachters: Man schreibt dem physisch und geistig selbst organisiert
Handelnden aufgrund bestimmter, beobachtbarer Verhaltensweisen bestimmte
messbare Merkmale als Kompetenzen zu (ERPENBECK u. ROSENSTIEL 2003).
Die Messung von Kompetenz kann auf Basis subjektiver Einschätzung
erfolgen, wie auch auf Grundlage objektiver Verfahren. Zur Verfügung stehende
Tests unterteilen sich in quantitative und qualitative Methoden, wobei quantitative
Methoden zumeist eher objektiv orientiert sind. Die Übergänge sind jedoch
fließend. Die ausgewählten Tests müssen hinsichtlich bekannter Gütekriterien, wie
Objektivität, Reliabilität und Validität (siehe Kap. 1.5.1.5), bewertet werden.
Ein Standardwerk ist das „Handbuch Kompetenzmessung“ von ERPENBECK u.
ROSENSTIEL (2003). In diesem Handbuch wird das Erkennen, Charakterisieren
und Messen von Kompetenzen beschrieben und richtet sich dabei an die
Anwendung in der betrieblichen und pädagogischen Praxis, z.B. im
Personalmanagement. Das Handbuch ist mit zahlreichen Beispielen unterlegt und
fächert das gesamte Spektrum der Mess- und Erfassungsverfahren auf: von
Verfahren aus der betrieblichen und pädagogischen Praxis bis zu Verfahren, die
derzeit noch erprobt werden. In einem vergleichenden Ausblick wird der Bezug zu
Methoden hergestellt, wie sie in modernen psychologischen Diagnostik-,
Personalauswahl und Arbeitsanalyseverfahren angewandt werden.
Die Kompetenzmessung bietet die Möglichkeit, zu einem bestimmten Moment
die Kompetenzen einer Arbeitsperson zu ermitteln und zu evaluieren.
Demgegenüber integriert die Kompetenzentwicklung einen zeitlichen Aspekt in
die Momentaufnahmen der Kompetenzmessung. Zudem lässt sich durch
Methoden und Verfahren der Kompetenzentwicklung auch die individuelle
Kompetenzentwicklung einer Arbeitsperson über einen bestimmten Zeitraum
analysieren und über diese Zeitspanne als einen Tätigkeitsprozess festhalten und
beschreiben. Die kann z.B. vor und nach einer Aus- oder
Weiterbildungsmaßnahme, über eine Ausbildungsspanne oder auch über ein
ganzes Leben erfolgen. Im Laufe dieser Zeitspanne eignet sich eine Person
Kompetenzen an, verknüpft diese, löscht, regeneriert oder formt sie um
(KIRCHHÖFER 2004; ERPENBECK u. HEYSE 2007).
Kompetenzen sind Lernresultate, dementsprechend besteht auch ein offen-
sichtlicher Zusammenhang zwischen selbstorganisiertem Lernen, einem
persönlichen Lernstil und Kompetenzentwicklung. Die Kompetenzentwicklung
beinhaltet für jede Arbeitsperson individuelle, selbstorganisierte Lernprozesse,
welche einer eigenen Logik und Ordnungsparametern (Regularitäten, Werte)
folgen. Selbstorganisiertes Denken und Handeln erfordern dabei ein ständiges
182 Arbeitswissenschaft
Entscheiden. Die reinen Fähigkeiten, Fertigkeiten und das Wissen reichen dafür
jedoch nicht aus, deshalb sind diese in den zu bewältigenden
Entscheidungssituationen zu bewerten. Zur Entwicklung von Kompetenz sind also
auch Wertvorstellungen notwendig. Es reicht jedoch nicht aus, dass die
Arbeitsperson diese Werte nur erlernt, sie muss diese auch verinnerlichen und aus
sich heraus diese Wertvorstellungen „leben“.
Einen umfassenden Ansatz zu Erfassungs- und Darstellungsmethodik bieten
sog. kompetenzbiographische Verfahren (ERPENBECK u. HEYSE 2007). Diese
messen über eine gewisse Zeitspanne die qualitative und quantitative Entfaltung
beruflicher Handlungskompetenz als Netzwerk fachlicher, methodischer, sozialer
und personaler Einzelkompetenzen in der stets einzigartigen, lebenslangen real-
biographischen Entwicklung. Solche Verfahren fokussieren dabei bestimmte, die
Arbeitsperson prägende Arbeitssituationen und Ereignisse, die für dessen
Kompetenzentwicklung wichtig waren sowie für die weitere
Kompetenzentwicklung förderlich sind.
Es gibt eine Reihe von theoretisch hinterlegten empirischen Untersuchungen
und praktischen Umsetzungen, welche zeigen, dass sich mit den
kompetenzbiographischen Verfahren gezielt Kompetenzentwicklungsprozesse
bspw. in Unternehmen erforschen lassen (ERPENBECK u. HEYSE 2007). Die
vorhandenen Instrumente nutzen bekannte Verfahren der Kompetenzmessung und
bieten außerdem konkrete Methoden der Kompetenzanalyse sowie entsprechende
Erhebungs-, Auswerte- und Evaluationstechniken. Zudem lassen sich Vorschläge
für den Einsatz selbstorganisierter Strategien der Kompetenzentwicklung in der
Praxis ableiten sowie künftige Kompetenzentwicklungen initiieren. Schließlich
lassen sich wertvolle Hinweise auf die Einbeziehung kompetenzfördernder
Rahmenbedingungen in die berufliche Bildung und für die Ausnutzung von
entsprechenden Entwicklungspotentialen des sozialen Umfelds ableiten.
Kompetenzbiographische Verfahren sind also nicht nur für Forschungszwecke
einsetzbar, sie liefern auch Führungskräften im Unternehmen, Bildungspraktikern
und Trainern unmittelbar nützliche Resultate.
2.4 Anpassungsmerkmale
2.4.1 Arbeitsmotivation
Merkmalen einer aktuell wirksamen Situation, in der Anreize auf die Motive
einwirken und sie aktivieren.“ Nach HECKHAUSEN u. HECKHAUSEN (2005)
bezeichnet der Begriff Motivation eine momentane Ausrichtung auf ein
Handlungsziel.
Motive sind zeitlich relativ überdauernde psychische Dispositionen, die für
einzelne Personen charakteristische Ausprägungen haben (siehe STAEHLE 1999;
SCHNEIDER u. SCHMALT 2000). Als Anreize werden Merkmale der Situation
bezeichnet, die Motive anregen können. Anreize fordern dazu auf, bestimmte
Handlungen auszuführen und andere zu unterlassen (NERDINGER et al. 2008).
Bei der Arbeitsmotivation wird die Frage gestellt, welche (Arbeits-)
Bedingungen gegeben sein sollten, damit sich die Beschäftigten die Betriebsziele
zueigen machen und diese auch verfolgen: Es steht das Leistungsbild im
Vordergrund. Wie bei der Arbeitszufriedenheit, erhofft man sich auch aus einer
erhöhten Arbeitsmotivation positive Auswirkungen für den Betrieb: bspw.
geringere Fehlzeiten, sorgsamerer Umgang mit Arbeitsmitteln, erhöhtes
Commitment, geringere Fluktuation u.v.m. (SIX u. FELFE 2004).
2.4.1.2 TheorienĆderĆArbeitsmotivationĆ
Es gibt zahlreiche Theorien zur Erklärung von Motivation. Ihre Ursprünge liegen
in den 30er Jahren des letzten Jahrhunderts. Ähnlich wie beim Konstrukt
Arbeitszufriedenheit stieß auch das Konstrukt der Arbeitsmotivation auf sehr
großes Interesse. Die Theorien lassen sich in Anlehnung an BRANDSTÄTTER u.
FREY (2004) in drei Klassen gliedern: 1) Bedürfnis-Motiv-Wert-Theorien (oder
auch Inhaltstheorien), 2) Theorien der Zielwahl und 3) Theorien der
Zielrealisierung. (Die beiden letzten Kategorien werden auch als Prozesstheorien
bezeichnet. Ausführliche Darstellungen der im Folgenden dargestellten Ansätze
sowie weiterer Motivationstheorien finden sich in HECKHAUSEN u. HECKHAU-
SEN 2006; KEHR 2004; VANCOUVER u. DAY 2005).
Bedürfnis-Motiv-Wert-Theorien
Das Ziel, das einen Menschen zum Handeln bringt, hat gemäß den Bedürfnis-
Motiv-Wert-Theorien seinen Ursprung in überdauernden Bedürfnissen, Motiven
und Werten der Person. Ein bekannter Vertreter dieser Theorie ist MASLOW
(1954). Er postuliert, dass der Mensch Bedürfnisse hat und ordnet diese
Bedürfnisse in Form einer Pyramide an. Nur, wenn eine Bedürfnisstufe befriedigt
ist, wird die Befriedigung der in der Hierarchie nächsten Stufe durch Handlung in
Angriff genommen werden (Abb. 2.32).
Sind die Bedürfnisse 1-4 nicht erfüllt, dann wird der Mensch durch seine
Handlungen versuchen, diese der Reihe nach zu befriedigen. Das Bedürfnis nach
Selbstverwirklichung wird nie gänzlich gestillt.
Die Theorie von Maslow besitzt eine hohen Bekanntheitsgrad, ist allerdings
von wissenschaftlicher Seite vielfach kritisiert worden. Bemängelt wird z.B. die
vage Definition der verwendeten Begriffe, die in der Folge auch dazu geführt hat,
Arbeitsperson 185
BedürfnisĆĆ
nachĆSelbst-Ć
verwirklichungĆ
Ć
AchtungsbedürfnisseĆ
Ć
SozialeĆBedürfnisseĆ
Ć
SicherheitsbedürfnisseĆ
Ć
PhysiologischeĆBedürfnisse
Bei der Frage nach der Arbeitsmotivation geht es weniger um Ziele, die sich
die arbeitende Person selbst setzt, sondern um fremdgesetzte Ziele, also Ziele der
Organisation. Damit ein Mensch sich dieser Ziele annimmt, müssen die gestellten
Aufgaben auch persönliche Motive befriedigen und mit diesen – zumindest zum
Teil – übereinstimmen. Durch neuere Befunde, die diese These stützen (siehe
KEHR 2004), gewinnt die Motivtheorie von (McCLELLAND 1985) an Bedeutung
(BRANDSTÄTTER u. SCHNELLE 2007). McCLELLAND benennt drei zentrale Mo-
tive: 1) das Leistungsmotiv, 2) das Machtmotiv und 3) das Anschlussmotiv. Die
Ausprägungen dieser Motive variieren interindividuell.
Menschen mit einem starken Leistungsmotiv bevorzugen Aufgaben, bei denen
sie durch ihre Fähigkeiten und ihren Einsatz erfolgreich sein können.
Selbstvertrauen, Eigeninitiative und Erfolgssuche sind kennzeichnend für diese
Orientierung. Menschen mit einem ausgeprägten Anschlussmotiv streben nach
positiven sozialen Beziehungen. Gewünscht sind insbesondere Akzeptanz,
186 Arbeitswissenschaft
Beliebtheit bei Anderen sowie Kooperation und Harmonie. Ein hohes Machtmotiv
kommt in dem Bestreben zum Ausdruck, die Verhaltensweisen anderer zu
beeinflussen. Mit dieser Orientierung sind der Wunsch nach Status und Aufstieg
verbunden (HENTZE et al. 2005).
Ein Ergebnis einer Studie von McCLELLAND u. BOYATZIS (1982) beim
amerikanischen Konzern AT&T weist darauf hin, dass ein für den wirtschaftlichen
Erfolg optimales Organisationsklima dann zustande kommt, wenn leitende
Manager ein hohes Leistungsmotiv, kombiniert mit einem starkt ausgeprägten
Machtmotiv und einem niedrigen Anschlussmotiv besitzen (KÜHN et al. 2006).
Motive lassen sich mit dem sog. Thematischen Auffassungstest (TAT) messen,
bei dem zu vorgegebenen Bildkarten Phantasiegeschichten zu schreiben sind
(BRUNSTEIN u. HOYER 2002). Zur Erhebung der Leistungsmotivation stehen
darüber hinaus standardisierte Fragebögen zur Verfügung, wie bspw. das
Leistungsmotivationsinventar (LMI) von SCHULER et al. (2001).
Instrumentalitäts-
Ergebniserwartung Valenz
erwartung
Folge a Bewertung a
Leistungs- Leistungs-
Folge
g b Bewertungg b
verhalten ergebnis
... ...
Weitere Ergebnisse und Folgen
Abb. 2.33: Das VIE-Modell von VROOM (1964), (aus BRANDSTÄTTER u. SCHNELLE
2007)
2.4.2 Arbeitszufriedenheit
2.4.2.1 DefinitionĆundĆRelevanzĆ
Der Begriff Arbeitszufriedenheit ist ebenso vielfältig wie die zahlreichen
Publikationen zum Thema. So verwundert es nicht, dass in der gängigen Literatur
viele verschiedene Definitionen und Begriffsbestimmungen parallel verwendet
werden. Gemeinsam ist allen Definitionen, dass Arbeitszufriedenheit als ein
hypothetisches Konstrukt verstanden wird.
Als Übersetzung des englischen Begriffs job satisfaction hat sich im deutschen
Sprachraum der Begriff Arbeitszufriedenheit durchgesetzt. Der Terminus steht für
die „Zufriedenheit mit einem gegebenen betrieblichen Arbeitsverhältnis“
(BRUGGEMANN et al. 1975). Ausgeschlossen davon sind jedoch die Begriffe
Berufszufriedenheit oder Arbeitsklima. Weitere Begriffe aus der
englischsprachigen Fachliteratur sind job attitude, morale und vocationale
satisfaction. Diese Termini werden teilweise synonym für Arbeitszufriedenheit
gebraucht, teilweise werden sie jedoch auch zur definitorischen Abgrenzung von
job satisfaction verwendet und stehen damit für Konzepte, die dem Bereich der
job satisfaction zwar zugeordnet werden können, jedoch nicht gleichzusetzen sind.
Bei NEUBERGER u. ALLERBECK (1978) ist eine sehr umfangreiche Abbildung
der in der Literatur vorzufindenden Definitionen und Beschreibungen von
Arbeitszufriedenheit und ihrer Bedeutung zu finden. So definiert Neuberger
Arbeitszufriedenheit im Zuge des Entwurfs eines Instrumentes zur Bewertung
vorhandener Arbeitszufriedenheit als ein einstellungsbezogenes Konstrukt:
„Arbeitszufriedenheit ist die kognitiv-evaluative Einstellung zur Arbeitssituation“
(NEUBERGER u. ALLERBECK 1978). Eine allgemeinere Definition von
Arbeitsperson 189
2.4.2.2 MessungĆundĆBeurteilungĆ
Üblicherweise wird Arbeitszufriedenheit aus Gründen der Praktikabilität
schriftlich mithilfe eines Fragebogens erhoben und beurteilt. Mithilfe von
Fragebögen kann eine große Anzahl an Beschäftigten effizient und vergleichbar
befragt werden. Ein Fragebogen kann durch die vorgegebenen Antworten objektiv
und ökonomisch ausgewertet werden. Zur Fragebogen-gestützten Messung der
Arbeitszufriedenheit gibt es eine Fülle von Instrumenten. In einer Studie von
FERREIRA (2007b) konnten 307 deutschsprachige Fragebögen ermittelt werden.
Allerdings genügt eine Vielzahl der dort recherchierten Fragebögen nicht den
wissenschaftlichen Anforderungen an Erhebungsinstrumente, bspw. in Bezug auf
Reliabilität, Objektivität und Validität. Im Folgenden sollen drei der im
deutschsprachigen Raum akzeptierten und häufig eingesetzten
Erhebungsinstrumente vorgestellt werden:
demografischen Daten gestellt. Eine erste Überprüfung der Skala ergab mittels
Faktorenanalyse die Verdichtung der einbezogenen Items auf vier sinnvoll
interpretierbare Faktoren. Von ihnen wurde angenommen, dass sie sowohl
situative Aspekte der Arbeitszufriedenheit als auch motivationale Aspekte
erfassen.
Als ökonomischer Ersatz für die SAZ wurde eine SAZ-Kurzskala entwickelt,
die acht vorwiegend globale Items erhält. Sie korreliert hoch mit der Langskala.
Eine Verdichtung auf Basis einer Faktorenanalyse ergab folgende vier
interpretierbare Formen:
(1) Zufriedenheit mit der Möglichkeit, die eigenen Fähigkeiten am Arbeitsplatz
anzuwenden
(2) Psychische und physische Reaktionen auf die Arbeitssituationen
(3) Zufriedenheit mit der Bezahlung
(4) Einschätzung des Betriebs, z.B. Führungsstil, Aufstiegsmöglichkeiten usw.
Die SAZ ermöglicht eine differenzierte Erfassung der allgemeinen
Arbeitszufriedenheit unter Berücksichtigung einiger Aspekte der Arbeitssituation.
Mithilfe des Instruments kann also kurzfristig ein Maß für die Gesamt-
zufriedenheit der Beschäftigten ermittelt werden. Eine Gewichtung einzelner
Arbeitszufriedenheitsaspekte für die allgemeine Arbeitszufriedenheit, die den
individuellen Präferenzen entspricht, wird jedoch vernachlässigt.
Arbeitsbeschreibungsbogen (ABB)
Neben persönlichen Faktoren und situativen Faktoren ist vor allem die Interaktion
zwischen Person und Situation entscheidend um größere Varianzanteile der
Arbeitszufriedenheit und des menschlichen Verhaltens aufzuklären. Laut
NEUBERGER u. ALLERBECK (1974) mangelt es an der Untersuchung eben dieser
Interaktion. Die beiden Autoren postulieren eine Prägung des
Interaktionsprozesses durch nachfolgende auf die Person bezogene Aspekte. Sie
bestimmen die Einbettung der Arbeitszufriedenheit in das Person-Situation-
Konsequenzen System:
(1) Demografische Merkmale (Alter, Geschlecht, Bildung usw.)
(2) Stabile Persönlichkeitsmerkmale (Werte, Fähigkeiten, Fertigkeiten usw.)
(3) Dynamische Persönlichkeitsmerkmale (Bedürfnisse, Motive usw.)
(4) Kognitive Persönlichkeitsmerkmale (Erwartungen, Einstellungen usw.)
(5) Aktuelle Persönlichkeitsmerkmale (Stimmungen, Launen, Gefühle usw.).
Die situativen Gegebenheiten beeinflussen den Interaktionsprozess durch:
(6) Physische Merkmale der Arbeitssituation (Staub, Hitze, Lärm usw.)
(7) Merkmale der Arbeitsaufgabe (muskuläre oder mentale Beanspruchung
usw.)
(8) Soziale Merkmale der Arbeitssituation (Arbeitsgruppen, Vorgesetzte usw.)
(9) Organisatorische Prozesse und Strukturen (Arbeitsablauf, Arbeitszeit usw.)
(10) Umweltbedingungen (Arbeitsmarkt, Familie, Freizeit, Politik usw.).
192 Arbeitswissenschaft
Arbeitszufriedenheits-Kurzfragebogen (AZK)
Beim Arbeitszufriedenheits-Kurzfragebogen von BRUGGEMANN (1976) lassen
sich verschiedene Formen der Arbeitszufriedenheit in Abhängigkeit vom
intrapsychischen Prozess der Entstehung des jeweiligen Grades der
Arbeitszufriedenheit differenzieren. Damit unterscheidet er sich vom
Arbeitsbeschreibungsbogen, in dem das Gesamtkonzept der Arbeitszufriedenheit
nach inhaltlichen Gesichtspunkten der umgebenden Arbeitssituation differenziert
wird.
Der Arbeitszufriedenheits-Kurzfragebogen besteht aus sechs Fragen.
BRUGGEMANN verfolgt damit das Ziel, die von ihr postulierten verschiedenen
Formen der Arbeitszufriedenheit zu messen. Beispielsweise sollen sich Befragte
mit resignativen Einstellungsakzenten von jenen abheben, die deutlich
artikulieren, dass ihre Bedürfnisse und Wünsche durch das Arbeitsverhältnis
befriedigt werden. Die bewertende Erfassung verschiedener
Arbeitszufriedenheitsformen steht also im Mittelpunkt dieses Fragebogens.
Problematisch erscheint jedoch die Komplexität der Items, die mangelnde
Differenzierung einzelner Arbeitsbereiche und deren fehlende individuelle
Bedeutungsgewichtung für die Arbeitszufriedenheit sowie die Verwendung
verschieden skalierter Itemtypen (FERREIRA 2007a).
2.4.2.3 ArbeitsmotivationĆundĆArbeitszufriedenheitĆinĆderĆPraxisĆ
Die neuere Forschung im Bereich der Arbeitszufriedenheit verspricht auch
interessante Hinweise für die Praxis (FISCHER 2006). Das Konstrukt
Arbeitszufriedenheit kann durch neue Ansätze von anderen Konzepten besser
abgegrenzt werden. Studien, die den Zusammenhang zwischen
Arbeitszufriedenheit und Emotionen (WEGGE u. VAN DICK 2006) oder
Commitment (FELFE u. SIX 2006) untersuchen und darstellen, liefern weitere
Erkenntnisse. Beispielsweise wird der Frage nachgegangen, ob
Arbeitszufriedenheit eine Emotion ist und welche Zusammenhänge
Wertüberzeugungen zum Urteil über die eigene Zufriedenheit haben. Auf
emotionale und kognitive Prozesse, die die Urteilsbildung beeinflussen, wird ein
besonderes Augenmerk gerichtet. Dabei wird der Frage nachgegangen, welche
Erlebnisse und Erfahrungen Arbeitszufriedenheitsaussagen widerspiegeln. Dabei
werden sowohl kürzlich erlebte Situationen betrachtet, bspw. im Hinblick auf die
Frage, ob das Urteil aufgrund eines soeben vorgefallenen Streites mit einem
Vorgesetzten schlechter ausfällt, als auch das additive Maß aller erlebten
Situationen. Hierbei wird auch dem Anspruchsniveau der Person vermehrt
Beachtung geschenkt.
Bei einer betrieblichen Untersuchung der Arbeitsplätze, Arbeitsabläufe und
Arbeitsumgebungen sollten trotz kritischer und einschränkender Bemerkungen die
194 Arbeitswissenschaft
2.4.3 Ermüdung
Die Ausführung der Arbeitsaufgaben erfordert eine Inanspruchnahme der
physischen und psychischen Ressourcen der Arbeitsperson. Solange neue
Ressourcen im gleichen Umfang nachgebildet werden können, entsteht ein
stationäres Gleichgewicht zwischen Verbrauch und Nachschub (steady-state), und
somit dürfte eine Ermüdung nicht eintreten. Soll jedoch mehr Leistung erbracht
werden als an Nachbildung von Ressourcen möglich ist (Überschreiten der
Dauerleistungsgrenze), so werden zwangsläufig die vorhandenen bzw. vorrätigen
Ressourcen in Anspruch genommen. In Folge verringert sich die
Ressourcenverfügbarkeit und somit die mögliche Anpassungsbreite in der
Reaktion.
Dies bedeutet, dass trotz konstanter Belastung die Höhe der Beanspruchung
zunimmt. Dieser Vorgang wird als Ermüdung bezeichnet. Beschränkt man sich
auf eine Ermüdung in Folge einer Arbeitstätigkeit, so spricht man von
Arbeitsermüdung.
Arbeitsperson 195
RhythmikĆ Schädigung
SchlafmangelĆ
peripherĆ
"Tagesermüdung"
(auchĆmuskulär/sensorisch)
neinĆ(zeitlichĆpermanent) zentralĆ
nein (auchĆkardiovaskulär/Ć
BelastungsmerkmalĆ < metabolisch/neurovegetativ)
(arbeitsbezogen) ja
Beanspruchungs-Ć physischĆ
ErmüdungĆ (auchĆenergetisch-Ć
reaktion/be-Ć ReversibilitätsmerkmalĆ
ja (objektiveĆ <
anspruchungs-Ć (zeitlich) effektorisch,Ć
bedingteĆDefizienz Arbeitsermüdung) physikochemisch-situativ)
InsuffizienzmerkmalĆ ja psychischĆ
(organisch) (auchĆinformatorisch-Ć
mental/emotional)
neinĆ(ohneĆZeitĆreversibel)
nein <
ermüdungs-Ć allgemeinĆ
MüdigkeitsgefühlĆ ähnlicheĆZuständeĆ (auchĆallseitig/total)
(subjektiveĆErmüdung) -ĆMonotonieĆ
partiellĆ
-ĆSättigungĆ
(auchĆlokal/regional)
-ĆÜberforderung
2.4.3.1 FormenĆderĆErmüdungĆ
2.4.3.2 ErmüdungsverlaufĆ
Neben den physiologischen Reaktionen ist eine Ermüdung auch subjektiv
feststellbar. Dieses Ermüdungsgefühl stellt eine Schutzfunktion dar, die eine zu
weitgehende Ausschöpfung der Leistungsreserven verhindern soll. Normalerweise
198 Arbeitswissenschaft
kann der Mensch nicht willkürlich voll über seine angelegte und durch Übung
entwickelte maximale Leistungsfähigkeit verfügen, sondern es bleibt stets eine
gewisse Leistungsreserve autonom geschützt. Diese Leistungsreserven für
Notsituationen können nicht über den Willen, sondern nur über den Weg starker
Affekte unter existenzkritischen Bedingungen mobilisiert werden (EYSENCK 1947,
in SCHMIDTKE 1965).
Eine generelle Charakteristik des Ermüdungsverlaufes ist dahingehend
festzustellen, dass sich die beginnende Ermüdung zuerst in dem am stärksten
beanspruchten Bereich bzw. Organ auswirkt und dann mit zunehmender
Ermüdung in ihren Symptomen auf den gesamten Organismus übergreift.
Spezifische Ermüdungsreaktionen lassen sich durch die Betrachtung einzelner
Symptome beurteilen, während eine umfassende Beurteilung der Ermüdung nur
über die Sukzessivreaktionen unterschiedlicher Größen zugänglich ist. Hieraus
ergeben sich Strukturmodelle, die den zunehmenden Verlauf der Ermüdung
beschreiben und bei denen eine Quantifizierung durch die Einstufung in
verschiedene Ermüdungsgrade vorgenommen wird (sukzessive
Destabilisierungstheorie, LUCZAK 1983). Diese haben insbesondere Bedeutung
bei Ermüdungen aufgrund informatorischer Arbeit, zeigen jedoch auch in
exemplarischer Weise die Symptome eines Ermüdungsverlaufes für andere
Arbeitsformen (LUCZAK UND ROHMERT 1974):
x Ermüdungsgrad 1: Bei einer die Grenze der momentanen Regenerations-
fähigkeit überschreitenden Beanspruchung treten als erste Ermüdungs-
symptome Störungen in den psychophysiologischen Funktionsbereichen auf,
die durch die verrichtete Tätigkeit besonders beansprucht sind. Hierbei ist
eine Reaktion der Engpassbereiche, in der Regel der im Arbeitsvollzug
gebundenen peripher-physiologischen Organsysteme der Sensorik und
Motorik, zu erwarten.
x Ermüdungsgrad 2: Erreichen die Störungen einen Grad, dass sie der
Selbstbeobachtung des Individuums zugänglich werden, so ist eine weitere
Stufe der Ermüdung erreicht. In dieser Phase wird der Mittelwert der
Leistungskurve noch nicht betroffen, jedoch nehmen die Leistungsstreuung
und die Häufigkeit von Fehlleistungen zu. Da die Arbeitsperson bei
entsprechender Motivation versucht, durch erhöhte Willensanspannungen
das bisherige Leistungsniveau aufrechtzuerhalten, ist im
Beanspruchungsbereich eine Reaktion der Indikatoren zentraler Aktiviertheit
zu erwarten.
x Ermüdungsgrad 3: Die Phase der Leistungskurve mit der Häufung von
Schwankungen wird abgelöst von einer solchen mit fallender Tendenz.
Wegen der Störung von zentralen Integrationsprozessen spricht man auch
von Allgemein- oder Willensermüdung. Dabei sind primär nicht
beanspruchte Funktionssysteme des Organismus beeinträchtigt. Eine
simultane Reaktion zentralphysiologischer Beanspruchungsindikatoren kann
erwartet werden.
Arbeitsperson 199
2.4.3.3 MessungĆvonĆErmüdungĆ
Biologische Vorgänge der Ermüdung sind i.d.R. nicht direkt messbar. Daher wird
der Nachweis der Ermüdung normalerweise anhand der Phänomene der
Ermüdung durchgeführt. Es ergeben sich grundsätzlich drei verschiedene
Möglichkeiten:
(1) Messung der Leistungserfüllung
(2) Messung der physiologischen Reaktionen
(3) Ermittlung der Müdigkeit als Indikator der Ermüdung.
100
N1eff
N2eff
N3eff
50
Belastung
40
empfundene B
30
20
10
Beeinträchtigung
B i t ä hti 0
des Wohlbefindens
Frühschicht Mittagschicht
2.4.3.4 BemessungĆvonĆBelastungĆundĆErholungĆ
Extrahiert man aus den gemessenen Größen den Verlauf der Ermüdung in
Abhängigkeit von Belastungsdauer und Belastungshöhe, so zeigen sich charakte-
ristische Kennlinien, die in Abb. 2.38 schematisch dargestellt sind.
202 Arbeitswissenschaft
Belastung
Ermüdungssgrad N3eff >N2eff >N1eff >NDLG
N3eff
N2eff
N1eff
Arbeitspulsfrequenz
(1/min)
A
PeriodeĆAĆ:ĆP=Ć10Ć:Ć10min
RP
Zeit (min)
Arbeitspulsfrequenz B
(1/min)
PeriodeĆA:ĆP=Ć3,3Ć:Ć2min
RP
Zeit (min)
Arbeitspulsfrequenz C
(1/min)
PeriodeĆA:ĆP=Ć1Ć:Ć0,4min
RP
Zeit (min)
Abb. 2.40: Einfluss der Zykluszeit auf die zur Erholung erforderlichen Pausen bei gleicher
Belastungshöhe (aus SCHMIDTKE 1969, RP: Ruhepuls)
206 Arbeitswissenschaft
höchste Gesamteffektivität
ung
Leistu
tägliche Arbeitszeit
Abb. 2.41: Schematische Darstellung der Beziehungen zwischen Arbeitszeit und Leistung
nach GRAF (1954)
2.4.3.5 SchädigungenĆ
Wie bereits in diesem Kapitel besprochen, zählen Schädigungen nicht zu den
Ermüdungserscheinungen, wenngleich die Ursachen meist ähnlich sind und
Ermüdung Vorbedingung einer organischen Schädigung ist. Im Falle von
chronischen Ermüdungen oder Übermüdungen des Organismus bzw. einzelner
Organe können in Abhängigkeit von Dauer und Intensität der Belastung bleibende
Funktionsminderungen entstehen, diese werden dann als Schädigung bezeichnet.
Hierzu gehören sowohl Schädigungen ausgelöst durch körpereigene Aktivitäten
(z.B. Überdehnung von Gefäßwänden und Knochenveränderungen infolge
andauernder Druckwirkungen) als auch durch äußere Einwirkungen (z.B. Lärm,
chemische Substanzen). Bei einigen Belastungen, die zu einer Schädigung führen
können, ist die Feststellung der fortschreitenden Ermüdung dem Menschen direkt
zugänglich (z.B. durch Schmerzempfindung), so dass einer Schädigung
vorgebeugt werden kann. Für Belastungsarten, bei denen das nicht der Fall ist,
besteht eine besondere Gefahr der Schädigung, da diese im Allgemeinen erst an
einer Funktionsminderung erkannt werden, die nicht mehr reversibel ist.
Die Arbeitsschutzbestimmungen beinhalten diesbezüglich Richtlinien zum
Schutz der Gesundheit der Arbeitspersonen (siehe Kap. 8).
208 Arbeitswissenschaft
2.5 Literatur
Adenauer S (2002) Die Potenziale älterer Mitarbeiter im Betrieb erkennen und nutzen.
angew Arbeitswiss 172:19–34
Amthauer R (1953) I-S-T. Intelligenz-Struktur-Text. Verlag für Psychologie, Göttingen
Anastasi A (1976) Differenzielle Psychologie, BdII. Weinheim
Anastasi A, Foley JP jr (1949) Differential Psychology. Individual and Group Differences
in Behavior, New York
Aretz HJ, Hansen K (2003) Diversity Management - ein Konzept für den Umgang mit
Vielfalt und Komplexität. Zeitschrift Führung und Organisation zfo72/4: 192–198
Aschoff J (1964) Circadian clocks. Proceedings of the Feldafing Summer School,
September 1964. North-Holland Publ. Comp, Amsterdam, pp 7–18
Aschoff J, Wever R (1962) Spontanperiodik des Menschen bei Ausschluss aller Zeitgeber.
Naturwiss 49
Astor M, Koch C, Klose G, Reimann F, Rochhold S, Stemann M (2006) Zu alt, um Neues
zu lernen? Chancen und Grenzen des gemeinsamen Lernens von älteren und jüngeren
Mitarbeitern. In: QUEM-Materialien der Arbeitsgemeinschaft Betriebliche
Weiterbildungsforschung e.V. (AWBF) 77:1-165
Atkinson JW (1953) Motivational determinants of risktaking behavior. Psychological
Review 64:359–372
Auswärtiges Amt (2009) Das Zuwanderungsgesetz. http://www.auswaertiges-
amt.de/diplo/de/WillkommeninD/EinreiseUndAufenthalt/Zuwanderungsrecht.html
(Zugriff: 06.10.2009)
Bader R (2004) Handlungsfelder-Lernfelder-Lernsituationen. In: Bader R, Müller M (Hrsg)
Unterrichtsgestaltung nach dem Lernfeldkonzept, Bielefeld, S 11-37
Bader R, Müller M (2002) Leitziel der Berufsbildung. Handlungskompetenz. Die
berufsbildende Schule 6:176–182
Baltes P (1984) Intelligenz im Alter. Spektrum der Wissenschaft 5:46-60
Baudisch W (Hrsg) (2000) Selbstbestimmt leben trotz schwerer Behinderungen? Schritte
zur Annäherung an eine Vision. In: Pädagogische Beiträge zur sozialen und kulturellen
Entwicklung, Bd. 4. LIT, Münster
Baur F (1979) Konkurs- und Vergleichsrecht. Müller, Heidelberg Karlsruhe
Baur W (1967) Neue Wege der betrieblichen Planung. Springer, Berlin, Heidelberg, New
York
BdReg – Bundesregierung (2006) 2. Bilanz Chancengleichheit. Frauen in Führungspositi-
onen. Berlin
BdReg – Bundesregierung (2008) 3. Bilanz Chancengleichheit. Europa im Blick. Berlin
Beck L, Mau W (2007) Leistungen zur Teilhabe am Arbeitsleben und andere
berufsbezogene Maßnahmen. In: Morfeld M, Mau W, Jäckel WH, Koch U (Hrsg) Im
Querschnitt- Rehabilitation. physikalische Medizin und Naturheilverfahren. Elsevier,
Urban u. Fischer, München, S 58–61
BfA – Bundesagentur für Arbeit (2009) Gastarbeitnehmer. http://www.arbeitsagentur.de
(Zugriff: 06.10.2009)
Bick M (2008) Verdienste und Arbeitskosten. In: Statistisches Bundesamt, GESIS-ZUMA,
WZB (Hrsg) Datenreport 2008 - Ein Sozialbericht für die Bundesrepublik
Deutschland. Bundeszentrale für politische Bildung, Bonn, S 129–139
BIH – Bundesarbeitsgemeinschaft der Integrationsämter und Hauptfürsorgestellen (2008)
Jahresbericht 2007|2008. www.integrationsaemter.de/files/602/JB_BIH07_08.pdf
(Zugriff: August 2009)
Arbeitsperson 209
Binet A, Simon T (1905) Méthodes nouvelles pour le diagnostic du niveau intellectuell des
anormaux. l'Année psychologique 11:245–336
Bischof-Köhler D (2004) Von Natur aus anders. Die Psychologie der
Geschlechtsunterschiede. Kohlhammer, Stuttgart
BMAS - Bundesministerium für Arbeit und Soziales (2008a) Broschüre Berufsbildungs-
werke
BMAS - Bundesministerium für Arbeit und Soziales (2008b) Broschüre Berufsförderungs-
werke
BMBF - Bundesministerium für Bildung und Forschung (2008) Berufsbildungsbericht
2008. http://www.bmbf.de/pub/bbb_08.pdf (Zugriff: 05.10.2009)
BMBF - Bundesministerium für Bildung und Forschung (2009) Berufsbildungsbericht
2009. http://www.bmbf.de/pub/bbb_09.pdf (Zugriff: 05.10.2009)
BMFSFJ – Bundesministerium für Familie, Senioren, Frauen und Jugend (2005). Betriebs-
wirtschaftliche Effekte familienfreundlicher Maßnahmen. Kosten-Nutzen-Analyse.
September 2003. Stand: November 2005. BMFSFJ, Berlin.
BMFSFJ – Bundesministerium für Familie, Senioren, Frauen und Jugend (2009)
Information zum Thema Elterngeld. http://www.bmfsfj.de/bmfsfj/generator/
BMFSFJ/Service/rechner,did=76746.html (Zugriff: 07.10.2009)
BMG – Bundesministerium für Gesundheit (2009) Alkohol. www.bmg.bund.de/cln_162/
nn_1191726/DE/Drogen-und-Sucht/Alkohol/alkohol__node.html?__nnn=true
(Zugriff: 26.06.2009)
Bobertag O (1911) Über Intelligenzprüfungen. Zeitscht. f. angew. Psychol
Bonz B (1999) Methoden der Berufsbildung. Hirzel, Stuttgart
Borkenau P, Egloff B, Eid M, Hennig J, Kersting M, Neubauer AC, Spinath FM (2005)
Persönlichkeitspsychologie. Stand und Perspektiven. Psychologische Rundschau
56/4:271-290
Bothfeld S, Ziegler A (2005) Wie viel ist uns Frauenerwerbstätigkeit wert? In:
Bundesarbeitsblatt 12, S 4-12
Botwinick J, Storandt M (1973) Age-differences in reaction-time as a function of
experience stimulus-intensity and preparatory interval. Journal of Genetic Psychology
123:209–217
Bourne LE, Ekstrand BR (2005) Einführung in die Psychologie. Verlag Dietmar Klotz,
Eschborn
Brader D, Lewerenz J (2006) An der Spitze ist die Luft dünn. In: IAB-Kurzbericht Nr.2
Brand W, Hofmeister W, Tramm T (2005) Auf dem Weg zu einem
Kompetenzstufenmodell für die berufliche Bildung - Erfahrungen aus dem Projekt.
bwp@8:1-21. www.bwpat.de/ausgabe8/brand_etal_bwpat8.shtml)
(Zugriff: 28.05.2009)
Brandstätter V (1999) Arbeitsmotivation und Arbeitszufriedenheit. In: Hoyos C, Frey D
(Hrsg.) Arbeits- und Organisationspsychologie. PVU, Weinheim
Brandstätter V, Frey D (2004) Motivation zu Arbeit und Leistung. In: Schuler, H (Hrsg)
Enzyklopädie der Psychologie. Themenbereich D Praxisgebiete. Serie III Wirtschafts-,
Organisations- und Arbeitspsychologie, Bd3 Organisationspsychologie - Grundlagen
und Personalpsychologie. Hogrefe, Göttingen
Brandstätter V, Schnelle J (2007) Motivationstheorien. In: Schuler H, Sonntag K (Hrsg)
Handbuch der Arbeits- und Organisationspsychologie. Hogrefe, Göttingen, S 51–65
Bruggemann A (1976) Zur empirischen Untersuchung verschiedener Formen von
Arbeitszufriedenheit. Zeitschrift für Arbeitswissenschaft 30:71–75
Bruggemann A, Groskurth P, Ulich E (1975) Arbeitszufriedenheit. Verlag Hans Huber,
Bern, Stuttgart, Wien
210 Arbeitswissenschaft
Bruggmann M (2000) Die Erfahrung älterer Mitarbeiter als Ressource. DUV Verlag,
Wiesbaden
Brunstein JC, Hoyer S (2002) Implizites Wissen versus explizites Leistungsstreben: Befun-
de zur Unabhängigkeit zweier Motivationssysteme . Zeitschrift für Pädagogische Psy-
chologie 16:51-62
Brush DH, Moch MK, Pooyan A (1987) Individual demographic differences and job
satisfaction. J Occ Beh 8:139–155
Buck H, Kistler E, Mendius G (2002) Demographischer Wandel in der Arbeitswelt.
Chancen für eine innovative Arbeitsgestaltung. In: Bundesministerium für Bildung und
Forschung (Hrsg) Broschürenreihe Demographie und Erwerbsarbeit
Bundesagentur für Arbeit (2007) Amtliche Nachrichten der Bundesagentur für Arbeit.
56.JhG, Sondernr. 2
Bundesarbeitsgemeinschaft für Rehabilitation (2003) Arbeitshilfe für die Rehabilitation und
Teilhabe psychisch kranker und behinderter Menschen. Schriftenreihe Heft 9,
Frankfurt am Main
Bundesarbeitsgemeinschaft Werkstätten für behinderte Menschen e.V. (2009) Werkstatt
und Wirtschaft. http://www.bagwfbm.de/ (Zugriff: 02.10.2009)
Burmeister W, Rutenfranz J, Sbresny W, Radny HG (1972) Body all mass and physical
performance capacity of school children. Internationale Zeitschrift für angewandte
Physiologie 31:61–70
Busch K, Schenk B (2005) Interkulturelle Zusammenarbeit im Team - Ein
Erfahrungsbericht. ZPF 1/2005:65–80
Caplan LJ, Schooler C (1990) The effects of analogical training models and age on
problem-solving in a new domain. Experimental Aging Research 16:151–154
Cattell RB (1941) Some Theoretical Issues in Adult Intelligence Testing. Psychological
Bulletin 38:592
Cattell RB (1963) Theory of Fluid and Crystallized Intelligence. A Critical Experiment.
Journal of Educational Psychology 54:1-22
Cattell RB (1971) Abilities - Their Structure. Growth and Action. Mifflin, Boston
Charness N, Schumann CE, Boritz GM (1992) Training older adults in word processing:
Effects of age, training techniques and computer anxiety. International Journal of
Technology and Aging 5:79–106
Clancy SM, Hoyer WJ (1994) Age and skill in visual search. Development Psychology
30:545–552
Cornelißen W (Hrsg) (2005) Gender-Datenreport - 1. Datenreport zur Gleichstellung von
Frauen und Männern in der Bundesrepublik Deutschland. 2. Fassung.
http://www.bmfsfj.de/Publikationen/genderreport/root.html (Zugriff: 06.10.2009)
Cornelißen W, Dressel C, Lohel V (2005) Erwerbseinkommen von Frauen und Männern.
In: Cornelißen W (Hrsg) (2005) Gender-Datenreport - 1. Datenreport zur
Gleichstellung von Frauen und Männern in der Bundesrepublik Deutschland. 2.
Fassung, S 159-223
Coyne KP, Jakob N (2002) Web Usability for Senior Citizens. Forschungsbericht, Nielsen
Norman Group
Craik FIM, Jennings JM (1992) Human memory In: Craik FIM, Salthouse TA (ed) The
Handbook of Aging and Cognition. Erlbaum, Hillsdale, pp 51-110
Czaja SJ, Hammond K, Blascovich H (1989) Age-related differences in learning to use a
text-editing system. Behavior and Information Technology 8:309–319
Dauenhauer E (1981) Berufsbildungspolitik. Springer, Berlin, Heidel-berg, New York
Davis MH (1983) Measuring individual differences in empathy: Evidence for a
multidimensional approach. In: Journal of Personality and Social Psychology. 44:113-
126
Arbeitsperson 211
Foss NJ, Knudsen C (1996) Towards a competence theory of the firm. Routlege, London,
New York
Frank UG (2004) Neurologie und Psychiatrie. Elsevier, Urban u. Fischer, München
Frey R (2003) Gender im Mainstreaming. Geschlechtertheorie und -praxis im
internationalen Diskurs. Ulrike Helmer Verlag, Königstein/Taunus
Frieling, E (2006). Gasteditor. Altersgerechte Arbeitsgestaltung. Themenheft der Zeitschrift
für Arbeitswissenschaft. Stuttgart, ergon. 60 (3) 2006
Fozard JL (1990) Vision and hearing in aging. In: Birren JE, Schaie KW (Eds) Handbook
of the Psychology of Aging. Academic Press, San Diego
Galton F (1883) Inquiries into human faculty and its development. Macmillian, London
Galton F (1908) Memories of my life. London, Methuen
Garfein AJ, Schaie KW, Willis SL (1988) Microcomputer proficiency in later-middle-aged
and older adults: Teaching old dogs new tricks. Social Behaviour 3:131–148
Geißendörfer J, Höhn A (2007) Basics medizinische Psychologie und Soziologie. Elsevier,
Urban, Fischer, München
Gensior S, Lappe L (1990) Neue Techniken. Auswirkungen auf Arbeit, Beschäftigung und
Weiterbildung. Ein frauenspezifischer Problem- und Literaturbericht. (=Dokumente
und Berichte der Parlamentarischen Staatssekretärin für die Gleichstellung von Frau
und Mann, 13) Düsseldorf
Gerhard U (1988) Sozialstaat auf Kosten der Frauen. In: Gerhard U (Hrsg) Auf Kosten der
Frauen. Beltz, Weinheim
Gist M, Rosen B, Schwoerer C (1988) The influence of training method and trainee age of
the acquisition of computer skills. Personnel Psychology 41:255–265
Göbel C, Zwick T (2009) Age and Productivity - Evidence from Linked Employer
Employee Data. Discussion Paper No. 09–020. Zentrum für Europäische
Wirtschaftsforschung, Mannheim
Goldberg LR (1990) An alternative „description of personality“. The Big-Five factor
structure. Journal of Personality and Social Psychology 59:1216–1229
Gontard von A (2003) Genetische und Biologische Faktoren. In: Neuhäuser G, Steinhausen
HC (Hrsg) Geistige Behinderung. Grundlagen, klinische Syndrome, Behandlung und
Rehabilitation. Kohlhammer, Stuttgart, S 24–41
Graf O (1954) Begriff der Leistungsbereitschaft. Zbl. Arbeitswissenschaft 8/1954:141–144
Grampp G (2003) Berufliche Rehabilitation - Teilhabe am Arbeitsleben. In: Neuhäuser G,
Steinhausen HC (Hrsg) Geistige Behinderung. Grundlagen, klinische Syndrome,
Behandlung und Rehabilitation. Kohlhammer, Stuttgart, S 284–299
Grandjean E (1979) Physiologische Arbeitsgestaltung. Ott, Thun
Greiff Mde (2001) Die Prognose von Lernkurven in der manuellen Montage unter
besonderer Berücksichtigung der Lernkurven von Grundbewegungen. VDI, Bocholt
Griefahn B (1992) Arbeitsmedizin, 2.Aufl. Ferdinand Enke Verlag, Stuttgart
Griefahn B (2007) Biorhythmen. In: Landau K (Hrsg) Lexikon Arbeitsgestaltung. Gentner-
Verlag, Stuttgart, S 375–378
Grobecker C, Krack-Rohberg E (2008) Bevölkerungsstand und Bevölkerungsentwicklung.
In: Statistisches Bundesamt, GESIS-ZUMA, WZB (Hrsg) Datenreport 2008 - Ein
Sozialbericht für die Bundesrepublik Deutschland. Bundeszentrale für politische
Bildung, Bonn, S 11-25
Grube A, Hertel G (2008) Arbeitszufriedenheit und emotionalem Erleben während der
Arbeit. Wirtschaftspsychologie 10/3:18–29
Guilford (1974) Persönlichkeit. Beltz, Weinheim
Hacker W (1978) Allgemeine Arbeits- und Ingenieur-psychologie, 2.Aufl. Huber, Bern,
Stuttgart, Wien
Arbeitsperson 213
http://www.bmfsfj.de/bmfsfj/generator/BMFSFJ/Service/Publikationen/publikationen,
did=113006.html (Zugriff: 07.07.2009)
Ilmarinen J, Tempel J (2002) Arbeitsfähigkeit 2010 - Was können wir tun, damit Sie
gesund bleiben? VSA, Hamburg
Jacko JA, Leonard VK, Scott I (2008) Perceptual Impairments: New Advancements
Promoting Technological Access. In: Sears A, Jacko JA (Eds) The Human Computer
Interaction Handbook. CRC Press, Boca Raton, pp 853–870
Jensen AR (1969) How Much Can We Boost IQ and Scholastic Achievement? Harvard
Educational Review 39:1–123
Jung D, Küpper G (2001) Gender Mainstreaming und betriebliche Veränderungsprozesse.
Kleine Verlag, Bielefeld
Kehr HM (2004) Motivation und Volition. Hogrefe, Göttingen
Kenny GP, Yardley JE, Martineau L, Jay O (2008) Physical Work Capacity in Older
Adults. Implications for the Aging Worker. Am J Ind Med 51:610–625
Kirchhöfer D (2004) Lernkultur Kompetenzentwicklung - Begriffliche Grundlagen.
Arbeitsgemeinschaft Betriebliche Weiterbildungsforschung e.V., Berlin
Kleinert C (2006) Karriere mit Hindernissen. In: IAB-Kurzbericht Nr.9
Klieme E, Avenarius H, Blum W, Döbrich P, Gruber H, Prenzel M, Reiss K, Riquarts K,
Rost J, Tenorth HE, Vollmer HJ (2003) Zur Entwicklung nationaler Bildungsstandard
- Eine Expertise. BMBF, Berlin
Kline DW, Schieber F (1985) Vision and aging. In: Birren J.E, Schaie F (Eds) Handbook of
the Psychology of Aging. Academic Press, San Diego
Kline DW (1996) Sensory and perceptual functioning: basic research and human factors
implications. In: Fisk AD, Rogers WA (Hrsg) Handbook of the Human Factors and the
Older Adult. Academic Press, San Diego, S 27–54
Krell G (Hrsg) (2008) Chancengleichheit durch Personalpolitik, 5. überarb. Aufl. Gabler
Verlag, Wiesbaden
Krell G, Mückenberger U, Tondorf K (2008) Gender Mainstreaming: Chancengleichheit
(nicht nur) für Politik und Verwaltung. In: Krell G (Hrsg) Chancengleichheit durch
Personalpolitik, 5. überarb. Aufl. Gabler Verlag, Wiesbaden, S 97-114
Krüger-Hemmer C (2008) Bildungsbeteiligung, Bildungsniveau und Bildungsbudget. In:
Statistisches Bundesamt, GESIS-ZUMA, WZB (Hrsg) Datenreport 2008 - Ein
Sozialbericht für die Bundesrepublik Deutschland. Bundeszentrale für politische
Bildung, Bonn, S 51-73
Kühn S, Platte I, Wottawa H (2006) Psychologische Theorien für Unternehmen.
Vandenhoeck & Ruprecht, Göttingen
Kulka H (Hrsg) (1988) Arbeitswissenschaften für Ingenieure. Fachbuchverlag, Leipzig
Landau K, Weißert-Horn M, Rademacher H, Brauchler R, Bruder, R, Sinn-Behrendt, A.
(2007) Altersmanagement als betriebliche Herausforderung. Ergonomia, Stuttgart
Lange-Andersen K, Masironi R, Rutenfranz J, Seliger V, Degré , Tryggi K, Orgim M
(1978) Habitual physical activity and health. WHO Regional Publications, European
Series No.6. World Health Organization, Regional Office for Europe, Kopenhagen
Laurig W (1990) Grundzüge der Ergonomie. Beuth, Berlin
Lehmann G (1962) Praktische Arbeitsphysiologie. Georg Thieme Verlag, Stuttgart.
Lehr U (1997) Demographischer Wandel. Forschung & Lehre 2:63–67
Lehr U (2003) Psychologie des Alterns (10.Aufl). Quelle & Meyer, Wiebelsheim
Lelgemann R (2000) Zur Bedeutung von Arbeit für Menschen mit sehr schweren
Körperbehinderungen. impulse (15/2000) http://bidok.uibk.ac.at/library/imp15-00-
koerper.html (Zugriff: 26.06.2009)
Leyendecker C (2005) Motorische Behinderungen. Grundlagen, Zusammenhänge und
Förderungsmöglichkeiten. Kohlhammer, Stuttgart
Arbeitsperson 215
Locke EA, Latham GP (2002) Building a Pratically Useful Theory of Goal Setting an Task
Motivation. A 35-Year Odyssey. American Psychologist 57:705–717
Locke J (1976) Über den menschlichen Verstand. Meiner, Hamburg
Luczak, H (1979), Arbeitswissenschaftliche Untersuchung von maximaler Arbeitsdauer
und Erholzeiten bei informatorisch-mentaler Arbeit nach dem Kanal- und Regler-
Mensch-Modell sowei superponierte Belastungen am Beispiel Hitzearbeit. VDI-
Verlag, Düsseldorf (VDI-Fortsch.-Ber. Reihe 10, Nr.6)
Luczak H (1982) Belastung, Beanspruchung und Erholzeit bei informatorisch-mentaler
Arbeit. Bundesanstalt für Arbeitsschutz und Unfallschutz, Forschungsbericht Nr. 306.
Wirtschaftsverlag NW, Dortmund
Luczak H (1983) Ermüdung. In: Rohmert W, Rutenfranz J (Hrsg) Praktische
Arbeitsphysiologie. Thieme Verlag, Stuttgart
Luczak H (1989) Wesen menschlicher Leistung. In: Brokman W (Hrsg) Arbeitsgestaltung
in Produktion und Verwaltung. Wirtschaftsverlag Bachem, Köln
Luczak H, Frenz M (2008) Kompetenz - Erwerb, Erhalt, Ausbau. In: Kowalski H (Hrsg)
Stärkung der persönlichen Gesundheitskompetenz im Betrieb - Bis 67 fit im Job. CW
Haarfeld, Köln, S 19–59
Luczak, H; Rohmert, W (1974), Erkenntnisse zum Problem der Skalierung sowie
Ausführbarkeit und Erträglichkeit informatorischer Arbeit. In: Rohmert, W (Hrsg):
Entwicklung und Erkenntnisse der Arbeitswissenschaft. Beuth-Vertrieb, Berlin, Köln,
Frankfurt, S 47-66
Luczak H, Stemann MC (2008) Ergonomic Design and Intervention Strategies in Health
Promotion for Ageing Workforces. In: Conrad H, Heindorf V, Waldenberger F (Hrsg)
Human Resource Management in Ageing Societies - Perspectives from Japan and
Germany. Palgrave Macmillan, Houndmills
Luczak H, Kabel T, Licht T (2006) Task Design and Motivation. In: Salvendy G (ed)
Handbook of human factors and ergonomics. 3rd edn. John Wiley & Sons, New Jersey,
pp 384-427
Luczak H, Schlick CM, Jochems N, Vetter S, Kausch B (2010) Touch Screens for the
Elderly. In: Festschrift in honor of Professor Gunilla Bradley (in press)
Luthe EW (2003) Bildungsrecht. De Gruyter Recht, Berlin
Maier-Lenz RJ, Lenk E (2005) Teilhabe am Arbeitsleben. In: Bundesarbeitsgemeinschaft
für Rehabilitation (Hrsg) Rehabilitation und Teilhabe. Deutscher Ärzte-Verlag, Köln:
110–117
Martin M, Zehnder F, Zimprich D (2008) Kognitive Entwicklung im mittleren Lebensalter.
Wegge J Frieling E Schmidt KH (Hrsg) Alter und Arbeit. Wirtschaftspsychologie 10:
6–17
Maslow AH (1954) Motivation and personality. Harper, New York
McClelland DC (1985) Human Motivation. Scott, Foresman, Glenview
McClelland DC, Boyatzis RE (1982) Leadership motive pattern and long-term success in
management. Journal of Applied Psychology 67:737-743
Meuser M, Neusüß C (2004) Gender Mainstreaming. Konzepte - Handlungsfelder -
Instrumente. Schriftenreihe der Bundeszentrale für Politische Bildung Nr. 418, Bonn
Meyer B, Sit RA, Spaulding VA, Mead SE, Walker N (1997) Age group differences in
world wide web navigation. CHI ’97 extended abstracts on Human factors in
computing systems: looking to the future, ACM
Michels C (2002) Zur Arbeitszufriedenheit von Beschäftigten einer Werkstatt für
behinderte Menschen. In: Heinen N, Tönnihsen G (Hrsg) Rehabilitation und
Rentabilität. Gata, Eitorf, S 203–240
216 Arbeitswissenschaft
Monk TH, Embrey DE (1981) A field study of circadian rhythms in actual and interpolated
task performance. In: Reinberg A, Vieux N, Andlauer P (Eds) Night and shift work:
Biological and social aspects. Pergamon, Oxford
Nagel E (2007) Das Gesundheitswesen in Deutschland. Deutscher Ärzte, Köln
Nerdinger FW (2006) Motivierung. In: Schuler H (Hrsg) Handbuch Personalpsychologie,
2. Aufl. Hogrefe, Göttingen, S 385-407
Nerdinger FW, Blickle G, Schaper N (2008) Arbeits- und Organisationspsychologie.
Springer Medizin Verlag, Heidelberg
Neubauer A (1995) Intelligenz und Geschwindigkeit der Informationsverarbeitung.
Springer, Wien, New York
Neuberger O, Allerbeck M (1974) Messungen und Analyse von Arbeitszufriedenheit.
Kohlhammer, Bern, Stuttgart, Wien
Neuberger O, Allerbeck M (1978) Messung und Analyse von Arbeitszufriedenheit:
Erfahrungen mit dem "Arbeitsbeschreibungsbogen (ABB)". Schriften zur
Arbeitspsychologie 26. Huber, Bern
Neuhäuser G, Steinhausen HC (2003) Geistige Behinderung. Grundlagen, klinische
Syndrome, Behandlung und Rehabilitation. Kohlhammer, Stuttgart
Nowak D (2006) Arbeitsmedizin zum Lernzielkatalog nach der neuen
Approbationsordnung. Elsevier, Urban u Fischer, München
O´Sullivan LW, Gallwey TJ (2002) Effects of gender and reach distance on risks of
musculoskeletal injuries in an assembly task. International Journal of Industrial
Ergonomics 29:61–71
Owsley C, Sekuler R, Siemsen D (1983) Contrast sensitivity throughout adulthood. Vision
Research 23:689–699
Palincsar AS (1998) Social Constructivist Perspectives on Teaching and Learning. Annual
Review of Psychology 49:345–375
Pervin, L A, Cervone D, John OP (2005) Persönlichkeitstheorien. Ernst Reinhardt Verlag,
München, Basel
Plath HE, Richter P (1978) Der BMS (I) Erfassungsbogen - Ein Verfahren zur skalierten
Erfassung erlebter Beanspruchungsfolgen. Probleme und Ergebnisse der Psychologie,
65:45–85
Plude DJ, Doussard-Roosevelt JA (1989) Aging, selective attention, and feature integration.
Psychology and Aging 4:98–105
Puls W, Mümken S (2008) Zum Einfluss der Arbeitsplatzunsicherheit auf den Alkohol-,
Tabak- und Medikamentenkonsum. Stand der internationalen Forschung. In: Henkel
D, Zemlin U (Hrsg) Arbeitslosigkeit und Sucht. Fachhochschulverlag/Verlag für
angewandte Wissenschaften, Frankfurt am Main, S 70–90
REFA-Verband (1991) (Hrsg) Methodenlehre der Betriebsorganisation. Arbeitspädagogik,
München
Rentsch HP, Bucher PO (2006) ICF in der Rehabilitation. Schulz-Kirchner Verlag, Idstein
Resch M (2007) Familienfreundlichkeit von Unternehmen aus arbeitspsychologischer
Sicht. In: Dilger, A. Gerlach, I. Schneider, H. (Hrsg) Betriebliche Familienpolitik.
Verl. für Sozialwiss., Wiesbaden, S 103-124
Rhodes SR (1983) Age-related differences in work attitudes and behavior. A review and
conceptual analysis. Psych Bull 93:328-367
Rohmert, W (1962) Untersuchungen über Muskelermüdung und Arbeitsgestaltung. Beuth-
Vertrieb, Berlin
Rohmert W (1973) Physische Beanspruchung. In: Schmidke H (Hrsg) Ergonomie 1,
Hanser, München
Rohmert W (1983) Wirkungsgrad menschlicher Arbeit. In: Rohmert W, Rutenfranz J
(Hrsg) Praktische Arbeitsphysiologie. 3. Neubearbeitete Aufl. Thieme, Stuttgart
Arbeitsperson 217
Schmidt RF, Schaible HG (2000) Neuro- und Sinnesphysiologie. 5. Aufl, Springer, Berlin,
Heidelberg, New York
Schmidtke H (1965) Die Ermüdung, Symptome-Theorien-Messversuche. Verlag Hans
Huber, Bern, Stuttgart
Schmidtke H (1969) Untersuchungen zum Problemkreis der geistigen Ermüdung. In:
Kommission der Europäischen Gemeinschaft, Generaldirektion soziale
Angelegenheiten (Hrsg) Geistige Arbeit und Automatisierung. Studie Nr.6,
Studienreihe Arbeitsphysiologie und Arbeitspsychologie. Luxemburg
Schmidtke H (1981) Lehrbuch der Ergonomie. Hanser, München, Wien
Schmidtke H (1993) Ergonomie, 3.Aufl. Carl-Hanser Verlag, München, Wien
Schneider K, Schmalt HD (2000) Motivation, 3. Aufl. Kohlhammer, Stuttgart
Schneider N, Wilkes J, Grandt M, Schlick C (2008) Investigation of input devices for the
agedifferentiated design of humancomputer interaction. Proceedings of the Human
Factors and Ergonomics Society, 52:144–148
Schober FW (1952) Über die Abhängigkeit der oberen Hörgrenze vom Lebensalter.
Akustische Beih, Zürich, 219
Schuler H, Prochaska M, Frintrup A (2001) LMI. Leistungsmotivationsinventar.
Dimensionen berufsbezogener Leistungsorientierung. Hogrefe, Göttingen
Schulte C (2005) Arbeitszufriedenheit über die Lebensspanne. Pabst Science Publishers
Verlag, Lengerich
Sears A, Young M, Feng J (2008) Physical Disabilities and Computing Technologies. An
Analysis of Impairments. In: Sears A, Jacko JA (eds) The Human Computer
Interaction Handbook. CRC Press, pp 829–852
Seliger V, Bartunek Z (1976) Mean Values of Various Indices of Physical Fitness in the
Investigation of Czechoslovak Population Aged 12-55 Years. Czechoslovak
Association of Physical Culture. CSTV, Praha
Shephard R (2000) Aging and productivity. some physiological issues. Int J Ind Ergon 25:
535–545
Sherman JA (1971) On the Psychology of Women. Springfield (IL)
Silverstein M (2008) Meeting the Challenges of an Aging Workforce. Am J Ind Med 51:
269–280
Simonson RR (1935) Piedmontite from Los Angeles County, California. Amer Mineral 20:
737–738
Six B, Felfe J (2004) Einstellungen und Werthaltungen im organisationalen Kontext. In:
Schuler H (Hrsg) Enzyklopädie der Psychologie, Bd Organisationspsychologie -
Grundlagen und Personalpsychologie. Hogrefe, Göttingen, S 596–672
Small AM (1987) Design for Older People. In: Salvendy G (Ed) Handbook of Human
Factors. John Wiley & Sons, New York, pp 495–504
Somberg B, Salthouse TA (1982) Divided attention abilities in young and old adults.
Journal of Experimental Psychology 8:651–665
Sonntag K, Schaper N (1999) Förderung beruflicher Handlungskompetenz. In: Sonntag K
(Hrsg) Personalentwicklung in Organisationen. Hogrefe, Göttingen, S 211–244
Soyka M (2004) Psychische und soziale Folgen chronischen Alkoholismusses. In: Tölle R,
Doppelfeld E (Hrsg) Alkoholismus. Deutscher Ärzte-Verlag, Köln, S 148–158
Spearman C (1927) The Abilities of Man. Their nature and measurement AMS Press,
London, New York
Springer J, Siebes C (1996) Position controlled input device for handicapped. Experimental
studies with a footmouse. In: International Journal of Industrial Ergonomics,
Amsterdam, 17/2:135–152
Arbeitsperson 219
Srivastava S, John OP, Gosling SD, Potter J (2003) Development of personality in early
and middle adulthood. Set like plaster or persistent change? Journal of Personality and
Social Psychology 84:1041–1053
Staehle WH (1999) Management: eine verhaltenswissenschaftliche Perspektive, 8.Aufl.
Vahlen, München
Statistisches Bundesamt (Hrsg) (2006a) Im Blickpunkt – Frauen in Deutschland 2006.
Statistisches Bundesamt, Wiesbaden
Statistisches Bundesamt (Hrsg) (2006b). Leben und Arbeiten in Deutschland. Sonderheft 2:
Vereinbarkeit von Familie und Beruf. Ergebnisse des Mikrozensus 2005. Statistisches
Bundesamt, Wiesbaden
Statistisches Bundesamt (2006c) Strukturdaten zur Migration in Deutschland 2004. Statisti-
sches Bundesamt, Wiesbaden
Statistisches Bundesamt (Hrsg) (2006d) Datenreport 2006 - Zahlen und Fakten über die
Bundesrepublik Deutschland. (In Zusammenarbeit WZB und ZUMA.) Bundeszentrale
für politische Bildung, Schriftenreihe Bd 544, Bonn
Statistisches Bundesamt (2006e) Bevölkerung Deutschlands bis 2050 - 11. koordinierte
Bevölkerungsvorausberechnung. Statistisches Bundesamt, Wiesbaden
Statistisches Bundesamt (Hrsg) (2008) Nachhaltige Entwicklung in Deutschland -
Indikatorenbericht 2008. Statistisches Bundesamt, Wiesbaden
Statistisches Bundesamt (2009) Statistik der schwerbehinderten Menschen. Statistisches
Bundesamt, Wiesbaden
Steinmayr R, Amelang M (2007) Intelligenz und Intelligenztest. In: Landau K (Hrsg)
Lexikon Arbeitsgestaltung. Gentner-Verlag, Stuttgart, S 693–695
Stern W (1912) Die psychologischen Methoden der Intelligenzprüfung und deren
Anwendung an Schulkindern. 5. Kongress der experimentellen Psychologie, Barth,
Leipzig
Sternberg RJ, Kaufman, JC (1998) Human abilities. Annual Review of Psychology 49:
479–502
Stiegler B (2000) Wie Gender in den Mainstream kommt: Konzepte, Argumente und
Praxisbeispiele zur EU-Strategie des Gender Mainstreaming. Friedrich-Ebert-Stiftung,
Bonn
Stumpf S (2006) Interkulturalität in der Personal-, Team- und Organisationsentwicklung.
Gruppendynamik und Organisationsberatung 37/1:33–49
Szadkowski D (1983) Lärm. In: Rohmert W, Rutenfranz J (Hrsg) Praktische
Arbeitsphysiologie. Georg Thieme Verlag, Stuttgart, S 266–285
Terman LM (1916) The measurement of intelligence. Houghton-Mifflin, Boston
Terman LM, Merrill MA (1937) Measuring Intelligence. Houghton Mifflin, Boston
Thurstone LL (1938) Primary Mental Abilities. Chicago
Tucci C (2008) Lebenssituation von Migranten und deren Nachkommen in Deutschland. In:
Statistisches Bundesamt, GESIS-ZUMA, WZB (Hrsg) Datenreport 2008 - Ein
Sozialbericht für die Bundesrepublik Deutschland. Bundeszentrale für politische
Bildung, Bonn, S 200-207
Ulich E (1994) Arbeitspsychologie, 3.Aufl. Zürich
Ulich E (2005) Arbeitspsychologie, 6.Aufl. Schäffer-Poeschel, Stuttgart
Vancouver JB, Day DV (2005) Industrial and organisational research on self-regulation:
From constructs to applications. In: Applied Psychology: An International Review,
54:155-185
Vedder G (2005) Diversity Management - Quo vadis?. Personal 5/2005:20–22
Vercruyssen M (1996) Movement control and speed of bahaviour. In: Fisk AD, Rogers WA
(Hrsg) Handbook of Human Factors and the Older Adult. Academic Press, San Diego,
S 55-86
220 Arbeitswissenschaft
Durch Typenbildung realer Arbeitssysteme und Tätigkeiten wird die enorme Viel-
falt menschlicher Arbeit geordnet und dadurch Komplexität reduziert. Basis der
Typenbildung sind sowohl organismische Segmente oder Funktionen als auch
vorwiegende Aufgaben- oder Leistungsarten. Dies bedeutet, dass Arbeitsformen
nach dem Prinzip eines aussagefähigen minimalen Satzes von Mess-, Bewertungs-
und Beurteilungsgrößen zusammengefasst werden. Die wohl geläufigste Glie-
derung von Arbeitsformen ist die Unterscheidung von geistiger und körperlicher
Arbeit, auch Kopf- und Handarbeit genannt. Üblicherweise ist damit das Über-
wiegen einer der beiden Aspekte gemeint, da in realen Arbeitstätigkeiten weder
nur geistige Tätigkeiten noch körperliche Arbeit ohne zumindest elementare geis-
tige Prozesse anzutreffen sind. Zwar ist über einen gewissen Zeitraum eine rein
geistige Tätigkeit (z.B. Planen) möglich, jedoch mündet diese entweder in eine
Ausführung der zuvor gedanklich durchgespielten Tätigkeit oder das Ergebnis der
gedanklichen Beschäftigung wird in irgendeiner Weise (beispielsweise durch
Sprechen, Schreiben oder Gestik) weitergegeben, was üblicherweise ebenfalls mit
körperlichen (muskulären) Aktivitäten verbunden ist. Umgekehrt erfordern auch
primär körperliche Arbeiten, wie beispielsweise das Tragen schwerer Werkstücke,
mindestens rudimentäre geistige Aktivitäten, wie etwa das geistige Präsenthalten
der Aufgabenstellung.
In der Arbeitswissenschaft werden die idealtypischen Extremformen menschli-
cher Arbeit als informatorische und energetische Arbeit, als reiner Informations-
bzw. Energieumsatz, bezeichnet. In Arbeitssystembetrachtungen wird neben In-
formations- und Energieumsatz auch noch ein Stoffumsatz unterschieden. Die
dem Menschen im Rahmen seines Stoffwechsels verfügbaren Möglichkeiten des
Stoffumsatzes werden jedoch üblicherweise nicht in Arbeitstätigkeiten genutzt.
Ein Beispiel für eine solche Nutzung wäre das Aufschließen von Stärke bei der
Bierproduktion durch Einspeicheln, wie es bei einzelnen Naturvölkern anzutreffen
ist. Der menschliche Beitrag zum Energiefluss beschränkt sich in der Regel auf
die Abgabe mechanischer Energie, obgleich andere Energieformen denkbar wä-
ren, etwa das Erzeugen von Prozesswärme, beispielsweise das Schmelzen von Eis
durch Körperwärme. Tabelle 3.1 zeigt fünf Mischformen der idealtypischen Ext-
remformen, die sich nach dem oben genannten Prinzip des aussagefähigen mini-
malen Satzes von Mess-, Bewertungs- und Beurteilungsgrößen bilden lassen.
224 Arbeitswissenschaft
Energetisch-effektorischer Anteil
Der energetische Anteil von Arbeitstätigkeiten beinhaltet üblicherweise die Inan-
spruchnahme der Skelettmuskulatur, so dass Kräfte erzeugt und Bewegungen
ausgeführt werden können. Daher wird auch von energetisch-effektorischer Arbeit
gesprochen. Die Arbeitsmöglichkeiten eines Muskels lassen sich nach zwei
Grundformen (Abb. 3.1) unterscheiden:
x Die sog. statische Muskelarbeit, bei der lediglich einer einzuwirkenden Kraft
(z.B. gehobene Last, Eigengewicht von Gliedmaßen) das Gleichgewicht ge-
halten wird (isometrische Kontraktion). Da keine Bewegung vorliegt, wird
dabei im physikalischen Sinn keine Arbeit geleistet. Physikalisch entspricht
Arbeit dem Skalarprodukt aus Kraft und Weg. Unter physiologischen Ge-
sichtspunkten würde sich das Produkt aus Kraft und Zeit besser als Arbeits-
maß eignen (ROHMERT 1983a).
Arbeitsformen 225
x Die sog. dynamische Muskelarbeit, bei der sich einzelne Muskeln abwech-
selnd anspannen und wieder entspannen und physikalische Arbeit (z.B. He-
ben einer Last, Drehen einer Kurbel) geleistet wird (abwechselnde isotoni-
sche Kontraktion).
sit sat
sim
sr F
kim<kkr kit<kkr F kat<kkr
sim+kim=sr+kr F sit=sr sat<sr
Abb. 3.1: Schematische Darstellung zu statischer und dynamischer Muskelarbeit (in An-
lehnung an SILBERNAGEL u. DESPOPOULOS 1983) (k: Länge des kontraktilen Mus-
kelanteils, s: Länge des serienelastischen Muskelanteils)
Informatorischer Anteil
Angesichts der Vielfalt der Ausprägungen vorwiegend nicht-körperlicher Arbeits-
formen ist es bis heute nicht gelungen, eine der Muskelarbeit ähnliche logisch-
stringente Untergliederung auf hohem Abstraktionsgrad zu schaffen. Vielverspre-
chende Gliederungsansätze stützen sich auf komplexitätstheoretische Maße aus
der Grundlagenforschung (GRASSBERGER 1986; BIALEK et al. 2001), die den
Informationsfluss zwischen Vergangenheit und Zukunft eines Arbeitsprozesses zu
beschreiben vermögen (siehe SCHLICK et al. 2006, 2007, 2009), jedoch noch weite-
ren theoretischen und experimentellen Validierungen unterzogen werden müssen,
um eine wissenschaftlich hinreichende Typenbildung zu ermöglichen.
Unter Einbeziehung von Überlegungen bezüglich der Beobachtbarkeit und
Messbarkeit von Zustandsgrößen wird daher der klassische psychophysiologische
Arbeitsformen 227
Ansatz der Gliederung nicht-körperlicher Arbeit verwendet, der drei Phasen unter-
scheidet:
x Die frühen Prozesse der Informationsaufnahme, welche das Entdecken und
Wahrnehmen eines Reizes mittels der Rezeptoren (Sinnesorgane) einschließ-
lich der Vorverarbeitung zum Gegenstand haben (Kap. 3.3.2.1).
x Die zentralen Prozesse der Informationsverarbeitung, welche das Erkennen
der Signalbedeutung, Identifizieren der wesentlichen Merkmale und Ent-
scheiden zwischen Handlungsalternativen beinhalten sowie die Verknüpfung
mit Gedächtnisinhalten sicherstellen (Kap. 3.3.2.2).
x Die späten Prozesse der Reaktion durch motorische Regulation und Informa-
tionsabgabe, beispielsweise durch Sprache, Gesten oder weitere Handlungen
(Kap. 3.3.2.3).
Darauf aufbauend lässt sich die in Tabelle 3.1 eingeführte Typenbildung hin-
sichtlich der dazu nötigen Verarbeitungsressourcen weiter verfeinern (Abb. 3.2):
x Liegt der Schwerpunkt bzw. Engpass der Arbeit in der Informationsaufnah-
me, sind also vor allem die Rezeptoren beansprucht, handelt es sich um sog.
sensorische Arbeit. Weitere Differenzierungen sind nach der Art (visuell, au-
ditiv, taktil, olfaktorisch, propriozeptiv) der involvierten Rezeptoren mög-
lich. Begrenzender Faktor ist die (von Alter, Ermüdungszustand etc. abhän-
gige) Empfindlichkeit der Sinnesorgane und die Filterfunktionalität der da-
mit verbundenen Vorverarbeitungsprozesse.
x Steht das Erkennen im Vordergrund, so handelt es sich um
diskriminatorische Arbeit. Beim Erkennen geht es um das Extrahieren im
Hinblick auf die Vorhersage wesentlicher Eigenschaften eines Signals und
die symbolische Verdichtung dieses Signals zu einem Begriff oder Sachver-
halt, beispielsweise die Verknüpfung von Liniensegmenten zu einem opti-
schen Warnzeichen oder eines Geräusches zum Vorliegen eines Motorscha-
dens. Das Leistungsspektrum wird unter anderem dadurch begrenzt, wie vie-
le unterschiedliche Ausprägungen eines Reizes (z.B. Tonhöhe, Lautstärke,
Helligkeit) identifiziert und unterschieden werden können und welcher mi-
nimale Kontrast erforderlich ist.
x Das Entscheiden ist das primäre Kennzeichen kombinatorischer Arbeit. Dem
identifizierten Signal und seinen symbolischen Repräsentationsformen muss
aus einem verfügbaren Handlungsrepertoire eine adäquate Reaktion zuge-
ordnet werden.
x Werden solche Handlungsmöglichkeiten erst generiert, d.h. besteht ein we-
sentlicher Teil der Arbeit darin, auf Basis bereits bestehender oder latenter
Information neue Symbolstrukturen sowie raum-zeitliche Korrelationen zwi-
schen Symbolen zu erzeugen und damit offene Problemstellungen zu lösen,
so handelt es sich um kreative Arbeit.
x Signalisatorisch-motorische Arbeit beinhaltet im Wesentlichen die Informa-
tionsabgabe. Diese kann in Form gesprochener oder geschriebener Sprache,
228 Arbeitswissenschaft
motorische
Sensu-
Arbeit
Signal Reaktion
Kreative Arbeit
3.2 Energetisch-effektorisch
Statische Arbeit
Im Unterschied zur mechanischen Betrachtung der äußeren Situation müssen die
Muskeln jedoch auch bei unbewegtem Körper (d.h. ohne Erzeugung physikali-
scher Arbeit) zur Erhaltung der Körperposition angespannt werden. Die besondere
Bedeutung statischer Arbeitsformen liegt darin, dass diese energetisch besonders
unwirtschaftlich sind, da die aufgrund der fehlenden Bewegung unzureichende
Muskeldurchblutung zu einer viel schnelleren Muskelermüdung und letztere wie-
derum zu einer gesteigerten Kreislaufaktivität führt.
Eine solchermaßen statische Muskelbelastung entsteht bei
x statischer Haltungsarbeit, bei der lediglich bestimmte Gelenk- oder Körper-
stellungen fixiert werden (Beispiel: Gebeugte Körperhaltung bei klinischen
Operationen, Verkehrsregelung per Hand, Montage abgehängter Decken),
x statischer Haltearbeit, bei der zur Körperstellung zusätzlich eine Last fixiert
wird (Beispiel: Das Halten von Deckenplatten bei Ausbauarbeiten, das Hal-
ten eines Handwerkzeuges: Bohrmaschine / Winkelschleifers etc.) sowie
x statischer Kontraktionsarbeit, die das Aufbringen einer nicht konstanten
Kraft beschreibt, ohne dass eine Bewegung vorliegt (Beispiel: Betätigen ei-
ner Bandbremse zum Steuern einer Maschinendrehzahl oder das Ansetzen
einer elektrischen Handbohrmaschine und Bohren eines Sacklochs).
Bei der statischen Arbeit und der dadurch im Muskel auftretenden Daueran-
spannung kann der Muskelstoffwechsel durch hohe Muskelinnendrücke, die über
dem des Kapillardrucks liegen, nicht mehr ausreichend gewährleistet werden
(Abb. 3.3).
232 Arbeitswissenschaft
Dynamische Statische
Ruhe
Arbeit Arbeit
Abb. 3.3: Blutversorgung und Blutbedarf statisch und dynamisch arbeitender Muskeln
(schematisch, nach LEHMANN 1962)
Abb. 3.4: Maximale Ausdauer in Abhängigkeit von der statisch ausgeübten Muskelkraft
(ROHMERT 1960)
3.2.4 Muskelsystem
Die Muskulatur des Bewegungsapparates besteht aus quergestreifter Muskulatur,
die sich u.a. durch eine hohe Kontraktionsgeschwindigkeit auszeichnet und die,
abgesehen von der Gesichtsmuskulatur, vom Rückenmark aus aktiviert wird. Da-
rüber hinaus gibt es die vegetativ gesteuerte und relativ träge „glatte Muskulatur“
bei den inneren Organen des Körpers und die Herzmuskulatur als spezifische
Form der quergestreiften Muskulatur
3.2.4.1 MuskelanatomieĆ
Anatomisch besteht der Muskel aus einer Vielzahl von Muskelfasern, die bei
einem Durchmesser von 0,01 bis 0,1 mm noch mit bloßem Auge zu erkennen sind
(Abb. 3.5). Ihre Länge kann bis zu 30 cm betragen und geht an beiden Enden in
die Sehnen über. Die eigentlichen Träger der muskulären Funktion, die kontrakti-
len Elemente, bestehen aus länglich angeordneten Fadenbündeln, wobei zwei
234 Arbeitswissenschaft
3.2.4.2 MuskelerregungĆ
Die Innervierung der Muskelzellen erfolgt synaptisch über so genannte motorische
Endplatten, die mit den zuständigen Motoneuronen im Rückenmark verbunden
sind. Auf diese Weise werden mehrere gleichzeitig aktivierte Muskelfasern (beim
Bewegungsapparat zwischen 10 und 1000) zu einer „motorischen Einheit" zu-
sammengeschaltet. Über vom Motoneuron mittels Nervenleitungen an die motori-
sche Endplatte übertragene elektrische Impulse (Aktionspotentiale), die sich rege-
nerativ entlang der Muskelfaser ausbreiten, werden Depolarisationsimpulse der
Muskelzellmembran ausgelöst und bewirken damit eine Einzelzuckung in den
Muskelfasern der motorischen Einheit von etwa 35-70 ms Dauer.
Von Bedeutung ist hierbei, dass jedes ausreichend große Aktionspotential zu
einer kurzen Kontraktion führt, wobei weder deren Dauer noch deren Stärke modi-
fiziert werden kann. Die mittlere Kontraktionsstärke einer einzelnen motorischen
Einheit lässt sich durch die Entladungsrate des Motoneurons (5-20, max. 50 Hz)
nur in sehr begrenztem Maße steuern. Eine genaue Abstufung der Gesamtspan-
nung des Muskels wird deshalb durch die kontrollierte Aktivierung verschiedener
(und verschieden großer) motorischer Einheiten ergänzt („Rekrutierung"). Eine
schwache Muskelkontraktion wird typischerweise durch Motoneurone kontrol-
liert, die zu kleineren motorischen Einheiten gehören, eine zunehmend stärkere
Kontraktion wird dann durch das Hinzuschalten von mehr und größeren motori-
schen Einheiten erreicht. Innerhalb des Gesamtmuskels arbeiten die einzelnen
motorischen Einheiten (bei nicht zu hohen Aktivierungsgraden) asynchron und
bewirken damit in der Summe einen geglätteten Kraftverlauf (DELUCA et al.
1982). Ab ca. 60% der Maximalkraft ist dann eine zunehmende Synchronisation
der motorischen Einheiten zu verzeichnen, die zu einer – auch im Alltag leicht zu
beobachtenden – unruhigeren Kraftentwicklung führt.
Für die verschiedenen Muskelgruppen ist der prinzipielle Ablauf zwar ähnlich,
jedoch sind die beteiligten Mechanismen entsprechend ihren Aufgaben unter-
schiedlich ausgeprägt. So findet man bei den Muskeln der oberen Extremitäten
eine relativ größere Zahl motorischer Einheiten mit verhältnismäßig wenigen
Muskelfasern pro motorische Einheit. Des Weiteren sind in den für die Motorik-
steuerung zuständigen Zentren überproportional mehr Areale für die oberen Ext-
remitäten als für die Beine vorgesehen. Das Hand-Arm-System kann daher we-
sentlich gezielter und feinfühliger angesteuert werden (siehe Kap. 3.3.2.3.1.1).
3.2.4.3 MuskelenergetikĆ
Kreatinphosphatzerfall
ATP - Zerfall
%]
Oxidation
ebereitsttellung [%
100
Glykolyse
75
er Energie
50
Anteil de
25
0
0 10 20 30 40 50 60 70 80 90 100
Belastungsdauer [s]
Abb. 3.6: Zeitgang der energieliefernden Prozesse zu Beginn einer leichten Arbeit (KEUL
et al. 1969)
Die Resynthetisierung des ATP, das in den muskeleigenen Vorräten nur für
wenige Zuckungen reicht, erfolgt in den Muskeln selbst durch die Spaltung von
Kreatinphosphat (ebenfalls anaerob). Ist auch dieser Speicher nach etwa 100 Zu-
ckungen erschöpft, wird die zur ATP-Resynthese erforderliche Energie durch den
Abbau von Glukose bereitgestellt. Dieser erfolgt bei ausreichender Sauerstoff-
zufuhr aerob zu Kohlendioxid und Wasser. Liegt der ATP-Verbrauch über der
aeroben Glukoseabbaukapazität, kann kurzfristig Glykogen auch anaerob abge-
baut werden. Dies ermöglicht eine zwei bis dreimal so schnelle ATP-
Spaltungsrate wie im Fall einer aerob erbrachten Dauerleistung. Allerdings kann
diese hohe Rate (und damit die mechanische Leistung) nur für kurze Zeit erbracht
werden, weil die anaerob verfügbaren Energiereserven beschränkt sind und weil
sich in der Zellflüssigkeit und im Blut Milchsäure anhäuft, die schließlich zur
metabolischen Acidose und damit zur Muskelermüdung führt. Solche anaerob
energieliefernden Prozesse sind darüber hinaus oft zu Beginn einer - auch unter-
halb der Dauerleistungsgrenze liegenden - Muskeltätigkeit nötig, weil die Anpas-
sung der aeroben ATP-Bildung an den erhöhten Tätigkeitsstoffwechsel eine ge-
wisse Anlaufzeit (1-2 min) benötigt (Abb. 3.6). Das Wiederauffüllen der anaero-
ben Energiespeicher nach Beendigung der Muskelarbeit erfolgt wiederum durch
Oxydation, so dass in der Ruhephase noch für eine gewisse Zeit ein erhöhter Sau-
erstoffbedarf zur Rekonstitution, d.h. Erholung, besteht.
Arbeitsformen 237
Die Maximalkraft eines Muskels hängt von seinem Querschnitt ab, wobei von
einem relativ konstanten Verhältnis im Bereich von 0,6 N/mm2 auszugehen ist.
Hierbei ist jedoch die mechanische Übersetzungswirkung durch den Lastarm
(Knochen) zu berücksichtigen, über den die Kraft zugunsten des Weges um ein
Vielfaches reduziert wird.
Der gesamte Wirkungsgrad eines Muskels liegt bei 20-30%, unter günstigen
Umständen bis 35% (der der elementaren Energietransformation beträgt 40-50%,
der Rest wird für energieverzehrende Prozesse zur ATP-Generierung benötigt).
Der Anteil der Muskeln am gesamten Körpergewicht beträgt bei Frauen etwa 25-
30% und bei Männern 40-50%.
3.2.5.1 MuskuläreĆArbeitsformenĆ
Der biomechanische Zustand eines aktiven Muskels ist durch zwei unabhängige
Zustandsgrößen bestimmt, nämlich durch seine Länge und durch seine momentan
erzeugte Kraft (ROHMERT u. JENIK 1973). Je nach Beschaffenheit dieser Größen
können verschiedene Arbeitsformen unterschieden werden (Abb. 3.7).
Kontraktionsart Beispiele:Ć
StatischeĆ HaltenĆeinesĆAuspuffsĆĆ
Statische Arbeit
HaltearbeitĆ beiĆderĆMontageĆ
KraftĆ
Ć Ć
konstantĆ
Muskel-Ć StatischeĆ GebeugteĆKörperhaltungĆ
IsometrischĆ längeĆ HaltungsarbeitĆ beiĆklinischenĆOperationenĆĆ
Ć konstantĆ Ć Ć
Ć Ć KraftĆver-Ć Kontraktions-Ć AndrückenĆeinerĆ
Ć Ć änderlich arbeit BohrmaschineĆ
Ć Ć Ć
Ć Ć Ć
Ć KraftĆkonstant,Ć Ć
IsotonischĆ MuskellängeĆ VerschiebenĆeinesĆ
Dynamische Arbeit
Ć veränderlichĆ GegenstandesĆ
Ć Ć Ć
Ć Ć Ć
Ć Ć Ć
Ć MuskellängeĆĆ Ć
AuxotonischĆ undĆKraftĆ BetätigenĆeinerĆPresse
Ć veränderlichĆ
Ć
Jede Muskelanspannung die mit einer Längenänderung einhergeht, wird als dy-
namische Muskelarbeit bezeichnet. Die häufigste in der Praxis zu findende dyna-
mische Arbeitsform ist die der auxotonischen Kontraktion, bei der sich die Mus-
kelkraft mit der Muskellänge ändert. Im Unterschied dazu bleibt bei einer isotoni-
schen Kontraktion die Kraft während der Bewegung konstant. Die erzeugte Kraft
und die Bewegung müssen im Übrigen nicht gleich gerichtet sein; bei Angriff
238 Arbeitswissenschaft
einer äußeren Kraft, die größer ist als die erzeugte, dehnt sich der Muskel trotz
einer erzeugten Zugkraft (negativ dynamische Muskelarbeit).
Bei einer isometrischen Kontraktion bleibt die Muskellänge unverändert, d.h.
es liegt keine Bewegung vor (statische Muskelarbeit). Dies schließt jedoch eine
Variation der Kraft nicht aus. Wie die Beispiele in Abb. 3.7 zeigen, findet sich
diese Arbeitsform – ohne Bewegung – dennoch sehr häufig.
Obwohl dabei nach außen keine Energie abgegeben wird, sind die Myosinköpfe
in dauernder „Rudertätigkeit" und leisten so eine erhebliche innere Haltearbeit.
Aus muskulärer Sicht ist es dabei also nahezu gleichgültig, ob die entwickelte
Kraft in Bewegungsenergie umgesetzt wird oder nicht. Im Unterschied zur skala-
ren physikalischen Definition der Arbeit
Arbeit= Kraft · Weg
muss eine physiologische Begriffsbestimmung der Arbeit demzufolge lauten
(ROHMERT 1960)
Arbeit= Kraft · Zeit .
Im Übrigen wird bei statischer Arbeit – entsprechend dem 1. Hauptsatz der
Thermodynamik – die gesamte umgesetzte chemische Energie in Wärme umge-
wandelt, weswegen eine solche Arbeitsform mit einer beträchtlichen Wärmeent-
wicklung einhergeht.
Ein weiterer Unterschied zu dynamischen Arbeitsformen ist, dass bei letzteren
durch den ständigen Wechsel zwischen Anspannung und Erschlaffung eine
Pumpwirkung im Muskel selbst entsteht, die den notwendigen Stoffwechsel wirk-
sam unterstützt und dafür sorgt, dass der Muskel relativ lange ohne Ermüdungser-
scheinungen arbeiten kann.
Obwohl Kraft und Länge des Muskels nach außen unabhängige Zustandsgrö-
ßen beschreiben, so besteht dennoch ein innerer – muskelphysiologischer – Zu-
sammenhang.
Eine der Kraft entgegengesetzte Wirkung entsteht bei sehr großer Muskellänge
allerdings durch die Dehnungskraft des Muskels. Bei sehr kleiner Muskellänge
behindern sich dann die Actin- und Myosinfilamente, darüber hinaus wird die
elektrische Erregung der Muskelfasern zunehmend gestört, woraus ebenfalls eine
nachlassende Muskelkraft resultiert.
Bei mittlerer Muskellänge kann folglich die größte Muskelkraft erzeugt wer-
den, bei zunehmender oder abnehmender Muskellänge sinkt die Kraft dann ab
(Abb. 3.8). Da sich der geschilderte Mechanismus unmittelbar auf die Krafterzeu-
gung bezieht, gilt die Gesetzmäßigkeit der muskellängenabhängigen Erregungs-
Kraft-Umsetzung auch bei submaximalen Kräften.
Bei dynamischer Arbeitsform des Muskels spielt neben den unvermeidlichen
Massenträgheitsmomenten auch der Gleitprozess der Actin- und Myosinfilamente
im Muskel eine wichtige Rolle.
Da hierfür – analog zu einer inneren Reibung – ein geschwindigkeitsabhängiger
Teil der Gesamtkraft aufgebraucht wird, sinkt die maximal nach außen abgegebe-
Arbeitsformen 239
Abb. 3.8: Abhängigkeit der mittleren Armbeugekraft von der Winkelstellung des Ellenbo-
gengelenks (ROHMERT 1962)
Abb. 3.9: Beziehung zwischen Kraft und Kontraktionsgeschwindigkeit mit daraus errech-
neter Abgabeleistung (Daten aus WILKIE 1950)
240 Arbeitswissenschaft
Hiermit erklärt sich die alltägliche Erfahrung, dass wir sehr schnelle Be-
wegungen nur bei geringer Kraftaufwendung ausführen können (wenn die Mus-
keln entspannt sind) und dass umgekehrt schwere Gegenstände nur sehr langsam
gehoben oder bewegt werden können. Interessanterweise folgt daraus auch, dass
bei isometrischer Kontraktion (statischer Muskelarbeit) – trotz der schnellen Mus-
kelermüdung – die größten Kräfte erzeugt werden können.
3.2.5.2 UmsetzungĆderĆMuskelkraftĆ
Im einfachsten Fall ist ein Muskel spindelförmig mit einem Muskelbauch in der
Mitte und je einen Sehnenansatz an den beiden Enden. Diese sind wiederum mit
dem Knochengerüst verbunden, wobei zwischen den beiden Enden ein Gelenk
liegt (Abb. 3.10).
Ein Muskel leistet Arbeit, indem er sich (ausgelöst von einer zentralnervösen
Erregung) kontrahiert und somit ein Drehmoment im Gelenk erzeugt. Für eine
Hin- und Rückbewegung sind daher immer mindestens zwei Muskeln mit entge-
gengesetzter Wirkungsrichtung erforderlich, die abwechselnd aktiviert werden
(Antagonisten), es sei denn, dass sich bereits aus der Schwerkraft eine genügende
Gegenkraft ergibt (Abb. 3.11). Zur Realisierung komplexer Bewegungen herr-
Arbeitsformen 241
Beuger
Reibung
Strecker
Beuger
Trägheit
Strecker
Beuger
Gravitation
Strecker
Abb. 3.11: Idealisierte Darstellung der Tätigkeit antagonistischer Muskelgruppen bei ver-
schiedenen Arten des äußeren Widerstands (nach WAGNER 1927)
Abb. 3.12: Verschiedene Formen von Muskeln. a) Einfacher spindelförmiger Muskel mit
Muskelbauch und Sehne; b) zweiköpfiger Muskel (M. Biceps); c) dreiteiliger Muskel (Del-
ta-Muskel); d) vielfach gezackter Muskel; e) halbgefiederter Muskel; f ) gefiederter Mus-
kel; g) Muskel mit sehnigen Einschneidungen; h) zweibäuchiger Muskel;
i) mehrschwänziger Muskel (nach NEMESSURI 1963, aus SCHMIDTKE 1993)
242 Arbeitswissenschaft
Setzt ein Muskel gelenkfern an (mit folglich großer Momentwirkung der er-
zeugten Kraft), so wird er meist für kraftbetonte und relativ langsam ablaufende
Bewegungen eingesetzt, bei gelenknahem Ansatzpunkt (mit kleiner Momentwir-
kung) eignet er sich in der Regel für weniger kraftbetonte, dafür aber schnell zu
verrichtende Bewegungen. Wird die Kraft über lange Sehnen in den Hebelarm
eingeleitet, so erhöht sich damit der Bewegungsspielraum eines Gelenks und
gleichzeitig wird das Trägheitsmoment des zu bewegenden Gliedes durch die
geringere Massenbewegung verringert (z.B. bei den Fingern). Da menschliche
Gelenke keinen festen Drehpunkt besitzen, verändert sich bei einer Bewegung
folglich neben der Muskellänge auch der wirksame Hebelarm.
Abb. 3.13: Begriffe und Zusammenhänge bei Körperkräften des Menschen (nach DIN
33411 Teil 1)
Abb. 3.14: Zusammenwirken von Aktionskraft mit Muskel- und Massenkräften (nach DIN
33411 Teil 1)
Die zuvor dargelegten Zusammenhänge sind für die Arbeitsgestaltung von Be-
deutung. Beispiele hierfür sind:
x Die Eigengewichte der Körperteile (Massenkräfte) werden zum Einhalten
einer Körperhaltung durch statische Muskelkräfte ausgeglichen.
x Aktionskräfte an Körperstützflächen können sich aus Massenkräften der
Körperteile und aus Haltungskräften zusammensetzen. Dies ist z.B. bei der
Dimensionierung der Rückstellkräfte eines Pedals zu beachten.
x Verkürzungsmuskelkräfte sind teilweise oder ganz Ursache der Antriebskräf-
te (z.B. Anheben von Lasten).
x Verlängerungsmuskelkräfte sind teilweise oder ganz Ursache der Bremskräf-
te (z.B. Herabnehmen von Lasten).
x Manipulationskräfte und Betätigungskräfte werden teilweise oder ganz durch
das Zusammenspiel von Verkürzungs- und Verlängerungsmuskelkräften
(einzelne Muskelgruppen) aufgebracht (z.B. Umsetzen von Lasten).
Beispiel für Körperkräfte des Menschen (Isodynen)
In der Abb. 3.15 sind maximale statische Haltungskräfte (sog. Isodynen) darge-
stellt. Für die Armkräfte (siehe auch DIN 33411, Teil 1) senkrecht nach oben ergibt
sich bei einem Seitenwinkel von 30 Grad, einem Höhenwinkel von 0 Grad und
einer relativen Armreichweite (a/amax= 50%) eine maximale mittlere Aktionskraft
von 150 Newton.
Eine vollständige Übersicht über die Körperkräfte des Menschen lässt sich nur
durch systematische Untersuchungen im Bereich des gesamten Bewegungsraumes
der Arme und Beine gewinnen. Die Darstellung der Ergebnisse erfolgt vielfach in
Form der bereits erwähnten Isodynen (ROHMERT 1966). Hierunter werden Linien
gleicher Kräfte im Bewegungsraum der Arme und Beine verstanden.
244 Arbeitswissenschaft
Abb. 3.15: Ablesebeispiel für Armkräfte aus DIN 33411, TEIL 4 (Ausgabe September
1982) für maximale statische Haltungskräfte. Senkrecht nach oben ergibt sich bei einem
Seitenwinkel ȕ=30°, einem Höhenwinkel Į=0° und einer relativen Reichweite a/amax =50%
eine maximale mittlere Aktionskraft von 150 N
Tabelle 3.4: Beispiel für Maximalwerte im Sitzen für das Betätigen von Fußstellteilen
Fußschalter Fußhebel
Druckkraft ca. 60 N 150 N
Hublänge 6 cm 30 cm (empfohlen 8-16)
Hubarbeit ca. 200 Ncm Bei 25 Hüben/min – 300 Ncm
Bei 15 Hüben/min – 1000 Ncm
Abb. 3.16: Mechanische Parameter für sitzend betätigte Fußhebel (ROHMERT, 1973)
[1kp = 9,807 N]
Abb. 3.17: Abnahme der Maximalkraft bei ermüdender statischer Halterarbeit (nach
ROHMERT 1973)
Abb. 3.19: Häufigkeitsverteilung der maximalen Kräfte der Fingerbeuger und der Fußstre-
cker bei Frauen und Männern (aus HETTINGER u. WOBBE 1993)
Darüber hinaus ist mit zunehmendem Alter ab ca. 20-25 Jahren mit einem
Nachlassen der maximalen Kräfte um 25-40% zu rechnen.
Neben den individualspezifischen Einflüssen und der Körperhaltung spielt auch
die Dynamik der Tätigkeitsausübung in Bezug auf die Ausführungsgeschwindig-
keit und -dauer eine erhebliche Rolle.
Sowohl die „innere Reibung" als auch die Elastizitätswirkung der Muskeln,
Sehnen und Bänder sowie die Massenträgheits- und Schwerkräfte stellen ge-
schwindigkeits- und beschleunigungsabhängige mechanische Lasten dar. In der
Regel findet sich eine optimale Geschwindigkeit bei nicht zu hohen und nicht zu
niedrigen Geschwindigkeiten, bei der eine relativ maximale Nutzung der Energien
248 Arbeitswissenschaft
möglich ist und die sich daher durch ein Maximum im Wirkungsgrad auszeichnet
(Abb. 3.20). Die Lage und Breite des Optimums ist allerdings stark von den Aus-
führungsbedingungen abhängig, daher können kaum generelle Richtwerte angege-
ben werden.
Die Ausdauerkennlinien (z.B. Abb. 3.4) besitzen hingegen eine generelle Cha-
rakteristik, die auch für schwere körperliche Arbeitsformen gilt.
Subjektiv/direktes Verfahren
Beim subjektiv/direkten Verfahren handelt es sich um das klassische Verfahren
zur Ermittlung der maximalen Aktionskraft, indem die Versuchsperson auf einen
Dynamometer einwirkt. Die größtmögliche willentliche Anstrengung der Ver-
suchsperson wird bei ihrem aktiven Einsatz gefordert und vorausgesetzt. Die aus-
geübten Aktionskräfte können dabei messtechnisch je nach der verwendeten
Arbeitsformen 249
Messeinrichtung sehr exakt bestimmt werden. Bei guter Mitarbeit des Probanden
liegt die Variationszahl des Messergebnisses bei 2-6%.
Subjektiv/indirektes Verfahren
Beim subjektiv/indirekten Verfahren wird die maximale Dauer gemessen, über die
eine bekannte, konstante Aktionskraft ausgeübt werden kann. Die ausgeübte Akti-
onskraft wird um die Massenkraft bereinigt und man erhält die ausgeübte Muskel-
kraft. Mit Hilfe des Diagramms (Abb. 3.21) kann über die Ausdauerzeit ermittelt
werden, welcher Bruchteil der Maximalkraft ausgeübt wurde.
10 9 8 7
6
10 5
9 4
1,4 0,5
§t · §k ·
8 EZ 18 ¨ ¸ ¨ 0,15 ¸ 100%
©T ¹ © K ¹ 3
7
Haltezzeit in min
n
6 2
4 50
600
800
1
3 400 1000
25
2
1200 0.5
200
15
1400
100
1 5
0
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0
Haltekraft in Bruchteilen der statischen Maximalkraft
Das Diagramm enthält als Ordinate die verlangte Haltezeit in Minuten und als
Abszisse die verlangte Kraft in Bruchteilen der Maximalkraft. Die gezeichneten
Kurven stellen Linien konstanten Erholungszuschlages von 5% bis 1400% dar.
Bei der Darstellung wurde der Ordinatenmaßstab verzerrt, um das Diagramm auch
im Bereich großer Kräfte (50% bis 100% der Maximalkraft) gut lesbar zu gestal-
ten. Die Linien gleicher Haltezeit verlaufen nicht parallel zu einander und zur
Abszissenachse, weil die Ordinate im Abszisspunkt des Kraftverhältnisses „0“
linear die Ordinate im Abszisspunkt des Kraftverhältnisses „1“ logarithmisch
geteilt ist. Für jede Kraftverhältniss (k/K) kann der für eine bestimmte Haltezeit
250 Arbeitswissenschaft
Objektiv/direktes Verfahren
Als prinzipielle, wenn auch nicht zumutbare Methode ist die Messung der Mus-
kelkraft bei maximaler elektrischer Reizung des Muskels zu erwähnen.
Objektiv/indirektes Verfahren
Bei objektiv/indirekten Verfahren handelt es sich um:
x Die Ermittlung der Maximalkraft aus dem Muskelquerschnitt unter Zugrun-
delegung einer „spezifischen“ Muskelkraft.
x Die Ermittlung der Maximalkraft bei konstanter, submaximaler Kraftent-
wicklung aus dem relativen zeitlichen Anstieg der myoelektrischen Aktivität
des aktiven Muskels (LAURIG 1974). Das letztgenannte Verfahren kann inso-
fern unter die objektiven Verfahren eingestuft werden, als die Versuchsper-
son zwar zur Mitarbeit prinzipiell bereit sein muss, das Ergebnis jedoch
kaum beeinflussen kann.
Die wichtigsten Einflussgrößen auf die gemessenen maximalen Aktionskräfte
sind:
(1) Versuchsmethodische Einflussgrößen
o Körperstellung und Körperhaltung
o Körperabstützung
o Lage des Kraftangriffspunktes
o Richtung der Wirkungslinie der Kraft
o Kraftrichtungssinn
o Art des Kraftaufbaus (ruckartiger Kraftaufbau oder kontinuierlicher
Kraftaufbau)
(2) Interindividuelle Einflussgrößen
o Geschlecht
o Körperbautyp
o Lebensalter
o Übungsgrad
o Trainingsgrad
(3) Intraindividuelle Einflussgrößen
o Motivation
o Gesundheitszustand
o Übungsgrad
o Ermüdungsgrad
o Trainingszustand
Arbeitsformen 251
(4) Umwelteinflüsse
o Jahreszeit
o Tageszeit
o soziale Einflüsse durch Dritte
o Verletzungsgefahr.
Bei der Ermittlung von Körperkräften werden in der Regel entsprechend der
Fragestellung bestimmte Einflussgrößen vorgegeben oder planmäßig variiert (z.B.
geforderte Richtung der Aktionskraft, Körperstellung, Geschlecht der Versuchs-
personen), die den interessierenden Kraftausübungsfall charakterisieren. Die übri-
gen Einflussgrößen bzw. Randbedingungen der Kraftmessungen sind zu beschrei-
ben und sinnvollerweise nach Möglichkeit konstant zu halten (z.B. die Umwelt-
einflüsse).
x Kraftrichtung.
Die oben genannten Faktoren sind nicht wissenschaftlich gesichert, haben sich
aber – nach Ansicht der Autoren – in der Praxis bewährt. Der Vorteil gegenüber
anderen Datenquellen liegt darin, dass neben Kraftangriffspunkt und Kraftrichtung
auch tätigkeits- und personenbezogene Parameter in den Rechnungsgang einflie-
ßen.
Ein deutlicher Kritikpunkt ist die unsichere, nicht mehr recherchierbare Daten-
quelle. Da zur Zeit des Entstehens dieser Verfahren eine Perzentildarstellung von
Kraftwerten noch unüblich war, ist zu vermuten, dass es sich bei den Referenz-
kraftwerten in den Tabellen um Kraftmittelwerte (evtl. mit leichten Abschlägen)
handelt, welche einen großen Teil der Arbeitsbevölkerung überfordern würde.
Äußerst bedenklich erscheint auch der Faktor (Konstitution und) Trainiertheit, der
je nach Verfahren Abschläge von 20%, aber auch Zuschläge von bis zu 60% ge-
stattet. Mit dem Einschätzen dieses Parameters dürfte der „normale“ Arbeitsge-
stalter wohl überfordert sein. Von einer Anwendung dieses Faktors in der Dimen-
sion >1 sei deshalb dringend abgeraten!
Der Verfahrensablauf beinhaltet folgende Schritte: Zunächst werden tätigkeits-
(Dauer, Häufigkeit, statisch/dynamisch) und personenbezogene Parameter ermit-
telt. Danach werden die Referenzkraft- und Referenzmomentenwerte (z.T. in
Abhängigkeit weiterer Parameter wie z.B. Kraftangriffspunkt und Kraftrichtung)
aus den Tabellen abgelesen und mit Hilfe der o.g. Parameter korrigiert. Das Er-
gebnis hieraus ist die „zulässige“ Grenzkraft bzw. das „zulässige“ Grenzmoment.
Dem Verfahren liegen Maximalkraftmessungen zugrunde. Da die Häufigkeit
und Dauer der Kraftausübung in den Verfahren berücksichtigt werden, steht zu
vermuten, dass als Beurteilungsgrößen die Muskelermüdung oder Arbeitsenergie-
umsatzschätzungen im Verfahren berücksichtigt sind.
Die Methoden haben ihren Ursprung in den Ergonomielabors von Siemens, wo
von Burandt und Schultetus die ersten Verfahren entwickelt wurden. Später wur-
den diese von REFA und dem VDI mit Modifikationen übernommen.
Kräfteatlas
Der Kräfteatlas wurde am Institut für Arbeitswissenschaft der Technischen Hoch-
schule Darmstadt entwickelt (ROHMERT et al. 1994). Er beschreibt den aktuellen
Wissensstand zum Thema statische Aktionskräfte. Ein Datensatz enthält die Werte
des Gelbdruckes von DIN 33411 Teil 5 (Abb. 3.22), welcher aus einem vom Bun-
desministerium für Forschung und Technologie geförderten Verbundforschungs-
vorhaben zwischen dem Lehrstuhl für Ergonomie der TU München und dem Insti-
tut für Arbeitswissenschaft der TH Darmstadt hervorgegangen ist. Der gesamte-
Datensatz enthält 391 Kraftausübungsfälle an einem homogenen Kollektiv für
sitzende und stehende Körperhaltungen.
Arbeitsformen 253
Abb. 3.22: Auszug aus dem Kräfteatlas mit Krafttabelle und zugehöriger Körperstellung
(nach ROHMERT et al. 1994)
DIN 33411
DIN 33411 ist nicht als Methode bzw. Verfahren anzusehen. Sie ist eine Daten-
sammlung, die wissenschaftlichen Gütekriterien genügt. Die in ihr enthaltenen
Daten können aber bei der Anwendung von Verfahren wie z.B. Burandt /
Schultetus sowie DIN EN 1005-3 berücksichtigt werden.
254 Arbeitswissenschaft
DIN EN 1005-3
Das Verfahren nach DIN EN 1005-3 berechnet auf der Basis statischer Aktions-
kräfte empfohlene Grenzen für das Ausüben von Kräften. Die im Verfahren an-
gewandten Korrekturfaktoren sind teils als wissenschaftlich gesichert, teils als
Expertenurteil anzusehen. Die im Hauptteil dargestellten Referenzkräfte entstam-
men einer französischen Norm. Sie sind teils als Messwerte, teils als Expertenra-
ting zu betrachten.
Das Verfahren berücksichtigt die Verteilung von Geschlecht und Alter in der
Benutzerpopulation. In den Berechnungsgang fließt die Geschwindigkeit der
Kraftausübung, Frequenz und Dauer der Kraftausübung, sowie die Arbeitsdauer
ein.
Verfahrensergebnisse sind empfohlene Kraftgrenzen für eine gewählte Kraft-
ausübung (Körperhaltung, Kraftrichtung, Kraftangriffspunkt) durch eine definierte
Nutzerpopulation („beliebige“ Zusammensetzung hinsichtlich Geschlecht und
Alter). Dabei werden Arbeitstempo, Arbeitsfrequenz und Arbeitsdauer berück-
sichtigt. Die Anhänge A und B liefern Prozeduren, welche die Berechnung von
Referenzkräften als Eingabegrößen für das Verfahren ermöglicht:
(1) In einem ersten Schritt werden die Maximalkräfte für die Anwendergruppe
aus Referenzkräften bestimmt.
(2) In einem zweiten Schritt werden Maximalkräfte berechnet, welche die Ausü-
bungsgeschwindigkeit, die Ausübungsfrequenz und die Arbeitsdauer berück-
sichtigen.
(3) Im dritten Schritt werden daraus auf der Basis eines drei Zonen Modells
empfohlene Kraftgrenzen für die Maschinenbedienung abgeleitet.
Arbeitsformen 255
Die Analyse und Bewertung muskulärer Arbeitsformen kann anhand der erzeug-
ten Kräfte, umgesetzten Energie, beobachtbaren Bewegungen oder Beanspru-
chung der eingesetzten Muskeln erfolgen. Hierbei werden die im Folgenden um-
rissenen Untersuchungsmethoden angewendet.
3.2.9.1 AnalyseĆderĆBewegungenĆ
Es besteht eine gewisse Notwendigkeit, bewegungsbezogene Risikofaktoren am
Arbeitsplatz zu erkennen (CHAFFIN 2002, WOLFER 2000), da ein großer Teil der
Arbeit dynamisch durchgeführt wird, in der Vergangenheit sich aber die Arbeits-
platzgestaltung häufig alleinig auf statische anthropometrische Daten bezog
(STRASSER und MUELLER 1999).
Man untersucht dabei die Bahn der Bewegung sowie die Geschwindigkeit und
Beschleunigung, die von dem betrachteten Körperteil vom Anfangspunkt bis zum
Zielpunkt einer Bewegung bzw. einer Abfolge von Bewegungen zurückgelegt
wird, ggf. unter Berücksichtigung der dabei aufzubringenden äußeren Kräfte
(„Bewegungsstudium"). Unter Heranziehung biomechanischer Gesetzmäßigkeiten
kann daraus auf die im Körper herrschenden Kräfte geschlossen werden.
Erste Analysen von Elementarbewegungen gehen auf F.W. Taylor (1865-1915)
sowie auf F.B. Gilbreth (1886-1924) zurück. Hierbei stand besonders die Fraktio-
256 Arbeitswissenschaft
nierung einzelner Bewegungsabschnitte mit dem Ziel der Minimierung der not-
wendigen Einzelbewegungen zur Ausführung einer Tätigkeit im Vordergrund.
Auf diesen Untersuchungen basierte die spätere Entwicklung der „Systeme
vorbestimmter Zeiten“ (SvZ), wie z.B. das Work-Factor-System (WF) oder das
Methods Time Measurement-System (MTM), die primär zur synthetischen Kalku-
lation von Bewegungsabläufen und zur Zeitbedarfsminimierung eingesetzt werden
(siehe Kap. 7.3.9).
Unter physiologischen Gesichtspunkten spielen allerdings die eingenommenen
Körperstellungen und die zeitlichen Determinanten der Bewegung (Dauer, Ge-
schwindigkeit, Beschleunigung) eine ausschlaggebende Rolle. Im Unterschied zu
den Systemen vorbestimmter Zeiten liegt der Betrachtungs- und Gestal-
tungsschwerpunkt hierbei auf der Belastungs- und Beanspruchungsoptimierung.
Dabei spielen nicht nur die physikalisch-energetischen Gesichtspunkte, sondern
auch die der Bewegungskoordination eine Rolle.
Unter biomechanischen Gesichtspunkten ist die Koordination der Bewegungen
ein kompliziertes Zusammenspiel einer Vielzahl beteiligter Muskeln zur Abstim-
mung von Kraft, Geschwindigkeit und Beschleunigung, die eine komplizierte
Regulationsaufgabe darstellt (LUCZAK 1983).
Eine optimierte Bewegungsabfolge zeichnet sich daher sowohl durch eine ge-
ringe muskuläre Beanspruchung als auch durch angemessene Koordinationsan-
forderungen aus. Zwischen diesen beiden Faktoren herrscht darüber hinaus ein
innerer Zusammenhang, da höhere Koordinationserfordernisse in der Regel mit
zunehmenden Stabilisierungskräften und somit einer stärkeren muskulären Bean-
spruchung einhergehen (siehe auch GÖBEL 1996).
Zur Untersuchung von Bewegungen werden traditionell Foto- oder Videoauf-
nahmen angefertigt, wobei durch die Anbringung von Leuchtpunkten eine an-
schauliche Darstellung der Bewegungsverläufe möglich ist (Abb. 3.23). Eine
exakte und schnelle Auswertung ist jedoch mit Schwierigkeiten verbunden.
Moderne Aufzeichnungsmethoden basieren daher auf einer elektronischen Re-
gistrierung der Bewegung einzelner – markanter – Körperpunkte. Mit Hilfe von
optischen, magnetischen oder auf Ultraschallsignalen basierenden Abtastsystemen
wird dabei die Position von auf dem Körper angebrachten Messpunkten be-
rührungslos in allen drei Koordinatenebenen der Bewegung gemessen. Damit
gelingt eine vollständige Erfassung der Bewegungsabfolgen (siehe auch Kapitel
10.1.2.4.6.1).
Trotz der Anschaulichkeit beziehen sich solche Messungen allerdings primär
auf die Belastung der Arbeitsperson. Da zwischen der Muskelaktivität und der
erzeugten Kraft an sich eine unmittelbare Beziehung besteht, sollte bei erster Be-
trachtung die Abschätzung der erzeugten Kräfte bzw. der Ermüdungsnachweis
anhand des Nachlassens der Maximalkraft zur Abschätzung der Beanspruchung
ausreichen.
Dies gilt jedoch nur für genau determinierte und extrem einfache Arbeitsfor-
men. Bei in der Praxis üblichen Tätigkeitsformen wirken immer viele Muskeln
kombiniert auf die Krafterzeugung ein, so dass die Rückrechnung der erzeugten
Arbeitsformen 257
Kraft auf die Aktivität der einzelnen Muskeln nicht eindeutig sein kann. Darüber
hinaus sind die verschiedenen Muskeln unterschiedlich stark mit entsprechend
variierenden Beanspruchungsgraden bei gleicher erzeugter Kraft.
Je nach Bewegungs- und Kraftkonstellation können daher einzelne Muskeln
ermüden, auch wenn übliche Dauerleistungsgrenzen nicht überschritten werden.
Abb. 3.23: Zyklographische Aufnahmen eines Arbeiters, links in nicht ermüdetem Zustand,
rechts bei stärkerer Ermüdung (ROHMERT u. RUTENFRANZ 1983)
Schon seit den 70er Jahren ist die Vielseitigkeit der Bewegungsanalyse be-
kannt. Die Bewegungsanalyse in der Arbeitswissenschaft lässt sich durch ver-
schiedene Klassen von Messgrößen charakterisieren (JENIK 1973):
x Mechanische
x kinematische (Zeit, Weg, Geschwindigkeit, Beschleunigung)
x kinetische (Maße, Kraft, Drehmoment)
x mechanisch-energetische (Arbeit, Leistung)
x biologische
x biomechanische (Einsatz des körperlichen mechanischen Apparates)
x physiologische (Stoff und Energieumsatz)
x neuro-psychische (Steuerung, Koordination)
x technisch-ökonomische
x technologische (sachlicher Inhalt, Zweck und Ziel der Arbeitsbewegung)
x ökonomische (Nutzeffekt und Wert, Bewegungsstudium).
Dennoch wurden Untersuchungen nach einem polygraphischen Messkonzept
bisher nur in wenigen Fällen durchgeführt. Bei einem polygraphischen Messkon-
zept werden synchronisierte Messsysteme zur integrierten Erfassung und Darstel-
lung mehrere Bewegungsdaten angewendet, um menschliche Bewegungen zu
beschreiben und zu modellieren. Es ist zu erwarten, dass die Bedeutung polygra-
phischer Messkonzepte aufgrund der Weiterentwicklung der Messtechnik und der
damit verbundenen Vereinfachung der Anwendung zunehmen wird.
258 Arbeitswissenschaft
3.2.9.2 AnalyseĆderĆMuskelaktivitätĆundĆMuskelermüdungĆ
Eine präzise Analyse energetisch-effektorischer Arbeitsformen sollte direkt an den
einzelnen Muskeln ansetzen, sie darf naheliegenderweise jedoch nicht in den Kör-
per eingreifen.
Hierzu macht man sich die elektrischen Potentiale zunutze, die mit der Muskel-
erregung einhergehen.
Die zentralnervöse Auslösung der Muskelkontraktion erfolgt durch die Akti-
onspotentiale der innervierenden Motoneurone im Rückenmark, die - via neuro-
muskuläre Übertragung an den motorischen Endplatten - Muskelaktionspotentiale
auslösen. Diese impulsförmigen elektrischen Potentiale mit einer Größe von ca. 90
mV und einer Dauer von etwa 5 ms breiten sich regenerativ im transversalen Röh-
rensystem des Muskels aus und bewirken über die Calziumfreisetzung des damit
erregten Longitudinalsystems nach etwa 15 ms die Kontraktion der Myofibrillen
(Abb. 3.25). Jede Kontraktion einer motorischen Einheit resultiert folglich aus
einer elektrischen Potentialänderung, die im Muskel und in dessen Umgebung
vorliegt.
Abb. 3.25: Zeitverlauf von Aktionspotential und isometrischer Zuckung beim quergestreif-
ten Muskel (aus RUEGG 1990)
260 Arbeitswissenschaft
Obwohl die genauen Mechanismen der Muskelerregung erst seit wenigen Jahr-
zehnten bekannt sind, ist bereits aus dem Jahre 1844 von MATTEUCCI ein erster
Nachweis elektrischer Potentiale im Zusammenhang mit der willkürlichen Mus-
kelanspannung überliefert. Durch das Einführen von Nadelelektroden in den Mus-
kel oder das Anbringen von Oberflächenelektroden in unmittelbarer Nähe des
Muskels können die mit der Muskelerregung verbundenen elektrischen Potentiale
abgeleitet und ausgewertet werden. Eine solche Messung wird als
Elektromyographie (bzw. Elektromyogramm, EMG) bezeichnet.
Bei der Ableitung mittels Oberflächenelektroden wird eine Elektrode mittig
über dem Muskel angebracht sowie eine sog. Nullelektrode über inaktivem Gewe-
be. Die in den nahe der Elektrode gelegenen motorischen Einheiten entstehenden
Erregungsimpulse (Muskelaktionspotentiale) werden damit summarisch erfasst.
Durch das dazwischen liegende Gewebe und die Hautschichten werden die elek-
trischen Potentiale allerdings stark gedämpft, so dass die abgeleiteten Potentiale
nur im μV-Bereich liegen.
Für eine selektive Messung, z.B. bei eng nebeneinander liegenden Muskeln,
kann auch eine bipolare Elektrodenanordnung gewählt werden, bei der neben der
Nullelektrode zwei Ableitelektroden im Abstand von wenigen Zentimetern in
Muskellängsachse angebracht werden. Über eine Differenzbildung der beiden
Elektrodensignale wird damit eine räumliche Differenzierung bewirkt. Signale, die
sich in Richtung der Achse zwischen den Elektroden ausbreiten, werden so deut-
lich erfasst, während von der Seite ankommende Signale durch die Differenzbil-
dung ausgelöscht werden.
Die Elektroden bestehen in der Regel aus einer kleinen Plastikhaube, die mit
Kleberingen auf die Haut geklebt werden. In der Mitte der Haube befindet sich ein
Metallplättchen (aus Silber bzw. Silberchlorid, Ø 5-20 mm), wobei der elektrische
Kontakt zur Haut über die Füllung der Elektroden mit einem creme- oder gelarti-
gen (elektrisch leitenden) Kontaktvermittler bewirkt wird. Damit wird der elektri-
sche Kontakt verbessert und die Störung des schwachen Elektrodensignals durch
Bewegung der Elektrode auf der Haut vermindert.
Eine solche Oberflächen-Elektromyographie gelingt nur bei direkt unter der
Hautoberfläche liegenden Muskeln, nicht aber bei innenliegenden Muskeln, die
von anderen verdeckt sind.
Das abgeleitete Signal stellt das Mittel aus den an der Kontaktfläche anliegen-
den Einzelpotentialen dar. Dies hat die Form eines Interferenzmusters, in dem
sowohl Summationen als auch Auslöschungen einzelner Potentialspitzen vor-
kommen.
Obwohl aus dem Interferenzmuster des Elektrodensignals nur mit Schwierig-
keiten einzelne motorische Einheiten erfasst werden können, so steht doch die
mittlere Größe des Potentialmusters in einem direkten Zusammenhang zur Erre-
gungsstärke.
Nach einer ausreichenden Verstärkung der sehr kleinen Signale wird mittels ei-
ner Gleichrichtung der Betrag der elektrischen Signale gebildet. Um aus den Ein-
zelimpulsen einen Mittelwert zu erhalten, wird das gleichgerichtete Signal an-
Arbeitsformen 261
schließend über einen bestimmten Zeitraum ti (meist 50 bis 500 ms) integriert oder
alternativ tiefpassgefiltert (Abb. 3.26).
Die Ausgangsgröße, die „elektrische Aktivität" EA nach Gl. (3.1) repräsentiert
folglich die Summe aller Erregungsimpulse pro Zeiteinheit und steht in einem
weitgehend linearen Zusammenhang zur Erregungsstärke.
t
1 i
ti ³0
EA ~ U EMG dt (3.1)
Tiefpassfilter
Elektroden Verstärkung (V) Gleichrichtung
bzw. Integration
ti:t i:Integrationszeitraum
Integrationszeitraum
eA
EA
0 0 0 0
Zeit tt Zeit tt
tit i
11
eA EA
V •~ • ³ UUEMG dt dt
EMG
Zeit tt Zeit t t i t i 00
EMG-Signal (UEMG
EMG-Signal (U EMG) ) Elektrische Aktivität
Elektrische Aktivität(eA)
(EA)
Abb. 3.26: Schema der Bildung der elektrischen Aktivität aus dem Roh-Elektromyogramm
Da die Größe der gemessenen Potentiale jedoch nicht nur von der Erregungs-
stärke, sondern auch stark von den Ableitbedingungen abhängt (z.B. der Dicke der
dazwischenliegenden Gewebeschichten), können die erzeugten Kräfte damit nicht
unmittelbar bestimmt werden.
Um die verschiedenen Messungen dennoch vergleichen zu können, muss eine
Normierung der elektrischen Aktivität z.B. anhand einer Referenzkontraktion
durchgeführt werden. Benutzt man hierfür die Maximalkontraktion, so erhält man
ein Maß für die relative Höhe der Muskelaktivierung.
Ein weiteres wichtiges Anwendungsfeld der Elektromyographie liegt in der
Möglichkeit, Muskelermüdungen festzustellen. Da bei einem ermüdenden Muskel
die pro Erregung erzeugte Kraft abnimmt, muss die Erregungsstärke mit fort-
schreitender Ermüdung immer weiter zunehmen, wenn die nach außen abgegebe-
ne Kraft konstant bleiben soll.
Dies äußert sich folglich in einem Anstieg der gemessenen elektrischen
Aktivität.
Kann also bei gleichbleibender erzeugter Kraft im Laufe der Zeit ein Anstieg
der elektrischen Aktivität festgestellt werden, so lässt dies auf eine zunehmende
Muskelermüdung schließen (Abb. 3.27). Aus der Geschwindigkeit des Anstiegs
kann die Ermüdungsgeschwindigkeit bestimmt werden (Abb. 3.28).
262 Arbeitswissenschaft
Abb. 3.27: Beziehung zwischen der elektrischen Aktivität (EA) und der erzeugten isomet-
rischen Kraft für zwei Muskeln (oben: m. biceps brachii, unten: m. deltoideus pars spinalis)
und an zwei verschiedenen Ableitpositionen (Kennlinien von je fünf Personen; MÜLLER
et al. 1988)
Die Anwendung dieser Methode gelingt jedoch nur, wenn die erzeugte Kraft
auch von außen messbar ist. Bei vielen in der Praxis vorkommenden Arbeitsauf-
gaben ist dies nicht ohne weiteres zu gewährleisten.
Eine andere Möglichkeit zur Detektion von Muskelermüdungen, die weniger
empfindlich auf Veränderungen in der erzeugten Kraft ist, besteht in der Fre-
quenzanalyse des Elektromyogramms:
Mit zunehmender Muskelermüdung sinkt die Ausbreitungsgeschwindigkeit der
Aktionspotentiale aufgrund der Anhäufung von Stoffwechselprodukten und der
sich dadurch ändernden intrazellulären pH-Werte, und es findet eine zunehmende
Synchronisation der Aktivierung motorischer Einheiten statt (KADEFORS et al.
1968, LINDSTRÖM et al. 1970, KARLSSON et al. 1975, KOMI u. VIITASALO 1976).
Beide Effekte führen dazu, dass sich das Frequenzspektrum des Roh-
Elektromyogramms hin zu niedrigeren Frequenzen verschiebt (Abb. 3.29).
Arbeitsformen 263
Abb. 3.28: Höhe und Zeitverlauf der elektrischen Aktivität (EA) bei einer Haltearbeit mit
unterschiedlichen Kräften (M. gastrocnemius einer Person, in Anlehnung an LAURIG
1970)
³S ( f ) f df
2
fMed: Medianfrequenz f Med f
f SP 0
f fSP: Schwerpunkzfrequenz ³ S 2 ( f ) df ³ S 2 ( f ) df
³S S(f): Frequenzspektrum des Signals
2
( f ) dff 0 f Med
Abb. 3.30: Bildung der Medianfrequenz (links) und der Schwerpunktfrequenz (rechts) aus
dem Frequenz- bzw. Leistungsdichtespektrum der Roh-Elektromyogramms
Abb. 3.31: Veränderung der elektrischen Aktivität und des statischen Anteils in Abhängig-
keit der Bewegungsfrequenz bei einer Nachführaufgabe (m. brachialis; nach GÖBEL
1996).
3.2.10.1 StoffwechselĆundĆEnergiegewinnungĆ
Voraussetzung für die Energiegewinnung zur Krafterzeugung ist die Aufnahme,
Verarbeitung und Bereitstellung entsprechender Nährstoffe. Die notwendige
Energiezufuhr erhält der Körper in Form von Nahrungsmitteln und Sauerstoff. Als
Stoffwechsel bezeichnet man alle chemischen Vorgänge innerhalb des Körpers
(Abb. 3.32). Hierzu gehören die folgenden wichtigen Teilvorgänge:
x Nahrungsaufnahme und Aufbereitung (Kohlehydrate, Fette, Eiweißstoffe),
x Ab- und Umbau der aufgenommenen Stoffe zu Zucker, Fettsäure und Ami-
nosäuren im Magen-Darm-Trakt
x Teilweiser Umbau der Nährstoffe in der Leber
Arbeitsformen 267
Abb. 3.32: Schema des Stoff- und Energiewechsels bei energetisch-effektorischer Arbeit
(nach MÜLLER u. SPITZER 1952)
Für die Funktion und Aufrechterhaltung des Stoffwechsels spielt der Blutkreis-
lauf eine entscheidende Rolle:
x Transport der im Magen-Darm-Trakt umgewandelten Nährstoffe zu den
Verbrauchern (z.B. Muskeln) oder in Speicher
x Transport des über die Lunge eingeatmeten Sauerstoffs zu den Verbrauchern:
der Sauerstoff wird dabei chemisch an das Hämoglobin, den roten Blutfarb-
stoff, gebunden
x Rücktransport der bei den biochemischen Prozessen entstandenen Abfallpro-
dukte zu den Ausscheidungsorganen (Lunge, Niere usw.).
Sowohl bei der Nahrungsverbrennung als auch bei den peripheren Arbeitspro-
zessen im Gehirn und in den Muskeln entsteht Wärme. Eine weitere Aufgabe des
Blutkreislaufs in Verbindung mit den vegetativen Wärmeregulationsmechanismen
besteht daher in der angemessenen Wärmeverteilung im Körper zur Aufrechter-
haltung einer konstanten Körperkerntemperatur von 37±1°C. Überschüssige
268 Arbeitswissenschaft
Wärme wird durch verstärkte Blutzirkulation aus dem Körperinneren zur Körper-
oberfläche (Haut) transportiert, bei einem Wärmedefizit wird die Blutzirkulation
an der Körperperipherie gedrosselt bzw. der Energieumsatz im Sinne der Wärme-
bildung gesteigert.
Die Aufgaben des Herz-Kreislauf-Systems sind hierarchisch aufgebaut. Primä-
re Aufgabe ist die Sauerstoffversorgung des Gehirns, da schon kurzzeitige Unter-
brechungen zu teilweise irreversiblen Schäden führen können. An zweiter Stelle
steht die Wärmeregulation. An dritter Stelle folgt die Versorgung der Muskulatur
zur Energiegewinnung, allerdings erst dann, wenn die beiden erstgenannten Vo-
raussetzungen hinreichend erfüllt sind.
Viele dieser Funktionen werden nicht nur über die Zusammensetzung, sondern
vor allem über die Blutmenge reguliert. Für den Transport ist das Herz verant-
wortlich, welches die gestellten Anforderungen durch die Anpassung des Schlag-
volumens (in geringem Maße) und vor allem durch die Veränderung der Herz-
schlagfrequenz erfüllt.
100
[%]
80 Autonom geschützte Reserven
Mobilisationsschwelle
60
Gewöhnliche Einsatzreserven
40
Physiologische Einsatzbereitschaft
20
Automatisierte Leistung
0
beiĆnormalerĆErnährungĆ
<Ć20000ĆkJĆ/Ć24h
VerlusteĆbeiĆderĆ
Umwandlung EnergieaufnahmeĆĆ
ausĆderĆNahrung
AufnahmeĆausĆ
BedarfĆzurĆAufrechterhaltungĆ EnergievorrätenĆ
derĆKörperfunktionenĆ (z.B.ĆFette)
(GrundumsatzĆ Ć8000ĆkJ) zurĆVerfügungĆ
stehendeĆ
Nettoenergie
AufbauĆvonĆ
Energievorräten
BedarfĆfürĆFreizeitĆundĆRuhe,Ć verbleibtĆbeiĆtäglicherĆ
variablelĆjeĆnachĆAktivität WiederholungĆweni-Ć
gerĆalsĆ10000ĆkJĆ
(männl.)
FürĆberuflicheĆArbeitĆzurĆVerfügungĆstehenderĆAnteilĆ
(Arbeitsenergieumsatz)
Abb. 3.34: Aufteilung der aus Nahrung gewonnenen Energie in den Bedarf für innere und
für äußere Arbeit (angenommene Werte für Männer, aus LAURIG 1990)
3.2.10.2 EnergieumsatzĆundĆWirkungsgradĆ
Methode atmet der Proband die Frischluft über ein Ventil mit Mundstück ein, die
Nase wird durch eine Nasenklemme verschlossen. Die gesamte Ausatmungsluft
wird über ein Atemventil in einen luftdichten, auf dem Rücken getragenen Sack
von 100-200 l Volumen geleitet. Nach Abschluss der Messperiode wird der Sack
über eine Gasuhr (zur Mengenmessung) entleert und aus der Luftmenge eine re-
präsentative Probe zur chemischen Analyse entnommen.
Dies ermöglicht die freie Bewegung des Probanden in der üblichen Umgebung.
Da der Luftsauerstoffgehalt mit 20,8 bis 21,0% relativ konstant bleibt, bezieht sich
die Analyse normalerweise nur auf die ausgeatmete Luft.
Eine gewisse Schwierigkeit entsteht jedoch dadurch, dass der Sauerstoffbedarf
zum Umsatz einer bestimmten Energiemenge von der Art des Nährstoffes ab-
hängt.
Die Glukoseverbrennung – welche näherungsweise für Kohlehydrate angesetzt
werden kann – erfolgt nach folgender Gleichung:
C6H12O6+6O2= 6CO2+6H2O+Energie
Das Fettmolekül enthält dagegen bezogen auf die Anzahl der C- und H-Atome
relativ wenig Sauerstoff, benötigt also mehr Sauerstoff aus der Luft zur voll-
ständigen Verbrennung:
Wegen der unterschiedlichen Brennwerte von Fetten und Kohlehydraten muss
daher der Anteil der beiden Stoffe an der Verbrennung bekannt sein. Dieser kann
wiederum indirekt durch die unterschiedliche Menge von gebildetem Kohlendio-
xid ermittelt werden. Auch hier genügt die Messung des CO2-Gehalts der ausge-
atmeten Luft, da der CO2-Gehalt in der Umgebungsluft nur 0,03 Vol-% beträgt.
Das Verhältnis von gebildetem Kohlendioxid CO2 zu aufgenommenem Sauer-
stoff O2 ergibt bei der vollständigen Verbrennung für jeden Brennstoff einen cha-
rakteristischen Wert, der als Respiratorischer Quotient, kurz RQ, bezeichnet wird.
Dieser beträgt für Kohlehydrate
RQ(Kohlenhydrate)= 6CO2 / 6O2=1
für Fette
RQ(Fette)= 57CO2 / 81,5O2=0,7
und für Eiweißstoffe
RQ(Eiweiß)= 0,81.
Bei gemischter Verbrennung liegt der RQ also zwischen 0,7 und 1. Der Durch-
schnittswert bei der in Mitteleuropa üblichen Ernährung beträgt etwa 0,85.
Aus dem Respiratorischen Quotienten kann somit die verbrannte Energiemenge
im Verhältnis zum Sauerstoffverbrauch, auch als kalorisches oder energetisches
Äquivalent bezeichnet, ermittelt werden (Tabelle 3.5).
Die praktische Bestimmung des Energieumsatzes am Arbeitsplatz kann daher
über die Messung der Sauerstoffaufnahme erfolgen, wenn auch das gleichzeitig
ausgeatmete CO2-Volumen und damit der Respiratorische Quotient bekannt ist.
Die Messung des Energieumsatzes beinhaltet grundsätzlich die gesamte umge-
setzte Energie. Davon entfällt ein Teil für die ohnehin notwendige Aufrechterhal-
Arbeitsformen 271
tung der Körperfunktionen (Grundumsatz) und ein Teil auf den Arbeitsumsatz, der
von der Tätigkeit selbst hervorgerufen wird. Zur Bestimmung des für die Arbeits-
gestaltung relevanten Arbeitsumsatzes muss daher der Grundumsatz vom gemes-
senen Energieumsatz subtrahiert werden:
Arbeitsenergieumsatz = Gesamtenergieumsatz Grundumsatz
Tabelle 3.5: Energetisches Äquivalent aus dem respiratorischen Quotienten (aus
HETTINGER 1980)
Respiratorischer Energetisches
Quotient (RQ) Äquivalent (kJ / l O2)
0,70 19,58
0,75 19,84
0,80 20,10
0,85 20,36
0,90 20,62
0,95 20,88
1,0 21,14
Der sog. Ruheumsatz durch die ständig in Tätigkeit befindlichen Organe (Ge-
hirn, Herz, Lunge, Leber und Nieren) ändert sich jedoch tageszyklisch, bei Nah-
rungsaufnahme und in Abhängigkeit der Umgebungstemperatur. Darüber hinaus
erfordern elementar notwendige Alltagstätigkeiten weitere Energiemengen. Der
Grundumsatz wird daher aus der Messung des Ruheumsatzes unter vier verschie-
denen Bedingungen berechnet. Aufgrund der Abhängigkeit von der Körperober-
fläche (bzw. Körperlänge und -gewicht), vom Alter sowie vom Geschlecht, er-
weist es sich als vorteilhaft, vorhandene Tabellen heranzuziehen
(Abb. 3.35, siehe auch HARRIS u. BENEDICT 1919, STEGEMANN 1977). In der
Regel kann der Grundumsatz eines 70 kg schweren Erwachsenen grob mit 7100 kJ
pro Tag angesetzt werden.
Obwohl der Energieumsatz anhand des Sauerstoffverbrauches und des Kohlen-
dioxidgehalts der Ausatmungsluft nahezu unmittelbar gemessen werden kann,
müssen dennoch zeitliche Verschiebungen im Arbeitsprozess ggf. berücksichtigt
werden. Nach Beginn der körperlichen Tätigkeit stellt sich die Anpassung des
Stoffwechsels erst mit einer gewissen Verzögerung ein (Abb. 3.36, oben).
Während dieser Phase wird die benötigte Energie aus anaeroben Reserven be-
reitgestellt, die nach Beendigung der Tätigkeit über aerobe Prozesse wiederherge-
stellt werden. Zu Beginn der Tätigkeit wird daher zunächst weniger Sauerstoff
verbraucht, als für die Tätigkeit eigentlich erforderlich ist (Entstehung einer „Sau-
erstoffschuld"). Nach Beendigung der Tätigkeit besteht zum Bilanzausgleich noch
für eine gewisse Zeit ein erhöhter Sauerstoffbedarf („Abtragen der Sauer-
stoffschuld“). Bei leichten und mittelschweren Tätigkeiten unterhalb der Dauer-
leistungsgrenze stellt sich ca. 3-5 Minuten nach Arbeitsbeginn ein Gleichgewicht
zwischen Sauerstoffverbrauch und Energieumsatz ein, daher genügt zur Energie-
272 Arbeitswissenschaft
O2 - Defizit
Saauerstoffaufnahme
=
Arbeits- O2 - Bilanz-
umsatz ausgleich
Ruhe-
Ruhe Arbeit
umsatz
Messung Zeit
O 2 - Defizit
+
O 2 - Schuld
=
Sauerstooffaufnahme
Arbeits- O 2 - Bilanz-
umsatz ausgleich
Ruhe- Arbeit
umsatz
Messung Zeit
Abb. 3.36: Energieumsatzmessung nach der Partialmethode (oben) und nach der Integral-
methode (unten), nach LEHMANN (1953).
20000Ć
ArbeitĆ(mechanisch/äußere)
kJ/Tag
Wärme 16000Ć
12000Ć
8000Ć
Ruheumsatz
4000Ć
0
Buch-ĆBetriebs-Ć Mau-Ć Gießer Berg-Ć Holz-Ć
halter ingenieur rer mann fäller
5,0 83,04
Geht man von einem täglichen Gesamtenergieumsatz von max. 18.830 kJ aus,
so verbleibt nach Abzug des Ruhe- und Freizeitumsatzes noch ein möglicher Ar-
beitsumsatz von 8.400 kJ für die 8-Stunden-Schicht. Auf die Minute bezogen
ergibt sich daraus ein Wert von 17,5 kJ / min.
Der maximale Arbeitsumsatz von 17,5 kJ / min, der im Jahresdurchschnitt nicht
überschritten werden sollte, gilt nur dann, wenn der gesamte Organismus, z.B.
beim Tragen von schweren Lasten, eingesetzt wird. Sind vorwiegend ein Arm
oder beide Arme an der Tätigkeit beteiligt und die anderen Muskeln durch die
Arbeitshaltung (z.B. Sitzen) weitgehend entlastet, so gilt als höchstzulässiger Wert
5,0 kJ / min (ein Arm) bzw. 8,4 kJ / min Arbeitsumsatz für die Tätigkeit
(MAINZER 1983).
Die Festschreibung dieser Grenzwerte in der arbeitswissenschaftlichen Litera-
tur basiert zum einen auf der Erkenntnis, dass eine schwere dynamische Arbeit mit
Arbeitsformen 275
einem höheren als dem angegebenen Energieumsatz in der Regel dazu führt, dass
diese Tätigkeit das Herz-Kreislauf-System übermäßig beansprucht, das heißt, es
kann nicht mehr im sogenannten „steady state“ arbeiten.
Bei Überschreiten dieser Grenzwerte, die für Frauen mit dem Faktor von 0,75
zu multiplizieren sind, kann eine Kompensation bzw. ein Ausgleich dadurch er-
folgen, dass einer erhöhten Energie-Verausgabung in einer vorausgegangenen
Arbeitsphase begrenzter Dauer eine Pause folgt, in der der Energieumsatz deutlich
unter dem entsprechenden Grenzwert liegt.
Die Begrenzungen im kurzfristigen Bereich sind in der Erschöpfung der Ener-
giespeicher und der begrenzten Sauerstofftransportkapazität des kardiorespiratori-
schen Systems begründet.
Langfristig – im Tage-, Wochen- und Monatsbereich – kann auch das System
der Nahrungsaufnahme und Nährstoff-Erschließung zum Engpass werden, sei es
aufgrund der Erbringung sehr großer energetischer Leistungen (Gewichtsverlust,
z.B. bei Sportlern) oder aus Mangel an Nahrungsenergie heute hauptsächlich be-
deutend für Entwicklungsländer).
3.2.10.2.3 Wirkungsgrad menschlicher Arbeit
Da die Höhe des Grundenergieumsatzes für eine bestimmte Tätigkeit interindivi-
duell nahezu konstant ist, kann der Arbeitsenergieumsatz weiterhin zur Be-
urteilung der energetischen Effizienz eines Arbeitsprozesses herangezogen wer-
den.
Ein relativ maximaler Wirkungsgrad liegt bei Tätigkeiten mit kontinuierlicher
Bewegung vor, bei denen mehrere größere Muskeln gleichmäßig arbeiten (z.B.
Radfahren, Laufen, Kurbel drehen; siehe Abb. 3.38).
Wirkungsgrad
30
%
25 Rad fahren
5 Gewicht Stoßen
heben waagerecht
0
0 20 40 60 80 100 120 140 160 180 200
Nettoleistung W
Abb. 3.38: Wirkungsgrad des menschlichen Körpers als „Kraftmaschine" bei verschiede-
nen Tätigkeiten und in Abhängigkeit von der erzeugten Leistung (in Anlehnung an
KEIDEL 1985)
276 Arbeitswissenschaft
Abwärts gehen
ĆĆĆĆĆĆĆĆĆĆĆĆĆĆNeigungĆ25Ć° Leiter steigen mit LastĆĆĆĆĆĆĆĆĆĆĆ50Ćkg
5 km / h ĆĆĆĆĆĆĆĆĆĆĆĆĆĆĆ15Ć° 70 ° Neigung ĆĆĆĆĆĆĆĆĆĆ30Ćkg
ĆĆĆ5Ć° Sprossenabstand 17 cm ĆĆĆĆĆĆĆĆĆĆ10Ćkg
70 Sprossen / min 0ĆkgĆ
Aufwärts gehen 5Ćkm/h
10 ° Steigung 3Ćkm/h Leiter steigen mit Last
1Ćkm/h 50 ° Neigung ĆĆĆĆĆĆĆĆĆĆ50Ćkg
Sprossenabstand 17 cm ĆĆĆĆĆĆĆĆĆĆ30Ćkg
Laufen Ebene 20Ćkm/h 70 Sprossen / min
ĆĆĆĆĆĆĆĆĆĆ10Ćkg
Laufen Ebene 15Ćkm/h
Laufen Ebene 12Ćkm/h
Treppauf gehen mit Last
ĆĆĆĆĆĆĆĆĆĆ50Ćkg
Laufen Ebene 4Ćkm/h
Kriechen 4Ćkm/h 100 Stufen / min. 30Ćkg
ĆĆĆĆĆĆĆĆĆĆ10Ćkg
Ganz gebückt gehen 4Ćkm/h
0Ćkg
Halbgebückt gehen 4Ćkm/h
0 20 40 60 80 100 Treppab gehen 120ĆStufen/min
90ĆStufen/min
Arbeitsenergieumsatz (KJ / min) 60ĆStufen/min
0 20 40 60 80 100
Arbeitsenergieumsatz (KJ / min)
3.2.10.3 KreislaufregulationĆ
Auf direktem Wege erfolgt dies durch die elektrokardiografische Ableitung der
Herzmuskelerregung (EKG, siehe Kap. 3.3.3.2.1.1). Mit auf der Brustwand fixier-
ten Oberflächenelektroden werden dabei die bei der umlaufenden Erregung des
Herzmuskels entstehenden elektrischen Potentiale aufgezeichnet. Dem Vorteil der
Genauigkeit stehen beim EKG-Verfahren die Nachteile des möglicherweise unzu-
verlässigen Elektrodenkontakts (z.B. bei Schweißbildung) und die Problematik der
Artefakt freien Ausübung von Tätigkeiten trotz Anbringung von EKG-Elektroden
gegenüber.
Ein in der betrieblichen Praxis einfacher anzuwendendes Verfahren basiert auf
der Änderung der Lichtdurchlässigkeit des Ohrläppchens, die durch die Pulswelle
bei jedem Herzschlag verursacht wird. Mit einem kleinen Ohrclip kann diese,
ähnlich wie bei einer Lichtschranke, von außen gemessen werden.
Für arbeitsphysiologische Untersuchungen wird aus dem Schlagrhythmus des
Herzens üblicherweise nur die Zahl der Schläge pro Minute, für langsame Ver-
änderungen durch direkte Zählung und für schnelle Veränderungen durch Mes-
sung der Zeit zwischen zwei aufeinanderfolgenden Schlägen und Berechnung
einer „Momentan-Herzschlagfrequenz“, gebildet.
Obwohl die Herzschlagfrequenz mit dem Energieumsatz hoch korreliert, ist ei-
ne direkte Umrechnung weder allgemein möglich noch sinnvoll.
Bei gleicher Belastung ist die von der Muskulatur benötigte Blutmenge bei ver-
schiedenen Personen zwar ungefähr gleich, das Schlagvolumen ist jedoch indi-
viduell unterschiedlich groß. Die Herzschlagfrequenz steigt daher sowohl abhän-
gig von der persönlichen Konstitution als auch in erheblichem Maße abhängig
vom Trainingszustand unterschiedlich stark an (Abb. 3.41).
Auch die Herzschlagfrequenz in Ruhe schwankt beträchtlich von Person zu
Person (zwischen 40 und 100 Schlägen/min). Um aus der Herzschlagfrequenz die
Arbeitsbeanspruchung zu ermitteln, wird deshalb nicht von der absoluten Herz-
278 Arbeitswissenschaft
Abb. 3.42: Zeitlicher Verlauf (schematisch) bei unterschiedlich schwerer Belastung (in
Anlehnung an ARRASCH u. MÜLLER 1951, aus LEHMANN 1983)
280 Arbeitswissenschaft
3.2.11 Skelettsystem
Die Belastung des Skeletts hängt unmittelbar mit den zu handhabenden Kräften im
Sinne der biomechanischen Struktur zusammen. Normalerweise führen die aktiv
aufgebrachten Kräfte zu keiner Überbeanspruchung der mechanischen Tragfähig-
keit der Knochen. Jedoch sind die beweglichen Teile des Skeletts, die Gelenke
und insbesondere die Bandscheiben der Wirbelsäule, beim Handhaben schwerer
Lasten mitunter einer sehr hohen Belastung und Beanspruchung ausgesetzt, wo-
durch irreversible Schädigungen des Skelettsystems hervorgerufen werden kön-
nen.
Beim Handhaben von Lasten ersteht ein spezifischer Belastungsschwerpunkt
auf der Wirbelsäule. Dies hängt damit zusammen, dass die Wirbelsäule - als einzig
tragendes Element des Rumpfes - über die Hebelwirkung der äußeren Last mit
großen Momenten und daraus resultierend großen inneren Kräften belastet wird.
Mögliche Negativwirkungen betreffen dabei hauptsächlich die elastischen
Bandscheiben zwischen den einzelnen Wirbeln, die wegen der kleinen Flächen
(wirksame Fläche je nach Körperposition bis deutlich unter 10 cm2) enorm hohen
Drücken ausgesetzt sind (Abb. 3.44). Bei Beugung des Rückens entstehen darüber
hinaus erhebliche innere Querkräfte (Abb. 3.45).
Bei Überbelastung entsteht eine Reihe von Gefährdungen der Gesundheit, z.B.
in Form von
x Bandscheibenschäden (bis hin zum „Bandscheibenvorfall“ bei hohen Quer-
kräften),
x Verformung der Wirbelkörper bei dauerhaft bzw. zu häufiger hoher punktu-
eller Druckbelastung oder
x Reißen einzelner Muskelfasern oder ganzer Muskelteile durch zu starke
Zugbeanspruchung.
282 Arbeitswissenschaft
Abb. 3.44: Belastung der präsakralen Bandscheibe beim körpernahen Halten einer Masse
von 10 kg mit beiden Armen (oben) und bei waagrecht ausgestreckten Armen (unten) mit
entsprechenden, auf dem Kopf getragenen, Äquivalenzlasten (aus JUNGHANNS 1979)
Abb. 3.45: Beanspruchung der Bandscheiben bei gebeugter und gerader Wirbelsäule.
Z=Zugbeanspruchung, D=Druckbeanspruchung (in Anlehnung an ROHMERT 1983b)
Arbeitsformen 283
Abb. 3.46: Druckkraft am Lenden-Kreuzbein-Übergang beim Halten von Lasten mit vor-
geneigtem Oberkörper für verschiedene Lastmassen und unterschiedliche Armhaltungen
(aus JÄGER 1987)
Tabelle 3.7: Empfohlene Grenzwerte für die lumbare Kompressionsbelastung bei der
manuellen Lastenhandhabung (nach JÄGER 1996)
3.3 Informatorisch-mental
bereits die zuverlässige und schnelle Erkennung von Lage, Zustand und mögli-
chen Greifpunkten der Werkstücke erhebliche technische Schwierigkeiten auf-
wirft. Der Mensch hingegen vermag diese Aufgabe ohne besonderes Training und
bei geringer mentaler Beanspruchung schnell und zuverlässig auszuführen.
Wie bereits in Kapitel 3.1 dargestellt wurde, lassen sich anhand des Paradigmas
des Informationsumsatzes die drei Phasen der Informationsaufnahme (sog. frühe
Prozesse), Informationsverarbeitung (sog. zentrale Prozesse) sowie Informations-
abgabe (sog. späte Prozesse) differenzieren. Aus ingenieurwissenschaftlicher Sicht
(siehe Abb. 3.2) beziehen sich die frühen Prozesse in erster Linie auf die Entde-
ckung von informationstragenden optischen und akustischen Signalen im Arbeits-
system und die Trennung dieser Signale gegenüber dem „Hintergrundrauschen“.
Die zentralen Prozesse beinhalten das Erkennen und Identifizieren der Signalbe-
deutung und die darauf aufbauenden Entscheidungsprozesse zur Urteilsbildung
und Konsequenzbewertung. Die späten Prozesse „formen“ schließlich das mani-
pulative und kommunikative Handeln und beinhalten u.a. die Organisation und
Regelung von Bewegungen.
Zur Erforschung der menschlichen Informationsverarbeitung sind verschiedene
Modellvorstellungen entwickelt worden, die wertvolle Hinweise für die Gestal-
tung von Arbeitssystemen liefern. Sie bieten darüber hinaus einen messtheoreti-
schen Zugang zur Bewertung informatorisch-mentaler Arbeit, z.B. im Hinblick
auf die Analyse mentaler Belastung und Beanspruchung.
3.3.1.1 Phänomenologisch-empirischeĆModelleĆ
Phänomenologisch-empirische (biologische) Modelle der menschlichen Informa-
tionsverarbeitung zielen darauf ab, den Ablauf und die beteiligten wahrnehmungs-
und kognitionspsychologischen Funktionsbereiche zu beschreiben. Im Wesentli-
chen können sequentielle Modelle und Kapazitätsmodelle unterschieden werden.
Sie sollen nachfolgend im Detail behandelt werden.
3.3.1.1.1 Sequentielle Modelle
Sequentielle Modelle der Informationsverarbeitung beschreiben den Fluss der
Information durch den Organismus – von einem wahrgenommenen Reiz bis zur
Ausführung einer Reaktion. Grundannahme ist, dass Informationsverarbeitung
Zeit kostet. Leistungsvariabilität wird auf Anzahl und Art der zu durchlaufenden
Stufen der Verarbeitung zurückgeführt und üblicherweise durch die Reaktionszeit
gemessen, weshalb sie auch als Stufenmodelle bezeichnet werden. Diese Modelle
gehen davon aus, dass mehrere sequentielle Verarbeitungsstufen durchlaufen
werden. Die linearen Stufenmodelle betonen die Tatsache, dass Stimulus und
Reaktion (response) über eine Reihe von Transformationen miteinander verbun-
den sind. Diese Transformationen sind streng seriell, d.h. die nachfolgende Stufe
kann erst dann begonnen werden, wenn die vorherige durchlaufen ist. Eine korrek-
te Interpretation oder Voraussage von Ergebnissen kann nur anhand einer mög-
288 Arbeitswissenschaft
lichst präzisen Beschreibung der Art und Struktur solcher Transformationen statt-
finden.
3.3.1.1.1.1 Subtraktionsmethode
Einer der ersten Versuche, mentale Prozesse systematisch zu erkunden, stammt
aus dem Jahr 1868 und wurde vom Ophthalmologen Frans C. Donders unternom-
men (siehe Jubiläumsabdruck DONDERS 1969). Er war fasziniert von Helmholtz's
Entdeckung, dass die neurale Übertragung von Signalen Zeit kostet und sich nicht,
wie bis dahin angenommen, augenblicklich vollzieht. Donders fragte sich, ob die
Geschwindigkeit des Denkens messbar sei. Um diese Frage zu beantworten, führte
er eine bestechend einfache Methode zur Analyse von Reaktionszeiten ein. Seine
Methode basiert auf der heute von den meisten Wissenschaftlern nicht mehr ge-
teilten Annahme, dass mentale Prozesse streng seriell ablaufen und die „Durch-
laufzeiten“ durch die einzelnen Stufen der Verarbeitung additiv sind. Er entwarf
drei Typen von Reaktionszeitaufgaben, die in Tabelle 3.8 dargestellt sind.
Tabelle 3.8: Reaktionszeitaufgaben von DONDERS
3.3.1.1.1.2 Kaskadenmodelle
Während Stufenmodelle davon ausgehen, dass der Prozess [n+1] erst beginnen
kann, wenn der Prozess [n] vollständig ausgeführt ist, basieren Kaskadenmodelle
auf der Annahme, dass mehrere Prozesse simultan anlaufen und sich gleichzeitig
fortpflanzen. Diese Prozesse sind als einfaches Netzwerk miteinander verknüpft.
Die genannte Betrachtungsweise schließt die Möglichkeit ein, dass die Prozesse
eine mentale Ressource gleichzeitig in Anspruch nehmen. Somit dient das Kaska-
denmodell als Übergang vom Stufen- zu den später ausführlich erläuterten Kapa-
zitätsmodellen.
3.3.1.1.1.3 Regulationsebenenmodelle
Eine Betrachtung von Informationsverarbeitungsvorgängen auf verschiedenen
Abstraktionsebenen erlauben sog. Regulationsebenenmodelle. Dabei werden be-
wusste und unbewusste mentale Prozesse unterschieden und es wird individuellen
Trainings- oder Lernzuständen Rechnung getragen (SCHLICK 1999; SCHMIDT
2007a). Wie bei den Kaskadenmodellen ermöglichen die Regulationsebenen eine
simultane Informationsverarbeitung, die sich jedoch auf Hierarchieebenen voll-
zieht. Auf den einzelnen Hierarchieebenen werden jedoch nach wie vor sequenti-
elle Funktionsketten differenziert.
Das wohl prominenteste Regulationsebenenmodell entstammt den „Unified
Theories of Cognition“ von NEWELL (1990, 1992). Es postuliert vier „Bänder“
menschlicher Informationsverarbeitung: biologisch, kognitiv, rational und sozial.
Diese Bänder können anhand der Zugriffszeiten auf die Speicherstrukturen diffe-
renziert werden. Die akkumulierte Betrachtung elementarer Zugriffsmechanismen
eines Bands bzw. der zugehörigen Zugriffszeiten führt dabei jeweils auf das
nächsthöhere (Sub-)Band, dessen Zykluszeit jeweils in etwa um den Faktor zehn
höher liegt. Mit einer Zykluszeit von 100 Ps bis 10 ms beinhaltet das biologische
Band in drei Subbändern die neuronalen Funktionen (elektrochemisch arbeitende
Organellen, daraus zusammengesetzte impulsverarbeitende Neuronen und aus
diesen Nervenzellen kombinierte Schaltkreise). Das darüber liegende kognitive
Band umfasst wiederum drei Subbänder, bei denen nun aber auf entfernte symbol-
hafte Wissensstrukturen zugegriffen wird. Auf dem untersten Subband repräsen-
290 Arbeitswissenschaft
Ziele Wissensbasiertes
Verhalten
Identifizieren Entscheiden Planen • Strukturiertes Mentalmodell für
Symbole
unbekannte Situationen
• Vorwärts- u. Rückwärtsverkettung
beim Schlussfolgern
• Bewusste Handlungsregulation
Regelbasiertes
Verhalten
Erkennen Assoziieren Regeln • Heuristiken, „Kochrezepte“ für
Zeichen
bekannte Situationen
• Vorwärtsverkettung (WennÆDann)
• Bewusste Handlungsregulation
Fertigkeitsbasiertes
Merkmals - (Signale) Sensumotorische
funktion Muster
Verhalten
• Erlernte oder intuitive
sensumotorische Muster
Sensorischer Input Signale Handlungen • Unbewusste Handlungsregulation
3.3.1.1.2 Kapazitätsmodelle
Die Stufenmodelle tragen der Erfahrung Rechnung, dass menschliche Informati-
onsverarbeitung Zeit kostet. Insbesondere in der psychophysiologisch geprägten
Aktivierungstheorie und der kognitionspsychologisch geprägten Aufmerksam-
keitstheorie wurden weitergehende Modellvorstellungen entwickelt, die nicht den
Zeitverbrauch, sondern die Zuweisung „kognitiver Kapazität“ bzw. die Regulation
des damit verbundenen „Energieeinsatzes“ in den Mittelpunkt stellen. Vorrangiger
Zweck dieser Modelle ist es, einen messtheoretischen Zugang für die Erfassung
von mentaler Beanspruchung zu formulieren (siehe Kap. 3.3.3). Beide Theorien
gehen davon aus, dass die für die Informationsverarbeitung zur Verfügung stehen-
de Kapazität begrenzt ist und die psychophysiologischen Reaktionen des Men-
schen auf informatorische Arbeit im Sinne einer mentalen Beanspruchung als
Kapazitätsaktivierung bzw. -ausschöpfung beschrieben werden können.
Mechanismen
der Aufgaben-
und Situations- 1. Ebene
Beurteilung und Bewältigung
bewältigung
Psychisch- Anstrengung
Energetische 2. Ebene
Mechanismen
Erregung Aktivierung
Wachsamkeit Anspannung
Reaktion
Ver-
arbeitungs Reiz Sensorische Reiz- Merkmals- Handlungs- Motorische
3. Ebene
stufen Vorverarbeitung Extraktion auswahl Regulation
Rückkoppelungs-
Beispiele für Reizintensität Signalqualität Signal-Reaktions- Zeitliche schleifen
experimentell R i
Reizspezifität
ifität G t lt“
„Gestalt“ K
Kompatibilität
tibilität Unsicherheit
U i h h it
belegte
Einflussgrößen
Stufe 1 Stufe 2 Stufe 3 Stufe 4
Allocation
Policy
Bewertung der
Momentane Absichten Nachfrage
nach Kapazität
mögliche Aktivitäten
Reaktionen
Die psychophysische Aktiviertheit ist eng verbunden mit der Aktivität des
sympathischen Nervensystems und lässt sich demzufolge mittels physiologischer
Indikatoren wie Herzschlagfrequenz, Blutdruck, Lidschlussfrequenz, Pupillen-
durchmesser etc. messen oder anhand von Selbsteinschätzungen ermitteln (siehe
Kap. 3.3.3.2). Da die Aktivierungstheorie einen verhältnismäßig einfach zu erklä-
renden Zusammenhang zwischen dem Informationsverarbeitungsprozess und
physiologischen Indikatoren herstellt, dient sie vielfach als Grundlage für psycho-
physiologische Untersuchungen (AASMAN et al. 1987; LUCZAK 1987; AGARD
1989; BARTENWERFER 1969; MANZEY 1998; VELTMAN u. GAILLARD 1994).
Der nicht angenommenen Spezifität der psychophysischen Aktiviertheit wider-
spricht die Existenz empirisch nachgewiesener spezifischer Aktivierungsmuster,
die bei STEMMLER (2001) wie folgt definiert sind:
x Situationsspezifische Reaktionsmuster beschreiben den Interaktionseffekt Si-
tuation u Variable und postulieren stabile Unterschiede zwischen den Reak-
tionsprofilen innerhalb von Situationen
x Individualspezifische Reaktionsmuster beschreiben den Interaktionseffekt
Person u Variable und postulieren stabile Unterschiede zwischen den Reak-
tionsprofilen von Personen
x Motivationsspezifische Reaktionsmuster beschreiben den Interaktionseffekt
Situation u Person u Variable und postulieren stabile Unterschiede zwischen
den Reaktionsprofilen auf Situationen bei einer Person.
Diese Reaktionsspezifitäten sowie die bei Anwendung verschiedener Aktivie-
rungsindikatoren zu beobachtenden geringen Kovariationen der physiologischen
Indikatoren untereinander und in Bezug zu subjektiven bzw. verhaltensbezogenen
Maßen sprechen für die Mehrdimensionalität des Aktivierungsmechanismus. Dem
folgend unterteilen PRIBRAM u. MCGUINNESS (1975, zitiert in MANZEY 1998) den
Aktivierungsmechanismus in drei miteinander interagierende Funktionssysteme,
die die Aktivität des zentralen Nervensystems beeinflussen:
x Ein Arousal-System, das primär selektive Aufmerksamkeitsprozesse steuert
und physische Aktivierungsprozesse, insbesondere Orientierungsreaktionen
auf neuartige Wahrnehmungen, auslöst
x Ein Activation-System, das motorische Prozesse kontrolliert und tonische
Aktivierungsprozesse, d.h. eine erhöhte Reaktionsbereitschaft, auslöst
x Ein Effort-System, das die Aktivitäten von Arousal- und Activation-System
koordiniert und bspw. bei inkompatiblen Reiz-Reaktions-Verknüpfungen ei-
ne Entkopplung dieser beiden Systeme herbeiführt.
Aufmerksamkeit
Ressourcen
Langzeit-
Gedächtnis
Auswahl Arbeits-
Gedächtnis
Umwelt
unmittelbare unmittelbare Interaktion
Informationsübertragung Mensch – System/Umwelt
Datenlimitiert
Ressourcenlimitiert
eistung
Le
Ressource L
Rmin Rdl
Eine PRF kann sowohl kontinuierlich als auch abschnittsweise diskret sein. Ei-
ne abschnittsweise diskrete PRF liegt vor, wenn sich die Leistung stufenartig
ändert und entsprechend diskret steigende Ressourcen erfordert. Dies kann der
Fall sein, wenn eine minimale Ressourcenmenge erforderlich ist, um einen Anfang
der Verarbeitung zu ermöglichen (Rmin). Eine ausschließlich datenlimitierte Funk-
tion würde einen horizontalen Verlauf ergeben, unabhängig von den investierten
Ressourcen. Eine ausschließlich kontinuierliche ressourcenlimitierte Funktion
würde einen monoton steigenden Verlauf vom Ursprung bis zum Ressourcenlimit
L ergeben. Ein spezieller Fall einer solchen ressourcenlimitierten Funktion ist
gegeben wenn die Leistung proportional mit der Quadratwurzel der Menge an
Verarbeitungsressourcen ansteigt. Dieser Funktionstyp wird u.a. beim
d' - Leistungsmaß für Signalentdeckungsaufgaben beobachtet (siehe Kap.
3.3.1.2.1.2). Eine PRF muss nicht immer alle diese genannten Verlaufscharakteris-
Arbeitsformen 297
tika aufweisen. Die exakte Form der PRF hängt von den gelieferten Ressourcen
und der Art der Aufgabe ab.
Wenn die totale Kapazität verschiedenen Prozessen zugeordnet werden muss,
ermöglicht die PRF, die sich daraus ergebende Leistungsverteilung zu bestimmen.
Außerdem können die sich aus einer geänderten Ressourcenzuweisung ergeben-
den Veränderungen der Leistung einfach berechnet werden. Im einfachsten Fall,
bei dem zwei Informationsverarbeitungsprozesse auf die gleiche Ressource zu-
greifen müssen, ist es möglich, eine „Performance Operating Characteristic“
(POC) zu erstellen, die angibt, wie die Leistung bei der einen Aufgabe die bei der
anderen Aufgabe beeinflusst. Es ist natürlich auch möglich, eine solche Kurve für
n Prozesse zu erstellen. Eine POC wird unter der Annahme berechnet, dass die
verfügbare Ressourcenmenge R konstant ist. Wenn Aufgabe X eine Menge x der
Ressourcen braucht, hat die Aufgabe Y die Anzahl R - x zur Verfügung. Um eine
Kurve zu erstellen, werden x bzw. y zwischen 0 und R systematisch variiert.
I.Allg. wird die POC eine stetig fallende Beziehung zwischen den Leistungen von
Aufgabe X und Aufgabe Y aufweisen. Wenn nur eine der Aufgaben datenlimitiert
ist, wird die Kurve entweder horizontal oder vertikal verlaufen (Abb. 3.53). Sind
beide Prozesse datenlimitiert, ist die sich ergebende Funktion ein einziger Punkt.
Anwendung findet das der POC zugrundeliegende Prinzip bei der Doppeltätig-
keit bzw. Zweitaufgabentätigkeit (siehe Kap. 3.3.3.2.3), die von BORNEMANN
(1943) erfunden wurde. Oftmals zeigen Informationsverarbeitungsaufgaben über
weite Bereiche der Aufgabenschwierigkeit eine konstante Leistung.
Leistung in
Aufgabe A
c
b
a
Leistung in
Aufgabe B
Abb. 3.53: Performance Operating Characteristic; Beispiele für Kurven der wechselseitigen
Leistungsbeeinflussung zweier Tätigkeiten: a: starke Interferenz; b: mittlere Interferenz;
c: keine Interferenz
erklären. Das große Maß an Effizienz, mit dem manuelle und vokale Infor-
mationsausgaben gleichzeitig durchgeführt werden können, basiert darauf,
dass manuelle Reaktionen (sog. Responses) überwiegend räumlich (rechts-
hemisphärisch), vokale Äußerungen überwiegend verbal (linkshemisphä-
risch) kodiert sind. Während also Aufgaben, die hauptsächlich unterschiedli-
che Ressourcen benutzen, relativ gut gleichzeitig durchgeführt werden kön-
nen, kommt es bei Aufgaben, die von denselben Ressourcen Gebrauch ma-
chen, zu Interferenzen. Eine Gedächtnisleistung wird etwa durch den Ver-
such, eine Rechenaufgabe zu lösen, stärker gestört, als durch die gleichzeiti-
ge Ausführung einer gezielten Handbewegung. Umgekehrt wird die Betäti-
gung von Schaltern durch eine Zielbewegung der anderen Hand stärker ge-
stört als durch eine Rechenaufgabe.
Die Annahme multipler Ressourcen erlaubt es, die geschilderten Inkonsistenzen
der einfachen Ressourcenmodelle aufzuklären. Die Rechenaufgabe, so lässt sich
nun argumentieren, interferiert mit der Gedächtnisleistung so stark, weil gemein-
sam „kognitive“ Ressourcen beansprucht werden, während die Zielbewegung mit
der Betätigung von Schaltern besonders interferiert, weil beide „motorische“ Res-
sourcen beanspruchen. Die übungsabhängige Koordination von zwei Leistungen
lässt sich damit als Abbau der Beanspruchung gleicher Ressourcen ansehen.
Verarbeitungsstufe
Reaktions-
Perzeption Kognition
ausführung
An
räumlich motorisch
tw
Wahrnehmungsmodalität
or
verbal sprachlich
t
visuell
auditiv
Ko
räumlich
di
er
un
g
verbal
noch mehr oder andere Dimensionen, die zu berücksichtigen sind. Hierzu gehören
z.B. „Timing“-Anforderungen (z.B. das Klopfen eines Rhythmus' und eine gleich-
zeitige Konversation) und Ähnlichkeitseffekte (z.B. bei grafischen Darstellungen
auf einem Bildschirm). Außerdem dürfen die „Zellen“ in Abb. 3.54 nicht so inter-
pretiert werden, dass ein perfektes Time-Sharing immer dann möglich ist, wenn
unterschiedliche Zellen belegt werden. Perfektes Time-Sharing ist dem Menschen
so gut wie unmöglich. Im Sinne wissenschaftlicher Exaktheit wäre es weiterhin
wünschenswert zu wissen, über wie viel verschiedene Ressourcen das menschli-
che Gehirn verfügt, wie stark die Interdependenzen zwischen den Ressourcen sind
und ob es neben spezifischen auch eine zentrale Ressource gibt, die etwa für
Koordinationsaufgaben verantwortlich ist. Die Versuche zur Beantwortung dieser
Fragen führten allerdings nicht zu konvergierenden Einsichten, sondern zu einer
inflationären Differenzierung von immer neuen Ressourcen.
3.3.1.2 Mathematisch-funktionaleĆModelleĆ
Mathematisch-funktionale (technische) Modelle der menschlichen Informations-
verarbeitung zielen darauf ab, die mentalen Prozesse mittels Gleichungen zu be-
schreiben. In den meisten Fällen wird man zwar die in realen Entscheidungssitua-
tionen erforderlichen sehr komplexen Wahrnehmungs- und Kognitionsprozesse
nur unvollständig in dieser Form beschreiben können. Durch eine rigorose quanti-
tative Modellierung können jedoch fundamentale Eigenschaften und insbesondere
Leistungsgrenzen der menschlichen Informationsverarbeitung identifiziert werden.
Darüber hinaus liefern quantitative Modelle wichtige Hinweise für die in Kapitel
10.1.3 behandelte informationstechnische Gestaltung von Arbeitssystemen.
3.3.1.2.1 Signalentdeckungstheorie
Wenn ein kritisches Ereignis in der Arbeitsumgebung vom Menschen sicher
wahrgenommen werden soll, geht es um die Frage der Signalentdeckung. Dabei
werden in einem ersten Ansatz lediglich zwei Zustände differenziert: ein Signal ist
entweder anwesend oder abwesend. Der binäre Entscheidungsprozess zwischen
Signal und Rauschen wird im Rahmen der Signalentdeckungstheorie, die ur-
sprünglich aus der Nachrichtentechnik stammt und von der Psychologie rezipiert
wurde, statistisch modelliert. Beispiele hierfür sind die Entdeckung von Kontakten
auf einem Radarbildschirm oder eines Tumors auf einem Röntgenbild. Die Kom-
bination von jeweils zwei Zuständen der „Wirklichkeit“ mit zwei Antwortmög-
lichkeiten führt zu einer 2 x 2 Matrix, die in Tabelle 3.9 skizziert ist. Die Zellen
der Matrix repräsentieren vier mögliche Antwortkategorien, nämlich „Correct
Rejection“ (CR: korrekte Zurückweisung), „Miss“ (ausgelassene Antwort),
„False Alarm“ (FA: falsche Antwort) und „Hit“ (richtige Antwort).
Arbeitsformen 301
Eine perfekte Leistung entspricht einer Belegung der Zellen, in der keine „Mis-
ses“ oder „False Alarms“ auftreten. In der Realität werden jedoch aufgrund der
begrenzten menschlichen Zuverlässigkeit Notierungen in allen vier Zellen zu
verzeichnen sein.
In der Signalentdeckungstheorie wird das Antwortverhalten auf anwesende
Stimuli durch bedingte Wahrscheinlichkeiten beschrieben. Die Wahrscheinlich-
keiten werden durch die relative Häufigkeit der Notierungen geschätzt. Hierbei
wird die Anzahl der Notierungen in einer Zelle durch die Gesamtzahl geteilt. Die
Gesamtzahl ist spaltenweise akkumuliert. 5 Hits und 15 Misses werden also ge-
schrieben als
5
P( Hit ) 0, 25 (3.2)
5 15
Nach der Signalentdeckungstheorie erzeugen externe Stimuli eine messbare
neurale Aktivität im Hirn. Es wird angenommen, dass eine stärkere neurale Akti-
vität erzeugt wird, wenn ein Signal präsent ist. Die sog. neurale Evidenz (Zufalls-
variable X) kann als „Feuerrate“ von Neuronen in einem hypothetischen Entde-
ckungszentrum interpretiert werden. Diese Rate unterliegt zwar statistischen Fluk-
tuationen, korreliert jedoch positiv mit der Stimulusintensität. In Abb. 3.55 sind
die bedingten Wahrscheinlichkeitsdichtefunktionen von X aufgetragen, wenn
entweder ein Rauschen (links) oder ein Signal (rechts) gegeben ist. Die Dichte-
funktionen werden zwar typischerweise als normalverteilt angenommen, sind
jedoch rein hypothetisch. Der Kreuzungspunkt der beiden Normalverteilungen
beschreibt diejenige Stützstelle, an der die Wahrscheinlichkeit, dass X durch Rau-
schen verursacht wird, gleich ist mit der Wahrscheinlichkeit, dass X von einem
Signal erzeugt wird. Alle Werte links von diesem Punkt lassen den Operateur mit
„Nein“ antworten, alle rechts davon mit „Ja“. Die Flächen unter den Kurven ent-
sprechen von links nach rechts den oben eingeführten Antwortkategorien CR,
Miss, FA und Hit. Da die Fläche unter den Kurven zu 1 normiert ist, müssen
P(Hit) und P(Miss) sowie P(CR) und P(FA) zusammen 1 ergeben.
302 Arbeitswissenschaft
3.3.1.2.1.1 Antworteigenschaften
Der Mensch kann mit Hilfe der Signalentdeckungstheorie in Bezug auf seine Nei-
gung zu einer „Beantwortungsschiefe“ (response bias) beurteilt werden. Eine
Person kann die Neigung haben, öfter „Ja“ als „Nein“ zu antworten, und dadurch
zwar die meisten Signale „entdecken“, jedoch auch viele falsche Alarme erzeugen.
Solche Personen bezeichnet man als „risky responders“. Umgekehrt kann eine
Person konservativ sein, oft mit „Nein“ antworten und wenige FAs auslösen, je-
doch auch viele Signale nicht entdecken. Verschiedene Umstände bestimmen,
welche Strategie die Beste ist: wenn eine Radiologin ein Röntgenbild eines Patien-
ten betrachtet, der mit kritischen Symptomen zu ihr überwiesen wurde, kann es
angebracht sein, eher als „risky responder“ aufzutreten. Ein Maschinenführer in
der flexiblen Fertigung kann hingegen von seinem Vorgesetzten angewiesen wor-
den sein, keine unnötigen Stillstände zu verursachen und entsprechend konservativ
zu reagieren, wobei billigend in Kauf genommen wird, dass eine Fehlfunktion
nicht oder nicht rechtzeitig entdeckt wird. Bezogen auf Abb. 3.55 bedeutet dies,
dass für ein nach rechts verschobenes Entscheidungskriterium Xc eine besonders
große Evidenz notwendig ist, um überschritten zu werden, und die meisten Ant-
worten des Operateurs werden „Nein“ sein. Positiv korreliert mit Xc ist die Variab-
le ß:
P( X | S )
E (3.3)
P( X | N )
Sie beschreibt das Verhältnis der Werte beider Kurven bei einem gegebenen Xc.
Große Werte von ß liefern weniger Hits und weniger FAs. ß ist daher ein sog.
Bias-Parameter, der die Auswirkungen bzw. den Nutzen einer Antwort beschreibt.
Anhand von Abb. 3.55 wird deutlich, dass sich ein ß von 1 ergibt, wenn die Va-
Arbeitsformen 303
rianzen der normalverteilten Rausch- und Signalkurven identisch sind und somit
P(Hit) = P(CR) und P(FA) = P(Miss) ist. Man kann genau bestimmen, wo das
optimale ß-Kriterium liegt, vorausgesetzt, dass die Verteilungsfunktionen sowie
Auswirkungen und Nutzen der vier möglichen Entscheidungsergebnisse bekannt
sind.
Wenn es keinen Unterschied im Nutzen der richtigen Ergebnisse (CR und Hits)
und keinen Unterschied in der Auswirkung der beiden falschen Antworten (FA
und Miss) gibt, ist die optimale Leistung die, bei der die Anzahl der Fehler mini-
mal ist. Bei einer Symmetrie wie in Abb. 3.55 liegt die optimale Leistung auf dem
Schnittpunkt beider Kurven, d.h. bei ß = 1. Intuitiv ergibt sich, dass das Kriterium
für einen Hit gesenkt wird, wenn ein Signal wahrscheinlicher ist (siehe das Bei-
spiel der Radiologin). Umgekehrt ist bei kleinerer Wahrscheinlichkeit ein höheres,
konservativeres Kriterium angebracht. Formal ist diese Anpassung zu schreiben
als
P( N )
E opt . (3.4)
P(S )
Das optimale Niveau von ß kann von „Belohnungen“ und „Strafen“ beeinflusst
werden. In diesem Fall wird das Optimum von ß nicht von einer minimalen Feh-
lerzahl bestimmt, sondern vom maximalen „Gewinn“. Wenn es wichtig ist, kein
einziges Signal zu verfehlen, kann der Systembenutzer „belohnt“ werden für Hits
und „bestraft“ für Misses, so dass ß auf ein niedrigeres Niveau eingestellt wird.
Solche Auswirkungen und Nutzen können in ein optimales ß übersetzt werden,
indem man Gleichung (3.4) wie folgt erweitert
P ( N ) V (CR) C ( FA)
E opt . (3.5)
P( S ) V ( Hit ) C ( Miss )
Dabei repräsentiert die Variable V den zugeordneten Wert eines erwünschten
Ergebnisses (Hit oder CR). C stellt die Auswirkungen (Kosten) eines unerwünsch-
ten Ergebnisses (Miss, FA) dar. Jede Zunahme von P(S), V(Hit) oder C(Miss)
reduziert den Wert von ßopt und löst risikovollere Reaktionen aus. Praktisch passt
sich der Mensch zwar meistens an die geänderten Bedingungen an, häufig jedoch
in geringerem Maße, als von ßopt vorhergesagt wird. Offen dabei bleibt jedoch die
auch ethisch problematische Frage, wie Kosten und Nutzen quantifiziert werden
sollen: wie viel „kostet“ z.B. ein Flugzeugabsturz oder ein unentdeckter Tumor?
3.3.1.2.1.2 Empfindlichkeit
Nicht nur durch ein konservatives Entdeckungsverhalten können Signale unent-
deckt bleiben, sondern auch weil die Empfindlichkeit des Entdeckungsprozesses
zu niedrig ist. Nach der Darstellung in Abb. 3.55 kann die Empfindlichkeit als die
Trennung zwischen Rauschen und Signal betrachtet werden.
304 Arbeitswissenschaft
5
$
1
%
7UHIIHUTXRWH
&
4XRWH)DOVH $ODUP
Wenn die Trennung scharf ist, ist die Empfindlichkeit hoch und ein bestimmter
Wert von X hat eine große Chance, entdeckt zu werden. Da unterstellt wird, dass
die Kurven interne Prozesse repräsentieren, kann deren Trennung beeinflusst
werden von den Merkmalen des Signals (z.B. Änderung in Intensität oder Auffäl-
ligkeit) oder von Eigenschaften des Individuums (z.B. Hörschäden, Mangel an
Ausbildung, usw.). In Abb. 3.55 wurden bereits zwei Beispiele für eine hohe
(oben im Bild) und eine niedrige Empfindlichkeit (unten) dargestellt. Die Emp-
findlichkeit wird mit d' bezeichnet und entspricht dem Abstand der Mittelwerte
der Dichtefunktionen aus Abb. 3.55, ausgedrückt im Vielfachen ihrer Standard-
abweichungen. In den meisten Anwendungsfällen liegt d' zwischen 0,5 und 2,0.
Wie der response bias hat auch d' einen Optimalwert, der hier aus Platzgründen
nicht wiedergegeben werden soll. Ergebnisse aus Laborversuchen lassen vermu-
ten, dass Abweichungen eines optimalen d' aus einer mangelhaften Erinnerung an
die genauen physikalischen Merkmale des Signals resultieren. Wenn „Gedächtnis-
stützen“ gegeben werden, die eine genauere Erinnerung fördern, nähert d' sich
dem optimalen Niveau.
Eine graphische Methode, um die Empfindlichkeit d' abzubilden, ist bekannt
geworden als „Receiver Operating Characteristic“, kurz „ROC“ (Abb. 3.56). In
einer ROC-Kurve wird die Wahrscheinlichkeit eines Hits gegen die Wahrschein-
lichkeit eines False Alarms aufgetragen. In Abb. 3.56 sind die ROC's zweier Ope-
rateure abgebildet, wobei jeder versucht hat, eine Reihe von Signalen zu entde-
cken. Kurve A ist die Leistung eines empfindlichen Beobachters, der viel mehr
Hits als False Alarms produziert, unabhängig davon, ob A konservativ (C), neutral
(N) oder risikovoll (R) reagiert. Diese drei Punkte entsprechen jeweils einem
hohen, mittleren und niedrigen Niveau von ß. Kurve B stellt die Leistung eines
weniger empfindlichen Beobachters dar, für den die Wahrscheinlichkeit eines
FA's stets nahe bei der Wahrscheinlichkeit eines Hits liegt, unabhängig vom Ni-
veau von ß. Die ROC ermöglicht es, verschiedene Entdeckungsstile abzubilden
Arbeitsformen 305
und die Leistungen zweier Beobachter oder eines Beobachters an zwei Systemen
zu vergleichen.
3.3.1.2.2 Informationstheorie
Im Alltagsverständnis wird Information als etwas Immaterielles angesehen, das
man in der Zeitung zu lesen oder im Fernsehen zu sehen bekommt. Erforscht man
jedoch die menschliche Informationsverarbeitung, so reicht dieses naive Ver-
ständnis natürlich bei weitem nicht aus. Hierzu bedarf es einer exakten Definition
der Information und einer Methode zu ihrer Messung. Dieses Instrumentarium
wird von der Informationstheorie zur Verfügung gestellt (siehe WIENER 1963), die
ebenso wie die Signalentdeckungstheorie der Nachrichtentechnik und Kybernetik
entstammt.
berechnet und gewichtet werden. Die Gewichtung wird durch den Erwartungswert
hergestellt. Der erwartete Informationsgehalt H(X) eines Ensembles von N dis-
junkten Ereignissen ai berechnet sich wie folgt:
N
1
H(X ) ¦ P( X
i 1
ai )log2
P( X ai )
N
(3.8)
¦ P( X ai )log2 P( X ai )
i 1
Die Variable H wird auch Entropie genannt und ist eine wichtige Basisgröße
der Informationstheorie (siehe WIENER 1963). Der Entropiebegriff ist an die
Thermodynamik angelehnt. Die Entropie misst den „Grad der Unsicherheit“ vor
dem Eintreten von zufälligen Ereignissen. Haben bspw. zwei komplementäre
Ereignisse Wahrscheinlichkeiten von 0,9 bzw. 0,1, so beträgt die Entropie
H = 0,47 bit (H = -[0,9log2(0,9) + 0,1log2(0,1)]). Ist entweder das eine oder das
andere Ereignis dann tatsächlich eingetreten, so wird die Unsicherheit eliminiert
und die Entropie auf Null reduziert. Wie man leicht sieht, stellt sich ein
Entropiemaximum immer dann ein, wenn die Eintretenswahrscheinlichkeiten der
Ereignisse gleich sind und analog zu Gleichung (3.7) gilt Hmax = log2 N. Je größer
die Abweichung von der Gleichverteilung, desto größer ist die Reduktion der
Entropie gegenüber dem Maximum. Dies führt zum Konzept der Redundanz R
(von latein. redundare „im Überfluss vorhanden sein“), die sich definieren lässt
als:
H(X ) H(X )
R( X ) 1 1 (3.9)
H max log 2 N
Da in einer menschlichen Sprache, wie z.B. Englisch, die Buchstaben eine un-
terschiedliche Häufigkeit besitzen und gewisse Buchstaben häufig gemeinsam
auftreten (z.B. th und st), hat geschriebenes Englisch einen geschätzten Grad an
Redundanz von ca. 68 Prozent. Durch die Redundanz enthält die Folge von Buch-
staben Symbole, die nicht zwingend für die Interpretation notwendig sind und ein
falsches Ergebnis liefern, wenn man sie falsch dekodiert. Die Redundanz hilft dem
Menschen jedoch, wichtige Informationen trotz eines partiellen Datenverlusts
noch entziffern und interpretieren zu können. Sie schützt also vor Informations-
verlust und erlaubt zudem, verfälschte Information als solche zu erkennen.
zwei bekannte Gesetzmäßigkeiten für die Prognose des Zeitverbrauchs bei Wahl-
reaktionsaufgaben, nämlich das Hick-Hyman´sche Gesetz (HICK 1952; HYMAN
1953) sowie das Fitts´sche Gesetz (FITTS 1954), informationstheoretisch begründet
und formuliert. Das Hick-Hyman´sche Gesetz wird verwendet, um die Kapazitäts-
grenze der menschlichen Informationsverarbeitung aufzuzeigen. Bevor der
Mensch auf ein Signal reagiert, muss er eine Auswahl treffen. Eine einfache Aus-
wahlaufgabe besteht z.B. darin, beim Aufleuchten eines roten Alarmindikators
einen bestimmten Knopf zu drücken und beim Aufleuchten eines grünen Indika-
tors einen anderen. Die Zeit, die zwischen dem Aufleuchten und dem Betätigen
des richtigen Knopfs vergeht, heißt Auswahl-Reaktionszeit. Je größer die Wahl-
möglichkeiten sind, desto länger dauert es natürlich, die Entscheidung für die
richtige Handlung zu treffen. Die mittlere Auswahl-Reaktionszeit T nach einem
Reiz ist nach dem Gesetz von Hick-Hyman proportional zur differentiellen Entro-
pie Hd der Entscheidung:
N
§ 1 ·
T b Hd b ¦ pi log 2 ¨ 1¸ (3.10)
i 1 © pi ¹
In Gleichung (3.10) repräsentiert pi die Eintretenswahrscheinlichkeit des der
Auswahl zugrunde liegenden Ereignisses i bei insgesamt N Alternativen; b ist eine
Konstante, die empirisch ermittelt wird.
Auch FITTS (1954) leitete die nach ihm benannte Gesetzmäßigkeit informati-
onstheoretisch ab und fand sie in zahlreichen empirischen Untersuchungen bestä-
tigt. Die Originalaufgabe bestand einfach darin, Ziele mit einem handgeführten
Stift zu treffen. Das Fitts´sche Gesetz prognostiziert den zugehörigen mittleren
Zeitverbrauch. Parameter sind der Abstand A vom Startpunkt bis zur Mitte des
Ziels sowie die Zielbreite W in Bewegungsrichtung. Details zum Fitt´schen Gesetz
finden sich in Kap. 10.1.2.4.2 zur informationstechnischen Gestaltung.
Trotz der unbestrittenen Erfolge bei der Analyse und Modellierung von Wahl-
reaktionsaufgaben konnte die Informationstheorie die ursprünglich geweckten
Erwartungen nicht erfüllen und ihre generelle Bedeutung ging zurück. Das Pro-
blem der Informationstheorie besteht im Wesentlichen darin, dass die Konzepte
eher beschreibend als erklärend sind und nur statistische Hinweise auf die zugrun-
deliegenden Mechanismen der menschlichen Informationsverarbeitung erlangt
werden können (BLAIRD 1984; WICKENS u. HOLLANDS 1999). Weiterhin sind
informationstheoretische Analysen von realen Entscheidungsprozessen aufwendig
und erfordern profunde Kenntnisse in der Wahrscheinlichkeitsrechnung. In den
letzten Jahren ist trotz dieser Probleme eine gewisse „Renaissance“ der Informati-
onstheorie in der Forschung festzustellen, um bspw. die Informationsverarbeitung
von Nervensystemen zu modellieren (SCHNEIDMAN et al. 2003) oder die Komple-
xität der Mensch-Maschine-Interaktion zu analysieren (KANG u. SEONG 2001;
SCHLICK 2004; SCHLICK et al. 2006). Insbesondere komplexitätstheoretische Bei-
träge zur Modellierung und Bewertung der menschlichen Informationsverarbei-
tung stützen sich intensiv auf die im vorherigen Abschnitt dargestellten Basisgrö-
308 Arbeitswissenschaft
Spindel-
rezeptoren
Sehnenrezeptoren
Hautafferenzen
Abb. 3.57: Regelkreis mit dem Menschen als Regler nach MARIENFELD (1970)
Die Führungsgröße w wird hierbei vorgegeben, z.B. das Halten eines vorgege-
benen Abstands zum Fahrbahnrand bei der Fahrzeugführung. Die Aufgabe des
Regelkreises besteht nun darin, die Regelgröße x des Gesamtsystems möglichst
genau an die Führungsgröße w anzupassen. Da das Systemverhalten aufgrund von
Störgrößen z nicht immer genau vorherzusagen ist, z.B. aufgrund von spontanen
seitlichen Windkräften bei der Fahrzeugführung, muss die Möglichkeit bestehen,
Führungsgröße und Regelgröße dynamisch miteinander zu vergleichen und aus
der resultierenden Regelabweichung e Reaktionen abzuleiten. Es entsteht ein
adaptives System für unterschiedliche Aufgabenstellungen und Störeinflüsse.
Der Mensch als Regler erfasst also die Regeldifferenz e als Differenz zwischen
Führungs- und Regelgröße. Diese wird umgesetzt in eine Stellgröße y, die zu-
gleich die Eingangsgröße für das Arbeitsmittel ist und durch die er Einfluss
nimmt. Die Maschine verarbeitet diese dann zur bekannten Regelgröße x. Alle
Größen sind dabei im Zeitverlauf zu betrachten. Hierbei bedient man sich der
bewährten Methodik der Regelungstechnik, die komplexe Mensch-Maschine-
Systeme aus Teilsystemen mit sog. Proportional-, Differential-, Integral-, Totzeit-
gliedern o.ä. synthetisiert. Deren Verhalten lässt sich im Zeitbereich mit Differen-
Arbeitsformen 309
tialgleichungen präzise beschreiben. Wie Abb. 3.57 zeigt, weist der „Regler
Mensch“ neben der äußeren Rückführung über den gesamten Regelkreis noch
zwei innere Rückführungen auf, die über Sehnen- und Spindelrezeptoren die Kraft
und Länge der Muskeln und damit die Lage von Arm und Hand an die Verarbei-
tungszentren melden. Dieser innere Regelkreis hat aufgrund der kürzeren Verar-
beitungswege ein wesentlich schnelleres Reaktionsverhalten als der äußere Kreis,
erreicht jedoch nicht dessen Genauigkeit. Aufgrund der zwangsläufigen Verzöge-
rungen der Reaktion von Mensch und Maschine kann die Regeldifferenz nicht
beliebig schnell ausgeregelt werden, so dass grundsätzlich mit einer Abweichung
zwischen Führungs- und Regelgröße zu rechnen ist. Die unvermeidbaren Reakti-
onsverzögerungen können jedoch bis zu einem gewissen Grad kompensiert wer-
den, wenn der zukünftige Verlauf der Führungsgröße und das dynamische Regel-
kreisverhalten bekannt oder wenigstens gut antizipierbar ist. Durch eine sog. Vor-
haltbildung reagiert der Mensch als Regler typischerweise auf Veränderungen der
Regelgröße viel stärker als auf deren absolute Größe, so dass Abweichungen
schneller ausgeregelt werden können. Eine zu starke Vorhaltbildung kann jedoch
zu einer Instabilität des Systems führen. In einem solchen Fall reagiert der Regel-
kreis so stark auf jede Abweichung, dass er in Eigenschwingungen gerät (z.B.
Schleudergefahr bei einem überladenen Kraftfahrzeug).
Der Mensch ist in der Lage, sein Verhalten je nach Aufgabenstellung in relativ
weiten Grenzen zu verändern und ausreichend eingeübte Reaktionsweisen zu
speichern. Dennoch haben die Eigenschaften der Regelstrecke einen erheblichen
Einfluss. Es zeigte sich, dass gut an menschliche Fähigkeiten adaptierte Systeme
auch von ungeübten Personen besser beherrschbar sind als schlecht angepasste
Systeme von Spezialisten. Die Lernfähigkeit des Menschen kann die reine Para-
meteroptimierung noch übertreffen: Durch den Vergleich von äußerer Wahrneh-
mung und den im Gehirn gespeicherten Konzepten wird ein mentales Modell
aufgebaut, das eine adäquate Repräsentation der äußeren Welt mit ihren Gesetz-
mäßigkeiten darstellt. Es ist dann nicht mehr notwendig, Aktionen tatsächlich
durchzuführen, um ihre Konsequenzen festzustellen, sondern das innere Modell
kann den Verlauf der Dinge selbst antizipieren. Es liefert nach Vorgabe der An-
fangs- und Randbedingungen das wahrscheinlich zukünftige Ergebnis. Diese
Lernfähigkeit ermöglicht es, das Verhalten des Reglers „Mensch“ im Laufe der
Zeit und innerhalb der Grenzen seiner Leistungsfähigkeit für den gesamten Regel-
kreis zu optimieren (Übung) und sich so den Eigenschaften der Regelstrecke (Ma-
schine) anzupassen.
Bei einer unbekannten Regelstrecke oder bei plötzlicher Änderung ihres Ant-
wortverhaltens kann sich der Mensch als Regler somit auf die neuen Gegebenhei-
ten einstellen (sog. Selbsteinstellung, MARIENFELD 1970). Dieser Vorgang lässt
sich in vier Abschnitte gliedern: (1) Erkennen der Änderung in der Regelstrecke,
(2) Ermitteln deren neuer Eigenschaften, (3) Neubildung bzw. Änderung der
Struktur und Parameter zur Erzielung einer stabilen Regelung, (4) Optimierung
der Reglerparameter. „Einfache“ Regelstrecken vermag der Mensch sofort stabil
zu regeln. „Schwierige“ Regelstrecken kann der Mensch zunächst nicht stabilisie-
310 Arbeitswissenschaft
ren, er ist jedoch nach einer Lernphase dazu fähig und kann sich aufgrund der
Kenntnis der Dynamik der Regelstrecke sogar auf ein möglichst optimales Ausre-
gelverhalten einstellen (Beispiel: Kranführer). Bei ständigem Wiederholen der
motorischen Prozesse kommt es allmählich zu einer festen Speicherung von Mus-
tern (sog. fixed action patterns), wodurch die Zugriffszeiten erheblich verkürzt
werden und somit die Ausführungs- und Reaktionsgeschwindigkeiten steigen.
Die große Variabilität von K, TD und TI ergibt sich aus der Anpassungsfähigkeit
des Menschen an verschiedene Regelstrecken.
Trotz umfangreicher theoretischer Analysen und Experimentalreihen war den
ersten regelungstechnischen Ansätzen, die darauf abzielten, Regler-Mensch-
Modelle unabhängig vom zu regelnden System zu entwerfen, nur ein vergleichs-
weise geringerer Erfolg beschieden. Aufgrund der starken Abhängigkeit des
menschlichen Verhaltens von der Regelstrecke entwickelten MCRUER et al. (1967)
einen einfachen, aber sehr wirkungsvollen symbiotischen Ansatz. Symbiotisch
bedeutet, dass Mensch und Maschine als kybernetische Einheit beschrieben wer-
den und nicht der Mensch allein. Das korrespondierende Schnittfrequenz-Modell
(crossover model; siehe SHERIDAN 1992; JÜRGENSOHN 1997) stützt sich auf die
Feststellung, dass der Betrag der Kreisübertragungsfunktion des offenen Regel-
kreises L(s) = GH(s) GS(s) mit einem Menschen GH(s) als Regler auch bei unter-
schiedlichen Strecken GS(s) in einer Dekadenumgebung des Schnittpunkts mit der
Verstärkung 1 (sog. Crossover-Frequenz Zc) in etwa den Verlauf eines Integrierers
(a1/s) hat und weiterhin der Phasengang Mc Werte zwischen S/2 und S annimmt.
Der lineare Ansatz mit Totzeit bei minimaler Parameterzahl lautet:
Zc
GH ( s ) Gs ( s ) e Tt s (3.13)
s
Mc S / 2 Im( s )
mit Tt und 0, 2 5
Zc Zc
Interessanterweise sind die interindividuellen Unterschiede des Frequenzgangs
in der Nähe der Crossover-Frequenz Zc am geringsten. Da dieser Bereich das
dynamische Verhalten des geschlossenen Kreises dominiert, kann gefolgert wer-
den, dass trotz potentiell unterschiedlicher Regelstrategien des Menschen das
Ergebnis immer recht ähnlich ist. In Tt sind die Totzeiten des Menschen und der
Maschine sowie andere phasendrehende Eigenschaften repräsentiert. Die Cross-
over-Frequenz Zc sinkt mit steigender Ordnung der zu regelnden Strecke, wohin-
312 Arbeitswissenschaft
gegen die Totzeit Tt wächst. Vergleicht man das Crossover-Modell mit dem quasi-
linearen Modell aus Gleichung (3.12), so wird deutlich, dass lediglich zwei statt
fünf unbekannte Parameter geschätzt werden müssen. Zwar hängen auch Zc und Tt
von der Strecke und der Eingangfunktion ab, die Streuung ist jedoch vergleichs-
weise gering. In den Folgejahren wurden umfangreiche Kataloge für unterschied-
liche Kombinationen von Strecken und Eingangsgrößen erhoben, so dass das
Modell erfolgreich zur Auslegung von Flugzeugen und Automobilen verwendet
werden konnte. Beispiele für die Anpassung des Reglers Mensch an verschiedene
Strecken, wie Positions-, Geschwindigkeits- und Beschleunigungssysteme, finden
sich in Abb. 3.58. Auch zeitliche Grenzen der Anpassung im Sinne maximaler
Ausdauer sowie der Wirkung von Erholung auf menschliche Beanspruchung und
Ermüdung wurden untersucht (LUCZAK 1978). Später wurden noch
optimaltheoretische Modelle sowie Schalt- und Hybridmodelle entwickelt. Aus-
führliche Darstellungen dieser Modelle finden sich in SHERIDAN (1992) und
JÜRGENSOHN (1997).
Abb. 3.58: Bode-Diagramme des Reglers Mensch bei Positions-, Geschwindigkeits- und
Beschleunigungssystemen (A(jZ): Amplitudenverstärkung in dB, M(Z): Phasenverschie-
bung in Grad, nach JAGACINSKI u. FLACH (2002)
Arbeitsformen 313
3.3.2.1 EntdeckenĆ(früheĆProzesse)Ć
Die Wahrnehmung ist die erste Phase des Informationsumsatzes und dient der
Aufnahme von Information. Diese Aufnahme erfolgt über die Sinnesorgane. Um-
gangssprachlich ist von fünf Sinnen die Rede, tatsächlich sind es einige mehr.
Jedes dieser Sinnesorgane ist auf eine ganz bestimmte Wahrnehmungsart – die
sog. Modalität – spezialisiert, d.h. es kann bestimmte Reize in einem bestimmten
Intensitätsbereich in Empfindungen umsetzen. Die Sensibilität der Sinnesorgane
ist auf spezifische (physikalische) Signalarten, d.h. Reizformen, ausgerichtet, aber
keinesfalls beschränkt. Z.B. weisen die Sensoren im Hörorgan zwar eine besonde-
re Empfindlichkeit für akustische Signale auf, können aber auch durch mechani-
sche Reize stimuliert werden.
Die Gliederung der sensorischen Modalitäten – auch sensorische Systeme ge-
nannt – kann nach Wahrnehmungssinnen für die Umwelt (auch Exterozeptoren,
von lat. exterior - äußerlich) und Wahrnehmungssinne für den eigenen Körper
(Propriozeptoren, von lat. proprium - eigen) erfolgen. Eine genaue Abgrenzung
bereitet Schwierigkeiten. SCHÖNPFLUG und SCHÖNPFLUG (1997) z.B. gehen von
neun Modalitäten aus, die rund ein Dutzend unterschiedlicher Empfindungen
hervorrufen (Tabelle 3.11).
Jede Modalität ist bestimmten Beschränkungen unterworfen, welche die Quali-
tät und Quantität der wahrgenommenen Eingangsinformationen und damit auch
aller nachfolgenden Prozesse bestimmt. Das Wissen um diese Beschränkungen ist
unerlässlich bei der Gestaltung von Arbeitssystemen. So beeinflussen z.B. die
charakteristischen Eigenschaften der Zapfen und Stäbchen in der Netzhaut des
Auges nachhaltig den Einsatz von Farben als Informationsträger auf einem Bild-
schirm. Trotz des reizspezifischen Charakters der Modalitäten gibt es bestimmte
Gesetzmäßigkeiten, die für alle gleichermaßen gelten.
3.3.2.1.1 Übergeordnete Gesetzmäßigkeiten
Die jeweiligen Sinnessysteme erstrecken sich von den Sinnesorganen bis zur Hirn-
rinde (Cortex) und sind hierarchisch gegliedert. Die Rezeptoren (von lat. recipere
aufnehmen) sprechen im Wesentlichen auf Reizintensitäten an, in beschränktem
Umfang auch auf Muster. Bis zum bewussten Wahrnehmungserlebnis, welches in
der Hirnrinde gebildet wird, wird die Information in verschiedenen Stufen ver-
dichtet und aggregiert.
Alle Rezeptoren reagieren nur in der Modalität, für die sie vorgesehen sind.
Das heißt aber nicht, dass sie nur von einer Reizart zu einer Reaktion veranlasst
werden können. So führt ein Druck auf das Auge zu Farbwahrnehmungen und ein
mechanischer Reiz des Ohres wird in eine entsprechende auditive Erregung ge-
wandelt. Fast alle Rezeptoren lassen sich auch elektrisch stimulieren.
314 Arbeitswissenschaft
100
A B C D E
50 F
G
30
relative Empfindungsstärke
20
10
A elektrischer Schmerzreiz (60Hz)
B Schmerzsinn
5,0
C Drucksinn
Abb. 3.59: Beziehungen zwischen relativer Reizstärke und relativer Empfindungsstärke bei
unterschiedlichen Reizarten aus LUCZAK (1989)
Abb. 3.60: Links: Räumliche Auflösung für die Fähigkeit, zwei eng benachbarte Reize
auch als solche wahrzunehmen, für verschiedene Bereiche der Hand. Rechts: Dichte von
Neuronen nach VALLBO u. JOHANSSON (1978)
Ziliarkörper
Bindehaut
Hornhaut
Zonulafasern
Linse
Gelber Fleck
Blinder Fleck
Pupille
Sehnerv
Regenbogenhaut Glaskörper
(Iris)
Netzhaut
Die Pupille dient zur Regulierung des Lichtstroms und beeinflusst die Tiefen-
schärfe. Durch sie kann die ins Auge einfallende Lichtmenge auf etwa 1/16 redu-
ziert werden. Zu bedenken ist aber, dass das Auge Lichtintensitäten von 12 Zeh-
nerpotenzen verarbeiten kann. Es sind also noch weitere Anpassungsvorgänge
notwendig. Zusammengenommen werden diese als Adaptation bezeichnet. Die
Größenänderung der Pupille erfolgt recht langsam: Beim Dunkel-Hell-Übergang
braucht die Pupille etwa 1,5 s, um sich von der vollständigen Dilatation (Erweite-
rung) auf 2/3 zu verengen und 5 s, um sich vollständig zu kontrahieren. Beim
Hell-Dunkel-Übergang dagegen erfordert die Erweiterung auf 2/3 des Durchmes-
sers 10 s und bis zur vollständigen Dilatation gar 5 min. Das nächste Element, das
vom Licht passiert wird, ist die Linse. Sie fokussiert den Lichtstrahl auf die licht-
empfindlichen Rezeptoren der Netzhaut. Die optische Qualität der Linse ist nicht
sonderlich gut, sie verzerrt vor allem in den Randbereichen sehr stark. Auch Far-
ben werden unterschiedlich stark gebrochen (sog. chromatische Aberration). Zur
Einstellung auf unterschiedliche Sehentfernungen, genannt Akkommodation, wird
von den Ciliarmuskeln die Dicke der Linse und damit ihre Brennweite verändert.
Beim Anspannen der Muskeln wird die Linse dicker und ermöglicht das
Nahsehen. Diese Muskelarbeit wird bei einer altersbedingten Verhärtung der Lin-
se zunehmend erschwert. Das Entspannen der Muskeln verdünnt die Linse und
ermöglicht das Fernsehen. Die Akkommodation unterliegt bei häufigem Wechsel
Ermüdungserscheinungen. Mit der Akkommodation einher geht die Konvergenz.
Schaut der Mensch auf ein sehr weit entferntes Objekt, sind die beiden Augachsen
annähernd parallel. Schaut er auf ein nahes Objekt, müssen sich die Augachsen
zueinander bewegen, damit die Bilder des Objekts in beiden Augen auf korres-
pondierenden Netzhautstellen abgebildet werden können.
Nachdem das Licht durch die Cornea, die Linse und durch den Glaskörper (eine
gallertartige Substanz im Inneren des Auges) gegangen ist, trifft es auf die Netz-
haut (Retina). Auf der Netzhaut befinden sich zwei Arten von Photorezeptoren:
Die etwa 120 Millionen Stäbchen sind sehr lichtempfindlich, können aber keine
Farben wahrnehmen. Rund 500-mal weniger lichtempfindlich, aber farbtauglich,
sind die rund sechs Millionen Zapfen. Stäbchen und Zapfen sind netzartig auf der
Rückseite des Augapfels angeordnet, daher auch der Name Retina (von lat. Rete
Netz). Die Verteilung von Stäbchen und Zapfen auf der Netzhaut ist nicht gleich-
mäßig (siehe Abb. 3.62). Die größte Dichte der Zapfen befindet sich in einem
kleinen Gebiet mit einem Durchmesser von ungefähr einem halben Millimeter,
dem gelben Fleck (fovea centralis). Die etwa 0,25 mm dicke Netzhaut ist schicht-
weise aufgebaut. Über den Photorezeptoren befinden sich eine Reihe von Neuro-
nen. Horizontale Zellen und Amacrine Zellen verbinden benachbarte Netzhautbe-
reiche, sorgen also für einen horizontalen Informationsaustausch. Die bipolaren
Zellen und die Ganglienzellen stellen die vertikale Organisation der Netzhaut dar.
Die Axone der Ganglienzellen bilden zusammen den Sehnerv.
Dieser Aufbau der Netzhaut ermöglicht, dass bereits dort die erste Verarbeitung
visueller Information stattfinden kann, z.B. die Erkennung von Kontrasten und
Bewegungswahrnehmung. Die differenzierenden Eigenschaften des visuellen
Arbeitsformen 319
Systems lassen sich schon aus der Reduzierung von rund 130 Millionen Photore-
zeptoren auf „lediglich“ 1,6 Millionen Nervenfasern des optischen Nervs ableiten.
Diese treten gebündelt durch die Netzhaut aus. Die Austrittsstelle ist nicht licht-
empfindlich und wird daher blinder Fleck genannt.
180 000
blinder Fleck
160 000
Anzahl der Rezeptoren
pro Quadratmillimeter
140 000
Stäbchen Stäbchen
120 000
100 000
80 000
60 000
40 000
20 000 Zapfen Zapfen
0
70° 60° 50° 40° 30° 20° 10° 0° 10° 20° 30° 40° 50° 60° 70° 80°
Winkel [Grad]
Abb. 3.62: Verteilung von Stäbchen und Zapfen über die Netzhaut (aus BECKER-CARUS
2004)
den, deren Geschwindigkeit von der Rezeptorart abhängt, kommt es dazu, dass
eine Folge von Einzelbildern je nach Beleuchtungsverhältnissen ab einer Bilder-
neuerungsrate von 20 Hz (bei Dunkelheit) bis 50 Hz (bei Helligkeit) den Eindruck
einer kontinuierlichen Sequenz erweckt. Die genannte Darstellungsrate entspricht
dann der Flimmerverschmelzungsfrequenz. Sie wird auch von der mentalen Bean-
spruchung des Menschen beeinflusst (siehe Kap. 3.3.3.2.1.4).
Helligkeitswahrnehmung
Die Aufgaben des visuellen Wahrnehmungssystems sind, obwohl der Mensch sie
i.Allg. auf einem niedrigen Niveau mentaler Beanspruchung erledigt, sehr kom-
plex. Das Bild, welches reduziert auf Intensitätsunterschiede verarbeitet wird,
muss interpretiert werden. Auf einer relativ simplen Stufe muss entschieden wer-
den, ob Intensitätsunterschiede auf die (1) Geometrie des Sehobjekts, (2) Reflexi-
onen von der sichtbaren Oberfläche, (3) die Beleuchtung oder (4) den Blickpunkt
des Betrachters zurückgeführt werden müssen. Meist sind aber alle vier Faktoren
am Zustandekommen der Intensitätsverteilung beteiligt. MARR (1982) hat gezeigt,
dass diese Aufgabe durch eine Addition verschiedener Filterfunktionen erreicht
werden kann.
Die relativ einfache Funktion der Entdeckung von Helligkeitsunterschieden
wird im Folgenden kurz erläutert. Durch die horizontale, auch lateral genannte,
Verknüpfung der Photorezeptoren mit den Ganglienzellen werden Gruppen von
Photorezeptoren zu rezeptiven Feldern zusammengefasst. Die Fläche eines rezep-
tiven Felds beträgt nur etwa einen Quadratmillimeter. Prinzipiell können Neuro-
nen ihre Information an andere Neuronen so weitergeben, dass diese erregt
(exzitiert) werden, oder dass eine Erregung verhindert (inhibiert) wird. Dies hat
zur Folge, dass Photorezeptoren je nach Verschaltung eine Erregung der Gangli-
enzellen erreichen können, wenn Licht auf sie fällt (eine On-Reaktion), aber auch
dann, wenn das Licht ausgeschaltet wird (eine Off-Reaktion). Auf der Netzhaut
sind die rezeptiven Felder auf zwei Arten verschaltet: Es gibt rezeptive Felder mit
einem On-Zentrum, umgeben mit einem ringförmigen Off-Umfeld und solche mit
einem Off-Zentrum und einem On-Umfeld.
Ein On-Zentrum-Feld reagiert mit einer Entladung der dazugehörigen Gangli-
enzellen, wenn ein Lichtfleck auf das Zentrum des rezeptiven Felds fällt und
hemmt die Aktivität der Rezeptoren im Umfeld. Bei Off-Zentrum-Feldern ist die
Reaktion genau umgekehrt: sie reagieren, wenn der Lichtfleck im Zentrum ausge-
schaltet wird. Benachbarte rezeptive Felder überlappen sich gewöhnlich. Ein ein-
ziger Photorezeptor kann hunderte oder tausende von Ganglienzellen beeinflussen.
Für manche Zellen gehört er zum Zentrum des jeweiligen Felds, für andere zum
Umfeld. Diese Verschaltung unterstützt die Wahrnehmung von Hell-Dunkel-
Unterschieden, hat aber auch einige Wahrnehmungsphänomene zur Folge. Eines
sind die nach ihrem Entdecker benannten Mach'schen Bänder (Abb. 3.63a). Wenn
man die Grenze zwischen dem hellen und dem dunklen Gebiet betrachtet, wird
links von der Grenze ein (relativ zum hellen Hintergrund) heller Streifen gesehen,
während auf der rechten Seite ein dunkler Streifen erkennbar ist. In Wirklichkeit
Arbeitsformen 321
a)
b)
Licht
Intensität
Wahrnehmung
Abb. 3.63: a) Die Mach‘schen Bänder; b) physikalischen Kontraste und ihre Verstärkung
in der Wahrnehmung der Mach‘schen Bänder. Aus ENGELKAMP u. ZIMMER (2006)
Die Wahrnehmung beruht auf Unterschieden in der neuralen Aktivität der ent-
sprechenden Ganglienzellen. Das Phänomen, das in diesem Beispiel sichtbar ge-
macht wurde, heißt laterale Inhibition (Hemmung). Durch die laterale Hemmung
der Aktivität benachbarter Zonen wird eine Kontrastverstärkung induziert, wenn
es eine plötzliche Veränderung in der Lichtintensität gibt. Ähnlich der
Verschaltung zur Detektion von Helligkeitsunterschieden gibt es auch solche zur
Kantendetektion und zur richtungsspezifischen Bewegungsdetektion. Bei der
Gestaltung von Anzeigen ist es vorteilhafter, Zeiger statt Digitalanzeigen einzu-
setzen, da die richtungsspezifische Bewegung des Zeigers schon in einer sehr
frühen Verarbeitungsphase erkannt wird.
Farbwahrnehmung
Wie bereits erwähnt, gibt es in der Netzhaut zwei Arten von Rezeptoren: Stäbchen
und Zapfen. Die wichtigsten Unterschiede zwischen beiden Arten sind in Tabelle
3.12 aufgelistet. Es können drei Arten von Zapfen unterschieden werden, die
durch spezifische Pigmente für Licht unterschiedlicher Wellenlänge besonders
empfindlich sind (445-450 nm – blau, 525-535 nm – grün, 555-570 nm – rot).
322 Arbeitswissenschaft
In Abb. 3.64 sind die Absorptionsgrade dieser drei Farbrezeptoren als Funktion
der Wellenlänge dargestellt. Aus den Zapfenempfindlichkeiten lassen sich die
bekannten Farbmischungen erklären. Der Farbkreis gibt an, dass eine Mischung
von Grün (520 nm) und Rot (620 nm) ein Gelb (570 nm) ergibt. Dies korrespon-
diert mit der Stelle im Absorptionsspektrum (Abb. 3.64), an der grün- und rotemp-
findliche Zäpfchen gleich stark und die blauempfindlichen Zapfen nicht mehr
absorbieren. Bei konstanter Lichtintensität können zwischen 380 und 700 nm
Wellenlänge des Lichts etwa 150 Farben unterschieden werden. Diese Zahl lässt
sich durch zwei Faktoren erhöhen: Durch Veränderung der Lichtintensität wird in
der Regel die Helligkeit verändert. Durch Hinzufügen von weißem Licht verrin-
gert sich die Sättigung. Eine andere Methode, um die Anzahl unterscheidbarer
Farben zu erforschen, erfolgt durch das Zählen von Farbnamen. Einige Untersu-
cher haben bis zu 7500 Farbnamen gefunden.
Abb. 3.64: Absorptionsfunktionen der drei Zäpfchenarten: A – grün, B – blau, C – rot, aus
WALD (1964)
Arbeitsformen 323
Genau wie beim Schwarzweißsehen wird auch beim Farbensehen die Wahr-
nehmung eines Punkts durch die Umgebung beeinflusst. Durch laterale Inhibition
kommt eine Kontrastverstärkung zustande. Diese Kontrastverstärkung funktioniert
nur zwischen komplementären Farben, also Farben, die sich auf dem Farbkreis
gegenüberliegen. Wenn man z.B. auf Rot sieht, so erhöht sich die Empfindlichkeit
in der Umgebung für Grün, wenn man auf Blau sieht, so wird die Gelbempfind-
lichkeit in der Umgebung erhöht. Diese Kontrastwirkung wird räumlicher oder
induzierter Kontrast genannt. Als Sukzessivkontrast wird folgendes Phänomen
bezeichnet: Wird mehrere Sekunden auf ein weißes Blatt mit einem farbigen
Punkt und danach auf eine weiße Fläche geschaut, entsteht der Eindruck, einen
Punkt in der Komplementärfarbe zu sehen. Bei Anzeigen sollte man daher Farb-
kontraständerungen vermeiden, um diesen Effekt auszuschließen.
Gesichtsfeld
Damit Lichtreize wahrgenommen werden können, müssen sie in das Gesichts-
oder Blickfeld emittiert werden. Als Gesichtsfeld (Abb. 3.65) wird die Gesamtheit
aller Gegenstände bezeichnet, die bei ruhenden Augen gleichzeitig in bestimmter
räumlicher Anordnung wahrgenommen werden können.
0°
340 90 20°
80
320 70 40
60
50
300 60
40
30
20
280 80
10
linkes Auge
0
240 120
220 140
200 160
180
Das Gesichtsfeld des Menschen erstreckt sich über einen Winkelbereich hori-
zontal von 200°, vertikal nach oben von 55° und vertikal nach unten von 76°.
Binokular sind Gegenstände in einem horizontalen Bereich von 120° mit Aus-
nahme der Nasenschatten wahrnehmbar. Vorgenannte Bereiche des Gesichtsfelds
324 Arbeitswissenschaft
beziehen sich auf weiße Lichtreize. Bei farbigen Reizen sind die Bereiche von der
Wellenlänge des Lichts abhängig. Das Blickfeld ergibt sich als Summe einzelner
Gesichtsfelder bei unterschiedlichen Augenpositionen.
Sehschärfe
Für die Darstellung von Objekten ist es wichtig zu wissen, bis zu welchem Mini-
malabstand zwei Sehobjekte noch getrennt wahrgenommen werden können. Die-
ses Auflösungsvermögen des Sehapparats wird als Sehschärfe V (Visus) bezeich-
net und als Kehrwert des korrespondierenden Gesichtsfeldwinkels D (gemessen in
Bogenminuten) angegeben:
1
V (3.17)
D
Neben den physikalischen Eigenschaften des Auges wird die Sehschärfe durch
zentralnervöse Faktoren beeinflusst. So hat insbesondere die Formwahrnehmung
erheblichen Einfluss auf die Erkennungsleistung. Die Sehschärfe ist nicht nur vom
anatomischen Auflösungsraster der Netzhaut abhängig; sie lässt sich auch nicht
allein anhand des Durchmessers der Rezeptoren berechnen. Die wesentlichen
Einflussfaktoren der Sehschärfe sind
x das betrachtete Objekt,
x der Ort der Abbildung auf der Netzhaut,
x die Gesichtsfeldleuchtdichte und
x der Leuchtdichtequotient.
Abhängigkeit vom betrachteten Objekt
Die Ortsschwelle des Auges (sog. Punktsehschärfe) ist definiert als der Grenzwin-
kel, unter dem zwei benachbarte Punkte noch als getrennt wahrgenommen wer-
den. Die normale Sehschärfe wird mit 60“ (Bogensekunden) in einem etwa 1°
großen Bereich um die fovea centralis angegeben. Dies entspricht einem klini-
schen Visus von 1. Bei kontrastreichen Strichmustern wird bei mäßiger Leucht-
dichte im fovealen Bereich ein Grenzwinkel von 50“ (V = 1,2), bei sehr hoher
Leuchtdichte von bis zu 28“ (V = 2,1) erreicht.
Zur Berechnung der Noniussehschärfe wird der Grenzwinkel ermittelt, unter
dem zwei gegeneinander verschobene Kanten noch als zwei Objekte wahrge-
nommen werden. Da bei diesem Verfahren erheblich mehr Zapfen erregt werden,
kann es schon bei einer sehr geringen Änderung der Kantenverschiebung zu einem
starken Sinneseindruck kommen. Die so ermittelte Sehschärfe ist deshalb bis zu
einem Faktor 6 höher als die Punktsehschärfe. Sie wird im Mittel mit 10“ (V = 6)
angegeben.
Abhängigkeit vom Ort der Abbildung auf der Netzhaut
Aufgrund der Anatomie der Netzhaut kommt es im peripheren Bereich zu einer
starken Abnahme der Sehschärfe. Die dort vorhandenen Stäbchen sind zur Erhö-
hung der Empfindlichkeit zu Gruppen zusammengefasst. Das sich so ergebene
Arbeitsformen 325
funktionale Auflösungsraster ist dadurch erheblich größer als das der Zapfen in
der fovea centralis. Die im peripheren Bereich erzielbare Sehschärfe wird mit 1/40
bis 1/20 der maximalen Sehschärfe in der Netzhautgrube angegeben. Die Sehschär-
fe V beträgt bei 5° Abstand von der fovea centralis noch 1/3, bei 10° 1/5 und bei 45°
1
/20 der fovealen Sehschärfe (Abb. 3.66).
1,0
0,9
0,8
photopisches Sehen
0,7
0,6
0,5
0,4
skotopisches Sehen
0,3
Blinder
0,2 Fleck
0,1
0,05
0,025
70° 60° 50° 40° 30° 20° 10° 0 10° 20° 30° 40° 50°
Nasal Temporal
Fovea
Abb. 3.66: Sehschärfe in Abhängigkeit vom Ort der Netzhautabbildung beim photopischen
und skotopischen Sehen nach EYSEL u. GRÜSSER-CORNEHLS (2005)
schärfe steigt nach Abb. 3.67 sowohl mit der Umgebungsleuchtdichte als auch mit
dem Leuchtdichteunterschied zwischen Infeld und Umfeld. Es wird aber auch
deutlich, dass schon bei geringer Umfeldleuchtdichte sehr kleine Leuchtdichteun-
terschiede zum Anwachsen der Sehschärfe ausreichen. Die Abhängigkeit der
Sehschärfe vom Leuchtdichtequotienten ist besonders wichtig, wenn der Bereich
nahe der Leuchtdichteunterschiedsschwelle und der Auflösungsschwelle betrach-
tet wird. Allgemein lässt sich feststellen, dass die Sehschärfe bei negativem Kon-
trast (dunkles Sehobjekt im hellen Umfeld) höher ist als bei positivem Kontrast.
Der Eindruck von räumlicher Tiefe kann durch verschiedene Tiefenkriterien
hervorgerufen werden:
x Monokulare Tiefenkriterien
x Okulomotorische Tiefenkriterien
x Binokulare Tiefenkriterien
x Bewegungsinduzierte Tiefenkriterien.
100
80
relative Sehschärfe [%]
60
40
20
10 asb
100 asb
1000 asb
0
0 20 40 60 80 100
relativer Leuchtdichteunterschied [%]
Monokulare Tiefenkriterien
Monokulare Tiefenkriterien liefern auch beim einäugigen Sehen Tiefeninformati-
onen. Es werden Objektgrößen-Differenzen, Verdeckungen, Schattierungen und
die Perspektive unterschieden.
Objektgrößen-DifferenzenĆ
Grundlage für die Entfernungsschätzung mittels der Auswertung der Objektgröße
ist die Tatsache, daß ein Objekt bekannter Größe auf der Netzhaut in Abhängig-
keit von der Entfernung in einer entsprechenden Größe, der Sehgröße, abgebildet
wird. Die Sehgröße eines Objekts ist dabei umso größer, je näher das Objekt zum
Beobachter positioniert ist. Sind mehrere bekannte Objekte im Raum vorhanden,
Arbeitsformen 327
Abb. 3.68: Einfache Parallelperspektive (links) und Andeutung verdeckter Linien (rechts)
Zentralperspektive
Bei dieser Darstellungsart (Abb. 3.69) besitzen alle geraden und parallelen Linien,
die nicht in der Bild- oder zu dieser parallelen Ebene verlaufen, einen gemeinsa-
men Fluchtpunkt (O). Kurven und geometrische Figuren werden in der Zentral-
perspektive verzerrt dargestellt. Gleiche Objekte, die auf zueinander parallelen,
aber unterschiedlich entfernten Ebenen liegen, werden in Abhängigkeit von der
Entfernung zur Bildebene verkleinert.
Um einen räumlichen Eindruck zu gewährleisten, muss bei der Darstellung in
der Zentralperspektive darauf geachtet werden, dass der Abstand des Beobachters
von der Bildebene geeignet gewählt wird. Da es am Rande des Gesichtsfelds zu
Verzerrungen gerader Linien kommen kann, soll die Darstellung innerhalb eines
Gesichtswinkels von 28° bis 30° liegen.
a b
Abb. 3.70: Veränderung des Konvergenzwinkels und der Linsendicke in Abhängigkeit von
der Objektentfernung bei einem (a) nahen Fixationspunkt, bei (b) mittlerer und (c) weiter
Entfernung, aus ENGELKAMP u. ZIMMER (2006)
Bei der Behandlung der Funktionen, die zum räumlichen Sehen führen, muss
zwischen der Schätzung einer absoluten Entfernung (Sehferne) und der Differen-
zierung zweier unterschiedlich entfernter Objekte (Sehtiefe) unterschieden wer-
den. In Abb. 3.71 ist der geometrische Zusammenhang dargestellt, der beim beid-
äugigen Sehen zur Entfernungsschätzung ausgenutzt wird.
Bei der Entfernungsschätzung sind sowohl die unterschiedliche Position der
beiden Netzhautabbildungen im linken und rechten Auge als auch die Amplitude
der Konvergenzbewegung, d.h. der Konvergenzwinkel, von Bedeutung. Aus Abb.
3.71 wird deutlich, dass der Konvergenzwinkel İ aufgrund des Augenabstands a
und der Sehentfernung e wie folgt berechnet werden kann:
D
H 2 arctan (3.18)
2e
Bei konstanter Entfernung zum betrachteten Gegenstand hängt der Konver-
genzwinkel somit lediglich vom Augenabstand a des Beobachters ab. Ein hoher
Augenabstand führt demnach zu einer Erhöhung des Konvergenzwinkels und
330 Arbeitswissenschaft
Die Auswertung der Querdisparation eines Auges reicht für eine quantitative
Aussage über die Entfernungsdifferenz zweier Sehobjekte jedoch noch nicht aus.
Hierzu werden die Querdisparationen beider Augen miteinander verglichen. Da
die Differenz nicht direkt gemessen werden kann, bedient man sich einer Hilfs-
konstruktion von Helmholtz, die die gleichbedeutende stereoskopische Parallaxe
beschreibt (Abb. 3.73).
Es sei P ein beidäugig anvisierter Gegenstandspunkt, dessen Abstand e von der
Augenverbindungslinie geschätzt werden soll. Die Hilfsebene E wird von den
beiden Gesichtslinien im Abstand p geschnitten. Im imaginären Mittelauge wer-
den die Endpunkte der Strecke p mit einer Querdisparation į (auch Stereowinkel
genannt) wahrgenommen. Die Länge der Strecke p lässt sich durch
a b
p a (3.19)
e
beschreiben. Bei sehr großer Entfernung, d.h. wenn e gegen strebt, ist p = a.
Die Strecke ist dann also gleich dem Augenabstand, so dass keine Querdisparation
mehr auftritt.
332 Arbeitswissenschaft
Tabelle 3.13: Vergleich der theoretischen mit der beobachteten Tiefensehschärfe bei einem
Grenzwinkel 5‘‘ (nach SCHOBER 1954; KEIDEL 1971)
Abb. 3.74: Eigene Darstellung eines Random Dot Stereogrammes nach JULESZ (1971)
Bewegungsinduzierte Tiefenkriterien
BewegungsparallaxeĆ
Im vorangegangenen Abschnitt wurde die Tiefenwahrnehmung durch beidäugiges
Sehen behandelt. Dabei wurde deutlich, dass die Entfernungsdifferenz zweier in
großer Ferne positionierter Gegenstände durch die Funktion des beidäugigen Se-
hens nur unzureichend wahrgenommen werden kann. Tatsächlich kann aber auch
bei großen Entfernungen von Objekten eine Differenzierung hinsichtlich ihres
Abstands vom Beobachter und untereinander vorgenommen werden. Diese Fähig-
keit wird durch die sog. Bewegungsparallaxe (Abb. 3.75) begründet. Werden zwei
in großer Entfernung zum Beobachter befindliche, ruhende Gegenstandspunkte P
und F, welche eine geringe Entfernungsdifferenz untereinander aufweisen, ange-
334 Arbeitswissenschaft
sehen, so liegen diese zunächst auf einer Gesichtslinie, d.h. scheinbar in einer
Ebene. Bewegt der Beobachter nun aber seinen Kopf oder Körper um eine Strecke
L zur Seite, so liegen die beiden Punkte nicht mehr auf einer Gesichtslinie, son-
dern auf zwei Linien, die einen Winkel ș aufspannen. Die gleiche Parallaxenände-
rung kann auch dadurch entstehen, dass sich zwei Objekte bei ruhendem Auge
quer zum Beobachter bewegen.
dT
Z (3.21)
dt
berechnet werden. Sie muss innerhalb gewisser Grenzen liegen, damit die Bewe-
gung durch die Augen wahrgenommen werden kann.
VisuelleĆWahrnehmungĆvonĆBewegungenĆ
Für die Wahrnehmung von Objekt-Bewegungen bei ruhendem Auge ist nicht die
foveale, sondern die periphere Netzhautabbildung von besonderer Bedeutung.
Dabei werden die Lokaladaption, der Kontrast und die entstehenden Nachbilder
für die Wahrnehmung hinzugezogen. Die Auffälligkeit von bewegten Objekten ist
im peripheren höher als im fovealen Netzhautbereich. Deshalb kann der bewegte
Beobachter aus der Auswertung der peripheren Lichtreize Geschwindigkeits-
informationen gewinnen. Dagegen steigt die Wahrnehmungsschwelle zur Periphe-
rie an.
Die Geschwindigkeit eines bewegten Objekts muss innerhalb eines definierten
Bereichs liegen, damit eine Bewegung wahrgenommen werden kann. Da die
Wahrnehmung unter Bezugnahme auf stationäre Referenzmarken ausgelöst wird,
beträgt die Mindestgeschwindigkeit eines bewegten Objekts gegenüber der Um-
gebung im fovealen Bereich etwa 1‘-2‘/s (Bogenminuten pro Zeitsekunde). Fehlen
in der Umgebung des bewegten Objekts Bezugsobjekte, so erhöht sich die Wahr-
nehmungsschwelle auf 15‘-20‘/s. Andererseits müssen die Sehrezeptoren für eine
Mindestzeit stimuliert werden, um Lichtreize überhaupt aufnehmen zu können.
Bewegt sich ein Objekt so schnell durch das Gesichtsfeld, daß diese Bedingung
nicht erfüllt wird, kann das Objekt nicht wahrgenommen werden (bspw. ein
vorbeifliegendes Geschoß). Als maximale Geschwindigkeit wird ein Bereich von
150‘-155‘/s angegeben. Darüber hinaus muss das bewegte Objekt einen Mindest-
verschiebungsweg quer zum Beobachter zurückgelegen. Er beträgt bei ruhendem
Fixierpunkt mindestens 20“, bei fehlendem Fixierpunkt mindestens 80“.
Die oben genannten Zusammenhänge sind vor allem dann relevant, wenn sich
ein Beobachter durch einen mit Objekten versehenen Raum bewegt. Da sich die
Abbildungen der Objekte durch die Bewegungsparallaxe verschieben, vermitteln
diese einen sehr guten Eindruck von der Bewegungsgeschwindigkeit und der
Höhe des Beobachters über dem Grund. Die Bewegung der Abbildungen der
Raumobjekte auf der Netzhaut werden oft als „optischer Fluss“ bezeichnet. Die
Trajektorien der auf der Netzhaut abgebildeten Objekte scheinen dabei aus einem
Fluchtpunkt zu entspringen und laufen je nach lateraler Ablage vom Beobachter
und dessen Höhe auf die Bildebene zu (Abb. 3.76).
336 Arbeitswissenschaft
Abb. 3.76: Optischer Fluss eines Piloten bei konstanter Flughöhe (aus JOHANSSON 1978)
Objekterkennung
In den vorhergehenden Abschnitten wurde zwar analysiert, wie der Mensch Hel-
ligkeitsunterschiede, Farben, Bewegungen usw. wahrnimmt, es muss aber noch
eine Bedeutung zugeordnet werden, die mit verschiedenen Modellen erklärt wer-
den kann. Der Prozess der Objekterkennung ist zwar streng genommen den zentra-
len Prozessen zuzuordnen, die erst im folgenden Abschnitt analysiert werden, er
wird jedoch zum besseren Verständnis des Gesamtsystems direkt nach der eben
erläuterten visuellen Wahrnehmung behandelt.
Schablonenmodelle
Die Verwendung einer Schablone ist das einfachste Verfahren zur Klassifizierung
und Wiedererkennung von Mustern. Um eine Schablone zu verwenden, bedarf es
einer genauen Repräsentation eines jeden Musters, das erkannt werden soll. Das
Erkennen wird durch den Vergleich des externen Signals mit den intern vorlie-
genden Schablonen ermöglicht. Die Schablone, die am besten passt, identifiziert
das Muster. Bevor der Vergleich stattfindet, muss unter Umständen das externe
Signal sowohl in der Raumlage als auch in der Größe den Schablonen angepasst
werden.
Es ist sehr unwahrscheinlich, dass menschliches Muster-Erkennen ausschließ-
lich mit Schablonen vor sich geht. Das Modell wäre nur dann anwendbar, wenn
die Grundmenge der zu erkennenden Muster in irgendeiner Weise beschränkt
werden kann (wie z.B. beim Erkennen von Buchstaben).
Pandämonium von Selfridge
Ein anderes Modell beschreibt das Erkennen von Mustern mittels Merkmalsex-
traktion. Es gibt Nervenzellen im Cortex, die in der Lage sind, auf bestimmte
Raumlagen, Winkel, Lichtkontraste, Bewegungen und Farben zu reagieren. Die
interne Repräsentation der zu erkennenden Muster besteht aus einer Aufzählung
solcher Merkmale. Der Buchstabe „R“ z.B. wird durch eine vertikale Linie, zwei
horizontale Linien, eine schräge Linie, drei rechte Winkel und einen unterbroche-
Arbeitsformen 337
nen Bogen definiert. Löst das zu erkennende Signal bei entsprechenden Nerven-
gruppen eine Reaktion aus, die mit der internen Repräsentation übereinstimmt,
wird das Muster bzw. der Buchstabe „erkannt“. In Abb. 3.77 ist dieser Vorgang
graphisch dargestellt. Die kognitiven Dämonen reagieren sehr unterschiedlich auf
die Merkmalsangaben. Der Buchstabe „R“ reagiert am deutlichsten und wird da-
her auch vom Entscheidungsdämon erkannt. Die Buchstaben „P“ und „D“ wären
die nächst wahrscheinlichsten Muster mit vier bzw. drei Übereinstimmungen in
den Merkmalsblöcken. Dieses Modell fordert, dass Stimuli durch möglichst viele
differenzierende Merkmale gekennzeichnet sein sollten, wenn diese schnell und
eindeutig erkannt werden sollen. Obwohl recht flexibel, erklärt dieses Modell nur
einen Teil des Erkennungsvorgangs. Sicherlich wäre es denkbar, dass auch viel
komplexere Objekte durch Verknüpfungen mehrerer Merkmalsdetektoren erkannt
werden könnten. Aber gibt es für alles, was wir wahrnehmen, einen Detektor?
Dies ist vermutlich nicht der Fall.
Hüllkurve M
Helicotrema
Amplitude
1
2
Basis
3
Laufrichtung
A der Welle
M
sis
Ba
a
trem
B
lico
He
(1) Genaue Frequenzabbildung auf der Basilarmembran (Abb. 3.79): Eine be-
stimmte Frequenz erzeugt eine maximale Auslenkung der Cochlea immer an
der gleichen Stelle. Allerdings gilt das nur für den höheren Frequenzbereich.
Bei Frequenzen unter 1000 Hz gibt es immer stärkere Überlappungen bei der
örtlichen Abbildung der Frequenzen, bis die ganze Membran in Schwingung
gerät, wodurch dieser als Ortstheorie bekannte Mechanismus nicht mehr
wirkt.
(2) Empfindlichkeit bestimmter Haarzellen für bestimmte Frequenzen: Platziert
man Elektroden an verschiedenen Stellen der Cochlea, so erreicht man eine
frequenzbezogene, tonotope Karte (Abb. 3.80). In der Karte sind die maxi-
malen Erregungen der Frequenzen entlang der Basilarmenbran dargestellt. Es
wird ersichtlich, dass die Haarzellen vor allem an den Orten des jeweiligen
Schwingungsmaximums erregt werden.
(3) Phasenkopplung („phase-locking“) der von den Hörnerven abgegebenen
Impulse mit einer bestimmten Phase der Reizwelle: Die Nervenzelle gibt mit
der Frequenz des Stimulus ihre Impulse an die nächste Verarbeitungsstufe
weiter. Dieser Mechanismus wirkt vor allem im niederen Frequenzbereich,
versagt aber ab Frequenzen von 4000-5000 Hz, da Neuronen eine begrenzte
zeitliche Kapazität haben. Über Phasenkopplung funktioniert auch die Wahr-
nehmung von Taktmustern. Hierbei werden mehrere Frequenzen überlagert
(z.B. 1000, 1200, 1400, 1600 Hz etc.), zu hören ist aber ein anderer Ton (z.B.
200 Hz). Es lässt sich nachweisen, dass die Ortstheorie hier nicht greift. Die
hieraus abgeleitete Periodentheorie besagt, dass der gesamte Impulsverlauf
im Hörnerv entsprechend dem Taktmuster des Schalls entsteht.
Es gibt also Unterstützung sowohl für die Ortstheorie als auch für die Perioden-
theorie. Gegenwärtig geht man davon aus, dass beide Mechanismen wirksam sind.
Im Bereich bis 1000 Hz ist nur die Periodenkodierung wirksam, zwischen 1000
und 5000 Hz sind Perioden- und Ortskodierung wirksam und über 5000 Hz ist
ausschließlich die Ortskodierung wirksam. Man nimmt an, dass die Form der
Kurven gleicher Lautstärke (siehe Kap. 9.1) zumindest zum Teil durch den Ein-
satz dieser zwei Mechanismen erklärt wird. Wenn sowohl die Lautstärke als auch
die Tonhöhe durch die Anzahl neuraler Impulse pro Zeiteinheit kodiert werden, so
ist anzunehmen, dass in dem Frequenzbereich, in dem dies der Fall ist, eine Be-
ziehung zwischen wahrgenommener Lautstärke und wahrgenommener Tonhöhe
existiert.
Für die Gestaltung von Arbeitssystemen lässt sich bspw. ableiten, dass man
Überlagerungen von äquidistanten Frequenzen vermeiden sollte, da nicht mehr die
einzelnen Frequenzen wahrgenommen werden, sondern das hierbei entstehende
Taktmuster. Diese Frequenz ist außerdem gut dazu geeignet, das Signal-Rausch-
Verhältnis zu optimieren.
Arbeitsformen 341
y6000
y7000
y2000
y5000
y700
y600 y200 y2500
y60 y800
y4000 y500 y150 75 y250
y75 250
y1500 y3000
y125 y100
y400 y300 y1000
Abb. 3.80: Frequenzbezogene, tonotope Karte der Cochlea aus BECKER-CARUS (2004).
Die Zahlen bezeichnen die Frequenz und den Ort ihrer maximalen elektro-physiologischen
Antwort.
Je höher die Schallintensität, desto breiter das Frequenzband, auf das ein Hör-
nerv anspricht. Diese Charakteristik der Hörnerven führt bei höheren Schallinten-
sitäten und gleichbleibender Frequenz zum Ansprechen von immer mehr benach-
barten Hörnerven. Die Schallintensität ist also durch die Anzahl der Impulse pro
Zeiteinheit kodiert. Untersuchungen haben gezeigt, dass die Vibration der
Basilarmembran nicht linear ist. Durch diese Nonlinearität wird der Gipfel bei
hohen Schallniveaus abgeflacht. Zu hohe Schallintensitäten schädigen allerdings
das Ohr (siehe Kap. 9.1). Bezogen auf die Gestaltungsrelevanz dient die Lautstär-
ke zwar zur Verbesserung des Signal-Rausch-Verhältnisses, die Möglichkeiten
sind aber durch die Nachteile des gehörgefährdenden Lärms, der dabei entstehen
kann, beschränkt.
Raumwahrnehmung
Die Raumwahrnehmung basiert auf der Lokalisierung bzw. Ortung des Schalls.
Die Ortung beruht auf zwei Mechanismen:
(1) Bei niederen Frequenzen zählt der Zeitunterschied, mit dem eine Schallwelle
beide Ohren erreicht, bzw. ihre Phasenunterschiede: Wenn die Schallquelle
rechts vom Hörer ist, müssen sich die Schallwellen um den Kopf biegen, um
das linke Ohr zu erreichen, wodurch der Weg länger wird. Allerdings wird es
ab Frequenzen von 1300 Hz und höher schwierig: Zweideutigkeiten gibt es
dann, wenn die Wellenlänge der Töne in etwa mit dem halben Abstand der
beiden Ohren vergleichbar ist. Ein Ton von etwa 750 Hz wird in diesem Fall
mit entgegengesetzten Phasen in beiden Ohren eintreffen (Phasenunterschied
= 180°). Vom Standpunkt des Beobachters aus kann dies bedeuten, dass der
Ton in dem einen Ohr entweder einen halben Zyklus vor oder einen halben
Zyklus hinter dem im anderen Ohr liegt, sich die Schallquelle also links oder
rechts von ihm befindet. Die Ortsbestimmung auf Grund des Phasenunter-
342 Arbeitswissenschaft
Abb. 3.81: Töne direkt von vorne erreichen beide Ohren gleichzeitig. Kommen Töne z.B.
von der linken Seite, so erreichen sie erst das linke und nach kurzer Verzögerung das rechte
Ohr. Bei Frequenzen über 500-1000 Hz treten „Schallschatten“ auf. Aus BECKER-CARUS
(2004)
Die Ortung erfolgt also bei niederen Frequenzen auf Grund von Zeit-, bei ho-
hen Frequenzen auf Grund von Intensitätsunterschieden. Im Bereich zwischen
1000 und 5000 Hz wird zwischen beiden Mechanismen umgeschaltet, hier kommt
es auch zu den meisten Lokalisationsirrtümern.
In einer normalen Umgebung erreicht uns ein Ton nicht nur auf dem direktes-
ten Weg, sondern auch noch über eine Vielzahl von reflektierten Wegen. Diese
Effekte können so stark sein, dass die gesamte Schallenergie aus Reflexionen
(Echo) größer ist als die, die auf direktem Wege ins Ohr trifft. Töne, die räumlich
lokalisiert werden müssen, sollten demnach keine Frequenzen zwischen 1000 und
5000 Hz aufweisen. Wie kann eine Schallquelle noch lokalisiert werden?
WALLACH et al. (1949) kamen zu folgenden beiden Aussagen: (1) Wenn zwei
Klicks (Klick = weißes Rauschen sehr kurzer Dauer) die Ohren kurz nacheinander
erreichen, werden diese als ein Geräusch wahrgenommen, wenn der Zeitunter-
schied ausreichend klein ist: kleiner 5 ms für Klicks, jedoch bis zu 40 ms für Spra-
che oder Musik. (2) Wenn zwei Geräusche als ein Geräusch gehört werden, wird
die Position vom Gesamtgeräusch vorwiegend von der Position des ersten
Arbeitsformen 343
Geräuschs bestimmt (dem Geräusch, das auf direktem Wege das Ohr erreicht hat).
Dieser Effekt wird Präzedenzeffekt genannt. Er ermöglicht es jedoch nur dann
eine Geräuschquelle zu lokalisieren, wenn der Schall einen vorübergehenden
Charakter hat. Kontinuierliche Geräusche (gleiche Frequenz und Intensität über
längere Zeit) sind viel schwieriger zu lokalisieren.
Binaurales (beidohriges) Hören und Raumwahrnehmung helfen nicht nur bei
der Ortung von Schallquellen, sie erlauben auch eine selektive Wahrnehmung. Ein
gutes Beispiel für selektive Wahrnehmung ist die berühmte Cocktailparty. Wenn
wir uns in einem Raum mit vielen Menschen befinden, übertrifft das Hintergrund-
rauschen häufig den Schallpegel des Gesprächs, das wir gerade zu führen versu-
chen. Obwohl wir den Eindruck erwecken können, einem Gespräch zu folgen,
können wir beliebig auf ein benachbartes Gespräch umschalten und wieder zu-
rück. Wenn der Gesamtschall jedoch auf einem Tonband aufgenommen und wie-
der abgespielt wird, ist dies oft kaum noch möglich. Alles weist darauf hin, dass
der Filterungsprozess ein aktiver, willentlich gesteuerter Prozess ist, der dazu
dient, das Signal-Rausch-Verhältnis zu verbessern.
Soll ein akustisches Signal die Aufmerksamkeit auf etwas richten, so ist es
nicht unbedingt vorteilhaft, einen besonders großen Schalldruckpegel zu erzeugen.
Das Signal könnte schnell als Lärm empfunden werden (siehe Kapitel 9.1). Die
Fähigkeit zur selektiven Wahrnehmung gibt dem Ingenieur die Möglichkeit, ganz
andere Lösungen zu entwickeln, z.B. Signale, die zum Hörenden persönlichen
Bezug haben. Der zu vermittelnden Information könnte der Rufname vorangestellt
werden. So wird die Nachricht einem bestimmten Empfänger zugeordnet, indem
durch die Äußerung seines Rufnamens die Aufmerksamkeit auf die sich anschlie-
ßende Nachricht gerichtet wird (siehe WICKENS u. HOLLANDS 1999).
Auch die Ohrmuscheln helfen beim Lokalisieren von Geräuschen. Wenn die
Unregelmäßigkeiten in der Oberfläche der Muschel durch verschiedene Aufsätze
geglättet werden, wird es zunehmend schwieriger, Geräusche zu lokalisieren
(GARDNER u. GARDNER 1973). Binaurales Hören sollte also immer ermöglicht
werden, um die besonderen Mechanismen Ortung und selektive Wahrnehmung
einsetzen zu können.
Klassifizierung von auditiven Reizen
Im täglichen Leben erreichen meistens mehrere unterschiedliche Schallquellen
gleichzeitig das Ohr. Normalerweise ist das auditive System gut in der Lage, eine
(grammatikalische) Analyse des Gehörten so durchzuführen, dass die Komponen-
ten jeder einzelnen Schallquelle gruppiert werden und einen einzelnen perzeptuel-
len Strom bilden. Jede Schallquelle hat ein eigenes Timbre, eine eigene Lautheit
und Position, und manchmal ist eine Schallquelle als bekannt zu identifizieren.
Um eine perzeptuelle Trennung zu erreichen, können viele physikalische Eigen-
schaften des Reizes benutzt werden (siehe auch oben). Diese Hinweise sind (u.A.)
unterschiedliche Hauptbestandteile, Anfangszeitdifferenzen, Kontrast zum vorhe-
rigen Schall, Veränderungen in Frequenz und Intensität sowie Schallquellenposi-
tion. Keiner der Hinweise allein ist in allen Fällen effektiv, zusammen bilden sie
344 Arbeitswissenschaft
Die Mechanosensoren lassen sich anhand ihrer Adaptionszeit in drei Typen ein-
teilen:
(1) Langsam adaptierende (SA-) Sensoren erzeugen bei Vorlage einer örtlich
konstanten Hautdeformation kontinuierlich elektrische Signale, deren Fre-
quenz proportional zur Druckamplitude ist. Demnach werden diese auch als
Druck- oder Intensitätssensoren bezeichnet. Da die Entladung solange anhält,
wie der Druckreiz aufgebracht wird, liefert der Sensor auch eine Aussage
über die Dauer des Reizes. SA I-Sensoren reagieren lediglich auf senkrecht
zur Hautoberfläche einwirkende Reize, während SA II-Sensoren bei Deh-
nung der Haut stimuliert werden.
(2) Die mittelschnell adaptierenden (RA-) Sensoren sprechen auf die Geschwin-
digkeit einer Hautdeformation an. Ihre Erregungsfrequenz ist proportional
zur Geschwindigkeit der Reizbewegung. Sie können demnach als Berüh-
rungs- oder Geschwindigkeitssensoren bezeichnet werden.
(3) Sehr schnell adaptierende (PC-) Sensoren reagieren auf Beschleunigungen
der mechanischen Hautdeformation. Bei einem unter konstanter Geschwin-
digkeit ablaufenden Druckreiz erzeugen sie jeweils zu Beginn und Ende der
Bewegung, also bei Änderung der Geschwindigkeit, einen Impuls. Sie sind
dadurch insbesondere leicht durch Vibrationen zu stimulieren. Ihrem Ant-
wortverhalten nach werden sie deshalb als Vibrations- oder Beschleuni-
gungssensoren bezeichnet.
Die Körperoberfläche verfügt über rund 500.000 Meissnerkörperchen. Die ört-
liche Dichte von Mechanosensoren in der Haut, d.h. das räumliche Auflösungs-
vermögen für Reize, ist in den einzelnen Körperteilen des Menschen sehr unter-
schiedlich. Beim Neugeborenen ist die Tastempfindlichkeit an Lippen und Zunge
am Größten, beim Erwachsenen an den Fingerspitzen. Es bestehen zudem starke
interindividuelle Varianzen, z.B. abhängig vom Geschlecht oder dem Alter. Zur
Beurteilung der Fähigkeit räumliche Details von Tastreizen wahrzunehmen, wird
die Zweipunktschwelle (Abb. 3.82) herangezogen. Diese gibt an, bis zu welchem
Abstand die simultanen Druckreize der zwei Spitzen eines Tastzirkels als örtlich
getrennte Reize wahrgenommen werden. Die Zweipunktschwelle variiert bei Er-
wachsenen zwischen Werten von 70 mm im Bereich der Extremitäten, insbeson-
dere der Oberschenkel und Oberarme, bis zu 1 mm an den Fingerkuppen und dem
Mund. Es zeigt sich allerdings, daß bei sukzessiver Darbietung der Reize bis zu
viermal so niedrige Zweipunktschwellen ermittelt werden können.
Die minimale Erregungsschwelle der Mechanosensoren wird mittels eines
elektronischen Reizgeräts gemessen. Die kleinste wahrnehmbare Eindringtiefe
eines Reizstößels beträgt 0,01 mm. Die Erregungsschwelle ist im Bereich der
Fingerkuppen erheblich geringer als an anderen Orten der Handinnenflächen. Bei
Reizung durch Vibrationen genügt bei 200 Hz schon eine Amplitude von 0,1 Pm,
um eine Empfindung auszulösen.
348 Arbeitswissenschaft
50
45
40
35
Schwellenmittelwerte (mm)
30
25
20
15
10
0
Fußsohle Oberschenkel Rücken Finger
Nase
Wange
Schulter
Daumen
Oberarm
Unterarm
Wade Bauch Brust 1 2 3 4
Groß-
zehe Ober-
lippe Stirn
Hand-
f läche
Abb. 3.82: Messung und Werte der Zweipunktschwelle aus BIRBAUMER u. SCHMIDT
(2006)
Tiefensinn
Unter dem Tiefensinn (Propriosensibilität) werden Wahrnehmungen zusammenge-
fasst, die die Stellung von Körperteilen und deren Bewegungen betreffen. Dazu
sind in den Gelenken, Muskeln, Sehnen sowie der Haut und im Vestibularapparat
entsprechende Sensoren vorhanden. Der Tiefensinn wird, wie in Abb. 3.83 darge-
stellt, weiter unterteilt in einen Stellungssinn, der die Stellung der Gelenke wahr-
nimmt, einen Bewegungssinn, welcher in Abhängigkeit von den Winkelgeschwin-
digkeiten der Gelenke deren Winkeländerung aufnimmt und zwar bei proximalen
Gelenken unter einer niedrigeren Erregungsschwelle als bei distalen Gelenken,
und einen Kraftsinn, in den die Reize der Muskelsensoren in Abhängigkeit von
der Muskelkraft einfließen.
Weil dem Menschen auch direkt nach dem Aufwachen die Stellung seiner
Gliedmaße bekannt ist, kann angenommen werden, dass eine Adaption der Senso-
ren nicht erfolgt. Zusammen mit ergänzenden Informationen aus dem Vestibular-
organ und den Sensoren der Haut, insbesondere über Hautdehnung, werden diese
Reize im zentralen Nervensystem zur Wahrnehmung der Körperstellung und –be-
wegung integriert.
Arbeitsformen 349
Zentrale motorische
Befehle
Efferenzkopie
Muskelspindeln
Propriozeption:
Hautsensoren
Temperatursinn
Die Temperaturempfindung kann nicht funktionell einheitlich betrachtet werden,
weshalb eine Unterteilung des Temperatursinns in einen Kälte- und einen Wärme-
sinn erfolgt. Jedem dieser beiden Sinne stehen eigene Kalt- bzw. Warmsensoren in
der Haut zur Verfügung (Krause-Körperchen), wobei die örtliche Dichte der Käl-
tepunkte auf der Handfläche 1-5/cm2 gegenüber 0,4/cm2 für Wärmepunkte beträgt.
Insgesamt besitzt der Mensch etwa 30.000 Wärme- und 250.000 Kältepunkte. Die
meisten Warm- und Kaltsensoren finden sich im Gesichtsbereich, wodurch sich
die hohe Temperaturempfindlichkeit dieser Region erklärt.
Subjektive bewusste Temperaturempfindungen und ihre vegetativen Reaktio-
nen können sowohl als wohltuend (wohlige Wärme) als auch als unangenehm
(Frieren, Schwitzen) bewertet werden. Temperaturempfindungen werden jedoch
auch unterbewusst im Zusammenhang mit der Thermoregulation weiterverarbei-
tet. Bei der Temperaturempfindung ist zwischen der statischen und dynamischen
Temperaturempfindung zu unterscheiden. Die statische Temperaturempfindung
erfolgt bei konstanter Temperatur eines Umweltreizes, bspw. beim Einstieg in ein
Wannenbad von 33°C. Im Moment des Einstiegs kommt es zunächst zu einer
Wärmeempfindung. Nach einiger Zeit jedoch verblasst diese Wärmeempfindung,
und die Wassertemperatur wird als neutral empfunden. Der Temperaturbereich, in
dem es durch eine Adaption der Thermosensoren von einer Warm- oder Kalt- zu
einer Neutralempfindung kommt, wird als Zone der Indifferenztemperatur be-
zeichnet. Sie liegt für eine Hautfläche von 15 cm2 zwischen 31°C und 36°C. Liegt
die Reiztemperatur außerhalb dieser Indifferenzzone, so kommt es nicht zu einer
Adaption an den Reiz und die Warm- bzw. Kaltempfindung bleibt bestehen. Bei
besonders großen (45°C) bzw. kleinen (17°C) Temperaturen erfolgt ein Übergang
von der Wärme- zur schmerzhaften Hitzeempfindung bzw. der Kälteempfindung
zum Kälteschmerz.
Die dynamische Temperaturempfindung beschreibt das Antwortverhalten der
Thermosensoren bei variierenden Reiztemperaturen. Die Wärme- und Kälte-
Empfindungsschwellen hängen von der Ausgangstemperatur der Haut, der Ände-
rungsgeschwindigkeit und der Größe der gereizten Hautfläche ab. Bei einer nied-
rigen Hauttemperatur (28°C) wird eine Abkühlung schneller empfunden als eine
Erwärmung. Bei hoher Hauttemperatur (38°C) verhält es sich genau umgekehrt.
Die Warm- und Kaltschwelle steigt bei sinkender Änderungsgeschwindigkeit, d.h.
die Empfindlichkeit nimmt ab. Daher ist es möglich, daß großflächige langsame
Abkühlungen nicht wahrgenommen werden.
Schmerz
Schmerz wird meistens indirekt über sich im Gewebe anhäufende Schmerzmedia-
toren hervorgerufen, welche die freien Nervenenden reizen. Zu den Mediatoren
zählen Kinine, Prostaglandine, Azetylcholin, Serotonin und Histamin. Eine Unter-
brechung der Nervenleitung verhindert die Schmerzempfindung. Ein körpereige-
ner Mechanismus zur Schmerzverminderung ist durch Endorphine (körpereigene
morphinähnliche Stoffe) gegeben. Die Endorphine besetzen die synaptischen
Arbeitsformen 351
Rezeptorstellen in den spinalen Ganglien, die für die Weiterleitung von Schmerz
an das Gehirn verantwortlich sind. Dieser Mechanismus kann durch Naloxone
außer Kraft gesetzt werden.
wird ergänzt durch die Reizung freier Nervenenden in der Nasenschleimhaut und
im Mundrachenraum. Diese reagieren insbesondere auf hochkonzentrierte Verbin-
dungen, die die Empfindung „stechend – beißend“ (Salzsäure, Ammoniak, Chlor)
im nasalen oder „brennendscharf“ (Piperidin, Capsaicin) im oralen Bereich auslö-
sen.
Der Mensch besitzt rund 10 Mio. Rezeptorzellen (zum Vergleich: ein Hund hat
etwa 1000 Mio. Rezeptorzellen). Die vermeintlich geringe Empfindlichkeit des
menschlichen Riechorgans ist also auf die geringe Anzahl von Rezeptoren zurück-
zuführen. Die Empfindlichkeit ist im Prinzip sehr groß, nach DE VRIES u.
STUIVER (1961) reicht ein Molekül eines Riechstoffs aus, um einen Rezeptor zu
erregen.
Bei der Definition von Schwellwerten muss unterschieden werden zwischen der
Wahrnehmungsschwelle, bei der eine unspezifische Geruchsempfindung ausgelöst
wird, und der Erkennungsschwelle, bei der eine Identifizierung des Dufts erfolgen
kann. Die Konzentration der Erkennungsschwelle ist etwa 10-mal höher als die
der Wahrnehmungsschwelle. Besonders empfindlich ist der Geruchssinn für Stof-
fe, die die Lufthygiene beeinträchtigen, so z.B. für das nach Fäkalien riechende
Skatol, für dessen Erkennung schon eine Konzentration von 107 Molekülen/cm3
ausreicht (BOENCK 1972).
Die Schwellen sind von zahlreichen Faktoren abhängig, insbesondere der Luft-
temperatur und -feuchtigkeit. Nach einer ausgiebigen Mahlzeit steigen die
Schwellen an, bei Hungergefühl nehmen sie drastisch ab. Des Weiteren ist bei
Rauchern sowie Menschen, die hormonellen Veränderungen unterliegen, bspw.
Frauen während der Schwangerschaft, eine Verschlechterung des Riechvermögens
festzustellen.
Empfundene Gerüche lösen bisweilen genetisch bedingte, starke emotionale
Reaktionen (Wohlbefinden/Ekel) aus, wobei vor allem Naturdüfte positiv und
bspw. faules Fleisch negativ bewertet werden. Ebenfalls wirken sowohl Ge-
schmacks- als auch Geruchsreize stark konditionierend. Als Beispiel dafür sei die
Zunahme des Speichelflusses bei der Erkennung von Speisegerüchen angeführt.
Wie oben angedeutet, ist die Wahrnehmungsstärke nicht nur von der Konzen-
tration, sondern auch von der Art des Stoffs abhängig. Kohlenmonoxyd wird z.B.
überhaupt nicht wahrgenommen. Methylmercaptan wird dagegen in einer Kon-
zentration von 1:25.000.000.000 wahrgenommen und deshalb als Warnsignal dem
Erdgas beigemischt. Auf ähnliche Weise wird Methylalkohol (Brennspiritus)
ungenießbar gemacht. Olfaktorische Sensoren werden auf diese Weise also zur
Informationseingabe genutzt.
Arbeitsformen 353
Geschmackssinn
Die Sensoren des Geschmackssinns sind in 30-70 μm hohen und 25-40 μm dicken
Geschmacksknospen angeordnet. Jede der beim Menschen vorhandenen 3000-
4000 Knospen enthält 10-50 Sinneszellen. Die Sinneszellen liegen in einem klei-
nen Trichter, der mit einer von Spüldrüsen produzierten Flüssigkeit gefüllt ist. Die
Geschmacksknospen wiederum liegen in den Gräben und Wänden der Ge-
schmackspapillen. Bei diesen unterscheidet man zwischen den Pilzpapillen, die in
einer Anzahl von 200-400 über die ganze Zungenoberfläche verteilt sind, den
Blätterpapillen (15-40), die am hinteren Seitenrand der Zunge liegen, und den
größeren Wallpapillen, die in einer geringen Zahl (7-12) an der Grenze zum Zun-
gengrund aufzufinden sind.
Die Geschmacksqualitäten lassen sich entgegen der weitverbreiteten Ansicht
spezifischen Empfindungszonen auf der Zunge nicht zuordnen: Die gesamte Zun-
genfläche ist durch alle vier Geschmacksqualitäten reizbar. Jedoch kann, wie in
Abb. 3.84 dargestellt, den einzelnen Zungenbereichen eine Geschmacksqualität
zugeordnet werden, die dort wahrscheinlich bevorzugt wahrgenommen wird.
Ausgenommen davon ist der hintere Zungenbereich, der vornehmlich auf Bitter-
stoffe reagiert. Diese bevorzugte Wahrnehmbarkeit einer bestimmten Ge-
schmacksqualität wird durch die unvollkommene oder relative Spezifität der einen
Zungenbereich innervierenden afferenten Nervenfaser erreicht. Dadurch entstehen
in den afferenten Nervenfasern für den gleichen Reizstoff unterschiedliche Erre-
gungsmuster. Eine abgestufte Spezifizierung der afferenten Nervenfasern auf die
einzelnen Qualitäten ist somit vorhanden. Für einzelne Geschmacksstoffe sind
demnach spezifische Erregungsmuster oder Geschmacksprofile feststellbar. Die
eigentliche Geschmacksempfindung kommt erst durch die Auswertung der Erre-
gungsmuster aller beteiligten afferenten Nervenfasern im zentralen Nervensystem
zustande.
Durch bestimmte chemische Verbindungen werden jeweils bevorzugt folgende
Empfindungen ausgelöst: Natürlich vorkommender Zucker löst „süß“-
Empfindungen aus, Kochsalz (NaCl) schmeckt salzig. Andere Salze, z.B. KCl,
lösen sowohl salzige als auch bittere Empfindungen aus. Salz- und Zitronensäure
führen zur Empfindung „sauer“. Reine „bittere“ Empfindungen werden durch
Chinin und andere pflanzliche Alkaloide hervorgerufen. Da im täglichen Leben
nicht nur diese bevorzugten Reizstoffe aufgenommen werden, lösen andere natür-
liche Geschmacksreize Mischempfindungen aus, bspw. schmeckt Orange süß und
sauer und Pampelmuse sauer, süß und bitter.
354 Arbeitswissenschaft
bitter
sauer
salzig
süß
Abb. 3.84: Bevorzugte Lokalisation der Geschmacksqualitäten auf der Zunge aus
BECKER-CARUS (2004)
Die geschmackliche Wirkung eines Stoffs kann dennoch nicht festgelegt wer-
den, da die Empfindungsqualität in hohem Maße von der Stoffkonzentration ab-
hängt. Bei steigender Konzentration wird Kochsalz zunächst als „süß“ (bei 0,02 -
0,03 Mol/l) und erst später als „salzig“ (ab 0,04 Mol/l) empfunden. Im Gegensatz
dazu werden bittere Stoffqualitäten schon bei niedrigeren Konzentrationen als
solche wahrgenommen und lösen dann Reflexe aus, die die Nahrungsaufnahme
verhindern. Der Grund hierfür ist die Erfahrung, daß diese Stoffe oft giftig sind.
Wie bereits erwähnt, ist die Erregungsschwelle für bittere Geschmacksstoffe
sehr niedrig; sie beträgt für Chininsulfat etwa 6 mg/l. Süße Stoffe führen ab 5,5
mg/l zu einer Erregung, wie z.B. der synthetische Süßstoff Saccharin. Natürlicher
Zucker hingegen wirkt erst bei Konzentrationen ab 3,42 g/l (Rohrzucker) bzw.
14,41 g/l (Traubenzucker) stimulierend. Im ähnlichen Bereich liegen die Schwel-
len für saure (Essigsäure: 0,108 g/l) und salzige (Kochsalz: 0,585 g/l) Ge-
schmacksstoffe. Es ist zu beachten, dass große interindividuelle Unterschiede bei
den Erregungsschwellen vorhanden sind.
Die Empfindungsstärke ist abhängig von der Stoffkonzentration, der Reizfläche
und der Reizdauer, so dass verdünnte Stofflösungen unter Umständen noch emp-
funden werden können, wenn die Lösung längere Zeit die Zunge umspült. Aller-
dings tritt bei langandauernden Reizen eine Adaption an den Reiz ein, die sowohl
neuronal als auch dadurch begründet ist, dass die Sinneszellen, wie oben erwähnt,
mit Flüssigkeit umspült werden, was zur Verringerung der Stoffkonzentration
führt. Auch die Temperatur der Stofflösung hat einen Einfluss auf die
Schmeckempfindung.
3.3.2.1.3 Gestaltprinzipien der Wahrnehmung
Die Wahrnehmung ist kein passiver Vorgang, bei dem ausschließlich der Stimulus
bestimmt, was wahrgenommen wird. In vielen Fällen erfolgt die Wahrnehmung
zwar mühelos und selbstverständlich, aber anhand von Abb. 3.85 wird verständ-
lich, dass ständig Hypothesen über das gebildet und überprüft werden, was gese-
hen wird.
Arbeitsformen 355
Abb. 3.85: Der Necker-Würfel. Hier konkurrieren die Hypothesen, ob die schattierte
Fläche vorne oder hinten ist.
Eine Gruppe von Psychologen, die sich um 1912 um Max Wertheimer bildete,
fing an, die perzeptuelle Organisation systematisch zu untersuchen. Diese Rich-
tung wurde bekannt unter dem Namen Gestaltpsychologie. Die Gestaltpsychologie
verwarf die Idee, dass Wahrnehmungen nur aus den Sinneseindrücken entstehen.
Anstelle dessen wuchs die Überzeugung, dass das Wahrgenommene aus mehr als
nur der Summe der Sinnesreize aufgebaut wird (sog. Emergenz) und sich in Form
von sog. Gestaltprinzipien charakterisieren lässt. Obwohl natürlich auch zentrale
Prozesse hierbei eine wichtige Rolle spielen, sollen die Gestaltprinzipien bereits
an dieser Stelle kurz erläutert werden und nicht erst im Kap. 3.3.2.2.
Eines von Wertheimers Beispielen für die Emergenz-Hypothese ist wie folgt:
Wenn zwei Lichter in den Positionen A und B kurz aufleuchten und danach zwei
Lichter in den Positionen a und b aufleuchten, so entsteht der Eindruck, dass A
sich in Richtung a, B sich in Richtung b bewegt hat (und nicht etwa A in Richtung
b und B in Richtung a). Dieser Eindruck wird gewonnen, solange die Intervallzeit
nicht zu klein und nicht zu groß ist (60 - 200 ms).
Das zentrale Prinzip in der Gestaltpsychologie ist das der Prägnanz. Es besagt,
dass jedes Reizmuster so wahrgenommen wird, dass das Ergebnis eine Struktur
ist, die so einfach wie möglich aufgebaut ist. Dieses „Einfachheitsgesetz“ führt
dazu, dass man in Abb. 3.86a ein Achteck und ein Dreieck wahrnimmt, im Gegen-
satz zu einer komplizierten 11-seitigen Figur.
a) b)
c) d) B
C
A D
Ein weiteres Prinzip ist das der Ähnlichkeit. Ähnliche Objekte scheinen eine
Gruppe zu bilden, wie in in Abb. 3.86 b leicht ersehen kann. Das Gesetz der Nähe
besagt, dass nahe beieinander liegende Reize bevorzugt als zusammengehörig
gesehen werden. Die nah beieinander liegenden senkrechten Striche aus Abb.
3.86c werden demnach je als zusammenhängende Figur wahrgenommen.
Das nächste Prinzip ist das der guten Fortsetzung. Punkte, die auf einer sanft
gebogenen Linie liegen, werden so wahrgenommen, als würden sie zusammenge-
hören. Ein Beispiel ist in Abb. 3.86d dargestellt. Die Punktereihe die bei A an-
fängt, fließt nach B und nicht mit einer abrupten Wendung nach C oder D.
Ein ergänzendes Gestaltprinzip der Wahrnehmung ist das der gemeinsamen Be-
stimmung (common fate). Unterschiedliche Frequenzkomponenten einer natürli-
chen Schallquelle variieren in der Regel auf sehr kohärente Weise. Sie beginnen
und enden gleichzeitig und verändern die Frequenz und Intensität gleichzeitig und
in derselben Richtung. Dadurch fällt es uns einfach, die Zugehörigkeit einzelner
Frequenzkomponenten zu bestimmen.
Ein Abschluß (closure) tritt auf, wenn ein Signal für kurze Zeit unterbrochen
wird. Ein kurzes Husten kann vorübergehend ein Gesprächssignal vollkommen
überlagern. Das auditive System ist in der Lage, das Gesprächssignal zu „ergän-
zen“, so, als wurde es nicht unterbrochen.
Das Gesetz der Vertrautheit (bzw. der Bedeutungshaltigkeit) postuliert, dass
Dinge dann am ehesten eine Gruppe zu bilden scheinen, wenn die Gruppe vertraut
oder bedeutsam erscheint.
Die Gestaltprinzipien erscheinen intuitiv sehr wirksam. Obwohl sie nicht theo-
retisch begründet sind und nicht zur Erklärung der Wahrnehmungsphänomene
herangezogen werden können, können sie sehr wohl als Grundlage für die Gestal-
tung von Mensch-Maschine-Systemen dienen, bspw. zum Entwurf von Anzeigen
in Cockpits.
3.3.2.1.4 Vigilanz
Vor dem Zweiten Weltkrieg beschäftigten sich nur einige Untersuchungen in
unsystematischer Weise mit den Problemen der anhaltenden Aufmerksamkeit oder
Vigilanz (engl. „sustained attention“ oder „vigilance“). Dabei handelt es sich
hauptsächlich um Untersuchungen in der Qualitätssicherung. Während des Zwei-
ten Weltkriegs wurden viele Untersuchungen zum menschlichen Leistungsvermö-
gen durchgeführt, als sich herausstellte, dass Personen bei lang andauernder
Durchführung von Radarüberwachungsaufgaben einen ernsthaften Leistungsabfall
zeigten. Nach dem zweiten Weltkrieg wurde begonnen, systematisch die Vigilanz
zu erforschen. MACKWORTH (1950) hat als Erster die Implikationen systematisch
beschrieben. In einem Experiment mit einer visuellen Entscheidungsaufgabe wur-
de gezeigt, dass der Vigilanzverlust in der ersten halben Stunde am größten ist. Er
wiederholte diese Untersuchung mit auditivem Stimulus-Material, und das gleiche
Phänomen trat auf. Dieses Phänomen der degressiven Abnahme der Leistung wird
„vigilance decrement“, also Vigilanzabfall genannt. In Mackworth's Untersuchung
(Abb. 3.87) wurde festgestellt, dass sich der Leistungsabfall bereits ab dem ersten
Arbeitsformen 357
fehlerfreie Ausführung
mittlere Häufigkeit übersehener Signale in %
10
15 .
c1
20
25 . . .
c2
c3
c4
30
35
30 60 90 120
Arbeitszeit in min
Abb. 3.87: Vigilanzabnahmefunktion: Der Vigilanzverlust ist in der ersten halben Stunde
am größten. Die Versuchsperson bekommt eine Uhr ohne Markierungen zu sehen und soll
den Zeiger beobachten. Jede Sekunde bewegt sich die Spitze des Zeigers um 0,3 Zoll. Ab
und zu springt der Zeiger jedoch um das Doppelte, also um 0,6 Zoll. Dies ist das „kritische“
Ereignis, auf das die Versuchsperson mit einem Knopfdruck zu reagieren hat (nach
MACKWORTH 1950).
ellen und auditiven Aufgaben nur rund 0,30 beträgt (d.h. die Leistung einer visuel-
len Vigilanzaufgabe sagt nur zu etwa 9% voraus, wie die Leistung bei einer audi-
tiven Aufgabe sein wird, und umgekehrt). Berücksichtigt man die Körperhaltung
der Versuchsperson, so wirkt sie sich bei auditiven Aufgaben nicht auf die Wahr-
nehmbarkeit der Stimuli aus. Bei visuellen Aufgaben ist die Wahrnehmbarkeit
hingegen richtungsabhängig (HATFIELD u. LOEB 1968). Entsprechende Experi-
mente ergaben Korrelationen zwischen r = 0,65 und r = 0,76. Obwohl es wahr-
scheinlich modalitätsspezifische Unterschiede gibt, gibt es einen gemeinsamen
Faktor, der die sensorischen Modalitäten überlagert. Diese Hypothese wird da-
durch gestützt, dass sich Vigilanzerfahrung in einer Modalität auf andere Modali-
täten (GUNN u. LOEB 1967) überträgt.
I.Allg. findet man in der Wahrnehmungsforschung, dass die Wahrnehmbarkeit
des Stimulusmaterials in einem positiven Verhältnis zur Amplitude und Dauer des
Signals steht. Geschwindigkeit und Genauigkeit, mit der reagiert wird, nehmen
mit dem Signal-Rauschverhältnis der kritischen Signale zu. Beispiel dafür ist eine
Studie von LOEB u. BINFORD (1963) (Abb. 3.88).
Dieser Tatbestand kann theoretisch erklärt werden, weil eine Steigerung der
Signalintensität Faktoren wie Arousal und Habituation kompensieren kann. Diese
beiden Faktoren gelten als „Kandidaten“ für die Ursachen des Vigilanzverlusts.
Von praktischer Relevanz ist er dadurch, dass man mit Hilfe von künstlichen Sig-
nalen die Leistung des Menschen verbessern kann. Zusätzlich wurde von
CORCORAN et al. (1977) gefunden, dass dieses Phänomen der Vigilanzsteigerung
sich auch dann ergibt, wenn nicht nur die kritischen (akustischen) Signale in der
Amplitude verstärkt werden, sondern auch, wenn zusätzlich nichtkritische Signale
verstärkt werden.
5 2,1 dB
4
überhörter Signale
Mittlere Anzahl
2
3,6 dB
1
5,1 dB
0
1 2 3 4 5
20-Minuten Blöcke
Abb. 3.88: Effekt der kritischen Signalintensität auf die Entdeckung von Zunahme des
Schalldruckpegels bei einer auditiven Vigilanzaufgabe nach LOEB u. BINFORD (1963).
Arbeitsformen 359
100
Prozent Entdeckungen
80
5 pro Minute
60
40
20 30 pro Minute
0
0 20 40 60 80
Zeit (in Minuten)
90
A
80 B C
Prozent Entdeckungen
70
60
50 D
40
30
20
10 100 500
Anzahl der Signale pro Stunde
Abb. 3.90: Prozentsatz entdeckter Signale als Funktion der logarithmierten kritischen
Ereignisrate für vier verschiedene Experimente (verschiedene Aufgaben, zeitliche Variabi-
lität in jedem Experiment zufällig gewählt) nach WARM (1984)
Auf einem Radarschirm zur Führung eines Schiffs gibt es z.B. Quadranten, in
denen die Stimulus-Wahrscheinlichkeit größer ist als in anderen Quadranten. Es
wurde festgestellt, dass in dem Quadranten, wo die kritischen Signale am häufigs-
ten auftreten, die Entdeckungswahrscheinlichkeit auch am größten ist. Die Leis-
tung bei Vigilanzaufgaben wird üblicherweise auf der Basis der Anzahl richtiger
Signalentdeckungen innerhalb einer bestimmten Periode geschätzt. Verschiedene
andere Leistungsmaße wie die False-Alarm-Rate und Reaktionszeiten werden
auch angewandt. Aus der Perspektive der Entscheidungstheorie bietet die Entde-
ckungsrate jedoch kein eindeutiges Maß der Sensitivität, weil es zwischen
„Entdeckbarkeit“ des Signals und dem vom Beobachter eingehaltenen Kriterium
nicht differenziert. Bspw. kann ein Beobachter, der überhaupt nicht in der Lage
ist, Signale von Rauschen zu unterscheiden, dennoch eine extrem hohe Entde-
ckungsrate erzielen, indem er ständig positive Responses abgibt. Auf der anderen
Seite kann ein kompetenter Beobachter eine viel niedrigere Entdeckungsrate ha-
ben und auch weniger falsche Alarme erzeugen, weil er vorsichtiger reagiert. Es
ist daher notwendig, sowohl die Entdeckungsrate als auch die False-Alarm-Rate
zu berücksichtigen.
3.3.2.2 Erkennen,ĆEntscheidenĆundĆGedächtnisĆ(zentraleĆProzesse)Ć
schlossen bleibt. Dieses Phänomen wird „focused attention deficit“ genannt und in
Kapitel 3.3.2.2.6 eingehend behandelt. Solche Prozesse werden offenbar durch
Ereignisse in Gang gesetzt (datengesteuert) und laufen hochgradig automatisiert
ab. So ist es bspw. fast unmöglich, die Aufmerksamkeit vollends auf einen von
zwei visuellen Stimuli zu fokussieren, wenn sie nicht mehr als 1 Grad Sehwinkel
voneinander entfernt sind (BROADBENT 1982).
3.3.2.2.2 Hypothesenbildung und Handlungsauswahl
Aufbauend auf den Erkenntnisprozessen müssen in Arbeitssystemen häufig Ent-
scheidungen unter Unsicherheit getroffen werden. Dabei ist oft sowohl der Nutzen
oder Schaden eines Ereignisses abzuschätzen als auch die Wahrscheinlichkeit des
Eintretens. Bei den Wahrscheinlichkeitsfaktoren ist oft die wahrgenommene
Wahrscheinlichkeit eine andere als die objektive. Aufgrund der begrenzten Kapa-
zität des Menschen bei der Aufnahme, Verarbeitung und Speicherung von Infor-
mation sollte man auf eine Reduktion der Komplexität in unsicheren Entschei-
dungssituationen abzielen. Diese Komplexitätsreduktion kann durch Entschei-
dungsmodelle herbeigeführt werden. An dieser Stelle sollen lediglich zwei Klas-
sen von Entscheidungsmodellen behandelt werden, nämlich normative und des-
kriptive Modelle.
Schätzwerte
Zustände der Welt
Handlungs- persönl. Saldo Entscheidung
Verkehrs- kein Gegen- Gegen-
option Nutzen
dichte verkehr verkehr
p=0,7 p=0,3
überholen 0,8 niedrig 0,56 -0,24 0,32 überholen
hat es eilig
Fahrer
Welches Gesamtziel
ist zu wählen? Evaluieren
ng
Menge von
Aufgabe
Beobachtungen
Alarm Prozedur
hingegen die Frage, wie Entscheidungen tatsächlich entstehen und sind daher in
der Regel auch empirisch begründet. Ein häufig verwendetes deskriptives Modell
ist das der „merkmalsvergleichenden Entscheidungen“ (Recognition Primed
Decision Making) von KLEIN (1997), das als Alternative zur rationalen Entschei-
dungstheorie entwickelt wurde und auf komplexe Realsituationen abzielt. Es diffe-
renziert drei Ebenen, die in Abb. 3.92 dargestellt sind. In verschiedenen empiri-
schen Untersuchungen, z.B. bei Brandeinsätzen oder der neonatalen Intensivpfle-
ge, wurde belegt, dass der Anteil merkmalsvergleichender Entscheidungen gegen-
über normativ-rationalen einen Anteil von 42% - 80% einnimmt (KLEIN 1989).
1. Ebene: 2. Ebene: 3. Ebene:
Einfache Zuordnung Situationsdiagnose Handlungsschritte evaluieren
Mehr
Informationen
Nein
Als typisch Ist Situation Als typisch
Diagnose:
empfunden typisch? empfunden
Ereignisse –
(Analogie, (Analogie, (Analogie,
Faktoren
prototypisch) prototypisch) prototypisch)
Schluss-
folgern Ja
Klären
Erkennen hat vier Aspekte Erkennen hat vier Aspekte Erkennen hat vier Aspekte
Evaluiere
Handlungen
Ja, aber
Modifizieren Praktikabel?
Nein
Ja
„k“ beginnt, als dass es ein „k“ als dritten Buchstaben besitzt. Das letztere ist aber
rund dreimal so oft der Fall. Menschen ordnen Wörter aber üblicherweise nach
dem ersten und nicht nach dem dritten Buchstaben. Die subjektive Wahrschein-
lichkeit richtet sich also nach der Repräsentativität des einzuschätzenden Phäno-
mens und der Verfügbarkeit im Gedächtnis. Daraus lassen sich drei Regeln ablei-
ten (LINDSAY u. NORMAN 1981): (1) Personen neigen dazu, das Auftreten von
wenig wahrscheinlichen Ereignissen überzubewerten und das Auftreten von hoch
wahrscheinlichen Ereignissen zu unterschätzen. (2) Personen neigen dazu, der
Täuschung eines „Spielers“ zu erliegen und zu behaupten, dass ein seit langer Zeit
nicht mehr aufgetretenes Ereignis in naher Zukunft sehr wahrscheinlich auftritt.
(3) Personen neigen dazu, die Wahrscheinlichkeit von Ereignissen, die für sie
günstig sind, überzubewerten und jene, die ungünstig sind, zu unterschätzen. Die-
se Neigungen treten insbesondere in Situationen hoher Belastung zutage.
3.3.2.2.3 Gedächtnis
Das menschliche Gedächtnis weist bemerkenswerte Stärken und Schwächen auf.
Auf der einen Seite ist das Gedächtnis ein sehr umfangreicher Speicher für Wort-
bedeutungen, allg. Kenntnisse, Fakten und Bilder. Andererseits sind gelegentliche
Beschränkungen oft so schwerwiegend, dass sie sowohl im engeren Sinne der
menschlichen Informationsverarbeitung als auch im weiteren Sinne der Mensch-
Maschine-Interaktion den wichtigsten Engpass darstellen. So werden Nummern
vergessen, falsche Bedienprozeduren ausgeführt oder Prozeduren in falscher Rei-
henfolge ausgeführt.
einer durchschnittlichen Verfallszeit von ca. 200 ms rechnen. Für den auditiven
Speicher beträgt dieser Wert hingegen ca. 1500 ms. Der Verfallsprozess im senso-
rischen Speicher ist in etwa durch eine Exponentialfunktion beschreibbar.
Nicht alle Informationen werden im Gehirn nach dem gleichen Format abge-
speichert. Es kann zwischen verbalen und räumlichen Informationen sowie im
Weiteren zwischen auditiven und visuellen Prozessen unterschieden werden.
Wenn ein Stimulus verarbeitet wird und damit Transformationen durchgeführt
werden, um eine Reaktion zu generieren, kann ein Stimulus, abhängig von seiner
Art, auf fünf verschiedene Arten kodiert werden (siehe Abb. 3.94): Ikonische und
echoische (sensorische) Codes sind die rohen Repräsentationen visueller bzw.
auditiver Stimuli. Diese Codes verlängern die Darstellung der Stimuli eine kurze
Zeit (ikonisch weniger als eine Sekunde, echoisch einige Sekunden). Dies ge-
schieht unbewusst, d.h. erfordert keine Zuweisung beschränkter Ressourcen. Vi-
suelle und auditive Codes sind weitgehend analog zu den entsprechenden Stimu-
lus-Modalitäten (sowie zu den sensorischen Codes), können jedoch auch aus Sti-
muli der anderen Modalität generiert werden (z.B. ein auditives „Bild“ eines visu-
ell dargebotenen Buchstabens).
sensorische Aufmerksamkeit auf wichtige
Reize oder ungewöhnliche Reize
Codieren
äußere sensorisches Kurzzeit- Langzeit-
Ereignisse Gedächtnis gedächtnis gedächtnis
Codieren Wiedererinnern
Stilleben
Flasche
Äpfel
Speicherung
Schale
Stimulus Codes
Arbeits- Langzeit-
sensorisch
speicher speicher
semantisch
Kurzzeitgedächtnis
Die Rolle des KZG besteht nach DÖRNER (1987) im Wesentlichen in der situati-
ven Bereitstellung von Informationen aus dem LZG für die höheren kognitiven
368 Arbeitswissenschaft
Benutzung gleicher Codes und Verarbeitungsprozesse gemeint, wie auch die pho-
netische, visuelle und semantische Ähnlichkeit des Stimulus-Materials.
Langzeitgedächtnis
Das LZG ist die zentrale und zugleich umfangreichste der Gedächtniskomponen-
ten. Schwächen des Kurzzeitgedächtnisses sind nicht mehr relevant, wenn die
Information verarbeitet und im Langzeitgedächtnis gespeichert ist. Dafür ist je-
doch die Genauigkeit des Langzeitgedächtnisses geringer. Dies hängt damit zu-
sammen, dass die Tiefe der Verarbeitung bestimmt, wie effizient Informationen
im Langzeitgedächtnis abgespeichert werden (CRAIK u. LOCKHART 1972). Es gibt
einen klaren Unterschied zwischen dem Gedächtnis für Ereignisse, die gerade
stattgefunden haben, und dem Gedächtnis für Ereignisse, die lange zurückliegen.
Ersteres ist direkt und sofort zugänglich, das andere langsam und nur unter An-
strengung.
Um etwas aus dem Langzeitgedächtnis abzurufen, muss ein bestimmtes Akti-
vierungsmuster erzeugt werden. Wie etwas im Langzeitgedächtnis abgelegt ist, ist
nicht mit Sicherheit bekannt. Konnektionistische Theorien gehen davon aus, dass
die Information in der Assoziativität zwischen Nerven oder Nervengruppen ent-
halten ist. Mit Assoziativität ist die Wahrscheinlichkeit gleichzeitiger Aktivierung
gemeint. Man kann das LZG in verschiedener Weise aufteilen. Es hängt dabei sehr
stark von der Betrachtungsebene ab, wie die Organisation des Langzeitspeichers
am besten beschrieben werden kann. Folgende wesentliche Betrachtungsweisen
existieren: Das LZG lässt sich aufteilen in einen sensorischen und einen motori-
schen Teil. Die beiden Systeme sind eng miteinander verknüpft.
Der sensorische Teil kann auch als Konvergenzhierarchie im Sinne einer In-
formationskomprimierung verstanden werden. Er stellt eine Verknüpfung sensori-
scher Schemata durch Teil-Ganzes-Relationen bzw. Konkret-Abstrakt-Relationen
dar (Abb. 3.95). Auf diese Weise wird aus einem komplizierten Muster von Kon-
turen und Linien im Verlauf des Wahrnehmungsprozesses durch Konvergenz eine
einfache Kategorisierung (DÖRNER 1984). Der motorische Teil des LZG lässt sich
analog hierzu als sog. Divergenzhierarchie beschreiben, welche zum Prozess der
Informationsdilatation führt: aus einer einfachen Absicht wird ein kompliziertes
sensumotorisches Muster.
Weiterhin kann zwischen einem sprachlichen und einem ikonischen, nicht-
sprachlichen Bereich unterschieden werden. Bei diesem Ansatz scheinen den
beiden Cortexhälften bedeutende Rollen zuzukommen: das ikonische Gedächtnis
wird in der rechten Cortexhälfte lokalisiert, Träger des sprachlichen Gedächtnisses
dagegen scheint die linke Cortexhälfte zu sein (LINDSAY u. NORMAN 1981).
370 Arbeitswissenschaft
Verkehrsmittel
h
Rahmen
h ie ie
h
Speiche Fahrrad
h
h
Nabe h Rad
h
h
Felge Auto
h
Karosserie
Abb. 3.95: Ausschnitt aus einer sensorischen Konvergenzhierarchie, gebildet aus Teil-
Ganzes-Relationen (h = „hat“) und Konkret-Abstrakt-Relationen (ie = „ist ein“)
sensorische
< „Pinguin“ >
ze
Bezeichnung
enthält-als-Teil
< > enthält-als-Teil < >
enthält-als-Teil Schwarz-
Grau < „Strauss“ > Lebt im Zoo
< zwei Beine > < > weiß
Bezeichnung
sensorische
Lebt auf < > Vorstellung
Kann Kann nicht
singt schwimmen fliegen
Bäumen
Lebt in
Nordafrika Lebt im Zoo
Lebt in der
Kann fliegen Antarktis
Kann
nicht fliegen
Vergessen besitzt bei den meisten Menschen eine überwiegend negative Bedeu-
tung, man sollte sich jedoch immer vergegenwärtigen, dass Vergessen unabding-
bar für die Handlungsfähigkeit des Individuums und soziale Interaktion ist.
Mnemotechniken
Unter Mnemotechniken (Gedächtniskunst) werden Verfahren verstanden, die das
Memorieren von Elementen mittels Merkhilfen („Eselsbrücken“) erleichtern. Bei
richtiger Anwendung funktionieren diese „Umwege“ überraschend gut. Drei Bei-
spiele: (1) Reimen (z.B. In Wurzeln und in Summen kürzen nur die Dummen).
(2) Bildliches Vorstellen „Auf welcher Seite war bei Ihrer vorletzten Wohnung
der Türgriff der Eingangstür?“. (3) Die Loci-Methode (auch: peripathetische Me-
thode): Man verwendet einige bekannte geographische Orte als Hinweisreize für
den Abruf der memorierten Elemente (z.B. den Grundriss der eigenen Wohnung).
Dies wirkt am besten, wenn während der Einprägung auch tatsächlich dieser Ort
betrachtet und die zu memorierenden Elemente auf den jeweiligen Ort „projiziert“
werden. Bspw. mit den Elementen Hand, Fahrrad, Knopf, Tasche, Leiter: Man
öffnet den Kühlschrank. Es liegt eine Hand darin. Man geht ins Badezimmer. Es
steht ein Fahrrad in der Wanne. Man schaut in die Spüle. Es liegt ein Knopf in der
Spüle. Auf dem Tisch liegt eine Tasche, und vor der Schlafzimmertür steht eine
Leiter etc.
vorausgesetzt werden können, ist auch dies eine Quelle potentiell nutzbarer Re-
dundanz.
Der Mensch ist in der Lage, sich an Dinge zu erinnern, die ihm in der Form
noch nicht begegnet sind, und auf der Basis von Plausibilität zu richtigen (und
falschen) Schlussfolgerungen zu kommen (Hinweise 2 und 5). Dies führt zu der
Konsequenz, dass es sinnvoll ist, eine gewisse Logik anstelle von willkürlichen
Buchstabenkombinationen als Basis für die Kürzelbildung heranzuziehen. Am
besten erscheint hier eine Hierarchie von Regeln (z.B. 3 Anfangsbuchstaben o
Anfangsbuchstaben der Silben o Andere Regel).
Je häufiger ein Gedächtnisinhalt abgerufen wird, desto größer ist die Wahr-
scheinlichkeit, dass er auch beim nächsten Abruf erfolgreich reproduziert werden
kann (Hinweis 7). Die am häufigsten auftretenden Kürzel werden zuerst und am
besten gelernt. Es wäre also sinnvoll, den Regelcode (den Höchsten in der Regel-
hierarchie) für die seltener auftretenden Fälle und den Sonderkode (den nächst
Niedrigeren in der Regelhierarchie) für die häufiger auftretenden Fälle zu reservie-
ren.
Die Regeln, die bei der Kürzelbildung verwendet werden, sind nicht immer
identisch mit dem, was der Lernende sich an „Regeln“ oder Schemata bildet. Des-
halb ist es wichtig, dass der Mitarbeiter weiß, welche Regel wirklich zur Kürzel-
bildung geführt hat (Hinweis 2). Wenn bei der Bildung eines Kürzels eine Hierar-
chie von Regeln angewendet wurde, so ist es sinnvoll, dies dem Lernenden auch
nachvollziehbar zu machen. Auf diese Art kann sich der Lernende mit dem Mate-
rial besser auseinandersetzen.
Je genauer der Abrufkontext dem Lernkontext entspricht, desto höher ist die
Gedächtnisleistung (Hinweis 6). Dieser Effekt trifft sowohl auf äußere Kontexte
als auch auf emotionale Kontexte zu. Es ist darum zu empfehlen, einen Großteil
des Lernens vor Ort an der Anlage und mit echten Paketen stattfinden zu lassen.
Das „Üben“ einer Liste von Kürzeln in einer isolierten Umgebung ist weniger
sinnvoll.
Der Mensch kann sich an bedeutungsvolle Informationen besser erinnern als an
bedeutungslose. Wie bereits angedeutet wurde, ist die Reproduktionsleistung
umso besser, je mehr Zugriffsmöglichkeiten es auf einen Gedächtnisinhalt gibt
(Hinweise 1 bis 4). Das Vorhandensein von Zusatzinformation („ist eine Quer-
straße von der Hauptstraße“, „liegt im Bezirk X“, „die Firma Y ist dort angesie-
delt“) kann sowohl die Einprägung des Kürzels erleichtern, als auch dessen Abruf.
Welche Faktoren beeinflussen den Behaltensprozess? Voraussetzung für „be-
halten“ ist zunächst eine 10-30 minütige Konsolidierungsphase. Einen entschei-
denden Einfluss auf die Behaltensleistung üben die Charakteristika des Lernpro-
zesses aus:
x Je öfter etwas wiederholt wird (Rehearsal), desto besser wird es behalten
x „Verteiltes“ Lernen, d.h. Lernen mit zwischengeschobenen Phasen anderer
Aktivitäten, ist effektiver als „massiertes“ Lernen
Arbeitsformen 375
Mentales
Modell
Situationsbewusstsein
Abb. 3.97: Phasen zur Entstehung von Situationsbewusstsein nach ENDSLEY (2000)
3.3.2.2.5.1 Abstraktionshierarchien
Abstraktionshierarchien stützten sich auf die Konstruktionssystematik (siehe
PAHL et al. 2007) und repräsentieren komplexe technische Systeme auf verschie-
denen Abstraktions- und Aggregationsebenen (siehe RASMUSSEN et al. 1994).
Häufig werden Abstraktionshierarchien mit fünf Ebenen verwendet: (1) Auf der
untersten Ebene der physischen Form sind die körperlichen Eigenschaften der
Systemkomponenten abgebildet, wie z.B. bei einem Computer die Form und Lage
der Chips, Pinbelegungen o.ä., die bspw. für eine Fehlerdiagnose vom Menschen
herangezogen werden können. (2) Auf der Ebene der physikalischen Funktion
sind die jeweiligen elektrischen, mechanischen oder chemischen Eigenschaften
der verschiedenen Subsysteme repräsentiert. Bei einem Computer würden z.B. die
elektrischen Signalcharakteristika oder Temperaturverteilungen betrachtet.
(3) Wird weiter abstrahiert, so werden auf der generellen Funktionsebene die
physikalischen Implementierungsdetails vernachlässigt und lediglich generalisier-
te Systemmodule wie Spannungsversorgung, Zentralprozessor, Hauptspeicher etc.
erörtert. (4) Auf der Ebene der abstrakten Funktion wird das System als kausales
Geflecht von Informations-, Massen- oder Energieströmen betrachtet, die den
beabsichtigten Systemzustand reflektieren. Bei einem Computer fallen hierunter
die arithmetischen Operationen, Speichermanagement etc. (5) Schließlich ist auf
der höchsten Ebene des funktionalen Zwecks der beabsichtigte funktionale Effekt
des Gesamtsystems auf seine Umgebung abgebildet. Beim Computerbeispiel sind
Zielkataloge bzw. Systemspezifikationen zu nennen.
I.Allg. besitzen Abstraktionshierarchien folgende Merkmale:
x Jede Schicht der Hierarchie beinhaltet das gleiche System, nur in einer ande-
ren Beschreibungsweise.
x Jede Schicht hat ihre eigenen Begriffe, Konzepte und Prinzipien.
x Die Auswahl der Schichten zur Beschreibung eines bestimmten Systems
hängt vom Beobachter, seinem Wissen und seinen Kenntnissen ab. Für viele
Systeme gibt es jedoch einige Schichten, die als „natürlich“ und in der Sache
liegend angesehen werden können.
x Voraussetzung für das einwandfreie Funktionieren jeder Schicht ist die Ein-
haltung der Rahmenbedingungen (constraints) auf der darunter liegenden
Ebene.
378 Arbeitswissenschaft
x Das Verständnis für das System erhöht sich dadurch, dass man sich von einer
Schicht zur anderen bewegt. Bewegt man sich in der Hierarchie aufwärts, er-
fährt man mehr über die Ziele des Systems, bewegt man sich abwärts, ge-
winnt man Kenntnisse darüber, wie das System funktioniert, um diese Ziele
zu erreichen. Höhere Schichten enthalten weniger Einzelheiten als niedrigere
Schichten.
x Weiterhin ist die Hierarchie dadurch gekennzeichnet, dass die verschiedenen
Schichten durch eine Ziel-Mittel-Beziehung verbunden sind. Ziel-Mittel-
Relationen sind dadurch charakterisiert, dass mit dem System Ziele verfolgt
werden, wozu die Mittel zur Verfügung gestellt werden. Die unteren Schich-
ten stellen jeweils die Mittel bereit, um die Ziele der darüber liegenden
Schichten zu erreichen.
Zwischen den Abstraktionsebenen werden Ursachen für Fehlfunktionen vom
Konkreten zum Abstrakten und Gründe für eine richtige Funktionalität vom Abs-
trakten zum Konkreten vom Menschen propagiert. Auf diese Weise wird heraus-
gestellt, dass komplexe Mensch-Maschine-Systeme nicht alleinig kausal beschrie-
ben werden können, sondern ebenso einen intentionalen Charakter besitzen. Hin-
sichtlich der Aggregation lassen sich auf jeder Abstraktionsebene – von Zielhie-
rarchien bis Baustrukturen von physischen Komponenten – Subsysteme zu Syste-
men und Supersystemen zusammenfassen bzw. im Umkehrschluss in die jeweili-
gen Teile auflösen. Ein elaboriertes Beispiel einer Abstraktionshierarchie zur
Repräsentation von Konstruktionswissen für einen Pkw-Anhänger findet sich in
SCHMIDT (2004). Weitere Beispiele im Kontext der informatorischen Gestaltung
von Arbeitssystemen sind in Kap. 10.1.2.3.2.1 wiedergegeben.
(2) Divided Attention Deficit (DAD): Ein DAD besteht in dem Unvermögen, die
eigene Aufmerksamkeit über das gesamte Informationsangebot zu verteilen
und kann, wie erwähnt, sowohl durch ein Überangebot an Information als
380 Arbeitswissenschaft
Signal-
verarbeitung
(Empfänger)
0
0 Signalangebot
(Senderfunktion)
3.3.2.3 InformationsabgabeĆ(späteĆProzesse)Ć
Jede Art der menschlichen Informationsverarbeitung muss, wenn sie einen Ein-
fluss auf die Umwelt nehmen soll, nach außen übertragen werden. Im Wesentli-
chen geschieht dies über die Bewegung von Körperteilen, zumeist des Hand-Arm-
Systems – emotional/inhaltlich auch vielfach mit Mimik und Gestik – sowie über
akustische Ausgabe mittels der Sprache.
3.3.2.3.1 Organisation und Regelung von Bewegungen
Im Gegensatz zu technischen Systemen realisiert der Mensch seine Bewegungen
nicht mittels teleskopischer Elemente, sondern als Rotationen von längenkonstan-
ten Hebeln (Knochen) im Raum. Da die Muskeln grundsätzlich nur bei einer Ver-
kürzung Arbeit leisten können, sind für eine Hin- und Rückbewegung immer
mindestens zwei Muskeln erforderlich, die entgegengesetzt aktiviert werden
(Agonisten und Antagonisten). In der Regel sind an Bewegungen darüber hinaus
fast immer mehrere Muskeln gleichartig beteiligt, die an den gleichen oder nahe
benachbarten Knochenpunkten ansetzen und gemeinsam den Bewegungsablauf
bestimmen. Man bezeichnet derartige Muskeln als Synergisten. Die von den ein-
zelnen Muskeln aufgebrachten Kräfte werden zu einer erwünschten Gesamtkraft
nach Betrag und Richtung zusammengeschaltet sowie räumlich und zeitlich ge-
steuert (LUCZAK 1983).
Bereits sehr einfache Bewegungen, selbst das Umblättern dieser Seite, stellen,
v.a. unter Berücksichtigung der begrenzten Bewegungsmöglichkeiten einzelner
Gelenke, eine regelungstechnisch höchst anspruchsvolle Aufgabe dar. Beuge- und
Streckmuskeln müssen wechselweise und so dosiert aktiviert werden, dass sich
eine gewünschte Bewegung der Hand und des Arms als Resultat vieler Drehbe-
wegungen in den beteiligten Gelenken ergibt. Aus den vielen Freiheitsgraden
möglicher Bewegungen müssen einige wenige ausgewählt und durchgeführt wer-
den. Die Notwendigkeit der simultanen und kontrollierten Aktivierung sehr vieler
Muskeln bedeutet, dass selbst bei den einfachsten Bewegungen immer ein ganzes
Ensemble von motorischen Elementen angesteuert werden muss.
Großhirn
höhere Kleinhirn
Zentren
Vorbereitungsphase
Subcorticaleund corticale
Extrapyramidal- Motivationsareale
motorisches
System (EPMS)
Assoziativer und
Assoziativer sensorischer Cortex
Thalamus
Motorischer
Prämotorischer Cortex
Thalamus
aszendierendes System
Sensorischer
Thalamus
Ausführungsphase
Motorischer Cortex
Pyramidenbahn
Formatio
deszendierendes System Rückenmark
Reticularis
Motorische
Endplatte
mitäten als für die Beine vorgesehen. Das Hand-Arm-System kann daher wesent-
lich gezielter und feinfühliger angesteuert werden (MÜLLER-LIMMROTH 1975).
Die Leistungen des motorischen Systems können grob in drei Bereiche unter-
teilt werden (MÜLLER-LIMMROTH 1975): Die Spinalmotorik umfasst einen Vor-
rat elementarer Haltungs- und Bewegungsprogramme auf Rückenmarksebene. Mit
Hilfe der Stützmotorik werden Haltung und Stellung des Körpers im Raum von
Zentren im Hirnstamm kontrolliert. Schließlich wird die Zielmotorik, die sich als
zielgerichtete Bewegung äußert, von Arealen der Hirnrinde und dem Kleinhirn
entworfen und programmiert.
schaft des Regelkreises variiert werden. Die Reflexe sind damit hinsichtlich ihrer
Kraftentwicklung an wechselnde Umstände anpassungsfähig.
Neben den Dehnungsreflexen gibt es eine Reihe von Reflexverschaltungen, die
von sog. Golgi-Sehnenorganen (1b-Afferenzen) aktiviert werden. Diese sind mit
den Muskelfasern in Serie geschaltet und eignen sich dazu, Muskelspannungen zu
registrieren. Darüber hinaus gibt es Gelenkrezeptoren, die als Mechanorezeptoren
über die Stellung der Gelenke Auskunft geben.
Reflexe können automatisch ablaufen, d.h. ohne durch höhere Zentren initiiert
zu werden. Damit wird bereits auf dieser niedrigen Ebene für eine optimale An-
passung der Muskelkontraktion an die Bewegung bzw. Belastung gesorgt, ohne
dass höhere Zentren hierfür in Anspruch genommen werden. Die Verknüpfung
sensorischer und effektorischer Signale in ein und demselben Muskel bezeichnet
man als Eigenreflex, die Verknüpfung der Signale mehrerer Muskeln oder äußerer
Reize als Fremdreflex. Bei der praktischen Bewegungsdurchführung erhalten die
Motoneurone des Rückenmarks Erregungen von einer Vielzahl von Schichten des
übergeordneten Zentralnervensystems (supraspinales System). Die Vielfalt der
Rückmeldungen ermöglicht die Verwirklichung relativ komplexer, ineinander
verschachtelter, adaptiver Regelsysteme, deren Leistungsfähigkeit die Aufgabe
der einfachen Eigenreflexbögen weit übertrifft. Ausgelöst werden diese Erregun-
gen durch rückläufige sensorische Bahnen, die von Hautrezeptoren und sonstigen
Fühlern (Afferenzen) stammen, ebenso durch das Gleichgewichtsorgan, über das
vegetative Nervensystem und natürlich v.a. von Seiten des Cortex (Hirnrinde)
beim Einleiten von Willkürbewegungen. Zusätzlich empfangen die Motoneurone
auch noch direkt Erregungen, die fortlaufend über die Afferenzen in das Rücken-
mark einlaufen und dort umgeschaltet werden. Koordinierte Bewegungen sind nur
unter Einbeziehung dieser peripheren Reflexvorgänge möglich. Die augenblickli-
che Belastungssituation aller beteiligten Muskeln und auch die über zusätzliche
Afferenzen einlaufende Information bzgl. der Umweltbeschaffenheit (fest, nach-
giebig, rauh, glatt usw.) modifiziert im Rückenmark automatisch die von supra-
spinalen Zentren einlaufenden Befehle. Damit können die aus höheren Zentren
stammenden Erregungsmuster ohne Rücksicht auf die augenblickliche Belastung
schematisiert sein.
Rhythmische Kontrolle von Bewegungen
Es gibt eine Vielzahl von motorischen Reaktionen, die aus rhythmisch wiederhol-
ten Aktionseinheiten aufgebaut sind. Wie werden solche Verhaltenseinheiten vom
Nervensystem erzeugt? Eine Möglichkeit besteht in der gegensinnigen
Reflexverschaltung der beteiligten Muskeln. Bei kontrollierten Bewegungen wird
zunächst stets der Agonist kontrahiert und der Antagonist entspannt. Durch die
Muskelspindeln im Antagonisten werden daraufhin Impulse ausgesendet, die über
die zugehörigen Motoneurone dessen Kontraktion einleiten und zugleich den
Agonisten hemmen (negative Rückkopplung). Es kommt zu einer (minimalen)
konträren Bewegung, die wiederum eine negative Rückkopplung, diesmal in um-
gekehrter Richtung, auslöst. Ähnlich einer Kettenreaktion lösen so die ablaufen-
386 Arbeitswissenschaft
den Reflexe jeweils die nachfolgenden aus. Das Wechselspiel der beiden konkur-
rierenden Muskeln läuft so schnell ab, dass die Bewegung äußerlich glatt er-
scheint. Die Innervation kann gegensinnig auf die Gegenseite des Körpers (kontra-
lateral) übertragen werden, so dass die Beugemuskulatur gehemmt wird und die
antagonistisch wirkende Streckmuskulatur einem fördernden Einfluss unterliegt.
Diese zweiseitige reziproke Innervation stellt eine entscheidende Grundlage für
das Zustandekommen von Fortbewegungsvorgängen dar.
Die Stärke der durch sensorische Rückkopplung bewirkten Effekte kann für
verschiedene Bewegungen stark variieren, z.B. kann bei stark umweltinteraktiven
Verhaltensweisen wie dem Laufen der Einfluss der sensorischen Rückkopplung
dominierend sein. Sie ist auch für den Übergang von einer Bewegungsphase zur
nächsten entscheidend. Rhythmus und Frequenz von Gliederbewegungen bei
komplizierten Bewegungen werden daher schon ganz peripher durch die Modifi-
kation der Motoneurone beeinflußt. So verändert sich bspw. die Beschleunigungs-
phase durch Kontraktion der Agonisten von selbst, wenn die Eigenschwingung
etwa der Beine durch schwere Stiefel verlangsamt oder die Geschwindigkeit durch
Reibungswiderstände vermindert wird.
Darüber hinaus gibt es die Möglichkeit, eine „rhythmische Aktivität“ durch
zentrale Verschaltungen (zentrale Mustergeneratoren) zu erzeugen.
Neuronale Programme
In den Netzwerken des Nervensystems sind eine Vielzahl räumlich und zeitlich
strukturierter Verhaltensmuster vorprogrammiert. Die motorische Musterer-
zeugung wird im Wesentlichen durch zentralnervöse, quasi festverdrahtete Schal-
tungen abgewickelt. Ein angemessener Reiz kann die Aktivierung dieser Pro-
gramme und damit die Expression des Verhaltensmusters auslösen. Die Auslösung
der als „fixed action pattern“ bezeichneten motorischen Antwort kann einer einfa-
chen Entscheidungsleistung gleichgesetzt werden. Als Folge dieser kommt es zu
einer Aktivierung von motorischen Verschaltungen, die dann einen koordinierten
Ablauf von neuromuskulärer Erregung ermöglichen. Je nach Art der „fixed action
pattern“ kann die motorische Koordination sowohl unabhängig von weiteren sen-
sorischen Reizen stattfinden (z.B. bei schnellen, ballistischen Greif- oder Flucht-
reaktionen) als auch davon in hohem Maße beeinflusst werden.
Die beobachtete Lernphase entspricht der Zeit, die zur geeigneten Zusammen-
stellung und zur Korrektur der Ablaufprogramme erforderlich ist. Im Rahmen des
supraspinalen Teils werden Korrekturprogramme auf der Höhe des Kleinhirns,
welche den Einfluss der Schwerkraft, Beschleunigung und Steuerkraft berücksich-
tigen, herangezogen. Bei ständigem Wiederholen gleicher oder ähnlicher Verar-
beitungsprozesse werden die hierbei gebildeten Bewegungsmuster zunehmend als
feste Engramme, die sich wiederum aus einer Kombination bereits vorhandener
Bewegungsmuster zusammensetzen können, gespeichert. Dabei werden diejenigen
Programmteile, die nur geringfügig veränderlich sind, an tiefer gelegene Systeme
delegiert, so dass sie näher am Effektor und über kürzere und schnellere Bahnen
Einfluss nehmen bzw. zugeschaltet werden können. Diese Engramme zeichnen
sich durch extrem kurze Zugriffszeiten aus. Grundsätzlich kann gesagt werden,
dass mit Übung der Umfang der vorgefertigten Teilprogramme und damit die
Komplexität derjenigen Bewegungen, die unbewusst ausgeführt werden können,
anwächst. Mit abnehmender Hierarchiestufe sinkt sowohl die Bewusstseinsfähig-
keit als auch die Flexibilität der Ausführungsweise, andererseits steigt die Ausfüh-
rungsgeschwindigkeit. „Übung läuft damit auf eine Spezialisierung hinaus“
(PAWLIK 1968), in deren Verlauf eine Entlastung der höheren Regulationsebenen
stattfindet.
Insbesondere ist es wichtig zu erwähnen, dass bestimmte motorische Aktionen
zunächst willkürlich oder unwillkürlich ausgeführt werden, um vermehrt Informa-
tionen über die Eigenschaften der äußeren materiellen Substanzen bzw. des Steu-
ersystems zu gewinnen. Derart intendierte Bewegungen schießen zu Beginn des-
halb meist über das Ziel hinaus und laufen erst nach mehrmaliger Wiederholung
gleichmäßig und schnell ab. Hierbei kommt kognitiven Antizipations- und Nach-
verarbeitungsprozessen (in Phasen der Vorbereitung und Interpretation) gegenüber
der eigentlichen Realisationsphase entscheidende Bedeutung zu. In ihnen vollzieht
sich der Aufbau eines „inneren Modells“ oder „operativen Abbilds“ der Tätigkeit
(HACKER 2005). Mit zunehmender Übung werden bestimmte Abläufe mehr und
mehr automatisiert, darüber hinaus laufen bereits während der Ausführung einer
Handlung die Antizipationsprozesse für eine folgende Handlung ab (NITSCH
1976).
Diese Regulationsvorgänge sind nicht sämtlich bewusstseinspflichtig und zum
Teil nicht einmal bewusstseinsfähig. Bewusstseinspflicht kann bei Sonderbedin-
gungen (etwa beim Erlernen), jedoch nicht im Normalfall vorliegen, das Bemühen
um bewusste Erfassung stellt vielfach sogar selbst eine Störung der Bewegungs-
führung dar (HACKER 2005). Bei einer hochgeübten Tätigkeit im Sinne eines
automatischen Ablaufs der gespeicherten Unterprogramme bleibt das Bewusstsein
frei. Es steht gewissermaßen nur im Hintergrund, um in Notfällen eingreifen zu
können, kann sich also mit anderen Dingen beschäftigen. Erst dann, wenn im
peripheren Bereich Störungen auftreten, welche die Flexibilität der Unterpro-
gramme übersteigen, sind Programmsprünge zur höheren Programmebene und
später auch bewusste, visuell überwachte Eingriffe notwendig
(Reafferenzprinzip). Man kann deshalb den Ablauf eines eingeschliffenen Bewe-
388 Arbeitswissenschaft
lung des sensorischen Reizes gefordert wird. Andererseits können damit auch
wesentlich komplexere Informationen aufgenommen und in die motorische Koor-
dination einbezogen werden.
Für die praktische Bewegungsausführung ist die unterschiedliche Laufzeit in-
nerhalb des visuellen (bewussten) und des inneren (unbewussten) Regelkreises
von entscheidender Bedeutung. Daraus wird ersichtlich, dass der Gewinn an Be-
wegungsgenauigkeit durch visuelle Kontrolle auf Kosten der Bewegungsge-
schwindigkeit erkauft werden muss. Eingeübte und optimal schnelle Bewegungen
zeichnen sich folgerichtig durch eine möglichst kurze visuelle Kontrollphase aus,
die erst nahe am Zielpunkt einsetzt.
Da bei einer Bewegung nicht nur die äußere Kraftaufbringung, sondern auch
die Massenträgheitskräfte, die Dämpfungskräfte und die elastischen Kräfte des
Sehnen-, Muskel- und Bänderapparats eine wesentliche Rolle spielen, führen
verschiedene Bewegungsgeschwindigkeiten zu sehr unterschiedlichen Muskel-
und Koordinationsbeanspruchungen. In Experimenten fand PFAHL (1924) ein sog.
optimales Elastizitätstempo für die Pendelschwingungen von Fingern (f = 6 Hz),
Hand (f = 3 Hz) und Unterarm (f = 1 Hz). Sowohl bei den Bewegungen, die lang-
samer erfolgen, als auch bei den Bewegungen, die schneller erfolgen, wird der
größte Teil der Muskelkraft nur zum Beschleunigen und Abbremsen aufgewendet.
Bei den Bewegungen im Elastizitätstempo ist die aufzuwendende Muskelkraft
dagegen minimal.
Die zeitliche Regulation von Bewegungen wird nicht nur durch äußere Signale
beeinflusst, sondern wesentliche Gesetzmäßigkeiten werden auch auf antizipierte
Informationen über geforderte Resultate und Ausführungsbedingungen hin im
Bewegungsentwurf und in der Bewegungsausführung wirksam. Gemeint ist hier-
bei das für gezielte und geführte Bewegungen nachgewiesene Zeitkonstanz-
Phänomen der Bewegung. Bei der Regulation wird durch integrative Verarbeitung
antizipierter Daten über zu überbrückende Entfernungen und über die Zielgröße
der Zeitaufwand für die Bewegung unabhängig von der Bewegungsweite relativ
konstant gehalten (SCHMIDTKE 1960; THOMAS 1973). Für geführte Bewegungen
gilt eine analoge Gesetzmäßigkeit, die DERWORT (1938) als „Regel der konstanten
Figurzeit“ formulierte: Das Umfahren eines großen Kreises z.B. dauert nicht we-
sentlich länger als das eines kleinen. Die zeitlichen Parameter sind charakteristisch
für die jeweilige Bewegungskonfiguration, aber nur wenig abhängig von deren
Größe. Allen Invariabilitäten ist gemein die vorrangige Bestimmung der zeitlichen
Bewegungsparameter aus den Regulationsbedingungen, nämlich der visuell ver-
mittelten Vorwegnahme der Bewegungsbahn mit ihren Knick-, Umkehr- und
Wendepunkten, nicht aber aus physikalischen oder anatomischen Ausführungsbe-
dingungen.
lich. Dies bezieht sich sowohl auf die spektrale Zusammensetzung des Führungs-
signals als auch auf das Verhalten der Regelstrecke. Die obere Grenzfrequenz
wird bestimmt durch die minimale Reaktionszeit des Menschen. Geht man davon
aus, dass zur optischen Wahrnehmung der Bewegung eines Punkts ca. 200 ms
notwendig sind, und nimmt man für den Verlauf der Bewegung eine Sinushalb-
schwingung an, so ergibt sich für das Führungssignal eine obere Grenzfrequenz
von max. 2,5 Hz (BUBB 1993). Die obere Grenzfrequenz der Ausgangsgröße kann
jedoch, bedingt durch die Massenträgheit der bewegten Elemente, noch deutlich
niedriger liegen.
Für sehr langsam veränderliche Größen gibt es ebenso eine Grenze, unterhalb
derer das menschliche Verhalten nicht ohne weiteres mit einem Reglerverhalten
beschrieben werden kann. Sie wird bestimmt durch die Schwelle der Bewegungs-
wahrnehmung. Legt man die von JOHANNSEN et al. (1975) angegebene absolute
Bewegungsschwelle von 1'/s bis 2'/s und einen sinusförmigen Bewegungsverlauf
zugrunde, so ergibt sich für das Führungssignal eine untere Frequenz fmin, die von
der Bewegungsamplitude D (in Grad) wie folgt abhängt:
0, 017...0, 033
f min > Hz @ . (3.23)
2S D
Darüber hinaus ist die zeitliche Vorhalt- bzw. Verzögerungsbildung des Men-
schen als Regler begrenzt. Daher kann eine sehr träge reagierende Regelstrecke
nicht ohne weiteres im Sinne einer Regelung beherrscht werden. Dies ist bspw. bei
der Steuerung von großen Schiffen mit ihrer enormen Trägheit von entscheidender
Bedeutung. Der Mensch kann nur eingeschränkt ein „Gefühl“ für das Verhalten
eines solchen Systems entwickeln, daher werden solche Maschinen bevorzugt mit
Hilfe von Modellen gesteuert.
3.3.2.3.3 Sprache
Sprache stellt das erfolgsreichste Kommunikationsmedium des Menschen dar. Sie
verfügt über eine kurze Kodierung und ist deshalb gut speicherbar und übertrag-
bar. Sprache besitzt jedoch den Nachteil, dass kleine Fehler in der Dekodierung,
das heißt beim Sprachverstehen, zu großen Auswirkungen, also Missverständnis-
sen zwischen Sender und Empfänger führen können. RECHENBERG (1994) be-
zeichnet Sprache bzgl. dieser Eigenschaft als „schwach kausal“. Bei der Kommu-
nikation zwischen Menschen und (determinierte Befehle benötigenden) Maschi-
nen besitzt die Sprache heute noch eine gegenüber anderen Formen der menschli-
chen Informationsabgabe geringere Bedeutung (siehe Kap. 10.1.2.4.5).
Sprache dient nicht nur der Informationsübermittlung, sie ist auch notwendig,
um über Begriffsbildung für bestimmte Tatbestände eine ökonomische Speiche-
rung im Gedächtnis zu erreichen. Dies bedeutet, dass ein Begriff als ein sehr
schneller und effektiver Zugang zu gespeicherten Informationen fungieren kann.
Hier soll Sprache als gesprochene Informationsausgabe verstanden werden, im
Gegensatz zu geschriebener Sprache, die nach der Schreibform (z.B. Handschrift
Arbeitsformen 391
oder Schreiben mit dem Computer) unter den Arten von Bewegungen eingeordnet
werden kann.
Zur Bildung von Sprache werden Stimmorgane genutzt. Dabei werden Stimm-
laute prinzipiell wie bei einem Blasinstrument gebildet. Dazu sind ein „Luftraum“
oder Klangkörper (Trachea, Bronchien etc.) und ein Spalt mit schwingungsfähigen
Bändern (Stimmbänder), von dem die Luft über ein „Ansatzrohr“ (Rachen, Mund-
und Nasenhöhle) in den Luftraum strömt, notwendig. Die Stimme kann in einer
Vielzahl von Parametern variiert werden. Die Lautstärke wird über die Stärke des
ausgestoßenen Luftstroms, der Grundton über die Spannung der Stimmlippen und
die Weite der Stimmritze und die Klangfarbe über die Größe und Form des Luft-
raums verändert. Die Muskulatur des Kehlkopfes stellt Stimmritze und -bänder
ein. Dabei existiert eine neuronale Rückkopplung von Kehlkopfmuskulatur zu den
kortikalen Zentren der Sprachbildung, was für die Feinabstimmung der Sprache
wichtig ist. Im Sprachkortex findet in einem primären Zentrum das Verständnis
von Sprache statt, während ein sekundäres Zentrum die motorische Steuerung
übernimmt.
Die wesentlichen Informationen der menschlichen Sprache liegen in einem
Frequenzbereich von ca. 100 Hz bis 3000 Hz und damit im Bereich größerer Sen-
sibilität des auditiven Systems (siehe Kap. 9.1.2). Technische Systeme sollten
jedoch auch einen weiteren Bereich übertragen. So gibt es Laute, z.B. Zischlaute,
die in höheren Frequenzbereichen liegen und die Kommunikation deutlich verbes-
sern. Stimmlaute werden durch einen Grundton und Klangfarben (Formanten)
erzeugt. Um Stimmlaute zu Bedeutungseinheiten (Morpheme) zusammenzufassen,
werden Vokale und Konsonanten benutzt. Vokale unterscheiden sich bei gleichem
Grundton (-frequenz) in der Art der beigemischten Klangfarben, Konsonaten im
Bildungsort (z.B. Lippen bei P, B, W, F, M) und der Bildungsart (z.B. Reibelaute
bei F, W, S, Ch). Morpheme können Worte sein (z.B. Haus, Auto, aber), Suffixe
(z.B. „s“ bei der Pluralbildung), Präfixe als Worterweiterungen (Un-, Anti- etc.),
aber auch Laute, die nach sozialer Vereinbarung unter bestimmten Voraussetzun-
gen notwendig werden können, wie z.B. „hm“ bei Sprechpausen, nach denen der
Sprecher weitersprechen wird. Morpheme sind im Wesentlichen syntaktisch defi-
niert, geben jedoch in ihrer Kombination nur eingeschränkt Sprache wieder. Ne-
ben der richtigen Bildung von Morphemen ist die richtige Kombination wichtig.
So ist ein Satz, der über bestimmte Tatbestände Auskunft geben soll, durch be-
stimmte Regeln zu seiner Bildung charakterisiert, z.B. durch Subjekt-Prädikat-
Objekt Bildung.
Wichtig für eine Interpretation bzw. semantische Deutung von Sprache ist da-
bei zusätzlich die Betonung einzelner Objekte des Satzes, z.B. durch Lautstärken-
verschiebung, Tonhöhenverschiebung und leichte Veränderung der Morpheme
(z.B. zeitliche Verzögerungen). Auch der Kontext, in dem Sprache stattfindet,
bestimmt in gewissen Bereichen die Bedeutung eines Satzes. Sprache dient dem-
nach, nicht zuletzt wegen der vielen verschiedenen Variationsformen und oft nur
unzureichend und unscharf definierter Konventionen, in erster Linie zwischen-
menschlicher Kommunikation. Aber auch hier sind, wie die Sprachübermittlung
392 Arbeitswissenschaft
über weite Entfernungen z.B. per Telefon zeigt, verschiedene technische Gestal-
tungsaspekte zu berücksichtigen. Um beim Hörer keinen verfälschten Eindruck
entstehen zu lassen, gilt grundsätzlich, Sprache möglichst wenig zu modifizieren
(z.B. Frequenzveränderungen), und wenn, dann nur in den Fällen, wo ohne Ver-
änderung keine korrekte Sprachwahrnehmung mehr möglich wäre (z.B. Lautstär-
keänderungen).
Welche Bedeutung Sprache in sozialer Interaktion hat, wird bereits in der Anti-
ke als „Rhetorik“ wissenschaftlich-philosophisch aufgegriffen, sowie gelehrt und
gelernt.
Um Sprache trotz ihrer großen Variationsbreite technisch verarbeiten zu kön-
nen, existieren für verschiedene Anwendungsgebiete formalisierte Sprachen, die
durch eine technische Sprachinterpretation einer gesprochenen Anweisung ma-
schinelle Ausführungsvorschriften zuordnen (siehe Kap. 10.1.2.4.5).
3.3.2.3.4 Weitere Formen der Informationsabgabe
Prinzipiell sind außer Bewegungen und Sprache noch andere Formen der Informa-
tionsabgabe bekannt. Diese werden jedoch bislang nicht technisch genutzt, son-
dern besitzen hauptsächlich Aspekte sozialer Kommunikation. Dazu gehören z.B.
Stoffabsonderungen durch die Schweißdrüsen der Haut bzw. die bewusste Verfäl-
schung von Körpergerüchen mittels Duftstoffen, mit denen eine Person bewusst
oder unbewusst Informationen an die Umgebung abgibt.
3.3.3.1 KonzeptionelleĆGrundlagenĆ
Für den Begriff der Beanspruchung existiert eine Vielzahl von Definitionen. Einen
arbeitswissenschaftlichen Ansatz stellt das in Kapitel 1.5.1.2 bereits ausführlich
erläuterte Belastungs-Beanspruchungs-Konzept dar, das in diesem Kapitel ledig-
lich mit Bezug auf die Bewertung der menschlichen Informationsverarbeitung
ergänzt werden soll. Nach diesem Konzept ist Beanspruchung (workload, strain)
die beim arbeitenden Menschen hervorgerufene physische und psychische Reakti-
on auf eine von außen wirkende physikalische und informatorische Belastung
(input load, task demands, stressors). In welchem Maße der Mensch bei einer
bestimmten Tätigkeit beansprucht wird, hängt sowohl von externen als auch von
internen Faktoren ab. Die Belastung lässt sich als Summe der objektiven Anforde-
rungen an den Menschen durch verschiedene messbare Belastungsgrößen und
qualitativ beschreibbare Belastungsfaktoren bestimmen, die sich aus der Aufgabe,
den Ausführungsbedingungen und den Umgebungsbedingungen ergeben und als
Arbeitsformen 393
externe Faktoren auf den Menschen einwirken. Unter dem Begriff der internen
Faktoren werden die individuellen Eigenschaften des Menschen zusammengefasst.
Diese Bedingungen können im Zeitraum der Aufgabendurchführung, der bspw.
durch die Schichtdauer definiert ist, konstant oder variabel sein. Als konstante
Einflussgrößen sind Ausbildung, Trainingszustand und Disposition anzusehen.
Kondition und Motivation hingegen sind in diesem zeitlichen Rahmen als variabel
anzunehmen. Es kann während der Tätigkeit zu einer Rückkopplung der Bean-
spruchung auf die zeitvariablen individuellen Faktoren kommen. Bei zu hoher
Beanspruchung sinkt z.B. die Kondition. Unterforderung führt zu Monotonie und
im Weiteren zu einer daraus resultierenden Motivationsminderung.
Die Durchführung einer identischen Tätigkeit unter identischen externen Be-
dingungen, d.h. bei objektiv gleicher Belastung, kann durch die Variabilität der
individuellen Faktoren sowohl bei einem Menschen an zwei unterschiedlichen
Zeitpunkten eines beliebigen Zeitraums (intraindividuell) als auch bei zwei unter-
schiedlichen Personen an einem Zeitpunkt (interindividuell) Unterschiede hin-
sichtlich der resultierenden Beanspruchung aufweisen. Aus dieser Feststellung
folgt, dass es für die Abschätzung der mit einer Aufgabendurchführung verbunde-
nen Beanspruchung nicht ausreicht, die objektiv vorliegenden Belastungsfaktoren
zu bewerten. Die Bewertung der informatorischen Belastung kann auf der Grund-
lage der in den vorherigen Abschnitten eingeführten Konzepte und Variablen der
Signalentdeckungstheorie, Informationstheorie sowie Regelungstechnik erfolgen.
Bspw. kann die informationstheoretische Entropie dazu verwendet werden, die
Vielfalt der Handlungsalternativen bei Wahlreaktionsaufgaben zu quantifizieren
und korrespondierende Informationsflüsse im Zeitbereich zu erfassen. Regelungs-
technische Größen ermöglichen z.B. eine präzise Beschreibung von Schnitt- und
Grenzfrequenzen.
Die durch die Aufgabenbearbeitung entstehende Beanspruchung kann sich so-
wohl im körperlichen (physischen) Bereich als auch im geistig-seelischen (psychi-
schen) Bereich einstellen. Physische Beanspruchung beschreibt die Auswirkungen
von Belastungen des Muskel- und Kreislaufsystems. Infolge von körperlicher
Belastung resultierende Beanspruchungsreaktionen äußern sich in messbaren
Zustandsänderungen des menschlichen Körpers. Die damit verbundenen Aktivi-
tätsänderungen des Herz-Kreislaufsystems können über physiologische Parameter
wie Herzfrequenz, Atemfrequenz, Atemvolumen, Blutdruck, Körpertemperatur
etc. erfasst oder subjektiv bewertet werden (siehe Kap. 3.2).
An das Belastungs-Beanspruchungs-Konzept ist auch DIN EN ISO 10075 ange-
lehnt. Nach dieser Norm bezeichnet der Begriff der psychischen Belastung „die
Gesamtheit aller erfassbaren Einflüsse, die von außen auf den Menschen zukom-
men und psychisch auf ihn einwirken“. Die psychische Beanspruchung ist „die
unmittelbare (nicht die langfristige) Auswirkung der psychischen Belastung im
Individuum in Abhängigkeit von seinen jeweiligen überdauernden und augenblick-
lichen Voraussetzungen, einschließlich der individuellen Bewältigungsstrategien“.
Die mentale Beanspruchung ist ein Faktor der psychischen Beanspruchung und
bezeichnet den Anteil der Gesamtbeanspruchung, der durch Belastungen aus In-
394 Arbeitswissenschaft
• Fähig-/Fertigkeiten • Aufgabenanforderungen
• Rückmeldung • Umweltanforderungen
• Systemzuverlässigkeit • Müdigkeit
zu niedrig zu hoch
mentale
Beanspruchung
Sicherheit
3.3.3.2 ModelleĆundĆMethodenĆderĆBeanspruchungsskalierungĆ
Im Gegensatz zur physischen Beanspruchung, die anhand physiologischer Para-
meter gemessen werden kann und für die Grenzwerte wie bspw. die Dauerleis-
tungsfähigkeit vergleichsweise leicht definiert werden können, besteht für die
psychische mentale Beanspruchung keine verbindliche Definition, wie diese Be-
anspruchung gemessen oder ein Grenzwert festgelegt werden kann. Die im Belas-
tungs-Beanspruchungs-Konzept für die verschiedenen Beanspruchungsarten ver-
wandte Analogie in der Betrachtungsweise kann nur auf einer wie oben beschrie-
benen, allg. Ebene als gültig angesehen werden, welche die mentale Beanspru-
chung als eine aus dem Einfluss externer und individueller interner Faktoren resul-
Arbeitsformen 395
und katabole) sind notwendig für die Anpassung des Körpers an die Erfordernisse
der Umwelt. Diese Anpassungen können sowohl kurzfristig als auch längerfristig
erfolgen. Es wird deshalb unterschieden zwischen phasischen, tonischen und
chronischen Veränderungen (i.Allg. pathologisch oder lebenszyklusbestimmt).
Wenn Veränderungen des Informationsverarbeitungssystems eine Zeitspanne von
Millisekunden bis wenige Sekunden umfassen, so spricht man von phasischen
Veränderungen (Beispiel: Evozierte Potentiale im Elektroencephalogramm (EEG),
siehe Kap. 3.3.3.2.1.2). Veränderungen im Bereich von Minuten werden als toni-
sche Veränderungen bezeichnet (Beispiel: Muskeltonus, Epinephrinesekretion).
Schließlich kann von chronischen Veränderungen gesprochen werden, wenn sich
der Bereich physiologischer Parameter dauerhaft auf ein anderes Niveau (Beispiel:
Managerkrankheit, der Cortisolspiegel steigt an, siehe Kap. 3.3.3.2.1.6 verlagert.
Komplexe physiologische Reaktionen werden ausgelöst, wenn die automati-
sche Aufmerksamkeitsreaktion oder Orientierungsreaktion auftritt. Sie ist eine
autonome Reaktion des Körpers auf bedeutungsvolle Information. Sofort, nach-
dem die Information wahrgenommen wurde, setzt ein entgegengesetzter Mecha-
nismus, die Habituation, ein: Wenn der Reiz wiederholt wird, tritt allmählich
wieder der Normalzustand ein. Eine defensive Reaktion tritt während kontrollier-
ter Informationsverarbeitung auf. Die Intensität einer defensiven Reaktion wird
von der Schwierigkeit der Situation bestimmt.
Die physiologische Anpassung des Körpers an die Anforderungen mentaler Tä-
tigkeiten erfolgt also in zwei Schritten. Zuerst erfolgt eine generelle Aufmerksam-
keitsreaktion (Orientierungsreaktion). Wenn die Information wichtig genug ist, um
weitere, kontrollierte Informationsverarbeitung notwendig werden zu lassen, so
wird der Organismus durch weitere Anpassungen (defensive Reaktion) in den
dazu notwendigen Zustand gebracht. Die physiologischen Reaktionen des Orga-
nismus bei der Orientierungsreaktion und der defensiven Reaktion sind in Tabelle
3.16 aufgeführt.
Aufgrund praktischer und ethischer Überlegungen bedient sich die Arbeitswis-
senschaft in aller Regel nur non-invasiver Methoden, d.h. Methoden, die den Kör-
per nicht verletzen. Hierdurch gibt es eine Reihe von Beschränkungen bei der
Auswahl der messbaren Parameter, die in folgenden Kapiteln aufgeführt sind.
Als Vorteil psychophysiologischer Messverfahren gegenüber anderen Metho-
den ist nach GRANDT (2004) anzusehen, dass die meisten dieser Verfahren die
Möglichkeit der kontinuierlichen Messwerterfassung bieten, sie nur gering mit der
Aufgabendurchführung interferieren und als objektiv anzusehen sind, da die Er-
gebnisse nicht unbemerkt vom Probanden beeinflusst werden können.
Physiologische Parameter reagieren sowohl auf unterschiedliche Formen der
mentalen Beanspruchung, d.h. intraindividuell, als auch interindividuell auf unter-
schiedliche Weise. Diese Spezifität physiologischer Messverfahren und die bisher
ausgebliebene Festlegung verbindlicher Standards zur Messwerterfassung und
-auswertung führten in der Vergangenheit bei einer Vielzahl von Untersuchungen
zu teilweise widersprüchlichen Ergebnissen. Als Utopie muss nach langjähriger
Anstrengung der Forschung mittlerweile die Möglichkeit angesehen werden, men-
398 Arbeitswissenschaft
3.3.3.2.1.1 Herz-Kreislaufsystem
Das kardiovaskuläre System dient dazu, die ausreichende Versorgung der Körper-
organe mit Stoffwechselsubstanzen und den Abtransport von Abbauprodukten
sicherzustellen sowie Hormone, Enzyme und Wärme zu befördern. Diese Anfor-
derungen setzen einen jeweils hinreichenden Blutdruck voraus, der lokal in den
Körperorganen und zentral durch das Kreislaufzentrum reguliert wird. Die vom
Kreislaufzentrum gesteuerte Regulation des Blutdrucks erfolgt – vereinfacht dar-
gestellt – durch vier Stellgrößen: (1) Durch Regulation der venösen Dehnbarkeit
(compliance), (2) durch Regulation des peripheren Widerstands der Arterien,
(3) durch Regulation des Herzschlagvolumens sowie (4) durch Regulation der
Herzrate über den Sinusknoten. Dabei wirkt auf die Herzrate sowohl das sympa-
thische (aktivierende) als auch das parasympathische (hemmende) Nervensystem.
Die anderen Stellglieder werden überwiegend durch Änderungen des
Sympathikotonus beeinflusst. Der so eingestellte Blutdruck wird über Druckrezep-
toren (Barorezeptoren) im Sinusknoten und dem Aortenbogen festgestellt. Die
Barorezeptoren beeinflussen bei zu hohem Blutdruck über Nervenimpulse das
Kreislaufzentrum und wirken so einer weiteren, vom sympathischen System initi-
Arbeitsformen 399
Abb. 3.102: EKG-Signal im Verlauf eines Herzschlags. Zeitliche Abfolge der Peaks in
[ms] aus VAN CAPELLE (1987)
Herzschlagfrequenz
Die Herzschlagfrequenz (HSF) ist die zentrale kardiovaskuläre Größe und reagiert
auf verschiedene Belastungsarten. Dies sind insbesondere energetisch-
effektorische Arbeitsformen und thermische Einflüsse. Ein Einfluss informatori-
scher Arbeit ist erst bei größerer Aufgabenschwierigkeit oder Zeitdruck nachweis-
bar (LUCZAK 1987). Messtechnisch kann die HSF mit einer Reihe von Verfahren
erfasst werden, die entweder auf der Messung der Erregung der Herzmuskulatur
(elektrische Potentiale, Elektrokardiographie, EKG), durch die Herzaktivität ver-
bundene Druckschwankungen im Gefäßsystem oder der Blutfüllung peripherer
Gefäße beruhen. Aufgrund starker interindividueller Schwankungen wird in expe-
rimentellen Untersuchungen zur Bewertung von Arbeitstätigkeiten in der Regel
die gemessene HSF auf einen Basiswert bezogen. Dieser wird im Liegen oder
unter geringer konstanter Belastung (z.B. bei leichter Fahrradergometerarbeit)
gemessen, was den Vorteil besitzt, dass diese so ermittelten Basiswerte
intraindividuell weniger stark schwanken als die in Ruhe gemessenen. Eine toni-
sche Erhöhung der HSF bei gleichbleibender körperlicher Aktivität weist auf eine
kontrollierte Verarbeitung hin, also auf eine defensive Reaktion. Auch bei emotio-
naler Beanspruchung (Aufregung) nimmt die HSF zu. Eine phasische Abnahme
400 Arbeitswissenschaft
der HSF ist ein Hinweis auf eine Orientierungsreaktion (ROHMERT u. LUCZAK
1973).
Die HSF wird durch verschiedene Faktoren beeinflusst, die eine Anwendung
als Beanspruchungsindikator einschränken (BÄRENZ et al. 1994):
x Abhängigkeit von Lebensalter, Geschlecht und Konstitution: Die HSF be-
trägt beim Kind in Ruhe > 100 min-1, beim erwachsenen Mann etwa 72 min-
1
, bei der Frau etwa 75 min-1.
x Abhängigkeit von körperlicher Anstrengung: Die HSF hängt von der Kondi-
tion und der Schwere der physischen Belastung ab.
x Abhängigkeit von der Körperhaltung: Die HSF ist im Stehen mind. 10 min-1
höher als im Liegen.
x Abhängigkeit von klimatischen Bedingungen: Der Blutkreislauf ist in die
Thermoregulation des Körpers eingebunden und wird bei starker Hitzebelas-
tung stärker aktiviert.
Herzschlagfrequenzvariabilität
Als Maß für die Herzschlagfrequenzvariabilität (auch: Herzratenvarianz, HRV,
oder Sinusarrhythmie) lassen sich z.B. der Arrhythmiequotient (ARQ) oder das
Leistungsspektrum der HSF heranziehen. Der ARQ stellt dabei ein Maß für die
Schwankung der HSF innerhalb eines Zeitintervalls dar. Diese Schwankungen
nehmen bei informatorischer oder energetischer Belastung ab (MULDER u. MUL-
DER 1981). Für eine Ermittlung der HRV gibt es eine Vielzahl verschiedener Ver-
fahren, die in unterschiedlichem Umfang mentale Beanspruchungen widerspiegeln
(LUCZAK u. LAURIG 1973). Mit Hilfe einer Spektralanalyse lässt sich das Leis-
tungsspektrum der HSF ermitteln. Hierbei finden sich üblicherweise drei relative
Maxima, die unterschiedlichen physiologischen Phänomenen zugeordnet werden
können. Ein unteres Frequenzband (0,02 bis 0,06 Hz) spiegelt den Regulationsme-
chanismus der Körpertemperatur wider, das mittlere Frequenzband (0,07 bis 0,14
Hz) repräsentiert Mechanismen der kurzfristigen Blutdruckregulation und das
obere Frequenzband (0,15 bis 0,50 Hz) Einflüsse der Atmung. Informatorische
Belastungen führen zu einer Abnahme der Energie im mittleren Frequenzband,
also der 0,10-Hz-Komponente. Eine tonische Abnahme der HRV wird bei kontrol-
lierter Verarbeitung gefunden (LUCZAK 1987). Die Abnahme der HRV ist auf eine
verringerte Empfindlichkeit der Blutdruckrezeptoren (Baro-Rezeptoren) zurückzu-
führen. Dadurch finden weniger Anpassungen der HSF an Veränderungen im
Blutdruck statt, was zu einer Verringerung der HRV führt. Eine Abnahme der
HRV ist also ein Indikator für eine defensive Reaktion. VELTMAN u. GAILLARD
(1994) stellen fest, dass die HRV bei einfachen Aufgaben hohe Sensitivität für
mentale Beanspruchung aufweist. Bei komplexen Aufgaben lässt die Sensitivität
jedoch nach. Dies führen sie auf den Einfluss der Atmung zurück, die bei einfa-
chen Aufgaben regelmäßiger ist als in komplexen Aufgabensituationen. Nach
VELTMAN u. GAILLARD (1996) kann die Barorezeptor-Sensitivität (BRS) als
Indikator für die Flexibilität des Kreislaufsystems bei Änderungen der mentalen
Beanspruchung angesehen werden.
Arbeitsformen 401
Respirationsmaße
Respirationsmaße wie Atemfrequenz, Atemzugvolumen oder Sauerstoffsättigung
sind in Zusammenhang mit mentaler Beanspruchung in verhältnismäßig wenigen
Untersuchungen erhoben worden. Der Proband muss hierbei seine Atemluft einem
Atemanschluss (Halbmaske) entnehmen, der mit entsprechenden Gebern ausge-
stattet ist. Die bei WILSON u. EGGEMEIER (1991) zitierten Arbeiten kommen ein-
heitlich zu dem Ergebnis, dass sich eine Zunahme der Beanspruchung in einem
Anstieg der Atemfrequenz widerspiegelt. Nach MANZEY (1998) beschreiben ver-
schiedene Arbeiten neben der Erhöhung der Atemfrequenz auch eine erhöhte
Regelmäßigkeit der Atemzüge sowie eine Verringerung des Atemzugvolumens
bei mentaler Beanspruchung. Während einer Orientierungsreaktion nimmt die
Atemfrequenz ab. Da die Respirationsmaße durch nichtphysiologische Vorgänge
wie Sprechen mit beeinflusst werden, sind sie bei der empirischen Bewertung der
Beanspruchung am Arbeitsplatz häufig nicht praktikabel.
Blutdruck
Der Blutdruck lässt sich direkt blutig messen, indirekt nach Riva-Rocci oder indi-
rekt mittels eines sog. Photoplethysmogramms. Bei der indirekten Methode nach
Riva-Rocci werden in der Regel systolischer und diastolischer Druck durch cha-
rakteristische Geräuschphänomene bestimmt, die z.B. mit einem Stethoskop in der
Ellenbeuge erfasst werden können. Die Erfassung des Photoplethysmogramms
nach der Penaz-Methode basiert darauf, dass das Blutvolumen bei Ausübung eines
externen Drucks auf eine Arterie konstant bleibt, wenn der externe Druck gleich
dem arteriellen Blutdruck ist. Dies setzt voraus, dass der externe Druck dem arte-
riellen Druck verzögerungsfrei angepasst wird. Bei der Messung des Blutdrucks
wird der Gedanke der Penaz-Methode umgekehrt: Es wird zunächst mittels einer
aus einer Infrarot-Lichtquelle und einer Photozelle (Abb. 3.103) bestehenden
Messstrecke das die Arterie durchfließende Blutvolumen, der sog. Blutvolumen-
wert oder Photoplethysmogramm, bei entlasteter Arterienwand erfasst. Dieses
Blutvolumen stellt den Sollwert eines Servo-Schaltkreises dar. Bei Abweichung
des Photoplethysmogramms vom Sollwert wird der über eine Druckmanschette
auf die Arterie aufgebrachte externe Druck mittels eines Servoventils erhöht oder
vermindert. Das Ziel des Servo-Schaltkreises ist es, den externen Druck zunächst
gleich dem Arteriendruck zu halten. Diese Servo-Grundeinstellung des Solldrucks
erfolgt bei Beginn der Messung.
Während der Messung wird der Manschettendruck ausgehend vom Solldruck
periodisch erhöht. Unter langsamer Steigerung des Drucks beginnt das
Plethysmogramm bei Erreichen des diastolischen Blutdrucks zu pulsieren. Bei
weiterer Steigerung des Manschettendrucks wird die Arterie bei Erreichen des
systolischen Blutdrucks vollständig zusammengedrückt, so dass kein Blut mehr
die Arterie durchfließt. An diesem Punkt spiegelt der Manschettendruck den arte-
riellen Blutdruck genau wider.
402 Arbeitswissenschaft
3.3.3.2.1.2 Gehirnaktivität
Die bioelektrische Tätigkeit des Gehirns kann mittels der Elektroencephalographie
(EEG) registriert werden (siehe SCHMIDT 2005). Es handelt sich dabei um Makro-
potentiale, die die Aktivität großer subkortikaler Neuronenverbände darstellen.
Die Potentialschwankungen werden in der Regel mit Elektroden von der Kopfhaut
abgeleitet. Bei der EEG-Registrierung wird unterschieden zwischen spontaner und
evozierter Aktivität.
Bei spontaner Aktivität des Gehirns lassen sich eine Reihe unterschiedlicher
Wellenformen oder Rhythmen unterscheiden:
x Alpha-Wellen haben eine Frequenz von 8 - 13 Hz. Diese Aktivität entspricht
dem normalen Ruhezustand des Gehirns bei gesunden Menschen mit ge-
schlossenen Augen und ist am stärksten am Okzipitallappen.
x Beta-Wellen haben eine Frequenz von 14 - 30 Hz. Die Amplitude ist wesent-
lich kleiner als die der Alpha-Wellen. Alpha-Wellen werden von Beta-
Wellen bei Sinnesreizung oder bei geistiger Tätigkeit unterdrückt. Der Vor-
gang wird Alpha-Blockierung oder arousal reaction genannt.
x Delta-Wellen haben eine Frequenz von 0,5 - 3 Hz und treten während des
tiefen Schlafs auf. Gelegentlich können „Spikes“ mit sehr großer Amplitude
identifiziert werden, die sog. sleep spindles.
Arbeitsformen 403
3.3.3.2.1.3 Bewegungsapparat
Eine motorische Einheit besteht aus einem Alpha-Motoneuron des Vorderhorns
des Rückenmarks, seinen Ausläufern (Axonen) und allen von diesem Neuron
innervierten Muskelfasern. Die Zahl der innervierten Muskelfasern und damit die
Größe und das Territorium der motorischen Einheiten variiert entsprechend der
notwendigen Präzision der Muskelaktion. Je kleiner die motorische Einheit, desto
präzisere Bewegungen kann sie vermitteln. Die elektrische Aktivität, die an der
Hautoberfläche gemessen werden kann, entspricht in der Regel der Aktivität meh-
rerer motorischer Einheiten.
Tremoraktivität
Ein Tremor wird als eine schwingende, unwillkürliche Bewegung der Muskelakti-
vität um eine Gleichgewichtslage mit einer Frequenz von mehr als 0,5 Hz defi-
niert. Als Indikator mentaler und emotionaler Beanspruchung ist der Tremor um-
stritten. Das Entstehen eines Tremors ist in der Regel pathologisch und deswegen
für arbeitswissenschaftliche Fragestellungen weniger interessant, oder hat seinen
Ursprung in der Ermüdung einzelner Muskeln und ist deswegen eine Folge eher
körperlicher Tätigkeiten. Erst bei hohen Belastungen scheinen Veränderungen der
Tremoraktivität signifikant zu sein (LUCZAK 1987). Die Amplitude eines Tremors
nimmt unter affektiver Erregung zu, nicht aber die Frequenz. Ein Tremor, der
Folge eines erhöhten Muskeltonus ist, kann bewusst reduziert werden.
Elektromyografie
Die Idee, die Elektromyografie (EMG, siehe Kap. 3.2.9.2) als Indikator mentaler
Arbeit heranzuziehen, basiert darauf, dass die Aktivität einer willkürlichen Mus-
kelanspannung, die nicht für die Ausführung motorischer Tätigkeiten notwendig
ist, den allg. Aktivierungszustand des zentralen Nervensystems widerspiegelt. Das
Oberflächen-Elektromyogramm, das als Interferenzmuster von den Aktivitäten
einzelner motorischer Einheiten aufzufassen ist, hat i.Allg. eine Frequenz im Be-
reich zwischen 40 und 1000 Hz (es existieren hier große interindividuelle Unter-
schiede) und eine Amplitude zwischen 1 und 500 ȝVolt (dies hängt u.a. von der
exakten Position der Elektroden ab). Sowohl bei emotionaler als auch bei informa-
torischer Erregung ist eine erhöhte Aktivität „ruhender“ Muskeln feststellbar
(ROHMERT u. LUCZAK 1973). Eine Korrelation zwischen Muskeltonus und in-
formatorischer Tätigkeit ist in der Regel am besten über ein „time locked“-
Verfahren zu ermitteln, zusammen mit einer EEG-Aufzeichnung. Das EMG allei-
ne ist für informatorische Tätigkeiten nur schwer zu interpretieren. Weitere Aus-
führungen finden sich in GÖBEL (1996).
3.3.3.2.1.4 Sehapparat
Da ein wichtiger Teil der Informationsaufnahme über das visuelle System erfolgt,
liegt es nahe, die Reaktionen des visuellen Systems genauer zu untersuchen
(RÖTTING 2001).
Arbeitsformen 405
bezeichnet, weil sie, wenn sie einmal in Gang gesetzt sind, nicht mehr unter be-
wusster Kontrolle stehen, bis das Auge an das vor der Sakkade anvisierte Ziel
angelangt ist. Sakkaden sind die schnellsten Bewegungen, die vom menschlichen
Körper ausgeführt werden können (bis zu rund 700°/s). Die Geschwindigkeit einer
Sakkade ist nur von der Sprungweite abhängig. Ermüdungszustände haben auf die
Sakkadengeschwindigkeit keinen Einfluss. Alkohol und Pharmaka können die
Sakkadengeschwindigkeit senken. Durch Erhöhung der mentalen Beanspruchung
kommt es zur Verringerung des Blickfelds (WILLIAMS 1982). Ein Anstieg der
mentalen Beanspruchung zieht eine Verringerung der Sakkadenreichweite nach
sich (MAY et al. 1990; MEYER-DELIUS u. LACKNER 1983).
Fixationen: Die Fixationsdauer ist die Zeit, während der das Auge keinen
Blickwechsel vornimmt. Bei Aufgaben, die vorwiegend zentrale Prozesse erfor-
dern, ist eine Verlängerung der Fixationsdauer ein Hinweis auf größere Beanspru-
chung. Bei perzeptiven Aufgaben sind bei steigender Aufgabenschwierigkeit hin-
gegen kürzere Fixationsdauern zu erwarten (GRANDT 2004). MEYER-DELIUS et al.
(1981) ermittelten bei zunehmender Ermüdung eine Zunahme der Anzahl der
Blicksprünge, also der Fixationsfrequenz.
Übergangshäufigkeiten: Die Häufigkeit, mit der ein Blickobjekt fixiert wird,
sowie die Reihenfolge von Fixationen auf verschiedenen Blickobjekten können
Aufschluss darüber geben, welche Wahrnehmungsstrategie bei der Informations-
suche vorliegt oder ob das Abtasten der visuellen Umgebung eher zufällig erfolgt,
also ohne eine bedeutungsabhängige Verteilung der Fixationen (ELLIS u. SMITH
1985). Mit Hilfe von Hidden-Markov-Modellen oder dynamischen Bayes-Netzen
können bspw. Wahrnehmungsstrategien klassifiziert und das Blickverhalten vor-
hergesagt werden (siehe SCHLICK 2004). Durch die Komplexität der Abtastmuster
kann weiterhin die mentale Beanspruchung durch Zeitdruck bewertet werden und
es lassen sich spontane kognitive Abstraktionsvorgänge bei der Mensch-
Maschine-Interaktion identifizieren (SCHLICK et al. 2006).
Flimmerverschmelzungsfrequenz
Die Flimmerverschmelzungsfrequenz (FVF) ist die Frequenz, bei der eine Folge
von Lichtblitzen als ein kontinuierliches Licht wahrgenommen wird. Da der
Messvorgang relativ einfach ist, wird die Verminderung der FVF zwischen einer
Messung vor und nach der Durchführung als ein Maß für mentale Beanspruchung
bzw. Ermüdung eingesetzt (SCHMIDTKE 1965; GRANDJEAN et al. 1988).
davon ausgehen, dass die Beanspruchung hoch war, als der Abfall stattfand. Die-
ser Effekt ist jedoch immer unter Berücksichtigung der jeweiligen Aufgabensitua-
tion zu interpretieren. Das einzige, was sicher gemessen wird, ist ein plötzlicher
Leistungsabfall. Ob dies jedoch eine Folge zu hoher Belastung oder ein plötzlicher
Motivationsverlust war, ist nicht sicher. Zusätzlich ist es ein Problem, dass die
Leistung auch bei zunehmender Belastung sehr lange konstant gehalten werden
kann, so dass ein Leistungsabfall nur beim Überschreiten einer Leistungsgrenze
belegbar ist. Die Qualität der Ausführung ist demnach weder ein besonders sensib-
les Maß, noch von besonderem diagnostischen Wert (siehe dazu auch Kap. 2.4.2).
Der Ansatz setzt überdies voraus, dass zwischen der mentalen Beanspruchung
und der Leistung ein umgekehrt proportionaler Zusammenhang besteht. Dies ist
jedoch i.Allg. nicht der Fall, wie in der Abb. 3.104 idealtypisch dargestellt ist.
Eine geringe Leistung kann sowohl aus sehr geringer Beanspruchung als auch aus
sehr hoher Beanspruchung resultieren. In beiden Zuständen besteht eine Differenz
zwischen der für die Aufgabendurchführung benötigten und der dazu verfügbaren
Zeit.
Leistung
100
Genauigkeit
(% korrekt)
Zufalls-
niveau
Reaktionszeit
3.3.3.2.2.2 Expertenbeurteilung
Wenn objektive Kriterien für die Güte einer bestimmten Leistung nicht aufgestellt
werden können, kann die Leistung durch Experten beurteilt werden. Viele Aufga-
412 Arbeitswissenschaft
ben sind nicht oder nicht ausreichend mit objektiven Kriterien zu erfassen. So ist
z.B. die Güte einer Leistung beim Konstruieren nur schwer zu objektivieren. An-
dere Leistungen sind, auch wenn keine Fehler in der Ausführung sichtbar sind,
nicht anhand einer Fehlerbetrachtung adäquat beurteilbar. Z.B. werden Piloten in
der Ausbildung oft von Experten beurteilt. Auch wenn der Pilot das Flugzeug
fehlerfrei geflogen hat, kann ein Experte die Flugleistung für nicht ausreichend
sicher halten. Die Objektivität wird in solchen Fällen der subjektiven Sicherheit
untergeordnet, sie kann allerdings durch die Überprüfung der Beurteilerüberein-
stimmung kontrolliert werden.
3.3.3.2.3 Zweifachaufgaben/Nebenaufgaben
Bei Zweifachaufgaben geht man davon aus, dass durch die Bearbeitung einer
Aufgabe eine bestimmte mentale Kapazität gebunden wird. Unter der Annahme,
dass die Kapazität begrenzt ist, kann die Restkapazität mit Hilfe einer zweiten
Aufgabe abgeschätzt werden. In der Praxis hat der Mensch dann neben der eigent-
lichen Hauptaufgabe eine weitere konkurrierende Aufgabe zu bearbeiten, wobei
die Leistung einer der beiden Aufgaben auf Kosten der anderen konstant gehalten
werden soll.
Bei der Anwendung von Zweifachaufgaben werden zwei Paradigmen unter-
schieden: Beim loading task paradigm wird die Person angewiesen, die zweite
Aufgabe optimal zu erfüllen. Die zusätzlich zur Hauptaufgabe gestellte Aufgabe
dient dazu, die Beanspruchung vom mittleren Bereich (Abb. 3.106) in den Bereich
der Überforderung zu verschieben und einen Zustand der Ressourcenauslastung
bzw. -überlastung zu erzielen. Leistungseinbußen der Hauptaufgabe können in
diesem Bereich als Beanspruchungsindikator benutzt werden. Diese Leistungsein-
bußen korrelieren mit der Aufgabenschwierigkeit der Hauptaufgabe.
Baseline-Leistung der
Nebenaufgabe
Maximale Kapazitätsauslastung
Kapazitätsauslastung
Hauptaufgabe
leicht
Nebenaufgabe
Leistungseinbuße der
niedrig Nebenaufgabe
Beim subsidiary task paradigm (Abb. 3.106) hingegen wird die zusätzlich ein-
gebrachte Aufgabe als sekundäre Nebenaufgabe betrachtet und der Operateur
angewiesen, die Hauptaufgabe optimal zu bearbeiten. Mit der Nebenaufgabe soll
geklärt werden, wie viel zusätzliche Belastung erzeugt werden kann, bevor die
Leistung der Hauptaufgabe absinkt. Wiederum wird die Annahme getroffen, dass
die zusätzliche Aufgabe zu einer Verlagerung der Beanspruchung führt; hier wird
jedoch eine Leistungsverringerung der Nebenaufgabe erwartet. Ist die Leistungs-
einbuße in der untergeordneten Aufgabe niedrig, wird daraus geschlossen, dass
beim Operateur eine hohe Restkapazität und folglich eine geringe mentale Bean-
spruchung vorhanden ist. Wird die Schwierigkeit der Hauptaufgabe langsam ge-
steigert, markiert die Aufgabenschwierigkeit, bei der die erste Leistungsreduktion
der Nebenaufgabe eintritt, die maximal zulässige Kapazitätsauslastung für optima-
le Leistung. Wird die untergeordnete Aufgabe schlecht bearbeitet, ist eine geringe-
re Restkapazität vorhanden, die mentale Beanspruchung ist demnach höher. Vo-
raussetzung ist das Ermitteln der Aufgabenleistung bei alleiniger Durchführung
der Nebenaufgabe (baseline). Variationen des aus Veränderungen der Hauptauf-
gabe resultierenden Beanspruchungsniveaus können jedoch ohne vorherige Er-
mittlung der baseline anhand von Variationen der Nebenaufgabenleistung festge-
stellt werden.
Dem Paradigma liegen verschiedene Annahmen zugrunde, die jedoch hinter-
fragt werden müssen (O’DONNELL u. EGGEMEIER 1986):
x Die maximale Kapazitätsauslastung für uneingeschränkte Leistung ist kon-
stant über alle Aufgabenschwierigkeiten der Hauptaufgabe.
x Die Nebenaufgabe interferiert nicht mit der Hauptaufgabe in der Weise, dass
die Bearbeitung der Nebenaufgabe die Leistung der Hauptaufgabe negativ
beeinflusst.
x Die aufgabenbedingten Kapazitätsauslastungen addieren sich ohne Rücksicht
auf die Quelle der Belastung. Dies widerspricht der Theorie der multiplen
Ressourcen. Danach setzt die Verwendung einer Nebenaufgabe voraus, dass
diese dieselben Ressourcen ausnützt, die auch von der betrachteten Haupt-
aufgabe belegt werden. Die verwendete Nebenaufgabe muss folglich der in-
teressierenden Ressource angepasst werden.
Nach der Art der dargebotenen Aufgabe wird eine Unterscheidung getroffen
zwischen eingebetteten und externen Nebenaufgaben. Bei den erstgenannten han-
delt es sich um solche, die an dem Arbeitsplatz üblicherweise durchgeführt wer-
den müssen, bspw. bei Durchführung einer Flugführungsaufgabe die gleichzeitige
Durchführung des Sprechfunkverkehrs. Sie bieten den Vorteil, dass sie dem Men-
schen nicht als störend auffallen und somit nicht mit der Hauptaufgabe interferie-
ren. Externe Nebenaufgaben haben demgegenüber keinen Bezug zur Hauptaufga-
be, bspw. eine Rechenaufgabe, die neben der Hauptaufgabe bearbeitet werden
soll. Solche Aufgaben können mit der Hauptaufgabe interferieren und ggf. störend
wirken, in dem sich die Aufmerksamkeit des Probanden ungewollt primär auf die
eigentlich untergeordnete Nebenaufgabe verlagert. Sie bieten jedoch gegenüber
414 Arbeitswissenschaft
eingebetteten Nebenaufgaben den Vorteil, dass mit ihrer Hilfe spezifische Res-
sourcen gezielt angesprochen werden können.
3.3.3.2.4 Subjektive Methoden
Die subjektive Evaluierung der Beanspruchung erfolgt mit Hilfe sog. Ratingska-
len. Die Anwendung dieser Methode beruht auf der Annahme, dass das Vorliegen
einer Beanspruchungsempfindung eine tatsächlich vorhandene Beanspruchung
voraussetzt (JOHANNSEN et al. 1979). Es gibt zwar eine Vielzahl von Methoden
zur Beurteilung der mentalen Beanspruchung (siehe LUCZAK 1987; LUCZAK et al.
1986; ROSCOE 1978; WICKENS u. KRAMER 1985), aber in den meisten Arbeitssys-
temen sind subjektbezogene Beurteilungen die am leichtesten anzuwendende
Methode. Sie sind auch das Kriterium, mit dem andere Messungen bzw. Messver-
fahren verglichen werden und somit die Grundlage für die externe Validierung
anderer Methoden (HART u. STAVELAND 1988).
Die Zahl der Instrumente, die das subjektive Erleben der Auswirkungen
menschlicher Arbeit auf die Arbeitsperson erheben, ist groß. SCHÜTTE (1986)
vergleicht alleine 30 verschiedene Verfahren. Die Verfahren unterscheiden sich
zum einen in der Art der verwendeten Dimensionen. Von Belastung
(PLATH u. RICHTER 1978), Beanspruchung (PFENDLER 1982), Anstrengung
(BORG 1978), Schwierigkeit (BRATFISCH et al. 1972) und Ermüdung (KÜNSTLER
1980) reichen diese bis zu Aktiviertheit (BARTENWERFER 1963), Eigenzustand
(NITSCH 1976), Stimmung (HAMPEL 1977), Taskload (HART u. STAVELAND
1988) und Workload (SHERIDAN u. SIMPSON 1979).
Zum anderen gibt es Unterschiede in der Anzahl der verwendeten Dimensio-
nen: Kommt die von BARTENWERFER (1963) entwickelte Skala „Allgemeiner
Zentraler Aktiviertheit“ mit einer Dimension aus, so haben BORG (1978) und
BRATFISCH et al. (1972) zwei parallele Skalen für verschiedene Einsatzbereiche
entwickelt: Rating of Perceived Exertion (Anstrengung) und Rating of Perceived
Difficulty (Schwierigkeit). Des Weiteren bestehen Unterschiede im Anwendungs-
bereich der entwickelten Instrumentarien: Generelle Instrumentarien können die
Auswirkung einer Vielzahl von Aufgaben erfassen, jedoch oft nicht fein genug
zwischen verschiedenen Arten von Belastungen differenzieren. Spezielle Instru-
mentarien sind hingegen auf einen ganz spezifischen Belastungsbereich abge-
stimmt und sind dort relativ empfindlich. Ein Vergleich verschiedener Aufgaben-
typen ist jedoch nicht möglich.
zierte Cooper-Harper Skala valide und zuverlässige Aussagen über die mentale
Beanspruchung von Piloten ermöglicht (Abb. 3.107). Ein weiterer, eher situati-
onsbezogen ausgerichteter Anwendungsfall ist die für die Schiffsführungsaufga-
ben entwickelten psychophysikalische Skala, die auf Paarvergleichen von nauti-
schen Situationen basiert (LUCZAK et al. 1986). Man kann annehmen, dass auch
die Mehrzahl der „Handling“-Untersuchungen von z.B. Automobilen auf Basis
standardisierter Expertenratings ablaufen, in denen die Experten situation und
objektorientierte Urteile (Reifen, Bremsen) abgeben, die ihre entsprechenden
psychischen Beanspruchungen repräsentieren.
y es
minor but annoying difficulty moderately high o.m.e. is required to attain
4
adequate s y stemperformanc e
yes
ev en though
errors may be large
no major defic iencies ,
or frequent, c an ins truc ted impos s ibleins truc ted tas k c annot be ac c omplis hed
s ys tem redes ign 10
tas k be ac c omplis hed reliably
is mandatory
mos t of
the time?
o.m.e. = operator mental
effort
3.4 Literatur
Aasman J, Mulder G, Mulder LJM (1987) Operator Effort and the Measurement of Heart-
Rate Variability. Human Factors 2:161-170
AGARD (1989) Human Performance Assessment Methods. AGARDograph No. 308.
Neuilly sur Seine
Anderson JR (2007) Kognitive Psychologie, 6. Aufl. Spektrum der Wissenschaft, Heidel-
berg
Anderson JR, Bothell D, Byrne MD, Lebiere C (2004) An Integrated Theory of the Mind.
Psychological Review 4:1036-1060
Attneave F (1974) Informationstheorie in der Psychologie. Grundbegriffe, Techniken,
Ergebnisse, 3. Aufl. Verlag Hans Huber, Bern
Ayoub MM, Mital A (1989) Manual material handling. Taylor u Francis London
Bärenz P, Grieshaber R, Marquardt E, Keim B (1994) Mentale Belastung am Arbeitsplatz.
Asanger, Heidelberg
Bartels H (1991) Physiologie: Lehrbuch und Atlas. Urban & Schwarzenberg, München
Bartenwerfer HG (1963) Über Art und Bedeutung der Beziehung zwischen Pulsfrequenz
und skalierter psychischer Anspannung. Zeitschrift für experimentelle und angewandte
Psychologie 19:455-470
Bartenwerfer HG (1969) Einige praktische Konsequenzen aus der Aktivierungstheorie.
Zeitschrift für experimentelle und angewandte Psychologie 10:195-222
BAUA – Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (2008) Toolbox: Instrumen-
te zur Erfassung psychischer Belastungen.
http://www.baua.de/de/Informationen-fuer-die-Praxis/Handlungshilfen-und-
Praxisbeispiele/Toolbox/Alle_20Verfahren.html__nnn =true. Zugriff: 20.01.2009
Becker-Carus C (2004) Allgemeine Psychologie. Eine Einführung. Elsevier, München
Békésy G von (1947) The variation of phase along the basilar membrane with sinusoidal
vibrations. J. Acoust. Soc. Am. 3:452-460
Bernoulli D (1738) Hydrodynamica sive de viribus et motibus fluidorum commentarii.
Straßburg
Bialek W, Nemenman I, Tishby N (2001) Predictability, Complexity and Learning. Neural
Computation 13/3:2409–2463
Birbaumer N, Schmidt RF (2006) Biologische Psychologie. Springer, Heidelberg
Blaird J (1984) Information theory and information processing. Information Processing and
Management 3:373-381
Bobrow S, Bower GH (1969) Comprehension and Recall of Sentences. Journal of Experi-
mental Psychology 80:455-461
Boenck J (1972) Die chemischen Sinne Geruch und Geschmack. In: Gauer OH, Kramer K,
Jung R (Hrsg) Physiologie des Menschen, Somatische Sensibilität. Geruch und Ge-
schmack. Bd 11. Urban & Schwarzenberg, München
Boff KR, Lincoln JE (1988) Engineering Data Compendium: Human Perception and Per-
formance. AAMRL, Wright-Patterson AFB, S 1692-1694
Boothby WM, Berkson J, Dunn HL (1936) Studies of the energy of metabolism of normal
individuals: A standard of basal metabolism, with a nomogram for clinical application.
American Journal of Physiology 116:468
Borg G (1978) Subjective aspects of physical and mental load. Ergonomics 21:215-220
Bornemann E (1943) Untersuchungen über den Grad der geistigen Beanspruchung. Ar-
beitsphysiologie 12
Boucsein W (1992) Electrodermal Activity. Plenum Press, New York
418 Arbeitswissenschaft
Bratfisch O, Dornic S, Borg G (1972) Perceived item difficulty in three tests of intellectual
performance capacity. Report Nr.29 Stockholm University, Stockholm
Broadbent D (1982) Task combination and selective intake of information. Acta
Psychologica 50:253-290
Bronner R, Karger J (1985) Beanspruchungs-Messung in Problemlöse-Prozessen - Modifi-
kation eines Tests zur Erfassung psychischer Beanspruchung. Psychologie und Praxis
29:173-184
Brunia CH, van Boxtel GJ (2001) Wait and see. International Journal of Psychophysiology
43:59-75
Bubb H (1993) Informationswandel durch das System. In: Schmidtke H (Hrsg) Ergonomie,
3. Aufl. Carl-Hanser Verlag, München Wien
Burandt U (1978) Ergonomie für Design und Entwicklung. Verlag O Schmidt, Köln
Burandt U, Schultetus W (1978) Ermitteln zulässiger Grenzwerte für Kräfte und Drehmo-
mente. (Siemens firmeninterne Schulungsunterlagen zur Arbeitsgestaltung)
Card SK, Moran TP, Newell A (1983) The Psychology of Human-Computer Interaction.
Lawrence Erlbaum Assoc., Hillsdale
Chaffin DB. (1969) A computeriszed biomechanical model - development and use in gross
body actions. Journal of Biomechanics 2:429–441
Chaffin DB (2002) On simulating human reach motion for ergonomics analyses. Human
Factors and Ergonomics in Manufactoring 12, Nr. 3, S. 235-247
Chaffin DB, Andersson GB, Martin BJ (1999) Occupational Biomechanics. John Wiley and
Sons Inc, New York Chichester Weinheim Brisbane Singapure Toronto
Colquhoun WP (1975) Evaluation of auditory, visual and dual-mode displays for prolonged
sonar monitoring in repeated sessions. Human Factors 17:425-437
Cooper GE, Harper RP (1969) The Use of Pilot Rating in the Evaluation of Aircraft Han-
dling Qualities, NASA TN D-5153
Corcoran DW, Mullin J, Rainey MT, Frith G (1977) The effect of raised signal and noise
amplitude during the course of vigilance tasks. In: Mackie RR (Hrsg) Vigilance,
theory, operational performance and physiological correlates. Plenum, New York
Craig A, Colquhoun WP, Corcoran DW (1976) Combining evidence presented simulta-
neously to the eye and the ear: a comparison of some predictive models. Perception
and Psychophysics 19:51-59
Craik FIM, Lockhart RS (1972) Levels of Processing: A Framework for Memory Research.
Journal of Verbal Learning and Verbal Behavior 11:671-684
Cratty BJ (1975) Motorisches Lernen und Bewegungsverhalten. Limpert Verlag, Frankfurt
a. M.
De Vries H, Stuiver M (1961) The Absolute Sensitivity of the Human Sense of Smell.
Sensory Communication. Wiley and Sons, New York
DeLuca CJ, LeFever RS, McCue MP, Xenakis AP (1982) Behavior of human motor units
in different muscles during linearly varying contraction. Journal of Physiology
29:113–128
Dember WN, Warm JS (1979) Psychology of Perception. Holt, Rinehart and Winston, New
York
Derwort A (1938) Untersuchungen über den Zeitverlauf figurierter Bewegungen beim
Menschen. Pflügers Archiv ges. Physiologie 236:661
Diaz Meyer M (2009) Modellierung von Bewegungen und ihre Auswirkungen auf den
Menschen bei der Handhabung delikater Objekte. Ergonomia verlag, Stuttgart
Diaz Zeledon M, Lin CL, Landau K (2007) Analysis of horizontal whole body-movements
by transporting unstable objects. Journal of Occupational Ergonomics 7(4):247-263
Donders FC (1969) On the Speed of Mental Processes. Acta Psychologica Attention and
Performance II 30:412-431
Arbeitsformen 419
Dörner D (1984) Self Reflection and Problem Solving. In: Klix F (Hrsg) Human and Artifi-
cial Intelligence. Amsterdam
Dörner D (1987) Problemlösen als Informationsverarbeitung, 3. Aufl. Kohlhammer, Stutt-
gart
Eisenführ F, Weber M (2007) Rationales Entscheiden. Springer, Berlin u.a.
Eklund J, Freivalds A (1993) Reaction torques and operator stress while using powered
nutrunners. Appl Ergon 24:158–164
Ellegast R, Kupfer J (2000) Portable posture and motion measuring system for use in ergo-
nomic field analysis. In: Ergonomic Software Tools in Product and Workplace Design,
Ergon, Landau (Ed), Ergon Stuttgart, 47-54
Ellegast R, Hermanns I, Schiefer C, (2009) Workload assessment in field using the ambula-
tory CUELA system. In: V. G. Duffy (Ed): Digital Human Modelling, HCII 2009,
LNCS 5620, Berlin: Springer, 221-226
Ellis SR, Smith JD (1985) Patterns of Statistical Dependency in Visual Scanning. In: Gron-
er R, McConkie G, Menz C (Hrsg) Eye Movements and Human Information Processs-
ing. Amsterdam
Endsley MR (1995) Toward a Theory of Situation Awareness in Dynamic Systems. Human
Factors 1:32-64
Endsley MR (2000) Situation Models: An Avenue to the Modeling of Mental Models. In:
Human Factors and Ergonomics Society Annual Meeting Proceedings, vol I. Human
Factors and Ergonomics Society, Santa Monica. S 61-64
Engelkamp J, Zimmer HD (2006) Lehrbuch der Kognitiven Psychologie. Hogrefe, Göttin-
gen
Evans FG, Lissner HR(1959) Biomechanical studies on the lumbar spine and pelvis. J Bone
Joint Surg, 41a:278–290
Eysel U, Grüsser-Cornehls U (2005) Sehen und Augenbewegungen. In: Schmidt RF, Lang
F, Thews G (Hrsg) Physiologie des Menschen. Springer, Heidelberg, S 367-407
Falkenstein M, Hohnsbein J, Hoormann (1994a) Time pressure effects on late components
of the event-related potential (ERP). Journal of Psychophysiology 8:22-30
Falkenstein M, Hohnsbein J, Hoormann (1994b) Effects of Choice complexity on different
subcomponents of the late positive complex of the event-related potential.
Electroencephalography and Clinical Neurophysiology 92:148-160
Falkenstein M, Hohnsbein J, Hoormann (1999) Objektivierung altersabhängiger Änderun-
gen von Beanspruchung und Ermüdung bei psychomentalen Belastungen am Bild-
schirmarbeitsplatz. Wirtschaftsverlag NW, Bremerhaven
Fère C (1888) Note sur les modifications de la tension électrique dans le corps humain.
Comptes rendus des Séances de la Société de Biologie 5:28-33
Fitts PM (1954) The information capacity of the human motor system in controlling the
amplitude of movement. Journal of Experimental Psychology 6:381–391
Fogarty C, Stern JA (1989) Eye movements and blinks: Their relationship to higher cogni-
tive processes. International Journal of Psychophysiology 8:35-42
Fu WT, Gray WD (2006) Suboptimal Tradeoffs in Information-Seeking. Cognitive
Psychology 3:195-242
Galley N (2001) Meßmethoden und Indikatorfunktionen der okulomotorischen Aktivität.
In: Rösler F (Hrsg) Grundlagen und Methoden der Psychophysiologie. Hogrefe, Göt-
tingen
Gardner MB, Gardner RS (1973) Problem of localization in the median plane: effect of
pinnae cavity occlusion. J. Acoust. Soc. Am. 53:400-408
Garg A (1986) Maximum acceptable weights and maximum volontary isometric strengths
for asymmetric lifting. Ergonomics 29/7:879–892
420 Arbeitswissenschaft
Sheridan TB, Simpson RW (1979) Toward the definition and measurement of the mental
workload of transport pilots. FTL-Report R-79-4, Cambridge
Shiffrin RM, Schneider W (1977) Controlled and automatic human information processing
II: Perceptual learning, automatic attending, and a general theory. Psychological Re-
view 84:127-190
Silbernagel S, Despopoulos A (1983) Taschenatlas der Physiologie, 2.Aufl. Georg Thieme,
Stuttgart
Sirevaag E, Kramer A, de Jong R, Mecklinger A (1988) A psychophysiological analysis of
multi-task processing demands. Psychophysiology 25:482
Skelly JJ, Purvis B, Wilson G (1988) Fighter Pilot Performance During Airborne and Simu-
lator Missions: Physiological Comparisons. In: AGARD (Hrsg) Electric and magnetic
activity of the central nervous system. AGARD Conference Proceedings No. 432.
Neuilly sur Seine
Sonoda T (1962) Studies on the strength for compression, tension, and torsion of the human
vertebral column. J Kyoto Pref Univ Med 71:659–702
Spitzer H, Hettinger T, Kaminsky G (1982) Tafeln für den Energieumsatz bei körperlicher
Arbeit. Beuth, Berlin Köln
Stegemann J (1977) Leistungsphysiologie. 2 Aufl. Thieme-Verlag, Stuttgart
Stegemann J, Kenner T (1971) A theory on heart rate control by muscular metabolic recep-
tors. Arch Kreislaufforschung 64:185–214
Stemmler G (2001) Grundlagen psychophysiologischer Methodik. In: Rösler F (Hrsg)
Grundlagen und Methoden der Psychophysiologie. Hogrefe, Göttingen
Sterman MB, Schummer GJ, Dushenko TW, Smith JC (1988) Electroencephalographic
Correlates of Pilot Performance: Simulation and In-Flight Studies. In: AGARD (Hrsg)
Electric and magnetic activity of the central nervous system. AGARD Conference Pro-
ceedings No. 432. Neuilly sur Seine
Sterman MB, Mann CA, Kaiser DA, Suyenobu BY (1994) Multiband topographic EEG
analysis of a simulated visuomotor aviation task. Int. Jour. of Psychophysiology 16:49-
56
Stern J, Skelly J (1984) The eyeblink and workload considerations. In: Alluisi MJ, de Groot
S, Alluisi EA (Hrsg) New Frontiers for Science and Technology. Proceedings of the
Human Factors Society, 28th Annual Meeting, San Antonio Texas, S 942-944
Stier F (1957) Sind unsere Werkzeugmaschinen dem Menschen angepaßt?
Konstruktion 9:292
Stier F, Meyer HO (1957) Physiologische Grundlagen der Arbeitsgestaltung. Lehrunterla-
gen des Kurt-Hegner-Instituts, Darmstadt
Stoffert G (1985) Analyse und Einstufung von Körperhaltungen bei der Arbeit nach der
OWAS-Methode. Zeitschrift für Arbeitswissenschaft 39:31–38
Strasser H, Wang B (1998) Screwdriver Torque Strength and Physiological Cost of Mus-
cles Dependent on Hand Preference and Direction of Rotation. Occupational Ergonom-
ics 1:13–22
Strasser H, Mueller KW (1999) Favourable movements of the hand-arm system in the
horizontal plane assessed by electromyographic investigations and subjective rating.
International Journal of Industrial Ergonomics 23:339-347
Stulen FB, DeLuca CJ (1981) Frequency parameters of the myoelectric signal as a measure
of muscle conduction velocity. IEEE Trans Biomed Eng 28:515–523
Taylor G, Stensrud B, Eitelman S, Dunham C and Harger E (2007) Toward Automating
Airspace Management. Computational Intelligence for Security and Defense Applica-
tions (CISDA). IEEE Press, Honolulu
430 Arbeitswissenschaft
Walter WG, Cooper R, Aldrige VJ, McCallum WC, Winter AL (1964) Contingent negative
variation: An electric sign of sensorimotor association and expectancy in the human
brain. Nature 203:380-384
Warm JS (1984) Sustained Attention in Human performance. John Wiley & Sons, Chiche-
ster New York Brisbane Toronto Singapore
Waters TR, Putz-Anderson V, Garg A, Fine LJ (1993) Revised NIOSH-equation for the
design and evaluation of manual lifting tasks. Ergonomics 36:749–776
Welford G (1976) Function of Distinct associations for Paired-associate Performance.
Psychological Review 73:303-313
Wickens CD (1984) Engineering Psychology and Human Performance. Charles E. Merrill
Publishing Company, Columbus
Wickens CD (1992) Engineering Psychology and Human Performance, 2. Aufl. Herper
Collins, New York
Wickens CD, Kramer A (1985) Engineering Psychology. Ann. Review of Psychology
36:307-348
Wickens CD, Hollands JG (1999) Engineering Psychology and Human Performance, 3.
Aufl. Prentice Hall
Wiener N (1963) Kybernetik, Regelung und Nachrichtenübertragung im Lebewesen und in
der Maschine, 2. Aufl. Econ-Verlag, Düsseldorf
Wierwille WW (1979) Physiological Measures of Aircrew Mental Workload. Human Fac-
tors 5:575-593
Wierwille WW, Casali JG (1983) A validated rating scale for global mental workload
measurement applications. In: Pope A, Haugh L (Hrsg) Proceedings 27th Annual
Meeting Human Factors Society. Human Factors, Santa Monica
Wierwille WW, Eggemeier FT (1993) Recommendations for Mental Workload Measure-
ment in a Test and Evaluation Environment. Human Factors 2:263-281
Wierwille WW, Rahimi M, Casali JG (1985) Evaluation of 16 Measures of Mental Work-
load using a Simulated Flight Task Emphasizing Mediational Activity. Human Factors
5:489-502
Wilkie DR (1950) The relation between Force and Velocity in human muscle. J Physiol
110:249–280
Williams LJ (1982) Cognitive Load and the Functional Field of View. Human Factors
6:683-692
Wilson GF, Eggemeier FT (1991) Psychophysiological assessment of workload in multi-
task environments. In: Damos D (Hrsg) Multiple task performance. Taylor & Francis,
London, S 329-360
Winkelholz C (2006) Analyse, Modellierung und Simulation der visuell-räumlichen Kogni-
tion bei der Mensch-Maschine-Interaktion. Shaker Verlag, Aachen
Winkelholz C, Schlick CM (2007) Modeling Human Spatial Memory Within a Symbolic
Architecture of Cognition. In: Barkowsky T (Hrsg) Spatial Cognition V, Lecture Notes
in Artificial Intelligence (LNAI) 4387. Springer, Berlin, S 229-248
Wolfer, B (2000) Man modeling and human movment simulation in 3D – development,
trends and prospects for application in Ergonomics. In: Landau, K (Hrsg): Ergonomic
software tools in product and workplace design, Verlag Ergon, Stuttgart, S. 100-104
Zetkin M, Schaldach H (1978) dtv Wörterbuch der Medizin, Bd 1, A-L. Deutscher Ta-
schenbuch Verlag, München
Zimmermann M (2005) Das somatoviszerale sensorische System. In: Schmidt RF, Lang F,
Thews G (Hrsg) Physiologie des Menschen, 28. Aufl. Springer, Heidelberg
Zipp P (1988) Optimierung der Oberflächenableitung bioelektrischer Signale. Fortschritt-
Berichte VDI Reihe 17 Nr 45. VDI-Verlag GmbH, Düsseldorf
432 Arbeitswissenschaft
4.1.1 Organisation
Eine Organisation ist ein komplexes System, in dem Arbeitspersonen, Arbeitsauf-
gaben, Arbeits- und Betriebsmittel sowie Arbeitsobjekte in vielschichtigen und
dynamischen Wechselwirkungen stehen. Dieses System dient unterschiedlichen
Zwecken, wie der Erfüllung von Marktaufgaben sowie der Qualifikations- und
Kompetenzentwicklung der Organisationsmitglieder (siehe Kap. 2.3), und wird
auf der Grundlage von objektiven und subjektiven Zielsystemen reguliert. Mit
Bezug auf die Kerndefinition der Arbeitswissenschaft (LUCZAK u. VOLPERT
1987, siehe Kap. 1) sollte eine Organisation mit dem Ziel gestaltet werden, dass
die Arbeitspersonen in produktiven und effizienten Arbeitsprozessen schädigungs-
lose, ausführbare, erträgliche und beeinträchtigungsfreie Arbeitsbedingungen
vorfinden, Standards sozialer Angemessenheit erfüllt sehen, Handlungsspielräume
entfalten, Fähigkeiten erwerben und in Kooperation mit anderen ihre Persönlich-
keit erhalten und entwickeln können.
Aufgrund der inhärenten Komplexität einer Organisation haben sich in der Li-
teratur unterschiedliche Begriffszusammenhänge herausgebildet, die jeweilige
Aspekte in den Vordergrund stellen. So kann der Begriff der Organisation in ei-
nem funktionalen, konfigurativen oder institutionellen Sinne verwendet werden
(SCHREYÖGG 2003). In der Tradition der vorherigen Auflagen werden in den
folgenden Kapiteln organisatorische Modelle und Prinzipien behandelt, mit denen
Betriebe strukturiert werden können. Öffentliche Haushalte sowie Privathaushalte
stehen nicht im Vordergrund. Unter einem Betrieb wird in Anlehnung an
GUTENBERG (1983) eine – zumindest teilweise – unabhängige „Wirtschaftsein-
heit“ verstanden, die der Fremdbedarfsdeckung dient. Hierunter lassen sich bspw.
Unternehmen sowie öffentliche Betriebe und Verwaltungen fassen. Unter „Be-
trieb“ ist keinesfalls die Betriebsstätte im Sinne einer räumlichen Integration von
Funktionen zu verstehen. Der Betriebsbegriff ist prinzipiell unabhängig von der
Aggregationsebene der durch ihn beschriebenen Organisation und kann z.B. für
Unternehmensnetzwerke, einzelne Unternehmen, Sparten, Werke o.ä. gleicherma-
ßen gelten. Nach einer funktionalen Sichtweise wird ein Betrieb organisiert, nach
einer konfigurativen Sichtweise hat ein Betrieb eine Organisation und nach einer
institutionellen Sichtweise ist ein Betrieb eine Organisation (GOMEZ u.
ZIMMERMANN 1999).
434 Arbeitswissenschaft
4.1.1.1 FunktionalerĆOrganisationsbegriffĆĆ
Organisation im funktionalen Sinne wird als eine essentielle Funktion der Be-
triebsführung angesehen und ist eine von mehreren Leitungsaufgaben, welche die
Zweckerfüllung und die Substanzerhaltung sicherstellen sollen (SCHREYÖGG
2003). Insbesondere in der klassischen Managementlehre wird der Begriff der
Organisation vielfach funktional verwendet. So ist Organisieren gemäß des klassi-
schen Managementansatzes von FAYOL (1918, Dt. Übersetzung 1929) neben dem
Verwalten, Vorausplanen, Aufträge erteilen, Zuordnen und Kontrollieren eine der
zentralen Führungsaufgaben. Als bekanntester deutschsprachiger Vertreter der
funktionalen Organisationslehre gilt GUTENBERG (1983). Organisation beinhaltet
nach Gutenberg alle Regelungen, die im Zusammenhang mit der Realisierung
eines Plans erlassen werden, unabhängig davon, ob diese Regelungen generell
oder fallweise getroffen werden.
4.1.1.2 KonfigurativerĆOrganisationsbegriffĆĆ
4.1.1.3 InstitutionellerĆOrganisationsbegriffĆ
Der institutionellen Sichtweise auf die Organisation liegt ein verhaltenswissen-
schaftliches Organisationsverständnis zugrunde. Die Organisation wird als „kol-
lektives“ Denk- und Handlungssystem verstanden. Sie zeichnet sich durch eine
eigene Identität und Kultur aus, verfolgt Ziele und wirkt auf die Organisationsmit-
glieder sinnstiftend. Einen Meilenstein des institutionellen Organisationsverständ-
nisses bilden die Studien des Londoner Tavistock Institute for Human Relations.
In einer ersten Studie (TRIST u. BAMFORTH 1951) sollten in einer Kohlegrube die
Ursachen für die geringe Arbeitsmotivation der Beschäftigten, hohe Fehl- und
Fluktuationsraten sowie eine hohe Anzahl von Unfällen und Arbeitskämpfen er-
mittelt werden. Die Probleme entstanden mit der Einführung der „long wall me-
thod of coal getting“. Die Forscher fanden heraus, dass im Zuge der Einführung
dieser mechanisierten Abbaumethode bestehende soziale Strukturen zerstört wur-
den. So wurde vor Einführung dieser Abbaumethode die vollständige Bergbautä-
tigkeit – bestehend aus Abbau, Beladen der Lore und Transport – von kleinen,
sich selbst regulierenden Gruppen durchgeführt. Diese schichtübergreifenden
Gruppen teilten ihre Löhne im gleichen Verhältnis untereinander auf und waren
auch für ihre Sicherheit selbst verantwortlich (TRIST u. BAMFORTH 1951). Mit
Einführung der mechanisierten Abbaumethode wurden die Gruppen aufgelöst, die
ganzheitliche Aufgabe in Teilaufgaben zerlegt und einzelnen Personen und
Schichten übertragen. Trist und Bamforth konnten zeigen, dass diese Veränderun-
gen sich nachteilig auf die Arbeitsmotivation auswirkten. Dabei betonten die Mit-
begründer des soziotechnischen Systemansatzes die Abhängigkeit der individuel-
len, sozialen und strukturellen Aspekte einer Organisation von der eingesetzten
Technik. Neben diesem soziotechnischen Systemansatz lassen sich weitere Theo-
rien, wie bspw. die der lernenden Organisation, dem institutionellen Organisati-
onsverständnis zuordnen. So gehen die Vertreter der Theorie der lernenden Orga-
nisation der Frage nach, wie Lernpotenziale auf allen Ebenen einer Organisation
systematisch erschlossen werden können (z.B. SENGE 2001).
4.2 Aufbauorganisation
Den Stellen sind solche Aufgaben zugeteilt, die von einem Menschen alleine aus-
führbar sowie personenneutral formulierbar sind. Man differenziert zwischen
Linienstellen und Stabsstellen (siehe Kap. 4.2.4.3). Weiterhin unterscheidet man
Leitungsstellen (sog. Instanzen) und Ausführungsstellen (Realisationsstellen).
Leitungsstellen sind in der Regel mit Fremdentscheidungs-, Weisungs-, und Kont-
rollkompetenzen ausgestattet. Demgegenüber sind Ausführungsstellen mit Durch-
führungskompetenzen versehen. Durch Zusammenführung mehrerer Ausfüh-
rungsstellen und je einer Leitungsstelle zu einer organisatorischen Einheit höherer
Ordnung bilden sich Abteilungen und Arbeitsgruppen heraus. Zur formalisierten
Darstellung einer betrieblichen Aufbauorganisation verwendet man Organigram-
me (siehe Kap. 4.2.3.3)
4.2.3 Strukturdimensionen
Um Organisationsstrukturen beschreiben zu können, müssen sie in geeignete Be-
griffe gefasst werden. PUGH et al. (1971) erweiterten dazu das klassische
Bürokratiekonzept von Max Weber (1922), um zu folgenden fünf Strukturdimen-
sionen zu gelangen.
4.2.3.1 SpezialisierungĆ
Die Spezialisierung der arbeitenden Menschen ist als ein grundlegendes arbeitsor-
ganisatorisches Konzept zu verstehen, das seit Jahrhunderten die Entwicklung der
Volkswirtschaften prägt und sich durch ihre Gesellschaftsformationen zieht. An-
haltende Produktivitätssteigerungen wären ohne Spezialisierungsvorteil und die
damit verbundene Arbeitsteilung wohl nicht möglich gewesen und die fortlaufen-
de industrielle Revolution wäre vermutlich in ihrer Nachhaltigkeit begrenzt. Ange-
trieben durch den Pionier der betrieblichen Arbeitsteilung, Frederick Winslow
Taylor, der in seinem Konzept des „Scientific Management“ ein hohes Maß an
Arbeitsteilung vorschlug, führte in den letzten 130 Jahren die Arbeitsteilung zu
immer komplexeren Netzen gesellschaftlicher und aufgabenspezifischer Abhän-
gigkeiten (KLOBES 2005). Eine räumliche Trennung und die immer weiter fort-
Betriebs- und Arbeitsorganisation 439
4.2.3.2 StandardisierungĆ
Die Standardisierung ist ein unpersönlicher Koordinationsmechanismus, da er –
im Gegensatz zur hierarchischen Koordination oder der Selbstkoordination – nicht
von Personen initiiert wird, sondern auf bestimmten Verhaltensregeln beruht. Die
Standardisierung wird vor der Erbringung der Arbeitsleistung festgelegt, und
kommt folglich ohne persönliche Weisung oder gegenseitige Abstimmung aus
(MINTZBERG 1992).
Zur Standardisierung gehören zwei zentrale Werkzeuge:
(1) Sog. Programme legen verbindlich fest, auf welche Art und Weise bestimmte
Aktivitäten auszuführen sind. In Verfahrensrichtlinien oder Handbüchern
werden somit grundsätzliche Vorschriften erteilt, die den durch persönliche
Weisungen oder Selbstabstimmung entstehenden Koordinationsaufwand re-
duzieren. Allerdings ist zu beachten, dass sich das Umfeld der Organisation
im Zeitablauf ändert. Ergeben sich neue Problemstellungen, stehen unter
Umständen keine adäquaten Programme zur Verfügung. Eine Lösung dieses
Problems ist mittels flexibler Programme möglich, bei denen durch konditio-
nale Verzweigungen alternative Handlungsanweisungen in Abhängigkeit der
Rahmenbedingungen gegeben werden.
(2) Pläne hingegen geben Ziele und Umsetzungsschritte zur Zielerreichung für
eine bestimmte Periode, den Planungszeitraum, vor. Erforderlich sind des-
wegen regelmäßige Vergleiche von Plan- und Istwerten. Abweichungen des
Istwerts müssen in einem Regelkreis festgestellt, analysiert und durch Steue-
rungsmaßnahmen in Richtung der Planwerte minimiert werden, um eine
wirksame Koordination zu gewährleisten. Dabei hängt die Koordinations-
wirkung von Plänen davon ab, wie zuverlässig die zukünftigen Entwicklun-
gen vorausgesagt werden können. Die Prognosegenauigkeit nimmt in der
Regel mit zunehmender Länge des Planungszeitraums sowie steigender Vo-
latilität der Rahmenbedingungen ab. Darauf ist bei der Umsetzung einer
Koordinationsstrategie Rücksicht zu nehmen. Persönliche Weisungen und
Maßnahmen der Selbstabstimmung sind als Ergänzung zu Plänen und Pro-
grammen weiterhin nötig (VAHS 2005).
4.2.3.3 FormalisierungĆ
4.2.3.4 KonfigurationĆĆ
Die Konfiguration (siehe Kap. 4.1.1.2) beschreibt die Systematik des äußeren
Stellengefüges. Operationalisiert wird die Konfiguration durch die Leitungsspanne
und die Leitungstiefe. Dabei beschreibt die Leitungsspanne die Anzahl der einer
Leitungsstelle direkt unterstellten Stellen. Die Leitungstiefe hingegen gibt die
Anzahl der hierarchischen Leitungsebenen an. Bei gegebener Stellenzahl wird die
Leitungstiefe umso größer, d.h. es entstehen umso mehr Hierarchieebenen, je
geringer die Leitungsspannen sind. Die Konfiguration des Stellengefüges wird in
Abhängigkeit von der Leitungstiefe steiler oder flacher (siehe Abb. 4.1).
Leitungsspanne = 2 Leitungsspanne = 4
Leitungstiefe = 4 Leitungstiefe = 2
(insgesamt 31 Stellen) (insgesamt 21 Stellen)
4.2.3.5 DelegationĆ
Die Entscheidungsstruktur eines Betriebs wird durch die Verteilung der (Ent-
scheidungs-)Aufgaben zwischen Leitungs- und Ausführungsstellen bestimmt.
Durch wachsenden Umfang und Kontextsensitivität des notwendigen Wissens
wird dieser Zwang zur Delegation und Dezentralisation von Entscheidungen aus-
gelöst. Man unterscheidet zwischen zentralen und dezentralen Entscheidungs-
strukturen. In zentralen Strukturen sind die Entscheidungsbefugnisse auf die je-
weils hierarchisch höchste Leitungsstelle konzentriert. In dezentralen Strukturen
hingegen sind Entscheidungsbefugnisse per Delegation auf mehrere Stellen und
Abteilungen verteilt. Zentrale Entscheidungen sind z.B. sinnvoll, wenn
x Entscheidungen zur strategischen Sicherung und Entwicklung getroffen wer-
den müssen,
x die Einheitlichkeit von Entscheidungen erforderlich ist (z.B. beim Aufbau
eines zertifizierbaren Qualitätsmanagementsystems oder bei der betriebli-
chen Altersversorgung),
x eine Entscheidungsdelegation nicht möglich ist, weil die Stelleninhaber nicht
hinreichend qualifiziert sind oder
x rechtliche und per Geschäftsordnung oder Satzung festgelegte Regelungen
die Delegation von Entscheidungen ausschließen (BÜHNER 2004).
Voraussetzungen für zentrale Entscheidungen sind, dass die Leitungsstelle ka-
pazitiv in der Lage ist, anstehende Entscheidungen zu treffen und über die erfor-
derlichen Informationen verfügt. Sind diese Voraussetzungen nicht erfüllt, so
bieten dezentrale Entscheidungsstrukturen folgende Vorteile (BÜHNER 2004):
x Die Entscheidungen werden von Organisationseinheiten getroffen, die über
die benötigten Informationen zur Beurteilung der Entscheidungskonsequen-
zen verfügen (Kommunikationsvorteil).
x Durch die Delegation von Entscheidungsbefugnissen auf Mitarbeiter können
diese motiviert werden (Motivationsvorteil).
x Die Leitungsstellen werden inhaltlich und zeitlich entlastet (Entlastungsvor-
teil).
In der Praxis muss ein „Kompromiss“ zwischen zentralen und dezentralen Ent-
scheidungsstrukturen gefunden werden. Rein kostentheoretisch sollte ein solcher
Kompromiss minimale Gesamtkosten verursachen und die Relation von Kosten
für die Abstimmung zwischen Einzelentscheidungen (sog. Koordinationskosten)
und Kosten für die Abweichung der schließlich getroffenen Entscheidung von der
theoretisch erreichbaren Idealentscheidung (sog. Autonomiekosten) optimieren
Betriebs- und Arbeitsorganisation 443
(FRESE 1996). Abb. 4.2 zeigt qualitativ den Verlauf der Koordinations- und Auto-
nomiekosten in Abhängigkeit vom Zentralisationsgrad. Der Zentralisationsgrad
ZG ist das Verhältnis der Anzahl der Entscheidungen in der Betriebsführung zu
der Anzahl aller Entscheidungen (BEUERMANN 1992). Die Koordinationskosten
Kkoord(ZG) nehmen mit zunehmendem Zentralisationsgrad ab, da weniger Auf-
wand zur Abstimmung der Einzelentscheidungen benötigt wird. Andererseits ist
anzunehmen, dass die Autonomiekosten Kaut(ZG) mit zunehmendem Zentralisati-
onsgrad ansteigen. Die Überlagerung der beiden gegenläufigen Kostenfunktionen
führt zum Gesamtkostenminimum beim Zentralisationsgrad ZG0 (siehe Abb. 4.2).
Kosten
Gesamtkostenfunktion
Kkoord Kaut
0 ZG0 1
Zentralisationsgrad ZG
Bei welchem Zentralisationsgrad dieses Optimum liegt, lässt sich in der Regel
nicht berechnen, da weder die Koordinations- noch die Autonomiekostenfunktio-
nen ermittelt werden können. Eine rein kostentheoretische Ableitung des Zentrali-
sationsgrads ist auch nicht sinnvoll, da dabei personenbezogene Kriterien wie
Entscheidungsspielräume o.ä. außer Acht gelassen werden. Statt eines analyti-
schen Ansatzes sollen im Folgenden aufbauorganisatorische Grundformen unter-
schieden werden, die theoretisch begründet und häufig in der Praxis anzutreffen
sind.
für die effektive Bewältigung des Kerngeschäfts sowie den Erhalt und Ausbau der
Kernkompetenzen zuständig. Allgemein ist sie für die effiziente Bearbeitung von
wiederkehrenden Aufgaben geeignet. Diese Struktur reicht jedoch oft nicht zur
Bearbeitung komplexer Problemstellungen aus, da die Abhängigkeiten zwischen
den Organisationseinheiten nur ungenügend berücksichtigt werden. Deswegen
finden sich häufig ergänzende Strukturen, die die Primärorganisation überlagern
und die als Sekundärorganisation bezeichnet werden (VAHS 2005). Die Sekundär-
organisation dient z.B. dem Produkt- oder Projektmanagement. In der Folge ergibt
sich eine große Anzahl unterschiedlicher Formen der Aufbauorganisation. Zur
übersichtlichen und leicht verständlichen Darstellung werden nachfolgend für die
Praxis relevante Grundformen und Spezialisierungen dargestellt.
Grundsätzlich lassen sich funktionale und objektorientierte Organisationen un-
terscheiden. Eine funktionale Organisation sieht auf der zweiten Hierarchieebene
eine Gliederung nach Sachfunktionen vor (z.B. Entwicklung, Produktion etc.),
wodurch das ganze System eine funktionale Prägung erhält. Demgegenüber fasst
eine objektorientierte Organisation Stellen- und Abteilungen für diejenigen Ver-
richtungen zusammen, die z.B. für die Entwicklung, Herstellung und Vermarktung
eines bestimmten Objekts – häufig ein komplexes technisches Produkt – notwen-
dig sind (SCHREYÖGG 2003).
4.2.4.1 EinlinienorganisationĆ
Die Einlinienorganisation (siehe Abb. 4.3) ist dadurch gekennzeichnet, dass jede
Stelle und jede Organisationseinheit, entsprechend Fayols „Prinzip der Einheit der
Auftragserteilung“, jeweils nur eine direkt übergeordnete Leitungsstelle hat. Die
Mitarbeiter erhalten nur vom jeweiligen Vorgesetzten Aufgaben, Aufträge und
Weisungen. Gegebenenfalls muss eine Weisung, Anordnung oder Information
vertikal jeweils alle Abteilungen bzw. Stellen einer Linie durchlaufen. Möchten
zwei gleichrangige Stellen aufgabenbezogen kommunizieren, müssen sie den
Umweg über die nächst höhere und für beide zuständige Instanz nehmen. So
kommt es häufig zu langen Kommunikationswegen, etwaige Abstimmungs- und
Kommunikationsprozesse werden verzögert (REFA 2002).
Stelle
Neben der Beschreibung der Aufgaben müssen Regelungen über die Form der
Zusammenarbeit, der Abstimmung sowie der Informations- und Direktionswege
getroffen werden. Die Instanzen sind bei diesem Prinzip nur geringfügig speziali-
siert, da jede Leitungsstelle den gesamten ihr unterstellten Aufgabenbereich über-
blicken muss, um entsprechend qualifizierte Arbeitsanweisungen geben zu kön-
nen. Beispiele für eine Einlinienorganisation finden sich im militärischen und
kirchlichen Bereich.
4.2.4.2 MehrlinienorganisationĆ
Bei der Mehrlinienorganisation (siehe Abb. 4.4) hat ein Mitarbeiter, in Anlehnung
an das Funktionsmeistersystem von F. W. Taylor, für jedes fachliche Teilgebiet
seiner Arbeit einen anderen Vorgesetzten. Ziele dieser Organisationsform sind die
Spezialisierung der Leitungsstellen sowie eine Beschleunigung der Kommunikati-
on durch kürzere Informations- und Direktionswege. Es kommt bei ihrer Anwen-
dung zu einer Vielfachunterstellung des Mitarbeiters. Dieser kann sich mit seinen
Problemen direkt an die jeweils spezialisierte Instanz wenden. Die Positionsmacht
des Vorgesetzten rückt dabei im Vergleich zu seiner Fachkompetenz in den Hin-
tergrund (VAHS 2005). Zu beachten ist jedoch, dass die Kompetenzen jeder In-
stanz genau beschrieben sein müssen. Jeder Vorgesetzte muss sich an die Grenzen
seines Kompetenzbereichs halten, weil es sonst zu Kompetenzüberschneidungen
und unklaren Verantwortungen kommen kann. Für die einzelne untergeordnete
Stelle ergibt sich die Schwierigkeit der Priorisierung von Tätigkeiten, die sie von
unterschiedlichen Vorgesetzten erhält. Zudem ist bei einem schlechten Arbeitser-
gebnis nicht immer eindeutig zu klären, welche Instanz hierfür verantwortlich ist.
Um Koordinationsprobleme zu vermeiden, ist ein hoher Dokumentationsaufwand
und damit ein hoher Grad an Formalisierung erforderlich und sinnvoll. Das
Taylorsche Funktionsmeistersystem unterscheidet beispielsweise Zeit-, Qualitäts-
und Kostenmeister etc.
4.2.4.3 Stab-Linien-OrganisationĆ
Die Stab-Linien-Organisation ist eine Erweiterung der Ein- bzw. Mehrlinienorga-
nisation. Stäbe sind einzelnen Linieninstanzen zugeordnet und unterstützen diese,
indem sie Entscheidungen vorbereiten (z.B. durch Sammlung und Aufbereitung
von Informationen). Stäbe haben gegenüber den Stellen der Linienorganisation
weder Entscheidungs- noch Weisungsbefugnisse, können aber selbst Teil einer
hierarchischen Stabsorganisation sein (SCHANZ 1994). So können sie bspw. als
Zentralstabsstellen, als Stäbe auf mehreren Ebenen oder als Stabshierarchie in eine
Linienorganisation eingebettet sein und dann durchaus Entscheidungs- und Wei-
sungsbefugnisse gegenüber Abteilungsstäben besitzen. Eine Stabshierarchie tritt
dabei als geschlossenes „Untersystem“ neben die Linienstruktur (REFA 2002).
Durch die Stäbe kann die weitgehend statische Struktur der Ein- bzw. Mehrlinien-
organisation flexibilisiert werden. Zwar wird das Prinzip der einheitlichen Auf-
tragserteilung beibehalten, durch die fachliche Unterstützung der Stäbe werden die
Linienstellen aber gleichzeitig entlastet. Dort können Kapazitäten für die Bewälti-
gung anderer Aufgaben (z.B. strategische Planung) freigesetzt werden. Ein Bei-
spiel für eine funktional gegliederte Stab-Linien-Organisation ist in Abb. 4.5 dar-
gestellt.
Stra-
Unternehmens- Rechts-
tegische
führung abteilung
Planung
Markt- Kaufmännische
Absatz Produktion Assistent EDV
forschung Verwaltung
4.2.4.4 MatrixorganisationĆ
Die Matrixorganisation ist eine spezielle Form der Mehrlinienorganisation. Sie ist
durch die gleichzeitige Anwendung von zwei Gliederungskriterien (z.B. Verrich-
tung in Verbindung mit Produkt oder Markt) gekennzeichnet. Abb. 4.6 zeigt ein
Beispiel für eine nach Verrichtung und Produktgruppen gegliederte Matrixorgani-
sation. Die Organisationseinheiten sind fachlich der jeweiligen Fachinstanz unter-
stellt. Gleichzeitig sind sie den Produktgruppen zugeordnet, die von verantwortli-
chen Produktmanagern geleitet werden. Mit Bezug auf die Produktgruppen unter-
stehen die Organisationseinheiten diesem Produktmanager und erfüllen produkt-
bezogen Fachaufgaben. Es ist nachvollziehbar, dass die Überlagerung von zwei
oder mehreren Gliederungskriterien klare Schnittstellenregelungen, insbesondere
Betriebs- und Arbeitsorganisation 447
Unternehmensleitung
funktionsorientiert
Kalkulation und
Produkt- Fertigungsplanung Entwicklung Marketing und Vertrieb
Finanzplanung
gruppe 1 Produktgruppe 1 Produktgruppe 1 Produktgruppe 1
Produktgruppe 1
objekt-
orientiert
Kalkulation und
Produkt- Fertigungsplanung Entwicklung Marketing und Vertrieb
Finanzplanung
ggruppe
pp 2 Produktgruppe 2 Produktgruppe 2 Produktgruppe 2
Produktgruppe 2
4.2.4.5 ProzessorganisationĆ
Die Prozessorganisation definiert Stellen, Abteilungen und Bereiche auf Basis der
innerhalb des Betriebs verrichteten Wertschöpfungsschritte und bezieht darüber
hinaus die Input-Output-Beziehungen zu Kunden und Lieferanten ein. Sie gliedert
448 Arbeitswissenschaft
Unternehmens-
leitung
Infrastruktur Produktionsprozess
Kunden
Entwicklung Auftragsabwicklungsprozess
Beschaffung Vertriebsprozess
der Organisation feststehen. Ein Elementarprozess leistet gerade noch einen be-
wertbaren positiven Beitrag zur Wertschöpfung. Die erzeugten Prozesse werden
einem Prozessverantwortlichen unterstellt, der für die Ergebnisse verantwortlich
ist und die Koordination innerhalb des Prozesses und mit anderen übernimmt
(JOST 2000).
Wesentliche Vorteile dieser Organisationsform liegen in der Konzentration auf
die wertschöpfenden Aktivitäten und dem funktionsübergreifenden Charakter.
Nachteile können dadurch entstehen, dass bei fehlender Konzentration auf die
Funktion Effizienzvorteile der Arbeitsteilung (siehe Kap. 4.2.3.1) verloren gehen.
Ertr
Technologieentwicklung
äge
(F&E, IT- Systeme etc.)
Erträg
Aktivitäten
e
• Lagerung • Verpackung • Werbung • Lieferung • Wartung
• etc. • etc. • Verkauf • etc. • Zubehör
• etc. • After-Sales
• etc.
4.2.4.6 Produkt-/MarktorientierteĆOrganisationĆ
Vorstands-
Vorstands-
vorsitzender
vorsitzender
Branche
BrancheAA Branche
BrancheBB Branche
BrancheCC
Produkt
Produkt11 Produkt
Produkt22 Produkt
Produkt33
Meister
Meister Meister
Meister Meister
Meister
Direktion
Direktion
Branche
BrancheAA Branche
BrancheBB Branche
BrancheCC
Markt
Markt11 Markt
Markt22 Markt
Markt33
Abteilungs-
Abteilungs- Abteilungs-
Abteilungs-
leiter
leiter leiter
leiter
4.2.4.7 Vor-ĆundĆNachteileĆvonĆAufbauorganisationsformenĆ
Die vorgestellten Grundformen der Aufbauorganisation haben, bezogen auf den
eigentlichen Zweck einer Organisation, wie die Sicherstellung der Aufgabenerfül-
lung über Verteilung der Kapazitäten, Koordination der Arbeitsprozesse, Herbei-
führung von Entscheidungen etc., spezifische Vor- und Nachteile, die in Tabelle
4.1 gegenübergestellt sind.
Tabelle 4.1: Vor- und Nachteile von Grundformen der Aufbauorganisation
Vorteile Nachteile
Geringe Kapazität der Vorgesetzten notwendig Nur für wiederkehrende Prozesse (wie administrative
Vereinfachte Abstimmung durch Abbau von Schnittstellen Prozesse) anwendbar
organisation
Prozess-
Erhöhte Koordinationsfähigkeit gegenüber Linien- (Stab als Vorwand für mangelnde Delegation)
Organisation Konfliktmöglichkeiten zwischen Stab und Linie
Sinnvoller Ausgleich zwischen Spezialisten des Stabes Transparenz der Entscheidungsprozesse geht verloren
und Überblick der Linie Gefahr, dass Stabsarbeit von der Linie nicht berücksichtigt
Fachkundige Entscheidungsvorbereitung wird
Gefahr, dass Stabsmitarbeiter den Linienvorgesetzten
dank seines fachlichen Wissens manipulieren kann
Einheit der Auftragserteilung reduziert Koordinations- und Überlastung der Leitungsspitze
Entscheidungsprozesse Unterdimensioniertes Kommunikationssystem
Klare Kompetenzabgrenzung Lange Kommunikationswege
Klare Anordnungen Unnötige Belastung von Zwischeninstanzen
organisation
verfolgten Zielen oder den gesetzlichen Vorgaben. Damit wird auch deutlich, dass
die Aufbauorganisation auf großen Zeitskalen nicht statisch sein kann, sondern
sich zyklisch anpassen muss. Über die vorgestellten Organisationsformen hinaus
haben sich in der Praxis weitere Strukturen bewährt, wie z.B. die Holdingstruktur
auf Konzernebene (VAHS 2005) oder sog. Netzwerkorganisationen, in denen meh-
rere Unternehmen zur Verfolgung eines gemeinsamen Zieles kooperieren
(KILLICH u. LUCZAK 2003).
4.2.5 Projektorganisation
Nach DIN 69901-5 (2009) ist ein Projekt „ein Vorhaben, das im Wesentlichen durch
Einmaligkeit der Bedingungen in ihrer Gesamtheit gekennzeichnet ist, wie z.B.
eine klare Zielvorgabe, eine zeitliche, finanzielle, personelle oder andere Begren-
zung, Abgrenzung gegenüber anderen Vorhaben sowie eine [...] spezifische Orga-
nisation“. Aufgrund der Einmaligkeit der Bedingungen sind Projekte nur temporär
in die Struktur des Betriebs integriert und erfordern spezifische Organisationsfor-
men, die nicht zwangsweise Bestandteil der klassischen Aufbauorganisation sind.
Häufig überschreiten Projekte in ihrem Umfang die Grenzen festgelegter Berei-
che, haben eine wirtschaftlich besondere Bedeutung und sind mit besonderen
Risiken versehen. Sie erfordern die flexible und dynamische Einbindung und
Mitwirkung verschiedener Spezialisten und die gemeinsame Nutzung vorhandener
Ressourcen. Die organisatorische Integration kann dabei nach BURGHARDT
(2002) in Form der Einfluss-Projektorganisation, Matrix-Projektorganisation, Auf-
trags-Projektorganisation oder reinen Projektorganisation erfolgen.
Bei der Einfluss-Projektorganisation gibt es lediglich einen Projektkoordinator,
der – im Gegensatz zu einem „echten“ Projektleiter – nur eine lenkende und koor-
dinierende Funktion besitzt und nur über geringe Entscheidungsbefugnisse ver-
fügt. Er dient quasi als Informant der betrieblichen Linieninstanzen. Da die Ent-
scheidungen weiterhin in der Linie getroffen werden, ist der Koordinator nicht für
Erfolg oder Misserfolg des Projekts verantwortlich (siehe Abb. 4.11). Ein Beispiel
für die Wahl einer Einfluss-Projektorganisation ist die Einführung eines neuen
PPS/SCM/ERP Software-Systems.
Die Matrix-Projektorganisation ist eine Matrixorganisation (siehe Kap. 4.2.4.4),
die sich bzgl. des sekundären Gliederungskriteriums an Projekten orientiert. In der
Matrix-Projektorganisation trägt der Projektleiter die gesamte Verantwortung für
das Projekt. Er hat jedoch nicht die volle Anordnungsbefugnis für die am Projekt
beteiligten Mitarbeiter. Diese werden aus verschiedenen Organisationseinheiten
rekrutiert, sind zeitlich begrenzt in einer Projektgruppe zusammengefasst und
unterliegen nur fachlich der Weisungsbefugnis des Projektleiters. Disziplinarisch
unterstehen sie weiterhin dem Linienvorgesetzten. Die Matrix-Projektorganisation
hat damit eine mehrdimensionale Weisungsstruktur, wodurch eine Kompetenzab-
grenzung erschwert wird (siehe Abb. 4.12). Die Matrix-Projektorganisation ist
beispielsweise für die Abwicklung von Großaufträgen in der Bauindustrie die
geeignete Organisationsform.
Betriebs- und Arbeitsorganisation 453
Geschäftsleitung
Geschäftsleitung
Projekt-
Projekt-
koordinator
koordinator
Kaufmännische
Kaufmännische
Vertrieb
Vertrieb Entwicklung
Entwicklung Fertigung
Fertigung Leitung
Leitung
Geschäftsleitung
Geschäftsleitung
Kaufmännische
Kaufmännische
Vertrieb
Vertrieb Entwicklung
Entwicklung Fertigung
Fertigung Leitung
Leitung
Projekt-
Projekt-
Leiter
Leiter AA
Projekt-
Projekt-
Leiter
Leiter BB
Projekt-
Projekt-
Leiter
Leiter C
C
Disziplinarische Verantwortung
Projektbezogene, fachliche Kompetenz und Verantwortung
Geschäftsleitung
Geschäftsleitung
Kaufmännische
Kaufmännische
Vertrieb
Vertrieb Entwicklung
Entwicklung Fertigung
Fertigung Leitung
Leitung
Projekt-
Projekt-
management
management
Projekt
Projekt AA
Projekt
Projekt BB
Projekt
Projekt C
C
Geschäftsleitung
Geschäftsleitung
Kaufmännische
Kaufmännische
Vertrieb
Vertrieb Entwicklung
Entwicklung Fertigung
Fertigung Leitung
Leitung
HW-Entwicklung
HW-Entwicklung HW-Entwicklung
HW-Entwicklung
Projektleiter
Projektleiter SW-Entwicklung
SW-Entwicklung
Mechanik
Mechanik Elektronik
Elektronik
HW-Entwicklung
HW-Entwicklung HW-Entwicklung
HW-Entwicklung SW-Entwicklung
SW-Entwicklung
Mechanik
Mechanik Elektronik
Elektronik
4.3 Ablauforganisation
Aufbauorganisation Ablauforganisation
Elemente: x Stellen (Linien-, Stabs-, Leitungs-, x Aufgaben bzw. Aktivitäten
Ausführungsstellen)
x Organisationseinheiten höherer Ord-
nung
Relationen: x Unterstellungsverhältnisse im Sinne x Vorgänger-Nachfolger-
von Weisungs- und Entscheidungsbe- Beziehungen im Sinne der
fugnissen sowie Berichtswesen Tätigkeit, oft ergänzt durch
Informations- und
Materialflüsse
Die strikte Zweiteilung von Aufbau- und Ablauforganisation stellt eine gedank-
liche Abstraktion dar, die die Auseinandersetzung mit organisatorischen Fragestel-
lungen erleichtern kann. In der Praxis können die Aufgaben der Gestaltung von
Aufbau- und Ablauforganisation jedoch nicht isoliert betrachtet werden (VAHS
2005). Vielmehr greifen sie ineinander, so dass eine getrennte Betrachtung und
Optimierung von Aufbau- und Ablauforganisation nicht sinnvoll ist (SCHREYÖGG
2003). Während früher die Ablauforganisation der Aufbauorganisation in der Re-
gel nachgeordnet war (siehe Kap. 4.2.4.5), ist im Rahmen der prozessorientierten
Organisation eine Umkehr dieser Reihenfolge zu beobachten. So werden in vielen
Betrieben zunächst die Abläufe festgelegt und die Aufbauorganisation wird zur
Fortsetzung der Ablauforganisation (GAITANIDES 2004; VAHS 2005; OSTERLOH
u. FROST 2006).
In der Ablauforganisation ist die Reihenfolge der Tätigkeiten festgelegt, die zur
Erfüllung der Arbeitsaufgaben durch Arbeitspersonen notwendig sind. Eine Auf-
456 Arbeitswissenschaft
Durch- Durch-
laufzeit laufzeit
m=1
m=2
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1
Auslastung Auslastung
Abb. 4.15: Zielkonflikt zwischen Verringerung der Durchlaufzeit und Erhöhung der Aus-
lastung
4.3.3.1 EinordnungĆinĆdasĆSieben-Ebenen-ModellĆ
Die Ablauforganisation stellt eine prozessuale Querschnittsfunktion dar, die sämt-
liche Hierarchieebenen umfassen kann. Die Abläufe sind in unterschiedlichen
Detaillierungsebenen darstellbar. Ausgehend von der geringsten Detaillierungs-
ebene, der Ablauforganisation auf Betriebsebene, lassen sich mit einer fortlaufen-
den Zerlegung der Aktivitäten über die Ablauforganisation auf Abteilungsebene
schließlich durch die Ablauforganisation auf Individualebene die einzelnen Ar-
beitsschritte, die von Arbeitspersonen ausgeführt werden, beschreiben und darstel-
len. Hierbei lässt sich die Ablauforganisation in Abhängigkeit des Detaillierungs-
grads in die Ebenen des Sieben-Ebenen-Modells der Arbeitswissenschaft (siehe
Kap. 1.4.3) einordnen. Die Gestaltung der Ablauforganisation sollte die Ebenen
möglichst umfassend abdecken.
Auf der Betriebsebene umfasst die Ablauforganisation alle Bereiche und ist in
die sechste Ebene (Betriebliche Arbeitsbeziehungen und Organisation) einzuord-
nen. Sie umfasst die gesamte Wertschöpfungskette vom Wareneingang am Be-
schaffungsmarkt über die einzelnen Produktionsbereiche bis zum Absatzmarkt.
Ein Beispiel für einen Auftragsfertiger ist in Abb. 4.16 dargestellt: Vom Kunden
am Absatzmarkt wird ein Auftrag an den Vertrieb erteilt. Der Vertriebsmitarbeiter
leitet den Auftrag mit gewünschtem Artikel, Menge und Liefertermin an die Pro-
zessteuerung weiter. Die Prozessteuerung plant die personalen, zeitlichen und
finanziellen Ressourcen des Unternehmens und stellt einen Auftrag in die Projekt-
und Fertigungsplanung ein. In der Produktentwicklung wird gemäß der Projekt-
planung und in intensivem Austausch mit dem Kunden das Design, die Funktiona-
litäten und die Geometrie des gewünschten Produkts neu entwickelt oder aus ei-
nem bestehenden Produkt abgeleitet (Variantenentwicklung). In der Prozessent-
wicklung werden für die Produktion die optimalen Bearbeitungsparameter, die
458 Arbeitswissenschaft
Beschaffungs- Absatz-
markt markt
Planung Unternehmensführung Personal
Start
Qualitätsmanagement Prozessteuerung
Ziel
Beschaffung Vertrieb
Produkt- Prozess- Arbeits- Fertigung Kunden-
Einkauf
Input: entwicklung entwicklung vorbereitung Montage betreuung
und
Distribution
Roh-, Hilfs-, Lager
Betriebsstoffe… Output:
Logistik Produkte,
Dienst-
leistungen...
Instandhaltung Recycling Service
Neue Ware
eingetroffen
Bestell-
schein
Überprüfen Liefer-
Wareneingang
der Ware schein
Protokoll
XOR
Qualitäts- Abteilungsleiter
Fertigung Prozess endet hier
prüfung Wareneingang
Hinlangen • Bewegungslänge: 40 cm
R 40 C 16,8 TMU
zum Bolzen • Bolzen liegen vermischt mit anderen
Greifen • Abmessungen: Ø 8 x 12 mm
G4B 9,1 TMU
des Bolzens • Bolzen liegen vermischt mit anderen
Bringen • Bewegungslänge: 40 cm
des Bolzens M 40 C 18,5 TMU
zur Vorrichtung • Platzierungsgenauigkeit: genau
Loslassen
• Öffnen der Finger RL 1 2,0 TMU
des Bolzens
62,6 TMU
Gesamtzeitbedarf: | 2,25 s
Abb. 4.18: Beschreibung des Ablaufs von manuellen Tätigkeiten einer Arbeitsperson
4.3.3.2 MethodenĆzurĆModellierungĆderĆAblauforganisationĆ
Die Modellierung der Ablauforganisation mit ingenieurwissenschaftlichen Metho-
den setzt die Analyse der betrieblichen Vorgänge in Form von Geschäfts- und
Arbeitsprozessen voraus. Unter einem Geschäftsprozess wird hierbei eine deskrip-
tive (beschreibende) oder präskriptive (vorschreibende) Folge von Aufgaben ver-
standen, an deren Ende eine Leistung bzw. ein Produkt für bestimmte Kunden und
Märkte entstanden ist. Ein Geschäftsprozess hat einen Beginn und ein Ende, klar
definierte In- und Outputwerte und läuft – je nach betrieblicher Arbeitsteilung –
durch mehrere Bereiche. Geschäftsprozesse lassen sich in Kernprozesse und Sup-
portprozesse (Stützprozesse) unterteilen (PORTER 2000). Kernprozesse erzeugen
Wettbewerbsvorteile und stiften einen wahrnehmbaren Kundennutzen. Sie sind
durch eine Nicht-Imitierbarkeit und Nicht-Substituierbarkeit gekennzeichnet und
betriebsspezifisch (OSTERLOH u. FROST 2006). Supportprozesse hingegen gene-
rieren keinen unmittelbar sichtbaren Kundennutzen, unterstützen jedoch die Kern-
prozesse durch Bereitstellen einer Infrastruktur und sichern so den reibungslosen
Ablauf einer Geschäftstätigkeit (OSTERLOH u. FROST 2006). Im Rahmen von
Rationalisierungsmaßnahmen wird beispielsweise untersucht, ob Supportprozesse
als eigenständige Module von den Kernprozessen abgespalten werden können, um
somit bessere Zuordnungen von Personen zu Prozessen zu ermöglichen und die
Prozesse leichter via „Benchmarking“ (Maßstäbe setzen) mit den Prozessen exter-
ner Anbieter verglichen werden können.
Arbeitsprozesse sind Geschäftsprozesse auf Mikroebene, die von den Arbeits-
personen geplant, vollzogen, koordiniert und optimiert werden. Ein Arbeitsprozess
umfasst dabei vom Menschen ausführbare, schädigungslose, zumutbare und der
Persönlichkeitsentfaltung dienende Aufgaben. Er dient der Umwandlung von
Eingangs- in definierte Ausgangsgrößen durch zielgerichtete Aktivitäten. Aktivitä-
Betriebs- und Arbeitsorganisation 461
1 Marktstudie durchführen 90
2 Machbarkeitsstudie durchführen 80
3 Baugenehmigung einholen 90
4 Bauentwurf verfeinern 90
6 Mitarbeiter rekrutieren 30
7 Fertigungsanlagen installieren 50
8 Mitarbeiter ausbilden 40
9 Test durchführen 25
Inbetriebnahme 01.12.2011
Abb. 4.19: Beispiel eines Gantt-Charts für die Planung und Errichtung einer Fabrik
x Petri-Netze
Petri-Netze, 1960 von Carl Adam Petri entwickelt, stellen eine formale Me-
thode zur mathematischen Modellierung von Systemen dar, in denen mehre-
re Prozesse simultan bzw. nebenläufig ablaufen können. Die Darstellung ist
im Vergleich zu neueren Modellierungssprachen weniger anschaulich, je-
doch eignet sich die formale Beschreibung sehr gut zur Simulation (siehe
Kap. 4.3.4.4) von komplexen Arbeitsprozessen (SCHLICK et al. 2002;
OBERWEIS 1996).
x Design Structure Matrix
Matrizenbasierte Modellierungstechniken stellen insbesondere für den Be-
reich der Modellierung von simultanen Arbeitsprozessen in der Produktent-
wicklung einen interessanten Ansatz dar. Sie basieren auf der sog. Design
Structure Matrix und bieten die Möglichkeit, die Informationsabhängigkeiten
einzelner Aufgaben numerisch zu beschreiben und mit quantitativen Anga-
ben zur Prozessdynamik zu ergänzen (SMITH u. EPPINGER 1997;
HUBERMAN u. WILKINSON 2006; SCHLICK et al. 2007; GÄRTNER et al. 2008).
Eine ausführliche Darstellung von Methoden für die Aufgabenanalyse findet
sich bei LUCZAK (1997).
4.3.3.3 FlussprinzipienĆfürĆdieĆAblaufmodellierungĆ
Die im vorherigen Kapitel behandelten Prozessmodellierungssprachen stützen sich
auf grundlegende Flussprinzipien, die in Tabelle 4.3 aufgelistet sind. Die darge-
stellten Prozessfragmente sind quasi die „prozeduralen Moleküle“ einer Ablaufor-
ganisation aus denen beliebig komplexe Geschäfts- und Arbeitsprozesse syntheti-
siert werden können.
4.3.3.4 BeispielhafteĆModellierungĆeinesĆArbeitsprozessesĆ
In Abb. 4.20 ist beispielhaft ein modellierter Arbeitsprozess dargestellt. Die ein-
zelnen an diesem Prozess beteiligten Personen bzw. organisatorischen Einheiten
werden in sog. vertikalen „Swimlanes“ dargestellt, so dass eine direkte und einfa-
che Zuordnung der einzelnen Aktivitäten, Verzweigungen und Dokumente zu den
jeweilig Verantwortlichen möglich ist. Das Beispiel beschreibt eine schriftliche
Kundenanfrage an den Vertrieb eines Unternehmens. Dieser überprüft die Anfrage
auf Vollständigkeit und Richtigkeit, hält ggf. Rücksprache mit dem Kunden und
gibt die Anfrage in eine Auftragsdatenbank ein. Die Prozesssteuerung holt sich
anschließend Informationen über das bestellte Produkt ein und überprüft die Kun-
denanfrage auf ihre entwicklungs- und fertigungstechnische Durchführbarkeit.
Hierbei ergibt sich, dass das bestellte Produkt die zwei Module A und B benötigt.
Ist der Auftrag für das Unternehmen wirtschaftlich tragfähig und terminlich zu
bewältigen, werden die Produktionskapazitäten vorgemerkt und in den Produkti-
onsplan übernommen, der Vertrieb kalkuliert den Angebotspreis, schreibt ein
Angebot und schickt dieses an den Kunden. Ist der Auftrag durch das Unterneh-
464 Arbeitswissenschaft
men nicht durchführbar, so hält der Vertrieb Rücksprache mit dem Kunden und
steuert, wenn Änderungen am Auftrag möglich sind, den geänderten Auftrag in
die Prozesssteuerung ein. Sind keine Änderungen mehr möglich, so wird die An-
gebotsphase beendet.
Tabelle 4.3: Flussprinzipien für die Ablaufmodellierung
Flussprinzip Prozessbild
Aktivität 2 …
nur bei
alternativ Aktivität 1 ?
Aufgaben
Aktivität 3 …
Aktivität 1
gekoppelt informatorische
bzw. reziprok Kopplung
Aktivität 2
…
Aktivität 2
UND-
Aktivität 1
Rückkopplung
Aktivität 3 …
Iterationstypen
Ja Aktivität 2
ODER-
Rückkopplung Aktivität 1 ?
Nein Aktivität 3 …
Betriebs- und Arbeitsorganisation 465
Angebotserstellung
Absatzmarkt Prozess- Beschaffung
Vertrieb
(Kunde) steuerung Lager Lieferant Modul B
schriftliche Anfrage
g auf
Anfrage Vollständigkeit
verfassen prüfen
Anfrage
vollständig?
Nein Ja
Informationen
Auftragsanfrage in
über Bestand Modul
Auftragsdaten-
A und Kosten für
bank erfassen
Modul B einholen
Auftragsanfrage
auf Durchführbar-
keit (Kosten,
Termine) prüfen
Ja
Änderung in
Rückfrage
Ja Auftragsdaten-
erfolgreich?
bank erfassen
Nein
Angebotsprozess
beenden
Produktions-
Angebotspreis
g p
kapazitäten
kalkulieren
vormerken
Angebot schreiben
fertiges Angebot Produktionsplan
und an Kunden
senden
4.3.4 Prozessoptimierung
Die Optimierung von Geschäfts- und Arbeitsprozessen im Hinblick auf Arbeits-
personen, Kunden und Lieferanten ist ein wesentliches Ziel der Ablauforganisati-
on. Unter dem Begriff der Optimierung werden in der betrieblichen Praxis alle
systematischen Interventionen zusammengefasst, die eine qualitative und quantita-
tive Verbesserung der Ablauforganisation mit Bezug auf die jeweiligen Zielgrö-
ßen zum Gegenstand haben und nicht nur die bekannten mathematische Methoden
für eine analytische oder numerische Optimierung (siehe JARRE u. STOER 2004).
Übergeordnete qualitative Ansätze zur Verbesserung von Prozessen stellen „Busi-
ness Process Reengineering“ und der „Kontinuierliche Verbesserungsprozess“ dar.
Auslöser für Prozessverbesserungsmaßnahmen können unerwartet bzw. unakzep-
tabel hohe Fehlerquoten, hohe Durchlaufzeiten, Überschreiten von Fertigstel-
lungsterminen, hohe Prozesskosten, zu geringe Produktivität oder nicht vertretbare
gesundheitliche Risiken der Arbeitspersonen sein.
4.3.4.1 BusinessĆProcessĆReengineeringĆ
4.3.4.2 KontinuierlicherĆVerbesserungsprozessĆ
Das Konzept des Kontinuierlichen Verbesserungsprozesses (KVP) stammt ur-
sprünglich aus Japan und ist Bestandteil der KAIZEN-Philosophie
(KAI=Veränderung, ZEN=zum Besseren), die sämtliche Aggregationsebenen der
Ablauforganisation umfassen soll. Als Richtschnur für die Umsetzung eines Kon-
tinuierlichen Verbesserungsprozesses können die folgenden Leitgedanken gelten
(IMAI 2002):
(1) Prozessorientierung: Der KVP fördert das Denken in Konzepten und Model-
len. Das Verbessern von Ergebnissen ist nur über eine Verbesserung der zu-
grunde liegenden Prozesse möglich.
(2) Kundenorientierung: Der KVP stellt den Kunden in den Mittelpunkt allen
Handelns. Alle Prozesse eines Betriebs sind an den Bedürfnissen der Kunden
zu orientieren.
(3) Mitarbeiterorientierung: Der KVP ist mitarbeiterorientiert. Im Unterschied
zum Business Process Reenginieering sind die Arbeitspersonen in den KVP
Betriebs- und Arbeitsorganisation 467
4.3.4.3 HeuristischeĆProzessoptimierungĆ
Zur Konkretisierung der eher programmatischen Ansätze zum „Business Process
Reengineering“ sowie „Kontinuierlichen Verbesserungsprozess“ sind Maßnahmen
zur sog. heuristischen Optimierung auf der Basis von Prozessfragmenten entwi-
ckelt worden. Heuristisch bedeutet in diesem Zusammenhang, dass man mit be-
grenztem theoretischem Wissen über die Organisation und mit vergleichsweise
geringem Aufwand für Arbeitsanalysen zu gestalterisch guten Lösungen kommen
kann. Unabhängig von der Hierarchieebene wird eine partizipative Optimierung in
einem Team mit Fach- und Methodenexperten empfohlen. Durch die fragmentari-
schen Eingriffe in die Prozessstruktur erschließen sich Optimierungsmöglichkei-
ten auf der Meso- und Mikroebene, die in Abb. 4.21 schematisch dargestellt sind.
Hierbei werden horizontale „Swimlanes“ für die Zuordnung der einzelnen Aktivi-
täten zu organisatorischen Einheiten verwendet.
468 Arbeitswissenschaft
vorher 1 2 3 vorher 1 2 3
andere Aktivitäten
beschleunigt
beschleunigt
nachher 1 2 3
nachher 1 2 3
3
vorher 1 2 3 4 5
2
beschleunigt
nachher 1 4 5
beschleunigt
nachher 1 2 3 4
3. Zusammenfassen von Aktivitäten
Dauer vorher
beschleunigt vorher 1 2 3 4 5
beschleunigt
nachher 1 4 5
4. Auslagern von Aktivitäten
Dauer vorher
2 3
vorher 1 2 3 4 5
beschleunigt
nachher 1 4 5
extern 2 3
sequentiell bzw. 1 2
Ergebnis von Aktivität x serieller Vollzug
funktional 1 ist für Aktivität 2 x paralleler Vollzug nur
erforderlich möglich, wenn sinnvolle
Teilergebnisse gebildet
werden können, aber:
erhöhter Abstimmungs-
bedarf, da bei Änderun-
gen Iterationsschleifen
durchgeführt werden
müssen
reziprok bzw.
1
Aktivität 1 und Aktivität x wechselseitig iterativer
gekoppelt 2 sind gegenseitig auf Vollzug mit regelmäßi-
Ergebnisse angewie- ger Kommunikation
2
sen notwendig, Gefahr von
Oszillationen im Arbeits-
fortschritt
ressourceninduziert 1
Ressource R ist für x serieller Vollzug not-
Durchführung von wendig, wenn Zugriff auf
R Aktivität 1 und Aktivität Ressource durch Priori-
2 notwendig täten oder Ausschluss
koordiniert werden muss
2
x paralleler Vollzug mög-
lich, wenn simultaner
Zugang zu Ressource
gewährleistet werden
kann (z.B. durch rein le-
senden Zugriff auf Pro-
duktdatenbank durch
mehrere Personen)
472 Arbeitswissenschaft
4.3.4.4 SimulationsgestützteĆProzessoptimierungĆ
Der Begriff der Simulation wird in der VDI-Richtlinie 3633 definiert als ein „Ver-
fahren zur Nachbildung eines Systems mit seinen dynamischen Prozessen in ei-
nem experimentierbaren Modell, um zu Erkenntnissen zu gelangen, die auf die
Wirklichkeit übertragbar sind“.
Mit einer Simulation können Arbeitsprozesse, z.B. in einer hochautomatisierten
Produktionszelle, bereits vor der Umsetzung eines bestimmten Systementwurfs
mit Bezug auf arbeitswissenschaftliche Kriterien bewertet, beurteilt und optimiert
werden. Hierfür ist ein quantitatives Modell der Arbeitsprozesse notwendig. Ein
wesentlicher Mehrwert der Simulation liegt darin, dass der Modellbenutzer nicht
den im realen Arbeitssystem geltenden Einschränkungen unterliegt. So können
Beobachtungszeiträume und Systemvarianten (z.B. Anzahl und Typ der zur Ver-
fügung stehenden Werkzeugmaschinen) nahezu beliebig gewählt werden. Primä-
rer Einsatzbereich ist die Prognose von Leistung, Belastung, Beanspruchung,
Zuverlässigkeit o.ä. in Abhängigkeit verschiedener Einflussgrößen. Dies kann
bereits in der Konzeptions- und Entwicklungsphase oder nachgelagert zur Opti-
mierung eines bereits in Benutzung befindlichen Systems stattfinden. Die Simula-
tion bietet sich immer dann an, wenn die Systemvarianten in der Realität nur mit
unverhältnismäßig hohem Aufwand gebildet werden können und gewinnt daher
als Unterstützungswerkzeug für die Planung, Steuerung und Optimierung von
komplexen soziotechnischen Systemen ständig an Bedeutung. Ferner werden
Betriebs- und Arbeitsorganisation 473
Problem-
beschreibung Versuchsplanung
Zieldefinition und
Aufstellen des
Projektplans Simulationsläufe
und
Auswertung
Entwicklung des
konzeptionellen Datenerhebung
Modells
Mehr Läufe
Ja Ja
erforderlich?
Modell-
integration Nein
Ergebnisdokumen-
Nein Verifiziert? tation und Bericht
Ja
Sowohl für die Produktion als auch für die Produktentwicklung lassen sich ver-
schiedene Simulationsansätze unterscheiden (VDI-Richtlinie 3633 Blatt 6):
x Bei der sog. prozessorientierten Simulation stehen die Aufgaben im Mittel-
punkt. Sie sind die aktiven Instanzen der Ablauforganisation, ziehen die
notwendigen Ressourcen zur Bearbeitung heran und bestimmen somit das
Systemverhalten. Zu den Ressourcen zählen hierbei auch die Arbeitsperso-
nen, die für die Bearbeitung einer Aufgabe benötigt werden. Dieser Simula-
tionsansatz ist somit gut zur formalen Analyse des Durchlaufs eines Arbeits-
objekts durch die involvierten Organisationseinheiten geeignet, ohne beson-
dere Berücksichtigung der Fähigkeiten und Fertigkeiten des Menschen.
x Personalintegrierte Simulationsmodelle bilden die Arbeitsprozesse unter ei-
ner stärkeren Berücksichtigung der besonderen Eigenschaften des Menschen
wie z.B. Qualifikation und Kompetenz ab. Sie kommen für Personaleinsatz-
planung (ZÜLCH et al. 2004, 2007, 2009), Aufgabenstrukturierung (ZÜLCH et
al. 2002) oder bei zeitwirtschaftlichen Analysen für die Arbeitsplanung
(ZÜLCH 2004) zum Einsatz.
x Die sog. aktororientierte – auch personalorientiert genannte – Simulation
verfolgt einen weitergehenden Ansatz. Hierbei stehen die Arbeitspersonen
im Mittelpunkt des Modells und bestimmen somit das Systemverhalten. In
der Realität entscheiden Personen, welche Aufgaben bearbeitet werden, sie
unterscheiden sich individuell in ihren Arbeitsweisen und haben unterschied-
liche Fähigkeiten und Fertigkeiten. Mit Hilfe der aktororientierten Simulati-
on können somit Entscheidungsprozesse und Tätigkeiten individuell abgebil-
det werden. Während der Simulation können beim aktororientierten Simula-
tionsansatz direkt Informationen über die Belastung der Arbeitspersonen er-
hoben werden. Dieses bietet insbesondere im Hinblick auf eine arbeitswis-
senschaftliche Beurteilung und Bewertung von Prozessen Vorteile (SCHLICK
u. LICHT 2005; LICHT et al. 2007; LICHT 2008).
Als ultimatives Ziel von Simulationen in der Produktion und Produktentwicklung
(einschließlich der damit verbundenen Dienstleistungsentwicklung) ist die sog.
„Parallelmodellierung“ des aktuellen Betriebsgeschehens aufzufassen. Wenn das
Simulationsmodell den aktuellen Projektstatus oder Status in der Auftragsabwick-
lung zeitnah und präzise erfasst, sind Variationsrechnungen über alternative Pla-
nungs- und Steuerungsentscheidungen zielorientiert und wirkungsanalytisch mög-
lich. Entscheidungsvarianten könnten antizipativ analysiert werden. Eine solche
Vorgehensweise verspricht eine höhere Planungssicherheit sowie Verlässlichkeit
im Personal- und Ressourceneinsatz. Das Ziel ist zwar klar, die Realisierung be-
darf jedoch weiterer Forschungsanstrengungen.
476 Arbeitswissenschaft
4.4.1.1 WerkstättenfertigungĆ
Bei dem klassischen Konzept der sog. Werkstättenfertigung (auch einfach Werk-
stattfertigung genannt) sind die Bearbeitungsstationen nach den zu verrichtenden
Tätigkeiten angeordnet (WIEHNDAHL 2007). Dadurch entstehen organisatorische
Einheiten höherer Ordnung von simultanen Arbeitssystemen mit gleicher Verrich-
tung (z.B. Dreherei, Bohrerei, Fräserei) (siehe Abb. 4.23).
Durch die räumliche Zusammenfassung der Arbeits- und Betriebsmittel ist ein
enger Kontakt zwischen den Arbeitspersonen, die ähnliche Verrichtungen durch-
führen, gewährleistet. Bezogen auf einen Fertigungsabschnitt können Probleme im
Auftragsdurchlauf schnell und gezielt behoben werden, z.B. indem die Bearbei-
tung von Werkstücken auf verschiedene Bearbeitungsmaschinen verteilt wird.
Betriebs- und Arbeitsorganisation 477
4.4.1.2 ReihenfertigungĆ
In der Reihenfertigung sind die Bearbeitungsstationen entlang der Vorgänge im
Arbeitsplan angeordnet (siehe Abb. 4.24).
4.4.1.3 FließfertigungĆ
Bei der Fließfertigung sind die Arbeitsschritte zeitlich an einen Maschinentakt
gebunden und die Bearbeitungsstationen sind durch selbsttätige Fördereinrichtun-
gen verkettet. Der Durchlauf der Werkstücke ist idealerweise so aufeinander abge-
stimmt, dass zwischen den Stationen kein ablaufbedingtes Liegen der Werkstücke
entsteht und man den Prozess als „ausgetaktet“ bezeichnen kann. Bei optimaler
Taktung kann die Durchlaufzeit T3 im Vergleich zu den beiden vorherigen Ab-
laufprinzipien weiter verkürzt werden (T3 < T2 < T1).
Damit ist ein kostengünstiges Fertigen bei Serien- und Massenproduktion mög-
lich. Ein Beispiel für eine Fließfertigung zeigt Abb. 4.25.
4.4.1.4 InselfertigungĆ
Der wissenschaftliche Ausschuss für Fertigung definiert das Konzept der Ferti-
gungsinsel folgendermaßen (AWF 1984): „Die Fertigungsinsel hat die Aufgabe,
aus gegebenem Ausgangsmaterial Produktteile oder Endprodukte möglichst voll-
ständig zu fertigen“. Die benötigten Betriebsmittel sind räumlich und organisato-
risch in der Fertigungsinsel zusammengefasst. Das Tätigkeitsfeld der dort
beschäftigten Gruppe trägt folgende Kennzeichen:
x Die weitgehende Selbststeuerung der Arbeits- und Kooperationsprozesse
verbunden mit Planungs-, Entscheidungs- und Kontrollfunktionen innerhalb
der vorgegebenen Rahmenbedingungen.
x Der Verzicht auf eine starre Arbeitsteilung und demzufolge eine Erweiterung
des Dispositionsspielraums für den Einzelnen.
Die Fertigungsinsel ist somit organisatorische Grundform für später entwickelte
zelluläre Produktionskonzepte auf Basis sog. Autonomer Produktionszellen
(PFEIFER u. SCHMIDT 2006), die in der Lage sind, komplexe Produktionsprozesse
mit einem maximalen Grad an Selbständigkeit über einen längeren Zeitraum zu-
verlässig und störungsfrei durchzuführen. Die Flexibilität dieser Produktionskon-
480 Arbeitswissenschaft
zepte beruht auf der Integration von Tätigkeitsfeldern aus indirekten Fertigungsbe-
reichen, wie z.B. Arbeitsvorbereitung, Fertigungssteuerung, Qualitätswesen,
Werkzeug- und Vorrichtungswesen, Instandhaltung und Logistik.
Wesentliche Unterschiede zur Werkstätten- und Fließfertigung bestehen in der
Zusammenfassung von Teilen, die mit gleichen Betriebsmitteln gefertigt werden
können, zu Fertigungsfamilien. Dadurch kommt es zu einer Entzerrung des Infor-
mations- und Materialflusses, räumlichen und organisatorischen Zusammenfas-
sung aller Maschinen und Betriebsmittel, die zur vollständigen Bearbeitung dieser
Fertigungsfamilien benötigt werden und Zuweisung umfangreicher und an-
spruchsvoller Aufgaben (Planung, Steuerung, Qualitätsprüfung) für die Mitarbei-
ter der Fertigungsinsel.
Der Hauptvorteil der Fertigungsinsel besteht in der hohen Flexibilität. Da ein
komplettes Werkstückspektrum bearbeitet werden kann, kann die Fertigungsinsel
an Produktumstellungen innerhalb dieses Werkstückspektrums schnell angepasst
werden. Die Bündelung der Aufgaben in der Fertigungsinsel führt zudem zu kür-
zeren Reaktionszeiten, da Abstimmungsprozesse innerhalb der Insel schnell ablau-
fen können. Somit ergibt sich insgesamt eine kürzere Durchlaufzeit der Erzeugnis-
se.
Nachteilig wirkt sich aus, dass es bei mehreren Fertigungsinseln zu kapitalin-
tensiven Maschinenredundanzen kommen kann, weil die Realisierung der inselin-
ternen Komplettbearbeitung die Anschaffung mehrerer gleichartiger Betriebsmit-
tel erfordert, die aber unter Umständen nicht voll ausgelastet werden können. So
wird vor allem bei kapitalintensiven Maschinen und Aggregaten die Forderung
nach Redundanz unerfüllt bleiben, womit das Prinzip der inselinternen Komplett-
bearbeitung gelegentlich verletzt wird (MASSBERG 1993).
Das Konzept der Fertigungsinsel umfasst über die Erweiterung der Arbeitsin-
halte mit dispositiven Aufgaben sowohl technisch-ökonomische als auch human-
orientierte Zielsetzungen. Dazu gehört etwa die Verminderung von Monotonie am
Arbeitsplatz. Die Fertigungsinsel ist primär ein auf die Fertigung bezogenes Ar-
beitsorganisationskonzept. Bedingt durch die Verlagerung indirekter Aufgaben in
die Insel, sind auch weitere betriebliche Abteilungen vom Aufbau von Fertigungs-
inseln betroffen. Damit stehen neben den Abstimmungs- und Kooperationsprozes-
sen auch Fragen der einheitlichen Entlohnung und der einheitlichen Arbeitszeit
zur Diskussion. Fertigungsinseln sind durch ihre konstituierenden Merkmale nur
für bestimmte Aufgaben besonders geeignet. Charakteristika solcher Aufgaben
sind (BÜHNER 2004):
x kleine Losgrößen
x geringe Technologievielfalt
x kurze Planungshorizonte
x kurze Bearbeitungszeiten
x geringe Fertigungstiefe
x Erteilung gleicher Aufträge in unregelmäßigen Zeitabständen
x hoher Automatisierungsgrad.
Betriebs- und Arbeitsorganisation 481
4.4.1.5 One-Piece-FlowĆ
Das Ablaufprinzip des One-Piece-Flow basiert auf dem Just-in-time Prinzip, des-
sen Ursprung im Toyota Produktionssystem (siehe Kap. 4.4.2) liegt. Es hat zum
Ziel, ein Produkt mit der höchst möglichen Qualität, zu niedrigen Kosten, in mög-
lichst kurzer Zeit zu produzieren. Im Idealfall können alle relevanten Zulieferer
synchronisiert und sämtliche Lagerbestände im Produktionsprozess beseitigt wer-
den. Hierfür bedarf es einer flexiblen Fertigung, um kleine Losgrößen zu ermögli-
chen. Beim One-Piece-Flow, der als Einzelstückfließfertigung übersetzt werden
kann, gleicht die mehrstufige Bearbeitung eines Teils einem ununterbrochenen
Fluss mit dem Ziel, einen Produktionsfortschritt mit geringer Varianz zu errei-
chen. Die durchzuführenden Arbeitsschritte folgen dabei direkt aufeinander, ohne
dass eine Zwischenlagerung stattfindet. Ein Teil wird nach seiner Anlieferung in
einem durchgehenden Produktionsfluss von einer Bearbeitungsstation zur nächs-
ten befördert. Auf Puffer zwischen diesen Stationen wird verzichtet. Typischer-
weise sind die Arbeitsstationen in einem U-förmigen Layout angeordnet, so dass
die Wege des Mitarbeiters zwischen der Anfangsstation und der Endstation der
Fertigungsfolge minimiert werden. Leicht verständliche Beispiele für einen One-
Piece-Flow lassen sich in der Montage finden. Ein Beispiel ist in Abb. 4.26 darge-
stellt.
Einzelplatzmontage
p g One-Piece-Flow Klassische Montagelinie
g
3 2 4
2 4 1 2 3 4 5
1 5 5
1
Just-In-Time
Just In Time Menschen und Teamwork Jidoka
- Selektion (Prozessimmanente Qualität an
jeder Arbeitsstation) macht
die richtige Teile in - Entscheidungsfindung nach dem Probleme deutlich
der richtigen Menge Ringi-System
zur richtigen Zeit - automatischer
- gemeinsame Ziele
Produktionsstopp
- Crosstraining
- Andon
- Taktzeit
- Teilung zwischen
Kontinuierliche Verbesserung
g
- kontinuierlicher Fluss Mensch und
Maschine
- PULL-System
- selbstgesteuerte
Eliminierung
- integrierte Logistik Fehlererkennung
nicht werthaltiger Elemente
- Qualitätskontrolle an
- genchi genbutsu jeder Arbeitsstation
- 5W-Methode
(fünfmaliges Fragen nach dem Warum)
- 5W-Methode
- Bewusstsein für Verschwendung
- Problemlösung
Produktionsnivellierung (heijunka)
Stabile und standardisierte Prozesse
Visuelles Management
Philosophie der Toyota-Methode
LIKER (2004) beschreibt 14 Grundprinzipien, die dem TPS zugrunde liegen und
durch deren Einhaltung es erfolgreich eingeführt und betrieben werden kann:
(1) Managemententscheidungen auf eine langfristige Philosophie gründen, selbst
wenn es zu Lasten kurzfristiger Gewinne geht.
(2) Fließende Prozesse schaffen, um Probleme zu Tage zu fördern.
(3) Ein „ziehendes“ Produktionssystem (Pull-System) verwenden, um bedarfsge-
recht zu produzieren und Überproduktion zu vermeiden.
(4) Für eine gleichmäßige Arbeits- und Produktionsauslastung sorgen.
(5) Die Produktion unterbrechen, wenn ein Qualitätsproblem auftritt, so dass die
Qualität sofort wieder sichergestellt werden kann.
484 Arbeitswissenschaft
(6) Die Arbeitsschritte für eine kontinuierliche Verbesserung und eine hohe
Eigenverantwortlichkeit der Arbeitspersonen standardisieren.
(7) Visualisierungstechniken für Produktivität, Fehler etc. nutzen, damit kein
Problem verborgen bleibt.
(8) Ausschließlich zuverlässige, sorgfältig getestete Technologien verwenden,
die die Mitarbeiter und Prozesse unterstützen.
(9) Führungspersonen heranziehen, die die Arbeitsinhalte verstehen, das Kon-
zept „leben“ und es anderen vermitteln können.
(10) Mitarbeiter und Teams entwickeln, die der Firmenphilosophie folgen.
(11) Lieferanten und externe Partner respektieren, fordern und beim Verbesse-
rungsprozess unterstützen.
(12) Selbst ein Bild von der Situation machen, um sie umfassend zu verstehen.
(13) Entscheidungen sorgfältig durch Konsenserzielung treffen und alle Optionen
gründlich abwägen; Entscheidungen schnell umsetzen.
(14) Betriebsweites Lernen durch konsequente Reflektion der Situation und kon-
tinuierliche Verbesserung (sog. Kaizen, siehe Kap. 4.3.4.2).
SPEAR u. BOWEN (1999) verdichten diese 14 Prinzipien zu vier Regeln, die
nach Aussage der Autoren das „Erbgut“ (DNA) des TPS darstellen. Die vier Re-
geln sind wie folgt:
x Regel 1: „Wie Menschen arbeiten“:
Die gesamte Arbeit muss in einem hohen Detaillierungsgrad bzgl. des In-
halts, der Ausführungsreihenfolge, des Timings und des Resultats spezifiziert
werden.
x Regel 2: „Wie Menschen miteinander verbunden sind“:
Jede Kunden-Lieferanten-Beziehung muss direkt sein und es muss ein ein-
deutiger Weg zum Senden von Anfragen und Empfangen von Antworten be-
stehen.
x Regel 3: „Wie die Produktionslinie konstruiert ist“:
Der Weg eines jeden Produkts und Services muss einfach und direkt sein.
x Regel 4: „Wie man sich verbessert“:
Jede Verbesserung muss in Übereinstimmung mit der Philosophie und Me-
thodik unter Anleitung eines Lehrers stattfinden und bereits auf der niedrigs-
ten möglichen Ebene innerhalb der Organisation beginnen.
Die erste Regel definiert, dass jeder Arbeitsschritt exakt spezifiziert werden
muss. Hiermit ist verbunden, dass die Arbeit in kurze Takte unterteilt wird, die
von den Arbeitspersonen exakt eingehalten werden müssen. Jede Arbeitsperson
durchläuft einen ausführlichen Trainingsprozess, bevor sie an der Produktionslinie
zum Einsatz kommt. Aufgrund der sehr genauen Definition der einzelnen Arbeits-
schritte sind Abweichungen vom Plan sofort erkennbar. Wenn ein Arbeitsschritt
nicht in der dafür vorgesehenen Zeit abgeschlossen werden kann, so wird deutlich,
dass die Hypothesen bzgl. des Arbeitsfortschritts falsch waren und entweder der
Prozess neu gestaltet werden muss oder die Arbeitsperson besser oder intensiver
geschult werden muss.
Betriebs- und Arbeitsorganisation 485
Die zweite Regel stellt sicher, dass bei Problemen, Anfragen oder Bestellungen
die Sender und Empfänger klar definiert sind, so dass direkte Kommunikations-
wege bestehen und Schnittstellenverluste minimiert werden. Hierbei ist die gesam-
te Kommunikationskette von der Arbeitsperson an der Produktionslinie bis hin
zum Lieferanten definiert. Auch bei Störungen ist die Kette exakt vorbestimmt.
Die Arbeitspersonen sind angehalten, jedes Produkt- oder Prozessproblem sofort
nach der Entdeckung offen zu kommunizieren. Die für die Problemlösung verant-
wortliche Person ist angehalten, innerhalb einer Taktzeit für eine Lösung des
Problems zu sorgen.
Die dritte Regel beschreibt den Aufbau der Produktionslinie. Jede Produktions-
linie ist so aufgebaut, dass jedes Produkt und jeder Service einen fest definierten
Weg beschreitet, der nicht verändert werden darf. Der Weg ist hierbei möglichst
einfach zu gestalten, Verzweigungen und Iterationen sind nicht vorgesehen. Die
Empfänger der Produkte sind festgelegt, es findet keine Verteilung der Produkte
an die nächste verfügbare Arbeitsperson oder Maschine statt, sondern an eine
bestimmte Arbeitsperson bzw. Maschine. Jedes auftretende Problem zeigt, dass
Veränderungen an der Produktionslinie durchzuführen sind.
Ein weiterer Schlüssel für den Erfolg des TPS ist nach SPEAR u. BOWEN (1999)
die Verbesserungsphilosophie. Jede Verbesserung muss in Übereinstimmung mit
den Prinzipien und Regeln des Produktionssystems unter Anleitung eines erfahre-
nen Lehrers durchgeführt werden. Alle Arbeitspersonen werden in der Anwen-
dung des Vorgehens zur Feststellung von Problemen und zur Lösung der Proble-
me unter Berücksichtigung der ersten drei Regeln geschult. Verbesserungsmaß-
nahmen werden von den direkt beteiligten Personen angeregt und durchgeführt.
Aus arbeitswissenschaftlicher Sicht ist auf der einen Seite kritisch anzumerken,
dass durch z. T. sehr kurze Taktzeiten eine große Monotonie und einseitige Belas-
tung auftreten kann. Die Einflüsse der Arbeitspersonen auf Arbeitsmethode, Ar-
beitsweise, Arbeitsgeschwindigkeit und Arbeitspausen sind stark eingeschränkt
und ermöglichen kaum Spielräume. Es kann auch zu rein ausführenden Arbeits-
aufgaben kommen, da planende und kontrollierende Tätigkeiten meist außerhalb
des Bereichs liegen. Auf der anderen Seite wird durch die hohe Verantwortung für
Verbesserungsmaßnahmen die Identifikation mit der Arbeit gestärkt, und die Ar-
beitspersonen werden in betriebliche Entscheidungen und Verbesserungen einge-
bunden (siehe Kap. 5.5).
Die Entwicklung neuer Produkte und die Gestaltung der notwendigen Prozesse
sind Kernaufgaben von Betrieben. An die Organisation dieser Kernaufgaben wer-
den hohe Anforderungen gestellt. So müssen Produkte und Produktionsprozesse
höchsten Qualitätsansprüchen genügen, gleichzeitig kostengünstig sein sowie
zügig entwickelt werden können, um eine frühe Markteinführung zu gewährleisten
(KABEL 2001; BAUR et al. 1998; DWIVEDI u. SOBOLEWSKI 1990). Insbesondere in
486 Arbeitswissenschaft
mit der Zahl der integrierten Aktivitäten steigt. Können Aktivitäten aufgrund der
nicht mehr beherrschbaren Komplexität nicht integriert werden, sind sie im Sinne
von CE zu parallelisieren. Da parallele Aktivitäten unter Informationsannahmen
begonnen werden, sind diese regelmäßig zu synchronisieren (STAHL 1998). So-
wohl bei der integrierten als auch bei der parallelisierten Ausführung von Aktivi-
täten können Zeitpotenziale gegenüber der sequentiellen Produkt- und Prozesspla-
nung realisiert werden (siehe Abb. 4.28).
1. Konventionelle Produktentwicklung
Koordinations-
Vertrieb Entwicklung Arbeitsv. Fertigung probleme
Produktgestaltung Prozessgestaltung
Pflichten- Vorent- Ent- Kon- Test Pflichten- Grob- Fein- Arbeits- Personal-
heft wicklung wicklung struktion heft planung planung planung planung
2. Concurrent Engineering
Entwicklung Arbeitsv.
Vertrieb
Fertigung
Parallelisierung
Produktgestaltung
Pflichten-
Pflichten Vorent
Vorent- Ent
Ent- Kon
Kon- Test
heft wicklung wicklung struktion
Integration
Prozessgestaltung
Pflichten-
Pfli ht G b
Grob- F i
Fein- A b it
Arbeits- Personal-
P l Verkürzung
heft planung planung planung planung
Abb. 4.28: Vergleich der konventionellen Produkt- und Prozessgestaltung mit dem Ansatz
des Concurrent Engineering
Der Anwendungsbereich der genannten Prinzipien beschränkt sich nicht nur auf
die reine Produktentwicklung und Konstruktion, sondern umfasst alle Aktivitäten
der Prozessgestaltung und schließt dabei auch die Gestaltung des Produktionssys-
tems mit ein (MÜTZE-NIEWÖHNER 2004; CLAUSING 1993). Durch die frühzeitige
Berücksichtigung von Anforderungen aus den der Produktentwicklung nachgela-
gerten Phasen sollen zeit- und kostenintensive Produkt- und Prozessänderungen
vermieden werden. Die daraus resultierenden Zeiteinsparungseffekte führen zu
einer Verkürzung der gesamten Produktentstehungszeit.
Neben Integration und Parallelisierung benennt LAUFENBERG (1996) als drittes
Prinzip von CE die Kompetenzzusammenführung und betont damit stärker die
organisatorische Umsetzung mit Hilfe funktionsübergreifend zusammengesetzter
CE-Teams (siehe Kap. 5.6).
488 Arbeitswissenschaft
4.7 Literatur
sätze waren in den 1980er Jahren das Total Quality Management mit dem darin
enthaltenen Qualitätszirkelkonzept (siehe Kap. 5.8), in den 1990er Jahren das
Lean Management bzw. die Lean Production (schlanke Produktion, IMAI 1992, MIT-
Studie von WOMACK et al. 1990, 1992) mit den so genannten Lean-Gruppen oder
Fertigungsteams (siehe Kap. 5.5) sowie der Ansatz des Kontinuierlichen Verbes-
serungsprozesses (KVP bzw. Kaizen, siehe Kap. 4.3.4.2) mit den gleichnamigen
KVP-Gruppen (siehe Kap. 5.8.4).
Die in diesen und weiteren Organisationskonzepten (siehe z.B. WARNECKE
1992 zur „Fraktalen Fabrik“; WILDEMANN 1988 zur Segmentierung; PICOT et al. 1996
zur Modularisierung; GOLDMANN u.A. 1995 zum „Agilen Unternehmen“; HAMMER u.
CHAMPY 1995 zum Business Reengineering) postulierten Prinzipien, wie Objekt-
bzw. Prozessorientierung, „Verschlankung“ von Strukturen und Prozessen, De-
zentralisierung/Segmentierung, kontinuierliche Verbesserung, Kundenorientierung
usw., wurden (und werden z.T. auch heute noch) intensiv zur Optimierung von
Produktionssystemen, produktionsnahen Dienstleistungsbereichen und der Auf-
tragsabwicklung genutzt. Unter dem Stichwort „Neue Formen der Arbeitsorgani-
sation“ fanden insbesondere in den 1990er Jahren zahlreiche Forschungs- und
Industrieprojekte statt, die ökonomische und human- bzw. mitarbeiterorientierte
Zielkriterien gleichermaßen zu berücksichtigen suchten und zu unterschiedlichen
Realisierungsformen von Gruppenarbeit führten (siehe z.B. ANTONI 1997; KRINGS
u. LUCZAK 1997; LUCZAK u. RUHNAU 1993; LUCZAK u. RUHNAU 1994; METZ
1997; OTZIPKA 1998; RUHNAU 1997; SCHEER u. BULLINGER 1998; ZINK 1995).
Parallel dazu haben sich in der Produktentwicklung abteilungsübergreifende
Projektteams etabliert. So griff die Automobilindustrie in den 1980ern bspw. den
aus der Luftfahrtindustrie bekannten Concurrent Engineering (CE)-Ansatz (siehe
Kap. 4.5) auf und begann sog. CE-Teams (oder auch Simultaneous Engineering
Teams bzw. SE-Teams, siehe Kap. 5.6) in der Produkt- und Prozessentwicklung
einzusetzen. Kurze Innovationszyklen, hohe Produktkomplexität und die Notwen-
digkeit, auch über Standorte und Unternehmensgrenzen hinweg zu kooperieren,
können als Treiber für diese und ähnliche Konzepte genannt werden (siehe
PENNEL u. WINNER 1989 und EVERSHEIM u. SCHUH 2005 zu Concurrent Enginee-
ring; LUCZAK u. EVERSHEIM 1999 und LUCZAK et al. 2001 zu Telekooperation;
KILLICH u. LUCZAK 2003 zu Unternehmenskooperation).
Projektgruppen wurden außerhalb des Entwicklungsbereichs auch schon früher
genutzt, allerdings weniger unter dem Gesichtspunkt einer besseren Effizienz. So
standen vielmehr Aspekte der Beteiligung und Akzeptanz im Vordergrund, wenn
bspw. IT-Systeme eingeführt oder andere komplexe Reorganisationsvorhaben
umgesetzt werden sollten.
Im Hinblick auf die demografischen Entwicklungen in Deutschland
(Kap. 2.2.2.1) erlangen der Erhalt der Arbeits- und Beschäftigungsfähigkeit bis
zum Rentenalter und damit auch Fragen der gesundheitsfördernden Gestaltung
von Arbeitssystemen und -bedingungen eine hohe Priorität. In Systemen zur Be-
trieblichen Gesundheitsförderung (Kap. 8.2) gehören gruppenorientierte Ansätze,
insbesondere Gesundheitszirkel, zu den klassischen Instrumenten. Im Zusammen-
Gruppen- und Teamarbeit 501
Primärorganisation Sekundärorganisation
Management-/Entscheidungsteams
setzt. Die zeitliche Dauer der Zusammenarbeit ist durch die Erreichung vor-
gegebener Ziele oder Zeitspannen befristet.
Bei der Einordnung der Projektgruppen werden Unschärfen der vorgenomme-
nen Kategorisierung deutlich. Projektgruppen können sowohl in einer parallelen
Organisation geführt werden als auch – wie bspw. bei der reinen Projektorganisa-
tion (siehe Kap. 4.2.5) – als eigenständiger Projektbereich in die Primärorganisati-
on integriert sein (siehe auch ANTONI 1994, 1995).
Mit der Abkehr von hierarchie- und funktionsorientierten betrieblichen Organi-
sationsmodellen werden die Übergänge zwischen den Kategorien fließender. Zu
denken ist an Projektteams, die über eine Matrixorganisation in die Gesamtorgani-
sation eingegliedert sind. Als Beispiel können Concurrent Engineering-Teams
genannt werden, in denen Mitarbeiter aus unterschiedlichen Funktionsbereichen
über einen längeren Zeitraum weitgehend eigenverantwortlich die Entwicklung
eines bestimmten Produktes und die Gestaltung der zugehörigen Erstellungspro-
zesse übernehmen. Die Aufgabenstellung wird als Projekt definiert (Kap. 5.6).
In der wissenschaftlichen Literatur finden sich weitere Formen von Gruppenar-
beit, von denen angenommen wird, dass sie aufgrund einzelner, besonders charak-
teristischer Merkmale spezifische Analyseinstrumente und Gestaltungskonzepte
oder zumindest eine explizite Berücksichtigung dieser Merkmale erfordern:
x Managementteams, in denen die Mitglieder gemeinsam die Verantwortung
für die Leistung eines Geschäfts- oder Unternehmensbereiches (oder der Ge-
samtorganisation: sog. Top-Managementteams) tragen. Managementteams
entwickeln Strategien, treffen gemeinsam Entscheidungen, koordinieren und
lenken die Wertschöpfungsprozesse in den ihnen unterstellten Einheiten (sie-
he COHEN u. BAILEY 1997). Managementteams und andere Formen von Ent-
scheidungsteams (z.B. Lenkungsteams) können sowohl eine zeitlich befriste-
te als auch eine kontinuierliche Zusammenarbeit vorsehen (siehe
GEMÜNDEN u. HÖGL 2005).
x Als „virtuelle“ Teams (die schließlich ebenfalls real sind) werden nach
KONRADT u. HERTEL (2002) „flexible Arbeitsgruppen standortverteilter und
ortsunabhängiger Mitarbeiterinnen und Mitarbeiter bezeichnet, die auf der
Grundlage von gemeinsamen Zielen bzw. Arbeitsaufträgen ergebnisorientiert
geschaffen werden und informationstechnisch vernetzt sind“. Kooperation
und Kommunikation erfolgen unter Nutzung von analogen oder digitalen
Medien (siehe LUCZAK u. EVERSHEIM 1999; LUCZAK et al. 2001; SPRINGER
2001). Virtuelle Teams können als spezielle Form von Projektgruppen der 2.
Kategorie zugeordnet werden.
Zur „groben“ Ordnung von Gruppenarbeitsformen respektive Gruppentypen
liegen weitere ein- und mehrdimensionale Klassifizierungsansätze und Typologien
vor, die allerdings alle angesichts der Komplexität und Unschärfe des Betrach-
tungsgegenstandes gewisse Schwächen aufweisen (siehe z.B. ANTONI 1994;
FRIELING u. FREIBOTH 1997; GEMÜNDEN u. HÖGL 2005; KATZENBACH u.
SMITH 1993; MCGRATH 1984; MCGRATH et al. 1996; MOHRMAN et al. 1995;
504 Arbeitswissenschaft
5.4.2.1 VollständigkeitĆ
5.4.2.2 TätigkeitsspielraumĆundĆAutonomieĆ
In den Minimalanforderungen von Gruppenarbeit (siehe Kap. 5.1.1) ist die Forde-
rung nach zeitlichen und inhaltlichen Tätigkeitsspielräumen enthalten. HACKER
(2005) definiert den Tätigkeitsspielraum bzw. die Freiheitsgrade als Möglichkeiten
zu unterschiedlichem auftragsbezogenen Handeln, welche wiederum zwingend
Möglichkeiten zu selbständigen Entscheidungen einschließen. Freiheitsgrade für
selbständige Zielsetzungen betreffen nur Entscheidungsmöglichkeiten mit sinnvol-
len für die eigene Tätigkeit bedeutsamen Vorgehensalternativen. Er unterscheidet
fünf Stufen zur Beurteilung der Freiheitsgrade (ebd.):
(1) Keine Freiheitsgrade für selbständige Zielstellungen oder Vorannahmen
510 Arbeitswissenschaft
Bereiche der
Autonomie erster Ordnung Autonomie höherer Ordnung
Autonomie
Abb 5.2: Rahmenkonzept für kollektive Autonomie (Auszug aus GROTE 1997)
5.4.2.3 MotivationspsychologischeĆKriterienĆ
5.4.2.4 KerndimensionenĆderĆArbeitstätigkeitĆ
Wesentliche Hinweise auf Gestaltungsziele für Gruppenarbeit liefert das von
HACKMAN u. OLDHAM (1975, 1976) entwickelte Job Characteristics Model
(JCM), welches einen Zusammenhang zwischen Aspekten der Arbeitsaufgabe
(sog. Kerndimensionen) und personalen Auswirkungen, wie der Arbeitsmotivation
und der Arbeitszufriedenheit, herstellt (siehe Abb. 5.3).
Danach ergeben sich hohe Arbeitsmotivation, hohe Arbeitsleistung, hohe Ar-
beitszufriedenheit sowie geringe Fluktuation und Fehlzeiten durch die erlebte
Bedeutsamkeit der Arbeit, die übernommene Verantwortung und die Kenntnisse
über das Arbeitsergebnis (HACKMAN u. OLDHAM 1975). Für das Erleben von
Bedeutsamkeit ist es notwendig, dass der Arbeitsplatz Anforderungswechsel bie-
tet, eine Identifikation mit den Aufgaben erfolgen kann und die Aufgaben als
wichtig eingestuft werden. Verantwortung wird erlebbar, wenn die Arbeitsaufgabe
Autonomie ermöglicht. Kenntnisse über Qualität und Quantität des Arbeitsergeb-
nisses werden durch Rückmeldungen durch die Arbeit selbst vermittelt, bspw.
infolge von arbeitsplatzspezifischen, geschlossenen „Regelkreisen“.
Den durch die Kerndimensionen postulierten Anforderungen an eine motivati-
onsfördernde Aufgabengestaltung kann mit Gruppenarbeitskonzepten sehr gut
entsprochen werden (KLEINBECK 1997). Eine besondere Bedeutung kommt dabei
dem Bedürfnis nach persönlicher Entfaltung (Moderatorvariable) zu, da diese ein
Bindeglied zwischen Arbeitsplatzmerkmalen und deren Auswirkungen darstellt
Gruppen- und Teamarbeit 513
(siehe hierzu auch GRAP 1992). Voraussetzung für die positive Ergebnisausprägung
ist die Akzeptanz der Merkmale, was sowohl für einen beteiligungsorientierten
Ansatz zur Einführung als auch für die Nutzung von Zielvereinbarungen im Rah-
men von Gruppenarbeit spricht (SCHUMANN 1995). HACKMAN u. OLDHAM
(1980) haben das Modell später um Variablen erweitert (siehe ausführliche Darstel-
lung in KAMRAD 2005). Insbesondere wurden als Moderatorvariablen die Qualifi-
kation der Arbeitspersonen (Wissen und Fähigkeiten) sowie die sog.
„Kontextsatisfaktoren“ Arbeitsplatzsicherheit, Bezahlung, soziales Klima und
Vorgesetztenverhalten ergänzt.
Moderierende Variable
Bedürfnis nach persönlicher Entfaltung
Es sei darauf hingewiesen, dass das Modell von Hackman nicht unumstritten
ist. Die Kritik bezieht sich u.A. auf die ursprüngliche Berechnungsformel für das
Motivationspotenzial einer Tätigkeit und auf die im Modell enthaltenen Mediato-
ren (siehe z.B. FRIED u. FERRIS 1987; SIMS et al. 1976). In Meta-Analysen konnte
zum Teil gezeigt werden, dass die Kerndimensionen nicht mediiert werden, son-
dern direkt auf die Ergebnisse wirken (siehe FRIED u. FERRIS 1987; ALGERA
1990). Hinsichtlich der moderierenden Wirkung der Variable „Bedürfnis nach
persönlicher Entfaltung“ ist die Befundlage inkonsistent (KAMRAD 2005).
MORGESON u. HUMPHREY (2008) haben jüngst ein Modell zur integrativen Ar-
beitsgestaltung („integrativ“ bedeutet für die Gestaltung von Tätigkeiten für Indi-
viduen und Gruppen) vorgelegt, in dem sich u.A. auch die Aufgabenmerkmale
von HACKMAN u. OLDHAM wiederfinden. In seinem normativen Modell zur
Gruppeneffektivität überträgt HACKMAN (1987) die Kerndimensionen ebenfalls
auf die Gruppensituation (siehe Kap. 5.4.2.4).
Aus der soziotechnischen Systemtheorie stammt der Begriff der Aufgabenori-
entierung („task orientation“, EMERY 1959; zum soziotechnischen Systemansatz, siehe
514 Arbeitswissenschaft
Lernerfolg) unterschieden. So auch bei GEMÜNDEN u. HÖGL (2000), die die Leis-
tung von Teams durch die Dimensionen Effektivität (Grad der Zielerreichung) und
Effizienz (günstige Ausnutzung der eingesetzten Mittel) beschreiben.
Das Input-Prozess-Output-Modell (IPO-Modell) zur Analyse von Gruppenver-
halten und -leistung (group performance) von MCGRATH (1964) hat die Forschung
zur Gruppeneffektivität stark beeinflusst und liegt auch heute noch vielen Studien
zugrunde (NIELSEN et al. 2005). Die Grundannahme besteht darin, dass Inputfakto-
ren die in der Gruppe ablaufenden Interaktionsprozesse beeinflussen, welche dann
wiederum die Gruppenergebnisse (Outputs bzw. Outcomes) beeinflussen. Input-
faktoren werden auf drei Ebenen unterschieden (MCGRATH 1964):
(1) Individuelle Ebene, z.B. Kenntnisse, Fähigkeiten und Fertigkeiten, Einstel-
lungen, Persönlichkeitsmerkmale der Gruppenmitglieder
(2) Gruppenebene, z.B. Zusammensetzung, Gruppengröße, Gruppenkohäsion
(3) Umgebungsebene, z.B. Charakteristik der Gruppenaufgabe, Belohnungssys-
teme, Belastung durch Umgebungseinflüsse („level of environmental
stress“).
Auf der Output-Seite werden leistungs- bzw. aufgabenbezogene Ergebnisse
(Qualität, Geschwindigkeit, Fehlerhäufigkeit) und andere Ergebnisse („other
outcomes“), wie z.B. Gruppenkohäsion, Arbeitszufriedenheit und Einstellungsän-
derungen differenziert.
Eine viel beachtete Weiterentwicklung des Modells lieferte HACKMAN (1983,
1987) mit seinem normativen Modell der Gruppeneffektivität, in welchem er die
Erkenntnisse der langjährigen Forschung zum „job design“ und zur Gruppenge-
staltung zusammenführt (siehe z.B. HACKMAN u. MORRIS 1975; HACKMAN u.
OLDHAM 1980), siehe Abb. 5.4.
In Hackmans Modell wird die Gruppeneffektivität aus der „Kunden“- (auch
Führungskräfte, Management), der Gruppen- und der Perspektive der einzelnen
Gruppenmitglieder beurteilt. Die Effektivität der Gruppe im Prozess der Aufga-
bendurchführung wird primär dadurch bestimmt, inwieweit sich die Gruppenmit-
glieder kollektiv anstrengen, welches Wissen und welche Fertigkeiten sie einbrin-
gen und wie angemessen die Strategien der Gruppe zur Aufgabenbearbeitung sind
(ANTONI 2007). Diese Variablen werden durch Faktoren des organisatonalen
Umfelds und der Gruppengestaltung (Inputfaktoren) beeinflusst. Die Gruppensy-
nergie moderiert diesen Zusammenhang. Dabei liegt nach HACKMAN (1987) posi-
tive Gruppensynergie vor, wenn die Synergiegewinne durch die Gruppeninterakti-
on größer sind als die Prozessverluste. Positive Gruppensynergie kann der Gruppe
bspw. helfen negative Umfeldbedingungen (z.B. Mängel in der Aufgabenstellung)
zu überwinden.
518
Übersetzung)
Materielle Ressourcen
Verfügbarkeit, der für die
Aufgabenerledigung, notwendigen
Organisationaler Kontext materiellen Ressourcen
Abb. 5.4: Das normative Modell der Gruppeneffektivität von HACKMAN (1987, eigene
Arbeitswissenschaft
Gruppen- und Teamarbeit 519
Teamgestaltung
Als Gestaltungskriterien für die Aufgabenstruktur, als eine wesentliche Variable
des Gruppendesigns, führt Hackman (ebd.) erneut die Kerndimensionen des Job
Characteristics Models (Anforderungsvielfalt, Aufgabenvollständigkeit und
-bedeutsamkeit, Autonomie und Rückmeldung, siehe Kap. 5.4.2.4) an und über-
trägt diese damit auf den Gruppenkontext.
Sowohl bei Hackman als auch in anderen Quellen finden sich nur vage Emp-
fehlungen zur Gruppengröße („The group is just large enough to do the work“;
ebd.). Als Untergrenze werden meist drei Personen angegeben, als Obergrenze für
Produktionsgruppen bspw. 15 (siehe METZ 1997). Nach NERDINGER et al. (2008)
laufen Kommunikations- und Abstimmungsprozesse am besten in Gruppen mit
fünf bis sechs Mitgliedern ab. Es herrscht allerdings weitgehend Einigkeit darüber,
dass die „optimale“ Gruppengröße letztlich von der Art der Aufgabe abhängt.
Bezüglich der Auswirkungen von Homogenität bzw. Heterogenität eines Teams
liegen bislang inkonsistente Ergebnisse vor (ANTONI 2007). In einer Meta-
Analyse (93 Studien) fand STEWART (2006) keine nennenswerten Zusammenhän-
ge zwischen der Heterogenität und der Teamleistung (dies gilt ebenso für die
Gruppengröße). Er verweist jedoch auf weiteren Forschungsbedarf (siehe auch
WEGGE 2003). ROTH et al. (2006) konnten in einer neueren Studie Leistungsvortei-
le altersheterogener Teams bei komplexen Aufgaben in der öffentlichen Verwal-
tung nachweisen.
STEWART (2006) stellte in seiner Analyse insbesondere für folgende Variablen
des Teamdesigns einen positiven Zusammenhang zur Teamleistung fest:
x Personenmerkmale, dabei stärker für kognitive Fähigkeiten als für Expertise
(inkonsistente Ergebnisse für Persönlichkeitsmerkmale)
x Aufgabenmerkmale:
o Autonomie, dabei (überraschend) stärker für Teams die vorwiegend geis-
tige Arbeit (Wissensarbeit) leisten, als für Teams, die hauptsächlich
Muskelarbeit bzw. ausführende Tätigkeiten erbringen,
o teaminterne Koordination, dabei stärker für Wissensarbeit.
520 Arbeitswissenschaft
der. Auch STEWART (2006) fand in der bereits oben zitierten Meta-Studie einen
positiven Zusammenhang zur Teamleistung für die Variable Führungsverhalten,
dabei insbesondere für transformationale Führung und „empowering leadership“
(letzteres im Sinne von „to lead others to lead themselves“, das Team zur Selbst-
regulation/Eigenverantwortlichkeit befähigen bzw. dabei zu unterstützen).
Nach Auswertung eigener und fremder Studien benennt WEGGE (2004) eine
ganze Reihe von potenziellen Prozessgewinnen und -verlusten als Ansatzpunkte
für eine erfolgreiche, leistungsfördernde Führung von Arbeitsgruppen (unter
„Führung“ versteht Wegge dabei ein komplexes Managementsystem und nicht
ausschließlich eine einzelne gruppeninterne oder -externe Führungskraft). Pro-
zessgewinne können als potenzielle Leistungsvorteile von Gruppenarbeitsprozes-
sen gegenüber Einzelarbeitsprozessen (bei gleicher Anzahl von Personen) inter-
pretiert werden, Prozessverluste entsprechend als potenzielle Leistungsnachteile.
Nach WEGGE (2004) können Prozessgewinne insbesondere durch eine günstige
Arbeitsteilung in Gruppen, durch eine höhere Arbeitsmotivation oder in Form von
Synergieeffekten bei der Informationsverarbeitung entstehen. SCHULZ-HARDT et
al. (2007), HERTEL u. BRODBECK (2007) differenzieren in motivations-, fertigkeits-
und koordinationsbezogene Gruppenprozesse. Tabelle 5.2 fasst Beispiele aus
beiden Ansätzen zusammen.
SCHULZ-HARDT et al. (2007) formulieren drei Managementprinzipien zur För-
derung von Gruppenleistung:
(1) Gruppenzusammensetzung: Zusammensetzung der Gruppe in Abhängigkeit
der Aufgabenstruktur
(2) Gruppensynchronisierung: Maßnahmen, die die kollektive Generierung,
Veränderung und Integration der individuellen Beiträge der Gruppenmitglie-
der fördern, z.B. zeitnahes Feedback über die Leistung der anderen Grup-
penmitglieder im Vergleich zur eigenen Leistung
(3) Gruppenlernen: Gruppen sollten über einen längeren Zeitraum hinweg struk-
turähnliche Aufgaben bearbeiten, damit gruppenbezogenes Lernen stattfin-
den kann.
Sie betonen in ihrem Modell die Aufgabenstruktur als entscheidende Variable,
die den Einfluss der genannten Prinzipien (im Sinne von Stellgrößen) auf die
leistungsrelevanten Prozesse (individuelle Motivation in der Gruppe, individuelle
Fertigkeiten in der Gruppe, Koordination in der Gruppe) moderiert (siehe ebd.).
Sie stellen damit generelle Empfehlungen für die genannten Stellgrößen (bspw. im
Sinne einer „optimalen“ Zusammensetzung für jede Art von Gruppenaufgabe)
grundsätzlich in Frage.
Verschiedene Varianten von Teameffektivitätsmodellen wurden auch von der
Forschergruppe um Salas entwickelt (siehe SALAS et al. 1992), von denen eine in
Abb. 5.5 visualisiert ist. Darin werden konkrete Variablen benannt, wobei die
Entwickler explizit keinen Anspruch auf Vollständigkeit erheben (TANNENBAUM
et al. 1992). Charakteristisch an diesem Modell sind die starke Betonung des
Teamumfelds, die Berücksichtigung von nicht – zumindest nicht kurzfristig –
522 Arbeitswissenschaft
Beobachtungslernen Missverständnisse
Informationsverarbeitung /
Diese und ähnliche Modelle dienen als Bezugsrahmen für empirische Studien,
die sich meist auf einen reduzierten Variablensatz beziehen (Modellübersichten
und –auswertungen in Bezug auf bestimmte Einsatzkontexte finden sich u.A. in
NIELSEN et al. 2005; ESSENS et al. 2005; HÖGL u. GEMÜNDEN 2005; KABEL 2001).
Als ein empirisch überprüftes, spezifisches Modell soll das Modell von HÖGL
(1998) vorgestellt werden, welches die Determinanten und Wirkungen der Team-
arbeit in „innovativen Projekten“ beschreibt. In einer Studie von 145 Software-
entwicklungsteams (sog. „Innovationsteams“) wurden die Kausalannahmen pfad-
analytisch getestet, siehe Abb. 5.6.
Teambesetzung
Soziale Kompetenz Leistung
Methodische Kompetenz
Effektivität
Präferenz für Teamarbeit Qualität der Teamarbeit
Effizienz
Homogenität, Wissens- Kommunikation
und Fähigkeitsstand Aufgabenkoordination
Ausgewogenheit der Beiträge
Teamführung Gegenseitige Unterstützung Potenzial für zu-
Zielqualität Arbeitsnormen (Engagement) künftige Teamarbeit
Teamziel-Commitment Kohäsion Arbeitszufriedenheit
Feedback Lernerfolg
Gleichberechtigung
Abb. 5.6: Teammodell für „innovative Projekte“ nach HÖGL u. GEMÜNDEN (2000)
eigene Darstellung
ves Feedback zu geben. („kollektiv verpflichtend“ meint hier: keine Teilziele für
einzelne Teammitglieder). Als Führungsmodell schlagen sie ein Modell der team-
internen Gleichberechtigung vor, in dem der Projektleiter Entscheidungsmacht
teilt und die Teammitglieder sich aktiv an Entscheidungen beteiligen.
Von KABEL (2001) wurde speziell für Concurrent Engineering-Teams ein
Teammodell entwickelt, in einem Instrumenten-Set zur Teameffektivitätsanalyse
operationalisiert und in 10 Entwicklungsprojekten erprobt. In einer Fallstudie
wurden die erhobenen Daten zum Vergleich mit anderen Teams herangezogen und
gezielt für die Ableitung von Verbesserungspotenzialen und leistungssteigernden
Interventionen genutzt (siehe LUCZAK et al. 2003).
begrüßen deshalb, dass in den letzten Jahren die Formulierung und empirische
Prüfung von spezifischen Teammodellen für bestimmte Gruppenarbeitsformen
zugenommen hat.
Aus arbeitswissenschaftlicher Sicht besteht insbesondere auch Bedarf nach ei-
ner stärkeren Berücksichtigung von Faktoren, die die Belastungssituation respek-
tive die Beanspruchung von Teammitgliedern betreffen. So könnte als weitere
Ergebnisdimension bspw. der Erhalt bzw. die Förderung der Gesundheit beurteilt
werden.
führung teilautonomer Gruppen erfordert daher nicht nur die Einrichtung selbstre-
gulierender, relativ unabhängiger Arbeitsgruppen, sondern eine gleichzeitige An-
passung des technischen Systems (vgl. ROHMERT u. WEG 1976; ANTONI 1994;
ULICH, CONRAD-BETSCHART u. BAITSCH 1989).
Ziel ist die Erlangung von technischer und arbeitsorganisatorischer Teilauto-
nomie. Dabei können teilautonome Gruppen mit unterschiedlichen Konfiguratio-
nen der Produktionstechnik realisiert werden, wobei aber die Abkehr von einer
taktgebundenen Fließ(band)fertigung als konstituierendes Merkmal von teilauto-
nomen Gruppen zu sehen ist. Typische technisch-organisatorische Gestaltungsva-
rianten der teilautonomen Gruppenarbeit sind Fertigungs- und Produktinseln (sie-
he Kap. 4.4.1.4). Als Beispiel für eine Montageinsel kann die Produktion des Audi
R8 in Neckarsulm genannt werden (siehe AUDI GESCHÄFTSBERICHT 2006).
Zur Illustration teilautonomer Arbeitsgruppen soll das nachfolgende Beispiel
dienen (KRINGS u. LUCZAK 1997). Das Projekt wurde in einem Unternehmen der
Vakuumtechnik durchgeführt. Vorrangige Ziele des Unternehmens waren die
Verringerung der Durchlaufzeit und die Erhöhung der Produktqualität. Diese Ziele
wurden durch Veränderungen in den folgenden Bereichen erreicht:
Das Prinzip der Werkstättenfertigung wurde abgelöst durch die Einrichtung von
Fertigungs- und Montageinseln. Das bedeutete u.A. umfassende Veränderungen
der Betriebsmittelanordnung, der Materialflussgestaltung etc. Die bisherige starre
Arbeitsteilung wurde aufgehoben. In die Inseln wurden Prüf-, Qualitäts-
sicherungs-, Materialtransport- sowie Reparatur- und Instandhaltungsaufgaben
integriert. Den Arbeitsgruppen in den Inseln wurden außerdem planende und steu-
ernde Aufgaben übertragen. Die Gruppenmitglieder erhielten auf diese Weise
attraktivere, abwechslungsreichere und anspruchsvollere Tätigkeiten mit erweiter-
ten Handlungs- und Entscheidungsspielräumen. Die Aufgabenintegration ging mit
einer Verflachung der betrieblichen Hierarchien einher. Umfangreiche Qualifizie-
rungsmaßnahmen trugen zur Förderung der fachlichen, methodischen und sozialen
Kompetenz der Mitarbeiter bei. Wesentliches Merkmal des Konzepts war die
immanente Qualifizierung durch Beteiligung an der Projektarbeit (Kap. 5.9.1).
Hier wurde mit motivations- und aktivitätsfördernden Methoden gearbeitet, die
eine permanente Beteiligung der Mitarbeiter und Führungskräfte an betrieblichen
Fragestellungen auch nach Beendigung des Projekts zum Ziel hatten. Als augen-
fälligstes Resultat konnte die ursprüngliche Gesamtdurchlaufzeit von 12 Wochen
auf 14 Tage reduziert werden. Bei der Evaluation konnten positive Effekte in
Bezug auf die Arbeitszufriedenheit und die intrinsische Arbeitsmotivation nach-
gewiesen werden.
(siehe LIKER 2004). Es sei hier auf Kapitel 4.4.2 verwiesen, in dem die Prinzipien
des Toyota Produktionssystem vorgestellt werden.
Auch Lean-Gruppen sind auf eine dauerhafte Zusammenarbeit angelegt und als
Organisationseinheit in die reguläre Arbeitsorganisation eingebunden. Wesentli-
ches Kennzeichen ist allerdings – im Vergleich zur teilautonomen Gruppe – die
Beibehaltung des Fließprinzips, oft verbunden mit geringen Taktzeiten, die sich an
einem Schrittmacherprozess orientieren. Lean-Gruppen beschreiben damit eine
Form der Gruppenarbeit im Sukzessivverband (siehe Kap. 5.1.1). Die Möglichkei-
ten zur auftragsbedingten Kooperation sind eingeschränkt.
Lean-Gruppen verfügen darüber hinaus über geringere Entscheidungsspielräu-
me (siehe KRINGS u. LUCZAK 1997; METZ 1997; ANTONI 2007). Sie sind verant-
wortlich für einen bestimmten Prozessabschnitt. Die Integration indirekter Funkti-
onen beschränkt sich auf produktionsnahe Tätigkeiten (z.B. Qualitätssicherung
und Störungsbehebung), ohne dispositive oder Vorgesetztenfunktionen einzube-
ziehen. Abb. 5.7 zeigt beispielhaft die Aufgabenprofile einer teilautonomen Ar-
beitsgruppe und einer Lean-Gruppe in indirekten Produktionsbereichen.
Führung Fertigungs-
Zielvereinbarung
steuerung
Personal- Feedback
Arbeits-
Arbeits
Programm-
P
management planung vorbereitung
Koordination
Personalein- Ablaufplanung
stellungen Arbeitseinteilung
Urlaubsplanung
Feinplanung KVP
Mitsprache bei Prozess-
Gruppen- optimierung
mitgliedern Teilautonome Arbeitsgruppe
Instandhaltung Neuplanung
Zentralwerkstatt Audit Serienplanung
Lager
Prüfplanung Planung
Instandhaltung Logistikplanung
Qualitäts
Qualitäts-
Logistik sicherung
5.5.4 Diskussion
Verschiedene Studien sowie insbesondere Praxisberichte zeigen, dass mit der
Einführung von Gruppenarbeit in der Produktion sowohl erhebliche ökonomische
als auch mitarbeiterbezogene Verbesserungen erzielt werden können (siehe
BASZENSKI 2002; BEEKUN 1989; FRIELING u. BUCH 1998; JÖNS 2008a; LAY et al.
1996; LUCZAK et al. 1991; SALM 2008; SCHUMANN u. GERST 1997; WEBER 1997,
1999; WINDEL u. ZIMOLONG 1998; siehe auch kritische Diskussion in ANTONI
1997). Dabei erwiesen sich in einigen Studien teilautonome Gruppenarbeitsformen
den restriktiveren Gruppenarbeitsformen, zu denen die Lean-Gruppen gezählt
werden, als überlegen (siehe z.B. WINDEL u. ZIMOLONG 1998; SCHUMANN u.
GERST 1997). Nach DÖRICH (2008) weist auch eine neuere Studie des Instituts für
angewandte Arbeitswissenschaft (IfaA) zur Nutzung und Umsetzung von (ganz-
heitlichen) Produktionssystemen (siehe NEUHAUS 2008, Befragung von 38 deutschen
Unternehmen in den Jahren 2003-2005) darauf hin, dass mit Gruppenarbeit sowohl
eine Verbesserung der Wirtschaftlichkeit als auch eine Steigerung der Zufrieden-
heit und der Motivation der Beschäftigten erzielt werden können. Eine
Favorisierung eines der beiden Gruppenarbeitskonzepte lässt sich aus den Ergeb-
532 Arbeitswissenschaft
nissen dieser Studie allerdings nicht ableiten (DÖRICH 2008). Positive Zusammen-
hänge zwischen wirtschaftlichen Zielgrößen und einer fortgeschrittenen Aufga-
benintegration - als Merkmal teilautonomer, qualifizierter Gruppenarbeit - konn-
ten LAY u. MALOCA (2005) auf der Basis der Produktionsinnovationserhebung
2003 (1450 Unternehmen) des Fraunhofer-Instituts für System- und Innovations-
forschung in Karlsruhe nachweisen: Die Integration der Qualitätssicherung in das
Aufgabenspektrum der Produktionsmitarbeiter führte zu niedrigeren Ausschuss-
quoten (im Vergleich zur Qualitätssicherung durch Einrichter, Meister oder zen-
tralisierte Spezialisten), die Verlagerung der Auftragsfeindisposition auf die
Werkerebene ging mit deutlich niedrigeren Auftragsdurchlaufzeiten einher (im
Vergleich zur Feinplanung durch Einrichter, Meister oder zentralisierte Spezialis-
ten).
Angesichts der größeren Freiheitsgrade und Entscheidungskompetenzen sowie
der vielfältigeren und anspruchsvolleren Aufgaben bietet die Arbeit in teilautono-
men Gruppen größere Potenziale in Bezug auf die Erfüllung der Anforderungen,
die an lern-, motivations- und gesundheitsfördernde Tätigkeiten gestellt werden
(siehe Kap. 5.4.2.4).
Weit entwickelte Formen von teilautonomer Gruppenarbeit sind in der Industrie
relativ selten zu finden. So stellten KINKEL et al. (2008) fest, dass sich lediglich
12% der Gruppenarbeit nutzenden Unternehmen auf Konzepte stützen, die durch
einen hohen Grad an Selbstverantwortung und polyvalenter Qualifikation der
Mitarbeiter gekennzeichnet sind. KINKEL et al. (ebd.) sehen damit Verbesserungs-
potenziale im Hinblick auf Flexibilität und Wandlungsfähigkeit verschenkt.
Die Einführung von Gruppenarbeit führt je nach Ausgangssituation zu großen
Veränderungen und gerade zu Beginn zu hohen Aufwänden (z.B. bzgl. Fabriklay-
out, Materialfluss, Arbeitssystemgestaltung, Qualifizierung), die sich erst deutlich
später amortisieren. Job Rotation und die zusätzlichen Weiterbildungen führen zu
einer Höherqualifizierung der Beschäftigten, die sich in einem Anstieg der direk-
ten Kosten niederschlagen kann. Dies sind Gründe, die Unternehmen ggf. zögern
oder „auf halbem Wege“ stehen bleiben lassen, nämlich dann, wenn sie bei rest-
riktiveren Formen angelangt sind (KRINGS u. LUCZAK 1997; WIMMER u.
STAWOWY 1999). Für das Scheitern von Gruppenarbeitsprojekten werden in der
einschlägigen Literatur zahlreiche weitere Gründe genannt (siehe Kap. 5.4.3 und
Kap. 5.9.1). Ein Risiko der teilautonomen Gruppenarbeit tritt bspw. dann auf,
wenn die für die Gruppe erforderlichen Rahmenbedingungen (z.B. Zeitfreiräume,
Qualifizierung) zur Durchführung der indirekten und gruppenbezogenen Aufga-
ben nicht geschaffen werden. Es kann dann zu einer Überforderung der Arbeits-
gruppe, erhöhtem Zeitdruck und in der Folge zu einer hohen Beanspruchung der
Gruppenmitglieder kommen, die die Leistungsfähigkeit der Gruppe und die Zu-
friedenheit der Gruppenmitglieder vermindert. SPRINGER (1996) fordert am Bei-
spiel der Automobilindustrie eine stärkere Berücksichtigung der produkt- und
produktionstechnologischen Randbedingungen: Während (teil-)automatisierte
Arbeitssysteme günstige Bedingungen für Gruppenarbeit bieten (z.B. zahlreiche
anspruchsvolle Aufgaben im Produktionsumfeld, die integriert werden können),
Gruppen- und Teamarbeit 533
Das Konzept ist jedoch auch auf Verwaltungs- oder andere Dienstleistungsberei-
che übertragbar. Ein Beispiel hierfür stellt das Planungsinselkonzept dar (siehe
Kap. 5.7).
Charakteristisch für Teams in der Entwicklung sind eine als Projekt definierte,
zeitlich begrenzte Aufgabenstellung und eine abteilungs- bzw. funktionsübergrei-
fende Teamzusammensetzung – stellenweise auch unter Einbeziehung von Kun-
den und Lieferanten. Stellvertretend für Organisationskonzepte, die entsprechende
Teamstrukturen vorsehen und speziell auf die für die Produkt- und Prozessgestal-
tung geltenden Zielsetzungen ausgerichtet sind, wurde in Kapitel 4.5 das Konzept
des Concurrent Engineering (CE) bereits eingeführt, auf welches hier Bezug ge-
nommen wird.
Teilautonome Arbeitsgruppe
Auflösung nach
Projektende
CE-Team
CE Team
Auftrag/Projekt Bewegung
Mitarbeiter/in Auftrags-/Projektende Beziehungen
Produktstruktur
Projektstruktur
Fahrzeug
Leitungsebene
Front-End Antrieb
Team Team
Management Design
Scheinwerfer Frontklappe Stoßfänger Getriebe
5.6.5 Diskussion
Die Effizienzvorteile von Concurrent Engineering werden in Kapitel 4.5 disku-
tiert. Durch die CE-Teamstruktur kann die bereichsübergreifende Zusammenarbeit
verbessert werden, das Know-how anderer Bereiche fließt früher in das Projekt ein
und es treten weniger Informationsverluste bei der Übergabe von Arbeitsergebnis-
sen zwischen den beteiligten Bereichen auf (SEIBERT 2006). Die enge Zusammen-
arbeit mit Anderen verlangt von den Teammitgliedern außer der fachlichen Kom-
petenz auch affektive Qualifikationen wie Sozialkompetenz, Kommunikationsfä-
higkeit usw. Die sequentielle Arbeitsweise ist dagegen leichter koordinierbar und
verlangt im Wesentlichen eine hohe fachliche Kompetenz.
Durch die Befriedigung individueller und sozialer Bedürfnisse der beteiligten
Arbeitspersonen ermöglicht der Teamansatz im CE nicht nur die Erfüllung wirt-
schaftlicher, sondern auch personenorientierter Ziele (KABEL 2001, s. o.). Voraus-
setzung ist allerdings, dass bei der Gestaltung der Teamarbeit die Anforderungen
an die menschengerechte Arbeitsgestaltung berücksichtigt und insbesondere die
Einhaltung von Kriterien der Beeinträchtigungsfreiheit und der Persönlichkeitsent-
faltung im Prozess überprüft wird.
Die Auswirkungen von CE auf das Individuum wurden bislang kaum unter-
sucht (siehe KABEL 2007). Fallstudien weisen darauf hin, dass Fehlbeanspruchung
in CE-Projekten i.d.R. als Folge von Überforderung auftreten. Unterforderung
spielt angesichts der meist knappen Personalressourcen im Entwicklungsbereich
und der steigenden Produktkomplexität und Variantenvielfalt – wenn überhaupt -
eine untergeordnete Rolle (LUCZAK u. KABEL 2005). Psychische Belastungsfakto-
ren treten in CE-Projekten in Form von Zeitdruck, Unsicherheit, Konflikten u.v.m.
auf und können sich u.U. negativ auf die Leistungsfähigkeit, die Motivation, die
Arbeitszufriedenheit oder auf die Gesundheit auswirken. In Bezug auf die ar-
beitswissenschaftliche Analyse, Bewertung und Gestaltung von Teamarbeit in der
Produkt- und Prozessentwicklung muss ein Forschungsbedarf festgestellt werden.
Es herrscht nach wie vor ein Mangel an validen Instrumenten, die für diesen spe-
ziellen Einsatzkontext geeignet sind, respektive an entsprechenden Studien, die
540 Arbeitswissenschaft
Zentralabteilungen
Vertrieb Einkauf Controlling Entwicklung
• Marketing • Preis- • strategische • Produkt-
• strategische verhandlung Kontrolle innovation
Verkaufs-
f • Vertrags- • Kennzahlen- • Neukonstruk-
planung gestaltung aufbereitung tion
•… •… •… •…
Normung
• Standard- • Anfragenbewertung
Verkauf • Angebotsbearbeitung
sierung
• Auftragsklärung
•… Planung • Auftragsplanung
• Auftragskalkulation
Personal • Angebotskonstruktion
• Bedarfsermittlung
• Personal- • Lieferantenauswahl
entwicklung • Produktionsplanung
• Prozess- • Auftragsüberwachung
• Versandabwicklung
begleitung Konstruktion • Erfolgskontrolle
•… Beschaffung • ...
Planungsinsel
5.7.3 Gestaltungsvarianten
Unternehmensspezifische Randbedingungen erfordern unterschiedliche Gestal-
tungsvarianten von Planungsinseln. In Abhängigkeit von Absatz- und Beschaf-
fungsmarktsituation sowie der Komplexität des Produktes lassen sich ver-
schiedene Planungsinselformen unterscheiden (siehe Abb. 5.11), wie bspw. die
Projektierungsinsel, die Auftragsinsel, die Logistikinsel oder die Vertriebsinsel.
Sie sind durch unterschiedliche Grade der funktionalen Integration geprägt.
Arbeitssteuerung (grob)
V
Versand
d
5.7.4 Diskussion
Die Vorteile des Planungsinselkonzeptes liegen in der durchgängigen Kundenori-
entierung, einem hohen und frühzeitigen Reaktionspotential infolge stark verbes-
serter Kommunikation, Kooperation und Transparenz und der Vermeidung von
Schnittstellenverlusten (OTZIPKA 1998, FUHRBERG-BAUMANN et al. 1992). Infol-
ge der hohen räumlichen Nähe durch ein gemeinsames „Insel-Büro“ können
„Bürokratismen“ und „Egoismen“ durch dynamische Gruppeneffekte einge-
schränkt werden (OTZIPKA 1998).
Rückfragen lassen sich schneller und einfacher klären, während die Entstehung
schwerwiegender Mißverständnisse bei gelebter Gruppenarbeit zurückgeht. Das
Zusammenwirken unterschiedlicher Know-how-Träger verschiedener Fachdiszip-
linen ermöglicht Synergieeffekte.
Durch ganzheitlich definierte Aufgaben- und Verantwortungsbereiche, können
Engpässe im Prozess der Leistungserstellung erkannt und die kunden- und markt-
gerechte Ausgestaltung der Wertschöpfungskette forciert werden. Hiermit verbun-
den ist eine Minimierung und Vermeidung indirekter und nicht wertschöpfender
Tätigkeiten sowie eine Verbesserung der Prozessbeherrschung und -sicherheit.
Problematisch können eine ungleichmäßige Auslastung der Mitarbeiter der
Planungsinsel bei heterogenem Qualifikationsprofil, Personal- und Know-how-
Engpässe in anderen Unternehmensbereichen bei geringer Gesamtpersonalstärke
Gruppen- und Teamarbeit 545
und eine nicht an die Belange der Team- und Prozessorientierung angepasste Un-
ternehmensstrategie, Entscheidungs- und Kontrollmechanismen sein.
Fehlende Privatsphäre und Rückzugsmöglichkeiten für konzentriertes Arbeiten
infolge nicht ergonomischer Büroraumgestaltung können zu Beeinträchtigungen
oder sozialen Spannungen innerhalb der Planungsinsel führen. Auch kann eine
dem Sinn von Selbstorganisation zuwiderlaufende zentrale Leitstelle zur Koordi-
nation mehrerer Planungsinseln bei konkurrierendem Zugriff auf betriebliche
Ressourcen (Fertigungs-, Montage-, Inbetriebnahmekapazitäten) erforderlich sein
(OTZIPKA 1998).
x Die Gruppe ist für die gesamte Problembearbeitung zuständig, d.h. von der
Identifizierung von Problemen und Schwachstellen, über die Erarbeitung von
Lösungsansätzen bis hin zur Umsetzung im Rahmen ihrer Möglichkeiten.
x Die Zirkelarbeit wird moderiert durch einen ausgebildeten Moderator; diese
Rolle übernimmt häufig der direkte Vorgesetzte oder ein Teammitglied (z.T.
auch im Wechsel).
x Die Gruppensitzungen finden regelmäßig statt.
x Qualitätszirkelsitzungen finden während der Arbeitszeit statt und werden
normal vergütet; bei der Arbeit in Schichtsystemen handelt es sich allerdings
häufig um eine bezahlte Überstunde, vor oder nach Schichtbeginn. Die ge-
wählten Themenstellungen können sich z.B. auf die Arbeitsplatzgestaltung,
die Arbeitsabläufe, die eingesetzten Arbeitsmittel, die Informations- oder die
Kommunikationsqualität beziehen. Reicht das Fachwissen für sachgerechte
Lösungsansätze nicht aus, so können die zuständigen Spezialisten aus den
Fachabteilungen zu Rate gezogen werden.
LIKER u. MEIER (2007) betonen neben den genannten Merkmalen folgende As-
pekte der Qualitätszirkelarbeit im Toyota-Produktionssystem:
x Der Qualitätszirkel ist verantwortlich für die Zielsetzung und die Zeitplanung
der Sitzungen.
x Der Zirkelleiter (Moderator) ist gegenüber dem Management für die Erzie-
lung der angestrebten Ergebnisse, die Planung der Meetings, die Formulie-
rung der Erwartungen an das Team und die Koordinierung der Aktivitäten
mit anderen Teams (z.B. Technik und Wartung) verantwortlich; er berichtet
einmal wöchentlich an den Gruppenleiter.
x Der Gruppenleiter (nicht Zirkelmitglied, sondern Vorgesetzter eines Team-
leiters) fungiert als Berater und gibt Anleitung und methodische Unterstüt-
zung.
x Zum Abschluss einer Aktivität werden die Ziele und Ergebnisse dem Mana-
gement präsentiert.
x Jeder Vorschlag, der von dem Qualitätszirkel umgesetzt wird, fließt in das
Vorschlagssystem ein und wird ggf. zusätzlich finanziell belohnt.
x Die besten Qualitätszirkel-Projekte werden jedes Jahr ausgezeichnet.
Während in Konzeptbeschreibungen aus dem deutschsprachigen Raum die
Umsetzungsentscheidung häufig der Gruppe überlassen wird (z.B. ZINK 1995),
liegt sie bei der eng an Toyota angelehnten, von LIKER u. MEIER (2007) beschrie-
benen Variante ausschließlich bei übergeordneten Instanzen.
Unternehmensorganisation Qualitätszirkelorganisation
Unternehmensleitung Steuerungsteam
Bereichsleitung Koordinatoren
Abteilungsleitung Moderatoren
Meister
Mitarbeiter
QZ-Gruppen
Fachabteilung
Ausbildung/Training
5.8.4 Diskussion
Qualitätszirkel haben sich trotz zahlreicher Anstrengungen im deutschsprachigen
Wirtschaftsraum nicht im erwarteten Umfang durchgesetzt (nach SEGHEZZI 2003).
Mögliche Ursachen sehen LIKER u. MEIER (2007) insbesondere in der unzurei-
chenden Schulung der Beteiligten, in der fehlenden Unterstützung und Förderung
durch das Management sowie in einer insgesamt mangelnden Kultur der kontinu-
ierlichen Verbesserung in deutschen Unternehmen. Auch in amerikanischen Wer-
ken japanischer Hersteller scheint es noch gewisse Umsetzungsprobleme zu ge-
ben: So geben Liker und Meier für japanische Toyota-Werke eine Beteiligungs-
quote von ca. 80% an, für das amerikanische Werk Georgetown allerdings ledig-
lich 22% (ungefähre Angaben für 2004, siehe ebd.).
Qualitätsarbeit in Gruppen findet in deutschen Unternehmen auch unter ande-
ren Bezeichnungen statt. Im Zusammenhang mit der Einführung von Programmen
zur Kontinuierlichen Verbesserung (siehe Kap. 4.3.4.2) finden sich bspw. KVP-
Gruppen oder Kaizen-Teams (ANTONI 2000). In einer europäischen Studie gaben
69% der deutschen Unternehmen an, ihre Mitarbeiter an Prozessverbesserungen
im Rahmen des KVP zu beteiligen (European Manufacturing Survey 2003/2004,
Befragung von 2.249 produzierenden Unternehmen aus 9 europäischen Ländern,
ARMBRUSTER et al. 2005). Im Unterschied zu Qualitätszirkeln werden KVP-
Gruppen meist über mehrere Bereiche oder Hierarchien hinweg gebildet. Sie be-
fassen sich mit der Erarbeitung von Verbesserungsvorschlägen zu übergeordneten,
bereichs- bzw. funktionsübergreifenden Themen oder Problemstellungen.
Auch im Qualitätsmodell der European Foundation for Quality Management
(EFQM) werden sowohl bereichsübergreifende Qualitätsgruppen als auch teambe-
zogene Qualitätszirkel als Bausteine zur Entwicklung und Sicherung der Qualität
von Produkten, Prozessen und Dienstleistungen gefordert (siehe WUNDERER
2000).
Im Vergleich zu den bisher beschriebenen Formen von Gruppenarbeit bedeuten
Qualitätszirkel keine Änderung der Funktions- und Arbeitsteilung und eröffnen –
je nach Variante - nur in geringem Umfang kollektive Entscheidungsspielräume
(siehe WEGGE 2004). Aus arbeitswissenschaftlicher Sicht stellen Qualitätszirkel
oder vergleichbare Konzepte aber zumindest eine sinnvolle Ergänzung zu restrik-
tiven Gruppenarbeitsformen bzw. generell zu unvollständigen Tätigkeiten dar,
indem sie den Mitgliedern Gelegenheit zur Einbringung eigener Ideen, Möglich-
keiten zur sozialen Interaktion und zur gemeinsamen Lösungs- und Entschei-
dungsfindung bieten.
Zirkelarbeit fördert die Kompetenzentwicklung und die Fähigkeit zur Zusam-
menarbeit und kann in Verbindung mit KVP- und Qualifizierungsprogrammen zur
Entwicklung von lernenden Organisationen beitragen (LUCZAK et al. 1998a,
LUCZAK et al. 2006, siehe SENGE 2008 zur lernenden Organisation). Bereits etablierte
Qualitätszirkelkonzepte können darüber hinaus die Einführung teilautonomer
Gruppen begünstigen (siehe z.B. RUHNAU 1997). Das Qualitätszirkelkonzept wird
auch mit Erfolg auf andere betriebliche Aufgabenstellungen übertragen. Populäres
Gruppen- und Teamarbeit 549
Die Einführung von Gruppenarbeit bedingt einen – abhängig von der Ausgangssi-
tuation mehr oder weniger – weitreichenden und langfristigen Veränderungspro-
zess, der neben technologischen und technischen Anpassungen insbesondere die
Entwicklung der Organisation, des Personals und – nach der Gruppenbildung –
auch die der Gruppe(n) betrifft. Nach dem klassischen, weithin akzeptierten Mo-
dell von LEWIN (1947, siehe hierzu u.A. BURNES 2004 und SCHEIN 2004) laufen
erfolgreiche Veränderungsprozesse i.d.R. in drei Phasen ab:
(1) „Unfreezing“ (auftauen): Ist-Zustand der Organisation/Gruppe/Individuum
durch gezielte Interventionen aus dem Gleichgewicht bringen und uner-
wünschte Routinen und Verhaltensweisen aufbrechen, um Widerstände ab-
zubauen und Veränderungsmotivation zu erzeugen (z.B. durch Aufzeigen
nicht erreichter Ziele oder bestehender Probleme, Erarbeitung möglicher ne-
gativer Konsequenzen des Verharrens).
(2) „Moving“ (verändern/bewegen): Phase der eigentlichen Veränderung in
Richtung des definierten Zielzustandes (z.B. Umsetzung von Gestaltungs-
maßnahmen und Durchführung von Trainings).
(3) „Refreezing“ (einfrieren): Stabilisierung des neuen, arbeitsorganisatorisch
„höherwertigen“ Zustands (z.B. durch Aufzeigen erzielter Verbesserungen).
Erprobte Methoden und Interventionen zur Unterstützung von Verände-
rungsprozessen finden sich in der Literatur zur Organisationsentwicklung
(z.B. BECKER u. LANGOSCH 2002; SCHREYÖGG u. CONRAD 2000), zur
Gruppenentwicklung (z.B. STUMPF u. THOMAS 2003) und zur Personalent-
wicklung (z.B. SONNTAG 2006; RYSCHKA et al. 2008). Zu nennen sind bspw.
Diagnose- und Feedbackinstrumente, Coachings, Supervisionen, Rollenklä-
rungen, moderierte Workshops, Seminare und Trainings. Die konkrete Ge-
staltung der Methoden und Instrumente hängt von der Interventionsebene
(„Individuum“, „Gruppe“ oder „Organisation“), der Prozessphase und der
spezifischen Themenstellung bzw. Zielsetzung ab (z.B. Förderung der
550 Arbeitswissenschaft
Projektmanagement
Planung Steuerung Überwachung Evaluation
5.9.1 Vorgehensmodell
Nach KRINGS u. LUCZAK (1997) und RUHNAU (1997) hat sich für die Einführung
teilautonomer Gruppenarbeit die zeitlich versetzte Kombination einer Top-Down-
Gruppen- und Teamarbeit 551
0
extern
n
Abgrenzung//
Ab
Vorbereitung Orientierung Strategie Machbarkeit
Rahmenvorgaben
1 Projektplanung/
Prozessbegleiterr-/
-organisation
zessbeglleitung
organisation, Technik/Layout,
konzeption (Pilotbereich)
Entgelt-, Arbeitszeitsystem)
fachliche und
3 F i
Fein- Gruppen-
G
Proz
konzeption
Feinkonzept
bildung überfachliche
Qualifizierung,
6
Aufgabenver- Teamschulung,
intern
4 U
Umsetzung
„Start
Start der
Gruppenarbeit“ teilung in der
Gruppe
Teamentwicklung
Teamentwicklung,
-betreuung
5 Evaluation
Feedback,,
Reflexion
Zielerreichung,
g,
Lessons Learned
Kontinuierliche
Verbesserung
grenzen. Über das Projekt und die Chancen und Risiken von Gruppenarbeit sollten
jedoch alle Beschäftigten umfassend informiert werden. Möglichst frühzeitig
sollte mit der Qualifizierung der Führungskräfte begonnen werden, um sie auf ihre
Promotorenrolle im Einführungsprozess und ihre veränderten Rollen und Aufga-
ben nach der Einführung vorzubereiten.
Auf der Grundlage einer Ist-Analyse (siehe hierzu Analyseinstrumente in
Kap. 5.4.2.5) werden in der Phase der Grobkonzeption die Rahmenbedingungen
für die zukünftige Ablauf- und Aufbauorganisation, den Handlungs- und Ent-
scheidungsspielraum der Gruppe, die Anordnung der Betriebsmittel, die Schnitt-
stellen zwischen Pilotbereich und Umfeld, und die Anforderungsprofile für die
Gruppenmitglieder und den Gruppensprecher (Soll-Qualifikationsprofile) festge-
legt. Darüber hinaus ist ein geeignetes Qualifizierungskonzept zu entwickeln,
dessen Umsetzung vorzubereiten sowie eine ggf. notwendige Übergangsregelung
für das Arbeitszeit-/Entgeltsystem zu erarbeiten. In der zeitlich versetzt anlaufen-
den Feinkonzeption gilt es unter Berücksichtigung der Rahmenvorgaben u.A. die
Arbeitsaufgaben und -abläufe sowie die Arbeitsplätze zu gestalten, Fragen der
Verantwortungsübernahme, der Autonomie zu klären und die konkrete Umsetzung
im Detail zu planen. Die Konzeptionsphase kann durch objektivierende Methoden
der Arbeitsgestaltung unterstützt werden (siehe LUCZAK u. SCHUMANN 1996;
LUCZAK et al. 1996b; LUCZAK u. WIMMER 1996; WIMMER u. LUCZAK 2000; BE-
CKER u. ZÜLCH 2005; ZÜLCH u. BECKER 2008).
Das beteiligungsorientierte Vorgehen sieht vor, dass die Grobkonzeption von
den Projektgruppen (vorwiegend Führungskräfte des mittleren Managements)
erarbeitet wird, die Feinkonzeption hingegen von den Beteiligungsgruppen (vor-
wiegend Mitarbeiter aus den Pilotbereichen). Die verschiedenen Gremien sind
überlappend besetzt (KRINGS 1997). Optimierungs- und Abstimmungsprozesse
zwischen den unterschiedlichen Hierarchieebenen sind über die Projektorgani-
sation im Einführungsprozess verankert (Abb. 5.15). Die getroffenen Vereinba-
rungen können in einer Betriebsvereinbarung festgehalten werden (siehe
Kap. 5.9.2). Auszüge aus bereits abgeschlossenen Betriebsvereinbarungen sowie
ein Gestaltungsraster finden sich z.B. in KAMP (1998).
Der Reorganisationsprozess wird durch einen neutralen Prozessbegleiter unter-
stützt (verbreitet ist auch die Bezeichnung „change agent“, siehe z.B. RÜHL 1976; RUH-
NAU 1997; ELKE 2007). Er soll insbesondere die Selbstorganisationsprozesse in
den Beteiligungsgruppen und den späteren Arbeitsgruppen anregen, sie beraten
und sie bei der Lösung von Problemen oder Konflikten methodisch unterstützen.
Die Prozessbegleitung kann zunächst durch einen externen Berater erfolgen, die-
ser sollte aber von einem entsprechend qualifizierten internen Begleiter (z.B. Füh-
rungskräfte der unteren bis mittleren Ebene, Mitarbeiter der Personalabteilung
oder Inhaber neu geschaffener Stabsstellen) abgelöst werden (siehe KRINGS u.
LUCZAK 1997; MÜTZE et al. 2000, FINK et al. 2008).
Die letzte Phase des Einführungsprozesses umfasst die Evaluation. Sie dient
neben der kritischen Reflexion insbesondere der Überprüfung der Zielerreichung,
z.B. anhand bestimmter zuvor definierter Kennzahlen. Im Hinblick auf die Über-
554 Arbeitswissenschaft
Top-Down a
Projektleiter
Geschäftsleitung a
Projektlenkungs- Mitglied in
xxx
oberes Mitglied in ausschuss
xxx Auftrag
Management xxx
Betriebsrat x a
x Leiter x
an a
x x x
Projektgruppe
onzept
externer Begleiter x x x
mittlere Organi- Technik Qualif./
Füh
Führungskräfte,
k äft Mitglied in
Grobko
sation xxx Entgelt
Meister x interner Betriebsrat
xProzess- xxx a
Sprecher externer Begleiter
Feinkonzept
a
xbegleiter
gewerbliche Beteiligungsgruppe
g g g pp
Mitarbeiter, (Schicht 1-3)
Sachbearbeiter Unterstützung externer Begleiter betriebsinterne
xxx
Bottom-Up & Anregung Experten für
Abb. 5.15: Projektorganisation bei der Einführung von Gruppenarbeit (in Anlehnung an
KRINGS 1997)
Informations- und
Planung und Steuerung Führungssystem
Management
Rückmeldesystem
• Planungs-
Planungs und Dispositions-
Dispositions • Messung und Bewertung von • partizipatives Führungsprinzip
spielräume für Arbeitsgruppen Individual- und Gruppenleistung • methodische und soziale Unter-
• Abstimmung zwischen Arbeits- • regelmäßige Rückmeldung der stützung der Arbeitsgruppen
gruppe(n) und Arbeitssteuerung Gruppenleistung und (Prozessgewinne erzeugen)
-entwicklung • Mitarbeiter-/Gruppengespräche
notwendiger
t di R
Ressourcen • potenzialorientiertes
t i l i ti t P Personal-
l strategie
t t i undd -planung
l
management • transparentes Zielsystem
5.9.2 Mitbestimmungsrechte
Während die Entscheidung über die Einführung teilautonomer Gruppenarbeit
(siehe Legaldefinition in Kap. 5.1.2, BUNDESTAGS-DRUCKSACHE 14/5741, 2001)
mitbestimmungsfrei durch den Arbeitgeber getroffen werden kann, räumt das
Betriebsverfassungsgesetz (BetrVG, in der Fassung der Bekanntmachung vom 25.
September 2001) den Betriebsräten in den weiteren Phasen vielfältige Beteili-
gungsrechte ein (siehe z.B. LINDE 2004). Bereits in der Planungsphase ist das Vor-
liegen verschiedener Mitbestimmungstatbestände zu überprüfen. Unterrichts- und
Beratungsrechte können sich z.B. aus §111 (Betriebsänderungen) ergeben, wenn
davon auszugehen ist, dass die Einführung von Gruppenarbeit den Tatbestand
einer Betriebsänderung erfüllt (z.B. indem sie eine grundlegende Änderung der
Betriebsorganisation bedeutet und/oder die Einführung grundlegend neuer Ar-
beitsmethoden und Fertigungsverfahren mit sich bringt). Weitere Unterrichtungs-
und Beratungsrechte können sich aufgrund der Neugestaltung der Arbeitsplätze,
Gruppen- und Teamarbeit 557
des Arbeitsablaufs und der Arbeitsumgebung (§90 BetrVG) sowie aus der Perso-
nalplanung und den daraus folgenden Maßnahmen ergeben (§92 BetrVG). Die
erstmalige Zuordnung eines Arbeitnehmers zu einer Arbeitsgruppe kann unter
bestimmten Bedingungen eine zustimmungspflichtige Versetzung nach
§99 BetrVG darstellen. Im Zusammenhang mit den notwendigen Qualifizie-
rungsmaßnahmen sind die Beteiligungsrechte bzgl. der Planung und Durchfüh-
rung von Maßnahmen der beruflichen Bildung (§§96ff. BetrVG) zu beachten. In
der Umsetzungsphase sind vor allem die typischen Mitbestimmungsrechte in sozi-
alen Angelegenheiten nach §87 BetrVG zu wahren (z.B. Arbeitszeit- und Urlaubs-
regelungen, Entgeltsysteme, betriebliches Vorschlagswesen) sowie insbesondere
das seit der Reform des Gesetzes im Jahre 2001 bestehende gesonderte Mitbes-
timmungsrecht hinsichtlich der Grundsätze zur Durchführung teilautonomer
Gruppenarbeit (Kap. 5.5). Laut amtlicher Begründung kann der Betriebsrat bspw.
Regelungen zu folgenden Gestaltungsaspekten verlangen und diese mitgestalten
(BUNDESTAGS-DRUCKSACHE 14/5741, 2001):
x Wahl eines Gruppensprechers, dessen Stellung und Aufgaben
x Abhalten von Gruppengesprächen zwecks Meinungsaustauschs und Mei-
nungsbildung in der Gruppe
x Zusammenarbeit in der Gruppe und mit anderen Gruppen
x Berücksichtigung von leistungsschwächeren Arbeitnehmern
x Konfliktlösungen in der Gruppe.
Das im vorausgehenden Abschnitt vorgestellte Vorgehen zur Einführung von
Gruppenarbeit sieht eine umfassende Beteiligung des Betriebsrats bereits in frühen
Phasen vor, um sicherzustellen, dass die Rechte und Belange der Arbeitnehmer
von vornherein angemessen berücksichtigt werden und nachträgliche, mit Kosten
und Reibungsverlusten verbundene Korrekturen am Konzept vermieden werden.
Ob dieses Vorgehen vom Gesetzgeber angedacht war, ist der bisherigen Rechtsla-
ge allerdings nicht eindeutig zu entnehmen (siehe hierzu BUSCH 2003).
Bei der Gestaltung der Aufgaben und der Entscheidungsspielräume der Gruppe
kommt die Anwendung des §28a BetrVG in Betracht. In Betrieben mit mehr als
100 Arbeitnehmern kann der Betriebsrat bestimmte Aufgaben auf Arbeitsgruppen
übertragen. Grundlage für die Delegation ist eine zwischen Arbeitgeber und Be-
triebsrat abzuschließende Rahmenvereinbarung. In der amtlichen Gesetzesbegrün-
dung heißt es dazu weiter: „Die Aufgaben, die übertragen werden sollen, müssen
in einem inneren Zusammenhang mit den von der Arbeitsgruppe zu erledigenden
Tätigkeiten stehen. Das ist bspw. bei Übertragung von Regelungsbefugnissen im
Zusammenhang mit Arbeitszeitfragen, Pausenregelungen, Urlaubsplanung, Ar-
beitsgestaltung und ähnlichen tätigkeits- oder aufgabenbezogenen Sachverhalten
der Fall. Unzulässig ist es dagegen, dass der Betriebsrat z.B. bei einer Betriebsän-
derung dem davon betroffenen Arbeitsbereich die Beteiligungsrechte nach den
§§111ff. überträgt“ (BUNDESTAGS-DRUCKSACHE 14/5741, 2001). Die Anwen-
dung von §28a BetrVG ist nicht auf teilautonome Gruppen beschränkt.
558 Arbeitswissenschaft
5.10 Literatur
Adami W, Lang C, Pfeiffer S, Rehberg F (Hrsg) (2008) Montage braucht Erfahrung. Erfah-
rungsgeleitete Wissensarbeit in flexiblen Montagesystemen. Hampp, München/Mering
Alderfer CP (1972) Existence, relatedness, and growth: Human needs in organizational
settings. Free Press, New York
Algera JA (1990) The Job Characteristics Model of Work Motivation Revisited. In: Klein-
beck U, Quast HH, Thierry H, Hacker H (eds) Work Motivation. Erlbaum, Hillsdale,
NJ, pp 85-103
Alioth A (1980) Entwicklung und Einführung alternativer Arbeitsformen. In: Schriften zur
Arbeitspsychologie, Bd 27. Huber Verlag, Bern
Anderson N, West MA (1994) The Team Climate Inventory: Manual and users’s guide.
ASE Press, Windsor
Antoni CH (1990) Qualitätszirkel als Modell partizipativer Gruppenarbeit. Analyse der
Möglichkeiten und Grenzen aus der Sicht betroffener Mitarbeiter. Huber, Bern
Antoni CH (1994) Gruppenarbeit – mehr als ein Konzept. Darstellung und Vergleich unter-
schiedlicher Formen der Gruppenarbeit. In: Antoni CH (Hrsg) Gruppenarbeit in Un-
ternehmen. Konzepte, Erfahrungen, Perspektiven. Beltz Verlagsgruppe, Weinheim, S.
115-135
Antoni CH (1995) Gruppenarbeit in Deutschland – eine Bestandsaufnahme. In: Zink KJ
(Hrsg) Erfolgreiche Konzepte zur Gruppenarbeit – aus Erfahrungen lernen.
Luchterhand Verlag, Neuwied, Kriftel, Berlin, S 23-38
Antoni CH (1996) Teilautonome Arbeitsgruppen. Ein Königsweg zu mehr Produktivität
und einer menschengerechten Arbeit? Beltz Verlagsgruppe, Weinheim
Antoni CH (1997) Soziale und ökonomische Effekte der Einführung teilautonomer Grup-
penarbeit – eine quasi-experimentelle Längsschnittstudie. In: Zeitschrift für Arbeits-
und Organisationspsychologie 41:131-142
Antoni CH (2000) Teamarbeit gestalten. Grundlagen, Analysen, Lösungen. Beltz Verlags-
gruppe, Weinheim
Antoni CH (2007) Gruppenarbeit. In: Schuler H, Sonntag K (Hrsg) Handbuch der Arbeits-
und Organisationspsychologie. Hogrefe Verlag, Göttingen, S 679-689
Antoni CH (2009) Gruppen- und Teamarbeit. In: Bullinger H-J, Spath D, Warnecke H-J,
Westkämper E (Hrsg) Handbuch Unternehmensorganisation: Strategien, Planung, Um-
setzung, 3. neu bearb. Aufl. Springer-Verlag, Berlin, S 213-222
Armbruster H, Kinkel S, Lay G, Maloca A (2005) Techno-organizational innovation in the
European Manufacturing industry. In: Bulletin European Manufacturing Survey No. 1;
Fraunhofer Institute, Systems and Innovation Research ISI, Karlsruhe
Balzer WK, Kihm JA, Smith PC, Irwin JL, Bachiochi PD, Robie C, Sinar EF, Parra LF
(1997). Users’ manual for the Job Descriptive Index (JDI; 1997 Revision) and the Job
in General (JIG) Scales. Bowling Green State University, Bowling Green, OH
Baszenski N (2002) Gruppenarbeit – Beitrag zum wirtschaftlichen Erfolg. Teilergebnisse
der IfaA-Benchmarking-Studie 2002. In: Angewandte Arbeitswissenschaft 137:1-12
Becker M (2005) Systematische Personalentwicklung. Planung, Steuerung und Kontrolle
im Funktionszyklus. Schäffer-Poeschel, Stuttgart
Becker-Beck U, Fisch R (2001) Erfolg von Projektgruppen in Organisationen – Erträge der
sozialwissenschaftlichen Forschung. In: Fisch R, Beck D, Englich B (Hrsg) Projekt-
gruppen in Organisationen. Praktische Erfahrungen und Erträge der Forschung. Verlag
für angewandte Psychologie, Göttingen, S 19-42
Gruppen- und Teamarbeit 559
Fried Y, Ferris GR (1987) The Validity of the Job Characteristics Model – A Review and
Meta-analysis. In: Personnel Psychology 40:287-322
Frieling E, Buch M (1998) Gruppenarbeit und Fehlzeiten. In: Bundesanstalt für Arbeits-
schutz und Arbeitsmedizin (Hrsg) Verbesserung der Anwesenheit im Betrieb. Instru-
mente und Konzepte zur Erhöhung der Gesundheitsquote. Bundesanstalt für Arbeits-
schutz und Arbeitsmedizin, Dortmund, S 219-238
Frieling E, Freiboth M (1997) Klassifikation von Gruppenarbeit und Auswirkungen auf
subjektive und objektive Merkmale der Arbeitstätigkeit. In: Zeitschrift für Arbeits- und
Organisationspsychologie 41:120-130
Fuhrberg-Baumann J (1992) Integriertes Auftragsmanagement in Vertriebsinseln – Ein
prozeßorientiertes Organisationskonzept. In: FB/IE 41:304-308
Gagné M, Deci E L (2005) Self-determination theory and work motivation. In: Journal of
Organizational Behavior 26:331–362
Gebhardt A (2000) Rapid Prototyping. Werkzeuge für die schnelle Produktentwicklung.
Carl Hanser Verlag, München
Gemünden HG, Högl M (2000) Teamarbeit in innovativen Projekten – Eine kritische Be-
standsaufnahme der empirischen Forschung. In: Gemünden HG, Högl M (Hrsg) Ma-
nagement von Teams. Betriebswirtschaftlicher Verlag Gabler, Wiesbaden, S 1-33
Gemünden HG, Högl M (2005) Management von Teams: Theoretische Konzepte und
empirische Befunde. In: Högl M, Gemünden HG (Hrsg) Management von Teams:
Theoretische Konzepte und empirische Befunde, 3. Aufl. Gabler Verlag, Wiesbaden, S
1-31
Gerst D (1999) Das Ende der selbstorganisierten Gruppenarbeit? Arbeitsgestaltung in der
standardisierten Montage. In: SOFI-Mitteilungen, Soziologisches Forschungsinstitut,
Göttingen 27:49-58
Gerth RJ (1996) Engineering Tolerance: A Review of Tolerance Analysis and Allocation
Methods. In: Engineering Design and Automation, 2:3–22
Gohde H-E, Kötter W (1990) Gruppenarbeit in Fertigungsinseln. Nur Schönheitsfehler oder
mehr? In: Technische Rundschau 82/44:66-69
Goldman SL, Nagel RN, Preiss K (1995) Agile competitors and virtual organizations:
Strategies for enriching the customer. Van Nostrand Reinhold, New York
Grap R (1992) Neue Formen der Arbeitsorganisation für die Stahlindustrie. Augustinus
Verlag, Aachen
Grob R (1997) Arbeitsgruppen im Rahmen betrieblicher Rationalisierungsstrategien. In:
Luczak H, Volpert W (Hrsg) Handbuch Arbeitswissenschaft. Schäffer-Poeschel, Stutt-
gart, S 709-714
Grote G (1997) Autonomie und Kontrolle: zur Gestaltung automatisierter und risikoreicher
Systeme. vdf Hochschulverlag, Zürich
Grote G, Wäfler T, Ryser C, Weik S (1999) Wie sich Mensch und Technik sinnvoll ergän-
zen: die Analyse automatisierter Produktionssysteme mit KOMPASS. vdf Hochschul-
verlag, Zürich
Gryglewski S (2007) Sicherung von Produktionsarbeit in Deutschland – Reformbedarf der
arbeitsorganisatorischen Leitbilder. In: Zeitschrift für Arbeitswissenschaft 61:47-53
Guzzo RA, Dickson MW (1996) Teams in Organizations: Recent Research on Performance
and Effectiveness. In: Spence JT, Darley JM, Foss DJ (eds) Annual Review of Psy-
chology 47:307-338. Annual Reviews Inc., Palo Alto
Hacker W (1978) Allgemeine Arbeits- und Ingenieurpsychologie. Hans Huber Verlag, Bern
Hacker W (1994) Arbeitsanalyse zur prospektiven Gestaltung der Gruppenarbeit. In: Anto-
ni CH (Hrsg) Gruppenarbeit in Unternehmen. Beltz Psychologie Verlag Union, Wein-
heim, S 49-80
Gruppen- und Teamarbeit 563
Hacker W (2004) Leistungs- und Lernfähigkeiten älterer Menschen. In: Cranach M von,
Schneider H-D, Winkler R, Ulich E (Hrsg) Ältere Menschen im Unternehmen. Chan-
cen, Risiken, Modelle. Haupt Verlag, Bern, S 163-172
Hacker W (2005) Allgemeine Arbeitspsychologie. Hans Huber Verlag, Bern
Hacker W (2008) Zeitweilige Gruppenarbeit für Prozessinnovationen – Grundlagen, Orga-
nisation und Wirkungen. In: Jöns I (Hrsg) Erfolgreiche Gruppenarbeit. Gabler, Wies-
baden, S 22-28
Hacker W, Wetzstein A (2003) Vernetztes innovatives Arbeiten aus psychologischer Sicht.
In: Enderlein H, Müller E (Hrsg) Vernetzt planen und produzieren – VPP 2003. Wis-
senschaftliche Schriftenreihe des Institutes für Betriebswissenschaften und Fabriksys-
teme, Sonderheft 7. Institut für Print- und Medientechnik der TU Chemnitz, Chemnitz,
S 9-18
Hacker W, Weth R von der, Ishig A, Luhn G (2005) Nutzung von Erfahrungswissen in der
Arbeitsgestaltung – Aufgabenbezogener Informationsaustausch bei hochautomatisier-
ten Technologien. In: Zeitschrift für Arbeitswissenschaft 59:53-60
Hackman JR (1983) Group Influences on Individuals. In: Dunette MD (ed) Handbook of
Industrial and Organizational Psychology. John Wiley & Sons, New York, pp 1455-
1524
Hackman JR (1987) The Design of Work Teams. In: Lorsch JW (ed) Handbook of Organi-
zational Behaviour. Prentice Hall, Englewood Cliffs, NJ, pp 315-342
Hackman JR (1990) Groups that Work (and those that don´t). Jossey-Bass, San-Francisco
Hackman JR, Morris CG (1975) Group Task, Group Interaction Process, and Group Per-
formance Effectiveness: A Review and Proposed Integration. In: Berkowitz L (ed)
Advances in Experimental Social Psychology. Academic Press, New York, S 45-99
Hackman JR, Oldham GR (1975) Development of the Job Diagnostic Survey. In: Journal of
Applied Psychology 60:159-170
Hackman JR, Oldham GR (1976) Motivation Through the Design of Work: Test of a
Theory. In: Organizational behaviour and Human Performance 16:250-279
Hackman JR, Oldham GR (1980) Work redesign. Addison-Wesley, Reading
Hammer M, Champy J (1995) Business Reengineering. 5. Aufl. Campus-Verlag, Frankfurt,
New York
Heeg FJ (1988) Moderne Arbeitsorganisation: Grundlagen der organisatorischen Gestal-
tung von Arbeitssystemen bei Einsatz neuer Technologien. Hanser Verlag, München
Heeg FJ (2006) Partizipative Organisationsentwicklung. In: Rauner F (Hrsg) Handbuch der
Berufsbildungsforschung. W. Bertelsmann Verlag, Bielefeld, S 473-478
Heiliger R, Mühlbradt T, Leyhausen B (1997) Teamarbeit und Kennzahlensystem. In:
Personalführung 10:944-951
Hennlein S, Jöns I (2008) Entwicklung durch Feedback. In: Jöns I (Hrsg) Erfolgreiche
Gruppenarbeit. Gabler, Wiesbaden, S 117-128
Herzberg F (1968) One more time: How do you motivate employees? In: Harvard Business
Review 46:62
Herzberg F, Mausner B, Snyderman BB (1959): The motivation to work. Whiley, New
York
Herzog S (1999) Orientierungs- und Zielgrößen der Gruppenarbeit und Wertschöpfung. In:
Personalführung 1:26-31
Högl M (1998) Teamarbeit in innovativen Projekten: Einflussgrößen und Wirkungen.
Dissertation Universität Karlsruhe. Gabler Verlag, DUV, Wiesbaden
Högl M, Gemünden HG (2000) Determinanten und Wirkungen der Teamarbeit in innovati-
ven Projekten – Eine theoretische und empirische Analyse. In: Gemünden HG, Högl M
(Hrsg) Management von Teams. Gabler, Wiesbaden, S 33-66
564 Arbeitswissenschaft
Köhler H-D (2007) Warum arbeiten wir immer noch am Fließband? Zum QWERTY-Effekt
in Produktionssystemen. In: Zeitschrift für Arbeitswissenschaft 61:59-66
Koeppe G, Grap R (1999) Team-Check: Optimierung von Gruppenarbeit. In: Industrie
Meister 28:13-16
Koeppe G, Grap R (2000) Gruppenarbeit: nicht immer das „Ei des Kolumbus“! In: Personal
2:90-94
Konradt U, Hertel G (2002) Management virtueller Teams - von der Telearbeit zum virtuel-
len Unternehmen. Beltz Verlag, Weinheim
Kraus G, Becker-Kolle C, Fischer T (2006) Handbuch Change-Management: Steuerung
von Veränderungsprozessen in Organisationen. Cornelsen, Berlin
Krings K (1997) Reorganisationsbedingungen bei der systemorientierten Gestaltung von
Produktionsplanung und –steuerung mit Fortschrittszahlen in Abnehmer-Zulieferer-
Beziehungen. Dissertation RWTH Aachen. Shaker, Aachen
Krings K, Luczak H (1997) Gruppen- und Teamarbeit als Instrument zur Unternehmens-
entwicklung. In: Kröll M (Hrsg) Lernen der Organisation durch Gruppen- und Team-
arbeit: Wettbewerbsvorteile durch umfassende Unternehmensplanung. Springer-
Verlag, Berlin, S 131-193
Kruse C, Scheer A-W (1994) Dezentrale Prozeßkoordination in Planungsinseln. Informati-
on Management 3:6-11
Kühl S, Kullmann G (2002) Gruppenarbeit. Einführung, Bewertung, Weiterentwicklung. 2.
Aufl. Carl Hanser Verlag, München/Wien
Lattmann C (1972) Das norwegische Modell der selbstgesteuerten Arbeitsgruppe. Paul
Haupt Verlag, Bern
Laufenberg L (1996) Methodik zur integrierten Projektgestaltung für die simultane Umset-
zung des Simultaneous Engineering. Dissertation RWTH Aachen, Aachen
Lay G (1997) Prozeßinnovationen als Schlüssel zu innovativen Produkten. PI-Mitteilung
Nr 7, Fraunhofer ISI, Karlsruhe
Lay G, Dreher C, Kinkel S (1996) Neue Produktionskonzepte leisten einen Beitrag zur
Sicherung des Standorts Deutschland. PI-Mitteilung Nr 1, Fraunhofer ISI, Karlsruhe
Lay G, Maloca S (2005) Aufgabenintegration – Abkehr vom Taylorismus? PI-Mitteilung
Nr 36, Fraunhofer ISI, Karlsruhe
Lechner H (2001) Die Erklärung von Gruppenprozessen. Systematisierung und Vergleich
anhand formaler Modelle. Peter Lang Verlagsgruppe, Frankfurt/M
Leitner K, Lüders E, Greiner B, Ducki A, Niedermeier R, Volpert W (1993) Analyse psy-
chischer Anforderungen und Belastungen in der Büroarbeit. Das RHIA/VERA-Büro-
Verfahren. Handbuch und Manual. Hogrefe, Göttingen
Lewin (1947) Frontiers in group dynamics. In: Human Relations, 1:41; Neuveröffentli-
chung in: MacKenzie K R (1992) Classics in Group Psychotherapy. Guilford Press,
New York, London
Licht T (2008) Entwicklung eines personenzentrierten Simulationsmodells zur Unterstüt-
zung des Multiprojektmanagements in der Produktentwicklung. Dissertation RWTH
Aachen. Shaker Verlag, Aachen
Liker JK (2004) The Toyota Way. 14 Management Principles from the World’s Greatest
Manufacturer. McGraw-Hill, New York
Liker JK, Meier DP (2007) Praxisbuch - Der Toyota Weg. Finanzbuch Verlag, München
Linde K (2004) Gruppenarbeit. http://www.aus-innovativ.de/media/Gruppenarbeit.pdf
(Zugriff 10.01.2009)
Locke EA (1968) Toward a Theory of Task Motivation and Incentives. In: Organizational
Behavior and Human Performance 3:157-189
Locke EA, Latham GP (2002) Building a practically useful theory of goal setting and task
motivation. In: American Psychologist 57:705-717
566 Arbeitswissenschaft
Luczak H (1989) Wesen menschlicher Leistung. In: IfaA (Hrsg) Arbeitsgestaltung in Pro-
duktion und Verwaltung. Bachem, Köln, S 39-54
Luczak H (1993a) Arbeitswissenschaft. Springer-Verlag, Berlin, Heidelberg
Luczak H (1993b) Gruppenarbeit als strategische Unternehmensentscheidung. Personenori-
entierte Konzepte für schlanke Unternehmen. In: Luczak H, Eversheim W (Hrsg)
Marktorientierte Flexibilisierung der Produktion: Sicherung der Wettbewerbsfähigkeit
am Standort Deutschland. Verlag TÜV Rheinland, Köln, S 309-329
Luczak H (1997) Task Analysis. In: Salvendy G (ed) Handbook of Human Factors and
Ergonomics - 2nd edn. Wiley-Interscience, New York, pp 340-416
Luzcak H, Bullinger H-J, Schlick C, Ziegler J (Hrsg) (2001) Unterstützung flexibler Ko-
operation durch Software. Methoden, Systeme, Beispiele. Springer Verlag, Berlin
Luczak H, Eversheim W (Hrsg) (1999) Telekooperation: Industrielle Anwendungen in der
Produktentwicklung. Springer-Verlag, Berlin
Luczak H, Foltz C, Mühlfelder M (2002) Vernetzte Büroarbeit - Gestaltung von Telekoope-
ration. In: Zeitschrift für Arbeitswissenschaft. Sonderausgabe "Ergonomie im Büro"
56:295-299
Luczak H, Kabel T (2005) Methodenbaustein projektgerechte Organisationsgestaltung. In:
Eversheim W, Schuh G (Hrsg) Integrierte Produkt- und Prozessgestaltung. Springer
Verlag, Berlin, S 39-44
Luczak H, Kabel T, Licht T (2006) Task Design and Motivation. In: Salvendy G (ed)
Handbook of human factors and ergonomics. 3rd edn. John Wiley & Sons, New Jersey,
pp 384-427
Luczak H, Krings K, Gryglewski S, Stawowy G (1998a) Ergonomics and TQM. In: Sal-
vendy G (ed) Ergonomics in Manufacturing: Raising Productivity Through Workplace
Improvement. Society of Manufacturing Engineers, Dearborn, pp 505-531
Luczak H, Krings K, John B (1996) Analyse von Fällen zur Implementierung von Grup-
penarbeit als ein Schritt zum Leitbild “Lernende Organisation”. In: Bullinger H-J
(Hrsg) Lernende Organisation. HAB Forschungsberichte, Bd 8. Schäffer-Poeschel,
Stuttgart, S 305-341
Luczak H, Metz A (1996) Development of a Decision Support System for the Selection of a
Pilot Section to implement Self-Directed Work Teams in Manufacturing and Assem-
bling. In: Brown J (ed) Human Factors in Organizational Design and Management,
Proceedings of the Fifth International Symposium on Human Factors in Organizational
Design and Management held in Breckenridge, Co., U.S.A.. Elsevier Science B. V.,
Amsterdam, pp 383-389
Luczak H, Mühlbradt T, Wimmer R (1998b) Gruppenarbeit als Beitrag zur Lernenden
Organisation. Personalführung 31:60-67
Luczak H, Nölle T, Kabel D (2003) Benchmark von Teamperformance in der Produktent-
wicklung - Einsatz eines modellbasierten Werkzeugs. In: Landau K (Hrsg) Good Prac-
tice - Ergonomie und Arbeitsgestaltung. Ergonomia Verlag, Stuttgart, S 473-486
Luczak H, Otzipka J, Krings K (1997) Geschäftsprozeß- und teamorientierte Planungsin-
seln. In: VDI-Z Integrierte Produktion 139:32-35
Luczak H, Reuschenbach, T, Kötter W, Böhm E, Riecks G (1991) Gruppenarbeit bei einem
Automobilzulieferer. In: VDI-Z 133:103-108
Luczak H, Ruhnau J (1993) Inselkonzepte. - Qualitätsförderliche Arbeitsstrukturen in der
Fertigung. In: Angewandte Arbeitswissenschaft 138:23-44
Luczak H, Ruhnau J (1994) Gruppenarbeit als strategische Unternehmensentscheidung.
Personenorientierte Konzepte für schlanke Unternehmen. In: Zink KJ (Hrsg) Wettbe-
werbsfähigkeit durch innovative Strukturen und Konzepte. Hanser, München, S 61-82
Luczak H, Ruhnau J, Heidling A (1996a) Modelle flexibler Arbeitszeiten und –formen. In:
RKW-Handbuch Führungstechnik und Organisation. 36. Lfg. Berlin
Gruppen- und Teamarbeit 567
Moldaschl M (1997) Ursachen und Folgen der Einführung von Gruppenarbeit. In: Luczak
H, Volpert W (Hrsg) Handbuch Arbeitswissenschaft. Schäffer-Poeschel Verlag, Stutt-
gart, S 726-730
Morgeson FP, Humphrey SE (2008) Job and Team Design – Toward a More Integrative
Conceptualization of Work Design. In: Research in Personnel and Human Resources
Management 27:39-91
Mühlfelder M, Kabel D, Hensel T, Schlick C (2001) Werkzeuge für kooperatives Wis-
sensmanagement in Forschung und Entwicklung. In: Wissensmanagement 4:10-15
Mütze S, Schneider S, Flachsenberg U, Krings K (1998) Weiterbildungsbaukasten für
Vorarbeiter und Meister im Prozess der Unternehmensentwicklung. In: Jansen R, He-
cker O, Scholz D (Hrsg) Facharbeiteraufstieg in der Sackgasse? Berichte zur berufli-
chen Bildung des Bundesinstituts für Berufsbildung, Heft 218. W. Bertelsmann Ver-
lag, Bielefeld, S 277-300
Mütze S, Schneider S, Völker S, Flachsenberg U (2000) Modulares Weiterbildungskonzept
für Prozessbegleiter – Überbetriebliches Lernnetzwerk für Meister und Vorarbeiter bei
Gruppenarbeit. In: Alten W, Weiss R (Hrsg) Serviceleistungen für KMU – Innovative
Modelle für Beratung und Qualifizierung. Deutscher Instituts-Verlag, Köln, S 227-244
Mütze-Niewöhner S (2004) System zur prospectiven Arbeitsgestaltung nach den Kriterien
„Persönlichkeitsentfaltung und -entwicklung“ im Rahmen von Concurrent Enginee-
ring. Dissertation RWTH Aachen. Shaker, Aachen
Nagl M, Marquardt W (eds) (2008) Collaborative and Distributed Chemical Engineering.
From Understanding to Substantial Design Process Support. Results of the IMPROVE
Project. Springer, Berlin
Naylor JC, Pritchard RD, Ilgen DR (1980) A Theory of Behaviour in Organizations. Aca-
demic Press, New York
Nerdinger FW, Blickle G, Schaper N (2008) Arbeits – und Organisationspsychologie.
Springer Medizin Verlag, Heidelberg
Neuhaus R (2008) Produktionssysteme: Aufbau – Umsetzung – Missverständnisse. In:
Institut für angewandte Arbeitswissenschaft (Hrsg) Produktionssysteme: Aufbau –
Umsetzung – Missverständnisse. Wirtschaftsverlag Bachem, Köln, S 12-36
Nielsen TM, Sundstrom ED, Halfhill TR (2005) Group Dynamics and Effectiveness: Five
Years of Applid Research. In: Wheelan SA (ed) The Handbook of Group Research and
Practice. Sage Publications, London, pp 285-311
Otzipka J (1998) Konzeption qualitätsförderlicher Planungsinseln. Dissertation RWTH
Aachen. Shaker, Aachen
Otzipka J, Fricker A, Elsinghorst D, Fazekas P, Krings K, Sander U (1997) Qualitäts-,
Prozeß- und Teamorientierte Planungsinseln – Evolutionäre Organisationsgestaltung.
In: Reinhart G, Schnauber H (Hrsg) Qualität durch Kooperation - Interne und externe
Kunden-Lieferanten-Beziehungen. Springer, Berlin, S 129-171
Parent-Thirion A, Fernández Macías E, Hurley J, Vermeylen G (2008) Vierte Europäische
Befragung über die Arbeitsbedingungen. Publikation der Europäischen Stiftung zur
Verbesserung der Lebens- und Arbeitsbedingungen, Ref. ef0698,
http://www.eurofound.europa.eu/publications (Zugriff: 11.11.2008)
Parker SK (2003) Longitudinal effects of lean production on employee outcomes and the
mediating role of work characteristics. In: Journal of Applied Psychology 88:620-634
Patterson M, West MA, Wall TD (2004) Integrated manufacturing, empowerment, and
company performance. In: Journal of Organizational Behavior 25:641-665
Pennell J, Winner RI (1989) Concurrent Engineering: Practices and Prospects. In: Proceed-
ings of the IEEE Global Telecommunications Conference and Exhibition. Dallas,
USA, pp 547-655
Gruppen- und Teamarbeit 569
Schmidt K-H (2004) Förderung von Gruppenleistungen mit dem Partizipativen Produktivi-
tätsmanagement (PPM). In: Schuler H (Hrsg) Beurteilung und Förderung beruflicher
Leistung. Hogrefe, Göttingen, S 238-253
Schmidt K-H, Kleinbeck U (1999) Job Diagnostic Survey (JDS-deutsche Fassung). In:
Dunckel H (Hrsg) Handbuch psychologischer Arbeitsanalyseverfahren. vdf Hoch-
schulverlag, Zürich, S 205-230
Schmidt K-H, Kleinbeck U, Ottmann W, Seidel B (1985) Ein Verfahren zur Diagnose von
Arbeitsinhalten: der Job Diagnostic Survey (JDS). In: Psychologie und Praxis 29:162-
172
Schröter J (2008) Einführung eines Team-Gruppenentgelts in einem mittelständischen
Unternehmen der Zulieferindustrie für Nutzfahrzeuge. In: Produktionssysteme: Aufbau
– Umsetzung – betriebliche Lösungen. Wirtschaftsverlag Bachem, Köln, S 152-165
Schuh, G (2006) Change Management - Prozesse strategiekonform gestalten. Springer,
Berlin
Schuler H (1993) Lehrbuch Organisationspsychology. Huber, Bern
Schulz-Hardt S, Hertel G, Brodbeck FC (2007) Gruppenleistung und Leistungsförderung.
In: Schuler H, Sonntag K (Hrsg) Handbuch der Arbeits- und Organisationspsycholo-
gie. Hogrefe Verlag, Göttingen, S 698-706
Schumann R (1995) Entwicklung eines modellgestützten Systems zur Gruppengestaltung.
Dissertation RWTH Aachen. Augustinus Verlag, Aachen
Schumann M, Gerst D (1997) Innovative Arbeitspolitik – Ein Fallbeispiel. Gruppenarbeit
in der Mercedes-Benz AG. Zeitschrift für Arbeits- und Organisationspsychologie
41:143-156
Scholl W (2003) Modelle effektiver Teamarbeit – eine Synthese. In: Stumpf S, Thomas A
(Hrsg) Teamarbeit und Teamentwicklung. Hogrefe Verlag, Göttingen, S 3-34
Schreyögg G, Conrad P (Hrsg) (2000) Organisatorischer Wandel und Transformation.
Gabler, Wiesbaden
Seghezzi HD (2003) Integriertes Qualitätsmanagement. Das St Galler Konzept. 2. vollst
überarb. und erw. Aufl. Carl Hanser Verlag, München
Seibert S (2006) Technisches Management. Innovationsmanagement - Projektmanagement
– Qualitätsmanagement. Studienausgabe (Paperback), berichtigter Nachdruck der 1.
Aufl. (Teubner Verlag, Stuttgart), SMP Seibert Management Publikationen
Seitz D (1992) Arbeit und Organisation in der Serienmontage – Fortschrittsberichte VDI.
Reihe 2, Nummer 260. VDI-Verlag, Düsseldorf
Seitz D (1993) Gruppenarbeit in der Produktion. In: Binkelmann P, Braczyk H-J, Seitz R
(Hrsg) Entwicklungen der Gruppenarbeit in Deutschland. Campus Verlag, Frankfurt
Senge PM (2008) Die fünfte Disziplin - Kunst und Praxis der lernenden Organisation. 10.
Aufl. Schäffer-Poeschel, Stuttgart
Shea GP, Guzzo RA (1987) Group Effectiveness – What Really Matters? In: Sloan Man-
agement Review, 28(3):25-31
Simonse WL, Eijnatten FMv. (1996) Cross-functional Teams as Self-Directed Teams? In:
Proceedings of the 3rd International Product Development Management Conference,
Fontainebleau, France, S 635-650
Sims HP, Szilagyi AD, Keller RT (1976) The Measurement of Job Characteristics. In:
Academy of Management Journal 19:195-212
Smith PC, Kendall LM, Hulin CL (1969) The Measurement of Satisfaction in Work and
Retirement. Rand McNally, Chicago, IL
Sonntag Kh (2006) Personalentwicklung in Organisationen - Psychologische Grundlagen,
Methoden und Strategien. 3. überarbeitete und erweiterte Aufl. Hogrefe, Göttingen
Sonntag Kh, Schaper N, Friebe J (2005) Erfassung und Bewertung von Merkmalen unter-
nehmensbezogener Lernkulturen. edition QUEM, Bd 18. Waxmann, Münster
Gruppen- und Teamarbeit 571
Udris I, Alioth A (1980) Fragebogen zur subjektiven Arbeitsanalyse (SAA). In: Martin E,
Udris I, Ackermann U, Ögerli K (Hrsg) Monotonie in der Industrie. Hans Huber Ver-
lag, Bern, S 49-68
Ulich E (1978) Über das Prinzip der differentiellen Arbeitsgestaltung. In: Industrielle Or-
ganisation 47:566-568
Ulich E (1984) Psychologie der Arbeit. In: Management-Enzyklopädie Bd 7. Moderne
Industrie, Landsberg, S 914-929
Ulich E (1988) Arbeits- und organisationspsychologische Aspekte. In: Balzert H, Hoppe H-
U, Oppermann R, Peschke H, Rohr G, Streitz N (Hrsg) Einführung in die Software-
Ergonomie. De Gruyter, Berlin, S 49-66
Ulich E (1994) Arbeitspsychologie. 3. Aufl. Schäffer-Poeschel Verlag, Stuttgart
Ulich E (1998) Arbeitspsychologie. 4. Aufl. Schäffer-Poeschel Verlag, Stuttgart
Ulich E (2005) Arbeitspsychologie. 6. Aufl. Schäffer-Poeschel Verlag, Stuttgart
Ulich E, Conrad-Betschart H, Baitsch C (1989) Arbeitsform mit Zukunft: ganzheitlich-
flexibel statt arbeitsteilig. Lang, Bern
Volpert W (1987) Psychische Regulation von Arbeitstätigkeiten. In: Kleinbeck U, Ruten-
franz J (Hrsg) Arbeitspsychologie. Enzyklopädie der Psychologie, Themenbereich D,
Serie III, Bd 1. Hogrefe, Göttingen, S 1-42
Voß E, Wilke P, Conrad P, Hucker T (2003) Mitarbeiterbeteiligung – Bedeutung und Be-
dingungsfaktoren. In: Voß E, Wilke P (Hrsg) Mitarbeiterbeteiligung in deutschen Un-
ternehmen - Auswirkungen auf Unternehmensorganisation und Arbeitsgestaltung.
Deutscher Universitäts-Verlag, GWV Fachverlage GmbH, Wiesbaden, S 5-22
Vroom V H (1964) Work and Motivation. John Wiley, New York
Wahren H-K E (1994) Gruppen- und Teamarbeit in Unternehmen. de Gruyter Verlag,
Berlin
Wardanjan B, Richter F, Uhlemann K (2000) Lernförderung durch die Organisation - Er-
fassung mit dem Fragebogen zum Lernen in der Arbeit (LIDA). In: Zeitschrift für Ar-
beitswissenschaft 3:184-191
Warnecke HJ (1992) Die Fraktale Fabrik – Revolution der Unternehmenskultur. Springer
Verlag, Berlin, Heidelberg
Weber WG (1997) Analyse von Gruppenarbeit – Kollektive Handlungsregulation in sozio-
technischen Systemen. 1. Aufl. Verlag Hans Huber, Bern
Weber WG (1999) Gruppenarbeit in der Produktion. In: Zölch M, Weber WC, Leder L
(Hrsg) Praxis und Gestaltung kooperativer Arbeit. vdf Hochschulverlag, Zürich, S 13-
69
Wegge J (2003) Heterogenität und Homogenität in Gruppen als Chance und Risiko für die
Gruppeneffektivität. In: Stumpf S, Thomas A (Hrsg) Teamarbeit und Teamentwick-
lung. Hogrefe Verlag, Göttingen, S 119-141
Wegge J (2004) Führung von Arbeitsgruppen. Hogrefe Verlag, Göttingen
Wegge J, Metz-Göckel H (2001) Was bewegt menschliches Handeln (Teil I). In: Sichere
Arbeit 2:8-12
Wegge J, Schmidt KH (2007) Management von Arbeitsgruppen. In: Schuler H, Sonntag K
(Hrsg) Handbuch der Arbeits- und Organisationspsychologie. Hogrefe Verlag, Göttin-
gen, S 690-697
Weichel J, Stanic S, Diaz JAE, Frieling E (2010) Job rotation in the automotive industry:
implications for old and impaired assembly line workers. In: Occupational Ergonomics
(in Druck)
Weinert AB (1998) Organisationspsychologie. Ein Lehrbuch. 4. Vollst überarb Aufl. Beltz
Verlagsgruppe, Weinheim
Gruppen- und Teamarbeit 573
Die Entwicklung der Arbeitszeiten in Deutschland seit 2003 ist als ungewöhn-
lich zu betrachten. Dass die effektiven Arbeitszeiten während Rezession oder
Stagnation zurückgehen und bei wirtschaftlichem Aufschwung wieder verlängert
werden, ist an vielen Beispielen aus EU-Ländern bekannt. In Deutschland jedoch
fand bereits 2003, also noch in einer Phase der wirtschaftlichen Stagnation, eine
Debatte über längere Arbeitszeiten statt (IAQ-REPORT 2009). Angeregt wurde
diese Debatte von einigen Arbeitgeberverbänden der Privatwirtschaft. Aber auch
die öffentlichen Arbeitgeber schlossen sich an. Mit dem beginnenden Aufschwung
der Wirtschaft in 2004 stiegen dann die Arbeitszeiten real an. Die Unternehmen
Arbeitszeit 577
Abb. 6.3: Gründe für die Entkopplung von Betriebs- und Arbeitszeiten
(GARHAMMER 1994)
tion, die Wirkung von Schichtarbeit auf den Menschen und die Möglichkeiten,
erhöhter Beanspruchung durch Schichtarbeit entgegenzuwirken.
Der Zeitbegriff als wirtschaftlich-soziale Maß- und Wertvorstellung ist nicht sehr
alt, und erst in den letzten Jahrhunderten wurde der Zeitbegriff für die menschli-
che Arbeit als Maßstab übernommen (GIESE 1930; SCHMID 1961). Bezeichnet
man das mengenmäßige Verhältnis von Faktorertrag zu Faktoreinsatz als Produk-
tivität, so ist mit einer Reduzierung von Arbeitsstunden nicht gleichsam ein Rück-
gang der Arbeitsproduktivität zu erwarten – auch dann nicht, wenn eine Verkür-
zung der Arbeitszeit auch zu kürzeren täglichen Arbeitszeiten führt (WÖHE 1984).
Im Europa des vorindustriellen Zeitalters bis in die Mitte des 19. Jahrhunderts
hinein herrschte die Auffassung, dass Arbeit eine erzieherische und sittlichkeitser-
haltende Funktion haben sollte. Mit entsprechend langen Arbeitszeiten sollte das
Volk frei gehalten werden von Müßiggang und schädigenden, politischen Einflüs-
sen. Tägliche Arbeitszeiten von 12, 14 und 16 h waren durchaus üblich, und erst
in der Folge wurden Arbeitszeitregelungen Gegenstand gesetzlicher Vorgaben und
Verankerungen. Durch die aufkommende Industrialisierung und die damit ver-
bundene Substitution von Arbeit durch Kapital wurde dann auch aus ökonomi-
schen Erwägungen auf einen sinnvollen, effektiven Einsatz menschlicher Arbeit
gedrängt.
Einzelne englische Volkswirte des 18. Jahrhunderts, wie beispielsweise Adam
Smith, hatten übrigens bereits die inneren Zusammenhänge zwischen der übermä-
ßigen Arbeitsdauer und dem gelegentlichen Ausspannungsbedürfnis der Arbeiter,
die ihre erschöpfte Arbeitsenergie an besonderen Mußetagen wieder auffrischen
mussten, erkannt. Adam Smith, der Moralphilosoph unter den Nationalökonomen,
hatte schon vor der weiteren Verbreitung des Fabriksystems die übermäßige zeitli-
che Arbeitsbeanspruchung der Arbeiter als Widersinn bezeichnet, da sie zu einer
Untergrabung der Gesundheit der Arbeiter führen müsse, wenn diese sich nicht
selber durch den „viel beklagten Müßiggang“ an einzelnen Zwischentagen halfen.
„Derjenige, welcher in dem Maße arbeitet, dass er sein Werk ständig fortsetzen
kann, bewahrt nicht nur seine Gesundheit am längsten, sondern bringt auch im
Laufe des Jahres die größte Menge Arbeit zustande“ (GIESE 1930).
Wurde der Zehnstundentag 1848 zuerst in England, 1904 in Frankreich und
1912 im Deutschen Reich eingeführt, so wurden schon 1883 in der Maschinenfab-
rik von Mather und Platt in Salford sowie von W. Allen in den Scotia Engine
Works, Sunderland, die ersten Experimente zum Achtstundentag durchgeführt.
Das Ergebnis war, dass eine wesentliche Reduzierung der Arbeitskosten erreicht
werden konnte. Allgemein wurde mit dem Übergang vom Zehnstundentag auf den
Achtstundentag auch eine Produktivitätssteigerung erwartet. Und schon 1883 ging
das Arsenal von Woolwich, England, mit 16.000 Arbeitern zum Achtstundentag
über (Vergleich: Gesetzliche Einführung des Achtstundentages in Deutschland 19.
580 Arbeitswissenschaft
Nov. 1918, in England 1. Nov. 1919). Noch vor Ausbruch des 1. Weltkrieges
konnte Ford in den USA durch Einführung des Achtstundentages gegenüber dem
Neunstundentag nach eigenen Angaben eine „Mehrleistung“ von ca. 15 - 20%
erzielen, womit gleichwohl eine Erhöhung der Produktion als auch der Produktivi-
tät verstanden werden soll (GIESE 1930).
Den Zusammenhang zwischen Arbeitszeitverkürzung und Produktivitätssteige-
rung formulierte Brentano schon vor über hundert Jahren: „Tritt infolge Lohner-
höhung und Kürzung der Arbeitszeit eine Erhöhung der Arbeitsleistung ein, so
treibt sie erfahrungsgemäß zu größerer Intensität der Arbeit, weil Menschen mit
größeren Bedürfnissen bei kürzerer Arbeitszeit zu größerem Fleiße genötigt sind.
Sie ermöglicht auch intensivere Arbeit, indem körperliche Ursachen und größere
Arbeitsfreude ihnen den größeren Fleiß leichter machen als Arbeitern, welche
wenige Bedürfnisse empfinden, schlecht genährt, müde und missmutig sind.“
(BRENTANO 1893, nach SCHMID 1961). Die in den Weltkriegen von 1914 und
1939 verlängerten Arbeitszeiten zur Mehrproduktion von Kriegs- und Versor-
gungsgütern sind Gegenstand vieler Untersuchungen gewesen. In englischen Mu-
nitionsfabriken erzielte man durch eine Verkürzung der Wochenarbeitszeit von 66
auf 47,5 h eine erhebliche Produktivitätssteigerung, die zudem zu einer Produkti-
onserhöhung führte, wenn das Arbeitstempo von Maschinenzeiten unabhängig
gesteigert wurde (Tabelle 6.1).
Tabelle 6.1: Wöchentliche Arbeitszeit, Produktion und Leistungsgrad. Das Drehen von
Geschosskörpern als von Maschinenzeiten unabhängige, das Fräsen von Schraubengewin-
den als abhängige Arbeitsleistung (nach VERNON 1943, aus SCHMID 1961)
VERNON (1943, zit. nach SCHMID 1961) untersuchte in England eine Gruppe
von 115 Frauen in der mechanischen Fertigung, deren wöchentliche Arbeitszeiten
im Kriegsjahr 1942 von 56 auf 69,5 h erhöht worden waren. Die durch die Mehr-
arbeit erzielte Produktionserhöhung betrug in Woche 1 +26%, Woche 2-4 +11%,
Woche 5-8 +7% und in Woche 9-13 +/- 0%.
Arbeitszeit 581
Obwohl sich die Arbeitsproduktivität zunächst nach der Umstellung in der ers-
ten Woche um 1,6% erhöhte, wurden schon in der zweiten Woche 10% und in den
darauf folgenden Wochen 14% und schließlich 20% Produktivitätsrückgang ge-
messen. Dagegen wurde nach Wiedereinführung der alten Arbeitszeit eine zu-
nächst proportional zur Arbeitszeitverkürzung zurückgehende Produktionsleistung
beobachtet und zwar aufgrund des remanenten Arbeitstempos. Danach benötigten
die Arbeiterinnen einen Anpassungsvorgang von ca. 3-4 Monaten, um zu einem
höheren Arbeitstempo zu finden – mithin zu einer Kompensation der durch Ar-
beitszeitverlust eingetretenen Minderleistung (VERNON 1943, zit. nach SCHMID
1961). Wenngleich einer weiteren, ad infinitum zu betreibenden Ausnutzung von
Produktivitätsreserven allein durch Arbeitszeitverkürzung ökonomisch-technische
Grenzen gesetzt sind, so wurden in der Vergangenheit durch schrittweise Rück-
führung der Wochen- und Tagesarbeitszeiten eindeutige Ergebnisse erzielt, ein-
hergehend mit Gestaltungsmaßnahmen in der Arbeitsorganisation und einer im
Zuge der Mechanisierung und Automatisierung effektiveren Kombination der
Produktionsfaktoren.
In den USA wurde eine Arbeitszeitverkürzung von 48,6 auf 39,8 h Wochenar-
beitszeit im Zeitraum von 1929 bis 1957 erreicht. Der dadurch verursachte Pro-
duktivitätszuwachs betrug gegenüber dem gleichfalls produktivitätssteigernden
Faktor Kapital 100% (SCHETTKAT 1984).
Die Frage, ob nicht bereits die heute üblichen täglichen Arbeitszeiten von 8 h
für einzelne Arbeitsformen schon zu lang seien, wurde bereits von LEHMANN
(1962) diskutiert. Unterstellt wurden hierbei mehrere Beziehungen zwischen Ta-
gesleistung und täglicher Arbeitszeit.
Die Analysen zeigen, dass eine Leistung in Abhängigkeit von der Arbeits-
schwere schon weit vor Arbeitszeitende das Maximum der Stundenproduktivität
erreicht haben kann. Mit anderen Worten: Wird die Arbeitszeit von 8 h auf 7 h
verkürzt, so beträgt die Minderleistung weniger als ein Achtel. Zum anderen ist
die Tagesleistung abhängig von der Leistungsbereitschaft und von der Summe der
Rüst- und Nebenzeiten (LEHMANN 1962). Mit einer weiteren Reduzierung der
täglichen Arbeitszeit werden – vordergründig betrachtet – die konstanten Anteile
unproduktiver Nebenzeiten relativ zu den Produktionszeiten erhöht. Maschinelle
Anlaufzeiten und physiologisch bedingte Einarbeitungszeiten fallen ebenso ins
Gewicht. Dagegen ist ein linearer Produktionsabfall bei maschinenabhängiger
Leistung zu erwarten.
Einen Beleg liefert der Vergleich der durchschnittlichen tatsächlichen Arbeits-
zeiten in der EU und der damit verbundenen Arbeitsproduktivität (Abb. 6.4). Die
Arbeitsproduktivität je geleisteter Arbeitsstunde fällt durchschnittlich in Abhän-
gigkeit von der Anzahl der in der Woche zu leistenden Arbeitsstunden (bezogen
auf Vollzeitarbeitnehmer). Dieser Schluss ist jedoch nur eingeschränkt zu ziehen,
denn es gibt gerade zwischen den einzelnen EU-Ländern deutliche Unterschiede
(Arbeitsgestaltung, sozialer Kontext, etc.), die für die Arbeitsproduktivität mit
verantwortlich sein können. So ist die Produktivität beispielsweise im Vergleich
582 Arbeitswissenschaft
zwischen Belgien und Polen sicherlich nicht ausschließlich durch die zu leistenden
Wochenarbeitsstunden sinnvoll zu erklären.
Die Arbeitszeit besitzt eine chronologische Dimension, welche die Verteilung und
zeitliche Lage der Arbeitszeit angibt, und eine chronometrische, welche die Dauer
der Arbeitszeit festlegt (BAUER 1999).
Die Definitionen von flexibler Arbeitszeit sind in der Literatur unterschiedlich
weit gefasst. WILDEMANN (1991) und LINNENKOHL u. RAUSCHENBERG (1996)
beschreiben, dass Arbeitszeit als flexibel bezeichnet werden kann, wenn sowohl
chronologische als auch chronometrische Dimensionen permanent veränderbar
sind.
Die Gestaltung der Arbeitszeit ist abhängig von den vorliegenden Arbeitsauf-
gaben und muss sich daran orientieren. Vor Einführung eines Arbeitszeitmodells
ist eine fundierte qualitative und quantitative Analyse der Aufgabenfelder erfor-
derlich. In Abb. 6.5 sind zwei komplementäre Strukturierungsprinzipien gegen-
übergestellt (FERREIRA 2001).
Arbeitszeit 583
t t
Traditionell Multifunktionskarriere
Arbeitszeitvolumen Arbeitszeitvolumen
t t
ZeitweiseĆBeförderung StufenweiseĆPensionierung
Betriebszeitorganisation
Für die effiziente, bedarfsgerechte Nutzung der Betriebsmittel existieren verschie-
dene Möglichkeiten der Betriebszeitflexibilisierung. Steigt der Absatz, bieten sich
außer Mehrarbeit (oft unwirtschaftlich aufgrund hoher Zulagen) folgende Maß-
nahmen an (Abb. 6.7) (SCHWIENTEK 1993):
x Ausdehnung der Schichtdauer durch Wahrnehmung von Optionen zur Be-
triebszeitverlängerung
x Erhöhung der Anzahl der Schichten pro Tag
x Zusatzschichten an noch nicht genutzten Wochentagen, z.B. Samstagen, ggf.
als Mehrarbeit
x organisatorischer oder technischer Pausendurchlauf
x Erhöhung des Nutzungsgrades durch Verkürzung von Brachzeiten
x Fremdvergabe von Aufträgen bzw. Verringerung der Fertigungstiefe.
Neben der Flexibilisierung von Arbeit bietet die Einführung von Kurzarbeit die
Möglichkeit auf kurz- bzw. mittelfristige Schwankungen im Auftragseingang zu
reagieren und damit auch wirtschaftlich schwierige Phasen zu überstehen. Unter
Kurzarbeit wird eine vorübergehende Reduzierung der Regelarbeitszeit zur Ver-
meidung von Kündigungen verstanden. In einem gewissen Ausmaß trägt der Staat
den entstehenden Verdienstausfall. Laut Aussagen des Instituts für Arbeitsmarkt-
586 Arbeitswissenschaft
und Berufsforschung der Bundesagentur für Arbeit (IAB) ist die Zahl der Kurzar-
beiter im ersten Quartal 2009 (eine Phase des wirtschaftlichen Abschwungs)
sprunghaft auf 950.000 angestiegen, wobei im Schnitt etwa ein Drittel der norma-
len Arbeitszeit ausgefallen ist. Dies könnte betriebsbedingte Kündigungen verhin-
dert haben. In der Zeit von Januar bis März 2009 wurden durchschnittlich 354,8
Arbeitsstunden geleistet, berichtet das IAB weiter. Somit wurden 11,2 Stunden
bzw. 3,1% weniger gearbeitet als in den Vergleichsmonaten im Jahr 2008. Auch
die geleisteten bezahlten Überstunden nahmen ab und lagen bei 8,4 Stunden je
Arbeitnehmer.
Absatzschwierigkeiten kann (neben Kurzarbeit) folgendermaßen begegnet wer-
den:
x Verringerung der Schichtenanzahl
x personelles Ausdünnen einzelner Schichten
x Verlängerung unbezahlter Pausen
x Abbau von Mehrarbeit
x Freischichten
x Erhöhung der Fertigungstiefe.
Neu und von besonderem Interesse für Arbeitszeitgestalter ist die Forderung in
§6(1) ArbZG, dass „die Arbeitszeit der Nacht- und Schichtarbeitnehmer [...] nach
den gesicherten arbeitswissenschaftlichen Erkenntnissen über die menschenge-
rechte Gestaltung der Arbeit festzulegen [ist].“ Gesicherte arbeitswissenschaftli-
che Erkenntnisse können beispielsweise nachgelesen werden bei KNAUTH u.
HORNBERGER (1997) und sind für Schichtarbeit in Kap. 6.5.1 aufgeführt.
Regelung der Sonn- und Feiertagsruhe
Die Sonn- und Feiertagsruhe ist verfassungsmäßig festgelegt. Es gibt jedoch 16
Ausnahmen von der Regel in den Bereichen Daseinsvorsorge, Dienstleistungen,
soziales Sicherungssystem, Freizeiteinrichtungen und in den Bereichen des Wirt-
schaftslebens, in denen auf Sonn- und Feiertagsarbeit nicht verzichtet werden
kann (§10) (z.B. Krankenpflegeanstalten oder wenn die Produktion aus techni-
schen Gründen nicht unterbrochen werden kann).
Betriebe können bei den Gewerbeaufsichtsämtern eine Sondergenehmigung für
Sonn- und Feiertagsarbeit beantragen, wenn (§13, Abs. 5):
die gesetzlichen wöchentlichen Betriebszeiten von 144 Stunden ausgeschöpft
sind (Produktion quasi von Montag bis Samstag rund um die Uhr) oder
aufgrund noch längerer Arbeitszeiten der ausländischen Konkurrenz keine
Konkurrenzfähigkeit möglich ist.
Die Aufsichtsbehörden müssen dann die Sonn- und Feiertagsarbeit genehmi-
gen. Der Betrieb muss nachweisen, dass die Betriebszeiten bereits 144 h/Woche
betragen, dass die Konkurrenz noch länger produziert und dass er ohne Sonn- und
Feiertagsarbeit nicht mehr konkurrenzfähig ist bzw. dass dann Arbeitsplätze verlo-
rengehen.
15 Sonntage/Jahr müssen im Allgemeinen beschäftigungsfrei bleiben (Rege-
lungen über Arbeitszeiten, Pausen, Ruhephasen und Ausgleichszeiträume gelten
auch an Sonn- und Feiertagen). Die Tarifvertragsparteien/Betriebsparteien können
hier jedoch andere Regelungen vereinbaren.
In Schichtbetrieben kann die Arbeitszeit an Sonn- und Feiertagen auf bis zu
zwölf Stunden verlängert werden (Ausgleich muss dann durch zusätzliche freie
Schichten an Sonn- und Feiertagen erfolgen).
Mehrschichtige Betriebe mit regelmäßiger Tag- und Nachtschicht dürfen Be-
ginn oder Ende der Sonn- und Feiertagsruhe um bis zu 6 Stunden vor- oder zu-
rückverlegen, wenn der Betrieb unmittelbar nach dem Beginn der Ruhezeit 24
Stunden ruht.
Gleichbehandlung von Frauen
Das Nachtarbeitsverbot für Frauen ist aufgehoben. Dadurch ist jetzt der Aufstieg
zur Schichtführerin möglich. Die Höchstarbeitszeiten und Ruhepausen für Frauen
sind denen der Männer angepasst.
590 Arbeitswissenschaft
Gesetze/ Gesetzliche Regelungen legen den Rahmen fest, innerhalb dessen die Tarifver-
Verordnungen tragsparteien Dauer und Verteilungsräume der Arbeitszeit bestimmen können.
Tabelle 6.2: Tarifvertragliche Regelungen zur Dauer und Verteilung der Arbeitszeit
Arbeitszeitsysteme
Arbeitszeitmodelle
Flexibilisierende Erweiternde
Elemente Modifikationen
Bezeichnung Bestimmungsfaktoren
(1) Variabilität der Lage x Nicht gegeben
x Innerhalb eines Tages
x Innerhalb einer Woche
x Innerhalb eines Monats
x Innerhalb eines Jahres
x Innerhalb eines Jahrzehnts
x Innerhalb eines Arbeitslebens
(1a) Verfügbarkeit x durch Arbeitnehmer
der Variabilität x durch Arbeitgeber
x durch Arbeitnehmer und Arbeitgeber
(2) Variabilität der Dauer x Nicht gegeben
(Stundenzahl) x Innerhalb eines Tages
x Innerhalb einer Woche
x Innerhalb eines Monats
x Innerhalb eines Jahres
x Innerhalb eines Jahrzehnts
x Innerhalb eines Arbeitslebens
(2a) Verfügbarkeit x durch Arbeitnehmer
der Variabilität x durch Arbeitgeber
x durch Arbeitnehmer und Arbeitgeber
(3) Üblicher x 1 Tag
Ausgleichszeitraum x 1 Tag bis d 7 Tage
x Tage bis d 1 Monat
x 1 Monat bis d ein Jahr
x 1 Jahr d 10 Jahre
x 10 Jahre (Arbeitsleben)
(4) Kernzeit x Vorgegeben
x Nicht vorgegeben
(5) Arbeitszeitkorridor x Vorgegeben
x Nicht vorgegeben
(6) Sonstige Vorgaben des x Vorhanden
Arbeitgebers x Nicht vorhanden
(7) Modell permanent flexibel x Ja
(auch mit Vorlauf) x Nein
(8) Modell beschränkt flexibel (für x Ja
Zeitraum festgelegt) x Nein
594 Arbeitswissenschaft
Flexible Standardar- Es werden tägliche Standardarbeitszeiten auf der Abweichungen können auftreten,
beitszeit Basis der zu erwartenden Anforderungen in allerdings ist die Tages-
Verbindung mit den Wünschen der Arbeitnehmer Standardarbeitszeit so zu planen,
im Voraus geplant und festgelegt. dass sie ausreichen müsste, um
die täglichen Anforderungen zu
erfüllen.
Jahresarbeitszeit Die Jahresarbeitszeit ist die flexible Standardar- Während des ganzen Jahres
beitszeit bezogen auf den Zeitraum eines Jahres. erhält man 1/12 des Jahresge-
Ausgehend von der Sollarbeitszeit von 100% halts monatlich und ist außerdem
können vielfältige Abweichungsmöglichkeiten im Sozialversicherungssystem
nach unten installiert werden. So können auch eingebunden (BAILLOD 1986).
längere Freizeitblöcke entstehen.
Mehrjahresarbeits- Die flexible Standardarbeitszeit bezogen auf
zeit mehrere Jahre wird in Form von Mehrjahresar-
beitszeit-Modellen z.B. bei der Firma Opel
diskutiert, wobei sich die Arbeitszeitmodelle am
„(…) ganzen Modellzyklus eines Autos sowohl in
der Produktion als auch in den indirekten Berei-
chen über einen Ausgleichszeitraum von drei bis
vier Jahren (…)“ orientieren sollen.
Baukastensystem Ausgangspunkt ist die Arbeitswoche, die in Die Mitarbeiter stimmen im Team
Module unterteilt wird. Jedes Modul hat dabei eigenverantwortlich über die
zum Beispiel eine Länge von 4 Stunden. Die konkrete Besetzung der Arbeits-
Vollzeit-Arbeitnehmer müssen dann wöchentlich plätze ab, wobei sie sich an den
etwa 10 Module ableisten. Die Zahl der Module Kundenfrequenzen orientieren.
pro Woche multipliziert mit der Anzahl der Mitar-
beiter ergibt die Gesamtzahl der zu besetzenden
Module pro Woche.
Staffelarbeitszeit Feststehende Arbeitszeiten werden hinsichtlich Zu Beginn und am Ende jedes
ihres Arbeitsbeginns bestaffelt. Die Mitarbeiter Arbeitstages kann ein Absinken
können sich innerhalb einer Zeitspanne für einen der Besetzungsstärke eintreten.
Arbeitsbeginn entscheiden. In der Regel ist diese
Entscheidung dann für mindestens ein Quartal
verbindlich.
Ergebnisorientierte Die Leistung der Mitarbeiter wird ausschließlich
Arbeitszeit (Vertrau- an den Ergebnissen ihrer Arbeit gemessen. Dies
ensarbeitszeit) bedeutet die vollständige Abschaffung von
Zeitkorridoren und Zeitkonten.
596 Arbeitswissenschaft
6.5.1 Schichtarbeit
Bei der Schichtarbeit handelt es sich um all jene Arbeitszeitformen „(...) bei denen
Arbeit entweder zu wechselnder Zeit (z.B. Wechselschicht) oder zu konstanter,
aber ungewöhnlicher Zeit (z.B. Dauer-Nachtschicht) ausgeführt werden muss“
(RUTENFRANZ et al. 1979). Dazu wird die betriebliche Arbeitszeit in mehrere
Zeitabschnitte mit versetzten Anfangszeiten bzw. mit unterschiedlicher Lage und
Dauer aufgeteilt. Die gleiche Tätigkeit wird also innerhalb dieser verschiedenen
Abschnitte am gleichen Arbeitsplatz von verschiedenen Arbeitnehmern ausgeführt
(RUTENFRANZ 1979). Bei der Schichtarbeit sind zahlreiche Variationen möglich.
Bei der Schichtarbeit handelt es sich um beschränkt flexible Arbeitszeit, da die
Lage und Dauer der Arbeitszeit meist nur einmalig veränderbar und danach wie-
der fixiert ist (LINNENKOHL u. RAUSCHENBERG 1996).
Bestimmte Gründe sprechen für eine längere oder gar permanente (ununterbro-
chene) Benutzung eines Arbeitsplatzes. Schichtarbeit als Folge einer Arbeitsper-
son-Arbeitsplatz-Arbeitszeit-Regelung ist deshalb organisatorisch für meist meh-
rere Arbeitspersonen und Arbeitsplätze zu treffen.
Schichtarbeit liegt in folgenden Ursachenkomplexen begründet (MIKL-HARKE
1980; KNAUTH u. HORNBERGER 1997):
Aufgaben in institutionell-dienstleistenden Berufen
In institutionell-dienstleistenden Berufen sind wichtige Funktionen durch perma-
nente Arbeitsbereitschaften zu sichern. Hierzu zählen Dienste in der Gesundheits-
versorgung und der öffentlichen Sicherheit sowie Aufgaben der Energieversor-
gung. Schichtarbeit ist zur Sicherstellung dieser Funktionen notwendig.
Aufgaben ökonomisch-technischer Art
Ökonomisch-technisch begründbare Ursachen der Schichtarbeit sind auf Fragen
der Kapazität und Wirtschaftlichkeit sowie auf Markt- und Absatzerfordernisse
zurückzuführen. Investitionsentscheidungen werden zur Sicherung der Rentabilität
und aus Gründen eines beschleunigten Kapitalrückflusses getroffen, womit oft-
mals eine mehrschichtige Nutzung der eingesetzten Produktionsmittel schon für
die längerfristige Produktionsweise in Aussicht gestellt wird.
Aufgaben technologisch-verfahrenstechnischer Art
Technologisch-verfahrensbedingte Gründe der Schichtarbeit liegen in kontinuier-
lichen bzw. quasi-kontinuierlichen Produktionsverfahren begründet. Insbesondere
bei Chargenfertigung müssen vielfach Produktionsprozesse kontinuierlich fortge-
führt werden (z.B. für Produktionsverfahren der Stahlerzeugung und der Chip-
Fertigung). Hohe Anlaufverluste treten durch Produktionsunterbrechungen und
Wiederaufnahme in der Lebensmittelindustrie auf, was besonders unter Entsor-
gungsaspekten (Rohstoff- und Energieverluste, Reinigungszyklen) zu berücksich-
tigen ist. Schichtarbeit dient der Aufrechterhaltung der kontinuierlichen Produk-
tionsprozesse, der Verhinderung des Verderbens von Rohstoffen oder der Vermei-
dung eines unzumutbaren Misslingens von Arbeitserzeugnissen.
Arbeitszeit 597
Abb. 6.10: Circadiane Rhythmen der Mundtemperatur von Schichtarbeitern während des
freien Tages sowie während der 1., 2., 4., 5. und 7. Nachtschicht (KNAUTH 1983b)
Abb. 6.11: Tageszeitliche Lage verschiedener Zeitelemente. Von (1) bis (6): an arbeits-
freien Tagen (85 Tagesverläufe), an Tagen mit Frühschicht (90 Tagesverläufe), an Tagen
mit Spätschicht (127 Tagesverläufe), vor der ersten Nachtschicht (19 Tagesverläufe),
zwischen zwei Nachtschichten (60 Tagesverläufe), an Tagen nach der letzten Nachschicht
(17 Tagesverläufe) (aus KNAUTH et al. 1981)
Sicher ist, dass die Lage und Dauer der Schlaf- und Freizeiten durch Arbeitszei-
ten, im besonderen aber durch unterschiedliche Arbeits-Tages-Nachtzeiten, auch
flexible Arbeitszeiten, entscheidend geprägt und darüber hinaus beeinflusst wer-
den. Bei der Gestaltung von Freizeiten in Abhängigkeit der Arbeitszeiten ist zu
berücksichtigen, dass nicht nur Dauer und Lage der Zeitelemente eine Rolle spie-
len, sondern auch die Einschätzung, also die Wertung, und die subjektive Nutz-
barkeit von Zeit durch die Betroffenen selbst. Mit Abb. 6.12 ist die subjektive
Nutzbarkeit für einzelne Tageselemente aufgezeigt. Ein Freizeitverlust durch
Wochenendarbeit kann durchaus mit freien Wochentagen kompensiert werden,
mehr noch können durch eine auch zu erreichende Flexibilisierung der Freizeit
602 Arbeitswissenschaft
Abb. 6.12: Nutzbarkeit der Freizeit von Montag bis Donnerstag (oben) sowie an Samstagen
(unten) (aus KNAUTH U. HORNBERGER 1997)
Gestaltungempfehlungen
Da jedes Schichtsystem spezifische Vor- und Nachteile besitzt, gibt es keinen
Schichtplan, der alle arbeitsphysiologischen und sozialen Bedingungen erfüllt. Um
den Zielen menschengerechter Arbeitsgestaltung Rechnung zu tragen, müssen
aber bestimmte Gestaltungskriterien berücksichtigt werden, die nach Möglichkeit
übergeordnete Aspekte wie Ausführbarkeit, Erträglichkeit, Zumutbarkeit und
Zufriedenheit in die Schichtarbeit einbinden. Das Arbeitszeitgesetz (§6, Abs. 1)
Arbeitszeit 603
schreibt vor, dass die „Arbeitszeit der Nacht- und Schichtarbeitnehmer nach den
gesicherten arbeitswissenschaftlichen Erkenntnissen über die menschengerechte
Gestaltung der Arbeit festzulegen ist“. KNAUTH (2002) beschreibt die Kriterien
und zugehörigen Gestaltungsempfehlungen aufgrund von Untersuchungen, wie in
Tabelle 6.5 dargestellt.
Tabelle 6.5: Arbeitswissenschaftliche Empfehlungen zur Schichtplangestaltung (nach
KNAUTH 2002)
Kriterien Empfehlungen
maximale Anzahl hintereinander- möglichst wenige hintereinanderliegende Nacht-
liegender gleicher Schichten schichten (maximal 3)
„Aufeinanderfolge der Schichten“
Dauernachtschicht vermeiden
möglichst wenige hintereinanderliegende Frühschich-
ten (maximal 3)
möglichst wenige hintereinanderliegende Spätschich-
ten (maximal 3)
Schichtplanmerkmal
Rotationsschichten Vorwärtswechsel
spezielle Schichten mindestens 2 freie Tage nach der letzten Nacht-
schicht (N – F)
Schichtkombination N – N vermeiden
einzelne Arbeitstage zwischen freien Tagen vermei-
den (- F -; - S -; - N -)
maximale Anzahl hinter- maximal fünf bis sieben Arbeitstage
einanderliegender Arbeitstage
pen)
auf Wunsch des Mitarbeiters Flexibilität ermöglichen (z.B. flexible Schichtwechsel-
zeiten, Schichttausch, Zeitfenster, zeitautonome
Arbeitsgruppen)
Tarifrechtliche Gestaltungsbedingungen
Da die gesetzlichen Randbedingungen nicht oder nur in besonderen Ausnahmefäl-
len zur Disposition stehen, werden die tariflichen Wochenarbeitszeiten für die
Gestaltung von Schichtplänen herangezogen und zwar für die Berechnung der
Mindestanzahl der Schichtbelegschaften. Aus der maximalen Wochenarbeitszeit
und der tariflichen Arbeitszeit errechnet sich die Anzahl der Schichtbelegschaften
wie folgt:
maximaleWochenarbeitszeit
Anzahl Schichtbelegschaften
tariflicheWochenarbeitszeit
Mit einer maximalen Wochenarbeitszeit von 168 h und einer tariflichen Wo-
chenarbeitszeit von 40 h erhält man somit 4,2 Schichtbelegschaften. Für die Um-
setzung lassen sich folgende Ansätze unterscheiden (KNAUTH 1983b):
Arbeitszeit 605
(1) Erweiterung der tariflichen Wochenarbeitszeit um den Betrag, der für eine
ganzzahlige Schichtbelegung notwendig wird. Beispiel: 42 Stunden-Woche
bei nur 4 Schichtbelegschaften. Um dennoch die 40 Stunden-Woche zu hal-
ten, werden als Kompensationsmaßnahme über das Jahr 13 Freischichten pro
Schichtarbeiter eingesetzt.
(2) Springerschichten oder zusätzliche Freischichten bei nicht ganzzahligen
Schichtbelegschaften (Beispiel: 4,2 Schichtbelegschaften).
(3) Erweiterung der Schichtbelegschaften. Beispiel: Für 5 Schichtbelegschaften
werden zusätzlich 4 Tagschichten in 5 Wochen gefahren, damit jedes Mit-
glied einer Schichtbelegschaft die Wochenarbeitszeit von durchschnittlich
40 h erreicht.
Aus der Kombination möglicher Schichtplanmodelle ergeben sich die in Tabel-
le 6.6 dargestellten Beispiele.
Ansätze zur rein mathematischen Auslegung von Schichtplänen berücksichti-
gen
x die durchschnittliche tägliche Arbeitszeit > 8 h und < 12 h,
x die Anzahl der freien Tage pro Jahr (> 104 Tage) und
x die freien Wochenenden bzw. die paarweise freien Tage.
Eine Darstellung der Möglichkeiten zur Anpassung an unterschiedliche Wo-
chenarbeitszeiten in kontinuierlichen Schichtsystemen zeigt Abb. 6.13.
Tabelle 6.6: Beispiele der Schichtplangestaltung für kontinuierliche Arbeitsweise (Knauth
1983b), Schichtfolge ist auf Arbeitstage bezogen
Schichtsystem lfd. SchichtfolgeĆ(8-Stunden-Systeme) Zyklus- AnzahlĆderĆfreien
(Ar beitstage/ Nr . (F,ĆS,ĆNĆ=ĆFrüh-,ĆSpät-Ćbzw. dauer Wochenenden
ĆfreieĆTage) ĆNachtschi cht,Ć- Ć=Ćdienstfrei) (W ochen) (Sa+So)Ćpr oĆZyklus
6/2 4 FFSSNN-- 8 1
9/3 5 FFSSNN--FSN- 12 1
18/6 8 FFSSNN--FFFSNN--FSSSNN-- 24 3
2/2 9 TN-- 4 1
4/4 10 TT--NN- - 8 2
6/6 11 TN--TT--NN-- 12 3
606 Arbeitswissenschaft
Im Folgenden werden die Schichtanfänge (0, 4, 8, 12, 16, 20 Uhr) mit i=1,…, 6
und die zu jedem Zeitpunkt beginnende Anzahl an Mitarbeitern mit xi (i=1,…, 6)
gekennzeichnet. Mit Hilfe der ganzzahligen Linearen Programmierung
(DOMSCHKE et al. 2007) soll die Gesamtanzahl der Mitarbeiter minimiert werden,
die zu den verschiedenen Zeitpunkten beginnen. Zu berücksichtigen ist hier, dass
jede Schicht aus zwei aufeinanderfolgenden 4-Stunden-Zeiträumen besteht, somit
also immer die Mitarbeiter aus zwei unterschiedlichen Schichten gleichzeitig tätig
sind (8-Stunden-Schichten).
Somit lautet die Anforderung:
Minimiere F(x1,…, x6) = x1 + x2 + x3 + x4 + x5 + x6
Hierbei sind die folgenden Nebenbedingungen zu berücksichtigen:
x1 + x2 8
608 Arbeitswissenschaft
x2 + x3 10
x3 + x4 8
x4 + x5 14
x5 + x6 5
x1 + x6 3
wobei x1, …, x6 0 und ganzzahlig sein müssen.
Unter Zuhilfenahme einer Standardsoftware lässt sich ein optimaler Zielfunkti-
onswert F(x*) = 27 errechnen (27 benötigte Mitarbeiter). DOMSCHKE et al. (2007)
geben mehrere Lösungen an, die eine minimale Mitarbeiteranzahl erlauben, näm-
lich:
x1* = (0, 8, 2, 6, 8, 3) oder x2* = (0, 10, 0, 12, 2, 3). Die Möglichkeit, einen Vier-
Stunden-Abschnitt mit 0 Mitarbeitern zu besetzen ergibt sich aufgrund des Über-
laufs an Mitarbeitern aus dem vorherigen Vier-Stunden-Abschnitt.
6.5.2 Gleitzeitarbeit
Das erste in Deutschland bekannte Modell der Gleitzeit wurde von der Firma
Bölkow in Ottbrunn 1967 aufgrund massiver Verkehrsprobleme eingeführt; da die
Mitarbeiter alle gleichzeitig die einzige Zufahrtsstraße zum Werk befuhren, gab es
tägliche Staus (HAMM 1999).
Gleitende Arbeitszeit ermöglicht den Beschäftigten im Rahmen von zumeist
betrieblich vereinbarten Regelungen, den Beginn und das Ende ihrer täglichen
Arbeitszeit zu variieren. Dabei lassen sich Gleitzeitvereinbarungen in qualifizierte
und eingeschränkte Gleitzeitmodelle differenzieren (LINNENKOHL u. RAUS-
CHENBERG 1996): Während eingeschränkte Gleitzeitmodelle lediglich eine Varia-
tion der Lage der täglichen Arbeitszeit bei gleicher Dauer erlauben, ermöglichen
qualifizierte Gleitzeitmodelle den Beschäftigten eine Variation sowohl der Lage
als auch der Dauer ihrer täglichen Arbeitszeit (FERREIRA 2001). Die meisten prak-
tizierten Gleitzeitsysteme – häufigster Einsatzbereich sind Verwaltungs- und
Dienstleistungsbereiche – sehen eine Kernarbeitszeit von fünf bis sieben Stunden
(Anwesenheitspflicht) sowie ein- bis zweistündige Ein- und Ausgleitspannen vor
(Abb. 6.15).
Rahmenarbeitszeit
Abb. 6.15: Gleitzeitmodell
Gleitzeitbeschäftigung ist eine Form der flexiblen Arbeitszeit, die sich in den
alten Bundesländern seit den siebziger Jahren durch stetigen Zuwachs auszeichnet
Arbeitszeit 609
(BAUER et al. 1994, 1996). Während 1972 nur 6% der abhängig Beschäftigten
gleitzeitbeschäftigt waren, betrug der Anteil 1987 schon 14%; 1993 waren es
bereits 22% und 1995 28%. Im Jahr 2004 hatte sich der Anteil abhängig Beschäf-
tigter mit Gleitzeitbeschäftigung in den alten Bundesländern auf 31% erhöht. Für
Gesamtdeutschland lag der Anteil in 2004 bei 30%.
Es lassen sich drei Grundmodelle von Gleitzeit unterscheiden:
(1) Gleitzeit mit gleichmäßiger Verteilung der Arbeitszeit: Der Mitarbeiter
hat die Möglichkeit, die Lage seiner Arbeitszeit innerhalb einer festgeleg-
ten Gleitspanne täglich neu zu wählen. Es gibt keine Möglichkeit, Zeit-
guthaben oder Zeitschulden anzusammeln.
(2) Gleitzeit mit ungleichmäßiger Verteilung der Arbeitszeit: Die vereinbarte
Dauer der täglichen Arbeitszeit muss nicht starr eingehalten werden. Be-
ginn und Ende der Arbeitszeit können im Rahmen der Eingleit- und Aus-
gleitspanne variiert werden. Ausgleich der Zeitschuld bzw. des Zeitgutha-
bens innerhalb eines vereinbarten Zeitraumes (Woche, Monat, Quartal;
stundenweise unter Einhaltung der Kernzeit bzw. Freizeit an halben oder
ganzen Tagen).
(3) Gleitzeit mit täglich variabler Arbeitszeit ohne Einschränkung durch
Kernzeit: Es gilt das gleiche wie unter 2, jedoch gibt es keine Mindestan-
wesenheitszeit.
Die Gestaltungsmöglichkeiten veranschaulicht Abb. 6.16.
Dispositions- Organisation
spielraum der Gleitzeit
Abb. 6.16: Grundmodelle der Gleitzeit und deren Gestaltungsmöglichkeiten (nach KLEIN
u. GROSSMANN 1992)
Gleitende Die gleitende Arbeitswoche bzw. der gleitende Monat Wochen- und Monatsschwan-
Arbeitswoche/ sind die auf eine Woche bzw. einen Monat bezogenen kungen im Kapazitätsbedarf
Gleitender Modelle der Gleitzeit. So gibt es in beiden Fällen Kern- werden ausgeregelt
Arbeitsmonat und Gleittage, wobei – wie bei der einfachen Gleitzeit –
an den Kerntagen Anwesenheitspflicht herrscht, während
der Arbeitnehmer an den Gleittagen die Zeitsouveränität
besitzt.
Vertrauens- Mit nahezu allen Gleitzeitvarianten ist die Pflicht verbun- Erfolgreiche Vertrauensgleitzeit
gleitzeit den, jedes Kommen und Gehen entweder an Zeiterfas- bedarf eines Führungsverhal-
sungsgeräten oder durch An- und Abmelden beim tens, das auf Zielerreichen und
Vorgesetzten zu dokumentieren. Vertrauensgleitzeit Eigenverantwortlichkeit statt auf
verzichtet weitgehend auf die Zeiterfassung bzw. über- Überwachung und Kontrolle
lässt sie den Mitarbeitern. Vertrauensgleitzeit ist eine setzt. Die Eigenverantwortlich-
Subkategorie zur Vertrauensarbeitszeit. keit darf nicht zu unabge-
stimmten Abwesenheiten und
fehlenden Abstimmungsprozes-
sen führen.
Arbeitszeit 611
Altersteilzeit
Im Gegensatz zur flexiblen Altersgrenze ist die Altersteilzeit ein starres System.
Altersteilzeit unterscheidet sich von nicht-altersbezogener Teilzeit durch die Be-
zuschussung der Vergütung durch die Bundesagentur für Arbeit (HAMM 1999). Ab
der Vollendung des 55. Lebensjahres besteht für den Arbeitnehmer die Möglich-
keit für Altersteilzeit. Allerdings wird in der Praxis auch weiterhin das Blockmo-
dell bevorzugt, in dem Altersteilzeit wie der bisherige Vorruhestand gehandhabt
wird.
Besonderheiten
Soweit der Arbeitnehmer über einen längeren Zeitraum hinweg die Arbeitszeit in
Stufen mehrfach verkürzen kann, besteht für ihn die Möglichkeit, die Dauer der
Arbeitszeit ständig zu verändern. Dadurch werden eine flexible Altersgrenze und
ein gleitender Übergang in den Ruhestand erreicht. Somit ist mit dieser Arbeits-
zeitform ein hohes Flexibilisierungspotential vorhanden.
Familienphase
Neben dem gesetzlichen Erziehungsurlaub von drei Jahren besteht die Möglich-
keit, die Familienphase zu verlängern und gleichzeitig die Rückkehr des Arbeit-
nehmers bzw. der Arbeitnehmerin in den betrieblichen Ablauf zu ermöglichen.
Freischicht
(Tarifvertragliche) Arbeitszeitverkürzungen werden bis zu einem vollen Tag ange-
sammelt und dann als Freischicht abgegolten.
Das Freischicht-Modell oder auch Brückentage-Modell stellt eine Möglichkeit
dar, Arbeitszeitverkürzungen in Form von freien Tagen umzusetzen.
Arbeitszeit 613
Besonderheiten
Das Freischicht-Modell kann bei zunehmender Arbeitszeitverkürzung zu erhebli-
chen organisatorischen Schwierigkeiten für das Arbeitszeitmanagement führen.
Arbeitszeitkonten
Es lassen sich zwei Grundtypen von Arbeitszeitkonten unterscheiden:
(1) Kurzzeitkonto: Dieses Konto dient der Verlagerung des herkömmlichen
Bezuges der Arbeitsstunden auf die Wochenfrist hin zur Jahresfrist. Ziel ist
eine flexible Verteilung der Arbeitszeit.
(2) Langzeitkonto: Das Langzeitkonto dient dem regelmäßigen Ansparen von
Zeitguthaben. Erreicht wird dieses Zeitguthaben durch über die Regelarbeits-
zeit hinaus geleistete Arbeitsstunden. Ziel ist ein zeitweiliger oder vorzeitiger
Ausstieg aus dem Berufsleben.
Arbeitszeitkonten erfordern einen relativ hohen organisatorischen Aufwand
oder aber einen Einsatz von geeigneter Technologie zur Erfassung der Anwesen-
heitszeiten. Bei Beendigung des Arbeitsverhältnisses sind Arbeitgeber verpflich-
tet, die erbrachten Vorleistungen zu vergüten.
Durch das Gesetz zur sozialrechtlichen Absicherung flexibler Arbeitszeitrege-
lungen vom 1. Januar 1998 wurde der Sozialversicherungsschutz bei Vereinba-
rungen zwischen Arbeitgebern und Arbeitnehmern zur Ansparung von Arbeits-
zeitguthaben geregelt. Ziel war, das geltende Recht für die bestehenden Arbeits-
zeitsysteme zu erweitern und für neue Modelle offen zu halten. So wurde hier eine
Rechtslücke geschlossen, die der Einführung von Langzeitkonten entgegenwirkte
(BUCZKO 1999).
Weiterhin problematisch jedoch bleibt die Regelung der Arbeitszeitkonten bei
Konkurs des Arbeitgebers. Die geltende Sozialgesetzgebung überlässt es hier den
Tarifpartnern, eine Insolvenzsicherung zu vereinbaren.
Arbeitszeit wird stundenweise einem Mitarbeiterkonto gutgeschrieben. Entwe-
der werden die Stunden genutzt, um ein Guthaben aufzubauen oder aber um ein
Defizit abzubauen (HAMM 1999). Die Rahmenbedingungen für Arbeitszeitkonten
werden in Betriebsvereinbarungen festgelegt.
Zeit-Lohn-Option
Bei der Zeit-Lohn-Option hat der Arbeitnehmer die individuelle Wahl zwischen
Lohnerhöhungen, Prämien usw. oder einer entsprechend kürzeren Arbeitszeit.
Interessant ist dieses Modell vor allem auch für Schichtarbeiter, die ihren Schicht-
zuschlag in Form einer Arbeitszeitverkürzung erhalten können. Der Arbeitgeber
kann den Arbeitnehmern aber auch anbieten, für einen Verzicht auf Lohnzuschüs-
se eine Woche länger Ferien zu gewähren (BAILLOD 1986).
614 Arbeitswissenschaft
Die Anwendbarkeit von flexiblen Elementen ist abhängig von den Gegebenheiten
im Betrieb. Deshalb wird hier zwischen folgenden Vorgaben unterschieden:
x Es gibt kurzfristig zu deckende Arbeitsspitzen
x Die Arbeit kann auf mehrere Arbeitspersonen verteilt werden
x Eine Trennung zwischen Arbeitsort und Betriebsstätte ist möglich
x Es kann mit reduzierter oder erhöhter Arbeitszeit gearbeitet werden.
Der Aspekt der Trennung zwischen Arbeitsort und Betriebsstätte ist genauge-
nommen kein Merkmal der Arbeitszeitorganisation, jedoch muss er aufgenommen
werden, um eine weitreichende Flexibilisierung der Arbeitszeit sicherstellen zu
können, da die Arbeitsortflexibilität umfassende Auswirkungen auf die Arbeits-
zeitflexibilität in sich birgt. Dieses Potenzial soll erschlossen werden.
Im Folgenden werden flexibilisierende Elemente bezogen auf Vorgaben des
Betriebs vorgestellt. Anschließend werden die Elemente Über(stunden)arbeit und
Mehrarbeit sowie Teilzeitarbeit näher beschrieben.
Abrufarbeit
Die Abrufarbeit stellt für den Arbeitgeber eine flexible Möglichkeit dar, den Zeit-
punkt des Einsatzes seiner Mitarbeiter zu bestimmen. So ist eine Anpassung zum
Beispiel an schwankende Kundenfrequenzen oder Auftragslagen durchführbar.
Für die Abrufarbeit gilt nach §4 BeschFG, dass das zu leistende Arbeitsvolumen
vertraglich festgelegt werden muss. Des Weiteren muss eine Abruffrist von min-
destens 4 Tagen eingehalten werden sowie eine Mindestdauer von drei Stunden
pro Arbeitseinsatz.
Rufbereitschaft (Stand-by-Pool)
Der Stand-by-Pool bzw. die Rufbereitschaft ist eine Spezifizierung der Abrufar-
beit. Hier ist die Vorlaufzeit deutlich kürzer als vier Tage. So kann beispielsweise
vereinbart werden, dass Mitarbeiter, die sich in einer Freischicht befinden, wäh-
rend der ersten Stunden dieser Schicht telefonisch erreichbar sein müssen und im
Notfall sofort einspringen.
Flexible Einsatzgruppe
Bei der flexiblen Einsatzgruppe sind die Mitarbeiter zur vorgesehenen Zeit (z.B.
Schichtzeit) am Arbeitsplatz. Ihr Einsatzort ist jedoch flexibel und die Arbeitsmit-
tel sind veränderlich.
Besonderheiten
Job Sharing weist ein hohes Flexibilisierungspotential auf (LINNENKOHL u.
RAUSCHENBERG 1996). Das Problem liegt in der unbedingten Verpflichtung, die
Arbeitsaufgabe zu übernehmen, wenn der Partner ausfällt. HAMM (1999) weist
darauf hin, dass die Arbeitnehmer gezwungen sein könnten, in Vollzeit zu arbei-
ten, obwohl eventuell familiäre Gegebenheiten dem entgegenstehen.
Rollierendes System
Im Unterschied zum Job Sharing teilen sich im rollierenden System nicht nur zwei
Arbeitnehmer einen Arbeitsplatz im Wechsel. Beim rollierenden System besetzen
vielmehr mehrere Arbeitnehmer eine bestimmte Anzahl von Arbeitsplätzen, bei-
spielsweise fünf Mitarbeiter vier Arbeitsplätze. Die Arbeitsplätze bleiben immer
besetzt, obwohl jeder Mitarbeiter einen zusätzlichen wechselnden freien Tag in
der Woche erhält (BAILLOD 1986).
Zeitfenster-System
In Zeitfenster-Systemen erfolgt die Vorgabe einer bestimmten Anzahl von Schich-
ten mit jeweils einem individuellen freien Tag im zu belegenden Zeitfenster.
(WEIDINGER et al. 1992). Bei einem 5:4-Mehrfachbesetzungssystem (fünf Mitar-
beiter besetzen gemeinsam vier Arbeitsplätze) im Einschichtbetrieb ergeben sich
fünf Zeitfenster pro Woche, da die Zahl der Zeitfenster der Zahl der eingeteilten
Mitarbeiter entspricht.
Differenzierte Einsatzpläne
Einheitlich lange Schichtdauern werden im Rolliersystem entsprechend dem Kun-
denaufkommen bzw. dem Arbeitsanfall festgelegt. Jeder Mitarbeiter durchläuft
das gesamte Arbeitszeitsystem.
Telearbeit
Die Telearbeit gehört zu den flexiblen Elementen, die auf einer Trennung von
Betriebs- und Arbeitsstätte basieren. Bei der Telearbeit im eigentlichen Sinne
Arbeitszeit 617
leistet der Arbeitnehmer seine Arbeit unter räumlicher Abspaltung vom Betrieb,
wobei er mit dem Arbeitgeber in ständiger telekommunikativer Verbindung steht.
Besonderheiten
Allein die Online-Verbindung zum Betrieb schränkt den Arbeitnehmer ein. Aller-
dings gibt es immer weniger Kontrolle der Telearbeiter durch die log-on-Zeiten
am PC. Vielmehr wird sie ersetzt durch ergebnisorientierte Zielvereinbarungen.
Heimarbeitsplatz
Beim Heimarbeitsplatz wird die Arbeitsleistung wie bei der Telearbeit räumlich
außerhalb des Betriebes geleistet. Im Gegensatz zum freien Mitarbeiter ist der
Arbeiter am Heimarbeitsplatz auch weiterhin Arbeitnehmer. Der Unterschied zur
Telearbeit besteht vor allem in der Tatsache, dass zwar am PC gearbeitet wird,
dass aber keine permanente telekommunikative Verbindung zum Betrieb besteht.
Alternierende Telearbeit
Bei der alternierenden Telearbeit arbeitet der Arbeitnehmer meist zu Hause, ist
aber auch ein oder zwei Tage pro Woche im Betrieb anwesend.
Alternierender Heimarbeitsplatz
Beim alternierenden Heimarbeitsplatz arbeitet der Arbeitnehmer – vergleichbar
mit der alternierenden Telearbeit – meist zu Hause, ist aber auch zusätzlich im
Betrieb anwesend.
Bandbreiten-Modell
Beim Bandbreiten-Modell oder auch Wahlarbeitszeit-Modell kann der Arbeit-
nehmer seine Arbeitszeit und damit auch sein Einkommen innerhalb gewisser
Bandbreiten wählen, also beispielsweise zwischen 30 und 40 Stunden pro Woche.
Dies geschieht in bestimmten Rhythmen, z.B. alle 12 Monate verbindlich für
einen vorher vereinbarten Zeitraum. Über tägliche Dauer und Lage der Arbeitszeit
ist damit noch nicht entscheiden.
Komprimierte Arbeitswoche
Die komprimierte Arbeitswoche kann beispielsweise in einer 4 ½-Tage-, 4-Tage-
oder 3 ½-Tage-Woche bestehen; oder aus einer 2-Tage-Wochenendarbeitszeit mit
einer regelmäßigen samstäglichen und sonntäglichen Arbeitszeit von 12 Stunden.
Wird dieses Konzept noch mit der wahlweisen Verteilung der Wochenarbeitszeit
auf die Wochentage verbunden, begünstigt dies auch eine Ausweitung der Be-
triebszeiten.
Besonderheiten
Um die Ausweitung der Betriebszeiten zu erreichen, muss die komprimierte Ar-
beitswoche mit einem Mehrfachbesetzungsplan kombiniert werden, d. h. mindes-
tens zwei Arbeitnehmer müssen sich den Arbeitsplatz teilen und diesen über-
schneidend oder im Wechsel besetzen.
Abb. 6.17: Überstundenvolumen in Millionen Stunden in Deutschland von 2000 bis 2007
(BACH et al. 2008)
Ein Trend zur Verringerung kann ebenfalls bei den bezahlten Überstunden ver-
zeichnet werden. Hier wurden im Jahr 2003 55,9 Überstunden pro Jahr bezahlt,
bei einem Überstundenvolumen von 1560 Mio. h im Jahr 2007 waren es hingegen
lediglich 46,6 Überstunden pro Jahr, das Überstundenvolumen betrug 1429 Mio.
bezahlte Überstunden.
Abb. 6.18: Volumen der bezahlten Überstunden in Deutschland von 2003 bis 2007 (IAB
2008)
620 Arbeitswissenschaft
Teilzeitarbeit
Die Bandbreite der Teilzeitarbeitsdauer liegt zwischen wenigen Stunden pro Wo-
che bis zur Fast-Vollzeitarbeit.
Gründe für die Einführung von Teilzeitarbeit können wie folgt sein:
x Arbeitsanfallorientierte Stellenbesetzung: das Arbeitsvolumen reicht für ei-
nen Vollzeitbeschäftigten nicht aus
x Eignungsorientierte Stellenbesetzung: Teilzeitaufgaben werden aus einer
Vollzeittätigkeit ausgegliedert
x Arbeitsmarktorientierte Stellenbesetzung: Auf dem Arbeitsmarkt besteht ein
Mangel an Vollzeitkräften
x Belastungsorientierte Stellenbesetzung: Belastung eines Arbeitsplatzes ist für
einen Vollzeitbeschäftigten zu groß (BAILLOD 1986).
Ein besonderes Flexibilisierungspotential ist dann mit der Teilzeitarbeit ver-
bunden, wenn sie in Zusammenhang mit anderen Arbeitszeitformen, wie z.B. der
Gleitzeit, kombiniert wird und damit von der traditionellen starren und vollzeiti-
gen Arbeitszeit abweicht (FERREIRA 2001).
Es bieten sich verschiedene Gestaltungsmöglichkeiten in den jeweiligen Ver-
einbarungszeiträumen (Tag, Woche, Monat, Jahr) an (HEGNER et al. 1992):
x Teilzeit mit gleichmäßiger Verteilung der Arbeitszeit: Dazu zählt Halbtags-
arbeit, deren Lage starr an den Vormittag bzw. Nachmittag gekoppelt ist.
x Teilzeit mit ungleichmäßiger Verteilung der Arbeitszeit: Das vereinbarte Ar-
beitszeitvolumen wird unterschiedlich auf einzelne Tage oder Wochen ver-
teilt. Dadurch kann es zum Aufbau von Zeitguthaben kommen, die dann in
längeren Freizeitblöcken abgebaut werden können.
x Teilzeitarbeit mit längerfristiger Planung des Volumens und der Verteilung:
Das Arbeitszeitvolumen wird auf Monate, ein Halbjahr oder ein Jahr verteilt.
Für den Arbeitgeber bietet sich hier die Möglichkeit des bedarfsgerechten
Personaleinsatzes, wenn er die tage- oder wochenweise Verteilung der Ar-
beitszeit jeweils für ein Vierteljahr oder einen Monat im Voraus festlegen
kann. Zum Schutz des Arbeitnehmers sind hier aber Ankündigungszeiten zu
berücksichtigen (z.B. zwei bis drei Wochen bei starken monatlichen
Schwankungen).
x Arbeitsplatzteilung (Job-sharing): Zwei oder mehr Arbeitnehmer teilen sich
einen Vollarbeitsplatz. Bei entsprechender Absprache ergibt sich hier ein
Dispositionsspielraum bzgl. Lage und Verteilung der individuellen Arbeits-
zeit
x Teilzeit in Schichtsystemen: Es können sowohl Teilzeitschichten miteinander
kombiniert als auch Kombinationen von Vollzeit- und Teilzeitschichten ein-
gesetzt werden. Der Betrieb kann auf diese Weise leichter Arbeitskräfte be-
schaffen (attraktive Arbeitsmöglichkeiten für Frauen oder Männer mit Fami-
lienaufgaben), die dann in den Bereichen mit ausgedehnter Betriebszeit ein-
gesetzt werden können.
Arbeitszeit 621
x für die Einschätzung der Belastung am Arbeitsplatz mit Hilfe eines validier-
ten Verfahrens (EBA). Es ermöglicht ein belastungsbezogenes Zuschneiden
der Lage und Dauer von Schichten
x für die detaillierte Eingabe und Berechnung ökonomischer Faktoren (z.B.
Zuschläge und Zulagen), um die Kosten ergonomischer Gestaltungslösungen
transparent zu machen
x für die Berechnung von statistischen Kennwerten, z.B. Überdeckung beim
Personaleinsatz
x als Werkzeug für die flexible Gestaltung: Eingabe oder Import hochflexibler
(individueller), nicht an feste Schichten gebundene Arbeitszeiten bis zu ei-
nem Jahr und deren Bewertung anhand sämtlicher BASS Bewertungs-
kriterien.
Die mit BASS erstellten Schichtpläne können in den „BASS 4-Kalender“ ex-
portiert werden. Als Tool zur ergonomischen Arbeitszeitgestaltung und Gefähr-
dungsbeurteilung ist BASS 4 besonders interessant für:
x Arbeitszeitplaner
x Führungskräfte
x Betriebsräte
x Fachkräfte für Arbeitssicherheit
x Aufsichtspersonen des Arbeitsschutzes.
Ergebnisse
x einfache Schichtplangestaltung nach ergonomischen Kriterien
x mehr Rechtssicherheit für die Betriebe bei der Aufstellung von Schichtplä-
nen
x weniger Belastungen für die Beschäftigten durch die Optimierung der
Schichtpläne.
Es hat sich gezeigt, dass BASS 4 die Anforderungen des Arbeitszeitgesetzes
wie z.B. Ausgleichszeiträume oder Bewertung der Arbeitszeit in vollem Umfang
erfüllt und eine Schichtplangestaltung unter Berücksichtigung von Belastungsfak-
toren ermöglicht. Weiterführende Informationen zu BASS 4 finden sich in
NACHREINER et al. (2005).
6.10 Literatur
7.1 Einführung
(7) Das Prinzip der Arbeitsdisposition beinhaltet die qualitative und quantitative
Ausrichtung des Personaleinsatzes an die im Zeitverlauf variierende Ar-
beitsmenge. Unter qualitativen Gesichtspunkten erfolgt die Zuordnung von
Beschäftigten auf Arbeitsstellen durch einen Vergleich des Anforderungspro-
fils einzelner Arbeitsplätze mit dem Qualifikationsprofil der Beschäftigten
unter Berücksichtigung ihrer Entwicklungswünsche, Neigungen und Interes-
sen. Im Rahmen des quantitativen Personaleinsatzes wird festgelegt, wie vie-
le Mitarbeiter mit welcher Qualifikation zu welchem Einsatzzeitpunkt und
für welche Dauer an einem bestimmten Arbeitsplatz tätig sein sollen. Wäh-
rend der Personaleinsatz unter qualitativen Gesichtspunkten eine anforde-
rungsgerechte Bearbeitung der Arbeitsaufgaben an einem Arbeitsplatz si-
cherstellen soll, hat der quantitative Personaleinsatz zum Ziel, eine personel-
le Über- bzw. Unterdeckung zu vermeiden (JUNG 2003). Ein bedarfsgerech-
ter Personaleinsatz ist eine komplexe Aufgabe, da zahlreiche Parameter zu
berücksichtigen sind. So ist zur Ermittlung des kurz-, mittel- und langfristi-
gen Personalbedarfs einerseits die erwartete Menge einer Arbeit direkt (z.B.
über die Anzahl der Aufträge) oder indirekt (z.B. über den Umsatz) für un-
terschiedliche Zeiträume zu prognostizieren. Außerdem sind Soll-Zeiten für
einzelne Arbeiten zu definieren, so dass mittels dieses Zeit- und Mengenge-
rüsts der künftige kurz-, mittel- und langfristige Personalbedarf geschätzt
werden kann. Andererseits sind die voraussichtlich verfügbaren Personalka-
pazitäten für einzelne Zeiträume zu ermitteln und mit dem jeweils prognosti-
zierten Personalbedarf zu vergleichen. Dabei sind eine Reihe von Planungs-
restriktionen zu beachten. Diese ergeben sich vor allem aus der Arbeitszeit-
gesetzgebung, dem gültigen Arbeitszeitsystem (siehe Kap. 6.5), den Neigun-
gen, Interessen und Qualifikationen der Beschäftigten sowie arbeitsvertragli-
chen Regelungen. Sind personelle Über- oder Unterdeckungen zu erwarten,
besteht einerseits die Möglichkeit, die personellen Kapazitäten entsprechend
den Planungen anzupassen. Andererseits lassen sich einzelne Planungsres-
triktionen (z.B. Arbeitszeitregelungen) beeinflussen, so dass in der Folge
Kapazitätsengpässe durch einen flexibleren Einsatz des Personals vermieden
werden können.
(8) Da das Entgelt der Arbeitsperson im Hinblick auf die Personalkosten aus
einer Mengen- und einer Preiskomponente besteht, bezieht sich ein Ansatz
zur Reduzierung der Kosten auf die Preiskomponente (MÜLLER-
HAGEDORN 1998). Da diese Preiskomponente in der Regel nicht das aus-
schließliche Ergebnis von Angebot und Nachfrage auf dem Arbeitsmarkt,
sondern von tarif- und betriebspolitischen Auseinandersetzungen ist (siehe
Kap. 7.2), wird der Ansatz zur Bestimmung der Höhe der Lohnkostensätze
als Arbeitspolitik bezeichnet. Vordergründig müsste aus Sicht der Betriebe
das Ziel bestehen, möglichst niedrige Preise für den Faktor Arbeit zu bezah-
len, um das Verhältnis von Gewinn zu Personalkosten zu verbessern. Wird
allerdings seitens eines Betriebs ein im Marktvergleich unterdurchschnittlich
hohes Entgelt bezahlt, ist davon auszugehen, dass die Fluktuationsrate im
632 Arbeitswissenschaft
7.2 Arbeitsentgelt
Grundlagen:
Wer? tarifliche oder einzelvertragliche
sozioökonomische Variablen Regelungen
wie z.B. Betriebszugehörigkeit, Zulagen
Arbeitsmarktlage personenbezogene
Bewertung von Leistung
g
und/oder Erfolg
Wie?
Leistung / Erfolg Variabler anforderungsbezogene
auf individueller oder Arbeitsbewertung
Entgeltbestandteil
kollektiver Ebene
Was?
Anforderungen Fixes
der übertragenen Grundentgelt
Arbeitsaufgabe
E1 E2 E3 En
Entgeltgruppen (E1 – E n)
Höhe
des Entgelts
Position im Entgeltband
abh. vom individuellen
Leistungsniveau
E6
E5
E4
E3
E2
E1
Marktlinie
Abb. 7.2: Entgeltsystem mit variabel gestaltetem Grundentgelt und sich überlappenden
Entgeltbändern
Arbeitsbewertung
Die Anforderungen, die ein Arbeitssystem an den Menschen stellt, können im
Hinblick auf Schwere und Schwierigkeit variieren und werden im Wesentlichen
durch die Art der Arbeitsaufgaben bestimmt. Die übergeordnete Arbeitsaufgabe –
diese beschreibt den Zweck eines Arbeitssystems – wird einer Arbeitsperson über-
tragen und kann von dieser oft nur in vergleichsweise geringem Maße beeinflusst
werden.
Die Beschreibung von Arbeitssystemen sowie die Analyse und Quantifizierung
ihrer objektiven Anforderungen an den arbeitenden Menschen ist Gegenstand der
Anforderungsermittlung. Eine Anforderungsermittlung zum Zweck der Entgeltdif-
ferenzierung wird zumeist Arbeitsbewertung genannt (REFA 1991a).
Die Anforderungsermittlung bzw. Arbeitsbewertung erfasst, so das Ziel, die
Anforderungen unabhängig von der jeweiligen Arbeitsperson. Hierbei wird davon
ausgegangen, dass den Anforderungen eines Arbeitssystems ein entsprechendes
Leistungsangebot auf Seiten des arbeitenden Menschen – z.B. in Bezug auf die
geforderte Ausbildung oder die Übernahme von Verantwortung – gegenübersteht
(REFA 1991a). Die Abstimmung von Art und Höhe der gestellten Arbeitsanforde-
rungen mit der Höhe des Arbeitsentgelts erfolgt durch das Grundentgelt bzw.
durch verschiedene Entgeltgruppen/-bänder.
7.2.3.1 VorgehenĆbeiĆderĆArbeitsbewertungĆ
Eine Arbeitsbewertung zur anforderungsabhängigen Entgeltdifferenzierung um-
fasst i.Allg. drei Schritte:
(1) Beschreibung der Arbeit
(2) Ableitung des Anforderungsbildes durch Ermittlung qualitativer und quanti-
tativer Daten
(3) Quantitative Bewertung der Anforderungshöhe und Zuordnung zu einer
Entgeltgruppe bzw. einem Entgeltband.
Die Arbeitsbeschreibung – auch Aufgaben-, Funktions- oder Stellenbeschrei-
bung genannt – besteht in einer systematischen Beschreibung von Arbeitssyste-
men und ggf. deren Organisationsbeziehungen. Anhand der Arbeitsbeschreibung
Arbeitswirtschaft 639
lassen sich die Anforderungen ableiten, die ein Arbeitssystem an den arbeitenden
Menschen stellt.
In Abhängigkeit von den Anforderungsmerkmalen, die nach dem tarifvertrag-
lich oder betrieblich vereinbarten Verfahren der Arbeitsbewertung betrachtet wer-
den, erfasst die Arbeitsbeschreibung nur anforderungsprägende, d.h. eingruppie-
rungsrelevante Elemente. In einer Arbeitsbeschreibung werden daher nur die
(Teil-) Aufgaben dokumentiert und beschrieben, die das Anforderungsniveau der
übertragenen Arbeit bestimmen. Nicht bewertungsprägende Elemente innerhalb
einer Gesamtarbeitsaufgabe – z.B. das Kopieren und Ablegen von Dokumenten im
Rahmen einer schwierigen sachbearbeitenden Aufgabe – werden in der Arbeitsbe-
schreibung vernachlässigt. Kennzeichnend für eine Arbeitsbeschreibung ist zu-
dem, dass der im Arbeitssystem tätige Mensch nicht erfasst wird. Der arbeitende
Mensch ist vielmehr der Bezugspunkt, auf den die Anforderungen, die aus den
jeweils betrachteten Systemelementen resultieren, einwirken (REFA 1991a).
Zur Ableitung des Anforderungsbildes – bei REFA „Anforderungsanalyse“ ge-
nannt – werden Daten für die einzelnen Anforderungsmerkmale ermittelt, um
daraus die Anforderungen bzw. die Schwierigkeit einer Arbeit quantifizieren zu
können. Quantitative Daten werden gemessen, gezählt oder geschätzt und durch
einen Zahlenwert ausgewiesen. Qualitative Daten werden unter Verwendung vor-
gegebener Klassen oder durch allgemeines Beschreiben beurteilt (REFA 1991a).
Beim Quantifizieren bzw. Bewerten wird die Arbeit einer Entgeltgruppe bzw.
einem Entgeltband zugeordnet. Diese Zuordnung kann durch einen pauschalen
Vergleich der ermittelten Arbeitsanforderungen mit vorgegebenen Entgeltgrup-
pendefinitionen erfolgen. Alternativ werden einzelne Anforderungsarten zunächst
in Anforderungswerte umgesetzt, welche die Art, Höhe und ggf. Dauer der jewei-
ligen Anforderung zahlenmäßig abbilden (Rangieren). Die so ermittelten Anforde-
rungswerte werden zu einem zumeist gewichteten Summenwert (Gewichten)
zusammengefasst und abschließend einer Entgeltgruppe bzw. einem Entgeltband
zugewiesen (Tarifieren).
7.2.3.2 SystematisierungĆderĆArbeitsbewertungsverfahrenĆ
Die in der betrieblichen Praxis angewandten Methoden zur anforderungsabhängi-
gen Entgeltdifferenzierung werden grundsätzlich in analytische und summarische
Arbeitsbewertungsverfahren unterteilt. Innerhalb dieser beiden Verfahrensklassen
erfolgt die quantitative Bewertung der Arbeitsanforderungen nach dem Prinzip der
Reihung oder Stufung. Eine Systematik der daraus resultierenden Bewertungsver-
fahren zeigt Tabelle 7.1.
Unabhängig davon, ob die Arbeitsbewertung analytisch oder summarisch er-
folgt, werden ausschließlich die Anforderungen der Arbeit bewertet, nicht die
Arbeitsperson selbst.
640 Arbeitswissenschaft
Rangreihenverfahren
Reihung (mit getrennter oder gebundener Gewich- Rangfolgeverfahren
tung)
Stufenwertzahlverfahren
Stufung (mit getrennter oder gebundener Gewich- Katalogverfahren
tung)
Bewerten Zuordnen
und
... des ... des
Anforderungs- Arbeitswertes
bildes zu einer ...
Summarisches Bewerten
Entgelt-
1 2 gruppe
Beschreiben Ableiten oder
Entgelt-
3.1 3.2 3.3
... des band
... der Arbeit Anforderungs- Ermitteln Gewichten Zuordnen
bildes
... der Anfor- ... der ... des
derungshöhe Arbeitswerte (Gesamt-)
je Merkmal (Anf.-höhe
Arbeitswertes
(Anf.-profil) Wichtigkeit) zu einer …
Analytisches Bewerten
7.2.3.3 AnalytischeĆVerfahrenĆderĆArbeitsbewertungĆ
Bei der analytischen Arbeitsbewertung werden die Anforderungen eines Arbeits-
systems an den Menschen nach einzelnen Anforderungsarten differenziert. Im
Ergebnis der analytischen Arbeitsbewertung wird eine Wertzahlsumme ausgewie-
sen, die das Niveau der an die Arbeitsperson gestellten Anforderungen quantitativ
charakterisiert. Diese Wertzahlsumme – teilweise auch Arbeitswert- oder Punkt-
wertsumme genannt – wird abschließend einer Entgeltgruppe bzw. einem Entgelt-
band zugeordnet (REFA 1991b).
Arbeitswirtschaft 641
Können Belastung
1. Geistige Anforderungen × ×
2. Körperliche Anforderungen × ×
3. Verantwortung – ×
4. Arbeitsbedingungen – ×
Arbeitskenntnisse 20
2 Rangieren geistige Belastung 20
Rangplatz in der
Geschicklichkeit 35
REFA-Rangreihe
Muskelbelastung 70
(Rangreihe 0…100)
Ermitteln der Verantwortung 20
Anforderungshöhe Umgebungseinflüsse 70
Arbeitskenntnisse 20 x 1 = 20
geistige Belastung 20 x 0,8 = 16
Gewichtungs- Geschicklichkeit 35 x 0,9 = 32
schlüssel Muskelbelastung 70 x 0,8 = 56
(angenommen) Verantwortung 20 x 0,8 = 16
Umgebungseinflüsse 70 x 0,3 = 21
E1 E2 E3 E4 E5 E6 E7 E8
Abb. 7.4: Bestimmen der Wertzahlsumme und Ermitteln der Entgeltgruppe nach dem
Rangreihenverfahren mit getrennter Gewichtung
Zur Bewertung der einzelnen Anforderungsarten werden die für eine Arbeits-
aufgabe ermittelten Anforderungen mit den vorliegenden Stufenbeschreibungen
verglichen und der Zahlenwert der passenden Stufe abgelesen. Bei einer gebunde-
nen Gewichtung charakterisiert dieser Zahlenwert unmittelbar das Anforderungs-
niveau der jeweiligen Stufe. Bei einer getrennten Gewichtung ergibt sich aus der
Stufenzahl, erst nach Multiplikation mit einem Gewichtungsfaktor, der Anforde-
rungswert der jeweiligen Anforderungsstufe. Addiert man die so erhobenen Wert-
zahlen für alle Anforderungsarten, erhält man den Arbeitswert der Arbeitsaufgabe.
Das Vorgehen bei der Einstufung einer Arbeitsaufgabe nach dem Stufenwert-
zahlverfahren mit gebundener Gewichtung soll am Beispiel des Entgeltrahmenab-
kommens (ERA) für die Metall- und Elektroindustrie des Landes Nordrhein-
Westfalen verdeutlicht werden. Grundlage der Einstufung einer Arbeitsaufgabe
sind hier die folgenden tarifvertraglich festgelegten Anforderungsmerkmale:
(1) Können (Arbeitskenntnisse sowie Fachkenntnisse und Berufserfahrungen)
(2) Handlungs- und Entscheidungsspielraum
(3) Kooperation
(4) Mitarbeiterführung.
Für jedes Anforderungsmerkmal werden Bewertungsstufen vorgegeben, denen
wiederum gewichtete Punktwerte zugeordnet sind. Die unterschiedliche Gewich-
tung der einzelnen Anforderungsmerkmale zueinander wird durch die Anzahl der
maximal erreichbaren Punktwerte bestimmt. Tabelle 7.4 zeigt eine Bewertungsta-
fel am Beispiel des Anforderungsmerkmals „Handlungs- und Entscheidungsspiel-
raum“.
Tabelle 7.4: Bewertungstafel für das Punktbewertungsverfahren aus dem Entgeltrahmen-
abkommen (ERA) für die Metall- und Elektroindustrie des Landes Nordrhein-Westfalen
Der Gesamtpunktwert der betrachteten Arbeitsaufgabe ergibt sich aus der Addi-
tion der Punktwerte der jeweils zutreffenden Bewertungsstufen. Die Zuordnung
des so ermittelten Gesamtpunktwertes zu einer der 14 tarifvertraglich gebildeten
Entgeltgruppen richtet sich nach Tabelle 7.5.
Tabelle 7.5: Entgeltgruppen und zugeordnete Gesamtpunktspannen aus dem Entgeltrah-
menabkommen (ERA) für die Metall- und Elektroindustrie des Landes Nordrhein-
Westfalen
7.2.3.4 SummarischeĆVerfahrenĆderĆArbeitsbewertungĆ
Arbeitsplatzes mit allen anderen Arbeitsplätzen verglichen und die jeweils ermit-
telten Bewertungsergebnisse anhand unterschiedlicher Punktwerte quantifiziert:
Stellt der betrachtete Arbeitsplatz im Vergleich höhere Anforderungen an die
Arbeitsperson, erhält er dafür zwei Punkte. Weist der Arbeitsplatz in Relation ein
vergleichbares Anforderungsniveau auf, wird ein Punkt vergeben. Werden die
Anforderungen des betrachteten Arbeitsplatzes im Ergebnis eines Paarvergleichs
als geringer eingeschätzt, erhält er dafür keinen Punkt. Sind alle Arbeitsplätze
miteinander verglichen, werden die Bewertungspunkte pro Arbeitsplatz aufsum-
miert und die einzelnen Arbeitsplätze entsprechend ihres Gesamtpunktwertes in
eine Rangfolge gebracht.
Die Position eines Arbeitsplatzes innerhalb der so gebildeten Rangfolge spie-
gelt das Niveau der jeweiligen Gesamtanforderung in Relation zu allen anderen
Arbeitsplätzen wider. Den in dieser Rangfolge geordneten Arbeitsplätzen werden
abschließend Entgeltgruppen bzw. -bänder zugewiesen. Niedrige Anforderungen
führen dabei zu einem niedrigen Entgelt, höhere Anforderungen zu einem entspre-
chend höheren Entgelt (siehe Abb. 7.5).
n m
… …
… …
Rangfolge nach der
Entgeltgruppen
summarisch bewerteten 4 E4
bzw. -bänder
Anforderungshöhe
3 E3
n (n-1) 2 E2
Paarvergleiche =
2
1 E1
ten geeignet, ergeben sich doch bei n Arbeitsplätzen insgesamt n(n-1)/2 Paarver-
gleiche.
Erleichtert werden kann die Anwendung des Rangfolgeverfahrens durch über-
betriebliche Aufgabenkataloge, die bereits mehrere fertige Rangfolgen für ver-
schiedene Funktionsbereiche im Unternehmen enthalten. Die darin geordneten
Arbeitsaufgaben sind in der Regel bereits mit einer Entgeltgruppe bzw. einem
Entgeltband versehen. Zur Arbeitsbewertung werden alle zur Bewertung anste-
henden Arbeitsplätze zunächst als Ganzes mit den Referenzbeispielen und deren
Eingruppierung im Aufgabenkatalog verglichen. Anschließend wird jeder Ar-
beitsplatz einer Entgeltgruppe zugewiesen, der dem Anforderungsniveau des je-
weils „passenden“ Referenzbeispiels entspricht.
Entgelt-
Gruppe Entgeltgruppendefinition
schlüssel
Einfache Tätigkeiten, die nach einer zweckgerichteten Einarbeitung und
1 Übung von bis zu 4 Wochen verrichtet werden können. Es ist keine berufli- 84%
che Vorbildung erforderlich.
Tätigkeiten, deren Ablauf und Ausführung weitgehend festgelegt sind. Erfor-
2 derlich sind Kenntnisse und Fertigkeiten, wie sie in der Regel durch ein 86%
systematisches Anlernen von bis zu 6 Monaten erworben werden.
Tätigkeiten, deren Ablauf und Ausführung überwiegend festgelegt sind.
3 Erforderlich sind Kenntnisse und Fertigkeiten, wie sie in der Regel durch ein 89%
systematisches Anlernen von mehr als 6 Monaten erworben werden.
Tätigkeiten, deren Ablauf und Ausführung teilweise festgelegt sind. Erforder-
4 lich sind Kenntnisse und Fertigkeiten, wie sie in der Regel durch eine min- 94%
destens 2-jährige fachspezifische Ausbildung erworben werden.
Sachbearbeitende Aufgaben und / oder Facharbeiten, deren Erledigung
weitgehend festgelegt ist. Erforderlich sind Kenntnisse und Fertigkeiten, wie
5 100%
sie in der Regel durch eine abgeschlossene mindestens 3-jährige fachspezi-
fische Berufsausbildung erworben werden.
Schwierige sachbearbeitende Aufgaben und / oder schwierige Facharbeiten,
deren Erledigung überwiegend festgelegt ist.
6 Erforderlich sind Kenntnisse und Fertigkeiten, wie sie in der Regel durch 110%
eine abgeschlossene mindestens 3-jährige fachspezifische Berufsausbildung
und mehrjährige Berufserfahrung erworben werden.
Umfassende sachbearbeitende Aufgaben und / oder besonders schwierige
und hochwertige Facharbeiten, deren Erledigung teilweise festgelegt sind.
Erforderlich sind Kenntnisse und Fertigkeiten, wie sie in der Regel durch
7 122%
eine abgeschlossene mindestens 3-jährige fachspezifische Berufsausbildung
und eine mindestens 2-jährige Fachausbildung oder zusätzliche Kenntnisse
und Fertigkeiten, die durch langjährige Berufserfahrung erworben werden.
Ein Aufgabengebiet, das im Rahmen von bestimmten Richtlinien erledigt
wird oder hochwertigste Facharbeiten, die hohes Dispositionsvermögen und
umfassende Verantwortung erfordern. Erforderlich sind Kenntnisse und
8 Fertigkeiten, wie sie in der Regel durch eine abgeschlossene mindestens 3- 137%
jährige fachspezifische Berufsausbildung und eine mindestens 2-jährige
Fachausbildung erworben werden sowie zusätzliche Kenntnisse und Fertig-
keiten, die durch langjährige Berufserfahrung erworben werden.
Ein erweitertes Aufgabengebiet, das im Rahmen von Richtlinien erledigt
wird. Erforderlich sind Kenntnisse und Fertigkeiten, wie sie durch den Ab-
schluss einer mindestens 4-jährigen Hochschulausbildung erworben werden.
Diese Kenntnisse und Fertigkeiten können auch durch eine abgeschlossene
9 155%
mindestens 3-jährige fachspezifische Berufsausbildung und eine mindestens
2-jährige Fachausbildung und eine langjährige Berufserfahrung sowie eine
zusätzliche spezielle Weiterbildung oder auf einem anderen Weg erworben
werden.
650 Arbeitswissenschaft
Entgelt-
Gruppe Entgeltgruppendefinition
schlüssel
Ein Aufgabenbereich, der im Rahmen von allg. Richtlinien erledigt wird.
Erforderlich sind Kenntnisse und Fertigkeiten, wie sie durch den Abschluss
einer mindestens 4-jährigen Hochschulausbildung erworben werden und
10 170%
Fachkenntnisse durch mehrjährige spezifische Berufserfahrung. Diese
Kenntnisse und Fertigkeiten können auch auf einem anderen Weg erworben
werden.
Ein erweiterter Aufgabenbereich, der teilweise im Rahmen von allg. Richtli-
nien erledigt wird. Erforderlich sind Kenntnisse und Fertigkeiten, wie sie
durch den Abschluss einer mindestens 4-jährigen Hochschulausbildung
11 185%
erworben werden sowie Fachkenntnisse und langjährige spezifische Berufs-
erfahrung. Diese Kenntnisse und Fertigkeiten können auch auf einem ande-
ren Weg erworben werden.
Häufig werden die Entgeltgruppen durch sog. Niveau- oder Richtbeispiele er-
gänzt, in denen typische Arbeitsaufgaben der jeweiligen Anforderungsstufe be-
schrieben sind. Ein tarifliches Niveaubeispiel, das der Entgeltgruppe E 1 aus dem
hessischen Entgeltrahmenabkommen zugeordnet ist, ist in Abb. 7.6 dargestellt.
Zur Arbeitsbewertung werden die Anforderungen der zu bewertenden Arbeits-
aufgabe in ihrer Gesamtheit mit den Anforderungsmerkmalen der Entgeltgruppen-
definitionen verglichen und im Ergebnis einer dieser Entgeltgruppen zugeordnet.
Als zusätzliche Informations-, Orientierungs- und Entscheidungshilfe bei der
Bewertung und Zuordnung der Arbeitsaufgabe zu einer Entgeltgruppe dienen die
Niveau- bzw. Richtbeispiele.
ERA Niveaubeispiel
Kennziffer: 05.01.01.03
Arbeitsaufgabe:
Tätigkeit im Empfang/Poststelle
Arbeitsbeschreibung:
Annehmen und Weiterleiten von Telefonaten. Besucher registrieren.
Einfache Kopierarbeiten ausführen. Ausgehende Post kuvertieren, etikettieren und frei-
machen. Eingehende Post sortieren und zuteilen.
Einfachste Schreibarbeiten nach Vorlage erledigen.
Ausbildung und Erfahrung:
Kurze Einweisung; keine Vorkenntnisse erforderlich.
Entgeltgruppe: E1 Vereinbart am 28.11.2008
Abb. 7.6: Tarifliches Niveaubeispiel aus dem Entgeltrahmenabkommen (ERA) für die
Metall- und Elektroindustrie des Landes Hessen
Arbeitswirtschaft 651
Kennzahlen- Leistungs-
g Zielverein-
vergleich beurteilung barung
Methode zur
Kennzahlen-
leistungsabhängigen Kennzahlen-
Beurteilen vergleich oder
Differenzierung vergleich
Beurteilen
des Entgelts
Leistungsbewertung
Die aus einer Arbeitsaufgabe resultierenden Anforderungen an eine Arbeitsperson
sind als relativ konstant anzusehen. Mit der Ausführung einer Arbeitsaufgabe sind
jedoch immer auch bestimmte Freiheitsgrade und Spielräume verbunden, die bei
der Bewältigung der gestellten Anforderungen individuelle Leistungsvariationen
ermöglichen (SCHETTGEN 1996).
Bei einer Leistungsbewertung wird – im Gegensatz zur personenunabhängigen
Arbeitsbewertung – der individuelle Leistungsbeitrag von Arbeitspersonen ermit-
telt und quantifiziert. Bei einer Leistungsbewertung wird somit nicht bewertet,
652 Arbeitswissenschaft
7.2.4.1 KennzahlenvergleichĆ
Beim Kennzahlenvergleich wird das durch den oder die Beschäftigten erbrachte
Leistungsergebnis durch eine oder mehrere Kennzahlen erfasst und anhand von
Soll-Ist-Vergleichen bewertet. Das anhand von Kennzahlen operationalisierte
Leistungsergebnis bestimmt dabei über eine festgelegte Leistungs-Entgelt-
Relation die Höhe des leistungsabhängigen Mehrverdienstes.
Die dem Kennzahlenvergleich zugrunde liegende Kennzahl wird durch den Ar-
beitgeber vorgegeben und muss in ihrer Ausprägung – eine entsprechende An-
strengung des Beschäftigten vorausgesetzt – ganz oder teilweise beeinflussbar
sein.
Die Soll-Vorgaben für eine Kennzahl beziehen sich auf ein Arbeitssystem, des-
sen Leistungsbedingungen im Vorfeld klar zu definieren sind. Der Beschäftigte ist
vor der Aufnahme seiner Arbeit über diese Leistungsbedingungen zu informieren.
Bei technischen oder organisatorischen Änderungen im Arbeitssystem sowie bei
veränderten Arbeitsabläufen oder -inhalten werden die Kennzahlen neu festgelegt
bzw. die den Kennzahlen zugrunde liegenden Daten berichtigt.
Die für einen Kennzahlenvergleich erforderlichen Daten können durch unter-
schiedliche Methoden ermittelt werden. Welche Methode zur Datenermittlung
angewandt wird – z.B. Messen, Zählen, Rechnen, Schätzen, Vergleichen, Zusam-
mensetzen, Interpolieren usw. – ist durch den Arbeitgeber festzulegen bzw. mit
dem Betriebs- oder Personalrat zu vereinbaren.
Leistungs-Entgelt-Relation
Die Abhängigkeiten, die zwischen der Höhe des leistungsabhängigen Entgelts und
den Ausprägungen der jeweiligen Kennzahl bestehen, lassen sich grafisch in Form
von Entgeltlinien darstellen (siehe Abb. 7.7).
Die Ausgangsleistung (AL) entspricht einer Soll-Leistung, die durch ein vorab
definiertes Leistungsergebnis – z.B. durch eine bestimmte Mengenausbringung
oder einen Nutzungsgrad – dargestellt wird. Liegt das betrieblich ermittelte Leis-
tungsergebnis oberhalb dieser Ausgangsleistung, so ergibt sich ein Mehrverdienst
entsprechend der festgelegten Entgeltlinie. Das der Ausgangsleistung zugeordnete
Ausgangsentgelt (AE) entspricht zumeist dem anforderungsabhängigen Grundent-
gelt.
Die Endleistung (EL) charakterisiert die obere Leistungsgrenze, die bei einer
entsprechenden Leistung noch erreichbar sein muss und bis zu der ein leistungs-
abhängiger Mehrverdienst gezahlt wird. Der für die Endleistung festgelegte Geld-
betrag wird als Endentgelt (EE) bezeichnet.
Arbeitswirtschaft 653
Entgelt
EE
Entgeltspanne Entgeltlinie
AE
Grundentgelt
Ausprägung
der Kennzahl
AE = Ausgangsentgelt
AL EL
EE = Endentgelt
Leistungs-
AL = Ausgangsleistung
spanne
EL = Endleistung
€ € €
K K K
€ € €
K K K
Abb. 7.8: Typische Entgeltlinienverläufe (K: Ausprägung der zugrunde liegenden Kenn-
zahl)
person, individuelle Vorgaben durch den Arbeitgeber sowie eine eindeutige indi-
viduelle Messbarkeit und Zuordenbarkeit der Leistungsergebnisse.
Besteht aufgrund der betrieblichen Gegebenheiten ein starker Zusammenhang
zwischen den Leistungen der einzelnen Mitarbeiter, wird das anhand von Kenn-
zahlen ermittelte Leistungsergebnis zumeist auf kollektiver Ebene – z.B. für eine
Gruppe, eine Abteilung oder ein Segment – erhoben. Eine kollektive Leistungs-
bewertung anhand von Kennzahlen ist zudem angezeigt, wenn die Leistungsbei-
träge der einzelnen Mitarbeiter nicht oder nur mit hohem Aufwand bestimmbar
sind oder der kennzahlengebundene Mehrverdienst gezielt Anreize für eine hohe
Gruppenleistung setzen soll.
individuell
nach Leistung
relativ gleich
x% • E3 x% • E4 x% • E4 x% • E5
kollektiv ermittelter
Mehrverdienst absolut gleich
1/4 1/4 1/4 1/4
Anforderungs-
abhängiges
Grundentgelt
E3 E4 E4 E5
Abb. 7.9: Grundsätzliche Formen zur Verteilung eines kollektiv ermittelten Mehrverdiens-
tes
Beim Geld- oder Stückakkord erhält die Arbeitsperson für jede gefertigte Men-
geneinheit einen vereinbarten Festbetrag. In der betrieblichen Praxis ist jedoch
überwiegend – wenn Akkord überhaupt noch Anwendung findet – der Zeitakkord
üblich, da bei Tarifänderungen nur der Geldfaktor angepasst werden muss. Beim
Geldakkord müssten hingegen die Geldbeträge für alle Arbeiten an allen Produk-
ten verändert werden.
Die Anwendung des Akkords ist an bestimmte Voraussetzungen gebunden: Ei-
ne Arbeitsaufgabe ist akkordfähig, wenn der Zeitbedarf bzw. das Mengenergebnis
mess- und beeinflussbar ist. Gleichzeitig muss der Arbeitsumfang und Arbeitsab-
lauf im Voraus bekannt und reproduzierbar sein. Eine Arbeitsaufgabe ist akkord-
reif, wenn der Arbeitsablauf keine störenden Einflüsse aufweist und die Arbeits-
person für die Arbeitsaufgabe geeignet und eingearbeitet ist. Akkordreife setzt
zudem einen möglichst geringen Anteil an unbeeinflussbaren Zeiten voraus.
Im Gegensatz zum Akkord, bei dem nur das Erreichen einer maximalen Men-
genleistung im Vordergrund steht, kann sich eine Prämie auf die unterschiedlichs-
ten Leistungsmerkmale beziehen (REFA 1991b). Eine Prämie ist zudem dadurch
gekennzeichnet, dass die nach oben zumeist begrenzte Entgeltlinie – je nach be-
trieblich erwünschter Anreizwirkung – unterschiedliche Verläufe annehmen kann,
die bereits in Abb. 7.8 skizziert wurden.
658 Arbeitswissenschaft
7.2.4.2 LeistungsbeurteilungĆ
Eine Leistungsbeurteilung ist ein multifunktionales Führungsmittel, das für eine
Vielzahl von Verwendungszwecken genutzt werden kann. So können die Ergeb-
nisse einer Leistungsbeurteilung sowohl zur Ermittlung eines leistungsabhängigen
Entgeltbestandteils herangezogen werden als auch als Basis und Entscheidungs-
grundlage für personalpolitische Maßnahmen – z.B. im Bereich der Personalfüh-
rung und -entwicklung, der Nachwuchsplanung etc. – dienen (LATTMANN 1994).
Leistungsbeurteilungen mit Entgeltbezug werden vor allem in Bereichen ange-
wandt, in denen sich Leistungsdaten nicht unmittelbar messen lassen, d.h. keine
quantitativen Daten zur Leistungsbemessung vorliegen oder diese nur mit unver-
hältnismäßig hohem Aufwand erhoben werden können.
Eine Leistungsbeurteilung erfolgt in der Regel durch den Arbeitgeber oder
durch einen Beauftragten des Arbeitgebers. Da eine Leistungsbeurteilung den
unmittelbaren Einblick in die Aufgabenerfüllung des zu beurteilenden Mitarbeiters
erfordert, wird zumeist der direkte Vorgesetzte mit der Durchführung der Beurtei-
lung betraut.
Im Rahmen einer Beurteilung werden die Leistungen eines Mitarbeiters be-
trachtet, die dieser innerhalb eines bestimmten Zeitabschnittes erbracht hat. Eine
Beurteilungsperiode kann unterschiedlich lang sein. In der betrieblichen Praxis
beziehen sich die periodisch wiederkehrenden Beurteilungen der individuellen
Leistung zumeist auf ein Jahr.
Ein wesentlicher Bestandteil der Leistungsbeurteilung ist in vielen Unterneh-
men das Mitarbeitergespräch. Es dient zur Erörterung der erzielten Beurteilungs-
ergebnisse und zur Ableitung von Aktivitäten für die jeweils anstehende Beurtei-
lungsperiode.
In Tarifverträgen, in denen die Leistungsbeurteilung als Methode zur leistungs-
abhängigen Entgeltdifferenzierung geregelt ist, wird der auf Basis einer Beurtei-
lung ermittelte Entgeltbestandteil zumeist als Leistungszulage bezeichnet.
Bei der Leistungsbeurteilung ist allgemein zwischen einer summarischen und
einer analytischen Vorgehensweise zu unterscheiden. Bei einer summarischen
Beurteilung der Leistung wird das Leistungsbild eines Mitarbeiters ganzheitlich
Arbeitswirtschaft 659
A B C D E
Das Leistungs- Das Leistungs- Das Leistungs- Das Leistungs- Das Leistungs-
ergebnis ent- ergebnis ent- ergebnis ent- ergebnis liegt ergebnis liegt
spricht dem spricht im spricht in vollem über den weit über den
Ausgangs- allgemeinen den Umfang den Erwartungen Erwartungen
niveau der Erwartungen Erwartungen
Arbeitsaufgabe
1 Effizienz 0 2 4 6 8
wirksame Arbeitsausführung;
termingerechte Arbeitsergebnisse;
rationelle Durchführung
2 Qualität 0 2 4 6 8
sorgfältige Durchführung von Aufgaben;
Häufigkeit von Fehlern, Mängeln; Einhaltung
von Zusagen, Absprachen; Ideenvielfalt
3 Flexibilität 0 1 2 3 4
Erledigung wechselnder Aufgaben;
Bewältigung veränderter Arbeits-
bedingungen
4 Verantwortliches Handeln 0 1 2 3 4
Zielorientierung; Umgang mit Ressourcen;
Selbständigkeit; Übernahme von Verantwor-
tung; Sauberkeit in der Arbeitsumgebung;
Förderung von Arbeits- und Gesundheitsschutz
5 Kooperation / Führungsverhalten 0 1 2 3 4
Zusammenarbeit bei gemeinsamer Erledigung
von Arbeitsaufgaben; Zusammenarbeit mit
anderen Stellen / Bereichen innerhalb der
Arbeitsaufgabe; Weitergabe von Erfahrungen
und Informationen zur Aufgabenerfüllung;
Delegation, Integration, Motivation;
Personalentwicklung
Gesamtpunktzahl:
Kenntnisnahme:
7.2.4.3 ZielvereinbarungĆ
Zielvereinbarungen werden in vielen Unternehmen seit langem als Führungs- und
Managementinstrument ohne Entgeltbezug eingesetzt. Zunehmend finden Zielver-
einbarungen jedoch auch als Methode zur leistungsabhängigen Entgeltdifferenzie-
rung ihre betriebliche Anwendung.
Zielvereinbarungssysteme sind bereits in den fünfziger Jahren des vorigen
Jahrhunderts durch das Führungskonzept »Management by Objectives« (MbO)
populär geworden. Das MbO sieht vor, strategische Unternehmensziele, die von
der Geschäftsführung festgelegt wurden, in einem Kaskadierungsprozess bis auf
untergeordnete Organisationseinheiten „herunterzubrechen“. Innerhalb der Ziel-
hierarchie eines Unternehmens nehmen die so festgelegten Ziele nach unten hin an
Detaillierung, Präzision und Operationalisierung zu.
Im Hinblick auf die Festlegung der konkreten Mitarbeiterziele lassen sich im
MbO zwei unterschiedliche Ansätze erkennen: Bei der Zielvorgabe legt der Vor-
gesetzte die Ziele für die ihn unterstellten Mitarbeiter allein fest und gibt diese als
verbindliche Orientierungspunkte vor. Bei der eigentlichen Zielvereinbarung er-
folgt die Festlegung der Ziele hingegen in einem Verhandlungsprozess zwischen
Vorgesetzten und Mitarbeitern. Im Vergleich zur fremdbestimmten Zielvorgabe
bewirkt die aktive Beteiligung an der Zielfestlegung eine höhere Identifikation der
Mitarbeiter mit den Zielen sowie ein stärkeres Verantwortungsbewusstsein bei der
Realisation der Ziele (BREISIG 2003).
Für eine hohe Leistung ist die Existenz von Zielen nicht ausreichend. Die psy-
chologische Zielsetzungstheorie (LOCKE u. LATHAM 1990) postuliert vielmehr
eine Reihe von empirisch überprüften Aussagen, die als wissenschaftliche Basis
für Zielvereinbarungskonzepte in der Praxis – ob mit oder ohne Entgeltbezug –
anzusehen sind. So gelten im Hinblick auf die Arbeitsleistung folgende Erkennt-
nisse:
662 Arbeitswissenschaft
x Je schwieriger (im Sinne von herausfordernder) ein angestrebtes Ziel ist, des-
to höher sind die motivations- und leistungsfördernden Effekte und damit die
erbrachte Leistung.
x Spezifisch und klar formulierte Ziele führen zu einer höheren Leistung als
allgemein formulierte Ziele („do your best“).
Als Rahmenbedingung dieser zentralen Aussagen gilt, dass Ziele im Hinblick
auf die Leistungsvoraussetzungen der jeweils handelnden Person realistisch und
erreichbar formuliert sein müssen. Innerhalb der Zielsetzungstheorie wurden wei-
terhin eine Reihe von Variablen untersucht, die einen Einfluss auf den Zusam-
menhang zwischen Zielsetzungen und Leistung haben können und als Moderato-
ren und Mediatoren bezeichnet werden (siehe Abb. 7.10).
Moderatoren:
Fähigkeit
Zielbindung
Rückmeldung
Aufgabenstruktur
Persönlichkeits-
merkmale
Ziele Leistung
Mediatoren:
Verhaltensrichtung
Anstrengung
Ausdauer
Aufmerksamkeit
Abb. 7.10: Die Determinanten von Zielen auf die Leistung (nach KLEINBECK 1996)
Messbar, um Zielerreichungsgrad
M
überprüfen zu können
9
T
kreten, festen Zeitraum bezogen
SMART - Formel
Mitarbeiter(in) Vorgesetzte(r)
Name, Vorname: Zielvereinbarungsbogen Name, Vorname:
Funktionsbezeichnung: 2008 Funktionsbezeichnung:
Ziel-Nr.: Ziel-Titel:
Voraussetzungen
Zielerreichungskriterien Soll-Termine Status
Beteiligte
Ziel-Check-Up: erledigt = Realisierung ist erfolgt kritisch = Realisierung derzeit kritisch offen = Ziel noch nicht erreicht, Realisierung unkritisch
7.3 Zeitwirtschaft
dererseits geht der Betrieb das Risiko ein, Arbeitszeiten und damit Arbeitskosten
zu niedrig einzuschätzen, so dass das Unternehmen zwar durch einen niedrig an-
gesetzten Preis mit der Leistungserbringung beauftragt wird, aber in der Folge
erhebliche Verluste realisiert. Darüber hinaus sind Zeitdaten erforderlich, um die
Auswirkungen von Entscheidungen in der Entwicklung, Konstruktion und Ferti-
gungsplanung auf die Herstellkosten eines Produkts ermitteln zu können.
mitarbeiter- produkt-
bezogen bezogen
techn. Vertrieb
Anreizsystem (Kalkulation,
führungs- Angebotserst.)
bezogen
Entwicklung
Betriebsleitung
(Investitions-
planung,
Personalbedarfs- ZEITDATEN
planung; Absatz- Konstruktion
planung etc.)
produktions- Fertigungs-/
Qualitäts
bezogen planung
Produktions- Ablaufplanung
Auftrags- Auftrags- Auftrags-
programm- (Menge, Termine, Fertigung Versand
eingang Kapazitäten)
veranlassung überwachung
planung
zugehöriger
Superierungs- Struktur Beispiel
räumlicher Bereich
ebene
Dieser Arbeitsgang ist Teil eines Arbeitsprozesses, der sich in einem Arbeitsbe-
reich vollzieht. Ein Arbeitsgang kann in einzelne Arbeitsverrichtungen unterglie-
dert werden. Diese werden an einer Arbeitsstelle ausgeführt. Arbeitsverrichtungen
werden wiederum in Bewegungsfolgen unterteilt. Eine Bewegungsfolge ist räum-
lich einer Bedienstelle zuzuordnen und kann über Systeme vorbestimmter Zeiten
(siehe Kap. 7.3.9) in Bewegungselemente zerlegt werden.
Wird der Gesamtablauf für den Menschen, das Betriebsmittel oder das Arbeits-
objekt so in Ablaufabschnitte unterteilt, dass jedem Ablaufabschnitt ein Zweck
eindeutig zugeordnet werden kann, so werden die Ablaufabschnitte als Ablaufar-
ten bezeichnet. Dabei wird zwischen Ablaufarten des Menschen, des Betriebsmit-
tels und des Arbeitsobjektes unterschieden. Da die Arbeitswirtschaft die rationelle
Gestaltung menschlicher Arbeit zum Gegenstand hat, soll im folgenden nur auf
die Ablaufarten des Menschen eingegangen werden. Diese sind in Abb. 7.15 dar-
gestellt (REFA 1997).
Nach dem Kriterium der Vorausbestimmbarkeit kann zwischen planmäßig und
nicht planmäßig auftretenden Ablaufarten unterschieden werden. Zu den planmä-
ßig vorkommenden Ablaufarten des Menschen zählen „Haupttätigkeit“, „Nebentä-
tigkeit“ und „ablaufbedingtes Unterbrechen“. Unter Haupttätigkeit wird eine un-
mittelbar der Erfüllung der Arbeitsaufgabe dienende Tätigkeit verstanden. Eine
Nebentätigkeit ist eine mittelbar der Erfüllung der Arbeitsaufgabe dienende Tätig-
keit. Beim ablaufbedingten Unterbrechen wartet die Arbeitsperson auf das Ende
eines Ablaufabschnitts, welcher beim Betriebsmittel oder Arbeitsobjekt selbst-
ständig abläuft. Zu den nicht planmäßig auftretenden Ablaufarten gehören „zu-
sätzliche Tätigkeiten“, „störungsbedingtes Unterbrechen der Tätigkeit“ und „per-
Arbeitswirtschaft 669
Haupttätigkeit MH
Tätigkeit MT Nebentätigkeit MN
zusätzliche
MZ
Tätigkeit
im Einsatz MI ablaufbedingtes
MA
Unterbrechen
störungsbedingtes
MS
außer Einsatz ML Unterbrechen
Unterbrechen MK
Mensch der Tätigkeit Erholen (erholungs-
M ME
bedingtes Unterbrechen)
Betriebsruhe MR
persönlich bedingtes
MP
Unterbrechen
nicht erkennbar MX
7.3.4 Zeitgliederung
Durch Anwendung von Methoden der Zeitdatenermittlung können den einzelnen,
mittels einer Arbeitsablaufanalyse identifizieren Ablaufarten Zeiten zugeordnet
werden. Diese werden Zeitarten (z.B. Haupttätigkeitszeit) genannt. Zu den Zeitar-
ten können sowohl Ist-Zeiten als auch Soll-Zeiten ermittelt werden. Ist-Zeiten sind
die tatsächlich von Menschen und Betriebsmitteln für die Ausführung bestimmter
Ablaufabschnitte benötigten Zeiten. Soll-Zeiten sind Zeiten, die Menschen und
Betriebsmittel planmäßig für die Ausführung bestimmter Ablaufabschnitte benöti-
gen. Soll-Zeiten basieren in Abhängigkeit von der Methode der Datenermittlung
direkt (z.B. REFA-Zeitaufnahme) oder indirekt (z.B. Systeme vorbestimmter
Zeiten) auf Ist-Zeiten. Die Summe der Soll-Zeiten zu den Ablaufarten Haupttätig-
keit und Nebentätigkeit wird als Tätigkeitszeit bezeichnet. Soll-Zeiten beziehen
sich auf eine festgelegte Bezugsleistung der Arbeitsperson, die als Normalleistung
(REFA 1997) oder Normleistung (DEUTSCHE MTM-VEREINIGUNG 2003) bezeich-
net wird. Die REFA-Normalleistung entspricht einem Leistungsgrad von 100%
(REFA 1997). Die MTM-Normleistung ist die den MTM-Bewegungselementen
zugrunde liegende Leistung. Sie wird beschrieben als „Leistung eines mittelgut
670 Arbeitswissenschaft
geübten Menschen (..), der diese Leistung ohne Arbeitsermüdung auf Dauer er-
bringen kann“ (DEUTSCHE MTM-VEREINIGUNG 2003). Untersuchungen des
Instituts für angewandte Arbeitswissenschaft (IfaA 1970) zur Vergleichbarkeit von
MTM-Normleistung und REFA-Normalleistung haben ergeben, dass die mit dem
MTM-Grundverfahren ermittelten Tätigkeitszeiten mit dem Faktor 1,05 zu multi-
plizieren sind, damit die normierten REFA-Zeiten mit den MTM-Zeiten überein-
stimmen.
Die Summe aus der Tätigkeitszeit und der Soll-Zeit für das ablaufbedingte Un-
terbrechen, die Wartezeit heißt, wird Grundzeit genannt. In die Grundzeiten gehen
demnach die Soll-Zeiten für die planmäßige Ausführung von Abläufen ein (REFA
1997). Die sachlichen Verteilzeiten ergeben sich aus der Summe der Soll-Zeiten
für störungsbedingtes Unterbrechen der Tätigkeit und zusätzliche Tätigkeiten.
Soll-Zeiten für persönlich bedingtes Unterbrechen werden als persönliche
Verteilzeit bezeichnet. Die Summe von sachlicher und persönlicher Verteilzeit
wird Verteilzeit genannt. Verteilzeiten folgen einer statistischen Verteilungsfunk-
tion und treten während des Ablaufs ungeplant mit unterschiedlicher Dauer und
Häufigkeit auf. Soll-Zeiten für erholungsbedingtes Unterbrechen heißen Erho-
lungszeit. Vorgabezeiten nach REFA (1997) sind Soll-Zeiten für von Menschen
und Betriebsmitteln ausgeführte Arbeitsabläufe, die für den Menschen Grundzei-
ten tg, Erholungszeiten ter und Verteilzeiten tv sowie für das Betriebsmittel Grund-
zeiten und Verteilzeiten enthalten. Die Vorgabezeit für die Arbeitsperson heißt
Auftragszeit und die Vorgabezeit für das Betriebsmittel Belegungszeit. Die Zeit-
gliederung für die Auftragszeit T ist in Abb. 7.16 dargestellt.
Auftragszeit T
(Vorgabezeit für den
Menschen)
Rüstzeit Ausführungszeit
tr ta = m te
Zeit je Einheit te
Bei dieser Zeitgliederung wird davon ausgegangen, dass zur Bearbeitung eines
Auftrags ein Rüsten und Ausführen erforderlich ist und dass das Ausführen aus m
Wiederholungen des gleichen Vorgangs besteht. Dieser Vorgang bezieht sich auf
Arbeitswirtschaft 671
die Erstellung einer Einheit. Die Zeit je Einheit wird mit te abgekürzt. Für die
Auftragszeit T gilt:
T t r m te (7.2)
Werden Soll-Zeiten für einzelne, wiederkehrende Ablaufabschnitte zusammen-
gefasst und beschrieben, so werden diese aggregierten Zeitwerte als Planzeiten
bezeichnet. Planzeiten können sich prinzipiell auf alle Ebenen von Ablaufarten
(siehe Kap. 7.3.3) beziehen (JOHN 1987; CONNORS 2001). Sie zeichnen sich da-
durch aus, dass die diesen zugrunde liegenden Arbeitsinhalte genau beschrieben
sind, Angaben zu den Arbeitsbedingungen, unter denen sie gültig sind, gemacht
werden und diejenigen Einflussgrößen, von denen sie abhängen, aufgeführt wer-
den (siehe Kap. 7.3.3). Die Ermittlung von Planzeiten ist vor allem dann wirt-
schaftlich, wenn die Häufigkeit ihrer Wiederverwendung hoch ist.
7.3.6 Zeitaufnahme
7.3.6.1 DefinitionĆundĆBedeutungĆ
Die Zeitaufnahme ist ein statistisches Verfahren der Soll-Zeitdatenermittlung,
welches auf einer Messung und Auswertung von Ist-Zeiten für einzelne Ablaufab-
schnitte basiert. Der Zeitmessung geht eine Beschreibung des Arbeitssystems,
insbesondere der Arbeitsmethode und der Arbeitsbedingungen, voraus (siehe
Kap. 7.3.3). Die Ermittlung der Ist-Zeiten erfolgt über ein Zeitmessgerät in
Fremdaufschreibung. Zu diesen Ist-Zeiten wird der jeweilige Leistungsgrad beur-
teilt (siehe Kap. 7.3.4). Soll-Zeiten werden über eine Multiplikation der Ist-Zeiten
mit dem Leistungsfaktor gebildet. Im englischsprachigen Raum wird die Methode
als „stopwatch time study“ (KONZ 2001) oder einfach als „time study“ (MATIAS
2001) bezeichnet.
Die Zeitaufnahme nach REFA (1997) ist gemäß einer Umfrage des Instituts für
angewandte Arbeitswissenschaft e.V. (BASZENSKI 2003) die mit Abstand meist
angewandte Methode der Zeitdatenermittlung. 50% der befragten Unternehmen (n
= 58) gaben an, Zeitdaten vorrangig mit dieser Methode zu ermitteln. Die Bedeu-
tung der Methode liegt vor allem darin begründet, dass sie flexibel einsetzbar,
verhältnismäßig einfach zu erlernen ist und die intensive Beobachtung bestehen-
der Arbeitsabläufe das Erkennen von Verbesserungspotenzialen erleichtert
(MATIAS 2001).
7.3.6.2 AnwendungĆ
Das REFA-Standardprogramm „Zeitaufnahme“ gliedert sich gemäß Abb. 7.17 in
acht Schritte (REFA 1997).
Der erste Schritt umfasst die Festlegung des Verwendungszwecks der Zeitdaten
(siehe Kap. 7.3.2). Ferner ist im Rahmen dieses Schritts zu überprüfen, ob die
Voraussetzungen für eine Zeitaufnahme gegeben sind. So sollte der zu untersu-
chende Arbeitsablauf möglichst so gestaltet sein, dass die diesem zugrunde lie-
gende Arbeitsmethode auch zukünftig unter gleichen o.Ä. Arbeitsbedingungen zur
Anwendung kommen kann. Der zweite Schritt beinhaltet die Vorbereitung der
Zeitaufnahme. Dazu zählt insbesondere, die von der Zeitstudie betroffenen Be-
schäftigten zu informieren. Die Schritte 3 bis 6 haben ebenfalls vorbereitenden
Charakter. Im Rahmen des dritten Schrittes ist zwischen Fortschritts- und Einzel-
zeitmessung zu wählen. Bei der Einzelzeitmessung wird jeder Ablaufabschnitt
gesondert gemessen und notiert, während bei Fortschrittszeiten jeweils die aggre-
gierten Zeitwerte aufgeführt werden. Letztgenanntes Verfahren hat den Vorteil der
Fehlerkompensation. Der vierte Schritt beinhaltet die Auswahl des zu verwenden-
den Zeitmessgeräts. Während früher hauptsächlich Stoppuhren zum Einsatz ka-
men, werden heute überwiegend mobile, elektronische Zeitdatenerfassungssyste-
me in Kombination mit Softwareprodukten für eine Datenauswertung am PC
verwendet. Der fünfte Schritt sieht die Auswahl des Zeitaufnahmebogens vor.
Diese richtet sich nach der Folge und Zahl der zu messenden Ablaufabschnitte.
Arbeitswirtschaft 673
Der sechste Schritt hat die Beschreibung der Arbeitsbedingungen zum Gegenstand
(siehe Kap. 7.3.3). Dazu sind vor allem Informationen zur Arbeitsaufgabe, Auf-
tragsnummer, Auftragsmenge, Arbeitsmethode, zum Arbeitsobjekt, Mensch, Be-
triebsmittel und zu den Umgebungseinflüssen in den Zeitaufnahmebogen einzu-
tragen. Der Arbeitsablauf ist in Ablaufabschnitte zu gliedern und zu beschreiben.
Beginn und Ende eines Ablaufabschnitts werden durch einen Zeitmesspunkt fest-
gelegt. Ferner werden Bezugsmengen und Einflussgrößen erfasst.
1. Verwendungszweck der
Zeitaufnahme festlegen
2. Zeitaufnahme
vorbereiten
3. Zwischen Fortschritts-
und Einzelzeitmessung
wählen
4. Zeitmessgerät
auswählen
5. Gemäß Ablauffolge
Zeitaufnahmebogen
auswählen
6. Arbeitsaufgabe, -verfahren,
-methode und -bedingungen
beschreiben
zyklische Ablauffolge nicht-zyklische Ablauffolge
7. Zeitaufnahme 8. Zeitaufnahme
durchführen auswerten
Während der Durchführung der Zeitaufnahme (Schritt 7) wird für jeden Ab-
laufabschnitt die Ist-Zeit gemessen. Der dieser Ist-Zeit zugrunde liegende Leis-
674 Arbeitswissenschaft
tungsgrad wird auf Basis der beobachteten Intensität und Wirksamkeit der Arbeit
beurteilt und dokumentiert (siehe Kap. 7.3.4), um individuelle Leistungsausprä-
gungen bei der Übertragung auf „Kollektive“ zu normalisieren. Die Dauer eines
Ablaufabschnitts sollte mindestens 25 Hundertstelminuten (HM) betragen, um
Intensität und Wirksamkeit sicher beurteilen und notieren zu können (REFA 1997).
Sind die Ablaufabschnitte kleiner als 25 HM, so kann der Leistungsgrad einmalig
für einen Ablaufabschnitt oder für einen Zyklus gebildet werden. Schritt 8 bein-
haltet die Auswertung der ermittelten Daten. Für diesen letzten Schritt der Zeit-
aufnahme existiert ein eigenes REFA-Standardprogramm „Auswertung von Zeit-
aufnahmen“, das sich in sechs Schritte untergliedert.
Im Rahmen der Datenauswertung werden die Ergebnisse auf Richtigkeit und
Vollständigkeit kontrolliert (Schritt 1), die Ist-Einzelzeiten berechnet (Schritt 2),
eine statistische Auswertung vorgenommen (Schritt 3), Soll-Zeiten über den Leis-
tungsgrad berechnet (Schritt 4) und zur Grundzeit tg zusammengefasst (Schritt 5),
um abschließend die Zeit je Einheit te zu bestimmen (Schritt 6). Eine statistische
Auswertung der Zeitdaten in Schritt 3 ist erforderlich, da die Zeitdaten als Stich-
probeninformation aufzufassen sind. Diese Information ist auf ihre Übereinstim-
mung mit der Grundgesamtheit zu untersuchen. Die Güte der Übereinstimmung
hängt von der Anzahl und Streuung der Einzelzeiten ab. Für die statistische Aus-
wertung bietet REFA (1997) mit dem Streuzahlverfahren und dem Variationszahl-
verfahren zwei Standardprogramme an. Im Ergebnis beider Verfahren wird, aus-
gehend von einer Irrtumswahrscheinlichkeit von 5%, die absolute oder relative
Genauigkeit des Mittelwerts einer Einzel- bzw. Zykluszeit errechnet.
7.3.6.3 Vor-ĆundĆNachteileĆ
Mit der Anwendung der Methodik der Zeitaufnahme sind eine Reihe von Vor- und
Nachteilen verbunden (SELLIE 2001; MATIAS 2001). Folgende Vorteile lassen sich
anführen:
x Die Methode der Zeitaufnahme ist im Vergleich zu Systemen vorbestimmter
Zeiten relativ einfach zu erlernen, d.h. der Qualifizierungsaufwand ist ver-
gleichsweise gering.
x Die Methode der Zeitaufnahme liefert neben Soll-Zeitdaten auch Ist-
Zeitdaten als Zwischenergebnis, so dass nach einer Methodenanwendung
stets auch Aussagen zum tatsächlichen Leistungsstand gemacht werden kön-
nen.
x Die Methode der Zeitaufnahme ist sehr flexibel einsetzbar. Es ist erstens
möglich, ausschließlich Zeitmessungen ohne Leistungsgradbeurteilungen
durchzuführen, um sich in kurzer Zeit ein Bild von der Ausgangssituation
machen und erste Verbesserungspotenziale identifizieren zu können. Zwei-
tens sind die Zeitmessungen nicht auf Tätigkeiten der Arbeitsperson be-
schränkt, sondern können sich auch auf Betriebsmittel und Arbeitsgegen-
stände beziehen.
Arbeitswirtschaft 675
7.3.7 Multimomentverfahren
7.3.7.1 Definition,ĆEntwicklungĆundĆArtenĆ
Das Multimomentverfahren ist ein statistisches Verfahren der Ist-Zeitdatener-
mittlung (siehe Kap. 7.3.5), das auf Basis von Stichproben „Aussagen über die
prozentuale Häufigkeit bzw. über die Dauer von vorwiegend unregelmäßig auftre-
tenden Vorgängen und Größen beliebiger Art für eine frei wählbare Genauigkeit
bei einer statistischen Sicherheit von 95% gibt“ (HALLER-WEDEL 1969). Der
Begriff „Multimoment“ geht auf das lateinische „multum“, d.h. „viele“ und
676 Arbeitswissenschaft
7.3.7.2 BedeutungĆ
Das auch als „fact-finding tool“ (BARNES 1957) bezeichnete Multimoment-
verfahren bietet – wie keine andere Methode der Ist-Zeitdatenermittlung – vielfäl-
tige Anwendungsmöglichkeiten. Es überrascht daher nicht, dass sich in der Litera-
tur eine sehr große Anzahl an veröffentlichten Fallbeispielen zur Multimoment-
aufnahme findet. Diese stammen zu einem großen Teil aus dem industriellen Sek-
tor und dabei insbesondere aus der pharmazeutischen Industrie. Weiterhin liegen
eine große Anzahl an Veröffentlichungen aus dem Gesundheits- und Kranken-
hausbereich vor (HINRICHSEN et al. 2005). Auch wenn einzelne betriebliche An-
wendungsmöglichkeiten der Methode (z.B. Rüstzeitstudien, Ermittlung von Stör-
zeiten an Maschinen) infolge des zunehmenden Einsatzes von Betriebsdatenerfas-
sungs-Systemen in der Produktion nicht mehr in dem Maße wie vor Einführung
dieser Systeme genutzt werden, gehört die Methode in vielen Unternehmen wei-
terhin zum zeitwirtschaftlichen Standardrepertoire.
Arbeitswirtschaft 677
7.3.7.3 AnwendungsmöglichkeitenĆ
Das Multimomentverfahren zeichnet sich dadurch aus, dass seine Anwendung
nicht auf Arbeitspersonen beschränkt ist, sondern sich auch auf Arbeitsobjekte
und Arbeits- bzw. Betriebsmittel beziehen kann. Die erhobenen Zeitdaten unter-
stützen die Analyse und Bewertung der Ausgangssituation, dienen der Überprü-
fung der Wirksamkeit von umgesetzten Maßnahmen innerhalb des betrachteten
Arbeitssystems und werden zudem als eine Grundlage für die Bestimmung des
Entgelts verwendet.
Zur Analyse und Bewertung der Ausgangssituation werden die Wahrschein-
lichkeiten durch die relativen Häufigkeiten bzw. die zeitliche Dauer einzelner
678 Arbeitswissenschaft
7.3.7.4 TheoretischeĆGrundlagenĆdesĆMMH-VerfahrensĆ
Die theoretischen Grundlagen des Multimomentverfahrens basieren auf Wahr-
scheinlichkeitsgesetzen (HALLER-WEDEL 1967; MATIAS 2001). Nach dem „Ge-
setz der großen Zahl“ nähert sich die relative Häufigkeit eines Zufallsergebnisses
immer weiter an dessen Wahrscheinlichkeit an, je öfter das Zufallsexperiment
durchgeführt wird. Folglich gilt auch für die relative Häufigkeit T eines diskreten
Ereignisses, dass sie sich mit zunehmendem Stichprobenumfang der realen, aber
unbekannten Grundwahrscheinlichkeit p nähert (HALLER-WEDEL 1967). Dieser
Wert T wird durch den Gegenwert q ergänzt, so dass folgender Zusammenhang
gilt:
(T q) n 1 mit q 1 T (7.3)
erfüllt sind. Nach diesem können Zufallsvariablen, die aus dem additiven Zusam-
menwirken vieler unabhängiger Einflussgrößen resultieren, als normalverteilt
angesehen werden (BAMBERG u. BAUR 1996; HALLER-WEDEL 1967). Wird der
zentrale Grenzwertsatz auf das Multimomentverfahren übertragen, so lassen sich
die an den beobachteten Einzelvorgängen festgestellten Merkmale als annähernd
normalverteilt auffassen, wenn sie sowohl in ausreichender Häufigkeit auftreten
als auch voneinander unabhängig beobachtet werden (HALLER-WEDEL 1969).
Um diese unabhängige Beobachtung zu gewährleisten und damit systematische
Fehler bei der Durchführung der MMH-Studie auszuschließen, sind die Zeitpunkte
von Beobachtungen über den gesamten Beobachtungszeitraum zufällig auszuwäh-
len, damit jedes Ereignis die gleiche Chance hat, vom Beobachter erfasst zu wer-
den. Darüber hinaus sollte beachtet werden, dass die Rundgangszeiten nicht ange-
kündigt werden, damit aus Sicht der beobachteten Beschäftigten vorteilhafte Er-
eignisse (z.B. zusätzliche Tätigkeiten, um die sachlichen Verteilzeiten bei einer
Verteilzeitaufnahme zu erhöhen) nicht manipulativ herbeigeführt werden können.
Ferner muss bei der Festlegung des Durchführungszeitraums einer Multimoment-
studie berücksichtigt werden, dass die zu ziehende Stichprobe von Ereignissen aus
einer umfassenden, möglichst stabilen statistischen Grundgesamtheit entstammt
(ebd. 1969), d.h. der Zeitraum muss „repräsentativ“ sein, um über diesen hinaus zu
allgemeingültigen Ergebnissen zu gelangen.
Die Normalverteilung zeichnet sich dadurch aus, dass Verteilungsunterschiede
auf lediglich zwei Parameter, den Erwartungswert P und die Varianz V2 zurückzu-
führen sind. Die Varianz V2 ist ein Maß für die Streuung der oben eingeführten
Werte T, q von diskreten Ereignissen um die Grundwahrscheinlichkeit p:
T q T (1 T )
V2 (7.4)
n n
Ausgehend vom Erwartungswert P der Normalverteilung sind im Intervall
[P - V; P + V] ca. 68% der Ereignisse zu erwarten. Im doppelten Intervall
[P - 2V; P + 2V] liegen bereits etwa 95,5% der Ereignisse. Die (Irrtums-) Wahr-
scheinlichkeit D, dass Ereignisse außerhalb dieses Zwei-Sigma-Intervalls liegen,
beträgt lediglich 4,5%. Die Wahrscheinlichkeit (1-D), die auch als statistische
Sicherheit bezeichnet wird, beträgt im Intervall [P - 1,96V ; P + 1,96V] genau
95%. Übliche Maße für die statistische Sicherheit (1-D) liegen bei 90%
(zD/2 = 1,645), 95% (zD/2 = 1,96), 98% (zD/2 = 2,326) und 99% (zD/2 = 2,576). Im
deutschsprachigen Raum wird bei Anwendung des Multimomentverfahrens in der
Regel eine statistische Sicherheit von 95% gewählt (HALLER-WEDEL 1969; REFA
1997), so dass der mit zD/2 abgekürzte Faktor von V den Wert 1,96 annimmt. Unter
Verwendung von Gleichung (7.4) gilt für das Streumaß fi der Ablaufart i bei einer
statistischen Sicherheit von 95% der in Gleichung (7.5) Zusammenhang:
680 Arbeitswissenschaft
Ti (1 Ti )
fi r zD / 2 V r1,96 (7.5)
n
(nach den ersten Rundgängen)
n Gesamtzahl der aufgenommenen Notierungen
Ti aufgrund der rel. Häufigkeit geschätzter Wert der Ablaufart i
fi berechnete absolute Genauigkeit von Ti
Als Maß für die Genauigkeit wird das Konfidenzintervall [Ti - fi;Ti + fi] verwen-
det. Das Sigma-Intervall [Ti - zD/2 V ; Ti + zD/2 V] sagt aus, dass mit einer bestimm-
ten statistischen Sicherheit (1-D) der wahre, aber unbekannte Wert pi der relativen
Häufigkeit Ti einer Ablaufart i innerhalb der Intervallgrenzen liegt.
Aus einer Umformung der Gleichung (7.5) resultiert die sog. MMH-
Hauptformel, die vor Beginn des ersten Rundgangs bzw. nach den ersten Rund-
gängen (zwecks einer Zwischenauswertung) verwendet wird:
3,84 Tic(1 Tic)
nc (7.6)
f c2
(vor dem ersten Rundgang)
3,84 T i (1 T i )
n (7.7)
f c2
(nach den ersten Rundgängen)
n´ Gesamtzahl der erforderlichen Notierungen (vor dem ersten
Rundgang)
n Gesamtzahl der erforderlichen Notierungen (nach den ersten
Rundgängen)
Ti aufgrund der relativen Häufigkeit geschätzter Wert der
Ablaufart i
Ti´ vor dem ersten Rundgang geschätzte relative Häufigkeit der
Ablaufart i
f´ gewünschte absolute Genauigkeit von Ti bzw. Ti´
Aus der Gleichung (7.6) geht hervor, dass die Anzahl der erforderlichen Notie-
rungen n´ mit zunehmender Genauigkeit f´ ansteigt. Ferner nimmt der Wert Ti´
Einfluss auf die Anzahl der notwendigen Notierungen. Um vor Beginn der Durch-
führung einer MMH-Studie die voraussichtliche Anzahl an Beobachtungen n´
mittels der MMH-Hauptformel ermitteln zu können, sind Schätzungen der Ergeb-
nisanteile der relevanten Ablaufarten Ti´ vorzunehmen bzw. Werte aus vorherge-
henden zeitwirtschaftlichen Untersuchungen zu verwenden. Darüber hinaus ist die
gewünschte absolute Genauigkeit f´ festzulegen. Gleichung (7.7) wird verwendet,
wenn bereits Ergebnisse aus Multimomentaufnahmen vorliegen, d.h. die Ergeb-
nisanteile Ti berechnet wurden.
Arbeitswirtschaft 681
Neben der absoluten Genauigkeit fi des Ergebnisanteils Ti kann ebenso die rela-
tive Genauigkeit Hi, auch als Genauigkeitsgrad bezeichnet, als Streuungsparameter
herangezogen werden. Dabei wird die absolute Genauigkeit fi einer Ablaufart i ins
Verhältnis zum Ergebnisanteil dieser Ablaufart gesetzt:
fi
Hi (7.8)
Ti
Die Anzahl der erforderlichen Rundgänge R´ kann berechnet werden, indem die
Anzahl der erforderlichen Notierungen n´ in das Verhältnis zur Anzahl der zu
beobachtenden Arbeitspersonen, Arbeits-/Betriebsmittel oder Arbeitsobjekte, die
als Untersuchungspersonen bzw. -einheiten U bezeichnet werden sollen, gesetzt
wird:
nc
Rc (7.9)
U
Die täglich auszuführende Anzahl an Rundgängen R´Tag errechnet sich über den
Quotienten aus der Anzahl der erforderlichen Rundgänge R´ und dem Untersu-
chungszeitraum D in Tagen:
Rc
c
RTag (7.10)
D
ș300 + f300
Vertrauensbereich von ș300
71
ș2400
70 p
ș1800
69 ș600 ș1200 – f1200
ș300 - f300 ș2400 – f2400
68
67 ș1800 – f1800
66 untere Vertrauensgrenze
p (1 p )
ș600 – f600 f min p zD / 2
n
300 600 900 1200 1500 1800 2100 2400 2700
n
Abb. 7.18: Darstellung der Vertrauensbereiche einer MMH-Aufnahme (die Indizes geben
die Anzahl von Beobachtungen an)
7.3.7.5 UntersuchungsartenĆ
Grundsätzlich kann zwischen einer Informativ-, Standard- und Spezialuntersu-
chung differenziert werden (HALLER-WEDEL 1969). Mit Hilfe einer Informativun-
tersuchung lässt sich ein schneller Überblick hinsichtlich der ungefähren Zeitan-
teile weniger Ablaufstufen oder Arbeitsvorgänge erzielen. Es wird allerdings
empfohlen, mindestens n = 300 Notierungen vorzunehmen. Einer Standardunter-
suchung liegen etwa 1.600 Notierungen zugrunde, so dass gemäß Multimoment-
hauptformel bei jedem Ergebnisanteil das Streumaß fmax = r 2,5% nicht überschrit-
ten wird. Als Spezialuntersuchungen gelten solche Multimomentaufnahmen, bei
denen bereits in der Vorbereitung der Studie von mehr als 10.000 Notierungen
ausgegangen wird, so dass für die absoluten Genauigkeiten beliebiger Ablaufarten
fmax = r 1,0% gilt.
Ferner kann zwischen einer Multimomenteinzelaufnahme und einer -gruppen-
aufnahme unterschieden werden (REFA 1997). Bei einer Einzelaufnahme wird im
Unterschied zu der üblicherweise angewendeten Gruppenaufnahme jede Notie-
rung einem Arbeitsplatz zugeordnet, so dass Auswertungen nach einzelnen Ar-
beitsplätzen möglich sind. Einzelaufnahmen sind von ihrem Umfang her in der
Regel als Spezialuntersuchungen zu planen.
Darüber hinaus kann zwischen einfachem, mehrfach gestuftem, geschichtetem
und inhomogenem Untersuchungsdesign unterschieden werden (HALLER-WEDEL
1969). Dabei ist es hilfreich, Arbeitsablaufabschnitte in eine Hierarchie zu bringen
und insbesondere zwischen Arbeitsgängen und Arbeitsverrichtungen zu unter-
scheiden (siehe Kap. 7.3.3). Ein einfaches Untersuchungsdesign liegt vor, wenn
die beobachteten Arbeitsgänge nur einmal notiert werden. Bei einer mehrfach
gestuften Studie ist der Multimomentaufnahmebogen so gestaltet, dass in einer
ersten Stufe der Beobachtung zwischen wenigen Arbeitsgängen unterschieden
wird und eine „Grobnotierung“ vorgenommen wird. In einer zweiten Stufe wird
jeder Arbeitsgang weiter spezifiziert und die entsprechende Arbeitsverrichtung
dieses Arbeitsgangs notiert („Feinnotierung“). Die Summe der relativen Häufig-
keiten der Arbeitsverrichtungen muss mit dem jeweiligen Ergebnisanteil des Ar-
beitsgangs übereinstimmen. Als Vorteil eines mehrfach gestuften Untersuchungs-
designs gegenüber einem einfachen Untersuchungsdesign wird angeführt, dass bei
einer großen Anzahl an Ablaufarten die Übersichtlichkeit gewahrt wird (ebd.
1969). Da bei einfachen Untersuchungen in der Auswertungsphase ebenso Ar-
beitsverrichtungen zu Arbeitsgängen zusammengefasst werden können, unter-
Arbeitswirtschaft 683
7.3.7.6 AnwendungĆdesĆMMH-VerfahrensĆ
Zur Anwendung des MMH-Verfahrens liegt eine Reihe von strukturierten Vorge-
hensbeschreibungen vor. Diesen ist gemeinsam, dass sich die beschriebenen
Schritte einer Vorbereitungs-, Durchführungs- und Auswertungsphase zuordnen
lassen. Darüber hinaus basieren alle Beschreibungen des MMH-Verfahrens auf
denselben statistischen Grundlagen. Um den Stand der Forschung und Praxis der
Methode wiederzugeben, soll ein Vorgehensmodell (siehe Abb. 7.19) dargestellt
werden, welches wesentliche, aus der Literatur (BARNES 1957; HALLER-WEDEL
1969; REFA 1997; BRISLEY 2001; MATIAS 2001) stammende Gestaltungshinweise
berücksichtigt. Das Vorgehensmodell gliedert sich in elf Schritte.
1. Formulieren der Zielsetzung der Studie, Beschreiben des Arbeitssystems, Fest-
legen des Untersuchungszeitraums und Überprüfen der Eignung des MMH-
Verfahrens
In einem ersten Schritt sind die Zielsetzung, der Untersuchungsbereich und Zeit-
raum der geplanten Multimomentstudie festzulegen. Bei der Festlegung von Ziel-
setzung und Untersuchungsbereich sollte berücksichtigt werden, dass mit einer
MMH-Studie auch mehrere Zielsetzungen verfolgt werden können, so dass durch
einen Verzicht separater Studien erhebliche Synergien erzielt werden können
(REFA 1997). Der Untersuchungsbereich sollte mit Hilfe des Arbeitssystemansat-
zes beschrieben werden. Bei der Festlegung des Untersuchungszeitraums T ist zu
berücksichtigen, dass dieser als repräsentativ für einen über den Untersuchungs-
zeitraum hinausgehenden Zeitraum angesehen werden kann. Dieser interessieren-
684 Arbeitswissenschaft
Bevor mit dem Schritt 2 des Vorgehensmodells begonnen wird, ist ausgehend
von den formulierten Zielsetzungen der Studie und den vorgenommenen Arbeits-
systembeschreibungen kritisch zu hinterfragen, ob eine Anwendung des MMH-
Verfahrens möglich und zweckmäßig ist (MATIAS 2001). Voraussetzung für die
Anwendbarkeit der Methodik ist die Beobachtbarkeit der Ablaufarten, d.h. die
Ablaufarten müssen durch Kurzzeitbeobachtungen eindeutig erkannt werden kön-
nen. Außerdem müssen die zu beobachtenden Ablaufarten in ausreichender Häu-
figkeit und voneinander unabhängig beobachtet werden können (HALLER-WEDEL
1969).
werden soll. Ferner ist zwischen einem einfachen, mehrfach gestuften, geschichte-
ten und inhomogenen Untersuchungsdesign auszuwählen (siehe Kap. 7.3.7.5).
Darüber hinaus ist festzulegen, ob die Datenerhebung über eine Selbst- oder
Fremdaufschreibung vorgenommen werden soll (siehe Kap. 7.3.7.2).
3. Festlegen und Spezifizieren der Arbeitsablaufarten
In einem dritten Schritt sind unter Beachtung der Zielsetzungen der Studie die
Ablaufarten zu identifizieren, begrifflich zu bestimmen und eindeutig voneinander
abzugrenzen (HALLER-WEDEL 1969; MATIAS 2001). Um Ablaufarten zweifelsfrei
durch Kurzzeitbeobachtungen erkennen zu können, sollten zusätzlich zu einer
Beschreibung der Ablaufarten Erkennungsmerkmale dokumentiert werden (REFA
1997). Anzahl und Gliederungstiefe der Ablaufarten ergeben sich aus den Zielset-
zungen der Studie. Es sollten nicht mehr als etwa 25 Ablaufarten gebildet werden,
um Verwechselungen während der Aufnahme zu vermeiden (HALLER-WEDEL
1969). Bilden Arbeitspersonen den Untersuchungsgegenstand, sollte die Ablaufart
„Anwesenheit ungeklärt“ berücksichtigt werden.
4. Erstellen eines Rundgangsplans
In einem vierten Schritt ist ein Rundgangsplan zu erstellen. Unter diesem wird die
skizzenmäßige Darstellung der Beobachtungsstandpunkte und -folgen verstanden
(REFA 1997). Zur Wahrung des Zufallsprinzips sind mehrere mögliche Beobach-
tungsfolgen festzulegen. Vor jedem Rundgang ist eine dieser Varianten zufalls-
mäßig auszuwählen. Ein Rundgangsplan soll gewährleisten, dass alle Arbeitsper-
sonen bzw. Untersuchungsobjekte bei einem Rundgang erfasst werden (HALLER-
WEDEL 1969).
5. Auswählen und Gestalten der Hilfsmittel
Ausgehend von dem in Schritt 2 gewählten Untersuchungsdesign und den in
Schritt 3 festgelegten Ablaufarten sind die Hilfsmittel für die Multimomentauf-
nahme in einem fünften Schritt auszuwählen bzw. zu gestalten. Dabei ist zwischen
elektronischen und konventionellen Hilfsmitteln zu unterscheiden. Als elektroni-
sche Hilfsmittel zur Durchführung einer Multimomentaufnahme eignen sich vor
allem Personal Digital Assistants (PDA), die mit einem Programm zur Unterstüt-
zung der Durchführung einer MMH-Studie ausgestattet sind. Darüber hinaus kön-
nen elektronische Hilfsmittel – ausgehend von einer festgelegten Anzahl an Rund-
gängen und einem definierten Durchführungszeitraum – Zufallszeitpunkte aus-
wählen und den Mitarbeiter aus der Zeitwirtschaft über einen Signalton über den
Rundgangsbeginn informieren (BRISLEY 2001). Zu den konventionellen Hilfsmit-
teln zählen Klemmbrett, Stift und MMH-Beobachtungsbogen. In der Literatur
liegt eine Reihe von Standard-MMH-Beobachtungsbögen vor (HALLER-WEDEL
1969; REFA 1997; MATIAS 2001). Diese sind für unterschiedliche Untersuchungs-
designs (siehe Schritt 2) gestaltet worden und können als Vorlage verwendet wer-
den.
686 Arbeitswissenschaft
7.3.7.7 Vor-ĆundĆNachteileĆdesĆMMH-VerfahrensĆ
Mit der Anwendung des MMH-Verfahrens sind eine Reihe von Vor- und Nachtei-
len verbunden (z.B. BARNES 1957; HALLER-WEDEL 1969). Diese gelten zum Teil
auch für das MMZ-Verfahren und die „Performance Sampling“-Methode. We-
sentliche Vorteile sind nachfolgend aufgeführt.
x Bei einem Rundgang können (von einem Beobachter) eine größere Anzahl
von Arbeitsplätzen berücksichtigt werden, so dass mit – im Vergleich zu
Stoppuhr-Studien – geringem Aufwand repräsentative Aussagen zum be-
trieblichen Ist-Zustand möglich sind.
x Die gewünschte Genauigkeit der Untersuchungsergebnisse kann (bei einer
im deutschsprachigen Raum verwendeten statistischen Sicherheit von 95%)
frei gewählt werden.
x Die Multimomentaufnahmen können von angelernten Aushilfskräften durch-
geführt werden; für die Vorbereitung und Auswertung der Studie sind jedoch
zeitwirtschaftliche Grundkenntnisse zwingend erforderlich.
x Multimomentstudien können unterbrochen und zu einem späteren Zeitpunkt
fortgesetzt werden, sofern der Zeitraum der Untersuchung dann noch als re-
präsentativ angesehen werden kann.
Den Vorteilen der Methode stehen folgende Nachteile gegenüber:
x Eine MMH-Studie dokumentiert lediglich einen Ist-Zustand. Zu den Ursa-
chen des Ist-Zustands und zu den Zeiteinflussgrößen einzelner Tätigkeiten
können nach Abschluss einer Multimomentstudie allenfalls eingeschränkte
Aussagen gemacht werden.
x Das MMH-Verfahren (über eine Fremdbeobachtung) kann nur angewendet
werden, wenn die relevanten Ablaufarten während der kurzen Beobachtung
eindeutig erkannt werden können.
x Jede Notierung ist ein einmaliger, nicht wiederkehrender Vorgang, der sich
einer nachträglichen Überprüfung entzieht.
Arbeitswirtschaft 689
7.3.8.1 AusgangssituationĆundĆZielsetzungĆ
Die Durchführung einer Multimomentstudie gliedert sich, wie zuvor erläutert,
grob in eine Planungs-, Durchführungs- und Auswertungsphase. Zwischen diesen
Phasen sind in den einzelnen Vorgehensbeschreibungen Iterationen vorgesehen.
Bspw. wird beim REFA-Standardprogramm „Multimomentaufnahme“ (REFA
1997) nach n | 500 Beobachtungen eine Zwischenauswertung vorgenommen. Im
Rahmen dieser Auswertung werden die je Ablaufart i vorgenommenen Notierun-
gen xi ausgezählt und anschließend die Wahrscheinlichkeit Ti geschätzt, indem
jeweils der Quotient aus der Anzahl der Notierungen xi einer Ablaufart i und der
Gesamtzahl der Notierungen n gebildet wird. Über die sog. Multimoment-
Hauptformel (siehe Kap. 7.3.7.4) wird anschließend (ausgehend von einer
Irrtumswahrscheinlichkeit D = 0,05) für die besonders interessierenden Ablaufar-
ten i die erreichte absolute Genauigkeit fi ermittelt. Ist der Wert für fi größer als
derjenige für die gewünschte Genauigkeit fi´, kann die Multimomentstudie noch
nicht abgeschlossen werden. Es wird wiederum der voraussichtlich erforderliche
Beobachtungsumfang n´ neu berechnet, da in die ursprüngliche, vor Beginn der
Rundgänge vorgenommene Berechnung der Anzahl der Beobachtungen nur Erfah-
rungswerte oder grobe Schätzungen für Ti´ eingehen konnten. Anschließend wer-
den die Beobachtungen bis zum Erreichen von n´ fortgesetzt. Es schließt sich
wiederum eine (Zwischen-) Auswertung an und ggf. sind weitere Beobachtungen
vorzunehmen, bis die Streumaße fi einen gewünschten Wert fi´ erreichen bzw.
unterschreiten (fi fi´).
Wie bereits zuvor erwähnt, hat dieses mehrstufige, zyklische Vorgehen den
Nachteil, dass während der Datenerhebung keine Informationen zu den Streuma-
ßen vorliegen und daher eine Entscheidung für eine Fortsetzung der Multimo-
mentaufnahmen nur im Rahmen der Zwischenauswertungen erfolgen kann. Zu-
dem ist es möglich, dass der im REFA-Standardprogramm geforderte Mindest-
stichprobenumfang von n | 500 Notierungen das erforderliche Maß für sog.
MMH-Informativuntersuchungen, mit denen ein schneller Überblick zu den unge-
fähren Zeitanteilen weniger Ablaufarten geschaffen werden soll (siehe
Kap. 7.3.7.5), überschreitet.
SCHLICK u. HINRICHSEN (2006) entwickelten daher ein auf der Bayes-Statistik
beruhendes neues Schätzverfahren, das die oben genannten methodischen Schwä-
chen nicht aufweist und über eine Visualisierung von Wahrscheinlichkeitsvertei-
lungen eine zusätzliche Entscheidungsunterstützung für den Arbeitsplaner im
Unternehmen zur Verfügung stellt.
7.3.8.2 TheoretischeĆGrundzügeĆdesĆneuenĆSchätzverfahrensĆ
Bei dem klassischen MMH-Verfahren wird aufgrund der vorgenommenen Notie-
rungen die relative Häufigkeit T einer Ablaufart i geschätzt und ein Vertrauensin-
Arbeitswirtschaft 691
³ p(T )dT
0
1 (7.11)
Wird ein Arbeitsprozess betrachtet, der lediglich aus zwei Ablaufarten (Kodie-
rung 0 oder 1) besteht, ohne dass bekannt ist, welche Ablaufart zu einem bestimm-
ten Zeitpunkt auftreten wird, dann kann der Vorgang als Ziehen der Zahlen 0 oder
1 aus einer Urne betrachtet werden (HINRICHSEN u. SCHLICK 2006). Ist bekannt,
dass der Prozess zu einem Anteil T den Zustand 1 und zu einem Anteil (1-T) den
Zustand 0 annehmen wird, so wird die Wahrscheinlichkeit, bei n-maliger Be-
obachtung des Prozesses y mal den Zustand 1 wahrzunehmen, als bedingte Wahr-
scheinlichkeit p(y|T) geschrieben. Diese stützt sich auf die Binomialverteilung:
§n· y
p( y T ) ¨ ¸ T (1 T )
n y
(7.12)
y
© ¹
In der betrieblichen Praxis ist der Parameter T aber in der Regel unbekannt,
während die Ausprägung des Parameters y durch n Beobachtungen ermittelt wer-
den kann. Gesucht wird daher die „logisch umgekehrte“ bedingte Wahrscheinlich-
keit p(T|y) als Verteilungsfunktion der Wahrscheinlichkeitsmasse. Diese inverse
Wahrscheinlichkeit lässt sich anhand des Bayes-Theorems für Verteilungen be-
rechnen:
p(T ) p( y T )
p (T y ) 1
(7.13)
³ p(T ) p( y T ) dT
0
p(T) wird dabei als sog. Prioriverteilung bezeichnet und gibt an, welche Plausi-
bilität den möglichen Werten der zu schätzenden Variable T vor der Beobachtung
des Arbeitsprozesses und seiner Zustände, den Ablaufarten (siehe Kap. 7.3.3),
zukommt. Im Normalfall ist der zeitliche Anteil einzelner Ablaufarten a priori
unbekannt, so dass von einer Gleichverteilung des Zeitanteils T der betrachteten
Ablaufart ausgegangen wird:
p (T ) 1 T [0,1] (7.14)
692 Arbeitswissenschaft
³0 1 ¨© y ¸¹T (1 T ) dT ³ T (1 T ) dT
n y y n y
Die Lösung des Integrals im Nenner der Gleichung (7.15) findet sich bspw. in
BRONSTEIN et al. (1993) und lautet wie folgt:
1
*( y 1) *(n y 1)
³T (1 T ) n y dT
y
(7.16)
0
*(n 2)
Dabei bezeichnet *(.) die Gammafunktion, die für natürlichzahlige Elemente
aגԳ wie folgt definiert ist:
*( a ) { ( a 1)! (7.17)
Unter Verwendung von Gleichung (7.17) ergibt sich folgende Lösung für das
Integral aus Gleichung (7.16):
1
*( y 1) *(n y 1) y !(n y )!
³T (1 T ) n y dT
y
(7.18)
0
*(n 2) (n 1)!
Wird die Lösung des Integrals aus Gleichung (7.18) in Gleichung (7.15) einge-
setzt, so erhält man die gesuchte Posterioriverteilung:
(n 1)! y
p (T y ) T (1 T ) n y (7.19)
y !(n y )!
Aufgrund der Streuungen der Wahrscheinlichkeitsmasse ist es analog zum kon-
ventionellen Verfahren sinnvoll, ein Vertrauensintervall [Tunten , Toben] im Sinne
einer oberen bzw. unteren Fehlerschranke anzugeben, in dem der gesuchte Para-
meter T mit einer vordefinierten Vertrauenswahrscheinlichkeit (1-D) liegt. Es wird
auch von einer Intervallschätzung gesprochen. Für das Vertrauensintervall mit
0 < Tunten < Toben < 1 muss gelten:
Toben
³
Tunten
p (T ) dT 1D (7.20)
mit a = y +1 und b = n – y + 1
Arbeitswirtschaft 693
Mit Hilfe der sog. inversen Betaverteilung lässt sich das Konfidenzintervall
[Tunten , Toben] bestimmen. Für eine Vertrauenswahrscheinlichkeit (1-D) muss gel-
ten:
Toben
³
Tunten
B(T y 1, n y 1)dT 1D (7.22)
7.3.8.3 ErgebnisseĆeinerĆFallstudieĆ
Zum besseren Verständnis des neuen MMH-Schätzverfahrens soll dieses anhand
eines realen Fallbeispiels aus dem Einzelhandel für die Gruppe der Verkaufsmit-
arbeiter anhand der Haupttätigkeit „Interaktion mit Kunden“ erläutert werden
(SCHLICK u. HINRICHSEN 2006). Die Ausgangssituation vor Beginn des ersten
Rundgangs war entsprechend Abb. 7.20 durch eine uninformative Prioriverteilung
B(T |1,1) = 1 gekennzeichnet, d.h. es lagen keine Informationen bzgl. der relativen
Häufigkeit der Haupttätigkeit vor. Nach drei Rundgängen lagen insgesamt n = 21
Notierungen vor. Davon entfielen y = 5 auf die Ablaufart „Interaktion mit Kun-
den“. Werden diese Werte in Gleichung (7.19) eingesetzt, erhält man folgende
Wahrscheinlichkeitsdichtefunktion:
(n 1)! y
p (T y ) T (1 T ) n y
y !(n y )!
(7.23)
(21 1)! 5
T (1 T )16
5!(21 5)!
Mit Hilfe der sog. inversen Betafunktion (sensu Gleichung (7.22)) ergibt sich
mit einer Vertrauenswahrscheinlichkeit von (1-D) = 95%, dass nach 21 Beobach-
tungen der wahre, aber unbekannte Wert für die relative Häufigkeit der Ablaufart
„Interaktion mit Kunden“ zwischen 10,7% und 45,4% liegt. Mit zunehmender
Anzahl an Rundgängen bzw. Beobachtungen n ändert sich gemäß Abb. 7.20 der
Graph der Wahrscheinlichkeitsdichtefunktion derart, dass die Streuung um den
wahren Tätigkeitsanteil T abnimmt und damit die Wahrscheinlichkeitsdichtefunk-
tion p(T) „gestaucht“ wird.
Die Entwicklung der Konfidenzintervalle zeigt, dass die Studie für eine reine
Informativuntersuchung am Montagabend nach 34 Rundgängen bzw. 387 Be-
obachtungen hätte abgebrochen werden können.
Das neue Schätzverfahren schafft über eine Visualisierung der Wahrscheinlich-
keitsdichtefunktion ein besseres Verständnis für die statistischen Grundlagen des
MMH-Verfahrens. Gleichzeitig kann das Verfahren auch bei kleinen Stichproben-
umfängen angewendet werden. Es ist folglich keine minimale Stichprobengröße
– wie sie im REFA-Standardprogramm vorgesehen ist – notwendig, um statistisch
abgesicherte Aussagen treffen zu können. Stattdessen kann der Arbeitsplaner die
Rundgänge abbrechen, wenn ihm das Vertrauensintervall hinreichend klein für
seine Entscheidungszwecke erscheint.
694 Arbeitswissenschaft
0.2 0.4 0.6 0.8 ș 1 0.2 0.4 0.6 0.8 ș 1 0.2 0.4 0.6 0.8 ș 1
0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1
ș ș ș
Ein wesentlicher Nachteil des neuen Schätzverfahrens ist, dass es nur in Ver-
bindung mit einem elektronischen Datenerfassungsgerät und einer Auswertungs-
software, die nach jedem Rundgang die Wahrscheinlichkeitsdichtefunktionen
ausgewählter Ablaufarten visualisiert und die Vertrauensintervalle anzeigt, prak-
tisch anwendbar ist. Ansonsten würden sich – analog zum REFA-
Standardprogramm – zusätzliche Iterationen zwischen der Planungs-, Durchfüh-
rungs- und Auswertungsphase ergeben.
7.3.8.4 SoftwareentwicklungĆ
Als technische Voraussetzung für eine praktische Anwendung des neuen Schätz-
verfahrens wurde eine Software für einen Taschencomputer, einen sog. PDA,
entwickelt, mit der die Notierungen für einzelne Ablaufarten erfasst und nach
jedem Rundgang Visualisierungen der Wahrscheinlichkeitsdichtefunktionen sowie
statistische Kennzahlen für einzelne Ablaufarten auf dem PDA angezeigt werden
können. Die MMH-Studie wird zuvor am PC über eine eigens entwickelte Soft-
ware angelegt. In der Vorbereitungsphase der Studie sind die Ablaufarten festzu-
legen. Ebenso werden die zu beobachtenden Mitarbeiter tabellarisch notiert. Zu
jedem Mitarbeiter können die individuellen Arbeitszeiten im vorgesehenen Unter-
suchungszeitraum sowie die Abteilungszugehörigkeit angegeben werden (siehe
Abb. 7.21).
Durch namentliche Berücksichtigung der Mitarbeiter und ihrer jeweiligen Ar-
beitszeiten kann sichergestellt werden, dass alle planmäßig anwesenden Mitarbei-
ter bei einem Rundgang erfasst und Mehrfach-Notierungen eines Mitarbeiters
während eines Rundganges vermieden werden. Die Kenntnis der Abteilungszuge-
hörigkeit hilft dem Beobachter dabei, Mitarbeiter während des Rundgangs zu
finden. Dadurch werden insbesondere die handelsspezifischen Anforderungen an
eine MMH-Software berücksichtigt (HINRICHSEN 2007).
Arbeitswirtschaft 695
7.3.9.1 Definition,ĆEntwicklungĆundĆArtenĆ
Systeme vorbestimmter Zeiten (SvZ) sind analytisch-rechnerische Verfahren der
Zeitdatenermittlung, mit denen unter Berücksichtigung von Zeiteinflussgrößen
und methodenspezifischen Anwendungsregeln vorwiegend manuelle Arbeitsab-
läufe durch Zusammensetzen von Bewegungselementen beschrieben und Tätig-
keitszeiten dieser Arbeitsabläufe durch Addition der zu den Elementen gehören-
den Soll-Zeiten berechnet werden können. Der Begriff „Systeme vorbestimmter
Zeiten“ (engl.: predetermined time systems/predetermined-motion-time systems)
kommt dadurch zustande, dass Tätigkeitszeiten von Bewegungsabläufen bereits in
der Planungsphase eines Arbeitssystems „vorbestimmt“ werden können.
Frank Bunker Gilbreth gilt als Begründer des Bewegungsstudiums. Mit Hilfe
von Filmaufnahmen und Photozyklogrammen, welche die Bewegungsspur kleiner,
an Armen und Beinen von Versuchspersonen angebrachter Lämpchen auf einer
photografischen Platte wiedergaben (GILBRETH 1919), fand Gilbreth heraus, dass
17 verschiedene Vorgangselemente genügen, um damit alle menschlichen Bewe-
gungen beschreiben zu können. Diese Vorgangselemente nannte er in Umkehrung
seines Namens „Therbligs“ (RÜHL 1980). Wichtige Ergebnisse der Forschungstä-
tigkeiten wurden u.A. in seinem Werk „Applied Motion Study“ veröffentlicht.
Auf Basis der von Gilbreth entdeckten Vorgangselemente und einer von ihm ge-
schaffenen Symbolsprache gelang es Asa B. Segur, einem Mitarbeiter von
Gilbreth, nach jahrelangen Untersuchungen, diesen Vorgangselementen Zeitwerte
Arbeitswirtschaft 697
hat er u.A. festgestellt, dass das WF-Verfahren „übermäßig kompliziert und zum
Teil sehr ungenau ist“. Er hat zudem ein eigenes Verfahren vorbestimmter Zeiten
entwickelt. Forschungsarbeiten von Luczak und Samli beinhalten eine
Validitätsprüfung von WF-Mento (LUCZAK u. SAMLI 1986). Sie kommen zu dem
Ergebnis, dass das Mento-Verfahren für Prüftätigkeiten hochgenaue Vorhersagen
des Zeitbedarfs für Prüfintervalle ermöglicht.
Weiterentwicklungen hat es in der jüngeren Vergangenheit vor allem dahinge-
hend gegeben, dass mit dem auf dem MTM-Verfahren basierenden Werkzeug
MTM-Prokon der manuelle Montageaufwand von Produkten bereits in der
Konstruktionsphase bewertet werden kann (SANZENBACHER 2003). Ferner wer-
den die den MTM-Prozessbausteinen zugrunde liegenden Informationen mit der
Methode MTM-Ergo dahingehend genutzt, ergonomische Verbesserungspoten-
ziale zu identifizieren. Ein umfassender Überblick zum MTM-Verfahren findet
sich bei BOKRANZ u. LANDAU (2006). Weiterentwicklungspotenziale von Syste-
men vorbestimmter Zeiten bestehen vor allem darin, einzelne Bewegungselemen-
te, Prozessbausteine bzw. das System insgesamt mit weiteren Informationen zu
versehen. Bspw. wären aus Sicht der Arbeitsplanung – wie von F. Stier bereits
1965 angeregt – Informationen zu den Anlernzeiten, die sich für einzelne Prozesse
im Serienanlauf voraussichtlich ergeben werden, von Relevanz (STIER 1965). Mit
Hilfe dieser Informationen könnten frühzeitig gesonderte Schulungen hinsichtlich
derjenigen Arbeitsprozesse geplant werden, die zuvor als vergleichsweise schwer
erlernbar identifiziert wurden. Auch wären aus arbeitsgestalterischer Sicht Aussa-
gen zur Ermüdung von Arbeitspersonen hilfreich, um gezielt organisatorische oder
technische Maßnahmen zur Ermüdungsvermeidung ableiten zu können. Darüber
hinaus könnten insbesondere im Hinblick auf die verdichteten Analysiersysteme
Schätzungen zur Streuung der analytisch ermittelten Tätigkeitszeiten dazu beitra-
gen, die Genauigkeit der ermittelten Zeitdaten bewerten zu können.
7.3.9.2 BedeutungĆundĆAnwendungĆ
Der Vorteil von Systemen vorbestimmter Zeiten in der industriellen Praxis be-
gründet sich durch die kombinierte Standardisierung von Arbeitsablauf und Tätig-
keitszeit (siehe Kap. 7.3.2). Diese ist methodenimmanent, d.h. Arbeitsablauf und
Tätigkeitszeit sind nicht voneinander zu trennen. Darüber hinaus sind Systeme
vorbestimmter Zeiten von hoher praktischer Relevanz, da diese bereits in der
Planungsphase eines Arbeitssystems angewendet werden können. Lediglich die
Bedingungen, unter denen ein Arbeitsprozess voraussichtlich auszuführen ist
(siehe Kap. 7.3.3), müssen für eine Methodenanwendung feststehen. In der Folge
können bspw. Mitarbeiterschulungen auf Basis der Prozessmodellierungen bereits
vor einer Arbeitssystemrealisierung vorgenommen werden. Ferner eignen sich
Systeme vorbestimmter Zeiten für den Aufbau eines betriebsspezifischen Planzeit-
systems, so dass Änderungen an der Arbeitsmethode oder den Arbeitsbedingungen
nur zu geringen Aufwänden bei der Adaption der Prozessbausteine führen. Als
weiterer Grund für die Bedeutung der Methodik lässt sich anführen, dass sich aus
700 Arbeitswissenschaft
ihrer Anwendung Hinweise für eine Verbesserung der Arbeitsmethode sowie der
Arbeitsbedingungen (Arbeitsplatz, Arbeitsmittel, Arbeitsobjekt) ableiten lassen.
Die Arbeitsgestaltung geht dabei über eine einfache Kasuistik hinaus, da sich aus
den Systemen vorbestimmter Zeiten allgemeingültige arbeitsgestalterische Leit-
sätze und Bewegungsprinzipien ableiten lassen (LUCZAK 1986).
Das Vorgehen bei der Anwendung von Systemen vorbestimmter Zeiten gliedert
sich in drei Phasen (DEUTSCHE MTM-VEREINIGUNG 2003). In der Vorberei-
tungsphase werden die Beschäftigten informiert und die Arbeitsbedingungen (sie-
he Kap. 7.3.3) beschrieben. Im Rahmen der Phase der Ablaufanalyse wird der
Arbeitsprozess in Ablaufabschnitte gegliedert. Darüber hinaus wird jeder Ablauf-
abschnitt mit Hilfe der Grundbewegungssymbole beschrieben. Zu den einzelnen
Bewegungselementen werden die Ausprägungen der Zeiteinflussgrößen identifi-
ziert. Die Phase der Zeitanalyse beinhaltet die Zuordnung von Zeitwerten zu den
einzelnen Elementen sowie die Addition der Einzelzeiten zur Tätigkeits- bzw.
Grundzeit.
Als Ergebnis dieses Vorgehens liegt ein Soll-Arbeitsablauf inklusive einer Tä-
tigkeits- bzw. Grundzeit vor. Tabelle 7.10 zeigt mit dem Fügen eines Bolzens in
eine Vorrichtung ein einfaches Beispiel für einen mittels MTM-1 modellierten
Bewegungsvorgang.
Tabelle 7.10: Beispiel einer Bewegungsablaufbeschreibung mittels MTM-1
Hinlangen
• Bewegungslänge: 40 cm R 40 C 16,8 TMU
zum Bolzen
(Reach) • Bolzen liegt vermischt mit anderen
Greifen
des Bolzens • Abmessungen: 8 x 12 mm G4 B 9,1 TMU
(Grasp) • Bolzen liegt vermischt mit anderen
Bringen
• Bewegungslänge: 40 cm M 40 C 18,5 TMU
des Bolzens
• Platziergenauigkeit: genau
zur Vorrichtung
(Move)
Fügen
• Fügetoleranz: eng P2SE 16,2 TMU
des Bolzens
in Öffnung • Symmetrie: vollsymmetrisch
• Handhabung: einfach
(Position)
dem Loslassen des Bolzens. Gemäß den vorliegenden Informationen zu den Zeit-
einflussgrößen der einzelnen Bewegungselemente werden die entsprechenden
Codes und Zeitwerte für die einzelnen Elemente aus der MTM-Normzeitwertkarte
entnommen. So ist bspw. der Zeitwert für das Hinlangen, abgekürzt mit R für
Reach, einerseits von der Bewegungslänge (im Beispiel: 40 cm) und andererseits
vom Bewegungsfall (im Beispiel: Fall C – Hinlangen zu einem Gegenstand, der
mit gleichen o.Ä. Gegenständen so vermischt ist, dass er ausgewählt werden
muss) abhängig. Der Zeitwert für R40C beträgt 16,8 TMU. Wie in Tabelle 7.10
dargestellt, werden abschließend die einzelnen Zeitwerte zur Gesamtvorgangsdau-
er addiert.
7.3.9.3 Vor-ĆundĆNachteileĆ
Mit der Anwendung von Systemen vorbestimmter Zeiten sind die nachfolgend
aufgeführten Vorteile verbunden:
x Die Anwendung von Systemen vorbestimmter Zeiten geht mit einer detail-
lierten Analyse des Arbeitsprozesses einher, so dass ergonomische Verbesse-
rungsmaßnahmen und arbeitswirtschaftliche Optimierungspotenziale leicht
identifiziert und quantifiziert werden können. Ferner liegt als Ergebnis der
Methodenanwendung ein dokumentiertes Verfahren zur Arbeitsausführung
vor.
x Mit Systemen vorbestimmter Zeiten lassen sich betriebsspezifische Planzeit-
systeme aufbauen. Diese haben den Vorteil, dass sie mit geringem Aufwand
an veränderte Arbeitsbedingungen (z.B. neue Produktvariante) angepasst
werden können.
x Im Unterschied zur Zeitaufnahme beinhalten Systeme vorbestimmter Zeiten
keine Leistungsgradbeurteilung, so dass Diskussionen und Konflikte um den
„richtigen“ Leistungsgrad vermieden werden.
x Systeme vorbestimmter Zeiten ermöglichen bereits in der Planungsphase ei-
nes Arbeitssystems die Festlegung eines kombinierten Arbeits- und Zeitstan-
dards.
Den dargestellten Vorteilen stehen vor allem folgende Nachteile gegenüber:
x Die Grenzen der Verfahren liegen darin, dass ihre Anwendung im Wesentli-
chen auf manuell-körperliche Tätigkeiten beschränkt ist. Lediglich einfache
Prüf- und Kontrolltätigkeiten können über Systeme vorbestimmter Zeiten
modelliert werden. Ferner sind Zeiten, die durch den technischen Prozess de-
terminiert werden, zu messen und als sog. Prozesszeiten in der Analyse zu
berücksichtigen.
x Den einzelnen Analysiersystemen liegt ein umfassendes Regelwerk zugrun-
de. Zur sicheren Anwendung dieser Systeme bedarf es daher einer intensi-
ven, zeitaufwendigen Schulung der Methodenanwender.
x Die analytische Vorgehensweise, die den Systemen vorbestimmter Zeiten
zugrunde liegt, wird vor allem unter arbeitspsychologischen Aspekten dahin-
702 Arbeitswissenschaft
7.3.10.1 DefinitionĆundĆArtenĆ
Werden Soll-Zeiten für einzelne, wiederkehrende Ablaufabschnitte zusammen-
gefasst und beschrieben, so werden diese aggregierten Zeitwerte als Planzeiten
bezeichnet (siehe Kap. 7.3.4). Planzeiten können mit Hilfe der Regressionsanaly-
se, die begrifflich auf das lateinische Wort „regressus“ (Rückkehr) zurückzuführen
ist, ermittelt werden. Die Regressionsanalyse ist eine Methode der induktiven
Statistik, mit welcher der funktionale Zusammenhang zwischen einer quantitati-
ven Zielgröße und einer oder mehrerer unabhängiger Einflussgrößen formelmäßig
beschrieben werden kann (FRICKE 2005). Im zeitwirtschaftlichen Kontext stellt
diese abhängige Zielgröße die Planzeit dar. Die auf diese Variable einwirkenden
Größen werden als Zeiteinflussgrößen bezeichnet (siehe Kap. 7.3.3). Nach der Art
der Einflussgrößen kann zwischen quantitativen und qualitativen Einflussgrößen
unterschieden werden. Die Ausprägungen quantitativer Einflussgrößen können
durch Messen oder Zählen bestimmt werden (FRICKE 2005).
Nach der Anzahl der in einer Analyse berücksichtigten Einflussgrößen wird
zwischen einer einfachen und einer mehrfachen Regression unterschieden
(HALLER-WEDEL 1973). Darüber hinaus kann nach der Art des funktionalen Zu-
sammenhangs zwischen einer linearen und einer nicht-linearen Regression diffe-
renziert werden. Den einfachsten Fall einer Regressionsrechnung stellt die einfa-
che, lineare Regression dar. Sie berücksichtigt eine Einflussgröße und geht davon
aus, dass sich Einflussgröße und Zielgröße proportional zueinander verändern. Bei
einer einfachen, nicht-linearen Regression werden die Werte der Einflussgröße
hingegen zunächst über Umkehrfunktionen (z.B. Potenzfunktion, Logarithmus-
funktion) so transformiert, dass eine lineare Regression durchgeführt werden
kann.
7.3.10.2 BedeutungĆ
Die Ermittlung von Planzeiten über eine Regressionsanalyse hat den Vorteil, dass
bei Änderungen der Arbeitsbedingungen die erforderlich werdenden Planzeiten-
anpassungen mit vergleichsweise geringen Aufwänden vorgenommen werden
Arbeitswirtschaft 703
können. Die Methode ist daher von praktischer Bedeutung und wird insbesondere
im industriellen Kontext für standardisierte Tätigkeiten angewendet. Sie bietet
aber auch erhebliche Potenziale für eine Anwendung in indirekten Bereichen und
Dienstleistungsunternehmen. Diese werden bisher aber nur ansatzweise genutzt.
Anwendung findet die mathematische Methode der Regressionsrechnung mitt-
lerweile in Bezug auf die Kostenschätzung von Konstruktionsprojekten (CHAN et
al. 2001; TROST u. OBERLENDER 2003; CHAN u. PARK 2005) sowie in Bezug auf
die Schätzung von Arbeitszeiten in komplexen Planungsprojekten (HINRICHSEN
et al. 2007; HINRICHSEN et al. 2008). Dabei werden für abgeschlossene Projekte
funktionale Zusammenhänge zwischen den Kosten- bzw. Zeiteinflussgrößen und
den Projektkosten bzw. Arbeitszeiten gebildet, so dass auf Basis der so ermittelten
Daten Kosten- bzw. Arbeitszeitschätzungen für geplante Projekte vorgenommen
werden können.
7.3.10.3 MathematischeĆGrundlagenĆ
Eine wichtige Grundlage der Regressionsrechnung bildet die mathematische Me-
thode der kleinsten Quadrate (HALLER-WEDEL 1973). Nach dieser Methode wird
eine Ausgleichsgerade derart durch die in einem Diagramm eingezeichneten
Messwerte gelegt, dass die Quadratsumme der Residuen, welche die senkrechten
Abweichungen der Messpunkte von der Ausgleichsgeraden darstellen, minimiert
wird. Diese Ausgleichsgerade spiegelt den Gesamttrend aller Messwerte am bes-
ten wider und wird als Regressionsgerade bezeichnet. Wird x als unabhängige
Einflussgröße und y als die von x abhängige Zielgröße bezeichnet, so nimmt die
Regressionsgerade die folgende allg. Form einer Geradengleichung an:
ˆ
y ( x ) aˆ bx (7.24)
Dabei wird â als Regressionskonstante und b̂ als Regressionsfaktor bezeichnet
(HALLER-WEDEL 1973). Der Regressionsgeraden liegen jeweils n Werte xi für die
Einflussgröße und yi für die Zielgröße zugrunde. Zur Berechnung von Regressi-
onskonstante â und Regressionsfaktor b̂ werden die Gleichungen (7.25) und
(7.26) verwendet.
ˆ
â y bx (7.25)
n
¦ (x y ) n x y
i i
bˆ i 1
n (7.26)
¦ x ² n x²
i 1
i
Die über die Gleichungen (7.24), (7.25) und (7.26) ermittelte Regressionsgera-
de entspricht dem Prinzip der kleinsten Quadrate, lässt aber keine Aussage über
die Güte der Anpassung der Geraden an die Punktwolke zu. Um eine solche Aus-
sage vornehmen zu können, wird einerseits der Korrelationskoeffizient und ande-
rerseits das Bestimmtheitsmaß gebildet (FRICKE 2005).
704 Arbeitswissenschaft
¦ ( x x )( y
i 1
i i y)
rxy (7.27)
n n
¦ ( xi x )²
i 1
¦ ( yi y )²
i 1
sT2 sREG
2
B (7.28)
sT2
In das Bestimmtheitsmaß B gehen die quadratischen Abweichungen vom Mit-
telwert sT² und die quadratischen Abweichungen von der Regressionsgeraden sREG
2
ein:
1 n
sT2 ¦ ( yi y )²
n 1 i 1
(7.29)
1 n
2
sREG ¦ ( yi yˆ ( xi ))²
n 1 i 1
(7.30)
Die Werte für den Korrelationskoeffizienten liegen jeweils zwischen -1 und +1.
Je weiter die Werte von der 0 entfernt liegen, desto besser passt sich die Regressi-
onsgerade an die Messwerte an. Da auch der Zusammenhang B = rxy² gilt, liegen
die Werte für B zwischen 0 und 1.
Darüber hinaus lässt sich das (1-D)-Konfidenzintervall für die gesamte Regres-
sionsfunktion unter Berücksichtigung der t-Verteilung mit Hilfe der Funktionen
für die untere Vertrauensschranke u(x) und die obere Vertrauensschranke o(x)
darstellen (HARTUNG et al. 1998). Diese Funktionen gelten für eine lineare Re-
gression:
ˆ t 1 ( x x )²
u ( x) aˆ bx n 2;1D / 2 sREG
n n (7.31)
¦ ( xi x )²
i 1
ˆ t 1 ( x x )²
o( x ) aˆ bx n 2;1D / 2 sREG n
n (7.32)
¦ ( xi x )²
i 1
7.3.10.4 MethodeĆnachĆdemĆREFA-StandardprogrammĆ
Das REFA-Standardprogramm „Planzeitermittlung“ sieht sieben Schritte vor
(REFA 1997). Der erste Schritt beinhaltet die Festlegung des Verwendungszwecks
der Zeitdaten (siehe Kap. 7.3.2) und die Abgrenzung des Planzeitbereichs. Ein
Planzeitbereich stellt eine Zusammenfassung von Arbeitssystemen dar, deren
Arbeitsbedingungen und Arbeitsprozesse ähnlich sind. Der zweite Schritt sieht
eine Beschreibung der Arbeitssysteme im Planzeitbereich vor. Darüber hinaus soll
ausgehend von den Arbeitssystembeschreibungen überprüft werden, ob der Auf-
bau von Planzeiten zweckmäßig ist. Der dritte Schritt umfasst eine Gliederung der
Arbeitsabläufe in Ablaufabschnitte (siehe Kap. 7.3.3) sowie die Erfassung von
Bezugsmengen und Zeiteinflussgrößen (siehe Kap. 7.3.4). Der vierte Schritt sieht
die Planung und der fünfte Schritt die Durchführung von Zeitaufnahmen vor (sie-
he Kap. 7.3.6). In einem sechsten Schritt wird ermittelt, ob funktionale Zusam-
menhänge zwischen der Zeit und ihren Einflussgrößen vorliegen und sich diese
Zusammenhänge als Funktion darstellen lassen. REFA schlägt vor, zunächst die
Korrelation zwischen Zeit und Einflussgrößen zu ermitteln und im Falle eines
nicht „befriedigenden“ Korrelationsmaßes weitere Einflussgrößen heranzuziehen
und die geprüften Größen ggf. zu verwerfen (ebd. 1997). Alternativ zu den Schrit-
ten 4 bis 6 können Zeitdaten über Systeme vorbestimmter Zeiten, Vergleichen und
Schätzen oder über die Berechnung von Prozesszeiten ermittelt werden. In einem
siebten Schritt des REFA-Standardprogramms werden die Ergebnisse der Regres-
sionsrechnung grafisch, tabellarisch oder als Planzeitformel dargestellt.
7.3.10.5 MethodeĆzurĆErmittlungĆvonĆPlanzeitenĆfürĆkomplexeĆProjekteĆ
Die REFA-Methode Planzeitermittlung zielt in erster Linie auf die Ermittlung von
Planzeiten für Arbeitsabläufe ab, die in hohem Maße standardisiert sind. Auf die
Bestimmung von Planzeiten für schwach-strukturierte Tätigkeiten, wie sie in Pro-
jekten überwiegend auftreten, wird nicht eingegangen. Die Schätzung der Anzahl
der in einem Projekt voraussichtlich zu leistenden Arbeitsstunden wird in der
706 Arbeitswissenschaft
Schritt 7 hat die Auswertung der Daten zum Gegenstand. Dabei besteht gene-
rell das Problem, dass einzelne Prädiktorvariablen, die Zeiteinflussgrößen xi mit
i = 1,..., n, nicht nur mit der Kriteriumsvariable, der Arbeitsausführungszeit ta,
korrelieren, sondern auch untereinander, so dass sich in einem Satz von „k
Prädiktorvariablen eine Teilmenge von q Prädiktorvariablen befindet, deren Vor-
hersagepotenzial kaum über das Vorhersagepotenzial der k - q Prädiktorvariablen
hinausgeht und die damit redundant sind“ (BORTZ 1999). Dieses Problem der
Multikollinearität lässt sich über das statistische Verfahren der multiplen, schritt-
weisen Regressionsanalyse lösen, indem nicht signifikante Prädiktoren aus dem
Modell ausgeschlossen und stark interkorrelierende Prädiktoren weitgehend ver-
mieden werden. Im Ergebnis von Schritt 7 liegt eine Gleichung der nachfolgenden
Form vor, in der bˆi die geschätzten Regressionskoeffizienten und â eine Konstan-
te sind:
t aˆ bˆ x bˆ x ... bˆ x
a 1 1 2 2 n n (7.33)
708 Arbeitswissenschaft
7.3.10.6 Vor-ĆundĆNachteileĆ
Mit der Entwicklung von Planzeiten mittels einer Regressionsanalyse gehen eine
Reihe von Vor- und Nachteilen einher. Folgende Vorteile dieser Methode der
Zeitdatenermittlung lassen sich anführen:
x Die Entwicklung von Planzeiten über eine Regressionsanalyse hat gegenüber
den Systemen vorbestimmter Zeiten den Vorteil, dass, auf den konkreten
Anwendungsfall bezogen, Aussagen zur Datenqualität bzw. zu Fehlergrößen
gemacht werden können.
x Im Vergleich zu Systemen vorbestimmter Zeiten, deren Anwendung auf
vorwiegend manuelle Tätigkeiten beschränkt ist, lässt sich die Regressions-
analyse, wie gezeigt wurde, prinzipiell auch für schwach strukturierte Ar-
beitsprozesse (z.B. in der Projektarbeit) anwenden.
Den dargestellten Vorteilen stehen vor allem folgende Nachteile gegenüber:
x Im Vergleich zu Systemen vorbestimmter Zeiten kann die Ermittlung von
Planzeiten für manuelle Tätigkeiten mittels Regressionsrechnung mit höhe-
ren Zeitaufwänden verbunden sein.
x Über eine Regressionsrechnung erstellte Planzeiten können zwar mit gerin-
gen Aufwänden an neue Arbeitsbedingungen angepasst werden. Im Unter-
schied zu den Systemen vorbestimmter Zeiten ist es aber nicht möglich, mit-
tels der Methode Planzeiten für in der Neuplanung befindliche Arbeitssyste-
me zu entwickeln, da keine Zeitaufnahmen durchgeführt werden können.
x Die Anwendung der Methode erfordert statistische Kenntnisse, so dass ihre
Einführung in einem Betrieb möglicherweise mit einem Qualifizierungsauf-
wand verbunden ist.
Arbeitswirtschaft 709
7.4 Literatur
Aft LS (2001) Measurement of Work. In: Zandin KB (Hrsg) Maynard´s Industrial Engi-
neering Handbook. 5. Aufl. McGraw-Hill, New York, S 5.3-5.22
Albrecht MA (2005) Personalbemessung im Dienstleistungsbereich - Kreditwerk über-
nimmt die Produktionsprinzipien von Henry Ford als Vorbild für die Abwicklung von
Krediten. In: REFA-Nachrichten 58/5:4-10
Backhaus K, Erichson B, Plinke W, Weiber R (2006) Multivariate Analysemethoden - Eine
anwendungsorientierte Einführung. 11. Aufl. Springer, Berlin
Bamberg G, Baur F Statistik (1996) 9. Aufl. Oldenbourg, München Wien
Barnes RM (1957) Work Sampling. 2. Aufl. John Wiley & Sons, New York
Baszenski N (2003) Rationalisieren - aber wie? Eine Methodensammlung zur Unterneh-
mensprozess-Optimierung. In: REFA-Bundesverband e. V. (Hrsg) Deutsches IE-
Jahrbuch 2003: Rationalisierung des Wertschöpfungsprozesses - erfolgreich auch in
schwierigen Marktsituationen. Darmstadt, S 4.1-4.13
Bishop G (2001) Purpose and Justification of Engineered Labor Standard. In: Zandin KB
(Hrsg): Maynard´s Industrial Engineering Handbook. 5. Aufl. McGraw-Hill, New
York, S 5.23-5.40
Bokranz R, Landau K (2006) Produktivitätsmanagement von Arbeitssystemen: MTM-
Handbuch. Schäffer-Poeschel, Stuttgart
Bortz J (1999) Statistik für Sozialwissenschaftler. 5. Aufl. Springer, Berlin Heidelberg New
York
Breisig T (2003) Entgelt nach Leistung und Erfolg. Bund-Verlag, Frankfurt a. M.
Brisley CL (2001) Work Sampling and Group Timing Technique. In: Zandin KB (Hrsg)
Maynard´s Industrial Engineering Handbook. 5. Aufl. McGraw-Hill, New York, S
17.47-17.64
Britzke B (1996) Mehrfachnutzung von Planungsgrundlagen. Produktion + Planung 4:32 -
34
Britzke B, Klüglich U, Storm P (1989) Rationalisierung manueller Arbeitsprozesse - Hand-
buch für Ingenieure (Bd 1). Zentralen Forschungsinstitut für Arbeit (Hrsg), Dresden
Bronstein IN, Semendjajew KA, Musiol G, Mühlig H (1993) Taschenbuch der Mathematik.
Harri Deutsch Thun, Frankfurt a. M.
Chan APC, Ho DCK, Tam CM (2001) Design and Build Project Success Factors: Multiva-
riate Analysis. In: Journal of Construction Engineering and Management, S 93 - 100
Chan SL, Park M (2005) Project cost estimation using principal component regression. In:
Construction Management and Economics 23:295-304
Connors J (2001) Standard Data Concepts and Development. In: Zandin KB (Hrsg) May-
nard´s Industrial Engineering Handbook. 5. Aufl. McGraw-Hill, New York, S 5.41–
5.72
Deutsche MTM-Vereinigung e. V. (o. J.) (Hrsg) MTM - Von Anfang an richtig. Hamburg
Deutsche MTM-Vereinigung e. V. (2003) (Hrsg) MTM - Grundverfahren Lehrgangsunter-
lage Teil 1. Hamburg Stand Mai 2003
Ehlscheid C, Meine H, Ohl K (2006) Handbuch Arbeit, Entgelt, Leistung: Tarifanwendung
im Betrieb. Bund-Verlag, Frankfurt a. M.
Entgeltrahmenabkommen (ERA) für die Metall- und Elektroindustrie des Landes Hessen
(2004)
Entgeltrahmenabkommen (ERA) für die Metall- und Elektroindustrie des Landes
Nordrhein-Westfalen (2003)
710 Arbeitswissenschaft
Konz St (2001) Time Standards. In: Salvendy G (Hrsg) Handbook of Industrial Engineer-
ing: Technology and Operations Management. 3. Aufl. John Wiley, New York, S
1391-1408.
Laurig W, Luczak H, Rohmert W (1974) Entwicklung und Erkenntnisse der Arbeitswissen-
schaft – Beurteilung vorwiegend körperlicher und nichtkörperlicher Arbeit. In: Schrif-
tenreihe Arbeitswissenschaft und Praxis. Beuth
Lattmann C (1994) Die Leistungsbeurteilung als Führungsmittel. Physica-Verlag, Heidel-
berg
Locke EA, Latham GP (1990) A theory of goal setting and task performance. Prentice-Hall,
Englewood Cliffs/ NJ
Luczak H (1986) Manuelle Montagesysteme. In: Spur G (Hrsg) Handbuch der Fertigungs-
technik. Bd 5. Hanser, München Wien, S 620-682
Luczak H, Eversheim W (1999) Produktionsplanung und -steuerung: Grundlagen, Gestal-
tung und Konzepte. 2. Aufl. Springer, Berlin
Luczak H, Samli S, (1986) Zur Validität von WF-Mento. In: Hackstein R, Heeg FJ, v.
Below F (Hrsg) Arbeitsorganisation und Neue Technologien. Springer, Berlin, S 599-
632
Mansch H (1980) Gestaltung von Arbeitsaufgabe und Arbeitsablauf. In: Autorenkollektiv:
Arbeitswissenschaften für Ingenieure. 4. Aufl. VEB Fachbuchverlag, Leipzig, S 17-
223
Matias AC (2001) Work Measurement: Principles and Techniques. In: Salvendy G (Hrsg)
Handbook of Industrial Engineering: Technology and Operations Management. 3.
Aufl. John Wiley, New York, S 1409-1462
Müller-Hagedorn L (1998) Der Handel. Kohlhammer, Stuttgart Berlin Köln
Poppelreuter W (1929) Zeitstudie und Betriebsüberwachung im Arbeitsschaubild. Olden-
bourg, München Berlin
Quick JH, Duncan JH, Malcolm JA (1962) Work-Factor Time Standards. The maple press
company, York
REFA (Hrsg) (1991a) Anforderungsermittlung (Arbeitsbewertung). Hanser, München
REFA (Hrsg) (1991b) Entgeltdifferenzierung. Hanser, München
REFA (Hrsg) (1997) Methodenlehre der Betriebsorganisation. Hanser, München
Rösler D, Hinrichsen S (2004) Gestaltung variabler Entgeltsysteme: Anforderungen, Struk-
tur und Methode. In: Antoni CH, Eyer E, Kutscher J (Hrsg) Das flexible Unternehmen:
Arbeitszeit, Gruppenarbeit, Entgeltsysteme. Symposion, Düsseldorf, S 6.22.1-6.22.30
Rösler D, Schade N (2007) Gestaltung betrieblicher Beurteilungsverfahren zur Ermittlung
von Leistungszulagen. Angewandte Arbeitswissenschaft 192:16-45
Roth E, Holling H (1999) Sozialwissenschaftliche Methoden: Lehr- und Handbuch für
Forschung und Praxis. 5. Aufl. Oldenbourg, München Wien
Rühl G (1980) Arbeitsstudien. In: Grochla, E. (Hrsg) Handwörterbuch der Organisation. 2.
Aufl. Poeschel, Stuttgart, S 127-139
Sanfleber H (1968) Untersuchung zur Abhängigkeit von Elementarzeiten vom Aufbau des
auszuführenden Bewegungsvorgangs: Ein kritischer Beitrag zur Vorgehensweise der
Verfahren vorbestimmter Zeiten. Westdeutscher Verlag, Köln Opladen
Sanzenbacher G (2003) PROKON - wenig Aufwand, große Wirkung. In: Personal - Zeit-
schrift für Human Resource Management. Sonderausgabe MTM-Report 2003, S 26-31
Schettgen P (1996) Arbeit, Leistung, Lohn: Analyse- und Bewertungsmethoden aus sozio-
ökonomischer Perspektive. Enke, Stuttgart
Schlaich K (1967) Vergleich von beobachteten und vorbestimmten Elementarzeiten manu-
eller Willkürbewegungen bei Montagearbeiten - Entwurf eines neuen Systems vorbe-
stimmter Zeiten. Dissertation, Technische Hochschule Darmstadt. Beuth, Berlin Köln
Frankfurt a.M.
712 Arbeitswissenschaft
Schlick C, Hinrichsen S (2006) Methode zur Schätzung und Visualisierung der Zeitanteile
von Ablaufarten für industrielle Multimomentstudien. In: Industrie Management. Ber-
lin, S 23-26
Sellie CN (2001) Stopwatch Time Study. In: Zandin KB. (Hrsg) Maynard´s Industrial
Engineering Handbook. 5. Aufl. McGraw-Hill, New York, S 17.21-17.46
Stieler-Lorenz B (1997) Arbeitsökonomie. In: Luczak H, Volpert W (Hrsg) Handbuch
Arbeitswissenschaft. Schäffer-Poeschel, Stuttgart, S 170-176
Stier F (1965) Das Bewegungsstudium in der Industrie. In: Zeitschrift für Arbeitswissen-
schaft, S 101-106
Thun R (1925) Der Film in der Technik. VDI-Verlag, Berlin
Tippett LHC (1935) A Snap-Reading Method of Making Time-Studies of Machines and
Operatives in Factory Surveys (Statistical Methods in Textile Research). In: Journal of
the British Textile Institute Transactions 26:51-70
Tolo B (2001) Work Measurement: Using Self-Administered Work Sampling in Retail
Store Operations. In: IIE Annual Conference, Dallas Texas
Trost SM, Oberlender GD (2003) Predicting Accuracy of Early Cost Estimates Using Fac-
tor Analysis and Multivariate Regression. In: Journal of Construction Engineering and
Management, 192/2:198-204
Zander E (1990) Handbuch der Gehaltsfestsetzung. Beck, München
Zandin KB (2003) MOST Work Measurement Systems. 3. Aufl. Marcel Dekker, New York
Basel
8.1 Arbeitsschutz
Arbeitsschutz betrifft Sicherheit und Gesundheit bei der Arbeit und umfasst alle
Maßnahmen zur Verhütung von Unfällen und von arbeitsbedingten Gesundheits-
gefahren einschließlich Maßnahmen der menschengerechten Gestaltung der Ar-
beit.
Im Statut des Deutschen Metallarbeiterverbandes von 1891 wird sogar der Ver-
bandszweck durch folgenden, an erster Stelle stehenden Passus konkretisiert:
„Möglichste Beschränkung der Arbeitszeit, Beseitigung der Sonntagsarbeit, der
Überstunden und der Akkordarbeit, unter Zugrundelegung eines Lohnes, welcher
für die Befriedigung der Bedürfnisse der Arbeiter und deren Familien ausreichend
ist“.
Während des Kaiserreichs wurden auf Drängen der Sozialdemokraten nach und
nach für einzelne Beschäftigungsgruppen Arbeitszeitbegrenzungen eingeführt,
bevor dann 1918/19 der Achtstundentag durch die Demobilisierungsverordnung
für alle Beschäftigten festgelegt wurde.
In der Wirtschaftskrise des Jahres 1923 wurde dieser Grundsatz durch die Zu-
lassung zahlreicher Ausnahmen so durchlöchert, dass bald der Achtstundentag die
Ausnahme und der Zehnstundentag die Regel wurde (KITTNER 1992).
1934 hatte das nationalsozialistische Regime die vorgefundenen Bestimmungen
über die werktägliche Arbeitszeit der männlichen, weiblichen und jugendlichen
Arbeiter in einer Arbeitszeitordnung (AZO) zusammengefasst und damit alle Mit-
wirkungsrechte der Betriebsvertretungen beseitigt.
Die AZO von 1938 brachte demgegenüber keine wesentlichen inhaltlichen Ver-
änderungen. Nachdem die meisten der Arbeitszeit-Schutzvorschriften im 2. Welt-
krieg außer Kraft gesetzt worden waren, wurde der Vorkriegszustand auf Anord-
nung der Besatzungsmächte wieder hergestellt (KITTNER 1992).
Ebenfalls 1938 wurde ein Jugendarbeitsschutzgesetz (JArbSchG) in Kraft gesetzt,
im darauffolgenden Jahr das Heimarbeitergesetz (HAG).
Die erste gesetzliche Regelung des Mutterschutzes brachte die Novelle zur
Gewerbeordnung von 1878, auf welcher aufbauend noch im Kaiserreich zahlrei-
che weitere Vorschriften erlassen wurden.
Es folgte 1927 das Gesetz über die Beschäftigung vor und nach der Niederkunft
und das unter dem Nationalsozialismus mitten im Krieg erlassene Gesetz zum
Schutz der erwerbstätigen Frau (Mutterschutzgesetz MuSchG) von 1942. Dieses
Gesetz, das wegen des wachsenden Bedarfs an Frauen für die Kriegswirtschaft
notwendig wurde, hatte das Ziel, „die im Erwerbsleben stehende Frau vor Gefah-
ren für ihre Mutterschaftsleistung zu schützen, einen ungestörten Schwanger-
schafts- und Geburtenverlauf sicherzustellen sowie Stillen und Pflegen des Kindes
zu gewährleisten“ (amtl. Begründung) (KITTNER 1992). Es beinhaltete Beschäfti-
gungsverbote und Beschränkungen bei besonderen Arbeitsformen und Umge-
bungsbedingungen.
1994 trat das neue Arbeitszeitgesetz (ArbZG) in Kraft. Mit diesem Gesetz wurden
die Arbeitszeitordnung aus dem Jahr 1938, die Vorschriften zur Sonn- und Feier-
tagsbeschäftigung in der Gewerbeordnung sowie weitere 26 Nebengesetze aufge-
hoben. Der Bedarf für ein neues Arbeitszeitgesetz entstand aus dem im Eini-
gungsvertrag festgelegten Auftrag, das öffentlich-rechtliche Arbeitszeitrecht mög-
lichst bald einheitlich zu regeln. Im §1 ArbZG wird der Zweck des Gesetzes, „die
Sicherheit und den Gesundheitsschutz der Arbeitnehmer bei der Arbeitszeitgestal-
tung zu gewährleisten, die Rahmenbedingungen für flexible Arbeitszeiten zu ver-
Arbeitsschutz und betriebliche Gesundheitsförderung 717
bessern sowie den Sonntag und die staatlich anerkannten Feiertage als Tage der
Arbeitsruhe und der seelischen Erhebung der Arbeitnehmer zu schützen“ (RING u.
TITZE 1997).
Die Zweckbestimmung bedeutet zugleich eine Absage an Versuche, das Ar-
beitszeitrecht für arbeitsmarktpolitische Ziele einzusetzen (DOBBERAHN 1994).
Auf der Basis der zentralen EU-Vorschrift zum Arbeits- und Gesundheitsschutz
(89/391/EWG, siehe Abb. 8.1) wurde 1996 das Arbeitsschutzgesetz (ArbSchG)
verabschiedet. Das ArbSchG legt sowohl die Pflichten der Arbeitgeber (§3
ArbSchG) als auch die der Arbeitnehmer (§15 ArbSchG) bezüglich der Arbeitssi-
cherheit fest.
zen sowie jede von ihnen festgestellte Gefahr zu melden und mit dem Arbeitgeber
im Interesse der Sicherheit zusammenzuarbeiten.
Eine Übersicht der Struktur des technischen Arbeitsschutzes ist in Abb. 8.2
wiedergegeben. Im Bereich der präventiven Gesundheitsfürsorge hat sich eine
Veränderung der Aufgaben der gesetzlichen Krankenkassen seit 1997 durch das
Gesetz zur Entlastung der Beiträge in der gesetzlichen Krankenversicherung
(BeitrEntlG) ergeben. Die Krankenkassen konnten vor 1997 aktiv die Verhütung
arbeitsbedingter Gesundheitsgefahren in den Betrieben gestalten. Praktisch wur-
den z.B. Gesundheitszirkel und Bewegungsschulungen direkt in den Unternehmen
angeboten, die arbeitsbedingten Erkrankungen vorbeugen sollten. Mit der Ände-
rung des §20 des Fünften Buches Sozialgesetzbuch ist die Arbeit der Krankenkas-
sen darauf beschränkt, bei der Verhütung arbeitsbedingter Gesundheitsgefahren
mit den Trägern der gesetzlichen Unfallversicherung zusammenzuarbeiten und
diese über die Erkenntnisse, die sie über Zusammenhänge zwischen Erkrankungen
und Arbeitsbedingungen gewonnen haben, zu informieren. Weitere Maßnahmen
zur Prävention arbeitsbedingter Gesundheitsgefahren werden von den zuständigen
Berufsgenossenschaften durchgeführt. Hierzu zählen die Schulung der Beschäftig-
ten, sowie die Durchführung von Aufklärungskampagnen über Gesundheitsge-
fährdungen.
Den gesetzlichen Krankenkassen verbleibt die Möglichkeit, bei einigen be-
stimmten Krankheiten den präventiven Gesundheitsschutz und die Rehabilitation
finanziell zu unterstützen. Die Spitzenverbände der Krankenkassen beschließen im
Interesse einer einheitlichen Rechtsanwendung gemeinsam und einheitlich ein
Verzeichnis der Krankheitsbilder, bei deren Prävention oder Rehabilitation eine
Förderung zulässig ist; sie haben dabei die Kassenärztliche Bundesvereinigung zu
beteiligen (BeitrEntlG §20 Abs. 3).
8.1.2.1 BundesanstaltĆfürĆArbeitsschutzĆundĆArbeitsmedizinĆ
Im Jahr 1996 entstand aus der Fusion der Bundesanstalt für Arbeitsschutz und der
Bundesanstalt für Arbeitsmedizin die Bundesanstalt für Arbeitsschutz und Ar-
beitsmedizin (BAuA). Sie ist eine unmittelbar dem Bundesminister für Arbeit und
Soziales unterstehende Anstalt des öffentlichen Rechts. Die BAuA unterstützt das
Bundesministerium für Arbeit und Soziales in allen Fragen des Arbeitsschutzes,
einschließlich des medizinischen Arbeitsschutzes. Dabei arbeitet sie
x mit den für den Arbeitsschutz zuständigen Behörden der Länder,
x mit den Trägern der gesetzlichen Unfallversicherung sowie
x mit allen nationalen und internationalen Institutionen und Personen, die mit
der Aufgabe der Arbeitssicherheit, der Arbeitsmedizin, der Ermittlung und
Verhinderung von arbeitsbedingten Erkrankungen und der menschgerechten
Gestaltung der Arbeitsbedingungen befasst sind, eng zusammen.
Personenbezogener Arbeitsschutz
System des
Vorschriften- Technischer Arbeitsschutz
werkes des
technischen Innerbetrieblicher Schutz
Arbeitsschutzes
Nach außen gewandter Schutz
1. Ebene
Satzungsrecht der
Gesetze mit Berufs-
Generalklauseln ASiG ArbSchG GewO ChemG GPSG Geräte- und genossenschaften
und allgemeinen Arbeitssicher- Arbeitsschutzgesetz Gewerbeordnung Chemikalien- Produktsicherheitsgesetz SGB VII
Anspruchs- heitsgesetz gesetz Sozialgesetzbuch
Grundlagen
2. Ebene
Rechts- Konkretisiert Pers. DruckluftVO, GefStoffV Verordnung Verordnung
verordnungen durch UVV Schutzausrüstungs- Arbeitsschutzan- Gefahrstoff- über zum
und UVV Unfall- benutzungsVO, forderungsVO, verordnung überwachungs Inverkehr-
verhütungs- Lasthandhabungs- bei Arbeiten im (nach§ 3a bedürftige bringen von UVV
vorschriften benutzungsVO, Freien ChemG) Anlagen (nach Geräten und Unfallverhütungs-
(über § 1 Arbeitsmittel- § 11 GPSG) Anlagen (nach vorschriften (gemäß
ASiG) benutzungsVO, § 11 GPSG) §21 SGB VII)
BildschirmarbeitsVO ArbstättV
Arbeitsschutz und betriebliche Gesundheitsförderung
Abb. 8.2: Struktur des technischen Arbeitsschutzes (in Anlehnung an Auskunft des BMAS
719
720 Arbeitswissenschaft
Die BAuA beobachtet und analysiert die Gesundheitssituation und die Arbeits-
bedingungen in Betrieben und Verwaltungen. Sie entwickelt Problemlösungen
unter Anwendung sicherheitstechnischer, ergonomischer und sonstiger arbeitswis-
senschaftlicher Erkenntnisse. Die BAuA leitet aus den Ergebnissen dieser Arbeit
Beiträge für die präventive Gestaltung von Arbeitsbedingungen, für die Be-
kämpfung arbeitsbedingter Erkrankungen einschließlich Berufskrankheiten und
für die arbeitsmedizinischen Vorsorgeuntersuchungen ab. Aufgabe der BAuA ist
die Anwendung der gewonnen Erkenntnisse, Grundsätze und Lösungsvorschläge
in der Praxis zu fördern. Dies wird erreicht durch:
x Veröffentlichung von Informationsmaterialien und Berichten,
x Mitarbeit bei der Regelsetzung,
x Entwicklung von Aus- und Fortbildungsmaterialien, modellhafte Durchfüh-
rung von Aus- und Fortbildungsveranstaltungen für Fachkräfte für Ar-
beitssicherheit sowie von Fortbildungsmaterialien für die modellhafte Durch-
führung von Fortbildungsmaßnahmen für Betriebsärzte und arbeitsmedizini-
sches Fachpersonal,
x modellhafte Beratung,
x Ausstellungen, insbesondere die Deutsche Arbeitsschutzausstellung (DASA),
x Fachveranstaltungen.
Die BAuA unterhält für ihre Aufgaben Laboratorien, eine öffentliche Fachbib-
liothek sowie Dokumentationseinrichtungen.
8.1.2.2 GewerbeaufsichtĆ
Die Gewerbeaufsicht ist die zweite wichtige Institution des außerbetrieblichen
Arbeitsschutzes. Neben dem technischen Arbeitsschutz ist die Gewerbeaufsicht
auch für den sozialen Arbeitsschutz zuständig. Grundlage für das Wirken der
Gewerbeaufsicht ist das Arbeitsschutzgesetz. Neben den Vorschriften des Arbeits-
schutzgesetzes bzw. (noch) einigen geltenden Vorschriften der Gewerbeordnung
werden u.a. auch die Vorschriften des Geräte- und Produktsicherheitsgesetzes
(GPSG), der Arbeitsstättenverordnung (ArbStättV) und des Ladenschlussgesetzes
(LadschlG) überwacht.
Die mit der Überwachung betrauten Gewerbeaufsichtsbeamten und Gewerbe-
ärzte haben alle amtlichen Befugnisse der Ortspolizeibehörde, insbesondere das
Recht zur jederzeitigen Besichtigung und Prüfung der Anlagen eines Unterneh-
mens (§139b GewO). Zuständigkeitsregelungen, Organisation und Tätigkeit der
Gewerbeaufsicht fallen in die Kompetenz der Länder, wobei der Verwaltungsauf-
bau der Gewerbeaufsicht in den einzelnen Bundesländern unterschiedlich ist. Im
Gegensatz zu den früheren Ämtern für Arbeitsschutz sind viele Gewerbeaufsich-
ten heute in andere Behörden integriert.
Die der Gewerbeaufsicht zur Verfügung stehenden rechtlichen Mittel zur
Durchsetzung von Anforderungen auf dem Gebiet des Arbeitsschutzes sind
x Revisions- und Besichtigungsschreiben,
Arbeitsschutz und betriebliche Gesundheitsförderung 721
x Anordnungen und
x Zwangsmaßnahmen.
Am häufigsten folgt auf eine Betriebsbesichtigung das Revisions- oder Besich-
tigungsschreiben, das eine Niederschrift über die Betriebsbesichtigung ist. Es
enthält, rechtlich noch unverbindlich, die Bezeichnung der vom Unternehmer zu
ergreifenden Arbeitsschutzmaßnahmen, verbunden mit dem Ersuchen, diese in-
nerhalb einer bestimmten Frist durchzuführen. Erst wenn der Unternehmer diese
Frist und eine evtl. Nachfrist ungenutzt verstreichen lässt, ergeht eine Anordnung.
Dieses Vorgehen ist nur möglich, solange von den im Betrieb festgestellten
Mängeln keine unmittelbare Gefahr für Leben und Gesundheit der Beschäftigten
ausgeht. Ist dies jedoch der Fall, kann durch den Gewerbeaufsichtsbeamten sogar
eine Sofortmaßnahme zur Einstellung einer Tätigkeit oder Stilllegung eines Ar-
beitsplatzes angeordnet werden.
8.1.2.3 BerufsgenossenschaftenĆ
Die Berufsgenossenschaften stellen als gesetzliche Unfallversicherung, neben der
Gewerbeaufsicht, die wichtigste außerbetriebliche Institution des Arbeitsschutzes
dar. Die ihnen in §1 SGB VII zugewiesenen Aufgabengebiete sind Prävention,
Rehabilitation und Entschädigung. §14 SGB VII verpflichtet die Berufsgenossen-
schaften „mit allen geeigneten Mitteln“ für die Verhütung von Arbeitsunfällen und
eine wirksame Erste Hilfe zu sorgen. In diesem Aufgabengebiet arbeiten die Un-
fallversicherungsträger mit den Krankenkassen zusammen. Das wesentliche Mittel
zur Verminderung von Unfallgefahren ist der Erlass der berufsgenossenschaftli-
chen Unfallverhütungsvorschriften (UVV).
Es gibt in der Bundesrepublik zurzeit 23 gewerbliche Berufsgenossenschaften
und 31 Unfallkassen der öffentlichen Hand, zusammengeschlossen in der Deut-
schen Gesetzlichen Unfallversicherung. Ein Entwurf der Bundesregierung für ein
Reformgesetz sieht Folgendes vor: Bis 2012 soll die Zahl der Berufsgenossen-
schaften auf neun sinken, die Zahl der Unfallkassen auf einen Träger pro Bundes-
land und einen bundesunmittelbaren Träger. Die grundlegenden Organisations-
prinzipien – Branchengliederung im gewerblichen Bereich, regionale Gliederung
im öffentlichen Bereich – bleiben dabei erhalten.
Zum Hauptverband der gewerblichen Berufsgenossenschaften gehört das Be-
rufsgenossenschaftliche Institut für Arbeitsschutz (BGIA), welches sich mit den
Sachgebieten Forschung, Untersuchung, Entwicklung, betriebliche Messungen
und Beratungen, Prüfung und Zertifizierung, Mitwirkung in der Normung sowie
Bereitstellung von Fachinformationen auseinandersetzt (BGIA 2006).
Im Jahre 2006 waren bei den gewerblichen Berufsgenossenschaften ca. 3 Mio.
Unternehmen versichert mit einem Umlagesoll von ca. 9 Mrd. Euro.
Die seit 1977 gültigen Berufsgenossenschaftlichen Unfallverhütungsvorschrif-
ten und Merkblätter VBG und ZH1 wurden im Zuge der europäischen Harmoni-
sierung überarbeitet und neu bewertet. Eine Übersicht über die aktuellen Berufs-
genossenschaftlichen Vorschriften, Regeln, Informationen und Grundsätze sowie
722 Arbeitswissenschaft
8.1.2.4 InnerbetrieblicheĆAkteureĆdesĆArbeitsschutzesĆ
Der „Unternehmer“ ist für den Arbeitsschutz im Unternehmen verantwortlich (u.a.
§618 BGB, §§3 bis 14 ArbSchG, §62 Handelsgesetzbuch (HGB), §120 b GewO, §21 SGB
VII, §2 BGV A1). Er hat die notwendigen Grundsatzentscheidungen zur Herstel-
lung der Arbeitssicherheit und Durchführung der Unfallverhütung zu treffen, die
Aufbau- und Ablauforganisation des Unternehmens entsprechend zu gestalten und
die zur Durchführung von Maßnahmen erforderlichen Finanzmittel zur Verfügung
zu stellen. Um seine Aufgaben angemessen zu erfüllen, kann der Arbeitgeber
„zuverlässige und fachkundige Personen schriftlich damit beauftragen, ihm oblie-
gende Aufgaben nach diesem Gesetz in eigener Verantwortung wahrzunehmen“
(§13 Abs. 2 ArbSchG). Neben dem Unternehmer sind auch die Arbeitnehmer für
den Arbeitsschutz und die Arbeitssicherheit an ihrem Arbeitsplatz und ihr eigenes
sicherheitsgerechtes Verhalten verantwortlich (§15 ArbSchG).
Die in §1 ASiG angesprochenen Ziele, also die sachverständige Anwendung der
Arbeitsschutz- und Unfallverhütungsvorschriften, die sachverständige Anwendung
arbeitsmedizinischer und arbeitstechnischer Erkenntnisse und der effiziente Ein-
satz der vorhandenen Mittel im Interesse des Arbeitsschutzes und der Unfallverhü-
tung sind in enger Zusammenarbeit mit dem Betriebsrat zu verwirklichen. So
muss z.B. der Betriebsrat bei der Einstellung von Betriebsärzten und Fachkräften
gehört werden (§9 ASiG). Aus dem Betriebsverfassungsgesetz (BetrVG) bzw. dem
Personalvertretungsgesetz (PersVG) für den Bereich des öffentlichen Dienstes
ergibt sich die Verpflichtung des Betriebsrates bzw. Personalrates (§§80, 87, 89
BetrVG und §§68, 75, 81 PersVG)
x über die Einhaltung der zugunsten der Arbeitnehmer geltenden Gesetze,
Verordnungen, Unfallverhütungsvorschriften, Tarifverträge und Betriebs-
vereinbarungen zu wachen,
x über Regelungen zur Verhütung von Arbeitsunfällen und Berufskrankheiten
sowie über den Gesundheitsschutz mitzubestimmen und
x bei der Bekämpfung von Unfall- und Gesundheitsgefahren die zuständigen
Institutionen zu unterstützen.
Das Arbeitssicherheitsgesetz ist als eine rahmengesetzliche Regelung zu ver-
stehen, die durch Einzelmaßnahmen und spezifizierte Regelungen in Form von
Rechtsverordnungen und Unfallverhütungsvorschriften ausgefüllt werden kann.
Für den Einsatz der vorhandenen Mittel sollen Betriebsärzte und Sicherheitsfach-
kräfte sorgen.
Arbeitsschutz und betriebliche Gesundheitsförderung 723
8.1.2.5 LeistungenĆderĆVersicherungenĆ
In der Gesetzlichen Unfallversicherung gibt es die Versicherungsfälle Arbeitsun-
fall, Wegeunfall und Berufskrankheit. Voraussetzung für die Leistungspflicht der
Berufsgenossenschaften ist, dass der Verletzte oder Erkrankte zum Kreis der ver-
sicherten Personen gehört und dass ein Zusammenhang mit der versicherten Tä-
tigkeit vorliegt.
Ein Unfall ist ein von außen auf den Menschen einwirkendes, körperlich schä-
digendes, zeitlich begrenztes Ereignis. Ein Arbeitsunfall ist ein Unfall, den ein
Versicherter bei der Arbeit erleidet, ein Wegeunfall ist ein Unfall auf dem Weg zu
oder von dem Ort der Arbeit (§8 SGB VII). Berufskrankheiten sind solche Krank-
heiten, „die nach den Erkenntnissen der medizinischen Wissenschaft durch beson-
dere Einwirkungen verursacht sind, denen bestimmte Personengruppen durch ihre
Arbeit in erheblich höherem Grade als die übrige Bevölkerung ausgesetzt sind“
(§9 SGB VII). Die Bundesregierung legt in der Anlage zur Berufskrankheiten-
verordnung fest, welche Krankheiten als Berufskrankheit anerkannt werden kön-
nen (derzeit 67 Krankheiten). Im Gegensatz zu anderen Krankheiten wird die
Klassifizierung der Berufskrankheiten anhand des Auslösers und nicht anhand der
Symptome vorgenommen. Tabelle 8.2 gibt einen Überblick über die Zahl der
Arbeitsunfälle, Wegeunfälle und Berufskrankheiten im Bereich der gewerblichen
Berufsgenossenschaften seit 1950.
Arbeitsschutz und betriebliche Gesundheitsförderung 725
Die Anzahl und Schwere der meldepflichtigen Arbeitsunfälle hängt stark von
der Branche ab. Als Kenngrößen für die Anzahl der meldepflichtigen Arbeitsun-
fälle werden sowohl die Unfallhäufigkeit pro eine Million geleisteter Arbeitsstun-
den herangezogen, wie auch die Unfallhäufigkeit pro 1000 Vollarbeiter. Ein Ar-
beitsunfall wird dann meldepflichtig, wenn der Arbeitnehmer so schwer verletzt
wird, dass eine Arbeitsunfähigkeit von mehr als 3 Werktagen folgt oder der Ar-
beitnehmer gar getötet wurde.
8.1.3.1 EinführungĆ
Die Organisation des Arbeitsschutzes (Abb. 8.3) ist historisch gewachsen. Zum
einen findet die Durchführung und Überwachung des Arbeitsschutzes von staatli-
cher Seite durch die damit beauftragten Institutionen statt (z.B. Überwachung
durch die Staatlichen Ämter für Arbeitsschutz / Gewerbeaufsichtsämter – die Na-
men für diese Institutionen sind länderspezifisch). Zum anderen existieren im
selbstverwalteten Bereich die Träger der gesetzlichen Unfallversicherung:
Die Deutsche Gesetzliche Unfallversicherung mit dem
x Hauptverband der gewerblichen Unfallversicherung und den
x Berufsgenossenschaften in fachlich produktionssystematischer Gliederung
und der
x Unfallversicherung der öffentlichen Hand sowie
x Landwirtschaftliche Berufsgenossenschaften.
726 Arbeitswissenschaft
8.1.3.2 EU-RegelungenĆ
8.1.3.2.1 Gesundheitsschutz und Produktsicherheit
Im Jahre 1986 wurde die sog. Einheitliche Europäische Akte verabschiedet. Sie
trat am 1. Juli 1987 in Kraft. Hierdurch wurde der Vorbereitung von gemein-
Arbeitsschutz und betriebliche Gesundheitsförderung 727
• Personen
• Waren
• Kapital
• Dienstleistungen
Mit Artikel 100a (neu 95), der ebenfalls durch die Einheitliche Akte eingeführt
wurde, wurde die Angleichung der Rechtsvorschriften in den Mitgliedstaaten
beabsichtigt. Ziele sind die Beseitigung aller Beschränkungen des Handels im
einheitlichen Markt und der grenzüberschreitende freie Güter- und Personenver-
kehr. Grundsätzlich ist den Mitgliedstaaten durch Artikel 95 nicht gestattet, für
ihre Erzeugnisse höhere Standards festzulegen als die in den Richtlinien festgeleg-
ten.
Artikel 95 und 137 tragen zu einer Verbesserung der Arbeitsumweltbedingun-
gen in den Mitgliedstaaten sowie zu einem gleichwertigen und verbesserten
728 Arbeitswissenschaft
Schutz der Arbeitnehmer bei. Mit Richtlinien im Rahmen von Artikel 95 soll
gewährleistet werden, dass sichere Erzeugnisse auf den Markt gebracht werden;
mit Richtlinien im Rahmen von Artikel 137 soll sichergestellt werden, dass diese
Erzeugnisse gesundheitsverträglich und sicher am Arbeitsplatz verwendet werden.
Abb. 8.4 gibt einen Überblick über Verantwortlichkeiten und Implementierungs-
modi von relevanten EU-Richtlinien.
8.1.3.3 DeutscheĆRegelungenĆ
Die Richtlinien und Rahmenrichtlinien mit zugehörigen Einzelrichtlinien die
durch die Europäische Union erlassen werden, müssen innerhalb einer bestimmten
Frist in deutsches Recht umgesetzt werden. Aus den europäischen Richtlinien
bzw. Rahmenrichtlinien können z.B. deutsche Gesetze oder auch Verordnungen
werden. Die Einzelrichtlinien die zur Konkretisierung der Rahmenrichtlinien er-
lassen werden, werden in deutschem Recht als Verordnungen umgesetzt. Verord-
nungen sind Konkretisierungen der deutschen Gesetze. Sowohl Gesetze wie auch
Verordnungen sind verbindlich für die Praxis.
Als Unterstufe zu Gesetzen und Verordnungen gibt es das sog. „untergesetzli-
che Regelwerk“. Hierunter fallen u.a. Technische Regeln und Richtlinien. Z.B.
sollen die Technischen Regeln für Arbeitsstätten die heute noch gültigen Arbeits-
stätten-Richtlinien bis zum Jahr 2010 ersetzen. Neben der Aktualität unterscheiden
sich die beiden Formen noch in einem weiteren Punkt: obwohl weder die Techni-
schen Regeln noch Richtlinien rechtswirksam – und damit für die Praxis verbind-
lich – sind, erfüllen die Technischen Regeln die Vermutungswirkung. Für den
Arbeitgeber bedeutet das, dass ein Handeln nach den Technischen Regeln wie ein
antizipiertes Rechtsgutachten wirkt und er davon ausgehen kann, dass damit die
entsprechende Verordnung passend umgesetzt wird. Im Streitfall ist der Arbeitge-
ber durch Einhaltung der Technischen Regeln entsprechend rechtlich geschützt.
Neben den von staatlicher Seite erlassenen Technischen Regeln gibt es z.B. die
Normen. In Deutschland werden z.B. „DIN“ Normen vom „DIN Deutsches Insti-
tut für Normung e.V.“, einer nichtstaatlichen Einrichtung, erlassen. Normen, egal
ob DIN, EN oder ISO, sind grundsätzlich nicht verbindlich für die Umsetzung und
bilden nur einen Leitfaden für die Praxis. DIN-Normen werden verbindlich durch
Bezugnahme, z.B. in einem Vertrag zwischen privaten Einrichtungen oder in
Gesetzten und Verordnungen. Letzteres geschieht z.B., wenn europäische Normen
auf der Grundlage einer EU-Richtlinie durch das europäische Amtsblatt harmoni-
siert – bekannt gemacht – wurden. Dann ist die Umsetzung in eine deutsche Norm
innerhalb einer Frist verpflichtend. Ebenso der Charakter der entsprechenden
Norm. Diese verbindlichen Normen erfüllen dann, wie Technische Regeln, die
Vermutungswirkung. Eine Übersicht über die Rechtshierarchie bietet Abb. 8.5.
Arbeitsschutz und betriebliche Gesundheitsförderung 729
Rahmenrichtlinie (EU)
Einzelrichtlinie ((EU))
Gesetze (D)
Verordnungen (D)
Technische Regeln
gesteckt, in dem sich der Schutz der Beschäftigten auf faktisch alle Tätigkeitsbe-
reiche erstreckt und alle Aspekte einbezieht, die die Arbeit betreffen.
Der ganzheitliche Ansatz des Arbeitsschutzgesetzes basiert auf fünf Grundsät-
zen:
(1) Prävention
(2) Betriebsorientierung
(3) Anpassung an den Stand der Technik
(4) aktive Rolle der Beschäftigten
(5) Kooperationsprinzip.
Die dem Arbeitgeber zugewiesene Verantwortung ist weit gefasst und erstreckt
sich auf alle Maßnahmen der Organisation, Durchführung und Verbesserung des
betrieblichen Arbeitsschutzes. Bei der konkreten Ausgestaltung des betrieblichen
Arbeitsschutzes haben Präventionsstrategien Vorrang, die aufgrund einer voraus-
schauenden Risikoabschätzung helfen, Unfälle, Berufskrankheiten sowie arbeits-
bedingte Gesundheitsgefahren zu vermeiden (LEHMANN 2007). Wesentlich im
Arbeitsschutzgesetz ist die Festlegung, dass „bei Maßnahmen der Stand von
Technik, Arbeitsmedizin und Hygiene sowie sonstige gesicherte arbeitswissen-
schaftliche Erkenntnisse zu berücksichtigen“ sind. Es ist eine Gefährdungsbeurtei-
lung vorzunehmen, die zu dokumentieren ist. In Abb. 8.6 ist ein Auszug aus dem
Arbeitsschutzgesetz dargestellt.
8.1.3.3.3 Produktsicherheit
Die EU-Maschinenrichtlinie (89/392/EWG) wurde durch die neunte Verordnung zum
Gerätesicherheitsgesetz vom 12.5.1993 in nationales Recht umgesetzt. Ab dem
29.12. 2009 tritt die novellierte Maschinenrichtlinie 2006/42/EG in Kraft, die bis zum
29. Juni 2008 von den EU-Mitgliedstaaten in nationales Recht umzusetzen ist.
Die Ausgestaltung der Richtlinie durch technische Details erfolgt mit Hilfe eu-
ropäischer (CEN) Normen auf Basis des Artikels 95 des Vertrages von Nizza. Dabei
kann auf vorhandene nationale (z.B. DIN) und internationale (ISO) Normen zu-
rückgegriffen werden. Im Gegensatz zur Umsetzung der Richtlinien im Rahmen
des Artikels 137 des Vertrages von Nizza die in allen Mitgliedstaaten unterschied-
lich gestaltet sein können und die es gestatten, in den einzelnen Ländern ein höhe-
res Schutzniveau vorzuschreiben, dürfen nationale Normen im Hinblick auf etwa-
ige Handelshemmnisse keine höheren Sicherheitsanforderungen festlegen, als die
in den relevanten CEN-Normen genannten. Europäische Normen sind stets in
gleichlautende nationale Normen umzusetzen. Widersprechende nationale Nor-
men müssen zurückgezogen werden. In einer Übereinkunft verpflichten sich CEN
und ISO darüber hinaus, keine widersprechenden Normen zu verabschieden und
wann immer möglich, bestehende Normen der anderen Institution zu übernehmen.
Die im Rahmen der nach Artikel 100a der römischen Verträge erstellten bzw.
entstehenden CEN-Normen (insbesondere EN 1005 „Sicherheit von Maschinen –
Menschliche körperliche Leistung“) beinhalten Analysemethoden für physische
Arbeitsbelastungen und stellen ein wesentliches Methodeninventar dar. Sie wen-
den sich an den Konstrukteur von Maschinen und sollen dem Maschinenbenutzer
ein Mindestmaß an Gesundheitsschutz und Sicherheit garantieren.
CEN-Normen im Rahmen der Maschinenrichtlinie
x sind harmonisierte Normen gemäß Artikel 100a der römischen Verträge,
x sind hierarchisch in einem dreistufigen System gegliedert,
x wenden sich an den Konstrukteur (nicht an die Tarifvertragsparteien),
x zielen auf eine beabsichtigte Benutzerpopulation ab,
x berücksichtigen den beabsichtigten Gebrauch der Maschine (einschließlich
des vorhersehbaren Missbrauchs) und
x sollen eine Risikoanalyse auf der Basis eines Drei-Zonen-Modells ermögli-
chen.
Sicherheitsnormen werden gemäß CEN GUIDE 414 in drei Hierarchieebenen
eingeteilt (Abb. 8.7 und Tabelle 8.3) und fordern vom Konstrukteur eine Risiko-
bewertung als „umfassende Einschätzung der Wahrscheinlichkeit und des Schwe-
regrades der möglichen Verletzung oder Gesundheitsschädigung in einer Gefähr-
dungssituation, um so geeignete Sicherheitsmaßnahmen auszuwählen“.
732 Arbeitswissenschaft
Typ A
Sicherheits-
grundnormen
• Grundbegriffe
• Gestaltungsleitsätze
• (für alle Maschinen)
Typ B
Sicherheitsgruppennormen
Typ B1
S
Spezielle
i ll Si
Sicherheitsaspekte
h h i k
Typ B2
Sicherheits-Einrichtungen
Typ C
Maschinensicherheitsnormen
Spezielle Maschinen - Maschinengruppen
Die Risikobewertung bezieht sich auf die Konstruktion einer Maschine, wobei
alle Phasen der Produktlebensdauer von der Herstellung bis zur Entsorgung be-
rücksichtigt werden. Das sind Bau, Transport, Aufbau, Installation, Einstellung,
Programmierung, Inbetriebnahme, Gebrauch, Verfahrensänderung, Umrüsten,
Reinigung, Fehlersuche, Instandhaltung, Außerbetriebnahme, Abbau, Demontage
und, sofern die Sicherheit betroffen ist, auch Entsorgung. Die Risikobewertung
schließt den Entwurf von Anleitungen bezüglich aller oben erwähnten Phasen der
Maschine ein. Dabei ist die bestimmungsgemäße Verwendung einer Maschine –
inklusive vorhersehbaren Missbrauchs – zu berücksichtigen. Das „Risiko“ (bezo-
gen auf die betrachtete Gefährdung) ist dabei eine Funktion des Ausmaßes des
möglichen Schadens (durch die betrachtete Gefährdung) und der Wahrscheinlich-
keit des Eintritts dieses Schadens (Häufigkeit und Dauer der Gefährdungsexposi-
tion, Eintrittswahrscheinlichkeit des Gefährdungsereignisses, Möglichkeit zur
Vermeidung oder Begrenzung des Schadens). Das Ergebnis einer Risikoanalyse
ist die Bewertung der vorgefundenen Arbeitssituation auf Basis des Ampelsche-
mas: grün - gelb - rot (siehe DIN EN 614).
Arbeitsschutz und betriebliche Gesundheitsförderung 733
Abb. 8.8 gibt eine Übersicht der Begriffe zur Risikobeurteilung in CEN-
Normen.
Bestimmungen der
Maschinengrenzen
nalyse
Identifizierung der
Risikoan
Risikobeurteilung
g
Gefährdungen
Risikoeinschätzung
Risikobewertung
Risikominderung
falls erforderlich
Nach DIN EN ISO 14121-1 wird das Risiko wie folgt gezeigt definiert:
R f ( S , EG , EE , EM ) (8.1)
Hierbei steht die abhängige Variable R für das Risiko bezogen auf die betrach-
tete Gefährdung. R hängt von folgenden Größen ab:
S dem Schadensausmaß, welches aus der betrachteten Gefährdung verursacht
werden kann
EG der Eintrittswahrscheinlichkeit des Schadens bezüglich der Gefährdungs-
exposition von Personen
EE der Eintrittswahrscheinlichkeit des Schadens bezüglich des Eintritts des
Gefährdungsereignisses
EM der Eintrittswahrscheinlichkeit des Schadens bezüglich der Möglichkeiten
zur Vermeidung oder Begrenzung des Schadens.
Das Ausmaß und die Eintrittswahrscheinlichkeit des Schadens kann nach dieser
Risikodefinition durch folgende Kriterien eingeschätzt werden:
x Ausmaß des möglichen Schadens durch die betrachtete Gefährdung
o Art des zu schützenden Gutes (Personen, Sachen, Umwelt)
o Ausmaß der Verletzung / Schädigung: leicht (reversibel), schwer (irre-
versibel), tödlich
o Schadensumfang (eine oder mehrere Personen betroffen)
x Häufigkeit & Dauer der Gefährdungsexposition
o Notwendigkeit, Art & Häufigkeit des Zugangs
734 Arbeitswissenschaft
o Verweilzeit im Gefahrenbereich
o Anzahl der Personen pro Zugang
x Eintrittswahrscheinlichkeit eines Gefährdungsereignisses
o Zuverlässigkeits- und andere statistische Daten, Daten über Gesundheits-
schädigungen
o Unfallgeschichte, Risikovergleiche
o technisch oder menschlich bedingt
x Möglichkeit zur Vermeidung oder Begrenzung des Schadens
o Art der Maschinenbedienung
o Eintretensgeschwindigkeit des Ereignisses
o Risikobewusstsein, menschliche Möglichkeiten zur Schadensvermeidung
oder Begrenzung, Praktische Erfahrungen und Kenntnisse.
8.1.3.4 PersonenbezogenerĆArbeitsschutzĆ
8.1.3.4.1 Fürsorgepflicht
Die Fürsorgepflicht des Arbeitgebers ist eine übergeordnete, den Arbeitsschutz
betreffende Pflicht (§618 BGB):
„Der Dienstberechtigte hat Räume, Vorrichtungen oder Gerätschaften, die er
zur Verrichtung der Dienste zu beschaffen hat, so einzurichten und zu unterhalten
und Dienstleistungen, die unter seiner Anordnung oder seiner Leitung vorzuneh-
men sind, so zu regeln, dass der Verpflichtete gegen Gefahr für Leben und Ge-
sundheit soweit geschützt ist, als die Natur der Dienstleistung es gestattet.“
Im Arbeitsschutzgesetz (§§3 bis 14) werden die Pflichten des Arbeitgebers de-
tailliert beschrieben. Weitere Hinweise finden sich in der GewO.
8.1.3.4.2 Arbeitszeitschutz
Das Arbeitszeitgesetz (ArbZG) stellt den Gesundheitsschutz der Beschäftigten durch
die Arbeitszeitgestaltung sicher (siehe auch Kap. 6). Es dient dazu, die Rahmen-
bedingungen für flexible Arbeitszeiten zu verbessern und begrenzt die tägliche
Höchstarbeitszeit. Die Grenze für die Höchstarbeitszeit ist auf acht Stunden fest-
gelegt, wobei Ausnahmen für Beschäftigte in der Landwirtschaft, Behandlung,
Betreuung und Pflege von Personen, sowie für alle Beschäftigten im öffentlichen
Dienst gelten.
Im Arbeitszeitgesetz sind Mindestruhepausen während der Arbeit und Mindest-
ruhezeiten nach Arbeitsende festgelegt. Für Beschäftigte in Schicht- und Nachtar-
beit ist „die Arbeitszeit der Nacht- und Schichtarbeitnehmer nach den gesicherten
arbeitswissenschaftlichen Erkenntnissen über die menschengerechte Gestaltung
der Arbeit festzulegen.“ Beschäftigungseinschränkungen für nicht schwangere
Frauen sind weggefallen.
Die Sonn- und Feiertagsruhe wird durch ein grundsätzliches Beschäftigungs-
verbot geschützt. Ausnahmen sind detailliert aufgeführt nach dem Prinzip „sofern
die Arbeiten nicht an Werktagen vorgenommen werden können“, wie z.B. Feuer-
Arbeitsschutz und betriebliche Gesundheitsförderung 735
und Verbot von Akkordarbeit. Das Verbot von Nachtarbeit bezieht sich auf die
Arbeitszeit von 20 Uhr bis 6 Uhr. Ausnahmen gibt es für Schichtbetriebe, Gast-
stätten, landwirtschaftliche Betriebe etc. Die Ausführung gefährlicher Arbeiten
und die Akkordarbeit kann Jugendlichen gewährt werden, wenn dadurch ein Aus-
bildungsziel erreicht wird und die Aufsicht durch eine fachkundige Person ge-
währleistet ist.
Im JArbSchG ist geregelt, wie die Arbeitszeiten bei Auszubildenden zu gestalten
sind. Als Höchstarbeitszeit werden acht Stunden pro Tag genannt. Eingeschränkt
wird die Arbeitszeit durch Unterricht an Berufsschulen, der die wöchentliche
Arbeitszeit nicht verlängert und an deren Stelle tritt. Eine weitere Ausnahme von
der acht Stunden Arbeitszeit stellen die Schichtzeiten dar. Schichtzeit ist die tägli-
che Arbeitszeit unter Hinzurechnung der Ruhepausen. Hierunter fallen Beschäfti-
gungen im Bergbau unter Tage (acht Stunden) und für die Beschäftigung in Gast-
stätten, in der Tierhaltung etc. elf Stunden pro Schicht.
Die Beschäftigung der Jugendlichen ist auf fünf Tage pro Woche begrenzt. Die
zwei Ruhetage sollen nach Möglichkeit nacheinander folgen. Die Beschäftigung
an Sams- und Sonntagen ist nur in ausgewählten Bereichen erlaubt (z.B. Gaststät-
tengewerbe). Dabei ist zu beachten, dass mindestens zwei Sonntage pro Monat
beschäftigungsfrei sein müssen.
8.1.3.4.5 Schwerbehinderte
Das Schwerbehindertengesetz ist per 01.10.2001 in das Sozialgesetzbuch IX (SGB
IX), Rehabilitation und Teilhabe behinderter Menschen, eingestellt worden. Die
wesentlichen Einzelvorschriften gelten unverändert. „Menschen sind behindert,
wenn ihre körperliche Funktion, geistige Fähigkeit oder seelische Gesundheit mit
hoher Wahrscheinlichkeit länger als sechs Monate von dem für das Lebensalter
typischen Zustand abweichen und daher ihre Teilhabe am Leben in der Gesell-
schaft beeinträchtigt ist“ (SGB IX). Schwerbehinderte im Sinne des Gesetzes sind
Personen, die körperlich, geistig oder seelisch behindert und infolge ihrer Behin-
derung in ihrer Erwerbsfähigkeit nicht nur vorübergehend um wenigstens 50%
gemindert sind.
Für diesen Personenkreis besteht eine Beschäftigungspflicht. Arbeitgeber, die
über mindestens 20 Arbeitsplätze verfügen, haben auf wenigstens 5% davon
Schwerbehinderte zu beschäftigen. Für jeden unbesetzten Pflichtplatz ist monat-
lich eine Ausgleichsabgabe zu entrichten. Die Ausgleichsabgabe je unbesetzten
Arbeitsplatz ist umso höher, je geringer der Prozentsatz der angebotenen Arbeits-
plätze ist. Die Arbeitsplätze sind individuell zu gestalten, orientiert an der jeweili-
gen Behinderung eines jeden Einzelnen. Es besteht die Möglichkeit von Zuschüs-
sen für die Einrichtung oder Umgestaltung von Arbeitsplätzen.
8.1.3.4.6 Heimarbeiter
Das Heimarbeitsgesetz (HAG) verfolgt im Wesentlichen das Ziel, Heimarbeiter,
Hausgewerbetreibende und ihnen gleichgestellte Personen (z.B. mithelfende Fa-
milienangehörige) einen den sonstigen Arbeitnehmern entsprechenden Status zu
Arbeitsschutz und betriebliche Gesundheitsförderung 737
verschaffen. Daraus ergeben sich eine Reihe von Pflichten für den Auftraggeber
und Rechte für die in Heimarbeit Beschäftigten. Neben Regelungen über Entgelt,
Kündigungsfristen und anderes ist wesentlich, dass „Werkzeuge und Geräte so
beschaffen, eingerichtet und unterhalten werden und die Arbeiten so ausgeführt
werden, dass keine Gefahren für Leben und Gesundheit der Beschäftigten und
ihrer Mitarbeiter entstehen.“
8.1.3.5 GestaltungĆvonĆArbeitsstätten,ĆArbeitsumgebungĆundĆArbeitsmit-
telnĆ
Grundlage für die Gestaltung von Arbeitsstätten, Arbeitsumgebung und Arbeits-
mitteln ist das Arbeitsschutzgesetz (ArbSchG, siehe 8.4.3) mit den damit verbundenen
Verordnungen:
x Arbeitsstättenverordnung (ArbstättV),
x Lastenhandhabungsverordnung (LasthandhabV),
x PSA-Benutzungsverordnung (PSA-BV) (Persönl. Schutzausrüstungen),
x Arbeitsmittelbenutzungsverordnung (AMBV),
x Bildschirmarbeitsverordnung (BildscharbV),
x Baustellenverordnung (BaustellV),
x Betriebssicherheitsverordnung (BetrSichV).
8.1.3.5.1 Arbeitsstättenverordnung
Die Neufassung der Arbeitsstättenverordnung vom 25. August 2004 löst die
Arbeitsstättenverordnung vom 20. März 1975 ab. Ziel der Reform ist die Moder-
nisierung des Arbeitsstättenrechts. Anstelle starrer Vorgaben sind die Anforderun-
gen allgemeiner formuliert, um unterschiedlichen betrieblichen Anforderungen
flexibler gerecht zu werden. Aus der neuen Struktur ergeben sich keine Änderun-
gen der Rechtslage.
Ein Vorschriftentext enthält Rahmenbestimmungen, die durch spezielle Vorga-
ben in einem Anhang konkretisiert werden, und Verfahrensvorschriften. Es be-
steht ein Ausschuss für Arbeitsstätten, der technische Regeln für Arbeitsstätten
ermittelt, die die früheren Arbeitsstättenrichtlinien ablösen. Die Technischen Re-
geln werden dann vom Bundesministerium für Arbeit bekannt gemacht (TAEGER
et al. 2004). Technische Regeln für Arbeitsstätten betreffen Räumlichkeiten, Klima,
Beleuchtung, Lärm, sanitäre Einrichtungen.
In den genannten Bereichen gibt es zurzeit noch keine technischen Regeln son-
dern nur Richtlinien. Diese Richtlinien werden jedoch in absehbarer Zeit durch
neuere technische Regeln ersetzt werden. Als Hilfe für die Umsetzung der Rege-
lungen zum jetzigen Zeitpunkt sind sog. Handlungshilfen im Umlauf, die durch
den Länderausschuss für Arbeitsschutz und Sicherheitstechnik herausgegeben
werden. Diese Handlungshilfen stellen eine Übersicht über geltende Regelungen
dar und geben konkrete Richtwerte an, die bei der Planung von Arbeitsstätten
herangezogen werden können. In der LV 41 „Beleuchtung“ wird z.B. der empfoh-
lene Prozentsatz an Tageslicht bei der Raumgestaltung angeben.
738 Arbeitswissenschaft
8.1.3.5.2 Lastenhandhabungsverordnung
Die Lastenhandhabungsverordnung ist die Grundlage für die Beurteilung von
Tätigkeiten mit physischer Belastung und enthält allgemeine Hinweise über die
„Merkmale, aus denen sich eine Gefährdung von Sicherheit und Gesundheit, ins-
besondere der Lendenwirbelsäule, der Beschäftigten ergeben kann.“
8.1.3.5.3 Bildschirmarbeitsverordnung
Die Bildschirmarbeitsverordnung regelt, welche Arbeitsplätze in die Gruppe der
Bildschirmarbeitsplätze gehören. Unterpunkte der Bildschirmarbeitsverordnung
sind Anforderungen zur Beurteilung der Arbeitsbedingungen, der Arbeitsorganisa-
tion, zur Untersuchung der Augen und des Sehvermögens sowie die ergonomische
Gestaltung von Arbeitsmitteln, Arbeitsumgebung und das Zusammenwirken von
Mensch und Arbeitsmitteln. So verlangt die Bildschirmarbeitsverordnung die
Verwendung von nicht blendenden Arbeitsmitteln und Flächen, die Nutzung strah-
lungsarmer Bildschirmgeräte und die ergonomische Gestaltung der Arbeitsmittel.
8.1.3.5.4 Baustellenverordnung
Die Baustellenverordnung berücksichtigt die besonderen Bedingungen bei der
Arbeit auf Baustellen. Diese Verordnung dient der wesentlichen Verbesserung von
Sicherheit und Gesundheitsschutz der Beschäftigten auf Baustellen.
8.1.3.5.5 Betriebssicherheitsverordnung
Die Betriebssicherheitsverordnung regelt die Bereitstellung von Arbeitsmitteln
durch den Arbeitgeber sowie die Benutzung von Arbeitsmitteln, von denen eine
besondere Gefährdung ausgehen kann, deren regelmäßige Prüfung und Überwa-
chung. Bei Arbeitsmitteln handelt es sich u.a. um Druckbehälter und Druckleitun-
gen, Aufzugsanlagen, explosionsgefährdete Bereiche und elektrische Anlagen.
Die Betriebssicherheitsverordnung regelt die Einbeziehung der Arbeitsmittel in
die Gefährdungsbeurteilung unter Berücksichtigung deren Wechselwirkungen mit
anderen Arbeitsmitteln, Arbeitsstoffen und der Arbeitsumgebung. Zusätzlich ver-
pflichtet sie den Arbeitgeber den Arbeitnehmer ausreichend über durch Arbeits-
mittel verursachte Gefährdungen zu informieren und, soweit erforderlich, Be-
triebsanweisungen zur Verfügung zu stellen.
8.1.3.6 ProduktsicherheitĆ
Das Geräte- und Produktsicherheitsgesetz (GPSG) löste am 01. Mai 2004 das Pro-
duktsicherheitsgesetz und das Gerätesicherheitsgesetz ab. Damit wurde eine ent-
sprechende europäische Richtlinie in deutsches Recht umgesetzt. Das Gesetz
richtet sich an den Konstrukteur und den Hersteller mit der Verpflichtung, nur
solche Produkte in den Verkehr zu bringen, die so beschaffen sind, „dass bei be-
stimmungsgemäßer Verwendung oder vorhersehbarer Fehlanwendung Sicherheit
und Gesundheit von Verwendern oder Dritten nicht gefährdet werden.“
Zum Geräte- und Produktsicherheitsgesetz sind weitere detaillierte Verordnun-
gen erlassen worden über die speziellen Sicherheitsanforderungen beim Inverkehr-
Arbeitsschutz und betriebliche Gesundheitsförderung 739
8.1.3.7 GefahrstoffeĆ
Das Chemikaliengesetz (ChemG) dient dazu, Menschen und Umwelt „vor schädli-
chen Einwirkungen gefährlicher Stoffe und Zubereitungen zu schützen, insbeson-
dere sie erkennbar zu machen, sie abzuwenden und ihrem Entstehen vorzubeugen“
(ChemG). Im Chemikaliengesetz ist geregelt, was einen Stoff ausmacht und wie er
zu einem gefährlichen Stoff wird. So werden alle Stoffe die z.B. explosionsgefähr-
lich, giftig oder ätzend sind, als gefährliche Stoffe bezeichnet. Insgesamt werden
15 Eigenschaften aufgeführt, die einen Stoff gefährlich machen können, ausge-
nommen der gefährlichen Eigenschaften ionisierender Strahlungen. Tabelle 8.4
gibt eine Übersicht über die Eigenschaften. Mit der Einführung des GHS (siehe
unten) werden jedoch andere gefährliche Eigenschaften festgelegt. Diese Eigen-
schaften ergänzen oder ersetzen die heutigen Eigenschaften. Gefahrstoffe sind
nicht nur die Stoffe und Zubereitungen, die selbst gefährliche Eigenschaften besit-
zen, sondern auch jene, die Gefahrstoffe freisetzen oder aus denen Gefahrstoffe
beim Umgang entstehen.
Im Chemikaliengesetz ist weiterhin die Zuständigkeit einzelner Behörden gere-
gelt, die Kennzeichnung gefährlicher Stoffe sowie die Zulassung neuer
Biozidprodukte. Einen weiteren wichtigen Teil des Chemikaliengesetzes stellen
Abschnitte zum Schutz der Umwelt und der Beschäftigten dar.
Tabelle 8.4: Gefährliche Stoffe und gefährliche Zubereitungen
Eigenschaften
1. explosionsgefährlich
2. brandfördernd
3. hochentzündlich
4. leicht entzündlich
5. entzündlich
6. sehr giftig
7. giftig
8. gesundheitsschädlich
9. ätzend
10. reizend
11. sensibilisierend
12. krebserzeugend
13. fortpflanzungsgefährdend
14. erbgutverändernd
15. umweltgefährlich
Abb. 8.9: Neue Symbole nach dem „Globally Harmonized System of Classification and
Labelling of Chemicals” zur Kennzeichnung von Gefahrstoffen.
Arbeitsschutz und betriebliche Gesundheitsförderung 741
8.1.4.1 ProduktsicherheitĆ
Der erste und wesentliche Schritt zur sicherheitstechnischen Arbeitsgestaltung ist
die Produktsicherheit. Angaben hierzu wurden bereits in Kapitel 8.1.3.6 gemacht.
Als Beispiel soll DIN 31001 dienen (Abb. 8.10 bis Abb. 8.12), in der Sicherheits-
abstände definiert sind. Anzumerken ist hierbei, dass die zugrundezulegenden
Normen und Vorschriften teilweise größere Gestaltungsspielräume gestatten. Das
gilt z.B. in den Fällen, wo ablaufbedingt eine Zugriffsmöglichkeit in den Gefah-
renbereich der Maschine notwendig ist und dann zwischen einer zu öffnenden
Schutztür oder einer Abschrankung mit Sicherheits-Abschaltung gewählt werden
kann.
Der im November 1982 erschienene Entwurf DIN 31004-1, ersetzt durch DIN
VDE 31000-2, definiert die Sicherheitsbegriffe wie nachfolgend angegeben. Die
DIN ISO 12100-1 fasst die Begriffe etwas allgemeiner. Die Begriffsanalyse macht
deutlich, dass es eine absolute Sicherheit im Sinne einer völligen Gefahrenfreiheit
der arbeitenden Menschen nicht gibt.
Arbeitsschutz und betriebliche Gesundheitsförderung 743
8.1.4.2 DreistufigesĆVorgehenĆ
x Umweltsicherheit.
Hierbei ist zu bemerken, dass integrierte Sicherheitskonstruktionen den Vor-
rang vor additiven Sicherheitskonstruktionen haben.
Folgende sicherheitstechnische Lösungsansätze sind zu unterscheiden:
x Technische Gefahren konstruktiv ausschließen (unmittelbare Sicherheits-
technik)
x Technische Gefahren konstruktiv abschirmen (mittelbare Sicherheits-
technik).
Die folgenden wesentlichen Gesichtspunkte zur Funktionssicherheit im Hin-
blick auf Arbeitssicherheit sollten bei der Konstruktion berücksichtigt werden:
x Werkstoffe und Betriebsstoffe müssen sicherheitsgerecht sein:
o Geeigneter Werkstoff
o Schutz vor physikalischen und chemischen Beanspruchungen
o Leicht brennbare durch feuerfeste Stoffe ersetzen.
x Es muss nachgewiesen sein, dass die Konstruktion den zu erwartenden Be-
lastungen gewachsen ist:
o Qualitätsüberprüfung der Konstruktion
o Steuervorgänge sicherheitsgerecht
o Antriebsenergien sicherheitsgerecht
o Gefahren durch sich bewegende Teile vermeiden.
8.1.4.3 SicherheitĆeinesĆArbeitssystemsĆ
Für die Sicherheit eines Arbeitssystems sind nach dem TOP-Ansatz die folgenden
Voraussetzungen von Bedeutung:
T : Technische Voraussetzungen = konstruktiv sind technische Lösungen
vorgesehen
O : Organisatorische Voraussetzungen = es sind störungsfreie Zustände und
Abläufe geplant
P : Persönliche Voraussetzungen = der arbeitende Mensch trägt aktiv oder
passiv, direkt oder indirekt für sich selbst oder für andere zur Sicherheit
bei.
Gefährdungen des arbeitenden Menschen sollen mit Mitteln höchster Zuverläs-
sigkeit und Wirksamkeit ausgeschaltet bzw. minimiert werden. Die technischen
Voraussetzungen (T) wurden bereits in Kapitel 8.1.4.2 beschrieben.
Soweit technische Lösungen nicht möglich oder nicht ausreichend sind, müssen
organisatorische Maßnahmen getroffen werden, bei denen z.B. geregelt ist, dass
während eines Herstellungsprozesses Personen nicht in den Gefahrenbereich
kommen (PIEPER u. VORATH 2005).
In Abb. 8.13 ist in einem Ablaufschema dargestellt, wie ein sicherer Zustand
eines Arbeitssystems herzustellen ist. Wenn die Gefahr nicht auszuschließen ist,
ist eine räumlich-zeitliche Trennung von Mensch und Gefahr vorzunehmen. Dies
Arbeitsschutz und betriebliche Gesundheitsförderung 745
A nfang
2 Gefahr ausschließen
nein
G efahr noch vorhanden?
ja
Unbedingt wirksame (räum liche oder räum lich-
3 zeitliche) Trennung von Menschen und Gefahr
schaffen
E nde
8.1.4.4 GefährdungenĆ/ĆRichtlinienĆ
Ursachen für Gefährdungen am Arbeitsplatz und für Unfälle sind vielfältig. Bei-
spiele sind in Abb. 8.14 dargestellt.
x nicht können
x nicht wollen
x nicht müssen/ dürfen.
Unter „nicht wissen“ fallen alle sicherheitswidrigen Verhaltensweisen, die auf
Basis mangelnder Information der Arbeitsperson zustande kommen. Hierunter
fällt z.B. die Nicht-Beachtung von Betriebsanweisungen. Als Gegenmaßnahme
steht hier die Qualifizierung zur Verfügung. Dies kann über Einweisung bei Neu-
angestellten, erneute Unterweisung bei allen anderen Beschäftigten sowie über
Plakate und anderes Informationsmaterial geschehen. Auch Schulungen und Se-
minare z.B. durch die Berufsgenossenschaften ausgerichtet, können zur Informati-
onsvermittlung beitragen. Es ist durch den Arbeitgeber sicherzustellen, dass alle
Beschäftigten Zugang zu den nötigen Informationen für sicherheitsgerechtes Ver-
halten haben.
Manchmal kommt es vor, dass ein Mitarbeiter sich nicht sicherheitsgerecht
verhalten konnte, da ihm die nötigen Fähigkeiten fehlen. Hierzu zählen z.B. die
richtige Bedienung einer Maschine oder das Einhalten bestimmter Arbeitsabläufe.
Um das Können der Mitarbeiter zu fördern ist die Durchführung praktischer Schu-
lungen und Trainings geeignet. Wenn sich zeigt, dass der Beschäftigte auch nach
eingehender Schulung nicht das Können im sicherheitsgerechten Umgang mit den
Maschinen oder Arbeitsabläufen zeigt, so ist es die Aufgabe des Arbeitgebers,
eine geeignete Personalmaßnahme zu treffen. Diese kann in einem anderen Perso-
naleinsatz bestehen. Als Regeln gilt: die richtige Person am richtigen Platz.
Im Gegensatz zu den Bereichen „nicht wissen“ und „nicht können“ fällt es
schwer im Bereich „nicht wollen“ konkrete Handlungsanweisungen zu geben.
Fehler, die durch nicht wollen der Beschäftigten entstehen, sind sozusagen durch
mangelnde Motivation verursacht. Hierzu zählt z.B. das Arbeiten ohne persönliche
Schutzausrüstung aus Bequemlichkeit. Motivationsmangel kann durch persönliche
Betroffenheit abgeschwächt werden. Wichtig ist es den Beschäftigten klar zu
machen, warum die geltenden Regeln wichtig sind. Die Wichtigkeit der Regeln ist
hierbei für die persönlichen Interessen des Beschäftigten herauszustellen und
zusätzlich, aber nicht ausschließlich, für die Interessen des Unternehmens. Den
Beschäftigten soll klargemacht werden, welche persönlichen Vorteile sie haben,
sich an die geltenden Regeln zu halten bzw. welche persönlichen Nachteile mit
einem Regelverstoß einhergehen.
Der Punkt „nicht müssen“ bzw. „nicht dürfen“ spricht die Sicherheitskultur im
Unternehmen an. Hier geht es darum, wie hoch die Stellung von Sicherheit und
Arbeitsschutz im Betrieb ist. Bei nicht müssen wird dem Arbeitsschutz keine
große Rolle im betrieblichen Alltag beigemessen. Der Arbeitgeber legt keinen
Wert darauf, dass sicherheitsgerecht gearbeitet wird und verhält sich selbst nicht
sicherheitsgerecht. Sicherheitswidriges Verhalten der Beschäftigten wird nicht
bemängelt. Nicht dürfen geht noch einen Schritt weiter: hier erleiden Beschäftigte
sogar Nachteile, wenn sie sich an die Regeln halten und werden vom Vorgesetzten
z.B. für langsameres Arbeiten getadelt. In beiden Fällen hilft als Maßnahme nur
die Änderung der Sicherheitskultur. Damit Arbeitsschutz bei den Beschäftigten
Arbeitsschutz und betriebliche Gesundheitsförderung 749
konsequent durchgesetzt wird, muss der Arbeitgeber selbst den Stellenwert des
Arbeitsschutzes für seine Beschäftigten deutlich machen.
Erst durch die konsequente Umsetzung aller vier Stufen, also die Information,
Schulung, Motivation und Sicherheitskultur, ist eine Einstellungsveränderung bei
den Beschäftigten zu erwarten. Diese Veränderung führt zu einer Weiterentwick-
lung des Arbeitsschutzes, bei dem auch Beschäftigte unter Kollegen für sicher-
heitsgerechtes Verhalten einstehen.
8.1.4.4.4 Höhere Gewalt
Fälle von höherer Gewalt, die zu Unfällen führen, sind nicht auszuschließen,
kommen aber glücklicherweise selten vor. Unter höherer Gewalt wird im deut-
schen Recht ein von außen kommendes, außergewöhnliches und unvorhersehbares
Ereignis, das auch durch äußerste Sorgfalt des Betroffenen nicht verhindert wer-
den kann, verstanden. Im industriellen Sinn kann das z.B. ein Maschinenschaden
sein.
Als Folgerung daraus ergibt sich die Notwendigkeit, bei allen sicherheitsrele-
vanten Maßnahmen diese so zu gestalten, dass sie als notwendige und in sicher-
heitstechnischer Hinsicht sinnvolle Hilfe angesehen werden und keinen Zeitverlust
und zusätzliche Anstrengung bei der Handhabung erfordern.
Festigung des
sicherheitswidrigen
Verhaltens
Bildung einer
sicherheitswidrigen
Gewohnheit
Abb. 8.15: Folgen von sicherheitsgerechtem Verhalten, z.B. Tragen von persönlicher
Schutzausrüstung.
Vor allen die Verwendung von persönlicher Schutzausrüstung führt bei den Be-
schäftigten öfters zu Widerstand, ebenso die Änderung von lange eingeübten Ar-
beitsabläufen zur Erhöhung der Sicherheit. Für größere Akzeptanz sorgt das Ein-
beziehen der Beschäftigten in die arbeitsrelevanten Entscheidungen. Dies kann
z.B. über die gemeinsame Planung der neuen Arbeitsabläufe erfolgen. Bei der
Anschaffung neuer Schutzausrüstung ist auf eine größere Auswahl zu achten, so
dass diese nach eigenen Vorlieben gewählt werden kann.
Die Situation bei sicherheitswidrigem Verhalten ist – umgekehrt – vergleichbar
(Abb. 8.16). Ein Unfall oder Beinahe-Unfall bringt die erlebte Erfahrung, die zur
Arbeitsschutz und betriebliche Gesundheitsförderung 751
Änderung des Verhaltens und zu einer Tendenz zur sicheren Gewohnheit führt.
Ohne eine solche Erfahrung bliebe das sicherheitswidrige Verhalten bestehen. Bei
einem Zeitgewinn oder einem anderen Erfolg ergibt sich sogar eine Bestätigung
und eine Tendenz zur Wiederholung des sicherheitswidrigen Verhaltens, bis ein
Unfall oder Beinahe-Unfall zur Überprüfung des Verhaltens zwingt. Als Beispiel
kann das Verwenden eines Bürostuhls als Leiterersatz herangezogen werden. Wird
der Bürostuhl benutzt um Akten aus einem oberen Schrank zu erreichen und ge-
lingt dies ohne Probleme, so wird das Verhalten bei nächster Gelegenheit wieder-
holt. Wird dabei das Verhalten durch Kollegen gelobt – Zeitersparnis –, so fühlt
sich der Beschäftigte zusätzlich bestätigt und lässt das sicherheitswidrige Verhal-
ten zur Gewohnheit werden. Wenn beim ersten oder einem weiteren Mal jedoch
der Drehstuhl wegrutscht und der Beschäftigte einen Unfall oder Beinahe-Unfall
erlebt, so stellt sich das Bewusstsein von Gefahr ein. Beim nächsten Mal wird er
sein Verhalten an die Sicherheitsregeln anpassen und – wenn er dafür bestätigt
wird – eine sichere Gewohnheit ausbilden.
Abb. 8.16: Folgen von sicherheitswidrigem Verhalten, z.B. Verwenden eines Drehstuhls
als Leiterersatz.
8.1.4.6 GefahrenhinweiseĆ/ĆGeboteĆ
Auf Gefahren wird mit Verboten, Geboten, Warnungen und Hinweisen hinge-
wiesen (Abb. 8.17). Die Farbschemata sind wie folgt:
752 Arbeitswissenschaft
8.1.4.7 WirtschaftlichkeitĆ
Wenn bei der Produktgestaltung technische Maßnahmen nicht funktionsbedingt
sind, sondern gesetzliche oder betriebliche sicherheitstechnische Gestaltungsricht-
linien erfüllen müssen, wird vielfach die Frage nach der Wirtschaftlichkeit ge-
stellt. Insbesondere dann, wenn ohne diese zusätzlichen Funktionen eine Kosten-
reduktion oder eine nutzerfreundlichere Lösung der Konstruktionsaufgabe mög-
lich wäre. In manchen Fällen kommt bei der Nutzung des Produktes sogar noch
eine Prozesszeitverlängerung hinzu, weil der Nutzer Sicherheitseinrichtungen
betätigen muss, die den Arbeitsablauf unterbrechen oder verlängern (BÜCHNER u.
RENTEL 2003).
Arbeitsschutz und betriebliche Gesundheitsförderung 753
8.2.1.1 Leitlinien:ĆDieĆOttawa-ChartaĆ
Leitlinien bilden neben anderen Quellen die Basis für die Ausbildung von Maß-
nahmen zur Gesundheitsförderung. Als eine wichtige Grundlage wird die Ottawa-
Charta anerkannt, welche das Ergebnis der Ersten Internationalen Konferenz zur
Gesundheitsförderung der Weltgesundheitsorganisation (WHO) von 1986 ist. Laut
Ottawa-Charta wird Gesundheitsförderung folgendermaßen definiert: „Gesund-
heitsförderung zielt auf einen Prozess, allen Menschen ein höheres Maß an
754 Arbeitswissenschaft
Selbstbestimmung über ihre Gesundheit zu ermöglichen und sie damit zur Stär-
kung ihrer Gesundheit zu befähigen“ (WHO 1986). Somit entfernt sich die Be-
trachtung von Gesundheit von der medizinisch-naturwissenschaftlichen Defizit-
perspektive, welche Gesundheit als bloße Abwesenheit von Krankheit definiert
(KLOTTER 1997). Arbeit soll in Anlehnung an Antonovsky einen „gesundheitsför-
derlichen Aspekt enthalten“ (ANTONOVSKY u. FRANKE 1997). Gesundheitsförde-
rung wird im Rahmen des betrieblichen Gesundheitsmanagements als positives
Gestaltungskonzept gesehen, welches über die Vorbeugung von Krankheiten hin-
ausgeht und sich nicht nur auf physische Aspekte von Gesundheit bezieht, sondern
auch psychische und soziale Dimensionen betrachtet (BAMBERG et al. 1998).
Das Rahmenkonzept der WHO weist der betrieblichen Gesundheitsförderung
eine wichtige Rolle zu, indem betont wird, dass „die Art und Weise, wie eine Ge-
sellschaft die Arbeit, die Arbeitsbedingungen organisiert, […] eine Quelle der
Gesundheit und nicht der Krankheit“ sein sollte (WHO 1986). Die Bedeutung der
Arbeit und der Arbeitsbedingungen für die Gesundheit ist unumstritten
(BAMBERG et al. 1998). Hierbei sollten jedoch nicht nur die potenziellen Risiken
betrachtet werden, sondern auch die Möglichkeiten, die sich einer Arbeitsperson
aus positiv gestalteten Arbeitsbedingungen eröffnen. Arbeit sollte optimalerweise
nicht nur einen Risikofaktor darstellen, sondern auch Möglichkeiten zur Entfal-
tung der Persönlichkeit bieten (siehe Kap. 1.5.2). Letztendlich gilt es, das Wohlbe-
finden des Mitarbeiters über die Dauer hinweg aufrechtzuerhalten und zu fördern
(BAMBERG et al. 1998).
Dass die Ansätze der Ottawa-Charta unter dem bestehenden Kostendruck im
Bereich der Arbeitsgestaltung schwer umzusetzen sind und auch für die Zukunft
Handlungsbedarf besteht, betont ROSENBROOK (1998) in seiner Analyse der Um-
setzung der Ottawa-Charta in Deutschland. Als besonders kritisch in Bezug auf
die Umsetzung der Leitsätze der Ottawa-Charta wird die Rolle der Krankenkassen
gesehen. Diesen wurde Kraft dem §20 des fünften Sozialgesetzbuches (SGB V) der
als relativ weitläufig anzusehende Bereich der Verhaltensprävention zugewiesen.
Ob die Verhaltensprävention bei den Krankenversicherungen in den richtigen
Händen ist, wird angezweifelt (KLOTTER 1997). Außerdem besteht die Kritik an
dem aktuellen Vorgehen der Krankenkassen darin, dass sich hinter der Kenn-
zeichnung „Gesundheitsförderung“ eher Marketing zugunsten der Krankenkassen
verberge, der Fokus also eher auf Kundenwerbung als auf klassischer Gesund-
heitsförderung liege. Die durch die Krankenkassen organisierte Verhaltenspräven-
tion sieht den Patienten eher als Kunden, der gesundheitsförderliche Grundgedan-
ke muss dem Dienstleistungsgedanken weichen. Nach KLOTTER (1997) „gerät
Gesundheitsförderung somit zur Animation“. Die Angebote, wie z.B. „Power-
Walking“ und Fitnesstrainings, werden aus Kostengründen ohne vorherige Indika-
tionsstellung für alle Klienten angeboten.
Die hier zu erkennenden Problematiken aus dem Spannungsfeld Kostendruck,
Effektivität, Zugänglichkeit für alle Versicherte und Eigeninteressen der Kranken-
kassen sind auch von Seiten des Betriebs zu beobachten. Wie in der späteren Dar-
stellung aufgezeigt wird, kann eine betriebliche Gesundheitsförderung mit bedin-
Arbeitsschutz und betriebliche Gesundheitsförderung 755
8.2.1.2 ImplikationenĆfürĆbetrieblicheĆGesundheitsförderungĆ
Aus den Leitsätzen der Ottawa-Charta lassen sich Ansätze für die Gestaltung
betrieblicher Gesundheitsförderung ziehen. Konkret gehen BAMBERG, et al.
(1998) ebenso wie BADURA u. HELLMANN (2003) von unterschiedlichen Konse-
quenzen für die betriebliche Gesundheitsförderung aus:
x Der Fokus betrieblicher Gesundheitsförderung sollte sich nicht ausschließ-
lich auf somatische, sondern auch auf psychosoziale Aspekte beziehen.
x Positive Merkmale von Arbeit sollen identifiziert und gefördert werden, so-
dass das Wohlbefinden und die Handlungsfähigkeit der Mitarbeiter gefördert
und erhalten werden kann.
x Betriebliche Gesundheitsförderung hat einen qualifizierenden Charakter, d.h.
die Kompetenzen der Beschäftigten sollen erweitert werden, so dass diese
ein höheres Maß an Selbstbestimmung erfahren.
x Gesundheitsförderung sollte nicht nur personen-, sondern auch situationsori-
entiert sein.
x Nicht nur verhaltensändernde, auf den Mitarbeiter zugeschnittene Maßnah-
men sind notwendig, sondern auch verhältnisbezogene Maßnahmen sind er-
forderlich.
x Alle Beschäftigten eines Unternehmens sollen bei der betrieblichen Gesund-
heitsförderung berücksichtigt und mit einbezogen werden, der Fokus sollte
sich nicht nur auf Risikogruppen liegen.
x Die Mitbestimmung wird als wesentlicher Punkt für eine erfolgreiche be-
triebliche Gesundheitsförderung benannt.
Leitlinien, die die Basis dieser Aspekte bilden, sind nicht als im Detail zu erfül-
lende Standards zu sehen, sondern vielmehr als Prinzipien, an die eine Annähe-
rung angestrebt wird (BAMBERG et al. 1998). Somit sollte eine Gewichtung der
Teilaspekte stattfinden, um zu erkennen, welche Elemente für die Erarbeitung von
Konzepten zum betrieblichen Gesundheitsmanagement besonders wichtig sind.
Hierzu wird im Folgenden vertiefend auf die Aspekte der Verhaltens- und Ver-
hältnisorientierung sowie auf die Mitbestimmung eingegangen.
In aktuellen Diskussionen wird immer wieder die Bedeutung bedingungsbezo-
gener Interventionen betont. Allerdings lässt sich verbreitet feststellen, dass die
meisten Konzepte zur betrieblichen Gesundheitsförderung den Schwerpunkt auf
personenbezogene Interventionen legen (BREUCKER 2000 zitiert nach ULICH u.
WÜLSER 2005). Dieses Vorgehen ist kritisch zu betrachten, wenn man bedenkt,
756 Arbeitswissenschaft
nisation. Ziel ist es, die Teilsysteme gemeinsam zu optimieren, damit eine Balance
zwischen wirtschaftlichen und humanen Interessen geschaffen werden kann. Ge-
nerell kann man betriebliche Gesundheitsförderung nicht unabhängig von ökono-
mischen Faktoren betrachten. Maßnahmen des betrieblichen Gesundheitsmana-
gements müssen auch immer den Ansprüchen eines produktiven Unternehmens
genügen. Daraus ergeben sich Spannungsfelder, die es zu überwinden gilt (ULICH
u. WÜLSER 2005). Der soziotechnische Systemansatz liefert die Möglichkeiten
beide Sichtweisen zu vereinbaren.
Der Vorteil, den dieser Ansatz liefert, ist die Tatsache, dass Interventionen des
betrieblichen Gesundheitsmanagements an allen drei Subsystemen angesetzt wer-
den können. Die Rechtfertigung der soziotechnischen Betrachtungsweise im Hin-
blick auf betriebliche Gesundheitsförderung ergibt sich daraus, dass gesundheits-
gerechte Arbeitsgestaltung nie einen einzelnen Arbeitsplatz, sondern mindestens
eine betriebliche Abteilung umfasst. Zudem hat eine Verbesserung der Gesundheit
der Beschäftigten auch meist eine Produktivitätserhöhung zu Folge
(OESTERREICH 1999 zitiert nach ULICH u. WÜLSER 2005).
Es lassen sich drei Prinzipien der soziotechnischen Systemgestaltung unter-
scheiden (DUELL et al. 1986 zitiert nach ULICH u. WÜLSER 2005):
(1) Bildung relativ unabhängiger Organisationseinheiten. Umsetzbar in der Pra-
xis beispielsweise durch das Übertragen von ganzheitlichen Aufgaben an
Mehrpersonenstellen oder durch Produktionsprozesse mit relativ unabhängi-
gen Teilprozessen, die modulartig vernetzt sind.
(2) Zusammenhang der Aufgaben in der Organisationseinheit. Umsetzbar in der
Praxis beispielsweise durch den inhaltlichen Zusammenhang der Arbeitstä-
tigkeiten einer Organisationseinheit.
(3) Einheit von Produkt und Organisation. Umsetzbar in der Praxis beispielswei-
se durch die Möglichkeit, das Arbeitsergebnis sowohl qualitativ als auch
quantitativ auf die Organisationseinheit zurückführen zu können.
Eine Möglichkeit, um betriebliche Gesundheitsförderung im Rahmen des sozio-
technischen Systemansatzes zu betreiben, ist die Gestaltung der Arbeitsaufgabe.
Durch diese sind die Subsysteme Mensch, Technik und Organisation des gesam-
ten Arbeitssystems miteinander verknüpft. Wird also die Arbeitsaufgabe im Rah-
men des betrieblichen Gesundheitsmanagements umstrukturiert, hat dies Auswir-
kungen auf alle Teilsysteme. Es gilt diese Auswirkungen vorherzusehen und in die
Gestaltungsmaßnahmen einzubeziehen. Beispielsweise kann es erhebliche Konse-
quenzen haben, wenn man im Zuge von Job Enrichment (Erweiterung bestehender
Realisationsaufgaben um zugehörige Entscheidungs- und Kontrollaufgaben, siehe
Kap. 5.4.1) einem Sachbearbeiter im Einkauf die Befugnis erteilt, den Lieferanten
selbstständig auszuwählen und eventuelle Mängel zu reklamieren (SCHULTE-
ZURHAUSEN 2005). Dies bedeutet zwar, dass der Sachbearbeiter eine ganzheitli-
che Aufgabe erfüllen kann, er könnte jedoch mit der Aufgabe überfordert sein, da
ihm notwendige Qualifikationen fehlen. Möglicherweise hätte die neue Belastung
eine starke mentale Beanspruchung durch Überforderung zur Folge, so dass er der
Arbeitsschutz und betriebliche Gesundheitsförderung 761
Arbeit fernbleiben könnte. Für das Teilsystem Mensch hieße dies, dass andere
Mitarbeiter seinen Ausfall kompensieren müssten, was wiederum zu erhöhter
Belastung und Beanspruchung führen könnte. Man spricht auch von der sogenann-
ten Absenzfalle.
Trotz dieser möglichen Auswirkungen auf die Teilsysteme des Arbeitssystems
ist es notwendig, die Arbeitsaufgabe präventiv, korrektiv und prospektiv zu gestal-
ten. Dabei orientiert man sich an einem Katalog von Merkmalen, welche Arbeits-
aufgaben aufweisen sollten. Die Arbeitsaufgabe sollte ganzheitlich, vielfältig in
ihrer Anforderung, die soziale Interaktion begünstigend, autonom, lern- und ent-
wicklungsfördernd, stressfrei regulierbar, sowie sinnhaft sein (EMERY u.
THORSRUD 1982 zitiert nach ULICH u. WÜLSER 2005). Die Wichtigkeit dieser
Merkmale im Rahmen betrieblicher Gesundheitsförderung zeigte HACKER (1991
zitiert nach ULICH u. WÜLSER 2005) auf. So kann eine nicht ganzheitlich gestaltete
Arbeitsaufgabe Unzufriedenheit und psychische Sättigung zur Folge haben. Ist die
Aufgabe nicht stressfrei regulierbar, kann ein angstbetontes Stresserleben zu ei-
nem erhöhten Suchtpotenzial oder depressiven Tendenzen bei den Beschäftigten
führen. Dies kann erheblich erhöhte Fehlzeiten und eine Erhöhung der Fluktuati-
onsrate zur Folge haben. Aus eben diesen Gründen ergeben sich für das Unter-
nehmen Einbußen in der Produktivität und ein Anstieg offener Kosten, wie z.B.
Lohnfortzahlungen im Krankheitsfall. Aufgrund der skizzierten Probleme ist eine
Gestaltung der Arbeitsaufgabe nach den oben genannten Kriterien unumgänglich.
Sie bieten Raum für konkrete Interventionsansätze wie beispielsweise eine ange-
messene Anforderungsvielfalt, die den Einsatz unterschiedlicher Fähigkeiten der
Mitarbeiter ermöglicht und eine einseitige Belastung vermeidet.
Die arbeitswissenschaftliche Gestaltung der Arbeitsaufgabe kann die Motivati-
on und Gesundheit der Mitarbeiter erhöhen, deren fachliche und soziale Kompe-
tenz fördern, sowie ihre Selbstwirksamkeit und Flexibilität erhöhen (ULICH u.
WÜLSER 2005). In einer Untersuchung von DEGENER (2004) in 28 IT- Unterneh-
men konnte der Zusammenhang der Merkmale mit ökonomischen und gesundheit-
lichen Gesichtspunkten gezeigt werden. So führt eine ganzheitliche Aufgabenge-
staltung zu einer erhöhten Produktivität (r= 0,80) und einem reduzierten Kranken-
stand (r= -0.82).
Neben der Gestaltung der Arbeitsaufgabe, welche die Subsysteme Mensch,
Technik und Organisation miteinander verbindet, können Interventionen des be-
trieblichen Gesundheitsmanagements auch an einem der Teilsysteme ansetzen. Im
Folgenden soll beleuchtet werden, inwiefern eine Umstrukturierung der Organisa-
tion die Gesundheit der Beschäftigten fördert, ohne dabei wirtschaftliche Aspekte
zu vernachlässigen. Zunächst stellt sich die Frage, was unter Organisationsgestal-
tung im Rahmen des soziotechnischen Systemansatzes zu verstehen ist. Prinzipiell
bedeutet Organisationsgestaltung Schaffung von Strukturen (SCHULTE-
ZURHAUSEN 2005). Die Organisationsstruktur eines Unternehmens umfasst for-
melle Regeln, welche die Arbeitsteilung, die Steuerung der betrieblichen Prozesse
und das Verhalten der beteiligten Menschen festlegen (siehe Kap. 4). Die Organi-
sation ist also ein wichtiges Teilsystem eines Arbeitssystems. Da es eine große
762 Arbeitswissenschaft
8.3 Literatur
Antonovsky A, Franke A (1997) Salutogenese: Zur Entmystifizierung der Gesundheit.
Dgvt, Tübingen
Badura B, Hellmann T (2003) Betriebliche Gesundheitspolitik. Der Weg zur gesunden
Organisation. Springer, Berlin
Badura B, Litsch M, Vetter C (2001) Fehlzeitenreport 2000 Zukünftige Arbeitswelten:
Gesundheitsschutz und Gesundheitsmanagement. Springer, Berlin
Bamberg E, Ducki A, Metz AM (1998) Handlungsbedingungen und Grundlagen der be-
trieblichen Gesundheitsförderung. In: Bamberg E, Ducki A, Metz AM (Hrsg.) Hand-
buch betriebliche Gesundheitsförderung. Hogrefe, Göttingen, S 17–36
BGHW – Berufsgenossenschaft Handel und Warendistribution (2009) http://www.bge.de/
asp/dms.asp?url=/bge/scha1_00/2.htm (Zugriff 08.07.2009)
BGIA (2006) Berufsgenossenschaftliches Institut für Arbeitsschutz - BGIA. Jahresbericht
2006. Eigenverlag, St Augustin
BMAS (2008) Übersicht über das Arbeitsrecht/Arbeitsschutzrecht. RdNr 262. BW Verlag,
S 615
Breucker G (2000) Towards better health at work. Successful European strategies. Euro-
pean Network for Workplace Health Promotion. Wirtschaftsverlag, Bremerhaven
Büchner W, Rentel A (2003) Arbeitsschutz und Wirtschaftlichkeit. Technik & Information,
Bochum
Carter AJ, West MA (1999) Sharing the burden: Teamwork in health care settings. In:
Payne RL Firth-Cozens J (eds). Stress in health care professionals. Wiley, Chinchester,
pp 191-202
Degener M (2004) Unternehmenserfolg und soziale Verantwortung. Unternehmenskultur
und Human Resource Management und deren Einfluss auf den ökonomischen Erfolg
und das subjektive Erleben der Beschäftigten. Lang, Frankfurt am Main
Deppe F, Fülberth G Harrer HJ (Hrsg.) (1978) Geschichte der deutschen Gewerkschaftsbe-
wegung, 2.Aufl. Pahl-Rugenstein, Köln
Dobberahn P (1994) Das neue Arbeitszeitrecht. Rechtsquellen, Grundregeln, wichtige
Anlagen. Beck, München
Duell W, Frei F, Alioth A (1986) Leitfaden für qualifizierende Arbeitsgestaltung. TÜV
Rheinland, Köln
Emery FE, Thorsrud E (1982) Industrielle Demokratie. Bericht über das norwegische Pro-
gramm der industriellen Demokratie. Huber, Bern
Greiner BA (1998) Der Gesundheitsbegriff. Handbuch betrieblicher Gesundheitsförderung.
Verlag für angewandte Psychologie, Göttingen, S 39–55
Hacker W (1991) Aspekte einer Gesundheitsstabilisierung und -fördernden Arbeitsgestal-
tung. Zeitschrift für Arbeits- und Organisationspsychologie 35/2:48–58
HVBG (2007) Hauptverband der gewerblichen Berufsgenossenschaften. BG-Statistiken für
die Praxis 2006. Eigenverlag, St Augustin
Kirchner JH, Baum E (1986) Mensch - Maschine - Umwelt. Ergonomie für Konstrukteure,
Designer, Planer und Arbeitsgestalter. Beuth, Berlin
Kittner M (1992) Arbeits- und Sozialordnung - Ausgewählte und eingeleitete Gesetzes-
texte, 17.Aufl. Bund-Verlag, Köln
Klotter C (1997) Aktuelle Perspektiven von Prävention vor dem Hintergrund geschichtli-
cher Bezüge. In: Klotter C (Hrsg.) Prävention im Gesundheitswesen. Verlag für An-
gewandte Psychologie, Göttingen, S 17–38
764 Arbeitswissenschaft
Kuczynski J (1961) Die Geschichte der Lage der Arbeiter unter dem Kapitalismus. Teil I:
Die Geschichte der Lage der Arbeiter in Deutschland von 1789 bis zur Gegenwart,
Bd 1: Darstellung der Lage der Arbeiter in Deutschland von 1789 bis 1849. Akademie
Verlag, Berlin
Kuczynski J (1962) Die Geschichte der Lage der Arbeiter unter dem Kapitalismus. Teil I:
Die Geschichte der Lage der Arbeiter in Deutschland von 1789 bis zur Gegenwart,
Bd 2: Darstellung der Lage der Arbeiter in Deutschland von 1849 bis 1870. Akademie
Verlag, Berlin
Lehmann E (2007) Arbeitsschutz. Gesetze, Richtlinien und ihre Umsetzung. In: Landau K
(Hrsg.) Lexikon Arbeitsgestaltung. Best Practice im Arbeitsprozess. Gentner, Stuttgart
Lenhardt U, Elkeles T, Rosensbrock R (1997) Betriebsproblem Rückenschmerz. Eine
gesundheitswissenschaftliche Bestandsaufnahme zur Verursachung, Verbreitung und
Verhütung. Juventa, Weinheim
Luczak H, Rohmert W (1984) Zeitschrift für Betriebswirtschaft, Ergänzungsheft 1/84
Arbeitswissenschaft. Stand und Bedeutung für die Betriebswirtschaftslehre. Gabler,
Wiesbaden
Lundberg U (1996) The influence of paid and unpaid work on psychophysiological stress
response of men and women. J Occp Health Psychol 1:117- 130
Neudörfer A (2005) Konstruieren sicherheitsgerechter Produkte. Methoden und sys-
tematische Lösungssammlungen zur EG-Maschinenrichtlinie. Springer, Berlin
Oesterreich R (1999) Konzepte zu Arbeitsbedingungen und Gesundheit – Fünf Erklä-
rungsmodelle im Vergleich. In: Osterreich R, Volpert W (Hrsg.) Psychologie gesund-
heitsgerechter Arbeitsbedingungen: Konzepte, Ergebnisse und Werkzeuge zur Ar-
beitsgestaltung (Schriften zur Arbeitspsychologie, S 141 – 215) Huber, Bern
Packebusch L (1995) Gruppenbezogene Methoden in der Sicherheits- und Gesundheitsar-
beit. In: Hoyos CG Wenninger G (Hrsg.) Arbeitssicherheit und Gesundheitsschutz in
Organisationen. Hogrefe, Göttingen, S 197–217
Pahl G, Beitz W (2005) Konstruktionslehre. Grundlagen erfolgreicher Produktentwicklung.
Methoden und Anwendung. Springer, Berlin
Peters OH, Meyna A (1985) Handbuch der Sicherheitstechnik. Hanser, München
Pieper R, Vorath BJ (2005) Handbuch Arbeitsschutz - Sicherheit und Gesundheitsschutz im
Betrieb, 2.Aufl. Bund, Frankfurt
Ring WD, Titze HC (1997) Handbuch des deutschen Arbeitsschutzrechts. Gesetzliche
Grundlagen zu Arbeitsschutz und Unfallverhütung. Ecomed, Landsberg/Lech
Ritter A, Zink J (1992): Gruppenorientierte Ansätze zur Förderung der Arbeitssicherheit.
Schmidt, Berlin
Rohmert W (1989) Umdruck zur Vorlesung Arbeitswissenschaft, 18.Aufl. Institut für Ar-
beitswissenschaft. TH Darmstadt
Rosenbrock R (1998) Die Umsetzung der Ottawa Charta in Deutschland. Prävention und
Gesundheitsförderung im gesellschaftlichen Umgang mit Gesundheit und Krankheit.
Veröffentlichungsreihe der Arbeitsgruppe Public Health. Wissenschaftszentrum. Be-
triebliches Gesundheitsmanagement 28, Berlin
Schulte-Zurhausen M (2005) Organisation, 4.Aufl. Vahlen, München
Taeger J, Rose E, Wehmeier K (2004) Die neue Arbeitsstättenverordnung. Haufe, Freiburg
Ulich E (2001) Beschäftigungswirksame Arbeitszeitmodelle. vdf, Zürich
Ulich E, Wülser M (2005) Gesundheitsmanagement im Unternehmen, 2.Aufl. Gabler,
Wiesbaden
Vertrag von Nizza (2001) Zur Änderung des Vertrages über die Europäische Union, der
Verträge zur Gründung der Europäischen Gemeinschaften sowie einiger damit zu-
sammenhängender Rechtsakte (2001/C 80/01) http://eur-lex.europa.eu/
de/treaties/dat/12001C/htm/C_2001080DE.000101.html (Zugriff 07.09.2009)
Arbeitsschutz und betriebliche Gesundheitsförderung 765
Wall TD, Clegg CW (1981) A longitudinal field study of group work redesign. J Occup
Behav 2:31-49
WHO Ottawa-Charta zur Gesundheitsförderung. Autorisierte deutsche Übersetzung der
Ottawa-Charta. http://www.euro.who.int/AboutWHO/Policy/20010827_2?
language=German (Zugriff 08.07.2009)
1843) zuletzt geändert durch Artikel 7 der Verordnung vom 18.12.2008 (Bundesge-
setzblatt I, S. 2768)
BMJ – Internetseite des Bundeamtes für Justiz (o.J.) http://www.gesetze-im-
internet.de/aktuell.html (Zugriff 08.07.2009)
Bundespersonalvertretungsgesetz (BPersVG) vom 15.03.1974 (Bundesgesetzblatt I, S. 693)
zuletzt geändert Artikel 7 des Gesetzes vom 05.02.2009 (Bundesgesetzblatt I, S. 160)
Bürgerliches Gesetzbuch (BGB) vom 01.01.1900, zuletzt geändert am 25.06.2009 (Bun-
desgesetzblatt I, S. 1574)
CEN Guide 414 Safety of machinery — Rules for the drafting and presentation of safety
standards. Ausgabe 15.12.2004
Chemikaliengesetz (ChemG) Gesetz zum Schutz vor gefährlichen Stoffen vom 16.09.1980,
i.d.F. (Bundesgesetzblatt I, S. 1146) vom 02.07.2008
DIN 31001-1 (1983) Sicherheitsgerechtes Gestalten technischer Erzeugnisse; Schutzein-
richtungen; Begriffe, Sicherheitsabstände für Erwachsene und Kinder. Beuth, Berlin
DIN 31004-1 Begriffe der Sicherheitstechnik, Grundbegriffe. Beuth, Berlin Köln (zurück-
gezogen)
DIN EN 614-1/2 Sicherheit von Maschinen-ergonomische Gestaltungsgrundsätze. Teil 1:
Begriffe und allgemeine Leitsätze. Ausgabe 7.2006. Teil 2: Wechselwirkungen zwi-
schen der Gestaltung von Maschinen und den Arbeitsaufgaben. Ausgabe 10.2000.
Beuth, Berlin, Köln
DIN EN 1050 (2007) Sicherheit von Maschinen, Leitsätze zur Risikobeurteilung, ersetzt
durch DIN EN ISO 14121-1. Beuth, Berlin, Köln
DIN EN ISO 13849 Teil 1: Grundsätzliche Terminologie, Methodologie Ausgabe 4.2004.
Deutsche Fassung EN ISO 12100-2:2003 (ersetzt DIN EN 292-1)
DIN EN ISO 14121-1 (2007) Sicherheit von Maschinen – Risikobeurteilung – Teil1: Leit-
sätze. Beuth, Berlin, Köln
DIN ISO 12100-1 (2004) Sicherheit von Maschinen - Grundbegriffe, allgemeine Gestal-
tungsleitsätze - Teil 1: Grundsätzliche Terminologie, Methodologie (ISO 12100-
1:2003); Deutsche Fassung EN ISO 12100-1:2003. Beuth, Berlin, Köln
DIN VDE 31000 Allgemeine Leitsätze für das sicherheitsgerechte Gestalten technischer
Erzeugnisse- Begriffe der Sicherheitstechnik, Grundbegriffe. Beuth, Berlin, Köln
EU-Richtlinie 2006/42/EG (Maschinenrichtlinie) des Europäischen Parlaments und des
Rates vom 17. Mai 2006 über Maschinen und zur Änderung der Richtlinie 95/16/EG
(ehemals 89/392/EWG)
EWG-Richtlinie 89/391/EWG über die Durchführung von Maßnahmen zur Verbesserung
der Sicherheit und des Gesundheitsschutz es der Arbeitnehmer bei der Arbeit
(ArbeitsschutzRahmenRL) Einzelrichtlinie Richtlinie des Rates vom 12. Juni 1989
(89/391/EWG) ABl. Nr. L 183 vom 29. Juni 1989, S 1
Gefahrstoffverordnung (GefStoffV) vom 23.12.2004 (Bundesgesetzblatt I, S. 3758, 3759)
zuletzt geändert am 18.12.2008 (Bundesgesetzblatt I, S. 2768)
Gesetz über Betriebsärzte, Sicherheitsingenieure und andere Fachkräfte für Arbeitssicher-
heit (ASiG) (Bundesgesetzblatt I, S. 1885) vom 12.12.1973 zuletzt geändert am
31.10.2006 (Bundesgesetzblatt I, S. 2407)
Gesetz über den Ladenschluss (LadschlG) in der Fassung der Bekanntmachung vom 2. Juni
2003 (Bundesgesetzblatt. I, S. 744) durch Artikel 228 geändert vom 31. Oktober 2006
(Bundesgesetzblatt I, S. 2407)
Gesetz über technische Arbeitsmittel und Verbraucherprodukte (GPSG), zuletzt geändert
am 07.07.2005
Gewerbeordnung (GewO) vom 21. Juni 1869, zuletzt geändert am 19.12.2007 (Bundesge-
setzblatt I, S. 3024)
Arbeitsschutz und betriebliche Gesundheitsförderung 767
Nach DIN EN ISO 6385 kann die Arbeitsumgebung eines Arbeitssystems1 beschrie-
ben werden als „physikalische, chemische, biologische, organisatorische, soziale
und kulturelle Faktoren, die einen Arbeitenden/Benutzer umgeben“. In den fol-
genden Kapiteln findet eine Beschränkung auf die physikalischen Arbeitsumge-
bungseinflüsse statt (unter teilweiser Berücksichtigung chemischer Einflüsse, z.B.
bei Arbeitsstoffen), während die organisatorischen und sozialen Einflussfaktoren
im Zusammenhang mit der Betriebs- und Arbeitsorganisation (siehe Kap. 4) sowie
der Gruppen- und Teamarbeit (siehe Kap. 5) behandelt werden.
Die physikalischen Arbeitsumgebungseinflüsse werden differenziert nach Ein-
flüssen durch
x Lärm bzw. Schall,
x mechanische Schwingungen,
x Strahlung,
x Klima,
x Beleuchtung und
x Arbeitsstoffe.
Die Beschreibung von Analyse und Gestaltung der Arbeitsumgebung hinsicht-
lich der oben genannten Faktoren erfolgt jeweils nach folgendem Schema:
x Naturwissenschaftliche Grundlagen
x Messung
x Bewertung
x Beurteilung
x Gestaltungshinweise.
Naturwissenschaftliche Grundlagen
Die Analyse der Arbeitsumgebungseinflüsse erfordert zunächst eine Kenntnis der
zugrundeliegenden physikalischen, chemischen und physiologischen Größen und
Begriffsbildungen sowie wesentlicher Gesetzmäßigkeiten.
Messung
Die Kenntnis der naturwissenschaftlichen Größen und Gesetzmäßigkeiten ist die
Voraussetzung zur Messung von Belastungshöhe und -dauer hinsichtlich der Ar-
beitsumgebungsfaktoren. Zur praktischen Ermittlung der Belastungssituation
kommen jeweils spezifische Messverfahren und -geräte im Betrieb zum Einsatz.
Bewertung
Sind die Umgebungsfaktoren konzeptionell durchdrungen und können gemessen
werden, so stellt sich im nächsten Schritt die Frage, welche Wirkungen unter-
schiedliche Belastungsstärken einer Umgebungsgröße auf den Menschen haben.
Wirkungen können die Schädigung der Arbeitsperson sein, die Beeinflussung
physiologischer Kenngrößen, aber auch die Beeinflussung der Befindenslage oder
des Arbeitsverhaltens (z.B. Fehlerhäufigkeit, nachlassende Konzentration, soziales
Verhalten). Ferner ist anzugeben, von welchen Faktoren (z.B. Dauer, Intensität,
Richtung) die Wirkungen abhängen sowie von welchen individuellen Merkmalen
der Arbeitsperson (z.B. Empfindlichkeit, Belastbarkeit, Alter).
Im Sinne des Belastungs-Beanspruchungs-Konzeptes (siehe Kap. 1.5.1.2) ist
das Ziel dieses Schrittes, die mit der Umgebungsbelastung verbundene Beanspru-
chung bzw. Schädigung abzuschätzen.
Wichtig für die Bewertung der schädigenden Wirkungen einer Umgebungsbe-
lastung ist, ob für die Schadenswirkung Schwellenwerte existieren. Insbesondere
für karzinogene Wirkungen (z.B. durch Arbeitsstoffe oder Strahlung) können
aufgrund der bekannten Ursache-Wirkungs-Mechanismen keine ungefährlichen
Belastungsstärken angegeben werden, da die Schadenswirkung wesentlich von der
Effektivität körpereigener Mechanismen abhängt. Die Schadenswirkung ist sto-
chastisch und es müssen statt Schwellenwerten Risikowerte angegeben werden,
die eine Relation zu anderen Schadenswahrscheinlichkeiten (z.B. natürlichen) und
-wirkungen herstellen. Für die Bewertung von Umgebungsbelastungen mit zeitlich
veränderlichen Wirkungen dient das Konzept der Dosis, das die über eine Zeit-
spanne integrierte Belastungshöhe widerspiegelt. Dieses Konzept findet vor allem
Anwendung bei der Bewertung von Schall- und UV-Strahlungsbelastungen. Dabei
ist zu beachten, dass die Wirkung von Belastungsspitzen leicht unterschätzt wer-
den kann.
Beurteilung
Steht genügend Wissen zur Verfügung, um die Gefährdungen und Beanspruchun-
gen durch die Umgebungsbelastungen einzuschätzen, so können auf dieser Grund-
lage Soll- oder Grenzwerte für die Umgebungsgrößen abgeleitet werden. Diesen
liegen jeweils Gestaltungsziele zugrunde, die in den geltenden Regelungen zur
Beschränkung von Umgebungsbelastungen in unterschiedlicher Weise zur An-
wendung kommen (siehe z.B. Kap. 8.1.3.7).
Anerkannt sind die Ziele Schädigungslosigkeit und Risikovermeidung für alle
Arten von Umgebungsbelastungen (siehe Kapitel 1.5.2.1). Eine Vermeidung von
Belästigung gilt dagegen bei Belastungen durch Arbeitsstoffe (Schmutz, Geruch),
Schall (Lärm) sowie elektrische und magnetische Felder nur für die Allgemeinbe-
völkerung als erforderlich, während für Arbeitspersonen oftmals auch erhebliche
Belästigungen als tolerierbar gelten, wenn die betrieblichen Bedürfnisse es erfor-
dern und eine Reduzierung der Belästigung erheblichen Aufwand erfordert. Bei
starken mechanischen Schwingungen (z.B. Presslufthammer) steht neben der
Arbeitsumgebung 771
Gestaltungshinweise
Für Maßnahmen, die der Einhaltung von Grenzwerten oder generell der Verringe-
rung von physikalischen Umgebungsbelastungen dienen, lässt sich anhand folgen-
der Fragen eine Rangordnung erstellen, die an das TOP-Modell des Arbeitsschut-
zes (siehe Kap. 8.1.4.3) angelehnt ist:
x Ist es möglich und sinnvoll, die Umgebungsbelastung durch Wahl einer an-
deren Technologie oder anderer Verfahren vollständig oder weitgehend zu
vermeiden?
x Ist es mit vertretbarem Aufwand möglich, die Belastungen durch technische
Maßnahmen an den Anlagen und Maschinen (z.B. durch Abschirmung) zu
vermindern?
x Ist es möglich, durch organisatorische Maßnahmen (z.B. Zugangsbeschrän-
kungen, Erholungspausen) die Beanspruchungen zu reduzieren?
x Ist es möglich, durch persönliche, technische Maßnahmen (z.B. Schutzklei-
dung) die Belastung zu vermindern, ohne dadurch unverhältnismäßig große
zusätzliche Arbeitsbelastungen zu verursachen?
x Welche Verhaltensanforderungen sind an die Arbeitspersonen zur Vermei-
dung unerwünschter Beanspruchungsstärken zu stellen?
772 Arbeitswissenschaft
9.1 Lärm
In der Regel wird das Adjektiv „effektiv“ weggelassen und nur noch vom
Schalldruck gesprochen. Für sinusförmige Schalldruckverläufe ist der effektive
Schalldruck das 1/¥2 -fache der Druckamplitude, wenn die Integrationszeit T
einem Vielfachen der Periodendauer entspricht.
Durch Schallwellen findet ein Energietransport vom Sender zum Empfänger
statt. Die mittlere Schallleistung P (großes P!) einer Schallquelle ist bei ebener
Wellenausbreitung proportional dem Quadrat des Effektivschalldruckes:
P(t ) ~ peff 2 (t ) >W@ (9.2)
Bezieht man die Leistung auf eine bestimmte Wirkfläche A, die z.B. die Fläche
des Gehörganges sein kann, so spricht man von der Schallintensität I:
P (t ) ªWº
I (t ) « m2 » (9.3)
A ¬ ¼
Das menschliche Ohr empfindet in grober Näherung akustische Reize loga-
rithmisch, wie durch das Weber-Fechnersche-Gesetz beschrieben (siehe
Kap. 3.3.2.1.1). Die Hörschwelle liegt in Bezug auf den effektiven Schalldruck bei
einer Frequenz von 1000 Hz bei ca. 20 μPa. Die Schmerzgrenze befindet sich
ungefähr sechs Zehnerpotenzen darüber. Um diesen weiten Bereich abdecken zu
können, werden in der Schallmessung logarithmische Maße, sog. akustische Pe-
gel, verwendet. Sie sind in DIN EN ISO 1683 genormt und geben physikalische
Leistungsverhältnisse an.
Davon ausgehend wird der Schalldruckpegel oder kurz Schallpegel Lp als loga-
rithmisches Verhältnis des Quadrates des zu bezeichnenden Druckes peff zum
Quadrat des Bezugschalldruckes p0 definiert:
774 Arbeitswissenschaft
peff 2 peff
Lp log 2
2 log > B@ (9.4)
p0 p0
Dabei bezeichnet log( ) den dekadischen Logarithmus. Der Bezugsschalldruck
entspricht ungefähr der Hörschwelle und wurde per Konvention auf 20 μPa festge-
legt. Als Pseudoeinheit für logarithmische Pegel wird das Bel (B) verwendet.
Üblicherweise werden Schalldruckpegel jedoch in zehntel Bel (Dezibel oder dB)
angegeben, so dass sich für Lp ergibt:
peff
Lp 20 log >dB@ ; p0 20 ȝPa (9.5)
p0
Einige typische Schalldruckpegel sind in Abb. 9.1 aufgeführt.
I W
LI 10 log >dB@ ; I0 10 12 (9.6b)
I0 m2
Schallintensitätspegel, Schallleistungspegel und Schalldruckpegel sind bei ebe-
ner Wellenausbreitung oder bei Kugelwellen im Fernfeld gleich.
Existieren n Schallquellen, die unkorreliert sind, so sind zur Berechnung des
gesamten bzw. wirksamen Schalldruckpegels Lpges im Fernfeld die einzelnen
Schallleistungen (nicht Pegel!) zu addieren. Werden die einzelnen Schallpegel mit
Lpi bezeichnet, so gilt für Lpges:
n
Lpi /10
L pges 10 log ¦ 10 >dB@ (9.7)
i 1
Arbeitsumgebung 775
100 phon
90
80
70
Hauptsprachbereich 60
50
40
30
20
10
Abb. 9.2: Kurven gleicher Lautstärke (Phonlinien) und Hauptsprachbereich (Daten nach
DIN ISO 226, FASTL 2007)
Aus Abb. 9.2 wird deutlich, dass die Empfindlichkeit des menschlichen Ohrs in
Frequenzbereichen besonders hoch ist, in denen die menschliche Sprache übertra-
gen wird. Dies steht im Einklang mit der Hauptaufgabe des Ohrs, nämlich verbale
Kommunikation zu ermöglichen. Die individuelle Lautstärkeempfindung kann
von den Kurven gleicher Lautstärke abweichen, da die Sensibilität des menschli-
chen Gehörsinns sowohl interindividuell als auch intraindividuell große Schwan-
kungen aufweist.
Auf der Grundlage der Kurven gleicher Lautstärke wird in DIN ISO 226 der
Lautstärkepegel LS abgeleitet. Diese Größe wird als subjektives Maß bezeichnet,
da sie die Wahrnehmungscharakteristik des menschlichen Ohrs berücksichtigt.
Der Lautstärkepegel wird in phon gemessen. Der Lautstärkepegel eines Schalls
beträgt n phon, wenn dieser von normalhörenden Personen als gleich laut beurteilt
Arbeitsumgebung 777
wird wie ein Sinuston der Frequenz 1000 Hz und dem Schallpegel n dB. Bei rei-
nen Tönen kann LS folglich direkt aus Abb. 9.2 abgelesen werden. Bei Geräuschen
lässt er sich mit dem Verfahren nach Zwicker (DIN 45631) aus dem Terzspektrum
schätzen.
Neben der immanenten Frequenzcharakteristik besitzt das menschliche Gehör
auch temporär wirkende Adaptionsmechanismen, die seine Empfindlichkeit ver-
ändern. Eine Muskelgruppe im Mittelohr ist bspw. in der Lage, die
Gehörknöchelchenkette durch Kontraktion zu versteifen. Dadurch wird die Über-
tragung von Schall mit Frequenzen unter 200 Hz vermindert. Diese Schutzfunkti-
on hat allerdings eine Latenzzeit von 100-150 ms. Ein Schutz des Innenohrs bei
explosionsartigen Druckanstiegen ist damit nicht gegeben.
Eine weitere Adaption des Gehörs findet in den Haarzellen statt, die Druck-
schwankungen in nervliche Impulse wandeln. Bei mehrstündiger intensiver Be-
schallung kommt es zu Mangelerscheinungen in der Sauerstoffversorgung dieser
Zellen und somit zu einem Absinken der Empfindlichkeit. Die Hörschwelle wird
zeitlich begrenzt verschoben – ein Effekt, der auch mit der englischen Abkürzung
TTS (Temporary Threshold Shift) bezeichnet wird (CROCKER 1997). Diese tem-
poräre Hörschwellenverschiebung bildet sich nach etwa 12-14 Stunden Ruhe
wieder zurück.
9.1.3.1 BeeinträchtigungĆderĆArbeitssicherheitĆdurchĆLärmĆ
Lärm kann Warnsignale oder Geräusche überdecken, die einen Hinweis auf eine
Gefährdung geben. Akustische Gefahrenanzeigen sind jedoch von besonderer
praktischer Bedeutung, da deren Signale unabhängig von der räumlichen Ausrich-
tung des Gehörsinns wahrgenommen werden. Sie können somit den arbeitenden
Menschen jederzeit erreichen. Bei der Gestaltung von Warnsignalen muss deshalb
darauf geachtet werden, dass sie andere Frequenzbereiche belegen als die Umge-
bungsgeräusche (DIN 33404-3). Jedoch ist dafür Sorge zu tragen, dass neben der
gewünschten Reaktion kein Fehlverhalten durch eine Schreckreaktion aufgrund
des unerwarteten Warnsignals entsteht (DIN EN ISO 7731). Lärm behindert weiter-
hin die Sprachverständigung (DIN EN ISO 9921). Als Faustregel gilt, dass der
Sprachschalldruckpegel 15 dB über dem Umgebungsgeräusch liegen muss, damit
eine hinreichende Verständigung möglich ist. Zum Verstehen einer Fremdsprache
ist sogar eine Pegeldifferenz von 20 dB notwendig, ein Umstand, der bei der Be-
schäftigung nicht muttersprachlicher Arbeitspersonen von Bedeutung sein kann.
778 Arbeitswissenschaft
1980). Auch hier spielt die Zusammensetzung des Geräusches und der Informati-
onsgehalt eine Rolle. Eintönige Geräusche (z.B. beim Fahren mit dem Zug) kön-
nen trotz hoher Schallintensitäten einschläfernd wirken.
9.1.3.3 SchädigungĆ
Bei der Schädigung durch Lärm lassen sich akute und chronische Lärmschäden
unterscheiden. Diese Schäden betreffen ausschließlich das Gehör. Akute Schädi-
gungen, sog. Knalltraumata, treten vor allem bei explosionsartigen Druckanstie-
gen mit Schalldruckpegeln von 140-200 dB auf. Der Schutzreflex der Muskeln zur
Versteifung der Übertragungskette im Mittelohr ist in diesem Fall nicht ausrei-
chend schnell. Reparabel sind Schäden am Trommelfell (Zerreißungen) oder an
den Gehörknöchelchen. Dagegen sind Innenohrschäden, wie z.B. eine geplatzte
Basilarmembran, irreparabel. Anzeichen eines Knalltraumas sind ein stechender
Schmerz, die Vertaubung des Ohrs und Ohrgeräusche.
Von wesentlich größerer Bedeutung in der Praxis sind chronische Lärmschä-
den. Wie bereits erwähnt, kann eine längere Lärmeinwirkung eine zeitlich be-
schränkte Hörschwellenverschiebung (TTS) bewirken. Wird das menschliche Ohr
tagtäglich derart hohen Schallintensitäten ausgesetzt, so ist eine Regenerierung der
sauerstoffunterversorgten Haarzellen nicht mehr möglich. Die Haarzellen degene-
rieren und stellen ihre Funktion letztlich ganz ein; eine bleibende Hörschwellen-
verschiebung (engl.: Permanent Threshold Shift, PTS) ist die Folge (CROCKER
1997). Das Vorhandensein der zeitlich beschränkten Hörschwellenverschiebung ist
also Voraussetzung für eine Gefährdung im Hinblick auf eine dauerhafte Lärm-
schwerhörigkeit. Umgekehrt kann ausgeschlossen werden, dass eine Lärmbelas-
tung gehörschädigend wirkt, wenn keine TTS festgestellt werden kann.
Auch in Bezug auf die Schädigungswirkung von Lärm bestehen deutliche inter-
individuelle Unterschiede (siehe ISO 1999), so dass Grenzwerte nur als Schätzgrö-
ßen für schädigungsfreie Bereiche angegeben werden können. Relativ unbestritten
ist jedoch aufgrund der Schädigungsmechanismen die sog. Dosis-Wirkungs-
Beziehung. Die Dosis ergibt sich in diesem Fall als Produkt aus Schallleistung und
Einwirkdauer, die Wirkung entspricht der Schädigung. Ist eine Person einem
Schalldruckpegel ausgesetzt, der 3 dB über einem Vergleichspegel liegt (doppelte
Schallleistung), so wird ein vergleichbarer Schädigungsgrad bereits nach der Hälf-
te der Expositionsdauer erreicht. Dies gilt jedoch nicht für den Kurzzeitbereich.
Lärmschwerhörigkeit zeigt sich am deutlichsten durch Hörverlust im Frequenzbe-
reich um 4000 Hz (die sog. C-5 Senke), wie in Abb. 9.3 ersichtlich. Bei dieser
Abbildung handelt es sich um ein Audiogramm einer altersschwerhörigen und
einer lärmschwerhörigen Person. Durch Audiogramme wird die Verschiebung der
Hörschwelle einer Person gegenüber der Normalschwelle in Abhängigkeit der
Frequenz dargestellt. Das Messen von Audiogrammen bezeichnet man als Audio-
metrie, die in ähnlicher Weise wie die Messung der Kurven gleicher Lautstärke
erfolgt.
780 Arbeitswissenschaft
9.1.4 Messung
Charakteristische Größe zur Beschreibung von Geräuschen ist der Schalldruckpe-
gel in seiner spektralen Verteilung. Der Schalldruckpegel wird mit Schallpegel-
messern nach DIN EN 61672-1 gemessen, die bei verschiedenen Lärmanalysen
Anwendung finden.
Ein Schallpegelmesser besteht i.Allg. aus einem Mikrophon, einem Verstär-
kungs- und Verarbeitungsteil mit Frequenzbewertungsfiltern und Zeitbewertungs-
komponenten sowie einem Anzeigeteil (SCHAEFER 1993). Die Frequenzbewer-
tung hat dabei die Aufgabe, die spektrale Empfindlichkeit des menschlichen Ohrs
technisch nachzubilden. Die Zeitbewertung ermöglicht es, temporäre Adaptions-
mechanismen zu berücksichtigen.
9.1.4.1 SchallintensitätsmessungenĆ
Bei Schallintensitätsmessungen wird der örtliche Schalldruckpegel ermittelt. Eine
Frequenzbewertung findet nicht statt, so dass vom unbewerteten Schalldruckpegel
Arbeitsumgebung 781
9.1.4.2 BewerteterĆSchalldruckpegelĆĆ
Lärmmessungen haben in der Regel zum Ziel, Aussagen über mögliche Gehör-
schädigungen bzw. über die Lästigkeit von Geräuschen zu treffen. Aus diesem
Grund wird mittels der Frequenzbewertung versucht, dem Messgerät eine dem
menschlichen Ohr ähnliche Charakteristik zu verleihen. Hierfür verwendet man
den sog. A-Filter nach DIN EN 61672-1. Dessen Kennlinie ist in Abb. 9.4 darge-
stellt. Ein mit Hilfe des A-Filters frequenzbewerteter Schalldruckpegel wird mit
LA bezeichnet und zusätzlich durch die Pseudoeinheit dB(A) gekennzeichnet.
Abb. 9.4: Betragsfrequenzgang des A- und C-Filters nach DIN EN 61672-1 (A- bzw. C-
Frequenzbewertungskurve)
In ihrem qualitativen Verlauf ist die A-Kennlinie invers zu den Kurven gleicher
Lautstärke in Abb. 9.2. Dies hat im praktischen Einsatz zur Folge, dass der
Schallpegelmesser bei Verwendung des A-Filters den Schalldruckpegel von Ge-
räuschen mit beträchtlichen niedrig- bzw. hochfrequenten Leistungsanteilen als
geringer ausweist, als bei einer Messung ohne Filter. Sind umgekehrt die Leis-
tungsanteile im Spektralbereich von 4000 Hz zentriert, so liegt der A-bewertete
782 Arbeitswissenschaft
Schalldruckpegel über dem Unbewerteten (in diesem Bereich befindet sich die
Kennlinie oberhalb des Verstärkungsfaktors 1 gleich 0 dB). In Abb. 9.4 ist zusätz-
lich die C-Kennlinie dargestellt, die bei energiereichen kurzzeitigen Schall-
impulsen Verwendung findet.
9.1.4.3 FrequenzanalysenĆĆ
Wie bereits angedeutet, ermöglichen Frequenzanalysen eine detaillierte Suche
nach Lärmursachen. So kann z.B. eine defekte Lagerung einer Maschinenwelle
nachgewiesen werden, wenn das Maschinengeräusch hohe Schalldruckpegel in
Frequenzen aufweist, die einem ganzzahligen Vielfachen der Wellendrehzahl
entsprechen.
Prinzipiell lassen sich Spektren sowohl offline als auch online messen. Bei der
Online-Methode werden meist digitale Filterbänke einer Anzeige oder einem
Speichermedium vorgeschaltet, wobei die Durchlassbreite der entsprechenden
Bandpassfilter gemäß DIN EN ISO 266 genormt ist. Bei der Offline-Methode wird
das ungefilterte Messsignal zunächst gespeichert und im Anschluss an die Mes-
sung entsprechend nachbearbeitet.
Aufgrund der Leistungsfähigkeit heutiger digitaler Messgeräte erfolgen Fre-
quenzanalysen meist derart, dass das ungefilterte Signal aufgezeichnet und für die
Anzeige das Signal parallel über eine Filterbank aufbereitet wird. Die Grenze
zwischen reiner Online- bzw. reiner Offlinemessung existiert in diesem Fall nicht
mehr eindeutig.
Mittelungsdauer T
LA(t)
9.1.5.1 BeurteilungĆimĆHinblickĆaufĆGehörgefährdungĆ
Nach VDI 2058 Bl. 2 besteht die Gefahr der Gehörschädigung ab Beurteilungspe-
geln von 85 dB(A). Für LEX,8h > 90 dB(A) nimmt die Wahrscheinlichkeit der
Schädigung deutlich zu. Diese Kennwerte sind auch in die Lärm- und Vibrations-
Arbeitsschutzverordnung (LärmVibrationsArbSchV) eingegangen. Entsprechend der
angenäherten Dosis-Wirkungs-Beziehung werden für ohrgesunde Personen lärm-
bedingte Gehörschäden statistisch ausgeschlossen, wenn
x LEX,8h < 90 dB(A) und die Expositionsdauer <= 6 Jahre,
x LEX,8h < 87 dB(A) und die Expositionsdauer <= 10 Jahre oder
x LEX,8h < 85 dB(A) und die Expositionsdauer <= 15 Jahre ist.
Als Kriterium für die Lärmschwerhörigkeit wird hier ein Hörverlust von mehr
als 40 dB bei einer Testfrequenz von 3000 Hz im Audiogramm verwendet.
Die in der Richtlinie vorgestellten Grenzwerte werden mit der Einschränkung
angegeben, dass in der Erholungszeit der bewertete Schalldruckpegel LA kleiner
als 70 dB(A) ist und die tägliche Erholungszeit größer als 10h ist. Hieraus ist er-
sichtlich, dass auch die Lärmbelastung in der Freizeit von großer Bedeutung ist.
9.1.5.2 BeurteilungĆimĆHinblickĆaufĆdieĆausgeübteĆTätigkeitĆ
In VDI 2058 Bl. 3 werden Schallereignisse im Hinblick auf die ausgeübte Tätigkeit
beurteilt. Zwar sind eine Reihe von Einflussgrößen wie bspw.
x akustisch messbare Größen,
x geräuschbezogene Größen (z.B. Auffälligkeit, Informationshaltigkeit usw.),
x tätigkeitsbezogene Anforderungen an die Arbeitspersonen wie Aufmerksam-
keit und Konzentration und
x personenbezogene Einflussgrößen
aufgeführt, in die Beurteilung der Geräuschimmission im Hinblick auf Zumutbar-
keit gehen direkt aber nur der gemessene Beurteilungspegel und die Art der Tätig-
keit ein.
Nicht zu überschreitende Beurteilungspegel sind nach DIN EN ISO 11690-1
x 35-45 dB(A) für überwiegend geistige Tätigkeiten,
Arbeitsumgebung 785
9.1.6 Gestaltungshinweise
Maßnahmen zur Minderung der Lärmbelastung lassen sich hierarchisch nach dem
TOP Modell des Arbeitsschutzes (vgl. Kap. 8.1.4.3) gliedern. Begleitend sind
arbeitsmedizinische Maßnahmen wirksam. Lärmschutz sollte bereits bei der Neu-
gestaltung von Arbeitssystemen ansetzen (siehe DIN EN ISO 11690-2). Durch den
Einkauf von lärmarmen Maschinen bzw. Betriebsmitteln und die Wahl geeigneter
Arbeitsverfahren lassen sich bereits erhebliche Belastungsminderungen erzielen.
Korrektive Gestaltungsmaßnahmen, wie eine nachträgliche Lärmdämmung oder
-dämpfung, sind dagegen aufwendig bzw. oft nicht möglich, ohne den Arbeitspro-
zess zu behindern. Grundsätzlich sollten zunächst die Möglichkeiten des techni-
schen Lärmschutzes ausgeschöpft werden, ehe der organisatorische oder persönli-
che Lärmschutz Anwendung findet.
Technischer Lärmschutz
Der Technische Lärmschutz lässt sich gliedern in
x die Auswahl lärmarmer Arbeitsverfahren,
x Maßnahmen zur Minderung der Lärmentstehung,
x Maßnahmen zur Minderung der Lärmausbreitung (Schalldämmung) und
x Maßnahmen zur Umwandlung von Schallenergie in Wärme (Schalldämp-
fung).
Lärm entsteht in Anlehnung an VDI 3720 Bl. 2 einerseits durch die Luftschallab-
strahlung von schwingenden Maschinenteilen, andererseits durch turbulente
Druckausgleichsvorgänge in strömenden Gasen (z.B. Ansauggeräusch eines
Kompressors). Für die Schwingungsanregung von Maschinenteilen sind
x Massenkräfte (z.B. Unwucht einer rotierenden Welle),
x mechanische Wechselwirkungen zwischen festen Körpern bzw. Werkzeug
und Werkstück (z.B. Zusammenstoßen, Gleitreibung, Zerspanen),
x ungleichförmige Kraftübertragung (z.B. Verformen) und
x turbulente Strömungen von in der Maschine eingeschlossenen Medien (z.B.
bei Hydrauliksystemen)
verantwortlich. Darüber hinaus werden die mechanischen Schwingungen (der sog.
Körperschall) an umgebene Festkörper weitergeleitet. Bei einer Maschine werden
das Fundament und der Hallenboden zu Schwingungen angeregt, die wiederum an
ihrer Oberfläche Luftschall abstrahlen.
Zur Begrenzung der Schwingungsentstehung sollten Massenkräfte, z.B. durch
das Auswuchten von Wellen, kleingehalten werden (siehe Kap. 9.2.6). Bei Gleit-
vorgängen ist auf eine spielarme Führung und die Absenkung der Kräfte durch
ausreichende Schmierung zu achten. Spannungsspitzen beim impulsartigen Zu-
786 Arbeitswissenschaft
Keilleistenwelle Drallmesserwelle
schlecht besser
Abb. 9.6: Beispiele zur Lärmminderung durch den Abbau von Spannungsspitzen mittels
zeitlicher Dehnung von Vorgängen: Drallmesserwelle bei einer Hobelmaschine anstelle
einer geraden Keilleistenwelle (VDI 3720 Bl. 2)
Die Übertragung von Körperschall an die Umgebung kann durch eine schwin-
gungsisolierte Aufstellung der Maschine vermindert werden (aktive Schwingungs-
isolation, Kap. 9.2.6). Schallbrücken, wie z.B. Rohrleitungen zur Maschine, soll-
ten ebenfalls dämmend gestaltet werden, so dass eine Körperschallübertragung
gemindert ist. Zur Verminderung der Ausbreitung von Luftschall werden Maschi-
nen gekapselt (siehe DIN EN ISO 15667), d.h. von einem schalldichten Gehäuse
umgeben. Bei dieser Schalldämmungsmaßnahme ist darauf zu achten, dass selbst
bei kleinen Öffnungen hohe Anteile des Luftschalls nach außen gelangen und
somit die Wirkung einschränken. Kapseln sollten so gestaltet werden, dass sie
nicht für regelmäßige Wartungsarbeiten oder die Materialzuführung oder
-abführung geöffnet werden müssen und den Arbeitsprozess nicht behindern. Die
Praxis hat gezeigt, dass Kapseln, die nicht nach diesen Grundsätzen gestaltet wur-
den, häufig während des Betriebs der Maschine offen stehen.
Die Maßnahmen zur Schalldämpfung beruhen auf der Umwandlung von
Schallenergie in Reibungswärme. Zur Schalldämpfung eignen sich offenporige,
luftdurchlässige Stoffe wie z.B. Steinwolle, Glaswolle oder offenporige Kunst-
stoffschäume. Nicht in jedem Fall ist die Verwendung von Steinwolle oder offen-
porigen Schäumen als schalltechnisch optimaler Lösungsweg möglich, da die
mechanische Belastbarkeit dieser Werkstoffe begrenzt ist. Eine Lösung für solche
Arbeitsumgebung 787
Anwendungsfälle stellt eine Lochplatte vor einer festen Wand zur Resonanzdämp-
fung dar. Die Dämpfung basiert auf dem Prinzip des Helmholtz’schen Resonators,
bei welchem durch die Elastizität des Luftvolumens im Inneren in Kombination
mit der trägen Masse der in der Öffnung befindlichen Luft ein mechanisches Mas-
se-Feder-System mit einer ausgeprägten Eigenresonanz entsteht. Luftmassen, die
an festen Körpern entlangstreichen, werden so zu Resonanzschwingungen ange-
regt, die dem Schall einen Teil seiner kinetischen Energie entziehen. Beispiele
hierfür sind auch Schalldämpfer (Auspufftöpfe) von Verbrennungskraftmaschi-
nen.
Die Schalldämpfung spielt eine besondere Rolle bei der Gestaltung von Ar-
beitsräumen, da Schall an den Wänden und der Decke reflektiert wird. Vor einer
Wand kann sich die Schallintensität bei vollständiger Reflektion verdoppeln, so
dass der Schallpegel um 3 dB zunimmt. Eine schallabsorbierende Auskleidung der
Decke oder einzelner Wände schafft hier Abhilfe.
Organisatorischer Lärmschutz
Maßnahmen des organisatorischen Lärmschutzes können dazu beitragen, dass nur
eine geringere Anzahl von Arbeitspersonen Lärm ausgesetzt ist, bspw. durch eine
räumliche Trennung der lärmintensiven von den lärmarmen Arbeitsplätzen. Eine
Absenkung des Beurteilungspegels als Maß der Lärmdosis für einzelne Arbeits-
personen ist auch möglich, indem sie während einer Schicht den Arbeitsplatz
wechseln (sog. job rotation, siehe Kap. 5.4.1) und somit nur eine begrenzte Zeit an
einem lärmintensiven Arbeitsplatz arbeiten. Hierbei muss die Restitutionszeit der
TTS berücksichtigt werden (Abb. 9.7).
Abb. 9.7: Temporary Threshold Shift (TTS) als Funktion der Expositionsdauer (links) und
Restitutionsverlauf TTS(t) nach Belastung durch Lärm (rechts)
Persönlicher Gehörschutz
Lässt sich trotz technischer und organisatorischer Maßnahmen der Beurteilungs-
pegel nicht unter 85 dB(A) senken, so sind persönliche Gehörschutzmittel bereit-
788 Arbeitswissenschaft
Arbeitsmedizinische Vorsorgeuntersuchungen
Die Lärm- und Vibrations-Arbeitsschutzverordnung (LärmVibrationsArbSchV)
schreibt eine Vorsorgeuntersuchung für Beschäftigte in Lärmbereichen (Bereiche
mit LEX,8h größer 85 dB(A) oder bewerteten Impulsschalldruckpegeln
LAI > 137 dB(C)) vor, weiter unterliegen diese Bereiche einer Kennzeichnungs-
pflicht. Bei „dauernden gesundheitlichen Bedenken“ (wie z.B. durch bereits vor-
handene Gehörschäden) kann der Arbeitsmediziner die Genehmigung zur Be-
schäftigung in einem Lärmbereich verweigern. Bei Nachfolgeuntersuchungen hat
der Arzt die Möglichkeit, bei gesundheitlichen Bedenken eine Beschäftigung in
Lärmbereichen zu untersagen oder Auflagen (z.B. Tragen eines persönlichen Ge-
hörschutzes, Begrenzung der Einwirkdauer) zu machen.
790 Arbeitswissenschaft
Messgrößen
Messgrößen sind der Weg s(t), als Auslenkung aus der Ruhelage, die Geschwin-
digkeit v(t) und die Beschleunigung a(t) in ihrem zeitlichen Verlauf. Die drei
Größen sind bekanntermaßen in folgender Weise verknüpft:
dv(t ) d 2 s (t ) ªmº
a(t ) «¬ s 2 »¼ (9.12)
dt dt 2
Charakteristische Größen zur Beschreibung einer Sinusschwingung sind die
Amplitude als die größte Auslenkung und die Schwingungsfrequenz. Bei nicht
periodischer Bewegung wird eine Schwingung allgemein durch ihr
Fourierspektrum beschrieben. Aus Gründen der summarischen Betrachtung wer-
den in Analogie zur Schallmessung jedoch die zeitveränderlichen Größen Weg,
Geschwindigkeit und Beschleunigung durch ihre Effektivwerte (siehe Kap. 9.2.5)
charakterisiert. Um die Stoßhaltigkeit einer Schwingung zu kennzeichnen, kann
der Crest-Faktor bzw. Scheitelfaktor verwendet werden. Er ist definiert als das
Verhältnis des Spitzenwertes der Beschleunigung zu ihrem Effektivwert.
Abb. 9.9: Koordinatensysteme für Schwingungsrichtungen (nach VDI 2057, Bl.1 u. Bl.2)
Beim Messen wird häufig für die jeweilige Koordinatenrichtung ein eigener
Beschleunigungsaufnehmer verwendet. Messorte sind die Stellen der Schwin-
gungsübertragung. Mit einer solchen Anordnung können prinzipiell nur
translatorische Schwingungen erfasst werden. Üblicherweise liegt jedoch der
Drehpunkt rotatorischer Schwingungen so weit vom Bestimmungsort entfernt,
dass rotatorische Anteile translatorisch bewertet werden können.
Da das Koordinatensystem einer anthropozentrischen Schwingungsmessung si-
tuationsabhängig ist, wird bei Messergebnissen von Ganzkörperschwingungen die
Lage des Körpers, z.B. liegend, stehend, sitzend mit angegeben.
Bei solchen Ersatzmodellen ist einschränkend zu beachten, dass der Mensch ei-
ner Schwingungseinwirkung nicht passiv sondern aktiv gegenübersteht. Das akti-
ve Verhalten beruht auf Ausgleichsmechanismen wie der Kontraktion von Mus-
kelgruppen (z.B. beim Aufenthalt auf Schiffen bei großem Seegang), der
Muskulaturermüdung bei längerer Schwingungsexposition sowie auf der Grund-
muskelspannung, die von der mentalen Beanspruchung des Menschen abhängig
ist.
Weiterhin verändert sich im Tagesverlauf der Füllzustand der Hohlorgane und
somit auch ihre Massen. Infolgedessen können die Zahlenwerte für die Reso-
nanzbereiche von Organen und Körperteilen in Tabelle 9.1 nur als Anhaltspunkte
dienen.
Arbeitsumgebung 793
Abb. 9.11: Schwingungsverhalten des Hand-Arm-Systems (nach DUPUIS et al. 1976), azh:
Effektivbeschleunigung der anregenden Schwingung an der Einleitungsstelle
794 Arbeitswissenschaft
9.2.3.1 PhysiologischeĆReaktionenĆ
Bedingt durch das Schwingungsverhalten der einzelnen Körperteile und Organe
treten zahlreiche Reaktionen des Körpers in Abhängigkeit von Frequenz und
Amplitude der erregenden Schwingung auf.
Der menschliche Körper versucht durch Muskelkontraktion Resonanzerschei-
nungen abzubauen. Dieser Effekt kann mit Hilfe der Elektromyographie nachge-
wiesen werden und ist vor allem bei Ganzkörperschwingungen von Bedeutung. So
ist bei Anregung mit einem periodischen Beschleunigungsverlauf ein ebenfalls
periodischer Verlauf des Elektromyogramms zu beobachten (Abb. 9.12).
Als weitere physiologische Reaktionen auf Ganzkörperschwingungen können
Veränderungen des Atemvolumens, Verminderung von Reflexen, Verdau-
ungsstörungen sowie die Verminderung der Durchblutung der Gliedmaßen nach-
gewiesen werden.
9.2.3.2 SchädigungĆ
Eine langanhaltende Belastung durch mechanische Schwingungen führt in Abhän-
gigkeit der täglichen Expositionszeit, der Intensität und dem Einleitungsort zu
Schädigungen.
Bei Hand-Arm-Schwingungen, verursacht durch Arbeitsmittel niedriger
Schwingfrequenzen mit großen Amplituden wie z.B. Presslufthämmer, treten
Knochen- und Gelenkdegenerationen auf (Berufskrankheit Nr. 2103: „Erkrankun-
gen durch Erschütterungen bei Arbeit mit Druckluftwerkzeugen oder gleichartig
wirkenden Werkzeugen oder Maschinen“). Arbeitsmittel, die Schwingungen von
40 - 60 Hz erzeugen wie z.B. Handschleifmaschinen oder Kettensägen, führen
nach mehrjähriger Expositionszeit zu chronischen Durchblutungsstörungen der
Finger (Berufskrankheit 2104: „Vibrationsbedingte Durchblutungsstörungen an
den Händen …“, auch vasospastisches Syndrom, Weißfingerkrankheit genannt).
Niedrige Umgebungstemperaturen fördern die Durchblutungsstörungen. Diese
Tatsache ist vor allem beim Arbeiten mit Kettensägen im Freien von Bedeutung.
Die Folge ist ein häufiges Einschlafen und Kribbeln der Finger verbunden mit
Schmerzen. Die feinmotorische Koordination wird eingeschränkt (DUPUIS 1982).
Langfristige Belastungen durch Ganzkörperschwingungen können zu irreparab-
len Schäden, hauptsächlich an der Wirbelsäule, führen (DUPUIS 1982) (Berufs-
krankheit Nr. 2110: „Bandscheibenbedingte Erkrankungen der Lendenwirbelsäule
durch langjährige, vorwiegend vertikale Einwirkung von Ganzkörper-
schwingungen im Sitzen)“.
796 Arbeitswissenschaft
9.2.4 Messung
Theoretisch können die Auslenkungen von Festkörpern mit Wegaufnehmern ge-
messen werden. Dazu benötigt man allerdings eine ortsfeste Aufhängung. Da
diese Vorgehensweise z.B. bei Schwingungsmessungen an handgeführten Ma-
schinen nicht möglich ist, werden häufig Beschleunigungsaufnehmer verwendet,
die auf dem seismischen Prinzip beruhen. In diesen Sensoren ist eine Masse gefe-
dert und gedämpft gelagert. Bei Schwingungsanregung kommt es zu Trägheits-
kräften an der Masse, die sie aus der Ruhelage auslenken. Die Auslenkung kann
nach verschiedenen Prinzipien in elektrische Signale umgewandelt werden, Abb.
9.14 zeigt einige Beispiele:
x Die Masse ist an einer Blattfeder befestigt und die Auslenkung wird relativ
zum Gehäuse durch Dehnungsmessstreifen (DMS) aufgenommen, die auf
der Blattfeder angebracht sind (Abb. 9.14a).
x Durch Ausnutzung des piezoelektrischen Effekts werden elektrische Ladun-
gen verschoben, die der Trägheitskraft der Masse proportional sind (Abb.
9.14b).
x Die Masse befindet sich in einer Spule, deren Impedanz sich bei Massenaus-
lenkung relativ zum Aufnehmergehäuse verändert (Abb. 9.14c). Alternativ
kann bei miniaturisierter Bauform des Sensors kapazitiv gemessen werden.
Diese in den letzten Jahren umfangreich erforschten und mittlerweile auch
recht weit verbreiteten mikro-elektro-mechanischen Systeme (MEMS, siehe
auch CHANG 2006) besitzen sowohl Federn als auch Massen aus Silizium,
die nur wenige μm breit sind.
Der Messbereich der Aufnehmer ist von der Eigenfrequenz ihres Feder-
Dämpfer-Masse-Systems abhängig. Üblicherweise kann im Bereich bis zur Hälfte
der Eigenfrequenz gemessen werden.
Die elektrischen Signale werden entsprechend dem Wirkprinzip des Aufneh-
mers so vorverarbeitet, dass am Ausgang eine beschleunigungsproportionale
Spannung anliegt. Bildet man deren Effektivwert, so erhält man mit der Effektiv-
beschleunigung ein energetisches Maß der Schwingungsbelastung. Dabei ist die
Frequenzlage mit zu berücksichtigen. Ist der Signalverlauf periodisch, lassen sich
die Frequenzanteile schrittweise analysieren, indem Terz- und Oktavfilter sukzes-
siv dem Effektivglied vorgeschaltet werden. Bei stochastischen Signalen hingegen
kann das Beschleunigungsspektrum mit Echtzeit-Frequenz-Analysatoren ermittelt
werden.
Die Anbringung der Beschleunigungsaufnehmer erfolgt direkt an der Einlei-
tungsstelle in den menschlichen Körper. Es wird in den drei Koordinatenachsen
gemäß VDI 2057, Bl.1 gemessen. Ist eine direkte Messung nicht möglich, sind die
Messergebnisse durch eine Koordinatentransformation vektoriell umzurechnen.
Arbeitsumgebung 797
5
Frequenzbewertung/frequency weightings in dB
-5
-15
-25
-35
-45
-55
-65
-75
-85
Wf Wk Wd Wm
Frequenz/frequency f in Hz
Vibrationen ergibt sich dagegen wie erwähnt der A(8)-Wert als Maximalwert aus
1,4·awx, 1,4·awy und awz.
Hinweise zur Bewertung von Vibrationen findet man in den vom Bundesminis-
terium für Arbeit und Soziales herausgegebenen Handbüchern (2007a und 2007b).
Die Vorgehensweise zur Ermittlung des Tagesexpositionswertes A(8) besteht
für Ganzkörpervibrationen aus drei Schritten:
(1) Ermitteln der drei Effektivwerte der frequenzbewerteten Beschleunigung awx,
awy und awz anhand von Messungen, Herstellerangaben oder sonstigen Quel-
len. Die Frequenzbewertungen sind in VDI 2057 normiert.
(2) Bestimmen der Tagesexposition in den drei Raumrichtungen x, y und z durch
Texp
Ai 1, 4 awi i x, y (9.15a)
T0
Texp
Az awz (9.15b)
T0
mit Texp als tägliche Dauer der Schwingungsexposition und T0 als Referenz-
dauer von acht Stunden.
(3) Der höchste Wert, bzw. derjenige Wert von Ax(8), Ay(8) und Az(8) aus dem
die geringste zulässige Expositionszeit folgt, ist die Tagesexposition gegen-
über Schwingungen:
Hand-Arm-Vibrationen Ganzkörper-Vibrationen
Expositions-
5,0 m/s2 0,8 m/s2 1,15 m/s2
grenzwert
800 Arbeitswissenschaft
3,8
3,6
3,4
3,2
2,8
rot
2,6
2,4
(ka w )max (m/s²)
2,2
1,8 A(8)=2.0m/s²
1,6 A(8)=1.8m/s²
1,4 A(8)=1.6m/s²
orange
A(8)=1.4m/s²
1,2
A(8)=1.2m/s²
1 gelb A(8)=1.15m/s²
A(8)=1.0m/s²
0,8
A(8)=0.8m/s²
0,6 grün A(8)=0.6m/s²
A(8)=0.5m/s²
0,4 A(8)=0.4m/s²
Beispiel:
Beispiel:
0,2 1.2m/s²für
1.2m/s² für44Stunden
Stunden A(8)=0.2m/s²
30min.ergibt
30min. ergibtA(8)=0.9m/s²
A(8)=0.9m/s²
0 0:0 0:3 1:0 1:3 2:0 2:3 3:0 3:3 4:0 4:3 5:0 5:3 6:0 6:3 7:0 7:3 8:0 8:3 9:0 9:3 10:
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 00
Abb. 9.16: Grafische Ermittlung der Tagesexposition anhand der Expositionszeit sowie des
Tagesexpositionswertes A(8) (aus Bundesministerium für Arbeit und Soziales 2007a)
Arbeitsumgebung 801
9.2.6 Gestaltungshinweise
Die Begrenzung der Einwirkung von Schwingungen auf den Menschen kann
durch verschiedene Schutzmaßnahmen erreicht werden. In der VDI-Richtlinie 3831
werden die Maßnahmenbereiche
x Technischer Schwingungsschutz,
x Arbeitsorganisatorischer Schwingungsschutz,
x Persönlicher Schwingungsschutz und
x Arbeitsmedizinischer Schwingungsschutz
angeführt.
Technischer Schwingungsschutz
Unter technischem Schwingungsschutz sind Maßnahmen zu verstehen, die der
Entstehung und Übertragung mechanischer Schwingungen entgegenwirken. Me-
chanische Schwingungen werden an Maschinen vor allem durch Unwucht an
Wellen bzw. durch oszillierende Massen erzeugt (GASCH et al. 2006).
Die Unwucht von Wellen kann durch Auswuchten vermindert werden. Ein in
der Praxis angewendetes Verfahren zum automatischen Auswuchten der Welle
angetriebener Handwerkzeuge nach LINDELL (1993) ist in Abb. 9.17 skizziert.
Abb. 9.17: In der industriellen Praxis angewendetes Verfahren zum automatischen Aus-
wuchten der Welle angetriebener Handwerkzeuge durch zwei bewegliche Kugeln nach
Lindell (1993): a. Beim Lauf mit superkritischer Drehzahl rotiert das Werkzeug um den
Massenschwerpunkt, so dass Schwingungen induziert werden. b. Durch die auftretenden
Zentrifugalkräfte bewegen sich die beiden Kugeln entlang der Kontur und verändern da-
durch die Lage des Massenschwerpunktes, bis dieser auf der Rotationsachse liegt (siehe c.).
Eine deutliche Minderung der Schwingungsbelastung des Hand-Arm-Systems ist die Folge.
Änderungen der Drehzahl werden schnell ausgeregelt.
Arbeitsumgebung 803
Bei schwingenden Massen besteht weiterhin die Möglichkeit, durch einen ge-
genläufigen Mechanismus Kräfte zu tilgen. Ein Beispiel hierfür ist das Prinzip des
Gegenschlaghammers anstelle des Fallhammers in der Umformtechnik.
Generell erhöht sich die Schwingungsbelastung durch Maschinen mit zuneh-
mendem Verschleiß bzw. bei mangelnder Wartung.
Eine geeignete Wahl des Arbeitsverfahrens, wie z.B. die Verwendung kraftge-
bundener Pressen anstelle energiegebundener Pressen, die Verwendung des Scher-
schnitts statt des Schlagschnitts bei Abkantbänken oder der Verzicht auf Rüttel-
förderer bei der Zuführung von Werkstücken mindert die Schwingungsbelastung.
Diese Maßnahmen führen üblicherweise auch zu einer Lärmminderung.
Lässt sich die Entstehung von Schwingungen nicht ausreichend vermeiden, so
ist eine Schwingungsisolation zwischen Schwingungsquelle und dem exponierten
Menschen vorzusehen. Dabei wird die aktive Schwingungsisolation, die einen Teil
der Maschine darstellt und die Ausbreitung mechanischer Schwingungen vermin-
dert, von der passiven Isolation unterschieden, die eine Einwirkung der Schwin-
gungen auf den Menschen vermindern soll. Eine aktive Schwingungsisolation ist
z.B. ein federndes und dämpfendes Fundament einer Maschine. Eine passive
Schwingungsisolation liegt im Fall einer federnd und gedämpft gelagerten Leit-
werte oder Steuerstand vor. Solche Schwingungsisolationen führen zum Abbau
von Beschleunigungsspitzen (Federn) und wandeln mechanische Energie in Wär-
meenergie um (Dämpfer). In den Abb. 9.18 und Abb. 9.19 sind technische Lösun-
gen zur Schwingungsisolation dargestellt.
Abb. 9.18: Gummielemente zur Lagerung von Maschinen (VDI 2062, Bl.2)
Organisatorischer Schwingungsschutz
Werden die Expositionsgrenzwerte bzw. Auslösewerte bei einer täglichen Exposi-
tionszeit von acht Stunden trotz der Maßnahmen im Bereich des technischen
Schwingungsschutzes überschritten, so ist durch arbeitsorganisatorische Maßnah-
men, wie dem Wechsel des Arbeitsplatzes während der Schicht, die Expositions-
dauer zu verringern. Die in Bezug auf die Gesundheit höchste zumutbare Exposi-
tionsdauer kann bekanntlich Abb. 9.16 entnommen werden.
804 Arbeitswissenschaft
Abb. 9.19: Fahrersitz für landwirtschaftliche Zugmaschinen (DUPUIS 1981), Beispiel für
eine passive Schwingungsisolation. Die Schwingungsverminderung wird durch optimierte
Sitzfederung und Dämpfung realisiert (vertikale Beschleunigungsmessungen am Sitzfuß
und auf der mit einem Fahrer belasteten Sitzfläche). Die Vorspannung der Feder lässt sich
einstellen, so dass der Sitz an Personen mit verschiedenem Körpergewicht angepasst wer-
den kann.
Persönlicher Schwingungsschutz
Persönliche Schutzausrüstungen für den Schwingungsschutz sind z.B. Vibrations-
schutzhandschuhe, die beim Führen von handgetriebenen Arbeitsgeräten Anwen-
dung finden. Diese Handschuhe haben auf der Grifffläche ein Luftpolster. Zum
genauen Führen von Werkzeugen ist hierdurch allerdings eine erhöhte Greifkraft
notwendig, die eine Isolationswirkung im niederfrequenten Bereich einschränkt.
Arbeitsmedizinischer Schwingungsschutz
Als Maßnahmen des arbeitsmedizinischen Schwingungsschutzes sind Einstel-
lungsuntersuchungen und Nachuntersuchungen vorzunehmen, so dass schwing-
ungsgefährdete Personen erkannt werden können und im Fall einer beginnenden
Schädigung eine weitere Exposition verhindert werden kann.
Arbeitsumgebung 805
9.3 Strahlung
Der Begriff Strahlung bezeichnet in der Physik die freie, ungeleitete Ausbreitung
von Energie in Form von Teilchen oder Wellen. Die Differenzierung ist historisch
bedingt und wird trotz des bekannten Welle-Teilchen-Dualismus der Quantenme-
chanik in der wissenschaftlichen Diskussion weiterhin aufrecht erhalten. Die Cha-
rakterisierung und Beschreibung der Eigenschaften von Strahlung erfolgt durch
radiometrische Größen:
x Die Strahlungsenergie E bzw. Qe (in der Photometrie) ist die Gesamtenergie
einer Teilchenmenge oder einer Welle; Einheit: Joule [J]
x Die Strahlungsleistung P einer Strahlungsquelle ist ein Maß für die Strah-
lungsenergie, die pro Zeiteinheit von einer Quelle emittiert wird; Einheit:
Watt [W]
x Die Bestrahlung oder Energiedichte H beschreibt die gesamte Strahlungs-
energie, die auf eine Objektoberfläche trifft, bezogen auf die Größe der Flä-
che; Einheit: [J/m2]
x Die Leistungsflussdichte S charakterisiert die Energieausbreitung für jeden
Raum- und Zeitpunkt. Diese in Vektorschreibweise dargestellte Größe ist de-
finiert als Energie, die pro Zeiteinheit eine Fläche senkrecht zur Ausbrei-
tungsrichtung der Welle oder der Teilchen durchströmt; Einheit: [W/m2].
Physikalisch lassen sich die verschiedenen Arten von Strahlung nach dem
Übertragungsmedium für die Energieausbreitung differenzieren. Hierbei werden
elastische Medien und die Ausbreitung im Vakuum differenziert. In diesem Kapi-
tel sollen ausschließlich die wichtigsten, nicht an ein Medium gebundenen Strah-
lungsarten behandelt werden, nämlich die elektromagnetische Strahlung sowie die
von radioaktiven Elementen ausgesandten Korpuskularstrahlungen (Alpha-, Beta-,
Gammastrahlung).
In der physikalischen Feldtheorie wird die räumliche Fortpflanzung von Strah-
lung als Ausbreitung von Wellen interpretiert. Eine einzelne Welle wird dabei
charakterisiert durch die Amplitude, die Wellenlänge bzw. Frequenz sowie die
Phase. Bei der Wechselwirkung mit Materie, z.B. Absorption (lat. absorbere =
einsaugen) und Emission (lat. emittere = aussenden), verhält sich Strahlung wie
eine Menge identischer, kleiner, massebehafteter Teilchen, die den Raum durch-
fliegen und somit kinetische Energie und Impuls tragen.
Wichtiger als die physikalische Natur der Teilchen ist bei der Analyse ver-
schiedener Strahlungsarten hinsichtlich ihrer Auswirkungen auf den Menschen die
kinetische Energie der Teilchen. Diese wird zumeist nicht in der SI-Einheit für
Energie in Joule [J] angegeben, sondern in der physikalischen Einheit Elektronen-
volt [eV] bzw. einem Vielfachen davon: [keV], [MeV], [GeV]. Ein Elektronenvolt
(1 eV) ist dabei definiert als die Bewegungsenergie, die eine Einheitsladung beim
Durchlaufen eines elektrischen Spannungsgefälles von 1 Volt gewinnt.
806 Arbeitswissenschaft
Führt die Bewegungsenergie der Teilchen bei einer absorbierenden Materie zur
Erzeugung von Ionen, d.h. mindestens ein Elektron aus der Atomhülle des ab-
sorbierenden Atoms wird befreit, so wird die Strahlung als ionisierende Strahlung
bezeichnet. Da die Ionisierungsenergie für verschiedene Atome bzw. Moleküle
eine hohe Varianz aufweist, ist die Grenze zwischen ionisierender und nicht-
ionisierender Strahlung unscharf. Für Atome nimmt die Ionisierungsenergie
i.Allg. mit wachsender Kernladung zu und mit wachsendem Atomradius ab.
9.3.1.1 KorpuskularstrahlungenĆ
9.3.1.2 ElektromagnetischeĆStrahlungĆ
Mit Wechselspannung betriebene Geräte können in Abhängigkeit von ihrer Struk-
tur, ihrer Gestalt und ihrem Verhalten elektromagnetische Strahlung abstrahlen.
Die Beschreibung der verschiedenen Ausprägungen elektromagnetischer Strah-
lung erfolgt durch physikalische Größen, die im Folgenden kurz vorgestellt wer-
den.
Elektromagnetisches Feld
Ein physikalisches Feld beschreibt Eigenschaften eines Raumes durch die Zuord-
nung von physikalischen Größen zu einzelnen Raumpunkten. Analog zu dieser
Spezifikation beschreibt ein elektromagnetisches Feld die gerichtete Kraftwirkung
für einen Raum- und Zeitpunkt, die auf einen elektrisch geladenen Körper ausge-
übt wird. Diese ist charakterisiert durch die vier vektoriellen Größen:
x elektrische Feldstärke E [V/m]
x elektrische Flussdichte D [As/m2]
x magnetische Feldstärke H [A/m]
x magnetische Flussdichte B [Vs/m2]
Die vektoriellen Größen lassen sich durch vier Vektorfeldern abbilden, die orts-
und zeitabhängig sind. Ihre räumliche Verteilung lässt sich durch Feldlinien dar-
stellen.
Die elektrische Feldstärke ist definiert durch die Kraft Fe, die auf ruhende und
bewegte elektrisch geladene Körper wirkt. Die Einheit der elektrischen Ladung Q
ist Coulomb [C]. Die (positiven oder negativen) elektrischen Ladungen sind die
Quellen des Feldes E.
Fe Q E (9.17)
Die Bestimmung der Feldstärke für jeden Raumpunkt ist in der Praxis oftmals
sehr aufwändig. Aus diesem Grund wird statt der elektrischen Feldstärke E die
elektrische Spannung U gemessen, die über den Radius r proportional zur Feld-
stärke ist:
U ³ E dr (9.18)
In elektrisch leitfähigen Materialien, wie bspw. organischem Gewebe, setzen
elektrische Felder Ladungsträger in Bewegung und induzieren so einen elektri-
schen Strom. Dieser Strom wird beschrieben durch den elektrischen Stromdichte-
vektor j, dessen Größe durch die Ladungsmenge [Coulomb C] gegeben ist, die pro
Zeiteinheit durch eine orthogonal zum Stromdichtevektor ausgerichtete Einheits-
fläche fließt [C/m2s]. Die Gesamtheit der Ladungsmenge pro Zeiteinheit, die
durch einen Leiter fließt, wird durch die elektrische Stromstärke [A] repräsentiert.
Die magnetische Flussdichte B [T] beschreibt die Stärke eines durch ein Flächen-
element hindurchtretenden magnetischen Flusses. Sie wird beschrieben durch die
Kraft F, die ein vom Strom durchflossener Leiter erfährt, geteilt durch die Strom-
stärke I und die Leiterlänge l (Gleichung (9.19)).
808 Arbeitswissenschaft
F
B (9.19)
I l
Der Einfluss der Materie auf das Verhalten von elektromagnetischen Feldern
wird durch die vektoriellen Größen D und H beschrieben. Für viele Materialien
gelten die linearen Zusammenhänge:
D Hr H0 E (9.20)
B Pr P0 H (9.21)
Die Permittivität Hund die Permeabilität Pbeschreiben die Durchlässigkeit von
Materie für elektrische Felder bzw. für magnetische Felder2. Die Permittivität ist
das Produkt aus der Permittivität des Vakuums H0und der relativen Permittivität
Hr. Analog zur Permittivität wird die Permeabilität beschrieben durch das Produkt
der Permeabilität des Vakuums P0 und der relativen Permeabilität Pr. Beide Grö-
ßen beschreiben die elektrischen und magnetischen Eigenschaften der Materie
(siehe Tabelle 9.4) und sind von der Temperatur und, bei sich periodisch ändern-
den elektrischen und magnetischen Feldern, von der Frequenz der Felder abhängig
(siehe Abb. 9.20).
Tabelle 9.4: Permittivität Hrund die Permeabilität Prsiehe HIPPEL 1995
Hr Pr
Vakuum 1,0 1,0
Luft (Normalbedingungen) 1,00059 1 + 1ā10í6
Wasser 80,1 1 + 9.10-6
2 Es werden isotrope Materialien vorausgesetzt, d.h. das Verhalten ist in allen Raumrichtungen
gleich. B und H haben dann die gleiche Richtung, ebenso D und E. Bei Anisotropie müssen H und P
als Tensoren angesetzt werden.
Arbeitsumgebung 809
und die magnetische Feldstärke H weist ein proportionales Verhältnis zum flie-
ßenden Strom auf.
Abb. 9.20: Relative Permittivität Hr und spezifische Leitfähigkeit Vr von stark wasserhalti-
gem Gewebe (z.B. Muskeln, Haut) in Abhängigkeit von der Frequenz (HAUBRICH 1990)
Elektromagnetische Wellen
Sobald sich elektrische Ströme und Spannungen ändern, verändern sich auch die
elektrischen und magnetischen Felder. Diese Feldänderungen breiten sich durch
eine wechselseitige Induktion im Raum aus. Es entsteht eine elektromagnetische
Welle. Die Ausbreitungsgeschwindigkeit ist vom Ausbreitungsmedium abhängig:
1
v (9.22)
H r H 0 P r P0
Fernfeldbereich
Ist die Entfernung von der Quelle sehr groß gegenüber der Ausdehnung der Quel-
le, so können die Wellen durch Frequenzzerlegung, unabhängig von ihrem tat-
sächlichen zeitlichen Verlauf, als Überlagerung von Wellen mit räumlich und
zeitlich konstanter Schwingungsperiode interpretiert werden. Diese ebenen Wellen
werden charakterisiert durch die Wellenlänge O [m] sowie die Schwingungsfre-
quenz f [Hz] und weisen folgende Eigenschaften auf (siehe Abb. 9.21):
810 Arbeitswissenschaft
P r P0 Pr
ZW Z0 (9.23)
HrH0 Hr
Der Wellenwiderstand der Luft ist praktisch dem des Vakuums identisch:
Z0 | 376.73 :.
x Die Welle transportiert Energie in Richtung ihrer Ausbreitung. Für die Be-
schreibung der Energie wird die Leistungsflussdichte verwendet. Die Leis-
tungsflussdichte ist definiert durch die Energie pro Zeiteinheit, die senkrecht
zur Ausbreitungsrichtung auf eine Fläche trifft:
E2 ªWº
S « m2 » (9.24)
ZW ¬ ¼
S EuH (9.25)
SvH vE 2
0
2
0
(9.26)
Abb. 9.21: Eine ebene, elektromagnetische Welle setzt sich aus einer elektrischen (E) und
einer magnetischen (H) Komponente zusammen, die senkrecht aufeinander stehen. Beim
Eindringen der Welle in den menschlichen Körper ändern sich die Parameter der Welle
durch die gegenüber Luft veränderten dielektrischen Eigenschaften. Die größere
Dielektrizitätszahl führt zu einer Verringerung der Wellenlänge Oi und einer kleineren
Ausbreitungsgeschwindigkeit vi. Durch die größere Leitfähigkeit Vi wird ein Teil der von
der Welle transportierten Leistung P im Körper absorbiert und in Wärme umgewandelt. Da-
durch wird die Welle wesentlich stärker gedämpft als in Luft (SILNY 1990).
812 Arbeitswissenschaft
Elektromagnetisches Spektrum
Das Spektrum der in der Umwelt auftretenden, elektromagnetischen Strahlungen
aus natürlichen und künstlichen Strahlungsquellen umfasst einen Frequenz- und
Wellenlängenbereich von 21 Größenordnungen. Da sowohl die Kopplung von
elektrischen und magnetischen Feldern als auch die Wechselwirkung mit Materie
frequenzabhängig ist, weisen elektromagnetische Strahlungen mit stark unter-
schiedlicher Frequenz hinsichtlich Erzeugung, Anwendung und biologischer Wir-
kung verschiedene Eigenschaften auf. Für die Darstellung dieser Eigenschaften in
den folgenden Kapiteln werden elektromagnetische Strahlungen klassifiziert in:
x Niederfrequente Strahlung, elektromagnetische Wechselfelder mit Frequen-
zen bis zu 100 kHz (SSK 2001).
x Hochfrequente Strahlung, elektromagnetische Wellen mit Frequenzen von
100 kHz bis etwa 300 GHz (SSK 2001).
x Optische Strahlung, bis etwa 3000 THz. Von den Mikrowellen nicht scharf
abgegrenzt, folgt der Bereich der Infrarot- oder Wärmestrahlung (Wellenlän-
gen über 780 μm), an den sich das sichtbare Licht (bis 380 μm) und die ult-
raviolette Strahlung (bis etwa 100 μm) anschließt.
x Ionisierende Strahlung. Bereits kurzwellige UV-Strahlung kann ionisierend
wirken, so dass optische und ionisierende Strahlung nicht scharf zu trennen
sind.
9.3.1.2.1 Niederfrequente Strahlung
Die Erzeugung, der Transport und der Verbrauch von elektrischer Energie bewirkt
das Auftreten von elektrischen und magnetischen Streufeldern. Weisen diese
Streufelder eine Frequenz bis zu 100 kHz bzw. eine Wellenlänge von maximal
hen, Mobilfunk sowie für schnurlose Telefone, Wireless-LAN und Bluetooth. Der
Mensch ist somit umgeben von einer Vielzahl verschiedener Sendeeinrichtungen,
die mit unterschiedlicher Sendeleistung und Frequenz arbeiten. Es existieren aber
auch Haushaltsgeräte, die hochfrequente Strahlung nutzen. HF-Strahlung mit einer
Frequenz von 2,45 GHz wird bspw. in Mikrowellenherden verwendet.
9.3.1.2.3 Optische Strahlung
Die optische Strahlung umfasst den Wellenlängenbereich von 100 nm bis 1 mm
und gliedert sich in ultraviolette, sichtbare und infrarote Strahlung (BGI 5006):
x Ultraviolette Strahlung (UV-Strahlung) ist die optische Strahlung im Wellen-
längenbereich von 100 nm bis 400 nm. Dieser Bereich kann weiter unterteilt
werden in die Bereiche UV-C (100 - 280 nm), UV-B (280 - 315 nm) und
UV-A (315 - 400 nm).
x Sichtbare Strahlung (VIS-Strahlung) ist eine Strahlung, die im menschlichen
Auge einen visuellen Reiz hervorrufen kann. Dies trifft auf Strahlungen mit
Wellenlängen von 380 nm bis 780 nm zu.
x Infrarote Strahlung (IR-Strahlung) ist die optische Strahlung im Wellenlän-
genbereich von 780 nm bis 1 mm. Sie kann bspw. Wärmeempfindungen auf
der Haut hervorrufen.
Der überwiegende Teil der in der Umwelt vorkommenden optischen Strahler
sind Temperaturstrahler. Jeder Temperatur eines Körpers entspricht ein spezi-
fisches Emissionsspektrum, das weitgehend unabhängig von den Material-
eigenschaften ist (Schwarzkörperstrahlung) und in alle Richtungen gleichmäßig
abgestrahlt wird.
Technische Quellen, welche in Arbeitssystemen Einsatz finden, sind z.B. Infra-
rotöfen zur Erwärmung und Trocknung, IR- und UV-Bestrahlungslampen und
Laser. Beim Auftreten von hohen Temperaturen an der Quelle ist zudem die emit-
tierte UV-Strahlung zu berücksichtigen. Dieses gilt insbesondere für Arbeitsplätze
in der Nähe von Schmelzöfen oder beim Lichtbogen- und Schutzgasschweißen.
Ein weit verbreitetes Arbeitsmittel, dass eine Strahlung in allen Wellenlängen-
bereichen der optischen Strahlung emittiert, ist der Laser (LASER = Light
Amplification by Stimulated Emission of Radiation). Lasergeräte werden entspre-
chend der schädlichen biologischen Wirkung von Laserstrahlung nach der DIN EN
60825-1/11.01 klassifiziert. Die Klassifizierung eines Lasers in die Klassen 1, 1M,
2, 2M, 3R, 3B und 4 basiert auf der Wellenlänge, der Einwirkdauer bis es zu einer
Gefährdung des Auges kommt sowie dem Einsatz von optischen Geräten. Zu
beachten ist, dass Laser keine Temperaturstrahler sind und deshalb eine besondere
Berücksichtigung hinsichtlich folgender Faktoren erfordern:
x Die ausgesendete Strahlung ist monochromatisch, d.h. die gesamte Leistung
wird in einem sehr kleinen Wellenlängenbereich übertragen. Trifft diese
Strahlung auf einen Absorber, der in diesem Bereich seine Resonanzfrequenz
hat, so kann es zu einer starken Energiekonzentration kommen.
816 Arbeitswissenschaft
x Die Strahlung ist stark gebündelt. Selbst in großen Entfernungen von der
Strahlungsquelle können noch sehr intensive Bestrahlungen erreicht werden.
x Eine für die Beschreibung von Lasern wichtige Größe ist die Impulsdauer.
Es gibt Laser, die kontinuierlich (Dauerstrich-Laser, englische Abkürzung
CW = continuous wave) Photonen emittieren und solche, die mit sehr kurzen
Impulsdauern (bis zu 180 fs) arbeiten.
Anwendung finden Laser bei verschiedenen Verfahren der Material-
bearbeitung, der Messtechnik, der Nachrichtenübertragung und der Medizin.
9.3.1.2.4 Ionisierende Strahlung
Zu den ionisierenden Strahlen zählen u.a. Röntgenstrahlung, die aus Atomkernen
radioaktiver Stoffe ausgesandten Strahlen und die Höhenstrahlung. Die ionisie-
rende Strahlung ist dadurch gekennzeichnet, dass sie genügend Energie besitzt,
um Atome und Moleküle zu ionisieren, d.h. Elektronen aus einem neutralen Atom
oder Molekül herauszulösen. Beim Durchgang durch Materie – z.B. durch eine
Zelle des menschlichen Körpers – gibt die ionisierende Strahlung Energie ab.
9.3.1.2.4.1 Röntgenstrahlung
Röntgenstrahlung entsteht durch hochenergetische Elektronenprozesse. Diese
Prozesse ermöglichen ein Spektrum der Röntgenstrahlung, welches unterhalb der
extremen UV-Strahlung bei einer Wellenlänge von 10 nm (weiche Röntgenstrah-
lung) beginnt und bis ungefähr 5 pm reicht (harte Röntgenstrahlung). Das in
Röntgenröhren technisch erzeugte Strahlungsspektrum entsteht durch eine Über-
lagerung eines kontinuierlichen Spektrums mit einem diskreten Spektrum. Die
Lage des Maximums hängt von der Betriebsspannung der Röhre ab. Röntgenpho-
tonen weisen eine Energie von etwa 1 keV bis 250 keV auf, bei einer Frequenz
von etwa 2,5·1017 Hz bis 6·1019 Hz. Im kurzwelligen Bereich findet sich in der
Literatur keine einheitliche Definition der Grenzwellenlänge. Allerdings sind einer
Reduzierung der Wellenlänge technische Grenzen gesetzt.
Röntgenstrahlung kann durch zwei verschiedene Vorgänge entstehen:
x Durch eine starke Beschleunigung geladener Teilchen, die zu einer Brems-
strahlung mit einem kontinuierlichen Spektrum führt, oder
x durch hochenergetische Übergänge in den Elektronenhüllen von Atomen
oder Molekülen. Dies ist die charakteristische Röntgenstrahlung. Sie weist
stets ein Linienspektrum auf.
Röntgenstrahlung kann Materie durchdringen. Sie wird dabei je nach Stoffart
unterschiedlich stark geschwächt. Die Schwächung der Röntgenstrahlen ist der
wichtigste Faktor bei der radiologischen Bilderzeugung. Die Intensität des Rönt-
genstrahls nimmt mit der im Material zurückgelegten Weglänge d exponentiell ab
(I = I0·e-kd), der Koeffizient k ist dabei materialabhängig und etwa proportional zu
Ordnungszahl und Wellenlänge.
Arbeitsumgebung 817
9.3.1.2.4.3 Höhenstrahlung
Unter dem Begriff kosmische Strahlung oder auch Höhenstrahlung werden hoch-
energetische Strahlungen zusammengefasst, die von Außen auf die Erde einwir-
ken. Dabei handelt es sich um Protonen (ca. 86%), Alpha-Teilchen (ca. 12,5%)
und andere Atomkerne (ca. 1,5%) mit Energien im Bereich von 108 bis über
1020 eV (Teilchenbeschleuniger erzeugen Energien im Bereich von 1012 eV). Das
Magnetfeld der Erde bietet einen Schutz vor dieser Strahlung. So werden durch
das Wirken der Lorentz-Kraft5 die Teilchen in Abhängigkeit von ihrem Energieni-
veau in Radien von einigen 100 m bis zu einigen Kilometern spiralförmig entlang
der Feldlinien bewegt. Bedingt durch diesen Effekt dringt die kosmische Strah-
lung nicht überall gleichstark in die Erdatmosphäre ein. So ist die Strahlen-
belastung im Bereich des Äquators am niedrigsten und an den Polen am höchsten6.
Abb. 9.22 zeigt den Verlauf der Dosisleistung in Abhängigkeit von der Höhe (BfS
2008b).
4 Die nachgestellten Ziffern in Cs-137, U-238 etc. bezeichnen die Anzahl der Protonen und Neutro-
nen, aus denen der Kern zusammengesetzt ist.
5 Die Lorentzkraft F [N] ist die Kraft, die auf bewegte Ladungen in elektromagnetischen Feldern
wirkt. Sie lenkt die Ladungsträger ab, ohne den Betrag ihrer Geschwindigkeit v zu ändern. Mathe-
matische Beschreibung: Fm Q Q u B
6 In Verkehrsflugzeugen, die in Höhen von 10 km bis 15 km fliegen, ist die Strahlenbelastung (7 bis
15 PSv/h) fast 500 mal höher als durchschnittlich auf Meereshöhe (0,3 mSv/h) (BfS 2008b).
818 Arbeitswissenschaft
unterscheidet drei Kategorien bzgl. des Zusammenhangs von Strahlung und der
Gesundheitsbeeinträchtigung des Menschen (SSK 2001):
x Wissenschaftlich nachgewiesen ist ein Zusammenhang zwischen einer
Gesundheitsbeeinträchtigung und elektromagnetischen Feldern, wenn wis-
senschaftliche Studien voneinander unabhängiger Forschungsgruppen diese
Beziehung reproduzierbar zeigen und das wissenschaftliche Gesamtbild das
Vorliegen eines kausalen Zusammenhangs stützt.
x Ein wissenschaftlich begründeter Verdacht auf einen Zusammenhang zwi-
schen einer Gesundheitsbeeinträchtigung und elektromagnetischen Feldern
liegt vor, wenn die Ergebnisse bestätigter wissenschaftlicher Untersuchungen
einen Zusammenhang zeigen, aber die Gesamtheit der wissenschaftlichen
Untersuchungen das Vorliegen eines kausalen Zusammenhangs nicht ausrei-
chend stützt. Das Ausmaß des wissenschaftlichen Verdachts richtet sich nach
der Anzahl und der Konsistenz der vorliegenden wissenschaftlichen Arbei-
ten.
x Wissenschaftliche Hinweise liegen vor, wenn einzelne Untersuchungen, die
auf einen Zusammenhang zwischen einer Gesundheitsbeeinträchtigung und
elektromagnetischen Feldern hinweisen, nicht durch voneinander unabhängi-
ge Untersuchungen bestätigt sind und durch das wissenschaftliche Gesamt-
bild nicht gestützt werden.
Es ist nachgewiesen worden, dass elektromagnetische Felder, die auf den Men-
schen einwirken, zu Kräften führen, die im menschlichen Körper eine Bewegung
von Ladungsträgern hervorrufen. Daraus resultieren Ströme, die bei hohen Fre-
quenzen zu einem Temperaturanstieg oder einer Veränderung der elektrischen
Spannung über einer Zellmembran führen. Diese physikalischen Effekte können
eine aktive biologische Reaktion des menschlichen Körpers hervorrufen, welche
die Voraussetzung für eine gesundheitliche Beeinträchtigung bildet. Die nächsten
Abschnitte bieten einen Überblick über die physikalischen und biologischen Ef-
fekte.
9.3.2.1 StörungenĆelektro-physiologischerĆVorgängeĆ
Elektrische und magnetische Wechselfelder erzeugen im menschlichen Körper
Ströme, die z.B. der nervlichen Informationsübertragung dienen. Die Ströme wer-
den durch zahlreiche Erregungs- und Fortleitungsvorgänge in Muskel- und Ner-
venzellen erzeugt und durch den Körper geleitet. Die mit dem Stromfluss einher-
gehenden Spannungen können an der Hautoberfläche durch Elektrokardiografie
(EKG), Elektro-Myographie (EMG) oder Elektroenzephalografie (EEG)
abgeleited werden (siehe Abb. 9.23a). Es ist dann abzuschätzen, ob die durch
elektromagnetische Felder erzeugten Ströme physiologische Vorgänge beeinflus-
sen (siehe Kap. 3.3.3.2.1). In Laborversuchen werden daher die maßgeblichen
Einflussfaktoren, die Frequenz und die induzierten Stromdichten (Strom I pro
Fläche F) [mA/m2] systematisch variiert und erfasst.
820 Arbeitswissenschaft
Abb. 9.23: (a) Frequenzspektrum und maximale Amplituden einiger Biosignale. (b) und (c)
Wirkungen durch von außen in den Körper eingeprägte Stromdichten in Abhängigkeit von
der Frequenz. (b) Reizwirkungen, (c) schädigende thermische Wirkungen (SILNY 1990)
Für eine Stromdichte unterhalb von 1 mA/m2 sind keine wissenschaftlich abge-
sicherten biologischen Wirkungen für den Menschen bekannt. Solche Stromdich-
ten können im Organismus durch elektrische Felder von mehr als etwa 2 kV/m
oder durch magnetische Wechselfelder von über 50 A/m erzeugt werden. Labor-
versuche mit Zellkulturen wie auch mit Nagetieren haben gezeigt, dass bei Strom-
dichten oberhalb von 1 mA/m² zellbiologische Effekte temporär auftreten können
(SSK 1991). Entsprechende Beobachtungen beziehen sich auf zumeist marginale
Veränderungen von Zellproliferation, Nukleinsäuresynthese, Membranfunktionen,
Ionenverteilungen oder Hormonspiegeln. Für den Gesamtorganismus liegen keine
Hinweise auf langfristige Wirkungen vor. Weitere Versuche mit Freiwilligen, die
zwischen drei Stunden und einer Woche elektrischen Feldern bis zu 20 kV/m
ausgesetzt wurden, erbrachten ebenfalls keine Hinweise auf statistisch gesicherte
Wirkungen (SSK 1991). Untersucht wurden dabei Reaktionszeiten auf akustische
und optische Reize, psychologische Faktoren, EEG, EKG, Blutdruck, Pulsfre-
quenz, Körpertemperatur, hämatologische Parameter, biochemische Eigenschaften
des Harns sowie Enzymfunktionen und Stoffwechselfaktoren. Im Vergleich zu
elektrischen Feldern dringen magnetische Felder hingegen ungehindert in Zellen
und Gewebe ein und induzieren dort elektrische Wirbelströme (SILNY 1990). Eine
Frequenzanalyse zeigt die größten Amplituden für den Menschen im Bereich
zwischen 10 und 1000 Hz. Um eine gegenseitige Erregung von benachbarten
Nerven- und Muskelfasern zu verhindern, sind diese durch Schichten mit geringer
Arbeitsumgebung 821
elektrischer Leitfähigkeit getrennt. Die „externe“ Anregung von Nerven und Mus-
keln durch einen von außen im Körper induzierten Strom erfolgt erst bei Über-
schreiten einer Grenzschwelle. Diese liegt ungefähr bei einer Stromdichte von
zirka 1 PA/cm2 und ist zudem frequenzabhängig (siehe Abb. 9.23b).
Im Inneren einer Zelle werden die Stromdichten durch die Zellmembran zu-
sätzlich stark gedämpft, so dass die Ströme um die Zelle geleitet werden. Bei
höheren Stromdichten und längerer Einwirkungsdauer sprechen die Schmerzre-
zeptoren in der Haut an. Stromdichten ab 10 PA/cm2 führen zu Muskelversteifun-
gen und -verkrampfungen. Wird die Stromdichte weiter erhöht, kommt es im
Bereich zwischen 80-100 PA/cm2 zu lebensbedrohendem Herzkammerflimmern,
Schockwirkungen und einer akuten Gefährdung des Gehirns. Bereits Stromdichten
bis zu 1 PA/cm2 können das Membranruhepotential beeinflussen und dadurch die
Erregbarkeit von Zellen verändern (LEITGEB 1990). Die genannten Reizwirkungen
auf die Nerven- und Muskelzellen entstehen durch eine gewisse Än-
derungsgeschwindigkeit des Felds sowie einer Mindesteinwirkzeit. Ihre Stärke ist
deshalb außer von der Reizstärke auch von der Frequenz der einwirkenden Felder
abhängig (siehe Abb. 9.23).
9.3.2.2 WärmeentwicklungĆ
Die Energie einer im Körper absorbierten Strahlung wird in Wärme umgesetzt.
Als Belastungsfaktor ist sie arbeitswissenschaftlich insbesondere für die elektro-
magnetische Strahlung relevant, da schädigende thermische Wirkungen von ioni-
sierender Strahlung erst bei letalen Dosen auftreten. Die Erwärmung biologischer
Materie durch Absorption elektromagnetischer Felder hat drei Ursachen:
(1) Ionische Leitung
Der Stromfluss im Körper ist mit der Bewegung von Ionen und ladungsbe-
hafteten Molekülen verbunden. Dabei auftretende Reibungsverluste der Io-
nen verursachen eine Erwärmung des Gewebes. Die Absorption nimmt mit
der Leitfähigkeit zu und ist bis zu Frequenzen von einigen MHz frequenzun-
abhängig.
(2) Orientierungspolarisation
Das menschliche Gewebe besteht teilweise aus permanenten Dipolen – große
Eiweißmoleküle mit positiven bzw. negativen Überschussladungen an den
Enden. Auf diese Moleküle wird durch das Feld ein Drehmoment ausgeübt,
und die Dipole richten sich parallel zum elektrischen Feld aus. Je höher die
Frequenz des Wechselfelds, umso unvollständiger wird die Ausrichtung; es
kommt zum Hin- und Herschwingen der Dipole. Durch die Drehschwingun-
gen wird Reibungsarbeit an benachbarten Molekülen geleistet, die zu einer
Wärmeabstrahlung führt. Für Radio- und Mikrowellen ist dies in organi-
schem Gewebe der wichtigste Vorgang (VpT 2008).
(3) Rotations- und Schwingungsspektren
Moleküle können durch Wechselwirkung ihrer elektrischen und magneti-
schen Dipolmomente mit dem elektromagnetischen Feld zu Rotationen und
822 Arbeitswissenschaft
9.3.2.3 WirkungenĆniederfrequenterĆStrahlungĆ
Während ein elektrisches Feld von jeder Leitung ausgeht, die an das Stromnetz
angeschlossen ist, entstehen magnetische Felder nur, wenn ein Strom fließt, d.h.
wenn elektrische Energie umgesetzt wird.
Elektrische Felder
Ist der Mensch einem elektrischen Wechselfeld ausgesetzt, so erfolgt eine dyna-
mische Ladungsverteilung im menschlichen Körper. Die Folgen sind eine mit der
Frequenz wechselnde Ausrichtung von Ladungsträgern an der Körperoberfläche
und elektrische Ströme innerhalb des Körpers (SSK 1991). Der menschliche Körper
hat gegenüber Luft eine um den Faktor 1012 größere Leitfähigkeit und bildet daher
einen annähernd idealen Leiter (NELLES u. TUTTAS 1998). Den stärksten elektri-
schen 50 Hz-Feldern ist der Mensch unter Hochspannungsleitungen mit bis zu
10 kV/m ausgesetzt. Die 26. BImSchV schreibt für ortsfeste Stromversorgungsan-
lagen im niederfrequenten Bereich einen Grenzwert von 5 kV/m vor (BfS 2008a).
In der Regel liegen die unter einer Hochspannungsleitung auftretenden elektri-
schen Felder in Deutschland bei 3-8 kV/m und die magnetischen Felder bei eini-
gen ȝTesla (IaU 2008). Im homogenen Feld ist die Feldstärke zunächst überall
gleich. Nach Betreten des Felds bewirkt die Leitfähigkeit des Körpers eine Feld-
verzerrung. Das bewirkt eine Feldstärkeerhöhung am Kopf um das 15- bis
20fache. Im inhomogenen Feld nimmt die Feldstärke mit zunehmender Entfer-
nung von der Quelle rasch ab, so dass es auch im menschlichen Körper zu einer
starken Verringerung des elektrischen Felds kommt. Beim Vergleich von inhomo-
genen und homogenen Feldern im Hinblick auf ihre biologischen Wirkungen sind
daher die Unterschiede entsprechend zu berücksichtigen.
Bei hinreichend hohen Feldstärken führen Oberflächenladungen zu wahrnehm-
baren Oberflächeneffekten wie Bewegung von Körperhaaren oder Bildung von
Funken zwischen Haut und Kleidung. Die Schwellenwerte der Wahrnehmung
können interindividuell verschieden sein. So haben bei einer Feldstärke von
1 kV/m 1 bis 3% der Versuchspersonen infolge von Vibrationen der Körperhaare
das elektrische Feld wahrgenommen. Bei einer Zufuhr von 10 kV/m erhöhte sich
der Wert auf etwa 20 bis 55% der Versuchspersonen (SSK 1991). Die Wahrneh-
mung elektrischer Felder durch Bewegung von Körperhaaren, Funkenentladungen
und Spüren von Entladeströmen sowie von Magnetfeldern durch visuelle Flim-
mererscheinungen wird gelegentlich als Belästigung und Beeinträchtigung des
Wohlbefindens empfunden.
Die von elektrischen Haushaltsgeräten ausgehenden elektrischen Feldstärken
sind für Oberflächeneffekte viel zu schwach. Das Bundesamt für Strahlenschutz
hat Feldstärken, wie sie bei der Nutzung von Haushaltsgeräten in 30 cm Entfer-
nung von der Quelle auftreten, gemessen und für den Anwender zusammengestellt
(BfS 1995). Tabelle 9.5 zeigt, dass praktisch alle Haushaltsgeräte in einer Entfer-
nung von 30 cm den Grenzwert nach BImSchV für 50 Hz-Felder deutlich unter-
schreiten.
824 Arbeitswissenschaft
Der kapazitive Strom des Wechselfelds tritt i.Allg. über den oberen Körper-
bereich ein und fließt durch die niederohmigen Blutbahnen und Körperflüssigkei-
ten zur Erde ab. Bedingt durch den Fluss der Körperströme entstehen an Körper-
stellen mit einem sehr geringen Querschnitt, wie bspw. im Bereich der Fußknö-
chel, Stromdichten mit einem Wert von bis zu 40 n$/cm2. Diese sind um den
Faktor 10 kleiner als die natürlichen, elektrophysiologischen Stromdichten. Daher
ist von ihnen keine Wirkung hinsichtlich der gesundheitlichen Beeinträchtigung
zu erwarten.
Die gut gesicherten Erkenntnisse bei der Durchströmung des Körpers durch Be-
rührung spannungsführender Teile können zur Abschätzung der Wirkungen nie-
derfrequenter elektrischer Felder herangezogen werden. Hierzu sind die Ströme in
Stromdichten und diese weiter in die äußeren Feldstärken umzurechnen. Abb. 9.24
zeigt eine Übersicht.
Indirekte Wirkungen des elektrischen Felds auf den Menschen sind die Störung
lebenswichtiger Geräte wie Herzschrittmacher oder Geräte zur Überwachung von
Intensivpatienten zu nennen.
Magnetische Felder
Die auf den Menschen wirkenden magnetischen Felder haben im Vergleich zu den
elektrischen Felder keine „natürliche“ Obergrenze und durchdringen den Körper
wie alle nichtpermeablen Stoffe nahezu ungedämpft. Magnetische Wechselfelder
induzieren deshalb auch in hochohmig isolierten intrazellulären Räumen elek-
trische Wirbelströme. Bei einem den ganzen Körper durchsetzenden Feld sind die
Stromdichten im Rumpf wegen der größeren Querschnitte geringer als in anderen
Körperteilen. Die Wirkungen und Schwellenwerte der Wirbelströme entsprechen
denen in Abb. 9.24.
Arbeitsumgebung 825
Da die Ströme nicht, wie im Falle elektrischer Felder, die hochohmige Haut
durchfließen müssen, sprechen die Schmerzrezeptoren der Haut nicht an. Abb.
9.25 zeigt die maximalen Feldstärken in der Umgebung unterschiedlicher Quellen
und die möglichen Wirkungen. Die zur Reizung von Nerven und Muskeln erfor-
derliche Stromdichte wird erst bei magnetischen Feldstärken von etwa 0,5 T er-
reicht. Bereits den ganzen Kopf durchsetzende Felder von über 60 mT führen nach
einer mehr als 15-minütigen Exposition zu Kopfschmerzen und Unwohlsein. Die
genauen Wirkmechanismen sind bisher nicht bekannt. Im Frequenzbereich von
etwa 10 - 100 Hz kommt es ab einer magnetischen Induktion von etwa 2 mT (bei
15 bis 20 Hz) zu sog. Magnetophosphenen. Dies sind scheinbare Seheindrücke,
die als Flimmern und Leuchterscheinungen wahrgenommen werden, und durch
Reizung der Rezeptoren der Netzhaut verursacht werden.
826 Arbeitswissenschaft
Elektromagnetische Felder
Wirkungen bei der Exposition durch niederfrequente elektromagnetische Felder
können auf bekannte physikalische und physiologische Zusammenhänge zurück-
geführt werden. Ob daneben weitere Wirkungsmechanismen existieren, die zu
qualitativ anderen Reaktionen und gesundheitlichen Beeinflussungen führen, ist
Gegenstand der laufenden wissenschaftlichen Diskussion.
Für die Identifizierung von Risiken für den Menschen sind epidemiologische
Studien von besonderer Bedeutung. Epidemiologische Studien7 zeigen, ob eine
statistische Korrelation zwischen dem Auftreten einer Krankheit und bspw. einer
bestimmten Exposition eines elektromagnetischen Felds besteht. Ein kausaler
Zusammenhang wird durch die Auswertung epidemiologischer Daten allein nicht
begründet. Daher ist die Interpretation der epidemiologischen Daten durch ent-
sprechende Laborexperimente zu unterstützen.
Die erste epidemiologische Studie, deren Ergebnisse auf einen möglichen Zu-
sammenhang zwischen der Nähe von Stromleitungen und der Entstehung kindli-
cher Leukämie schließen ließ, wurde von WERTHEIMER u. LEEPER (1979) veröf-
fentlicht. Seitdem wurde eine Vielzahl von epidemiologischen Studien durchge-
führt, um die Vermutung zu prüfen, ob eine lang anhaltende Exposition mit
schwachen Magnetfeldern die Krebserkrankung fördert. Dabei wurden insbeson-
dere die Zusammenhänge zwischen elektromagnetischen Feldern und Leukämie,
Gehirntumoren sowie Brustkrebs untersucht. Die Vermutung, dass niederfrequen-
te Magnetfelder das Wachstum von Hirntumoren fördern, konnte an einem Tier-
modell nicht bestätigt werden (MANDEVILLE et al. 1997). Weitere neuere Studien
wurden anhand von Tiermodellen für Lymphome bei Intensitäten von
1 P – 1000 PT durchgeführt, ohne einen entsprechenden Zusammenhang zeigen
zu können (MCCORMICK et al. 1998; HARRIS et al. 1998). Zudem konnten SASSER
7 Die Epidemiologie ist jene wissenschaftliche Disziplin, die sich mit den Ursachen und Folgen
sowie der Verbreitung von gesundheitsbezogenen Zuständen und Ereignissen in Populationen be-
schäftigt.
828 Arbeitswissenschaft
9.3.2.4 HochfrequenteĆStrahlungĆĆĆĆĆ
Nachfolgend werden die wissenschaftlichen Erkenntnisse unter dem Gesichts-
punkt der gesundheitlichen Beeinträchtigungen durch hochfrequente Strahlung
betrachtet. Die Darstellung der Auswirkungen konzentriert sich aus diesem Grund
auf Frequenzen, die technisch genutzt werden und zudem in der Gesellschaft in
einem größeren Umfang auftreten.
Die Energie hochfrequenter elektromagnetischer Strahlung wird vom menschli-
chen Körper absorbiert. Der Absorptionsgrad ist sowohl von der Strahlung (Fre-
quenz, Intensität) als auch von den Eigenschaften des absorbierenden Gewebes
abhängig. Hochfrequente Strahlung hat dabei sowohl eine thermische als auch
eine nicht-thermische Wirkung (siehe Kapitel 9.3.2.2).
Die absorbierte Leistung ist in elektrisch gut leitendem Gewebe wie Muskelge-
webe oder Körperflüssigkeiten höher als in der Haut, den Knochen oder dem Fett-
gewebe. Die Umsetzung der Energie hochfrequenter Strahlung in Wärme ist von
der Feldverteilung innerhalb des organischen Gewebes und damit von dessen
Eigenschaften abhängig. Insbesondere durch Reflexion und Brechung an Grenz-
flächen zwischen Geweben mit unterschiedlichen Dielektrizitätskonstanten kommt
es zu stehenden Wellen und damit zu einer stark schwankenden Dichte der absor-
bierten Leistung (sog. „hot spots“). Quantitativ kann die Intensität einer hochfre-
quenten Strahlung durch die sog. Eindringtiefe beschrieben werden. Die Eindring-
tiefe beschreibt definitionsgemäß den Abstand, bei dem die Intensität der Strah-
lung auf den Wert 1/e (entsprechend 37%) abgenommen hat (RÖÖSLI u. RAPP
2003). Mit zunehmender Frequenz reduziert sich die Eindringtiefe, so dass es ab
einer Frequenz von ca. 10 GHz zu einer vollständigen Absorption der Strahlung
an der Körperoberfläche kommt. Die Eindringtiefe der Strahlung in den menschli-
chen Körper beträgt bei einer Frequenz von 30 MHz etwa 12 cm und bei 1 GHz
ungefähr 4 cm (BUCHBERGER 1983).
Untersuchungen an zellulären Strukturen z.B. an Zellmembranen oder Flüssen
biologisch bedeutender Ionen, wie bspw. Kalzium, dienen zur Aufklärung von
Wirkmechanismen, besonders unter dem Aspekt von biologischen Reaktionen auf
Hochfrequenzfelder bei nichtthermisch wirkenden Intensitäten. Kalziumionen
kommen zur Anwendung bei intrazellulären Prozessen und bei der Weiterleitung
von Informationen in Form von Aktionspotentialen im neuronalen Gewebe. Be-
reits in den 1980er Jahren konnte eine Forschergruppe zeigen, dass es bei Auftre-
ten bestimmter hochfrequenter Felder zu einer Instabilität des Kalziumgleichge-
wichts kommt (UNEP 1993). Eine Überprüfung der Auswirkungen der technisch
verwendeten GSM-Pulsfrequenz von Mobilfunkgeräten auf den Kalziumionen-
transport an kultivierten Nervenzellen ergab keine feldbedingten Veränderungen
(MEYER et al. 1998). Untersuchungen im Bereich der Mobilfunkkommunikation
unterstützen daher nicht die Hypothese, dass es bei niedrigen Feldstärken zu Reak-
830 Arbeitswissenschaft
9.3.2.5 OptischeĆStrahlungĆ
Die kritischen Organe für die Einwirkung optischer Strahlung auf den Menschen
sind die Augen und die Haut. Die Strahlen dringen abhängig von der jeweiligen
Wellenlänge unterschiedlich tief in das Gewebe ein, ohne dass dies zu einer Schä-
digung der inneren Organe führen muss. Während kurzwellige UV-Strahlen und
langwellige IR-Strahlen bereits an der Oberfläche absorbiert werden, dringt Strah-
lung im sichtbaren und nahen infraroten Bereich tiefer in das Gewebe ein. Daraus
folgt, dass die Auswirkungen im Auge und in der Haut, die aus einer Bestrahlung
resultieren, von der absorbierten Wellenlänge abhängen. Zudem sind die Art und
die Schwere eines durch optische Strahlung hervorgerufenen Effekts von der In-
tensität der Strahlung und von ihrer Dosis abhängig. Es kann sowohl zu positiven
als auch zu negativen Wirkungen kommen (BGI 5006).
Die Haut ist aus mehreren Schichten aufgebaut, die eine unterschiedliche
Durchlässigkeit für Strahlen unterschiedlicher Wellenlängen aufweisen. Die Ober-
haut (Epidermis) besteht ihrerseits aus mehreren Schichten. Oberste und wider-
standsfähigste Schicht ist die Hornhaut, in der untersten Schicht der Oberhaut
befinden sich die Thermorezeptoren und die den Hautton bestimmenden Pig-
mente. Unter der Oberhaut liegt die für Elastizität und Reißfestigkeit verantwortli-
che Lederhaut (Dermis), die auch Haarwurzeln und Nerven enthält. Die Unterhaut
832 Arbeitswissenschaft
(Subcutis) stellt die Verbindung zu, aber auch Beweglichkeit gegenüber dem da-
runterliegenden Gewebe her.
Infrarotstrahlung mit Intensitäten ab 35 W/m2 ist durch den Menschen wahr-
nehmbar, ab etwa 500 W/m2 wird sie als „warm“ und ab ca. 1000 W/m2 als „heiß“
empfunden. Intensitäten ab etwa 1500 W/m2 führen bei über 10-minütiger Be-
strahlung zu Schmerzempfindungen. Danach kommt es zu „Sonnenbrand“ (Ery-
them) und anschließend zu Geschwüren und Verkohlung der Haut. Intensive Be-
strahlung erhöht das Hautkrebsrisiko. UV-Strahlungsquanten können zu einem
Sonnenbrand oder Verkohlung der Haut führen, weisen zudem aber genügend En-
ergie auf, um photobiologische Effekte hervorzurufen. Dies kann dazu führen,
dass Moleküle angeregt, chemische Reaktionen ausgelöst, in ihrem Verlauf verän-
dert oder gar chemische Bindungen aufgebrochen werden. In Verbindung mit
zahlreichen chemischen Substanzen verursacht UV-Strahlung phototoxische und
photoallergische Reaktionen, die zu Dermatosen führen (SCHREIBER u. OTT
1985). In Abhängigkeit von der akkumulierten UV-Strahlendosis steigt somit das
Risiko einer Hautkrebserkrankung.
Das menschliche Auge ist durch Infrarotstrahlung besonders gefährdet, da diese
nicht wahrnehmbar ist und somit die Schutzreflexe (Lidschluss, Abwenden) nicht
zum Tragen kommen. In Abhängigkeit von der Wellenlänge (siehe Abb. 9.26)
wird die Strahlung in der Hornhaut (Cornea) teilweise absorbiert. Bei infraroter
Strahlung findet die Absorption nicht statt, so dass bei Vordringen bis zur Netz-
haut eine Schädigung dieser auftreten kann. Langandauernde Einwirkung von
Wärmestrahlung kann dabei zu einer Trübung der Augenlinse (Katarakt, Grauer
Star) führen. Diese schreitet langsam voran und wird von einem Menschen oft-
mals erst nach einem längeren Zeitraum (10 - 15 Jahre) wahrgenommen. Diese
Eintrübung ist bei Arbeitern in der Eisen- und Glasindustrie als Berufskrankheit
Nr. 2401 anerkannt.
Anders als bei infraroter Strahlung gefährdet die UV-Strahlung wegen der ge-
ringen Eindringtiefe vor allem die Horn- und Bindehaut des Auges (siehe Abb.
9.26). Die Netzhaut ist durch die vorgelagerten Bereiche geschützt. Bei Schweiß-
arbeiten ohne Augenschutz kann es daher zu Entzündungen der Horn- und Binde-
haut (Photokeratitis bzw. Photokonjunktivitis) verbunden mit starken Kopf-
schmerzen kommen, dem sog. „Verblitzen“. Zu beachten ist, dass ein Verblitzen
nicht nur durch direkte, sondern auch durch reflektierte UV-Strahlung verursacht
werden kann (Gletscherskilauf).
Bei Laserstrahlung hängen die Wirkungen stark von den Bestrah-
lungsparametern ab. Bei kurzen Strahlungsimpulsen wird dem Gewebe rasch
Wärme zugeführt, die flüssigen Bestandteile in den Zellen können bei einer hohen
Energieintensität explosionsartig verdampfen und dabei das umliegende Gewebe
zerreißen. Durch Scherkräfte kann auch von dem Absorptionsbereich weiter ent-
ferntes Gewebe geschädigt werden. Durch die starke optische Bündelung von
Laserstrahlen, die zudem noch durch Hornhaut und die Augenlinse verstärkt wird,
besteht die Gefahr von Netzhautschädigungen. Das Einbrennen kleiner Löcher in
die Netzhaut wird meist nicht bemerkt, Häufungen führen jedoch zu Gesichts-
Arbeitsumgebung 833
feldausfällen. Besonders schwerwiegend ist die Verletzung der nur 1 mm2 großen
Fovea centralis. Zu Ausfällen ganzer Netzhautbereiche (Skotome) oder gar voll-
ständiger Erblindung führt die Verletzung des „blinden Fleckes“, dem Ort der
Einmündung des Sehnervs in die Netzhaut.
Abb. 9.26: Zusammenfassende Darstellung über das Eindringen von Strahlung ins Auge.
(a) Mikrowellen und Röntgenstrahlung, (b) fernes Ultraviolett und fernes Infrarot, (c) nahes
Ultraviolett, (d) sichtbares Licht und nahes Infrarot (aus EICHLER 1992)
9.3.2.6 IonisierendeĆStrahlungĆ
Energiereiche Strahlungsteilchen treten bei ihrer Absorption in Körpergewebe in
direkte Wechselwirkung mit den Hüllenelektronen und Kernen der Atome bzw.
Moleküle. Dabei kann es zu folgenden Primärreaktionen kommen:
x Direkte Ionisation: Die auftretende Strahlung schlägt Elektronen aus Atom-
hüllen und es entstehen positiv geladene Ionen. Die freien Elektronen lagern
sich, wenn sie eine geringe Energie aufweisen (z.B. bei Ionisierung durch
Teilchen- oder Röntgenstrahlung), an ein neutrales Atom oder Molekül an
und erzeugen negativ geladene Ionen. Bei der Bestrahlung mit Gamma-
Strahlung wird den Elektronen eine ausreichend große Energie zugeführt, die
zu weiteren Ionisationsvorgängen bei anderen Atomen und Molekülen füh-
ren kann.
x Indirekte Ionisation: Gammaquanten mit einer Energie über 1,2 MeV können
in Materie Elektron-Positron-Paare bilden, die ihrerseits ionisierend wirken.
Beim Auftreffen von Strahlungsteilchen auf Atomkerne entstehen energie-
reiche Alpha-, Beta-, Protonen- und Neutronen- sowie Röntgen- bzw. Gam-
ma-Strahlung. Diese Sekundärstrahlung wirkt ihrerseits auf die Materie ein.
834 Arbeitswissenschaft
Bei der Streuung von Elektronen in Materie entsteht zudem eine elektromag-
netische Bremsstrahlung.
x Anregung: Bei dem Vorgang der Anregung werden die Hüllenelektronen
nicht aus der Atomhülle entfernt, sondern in ein energetisch höheres Niveau
versetzt. Von diesem höheren Energieniveau können sie unter Aussendung
von Röntgenstrahlung in den Ausgangszustand zurückkehren (Fluoreszenz-
strahlung), oder es entstehen chemisch angeregte Atome, Moleküle und Mo-
lekülbruchstücke (freie Radikale).
Durch diese physikalischen Vorgänge werden Molekülverbände und größere
Strukturen im menschlichen Körper in ihrem Aufbau verändert oder in Bruchstü-
cke zerlegt, so dass ihre Funktionsfähigkeit gestört wird oder gänzlich verloren
geht.
Auf die physikalischen Primäreffekte folgt eine Fülle von chemischen Reaktio-
nen (siehe Abb. 9.27). Die freien Radikale und Molekülbruchstücke können neue
Verbindungen erzeugen, die gesundheitsschädlich sind und somit die physikali-
schen Primärschaden sekundär verstärken. Zu nennen ist hier bspw. die Bildung
von Wasserstoffperoxid aufgrund der Radiolyse des Zellwassers. Gefährlich sind
auch Mutationen der DNS-Moleküle, die zu Krebserkrankungen oder, falls Keim-
zellen betroffen sind, zur Schädigung des Erbguts und entsprechenden genetisch
bedingten Defekten der Folgegeneration führen können.
Die induzierten molekularen Strukturschäden können oft durch sehr wirkungs-
volle, körpereigene Reparaturmechanismen behoben werden. Ferner ist es dem
menschlichen Körper möglich, mutierte Zellen zu erkennen und mit Hilfe des
Immunsystems zu eliminieren. Unterschieden werden
x somatische Strahlenschäden und
x genetische Strahlenschäden.
Diese zwei Klassen von Strahlenschäden werden zudem hinsichtlich des Zeit-
raums ihrer Wirkung unterschieden. Frühschäden zeigen sich nur nach relativ
hohen Strahleneinwirkungen und äußern sich spätestens einige Wochen nach der
Strahleneinwirkung. Wirkungen hoher Strahlendosen sind zumeist deterministisch
(Strahlenkrankheit). Die Wirkung geringer Mengen ionisierender Strahlung ist
stochastisch: So kann mit einer sehr geringen Wahrscheinlichkeit schon ein ein-
zelnes Strahlungsquant eine Zellveränderung im menschlichen Körper bewirken,
die mit einer weiteren – wenn auch sehr geringen – Wahrscheinlichkeit nicht repa-
riert werden kann. Die Wahrscheinlichkeit einer solchen irreversiblen Verände-
rung steigt mit der Zahl der absorbierten Strahlungsquanten. Es lassen sich auf-
grund der von einer Person aufgenommenen Strahlungsdosis nur Wahrscheinlich-
keiten eines Erkrankungsrisikos berechnen. Zu den stochastischen Wirkungen sind
insbesondere Krebs und Leukämie zu zählen.
Statistisch gesichert ist dagegen eine Verzögerung zwischen Einwirkungs-
zeitpunkt und Ausbruch der Erkrankung in Abhängigkeit von der Dosis. Diese La-
tenzzeit kann sehr viel länger sein als die statistische Lebenserwartung einer der
Strahlung ausgesetzten Person. Aussagen über die Wahrscheinlichkeit einer Strah-
Arbeitsumgebung 835
lenschädigung beziehen sich auf Alters- oder Berufsgruppen, eine konkrete Aus-
sage über ein voraussichtliches Auftreten einer Krankheit für bestimmte Einzel-
personen ist aufgrund bestimmter Arbeitsbedingungen jedoch nicht möglich.
Phase der
Zeit Vorgang
Strahlenleistung
Unbeschädigter Organismus
10-16s
Absorption der Strahlenenergie Physikalische
bis
Phase
10-13s
Ionisierte und angeregte Moleküle im
bestrahlten Organismus
10-13s Physikalisch-
bis Herstellung des thermodynamischen Gleichgewichts chemische
10-11s intra- und intermolekulare Energiewanderung Phase
Biochem. Veränderung
Minuten
Biologische
bis Genetische Veränderung
Morphologische Veränderung Phase
Tage (Mutation)
Zelltod
Minuten Spätschäden (Blutveränderungen,
bis Lebenszeitverkürzung, Katarakt, Krebs, Tod des
Jahre Gefäßverengung, Sterilität) Organismus
Abb. 9.27: Zeitlicher Ablauf der biologischen Wirkung ionisierender Strahlung (aus SAU-
TER 1983, nach LEITGEB 1990).
Bei der Wirkung radioaktiver Strahlung muss zudem zwischen äußerer und in-
nerer Bestrahlung unterschieden werden. Äußere Bestrahlung ist die Einwirkung
von Strahlung auf den Menschen durch eine außerhalb des Körpers befindliche
Quelle. Eine innere Bestrahlung entsteht durch eingeatmete, über die Haut aufge-
nommene oder verschluckte Radionuklide. Die inkorporierten Elemente lagern
sich überwiegend in bestimmten Organen ab, z.B. Kalium-40 in der Muskulatur,
Jod-131 in der Schilddrüse, Radium-226 in den Knochen, Uran-238 in den Nieren
sowie Knochen und weitere radioaktive Elemente in Magen und Darm
836 Arbeitswissenschaft
(VOLKMER 2007). Die einzelnen Organe und Gewebe des Menschen sind unter-
schiedlich strahlenempfindlich – bei der Bewertung der Strahlung werden daher
spezifische Wichtungsfaktoren benutzt. Tabelle 9.9 gibt einen Überblick über die
durchschnittliche Belastung durch ionisierende Strahlung in Deutschland.
Tabelle 9.9: Bewertung der mittleren effektiven Dosis in der Bundesrepublik Deutschland
(VOGT u. SCHULTZ 2004)
9.3.3 Messung
Allgemeine Anforderungen zu Messverfahren finden sich in der DIN VDE 0848-1.
Danach müssen die Eigenschaften der Messeinrichtungen hinsichtlich des
Messwertaufnehmers, des Messprinzips und der Art der Messwertanzeige hinrei-
chend bekannt sein. Im Folgenden werden daher die Anforderungen an Messver-
fahren, Messwertaufnehmer und Messgeräte näher aufgeführt.
Arbeitsumgebung 837
9.3.3.1 NiederfrequenteĆStrahlungĆ
Definitionen der Feldgrößen sowie Mess- und Berechnungsverfahren zur Beurtei-
lung der Sicherheit in elektrischen, magnetischen und elektromagnetischen Fel-
dern enthält die Norm DIN VDE 0848 (DIN VDE 0848-1; DIN VDE 0848-3-1; DIN
VDE 0848-5).
Messverfahren
Für eine exakte Erfassung eines elektromagnetischen Felds muss dem Einfluss auf
den Messwert durch das tatsächlich vorhandene Frequenzspektrum (z.B. Modula-
tion, Harmonische, mehrere Frequenzen) Rechnung getragen werden
(DIN VDE 0848-1). Die mit der Messung betraute Person hat demnach zu entschei-
den, ob eine elektromagnetische Strahlung selektiv oder breitbandig gemessen
werden kann. Weiterhin ist basierend auf dem Ziel der Messung festzulegen, ob
Spitzen- oder Effektivwerte zu ermitteln sind. Zwei Verfahren sind zu unterschei-
den:
x Bei der Erfassung von Spitzenwerten und Effektivwerten bei mehreren Fre-
quenzen können diese direkt gemessen werden, wenn breitbandige und un-
abhängig von der Signalform messende Geräte verwendet werden und zudem
die zulässigen Grenzwerte im zu betrachtenden Frequenzbereich gleich sind
(DIN VDE 0848-1). Eine derartige Messung ist nur zulässig, wenn die Mess-
bandbreite und die Beobachtungszeit ausreichend groß gewählt wird, um die
Erfassung aller relevanten Frequenzen bzw. Spitzenwerte sicherzustellen.
x Sind die zulässigen Werte im zu betrachtenden Frequenzbereich heterogen,
so sind bewertende oder frequenzselektierende Messeinrichtungen zu nutzen
(DIN VDE 0848-1). Bei der Verwendung letzterer ist die Frequenzauflösung
so zu wählen, dass die Bewertung bzgl. der zulässigen Werte ermöglicht
wird.
Bei der Analyse eines elektromagnetischen Felds ist zu beachten, dass oftmals
kein mathematisch einfach zu beschreibender Zusammenhang zwischen der elekt-
rischen und der magnetischen Komponente besteht. Umrechnungen von der einen
auf die andere Größe durch die Formel E = Z0 · H sind in einem solchen Fall nicht
zulässig. Elektrische und magnetische Feldstärken sind separat zu messen.
Für inhomogene niederfrequente elektrische Felder, wie sie in der betrieblichen
Praxis oftmals anzutreffen sind, wird als Messgröße der Gesamtkörperableitstrom
verwendet, der auftritt, wenn eine Körpernachbildung oder eine Versuchsperson
sich in dem zu messenden Feld befindet. Die Messung sollte dabei unter realen,
d.h. betrieblichen Bedingungen mit wechselnden Parametern erfolgen, um die
Erkenntnisse auf das zu untersuchende Arbeitssystem übertragen zu können. Der
für den Körperableitstrom erfasste Wert wird anschließend mit einem Proportiona-
litätsfaktor multipliziert, der sich aus der Messung des Gesamtkörperableitstroms
in einem bekannten homogenen Feld ergibt (DIN VDE 0848-1). Das exakte Mess-
verfahren für niederfrequente elektromagnetische Strahlung, für Frequenzen bis zu
100 Hz kann der DIN VDE 0848-1 entnommen werden.
838 Arbeitswissenschaft
Messwertaufnehmer
Wird die Identifizierung von Feldinhomogenitäten gefordert, so müssen die Ab-
messungen des Messwertaufnehmers klein gegenüber den entsprechend dem
Schutzkonzept betrachteten räumlichen Ausdehnungen sein. Eine Feldinhomoge-
nität ist daran zu erkennen, dass sich die Anzeige bei räumlicher Verschiebung des
Messwertaufnehmers im relevanten Untersuchungsraum nennenswert ändert.
Messwertaufnehmer zur Bestimmung einer Komponente der magnetischen
Feldstärke in einer Raumrichtung arbeiten üblicherweise nach dem Indukti-
onsprinzip (Induktionsspule, Rahmenantenne).
Arbeitsumgebung 839
9.3.3.2 HochfrequenteĆStrahlungĆ
Das Vorgehen bei der Messung der elektrischen und magnetischen Feldstärke
erfolgt bei hochfrequenter Strahlung im Wesentlichen analog zur Erfassung nie-
derfrequenter Strahlung. Besonders zu beachten ist, dass die Länge der Antenne
kurz gegenüber der zu erfassenden Wellenlänge ist (DIN VDE 0848-1).
Zur Messung von Mikrowellen existieren spezielle Messgeräte, die für eine ge-
fahrlose Messung meist über einen von der Anzeige getrennten Tastkopf verfügen.
Die meisten Geräte besitzen einen Tastkopf aus zwei aufeinander senkrecht ste-
henden Dipolen, zwischen denen Thermoelemente, Dioden oder Thermistoren
geschaltet sind. Bei Anliegen eines hochfrequenten Felds entsteht zwischen den
Dipolen proportional zur Strahlungsdichte eine Gleichspannung oder eine ther-
misch erzeugte Widerstandsänderung (GROLL 1989).
Ist nicht die Erfassung der Charakteristik des elektromagnetischen Feldes das
Ziel, sondern die Beurteilung des direkten Einflusses von hochfrequenten elekt-
romagnetischen Feldern auf das menschliche Gehirn, so kann dies durch die Er-
fassung der elektrischen Hirnaktivitäten erfolgen. Zu beachten ist, dass nur akute
neuronale Reaktionen vom Messwertaufnehmer erfasst werden können. Dies führt
dazu, dass die erfassten Reaktionen keine detaillierte Aussage zu gesundheitlichen
Beeinträchtigungen ermöglichen. So weist bspw. die Aufnahme des Ruhe-EEG –
die überwachte Person befindet sich in einem wachen Zustand und hat die Augen
geschlossen – zu verschiedenen Zeitpunkten bereits eine hohe Variabilität auf
(SSK 2001).
9.3.3.3 OptischeĆStrahlungĆ
Die Messung von optischer Strahlung erfolgt entsprechend den Normen der Inter-
national Electrotechnical Commission (IEC), der International Commission Illu-
mination (CIE), der European Committee for Standardisation (CEN) oder, falls
keine Normen vorliegen, entsprechend den nationalen oder internationalen Leitli-
nien. Die folgenden Berechnungsvorschriften für die Bestimmung der Expositi-
onsgrenzwerte basieren auf Größen, die durch entsprechende Messverfahren und
-geräte zu ermitteln sind (BGI 5006).
Die effektive Bestrahlungsstärke Eeff ergibt sich im Wellenlängenbereich von Ȝ1
bis Ȝ2 aus den spektralen Bestrahlungsstärken EȜ(Ȝ) und den relativen spektralen
Wirksamkeiten S(Ȝ) (BGI 5006) durch:
O2
Eeff ³ EO ( O ) S ( O ) d O
O1
(9.30)
Die effektive Bestrahlung Heff ergibt sich aus der effektiven Bestrahlungsstärke
Eeff und der Einwirkungsdauer T zu:
H eff ³E
T
eff dt (9.31)
840 Arbeitswissenschaft
LR ³
O1 380 nm
LO (O ) R (O ) d O (9.32)
9.3.3.4 IonisierendeĆStrahlungĆ
Wesentliche Aufgaben des Strahlenschutzes sind die Durchführung präventiver
Maßnahmen, die Kontrolle von Routinetätigkeiten und das schnelle Eingreifen bei
Stör- und Unfällen im Zusammenhang mit natürlich vorkommender und künstlich
erzeugter ionisierender Strahlung. Zu diesem Zweck wurden eine Vielzahl unter-
schiedlicher Nachweis- und Messverfahren entwickelt. Tabelle 9.10 gibt einen
Überblick über die Maßeinheiten, die zur Beschreibung von ionisierender Strah-
lung verwendet werden. Neben physikalischen Einheiten enthält die Tabelle auch
Größen, die das Schädigungspotential der einzelnen Strahlungsarten berücksichti-
gen (Äquivalentdosis, effektive Äquivalentdosis) sowie zusätzlich die Gefährdung
verschiedener Personengruppen beschreiben (genetisch signifikante Dosis). Die
Messwerte zur Charakterisierung eines Strahlenfelds können für eine räumliche
Umgebung durch ein Isodosenfeld dargestellt werden. Eine sog. Isodose bzw.
Isodosenlinie beschreibt dabei die Raumpunkte, die eine gleiche Dosierung auf-
weisen.
Arbeitsumgebung 841
gene Aktivität AF von Arbeitsflächen, Kleidung und Haut oder die volumen-
bezogene Aktivität AV von radioaktivem Abwasser oder radioaktiver Abluft
zu messen.
x Inkorporationskontrolle beschreibt die Ermittlung von inkorporierten Aktivi-
täten. Problematisch bei der Durchführung einer Inkorporationskontrolle ist
die Bestimmung der Organ- und Personendosen resultierend aus den durch-
geführten Aktivitäten und die dadurch bedingte Verteilung im Organismus.
Für den Nachweis von Strahlung bzw. zur Ermittlung der Dosis verschiedener
Strahlenarten und -energien kommen unterschiedliche Strahlendetektoren zum
Einsatz. Je nach Strahlenart, Art des Radionuklids und Ziel der Messung sind
diese Detektoren für unterschiedliche Messverfahren geeignet. Die Dosis wird
dabei durch die physikalische Wirkung der Strahlung mit einer entsprechend aus-
gewählten Materie erfasst. Diese Wirkungen sind im Wesentlichen optische Effek-
te (Absorption und Lumineszenz), elektrische Effekte (Leitfähigkeitsänderungen
im umgebenden Medium durch Ionisation) sowie thermische Effekte (Erwär-
mung). Das Medium, in dem die ionisierende Strahlung den Effekt erzeugt, der
zum Nachweis (qualitativ oder quantitativ) dient, wird als Detektor bezeichnet.
Detektoren können gasförmige, flüssige oder feste Medien sein, je nach Mess-
problem große oder kleine Volumina aufweisen bzw. auch aus Filmen oder dün-
nen Schichten bestehen.
Zur Messung ionisierender Strahlung werden drei Typen von Dosimetern un-
terschieden:
x Optisches Dosimeter: Häufig angewandte optische Effekte, durch die ionisie-
rende Strahlung nachgewiesen werden kann, sind Filmschwärzung, Lumi-
neszenz und Kernspurbildung. Die Schwärzung lichtempfindlicher Film-
emulsionen durch ionisierende Strahlung ist eine der ältesten Nachweisver-
fahren. Besonders bei der Personendosimetrie im Strahlenschutz, in der me-
dizinischen Röntgendiagnostik und in der technischen Radiographie kommen
solche Filme zum Einsatz. Geeignete Filme können aber nur als Dosimeter
dienen, wenn es einen linearen Bereich gibt, indem der Schwärzungsgrad mit
der Dosis zunimmt. Eines der bekanntesten optischen Dosimeter ist das Gei-
ger-Müller-Zählrohr.
x Festkörperanregungs-/Festkörperionisations-Dosimeter: Zu den Festkörper-
detektoren zählen Szintillationszähler (aufgebaut aus homogenen Kristallen),
die auf dem Prinzip der Festkörperanregung basieren. Bei Wechselwirkung
zwischen den sog. Szintillatorkristallen und der ionisierenden Strahlung
kommt es zu einer Anregung bestimmter Energiezustände in den Kristallen.
Dabei entstehen im strahlungsempfindlichen Bereich des Detektors Licht-
blitze – Szintillationen – die der absorbierten Energie direkt proportional
sind. Ein weiterer Typus der Festkörperionisations-Dosimeter sind verschie-
dene Ausführungen von Halbleiterdetektoren (aufgebaut aus Halbleitermate-
rialien), in denen bei Strahlungseintritt Festkörperionisationen stattfinden.
D.h. bei Strahlungseinfall kommt es durch die absorbierte Energie zu einer
Arbeitsumgebung 843
9.3.4.1 NiederfrequenteĆStrahlungĆ
Die Beurteilung von Gesundheitsbeeinträchtigungen oder Gefährdungen durch die
Exposition mit elektromagnetischen Feldern ist Gegenstand intensiver wissen-
schaftlicher Diskussionen. Da diese Fragestellung sehr komplex ist und das Wis-
sen aus vielen verschiedenen Domänen wie Ingenieurwissenschaften, Medizin,
Physik, Biologie, Epidemiologie, Psychologie und Statistik benötigt wird, wurden
übergeordnete Fachgremien von staatlicher Seite damit beauftragt. Zu diesen
Gremien gehören bspw. die deutsche Strahlenschutzkommission (SSK), der nie-
derländische Gezondheidsraad, die britische Independent Expert Group on Mobil
Phones und die kanadische Royal Society of Canada. Ein Reihe von staatlichen
Institutionen beschäftigen sich ebenfalls mit dieser Fragestellung. Dieses sind u.a.
das deutsche Bundesamt für Strahlenschutz (BfS), die deutsche Bundesanstalt für
Arbeitsschutz und Arbeitsmedizin (BAuA), die amerikanische Environmental
Protection Agency (EPA), das britische National Radiological Protection Board
(NRPB) und das schweizerische Bundesamt für Umwelt, Wald und Landschaft.
Zudem verfügt die Weltgesundheitsorganisation (WHO) über eine Arbeitsgruppe,
die sich mit der Fragestellung der Beurteilung und des Schutzes vor elektromagne-
tischer Strahlung beschäftigt. Ergänzend zu den Arbeiten der nationalen Institutio-
nen wurde für die Untersuchung und Beurteilung der Wirkungen elektro-
magnetischer Strahlung von der renommierten internationalen Strahlenschutz-
organisation (IRPA) eine spezielle Kommission gegründet: die International
Commission on Non-Ionizing Radiation Protection (ICNIRP).
Die Festlegung neuer bzw. die Modifikation vorhandener Grenzwerte durch die
internationalen und nationalen Gremien erfolgt dann, wenn neue Erkenntnisse als
gesichert angesehen werden. Wird eine biologisch relevante Wirkung einer Strah-
lenexposition, die mit einer potentiellen Schädigung, Beeinflussung oder Beein-
trächtigung beim Menschen verbunden ist, festgestellt, so werden die jeweiligen
Grenzwertvorschläge unter Berücksichtigung von Sicherheitsabständen, unterhalb
der letzten als relevant angesehenen Wirkung festgelegt. Dieser Abstand ist so
gewählt, dass er bei allen Frequenzen mindestens den Faktor 10 für beruflich
Beschäftigte und mindestens den Faktor 50 für die Allgemeinbevölkerung beträgt
844 Arbeitswissenschaft
(BMVIT 2006). Auf der Grundlage der zur Bewertung herangezogenen Effekte und
Wirkungen wurden für die einzelnen Frequenzbereiche unterschiedliche biolo-
gisch relevante Größen, sog. Basiswerte (BGV B11) (elektrische Stromdichte
[A/m²], spezifische Absorption SA [J/kg], spezifische Absorptionsrate SAR
[W/kg] und Leistungsflussdichte S [W/m²]) festgelegt, die ein Maß für die jewei-
ligen direkten Wirkungen auf den Organismus darstellen. Ein Beispiel dafür sind
bspw. die Werte der ICNIRP für niederfrequente und hochfrequente elektromag-
netische Strahlung (siehe Tabelle 9.11).
Tabelle 9.11: Basisgrenzwerte für zeitlich veränderliche elektrische und magnetische Fel-
der bei Frequenzen bis zu 10 GHz (SSK 1999)
A rt d er Exp os itio n Frequ en zbereich Stro md ich te für Ko p f Du rch s ch n ittlich er Lo kale SA R Lokale SA R
u nd Ru mp f Gan zkö rp er-SA R (Ko pf u n d Ru mp f) (Glied maß en)
-2 -1 -1 -1
(mA m ) (W kg ) (W kg ) (W kg )
(Effektivwerte)
Beru fliche bis 1 Hz 40
Exp o s ition 1-4 Hz 40/f
4 Hz-1 kHz 10
1-100 kHz f/100
100 kHz-10M Hz f/100 0,4 10 20
10M Hz-10GHz ---- 0,4 10 20
Exp o s ition d er bis 1 Hz 8
Bevö lkerun g 1-4 Hz 8/f
4 Hz-1 kHz 2
1-100 kHz f/500
100 kHz-10M Hz f/500 0,08 2 4
10M Hz-10GHz ---- 0,08 2 4
Tabelle 9.12: Referenzwerte für die berufliche Exposition durch zeitlich veränderliche
elektrische und magnetische Felder (ungestörte Effektivwerte) (SSK 1999)
Frequenzbereich Elektrische Feldstärke Magnetische B-Feld Äquivalente
(Vm )
-1 Feldstärke ( T) Leistungsdichte bei
(Am-1) ebenen Wellen
-2
S eq (Wm )
5 5
bis 1 Hz 1,63 x 10 2 x 10
5 2 5 2
1-8 Hz 20000 1,63 x 10 /f 2 x 10 /f
4
8-25 Hz 20000 2 x 104/f 2,5 x 10 /f
0,025-0,82 kHz 500/f 20/f 25/f
0,82-65 kHz 610 24,4 30,7
0,065-1 MHz 610 1,6/f 2,0/f
1-10 MHz 610/f 1,6/f 2,0/f
10-400 MHz 61 0,16 0,2 10
1/2 1/2 1/2
400-2000 MHz 3f 0,008f 0,01f f/40
2-300 GHz 137 0,36 0,45 50
Tabelle 9.13: Grenzwerte der 26. BImSchV für den niederfrequenten Bereich
Als zulässige Werte werden Basiswerte und abgeleitete Werte für die verschie-
denen Expositionsbereiche angegeben.
x Der Expositionsbereich 1 umfasst kontrollierte Bereiche sowie Bereiche, in
denen aufgrund der Betriebsweise oder aufgrund der Aufenthaltsdauer si-
chergestellt ist, dass eine Exposition oberhalb der zulässigen Werte von
Expositionsbereich 2 nur vorübergehend erfolgt (siehe Abb. 9.28 und Abb.
9.29).
x Der Expositionsbereich 2 umfasst die Bereiche des Unternehmens, die nicht
dem Expositionsbereich 1, den Bereichen erhöhter Exposition oder dem Ge-
fahrbereich zuzuordnen sind. Zu diesem Bereich gehören bspw. Arbeitsstät-
ten auf dem Betriebsgelände ohne spezielle Zugangsregelungen, in denen
Mitarbeiter sich zur Durchführung ihrer Tätigkeit regelmäßig aufhalten.
x Bei den Bereichen erhöhter Exposition handelt es sich um kontrollierte Be-
reiche, in denen die Werte des Expositionsbereichs 1 überschritten werden
und daher nur ein zeitlich begrenzter Aufenthalt befugter Personen gestattet
ist.
Die abgeleiteten Werte für niederfrequente, wie auch hochfrequente elektro-
magnetische Felder (siehe Tabelle 9.12) sind dabei grundsätzlich einzuhalten
(BGV B11). Eine Ausnahme besteht dann, wenn nachgewiesen ist, dass eine Ver-
letzung dieser Grenzwerte nicht zu einem Überschreiten der Basiswerte in
846 Arbeitswissenschaft
Tabelle 9.11 führt. Die zulässigen Werte der elektrischen Feldstärke und der mag-
netischen Feldstärke für eine Ganzkörperexposition (aus den Basisgrößen abgelei-
tete Werte) sind Abb. 9.28 und Abb. 9.29 zu entnehmen. Diese gelten ausschließ-
lich für sinusförmige Signale einer definierten Frequenz. Für gepulste elektromag-
netische Felder finden sich in der BGV B11 entsprechende Grenzwerte, auf die
aber an dieser Stelle nicht weiter eingegangen werden soll.
Abb. 9.28: Zulässige Werte der elektrischen Feldstärke in den Expositionsbereichen 1 und
2 sowie im Bereich erhöhter Exposition (BGR B11)
9.3.4.2 HochfrequenteĆStrahlungĆ
In der Bundesrepublik ist der Schutz der Bevölkerung vor hochfrequenten elekt-
romagnetischen Feldern in der 26. Verordnung nach dem Bundesimmissions-
schutzgesetz (26. BImSchV) geregelt. Die Festlegungen der Grenzwerte entspre-
chen den Empfehlungen der IRPA/INIRC von 1988.
Tabelle 9.14: Immissionsgrenzwerte für Hochfrequenzanlagen der 26. BImSchV. Die
festgelegten Grenzwerte gelten im Hochfrequenzbereich für ortsfeste Sendeanlagen und
sind gemittelt über Intervalle von 6 Minuten.
Die im Jahr 1999 vom Rat der Europäischen Union verabschiedeten Empfeh-
lungen zum Schutz der Bevölkerung vor elektromagnetischen Feldern
(1999/519/EG) stimmen hinsichtlich des abgedeckten Bereichs und der Grenz-
werte mit der 26. BImSchV überein (siehe Tabelle 9.14). Im Bereich des Mobil-
funks sind die geltenden Grenzwerte frequenzabhängig. Für die verschiedenen
Mobilfunknetze ergeben sich die in Tabelle 9.15 angegeben Grenzwerte.
Tabelle 9.15: Grenzwerte der 26. BImSchV für die Mobilfunknetze
9.3.4.3 OptischeĆStrahlungĆ
Grenzwerte für optische Strahlung sind in den berufsgenossenschaftlichen Infor-
mationen für Sicherheit und Gesundheit bei der Arbeit sowie in weiteren deut-
schen und europäischen Normen festgelegt (BGI 5006). Zu nennen sind insbeson-
dere DIN EN 60825-1, DIN EN 12254 und DIN EN 207.
Darin enthaltene Vorschriften über Expositionsgrenzwerte künstlicher optischer
Strahlung bilden einen Teilbereich ab, auf den im Folgenden aufgrund der arbeits-
wissenschaftlichen Relevanz eingegangen wird.
Bei Anwendung der Expositionsgrenzwerte für künstliche optische Strahlung
nach BGI 5006 ist zu unterscheiden, ob eine Einwirkung auf Augen oder Haut
vorliegt. Zudem ist zu bewerten, ob es zu einer dauerhaften Einwirkung der opti-
schen Strahlung (wiederkehrend über das Jahr) kommt. Für künstliche optische
Strahlung ergeben sich nach BGI 5006 folgende Tagesexpositionsgrenzwerte:
x Wellenlängenbereich 100 - 180 nm: Die Berechnung der effektiven Bestrah-
lungsstärke Heff für diesen Wellenlängenbereich basiert auf der Gleichung
(9.31) und dem Wert 0,0120 für S(O).
x Wellenlängenbereich 180 - 400 nm: Der Tagesexpositionsgrenzwert für
Einwirkungen auf die Haut beträgt bei einmaliger oder wiederholter Bestrah-
lung während einer Arbeitszeit von 8 Stunden Heff(GW) = 30 Jm-2. Die Jahres-
expositionsgrenzwerte zur Begrenzung des Risikos von langfristigen Schädi-
gungen der Haut, wie bspw. Hautalterung oder Hautkrebs, und der Augen
beträgt: Heff(JGW)= 4000 Jm-2.
x Wellenlängenbereich 380 - 1400 nm: Als Expositionsgrenzwerte zum Schutz
vor der thermischen Netzhautgefährdung wird die effektive Strahldichte ei-
ner Quelle nach Gleichung (9.31) bestimmt. Der wellenlängenspezifische
Wert für R(O) kann der BGI 5006 entnommen werden. Der Expositions-
grenzwert der effektiven Strahldichte LR(GW) beträgt für die Einwirkungsdau-
er t:
2,8 104
t > 10 s o LR (GW ) W m2 sr 1
CD
Arbeitsumgebung 849
5 104
18 Ps < t 10 s o LR (GW ) W m2 sr 1
CD t 0,25
41, 2
t < 18 Ps o LR ( GW ) W m 2 sr 1
CD t 0,9
Bei dem Wert für CD handelt es sich um den Korrekturfaktor in rad. Der Kor-
rekturfaktor berücksichtigt, dass es im Wellenlängenbereich zwischen
380 nm und 1400 nm zu einer Fokussierung der Strahlung auf der Netzhaut
kommen kann. Die zulässige Bestrahlungsstärke hängt somit von der Größe
des erzeugten Netzhautbilds ab.
x Wellenlängenbereich 780 - 3000 nm: Der Grenzwert für die Bestrahlungs-
stärke EIR(GW) zum Schutz der Augen vor thermischen Schäden bei einer
Einwirkungszeit bis 1000 s (innerhalb einer 8-stündigen Periode) beträgt
EIR(GW)=18000·t-0,75 Wm-2. Der Grenzwert für die Bestrahlung H für den glei-
chen Zeitraum durch IR-Strahleneinwirkungen der Augen beträgt
HIR(GW)= 3·106 Jm-2.
x Wellenlängenbereich 380 - 106 nm: Der Grenzwert der Bestrahlung HIR(GW)
im sichtbaren wie im IR-Spektralbereich beträgt für Einwirkungen auf die
Haut HIR(GW)= 18000·t0,25 Jm-2. Dieser Expositionsgrenzwert bezieht sich auf
die einmalige oder wiederholte Einwirkung von IR-Strahlung während einer
täglichen Arbeitszeit von 8 Stunden oder für Strahleneinwirkungen mit Ein-
wirkungsdauern bis 10 Sekunden bei variierender Bestrahlungsstärke.
Einen Sonderfall bei der Beurteilung von künstlich erzeugten optischen Strah-
len stellen Laserquellen dar. So werden Laser und Lasereinrichtungen in Abhän-
gigkeit vom Gefährdungspotential in Klassen von 1 bis 4 eingeteilt (DIN EN 60825-
1):
x Klasse 1: Die zugängliche Laserstrahlung ist, einen bestimmungsgemäßen
Betrieb vorausgesetzt, ungefährlich. Der Grenzwert zur Klassifizierung eines
Lasers nach DIN EN 60825-1 ist für eine Zeitbasis zwischen 100 s und
30000 s gleich, weshalb bei Langzeitwirkungen Beeinträchtigungen nicht
auszuschließen sind.
x Klasse 1M: Die zugängliche Laserstrahlung liegt im Wellenlängenbereich
von 302,5 nm bis 4000 nm. Sie ist für das Auge ungefährlich, solange der
Querschnitt nicht durch optisch sammelnde Instrumente, wie bspw. Lupen
oder Linsen, verkleinert wird.
x Klasse 2: Die zugängliche Laserstrahlung liegt nur im sichtbaren Spektralbe-
reich (400 nm bis 700 nm). Sie ist bei kurzzeitiger Bestrahlungsdauer (bis
0,25 s) für das Auge ungefährlich. Lasereinrichtungen der Klasse 2 dürfen
deshalb ohne weitere Schutzmaßnahmen eingesetzt werden, wenn ein ab-
sichtliches Hineinschauen von mehr als 0,25 s Dauer oder ein wiederholtes
Hineinschauen in die Laserstrahlung bzw. eine spiegelnd reflektierte Laser-
strahlung ausgeschlossen ist.
850 Arbeitswissenschaft
Abb. 9.30: Maximal zulässige Bestrahlung der Hornhaut des Auges für einige ausgewählte
Wellenlängen nach DIN EN 60825-1 (BGV B2)
1
1,5 mrad
0,1
0,01
0,001
0,0001
,
0,00001
Purpurblau Weiss Dunkelgrün Hellgrün Orange
(430 nm) (520 nm) (565 nm) (610 nm)
LED Typ (Peakwellenlänge nm)
9.3.4.4 IonisierendeĆStrahlungĆĆ
Die im Folgenden eingeführten Grenzwerte für ionisierende Strahlung bilden nicht
die Obergrenze des Zulässigen, sondern die Untergrenze des nicht mehr Akzep-
tablen, auch wenn die tatsächlichen Gefahrengrenzen aufgrund der den Grenzwer-
ten zugrundeliegenden Modelle in Wirklichkeit möglicherweise viel höher liegen
(VEITH 2007).
Kernstück der Bewertung und Beurteilung ionisierender Strahlung in Deutsch-
land ist die Verordnung über den Schutz vor Schäden durch ionisierende Strahlen
(Strahlenschutzverordnung StrlSchV). Ihr Ziel ist die Regelung der Grundsätze und
Anforderungen für Vorsorge- und Schutzmaßnahmen zum Schutz des Menschen
und der Umwelt vor den schädlichen Wirkungen ionisierender Strahlung. Dies
umfasst Tätigkeiten, die einen Umgang mit künstlich erzeugten oder natürlich
vorkommenden radioaktiven Stoffen erfordern (§ 2 StrLSchV). Bei Grenzwerten
für ionisierende Strahlung wird zwischen Werten für die Bevölkerung und solchen
für beruflich strahlenexponierte Personen unterschieden. Der Grenzwert der effek-
tiven Dosis bei der Ausführung von Tätigkeiten beträgt für Einzelpersonen der
Bevölkerung ein 1 mSv im Kalenderjahr (§ 46 Abs. 1 StrlSchV). Für den gleichen
Personenkreis gelten unabhängig von diesem Wert eine Organdosis für die Augen-
linse von 15 mSv im Kalenderjahr und für die Haut ein Wert von 50 mSv.
Personen, die durch entsprechende Tätigkeiten einer beruflichen Strahlenexpo-
sition ausgesetzt sind, sind zum Zweck der Kontrolle und arbeitsmedizinischen
Vorsorge den folgenden zwei Kategorien zuzuordnen (§ 54 StrlSchV):
x Kategorie A: Diese Kategorie umfasst alle Personen, die einer beruflichen
Strahlenexposition ausgesetzt sind, die im Kalenderjahr zu einer effektiven
Dosis von mehr als 6 mSv, einer höheren Organdosis als 45 mSv für die Au-
genlinse oder einer höheren Organdosis als 150 mSv für die Haut, die Hände,
die Unterarme, die Füße oder Knöchel führen kann.
x Kategorie B: Personen, die einer beruflichen Strahlenexposition ausgesetzt
sind, die im Kalenderjahr zu einer effektiven Dosis von mehr als 1 mSv, ei-
ner höheren Organdosis als 15 mSv für die Augenlinse oder einer höheren
Organdosis als 50 mSv für die Haut, die Hände, die Unterarme, die Füße
oder Knöchel führen kann.
Zudem existiert ein Grenzwert für beruflich strahlenexponierte Personen, der
nur in Ausnahmefällen und insbesondere nach Genehmigung durch die zuständige
Behörde überschritten werden darf. Dieser Grenzwert für die effektive Dosis be-
trägt 20 mSv im Kalenderjahr. Des Weiteren werden in der Strahlenschutzverord-
nung Grenzwerte für die jeweiligen Organe des Menschen, die sich aus einer be-
ruflichen Strahlenexposition ergeben, bezogen auf ein Kalenderjahr aufgeführt
(§ 55 Abs. 2 StrlSchV):
(1) Augenlinse: 150 mSv
(2) Haut, Hände, Unterarme, Füße und Knöchel: jeweils 500 mSv
(3) Keimdrüsen, Gebärmutter und Knochenmark (rot): jeweils 50 mSv
Arbeitsumgebung 853
9.3.5 Gestaltungshinweise
Die vollständige Darstellung aller Schutzmaßnahmen für den gesamten, sehr in-
homogenen Strahlenschutzbereich ist an dieser Stelle nicht möglich. Daher wer-
den die folgenden Abschnitte auf die Einführung von allg. Gestaltungshinweisen
zur Bekämpfung von Strahlung sowie auf die Vorstellung ausgewählter Maßnah-
men beschränkt und an entsprechenden Stellen auf die weiterführende Literatur
verwiesen (KRIEGER 2004; KRIEGER 2005; STOLZ 2005).
Eine wesentliche Voraussetzung für eine sichere Arbeit ist, dass die eingesetz-
ten Bauteile, Geräte, Maschinen und Komponenten bzw. Anlagen im Sinne des
Strahlenschutzes sicher sind. Dies kann durch genormte sicherheitstechnische
Anforderungen an die Arbeits- und Betriebsmittel und die Produkte gewährleistet
werden, die zu entsprechenden Eigenschaften der Geräte führen. Ist trotz einer
entsprechenden Objektstruktur und -gestaltung eine Einhaltung der Grenzwerte
nicht möglich, so sind die Abstände zur Quelle zu vergrößern, die Einsatzzeiten zu
verkürzen und ggf. persönliche Schutzausrüstungen (Schutzkleidung, Schutzbril-
len) anzuwenden. Konkretisiert werden Arbeitsmittel betreffende Arbeitsschutz-
maßnahmen in der DIN EN 12198-1.
Um eine Einschätzung der Gefährdung in einem Arbeitssystem zu erhalten,
existieren in der Literatur Klasseneinteilungen, denen abgestufte sicherheits-
technische und betriebsorganisatorische Maßnahmen zugeordnet werden. Ergän-
zend zu der Klassifizierung und Kennzeichnung von Betriebsmitteln wird für
854 Arbeitswissenschaft
Optische Strahlung
Die nationale Umsetzung der EU RICHTLINIE 2006/25/EG bis spätestens April
2010 soll die Exposition durch künstliche optische Strahlung für die Arbeitsperson
reduzieren. Ziel ist, die Gefahren bereits am Entstehungsort zu verringern. Der
Arbeitgeber ist daher in der Pflicht, entsprechende Maßnahmen zum Strahlen-
schutz zu ergreifen (2006/25/EG):
x Bewertung des Ausmaßes der Strahlung: Der Arbeitgeber hat zur Verringe-
rung der künstlichen optischen Strahlung am Arbeitsplatz eine Bewertung
oder Messung des Ausmaßes der optischen Strahlung vorzunehmen, falls die
in der Richtlinie aufgeführten Grenzwerte überschritten werden. Die Mes-
sung erfolgt entsprechend den Normen der internationalen Normierungsgre-
mien IEC, CIE, CEN oder, falls keine Normen vorliegen, entsprechend den
nationalen oder internationalen wissenschaftlich untermauerten Leitlinien.
x Verringerung der Risiken: Falls bei einer Risikobewertung festgestellt wird,
dass die Expositionsgrenzwerte möglicherweise überschritten werden, muss
der Arbeitgeber das Ausmaß der optischen Strahlung verringern, indem er
andere Arbeitsmittel auswählt oder die Dauer der Exposition begrenzt.
x Unterrichtung und Unterweisung der Arbeitnehmer: Die Arbeitnehmer oder
ihre Vertreter erhalten alle erforderlichen Informationen oder Unterweisun-
gen – bspw. sachgerechte Verwendung von Schutzausrüstung.
x Anhörung und Beteiligung der Arbeitnehmer: Die Arbeitgeber müssen die
Arbeitnehmer bzw. deren Vertreter bei Fragen, die die Sicherheit und den
Gesundheitsschutz der Arbeitnehmer betreffen, im Voraus anhören. Die Ar-
beitnehmervertreter können Maßnahmen zur Verbesserung des Gesundheits-
schutzes vorschlagen und haben das Recht, sich an die zuständigen Behörden
zu wenden, wenn sie der Auffassung sind, dass der Arbeitgeber keine ausrei-
chende Sicherheit gewährleistet (gemäß Rahmenrichtlinie 89/391/EWG).
x Überwachung der Gesundheit der Arbeitnehmer: Die Überwachung der Ge-
sundheit der Arbeitnehmer erfolgt entsprechend den nationalen Rechtsvor-
schriften durch einen Arzt. Ziel ist, das Risiko aufgrund der Exposition ge-
genüber optischer Strahlung zu vermeiden. Für jeden Arbeitnehmer sind da-
bei persönliche Gesundheitsakten zu führen und anlässlich jeder Gesund-
heitsüberwachung zu aktualisieren.
Im Fall einer Überschreitung der geltenden Grenzwerte oder bei der Identifizie-
rung von gesundheitsschädlichen Auswirkungen für Arbeitnehmer sind folgende
Maßnahmen zu ergreifen:
x Der Arbeitnehmer wird vom Arzt oder einer anderen entsprechend qualifi-
zierten Person über die ihn persönlich betreffenden Ergebnisse und über alle
wichtigen Erkenntnisse unterrichtet.
Arbeitsumgebung 857
Schutz von Mensch und Umwelt vor radioaktiver Strahlung auf eine neue Grund-
lage gestellt worden. Im Zuge des umfangreichen Novellierungsvorhabens wurden
in erster Linie die europäischen Vorgaben der Richtlinie 96/29/EURATOM in deut-
sches Recht umgesetzt. Die StrlSchV richtet sich primär an diejenigen, in deren
Verantwortung Strahlenschutz atomrechtlich relevante Tätigkeiten oder Arbeiten
ausführt werden. Der Anwendungsbereich der StrlSchV unterliegt dabei der staat-
lichen Aufsicht (§19 ATOMGESETZ). Den Aufsichtsbehörden werden im Atomge-
setz und in der StrlSchV entsprechende Befugnisse (z.B. Zutritt, Information,
Eingriff) und Sanktionsmöglichkeiten eingeräumt. Die StrlSchV basiert auf fol-
genden Strahlenschutzgrundsätzen:
x Rechtfertigung: Unter Abwägung ihres wirtschaftlichen, sozialen oder sons-
tigen Nutzens, müssen atomrechtlich relevante Tätigkeiten gegenüber der
möglicherweise von ihnen ausgehenden gesundheitlichen Beeinträchtigung
zu rechtfertigen sein.
x Dosisbegrenzung: Für bestimmte Schutzgrößen und Personengruppen sind
Grenzwerte festgelegt. So beträgt die effektive Dosis von Einzelpersonen ei-
nen Wert von 1 mSv p.a. bei beruflich strahlenexponierten Personen erhöht
sich der Grenzwert auf 20 mSv p.a.
x Optimierung: Es besteht die generelle Pflicht, Strahlenexpositionen oder
Kontaminationen so gering wie möglich zu halten.
Zur Gewährleistung dieser Grundsätze sind der Umgang mit radioaktiven Stof-
fen und Anlagen zur Erzeugung ionisierender Strahlung unter einen behördlichen
Genehmigungsvorbehalt gestellt. Die Modalitäten der Genehmigungsverfahren,
Genehmigungsvoraussetzungen, Antragsunterlagen etc. sind in der StrlSchV fest-
gelegt (StrlSchV §7 - §14). Des Weiteren werden spezielle Anforderungen an die
Qualifikation des Personals, die betriebliche Organisation (Strahlenschutzverant-
wortliche und -beauftragte), den Schutz von Personen in Strahlenschutzbereichen
(physikalische Strahlenschutzkontrolle, Begrenzung der Strahlenexposition bei der
Berufsausübung, arbeitsmedizinische Vorsorge), die Lagerung, Sicherung und
Kennzeichnung radioaktiver Stoffe, die Verwendung geeigneter Messgeräte, die
Buchführung über radioaktive Stoffe, die Behandlung und Abgabe radioaktiver
Stoffe und ionisierender Strahlung gestellt.
Bei genehmigungs- und anzeigebedürftigen Tätigkeiten, die durch die StrlSchV
definiert sind (StrlSchV § 2), wird je nach Höhe der Strahlenexposition zwischen
Überwachungsbereichen, Kontrollbereichen und Sperrbereichen, letztere als Teile
der Kontrollbereiche, unterschieden. Dabei ist zwischen äußerer und innerer
Strahlenexposition zu differenzieren:
(1) Überwachungsbereiche sind nicht zum Kontrollbereich gehörende betriebli-
che Bereiche, in denen Personen im Kalenderjahr eine effektive Dosis von
mehr als 1 mSv oder höhere Organdosen als 15 mSv für das Auge oder 50
mSv für die Haut, die Hände, die Unterarme, die Füße und Knöchel erhalten
können,
Arbeitsumgebung 859
9.4 Klima
Unter den Umgebungsfaktoren, denen der Mensch am Arbeitsplatz (und nicht nur
dort) ausgesetzt ist, spielt das Klima eine wesentliche Rolle. Unter Klima ist auf
den Menschen bezogen das Zusammenwirken der folgenden vier Klimafaktoren
zu verstehen:
(1) Lufttemperatur
(2) Luftfeuchtigkeit
(3) Windgeschwindigkeit
(4) Wärmestrahlung.
Diese Klimafaktoren haben sowohl physiologische als auch psychologische
Wirkungen.
Die Arbeit unter besonderen Luftdrücken (besonders hoch in Cais-
son/Taucherglocken, besonders niedrig im Bergbau in den Anden in mehr als
4000 m Höhe) wird hier als Sonderproblem ausgeklammert. Es sei u.a. auf die
Luftfahrt- und Tauchphysiologie verwiesen (STEGEMANN 1984).
Die Bedeutung des Klimas ergibt sich aus der Abhängigkeit der Funktionswei-
se des menschlichen Organismus von bestimmten Klimazuständen. So ist der
Mensch nur bei einer Körpertemperatur von ca. 35-40°C arbeitsfähig, wobei die
Normaltemperatur bekanntermaßen bei 37°C liegt.
Mit Hilfe der Wärmeregulationsmechanismen des menschlichen Organismus
muss ein Gleichgewicht zwischen der körpereigenen Wärmeproduktion und den
externen Klimaeinflüssen hergestellt werden. Eine sich einstellende klimatische
Behaglichkeit, die eine Bedingung für das Wohlbefinden des Menschen und seine
Leistungsfähigkeit ist, kann folglich als ein Zustand mit minimalen Regulationser-
fordernissen charakterisiert werden. Behagliche Klimazustände werden jedoch
individuell sehr unterschiedlich empfunden, wie Abb. 9.32 zeigt.
Daraus folgt, dass ein bestimmtes Klima von einer Gruppe von Personen als
behaglich empfunden wird, gleichzeitig aber dieses Klima von anderen Personen
als zu warm bzw. als zu kalt eingeschätzt wird. In der Praxis bleibt dann nur die
Möglichkeit der individuellen Anpassung durch entsprechende Wahl der Klei-
dung. Dieser Umstand zeigt, dass es praktisch unmöglich ist, ein für alle Personen
„optimales“ Klima am Arbeitsplatz einzustellen. Dennoch lassen sich aus der
Analyse des Klimas Rückschlüsse auf die Gestaltung einzelner Klimafaktoren
ziehen bzw. können damit auch Toleranzgrenzen (beispielsweise für Hitze- oder
Kältearbeit) festgelegt werden, um die Beanspruchung des Menschen durch das
Klima in einem nicht gesundheitsgefährdenden und erträglichen Rahmen zu hal-
ten.
862 Arbeitswissenschaft
QL D (tO t L ) AL (9.33)
D: Wärmeübergangskoeffizient
tO: Oberflächentemperatur des Körpers
tL: Temperatur der umgebenden Luft
Der Wärmeübergangskoeffizient D hängt von der Geschwindigkeit des Me-
diums ab, das einen Körper überströmt. Da exakte Formeln zur Berechnung
des Wärmeübergangs an überströmten Körpern nur für wenige einfache Fälle
vorliegen, werden in der Regel empirisch ermittelte Funktionen verwendet
(siehe hierzu BAEHR u. STEFAN 2006).
x Strahlung – auch hier ist eine Temperaturdifferenz zur Wärmeabgabe bzw.
-aufnahme Voraussetzung. Eine Wärmeaufnahme ist z.B. bei Hitzearbeits-
plätzen oder in der Sonne der Fall, eine Wärmeabgabe ist stets unter so ge-
nannten Normalklima-Bedingungen zu verzeichnen.
Für den Wärmeaustausch pro Zeiteinheit durch Strahlung über eine am
Strahlungsaustausch beteiligte Körperoberfläche AS gilt:
V Strahlungskonstante
H Strahlungszahl (wellenlängen- bzw. personenabhängig)
TO: Oberflächentemperatur, Körper
TU: Oberflächentemperatur, umgebende Flächen
x Durch Verdunstung (Schweißsekretion oder Wasserdampfabgabe über die
Lunge) kann nur Wärme abgegeben werden. Besonders durch Schwitzen
kann eine wirksame Wärmeabgabe erfolgen, allerdings nur unter der Voraus-
864 Arbeitswissenschaft
setzung, dass die umgebende Luft Wasserdampf aufnehmen kann. Dabei ist
darauf zu achten, dass kein Schweiß abtropft, da in diesem Fall keine Ver-
dunstungskälte entstehen kann. Es ist also nur die unmerkliche Schweißab-
sonderung (perspiratio insensibilis) im Sinne einer Wärmeabgabe effektiv.
Für den Wärmeübergang pro Zeiteinheit bei Verdunstung über eine Körper-
oberfläche AV gilt:
QV E PO PL AV (9.35)
E = Verdunstungszahl
PO = Dampfdruck, Körperoberfläche
PL = Dampfdruck, umgebende Luft
Für den Transport der Wärme vom Entstehungsort (Muskulatur, Körperinneres)
zum Ort des Wärmeaustauschs (Hautoberfläche, Lunge) ist der Blutkreislauf ver-
antwortlich. Abb. 9.33 zeigt schematisch den Wärmeaustausch des Menschen mit
der Umgebung. Ziel der Wärmeregulation (auch Thermoregulation) des Menschen
ist es, eine ausgeglichene Wärmebilanz des Körpers zur Aufrechterhaltung der
Körpertemperatur zu erreichen. Die gebildete Wärme muss also der durch Lei-
tung, Konvektion, Strahlung und Verdunstung abgegebenen Wärme entsprechen.
In begrenztem Maße ist zur Erhaltung der Wärmebilanz eine Wärmespeicherung
im Körper (Erhöhung der Kerntemperatur und Ausdehnung der Bereiche höherer
Temperatur vom Körperkern in die Körperschale) möglich. Die Wärmebilanz des
Menschen kann in Form einer Gleichung wie folgt dargestellt werden (EISSING
1988):
S M W r C r K r R E (9.36)
S: Wärmespeicherung
M: Metabolische Wärmeproduktion
W: Abgegebene Nutzarbeit
C: Konvektiver Wärmetausch
K: Konduktiver Wärmetausch
R: Wärmeaustausch durch Strahlung
E: Wärmeabgabe durch Schweißverdunstung
í Abgabe
+ Aufnahme
Arbeitsumgebung 865
Abb. 9.33: Wärmeabgabe an die Umgebung (aus BGI 523: Mensch und Arbeit 2005)
aber auch die interne Wärmeproduktion gesteigert werden, z.B. durch aktive Betä-
tigung der Muskulatur oder durch (unbewusstes) Kältezittern. Die Drosselung der
Hautdurchblutung bewirkt eine Senkung der Hauttemperatur und damit ebenfalls
eine verminderte Wärmeabgabe.
Abb. 9.34: Gegenüberstellung der Wärmeproduktion, der Wärmeaufnahme und der Wär-
meabgabe bei einer bestimmten Tätigkeit in Abhängigkeit von der Raumtemperatur (nach
WENZEL 1961)
unterstützt diesen Effekt. Schließlich kann der Mensch auch durch Ablegen von
Kleidung (Verringerung der Bekleidungsisolation) oder durch Aufsuchen einer
kälteren Umgebung eine Überhitzung vermeiden.
Die beschriebenen Effekte können natürlich auch durch externe Maßnahmen
unterstützt werden, z.B. durch eine geeignete Klimatisierung, durch entsprechende
Arbeitspausen etc.
9.4.3.1 EmpfindensbezogeneĆModellierungĆ
Wie eingangs geschildert, ist das Empfinden eines bestimmten Klimazustandes im
Wesentlichen von den vier Klimafaktoren abhängig. Selbst bei einer einzigen
Kombination der vier Klimafaktoren ist die Wirkung des Klimas auf den Men-
schen durchaus unterschiedlich. Zudem hängt z.B. die empfundene Temperatur in
hohem Maße von der körperlichen Aktivität und von der Bekleidung ab. Zur Cha-
rakterisierung der Bekleidung wird deren Isolation herangezogen. Der Isolations-
wert von Bekleidung wird in der Pseudoeinheit [clo] („clothing“) angegeben. Es
gilt folgende Beziehung: 1 clo = 0,043 °C · m² · h/kJ.
Die Bekleidung mit dem Isolationswert von 1 clo lässt eine Wärmemenge von
23 kJ/h pro m² bei 1 °C Temperaturdifferenz zwischen Innen- und Außenfläche
der Bekleidung entweichen. Der Einfluss der Art der Kleidung auf den thermi-
schen Widerstand ist in Tab. 10.16 dargestellt.
Daraus ergibt sich, dass eine hinreichende Beschreibung des Zustands thermi-
scher Behaglichkeit nur durch die vier Klimafaktoren in Verbindung mit den An-
gaben zur Arbeitsschwere und zur Bekleidung möglich ist (siehe Abb. 9.35).
FANGER (1972) bildet aus diesen Faktoren eine „Komfort-Gleichung“, die ein
Klimasummenmaß für den Behaglichkeitsbereich darstellt. Mit dieser Komfort-
Gleichung lässt sich errechnen, ob ein Zustand der Behaglichkeit erreicht werden
kann, bzw. wie groß die Abweichung von diesem Zustand ist. Darüber hinaus
lassen sich, ausgehend von dem Behaglichkeitsbereich, die einzelnen Klimafakto-
ren gezielt bestimmen. Damit ist es möglich, unterschiedliche Variationen der
Klimafaktoren miteinander zu vergleichen. Zunächst wird ein so genannter PMV-
Index (Predicted Mean Vote) bestimmt, der dem vorhergesagten Durchschnitts-
wert der thermischen Beurteilung auf einer psycho-physiologischen Skala
(von -3,0 = kalt bis +3,0 = heiß) entspricht. Hier gehen die vier Klimafaktoren, der
Metabolismus als Maß für das Aktivitätsniveau der körperlichen Arbeit und die
Isolation der Bekleidung ein (genaue Formel siehe z.B. OLESEN 1986).
868 Arbeitswissenschaft
Unbekleidet 0
Shorts 0,1
Tropenkleidung: offenes, kurzes Hemd, kurze Hose, leichte Socken, Sandalen 0,3-0,4
Leichte Sommerkleidung: offenes, kurzes Hemd, leichte Hose, leichte Socken, 0,5
Schuhe
Leichte Arbeitskleidung: kurze Unterhose, offenes Arbeitshemd oder leichte 0,6
Jacke, Arbeitshose, Wollsocken, Schuhe
Leichte Außensportkleidung: kurzes Unterzeug, Trainingsjacke, -hose, Socken, 0,9
Turnschuhe
Feste Arbeitskleidung: lange Unterwäsche, einteiliger Arbeitsanzug, Socken, 1,0
feste Schuhe
Leichter Straßenanzug: kurze Unterwäsche, geschlossenes Oberhemd, leichte 1,0
Jacke, lange Hose, Socken, Schuhe
Leichter Straßenanzug mit leichtem Mantel 1,5
Fester Straßenanzug: lange Unterwäsche, geschlossenes Oberhemd, feste 1,5
Jacke und Hose, Weste aus Tuch oder Wolle, Wollsocken, Schuhe
Kleidung für nass-kaltes Wetter: lange Unterwäsche, geschlossenes langes 1,5-2,0
Oberhemd, feste Jacke und Hose, Pullover, Wollmantel, Wollsocken, feste
Schuhe
Polarkleidung ab 3,0
Abb. 9.35: Abhängigkeit der Behaglichkeitstemperatur von der Arbeitsschwere und von
der Bekleidung (nach FANGER 1972 aus WENZEL u. PIEKARSKI 1982)
9.4.3.2 PhysiologischeĆModellierungĆ
Auch der P4 SR-Index (Predicted-Four-Hour-Sweat-Rate-Index) von McARDLE et
al. (1947) ist für die Anwendung bei Hitzearbeit konzipiert und erlaubt die Be-
stimmung von Toleranzgrenzen bei Hitzearbeit über die Vorhersage der zu erwar-
Arbeitsumgebung 871
tenden Schweißrate bei vierstündiger Exposition sowie den Vergleich mit Grenz-
werten. Im Gegensatz zum HSI, der aus der Wärmebilanzgleichung des Menschen
abgeleitet wurde, basiert der P4 SR-Index auf zahlreichen Messungen (WENZEL u.
PIERKARSKI 1982 geben die Zahl von über 700 an), bei denen die Schweißabgabe bei
vierstündiger Exposition bestimmt wurde. Der WBGT-Index (Wet Bulb-Globe
Temperature Index) nach YAGLOU u. MINARD (1957) ist ebenso für Hitzearbeits-
plätze entwickelt worden und hat sich vor allem in den USA als Klimasummen-
maß etabliert. Eine umfassende Darstellung verschiedener Klimasummenmaße,
sowie eine Einschätzung deren Eignung, findet sich bspw. bei WENZEL u.
PIEKARSKI (1982) sowie bei EISSING (1988).
9.4.3.3 RezeptorenĆ
Die Möglichkeiten des Menschen, ohne Hilfsmittel den Zustand des Umgebungs-
klimas zu erfassen, sind begrenzt. Im Grunde genommen stehen ihm nur die
Thermorezeptoren der Haut und die des Blutkreislaufs zur Verfügung. Damit kann
eine Aussage über „warm“ oder „kalt“ getroffen werden. Die Luftgeschwindigkeit
und die Wärmestrahlung lassen sich nur indirekt erfassen. Beide Faktoren bewir-
ken in der Regel eine Veränderung der Hauttemperatur und diese kann dann durch
die entsprechenden Rezeptoren registriert werden. Eine direkte Aussage über die
Luftfeuchtigkeit ist ebenfalls nicht möglich. Hier ist der Mensch auf die Reaktion
des Körpers angewiesen. So ist z.B. als Folge zu niedriger Luftfeuchtigkeit ein
Austrocknen der Schleimhäute festzustellen, die wiederum direkt spürbar wird.
Aus diesem Grunde wird es auch verständlich, dass der Mensch eigentlich nur
bei der Lufttemperatur zu quantitativen Aussagen in begrenztem Maße in der Lage
ist. Beim Vorhandensein von beispielsweise trocken-heißen oder von feucht-
warmen Klimazuständen versagt in der Regel auch die Fähigkeit des Menschen,
die Temperatur realistisch einzuschätzen. An dieser Stelle wird auch deutlich, dass
es nicht sinnvoll ist, einzelne Klimafaktoren isoliert zu betrachten. Dennoch ist es
in der Regel erforderlich, die vier Faktoren zunächst einzeln zu erfassen.
9.4.5 Messung
9.4.5.1 LufttemperaturĆ
Bei der Messung der Lufttemperatur wird in der Regel die sog. Trockentempera-
tur, d.h. die Temperatur der umgebenden Luft, bestimmt. Als Messgerät sind Inf-
rarot- oder Flüssigkeitsthermometer, Widerstandsthermometer oder Thermo-
elemente gebräuchlich. Bei den Flüssigkeitsthermometern wird die Volumenände-
rung in Abhängigkeit von der Temperatur als Messgröße herangezogen. Sie sind
im Aufbau einfach und universell einsetzbar. Da jedoch stets die Temperatur des
Messfühlers gemessen wird, muss darauf geachtet werden, dass dieser auch die zu
messende Temperatur der Luft annimmt. Dies gilt natürlich auch für die anderen
beschriebenen Messgeräte. Deshalb ist eine gewisse Einstellzeit zu beachten.
Ferner muss vermieden werden, dass der Fühler durch andere Klimafaktoren eine
Temperaturänderung erfährt (z.B. durch Wärmestrahlung). Aus diesem Grund
sollte eine Abschirmung angebracht werden.
Bei den Widerstandsthermometern wird ein zur Temperatur proportionaler
elektrischer Widerstand registriert. Es können Halbleiter- und Metallwiderstände
verwendet werden. Vorteilhaft sind die geringe Einstellzeit, die durch die sehr
kleinen Fühler erreicht wird, sowie der große Messbereich. Bei der Temperatur-
messung mit Thermoelementen wird die Spannungsdifferenz zwischen zwei verlö-
teten unterschiedlichen Metallen ausgenutzt, die temperaturabhängig ist. Die Vor-
teile ähneln denen der Widerstandsthermometer. Beide elektrischen Thermometer
eignen sich zur automatisierten kontinuierlichen Temperaturüberwachung und -
steuerung. Neben den dargestellten Messprinzipien werden oft auch noch Ther-
mometer verwendet, die auf dem Prinzip der temperaturabhängigen Formände-
rung eines Bimetallstreifens basieren.
9.4.5.2 LuftfeuchtigkeitĆ
Bei der Messung der Luftfeuchtigkeit können verschiedene Messprinzipien ange-
wendet werden. Beim klassischen Haarhygrometer wird die Längenänderung von
Haaren unter Feuchtigkeitseinfluss zur direkten Anzeige der relativen Feuchtigkeit
ausgenutzt. Diese Messgeräte sind im Verhältnis zu neueren Entwicklungen unge-
nau, jedoch reicht ihre Genauigkeit für eine orientierende Messung.
Auch bei den elektrolytischen Feuchtemessgeräten wird die Eigenschaft eines
hygroskopischen Materials, seine elektrische Leitfähigkeit in Abhängigkeit von
der Luftfeuchte zu ändern, als Messprinzip genutzt. Diese Geräte sind weitgehend
wartungsfrei, müssen jedoch von Zeit zu Zeit nachkalibriert werden.
Arbeitsumgebung 873
9.4.5.3 WärmestrahlungĆ
Mit dem Steradiometer kann der auf den Menschen bezogene Strahlungswär-
meaustausch erfasst werden. Da aufgrund unzureichender Kalibrierung und unge-
nügender konvektiver Abschirmung der Empfängerflächen Messfehler auftreten
können, wurde ein verbessertes Wärmeabstrahlungs-Messgerät zur Erfassung der
mittleren Strahlungstemperatur ts und der effektiven Bestrahlungsstärke Eeff entwi-
ckelt.
Dieses Messgerät arbeitet nach dem gleichen Prinzip, hat jedoch zur Erfassung
der Wärmestrahlung zwei thermische Sensoren: Ein Sensor ist hoch absorbierend
beschichtet, und der andere ist hoch reflektierend beschichtet. Aus der sich (bei
Vorliegen einer Wärmestrahlung) einstellenden Temperaturdifferenz der Sensoren
kann sowohl die Wärmestrahlung als auch die Temperatur der angepeilten Fläche
ermittelt werden. Dieses Gerät ist wahlweise für den unidirektionalen Betrieb
(also in einer Richtung) oder für die Messung der sechs Raumachsen einsetzbar.
Arbeitsumgebung 875
Da die Sensoren stets einen bestimmten Raumwinkel erfassen, ist somit auch der
gesamte umschließende Raum einbezogen.
9.4.5.4 ErmittlungĆvonĆKlimasummenmaßenĆ
Die Ermittlung von Klimasummenmaßen kann nicht nur rechnerisch erfolgen,
sondern auch mit sog. Raumklima-Analysatoren. Dabei werden in der Regel so-
wohl die Klimafaktoren einzeln erfasst und angezeigt als auch ein oder mehrere
Klimasummenmaße errechnet. So wird häufig der Index „Thermal Comfort“ nach
FANGER 1972 bestimmt. Die Einstellung der geschätzten oder gemessenen musku-
lären Belastung, der Bekleidungsisolation und des Wasserdampfdruckes ermög-
licht die direkte Anzeige der Abweichung von der vorhergesagten mittleren Be-
haglichkeitstemperatur (PMV). Der Messfühler ist so konstruiert, dass er den
Wärmeaustausch des Menschen mit der Umgebung realistisch erfassen kann.
Andere Geräte weisen als Klimasummenmaße die empfundene Temperatur, die
Indices NET oder BET, den WBGT-Index oder den HSI aus.
Bei der Verwendung von integrierenden Klimamessgeräten ist stets darauf zu
achten, dass die Randbedingungen dem verwendeten Klimasummenmaß entspre-
chen, da bestimmte Klimasummenmaße z.B. nur für heiße Klimazustände, nur für
leichte körperliche Arbeit oder ähnlich begrenzte Einsatzfelder gelten. Dennoch ist
deren Einsatz oft dann sinnvoll, wenn als Toleranzgrenzwert ein bestimmtes Kli-
masummenmaß vorgegeben ist, welches aus Einzelmessungen häufig nur schwer
bestimmt werden kann.
ten. Dies wird dann der Fall sein, wenn z.B. durch zu hohe Temperaturen ein
konzentriertes Arbeiten nicht mehr möglich ist oder wenn auf Grund zu niedriger
Temperaturen die Fingerbeweglichkeit eingeschränkt ist. Auch die Gefahr von
Erkältungskrankheiten als Folge dieses ungünstigen Klimazustandes sollte beach-
tet werden. Es ist deshalb erforderlich, das Klima entsprechend zu ändern.
Starke Abweichungen von einem Sollwert bewirken dagegen Ausfälle bei der
Ausführung der Arbeitsaufgabe. Eine gesundheitliche Schädigung ist wahrschein-
lich. Dazu zählt z. B. die Gefahr von Erfrierungen, insbesondere in Ruhe, da dann
die endogene Wärmeproduktion durch Arbeit entfällt, oder ein drohender Hitze-
kollaps als Folge eines Wärmestaus. Die zur Verfügung stehende Blutmenge ist in
diesem Fall nicht mehr in der Lage, die notwendige Wärmeregulation zu gewähr-
leisten und die Mechanismen der Wärmeabgabe sind in ihrer Kapazität überfor-
dert. Bei einer extremen thermischen Überlastung des Organismus ist schließlich
ein Hitzschlag nicht auszuschließen, der wegen des oft tödlichen Ausgangs unter
allen Umständen zu vermeiden ist. Bei den genannten Fällen ist die klimatische
Belastung durch entsprechende Maßnahmen unbedingt und unverzüglich zu ver-
ringern.
Ausgehend von der Erkenntnis, dass die Bewertung eines Klimazustandes nicht
allein nach den Kriterien „Grenzwert überschritten bzw. nicht überschritten“ ge-
schehen kann, haben HETTINGER et al. (1984) ein differenziertes Bewertungsver-
fahren zur Klimabewertung vorgestellt. Ausgangspunkt ist die Normal-Effektiv-
Temperatur (NET) nach YAGLOU u. MINARD (1957). Tabelle 9.17 zeigt diese
Bewertungsmatrix.
Die Stufen des Arbeitsenergieumsatzes werden aus den in Tabelle 9.18 aufge-
führten Werten ermittelt.
Bei diesem Bewertungsverfahren sind zunächst zwei Variablen nicht berück-
sichtigt: Die Bekleidung und die Wärmestrahlung. Bei der Bekleidung kann man
davon ausgehen, dass an den entsprechenden Arbeitsplätzen Schutzkleidung ge-
tragen wird, deren clo-Wert von Kleidung zu Kleidung ähnlich sein wird. Dieser
Einfluss kann deshalb als Konstante angenommen werden. Beim Tragen von spe-
zieller Hitzeschutzkleidung ist im Falle einer Wärmestrahlungsexposition, trotz
der zusätzlichen Belastung, insgesamt jedoch von einer Beanspruchungsreduzie-
rung auszugehen (siehe HETTINGER et al. 1984), so dass die Bewertung nach vor-
genanntem Schema eher eine niedrigere Einstufung erwarten lässt; man ist also
auf der „sicheren Seite“. Der Einfluss der Wärmestrahlung lässt sich durch das
Einsetzen der Globetemperatur anstelle der Trockentemperatur bei der Ermittlung
der Normaleffektivtemperatur berücksichtigen. Man spricht dann von der korri-
gierten Normaleffektivtemperatur (CNET). Da dieses Verfahren jedoch bei sehr
hohen Bestrahlungsstärken Mängel aufweist, sollte eine getrennte Bewertungsska-
la verwendet werden (siehe Tabelle 9.19).
Arbeitsumgebung 877
Stufengrenzen Bewertungs-
Belastungsintensität
°C NET stufe
sehr
VII
Überbelastung
wahrscheinlich
40 36 33 30 28 26 25
VI wahrscheinlich
37 33 29 26 23 21 19
V möglich
33 31 27 23 19 15 11
IV Grenzbereich
31 29 25 21 17 13 9
III belastend
25 22 19 16 14 11 8
II gering belastend
19 17 15 13 11 9 7
I sehr gering belastend
I II III IV V VI VII
Arbeitsumsatzstufe
Stufengrenzen Bewertungs-
Belastungsintensität
kJ min–1 stufe
sehr
25 < AU VII
Überbelastung
wahrscheinlich
23 < AU 25 VI wahrscheinlich
20 < AU 23 V möglich
16 < AU 20 IV Grenzbereich
Stufengrenzen Bewertungs-
Belastungsintensität
Wm–2 stufe
sehr
300 < Eeff VII
wahrscheinlich
Überbelastung
260 < Eeff 300 VI wahrscheinlich
Abb. 9.39: Toleranzzeiten bei extremen Klimabelastungen mit dem WBGT-Index als
Klimasummenmaß (nach DASLER 1974, aus WENZEL u. PIEKARSKI 1982)
Akklimatisation
Bei Exposition gegenüber Kälte oder Wärme kommen verschiedene kurzfristige
Regulationsmechanismen zum Tragen. Bei Kälteexposition reagiert das Herz-
Kreislaufsystem mit einer Kontraktion der peripheren Gefäße und nachfolgend mit
einem Blutdruckanstieg. Die Hauttemperatur, die üblicherweise bei 30°C liegt,
nimmt ab. Eine Kälteempfindung an Händen oder Füßen tritt erst bei einer Haut-
temperaturdifferenz von > 4°C auf. Bei einem Absinken der Körperkerntempera-
tur auf 35°C tritt Kältezittern auf, bei 33°C findet sich eine starke Verminde-
rung der Reaktionsfähigkeit, bei 30°C tritt Bewusstlosigkeit ein.
Bei Wärmeexposition reagiert ebenfalls das Herzkreislaufsystem, indem es
durch erhöhte Blutzirkulation (Blutdruckanstieg, Anstieg der Herzschlagfrequenz)
und Weitstellung der Gefäße den Wärmetransport zur Körperoberfläche erhöht.
Durch einen kurzfristigen Anstieg der Schweißmenge entsteht Verdunstungskälte
an der Körperoberfläche.
Bei wiederholtem Aufenthalt in kalter bzw. warmer Umgebung kann der Kör-
per sich thermoregulatorisch immer besser auf eine Belastung einstellen. Diese als
Akklimatisation bezeichnete langfristige Anpassung ist von erheblicher prakti-
scher Bedeutung, weil sich damit die Erträglichkeit erhöht.
Kälteakklimatisation
Bislang wurde festgestellt, dass sich im Rahmen der Anpassung des Menschen an
Kälte Energieumsatz und damit Wärmebildung erhöhen (PENZKOFER et al. 2008).
Die bei einer ersten Kälteexposition erheblichen Senkungen der Hauttemperatur,
besonders an den Extremitäten, werden dabei geringer. Eine Zunahme der Kälteto-
880 Arbeitswissenschaft
leranz beruht u.a. auch auf einem geübteren Umgang mit der Belastung, z.B. hin-
sichtlich des Kälteschutzes durch Bekleidung.
Hitzeakklimatisation
Besonders eingehend sind die Veränderungen bei wiederholten Hitzebelastungen
des Menschen untersucht worden. Abb. 9.40 enthält Ergebnisse von Arbeitsversu-
chen, bei denen ein Mann mehrere Wochen lang täglich mit Ausnahme der Wo-
chenenden eine mehrstündige Körperarbeit bei 45°C Raumtemperatur leistete.
Das untere Diagramm zeigt, dass die Schweißabgabe (Mittelwerte über Ar-
beitszeit) von Tag zu Tag zunahm. Am Schluss der Untersuchung lag die
Schweißabgabe ca. 30% höher als zu Beginn. Aus anderen Untersuchungen ist
bekannt, dass im Verlauf einer Akklimatisation Steigerungen der Schweißabgabe
auf das Doppelte möglich sind.
Abb. 9.40: Akklimatisation bei wiederholter Hitzearbeit (Gehen mit v = 3,5km/h (3h),
t = 45°C, r.F = 45%, 0,1clo) (in Anlehnung an WENZEL 1961)
nächsten weniger stark ansteigt. Entsprechend wird die Erhöhung der Körperkern-
temperatur im Verlauf der Akklimatisationstage kleiner.
Die dargestellten Werte der Herzfrequenz weisen auf eine gleichzeitige Entlas-
tung des Blutkreislaufes hin. Die Herzfrequenz stieg zunächst auf etwa 115 Schlä-
ge/min an und erreichte am Schluss der Untersuchungsreihe nur noch etwa 95
Schläge/min.
Zu weiteren Veränderungen im Verlauf der Hitzeakklimatisation gehört insbe-
sondere, dass der Kochsalzgehalt des vermehrt gebildeten Schweißes abnimmt.
Dadurch wird Salz eingespart und eine erhöhte Salzzufuhr ist bei akklimatisierten
Personen nicht nötig.
Alle diese Veränderungen haben zur Folge, dass im akklimatisierten Zustand
eine gegebene Belastung besser erträglich ist. Eine Arbeit vorgegebener Schwere
wird subjektiv leichter empfunden, es können höhere Leistungen bei einem belas-
tenden Klima erbracht, schwerere Klimabelastungen ertragen bzw. längere Tole-
ranzzeiten erreicht werden.
Es gehört zu den gesicherten Erkenntnissen, dass die dargestellten unmittelba-
ren thermoregulatorischen Umstellungen wie auch die langfristigen Anpassungs-
prozesse der Akklimatisation bei fast allen gesunden Menschen im Prinzip gleich-
artig, wenn auch quantitativ verschieden, ablaufen.
9.4.7 Gestaltungshinweise
Zum Schutz der Arbeitspersonen gibt es zahlreiche Vorschriften, in denen die
Gestaltung der Klimabedingungen beschrieben ist. Da das Klima am Arbeitsplatz
in der Regel von vielen exogenen Faktoren abhängig ist, vermeidet man oft eine
quantitative Angabe und beschränkt sich auf Gestaltungshinweise qualitativer Art.
Die Arbeitsstättenverordnung (ArbStättV) galt zwar nur bis 2004, aber für eine
Übergangsfrist von 6 Jahren (bis 2010) sollen die darin enthaltenen Vorgaben
weiterhin als gültig behandelt werden. Darin heißt es unter anderem in §6 Raum-
temperaturen: „(1) In Arbeitsräumen muss während der Arbeitszeit eine unter
Berücksichtigung der Arbeitsverfahren und der körperlichen Beanspruchung der
Arbeitnehmer gesundheitlich zuträgliche Raumtemperatur vorhanden sein. Satz 1
gilt auch für Bereiche von Arbeitsplätzen in Lager-, Maschinen- und Nebenräu-
men. (2) Es muss sichergestellt sein, dass die Arbeitnehmer durch Heizeinrichtun-
gen keinen unzuträglichen Temperaturverhältnissen ausgesetzt sind. (3) In Pau-
sen-, Bereitschafts-, Liege-, Sanitär- und Sanitätsräumen muss mindestens eine
Raumtemperatur von 21°C erreichbar sein. (4) Bereiche von Arbeitsplätzen, die
unter starker Hitzeeinwirkung stehen, müssen im Rahmen des betrieblich mögli-
chen auf eine zuträgliche Temperatur gekühlt werden.“
In den Erläuterungen sind diese Angaben in Abhängigkeit verschiedener Rand-
bedingungen (z. B. Arbeitsschwere, Außentemperaturen) präzisiert und lassen sich
mit Eckdaten zusammenfassen (Tabelle 9.20). Die maximal zulässigen Arbeitszei-
ten bei Hitzearbeit sind in Tabelle 9.21wiedergegeben.
882 Arbeitswissenschaft
Tabelle 9.20: Optimale Klimabedingungen (Auszug aus der ArbStättV, §6, Abs.1, Erläute-
rungen)
Tabelle 9.21: Maximal zulässige Arbeitszeiten bei Hitzearbeit (Auszug aus ArbStättV, §6,
Abs.4, Erläuterungen)
Effektivtemperatur [°C] max. Arbeitszeit [h]
27-29 6
29-31 4
31-35 nur Notfallarbeiten
niumkaschiert) ausgerüstet sind. Bei längerer Exposition haben sich zudem Kühl-
westen und Ganzkörperkühlanzüge (zur Reduzierung des Anstiegs der Körper-
temperatur) bewährt. Zum Schutz des Kopfes eignen sich Schutzhelme mit zusätz-
lichen Gesichtsmasken aus feinmaschigem Drahtgewebe oder aus reflektierend
beschichtetem Kunststoff. Bei all diesen Kleidungsstücken ist das häufig nicht
unerhebliche Eigengewicht zu berücksichtigen, welches zu einer entsprechenden
Erhöhung des Energieumsatzes führt. Hinzu kommt u.U. eine Einschränkung des
Bewegungsraums und des Sichtfeldes für den Träger der Schutzkleidung.
Bei den geschilderten Schutzausrüstungen ist darauf zu achten, dass eine Auf-
heizung der Schilde, Kleidungsstücke etc. vermieden wird, damit diese ihrerseits
nicht selbst zum Strahler werden.
Neben den genannten Beispielen sind auch persönliche Schutzmaßnahmen er-
forderlich. Dazu zählt eine medizinische Eignungsuntersuchung (Arbeitsmedizini-
sche Vorsorgeuntersuchungen gemäß Berufsgenossenschaftlichem Grundsatz G21
Kältearbeit und G30 Hitzearbeit) vor der Hitzeexposition und die laufende Über-
wachung. Ausschließende Bedingungen für Hitzearbeit sind z.B. Herz-Kreislauf-
Erkrankungen, Hautkrankheiten, Alkoholismus, Über- oder Untergewicht, Alter
über 45 Jahre, u.a. auch eine systematische Hitzeakklimatisation vermag die Be-
anspruchung am Arbeitsplatz wirksam zu reduzieren. Zur Prävention von Mangel-
erscheinungen während der Arbeit ist ein entsprechendes Trinkregime mit geeig-
neten Getränken unerlässlich. Damit wird der Verlust von Wasser und Mineralien
ausgeglichen. Da der Flüssigkeitsbedarf mehrere Liter pro Schicht erreichen kann,
sollten die Getränke nach Bedarf und in kleineren Mengen konsumiert werden.
Schließlich ist noch darauf zu achten, dass auch die Nahrungsaufnahme den Ge-
gebenheiten der Hitzearbeit angepasst werden muss. So sind fette und schwerver-
dauliche Speisen zu vermeiden. Eine zusätzliche Salzaufnahme ist in der Regel
nicht erforderlich.
Arbeitsumgebung 885
9.5 Beleuchtung
Das Auge als das wichtigste Organ zur Informationsaufnahme übermittelt ca. 80-
90% aller Reize aus der Arbeitsumgebung (siehe Kap. 3.3.2.1.2.1). Voraussetzung
dafür ist eine ausreichende Beleuchtung bzw. Helligkeit der Objekte. Da die visu-
elle Informationsaufnahme und -verarbeitung in Arbeitssystemen immer wichtiger
wird, gewinnt auch die Gestaltung der Arbeitsbedingungen unter beleuchtungs-
technischen Aspekten an Bedeutung.
Lichtstärke
Der Lichtstrom einer Lichtquelle wird im Allgemeinen nicht gleichmäßig in alle
Raumrichtungen abgestrahlt. Die von einer Lichtquelle in eine bestimmte Raum-
richtung ɸ abgegebene sichtbare Strahlung ) bezogen auf den dabei durchfluteten
Raumwinkel wird Lichtstärke I genannt. Die Einheit ist Candela [cd=lm/sr]
(Abb. 9.42).
: A / r2 ) IH )H / :
r
A
r ȍ ɸ Iİ
Raumwinkel
Ein von einem Punkt im Raum ausgehendes Strahlenbüschel bildet einen Raum-
winkel ȍ gemäß dem Zusammenhang ȍ = A/r², wobei A das Oberflächenstück ist,
das der Raumwinkel aus einer Kugel mit dem Radius r vom Ursprung des Strah-
lenbüschels ausschneidet. Aus der Betrachtung der Einheitskugel (r = 1) ergibt
sich der volle Raumwinkel zu ȍvoll = 4ߨ [sr]. Die Einheit [sr] ist der „Steradiant“
(BRONSTEIN et al. 2001). Diese Beschreibung eines Raumanteils mittels eines
Flächenanteils des Einheitskugelmantels stellt das dreidimensionale Äquivalent
zur Beschreibung eines ebenen Winkels über die Länge eines Einheits-
kreisbogenstücks in [rad] dar.
Beleuchtungsstärke
Die am häufigsten gebrauchte lichttechnische Größe ist die Beleuchtungsstärke E.
Sie entspricht dem auf eine Fläche A treffenden Lichtstrom ):
)
E (9.38)
A
Ihre Einheit ist Lux [lx=lm/m2]. Die nach dieser Flächenbeleuchtungsformel er-
rechnete Beleuchtungsstärke ist als Mittelwert aufzufassen, da im Allgemeinen der
Lichtstrom nicht gleichmäßig über die Fläche verteilt ist. Die Beleuchtungsstärke
E kann für große Verhältnisse von r² zu A auch aus der Lichtstärke I und dem
888 Arbeitswissenschaft
r´
I
r I r İ
E’
E E
I I
E Ec cos 3 H
r2 r2
Abb. 9.43: Beleuchtungsstärke für senkrechten und schrägen Lichteinfall (nach RIS 2008)
Reflexion
Licht wird an Grenz- bzw. Oberflächen entsprechend deren Eigenschaften trans-
mittiert (z.B. Glas), absorbiert (z.B. schwarzer Stoff) und reflektiert (z.B. Spiegel),
wobei unterschiedliche Reflexionseigenschaften von Flächen im Wesentlichen
deren Sichtbarkeit und Erkennbarkeit aufgrund von Kontrasten ermöglichen. Der
Reflexionsgrad ȡ quantifiziert dieses Phänoment durch das Verhältnis des reflek-
tierten Lichtstroms ĭr zum auftreffenden Lichtstrom ĭ0:
)r
U (9.41)
)0
Man unterscheidet gerichtete, gestreute und gemischte Reflexion, die in Abb.
9.44 schematisch dargestellt sind.
Arbeitsumgebung 889
Abb. 9.44: Arten der Reflexion nach SCHIERZ u. KRUEGER (1996); Spiegel (links),
Lambertstrahler (mitte), Glanz (rechts)
Prinzipiell gilt: Je heller und glatter eine Oberfläche ist, umso größer ist der
Reflexionsgrad. Tabelle 9.25 gibt einige Beispiele für Reflexionsgrade.
Tabelle 9.25: Reflexionsgrade U ausgewählter Oberflächen (aus BENZ et al. 1983)
Metallspiegel 95 – 99%
Silber hochpoliert 90 – 92%
Fensterglas 6 – 8%
Leuchtdichte
Die Energie, die als sichtbares Licht in das Auge dringt, wird durch die Leucht-
dichte L beschrieben und in der Einheit [cd/m2] gemessen. Die Leuchtdichte stellt
die objektive physikalische Größe dar, die ein subjektiven Helligkeitsempfindens
hervorruft. Sie resultiert aus der Reflexion einer beleuchteten Fläche oder aus der
Lichtstärke eines selbstleuchtenden Körpers und ist definiert als Lichtstärke I(ș)
bezogen auf den senkrecht zur Betrachtungsrichtung projizierten Teil A(ș) der
betrachteten Fläche A0:
I (T )
L(T ) (9.42)
A(T )
Mit Ausnahme des sog. Lambertstrahlers ist die Leuchtdichte vom
Betrachtungswinkel abhängig. Der Lambertstrahler stellt den Idealfall konstanter
Leuchtdichte über dem Raumwinkel dar. Das Verhältnis aus richtungsabhängiger
Lichtstärke Iref (ș) und projizierter Fläche A(ș) (senkrecht zum Lichtstärkevektor)
890 Arbeitswissenschaft
ist für alle Richtungen gleich. Die Lichtstärkeverteilung Iref (ș)=Iref,0 cos ș eines
Lambertstrahlers bzw. einer Lambertfläche ist in Abb. 9.45 links wiedergegeben
(für A(ș)=A0 cos ș folgt L(ș)=const).
ș ș
I0 I0
Iref Iref,0
Iref
A0 A0
Die Leuchtdichte der Raumoberfläche lässt sich für vollkommen gestreut re-
flektierende Oberflächen (Näherung Lambertstrahler) mit Hilfe der Beleuchtungs-
stärke E, dem Reflexionsgrad ʌ, dem Abstand r zwischen Auge und beleuchteter
Fläche und der beleuchteten Fläche A berechnen (siehe Abb. 9.46).
Vollkommen gestreut r
reflektierende A E
Oberfläche ȡ
Ex
Ux UN (9.43)
EN
9.5.3 Lichttechnik
Am Arbeitsplatz muss die Beleuchtung ausreichend sein, um Gefahren für
Mensch und Betriebsmittel abzuwenden und die Möglichkeit einer Leistungser-
892 Arbeitswissenschaft
Farbwiedergabe
Die Farbwiedergabeeigenschaft einer Lichtquelle beschreibt wie natürlich und
unverfälscht das ausgestrahlte Licht in Relation zum natürlichen Sonnenlicht ist.
Aufgrund der unterschiedlichen Verteilung von Spektralfarben der von Lichtquel-
len ausgesendeten Strahlung, können Spektralbereiche fehlen und die Qualität der
Farbwiedergabeeigenschaft gemindert sein. Angestrahlte Objekte, welche jene
Farben besitzen, die im Spektrum des bestrahlenden Lichtes fehlen, werden dann
als grau wahrgenommen. Ihre tatsächliche Farbe ist nicht erkennbar. Im Allge-
meinen wird die Farbwiedergabe mit dem Farbwiedergabeindex Ra beschrieben,
der bereits in Tabelle 9.26 für verschiedene Lichtquellen dargestellt wurde. Ra
Arbeitsumgebung 893
wird für eine bestimmte Lichtquelle (Lampe) bezogen auf einen Bezugsstrahler
(meist Sonnenlicht) mithilfe von acht Testfarben ermittelt. Je höher der Farbwie-
dergabeindex ist, desto besser ist die Farbwiedergabe. Nach DIN 12464-1 wird die
Farbwiedergabe in sechs Gütestufen unterteilt (Tabelle 9.27). Allgemein gilt, dass
Farbwiedergabe Ra und Lichtausbeute Ș aus physikalischen Gründen in einem
Zielkonflikt stehen (siehe Abb. 9.41 und Gl. (9.37)).
Tabelle 9.27: Farbwiedergabestufen nach DIN 12464-1
Stufe 1A 1B 2A 2B 3 4
Ra 100 bis 90 89 bis 80 79 bis 70 69 bis 60 59 bis 40 39 bis 20
Farbmessung
Durch Mischung der drei Grund-/Primärfarben kann prinzipiell jede Farbe erzeugt
werden. Durch die Angabe der Anteile (X, Y, Z) der drei Grundfarben (rot, gelb,
blau) an einer Farbe ist es möglich, diese zu charakterisieren und in einem
x-y-z-Koordinatensystem darzustellen. Unter der Normierungsvoraussetzung
x+y+z=1 genügt die Angabe von zwei Werten, die in einem ebenen Schaubild,
dem sog. Farbdreieck, dargestellt werden können (Abb. 9.47).
Das Farbempfinden des menschlichen Auges lässt sich über drei Kriterien der
Farbeigenschaften beschreiben und nach DIN 6164 folgenden Maßzahlen zuord-
nen:
x Buntton: Bunttonzahl T
x Sättigung: Sättigungsstufe S
x Helligkeit: Dunkelstufe D
Buntton und die Sättigung sind ebenso im Farbdreieck (Abb. 9.47) dargestellt.
Die Spektralfarben von 380 bis 700 nm sind auf einer Kurve im Farbdreieck
aufgetragen. Die Koordinate x=y=z=0,333 wird „Unbuntpunkt“ (weiß) genannt,
was auf die additive Farbmischung zurückzuführen ist. Von diesem Punkt aus
ziehen sich Geraden gleichen Bunttons, die mit zunehmendem Abstand zum
Unbuntpunkt zunehmende Sättigungsbereiche der Farbe durchlaufen. Farben
gleicher Sättigungsstufe aber unterschiedlichen Farbtons erscheinen dem Be-
obachter als gleich gesättigt oder gleich weißlich.
Die Dunkelstufe D als Maß für die Helligkeit einer Farbempfindung ist nach
einem empirischen Ansatz in zehn empfindungsgemäß äquidistante Stufen einge-
teilt. Die hellste Körperfarbe (Optimalfarbe) eines bestimmten Bunttones ist D=0,
während D=10 die dem idealen Schwarz zugeordnete Dunkelstufe ist. Die Hellig-
keit als dritte Dimension zur Beschreibung des Farbempfindens ist in der zweidi-
mensionalen Darstellung der Farbnormtafel nicht möglich.
Farben lassen sich unter Berücksichtigung menschlicher Wahrnehmung mes-
sen, indem drei zu einer Farbvalenz gehörende Farbmaßzahlen ermittelt werden.
Die Farbvalenz ist die Bewertung eines Farbreizes durch die drei Empfindlich-
keitsfunktionen des Auges und kann als Ortsvektor im dreidimensionalen Farben-
raum dargestellt werden. Der Farbenraum wird durch die x-, y- und z-Koordinaten
894 Arbeitswissenschaft
aufgespannt, mit denen als Grundfarben jede andere Farbe durch Summation be-
schrieben und erzeugt werden kann. Die Koordinaten selbst sind Funktionen der
Farbreizung des Auges ijȜ, der wellenlängenabhängigen Normspektralwertfunkti-
onen für blau X , rot Y und gelb/grün Z sowie einer Reflexions-/ Transmissions-
konstanten ț.
Abb. 9.47: Farbdreieck aus GRÜNWALD u. GUTSCHMIDT (1959), nach DIN 6164
9.5.3.1 LampenĆ
Als Lampen werden nur die eigentlichen Lichtquellen (Glühlampen, Leuchtstoff-
lampen, Dampflampen) bezeichnet. Lampen werden nach ihrer Lichtfarbe, Farb-
wiedergabeeigenschaften, Lichterzeugung und Lichtausbeute eingeteilt.
Die Lichtfarbe einer Lichtquelle wird entweder durch ihren Farbort in der Farb-
tafel angegeben oder durch die ähnlichste Farbtemperatur. Die ähnlichste Farb-
temperatur ist die fiktive Temperatur eines Temperaturstrahlers, bei der dieser die
beste Annäherung an die Farbe des betrachteten Objektes erreicht. Nur bei Glüh-
lampen kann man die Farbtemperatur genau angeben, da diese Temperaturstrahler
sind. Ihre Lichtfarbe und die sonstiger Quellen mit ähnlich niedriger Farbtempera-
tur bis 3000 K wird als warmweiß (ww) bezeichnet. Lichtquellen, deren Farbtem-
peratur etwa der der Sonne entspricht (ca. 6500 K), werden als tageslichtweiß
(tw), die im Bereich von 4000 K als neutralweiß (nw) bezeichnet (Tabelle 9.28).
Tabelle 9.28: Lichttemperatur und Farbwiedergabe verschiedener Lampen (aus BÖCKER
1981 und RIS 2008, nach DIN EN 12464)
Die Einteilung der Lampen nach Art der Energieumwandlung führt zu der Un-
terscheidung in Temperaturstrahler, Entladungsstrahler und Halbleiter (z.B.
Leuchtdioden). Bei Temperaturstrahlern entsteht das Licht durch Erhitzung eines
Leuchtfadens. Mit steigender Temperatur in dem Leuchtfaden geht die Lichtfarbe
von rot (1500 K) über gelb und weiß (6500 K) in blau über. Auch die Lichtfarben
von Entladungslampen werden als Temperaturgrößen unter der Annahme angege-
ben, dass die abgegebene Strahlung den gleichen Eindruck wie ein Temperatur-
strahler vermittelt.
896 Arbeitswissenschaft
Temperaturstrahler
Wichtigste Vertreter dieser Gruppe sind die bekannten Glühlampen mit einer
Farbtemperatur von ca. 2000 K, stark rotem Lichtanteil, einer Verlustwärme von
95%, einer geringen Lichtausbeute von 8-20 lm/W, einer geringen Lebensdauer
von 1000 – 1500 h und einer recht hohen Leuchtdichte im Glühfaden mit entspre-
chender Blendgefahr. Im industriellen Bereich werden diese wegen ihrer warm-
weißen Farbe und ihrer geringen Lichtausbeute kaum noch eingesetzt.
Demgegenüber haben Halogen-Glühlampen eine höhere Lichtausbeute und
längere Lebensdauer. In einem Kreisprozess verdampfen Wolframatome aus dem
Glühfaden und bilden mit dem Halogen-Füllgas (meist Jod- oder Bromverbin-
dung) reversibel eine wolframhaltige Atmosphäre. Diese nicht-stabile Verbindung
zerfällt am heißen Glühdraht wieder in ihre Elemente. Die Wolframatome lagern
sich ausschließlich wieder auf dem Glühdraht ab. Eine Schwärzung des Glaskol-
bens der Lampe findet im Gegensatz zur Vakuum-Glühlampe nicht statt, somit
bleibt auch der Lichtstrom dieser Lampe über die gesamte Lebensdauer annähernd
unverändert. Die Lichtausbeute liegt bei 16-25 lm/W, die Lebensdauer bei ca.
2000 h. Anwendung finden Halogenlampen zur Beleuchtung von Baustellen, im
Handel (Verkaufsflächen), im Bühnen- und Studiobereich und in Fahrzeugen aller
Art. Einer der Gründe für die starke Verbreitung dieser Lampen ist deren punkt-
förmige Ausdehnung, die eine Lichtrichtung mit einfachen Optiken erlaubt.
Entladungsstrahler
Bei Entladungsstrahlern bringen elektrische Entladungen feste, flüssige oder gas-
förmige Stoffe mittelbar oder unmittelbar zum Leuchten. Entladungslampen benö-
tigen als Zusatzgeräte einen Starter, einen Kondensator und eine Drossel zur
Strombegrenzung. Nach dem Fülldruck unterscheidet man Nieder- oder Hoch-
drucklampen. Wichtigste Vertreter der Entladungslampen sind die auch im priva-
ten Bereich angewandte Niederdruckentladungslampe (Leuchtstoffröhre), die
Quecksilberdampf-Hochdrucklampe, die Halogen-Metalldampflampe sowie die
Natriumdampfhochdruck- und -niederdrucklampe.
Da die Energien der Entladungen in Leuchtstofflampen vorwiegend im ultravi-
oletten Bereich liegen, wird zur Lichterzeugung eine Leuchtstoffschicht benötigt,
die die absorbierte Strahlung in sichtbare Strahlung umwandelt. Durch verschie-
denartige Zusammensetzung der Leuchtstoffe können verschiedene Lichtfarben
gewählt werden. Leuchtstofflampen werden universell im industriellen Bereich
eingesetzt. Da ihre Lichtausbeute größer ist als bei Glühlampen und außerdem
geringe Kosten bei der Beschaffung entstehen, sind sie eine gut geeignete Licht-
quelle für allgemeine Beleuchtung.
Für besondere Einsatzfälle werden weitere Entladungslampen benutzt:
x Ein monochromatisches Licht im gelb/orange-Bereich (589 nm) wird von der
Natriumdampf-Niederdrucklampe abgegeben. Wegen des großen Wertes von
V(Ȝ) für den gelben Lichtanteil (Abb. 9.41) und ihres schmalen Spektrums
erreicht diese Lampe die höchste Lichtausbeute (175 lm/W), bietet gute
Arbeitsumgebung 897
Lichtausbeute
Ein großer Teil der zugeführten elektrischen Energie wird bei Temperatur- und
Entladungsstrahlern in Wärme umgesetzt. Aus einer hohen Lichtausbeute kann in
der Regel allerdings nicht auf eine gute Farbwiedergabe der Lampe geschlossen
werden. Denn eine hohe Lichtausbeute kann (siehe Gl. (9.37)) nur erreicht wer-
den, wenn das Lichtspektrum und somit die Lichtleistungsdichte im gelbgrünen
Bereich konzentriert ist. Tabelle 9.29 zeigt verschiedene Lampentypen und deren
Lichtausbeutewerte.
Tabelle 9.29: Lichtausbeute verschiedener Lampenarten in Abhängigkeit von ihrer elektri-
schen Leistungsaufnahme P (aus BÖGE 2007)
9.5.3.2 LeuchtenĆ
Leuchten sind Geräte, die einer zweckmäßigen Verteilung des Lichtes, der Be-
grenzung von Leuchtdichten, der Unterbringung der Halterung, der Wärmeabfuhr
und ggf. weiterer Vorschalteinrichtungen dienen. Lampen sind die Lichtquellen,
Leuchten die äußere Umhüllung. Leuchten schränken den Abstrahlwinkel der
Lampen ein, die in Lichtstärkeverteilungskurven dargestellt werden. Deswegen ist
Arbeitsumgebung 899
111 Leistung
110
Relative
109
Leistung / Errmüdung [%]
Ermüdung
108
107
106
105
104
103
102
101
100
Abb. 9.49: Wirkung der Beleuchtungsstärke auf Leistung und Ermüdung (aus
HARTMANN 1993)
Eine detaillierte Untersuchung der Beleuchtungsstärke und ihr Einfluss auf die
menschliche Leistung sowie Zuverlässigkeit für Werkstatttätigkeiten findet sich in
GALL u. VÖLKER (1996). Abb. 9.50 stellt die Steigerung der Leistung für die Tä-
tigkeiten „Stanzen“, „Abisolieren“, „Bohren“, „Sägen“ und „Zuschneiden“ in
Abhängigkeit der Beleuchtungsstärke dar.
Die Leistungssteigerung durch eine Erhöhung der Beleuchtungsstäke ist dem-
nach auch von der auszuführenden Tätigkeit abhängig. Eine ähnliche Aussage
lässt sich für den in Abb. 9.51 gezeigten Zusammenhang zwischen Beleuchtungs-
stärke und menschlicher Zuverlässigkeit für die gleichen Tätigkeiten treffen.
Arbeitsumgebung 901
Abb. 9.50: Wirkung der Beleuchtungsstärke auf die menschliche Leistung bei industriellen
Tätigkeiten (aus GALL u. VÖLKER 1996)
Abb. 9.51: Wirkung der Beleuchtungsstärke auf die menschliche Zuverlässigkeit bei in-
dustriellen Tätigkeiten (aus GALL u. VÖLKER 1996)
902 Arbeitswissenschaft
9.5.5 Gestaltungshinweise
Die Gestaltung einer guten Beleuchtung ist von vielen Faktoren abhängig. In ers-
ter Linie ist die Tätigkeit bzw. der Zweck dem ein Arbeitsraum im Arbeitssystem
dienen soll zu berücksichtigen. So stellt die Beleuchtungsauslegung für eine Auto-
lackierwerkstatt andere Anforderungen als für einen Operationssaal. In diesem
Abschnitt können daher nur allgemeine Angaben gemacht werden, die an Beispie-
len erklärt werden, sich aber nicht ohne weiteres auf einen anderen Kontext über-
tragen lassen. Für eine detailierte Betrachtung der Auslegung von Innenraumanla-
gen sei auf RIS (2008) verwiesen.
Unabhängig von der Tätigkeit müssen folgende Grundanforderungen erfüllt
sein:
x Details müssen einen Mindestkontrast gegen die unmittelbare Umgebung
aufweisen
x Details brauchen eine Mindestgröße
x Für Details und Umgebung ist eine Mindestleuchtdichte erforderlich
x Details müssen eine Mindestzeit erkennbar sein
x Das Auge muss an die Lichtbedingungen adaptiert sein
x Die Körperlichkeit der Gegenstände ist zu betonen, so dass unterschiedliche
Flächen eines Körpers selbst bei gleichen Reflexionsgraden unterschiedliche
Leuchtdichten aufweisen
x Ein Schlagschatten, der Konturen vortäuscht, die nicht vorhanden sind, ist zu
vermeiden
x Blendung ist durch entsprechende Gestaltung der Arbeitsflächen, der Leuch-
ten selbst, der Platzierung der Leuchten und der Abschirmungen zu vermei-
den.
Künstliche Beleuchtung sollte sich an der Helligkeitsverteilung orientieren, die
durch die Tageslichtbeleuchtung hervorgerufen wird, damit eine Umkehrung der
Lichtrichtung und Schattenwirkung bei rein künstlicher Beleuchtung verhindert
wird. Deshalb sollte das Beleuchtungsmaximum des künstlichen Lichts in Fens-
ternähe liegen (Abb. 9.52).
Abb. 9.52: Beleuchtungsstärkeverteilung bei Tageslicht (links) und bei künstlichem Licht
(rechts), bei der eine Umkehrung der Schattenwirkung vermieden wird (aus HARTMANN
1993)
Arbeitsumgebung 903
In Abb. 9.53 werden die Unterschiede von diffuser, teilweise indirekter Be-
leuchtung und direkter Beleuchtung für die Körperlichkeit von Gegenständen und
Flächen deutlich. Die rein diffuse Beleuchtung erbringt eine gleichmäßige Be-
leuchtung aller Flächen, so dass die Krümmung der Fläche nur am Rande erkenn-
bar wird (Abb. 9.53 links). Mit dem Blick von oben ginge der räumliche Eindruck
verloren. Die gerichtete Beleuchtung (Abb. 9.53 rechts) lässt einen guten Raum-
eindruck entstehen, jedoch mit der Gefahr der Bildung von Schlagschatten. Sinn-
voll ist die teilweise indirekte Beleuchtung, die in der Mitte erkennbar ist.
Abb. 9.53: Rein diffuse (links), teilweise indirekte (mitte) und gerichtete Beleuchtung
(rechts) mit entsprechender Schattenbildung (aus HARTMANN 1993)
Abb. 9.56: Vermeidung von Blendung durch Leuchten und andere Blendquellen (aus RIS
2008) (1. Reflexblendung im Bildschirm durch nicht abgeschirmte Leuchte, 2. Reflexblen-
dung im Bildschirm durch Fenster im Hintergrund, 3. Direktblendung durch Fenster im
Vordergrund, 4. störender Glanz auf Tastatur und Belegen, 5. Direktblendung durch nicht
abgeschirmte Leuchten)
Abb. 9.57: Treppenbeleuchtung ohne störenden Schlagschatten durch zwei seitlich ange-
brachte Wandleuchten (links) und mit störendem Schlagschatten bei einer Deckenleuchte
(rechts)
Abb. 9.58: Beispiele für Reflexblendung und ihre Vermeidung durch richtige Anordnung
der Leuchten am Arbeitsplatz (BÖCKER 1981)
906 Arbeitswissenschaft
Abb. 9.59: Anpassung von Kontrast und Helligkeit an die Sehaufgabe durch korrekte
Anordnung der Leuchten zum Erkennen kleiner Details eines Arbeitsobjektes auf einer
definiert reflektierenden Unterlage. Aus Sicht des Prüfers erscheint das zu prüfende Fein-
blech schwarz, weil die abschirmende Wand keine Reflexion der Stahlerleuchten des Lichts
in Richtung des Prüfers zulässt. Die Fehlstelle „Kratzer“ hebt sich als helles Sehobjekt vom
dunklen Hintergrund ab, da sie das Licht von den Strahlerleuchten auch in Richtung des
Prüfers reflektiert (aus SCHIERZ 2007).
9.6 Arbeitsstoffe
Schadstoffe
in der Luft
feste flüssige
schwebende
Schadstoffe Schadstoffe
Schadstoffe
Aerosole
Abb. 9.61: Gliederung der Schadstoffe am Arbeitsplatz (nach SCHMIDT 89, S. 239)
Zum anderen haben Stoffe toxische Eigenschaften, die erst nach relativ langer
Exposition des Menschen klinisch beobachtbare Schäden zur Folge haben. Bei
genetischen Schäden zeigen sich diese, wenn man von aufwendigen Genomanaly-
sen absieht, gar erst in der folgenden Generation. Erschwerend kommt hinzu, dass
durch den langen Zeitraum zwischen erstmaliger Exposition und Feststellung des
Schadens bisweilen Jahre oder Jahrzehnte liegen und es daher, z.B. bei neuen
Stoffen, lange keine Indizien der Schädlichkeit beim Menschen gibt.
Das Chemikaliengesetz (ChemG) nennt Stoffe und Zubereitungen gefährlich,
wenn sie
x explosionsgefährlich,
x brandfördernd,
x hochentzündlich, leichtentzündlich oder entzündlich,
x sehr giftig oder giftig,
x gesundheitsschädlich,
x ätzend oder reizend,
x sensibilisierend,
x krebserzeugend,
x fortpflanzungsgefährdend oder erbgutverändernd oder
x umweltgefährlich
sind. Ausgenommen sind gefährliche Eigenschaften ionisierender Strahlen (siehe
Kap. 9.3). Abb. 9.62 zeigt einige Gefahrensymbole, die sich an dieser geschlosse-
nen Eigenschaftsliste orientieren.
910 Arbeitswissenschaft
Xi Xn C
+ geringe verwendete Stoffmenge
+ nach Höhe und Dauer niedrige
E
Exposition
iti Schutzstufe 1
+ Maßnahmen nach § 8 Abs. 1-8
ausreichend
Xi Xn C
Schutzstufe 2
T T+
Schutzstufe 3
Das Gefahrenpotential von Schadstoffen spiegelt sich auch in der Statistik der
Deutschen Unfallversicherung, die die Risiken am Arbeitsplatz für Arbeitsperso-
nen und Arbeitsgeräte versichern, wider: Etwa 1% aller meldepflichtigen Arbeits-
unfälle (ca. 9.400 Unfälle) stehen in Zusammenhang mit gefährlichen Stoffen.
Hierbei muss jedoch nicht immer die gefährliche Eigenschaft des Stoffes unfallbe-
stimmend gewesen sein. 53% dieser Unfälle sind auf Verbrennungen, Verbrühen,
Verätzungen u.ä. und unter 10% auf Vergiftungen und Infektionen zurückzufüh-
ren (siehe HVBG 2005). Die Berufskrankheiten (BK), die den Arbeitsunfällen in
Bezug auf die Versicherungsleistung (Renten) gleichgestellt sind und die aufgrund
des hohen finanziellen Risikos (Rentenhöhe Lebenserwartung) in einer geschlos-
senen Liste (63 BK) geführt werden, werden nach dem Hauptverband der gewerb-
lichen Berufsgenossenschaften in sechs Kategorien unterschieden:
(1) durch chemische Einwirkungen verursachte Krankheiten
(2) durch physikalische Einwirkungen verursachte Krankheiten
(3) durch Infektionserreger oder Parasiten verursachte Krankheiten sowie Tro-
penkrankheiten
(4) Erkrankungen der Atemwege und der Lungen, des Rippenfells und des
Bauchfells
(5) Hautkrankheiten
(6) Krankheiten sonstiger Ursachen.
Von den etwa 22.000 bestätigten Berufskrankheiten im Jahr 2006 stehen etwa
70% in Verbindung zu den Wirkungen gefährlicher Arbeitsstoffe (Gruppen 1, 3, 4,
5). Die Hautkrankheiten in Gruppe 5 bilden davon mit rund 56,3% die größte
Gruppe (39% bezogen auf Gesamtzahl BK). Weiterhin bildet die Zahl der Erkran-
kungen der Atemwege und der Lunge, des Rippenfells und des Bauchfells (Grup-
pe 4) mit rund 37,6% (26,6% bezogen auf Gesamtzahl BK) einen weiteren
Schwerpunkt (HVBG 2008).
Arbeitsumgebung 911
9.6.1.1 DieĆWirkungĆbeeinflussendeĆGrößenĆ
9.6.1.2 ArtĆdesĆStoffesĆ
100
nicht einatembar
Sammelleffizienz (%)
Tracheo- Nasen-
50 Bronchial- Rachen-
staub
t b Kehlkopfstaub
alveolengängig
einatembar
thoraxgängig
10
2 5 10 20 50 100
Aerodynamischer Partikeldurchmesser dae [ȝm]
Aufnahme durch:
EINATMEN
Gase, Dämpfe,
Stäube, Aerosole
VERSCHLUCKEN
Stäube und
Flüssigkeiten
HAUTRESORPTION
Stäube und
Flüssigkeiten
Abb. 9.64: Aufnahmewege für Chemikalien in den menschlichen Körper (in Anlehnung an
MENCHE 2007)
9.6.1.3 KonzentrationĆ
Die Konzentration von Gasen, Dämpfen und flüchtigen Schwebstoffen wird in
ml/m3 (Milliliter pro Kubikmeter), entspricht ppm (parts per million, d.h. Teile pro
1 Million Teile), oder in mg/m3 (Milligramm pro Kubikmeter) angegeben. Die
Angabe in ml/m3 bzw. ppm ist von Temperatur und Luftdruck unabhängig, wäh-
rend sich die in mg/m3 angegebenen Werte auf eine Temperatur von 20 °C und
einen Luftdruck von 1013 hPa beziehen. Die Konzentrationsangabe für nichtflüch-
tige Schwebstoffe (Staub, Rauch, Nebel) erfolgt in mg/m3 (Milligramm des Stof-
fes je Kubikmeter Luft) oder für Asbest auch in Fasern/m3.
Werden Proben bei anderen Umgebungsbedingungen als 20 °C und einem
Luftdruck von 1013 hPa genommen, sind die Messwerte umzurechnen. Grundlage
hierfür ist das ideale Gasgesetz:
m
p V n R T R T (9.44)
G
p: Druck [Pa]
V: Volumen [m3]
914 Arbeitswissenschaft
n: Stoffmenge [mol]
R: Gaskonstante (R = 8,314 J/K/mol)
T: Temperatur in K (0°C = 273,16 K)
m: Masse [kg ]
G: Molekulargewicht [kg/mol]
Daraus ergibt sich die folgende Formel zur Umrechnung der bei anderen Zu-
standsbedingungen erhaltenen Konzentrationen:
§ mx · pn Ta
Ca ¨ V ¸ , Cn Ca (9.45)
© ¹a Tn pa
Ca: Konzentration bei Umgebungs- bzw. Ausgangsbedingungen
Cn: Konzentration bei Normbedingungen
m x: Masse des zu messenden Stoffes in der Probe
V: Gasvolumen der Probe
p: Druck
T: Temperatur
a: Ausgangsbedingungen
n: Normbedingungen, T = 20 °C, p = 1013 hPa
Abb. 9.65 zeigt die für die Messung und Beurteilung relevanten Stoffkonzent-
rationen in Zahl und vergleichendem Bild.
Beispiel:
Der Gehalt eines Zuckerwürfels aufgelöst in
Abb. 9.65: Die für die Messung und Beurteilung von Schadstoffen relevanten Stoffkon-
zentrationen in Zahl und vergleichendem Bild (nach VALENTIN et al. 1985)
9.6.1.4 ArtĆderĆEinwirkungĆ
Einatmen: Beim Einatmen können sich staubförmige Stoffe und Fasern, je nach
Teilchengröße, in den oberen Atemwegen (Nasen-Rachenraum), den Bronchien
oder in der Lunge ablagern. Auf dem gleichen Weg gelangen Gase, Dämpfe und
Nebel in den Körper.
Verschlucken: Nebeltröpfchen oder Stäube gelangen mit dem Speichel in den
Magen- und Darmbereich und können dort Schäden hervorrufen. Auch schon im
Atemtrakt deponierte Stäube können durch die Reinigungsmechanismen des
Atemtraktes in den Verdauungstrakt übertreten und dort resorbiert und biologisch
wirksam werden. Vermehrtes Schlucken durch Kaugummikauen und Essen am
Arbeitsplatz erhöhen die Menge der gefährlichen Arbeitsstoffe, die durch Ver-
schlucken in den Körper gelangen.
Hautkontakt: Über verunreinigte Hände oder Flüssigkeitsspritzer auf der Haut
können manche Stoffe in den Körper gelangen. Über die Haut werden besonders
fettlösende Stoffe in den Organismus aufgenommen.
Nicht immer wirkt der Stoff direkt an der Stelle, wo er mit dem Körper zum
ersten Mal in Berührung kommt (z.B. Verätzung der Haut durch eine starke Lau-
ge). Der Schaden kann auch erst dann entstehen, wenn der Stoff in ein bestimmtes
Organ im Körper transportiert wird oder wenn sich die Substanz im Stoffwechsel-
prozess verändert hat, z.B. Leber- und Nierenschäden durch eingeatmete Lösemit-
tel. Eine Substanz kann auch durch andauernde Einwirkung geringer Dosen, die
scheinbar harmlos sind, schädigen.
Wiederholter Kontakt mit bestimmten Stoffen kann zu allergenen Reaktionen
führen. Zwischen den Stoffeinwirkungen können größere Zeiträume liegen. Hat
eine Sensibilisierung des Organismus stattgefunden, genügen schon geringe Men-
gen, um allergische Reaktionen hervorzurufen.
9.6.1.5 EinwirkungsdauerĆ
Bei der Einwirkungsdauer müssen die Dauer und Häufigkeit der Exposition be-
achtet werden. Während bei vielen Stoffen davon ausgegangen wird, dass die
durch den Stoff verursachten Wirkungen reversibel sind, sich also in der Freizeit
der Person zurückbilden, ist dies bei anderen Stoffen – hierzu gehören vor allem
die krebserzeugenden Stoffe – nicht der Fall.
9.6.1.6 IndividuelleĆKonstitutionĆ
9.6.1.7 TätigkeitĆ
Eine schwere körperliche Tätigkeit erhöht z.B. das Atemvolumen. Es werden mit
dem erhöhten Luftumsatz auch mehr Schadstoffe aufgenommen.
9.6.1.8 SuperpositionĆ
Eine Superposition kann u.a. mit
x anderen Umgebungsfaktoren, wie z.B. dem Klima, vorliegen. Es ist eine ge-
nauere Betrachtung der Wirkungsmechanismen notwendig, um zu beurteilen,
ob es in einem oder mehreren organismischen Systemen zu einer Addition
oder Potenzierung der Wirkungen kommt.
x anderen Arbeitsstoffen vorliegen, den so bezeichneten Giftstoff-
Synergismen.
x Genussmitteln wie Alkohol und Zigaretten auftreten. Dabei kann es zu einer
Verstärkung der Wirkung kommen. So muss beachtet werden, dass bei Zu-
sammenwirken von Tabakrauch und einigen industriell anfallenden Gasen,
Rauchen und Stäuben, z.B. von Zement oder beim Schweißen, Summations-
oder Potenzwirkungen der Schädigung auftreten.
9.6.2.1 ArtenĆderĆSchädigungĆ
Gefährliche Arbeitsstoffe können akut schädigen, d.h. durch die Stoffe können
Arbeitsunfälle verursacht werden (Verbrennungen, Verbrühungen, Verätzungen,
Vergiftungen, Infektionen, usw.). Es kann auch eine chronische Schädigung beim
Menschen auftreten (allergische Erkrankung, Krebserkrankung, Silikose bzw.
Staublunge, usw.), die dann ggf. als Berufskrankheit anerkannt wird.
Gefährliche Arbeitsstoffe sind oft perzeptiv nicht festzustellen, d.h. der Mensch
besitzt keinen Rezeptor bzw. kein Organ, das ihn vor dem Stoff warnt. Anderer-
seits tritt bei wahrnehmbaren Stoffen oft auch eine Gewöhnung ein, der Geruch
des Arbeitsstoffes wird dann nicht mehr wahrgenommen und verliert seine Warn-
wirkung. Im Folgenden werden für einige ausgewählte Stoffe, geordnet nach dem
Aggregatzustand, beispielhaft die Wirkungsmechanismen erläutert (nach LEHDER
u. SKIBA 2005).
9.6.2.2 StäubeĆ
Staub, der vorwiegend Schädigungen durch Gewebeänderungen verursacht, wird
als fibrogener Staub bezeichnet. Da in der Vergangenheit fast ein Drittel aller
erstmals entschädigten Berufskrankheiten durch Stäube verursacht wurden, sind
besonders zu beachten:
Arbeitsumgebung 917
9.6.2.3 RaucheĆ
Für Rauche gilt sinngemäß das gleiche wie für Stäube. Besonders zu beachten ist,
dass der beim Schweißen von lackierten Teilen entstehende Rauch u.a. Blei, Zink,
Chromoxide und Phosphorverbindungen und der beim Löten gebildete Rauch
Schwermetalle enthält.
9.6.2.4 NebelĆ
Zu beachten ist vor allem der bei der Metallverarbeitung entstehende Ölnebel.
Nach dem Stand der Forschung kann nicht eindeutig belegt werden, ob die in den
918 Arbeitswissenschaft
9.6.2.5 DämpfeĆ
Einen niedrigen Siedepunkt haben die organischen Lösungsmittel, die daher häu-
fig als Dämpfe zu finden sind. Besonders leicht bilden die verwandten Chlorkoh-
lenwasserstoffe, wie Tetra(chlormethan) CCl4, Tri(chlorethan) CCl2-CHCl,
Tetrachlorethen (andere Bezeichnung Per(chloräthylen)) CCl2-CCl2, 1,1,1-
Trichlorethan CCl3-CCl3 und Dichlormethan (Methylenchlorid) CH2Cl2, schwere
Dämpfe und verursachen Schwindel, Benommenheit und Rausch. Chronische
Folgen sind Konzentrationsschwäche, Alkoholunverträglichkeit und schwere
Leber- und Nierenschäden. Halogenkohlenwasserstoffe wirken in flüssiger Form
als Kontaktgifte und sind, oral aufgenommen, sehr giftig.
Benzol ist mit einem Siedepunkt von 80 °C Bestandteil vieler Lösemittel und
von Motorbenzin. Die Dämpfe schädigen beim Einatmen die blutbildenden Zen-
tren und sind krebserzeugend. Bei Berührung verursacht Benzol Hautschäden.
Unter den Metalldämpfen ist u.a. das flüssige, leicht verdampfende Quecksilber
sehr gefährlich. Es verursacht Übelkeit, Haarausfall und chronische Störungen des
Zentralnervensystems.
9.6.2.6 GaseĆ
Gase können giftig, ätzend und erstickend wirken. Häufig bilden sie auch mit der
Luft explosionsfähige Atmosphären. Am häufigsten treten folgende Gase auf:
x Kohlenmonoxid (CO) ist farb-, geruch- und geschmacklos. Es entsteht bei
unvollständiger Verbrennung und ist daher in Rauch, Auspuffgasen, Stadtgas
etc. enthalten. Es lagert sich 300 mal fester an den Blutfarbstoff Hämoglobin
an als Sauerstoff und führt so zur Erstickung.
x Kohlendioxid (CO2) ist ein schweres, farb- und geruchloses Gas. Es tritt be-
sonders in Bergwerken aus und führt zu Erstickungen.
x Nitrose Gase sind das farb- und geruchlose NO, das bei höheren Konzentra-
tionen in das ab 200 ppm rötlich-braun sichtbare NO2 übergeht, und andere
Gase, deren wesentlicher Bestandteil NO2 ist. In der Lunge kommt es zu
schweren Schäden, da sich aus den nitrosen Gasen Salpetersäure (HNO3)
bildet.
x Ozon (O3) ist ein typisch riechendes, sehr giftiges Reizgas, das sich bei elekt-
rischen Ladungen in der Luft und bei UV-Bestrahlung bildet. Es tritt daher
beim Schweißen, Röntgen usw., in geringer Konzentration auch bei Dru-
ckern, auf.
Arbeitsumgebung 919
9.6.3 Messung
9.6.3.1 Ermittlungs-ĆundĆÜberwachungspflichtĆ
9.6.3.2 ProbenahmeĆ
Strategische Probenahme
Das Ziel einer Messung bestimmt die Art und Weise einer Probenahme. Neben
den gesetzlich geforderten Messungen können auch zur technischen Gestaltung
des Arbeitsplatzes Messungen hilfreich sein. Um z.B. Hinweise für die Auslegung
einer Absauganlage zu erhalten, spielen das Wissen über den Entstehungsort und
das zeitliche Auftreten einer Schadstoffkonzentration eine Rolle; in diesem Falle
erfolgt die Probenahme sicherlich anders, als wenn es um die Beurteilung einer
auf die Arbeitsperson einwirkenden Schadstoffbelastung geht. Im Folgenden soll
aber nur näher auf den letzteren Fall eingegangen werden.
Arbeitsumgebung 921
Technische Probenahme
Der zu messende gefährliche Arbeitsstoff liegt in der Luft als Staub, Rauch, Ne-
bel, Dampf oder Gas vor. Eine Möglichkeit der Probenahme ist das Einschließen
eines bestimmten Luftvolumens mit den darin enthaltenen gefährlichen Arbeits-
stoffen, z.B. in einem vorher evakuierten Glasrohr oder in einem Kunststoffbehäl-
ter. Die Gasprobe wird dann der Analyse zugeführt. Oftmals werden jedoch die in
der Probe enthaltenen gefährlichen Arbeitsstoffe für eine Analyse nicht ausrei-
chen. Bei den folgenden Verfahren werden die gefährlichen Stoffe in einer sog.
Sammelphase angereichert und fixiert. Der Messaufbau entspricht fast immer dem
in Abb. 9.66 dargestellten. Oftmals werden auch mehrere Sammelphasen hinterei-
nander geschaltet. Die erste Sammelphase bindet Stoffe, die zu Querempfindlich-
keiten bei der eigentlichen Analyse führen würden. Gasmengenzähler und Re-
gelventil sind meist in der Pumpe integriert.
Barometer
Probeluft
Thermometer
Sammelphase
Regelventil
Pumpe
Uhr
Gasmengenzähler
Nach den Anforderungen der Messung und der Art des gefährlichen Arbeits-
stoffes wird die Sammelphase ausgewählt. Für Stäube, Rauche und Fasern sind
dies Glasfaser- oder Membranfilter. Für Nebel, Dämpfe und Gase werden Absorp-
tionsverfahren (absorbieren: aufsaugen, in sich aufnehmen) mit Flüssigkeiten und
Adsorptionsverfahren (adsorbieren: Gase oder gelöste Stoffe an der Oberfläche
eines festen Stoffes anlagern) mit einer Festkörpermatrix als Sammelphase einge-
setzt.
Die Flüssigkeit hält den Stoff entweder auf Grund der reinen Löslichkeit oder
auf Grund einer chemischen Reaktion in einem Mehrkomponentengemisch zu-
rück. Als Flüssigkeiten finden z.B. destilliertes Wasser, verdünnte Mineralsäuren
für basische Gase und Dämpfe, verdünnte Natronlauge für saure Gase und Dämp-
fe, Perhydrollösungen für Schwefeloxid und Bisulfitlösungen für Aldehyde Ver-
wendung (HÖNIG 1982). Die Absorptionsverfahren mit zum Teil zwei Waschfla-
schen sind in der Regel nicht für eine personengebundene Messung geeignet.
Bei den Adsorptionsverfahren wird der Schadstoff physikalisch an der Festkör-
permatrix gebunden. Gebräuchlich sind Matrizen aus Silicagel für organische
Verbindungen und Aktivkohleröhrchen für organische Gase und Dämpfe. Die
Adsorptionsverfahren sind meist in relativ kompakten Bauformen realisierbar und
können daher von der Person mitgeführt werden.
Arbeitsumgebung 923
9.6.3.3 AnalyseverfahrenĆ
Der apparative Aufwand für die Analyse wird i.Allg. größer als der Aufwand für
die Probenahme sein. In vielen Fällen werden gerade in kleinen und mittelständi-
schen Unternehmen die für die Analyse notwendigen Geräte nicht zur Verfügung
stehen. Ist die Probenahme und Analyse nicht möglich, so findet sich auf den
Internetseiten des Bundesverbandes der Messstellen für Umwelt- und Arbeits-
schutz ein Verzeichnis für nach der Gefahrstoffverordnung (GefStoffV §9 Abs. 6)
akkreditierte Messstellen und Prüflaboratorien. In vielen Fällen bereitet jedoch nur
die innerbetriebliche Analyse Probleme. In diesen Fällen ist das vom Berufsge-
nossenschaftlichen Institut für Arbeitssicherheit (BIA) vorgelegte Konzept „De-
zentrale Probenahme - Zentrale Auswertung“ zu verfolgen (vgl. WOLF u. BLOME
1982, BIA 1983). Die Probenahmebedingungen für die Messung gas-, dampf- und
staubförmiger Schadstoffe sind vom BIA aufgelistet worden. Die so gezogenen
Proben können nun an ein geeignetes Labor zur Auswertung gesandt werden.
9.6.3.4 MessverfahrenĆundĆ-geräteĆ
mung der Feinstaubkonzentration besteht in der Wiegung des mit dem Feinstaub
beaufschlagten Filtersegments. Dazu wird der entsprechende Teil des Filters aus-
gestanzt und das Gewicht mit dem durchschnittlichen „Leergewicht“ mehrerer
unbeaufschlagter Filtersegmente verglichen. Die folgend beschriebene Methode
der Auswertung ist genauer, kann aber nur von entsprechend ausgerüsteten Labors
vorgenommen werden. Der mit Feinstaub belegte Filterbereich wird mit ȕ-
Strahlen durchstrahlt. Die Absorption von ȕ-Teilchen ist dann ein Maß für die
Feinstaubmenge (FÖDISCH 2004).
Das Probenahmegerät Gravikon PM 4 arbeitet mit einem Volumenstrom von
4 m³/h. Im Gegensatz zum Gravikon VC 25 ist dieses Gerät aufgrund des geringe-
ren Volumenstroms insbesondere in kleinen Räumen einsetzbar, ohne dass die
Schadstoffkonzentration durch den Einsatz des Gerätes beeinflusst wird.
angesaugte angesaugte
Luft Luft
Feinstaub
•
• • Großstaub
Prallplatte
Abb. 9.67: a) Staubmessgerät; b) Prinzip der Trennung von Fein- und Grobstaub
Für die Messung der Gesamtstaubkonzentration an der Person kann ein eben-
falls vom BIA entwickelter Gesamtstaubmesskopf in Verbindung mit einer von
der Person zu tragenden Messpumpe verwandt werden. An dieser Stelle seien die
gegenüber Standardverfahren abgesicherten Systeme GSP und der Absorber B 70
genannt. Die Ansauggeschwindigkeit des GSP beträgt ebenfalls 1,25 m/s, der
Luftdurchsatz liegt allerdings nur bei 3,5 l/min (GSP 3,5) bzw. 10 l/min (GSP 10),
dementsprechend länger dauern die Messzeiten. Die Auswertung erfolgt mittels
Wiegung. Der Absorber B 70 weist ebenfalls eine Ansauggeschwindigkeit von
1,25 m/s auf bei einer Ansaugrate von 70 l/h.
Zur Bestimmung der Staubart dient eine chemische Analyse der gesammelten
Probe.
Hand einer Skala oder einer Vergleichsfarbtafel kann die Konzentration des Stof-
fes vom Röhrchen abgelesen werden.
Es gibt Röhrchen für Kurzzeitmessungen, die z.B. zur Erfassung des Konzen-
trationsverlaufes eingesetzt werden können, und solche für Langzeitmessungen,
die bis zu acht Stunden die Durchschnittskonzentration bestimmen. Spezielle
Röhrchen für Unfallsituationen ermöglichen rasch eine Eingrenzung der ausgetre-
tenen Stoffe. Die Vorteile von Prüfröhrchen sind:
x relativ einfache Handhabung
x schnelle Ergebnisse, da Probenahme und Analyse zeitlich zusammenfallen
x Wirtschaftlichkeit.
Als Nachteile stehen dem gegenüber:
x Querempfindlichkeitsprobleme, die immer dann hinderlich sind, wenn viele
Stoffe gleichzeitig vorhanden sind
x relative Abweichungen von bis zu 30%,
x große Messunsicherheiten im Neu- und Altzustand. Die Messunsicherheit
verschlechtert sich im Altzustand, im schlimmsten Fall wird gar keinen Ge-
fahrstoff mehr angezeigt.
Aus diesen Punkten ergibt sich, dass Prüfröhrchen für orientierende Messungen
zur Erlangung von Vorwissen am günstigsten eingesetzt werden können. Je näher
ein Messwert dem Grenzwert kommt, desto notwendiger ist die Wiederholung der
Messung mit einem spezifischeren oder empfindlicheren Verfahren (QUELLMALZ
1988; WOLF 1977). Positiv lässt sich aber auch feststellen, dass eine Schadstoff-
konzentration nicht vorliegt, wenn ein entsprechendes Röhrchen keine Reaktion
zeigt.
Für genauere Messungen sind von verschiedenen Herstellern mikroprozessor-
gesteuerte, explosionsgeschützte tragbare Messpumpen erhältlich. Diese saugen
mit einstellbarem Volumen Luft aus dem Atembereich der Person durch die
Sammelphase ein.
Für die unterschiedlichen Stoffe gibt es z.B. bei GREIM (2006) Analysevor-
schriften, die Probenahmebedingungen, Sammelphase und Analyse beschreiben.
Für bestimmte Gase gibt es Warngeräte, die bei Überschreiten der festgelegten
Konzentration einen Alarm geben.
9.6.3.5 HautresorptionĆ
Im Gegensatz zur inhalativen Exposition steht keine geeignete Größe zur Quanti-
fizierung der Aufnahme von gefährlichen Stoffen durch die Haut zur Verfügung.
Neben einer lokalen Wirkung sind auch Wirkungen an anderen Stellen des Orga-
nismus zu beachten. Die Fähigkeit eines Stoffs die Haut zu durchdringen, wird mit
der Penetrationsrate beschrieben. Diese ist allerdings experimentell nur sehr auf-
wendig zu ermitteln, daher wird häufig auf die Fettlöslichkeit des Stoffes als Maß-
stab der Penetration zurückgegriffen.
926 Arbeitswissenschaft
9.6.4.1 SystematikĆderĆGrenzwerteĆ
Zur Beurteilung von gefährlichen Arbeitsstoffen gibt es verschiedene Schwellen,
ab denen Maßnahmen ergriffen werden müssen, und Grenzwerte, die nicht über-
schritten werden dürfen. Dies ist zu allererst die Auslöseschwelle, die durch ver-
schiedene Grenzwertkonzepte konkretisiert wird. Bei den Grenzwerten von Stof-
fen in der Luft am Arbeitsplatz wird zwischen zwei Gruppen von Stoffen unter-
schieden. Es gibt eine Kategorie von Stoffen, für die toxikologisch eine Schwel-
lendosis bestimmbar ist, unterhalb derer durchschnittlich gesunde Menschen nicht
mit einem Gesundheitsschaden rechnen müssen. Eine zweite Kategorie von Stof-
fen umfasst vor allem die krebserzeugenden und erbgutverändernden Stoffe, für
die ein solcher Schwellwert nicht existiert bzw. nicht bestimmbar ist (BUNDES-
ANSTALT 1986). Für diese beiden Gruppen von Stoffen werden gesundheitsbasier-
te AGW (Arbeitsplatzgrenzwerte) aufgestellt, die in ihrer Bedeutung den bisheri-
gen Werten für eine sog. Maximale-Arbeitsplatz-Konzentration (MAK) entspre-
chen. Ebenso existieren Grenzwerte für absolute Quantitäten eines Arbeitsstoffes
bzw. die Auswirkung des Arbeitsstoffes im biologischen Material des Menschen
(z.B. Blut, Harn). Es wird wieder zwischen krebserzeugenden und erbgutverän-
dernden Stoffen sowie anderen Stoffen unterschieden. Der biologische Grenzwert
gilt für letztere Gruppe.
9.6.4.2 ArbeitsplatzgrenzwertĆ
9.6.4.3 BiologischerĆGrenzwertĆ
Seit 1. Januar 2005 werden in der neuen Gefahrstoffverordnung die alten Biologi-
sche-Arbeitsplatztoleranz-Werte (BAT-Werte) durch sog. biologische Grenzwerte
(BGW) ersetzt. Die alten BAT-Werte können und sollen jedoch bis zur vollständi-
gen Umsetzung der Verordnung als Richt- und Orientierungsgrößen weiter ver-
wendet werden. Der biologische Grenzwert ist ein „Grenzwert für die toxologisch-
arbeitsmedizinisch abgeleitete Konzentration eines Stoffes, seines Metaboliten
oder eines Beanspruchungsindikators im entsprechenden biologischen Material,
bei dem im Allgemeinen die Gesundheit eines Beschäftigten nicht beeinträchtigt
wird“ (§3 Abs. 7 GefStoffV).
Biologische Grenzwerte können als Konzentrationen, Bildungs- oder Aus-
scheidungsraten (Menge/Zeiteinheit) definiert sein. Wie bei den Arbeitsplatz-
grenzwerten (AGW) wird in der Regel eine Stoffbelastung von maximal 8 Stun-
den täglich und 40 Stunden wöchentlich zugrunde gelegt. Biologische Grenzwerte
sind als Höchstwerte für gesunde Einzelpersonen konzipiert. Sie werden unter
Berücksichtigung der Wirkungscharakteristika der Stoffe in der Regel für Blut
oder Urin aufgestellt. Maßgebend sind dabei arbeitsmedizinisch-toxikologisch
fundierte Kriterien des Gesundheitsschutzes. Biologische Grenzwerte gelten in der
Regel für eine Belastung mit Einzelstoffen (TRGS 903).
9.6.4.4 MaximaleĆArbeitsplatz-KonzentrationĆ(MAK-Wert)Ć
Die klassischen MAK-Werte (Maximale Arbeitsplatz-Konzentration) sind heute
formaljuristisch nicht mehr relevant. Da sich aber momentan die Arbeitsplatz-
grenzwerte noch an den MAK-Werten orientieren, seien diese im Folgenden
nochmals kurz erläutert. Der MAK-Wert beschreibt die höchstzulässige Konzent-
ration eines Arbeitsstoffes als Gas, Dampf oder Schwebstoff in der Luft am Ar-
beitsplatz, die nach dem gegenwärtigen Stand der Kenntnis auch bei wiederholter
und langfristiger, in der Regel täglich 8-stündiger Exposition, jedoch bei Einhal-
tung einer durchschnittlichen Wochenarbeitszeit von 40 Stunden (im Vierschicht-
betrieb 42 Stunden je Woche im Durchschnitt von vier aufeinanderfolgenden
Wochen) i.Allg. die Gesundheit der Beschäftigten nicht beeinträchtigt und diese
Arbeitsumgebung 929
nicht unangemessen belästigt. In der Regel wird der MAK-Wert als Durch-
schnittswert über Zeiträume bis zu einem Arbeitstag oder einer Arbeitsschicht
integriert.
Die MAK-Werte berücksichtigen nach Möglichkeit – aber nicht immer – die
unterschiedliche Empfindlichkeit des arbeitsfähigen Menschen, soweit sie durch
Alter, Konstitution, Ernährungszustand, Klima und andere Faktoren bedingt ist.
Die Einhaltung der MAK-Werte gibt allerdings keine Sicherheit gegen das Auftre-
ten von allergischen Krankheiten bei Personen, die zu solchen neigen. Ebenso ist
kein sicherer Schutz des ungeborenen Kindes vor teratogenen (von der Norm
abweichenden) Wirkungen gewährleistet. Die Lästigkeit einer Einwirkung (z.B.
ekelerregender Geruch, kurzfristiger Augenreiz usw.) ist in den MAK-Werten
nach Möglichkeit dem Stand der gesundheitspolitischen Wertung entsprechend
berücksichtigt (LEHDER u. SKIBA 2005).
Die Liste der MAK-Werte/AGW wird jährlich neu von der Senatskommission
zur Prüfung gesundheitsschädlicher Arbeitsstoffe der Deutschen Forschungsge-
meinschaft überarbeitet und an verschiedenen Stellen veröffentlicht (z.B. als TRGS
900).
9.6.4.5 StoffgemischeĆ
Die vorgenannten Grenzwerte gelten in der Regel nur für die Exposition eines
reinen Stoffes, an Arbeitsplätzen treten aber in der Regel Stoffgemische auf. Die
gleichzeitige oder nacheinander erfolgende Exposition gegenüber verschiedenen
Stoffen kann die gesundheitsschädliche Wirkung erheblich verstärken, ggf. auch
vermindern. So ist in der TRGS 402 gefordert, dass eine „Beurteilung der
Gemischexposition vorzunehmen“ ist, wenn „mehrerer Stoffe gleichzeitig oder
nacheinander während einer Schicht zur Exposition beitragen“, sofern für die
einzeln auftretenden Stoffe „verbindliche Grenzwerte“ (bspw, die Arbeitsplatz-
grenzwerte in TRGS 900) vorliegen, wird für das Gemisch folgendes Verfahren
angewendet.
Es wird ein Stoffindex I aus der Division des Schichtmittelwertes C des Einzel-
stoffes mit dem Grenzwert GW des Stoffes gebildet:
C
I (9.46)
GW
Der Bewertungsindex BI für Stoffgemische bildet sich dann aus der Summe der
Stoffindizes für die Stoffe mit einem Arbeitsplatzgrenzwert AGWi:
C1 C2 Cn
BI AGW ¦I
i
i
AGW1 AGW2
...
AGWn
(9.47)
9.6.4.6 HautresorptionĆ
Bei Stoffen, welche die äußere Haut leicht zu durchdringen vermögen, kann über
diesen Weg in der Praxis eine höhere Vergiftungsgefahr bestehen als durch die
Aufnahme über das Einatmen. So können z.B. durch Anilin, Nitrobenzol,
Ethylenglykoldinitrat, Phenole und verschiedene Pflanzenschutzgifte lebensge-
fährliche Vergiftungen entstehen. In der Grenzwert-Liste sind solche Stoffe spezi-
ell gekennzeichnet.
9.6.5 Gestaltungshinweise
Wie bereits in Kapitel 9.6.4 beschrieben, werden die Gefahrstoffe nach der Ge-
fahrstoffverordnung vier unterschiedlichen Schutzstufen zugeordnet, die bezogen
auf die zu treffenden Schutzmaßnahmen aufeinander aufbauen. Das bedeutet, dass
jede höhere Schutzstufe die Maßnahmen der vorherigen beinhaltet.
932 Arbeitswissenschaft
ranten die Zusammensetzung seines Produktes zu erfahren, besteht nun ein An-
spruch auf die Bekanntgabe der chemischen Zusammensetzung, soweit gefährli-
che Stoffe enthalten sind. Im eigentlichen Sinne keine Bekämpfung der Gefahr-
stoffe, sondern der Versuch, frühzeitig Veränderungen zu erkennen, sind die ver-
schiedentlich (z.B. in der BGV A 4) geforderten Vorsorgeuntersuchungen. Diese
müssen von staatlich ermächtigten Ärzten durchgeführt werden, über deren Er-
gebnisse ist Kartei zu führen, und die Arbeitnehmer sind auf Verlangen über den
Untersuchungsbefund zu unterrichten.
Fall dient jedoch die „Abfallwärme“ durch die dynamische Arbeit der Wärmere-
gulation, die durch das kalte Klima erforderlich ist. Insgesamt wird damit eine
geringere Beanspruchung zu verzeichnen sein, als wenn jede Belastungsart einzeln
betrachtet wird. DIESTEL (1983) bezeichnet den kompensatorischen Effekt folge-
richtig auch als Wirkungsabschwächung.
Indifferenzeffekt beschreibt den Umstand, dass durchaus mehrere Belastungsar-
ten vorliegen können, die keinen wechselseitigen Einfluss auf den Organismus in
Form von Beanspruchungsreaktionen, die über die Beanspruchung aufgrund nur
einer Belastungsart hinausgehen, bewirken. Die unterschiedlichen Belastungsarten
werden dabei in der Regel unterschiedliche Organsysteme beanspruchen, die je-
weils für sich genommen in der Lage sind, die Einzelbelastung im Rahmen ihrer
Kapazität ohne Rückwirkungen auf andere Organsysteme zu verarbeiten. Voraus-
setzung ist dabei, dass die angesprochene Kapazitätsgrenze nicht überschritten
wird, da in diesem Fall regelmäßig mit der Inanspruchnahme weiterer Organsys-
teme zu rechnen ist. Auch hier soll ein Beispiel diesen Zusammenhang verdeutli-
chen: Bei der Kombination der Belastungsarten „dynamische Arbeit“ und „unter-
schiedliche Beleuchtungsstärken“ (als situative Belastungsart) kann ein gegensei-
tiger Einfluss ausgeschlossen werden, da das Herz-Kreislauf-System und das
Organsystem „Auge“ mit den nachgeschalteten Verarbeitungsmechanismen, also
die beanspruchten Organsysteme, als weitgehend unabhängig voneinander funkti-
onierend betrachtet werden können. Voraussetzung ist hier, wie geschildert, dass
keines der beanspruchten Organsysteme „überfordert“ wird. Der Indifferenzeffekt
wird auch mit dem Begriff „Wirkungsgleichheit“ beschrieben.
Kumulationseffekt bedeutet, dass die resultierende Beanspruchungsreaktion des
Organismus höher ist, als die Beanspruchungsreaktionen einzelner Belastungsar-
ten bei isolierter Betrachtung. Dieser Effekt wird naturgemäß dann zu beobachten
sein, wenn durch verschiedene Belastungsarten ein und dasselbe Organsystem
beansprucht wird. Ein Beispiel für den Kumulationseffekt ist das Zusammentref-
fen der Belastungsarten „dynamische Arbeit“ und „warme Klimazustände“. Dabei
wirken beide Belastungen auf das gleiche Organsystem, nämlich das Herz-
Kreislauf-System: Bei der Belastungsart „dynamische Arbeit“ wird das Herz-
Kreislauf-System für die Versorgung der Muskulatur in Anspruch genommen, und
bei der thermischen Belastung hat das Herz-Kreislauf-System die Funktion der
Thermoregulation zu erfüllen (vgl. u.a. LUCZAK et al. 1984). Beide Funktionen sind
dabei eng gekoppelt und wirken gleichermaßen beanspruchungserhöhend. Die
Höhe der resultierenden Beanspruchung ist somit in jedem Falle höher als eine der
Teilbeanspruchungen, die sich bei der isolierten Untersuchung jeweils einer Belas-
tungsart ergeben würde. Die tatsächliche Höhe der Beanspruchung lässt sich indes
nicht einfach aus der Summe der Teilbeanspruchungen ermitteln: Je nach Ausprä-
gung (Belastungshöhe) der Teilbelastungen ist auch ein unter- oder überadditives
Ergebnis als Beanspruchungsgröße zu erwarten. Diesen Effekt bezeichnet DIES-
TEL (1983) als Wirkungsverstärkung.
Im Bereich der stofflichen Arbeitsumgebungsfaktoren wird das Problem der
Überlagerung der Wirkungen verschiedener Stoffe u. a. mit dem Begriff „Gift-
Arbeitsumgebung 937
9.8 Literatur
Literatur Einleitung
DIN EN ISO 6385 (2004) Grundsätze der Ergonomie für die Gestaltung von
Arbeitssystemen. Beuth, Berlin
Literatur zu Lärm
Bürck W (1981) Lärm - Messung, Bewertung und Wirkungen auf den Menschen. In:
Schmidke H (Hrsg) Lehrbuch der Ergonomie. Hanser, Wien München
Bundesministerium für Arbeit und Soziales in Zusammenarbeit mit der Bundesanstalt für
Arbeitsschutz und Arbeitsmedizin (2007) Sicherheit und Gesundheit bei der Arbeit
2005 - Unfallverhütungsbericht Arbeit. Dortmund Berlin Dresden www.baua.de/suga
(letzter Zugriff: 15.08.2007)
Crocker MJ (1982) Noise and Vibration. In: Salvendy G (Hrsg) Handbook of Industrial
Engineering. Wiley & Sons, New York
Crocker MJ (1997) Noise. In: Salvendy G (Hrsg) Handbook of Human Factors and Ergo-
nomics, 2. Aufl. Wiley & Sons, New York
Fastl H, Zwicker E (2007) Psychoacoustics 3. Aufl. Springer, Berlin
Groll-Knapp E (1980) Psychophysiologische Lärmwirkungen. In: Brenner W, Rutenfranz J,
Baumgartner E, Haider M (Hrsg) Arbeitsbedingte Gesundheitsschäden – Fiktion oder
Wirklichkeit? Gentner, Stuttgart
Krueger H (1990) Grenzen heute üblicher Messungen physikalischer Umgebungsfaktoren
für eine differenziertere Arbeitsplatzbewertung. In: GfA (Hrsg) Bericht zum 36. Ar-
beitswissenschaftlichen Kongreß. Schmidt, Köln
Möser M (2007) Technische Akustik, 7.Aufl. Springer, Berlin
Schaefer P (1993) Lärm. In: Schmidtke H (Hrsg) Ergonomie, 3. Aufl. Carl Hanser Verlag,
München
Strasser H (2005) Problems of Measurement, Evaluation, and Rating of Environmental
Exposures in Occupational Health and Safety Associated with the Dose Maximum and
Energy Equivalence. In: Strasser H (Hrsg) Traditional Rating of Noise Versus Physio-
logical Costs of Sound Exposures to the Hearing. IOS Press, Berlin
Szadkowski D (1983) Lärm. In: Rohmert W, Rutenfranz J (Hrsg) Praktische Arbeitsphysio-
logie. Thieme, Stuttgart
Normen, Richtlinien und gesetzliche Vorschriften
Arbeitsstättenverordnung (Bundesgesetzblatt I, S.2179) vom 12.08.2004, i.d.F. (Bundesge-
setzblatt I, S 1595) vom 20.07.2007.
DIN 33404-3 (1982) Gefahrensignale für Arbeitstätten – Akustische Gefahrensignale,
Einheitliches Notsignal, sicherheitstechnische Anforderungen, Prüfung. Beuth, Berlin
DIN 45631 (1991) Berechnung des Lautstärkepegels und der Lautheit aus dem Geräusch-
spektrum – Verfahren nach E. Zwicker. Beuth, Berlin
DIN 45641 (1990) Mittelungspegel und Beurteilungspegel zeitlich schwankender Schall-
vorgänge. Beuth, Berlin
DIN 45645-2 (1980) Einheitliche Ermittlung des Beurteilungspegels für
Geräuschimissionen – Geräuschimmissionen am Arbeitsplatz. Beuth, Berlin
DIN EN 458 (2005) Gehörschützer – Empfehlungen für Auswahl, Einsatz, Pflege und
Instandhaltung – Leitfaden. Beuth, Berlin
Arbeitsumgebung 939
Literatur zu Strahlung
AIM – Association for Automatic Identification and Mobility Inc. (2000) Frequency Forum
White Paper Document Version: 1.0, 2000-07, Warrendale
BfS - Bundesamt für Strahlenschutz (1995) Elektrische und magnetische Felder im Haus-
halt. Strahlenthemen. 2. Aufl., Bonn
BfS – Bundesamt für Strahlenschutz (2008a) Statische niederfrequente elektromagnetische
Felder. http://www.bfs.de/de/elektro/nff, Stand: 29.02.2008
BfS – Bundesamt für Strahlenschutz (2008b) Überwachung des fliegenden Personals.
http://www.bfs.de/de/ion/beruf_schutz/flug_personal.html, Stand: 26.06.2008
BfS - Bundesamt für Strahlenschutz (2008c ) Hochfrequente elektromagnetische Felder.
http://www.bfs.de/de/elektro/hff/grundlagen.html, Stand: 27.03.2008
BMVIT – Bundesministerium für Verkehr, Innovation und Technologie (2006) Ortsfeste
Basisstationen zur Übertragung von Mobilfunk; Exposition der Allgemeinbevölkerung
durch hochfrequente elektromagnetische Felder. OPFB – InfoLetter 1/2006, Informati-
on der obersten Post- und Fernmeldebehörde
Arbeitsumgebung 941
Sauter E (1983) Grundlagen des Strahlenschutzes: Basic manual for radiation protection. 2.
Aufl., Thiemig, München
Schreiber P, Ott G (1985) Schutz vor ultravioletter Strahlung. In: Schriftenreihe der Bun-
desanstalt für Arbeitsschutz. Sonderschrift - S Nr. 14 Wirtschaftsverlag NW, Bremer-
haven
Silny J (1990) Biologische Wirkungen elektromagnetischer Felder. In: Deutsches Ärzte-
blatt, 87, Heft 37, S1642-1647
SSK – Strahlenschutzkommission (1991) Elektrische und magnetische Felder im Alltag. In:
Bundesanzeiger Nr. 144– Veröffentlichungen der Strahlenschutzkommission Bd. 24,
Bonn
SSK – Strahlenschutzkommission (1999) Richtlinien für die Begrenzung der Exposition
durch zeitlich veränderliche elektrische, magnetische und elektromagnetische Felder
(bis 300 GHz), Heft 23, Bonn
SSK – Strahlenschutzkommission (2001) Grenzwerte und Vorsorgemaßnahmen zum
Schutz der Bevölkerung vor elektromagnetischen Feldern. Empfehlung der Strahlen-
schutzkommission, Bonn
Stewart Report IEG (2000) Independent Expert Group on Mobile Phones, Mobile Phones
and Health
Stolz W (2005) Radioaktivität. Grundlagen-Messung-Anwendungen. Teubner, Stuttgart
UBA – Umweltbundesamt (2008) Exposition der Bevölkerung gegenüber nichtionisieren-
der Strahlung. http://www.umweltbundesamt-umwelt-deutschland.de/umweltdaten,
Stand: 29.02.2008
UNEP, IRPA, WHO (1993) Electromagentic Fields (300 Hz – 300GHz). Geneva, World
Health Organisation, Environmental Health Criteria 137
Veith HM (Hrsg) (2007) Strahlenschutzverordnung: unter Berücksichtigung der Änderun-
gen durch das Gesetz zur Kontrolle hochradioaktiver Strahlenquellen. 7 Aufl. Bunde-
sanzeiger Verlag, Köln
Villeneuve P et al. (2000) NonHodgkin’s lymphoma among electric utility workers in
Ontario: the evaluation of exposure to 60 Hz electric and magnetic fields In: Journal of
Occupational and Environmental Medicine. 57/4: 249-257
Vogt HG, Schultz H (2007) Grundzüge des praktischen Strahlenschutzes. 4 Aufl. Hanser,
München
Volkmer M (2007) Radioaktivität und Strahlenschutz. Informationskreis KernEnergie
(Hrsg.), UbiaDruck, Köln
VpT – Verband physikalische Therapie (2008) http://www.vpt-online.de, Stand:
29.02.2008
Wertheimer N, Leeper E (1979) Electrical wiring configurations and childhood cancer. In:
American Journal of Epidemology 109: 273-284
Normen, Richtlinien und gesetzliche Vorschriften
26. BImSchV (1996) Sechsundzwanzigste Verordnung zur Durchführung des Bundes-
Immissionsschutzgesetzes (Verordnung über elektromagnetische Felder)
89/391/EWG (1989) Richtlinie des europäischen Parlaments und des Rates über die Durch-
führung von Maßnahmen zur Verbesserung der Sicherheit und des Gesundheitsschut-
zes der Arbeitnehmer bei der Arbeit
96/29/Euratom (1996) Richtlinie des europäischen Parlaments und des Rates zur Festle-
gung der grundlegenden Sicherheitsnormen für den Schutz der Gesundheit der Ar-
beitskräfte und der Bevölkerung gegen die Gefahren durch ionisierende Strahlungen
1999/519/EG (1999) Richtlinie des europäischen Rates vom 12. Juli 1999 zur Begrenzung
der Exposition der Bevölkerung gegenüber elektromagnetischen Feldern (0 bis 300
GHz.). Amtsblatt Nr. L 199
Arbeitsumgebung 943
2004/40/EG (2004) Richtlinie des europäischen Parlaments und des Rates über Mindest-
vorschriften zum Schutz von Sicherheit und Gesundheit der Arbeitnehmer vor der Ge-
fährdung durch physikalische Einwirkungen (elektromagnetische Felder)
2006/25/EG (2006) Richtlinie des Europäischen Parlaments und des Rates über Mindest-
vorschriften zum Schutz von Sicherheit und Gesundheit der Arbeitnehmer vor der Ge-
fährdung durch physikalische Einwirkungen (künstliche optische Strahlung) (19. Ein-
zelrichtlinie im Sinne des Artikels 16 Absatz 1 der Richtlinie 89/391/EWG)
Atomgesetz (1959) Gesetz über die friedliche Verwendung der Kernenergie und den Schutz
gegen ihre Gefahren
BGI 5006 (2004) Expositionsgrenzwerte für künstliche optische Strahlung. Berufsgenos-
senschaftliche Informationen für Sicherheit und Gesundheit bei der Arbeit, BG-
Information, BGFE: Berufsgenossenschaft der Feinmechanik und Elektrotechnik, Köln
BGR B11 (2001) Elektromagnetische Felder. Berufsgenossenschaftliche Regeln für Si-
cherheit und Gesundheit bei der Arbeit, BG-Regel, BGFE: Berufsgenossenschaft der
Feinmechanik und Elektrotechnik, Köln
BGV B2 (1997) Unfallverhütungsvorschrift Laserstrahlung. Berufsgenossenschaftliche
Vorschrift für Sicherheit und Gesundheit bei der Arbeit, BG-Vorschrift, BGFE: Be-
rufsgenossenschaft der Feinmechanik und Elektrotechnik, Köln
BGV B11 (2001) Elektromagnetische Felder. HVBG, Carl Heymanns Verlag, Köln
DIN 32780-100 (2002) Schutzkleidung - Teil 100: Schutz gegen hochfrequente elektro-
magnetische Felder im Frequenzbereich 80 MHz bis 1 GHz; Anforderung und Prü-
fung.
DIN EN 207 (2002) Persönlicher Augenschutz; Filter und Augenschutz gegen Laserstrah-
lung (Laserschutzbrillen). Beuth, Berlin
DIN EN 60825-1 (2008) Sicherheit von Laser-Einrichtungen - Teil 1 Klassifizierung von
Anlagen, Anforderungen und Benutzer-Richtlinien. Beuth, Berlin
DIN EN 12198-1 (2008) Sicherheit von Maschinen - Bewertung und Verminderung des
Risikos der von Maschinen emittierten Strahlung - Teil 1 Allgemeine Leitsätze. Beuth,
Berlin
DIN VDE 0848-1 (2000) Sicherheit in elektrischen, magnetischen und elektromagnetischen
Feldern – Definitionen, Mess- und Berechnungsverfahren
DIN VDE 0848-3-1 (Entwurf) (2002) Sicherheit in elektromagnetischen Feldern – Schutz
von Personen mit aktiven Körperhilfsmitteln im Frequenzbereich 0 bis 300 GHz.
DIN VDE 0848-5 (2001) Sicherheit in elektrischen, magnetischen und elektromagnetischen
Feldern. Teil 5 Explosionsschutz
DIN EN 12254 (2008) Abschirmungen an Laserarbeitsplätzen; Sicherheitstechnische An-
forderungen und Prüfung
Röntgenverordnung (RöV) (1987) Verordnung über den Schutz vor Schäden durch Rönt-
genstrahlen i.d.F. vom 30. April 2003
Strahlenschutzverordnung (StrlSchV) (2001) Verordnung über den Schutz vor Schäden
durch ionisierende Strahlen i.d.F. vom 29. August 2008
Literatur zu Klima
Baehr HD, Stephan K (2006) Wärme- und Stoffübertragung. Springer, Berlin
Belding HS, Hatch TF (1955) Index for evaluating heat stress in terms of resulting physio-
logical strains. Heat Pip Air Condit 27/55:129–136
Dasler AR (1974) Ventilation and thermal stress ashore and afloat. In: Department of the
Navy, Bureau of Medicine and Surgery (Hrsg) Manual of Naval Preventive Medicine,
Chapter 3, Washington: 3-1 – 3-26
944 Arbeitswissenschaft
Literatur zu Beleuchtung
Benz C, Leibig J, Roll K (1983) Gestalten der Sehbedingungen am Arbeitsplatz. Verlag
TÜV Rheinland, Köln
Böcker W (1981) Künstliche Beleuchtung: Ergonomisch und energiesparend. Campus
Verlag, Frankfurt, München, New York
Böge A (2007) Handbuch Maschinenbau - Grundlagen und Anwendungen der Maschinen-
bau-Technik, Lampen und Leuchten, 18.Aufl. Vieweg und Teubner Verlag, Wiesba-
den
Bronstein I, Semendjajew K, Musiol G, Mühlig H (2001) Taschenbuch der Mathematik.
5 Aufl, Harri Deutsch Verlag, Thun, Frankfurt am Main
Gall D, Völker S (1996) Nutzen einer besseren Beleuchtung, Abschlussbericht TU Ilmenau,
zitiert nach licht wissen. Heft 05 „Industrie und Handwerk"
Grünwald T, Gutschmidt J (1959) Farbbestimmung an frischen und konservierten Erbsen-
körnern, Mitteilung aus der Bundesforschungsanstalt für Lebensmittelfrischhaltung.
Zeitschrift für Lebensmittel-Untersuchung und Forschung. 110. Bd, Heft 1. Springer-
Verlag Berlin, Heidelberg
Hartmann E (1993) Beleuchtung. In: Schmidtke H (Hrsg) Ergonomie, 3.Aufl. Hanser Ver-
lag, München, Wien
Kroemer K, Grandjean E (1997) Fitting the Task to the Human, 5th edn. Taylor & Francis,
London, Bristol
Neumann S (2007) Beleuchtung im Büro. In: Landau K (Hrsg) Lexikon Arbeitsgestaltung.
1 Aufl. Gentner Verlag, ergonomia Verlag,
Ris H (2008) Beleuchtungstechnik für Praktiker, 4.Aufl. AZ Verlag, Berlin, Offenbach
Schierz C (2007) Beleuchtung, Prüftätigkeit. In: Landau, K (Hrsg) Lexikon Arbeitsgestal-
tung, 1.Aufl. Gentner Verlag, ergonomia Verlag
Schierz C, Krueger H (1996) Beleuchtung. In: Konietzko J, Dupuis H (Hrsg) Handbuch der
Arbeitsmedizin. 16 Erg Lfg 4/96, Kap II–3.5
Normen, Richtlinien und gesetzliche Vorschriften
Arbeitsstättenrichtlinie ASR 7/3 (1990) Künstliche Beleuchtung. Loseblattsammlung. 35
Ergänzungslieferung. Deutscher Fachschriften Verlag, Wiesbaden
DIN 6164-1 (1980) DIN-Farbenkarte. System der DIN-Farbenkarte für den 2°-Normal-
beobachter. Beuth Verlag, Berlin
DIN EN 12464-1 (2003) Licht und Beleuchtung - Beleuchtung von Arbeitsstätten: Arbeits-
stätten in Innenräumen. Beuth Verlag, Berlin
DIN EN 12464-2 (2007) Licht und Beleuchtung - Beleuchtung von Arbeitsstätten: Arbeits-
plätze im Freien. Beuth Verlag, Berlin
VDI (Hrsg) (1980) Handbuch der Arbeitsgestaltung und Arbeitsorganisation. VDI Verlag,
Düsseldorf
Literatur zu Arbeitsstoffe
Berufsgenossenschaftlichen Institut für Arbeitsschutz - BGIA der Deutschen Gesetzlichen
Unfallversicherung (Hrsg) (2009) Messung von Gefahrstoffen – BGIA-Arbeitsmappe
– Expositionsermittlung bei chemischen und biologischen Einwirkungen. Erich
Schmidt Verlag, Berlin
BIA - Berufsgenossenschaftliches Institut für Arbeitssicherheit (1983) Bestimmung
gesundheitsgefährlicher Stäube in der Luft am Arbeitsplatz. In: Die BG. BIA-
Information 8/83:541-543.
946 Arbeitswissenschaft
Chemikaliengesetz (ChemG) Gesetz zum Schutz vor gefährlichen Stoffen vom 16.09.1980,
i.d.F. (Bundesgesetzblatt I, S. 1146) vom 02.07.2008
DIN EN 481 (1993) Festlegung der Teilchengrößenverteilung zur Messung luftgetragener
Partikel. Beuth, Berlin
Gefahrstoffverordnung (GefStoffV) Verordnung über gefährliche Stoffe Vom 23.12.2004,
i.d.F. (Bundesgesetzblatt I S. 2768) vom 18.12.2008
Gesetz zum Schutz der arbeitenden Jugend (Jugendarbeitsschutzgesetz – JarbSchG) vom
31.10.2008
Gesetz zum Schutz der erwerbstätigen Mutter (Mutterschutzgesetz – MuSchG) vom
17.03.2009
TRGS 400 (2008) Gefährdungsbeurteilung für Tätigkeiten mit Gefahrstoffen. Bekanntgabe
vom Bundesministerium für Arbeit und Soziales (BMAS) im Gemeinsamen Ministeri-
alblatt (GMBI), Januar 2008
TRGS 402 (2008) Ermitteln und Beurteilen der Gefährdungen bei Tätigkeiten mit Gefahr-
stoffen: Inhalative Exposition. Bekanntgabe vom Bundesministerium für Arbeit und
Soziales (BMAS) im Gemeinsamen Ministerialblatt (GMBI), Juni 2008
TRGS 500 (2008) Schutzmaßnahmen. Bekanntgabe vom Bundesministerium für Arbeit
und Soziales (BMAS) im Gemeinsamen Ministerialblatt (GMBI), Mai 2008.
TRGS 555 (2008) Betriebsanweisung und Information der Beschäftigten. Bekanntgabe
vom Bundesministerium für Arbeit und Soziales (BMAS) im Gemeinsamen Ministeri-
alblatt (GMBI), Mai 2008
TRGS 611 (2007) Verwendungsbeschränkungen für wassermischbare bzw. wassergemisch-
te Kühlschmierstoffe, bei deren Einsatz N-Nitrosamine auftreten können. Bekanntgabe
vom Bundesministerium für Arbeit und Soziales (BMAS) im Gemeinsamen Ministeri-
alblatt (GMBI), Mai 2007
TRGS 900 (2009) Arbeitsplatzgrenzwerte. Bekanntgabe vom Bundesministerium für Ar-
beit und Soziales (BMAS) im Gemeinsamen Ministerialblatt (GMBI), Februar 2009
TRGS 903 (2006) Biologische Grenzwerte. Bekanntgabe vom Bundesministerium für
Arbeit und Soziales (BMAS) im Bundesarbeitsblatt (BarbBl.)
Literatur zu Superposition
Diestel G (1983) Einzelwirkung und Kombinationswirkung von Lärm, mechanischen
Schwingungen, klimatische Bedingungen und körperliche Arbeit auf physiologische
Funktionen des Menschen. Diss. Uni Mainz
Dupuis H (1979) Lärm und andere physikalische Einflußfaktoren. Zeitschrift für Arbeits-
wissenschaft 33:23-26
Jansen G (1964) Lärmwirkung bei körperlicher Arbeit. Internationale Zeitschrift für ange-
wandte Physiologie einschl. Arbeitsphysiologie 20:233-239
Luczak H (1979) Arbeitswissenschaftliche Untersuchungen von maximaler Arbeitsdauer
und Erholzeiten bei informatisch-mentaler Arbeit nach dem Kanal- und Regler-
Mensch-Modell sowie superponierte Belastungen am Beispiel Hitzearbeit. Fortschr.
Ber. VDI-Z., 10/6 VDI-Verlag, Düsseldorf
Luczak H (1982) Grundlagen ergonomischer Belastungssuperposition. In: Rohmert W
(Hrsg) Ergonomie der kombinierten Belastungen. Schmid t-Verlag Köln
Luczak H, Nies R, Rohmert W, Zipp P (1984) Beurteilung und Gestaltung von Hitzearbeit,
besonders in Gießereien. Giesserei-Verlag, Düsseldorf
Norpoth K (1982) Grundlagen des Giftstoffsynergismus. In: Rohmert W (Hrsg) Ergonomie
der kombinierten Belastungen. O. Schmidt, Köln
Wenzel HG, Piekarski C (1980) Klima und Arbeit. Bayr. Staatsministerium für Arbeit und
Sozialforschung, München
10 Ergonomische Gestaltung
10.1 Gestaltungsprinzipien
10.1.1 Energetisch-effektorisch
Höchste Priorität bei der Gestaltung energetisch-effektorischer Arbeit hat der
Schutz der Gesundheit der Arbeitsperson (siehe auch Kap. 1.5.2). Hierbei ist zu
prüfen, ob eine Gesundheitsgefährdung möglich bzw. wahrscheinlich ist. In die-
sem Falle sind akute Maßnahmen einzuleiten, die sich auf die technisch-
physiologische Gestaltung der Arbeitsprozesse oder der Arbeitsmittel beziehen
können.
Auch wenn keine Gesundheitsgefährdung zu befürchten ist, bieten sich eine
Reihe von Potenzialen, die Arbeitstätigkeit effizienter und einfacher zu gestalten.
Hierzu zählt zunächst die Minimierung der zu leistenden physikalischen Arbeit im
Sinne einer Reduktion der energetischen Belastung in Relation zum bewirkten
Arbeitsergebnis.
Weitere Schritte beziehen sich auf die Optimierung des Wirkungsgrades hin-
sichtlich einer Minimierung der Beanspruchung im Verhältnis zur Belastung. Im
Kontext des Arbeitsprozesses können schließlich Ansätze zur Optimierung der
Beanspruchungswirkungen im Sinne von geeigneten Arbeitsmethoden, Arbeitsab-
folge- und Pausenregimen beitragen.
Ergonomische Gestaltung 951
10.1.1.1 SchutzĆderĆGesundheitĆ
Eine Gesundheitsgefährdung bei energetisch-effektorischen Arbeitsformen tritt
vor allem beim Handhaben von Lasten auf.
Den Konsequenzen möglicher Schädigungen Rechnung tragend, wurde 1993
die Liste der Berufskrankheiten um die bandscheibenbedingten Erkrankungen der
Lendenwirbelsäule durch langjähriges Heben oder Tragen schwerer Lasten (BK
2108) und um Erkrankungen der Halswirbelsäule durch langjähriges Tragen von
Lasten auf der Schulter (BK 2109) erweitert (siehe auch BOLM-AUDORFF 1993).
Darüber hinaus fordert die EU-RICHTLINIE 269/90 bezüglich der Sicherheit und
des Gesundheitsschutzes bei der manuellen Handhabung von Lasten: „präventive
Maßnahmen zur Vermeidung einer Gefährdung durch das Handhaben von Lasten
zu ergreifen und Arbeitsplätze, die mit der Handhabung von Lasten verbunden
sind, bezüglich ihrer Gefährdung für den Mitarbeiter zu bewerten".
Hierzu können vier Kriterien herangezogen werden (z.B. MITAL et al. 1993;
STEINBERG et al. 2000):
(1) Epidemiologisches Kriterium: Tätigkeitspezifischer Risikofaktor (LAURIG et
al. 1985)
(2) Physiologisches Kriterium: Physiologische Grenzwerte
(3) Biomechanisches Kriterium: Abschätzung der mechanischen Belastung des
Skeletts, der Muskulatur oder der Bandscheibe über biomechanische Modelle
(4) Psychophysikalisches Kriterium: Subjektive Einschätzung eines Menschen
über die Erträglichkeit und Zumutbarkeit der Durchführung einer Tätigkeit.
Die Anwendung eines einzigen der genannten Kriterien erweist sich jedoch als
wenig praktikabel, da dann entweder keine präzisen Aussagen für den Einzelfall
möglich sind (z.B. bei 1.) oder ein unverhältnismäßiger Überprüfungsaufwand
entstehen würde (bei 3.). Darüber hinaus ist mit unterschiedlichen Grenzwerten
bei den verschiedenen Ansätzen zu rechnen.
Grundsätzlich ist an Verfahren zur Beurteilung der Belastung die Anforderung
der einfachen Durchführbarkeit im Betrieb zu stellen. Da damit eine Ermittlung
der Beanspruchung nur näherungsweise möglich ist, werden solche Abschätzun-
gen zunächst konservativ angelegt, d.h. es erfolgt eine Prüfung auf mögliche
Überbelastung.
Zur Abschätzung des Interventionsbedarfes bezüglich der Körperhaltungen und
mit Einschränkungen bezüglich der bewegten Lasten kann z.B. die OWAS-
Methode (OVAKO WORKING POSTURE ANALYSING SYSTEM) zur Kör-
perhaltungsanalyse herangezogen werden (KARHU et al. 1977, STOFFERT 1985).
Für die spezifische Problematik der Lastenbewegung stellt sich nach Kenntnis
der Druckbelastbarkeit (siehe Kap. 3.2.11) die praktische Frage nach dem Zusam-
menhang zwischen den Beschreibungsgrößen der Arbeitsaufgabe und der dabei zu
erwartenden mechanischen Belastung der Wirbelsäule. Da nicht für jeden Einzel-
fall eine biomechanische Analyse durchgeführt werden kann, erweist sich eine
Abschätzung nach der BAuA-Leitmerkmalmethode (STEINBERG u. WINDBERG
1997; CAFFIER et al. 1999; STEINBERG et al. 2000, 2007) als nützlich.
952 Arbeitswissenschaft
des Alters der Person, der Ausübungsdauer und der Ausübungsart (statisch, dyna-
misch) die im Einzelfall zulässigen Kräfte abgeschätzt (siehe Kap. 3.2.8).
Ein ähnliches Verfahren wird in der DIN EN 1005-3 dargestellt. Die einfache
Durchführbarkeit dieses Verfahrens und die prinzipielle Anwendbarkeit für nahe-
zu alle Tätigkeiten bedingen, dass die situativen Faktoren nur verhältnismäßig
grob gestuft berücksichtigt werden. Die mit einem solchen Verfahren ermittelten
Ergebnisse sind daher nicht als exakte Grenzwerte zu verstehen, sondern eher als
Anhaltspunkte, ob kritische Grenzen möglicherweise erreicht werden.
Abb. 10.1: Grenzlasten als Funktion der Griffentfernung (links) und als Funktion der Hebe-
frequenz bei verschiedenen Ermittlungsverfahren (aus VEDDER u. LAURIG 1994)
die Gestaltung der Arbeitsaufgabe bzw. des Arbeitsplatzes selbst nicht vorgegeben
werden kann.
Abb. 10.2: Bewegungsabfolge beim Heben einer Stange und beim Heben und Absetzen
einer Kiste (aus ROHMERT 1983a)
10.1.1.2 MinimierungĆderĆzuĆleistendenĆArbeitĆ
Vor der Optimierung von Arbeitsbewegungen stellt sich zunächst die Frage, ob
nicht die zu leistende physikalische Arbeit insgesamt verringert werden kann.
Diese Überlegung stützt sich auf die Tatsache, dass menschliche Arbeit immer
positiv gerichtet ist, d.h. einwirkende Kräfte nicht wie bei mechanischen oder
elektro-mechanischen Systemen in Energie zurückgewandelt werden können, und
dass sich physiologische Arbeit entgegen der klassischen Mechanik aus dem Pro-
dukt von Kraft und Zeit bemisst (siehe Kap. 3.2.5.1).
Beispielsweise lässt sich der menschliche Energiebedarf in erheblichem Maße
durch die Verringerung der Hubhöhe beim Be- und Entladen von Lasten verrin-
gern. Ein unverändertes Gewicht der Objekte vorausgesetzt, wäre in diesem Fall
die physikalisch erbrachte Gesamtleistung stets gleich Null. In Bezug auf die
menschliche Arbeit ist jedoch eine positiv gerichtete Arbeit beim Heben der
Werkstücke und eine negativ gerichtete Arbeit beim Absenken der Werkstücke zu
leisten. Im Beispiel aus Abb. 10.3 führt die Verringerung der Hubhöhe in Lösung
II gegenüber Lösung I zu einer erheblichen Verringerung des Arbeitsenergieum-
satzes und infolgedessen zur Beanspruchung des Herz-Kreislauf-Systems, bei
gleichzeitig leicht gesteigerter Arbeitsleistung, hier im Wesentlichen mit dem
kürzeren Bewegungsweg zu begründen. Die Anordnung auf etwa gleicher Höhe
(Lösung III) führt zu einer nochmals geringfügig niedrigeren Beanspruchung, geht
aber mit einer erheblichen Leistungssteigerung einher.
Bei Betrachtung der zu leistenden Arbeit ist dabei nicht nur die äußere Masse,
sondern die gesamte bewegte oder zu haltende Masse zu berücksichtigen. Dies ist
insbesondere bei – im Vergleich zum mitbenutzten Körperteilgewicht – kleinen
Lasten von Bedeutung. So ist es unerheblich, ob eine Person ein Blatt oder zwan-
956 Arbeitswissenschaft
zig Blätter Papier bewegt, da das Gewicht des eigenes Arms ein Vielfaches der
äußeren Last beträgt und bei Auf- und Abwärtsbewegungen positiv und negativ
gerichtete Arbeit ebenso für die Körperteilgewichte zu leisten ist (siehe auch Abb.
10.4).
Die unvermeidlichen Schwerkräfte können unterstützend wirken, wenn die aus-
zuübenden Kräfte (wenigstens teilweise) nach unten gerichtet sind. Dies macht
man sich zum Beispiel bei der Pedalbetätigung zu Nutze, bei der das Beingewicht
den Druck auf das Pedal auf natürliche Weise unterstützt und somit zu einer
gleichmäßigeren Kraftaufbringung beigetragen wird (Abb. 10.5).
Abb. 10.5: Rechts: Kräftespiel beim Betätigen eines Pedals im Sitzen durch die Wirkung
der Eigengewichte (nach JENIK 1979); links: Durchschnittliche maximale Tretkraft eines
Beines im Sitzen in verschiedene Wirkrichtungen bei unterschiedlichen Distanzen der
Sitzebene zur Krafteinleitungsstelle und bei Vorhandensein einer Rückenlehne (aus
HETTINGER u. WOBBE 1993)
Ergonomische Gestaltung 957
An dem Beispiel der Pedalkräfte wird weiterhin deutlich, dass bei der Auf-
bringung von großen Kräften die entsprechenden Abstützungsmöglichkeiten (hier:
Rückenlehne) von großer Bedeutung sind, da sonst zusätzliche innere Arbeit zur
Schwerpunktverlagerung und zur Aufrechterhaltung der notwendigen Körperposi-
tion („Versteifung“) zu leisten ist. Durch die Abstützungswirkung der Rückenleh-
ne verschiebt sich die Maximalkraft erheblich nach oben, allerdings in einer wenig
bequemen Körperhaltung. In der Praxis sollten Pedale daher etwas niedriger, ca.
30° nach unten positioniert werden.
Wie bereits in Kap. 3.2.5.1 aufgeführt, ist der physiologisch sinnvolle Arbeits-
begriff durch das Produkt von Kraft und Zeit gekennzeichnet. Weiterhin ist die
Bewegungsmuskulatur des Menschen für statische Kraftaufbringung außerordent-
lich ermüdungsempfindlich. Im Gestaltungskontext bedeutet dies, dass jegliche
Art von statischer Muskelarbeit möglichst zu vermeiden ist. Dabei spielt es nur
eine untergeordnete Rolle, ob Haltearbeit, Haltungsarbeit oder statische Kontrak-
tionsarbeit zu verrichten ist.
Wenn das Halten von Objekten unvermeidlich ist, so sollte dies körpernah er-
folgen (kleine Momentwirkung), und die Körperteile sollten gleichsinnig zur
Schwerkraft gerichtet sein (Zugbelastung).
In Bezug auf die kräftemäßige Belastung des Menschen muss natürlich berück-
sichtigt werden, dass die angreifenden Kräfte nicht grundsätzlich identisch mit den
durch die Last hervorgerufenen Kräften sind, sondern – entsprechend der klassi-
schen Mechanik – ein vektorielles Kräftegleichgewicht besteht.
Wenn die Angriffsrichtungen der äußeren Last und die der aufgebrachten Kraft
nicht entgegengesetzt, sondern spitzwinklig zueinander gerichtet sind, entsteht
eine weitere Kraftkomponente senkrecht zur Angriffsrichtung der äußeren Kraft.
Bei symmetrisch beidhändiger Arbeit sind diese Komponenten genau entgegen
gesetzt, weswegen keine zusätzliche Kraft auf den Rumpf einwirkt (Abb. 10.6).
Abb. 10.6: Günstige und ungünstige Armhaltung beim Tragen einer gleich schweren Last
mit unterschiedlichem biologischen Kraftaufwand je nach Spreizwinkel der Arme
(HETTINGER u. WOBBE 1993)
958 Arbeitswissenschaft
Abb. 10.7: Einfluss von zwei gleichen Lasten auf die statische Beanspruchung des Trägers
bei Verwendung von Normaleimern und innen abgeflachten Eimern (aus HETTINGER u.
WOBBE 1993)
Bei asymmetrischer Kraftausübung beider Hände wird dadurch eine Kraft und
ein Moment auf den Rumpf erzeugt, denen durch Stabilisierungskräfte zur Auf-
rechterhaltung der Körperposition entgegengewirkt werden muss (Abb. 10.8 und
Abb. 10.9).
Abb. 10.8: Addition der einzelnen Kraftwirkungen bei beidhändiger gleichzeitiger Betäti-
gung einer ungünstig gestalteten Vorrichtung. (in Anlehnung an STIER u. MEYER 1957
aus SCHMIDTKE 1989)
genüber dem Unterarm versetzt, so entsteht auch bei gleicher Kraftrichtung ein
Drehmoment im Handgelenk, welches über eine zusätzliche Muskelanspannung
stabilisiert werden muss.
Abb. 10.9: Der Kraftfluss bei der einhändigen Betätigung eines asymmetrisch angeordne-
ten Hebels und bei der beidhändigen Betätigung zweier symmetrisch angeordneter Hebel
(nach STIER 1957)
Abb. 10.10: Pistolengriff für geradlinigen Kraftfluss vom Unterarm über eine normale
Handhaltung auf die Arbeitsseite von Werkzeugen bei Vermeidung von Kippmomenten
(oben und unten) sowie zum Abfangen von auf das Handgelenk wirkenden rotatorischen
Drehmomenten bei Versatz der Griffposition (Mitte, aus HETTINGER u. WOBBE 1993)
960 Arbeitswissenschaft
10.1.1.3 OptimierungĆdesĆWirkungsgradesĆ
Wie in Kap. 3.2.10.2.3 bereits deutlich wurde, hängt der Wirkungsgrad der me-
chanischen Energieerzeugung in starkem Maße vom „Arbeitspunkt“ der beteilig-
ten Muskeln ab. Dies betrifft die Länge des Muskels (von außen: die Gelenkstel-
lung), die mechanische Last und die Bewegungsgeschwindigkeit. Die beiden
letztgenannten Größen werden darüber hinaus durch die Massenträgheitskräfte der
bewegten Körperteile und Objekte mit beeinflusst.
In Bezug auf geeignete Körperstellungen ist nahezu grundsätzlich eine Lage im
mittleren Bereich des Bewegungsbereiches anzustreben, da die Effizienz der mus-
kulären Krafterzeugung bei großer und bei kleiner Muskellänge abnimmt. Darüber
hinaus stellt sich die Frage nach der Wahl der eingesetzten Muskelgruppen. Grö-
ßere Muskelgruppen ermüden weniger schnell, bringen aber größere Massenbe-
wegungen mit sich, wofür u.U. zusätzlicher energetischer Aufwand benötigt wird.
Die Komplexität der Zusammenhänge und die teilweise entgegengesetzten
Wirkungen bezüglich der verschiedenen Zielgrößen erlauben es nicht ohne wei-
teres, einen relativ optimalen Wirkungsgrad für eine bestimmte Arbeitsaufgabe
über biomechanische Modelle herzuleiten. Auf experimentellem Wege kann aller-
dings über die Messung des Energieumsatzes oder die der Kreislaufbeanspru-
chung (siehe Kap. 3.2.10.2.1 und 3.2.10.3) eine – zumindest vergleichende – Be-
wertung und Beurteilung verschiedener Gestaltungslösungen vorgenommen wer-
den.
Da der Mensch zur Optimierung seiner Gesamtleistung bestrebt ist Ermüdungs-
erscheinungen durch Anpassung der Arbeitsleistung – wenn möglich – zu verhin-
dern, kann in manchen Fällen auch die Leistungserbringung Aufschluss über die
Effizienz der Tätigkeitsausführung geben.
Wie die Abb. 10.11 und Abb. 10.12 zeigen, wirkt sich eine günstige Körperstel-
lung erheblich auf die erbrachte Arbeitsleistung aus.
Neben einer geeigneten Körperstellung haben weiterhin die mechanische Last
und die Arbeitsgeschwindigkeit einen Einfluss auf die energetische Effizienz. Die
physikalisch erbrachte Leistung ist proportional zum Produkt beider Faktoren,
weswegen die Arbeitsgeschwindigkeit bei einem größeren mechanischen Ar-
beitswiderstand theoretisch im gleichen Verhältnis verringert werden kann, ohne
dass die erzeugte Leistung sich verändert.
Ergonomische Gestaltung 961
Abb. 10.11: Auswirkungen des seitlichen Abspreizwinkels der Oberarme auf Energiever-
brauch und Leistung bei repetitiven manuellen Tätigkeiten (nach GRANDJEAN 1991)
Abb. 10.12: Leistung (L) beim Feilen in Abhängigkeit von der Arbeitshöhe (H) in cm für
kleine und große Personen (nach LYSINSKI 1926; SCHMIDTKE 1989)
962 Arbeitswissenschaft
Aus physiologischer Sicht hat dagegen eine Reihe von Faktoren einen Einfluss
auf den Wirkungsgrad:
(1) Die Bewegung von Massen ist mit sog. Blindleistungen verbunden. Beim
Beschleunigen muss Energie zur Überwindung der Massenträgheit aufge-
wendet werden, welche beim Verringern der Geschwindigkeit durch aktive
Gegenkräfte neutralisiert werden muss. Darüber hinaus haben Muskeln, Seh-
nen und Bänder eine elastische Charakteristik (Federwirkung). Je nach Ge-
schwindigkeit sind mehr oder minder große Blindleistungen zunächst aufzu-
bringen und anschließend durch entsprechende Gegenkräfte wieder zu neut-
ralisieren.
(2) Im Bereich von „mittleren“ Geschwindigkeiten (je nach Zusammensetzung
der Impedanzen) ergibt sich in der Regel ein Minimum solchermaßen verlus-
tiger Energieaufwendung (PFAHL 1924; ROHMERT u. RUTENFRANZ 1983)
(siehe auch Abb. 10.13). Eine Steigerung der Arbeitsgeschwindigkeit über
diesen Bereich hinaus muss mit einer erhöhten Erzeugung und Vernichtung
von Blindleistung und folglich mit einer geringeren Effizienz erkauft wer-
den.
Abb. 10.13: Arbeitsenergieumsatz pro m beim Gehen in der Ebene in Abhängigkeit der
Schrittlänge und der Schrittgeschwindigkeit (Veranschaulichung der Punkte 1. und 2.;
Diagramm nach ATZLER u. HERBST, aus LEHMANN 1962)
(3) Die zu erzeugende Energie zur Kompensation von Schwerkräften bzw. zum
Erzeugen von isometrischen Kräften hängt neben der Größe der Last von der
Dauer der Ausübung ab. Daraus leitet sich ein zeitbezogener Anteil ab, wes-
wegen ein besonders langsames Arbeiten zunehmend ineffizient wird (Abb.
10.14). Dieser Effekt ist anschaulich zu belegen beim Tragen von Lasten, bei
dem eine Verlangsamung des Arbeitsvorgangs die Gesamtbelastung für eine
bestimmte Wegstrecke noch erhöht.
Ergonomische Gestaltung 963
25
enz [1/min]
20
15
herzschlagfreque
10
0
Arbeitsh
-5
-10
0,15 0,20 0,25 0,30 0,35 0,40 0,45 0,50 0,55 0,60 0,65
(4) Wesentlich für die umgesetzte Energie ist auch die technische Gestaltung der
Arbeitsmittel, nachfolgend am Beispiel Leiter, Treppe und schiefe Ebene zur
Überwindung von Höhendifferenzen dargestellt. Abb. 10.15 gibt eine ver-
gleichende Darstellung des menschlichen Energieumsatzes je mkp Arbeit für
Leiter, Treppe und schiefe Ebene in Abhängigkeit von Steigung, Auftritt und
Neigungswinkel wieder (ROHMERT u. RUTENFRANZ, 1983). In den Schnitt-
punkten der untersuchten Kombinationen von Steigung und Neigungswinkel
sind die gefundenen cal/mkp – Werte (1 cal/mkp = 0,427 J/Nm) eingetragen.
Die Punkte gleichen Energieumsatzes sind zu Kurven verbunden. Die Gera-
de „MN“ in Abb. 10.15 stellt Gleichung (10.1) und die Gerade „AZ“ die
Gleichung (10.2) dar. Längs der gestrichelten Geraden beträgt der Auftritt
konstant 24 cm.
Auftritt Steigung 12 cm (10.1)
2 Steigung Auftritt 63cm (10.2)
(5) Die innere Reibung bei Veränderung der Muskellänge vertilgt einen Teil der
erzeugten Kraft bereits im Muskel, welcher in etwa proportional zum zu-
rückgelegten Weg ist. Beim Arbeiten mit geringer äußerer Last (und hoher
Geschwindigkeit) ist dieser Anteil dementsprechend größer als bei hoher
Last (und niedriger Geschwindigkeit).
964 Arbeitswissenschaft
Abb. 10.15: Vergleichende Darstellung des Energieumsatzes je mkp (1 mkp = 9,807 Nm)
für Leiter, Treppe und schiefe Ebene in Abhängigkeit von Steigung, Auftritt und Nei-
gungswinkel (in Anlehnung an ROHMERT u. RUTENFRANZ 1983)
Die hinter diesen Einflüssen steckende Gesetzmäßigkeit wird nach dem Entde-
cker des Prinzips als Johannson'sche Regel bezeichnet:
Misst man bei verschieden großem Arbeitswiderstand den notwendigen Ener-
gieumsatz pro Arbeitseinheit (dicke Linie in Abb. 10.16), so findet sich im mittle-
ren Lastbereich ein linearer Anstieg (Punkte A, B und C auf der Kurve). Dieser ist
auf einfache Weise durch die mit steigendem Arbeitswiderstand vergrößerte Ar-
beitsleistung zu erklären. Bei einem Arbeitswiderstand von Null ist trotzdem ein
positiver Energieumsatz zu leisten (E0), welcher aus den Leerbewegungen resul-
tiert. Bei sehr großem Arbeitswiderstand (oberhalb des Punktes G nach Abb.
10.16) steigt die Funktion nicht mehr linear, sondern exponentiell. Dies liegt da-
ran, dass die Muskeln zur Ausführung der Bewegung zu hoch beansprucht wer-
den, woraus eine weniger ökonomische Arbeitsweise aufgrund von Muskelermü-
dung oder der ergänzenden Inanspruchnahme weniger ökonomisch wirkender
Muskeln resultiert.
Auch bei konstantem Wirkungsgrad der Muskeln und des Herz-Kreislauf-
Systems sinkt der Gesamtwirkungsgrad aufgrund der immer zusätzlich zu leisten-
den Leerarbeit mit kleiner werdendem Arbeitswiderstand linear ab. Oberhalb der
Grenzlast G wirkt dem der fallende Arbeitswirkungsgrad entgegen.
Ergonomische Gestaltung 965
Wirkungsgrad
C
B
A
E0
G
Gesamter Wirkungsgrad
E
Arbeitswiderstand
10.1.1.4 ArbeitsabfolgeĆundĆPausenregimeĆ
Wie aus dem vorangehenden Abschnitt deutlich wurde, ist es energetisch nicht
sinnvoll, durch eine geringe Belastung (Arbeitswiderstand und Arbeitsgeschwin-
digkeit) zu einer Verminderung der Beanspruchung beizutragen. Im Gegenteil ist
es sogar insgesamt effizienter, die Leistungsfähigkeit des Menschen weitgehend
auszuschöpfen.
Dabei muss allerdings berücksichtigt werden, dass hohe Leistungen wegen der
Erschöpfung der Energiespeicher nicht unbegrenzt lange erbracht werden können.
Der zeitlichen Verteilung der Belastung im Sinne einer ergonomischen Arbeitsab-
folge kommt daher eine große Bedeutung für eine ökonomische Ausführungswei-
se und Aufrechterhaltung der Leistungsfähigkeit zu.
Grundsätzlich findet sich – wie bei statischer Arbeit, Kurbelergometerarbeit
sowie Umsetzen von Gewichten in Abb. 10.17 zu ersehen – oberhalb der Dauer-
leistungsgrenze ein hyperbolischer Zusammenhang zwischen der Höhe der Leis-
tung und der maximalen Arbeitszeit bis zum Eintreten der Erschöpfung. Für ver-
schiedene Ausführungsbedingungen unterscheiden sich die Zusammenhänge in
ihrem Verlauf, nicht aber in ihrer typischen Charakteristik (siehe Kap. 3.2).
966 Arbeitswissenschaft
Statische Haltearbeit:
NDLG = 0.15 Maximalkraft
150
Kurbelergometerarbeit:
60 und 72 U/min
45 und 90 U/min
Maxximale Arbeitszeit [min]]
50
0
0,5 1,0 1,5 2,0 2,5 3,0
ª N eff º
Eff kti L
Effektive Leistung
i t (Neff) in
i Vielfachen
Vi lf h der
d D
Dauerleistung
l i t (NDLG) « »
¬ N DLG ¼
Abb. 10.17: Grenzen der Ausdauer bei Muskelarbeit (aus ROHMERT 1962)
Abb. 10.18: Verhalten der Herzschlagfrequenz während und nach der Arbeit mit kurzen
und längeren Pausen bei gleichem Verhältnis zwischen Arbeitsphase und Pause (aus REFA
1993)
968 Arbeitswissenschaft
Mit Bezug auf Abb. 10.20 wird deutlich, dass der Erholungsbedarf mit zuneh-
mender Länge der Arbeitsphasen in Form einer Potenzfunktion überproportional
zunimmt. Weiterhin wurde festgestellt, dass die Erholung nach statischer Arbeit
erheblich mehr Zeit beansprucht als nach dynamischer Arbeit.
Für die praktische Prozessgestaltung ergeben sich aus diesen Gesetzmäßigkei-
ten von Ermüdung und Erholung zwei wichtige Konsequenzen:
(1) Die dem Körpergefühl folgende Handlungsweise des Arbeitens bis zur of-
fensichtlichen Ermüdung ist, wegen des dann unverhältnismäßig langen Er-
holungszeitraums, nicht sinnvoll, vielmehr sollten die Arbeitspersonen zu
früheren Arbeitspausen angehalten werden.
(2) Die Erholung von energetisch-effektorischer Arbeit bezieht sich primär auf
die über die Dauerleistungsgrenze beanspruchten Organe. Insofern können
während der Erholungsphase dieser Organe durchaus andere Tätigkeiten
ausgeführt werden, z.B. durch den Wechsel auf andere Muskelgruppen, so-
fern keine schwere Arbeitsform mit primärem Beanspruchungsengpass im
Herz-Kreislauf-System vorliegt. Die Rekonstitution des Stoffwechsels im
Muskel bedingt jedoch eine möglichst ungehinderte Durchblutung zum Ab-
transport der Stoffwechselprodukte und zur Wiederherstellung der lokalen
Energievorräte. Bereits eine geringe Muskelanspannung verzögert diesen
Prozess in erheblichem Maße, abgesehen vom dadurch unmittelbar verlang-
samten Rekonstitutionsverlauf durch den gleichzeitigen Verbrauch von
Energiestoffen. Daher muss darauf geachtet werden, dass die erholungsbe-
dürftigen Muskeln auch wirklich völlig erschlaffen.
Ergonomische Gestaltung 969
10
200
160
120
80
Erholu
40
0
100 120 140 160 180 200 220
ª N eff º
Effektive Leistung in % der Dauerleistung « » 100
¬ N DLG ¼
10.1.2 Informatorisch-mental
Bei der Steuerung, Regelung oder Überwachung von technischen Systemen be-
steht die Aufgabe des Menschen darin, auf der Grundlage unmittelbar oder mittel-
bar übertragender Information den Zustand der Maschine zu erfassen, die zukünf-
tige Entwicklung der essentiellen Variablen zu antizipieren und erforderlichenfalls
durch Handlungen eine Zustandsänderung zu bewirken. Unter informatorischer
(auch informationstechnischer) Gestaltung versteht man allg. die Gestaltung von
Komponenten der Mensch-Maschine-Schnittstelle (auch Benutzungsschnittstelle,
engl. human-machine interface), die den Informationsaustausch zwischen Mensch
und Maschine in einem Arbeitssystem gewährleisten sollen.
Grundanforderung für eine ergonomische Gestaltung der Mensch-Maschine-
Interaktion ist die Anpassung der technischen Subsysteme an die Fähigkeiten und
Fertigkeiten des Menschen. Bei der informationstechnischen Gestaltung müssen
demzufolge zum einen die Merkmale und Anforderungen der Arbeitsaufgabe, zum
anderen die Fähigkeiten und Grenzen des Menschen in physiologischer und psy-
chologischer Hinsicht und seine Eigenschaften bei der Informationsverarbeitung
(siehe. Kap. 3.3) berücksichtigt werden. Dieses von einigen Autoren wie bspw.
RASMUSSEN et. al. (1994) in Hinblick auf die zentralen Prozesse menschlicher
Informationsverarbeitung auch als Cognitive Engineering bezeichnete Arbeitsfeld
der Ergonomie betrifft somit alle arbeitstechnischen und -organisatorischen Ele-
mente, die der aufgaben- und benutzergerechten Kommunikation zwischen
Mensch und Maschine dienen.
970 Arbeitswissenschaft
Maschine Mensch-Maschine-Schnittstelle
Informationsausgabe Informationseingabe
Anzeigen Eingabegeräte
Stellteile /
unmittelbare Sprach- Gesten- Tracking-
optisch akustisch taktil Bedien-
Informations- eingabe erkennung system
elemente
übertragung
kinäs- olfak-
visuell auditiv haptisch manuell verbal gestikulär Bewegung
thetisch torisch
Informationsaufnahme Informationsabgabe
Erkennen /
Mensch Entscheiden
10.1.2.1 ÜbergeordneteĆGestaltungsansätzeĆĆ
10.1.2.1.1 Kompatibilität von System und Benutzungsschnittstelle
In seiner allg. Form besagt das Kompatibilitätsprinzip, dass Information in einer
Form zu vermitteln ist, die möglichst weitgehend dem zur Bewältigung der Ar-
beitsaufgabe gebildeten mentalen Modell (siehe Kap. 3.3.2.2.4) des Menschen
entspricht, um einen sonst notwendigen Transformationsaufwand zu vermeiden.
Informationstheoretischer Hintergrund dieses Prinzips ist, dass die Transinforma-
tion genau dann maximal ist, wenn die Menge an zu rekodierender Information für
das Individuum am geringsten ist (WILLIGES et al. 1987). Es wird also im Umkehr-
schluss davon ausgegangen, dass je geringer die Inanspruchnahme mentaler Res-
sourcen für Umstellungs- oder Umkodierungsoperationen ist, die Arbeitsaufgabe
selbst um so effizienter bearbeitet werden kann (HACKER 2005). Die Anwendung
dieses Prinzips bei der Gestaltung von Mensch-Maschine-Systemen bedeutet, dass
die Schnittstelle mit der menschlichen Wahrnehmung, dem Gedächtnis, der Prob-
lemlösungsfähigkeit, dem menschlichen Handeln sowie den menschlichen Kom-
munikationsarten und Möglichkeiten kompatibel gestaltet werden muss. In der
häufigsten Form bezieht sich die Kompatibilität auf die räumliche, die Bewe-
gungs- und die konzeptuelle Übereinstimmung von Stimulus und Response, die S-
R-Kompatibilität. Entscheidend sind oft aber auch Stimulus-Stimulus- und Res-
ponse-Response-Kompatibilitäten.
Eine Stimulus-Stimulus-Inkompatibilität ist in jedem Kraftfahrzeug gegeben.
Eine wichtige Information ist der Bremsweg des Fahrzeugs. Angezeigt wird je-
doch die Geschwindigkeit. Daher sollte ständig aus der gefahrenen Geschwindig-
keit, der Reaktionszeit und der Bremsverzögerung unter Berücksichtigung des
Straßenzustands (trocken, nass, glatt) der Bremsweg berechnet werden. Technisch
realisieren lässt sich eine Bremsweganzeige z.B. durch ein sog. „Head-Up
972 Arbeitswissenschaft
tert. Der Grad der Einbindung des Menschen in eine Virtuelle Umgebung wird als
Immersion bezeichnet.
Gegenüber physischen Prototypen (Mock-Ups) oder der klassischen 3D-
Bilddarstellung in Form von Animation bieten VR-/AR-Systeme besonders viel-
fältige Möglichkeiten der Informationsdarstellung und (im Unterschied zu Anima-
tionen) der Mensch-Maschine-Interaktion, wie z.B. die Interaktion des Benutzers
mit virtuellen Objekten im dreidimensionalen virtuellen bzw. realen Raum oder
eine die natürlichen Umweltinformationen ergänzende Visualisierung abstrakter
Daten (siehe auch HACKER u. LINDEMANN 2002; ALEXANDER u. GOLDBERG
2007; ODENTHAL et al. 2009, SCHLICK et al. 2009).
Abb. 10.23: Darstellung von wichtigen Informationen für den Pkw-Fahrer in der Außen-
sicht (Quelle: VDO Automotive AG)
10.1.2.2 UnterstützungĆderĆInformationsaufnahmeĆ
Die von der Informationstechnik zur Verfügung gestellten Möglichkeiten zur
Informationsdarstellung sind nahezu unbegrenzt. Die Aufgabe des Systemgestal-
ters besteht u.A. darin, die Information im Aufgabenkontext so auszuwählen und
darzustellen, dass die Schnittstelle der menschlichen Informationsverarbeitung
angepasst ist und dadurch zu einer möglichst hohen Systemleistung beiträgt. Es
geht also um die Gestaltung der für den Operateur über die Schnittstelle dargebo-
tenen Information im Hinblick auf die Merkmale und Grenzen der Wahrnehmung
und zentralen Informationsverarbeitung des Menschen (BOFF u. LINCOLN 1988).
Obwohl die weitaus größte Informationsmenge optisch wahrgenommen wird,
spielen auch andere Anzeigeformen eine bedeutende Rolle, bspw.
x um in Bezug auf bestimmte Informationen (z.B. Warnhinweise) besondere
Aufmerksamkeit zu erzielen und somit die Voraussetzungen für Situations-
bewusstsein (situation awareness) zu schaffen,
x um mittels multimodaler Schnittstellen eine Redundanz bei der Wahrneh-
mung von Informationen sicherzustellen und, dem Modell multipler Res-
sourcen folgend, andere Informationsverarbeitungsressourcen zu nutzen,
x den visuellen Kanal bei der Informationswahrnehmung zu entlasten oder
x die Manipulation eines Objekts zu erleichtern.
Informationen werden demzufolge in technischen Systemen vorrangig durch
Sichtanzeigen sowie durch akustische Signale (Warnsignale, Sprachübermittlung)
und haptische Merkmale (Position von Stellteilen, Merkmale an Bedienelementen,
Kraftrückmeldung etc.) vermittelt. Die Reproduktion olfaktorischer, gustatorischer
und thermischer Merkmale zum Zwecke der mittelbaren Informationsübermittlung
erfolgt im Rahmen des „affective design“ der Mensch-System- bzw. Mensch-
Umwelt-Kommunikation (siehe KHALID 2006, HELANDER u. KHALID 2006) (siehe
Kap. 10.1.2.2.5).
Weitere sensorisch erfassbare Informationen (z.B. Gerüche bei Überlastung
von Maschinen, Beschleunigungen, Schwingungen) werden häufig unmittelbar
von den technischen Systemkomponenten an den Menschen übertragen.
10.1.2.2.1 Gestaltungsrichtlinien für Anzeigen
Die enorme Anzahl von Freiheitsgraden, die bei der Anzeigengestaltung zur Ver-
fügung steht, zeigt die von WICKENS et al. (2004) aufgestellte, im Folgenden be-
schriebene Zusammenstellung von ergonomischen Gestaltungsrichtlinien für An-
zeigen. Daneben existiert eine Vielzahl von Normen (bspw. im Rahmen der DIN
EN ISO 9241), auf die zurückgegriffen werden kann, um bei spezifischen Gestal-
tungsproblemen Lösungshinweise zu erhalten.
Ergonomische Gestaltung 977
Modell des Benutzers kann falsch sein, d.h. von den wahren physikalischen Ver-
hältnissen abweichen.
Ökologische Schnittstellengestaltung: Wenn man sowohl das Prinzip des bildli-
chen Realismus als auch das Prinzip des bewegten Teils anwendet, kann man
Anzeigen gestalten, die eine enge Übereinstimmung mit der Umgebung besitzen,
die sie abbilden. Schnittstellen, bei denen dieser Ansatz angewendet wird, werden
auch als ökologische Schnittstellen bezeichnet (siehe auch Kap. 10.1.2.3.2).
10.1.2.2.1.3 Aufmerksamkeitsprinzipien
Bei der Verarbeitung von Information aus komplexen mehrteiligen Anzeigen sind
drei Aspekte der Aufmerksamkeit beteiligt:
x Die selektive Aufmerksamkeit ist bei der Auswahl der Information beteiligt,
die für eine Aufgabe benötigt wird.
x Die fokussierte Aufmerksamkeit erlaubt die gebündelte Wahrnehmung von
Information ohne Ablenkung durch andere Information.
x Die verteilte Aufmerksamkeit erlaubt die gleichzeitige parallele Verarbeitung
von zwei oder mehreren Informationen.
Minimierung der Informationszugangskosten: Informationszugangskosten be-
schreiben die mit der Informationssuche und -dekodierung verbundene Anstren-
gung des Menschen, die sich bspw. in Form mentaler Beanspruchung äußern
kann. Sie entstehen z.B. beim Durchsuchen eines Menüs auf einem Bildschirm,
aber auch bei Verlagerung der Aufmerksamkeit von einer Aufgabe auf eine ande-
re. Eine gute Anzeigengestaltung minimiert die Informationszugangskosten, in-
dem sie häufig aufgenommene Information so darbietet, dass nur geringe Augen-
bewegungen erforderlich und für die Integration benötigte Informationen ähnlich
kodiert sind.
Kompatibilitätsprinzip der Nähe: Die Benutzungsschnittstelle soll zu den Auf-
gaben kompatible Anzeigen aufweisen. Näheres hierzu in Kapitel 10.1.2.3.1.
Nutzung multipler Ressourcen: Das Verarbeiten von großen Informationsmen-
gen kann dadurch erleichtert werden, dass man diese Informationen auf verschie-
dene Ressourcen aufteilt. Informationen,
x die verbale Reaktion erfordern, sollten akustisch,
x solche, die manuelle Reaktion erfordern, sollten visuell
dargeboten werden.
10.1.2.2.1.4 Gedächtnisprinzipien
Unterstützung bei der Vorhersage: Der Mensch kann in komplexen, hochdynami-
schen Systemen auf Grund seiner begrenzten Informationsverarbeitungskapazität
nur schwer zukünftige Ereignisse vorhersagen. Zum großen Teil rühren diese
Einschränkungen daher, dass die Vorhersage stark vom Arbeitsgedächtnis ab-
hängt. Zur Vorhersage ist es erforderlich, die gegenwärtigen sowie möglichen
zukünftigen Zustände zu bedenken und die Regeln zu finden, die es ermöglichen,
aus der gegenwärtigen Situation die zukünftigen Bedingungen zu prognostizieren.
Ergonomische Gestaltung 979
10.1.2.2.2.1 Analoganzeigen
Unter einer analogen Anzeige versteht man eine Einrichtung mit der quantitative
Größen stufenlos, d.h. kontinuierlich abgebildet werden. Normalerweise werden
dazu Instrumente mit bewegtem Zeiger (Abb. 10.24) oder mit bewegter Skala
(Abb. 10.25) verwendet.
Analoganzeigen eignen sich für kontinuierlich ablaufende Vorgänge. Sie erlau-
ben neben dem Messwert auch dessen Veränderung zu erfassen. Neben der quali-
tativen Darstellung von Messwerten eignen sich Analoganzeigen deshalb auch
zum Regeln von Betriebszuständen. Obwohl der technische Unterschied zwischen
Instrumenten mit bewegtem Zeiger und Instrumenten mit bewegter Skala marginal
erscheint, bestehen erhebliche Differenzen bzgl. der Ableseeigenschaften. Der
sich bewegende Zeiger erlaubt eine schnelle und sichere Orientierung, benötigt
jedoch eine größere Fläche. Bei der bewegten Skala ist die Ablesegenauigkeit in
der Regel besser, die Größenordnung des Ablesewerts ist mangels Orientierung
jedoch schlechter zu erfassen Abhilfe kann hier bspw. eine farblich verschieden
unterlegte Skala bieten.
Kreisskala
140
80
60 100
120
40
Zunahme
120
100 Abnahme Zunahme
20 140
80
0 160
Abnahme
60
40
Abnahme Zunahme
Längsskala Querskala
Kreisskala
140
80
60 100
120
40 120
Abnahme
0 160
Zunahme
60
40 Zunahme Abnahme
Längsskala Querskala
Sektorskala Quadrantenskala
30
20
20 Zunahme
10 30
10
Abnahme Zunahme
0 40
Abnahme
0
lung des Zeigers fehlt (bei der Rundskala bleibt der Bezugspunkt des Zeigers fest,
wohingegen der Zeiger bei der Langfeldskala zu suchen bleibt).
Bei Analoganzeigen ist besonders auf eine sinnvolle Skalengestaltung (Teilstri-
che, Beschriftung) sowie auf eine ablesefreundliche Gestaltung des Zeigers zu
achten. Dabei soll die dargestellte Information (z.B. Anzahl der Teilstriche) in
einem günstigen Verhältnis zur Fähigkeit des Menschen, feine Unterscheidungen
noch zu erkennen, stehen. Der Zeiger soll eine klar erkennbare Spitze haben, da-
mit der Ablesende nicht gezwungen wird, den Messwert zu schätzen (wie es z.B.
bei breiten Zeigern erforderlich wäre). Der Zeiger darf zudem nicht, wie in Abb.
10.27 links dargestellt, die Ziffern der Beschriftung verdecken und sollte mit sei-
ner Spitze bis zu den Teilstrichen reichen. Ein Beispiel für eine gute Gestaltung ist
in Abb. 10.27 rechts gezeigt.
Der Abstand zwischen Zeiger und Skala muss zur Vermeidung von
Ablesefehlern (Parallaxe) gering sein. Weitere Angaben finden sich dazu in
DIN EN 894-2, DIN 43790 und DIN 43802.
40 50
40 50 30 60
30 60
20 70
20 70
10 80
10 80
0 90
0 90
10.1.2.2.2.2 Digitalanzeigen
Mit Digitalanzeigen werden diskrete (d.h. gestufte) Informationen übermittelt. Die
wesentlichen Ausführungsformen sind die binäre Anzeige mit nur zwei Zuständen
(z.B. über Kontrollleuchten) und alphanumerische Anzeigen mit Ziffern für Zah-
len und Buchstaben.
Die binäre Anzeigeform findet vielfältige Anwendung als Zustandsanzeige,
z.B. als Ein-Aus-Kontrollleuchte bei nahezu allen elektrischen Geräten. Eine sol-
che Anzeige kann jedoch nur über eine geeignete Dekodierung richtig interpretiert
werden. Hierzu kann man sich festgelegter Konventionen bedienen (Farbkodie-
rung, z.B. bei Verkehrsampeln mit Rot = halt, Gelb = Achtung und Grün = freie
Fahrt; Symbolkodierungen, z.B. an Verkehrszeichen angelehnte Begriffe oder
Symbole), andernfalls ist eine dem Benutzer verständliche Erklärung anzubringen.
Häufig erweist es sich als hilfreich, wenn die Bedeutung der Anzeigeeinrichtung
auch im inaktiven Zustand erkennbar ist (z.B. bei auf dem Leuchtfeld angebrach-
984 Arbeitswissenschaft
ten Symbolen). Insbesondere bei Warnsignalen kann der Benutzer so auf direktem
Wege die Bedeutung verstehen, ohne dass der Warnzustand eintreten muss. Prob-
lematisch ist die Verwendung von einfachen Kontrollleuchten, wenn sie in großer
Zahl räumlich eng beieinander positioniert sind (z.B. in Leitwarten) oder komple-
xere Informationen durch die Zusammenschaltung mehrerer Kontrollleuchten
übermittelt werden sollen.
Die Anzeige von Zahlenwerten mit Digitalanzeigen (Abb. 10.28) eignet sich
zur Ablesung quantitativ genau zu erfassender Messgrößen. Die Anzeigegenauig-
keit (-auflösung) kann durch die Erhöhung der Ziffernzahl prinzipiell beliebig
gesteigert werden. Im Unterschied zu Analoganzeigen sind Werteveränderungen
allerdings nur schlecht zu erfassen. Dies gilt sowohl für die Richtung der Verände-
rung als auch für den Gradienten. Sich schnell ändernde Größen sind in der Regel
überhaupt nicht zu erkennen. Die Ablesesicherheit ist wiederum, eine ausreichen-
de Darbietungszeit vorausgesetzt, hoch. Digitalanzeigen finden vorzugsweise dort
Anwendung, wo ein Endwert zweifelsfrei und mit hoher Genauigkeit abgelesen
werden soll, z.B. bei Mengenzählern (z.B. bei Zapfsäulen, Waagen und Stoppuh-
ren).
Ein häufiger auslegungstechnischer Fehler bei digitalen Messwertanzeigen ist
die Wahl einer zu großen Auflösung. Die genaue Darstellung suggeriert beim
Betrachter eine Messgenauigkeit, die, bedingt durch die Toleranz der Messvor-
richtung, möglicherweise nicht vorhanden oder durch Störgrößen konfundiert ist
(z.B. bei einer Außentemperaturanzeige im Fahrzeug, die durch den Fahrtwind
und die Wärmeproduktion im Fahrzeug gestört wird). Eine zu kleine Auflösung
dagegen verhindert das Ablesen von geringen Veränderungen der Anzeigegröße.
Daher spielt die sachgerechte Interpretation der Zahlenwerte, unter Berücksichti-
gung der Eigenschaften der vorgelagerten technischen Systeme, eine wichtige
Rolle beim exakten Ablesen von Digitalanzeigen. Eine sinnfällige Zuordnung von
Stellrichtung und Anzeige ist bei Digitalanzeigen nicht möglich.
Bei der Gestaltung von Digitalanzeigen muss besonders auf eine entsprechende
anguläre Zifferngröße sowie auf ein ausreichendes Kontrastverhältnis zwischen
Zeichen und Untergrund geachtet werden. Die Ziffern sollten mit gut lesbaren
Zeichen dargestellt werden. Bei Anzeigen mit mehreren Ziffern sollten diese in
2er oder 3er-Gruppen angeordnet werden.
10.1.2.2.2.3 Hybridanzeigen
Diese Anzeigeart versucht die Vorteile der Analog- und der Digitalanzeige zu
verbinden, indem die absolute Anzeigegröße und deren Veränderung mit zwei
getrennten Elementen dargestellt werden. Im Allgemeinen wird erstere über eine
Digitalanzeige und zweitere über eine Analoganzeige abgebildet. Hybridanzeigen
finden vorzugsweise beim Erfassen großer Messbereiche Anwendung, deren Ver-
änderung trotzdem schnell und einfach zu erfassen ist (Tachometer mit Kilometer-
zähler, Strom- und Wasserzähler).
Ergonomische Gestaltung 985
digital hybrid
2 1 7 9
80
60 100
40 6
120
Abnahme
1 7 5 5
hybrid
7 20 140
6
2 1 7 9 5
Zunahme
4 160
0
10.1.2.2.2.4 Bildschirmanzeigen
Heutige Mensch-Maschine-Systeme, seien es Fahrzeuge oder Prozessleitstände,
kommen nicht mehr ohne den Einsatz von Computersystemen aus, die im Hinter-
grund Operationen zur Erfassung, Aufbereitung und Übermittlung von Zustands-
und Prozessdaten durchführen. Durch die softwaregestützte Realisierung von
Anzeige- und Bedienelementen lassen sich vielfältige Funktionen der Mensch-
Maschine-Schnittstelle verhältnismäßig schnell und kostengünstig realisieren und
z.B. bei Überarbeitungen des Systems modifizieren bzw. bei Nachfolgemodellen
zumindest teilweise wiederverwenden. Zur Informationsdarstellung werden dem-
zufolge vielfach Bildschirmanzeigen verwendet, mit deren Hilfe die oben be-
schriebenen Analog- und Digitalanzeigen computergestützt dargestellt werden.
Für die Gestaltung der Anzeigeelemente gelten die oben beschriebenen Gestal-
tungshinweise.
Bildschirmanzeigen erlauben die Erzeugung unterschiedlicher Anzeigearten
und eignen sich deshalb für die Darstellung komplexer Sachverhalte in Form von
Grafiken, Flussbildern oder Diagrammen (Abb. 10.29). Ein wesentlicher Vorteil
ist die große Variabilität der Informationsdarstellung, die eine zustandsabhängige
Darstellung situativ relevanter Informationen mittels sog. konfigurierbarer Anzei-
gen ermöglicht.
Enthält die Bildschirmanzeige neben den Anzeigekomponenten interaktive
Elemente wie Schaltflächen (buttons), mit denen der Benutzer Informationen
auswählen oder andere Systemfunktionen auslösen kann, spricht man von einer
grafischen Benutzungsschnittstelle (graphical user interface – GUI).
Bei Bildschirmanzeigen ist eine ausreichend feine optische Auflösung anzu-
streben. Bei der Zeichendarstellung ist zu beachten, dass das Punktraster zur Ab-
bildung der Buchstaben ausreichend fein aufgelöst ist. Eine Punkt-Matrix- oder 7-
Segment-Anzeige entspricht zwar dem Stand der Technik, nicht jedoch immer den
Bedingungen nach guter Lesbarkeit (z.B. Verwechslungsgefahr zwischen 5, 6 und
8, 7 und 1).
986 Arbeitswissenschaft
Abb. 10.29: Bildschirmanzeige als Ersatz für eine Vielzahl von Kontrollleuchten am Fah-
rerplatz eines Linienbusses. Je nach Betriebszustand werden die anfallenden Informationen
in einfach verständlicher Form und an einem festen Ort dargestellt (GÖBEL u. LUCZAK
2000)
Tabelle 10.2: Vor- und Nachteile von Flüssigkristallanzeigen (LCDs) (nach BGI 650)
Vorteile Nachteile
Kontrast mittel bis hoch mittel bis hoch mittel bis hoch
Klasse Beschreibung
I • Erlaubt einer Vielzahl von Benutzern, die gesamte Bildschirmfläche beim vorgesehenen
Sehabstand aus allen Richtungen innerhalb eines 80°-Sehkegels ohne Abnahme der
visuellen Leistung zu betrachten.
• Bietet Gleichmäßigkeit über die gesamte Bildschirmfläche; Kopfbewegungen sind
möglich.
III • Erlaubt einem einzelnen Benutzer, die gesamte Bildschirmfläche beim vorgesehenen
Sehabstand von einer flexiblen Position (d.h. vorgesehener Sehabstand, vorgesehene
Sehrichtung vor der Mitte des Bildschirms) ohne Abnahme der visuellen Leistung zu be-
trachten.
IV • Erlaubt einem einzelnen Benutzer, die Mitte der Bildschirmfläche beim vorgesehenen
Sehabstand von einer fixierten Position (d.h. vorgesehener Sehabstand, vorgesehene
Sehrichtung vor der Mitte des Bildschirms) ohne Abnahme der visuellen Leistung zu be-
trachten.
• Erfordert Kippen und Drehen des Bildschirms, um eine gleichmäßige Erscheinung der
Bilddarstellung zu erreichen; Kopfbewegungen sind nicht möglich.
• Sehr gut geeignet für Aufgaben, die einen geringen Sehkegel erfordern.
Hinzuweisen ist darauf, dass zwischen 8-9% der männlichen, jedoch nur 1%
der weiblichen Bevölkerung bestimmte Farben nicht wahrnehmen können (Farb-
fehlsichtigkeit, Rot-Grün-Schwäche). Davon zu unterscheiden ist die Farben-
blindheit, die bewirkt, dass farbige Informationen als Graustufen wahrgenommen
werden. Um die Wahrnehmbarkeit wichtiger Informationen zu gewährleisten,
sollte neben der Farbinformation eine dazu redundante Information dargeboten
werden, z.B. durch Formkodierung von Symbolen.
In Bezug auf die Farbkombinationen von Zeichen und Hintergrund sollte eine
nach BGI 650 oder DIN EN ISO 15008 als „sehr gut“ eingestufte Kombination ge-
wählt werden. Eine differenzierte Betrachtung erlaubt DIN EN ISO 9241-8.
Abb. 10.30: Technischer Aufbau und Benutzung einer CAVE (Quelle: Rechenzentrum der
RWTH Aachen 2008)
Mobile Sichtanzeigen
Bei Virtuellen Umgebungen werden als Sichtgeräte häufig Head- oder Helmet-
Mounted Displays sowie auch handgeführte Sichtanzeigen eingesetzt. Sie sind
teilweise so ausgeführt, dass der Benutzer über keine Außensicht verfügt und
somit visuell einen hohen Immersionsgrad erreicht, sog. immersive oder video-
see-through HMDs. Zur Generierung der Bilder werden meist Flüssigkristallan-
zeigen verwendet. Es sind auch Geräte verfügbar, bei denen rechnergestützt gene-
rierte Darstellungen über halbdurchlässige Spiegel in die natürliche Außensicht
des Benutzers eingeblendet werden, sog. optical-see-through-HMDs.
Um die Blickrichtung des Benutzers festzustellen, werden Tracking-Systeme
(siehe Kap. 10.1.2.4.6) verwendet, für deren Integration die meisten der genannten
Geräte vorbereitet sind. Bei einigen Geräten ist darüber hinaus ein Akustiksystem
integriert, das dem Benutzer über einen Kopfhörer akustische Reize darstellt.
Bei binokularen Geräten soll der Abstand der Austrittspupillen im Bereich 56-
68 mm verstellbar sein, um eine Anpassung an den Pupillenabstand zu ermögli-
chen. Bei Vorhandensein einer Skala für die Einstellungsvorrichtung können die
Einstellungen auf diese Weise reproduziert werden. Da der Benutzerkreis in der
Regel auch aus Personen mit Sehhilfen besteht, sollte das Gerät mit Sehhilfen
benutzbar sein bzw. für jedes Auge ein Linsensystem zur Sehkorrektur vorweisen.
Um das Einwirken von Streulicht bei Geräten ohne Außensicht zu verhindern,
sollten beide Okulare mit ausreichend großen Okularmuscheln bzw. das Gerät mit
einem Lichtschutztubus ausgestattet sein (SCHMIDTKE u. ZÜLCH 1995).
Bei der Auswahl von Head- oder Helmet-Mounted Displays ist auf ein geringes
Gerätegewicht, homogene Druckverteilung der Gewichtskräfte auf dem Kopf und
eine gute Belüftung der bedeckten Kopfoberfläche zu achten. Große Gewichte,
inhomogene Druckverteilung und Temperaturstau unterhalb der Kopfbefestigun-
gen führen zu Unbehaglichkeit bei der Benutzung. Die meisten Geräte verfügen
ähnlich wie Arbeitsschutzhelme über eine Kopfschale mit einem in Stirnhöhe
rundum und einem weiteren, in der Frontalebene quer über den Kopf verlaufenden
Band. Die homogene Druckverteilung auf dem Kopf sollte durch geeignete Ein-
stellvorrichtungen erreicht werden können; das Anbringen von zusätzlichen Pols-
992 Arbeitswissenschaft
10.1.2.3 UnterstützungĆderĆInformationsverarbeitungĆ
Bei der Anwendung von Sichtanzeigen spielt nicht nur die richtige Auswahl, son-
dern vor allem auch ihre aufgabengerechte Gestaltung eine große Rolle. Sollen
Informationen nicht lediglich angezeigt, sondern in einer für den Benutzer leicht
erkennbaren und verständlichen Form an diesen übermittelt werden, spricht man
auch von Visualisierung. Nach CARD et al. (1999) beinhaltet die Visualisierung
insbesondere „the use of computer-supported, interactive, visual representations
of abstract data to amplify cognition“. In diesem Zusammenhang meint z.B.
VICENTE (1999) unter Bezug auf die Schnittstelle, die zu einem wesentlichen Teil
zur Informationsdarbietung dient: „The adequacy of the human-computer interface
can either make or break the system“. Die Visualisierung kann die zentrale Infor-
mationsverarbeitung durch eine Verlagerung von kognitiven hin zu Wahrneh-
mungsprozessen entlasten, z.B. indem Informationen leichter erkannt werden,
Tendenzen oder Muster im Informationsstrom sichtbar werden und die besonderen
Leistungsmerkmale der visuellen Aufmerksamkeit bei Überwachungsaufgaben
berücksichtigt werden.
Während sich die Visualisierung mehr mit der Übermittlung der Information
zwischen Maschine und Mensch beschäftigt, behandeln die übergeordneten Ge-
staltungskonzepte die Anordnung und Integration von Anzeigen und die Reprä-
sentation von Betriebsbedingungen des Systems in der Benutzerschnittstelle.
10.1.2.3.1 Kompatibilitätsprinzip der Nähe
Das Kompatibilitätsprinzip der Nähe (WICKENS u. CARSWELL 1995; engl.
proximity compatibilty principle – PCP) ist als eine Richtlinie anzusehen, die bei
der Beantwortung der Frage hilfreich sein kann, wo eine Anzeige im Hinblick auf
andere Anzeigen angeordnet und wie sie gestaltet werden soll. So sollten die
Wahrnehmungsmerkmale von Anzeigen so gestaltet sein, dass sie mit den kogni-
tiven Prozessen kompatibel sind, die sich beim Operateur bei der Durchführung
einer Aufgabe entfalten. Wenn ein Operateur z.B. zwei Informationsquellen zur
Durchführung einer Aufgabe benötigt, so sollte die Anzeige diese Daten auf ir-
gendeine Weise integrieren. Wenn der Operateur sich dagegen auf eine einzige
Informationsquelle konzentriert, um eine Aufgabe durchzuführen, so sollten die
Daten für diese Aufgabe getrennt von anderen dargeboten werden (VICENTE
1997).
Ergonomische Gestaltung 995
10.1.2.3.1.2 Aufgabennähe
Eine Ähnlichkeit von Aufgaben kann z.B. in Bezug auf folgende Merkmale vor-
liegen (Tabelle 10.6):
x Metrische Ähnlichkeit: Information, die in derselben Einheit dargestellt wird,
z.B. der Druck in zwei verschiedenen Tanks.
x Statistische Ähnlichkeit oder Kovarianz: Ausmaß des Wirkzusammenhangs
zweier Werte.
x Verarbeitungsähnlichkeit: Eine Ähnlichkeit von zwei Aufgaben in Bezug auf
die Informationsverarbeitung. Größere Verarbeitungsähnlichkeit liegt z.B.
bei zwei Regelaufgaben mit gleicher Ansteuerung der Strecke vor (in beiden
Fällen Geschwindigkeitssystem), als bei Regelaufgaben mit unterschiedli-
cher Ansteuerung (Geschwindigkeitssystem und Beschleunigungssystem).
Die einzelnen Ähnlichkeitsmerkmale und das Ausmaß, in dem Informationen
integriert werden müssen, kennzeichnen die resultierende Aufgabennähe:
x Große Aufgabennähe liegt vor, wenn im Rahmen der Aufgabendurchführung
Informationen verschiedener Quellen mental zusammengefasst und integriert
weiterverwendet werden müssen, z.B. die Auswertung des Temperaturver-
laufs innerhalb eines Hochofens.
x Eine geringere Aufgabennähe liegt beim nichtintegrativen Verarbeiten ähnli-
cher Aufgaben vor, z.B. bei der Überwachung der Drehzahlen mehrerer
Triebwerke.
996 Arbeitswissenschaft
Man muss zwischen der Kodierung der Quantität und der Qualität unter-
scheiden. Z.B. kann die Temperatur durch die rot/blaue Färbung eines Bal-
kens gekennzeichnet werden (Kodierung der Qualität), während die Länge
des Balkens (Kodierung der Quantität) die gemessene Temperatur angibt.
x Objektintegration: Mehrere Informationen werden so angeordnet, dass sie
dem Benutzer als Teil eines einzigen Objekts erscheinen (z.B. Anzeige von
Atemvolumen und -frequenz eines Patienten über die Länge der Seiten eines
Rechtecks). Dies kann über verschiedene Methoden erreicht werden. Eine
Methode besteht darin, den räumlichen Abstand zwischen den Informations-
quellen zu reduzieren. Bei einer anderen Methode, z.B. der Darstellung von
Messwerten in Form von Balken, fügt man eine Kontur hinzu, die die oberen
Kanten der Balken verbindet. Eine weitere Methode besteht in einer extre-
men räumlichen Integration, so dass z.B. ein Punkt in einem kartesischen
Koordinatensystem zwei Dimensionen repräsentiert.
x Konfiguration: Diese Methode ist durch drei Aspekte gekennzeichnet: Durch
die enge räumliche Nähe, die Verwendung homogener Kodes und die An-
ordnung der Informationsquellen in einer Weise, dass sie ein neues Muster
konfiguriert.
Am Beispiel der in der Flugführung üblichen Anordnung von Cockpit-
Anzeigen wird das Prinzip der Anzeigennähe gut verdeutlicht: Die für die Durch-
führung der Flugführungsaufgabe wesentlichen Informationen über Geschwindig-
keit, Fluglage, Höhe und Flugrichtung werden immer in Form eines „T“ darge-
stellt (Abb. 10.31). Auf diese Weise können alle relevanten Anzeigen schnell
überblickt und die Informationen integriert werden. Zudem erleichtert die stets
identische Anordnung den Wechsel der Piloten zwischen verschiedenen Flug-
zeugmustern.
10.1.2.3.1.4 Informationszugangskosten
Alle Ansätze, die dazu dienen, die Anzeigennähe zu erhöhen, erleichtern den
Vergleich von Informationsquellen und deren Integration, da die Informationszu-
gangskosten reduziert werden. Informationszugangskosten kommen durch die
notwendigen Augen- und Kopfbewegungen, die visuelle Suche und durch Ände-
rungen in der Aufmerksamkeitszuwendung zustande. Änderungen der Aufmerk-
samkeitszuwendung bei geringer Anzeigennähe (d.h. großem Abstand!) tragen
besonders dann zu den Informationszugangskosten bei, wenn die Suche unter
starkem „visuellem clutter“ (Störungen, Ablenkungen durch andere Anzeigenele-
mente) abläuft. Bei hoher Aufgabennähe erhöhen sich die Informationszugangs-
kosten mit abnehmender Anzeigennähe stärker als bei niedriger Aufgabennähe, da
die Information länger im Arbeitsgedächtnis zwischengespeichert werden muss.
Abb. 10.32: Polardisplay zur integrierten Anzeige von Sensorinformationen bei der Luft-
raumüberwachung (nach GRANDT u. LEY 2008). Symmetrie kennzeichnet ein normales
Informationsmuster (links) und dient somit als emergent feature. Ein ungewöhnliches Da-
tenmuster führt zu einer visuell leicht wahrnehmbaren Symmetriebrechung (rechts)
Emergent features sollten allerdings nur bei Variablen eingesetzt werden, die
von wesentlicher Bedeutung für die Systemführung sind. Eine Gefahr von
emergent features – besonders, wenn sie stark hervortreten – ist nämlich, dass die
Aufmerksamkeit ungewollt auf die einzelnen Elemente fokussiert wird.
Abb. 10.33: Im Normalzustand (links) ist die durch die einheitliche Zeigerstellung entste-
hende imaginäre Linie ein leicht wahrnehmbares Emergent Feature. Rechts: Die Abwei-
chung eines Anzeigewerts führt unmittelbar zur Unterbrechung der geraden Verbindungsli-
nie der Zeiger (nach WICKENS 1992)
10.1.2.3.1.6 Objektintegration
Homogene Codes können auch zu einem einzigen Objekt integriert werden, z.B.
die Fläche und Form eines Rechtecks, die durch Höhe und Breite der parallelen
Seiten gebildet werden. Weitere Beispiele:
x ein einzelner Punkt, dessen Position in einem kartesischen oder polaren Ko-
ordinatensystem festliegt.
x eine Linie, die mehrere Punkte in einem Diagramm miteinander verbindet.
Der Verlauf der Linie gibt direkt Hinweise auf die Unterschiede zwischen
den Punkten der Trends wahrnehmen lässt und somit komplexe Integrations-
prozesse erübrigt. Als Beispiel kann auch hier das in Abb. 10.32 gezeigte Po-
lardisplay dienen.
Die Kombination von homogenen oder heterogenen Codes für quantitative
Merkmale in einem Objekt kann unabhängig vom Grade der Aufgabennähe einen
wesentlichen Vorteil haben: alle unterscheidbaren Attribute eines Objekts können
parallel verarbeitet werden (object file theory der Aufmerksamkeit, WICKENS
1000 Arbeitswissenschaft
Vergleich
Außensicht
Anzeige des
Sichtwinkels
N
Abb. 10.34: Anzeige des von der Flugrichtung abhängigen Sichtwinkels beim weltfesten
(nordstabilen) Kartendisplay als visuelles Moment zur Vermeidung kognitiver Transforma-
tionen (hier durch mentale Rotation einer Landkarte) (nach WICKENS 1992)
Ergonomische Gestaltung 1001
10.1.2.3.2.1 Abstraktionshierarchien
Abstraktionshierarchien bestehen aus mehreren Schichten, die sich jeweils durch
den Grad der Detaillierung in Bezug auf die Realisierung einer Funktion vonei-
nander unterscheiden (siehe auch Kap. 3.3.2.2.5.1). Je höher das Abstraktionsni-
veau, desto geringer die Auflösung in Bezug auf Einzelheiten. Ein System wird
1002 Arbeitswissenschaft
Gesamt-Teil-Relation
Aggregation Dekomposition
Gesamt- Funktionale
Subsystem Baugruppe Komponente
system Einheit
Funktionaler
Zweck
Abstraktion
Abstrakte
A
Mittel-Zweck-Relation
Generalisierte
Funktion B dient dem Zweck A B C D besteht aus E und F
Konkretisierung
Physikalische
Funktion D E F
Physische E und F sind Teile von D
Form
liert abgebildet als niedrigere Schichten, so dass ein System auf einem höheren
Abstraktionsniveau einfacher aussieht als auf einem niedrigeren. Dies ermöglicht
es, die Komplexität des Systems zu bewältigen.
Die Systemdiagnose wird durch die Zielgerichtetheit der Abstraktionshierarchie
stark vereinfacht und beschleunigt. Da die verschiedenen Abstraktionsniveaus
durch Mittel-Ziel-Beziehungen verbunden sind, kann die Fehlersuche auf einem
relativ hohen Abstraktionsniveau beginnen und sich dann auf die Verzweigung der
Hierarchie konzentrieren, die mit dem fehlerhaften Teilsystem verbunden ist. Bei
der Fehlersuche bei einem Fernseher könnte man z.B. bei der Stromversorgung
beginnen und dann in der darunter liegende Ebene nur die Teile berücksichtigen,
die mit der Stromversorgung zusammenhängen. In Abb. 10.36 ist beispielhaft ein
anhand der Abstraktionshierarchie abgeleitetes Modell eines zur Luftraumüberwa-
chung eingesetzten Radarsystems dargestellt. Solche Systeme haben den (funktio-
nalen) Zweck, für die Erstellung eines aktuellen, vollständigen und korrekten
Lagebildes in vorgegebenen Überwachungsbereichen auch bei Störung durch
Radarstörsysteme (jammer) Informationen bereitzustellen (WITT u. PIORO 2008).
Weitere Beispiele, in denen Abstraktionshierarchien erfolgreich zur strukturierten
Darstellung komplexer Systeme genutzt wurden, finden sich z.B. bei WITT et al.
(2007) sowie FOLTZ (2009).
Abb. 10.37: Ökologische Schnittstelle zur Beurteilung von Objekten im Luftraum. Bei der
Darstellung von entscheidungsrelevanten Parametern wie Entfernung und Geschwindigkeit
wird a priori Wissen als Toleranzbereich integriert. Abweichungen vom Toleranzbereich
sind leicht wahrnehmbar; die Spannweite bisheriger Beobachtungen wird zur Entlastung
des Arbeitsgedächtnis angezeigt. Die Anzeige leistet eine Vorklassifikation bestimmter
Information durch Farbkodierung (blau = freundlich, grün = neutral, orange = kritisch, rot =
feindlich). In der kreisförmigen Anzeige unten werden Ergebnisse eines Entscheidungs-
unterstützungssystems in einer an die dem Bewertungsprozess zugrunde liegenden Ent-
scheidungsregeln angepassten Weise visualisiert. (aus GRANDT u. LEY 2008)
10.1.2.3.2.3 Gestaltungsmöglichkeiten
Ziel der ökologischen Schnittstellengestaltung ist es, die benutzerrelevante Infor-
mation über den Zustand der Arbeitsumgebung entsprechend deren invarianten
Eigenschaften strukturiert darzubieten. Diese invarianten Eigenschaften einer
Arbeitsumgebung resultieren aus den kausalen, funktionalen und intentionalen
Faktoren und bilden die Rahmenbedingungen (constraints) des Systembetriebs.
Sie sollten die Darstellung des Systems bei der Schnittstellengestaltung ganz ent-
scheidend prägen. PEJTERSEN u. RASMUSSEN (1997) geben vier Arten von Inva-
rianten an:
x Beziehungen zwischen den Systemkomponenten: z.B. kausal, intentional,
empirisch, organisatorisch
x Grenzen des Systembetriebs: z.B. physikalisch, intentional, formal, legal,
ressourcenbezogen
1006 Arbeitswissenschaft
10.1.2.4 UnterstützungĆderĆInformationsabgabeĆ
Dem Modell der multiplen Ressourcen (WICKENS u. HOLLANDS 1999) zufolge
können je nach Wahl der Eingabemedien Einschränkungen in der Informations-
verarbeitung auftreten, die zu Verlängerungen der Bearbeitungszeiten und zu
Ergonomische Gestaltung 1007
Fehlern bei der Dateneingabe führen können. Die ergonomische Auslegung von
Interaktionsverfahren soll eine erwartungskonforme und konsistente Interaktion
mit dem Mensch-Maschine-System ermöglichen. Hinsichtlich der Interaktions-
verfahren ist es deshalb erforderlich, dem Benutzer eine an seine Fähig- und Fer-
tigkeiten angepasste Informationsabgabe zu ermöglichen.
Während in der Vergangenheit Eingaben über mechanisch wirkende Stellteile
erfolgten (Handrad, Hebel; z.B. im Stellwerk), werden heute hauptsächlich Einga-
ben und Steuerungen über Tasten bzw. Tastaturen mit leichtgängigen Bedienele-
menten (z.B. Drucktastenstellwerk) oder über vollständig softwarebasierte Benut-
zungsschnittstellen (z.B. digitalisierte Stellwerke, Prozessleitwarten) vorgenom-
men.
Bei der Auswahl der richtigen Eingabetechnologie sind vielfältige technische
Ansätze möglich, die von der manuellen Eingabe der Daten mit Maus oder Roll-
ball, über die Spracheingabe bis hin zur Nutzung der bereits zuvor dargestellten
Technologien der Erweiterten oder Virtuellen Umgebungen reichen.
Darüber hinaus werden derzeit weitere Verfahren entwickelt, die eine intuitive
Interaktion zwischen Mensch und Maschine ermöglichen sollen oder bei Ein-
schränkungen der motorischen Möglichkeiten des Benutzers zum Tragen kommen
können, bspw. die Steuerung von Computerdialogen mit Blickbewegungen
(RÖTTING u. SEIFERT 2000; SCHNEIDER et al. 2008).
10.1.2.4.1 Stellteile
Je nach Gestaltung der Stellteile werden verschiedene Griffarten unterschieden
(Kontaktgriff, Zufassungsgriff, Umfassungsgriff; siehe SCHMIDTKE 1993). Wei-
terhin können Stellteile entweder rotatorisch oder translatorisch betätigt werden,
darüber hinaus spielt die Betätigungsrichtung in Bezug zum menschlichen Körper
eine Rolle (Anordnung in horizontaler oder vertikaler Ebene, translatorische Ele-
mente in Längs- oder Querrichtung zu Körper). Die Gestaltung von Stellteilen ist
außerdem vom Stellwiderstand, d.h. den aufzubringenden Kräften und Wegen und
deren Charakteristik (Feder, Masse, Dämpfung, Linearität), deren Größe und dem
Betätigungsweg bzw. -winkel abhängig. Alle diese Faktoren besitzen einen Ein-
fluss auf die Erreichbarkeit, Geschwindigkeit und Genauigkeit der Betätigung.
Hinweise zur aufgabenbezogenen Auswahl von Stellteilen gibt DIN EN 894-3.
Die Stellteile sind gut erreichbar, d.h. im Greifraum der Arme bzw. im nahen
Fußraum anzuordnen. Die Anordnung ist von der Häufigkeit, der Wichtigkeit und
vom Kraftaufwand der Betätigung abhängig, d.h. häufig zu betätigende Elemente
müssen im (für kleine und große Personen) günstigen Griffbereich positioniert
werden.
Die Größe der Elemente muss sich an der Größe der Finger und der Hand ori-
entieren (Angaben zur Auslegung finden sich z.B. in SCHMIDTKE 1989).
Auch bei nur geringen aufzubringenden Kräften muss bei länger andauernder
oder häufiger Benutzung die statische Muskelbelastung zur Aufrechterhaltung der
Fuß- und Bein- bzw. Hand- und Armposition berücksichtigt werden. In diesem
Fall sind Abstützungsmöglichkeiten vorzusehen.
1008 Arbeitswissenschaft
Bei der Gestaltung ist zu beachten, dass die Stellteile in ihrem Betätigungssinn
dem erwarteten Funktionseffekt entsprechen (Beispiel: Bewegen des Vorschubhe-
bels einer Bohrmaschine nach unten = Werkzeugbewegung nach unten). Diese
Bewegungs-Effekt-Stereotypien folgen eingespielten Konventionen, sind aber
nicht frei von Unsicherheiten. In DIN EN 60447 sind deshalb die Zusammenhänge
von Funktion und Bewegungsrichtung festgelegt (Tabelle 10.7). Ähnliche Rege-
lungen finden sich zudem in DIN 1410.
Diese Festlegungen sind, nicht zuletzt aus Sicherheitsgründen, einzuhalten.
Wenn diese Sinnfälligkeit nicht eindeutig zu erkennen ist, sind zusätzliche Hin-
weise oder gestalterische Maßnahmen erforderlich. Als Beispiel sei auf den Zu-
sammenhang „Ventil öffnen = Bewegungssinn entgegen dem Uhrzeigersinn“
hingewiesen. Wenn für den Menschen nicht zweifelsfrei erkennbar ist, dass sich
hinter dem Stellteil ein Ventil befindet (oder z.B. wie bei Elektroherden eine ent-
sprechende Analogie angenommen wird), muss durch zusätzliche Maßnahmen
kenntlich gemacht werden, bei welcher Betätigungsrichtung eine Zunahme oder
Abnahme erwartet werden kann.
Tabelle 10.7: Betätigungssinn und Anordnung von Stellteilen (nach DIN EN 60447) ein-
schließlich Erweiterung
Resultierende Endzustände
Zustandsänderung
Gruppe 1 Gruppe 2
einschalten ausschalten
starten stoppen
beschleunigen bremsen
Änderung der Bedingung
Stromkreis Stromkreis
schließen öffnen
entzünden auslöschen
aufwärts abwärts
vorwärts rückwärts
im entgegen dem
Handrad, Kurbel, Knopf Drehbewegunga)
Uhrzeigersinn Uhrzeigersinn
a)
zur Regelung von Durch- entgegen dem im
flussmengen Uhrzeigersinn Uhrzeigersinn
rechts-
nach rechts nach links
Griff, Hebel, mit linearer Bewe- links
Art und Anordnung der Be- Punkt für die Ausübung der Hand-
Art der Handlung
dienteilgruppe lung
bewegung nach rechts bspw. auch ein Zeigerausschlag nach rechts folgt (Prinzip
des funktionellen Zusammenhangs, DIN EN 894-1). Stellteil und zugehörige An-
zeige sollten räumlich eng positioniert werden, so dass ihre Beziehung zueinander
dem Benutzer offensichtlich wird (DIN EN 894-1). Dies entspricht zum einen der
Erwartungshaltung des Benutzers und zum anderen wird die Transformation bzw.
Dekodierung einfacher und damit schneller und sicherer. Abb. 10.38 zeigt die
sinnfällige Zuordnung von Bedienteil und Anzeige.
Abb. 10.38: Kompatibilität bei der Anordnung von Stellteil und Anzeige in verschiedenen
Ebenen. Die Anordnung in der Mitte weist die höchste Eindeutigkeit zwischen Stellteilbe-
wegung (schwarz) und Reaktion der Anzeige (grau) auf. Weniger günstig ist die Zuordnung
links. Bei der Darstellung rechts mit Drehknopf und Langfeldskala in versetzten Ebenen
können bereits Unsicherheiten in der Zuordnung von Ursache und Wirkung auftreten (nach
GRANDJEAN 1988)
Eine Abweichung, bspw. aus konstruktiven Gründen, wird durch den hohen
Grad der Automatisierung von Bewegungen und durch die Erwartungshaltung des
Benutzers (Bewegungs-Effekt-Stereotypien) zwangsläufig zu einer höheren Feh-
lerhäufigkeit führen.
Neben der Kompatibilität zwischen Bedienungsrichtung und Anzeige muss
auch die Anzeige den erwarteten Effekt sinnfällig zeigen. Hierbei gelten die glei-
chen Gesetzmäßigkeiten wie bei Stellteilen (Tabelle 1.7).
Bei der Verwendung von Stellteilen in Form von Tastaturen ist der Signal-
Reaktions-Kompatibilität besondere Aufmerksamkeit zu schenken, da bei der
Eingabe in der Regel kein Betätigungssinn erkennbar ist. Hier kann man bspw.
durch die Lage und Anordnung der Tasten (obere Taste = aufwärts, untere Taste =
abwärts) eindeutige Funktionszusammenhänge herstellen.
In vielen Anwendungszusammenhängen werden eine Reihe von verschiedenen
Anzeigeeinrichtungen und Stellteilen räumlich eng beieinander angeordnet. Ihre
symmetrische und damit häufig als ästhetisch ansprechend empfundene Anord-
nung erweist sich jedoch nicht selten als unzweckmäßig.
Grundsätzlich eignen sich zur Festlegung der Anordnung von Anzeigen und
Stellteilen bestimmte Ordnungsprinzipien. Allerdings entsteht i.Allg. die Schwie-
rigkeit, dass diese zum Teil einander widersprechen. Ein „Kompromiss“, bei dem
Ergonomische Gestaltung 1011
Abb. 10.39: Funktionelle Gruppierung des Anzeigefeldes im Flugzeug. Links der Bereich
mit Anzeigen für den Piloten, rechts die identische Anzeigengruppe für den Copiloten. In
der Mitte die Anzeigeinstrumente zur Überwachung der (hier vier) Triebwerke
Abb. 10.40: Räumliche Gruppierung von Anzeigeelementen auf einem alternativen Radar-
bildschirm, bei dem – anstelle der Höhenangabe in numerischer Form – die Objekte mittels
eines stereoskopischen Bildschirms in ihrer realen Raumstruktur abgebildet werden
(GÖBEL et al. 1995)
1012 Arbeitswissenschaft
M 1 2
Abb. 10.41: Gestaltung einer Bedienungsvorrichtung für die Sitzverstellung anhand der
miniaturisierten Form des Sitzes. Sitzfläche und Sitzlehne lassen sich entsprechend der
gegebenen Verstellmöglichkeiten bewegen. Um z.B. die Sitzvorderkante höher zu stellen,
hebt man den vorderen Teil des Sitzflächen-Hebels
Die Größe der Tasten richtet sich nach der Häufigkeit und Wichtigkeit der Ein-
gabe. Häufig zu betätigende Tasten (z.B. Zehner-Tastaturen von Tischrechnern)
müssen so dimensioniert werden, dass ein dynamisches Arbeiten ohne ständige
Sichtkontrolle möglich ist. Dies gilt ebenso für Schreibmaschinentastaturen. Hier
wählt man einen Abstand von Tastenmitte zu Tastenmitte von 19 mm
(SCHMIDTKE et al. 1989; NORMENREIHE DIN 2137). Bei seltener zu betätigenden
Tasten, die in der Regel nur mit einem Finger bedient werden, ist eine geringere
Tastengröße möglich, z.B. bei Taschenrechnern (DIN 32758). Dabei ist zu beach-
ten, dass zu kleine Tasten zu häufigeren Fehlbedienungen führen. Nach dem be-
reits in Kap. 3.3.1.2.2.2 erwähnten Fitts’schen Gesetz (FITTS 1954) hängt der für
eine Zielbewegung erforderliche Zeitbedarf (movement time, MT) von der Entfer-
nung des Stellteils und seiner, in Bezug zur Bewegungsrichtung gegebenen Breite
ab:
MT a b ID (10.3)
In Gl. (10.3) sind a und b empirisch gewonnene Konstanten und ID der sog.
Schwierigkeitsgrad (index of difficulty). Dieser ergibt sich zu:
§ 2A ·
ID log 2 ¨ ¸ (10.4)
©W ¹
Bei der Definition des Schwierigkeitsgrades nach Gl. (10.4) gibt A die Entfer-
nung zwischen Start- und Zielpunkt an und W die Breite des Ziels längs der Be-
wegung. Für kleine ID-Werte schlägt MACKENZIE (1992) eine Bestimmung nach
Gl. (10.5) vor.
§ A ·
ID log 2 ¨ 1¸ (10.5)
©W ¹
Bei Tastaturen in zeitkritischen Prozess- oder Fahrzeugführungssystemen kön-
nen deshalb in Abhängigkeit von der räumlichen Anordnung eine deutlich größere
Dimensionierung der Tasten und eine Vergrößerung des Tastenmittenabstands
erforderlich sein. Eine interessante Erweiterung des Fitts’schen Gesetzes in Hin-
blick auf die Informationseingabe mit tragbaren Computern, die bei unterschiedli-
chen Gehgeschwindigkeiten benutzt werden, findet sich bei ALEXANDER et al.
(2007).
Die Anordnung der Tasten richtet sich nach dem Verwendungszweck und ist an
Konventionen gebunden, die in der Regel in den oben zitierten Normen festge-
schrieben sind. Als Beispiel sei die Anordnung der Buchstaben auf der Schreib-
maschinentastatur genannt. Differenzen gibt es bei der Anordnung der Tasten bei
Zehnertastaturen: Rechnertastaturen sind nach dem Schema 7-8-9 / 4-5-6 / 1-2-3 /
0 aufgebaut; die Tasten der Telefone sind dagegen nach dem Schema 1-2-3 /
4-5-6 / 7-8-9 / 0 angeordnet. Eingeübte Benutzer werden bei beiden Anordnungen
keine Leistungsunterschiede feststellen. Generell sollte jedoch die Bezifferung der
Tasten im üblichen Lesesinn erfolgen (Telefon), um auch ungeübten Benutzern
eine möglichst problemlose Benutzung zu ermöglichen.
1014 Arbeitswissenschaft
Die Ausführung der Tasten in technischer Hinsicht sollte dem Benutzer eine
Rückmeldung über die erfolgte Eingabe geben. Dies kann akustisch geschehen
(„piep“) oder taktil erfolgen (mechanischer Druckpunkt). Die akustische Rück-
meldung findet man vorzugsweise bei den technisch weniger aufwendigen Folien-
tastaturen, sie ist jedoch aus ergonomischer Sicht ungünstiger zu bewerten. Die
taktile Rückmeldung erfordert einen Betätigungsweg beim Drücken einer Taste.
Die Beschriftung der Tasten kann durch Buchstaben, Zahlen, feste Begriffe
oder eindeutige Symbole erfolgen.
Bedienungserleichterungen erreicht man mit einer sinnfälligen Gruppierung der
Tasten (siehe Kap. 0).
Bei der Anordnung von Tastaturfeldern, die über längere Zeit bzw. mit hoher
Frequenz bedient werden, ist weiterhin auf eine günstige Arm-, Hand- und Fin-
gerposition zu achten. Dies kann durch ergonomische Armabstützungsmöglichkei-
ten unterstützt werden. Insbesondere bei Computertastaturen entspricht die von
der Schreibmaschine übernommene Tastenanordnung nicht den Erfordernissen
des Menschen, da hierbei die Unterarme einwärts und die Hände nach außen ge-
dreht werden müssen (siehe Abb. 10.42). Diese Zwangshaltung des Hand-Arm-
Systems bei der Bildschirmarbeit begründet das sog. Repetitive Strain Injury
(RSI) (siehe auch VAN TULDER et al. 2007), eine mit Taubheitsgefühlen oder
Schmerzen einhergehende Belastungsfolge, die sich zum RSI-Syndrom weiter-
entwickeln kann.
Abb. 10.42: Stellung des Hand-Arm-Systems bei Nutzung einer konventionellen Tastatur
Die schon seit den siebziger Jahren immer wieder unternommenen Versuche
der Einführung ergonomisch gestalteter Tastaturen (Abb. 10.43), deren Herstel-
lungsaufwand nur unbedeutend größer ist, scheitert bis dato im Wesentlichen an
der Gewohnheit der Benutzer, mit traditionellen Bauformen zu arbeiten, und der
damit verbundenen Umlernerfordernis.
Ergonomische Gestaltung 1015
Abb. 10.43: Ergonomisch gestaltete Tastatur, die eine natürliche Haltung des Hand-Arm-
Systems erlaubt (Quelle: Microsoft Deutschland GmbH)
sowohl hinsichtlich der resultierenden Bearbeitungszeit als auch in Bezug auf die
subjektiv wahrgenommene Aufgabenschwierigkeit Vorteile gegenüber Eingabege-
räten wie Computermaus, Rollball und Trackball sowie der Spracheingabe auf-
weisen. Untersuchungen von SCHNEIDER et al. (2008) bestätigen dies und zeigen
darüber hinaus, dass ältere Benutzer (Lebensalter > 60 Jahre) durch Verwendung
eines Touchscreens altersbedingte sensumotorische Einschränkungen kompensie-
ren und ähnliche Leistungen erzielen können, wie jüngere Benutzer mit der Com-
putermaus.
Eingaben werden bei berührempfindlichen Bildschirmen am besten über aus-
reichend dimensionierte Schaltflächen (buttons) vorgenommen. Der Abstand
virtueller Tasten soll dabei mindestens 5 mm betragen und bei geringer Auflösung
der berührempfindlichen Maske mindestens doppelt so groß sein wie die Auflö-
sung der Eingabemaske (RÜHMANN u. GRONER 1989). Eine unbeabsichtigte Be-
tätigung von Schaltflächen muss bei sicherheitskritischen Funktionen z.B. durch
eine Zweihandbetätigung oder durch nochmaliges Bestätigen der Funktionsaus-
führung verhindert werden (DIN EN 60447).
Durch eine geeignete Positionierung des berührempfindlichen Bildschirms sol-
len Ermüdungseffekte des Hand-Arm-Systems vermieden werden. Der Bildschirm
sollte folglich für längere Bearbeitungsdauern nicht vertikal, sondern gegenüber
der Horizontalen leicht angewinkelt positioniert werden. Große Bewegungen des
Hand-Arm-Systems sowie des Oberkörpers sollten ebenfalls vermieden werden.
10.1.2.4.5 Spracheingabe
Die menschliche Sprache kann ebenfalls zur Eingabe von Informationen genutzt
werden. Entsprechende Methoden der Signal- und Informationsverarbeitung stüt-
zen sich häufig auf die Bayes-Statistik und lassen sich dem „Maschinellen Ler-
nen“ (machine learning) zuordnen. Spracherkennungssysteme wurden u.A. im
Bereich der Flugsicherung (BIERWAGEN u. VIELHAUER 2000) und im Bereich der
militärischen Flugführung (GUBANKA u. SANDL 2000) experimentell erfolgreich
erprobt und dienen darüber hinaus in einer Vielzahl von Beispielen zur Realisie-
rung sog. barrierefreier Benutzungsschnittstellen. Die verbale Informationseingabe
wird bei geeigneter Auslegung des Eingabesystems im Vergleich zu klassischen
Eingabeverfahren wie der Computermaus als beanspruchungsarm beurteilt
(GRANDT et al. 2003; SCHNEIDER et al. 2008).
Zur Zeit kann davon ausgegangen werden, dass schon die syntaktisch korrekte
Identifikation eines Worts bzw. Synonyms aus empfangenen Spektrogrammen
einen hohen Rechenaufwand erfordert und mit Unsicherheit behaftet ist (entspre-
chende Eingabegeräte sollen eine erwartungskonforme Interaktion ermöglichen,
die Erkennung eines Worts muss deshalb quasi in Echtzeit erfolgen). Für den
jeweiligen Anwendungsfall muss ein erheblicher, auch finanzieller, Aufwand
betrieben werden, um eine für den sicheren Betrieb und zur Gewährleistung der
Akzeptanz seitens der Benutzer erforderliche Erkennungsgüte zu erzielen. Dies
betrifft insbesondere Bereiche, in denen fremdsprachliche Fachbegriffe verwendet
werden oder hohe Störgeräuschpegel zu verzeichnen sind.
Ergonomische Gestaltung 1017
10.1.2.4.6.1 Tracking-Systeme
Tracking-Systeme kommen als Eingabegerät in Virtuellen Umgebungen zur Be-
stimmung der räumlichen Position und Orientierung einzelner Körperteile, meis-
tens des Kopfs sowie einer Hand, sowie von Objekten, die in der realen Umge-
bung vorhanden sind, aber in der Virtuellen Umgebung visualisiert werden sollen,
1018 Arbeitswissenschaft
zum Einsatz. Die Positionsangaben des Kopfs sind für die Berechnung perspekti-
vischer Bilder, die der Hand zur Navigation in der Virtuellen Umgebung notwen-
dig. Folgende Technologien sind verbreitet:
x Elektromagnetische Tracking-Systeme: Sie bestehen aus einem ortsfesten
Sender, der ein elektromagnetisches Feld erzeugt, und Empfängern, die an
den zu detektierenden Objekten fixiert sind. Aus der am Empfänger vorlie-
genden Stärke und Richtung des elektromagnetischen Felds kann die Positi-
on und Lage des zugehörigen Körperteils bzw. Objekts errechnet werden.
Die heute verfügbaren Geräte benutzen sowohl Gleich- als auch Wechsel-
stromfelder. Gleichstromfelder besitzen den Nachteil, dass in der Umgebung
befindliche, eisenhaltige Metalle magnetisiert werden, was die Messung ver-
fälscht. Es ist dementsprechend die Verwendung anderer Werkstoffe (bspw.
Holz, Kunststoff, NE-Metalle) in der Umgebung zu empfehlen. Dieses Prob-
lem tritt bei Wechselstromfeldern nicht auf, da das elektromagnetische Feld
periodisch wechselt; der Aufbau von permanenten magnetischen Feldern in
eisenhaltigen Metallen wird somit unterdrückt.
x Optische Tracking-Systeme: Diese arbeiten mit Bildverarbeitungsalgorith-
men, die auf dem Objekt fixierte Infrarot(IR)-Leuchtdioden detektieren und
so die Position und Lage bestimmen. Neben diesen aktiven Systemen sind
passive Systeme erhältlich, bei denen IR-reflektierende Marker am zu detek-
tierenden Körper/Objekt fixiert und von einer oder mehreren IR-Strahlern
beleuchtet werden. (siehe Abb. 10.44)
Abb. 10.44: Komponenten eines optischen Trackingsystems. Links: IR-Quelle und Kame-
ra; Mitte: IR-reflektierende Marker an zu detektierenden Objekten; Rechts: Aktive Marker
zur Verfolgung der Hand- und Fingerbewegungen (Quelle: ART – Advanced Realtime
Tracking GmbH)
10.1.2.4.6.2 3D-Eingabegeräte
Eingabegeräte dienen in Virtuellen Umgebungen zunächst zur (meist menüge-
stützten) Eingabe von Informationen durch das Betätigen von virtuellen Drucktas-
ten (z.B. mit sog. Spacemouse für 3D-Navigation und Joystick) oder durch das
Ausführen bestimmter Gesten (z.B. mit sog. Datenhandschuh). Ferner kann der
Benutzer mit ihrer Hilfe in der Virtuellen Umgebung navigieren, d.h. seine Positi-
on, Lage und Blickrichtung verändern. Hierbei ist eine möglichst hohe Anzahl an
Freiheitsgraden anzustreben. Eine Spacemouse bietet drei translatorische und
rotatorische Freiheitsgrade. Beim Datenhandschuh kommen drei weitere für die
Fingerbewegung hinzu.
Nach dem Grad der Immersion kann zwischen hoch-immersiven und semi-
immersiven Geräten unterschieden werden. Als semi-immersiv werden insbeson-
dere solche Eingabegeräte verstanden, die wie eine Maus oder ein Joystick auf der
Arbeitsfläche bewegt werden. Man bezeichnet die damit verbundene Technik auch
als „Desktop VR“.
Hoch-immersive Eingabegeräte wie der Datenhandschuh (Abb. 10.45) ermögli-
chen dem Benutzer die erwartungskonforme Interaktion mit der Virtuellen Umge-
bung mittels Gesten. Um den Immersionsgrad zu erhöhen, können durch Zusatz-
ausrüstungen zum Datenhandschuh haptische Rückmeldungen für Benutzer er-
zeugt werden. Dadurch kann der Benutzer die Objekte in der Virtuellen Umge-
bung „anfassen“ und direkt mit ihnen interagieren.
Abb. 10.45: Datenhandschuh (Quelle: Fa. 5DT Fifth Dimension Technologies Ltd.)
1020 Arbeitswissenschaft
10.1.2.5 SystemergonomischeĆGesichtspunkteĆ
Legt man das gestaltungsorientierte Informationsverarbeitungsmodell von
WICKENS zugrunde (WICKENS 1992; WICKENS u. HOLLANDS 1999), wird die für
den Menschen verfügbare Information in einem mehrstufigen Prozess verarbeitet
(siehe Abb. 3.51). Ausgehend von einer Kurzzeitspeicherung des eingehenden
Signals, dessen Stärke eine je nach Sinnesorgan und auch individuell begrenzt
variierende Empfindungsschwelle überschreiten muss, um überhaupt wahrge-
nommen zu werden, erfolgt in der perzeptiven Phase unter Zuhilfenahme des
Gedächtnisses eine Strukturierung der Reize. In der kognitiven Phase schließt sich
die Extraktion des Informationsgehalts (Erkennen) und die Verarbeitung der
wahrgenommenen Symbole an. Diese kann in Abhängigkeit von ihrer Eindeutig-
keit und der Komplexität resultierender Aktionen nach dem Drei-Ebenenmodell
von RASMUSSEN (1983) auf verschiedenen Niveaus eines Entscheidungs- oder
Problemlösungsprozesses, nämlich fertigkeitsbasiert, regelbasiert oder wissensba-
siert, erfolgen (SCHMIDT u. GRANDT 2008). Die in der kognitiven Phase situati-
onsbezogen getroffenen Entscheidungen fließen in Handlungspläne und hierzu
notwendige Aktionsfolgen ein, die in eine manuelle oder verbale Reaktionsausfüh-
rung und somit in das von außen beobachtbare Verhalten des Menschen münden.
Wesentliche Bedeutung in diesem Prozess haben die aus dem Arbeits- und Lang-
zeitgedächtnis abrufbaren Informationen, die das Erkennen von Reizen und Situa-
tionen sowie das Einbeziehen von a priori vorhandenem Erfahrungswissen erst
ermöglichen.
Alle bei der Informationsverarbeitung beteiligten Funktionsbereiche konsumie-
ren „Energie“, die durch Ressourcen bereitgestellt wird (zu den verschiedenen
Ressourcenbegriffen siehe Kap. 3.3.1.1.2). Konstituierendes Merkmal der dem
Prozess bereitgestellten Ressourcen ist, dass diese – unabhängig von der ihnen
zugrunde gelegten Dimensionalität – begrenzt sind, die Ressourcenkapazität also
endlich ist. Daraus folgt, dass die Leistungsfähigkeit des Informations-
verarbeitungsprozesses sowohl hinsichtlich der Verarbeitungskapazität als auch in
Bezug auf die Verarbeitungszeiten Grenzen aufweist, die u.A. in Abhängigkeit
von der Disposition sowie der Fähigkeiten und Fertigkeiten intra- und interindivi-
duell variieren. Das Ausmaß der Ressourcenauslastung kennzeichnet dabei die
mentale Beanspruchung des Menschen.
Wenn für die Informationsverarbeitung nur wenig Zeit zur Verfügung steht, re-
sultiert je nach Disposition des Menschen eine hohe bis sehr hohe Beanspruchung,
die sich – wenn der Operateur das hohe Arbeitsvolumen nicht mehr durch ein
Steigerung der Aktivierung bewältigen kann – in einer erhöhten Fehlerrate und
einer abrupten Reduktion der Leistung äußern kann (siehe Abb. 3.104). Dies
Ergonomische Gestaltung 1021
gen und zeitgerechter Abruf relevanter Infor- • Speicherung und Abruf großer Datenmengen
mationen in kurzer Zeit
• Urteilsbildung bei unvollständiger Information • Simultane Durchführung mehrerer Funktio-
• Induktive Situationsanalyse nen
Auch mit der heute verfügbaren Technologie und Technik ergeben sich jedoch
auch in den Bereichen Grenzen der Automatisierung, für welche die Maschine
eigentlich prädestiniert erscheint. KRAISS u. SCHMIDTKE (2002) nennen hierfür
folgende Gründe:
x Beschränkungen der Situationserfassung: Fehlende oder unzuverlässige Sen-
sorik und Sensordatenverarbeitung bei zugleich großer Variabilität von Zu-
standsgrößen, z.B. witterungsabhängige Einflüsse auf Sensorsysteme im
Kraftfahrzeug verhindern die für den autonomen Systembetrieb erforderliche
vollständige Erfassung und Projektion der Situation.
x Fehlende Autonomie: Wegen der Unflexibilität von automatisierten Syste-
men können diese nicht mit unbekannten oder erheblich variierenden Situati-
onen umgehen.
Ergonomische Gestaltung 1023
Auftrag
u t ag
Mensch
planen
HMI
instruieren Programm
mentales
Modell überwachen Prozess
intervenieren
lernen Ablauf
Information
Abb. 10.46: Supervisory Control nach SHERIDAN 1997 (erweiterterte Darstellung aus
MAYER et al. 2008; HMI: human-machine interface)
Im Anschluss an das Planen, für welchen der Operator die Zusammenhänge der
geführten Maschine sowie des geregelten physikalischen Prozesses verstehen und
ein mentales Modell aufbauen muss, ist das System zu instruieren, d.h. der Opera-
teur übersetzt Ziele und Aufgaben in Computerbefehle, so dass die Aufgabe (teil-)
automatisiert ablaufen kann. Dieser Ablauf ist hinsichtlich seiner Prozess- und
Ergebnisqualität zu überwachen. Nach Ausführung einzelner Teilaufgaben durch
den Computer muss der Operateur intervenieren, seine Instruktionen aktualisieren
bzw. manuell eingreifen. Schließlich muss der Operateur eine geeignete Archivie-
rung der Prozessdaten bzw. eine kontinuierliche Anpassung der Modelle sicher-
stellen, wobei – einem Lernprozess ähnlich – vorliegende Prozessinformationen,
Kennwerte oder Trendanalysen helfen, Anomalien zu vermeiden. Eine Anwen-
1024 Arbeitswissenschaft
Stufe Beschreibung
5 … räumt dem Operateur vor der Ausführung eine bestimmte Zeit zum Einlegen eines Vetos
ein.
8 Der Computer wählt die Lösungsoption aus, führt diese aus und ignoriert den Operateur.
von Informationen.
analysiert Handlungsoptionen,
-/- manuell
wählt u. initiiert Handlung
10.1.3.1 KörpermaßeĆ
Die Körpermaße bzw. geometrische Parameter können nach der Art ihres Ur-
sprungs und ihrer Verwendung in zwei Gruppen aufgeteilt werden:
Ergonomische Gestaltung 1029
Abb. 10.48: Aus dem Achsenkreuz konstruierte Darstellung eines Grabträgers (BRAUN-
FELS et al. 1973)
Auch aus Indien und China sind umfangreiche Proportionsstudien bekannt (sie-
he RAU u. GAO 2009).
Dies rührt – neben dem wissenschaftlichen Interesse – vor allem daher, dass
schon in vorindustrieller Zeit, in der praktisch alle Gegenstände nach individuel-
lem Auftrag und Maß angefertigt wurden, Dinge, die für die Allgemeinheit be-
stimmt waren (z.B. öffentliche Anlagen und Häuser), auch nach allgemeinen Ma-
ßen auszulegen waren. Seit Beginn der industriellen Fertigung besteht nun die
Notwendigkeit, praktisch alle solche Gegenstände ohne individuelle Kenntnis des
späteren Benutzers und darüber hinaus mit nur einer oder möglichst wenigen Va-
rianten zu dimensionieren und dennoch eine einwandfreie Benutzbarkeit zu ge-
1030 Arbeitswissenschaft
währleisten. Dies setzt die Kenntnis der Größenverteilung des menschlichen Kör-
pers und dessen Extremitäten voraus.
Erste Ansätze einer wissenschaftlichen Anthropometrie, die sich auf exakte
anthropologische Messpunkte des Körpers stützen, sind bereits aus dem
18. Jahrhundert bekannt. Dies wurde durch die Erforschung des Knochenbaus
möglich und erlaubte eine Abkehr von den beispielsweise aufgrund der
Verschiebbarkeit der Haut wenig exakten, äußerlichen Messpunkten. Damit waren
die Grundlagen geschaffen, um die Maße des menschlichen Körpers zu erfassen,
die uns heute in unterschiedlichen, sehr umfangreichen Tabellen vorliegen.
Über die empirische Ermittlung der Abmessungen verschiedener Gliedmaßen
und Körperteile hinaus befasst sich die Anthropometrie mit der Untersuchung der
Einflussfaktoren auf die Körpermaße, wie z.B. Alter, Geschlecht oder Bevölke-
rungsgruppe.
Die Körpergröße ist der wichtigste anthropometrische Parameter, von dem die
anderen Körpermaße – unter der Voraussetzung der gesetzmäßigen Proportionali-
tät – abgeleitet werden können. Für die Zwecke der ergonomischen Gestaltung hat
der Begriff Körpergröße zwei Bedeutungen: Entweder im Sinne der individuellen
Körpergröße, d.h. die Körpergröße eines konkreten Individuums oder im Sinne
einer statistischen Größe, die sich auf bestimmte Gruppen von Menschen bezieht
und deren Wert einer bestimmten Summenhäufigkeit bzw. der daraus geschätzten
Wahrscheinlichkeitsverteilung unterworfen ist. Beide Begriffe – die individuelle
und die statistische Körpergröße – sind streng voneinander zu unterscheiden.
Der arithmetische Mittelwert von Körpermaßen, besonders die Körpergröße
selbst, ist zeitlich und geographisch ein statistischer Parameter, der für die ergo-
nomische Raumgestaltung alleine kaum von Bedeutung ist. Gemeinsam mit der
Standardabweichung lässt sich aber die Wahrscheinlichkeitsverteilung eines Kör-
permaßes – unter der Annahme einer Normalverteilung – mathematisch präzise
und ergonomisch sinnvoll beschreiben.
Betrachtet man die Auftretenshäufigkeit einzelner Maße in der Bevölkerung, so
findet sich aufgrund der Vielzahl von Einflussfaktoren, die additiv wirken in etwa
eine Normalverteilung (Abb. 10.49).
Eine solche Verteilung wird für praktische Zwecke auch häufig als Verteilungs-
funktion angegeben, die sich auf die Summenhäufigkeit bezieht und aus der sich
leicht Körpergrößenklassen ableiten lassen (Abb. 10.50).
Die angesichts der Variationsbreite (siehe Abb. 10.50 und Tabelle 10.11: Das
Problem der „durchschnittlichen Gestalt“) scheinbar sinnvolle Entscheidung, den
sog. „mittleren Menschen“ als Bezugsmaß zu wählen, erweist sich in vielen Fällen
als ungeeignet.
Würde man bspw. die Höhe eines Stuhles nach der durchschnittlichen Unter-
schenkellänge einschließlich des Fußes bemessen, so könnte ungefähr die Hälfte
der Benutzer ihre Füße nicht mehr bequem auf den Boden aufsetzen. Daraus wird
deutlich, dass im Gestaltungsprozess weniger die mittleren Maße, als vielmehr die
Extremwerte – bei Innenmaßen die der „kleinsten“ Person, bei Außenmaßen die
der „größten“ Person – von entscheidender Bedeutung sind (siehe Kap. 10.1.3.3).
Da eine Orientierung am kleinsten und am größten Menschen im Sinne einer
allgemeingültigen Gestaltung zu unverhältnismäßigen Auslegungsanforderungen
führen würde, werden Körpergrößenklassen gebildet und entsprechende Vertei-
lungsbereiche ausgewählt.
Die Grenzen der Verteilungsbereiche werden üblicherweise bei 5% und 95%
festgelegt und als 5. Perzentil bzw. 95. Perzentil bezeichnet (siehe Abb. 10.50).
Innerhalb dieser Grenzen liegen somit 90% der Bevölkerung bzw. der jeweiligen
Bevölkerungsgruppe hinsichtlich des bezeichneten Bezugsmaßes. Wegen der
deutlichen Differenzen zwischen Frauen und Männern werden diese normalerwei-
se getrennt erfasst und als Grenzwerte die Maße einer Frau des 5. Perzentils und
die eines Mannes des 95. Perzentils herangezogen. Damit sind ungefähr 95% der
Bevölkerung berücksichtigt sowie der überwiegende Teil der Population im Rah-
men eines technisch vertretbaren Maßintervalls.
1032 Arbeitswissenschaft
Abb. 10.51: Körpermaße nach DIN 33402-2 (in mm; Auszug, Mittelwerte der deutschen
Bevölkerung von 18 bis 65 Jahren)
Ergonomische Gestaltung 1033
Tabelle 10.10: Tabellarische Körpermaße nach DIN 33 402, Teil 2 (in mm; Auszug, Mit-
telwerte der deutschen Bevölkerung von 18 bis 65 Jahren)
Der Einfluss des Alters muss ebenfalls berücksichtigt werden. Neben den spe-
ziellen Verhältnissen bei Kindern und Jugendlichen (für die spezielle Tabellen
heranzuziehen sind), nimmt beispielsweise die Körpergröße Erwachsener mit
zunehmendem Alter wieder ab. Dabei erhöht sich das Körpergewicht. Darüber
hinaus sind Proportionsänderungen zu beachten.
177
176
175
Körpergröße [cm]
174
8,4 cm
173 (4,9 %)
172
171
170
169
168
1880 1890 1900 1910 1920 1930 1939 1949 1961
Jahr
Abb. 10.52: Zunahme der Körperhöhe der Erwachsenen in Schweden im Verlauf von 80
Jahren (aus BRAUNFELS et al. 1973)
Neben der unterschiedlichen Körpergröße von Männern und Frauen sind weite-
re geschlechtsspezifische Unterschiede zu beachten, z.B. andere Körperproportio-
nen (Becken- und Schulterbreite, Lage der Körperfettdepots).
Die Körpermaße weisen schließlich ethnische bzw. regionale Unterschiede auf.
So sind z.B. Norddeutsche durchschnittlich 2 cm größer als Süddeutsche, inner-
halb des europäischen Kontinents sind die Schwankungen noch wesentlich größer.
Insbesondere bei der Arbeitsplatzgestaltung für ausländische Mitarbeiter und
bei international vertriebenen Produkten müssen daher weitergehende Daten her-
angezogen werden (z.B. internationaler anthropometrischer Datenatlas, JÜRGENS
et al. 1989). Da sowohl die Körperproportionen als auch die Verteilungsbreiten
unterschiedlich ausgeprägt sind, genügt es dabei nicht, eine vorhandene Tabelle
einfach im Verhältnis der unterschiedlichen Durchschnittsgrößen umzurechnen:
x Die Art der Kleidung (Winterbekleidung, Arbeitsschutzkleidung o.Ä.) und
des Schuhwerks muss mit entsprechenden Zuschlägen berücksichtigt wer-
den.
Ergonomische Gestaltung 1035
x Auch der Ermüdungsgrad hat einen Einfluss auf die wichtigsten Körperma-
ße. Wichtig ist besonders der Unterschied zwischen zusammengesackter
(ermüdeter) und aufrechter Sitzhaltung.
x Die gebräuchlichen Tabellen berücksichtigen nur ungenügend die Korrela-
tionen zwischen Körpermaßen, die wesentlich stärker schwanken können als
es die Körperhöhe erwarten lässt.
x Personen gleicher Körperhöhe können sehr unterschiedliche Proportionen
besitzen (Abb. 10.53).
10.1.3.2 FunktionsräumeĆ
Aufgrund der Komplexität der Zusammensetzung einer Bewegung aus mehreren
Einzelbewegungen und zur Berücksichtigung der von der Gelenkstellung abhän-
gigen (wirksamen) Gliedmaßenlänge – die menschlichen Gelenke besitzen keinen
festen Drehpunkt – werden für die Raumauslegung meist Funktionsräume ange-
wandt. Die wichtigsten Funktionsräume des menschlichen Körpers sind die Sicht-,
Greif- und Bewegungsräume. Die Funktionsräume werden grundsätzlich bestimmt
durch eine konkrete Tätigkeit mit ihren Randbedingungen sowie durch die anato-
mischen Gegebenheiten. Zum Beispiel ergibt sich die maximale Reichweite aus
der räumlichen Anordnung der Arbeitsfläche relativ zur Arbeitsperson, aus der für
die Ausführung der Tätigkeit erforderlichen Arm- bzw. Körperhaltung mit den
jeweiligen Bewegungsmöglichkeiten sowie aus den variablen Körpergrößen.
Daraus folgt, dass die in der Literatur zu findenden Angaben zu Funktionsräu-
men (z.B. Greifräume) in der Regel nur für eindeutig definierte Fälle gelten kön-
nen. Abb. 10.54 stellt die Überdeckung der Funktionsräume (optimaler Greifraum,
Beinraum und Sehraum) für Sitzen und Stehen für zwei Körperhöhen – 1500 mm
und 1900 mm – dar. Es ist erkennbar, dass für Sitzen eine ausreichende Überde-
ckung der Funktionsräume vorliegt. Durch aufgabengerechte Anordnung von
Arbeitsmitteln bzw. Arbeitsgegenständen innerhalb der gemeinsamen Bereiche
können günstige räumliche Verhältnisse für alle Arbeitspersonen geschaffen wer-
den. Hier müssen in der Höhe sowohl die Fußstütze als auch die Sitzfläche ver-
stellbar sein.
Für einen Steh-Arbeitsplatz kann man eine Überdeckung der Sichträume und
der Manipulationsräume mit Hilfe einer verstellbaren Fußstütze erreichen.
In der Abb. 10.55 wird beispielhaft für allgemeine Angaben ein Horizontal-
schnitt durch einen Greifraum nach VDI Handbuch (Arbeitsgestaltung und Ar-
beitsorganisation, VDI HANDBUCH 1980) wiedergegeben. Die einzelnen Flächen
des Greifraumes werden im gegebenen Falle ansatzweise nach funktionalen Ge-
sichtspunkten bewertet. Die Arbeitsfläche bzw. Schnittebene des Greifraumes
1038 Arbeitswissenschaft
Abb. 10.54: Funktionsräume (optimaler Greifraum, Beinraum und Sehraum) für Sitzen und
Stehen für zwei Körperhöhen: 1500 mm und 1900 mm (ROHMERT 1994)
Abb. 10.55: Horizontalschnitt durch den Greif- und Sehraum nach VDI Handbuch (1980)
(gilt für Stehen und Sitzen)
Ein weiterer Faktor ist die maximale Reichhöhe. Diese unterscheidet sich von
den Angaben des Greifraumes dadurch, dass in der Regel ein Gegenstand von
Ergonomische Gestaltung 1039
Abb. 10.57: Bequeme Blicklinien für stehende und sitzende Haltungen (HETTINGER u.
WOBBE 1993)
Die mittlere Sehachse ist somit um 15-40° gegenüber der Horizontalen nach
unten geneigt. Wegen der großen Flexibilität des Menschen in Bezug auf den
Kopf- und Augenbewegungsbereich kann die Durchführbarkeit einer Tätigkeit
zwar häufig auch bei deutlicher Abweichung davon gewährleistet werden, dies
führt jedoch zu unter Umständen erheblichen zusätzlichen Beanspruchungen der
Muskulatur. Insbesondere bei lang andauernder Tätigkeitsausübung in solch un-
günstiger Körperposition (z.B. bei Arbeiten am PC) sind dann Verspannungser-
scheinungen der Nacken- und Schultermuskulatur sowie Ermüdungsphänomene
die Folge.
Für die praktische Anwendung können ausgewählte Angaben der DIN 33414-1
benutzt werden. Diese sind in Abb. 10.58 zusammengefasst (siehe. LANDAU u.
STÜBLER 1992).
Ergonomische Gestaltung 1041
Abb. 10.58: Ausgewählte geometrische Parameter des Sehraumes mit ihren Werten nach
DIN 33 414-1 (LANDAU u. STÜBLER 1992)
Nach Abb. 10.58 beschreibt das Gesichtsfeld die Eigenschaft des Auges, defi-
nierte Hellreize bis zu einem bestimmten Abweichungswinkel von der Sehachse
wahrzunehmen. Sowohl horizontal als auch vertikal ist jeweils in einem Bereich
von ca. ± 15° von der Sehachse das optimale Gesichtsfeld definiert, in dem auch
die Unterscheidung von unterschiedlichen Farben der Hellreize gesichert ist. Die
maximalen Winkelangaben für unterschiedliche Farbengesichtsfelder sowie für
Hellreize sind in der DIN-Norm enthalten, für die Arbeitsgestaltung sind diese
Angaben nur in spezifischen Fällen – z.B. für die informatorische Gestaltung von
Anzeigen – von Bedeutung.
Das Umblickfeld (siehe Abb. 10.58) umfasst die Gesamtheit aller Raumpunkte
in der horizontalen und vertikalen Ebene, die (bei ruhendem Körper) durch Kopf-
1042 Arbeitswissenschaft
10.1.3.3 AnthropometrischeĆArbeitsplatzgestaltungĆ
Ein häufiges Problem bei der konstruktiven Festlegung von Abmessungen ist die
Wahl des jeweils angemessenen Grenzwertes. So ist zum Beispiel die Bemessung
der Stuhlbreite anhand des 95. Perzentils vorzunehmen, die der Stuhlhöhe jedoch
anhand des 5. Perzentils. In vielen Fällen sind die Verhältnisse jedoch nicht so
offenkundig wie im aufgeführten Beispiel, so dass auf diese Problematik eine be-
sondere Aufmerksamkeit zu richten ist.
Der häufig gemachte Fehler, bei der Gestaltung eines Arbeitsplatzes vom mitt-
leren Menschen auszugehen, erweist sich bei genauerer Überlegung als fatal: wäre
die Höhe eines Türdurchgangs nach dem 50. Perzentilmaß der Körperhöhe konzi-
piert, so hätte das zur Folge, dass sich 50% der Passanten recht heftig an dieser
Tür den Kopf anschlagen würden. Dies ist natürlich keinesfalls akzeptabel. Hier
wäre ein Entwurf angebracht, der sich an den größten Personen einer Benutzer-
gruppe orientiert. Wäre hingegen ein Regalbrett in einer öffentlichen Bibliothek
anzubringen, auf dem Bücher stehen sollen, so wäre es ebenfalls verhängnisvoll,
wenn man sich am 50. Perzentil oder gar an der größten Person eines Benutzer-
kreises orientieren würde. Dort abgestellte Bücher könnten dann nur noch von den
großen Menschen problemlos gelesen werden.
In Bezug auf die anthropometrische Gestaltung sind zwischen inneren und äu-
ßeren Maßen des Arbeitsplatzes zu unterscheiden: Als Innenmaße werden die
Abmessungen bezeichnet, die mindestens notwendig sind, um auch den größten
Personen ein ungehindertes Arbeiten zu ermöglichen (z.B. Kniefreiheit zwischen
Tisch und Stuhl, siehe Abb. 10.60). Als äußere Maße bezeichnet man Abmessun-
gen, die eingehalten werden müssen, um auch den kleinsten zu berücksichtigenden
1044 Arbeitswissenschaft
Abb. 10.60: Vereinfache Darstellung der falschen (oben, für eine durchschnittliche Gestalt)
und richtigen (unten, für die größte und kleinste Gestalt) Ableitung der inneren und äußeren
Abmessungen eines Arbeitsplatzes (ROHMERT 1992; nachgezeichnet SCHAUB, 1988)
Ergonomische Gestaltung 1045
Nun stellt sich aber die Frage, was unter der kleinsten bzw. größten Person ei-
nes Benutzerkreises zu verstehen ist. Aus technischen Gründen ist es sicher nicht
sinnvoll, die gesamte – in der Bevölkerung auftretende – Varianz zu berücksichti-
gen. Wollte der Konstrukteur nahezu 100% der Bevölkerung bei seiner Konstruk-
tion beachten, so wäre für die Körperhöhe eine Differenz von 80 cm (210-130 cm)
in Ansatz zu bringen. Eine Reduzierung der Bevölkerung auf das 1. bis 99. Per-
zentil würde die Variationsbreite bereits auf etwa 40 cm einschränken, eine Be-
grenzung auf das 5. bis 95. Perzentil gar auf etwa 30 cm. Nun hängt die Eingren-
zung der Personengruppe sicherlich von der jeweiligen Anwendung der Konstruk-
tion ab.
Angesichts der großen Anzahl der in der Praxis vorkommenden Aufgaben für
die räumliche Gestaltung wird im Folgenden an einem Beispiel die Bedeutung der
Funktionsräume und ihr Zusammenhang bei der Lösung von Gestaltungsaufgaben
verdeutlicht.
Aus der nachfolgenden Abbildung (Abb. 10.61) geht eine vereinfachte,
schrittweise Entwicklung eines idealisierten Näharbeitsplatzes hervor (siehe
LANDAU u. STÜBLER 1992):
(1) In der Seitenansicht der Nähmaschine wird der Verlauf der Blicklinien in der
Körper-Symmetrieebene ermittelt (Abb. 10.61). Im gegebenen Fall wird eine
erforderliche Entfernung von ca. 350 mm und ein Einfallwinkel der Blickli-
nie zur Horizontalen von ca. 45 Grad angenommen. Daraus ergibt sich in der
Seitenansicht die räumliche Zuordnung des Augenpunktes (AP) relativ zum
Arbeitsobjekt (Nadel), der hier gleichzeitig auch den Mittelpunkt des manu-
ellen Arbeitsbereiches darstellt.
(2) Im zweiten Gestaltungsschritt wird unter Zugrundelegung einer aufrechten,
sitzenden Körperhaltung (Bezugspunkte: Augenpunkt und Nadel) und einer
horizontalen Tischfläche die Grundanordnung des Arbeitsplatzes für die
Körpergröße von 1500 mm (kleine Frau) abgeleitet.
(3) Als zu berücksichtigender Körpergrößenbereich wird im gegebenen Fall der
Körpergrößenbereich der Frauen von 1500 - 1760 mm angenommen und der
Gestaltungsschritt 2 analog für die Körpergröße von 1760 mm nachvollzo-
gen. Die Annahme ist, dass für beide extreme Körpergrößen die Fußboden-
ebene als gemeinsame Bezugsebene gewählt wurde.
(4) Ausgehend aus der resultierenden Armhaltung (unter Annahme einer Arm-
abstützung auf dem Arbeitstisch im Ellbogenbereich) können die Bewe-
gungslinien auf dem Arbeitstisch konstruiert werden, die sich aus der Rotati-
on der Unterarme ergeben (siehe Abb. 10.62 Linie RU in der Draufsicht).
Darüber hinaus können auch die Grenzen der maximalen Greifräume bei
ausgestreckten Armen abgeleitet werden (siehe Linie AA in der Draufsicht).
(5) Die erforderlichen Arbeits- bzw. Stützflächen mit ihren Verstellbereichen
gehen aus den Abbildungen hervor. Das Ergebnis ist ein höhenverstellbarer
Arbeitstisch.
1046 Arbeitswissenschaft
Abb. 10.61: Körpergrößenbereiche für eine kleine und eine große Frau (LANDAU u.
STÜBLER 1992)
Bei der Gestaltung von Arbeitsplätzen kann man zusammenfassend sagen, dass
anhand eines skizzenhaften Layouts zunächst die Positionen und Greif- bzw.
Funktionsräume für die kleinste und für die größte zu berücksichtigende Person
bestimmt werden. Dabei erhält man Bereiche, die von beiden Personen erreicht
werden können. Streng genommen dürften Arbeitsmittel, Stellteile etc. nur in
diesem sog. Überdeckungsbereich platziert werden. Es ist zu beachten, dass zu-
nächst rein geometrische Bereiche erarbeitet werden und diese noch keine endgül-
tige Aussage über die Bequemlichkeit erlauben. Deshalb sind diese Bereiche je-
weils anhand der konkreten Tätigkeit kritisch zu überprüfen.
Ergonomische Gestaltung 1047
Körperunterstützung
Rücken, Gesäß,
Arme, Hände Füße
Oberschenkel
0,5
Normalisierter Bandschheibeninnendruck
30
-0,5
0 0
Abb. 10.64: Einfluss des Sitzwinkels auf den Bandscheibeninnendruck (gerasterte Säulen)
und die EMG- Aktivität der Rückenmuskulatur (ungerasterte Säulen), nach NACHEMSON
u. ELFSTRÖM (1970) und ANDERSON u. ÖRTENGREN (1974)
Die meisten Menschen entscheiden sich bei diesem Dilemma für eine mög-
lichst häufige Einnahme der erstgenannten Sitzstellung, weil die
Muskulaturbelastung schnell als unangenehm empfunden wird. Band-
scheibenbelastungen werden dagegen häufig erst dann als unangenehm registriert,
wenn es bereits zu Schädigungen gekommen ist. Für die Gestaltung und Auswahl
von Sitzen ist es deshalb wichtig, dass ein dynamisches Sitzen möglich ist, d.h. ein
häufiger Wechsel zwischen verschiedenen Sitzstellungen.
1050 Arbeitswissenschaft
0,2
Normalisierter Bandschheibeninnendruck
0,1
beim L3/L4 [Mpa]
-0,1
Maschinen-
Rücken entspannt Schreibhaltung hängende Arne Gewicht halten
schreiben
Abb. 10.65: Einfluss der Rumpfstellung und Armhaltung auf den Bandscheibeninnendruck,
nach NACHEMSON u. ELFSTRÖM (1970) und ANDERSON u. ÖRTENGREN (1974)
plätze). Je nach Anwendung und Arbeitsplatztyp werden sie überwiegend auf der
Arbeitsfläche (siehe Abb. 10.66) oder am Sitz (siehe Tabelle 10.12) angebracht.
Armauflagen werden oft eher als hinderlich empfunden, weil zu einem hohen
Zeitanteil in vorderer Sitzstellung gearbeitet wird oder sich mancher durch die
Armauflagen eingeengt fühlt. Die wichtigsten Maße bei den Armauflagen sind in
der DIN 1335-2 sowie BGI 650 enthalten.
Tabelle 10.12: Gestaltungsanforderungen für Armstützen am Arbeitsstuhl
(nach BGI 650)
Höhe der Armauflagen über dem Sitz Fest; h=200 mm bis 250 mm
Verstellbar: 200 mm bis 250 mm
Positive Erfahrungen aus dem Einsatz von Kniesitzen liegen bei Personen mit
Bandscheibenvorfällen vor. Darüber hinaus scheint die derzeit überwiegende
Meinung zu sein, dass Kniesitze im Bürobereich eine zeitweilige, jedoch keine
vollständige Alternative zu Arbeitssitzen sind.
Stehhilfen
Auch wenn an vielen Arbeitsplätzen ein Sitzen nicht möglich ist, lassen sich gele-
gentlich dennoch Körperunterstützungen verwenden, um die Bein- und Rücken-
muskulatur zu entlasten. Diese werden als Stehhilfen (Stehsitze) bezeichnet.
Eine Studie von WINDBERG et al. (1982) stellt zusammengefasste Erkenntnisse
für Stehhilfen dar.
In Abb. 10.68 sind zwei Beispiele für starre und ein Beispiel für eine pendelnd
gelagerte Stehhilfe dargestellt.
Eine Rückenabstützung ist beim Einsatz von Stehhilfen nicht erforderlich. Die
bei Stehhilfen sinnvolle Körperstellung erfordert nur eine Gesäßabstützung. Be-
reits WINDBERG et al. (1982) haben ermittelt, dass der Greifbereich bei pendelnd
gelagerten Stehhilfen nicht größer als bei starren Stehhilfen ist. Da sie nach heuti-
gem Erkenntnisstand eher zum Umkippen, Wegrutschen oder nur zu höherem
Unsicherheitsgefühl führen, sollte man starre Stehhilfen bevorzugen.
Beim Verwenden von Stehhilfen ist der Greifbereich, entgegen verbreiteter
Auffassung, gegenüber dem Stehen nicht eingeschränkt, wenn ein ausreichender
Bein- und Fußfreiraum vorhanden ist. Da der Körper durch schräg nach vorn ge-
stellte Beine abgestützt wird, würde ohne diesen Freiraum der Abstand von der
Arbeitsfläche so groß, dass der Greifraum auf der Arbeitsfläche tatsächlich kleiner
als beim Stehen wird. Um ein Wegrutschen der Stehhilfe und der Füße der Benut-
zer zu verhindern, muss der Bodenbelag rutschfest sein.
Fußstützen
Fußstützen sind seit langem als Mittel zum Ausgleich von Sitzfläche und Fußbo-
denebene bekannt. Eine Vorläuferin der heutigen Fußstützen war die Fußbank.
Fußstützen werden eingesetzt, um:
x bei gegebener Arbeitsflächenhöhe insbesondere kleinen Personen ein Ab-
stützen der Füße zu ermöglichen und
x auch kleinen Personen das Sitzen mit nach vorn ausgestreckten Unterschen-
keln (stumpfer Winkel im Kniegelenk) und damit eine minimale Flächen-
pressung des Gesäßes zu ermöglichen.
Ein Verzicht auf Fußstützen kann zu einer Zunahme des Beinvolumens, also zu
einem reduzierten Kapillar-Innendruck in den Blutgefäßen der Beine führen.
Abb. 10.69 ist zu entnehmen, dass mit zunehmender Arbeitshöhe auch der An-
teil derjenigen zunimmt, die eine Fußstütze benötigen.
Abb. 10.69: Abhängigkeit des Anteils der Personen, die eine Fußstütze benötigen, von der
Arbeitsflächenhöhe (nach PETERS 1976)
1056 Arbeitswissenschaft
10.1.3.4 ĆHilfsmittelĆzurĆanthropometrischenĆGestaltungĆ
Abb. 10.70: Bosch-Schablone (links) und Jenik-Schablone (rechts) im Maßstab 1:10 für
den 50.-Perzentil-Mann in Draufsicht, Frontalansicht und Seitenaufriss (nach JENIK 1974)
Die genannten Verfahren erlauben zwar eine mehr oder weniger detaillierte
maßliche Konzeption eines Arbeitsplatzes, beziehen jedoch keine realen Personen
ein, die beispielsweise über die rein geometrischen Bewegungsbereiche hinaus
Angaben über Bequemlichkeit oder Komfort einer Arbeitshaltung machen kön-
nen. Darüber hinaus scheitert deren Anwendung bei normabweichenden persönli-
chen Verhältnissen, die zum Beispiel bei körperbehinderten Menschen vorliegen.
Diese Nachteile können mit der Video-Somatografie (siehe Abb. 10.73) vermie-
den werden (MARTIN 1981). Hierbei wird das Videobild einer Versuchsperson
dem einer Zeichnung oder eines Modells des geplanten Arbeitsplatzes maßstäblich
überlagert.
Über einen Kontrollmonitor kann die Versuchsperson dabei ihre Bewegungen
koordinieren. Somit ist es möglich, die Gestaltung eines Arbeitsplatzes ohne die
Anfertigung von realen Modellen durch einfache Verschiebung oder Veränderung
der Zeichnung zu prüfen und zu optimieren.
1060 Arbeitswissenschaft
Digitale Menschmodelle
Historische Entwicklung
Digitale Menschmodelle sind dreidimensionale, modellhafte Abbilder des
menschlichen Körpers. Seit den 1960er Jahren wurden im Laufe der Zeit viele
Modelle entwickelt, die teilweise wieder eingestellt, teilweise zusammengeführt
oder in andere Modelle integriert wurden.
Es entstanden so Softwarelösungen historisch bedeutender Modelle wie
Anthropos ErgoMAX, BoeMan, CombiMan, CyberMan, ERGOMan, Franky,
HEINER, Safework, oder TEMPUS. Zu diesen und anderen Modellen sind zu-
sammenfassende Beschreibungen und Darstellungen u.A. in SCHAUB (1988), GILL
(1998), LANDAU et al. (1997), CHAFFIN (2001, 2005), MÜHLSTEDT et al. (2008) zu
finden.
Die industriell relevanten digitalen Menschmodelle haben vielfach gemeinsame
Eigenschaften und Funktionen. Aufgebaut aus einem Skelettmodell und einer
Hüllfläche, die Haut bzw. Kleidung darstellt, sind die Modelle durch Vorwärtski-
nematik, inverse Kinematik oder Zugriff auf eine Haltungs-Datenbank
1062 Arbeitswissenschaft
agiert, ist eine äußerst effektive Methode, um Probleme zu erkennen und Lö-
sungsansätze entwickeln zu können.
10.2.1.1 GrundlagenĆ
Der Begriff „Usability“ stammt aus dem Englischen, wird jedoch mittlerweile im
deutschen Sprachgebrauch synonym zu den Begriffen „Benutzerfreundlichkeit /
Gebrauchstauglichkeit“ verwendet. Für den Begriff gibt es unterschiedliche Defi-
nitionen, die verdeutlichen, mit welchem fachlichen Hintergrund sie geschrieben
wurden. Hierbei handelt es sich auf der einen Seite um Definitionen, die aus der
Forschung stammen und auf der anderen Seite um Definitionen, die Normen vor-
anstehen und ihren Fokus auf der praktischen Gestaltung und Überprüfbarkeit von
Usability haben.
SPINAS et al. (1990) definieren Benutzerfreundlichkeit und somit gleichsam den
Begriff Usability mit den Worten:
„…ein Dialogsystem ist dann als benutzerfreundlich zu bezeichnen, wenn es
den Benutzer durch vielfältige Anwendungsmöglichkeiten von Routinearbeit ent-
lastet und ihm – bei hoher Verfügbarkeit – in der Interaktion am Bildschirm seiner
Erfahrung und Geübtheit angemessene Freiheitsgrade für unterschiedliche Vor-
gehensweisen gewährt, ohne ihm dadurch neue Routinearbeit und komplizierte
Bedienungsoperationen aufzubürden.“
Dieser Zusammenhang ist in Abb. 10.77 in Form von Aspekten und Kriterien
verdeutlicht.
Benutzerfreundlichkeit
Informationen;
Verarbeitungsprozesse / Beeinflussbarkeit Orientierung
Funktionen
Abb. 10.77: Aspekte und Kriterien der Benutzerfreundlichkeit (SPINAS et al. 1990)
Ergonomische Gestaltung 1065
x Sie erhöhen die Zufriedenheit der Benutzer und reduzieren Stress im Sinne
mentaler und körperlicher Beanspruchung bei der Benutzung.
x Sie erhöhen die Produktivität der Nutzer und somit auch die Produktivität
von Unternehmen.
x Sie erhöhen die Produktqualität und können somit einen Wettbewerbsvorteil
nach sich ziehen.
Barrierefreiheit
Als Besonderheit der Gebrauchstauglichkeit wird häufig die Barrierefreiheit von
Produkten gefordert. Barrierefreiheit bezieht sich auf die Forderung, dass aus-
nahmslos alle Menschen, auch solche mit motorischen, perzeptiven, kognitiven,
sprachlichen oder altersbedingten Einschränkungen ein bestimmtes Produkt be-
nutzen können. Insbesondere im Zusammenhang mit dem Medium Internet er-
langte der Begriff Barrierefreiheit in den letzten Jahren großes Interesse, im eng-
lischsprachigen Raum wird meist der Begriff „accessibility“ verwendet. Der Be-
griff der Barrierefreiheit wird in §4 des Gesetzes zur Gleichstellung behinderter
Menschen (BGG) wie folgt festgeschrieben: „Barrierefrei sind bauliche und sons-
tige Anlagen, Verkehrsmittel, technische Gebrauchsgegenstände, Systeme der
Informationsverarbeitung, akustische und visuelle Informationsquellen und Kom-
munikationseinrichtungen sowie andere gestaltete Lebensbereiche, wenn sie für
behinderte Menschen in der allgemein üblichen Weise, ohne besondere Erschwer-
nis und grundsätzlich ohne fremde Hilfe zugänglich und nutzbar sind.“ Bei Inter-
netseiten kann dies beispielsweise dadurch umgesetzt werden, dass Schriftgrößen
skalierbar sind, die Seiten gut strukturiert sind (damit sie durch sog. Screenreader
auch für Blinde erfassbar sind), oder die Möglichkeit besteht auch über die Tasta-
tur navigieren zu können (für Menschen, die die Maus nur schwer benutzen kön-
nen). Eine aktuelle Übersicht zum Stand der Forschung sowie Normgebung hin-
sichtlich Accessibility findet sich in CAKIR (2009).
10.2.1.2 VorgehenĆbeimĆUsabilityĆEngineeringĆ
Unter Usability Engineering wird der Prozess verstanden, der die spätere Ge-
brauchstauglichkeit eines Produktes zum Ziel hat und dieses Ziel während des
gesamten Produktplanungs- und -entwicklungsprozesses konsequent verfolgt. Das
Usability Engineering stellt systematisch Methoden zusammen, um eine Schnitt-
stelle gestalten zu können, die leicht verstanden und schnell gelernt wird (BUTLER
1996). Zunächst entwickelte sich die Disziplin des Software-Engineering, um die
Softwareentwicklung mit Modellen und Methoden zu unterstützen. In einer Erwei-
terung des ursprünglichen Anwendungsbereichs richten sich diese jedoch nicht
nur auf die Technologie, sondern auf die gesamte Mensch-Rechner-Interaktion.
ZÜHLKE (2004) spricht in dem Zusammenhang von Useware-Engineering.
Useware steht als Sammelbegriff für alle Hardware- und Software-Komponenten,
die der Benutzung eines Systems dienen und stellt „eine Fokussierung der Tech-
nikgestaltung auf menschliche Fähigkeiten und Bedürfnisse“ (ZÜHLKE 2004) dar.
Ergonomische Gestaltung 1067
1) Analyse
In der ersten Phase, der Analyse, werden die Benutzeraufgaben und Benutzeran-
forderungen erhoben. Dies ist wichtig, da oft bei den Entwicklern ein nur unvoll-
ständiges Wissen darüber besteht welche verschiedenen Benutzergruppen es gibt
und was diese ausmacht. Für diese Analyse werden unterschiedliche Methoden
verwendet, um ein möglichst vollständiges Bild von der Benutzergruppe an sich,
von deren typischen Aufgaben und deren Arbeitsumgebungen zu bekommen.
Einige der häufig verwendeten Methoden, die in dieser Phase Verwendung finden,
werden später in diesem Kapitel vorgestellt, wie beispielsweise die teilnehmende
Beobachtung oder das Interview.
2) Strukturgestaltung
In der zweiten Phase zur Strukturgestaltung werden die Ergebnisse der Nutzerana-
lyse in ein Benutzungsmodell überführt, dieses ist noch unabhängig von der Reali-
sierung und stellt die Interaktion des Nutzers mit dem System abstrakt dar. Diese
1068 Arbeitswissenschaft
grundlegende Struktur für die Interaktion mit dem System, orientiert sich bei-
spielsweise an elementaren Aufgaben, die in der Analysephase erhoben wurden.
Das Benutzungsmodell ist aufgabenorientiert, jedoch noch plattformunabhängig,
es basiert auf Benutzungsobjekten. Eine einfache Art und Weise zur Erarbeitung
eines Benutzungsmodells sind Strukturlege-Techniken, es gibt jedoch auch Mo-
dellierungswerkzeuge wie die Useware Markup Language (ZÜHLKE 2004).
3) Bediensystemgestaltung
In der dritten Phase, der sog. Bediensystemgestaltung wird das Benutzungsmodell
konkretisiert. Das Benutzungsmodell wird auf eine Interaktionsplattform übertra-
gen. Hier spielen ergonomische Kenntnisse eine große Rolle, da die Struktur des
Systems und die Anordnung der Elemente einen großen Einfluss auf die Benutz-
barkeit haben. In diese Phase fällt das Design der Schnittstelle (Auswahl der Platt-
form, Interaktionsform, Dialog und grafisches Layout). Erster Schritt ist die Aus-
wahl der Bediensystemplattform (Tastenbedienung, Touchscreen etc.), auf deren
Basis dann ein Layoutentwurf erstellt wird, beispielsweise mit einer ersten Auftei-
lung des Bildschirms. Im Feinkonzept werden dann erste Dialoge umgesetzt, die
auch mit Benutzer getestet werden können. Weitere Informationen zur Bediensys-
temgestaltung und Bildschirmlayouts findet man bei ZÜHLKE (2004).
4) Realisierung
In der vierten Phase, der sogenannten Realisierung, wird das Konzept umgesetzt.
Diese Phase steht in enger Wechselwirkung mit der dritten Phase und erfolgt teil-
weise auch parallel. Die genauen Interaktionsobjekte und Inhalte des Bildschirms
werden festgelegt und die Anbindung an die Maschinensteuerung, bzw. andere
Elemente des Arbeitssystems vorgenommen. Ergebnis ist das fertige System.
5) Evaluation
Als ein zusätzlicher Arbeitspunkt gilt die Evaluation. Die Evaluation soll während
allen Phasen immer wieder durchgeführt werden auf Basis von ersten Skizzen,
Prototypen und schließlich dem fertigen System. Diese entwicklungsbegleitende
Evaluation stellt sicher, dass nicht erst zu einem späten Zeitpunkt ergonomische
Mängel entdeckt werden, die dann kaum noch behoben werden können, sondern
dass die Nutzerbedürfnisse in allen Phasen der Entwicklung berücksichtigt wer-
den. Wichtiger Bestandteil des Usability Engineering ist der benutzerorientierte
Gestaltungsprozess nach DIN EN ISO 13407 (siehe Abb. 10.98 in Kap. 10.3.1.2).
10.2.1.3 MethodenĆdesĆUsabilityĆEngineeringĆĆ
Für den Prozess des Usability Engineering steht eine Vielzahl von Methoden zur
Verfügung, die die obengenannten Phasen unterstützen und sowohl die subjektive
als auch objektive Bewertung von Usability ermöglichen. Usability-Probleme
können durch eine Evaluation identifiziert und entsprechende Lösungen entwi-
ckelt werden.
Ergonomische Gestaltung 1069
10.2.1.3.1.1 Ort
Die Untersuchung kann entweder am konkreten Arbeitsplatz im Betrieb oder in
einem speziellen Usability-Labor (siehe Abb. 10.78) durchgeführt werden. Ab-
hängig von der Fragestellung kann ein Usability-Labor sinnvoll sein, um unter
vergleichbaren Bedingungen die Benutzer beobachten und befragen zu können.
Ein Usability-Labor stellt eine Umgebung dar, in der die Nutzer mit dem neuen
Produkt interagieren und mittels Kameras oder Einwegspiegeln von einem Neben-
raum aus beobachtet werden können. Oftmals werden neben der Video-
Aufzeichnung von Mimik, Gestik und Äußerungen auch Blickbewegungen aufge-
zeichnet und die Benutzer nach der Benutzung befragt (siehe Kap. 10.2.1.3.2.4).
10.2.1.3.1.2 Aufgaben
Bei Usability-Tests werden, sobald Prototypen entwickelt wurden, spätere Tätig-
keiten mit dem interaktiven System nachgestellt. Dafür werden meist typische
Aufgaben, die später mit dem Produkt durchgeführt werden sollen, ausgewählt
und von Teilnehmern bearbeitet. Dabei ist die richtige Auswahl der Testaufgaben
von entscheidender Bedeutung. Die Aufgaben sollen so repräsentativ wie möglich
sein für die spätere Nutzung des Systems und die wichtigsten Funktionsbereiche
1070 Arbeitswissenschaft
des Produkts abdecken (NIELSEN 1993). Sie sind aus den typischen Arbeitsaufga-
ben der Anwender abgeleitet. Bei einem Usability-Test werden sie den Probanden
nacheinander gestellt und werden unter Einsatz verschiedener Methoden (siehe
Kap. 10.2.1.3.2.4) bearbeitet.
10.2.1.3.1.3 Teilnehmer
Usability-Tests können danach unterschieden werden, ob sie sich auf analytische
oder empirische Methoden stützen (SARODNICK u. BRAU 2006). Bei den analyti-
schen Usability-Tests werden Usability-Experten befragt, die ihre Erfahrungen
und ihr Wissen einbringen (Experten-Evaluation). Bei den empirischen Usability-
Tests werden dagegen Informationen direkt aus der Befragung und Beobachtung
von späteren Nutzern gezogen (User-Evaluation). Da Usability ein multidimen-
sionales Konzept ist, werden oft verschiedene Methoden miteinander kombiniert
(KARAT 1997).
Bei Experten-Tests begutachten erfahrene Usability-Experten eine Mensch-
Maschine-Schnittstelle. Diese Usability-Methoden haben den Vorteil, dass keine
Vorbereitungen zur Auswahl und Bezahlung von Probanden getroffen werden
müssen. Sie können so sehr schnell angewendet werden, auch wenn noch keine
funktionsfähigen Prototypen entwickelt wurden. Zumeist wird mehr als ein Exper-
te ein System begutachten, da verschiedene Evaluatoren auch unterschiedliche
Fehler finden. Zum Einsatz kommen insbesondere Gestaltungsrichtlinien, die
heuristische Evaluation und der sog. Cognitive Walkthrough (SARODNICK u.
BRAU 2006).
Die Untersuchung von Produkten mit Hilfe der Beobachtung und Befragung
von späteren Benutzern eröffnet Einblicke bei der Analyse von Problemen, die
alleine durch die Expertenbefragungen nicht möglich wären. User-Tests werden
bei fast allen Usability-Untersuchungen eingesetzt, oft in Verbindung mit Exper-
ten-Tests. Wichtig für die Durchführung von User-Tests ist die Auswahl der Pro-
banden. Die Probandengruppe sollte sich aus Nutzern aus der zukünftigen Ziel-
gruppe zusammensetzen. Nach RAUTERBERG et al. (1994) sollte eine heterogene
Zusammensetzung in Bezug auf Vorerfahrung mit Informationstechnologien,
Alter, Geschlecht, Ausbildung und Beruf gegeben sein. Oft ist jedoch besonders
wichtig, dass aus jeder Nutzergruppe ein repräsentativer Querschnitt an potenziel-
len Kunden befragt wird. Die Anzahl der Probanden hängt von der gewählten
Methode und der gewünschten Qualität ab. Bei Methoden, wie beispielsweise dem
Interview, werden selten mehr als zehn Probanden befragt. Um jedoch statistisch
gesicherte Ergebnisse bei einem Fragebogen zu erhalten, ist eine Untersuchung
mit mindestens 20 Probanden zu empfehlen.
10.2.1.3.2 Einsatz von Usability-Methoden im Produktgestaltungsprozess
In allen Phasen des benutzerorientierten Produktgestaltungsprozesses (siehe
Kap. 10.3.1.2) spielt die Evaluation von Usability eine wichtige Rolle und sollte
durch das Usability Engineering im Prozess verankert sein. In die Phasen zur
Ergonomische Gestaltung 1071
Feldbeobachtung
Eine wichtige Methode bei der Identifikation des Nutzungskontextes stellt die
Feldbeobachtung, auch teilnehmende Beobachtung genannt, dar (ROTH u.
HOLLING 1999). Bei dieser Methode werden in der Umgebung der späteren Be-
nutzung die Benutzer bei ihrer Tätigkeit mit dem System beobachtet. Anders als in
einem Labor kann hier die konkrete Umgebung analysiert werden, in der ein Pro-
dukt später genutzt werden soll, beispielsweise wie der Arbeitsplatz bisher schon
ausgestattet ist und welche behindernden oder fördernden Umstände es im Umfeld
gibt.
Die teilnehmende Beobachtung an sich dient dazu Verhaltensmuster von Be-
nutzern in ihrer gewohnten Umgebung zu untersuchen. Dadurch kann ein Einblick
in Arbeits- und Dialogabläufe gewonnen werden und Standardsituationen erfasst
werden. Kritische oder selten auftretende Ereignisse dagegen können durch die
Methode nur schlecht aufgedeckt werden.
Fokusgruppen
Fokusgruppen werden prinzipiell in jeder Phase eingesetzt. Häufig dienen sie
jedoch dazu, Benutzeranforderungen (auch requirements genannt) an ein Produkt
zu erfassen. Damit ist die Erhebung, Beschreibung und Dokumentation der Erwar-
tungen und der Wünsche der Nutzer an das Produkt gemeint (NIELSEN 1993).
Fokusgruppen setzen sich aus etwa fünf bis zehn Teilnehmern zusammen, wo-
bei die Nutzer aus der potenziellen Zielgruppe stammen. Unter der Führung durch
einen Leiter (aus dem Gestaltungsteam) wird die Gruppe zu Diskussionen über
das Produkt angeregt.
Fokusgruppen bieten die Möglichkeit Anforderungen zu erheben, und auch
schon in frühen Entwicklungsphasen erste Konzepte evaluieren zu lassen. Sie
ermöglichen die Erhebung von qualitativen Daten bezüglich Nutzerbedürfnissen
und Nutzererwartungen.
1072 Arbeitswissenschaft
Card Sorting
Card Sorting stellt eine Methode dar, die eingesetzt wird, um Gestaltungslösungen
zu entwickeln. Sie wird mit den zukünftigen Nutzern des Systems durchgeführt
und kann helfen, die Wahrnehmung und Kognition der Nutzer zu verstehen und
somit eine Struktur aufzubauen, die der gleichkommt, wie Benutzer Informationen
gruppieren und verarbeiten.
Dafür werden den Benutzern Karten ausgehändigt, auf denen Begriffe stehen
(beispielsweise die Namen aller Seiten eines neuen Internetangebots). Zunächst
sollen die Begriffe nach ihrem spontanen Verständnis erklärt werden. Dies gibt
bereits einen Einblick, ob die richtigen Begriffe gewählt wurden oder ob diese zu
verändern sind. Bei offenen Card Sortings sollen die Karten danach so angeordnet
werden, dass Ähnliches gruppiert wird. Daraufhin soll erklärt werden, warum die
Karten so verteilt wurden und den neu gebildeten Kategorien Namen gegeben
werden. Diese Struktur und ihre Benennung geben Auskunft darüber, wie Nutzer
Informationen gruppieren und wie demzufolge auch ein Internetangebot struktu-
riert sein könnte. Bei geschlossenen Card Sortings sind bereits Kategorien vorge-
geben, denen die Karten zugeteilt werden sollen. Jedoch werden bei dem Entwurf
von Gestaltungslösungen oftmals die offenen Card Sortings eingesetzt (TULLIS u.
WOOD 2004; XU et al. 2007).
Heuristische Evaluation
Über Gestaltungsrichtlinien und Leitfäden hinaus wurden auf Grundlage umfang-
reicher empirischer Untersuchungen Heuristiken entwickelt, die für die ergonomi-
sche Produktgestaltung verwendet werden können. Besonders bekannt sind die
zehn Heuristiken von NIELSEN (1994a). Darunter fallen zum Beispiel „Sichtbar-
keit des Systemzustandes“, „Konsistenz und Standards“ und „Übereinstimmung
zwischen System und realer Welt“.
Bei der heuristischen Evaluation inspiziert eine kleine Zahl von Evaluatoren
unabhängig voneinander, nach einer kurzen Übungsphase (Einführung in die Do-
mäne), zunächst ein System. Im nächsten Schritt werden die Ergebnisse in einer
Liste zusammengeführt und den Heuristiken zugeordnet. Die Evaluatoren bewer-
ten die aufgezeichneten Probleme daraufhin auf einer Skala nach ihrer Notwen-
digkeit zur Behebung. Oft werden heuristische Evaluationen in frühen Phasen der
Entwicklung eingesetzt.
Cognitive Walkthrough
Bei dieser Methode (LEWIS et al. 1990) liegt der Fokus auf dem „Ease of Lear-
ning“, also der Erlernbarkeit. Sie basiert auf der Theorie des Lernens durch Explo-
ration und hat zum Ziel, alles, was exploratives Lernen verhindert, zu beseitigen.
Bei dieser Methode sollen also die mentalen Prozesse des Benutzers analysiert
und nicht das Interface an sich evaluiert werden.
Dabei wird wie folgt vorgegangen: Experten identifizieren die „optimalen“
Problemlösungspfade für eine Aufgabe (beispielsweise das Auffinden eines spezi-
fischen Produkts bei einer Shopping-Website). Danach wird beurteilt, wie ein
normaler Nutzer zu diesem Ziel gefunden hätte. Im letzten Schritt wird bewertet,
wie sehr diese beiden Wege voneinander abweichen und welche Gründe es für
Abweichungen gibt. Alternativlösungen für Abweichungen können direkt von den
Experten entwickelt werden.
Eine Weiterentwicklung ist der Pluralistic Usability Walkthrough (BIAS 1994;
HELANDER et al. 1997; SANDOM et al 2007), auf den hier nur kurz verwiesen sei,
1074 Arbeitswissenschaft
bei dem Nutzer, Usability-Experten und Entwickler gemeinsam ein Produkt beur-
teilen. Diese Verfahren stellt bereits eine Kombination aus Experten-Test und
User-Test dar.
User-Evaluation
Neben der Experten-Evaluation werden beim Usability Engineering natürlich auch
Verfahren verwendet, die mit zukünftigen Benutzern des Produktes durchgeführt
werden.
Bei sog. User-Tests werden den Benutzern Aufgaben gestellt (siehe
Kap. 10.2.1.3.1.2), die sie bearbeiten müssen. Dabei können während und nach
der Bearbeitung eine Reihe von Methoden eingesetzt werden, um Informationen
über die Effektivität, Effizienz und Zufriedenheit bei der Arbeit mit dem interakti-
ven System zu erhalten. Es gibt Methoden, die objektive Maße erfassen, wie bei-
spielsweise Körperhaltung und Mimik (durch Videoaufnahmen), Eingabesequen-
zen (durch Logfiles), psychophysiologische Variablen (durch Biosignale), sowie
Blickdauern und -häufigkeit (Blickbewegungsanalyse). Subjektive Maße dagegen
werden durch die Aufzeichnung von „lautem Denken“, Befragungen und die
Verwendung von standardisierten Fragebögen erhoben.
beispielsweise der Umgang mit einer neuen Software ist oder wie die Nicht-
Erfüllung von Aufgaben zu Frustration führt. Psychophysiologische Maße haben
den Vorteil, dass sie auch nicht-bewusste, nicht zu verbalisierende Prozesse
(KEMPTER u. BENTE 2004) aufzeichnen können. Als nachteilig sind die teilweise
hohen Kosten und die aufwändige Datenauswertung zu nennen.
Besonders in Form von „beanspruchungsinduzierter Videokonfrontation“ wer-
den unbewusste Beanspruchungsmaxima ex post den Nutzern in Form einer aus-
gewählten parallel erhobenen Videosequenz präsentiert und zur Kommentierung
aufgegeben. Damit werden auch im Unterbewusstsein wirksame Gestaltungsmän-
gel identifizierbar (SPRINGER 1997).
Die Blickbewegungsanalyse wird im Usability-Test oft als Methode verwendet
(RÖTTING 2001). Dabei gibt es unterschiedliche Systeme, bei denen entweder
durch einen Helm, den die Probanden tragen, oder über auf dem Tisch fixierte
Kameras die Augenbewegungen, d.h. Fixationen (Blickpunkte) und Sakkaden
(Sprünge von einem Fixationspunkt zum nächsten), aufgezeichnet werden. Die
Fixationen können dabei Auskunft über die Aufmerksamkeitsverteilung und die
Informationsverarbeitung bei der Arbeit mit einem System geben. Durch
Sakkadenweiten kann bspw. auf die mentale Beanspruchung rückgeschlossen
werden. Nachteilig sind bei diesem Verfahren jedoch die hohen Anschaffungskos-
ten und auch die eingeschränkte Einsatzfähigkeit bei manchen Nutzergruppen wie
beispielsweise bei Brillenträgern.
„Critical Incident Technique“ (FLANAGAN 1954) geführt werden, bei der beson-
ders positive und besonders negative Erlebnisse bei der Interaktion genannt wer-
den sollen.
Standardisierte Fragebögen
Fragebögen können relativ einfach und ohne großen Aufwand bei Usability-
Untersuchungen eingesetzt werden. Sie haben den Vorteil, dass sie bereits vali-
diert sind und einfach ausgewertet werden können.
Am bekanntesten dürfte der ISONORM-Fragebogen von PRÜMPER u. ANFT
(1993) sein. Dieser Fragebogen orientiert sich direkt an der DIN EN ISO 9241-110.
Zu jedem der sieben Gestaltungsgrundsätze, die in der ISO Norm beschrieben sind
(Aufgabenangemessenheit, Selbstbeschreibungsfähigkeit, Fehlertoleranz, Lernun-
terstützung, Erwartungskonformität, Steuerbarkeit, Individualisierbarkeit, siehe
Kap. 10.2.2.2), gibt es fünf Fragen. Jede der Fragen muss auf einer siebenstufigen
Skala von „sehr negativ“ bis „sehr positiv“ beantwortet werden. Zu diesen insge-
samt 35 Fragen kommen zusätzlich die Frage nach einen Gesamturteil sowie
Kommentarfelder. Die Dauer zur Bearbeitung des Fragebogens liegt bei etwa 15-
20 Minuten. Durch die Bildung von Mittelwerten über die Gestaltungsgrundsätze
wird deutlich, in welchem Bereich des Systems Schwachpunkte vom Nutzer
wahrgenommen werden.
Ein weiterer Fragebogen, der in der Praxis oft eingesetzt wird, ist der
„Questionnaire for User Interaction Satisfaction“ von SHNEIDERMAN (1987). Er
bezieht sich auf die Nutzerzufriedenheit und erfasst damit die subjektiven Erfah-
rungen mit einem System. In seiner ersten Version umfasst dieser Fragebogen
insgesamt 90 Items, wobei es einen Teil für die generelle Bewertung der Zufrie-
denheit gibt und sich der restliche Teil auf weitere 20 Konstrukte bezieht. Der
Fragebogen liegt auch in einer Kurzversion von 25 Fragen vor. Die Antworten
werden auf einer zehnstufigen Skala zwischen einem positiven und einem negati-
ven Item auf beiden Seiten (beispielsweise: verwirrend – klar) gegeben.
Weitere Fragebögen sind das „Software Usability Measurement Inventory“
(PORTEOUS et al. 1993), „IsoMetrics“ (WILLUMEIT et al. 1996) oder AttrakDiff
(HASSENZAHL et al. 2003).
10.2.2 Softwareergonomie
Der Anteil der mit Computern arbeitenden Menschen hat in den letzten Jahren und
Jahrzehnten ständig zugenommen. So arbeiteten laut Statistischem Bundesamt
(STAT. BUNDESAMT 2005) im Mai 2000 ca. 52% der Erwerbstätigen in Deutsch-
land beruflich mit einem Personal Computer (PC), wohingegen im März 2004 der
Anteil bereits bei 59% lag. In Abhängigkeit von der Tätigkeit variiert der Anteil
der Beschäftigten, die bei ihrer Arbeit einen PC nutzen, erheblich. Den höchsten
Anteil an PC-Nutzern hat mit 94% der Beschäftigten die Gruppe der im (techni-
schen) Büro sowie in Forschung und Entwicklung tätigen Personen. Aber auch im
Ergonomische Gestaltung 1077
10.2.2.1 GrundlagenĆ
Der Begriff der Software-Ergonomie fasst sämtliche Modelle, Methoden und
Werkzeuge zusammen, die der ergonomischen Gestaltung der Mensch-Rechner-
Interaktion sowie der Analyse und der Evaluation der Benutzbarkeit interaktiver
Softwaresysteme dienen. Ausgehend vom Ansatz des Arbeitssystems (siehe
Kap. 1.5.1.1) sind dabei folgende Gestaltungsbereiche differenzierbar:
x Die in einem Arbeitssystem verwendeten Software-Applikationen im Sinne
eines interaktiven Arbeitsmittels und die Schnittstelle zwischen Computer
und Benutzer (z.B. Informationsdarstellung), werden gegenüber den tech-
nisch-physikalischen Elementen (z.B. Tastatur, Bildschirm), den sog.
Anpassmitteln (Stuhl, Tisch etc.) und den Arbeitsumgebungsfaktoren (z.B.
Licht, Lärm, Klima) durch den Bereich der ergonomischen Gestaltung der
Hardware (Hardware-Ergonomie) abgegrenzt. Diese sind für die software-
ergonomische Gestaltung nur von Bedeutung, wenn software-ergonomische
Kriterien, wie z.B. die Individualisierbarkeit, davon beeinflusst werden.
Software benötigt natürlich stets Hardwaresysteme zur Ein- und Ausgabe
von Informationen. Jedoch ist die Frage, ob aufgrund von Platz- oder Sicher-
heitsaspekten eine Maus, ein Trackball, eine Tastatur oder ein Touchscreen
zum Einsatz kommt, nur für die Anpassungen der Software an den Menschen
relevant. Hierfür kann als Beispiel die individuelle Einstellung der Ge-
schwindigkeitsrelationen zwischen Zeigerbewegung und Bewegung des Ein-
1078 Arbeitswissenschaft
wird, z.B. bewirkt ein Tastendruck die Darstellung eines Zeichens auf dem
Bildschirm.
(2) Auf der syntaktischen Ebene wird das Regelwerk festgelegt, welches der
Dialogstruktur zugrunde liegt. Ein Dialog-Manager verarbeitet die betreffen-
den Ereignisse und Zeichenketten in Abhängigkeit des Dialogzustandes, z.B.
verlangt ein Eingabemenü die Eingabe von Daten in bestimmte Felder und
evtl. auch in bestimmter Reihenfolge.
(3) Auf der semantischen Ebene werden Objekte und Funktionen festgelegt, die
das funktionale Modell einer Arbeitsaufgabe auf Funktionselemente einer
Software abbilden und die notwendigen Werkzeuge zur Erfüllung der Funk-
tionsstruktur auf Benutzerseite bereitstellen, z.B. das Format eines Datensat-
zes für die betriebliche Ressourcenplanung, dessen Bearbeitungsweise sowie
Bedeutung.
(4) Auf der pragmatischen Ebene wird die Aufgabenrepräsentation in ein Appli-
kations- und Ablaufschema umgesetzt. Dieses setzt sich aus Objekten und
Funktionen der unteren Ebenen zusammen. So lässt sich z.B. ein Algorith-
mus für eine kundenspezifische Suche von Datensätzen in einem sog.
Enterprise Ressource Planning-System (ERP) vom Benutzer in Form eines
sog. Makros selbst entwickeln.
Das semiotische Interaktionsmodell wurde erstmals in den späten 70er Jahren
für die Gestaltung von Benutzungsschnittstellen herangezogen (siehe FOLEY et. al.
2005) und besitzt eine unübersehbare Ähnlichkeit mit den in Kapitel 10.1.2.3.2.1
eingeführten Abstraktionshierarchien. Der Gestaltungsprozess erfolgt i.d.R. top-
down, so dass die pragmatische Ebene des Anwendungsprogramms das mentale
Benutzermodell widerspiegeln sollte. Hierbei werden benutzbare Objekte, Objekt-
eigenschaften, Relationen zwischen Objekten und Operationen unterschieden, die
i.d.R. in sog. Benutzungsmetaphern eingebettet sind.
Benutzer Computer
Semantische Ebene
Funktionsrepräsentation Werkzeugmanager
Funktionen und Objekte
Syntaktische Ebene
Dialogarten Dialogmanager
Dialogstruktur
Physikalische Ebene
Interaktionsausführung Display- und I/O-Ebene
Dateneingabe und -ausgabe
Bei der Gestaltung der physikalischen Ebene müssen neben ergonomischen Ge-
staltungsaspekten (im Sinne von Kap. 10.1) Möglichkeiten zur Kodierung von
unterschiedlichen Informationen mittels Tastengestaltung (Input) und Anzeigege-
staltung (Output) betrachtet werden. Dabei sollte die Software-Architektur eine
multimodale Interaktion berücksichtigen, so dass verschiedene Ein- bzw. Ausga-
bekanäle des Menschen (visuell, auditiv, haptisch o.Ä.) für einen Informationsaus-
tausch zur Verfügung stehen.
(7) Lernförderlichkeit
Ein Dialog ist lernförderlich, wenn er den Benutzer beim Erlernen der Be-
nutzung des interaktiven Systems unterstützt, anleitet und den Wissens- und
Kompetenzerwerb fördert.
Grundsätzlich müssen diese Kriterien auf allen Ebenen des semiotischen
Mensch-Rechner-Modells erfüllt sein. Eine differenzierte Darstellung dieser Krite-
rien auf den vier semiotischen Abstraktionsebenen findet sich in Abb. 10.80
Pragmatische Genereller Be- Informationen Definition Übereinstimmung Änderung von Anpassung an Generierbarkeit
Ebene zug zur Arbeits- über eigener des rechnerin- Modelleigen- individuelle eigener Ord-
(Modelle und aufgabe Modelleigen- Modelle ternen mit dem schaften Eigenschaften nungskriterien
Konzepte) schaften mentalen Modell der Benutzer und Merkregeln
Semantische Ausführung von Verständlich- Wahlmöglich- Funktionen Reversibilität Individuelle Be- Unterstützung
Ebene Funktionen keit der keit zwischen in Analogie zu der fehlerhaften zeichnung von unterschied-
(Funktionen dient der Ziel- Auswirkung verschiedenen bisherigen Ausführung Funktionen und licher Lern-
und Objekte) erreichung von Funktionen Funktionen Tätigkeiten einer Funktion Objekten strategien
Syntaktische Befehlsbe- Befehls- Wahl zwischen Gleiche Vertauschen der Präferenzen in Wiederauf-
Ebene zeichnung bezeichnung Menüsteuerung Bezeichnung Eingabereihen- der Auswahl frischen von
(Dialog- in Aufgaben- verdeutlicht oder Kommando- gleicher folge von Para- von Dialog- Gelerntem er-
struktur) vokabular Funktion eingabe Parameter metern möglich techniken möglichen
Physikalische Art/Form der Verständliche Wahl zwischen Einheitliche Einfache Modifizierbare Verdeutlichung
Ebene Ein-/Ausgabe Tasten- Maus- oder Tasten- Änderung von Tasten- von Lern- vs.
(Dateneingabe ist der Aufgabe bezeichnung Tabletteingabe belegung Tippfehlern belegung Aufgabenin-
und -ausgabe) angepaßt halten
schen hat sich die Informationstechnologie in weite Bereiche des Berufs- und
Privatlebens ausgedehnt. Als neue Leitbilder werden unter dem Begriff der „Soft-
ware Usability“, der Gebrauchstauglichkeit von Software, die „Virtuellen Umge-
bungen“ (Virtual Reality, siehe Kap. 10.1.2.1.3.1) und die „Intelligenz von All-
tagsgegenständen“ (Ambient Intelligence, WEBER et al. 2005) genannt.
10.2.2.1.2 Physikalische Ebene
Für die Gestaltung der physikalischen Ebene der Mensch-Rechner-Interaktion sind
im Kapitel 10.1.2.2.2 die wesentlichen Gestaltungsempfehlungen bereits gegeben
worden. Die Gestaltung des Arbeitsplatzes bezogen auf Tisch, Stuhl, Ein- Ausga-
begeräte, Arbeitsvorlagen (z.B. akustisch aufgenommene Texte, Vorlagenhalter
für technische Zeichnungen), Beleuchtung und Klima beeinflusst ebenfalls die
Arbeit mit Computersystemen, werden aber nicht zur Software-Ergonomie im
engeren Sinne gezählt. Sie sind z.B. Gegenstand der DIN EN ISO 9241-5 und soll-
ten die Benutzung des Bildschirms im Bereich des vorgesehenen Sehabstandes
von mindestens 400 mm bei einer Beleuchtungsstärke zwischen 400 und 600 Lux
erlauben. Für die ergonomische Gestaltung von Software sind folgende physikali-
sche Aspekte relevant:
x Die Darstellung alphanumerischer Zeichen und graphischer Symbole, wobei
Gestalt, Leuchtdichte, Farbe, Kontrast, Auflösung, Verzeichnungen oder
Bildwiederholfrequenzen eine Rolle spielen (siehe SCHLICK et al. 2008),
x die Darbietung und Anordnung von Daten auf dem Bildschirm, wie die
Gruppierung zusammengehörender Informationen, Minimierung von Aus-
wahlbewegungen in Bildschirmmenüs etc. sowie
x die Kodierung von Informationen zur Ein- und Ausgabe.
Üblicherweise werden aufgrund der visuellen Dominanz bevorzugt die Mög-
lichkeiten einer visuellen Kodierung genutzt. Die Art der Zeichen, verschiedene
Eigenschaften der Zeichen wie Größe, Farbe, Lage oder Richtung ist dabei ebenso
zu gestalten wie die physikalischen Eigenschaften der Bildschirme. Hierfür beste-
hen unterschiedliche technische Lösungen, die von klassischen Kathodenstrahl-
röhren über elektronisches Papier bis hin zu holografischen Displays reichen (sie-
he SCHLICK et al. 2008). Aufgrund der unterschiedlichen physikalischen Wirkprin-
zipien und ihrer Größe unterscheiden sich die Displays in ihren physikalischen
Eigenschaften, wie z.B. Kontrast, Auflösung, Verzeichnungen oder Bildwieder-
holfrequenzen und sind entsprechend der Anwendung auszuwählen und einzuset-
zen. Sie sollten entsprechend der erforderlichen Grenzen an das Wahrnehmungs-
vermögen und die sensomotorischen und geistigen Fähigkeiten, z.B. für ältere
Computernutzer, deren Leistungsvermögen eventuell altersbedingt eingeschränkt
ist, für sehbehinderte oder farbenfehlsichtige Benutzer, angepasst werden können.
Dies betrifft im Wesentlichen die Darstellung der Schriftgröße (idealerweise zwi-
schen 20 bis 22 Bogenminuten, entspricht bei einem Sehabstand von 400 mm
etwa 2 mm), die Leuchtdichte, welche abhängig von der Umgebungshelligkeit
möglichst 100 – 200 cd/m2 betragen sollte, die Bildwiederholfrequenz (mind. 80
Herz für eine flimmerfreie Darstellung) sowie das Leuchtdichte-
Ergonomische Gestaltung 1083
5
3
2
1
Abb. 10.81: (1) Radio-Buttons: nur eine Option kann eingeschaltet werden; (2) Buttons:
ein Ereignis wird ausgelöst, wobei Erwartungen bestehen; (3) Checkbox: die Box kann ein-
oder ausgeschaltet werden; (4) alphanumerische Parameter können eingetragen werden, die
auch angezeigt werden; (5) alphanumerische Parameter können eingetragen werden, wer-
den jedoch aus Sicherheitsgründen nur als Sternchen angezeigt
Objekte ausrichten
Objekte ausrichten
Abb. 10.82: Kodierung durch horizontale Radio-Buttons (oben) oder matrixförmig ange-
ordnet (links unten), grafische Illustration der Ausrichtoptionen, selbstbeschreibungsfähig
(rechts unten)
Abb. 10.83: Tablet PC der Fa. Fujitsu Siemens(links); CyberGlove II - Drahtloser Daten-
handschuh von Immersion (rechts)
down versus pull out), die Anordnung von Menüpunkten (als Liste oder im Kreis),
die Platzierung der Menüs auf dem Bildschirm bzw. in Relation zu Fenstern, die
Anzahl gleichzeitig dargestellter Menüs etc. sind Gestaltungsbereiche, die zu
einem transparenten Dialog beitragen.
Art und Umfang von Ein- und Ausgaben, Auswahl und Reihenfolge von Ar-
beitsmitteln und die Geschwindigkeit des Ablaufs sollen im Sinne der Steuerbar-
keit vom Benutzer beeinflusst werden können. Im Zuge der Weiterentwicklung
von interaktiven Benutzeroberflächen, die auf selbstbeschreibungsfähigen Dialo-
gen beruhen, werden zunehmend die sog. Techniken der direkten Manipulation
eingesetzt. Alle Objekte von Interesse sind sichtbar und Operationen werden
durch direkte manuelle Manipulation (SHNEIDERMAN u. PLAISANT 2004) der
Objekte durchgeführt, z.B. das Löschen einer Datei durch Selektieren und Schie-
ben in einen Papierkorb. Der Papierkorb selbst wiederum kann geöffnet werden
(siehe Abb. 10.85), um beispielsweise versehentlich gelöschte Dateien wieder aus
dem Papierkorb „herauszuholen“.
Abb. 10.85: Papierkorb leer (links) und mit gelöschten Dokumenten (rechts)
1088 Arbeitswissenschaft
Abb. 10.86: Unterschiedliche Dialogarten zur direkten Manipulation oder in Form einer
Kommandosprache bei einer CAD-Anwendung
Ergonomische Gestaltung 1089
Die Fehlerrobustheit von Softwaresystemen ist abhängig von der Art des
Fehlers. Es soll trotz einer fehlerhaften Eingabe das gewünschte Ziel mit minima-
lem oder ohne Korrekturaufwand erreicht werden, z.B. durch das Verändern einer
Eingabe statt einer Neueingabe. Dies kann durch Kontrollfunktionen, wie einer
Plausibilitätsprüfung (z.B. darf die Eingabe eines Bauteilmaßes keine Buchstaben
enthalten) erfolgen, die in unmittelbarem Zusammenhang mit der Eingabe auf den
Fehler hinweist. Vermeintliche Fehler müssen darüber hinaus als Teil von Lern-
vorgängen (Exploration) und somit als lernförderliche Handlung bezogen auf eine
verständliche Systemantwort (siehe auch Selbstbeschreibungsfähigkeit) akzeptiert
werden. Dazu sollte die Reihenfolge der Parametereingabe sowie im Rahmen
sinnvoller Grenzen auch der Befehle dem individuellen Arbeitsprozess angepasst
werden können, um im Verlauf des Arbeitsprozesses entstandene und erst einige
Arbeitsschritte später bemerkte Fehler gezielt korrigieren zu können, ohne korrekt
durchgeführte Teile des Arbeitsprozesses wiederholen zu müssen (Korrigieren
einzelner Maße in einer Eingabemaske). Ein unkontrolliertes Beenden des Pro-
gramms muss ebenso vermieden werden wie der „Absturz“ des gesamten Be-
triebssystems. Dabei sollten unterschiedliche Arten menschlicher Fehler berück-
sichtigt werden.
Fehler lassen sich nach ZAPF et al. (1999) nach Fehlleistungen und Fehlhand-
lungen unterscheiden, wobei die Intention der Person bezogen auf den verursach-
ten Fehler im Vordergrund steht. Fehlleistungen entstehen, wenn der Benutzer die
richtige Intention hatte, aber Probleme in der Entwicklung und Ausführung eines
Handlungsplanes auftraten (z.B. Tippfehler). Fehlhandlungen dagegen setzen die
Bildung einer falschen Intention voraus und sind insofern schwer interpretierbar
(z.B. Konstruktion eines Bauteils und Verwechslung von Durchmesser und Radi-
us). Aus formal richtigen Eingaben muss auf die Intention des Benutzers geschlos-
sen werden, um Fehlhandlungen nachzuweisen. Dies ist aufgrund unvollständiger
Fehlerkriterien oft nicht möglich. Bei Funktionen, deren Ausführung weitreichen-
de Konsequenzen hat (z.B. Löschen von Dateien oder Eingaben), führt eine zu-
sätzliche Bestätigungsanforderung zu einer erneuten Kontrolle durch den Benut-
zer. Somit kann eine vorhergegangene Fehlhandlung unter Umständen rückgängig
gemacht werden. Solche Bestätigungen sollten jedoch nicht zu häufig angefordert
werden, da diese sonst zur Routine werden, ungeprüft bestätigt oder verworfen
werden und somit ihren kontrollierenden Charakter verlieren.
Bei geringer Übung des Benutzers ist eine hohe mentale Beanspruchung im
Umgang mit dem Softwaresystem zu erwarten und damit auch eine hohe Fehler-
häufigkeit. Der Einsatz eines systemgeführten Dialogs und die damit verbundenen
Vorteile entlasten in diesem Fall dadurch, dass z.B. nur die Auswahl eines Befehls
statt ständig alle Befehle, die aktuell aufrufbar sind, im Gedächtnis vorgehalten
werden müssen. Die Gestaltung benutzereigener Menüs (Tablett- oder Bild-
schirmmenüs) entspricht einem durch den Benutzer gesteuerten systemgeführten
Dialog und kann diese Vorteile nutzen. Das Modifizieren des Menüs muss leicht
durchführbar sein, um Zusatzbelastungen durch Programmierarbeiten zu vermei-
den. Ein Beispiel dafür ist die Menüauswahl „Erweiterte Optionen“, die zusätzli-
1090 Arbeitswissenschaft
und Funktionen des Anwendungssystems mit den im mentalen Modell des Benut-
zers repräsentierten Konstrukten.
LUCZAK et al. (2006) nennen einige für die Gestaltung einer Benutzungsober-
fläche von CAD-Systemen auf semantischer Ebene wesentliche Funktionen. So ist
eine weitestgehende direkte Manipulation der Objekte mittels geeigneter Eingabe-
geräte zu gewährleisten. Dazu gehört neben der unkomplizierten Objekterzeugung
auch deren geometrische Veränderung. Dabei ist bspw. aufgrund der notwendigen
Exaktheit des Systems auch ein unmittelbares numerisches Feedback notwendig.
Für einen ersten Entwurf, meist nicht bis in alle Details ausgearbeitet, sondern auf
einen verhältnismäßig groben mentalen Modell begründet, sollte eine Handskizze
erstellt werden können, über deren Transformation in exakte CAD-Elemente der
Nutzer anschließend selbst entscheiden kann.
Bei der Objekterzeugung in einem CAD-Programm ist es für den Benutzer von
Vorteil, den chronologischen Ablauf der realen Fertigung eines Bauteils auch bei
der Erzeugung in der CAD-Umgebung abzubilden, z.B. wird das nachträgliche
Entfernen von Material an einem Objekt (das z.B. dem realen Fräsen oder Drehen
entspricht) dem nachträglichen Hinzufügen vorgezogen. Die Software kann dieses
Verfahren durch eine entsprechende Strukturierung der virtuellen Fertigungs-
schritte vorgeben.
Funktionen
Art und Umfang der implementierten Funktionen beeinflussen die Art der Arbeits-
teilung zwischen Benutzer und Software, in dem Teilaufgaben auf die Software
übertragen werden können (z.B. mittels Bemaßungsfunktion in CAD-Systemen).
In CAD-Systemen wird dies häufig mit sog. „Toolbox“-Funktionen realisiert, die
je nach Absicht des Anwenders automatisch eingeblendet werden. Ein Beispiel für
solch eine von der Software bereitgestellte Funktion aus einer CAD-Anwendung
ist die sog. „Assembly“-Funktion (siehe Abb. 10.87). Nachdem mehrere Bauteile
erstellt wurden kann in den Montage-Modus gewechselt werden, der bspw. das
parallele oder orthogonale Ausrichten von Flächen bei der Zusammenstellung von
Baugruppen übernimmt.
Die Gestaltung der Funktionen hat aber auch entscheidenden Einfluss auf das
Dialogverhalten des Systems (z.B. Steuerbarkeit von Dialogen nur in den durch
die Funktionen zugelassen Grenzen) und damit auf den Arbeitsablauf. So stellt die
Software dem Anwender alle nötigen Werkzeuge zur Assemblierung bereit, die
vom Benutzer zu erledigenden Tätigkeiten werden dadurch stark reduziert. Grund-
sätzlich sollte hierfür durch den Benutzer zwischen unterschiedlichen Funktionen
gewählt werden oder innerhalb einer Funktion zwischen unterschiedlichen Lö-
sungswegen gewechselt werden können. Je mehr Voraussetzungen und damit
Regeln und Funktionen die zu manipulierenden Objekte selbst mit sich tragen und
damit für das Benutzen einer Funktion existieren, desto geringer ist der Freiraum
während der Ausführung der Funktion und desto mehr Vorarbeiten müssen durch-
geführt werden. Auch bei der benutzerspezifischen Veränderung eines Systems
muss beachtet werden, dass zusätzliche Funktionen ein Softwaresystem größer,
1092 Arbeitswissenschaft
komplexer und somit auch langsamer und fehleranfälliger machen können. Damit
entstehen durch existierende Funktionen Beeinträchtigungen, die kritische Fehler
und mangelnde Benutzbarkeit verursachen können. Hingegen hat der Benutzer so
während der Funktionsausführung eine ständige Handlungskontrolle, da er selbst
jederzeit über Reihenfolge, Art und Geschwindigkeit auszuführender Funktionen
entscheiden kann.
Abb. 10.87: Assembly-Modus eines CAD-Programms: Die Software stellt dem Benutzer
die nötigen Werkzeuge bereit, sobald vom Zeichnen- in den Assembly-Modus gewechselt
wird. Die Box rechts stellt dabei alle bereits fertigen Teile bereit, die zu der Baugruppe
gehören, die nun assembliert wird
ergebnisses verhindern, dass nur eine erneute Eingabe die Auswirkungen von
Fehlhandlungen beseitigen kann.
Objekte
Die Art der Datenstruktur, die in einem Softwaresystem erzeugt, verwaltet und
manipuliert werden kann, bestimmt zu wesentlichen Teilen die Bearbeitungsmög-
lichkeiten von Arbeitsaufgaben. Existiert bspw. in einem CAD-System die Mög-
lichkeit, die Zusammengehörigkeit einzelner Bauteile zu einer Baugruppe zu defi-
nieren, so kann automatisch ein Überblick bspw. über Gewicht und Umfang des
Gesamtproduktes erstellt und evtl. modifiziert werden. Dazu müssen bspw. alle
Geometrieinformationen in eine homogene und konsistente Datenstruktur einge-
bunden werden. Nur so können Zusammenhänge zwischen einzelnen Objekten
durch den Benutzer wohl definiert und durch das System automatisiert verwaltet
werden. Im Beispiel des Assembly-Modus kann die Montage verschiedener Teile
durch eine geeignete Datenstruktur stark vereinfacht werden, indem z.B. die Ober-
flächen unterschiedlicher Teile bei gegenseitiger Eignung automatisiert aneinan-
dergefügt werden können und/oder eine Durchdringung von Teilen nicht erlaubt
wird. Diese Datenstrukturen sollten darüber hinaus dafür genutzt werden, dem
Nutzer auf Anfrage oder je nach Arbeitsschritt laufend aktuelle Informationen
über Position und Geometrie der durch ihn erstellten Objekte bereitzustellen
(LUCZAK et al. 2006).
Andererseits müssen beim Fehlen einzelner Objekte in einer Datenstruktur, die
zur Bearbeitung der Arbeitsaufgabe notwendig ist, unterschiedliche Datenträger
(verschiedene Programme oder schriftliche Unterlagen etc.) parallel gehandhabt
werden, was ebenfalls Auswirkungen auf die Tätigkeitsstruktur hat.
10.2.2.1.5 Pragmatische Ebene
Welche Aufgaben in welcher Form mit einem Softwaresystem bearbeitet werden
können, wird durch die Gestaltung des Softwaresystems auf der pragmatischen
Ebene bestimmt. So besteht z.B. meist zu Beginn der Konstruktionsarbeit mit
einem CAD-System bereits eine abstrakte Idee eines konstruktiven Lösungsansat-
zes im Kopf des jeweiligen Benutzers (SCHMIDT 2004). Diese sollte – der Aufga-
be angemessen – zunächst schnell „zu Papier“ gebracht werden können.
Die Gesamtheit der bereits in der Skizzenphase notwendigen Funktionen defi-
niert die Struktur unterschiedlicher Objekte und die Modelle, mit denen ein Be-
nutzer Arbeitsaufgaben löst. Zum Beispiel bilden die geometrischen Objekte eines
CAD-Systems (Punkt, Linie, Kreis, etc.) in ihrer Gesamtheit das geometrische
Modell eines Bauteils, mit dem der Benutzer operiert. Bei der Modellerstellung
soll dem Benutzer z.B. auch die Möglichkeit gegeben werden, einige Modellin-
formationen (z.B. Geometrieinformationen) zunächst undefiniert zu belassen und
diese mit zunehmender Konkretisierung des Modells erst später festzulegen. Hier-
bei können auch sog. Feature-Bibliotheken hilfreich sein, die basierend auf vorab
festgelegten Logiken bestimmte funktionelle Zusammenhänge, wie z.B. den Ver-
lauf einer Phase oder Modellelemente (z.B. die Geometrieverhältnisse einer Nut
1094 Arbeitswissenschaft
für genormte Passfedern), bereitstellen. Dabei bestimmen nicht nur die Eigen-
schaften des einzelnen Objektes die Arbeitstätigkeit, sondern auch die Verbindun-
gen der Objekte untereinander und die Verknüpfung zu einem Gesamtmodell.
Lassen sich z.B. Abhängigkeiten zwischen Objekten definieren (im Falle eines
CAD-Systems z.B. zwischen einer Bemaßung und den dazugehörenden geometri-
schen Objekten), so wird damit sichergestellt, dass im Falle einer Veränderung
eines Objektes andere Objekte ebenfalls z.B. aufgrund gegebener Abhängigkeiten
verändert werden. Diese Änderung der Modelleigenschaften muss möglich sein,
ohne gravierende Fehler oder gar Dateninkonsistenz zu provozieren.
Neben der Erstellung eigener Modelle oder deren Änderungen sollten prozedu-
rale Strukturen im Sinne von Konzepten definiert werden können, in denen Me-
thoden zur Bearbeitung algorithmisch abgelegt werden (sog. Makros). Damit wird
die Arbeitsperson zunehmend selbst zum Programmierer, da sie Programmiertä-
tigkeiten (Erstellen von Anwendungsprogrammen, Subroutinen etc.) zusätzlich
zur eigentlichen Arbeit ausführt. Dadurch wird ein Benutzer in die Lage versetzt,
für definierte Teilaufgaben Lösungskonzepte auf den Rechner zu übertragen. Der
Konstrukteur soll in die Lage versetzt werden, das systemeigene CAD-Modell mit
wenig mentaler „Übersetzungsleistung“ modifizieren zu können. Daher sollte das
interne Datenmodell an die beim Benutzer vorliegende Modellrepräsentation eng
angelehnt sein (LUCZAK et al. 2006).
10.2.2.2 MethodenĆzurĆEvaluationĆvonĆSoftwareĆ
Die Vielzahl an Gestaltungsdimensionen ist dafür verantwortlich, dass in frühen
Phasen der Entwicklung nur selten eine ergonomisch „optimale“ Software gefun-
den werden kann. Eine empirische Analyse und Evaluation von Softwaresystemen
ist daher trotz der zahlreichen genormten Gestaltungskriterien notwendig. Sie ist
zwar meist aufwendig, ihr Aufwand kann sich aber bereits nach kurzer Zeit durch
bessere Benutzbarkeit und damit effektivere und effizientere Nutzung sowie hier-
durch zufriedenere Benutzer und Kunden amortisieren.
Eine Evaluation ist nur möglich, wenn für spezifische Aufgaben Prüfkriterien
mit nachprüfbaren Parametern hinterlegt werden können. Ohne einen zu hohen
Anteil subjektiver Interpretationen des Bewerters muss entschieden werden kön-
nen, ob bzw. in welchem Maße eine Anforderung erfüllt wird oder nicht. Dies
bedeutet, dass nur in definierten Arbeitszusammenhängen und teilweise nur in
Abhängigkeit von bestimmten Benutzertypen beurteilt werden kann, ob und in
welcher Form eine Software ergonomisch gestaltet ist. Derartige Zusammenhänge
werden auch als (Nutzungs-)Szenarien bezeichnet, mit deren Hilfe sowohl Anfor-
derungskriterien definiert als auch Gestaltungszustände bewertet werden können.
Folglich ist es sinnvoll, die Analyse der Benutzer bereits möglichst früh, evtl. auch
im Rahmen der stetigen Benutzerpartizipation, in den Softwareerstellungsprozess
mit einzubeziehen.
Die Möglichkeiten der Klassifizierung von Methoden zur Evaluation von Soft-
waresystemen sind vielseitig, ein Ansatz ist in PIEPENBURG u. RÖDIGER (1989)
Ergonomische Gestaltung 1095
tural) Goals, Operators, Methods und Selection Rules (Language) oder das KLM
(Keystroke Level Model) (DIAPER et al. 2004). Wesentlicher Nachteil derartiger
Simulatoren ist, dass bis heute nur determinierte Arbeitsabläufe beschrieben wer-
den können. Dies ist bei einer Vielzahl von Arbeitsaufgaben nicht möglich, da
beim Benutzer ein hohes Maß von Autonomie in der Aufgabenausführung vor-
liegt. Selbst „weich“ formulierte Benutzermodelle (z.B. FUZZY-GOMS,
KARWOWSKI et al. 1990) bieten hier nach aktuellem Stand der Forschung nur
wenig Abhilfe.
Experimentelle Methoden versuchen dagegen, mit „realen“ Benutzern und
„echten“ Aufgaben fertige Softwareprodukte oder -prototypen im Einsatz zu be-
werten. Summative Verfahren dienen dabei der Feststellung und der Dokumenta-
tion eines Qualitätsstandards eines Prototypen oder eines fertigen Produktes am
Ende eines Entwicklungsprozesses oder bei modularisierten Produkten für einzel-
ne Softwareelemente an markanten Zwischenstufen. Jede größere Softwarefirma
unterhält heutzutage eigens dafür aufgebaute „Usability Labs“. Mit zum Teil un-
terschiedlichem Aufwand an Versuchsmethodik (Beobachtung, Befragung, Mess-
protokolle wie Keystroke-Protokolle, Bildschirmmitschnitte etc.) wird versucht,
das Benutzerverhalten bei der Aufgabenbearbeitung möglichst präzise zu erfassen,
zu interpretieren und gegebenenfalls Rückschlüsse auf ergonomische Defizite in
der Softwaregestaltung zu ziehen. Wesentliches Problem dabei ist, dass zwar die
Eingabe und die Ausgabe von Informationen erfasst werden kann, aber auf die
mentalen Leistungen des Benutzers nur schwer Rückschlüsse gezogen werden
können. Methoden wie „lautes Denken“ der Probanden oder die nachträgliche
Konfrontation des Benutzers mit aufgezeichnetem Videodokumentationsmaterial
und eine entsprechende Befragung (Videoselbstkonfrontation) sind Methoden, die
hier tiefere Erkenntnisse liefern sollen. Problematisch ist dabei häufig der anfal-
lende Analyse- und Auswertaufwand, weshalb diese empirischen Evaluationsme-
thoden, deren Ergebnisse zwar valide sein können jedoch mit sehr hohem Auf-
wand verbunden sind, nur gezielt eingesetzt werden sollten. Eine detaillierte Dar-
stellung von Methoden des sog. Usability-Engineerings, die auch zur ergonomi-
schen Beurteilung von Software eingesetzt werden können, findet sich in Kapitel
10.2.1.3.2.4. Darüber hinaus können die bereits in Kapitel 3.3.3 ausführlich darge-
stellten Verfahren zur Bewertung der menschlichen Informationsverarbeitung
genutzt werden, um informatorische Engpässe beim Softwarebenutzer zu identifi-
zieren.
10.2.2.3 KommunikationĆzwischenĆBenutzerĆundĆEntwicklerĆ
Die Arbeit mit Softwaresystemen sollte nicht durch die Sichtweise des Entwick-
lers sondern durch den Benutzer des Systems bestimmt werden. Gemäß einer
Erhebung der Standish Group (STANDISH GROUP INTERNATIONAL 1999) ist
diese Maßnahme mit einem Beitrag von 20% zum Projekterfolg die wichtigste.
Eine frühzeitige Kommunikation von Entwickler und Benutzer erhöht die Akzep-
tanz und spart in der Regel Kosten, da schon vor der eigentlichen Entwicklungs-
Ergonomische Gestaltung 1097
10.2.3.1 VirtuelleĆProduktentwicklungĆ
Immer kürzer werdende Entwicklungsphasen erfordern neuartige Entwicklungs-
prozesse. Bereits während der Konstruktionsphase, d.h. weit vor ersten Versuchen
mit realen Prototypen, müssen zuverlässige Erkenntnisse über die späteren Pro-
dukteigenschaften vorliegen. Durch die Verteilung von Kompetenzen und Spezia-
lisierungen innerhalb des Produktentwicklungsprozesses ist es dabei notwendig,
nicht nur unternehmensinterne, sondern auch unternehmensübergreifende räumli-
che und zeitliche Separationen und Distributionen zu überwinden (KUHN u.
SCHLICK 2007).
Die virtuelle Produktentwicklung ermöglicht es, auf der Basis von Simulatio-
nen die Eigenschaften eines Produkts oder einzelner Teile frühzeitig zu erkennen
und zu bewerten, ohne auf ein reales Modell angewiesen zu sein. Sie ist ein integ-
raler Bestandteil des Product Lifecycle Management (kurz: PLM) (ARNOLD et al.
2005). Unter einem PLM-System wird dabei in erster Linie ein informationstech-
nologischer Ansatz verstanden, bei dem alle Bereiche und Systeme eines Unter-
nehmens, die mit dem oder den Produkt(en) in Berührung kommen, auf eine kon-
solidierte und konsistente Datenbasis zugreifen. In einem erweiterten Kontext
ergibt sich daraus eine Unternehmensstrategie, die es einem global agierenden
1098 Arbeitswissenschaft
Abb. 10.88: CAD-Arbeitsplatz, simultaner Einsatz von Space Ball und Maus zur Geomet-
riemodellierung (Quelle: SolidWorks, 2008)
dabei die gleichen Algorithmen verwenden, so dass die Übersetzung der Daten
reibungslos verläuft. Kennzeichnend für CAID ist eine im Vergleich zu herkömm-
lichem CAD erweiterte Palette an Eingabegeräten, z.B. ein Grafiktablett.
CAD-Rohdaten werden zur Weiterverarbeitung in Informationssystemen ande-
rer Funktionsbereiche (CAE, CAM, CAPP) in der Regel entsprechend weiter
aufbereitet, um Informationen zu extrahieren bzw. das Datenvolumen zu reduzie-
ren. So werden bspw. Polygonflächen durch die sog. Tessellierung in eine große
Anzahl von primitiven Flächen (z.B. Dreiecke oder Vierecke) zerlegt, da solche
Flächen leichter zu handhaben sind als komplexe – insbesondere konkave – Poly-
gone.
Abb. 10.90: Digital Mock-Up inklusive Mensch-Modell (Quelle: Dassault Systèmes 2008)
1102 Arbeitswissenschaft
10.2.3.1.2.4 Strömungssimulation
In Strömungssimulationen wird das physikalische Verhalten von Fluiden simu-
liert, wobei unter einem Fluid eine Substanz verstanden wird, die einer beliebigen
Scherspannung keinen Widerstand entgegengesetzt, so z.B. Gase und Flüssigkei-
ten. Eine etablierte mathematische Herangehensweise zur Realisierung einer
1104 Arbeitswissenschaft
(siehe Kap. 10.3.2.6). Wichtiges Merkmal ist dadurch ein weitgehender Verzicht
auf herkömmliche papiergebundene Datenträger (Zeichnungen, gedruckte Ferti-
gungsanweisungen etc.), um eine unmittelbare Kopplung an Maschinen und Anla-
gen zu erreichen. Zusätzlich zur Maschinensteuerung wird eine vorbereitende
Unterstützung, z.B. bei der Verwaltung und Bereitstellung von Rohstoffen, Roh-
teilen und Hilfsstoffen sowie Einzelteilen angestrebt. Die Mitarbeiter in der Ferti-
gung bekommen dadurch Fertigungspläne und Arbeitsschritte direkt am Arbeits-
platz zur Verfügung gestellt und können verschiedene Statusinformationen wie
(z.B. Verfügbarkeit und Bereitstellungszeitpunkte) von Verbrauchsmaterialien
abrufen und Fertigungsmaschinen ggf. programmieren (siehe Abb. 10.94). Dann
können Bearbeitungsschritte initiiert werden und Ergebnisse unmittelbar in ange-
bundene Systeme, wie z.B. Produktionsplanung und -steuerung (kurz PPS)
(SCHUH 2006), eingespeist oder für die rechnerunterstützte Qualitätssicherung
(kurz CAQ) (PFEIFER u. THEIS 1995) bereitgestellt werden.
Abb. 10.95: Rapid Prototyping in der Medizintechnik (Quelle: HFZ Basel 2008)
10.2.3.2 VirtuelleĆProzess-ĆundĆFabrikplanungĆ
10.2.3.2.1 Computer Aided Process Planning (CAPP)
In der heutigen Fertigungsindustrie spielen die kritischen Erfolgsfaktoren Markt-
reife und Produktionsvolumen eine zentrale Rolle, da sich die Unternehmen, die
leistungsfähige und flexible Produktionsprozesse in kürzester Zeit einführen kön-
nen, einen besonderen Wettbewerbsvorteil sichern können. Eine gründliche und
schnelle Prozessplanung ist Voraussetzung hierzu. Dies kann dadurch geschehen,
dass mögliche Szenarien von Fertigungsprozessen und Montagesequenzen schnell
vorab virtuell anschaulich definiert, beurteilt und verglichen werden. Dabei kön-
nen gleichzeitig Fertigungslinien abgetaktet, bzgl. ihres Durchsatzes und ihrer
Ergonomische Gestaltung 1107
Ziel ist ein Prozessplan, der eine genaue Beschreibung beinhaltet, wie ein Pro-
dukt hergestellt, montiert, geprüft und verpackt wird. Dieser Plan kann dann die
Grundlage für eine Zusammenarbeit von Planungsteams, Unternehmen, Lieferan-
ten und Fremdfirmen sein.
10.2.3.2.2 Computer Aided Plant Planning
Die Planung einer modernen Fabrik inklusive aller Anlagen, Maschinen und Ver-
sorgungsleitungen ist eine komplexe Aufgabe. Dennoch sollten alle Details schon
in der Planung möglichst optimal aufeinander abgestimmt sein. Jeder nachträgli-
che Umbau auch nur einer Maschine kann sich nachhaltig auf die Investitions-
summe auswirken. Um einen optimalen Anlauf der Produktion und einen sicheren
Betrieb gewährleisten zu können, nutzen Fabrikplaner deshalb zunehmend digitale
Werkzeuge und virtuelle Methoden (s. Abb. 10.97). Dabei ist es aus arbeitswis-
senschaftlicher Sicht notwendig, auch menschliche Aspekte in das Produktions-
management zu integrieren (SCHLICK 1999; ZÜLCH et al. 2005). Mit Hilfe eines
passenden Simulationsmodells können in Abhängigkeit der geplanten Ressourcen
Kenngrößen wie Durchsatz, ausreichende Dimensionierungen, Durchlaufzeiten,
Leistungsgrenzen, Störeinflüsse, Personalbedarf und sonstige Planungsparameter
1108 Arbeitswissenschaft
10.3.1 Produktgestaltung
10.3.1.1 GrundlagenĆ
Begriffe
Die in diesem Kapitel verwendeten Begriffe werden im Folgenden kurz erläutert:
x Produkt: Ein Produkt soll hier verstanden werden als das Objekt, mit dem der
Mensch (=Benutzer) interagiert, um ein Ziel zu erreichen.
x Benutzer: Der Mensch, der mit einem Produkt arbeitet, wird als Benutzer be-
zeichnet.
Ergonomische Gestaltung 1109
10.3.1.2 BeschreibungĆdesĆProduktgestaltungsprozessesĆ
Für die Durchführung der Produktgestaltung wurden unterschiedliche Ansätze
entwickelt, die diesen Prozess formal und systematisch begleiten. Alle diese An-
sätze verfolgen das Ziel, ein Produkt zu schaffen, das festgelegte Anforderungen
erfüllt. Für sozio-ökonomisch-technische Prozesse sind die Methoden der System-
technik von besonderer Bedeutung (PAHL et al. 2007). Die Systemtechnik stellt
Methoden, Verfahren und Hilfsmittel zur Verfügung, die die Analyse, Planung
und Auswahl von Lösungen mit dem Ziel der optimalen Gestaltung komplexer
Systeme unterstützen. Sie wurden bereits bei der Darstellung des Arbeitssystems
in Kapitel 1.5.1.1 verdeutlicht. Im Folgenden werden zwei Vorgehensmodelle
beschrieben, die die Produktgestaltung mit unterschiedlichen Schwerpunkten
beschreiben – benutzerorientiert und technikorientiert.
Benutzerorientierter Produktgestaltungsprozess
Als Basis für die benutzerorientierte Betrachtung der Produktgestaltung dient das
in der internationalen Norm DIN EN ISO 13407 beschriebene Vorgehen (Abb.
10.98). Dieses ist generell gut geeignet, um bei der ergonomischen Entwicklung
von Produkten den Menschen als Benutzer zu berücksichtigen, obwohl in der
Norm eigentlich nur die Vorgehensweise für die gebrauchstaugliche Gestaltung
von Hard- und Softwarekomponenten interaktiver Systeme festgelegt wurde. Der
benutzerorientierte Produktgestaltungsprozess ist eine interdisziplinäre Aktivität,
die sowohl menschbezogene als auch technische Erkenntnisse berücksichtigt.
Dabei wird dieser Gestaltungsprozess als Ergänzung zu anderen bestehenden
Konzepten und Verfahren verstanden und dient vor allen Dingen der effektiven
sowie rechtzeitigen Festlegung der benutzerorientierten Gestaltungsaktivitäten.
Der benutzerorientierte Gestaltungsprozess zeichnet sich dadurch aus, dass die
Benutzer aktiv beteiligt werden und ein klares Verständnis von Benutzer- und
Aufgabenanforderungen vorliegt. Durch die Beteiligung von Benutzern und Ex-
perten wird Wissen über den Nutzungskontext und die zu erfüllenden Arbeitsauf-
gaben erlangt sowie Erkenntnisse darüber, wie die Benutzer mit dem zukünftigen
Produkt arbeiten werden. Als Experten werden hier Personen verstanden, die sich
1112 Arbeitswissenschaft
1 2
0 Nutzungskontext
Benutzer-
identifizieren:
Projektstart • Benutzer
anforderungen
• Arbeitsaufgabe festlegen
• Umgebung
nicht
5 okay
Projektziel 4 3
Technikorientierter Produktgestaltungsprozess
Der im Maschinenbau entstandene Ablauf des Entwicklungs- und Konstruktions-
prozesses nach PAHL et al. (2007) stellt das in der VDI Richtlinie 2221 festgelegte
allgemeine, branchenunabhängige Vorgehen ausführlich dar. Der von PAHL et al.
(2007) geprägte Prozess geht detailliert auf das Entwerfen von Gestaltungslösun-
gen ein und ist daher eine geeignete Ergänzung des benutzerorientierten Gestal-
tungsprozesses nach DIN EN ISO 13407.
Der Entwicklungs- und Konstruktionsprozess wird in die Hauptphasen
(1) Planen und Klären der Aufgabe,
(2) Konzipieren,
(3) Entwerfen und
(4) Ausarbeiten
unterteilt, was einer Festlegung von Information, Prinzip, Gestaltung und Herstel-
lung entspricht (Abb. 10.99). Eine scharfe Trennung der Phasen ist in der Praxis
jedoch in der Regel nicht möglich. Die Hauptphasen werden jeweils mit einer
Entscheidung abgeschlossen, die ein Arbeitsergebnis nach einer entsprechenden
qualitativen Beurteilung definitiv abschließt und weitere erforderliche Hauptpha-
sen oder Arbeitsschritte freigibt. Das Ergebnis eines Entscheidungsschrittes kann
auch ein erneutes Durchlaufen einer Iterationsschleife sein, wenn das vorliegende
Ergonomische Gestaltung 1115
Arbeitsergebnis noch nicht hinreichend ist. Auch in diesem Prozess kommt ein
interdisziplinär zusammengesetztes Team zum Einsatz. In der VDI Richtlinie 2242
Bl.1 ist festgehalten, welche ergonomischen Aspekte in diesen vier Phasen zu
berücksichtigen sind. Blatt 2 dieser Richtlinie gibt einen Überblick über relevante
Literatur zu ergonomisch wichtigen Erkenntnissen, allerdings auf dem Stand von
1986.
In der Phase Planung und Klärung der Aufgabenstellung werden Informationen
über die Anforderungen, die an das Produkt im Einzelnen gestellt werden, und
über die bestehenden Randbedingungen sowie deren Bedeutung beschafft. Als
Ergebnis wird eine Anforderungsliste erstellt, die während des gesamten Entwick-
lungsprozesses aktualisiert werden muss.
Das Konzipieren umfasst die prinzipielle Festlegung einer Lösung. Diese wird
nach Klärung der Aufgabenstellung durch Abstrahieren auf die wesentlichen
Probleme, Aufstellen von Funktionsstrukturen und durch Suche nach geeigneten
Wirkprinzipien und deren Kombination in einer Wirkstruktur erreicht. Die Ge-
samtfunktion wird dabei in Teilfunktionen niedrigerer Komplexität aufgegliedert,
für die jedoch nicht voneinander unabhängig Lösungen gesucht werden, die Ver-
knüpfung der Teilfunktionen ergibt die Funktionsstruktur. Für die Teilfunktionen
werden Wirkprinzipien gesucht, die später zu einer Wirkstruktur zusammengefügt
werden und aus der bei weiterer Konkretisierung die prinzipielle Lösung entsteht.
Das Wirkprinzip enthält den für die Erfüllung einer Funktion erforderlichen phy-
sikalischen Effekt sowie die geometrischen und stofflichen Merkmale. Die gefun-
denen Lösungsvarianten werden anhand der Kriterien aus der Anforderungsliste
beurteilt und es wird entschieden, welche Varianten weiter verfolgt werden.
Beim Entwerfen wird die Baustruktur erarbeitet, ausgehend von den eher quali-
tativen Konzepten wird die Gestaltung konstruktiv festgelegt. Oftmals werden
mehrere Entwürfe angefertigt und bewertet. Dabei handelt es sich in der Regel um
einen iterativen Prozess, in dem die Entwürfe auf Grundlage der Bewertungen
sowie durch Teillösungen aus alternativen Entwürfen verbessert werden. Ab-
schließend wird die Entscheidung für die Gestaltung des endgültigen Gesamtent-
wurfs gefällt.
In der abschließenden Phase des Ausarbeitens werden herstellungstechnische
Details der Baustruktur festgelegt.
Der in Abb. 10.99 dargestellte technikorientierte Gestaltungsprozess umfasst
per se nicht die Herstellung von Modellen und Prototypen, die für die Analyse und
Bewertung der Mensch-Technik-Interaktion genutzt werden können. Diese sollten
zur Informationsgewinnung immer dort eingesetzt werden, wo sie Entwicklungs-
entscheidungen verbessern und beschleunigen können, oftmals bereits in der Kon-
zeptphase (siehe Kapitel 10.2.3).
1116 Arbeitswissenschaft
Benutzerorientierter Technikorientierter
Gestaltungsprozess Gestaltungsprozess
2 Benutzeranforderungen festlegen
Entwerfen 3
10.3.1.3 AnwendungĆdesĆProduktgestaltungsprozessesĆinĆderĆPraxisĆ
Im Folgenden wird der benutzerorientierte Gestaltungsprozess aus ergonomischer
Sicht anhand unterschiedlicher Beispiele veranschaulicht. Die ausgewählten Bei-
spiele stammen aus den Anwendungsbereichen Medizintechnik und Fahrzeug-
technik, sie beziehen sich auf unterschiedliche Produktarten in unterschiedlichen
Phasen des Entwicklungsprozesses (Neuentwicklung, Weiterentwicklung, Funk-
tionserweiterung). Anhand dieser Beispiele wird gezeigt, dass der hier beschriebe-
ne Produktgestaltungsprozess für eine Vielfalt an Produkten gilt und somit in allen
Phasen der Entwicklung bzw. der Weiterentwicklung bei einer erfolgreichen Be-
rücksichtigung des Benutzers systematisch angewendet werden kann.
Abb. 10.103: Beispiele von untersuchten Schnittstellen für Dental Röntgengeräte (Sirona)
Ergonomische Gestaltung 1121
ergibt sich auch auf der Benutzerseite: Neben routinierten Vielbenutzern gibt es
auch eine ganze Reihe an Gelegenheitsnutzern, für die das Pipettieren nur einen
kleinen Teil ihres Aufgabenspektrums ausmacht.
Ergänzend wurde die Pipettiertätigkeit mit 11 unterschiedlichen Pipetten im
Labor mit ungeübten Probanden sowie Experten analysiert. Dabei wurden folgen-
de Daten erhoben: Charakteristik der Benutzer (z.B. Abmessungen der Hand,
Daumenkraft), Beschreibung der Pipette (z.B. Abmessungen, Kraft-Weg-Verlauf),
Akzeptanz der Benutzer (z.B. Griff-Form, Bedien-/Hubweg), elektromyographi-
schen Aktivität von für das Pipettieren relevanten Muskeln an der Hand und Be-
wegungstrajektorien der Finger. Anhand der Ergebnisse dieser Laborversuche
konnten detaillierte Anforderungen an die Neuentwicklung abgeleitet werden.
Die durchgeführten Analysen haben gezeigt, dass die Einsatzgebiete der Pipet-
ten, Nutzungshäufigkeiten und -dauern sowie die Pipetten-Benutzer sehr unter-
schiedlich sind. Dementsprechend war zu prüfen, ob die sich daraus ergebenden
Anforderungen alle mit einem Produkt abgedeckt werden können oder für unter-
schiedliche Anwendungsfälle auch verschiedene Pipettenkonzepte zu entwickeln
sind. Für die Analyse der abzudeckenden Anwendungsfälle wurde das in Abb.
10.105 dargestellten Positionierungsmodell erstellt, in dem die Benutzergruppen
und Anwendungsgebiete (Tabelle 10.14) in Zusammenhang gesetzt sind.
Vielbenutzer
üllung
es
Massenbefü
hochspezialisierte
Arbeiten
Allgemeingebrauch
aufgaben- handlungs-
orientiert orientiert
akademisches
Pipettieren
Wenigbenutzer
keitsbeschreibung visuell konkretisiert. Ergebnis der ersten Phase war eine verbale
Konzeptformulierung, hier wurden vier unterschiedliche Pipettenkonzepte festge-
legt. In der zweiten Phase wurden erste Modelle aufgrund der festgelegten Benut-
zeranforderungen entworfen, mit Experten diskutiert und einem Auswahlprozess
unterworfen. Anschließend wurden drei Konzepte für eine Weiterentwicklung im
Rahmen der finalen Entwurfsphase ausgewählt (Phase 3). Beispielhaft wird im
Folgenden einer der endgültigen Entwürfe weiter betrachtet.
Dieses Pipettenkonzept ist für Vielbenutzer, die Erfahrung im Umgang mit Pi-
petten haben und im Sitzen oder Stehen arbeiten, ausgelegt. Geeignet ist dieses
Produkt insbesondere für das mehrkanalige Befüllen von Titerplatten. Folgende
ergonomische Gestaltungsmerkmale wurden bei dieser Pipette realisiert:
x Griffform basierend auf Analysedaten
x Vollsymmetrischer Griff und Funktionselemente erlauben rechts- und links-
händige Nutzung
x Weicher Gel-Griff minimiert Druckstellen und Ermüdung an den Händen
x Breiter, abgerundeter Pipettierknopf verhindert Druckstellen am Daumen
x Erhöhter Handanschlag und Kuhle verkürzen Daumenweg
x Entlastung des Daumens durch Kombination von Daumenknopf und Ab-
wurfhebel
x Individuelle Einstellbarkeit des Winkels, der Situation und persönlichen Nei-
gung entsprechend.
(4) Gestaltungslösungen bewerten
Ziel dieses Bewertungsprozesses war es, erste Erfahrungen bei der Nutzung dieser
neuartigen Pipetten zu sammeln und zu prüfen, ob sich die ergonomischen Gestal-
tungsdetails auch in der Praxis bewähren. Die Ergebnisse sollten Basis für eine
Optimierung der Pipetten sein, bevor diese in Serie hergestellt werden. Dazu wur-
den die drei Pipettenkonzepte als Prototypen gebaut und im Rahmen von Ver-
suchsreihen im Labor bewertet. Insgesamt wurden für jede Pipette 12 Probanden
entsprechend dem definierten Nutzerkollektiv eingesetzt. Es wurden dieselben
Daten wie bei dem zur Analyse des Nutzungskontextes durchgeführten Laborver-
such erhoben. Somit konnten die in dieser Phase erhobenen Daten mit den Refe-
renzdaten aus Phase 1 verglichen und der ergonomische Nutzen quantifiziert wer-
den. Die Ergebnisse haben gezeigt, dass sich die drei Konzepte insgesamt sehr gut
bewährt haben, kleinere Details der Gestaltung wurden nochmals überarbeitet.
die bis zum Stillstand des Fahrzeugs aktiv bleiben und unter bestimmten Randbe-
dingungen auch wieder selbständig anfahren können. Mit dieser technischen Ent-
wicklung ist es dem Fahrer möglich, mit einem aktiven ACC in „Stop and Go“
Situationen oder in der Stadt zu fahren.
Die erweiterte Funktionalität wirft die Frage auf, ob die für den Geschwindig-
keitsbereich über 30 km/h entwickelte Schnittstelle, insbesondere die angezeigten
Informationen, auch für den Niedriggeschwindigkeitsbereich mit anderen Fahr-
umgebungen geeignet ist. Zur Klärung dieser Frage müssen die ersten zwei Akti-
vitäten des benutzerorientierten Gestaltungsprozesses (Klärung des Nutzungskon-
textes und der Benutzeranforderungen) durchgeführt werden (ABENDROTH et al.
2005; DIDIER et al. 2008). In Abhängigkeit der Ergebnisse der ersten Analysen wird
dann entschieden, ob die nächsten zwei Aktivitäten des Entwicklungsprozesses,
Entwerfen und Bewerten, durchgeführt werden müssen.
(1) Nutzungskontext identifizieren
In dieser ersten Phase ist die Präzision der Analyse des Nutzungskontextes beson-
ders wichtig. Auf den ersten Blick bewirkt die Funktionserweiterung von über 30
km/h auf unter 30 km/h für den Benutzer bzw. seine Tätigkeit keine großen Ände-
rungen. Bei der Nutzungsumgebung sind die Modifikationen von größerer Bedeu-
tung, weil das System unter bestimmten Randbedingungen das Fahrzeug selbstän-
dig wieder anfahren lässt. Damit wird die Hauptanforderung für das Fahren in
Städten erfüllt. Dieses unterscheidet sich hinsichtlich der Bedingungen wesentlich
von Autobahnfahrten, die bisher die Hauptnutzungsumgebung von ACC-
Systemen darstellten. Dadurch wird auch zum Teil die Tätigkeit des Fahrers modi-
fiziert: Der Fahrer muss bei der Handlung „Wieder-Anfahren“ (z.B. an der Am-
pel) verstanden haben, ob die Randbedingungen des ACC-Systems für ein „auto-
nomes Wieder-Anfahren“ (z.B. Stillstand des Fahrzeugs kürzer als 2 Sekunden)
erfüllt sind oder nicht. Wenn nicht, muss der Fahrer die Handlung selbst überneh-
men. Eine weitere wichtige Änderung des Nutzungskontexts ergibt sich aus der
Komplexität der Fahrumgebung, insbesondere aus der Anzahl der für die Fahrtä-
tigkeit relevanten visuellen Informationen. Die entsprechende Belastung des visu-
ellen Kanals aufgrund der komplexen Verkehrsumgebung könnte die Aufnahme
von ACC-Informationen auf einem Display im Tachobereich beeinflussen bzw.
erschweren.
(2) Benutzeranforderungen festlegen
Die Benutzeranforderungen derart komplexer Systeme können nicht nur durch
Befragungen erschlossen werden, da es speziell in diesem Bereich dem potenziel-
len Nutzer schwer fällt, sich theoretische Konstrukte vorzustellen. Zur Erhebung
von realistischen Anforderungen wird empfohlen, Experten des Systems bzw.
erfahrene Benutzer zu befragen und, wenn möglich, ähnliche Produkte zu testen.
Die getesteten Produkte sind dann bei der Analyse als Referenz zu betrachten. Für
die Ableitung von Benutzeranforderungen wurden zwei erweiterte ACC-Systeme
durch Experten überprüft, dabei haben sich zwei Einflussfaktoren herausgestellt:
1126 Arbeitswissenschaft
Bei der Bewertung der neuen Lösungen ist darauf zu achten, dass diese mit den
„traditionellen“ und den a priori schlechteren Lösungen verglichen werden. Des-
halb wurde ein klassischer Tacho (Head-Down) gegenüber zwei neuen Lösungen
(Head-Up) getestet. Die Art der Information wurde ebenfalls untersucht. Abb.
10.107 zeigt Beispiele der getesteten Darbietungen.
Die auszuwertenden Daten wurden mit Hilfe von Fragebogen und Interview er-
hoben, außerdem wurde eine qualitative Analyse durchgeführt. Die Ergebnisse
haben bezüglich der Darbietungsorte (Abb. 10.108) bzw. -arten für viele der An-
zeigenalternativen klare Präferenzen der Nutzer gezeigt, die als Anforderungen für
die Entwicklung zukünftiger Niedriggeschwindigkeitsbereich-ACC-Systeme die-
nen können. Zunächst nicht verwertbare Ergebnisse sollen nach einer Überprüfung
der Relevanz der Entwurfslösung, noch einmal überprüft werden, idealerweise im
realen Verkehr. Mit der Umsetzung der Ergebnisse der Phase 4 „Bewertung“ in
konkrete Anforderungen endet der Produktentwicklungsprozess.
Die exemplarischen Ergebnisse in Abb. 10.109 zeigen, dass die Funktion „Set
Speed“ in Kurven sowie bei Kreuzungen mit Ampeln im Gegensatz zu Autobahn-
Situationen nicht als „wichtig“ beurteilt wird, „Erkennen Zielfahrzeug“ wird in
allen drei Situation als eine wichtige Information bewertet. Unter Berücksichti-
gung der Tatsache, dass der Mensch beim Fahren nur eine begrenzte Anzahl an
Informationen zusätzlich aufnehmen kann, können solche Ergebnisse die Auswahl
der anzuzeigenden Informationen unterstützen.
Ergonomische Gestaltung 1129
Warnung
Deaktiviert
Verlust Zielfahrzeug
Erkennen Zielfahrzeug
Abstand Zielfahrzeug
Geschwindigkeit
System Status
Wunschabstand
Wunschgeschwindigkeit
1 2 3 4 51 2 3 4 51 2 3 4 5
Abb. 10.109: Frage: Wie wichtig sind die folgenden Informationen in diesen Fahr-
situationen? [1= nicht wichtig bis 5=sehr wichtig] - Mittelwert über alle Probanden
Fazit
Diese Beispiele zeigen, dass der Identifizierung des Nutzungskontextes eine große
Bedeutung zukommt, da dieser sehr unterschiedlich sein kann und somit sich auch
unterschiedliche Anforderungen der Benutzer ergeben können. In solchen Fällen
muss geprüft werden, ob die Anforderungen unterschiedlicher Nutzer in einem
Produkt umgesetzt werden können oder unterschiedliche Produkte bzw. Schnitt-
stellen für die verschiedenen Nutzergruppen entwickelt werden sollten. Falls ein
Produkt unterschiedliche bzw. widersprüchliche Anforderungen, z.B. für sehr
unterschiedliche Nutzergruppen, erfüllen soll, ist es besonders wichtig, dass die
Anforderungen gewichtet werden. Bei ergonomischer Gestaltung werden die An-
forderungen aller Nutzer berücksichtigt; ist dies nicht möglich, haben die Anfor-
derungen der „schwächsten“ Nutzer Priorität.
10.3.2 Produktionsgestaltung
Belastungen vorwiegend körperlicher Arbeit und ihre Auswirkungen stellen wei-
terhin ein großes Problemfeld für produzierende Betriebe, die Volkswirtschaft und
für die Arbeitspersonen selbst dar (LAWACZECK 2001), das durch die im Folgen-
den erläuterten Gestaltungsmethoden systematisch durchdrungen und einer pro-
duktionsergonomischen Lösung zugeführt werden kann. Zur methodisch geleite-
ten Gestaltung von Arbeitssystemen in der Produktion mit überwiegend informa-
torischer Arbeit sei generell auf Kapitel 10.1.2 verwiesen. Darüber hinaus finden
sich einige ausgewählte Beispiele zur ergonomischen Gestaltung von Mensch-
Maschine-Schnittstellen für die automatisierte Produktion in Kapitel 10.3.2.6.
1130 Arbeitswissenschaft
10.3.2.1 GrundlagenĆ
Begriffe
x Produktentstehungsprozess (PEP): Umfasst alle zur Planung und Herstellung
eines Produktes notwendigen Prozesse und Abläufe.
x Produktionsgestaltung: Steht bei der Produktgestaltung (Kap. 10.3.1) die
Gestaltung von menschzentrierten Produkten im Vordergrund, so wird
innerhalb der Produktionsgestaltung vorrangig eine ergonomische
Arbeitsprozessgestaltung angestrebt.
x Prozess: Bezeichnet das zeitliche und räumliche Zusammenwirken von Men-
schen, Arbeitsobjekten sowie Arbeits-/Sachmittel, bei dem eine Transforma-
tion der Eingabe (Prozessinput) in die Ausgabe (Prozessoutput) vollzogen
wird.
x Quality Gate: Bezeichnet einen speziellen Meilenstein in einem Projekt, der
sich zwischen einzelnen Prozessphasen, welche auf besondere Weise von
den Ergebnissen der Vorphase abhängig sind, befindet. Jedes Gate beinhaltet
eine qualitative bzw. quantitative Prüfung der Ergebnisse der
vorhergehenden Phase innerhalb des Produktentstehungsprozesses.
x Risikoanalyse und -bewertung: Umfassende Einschätzung der
Wahrscheinlichkeit und des Schweregrades möglicher Verletzungen oder
Gesundheitsschädigungen, um so geeignete Sicherheitsmaßnahmen
auszuwählen (DIN EN 1005-1).
x Gefährdungsbeurteilung: Gehört nach §5 Arbeitsschutzgesetz (ArbSchG) zu
den Pflichten des Arbeitgebers mit dem Ziel, die Arbeitsbedingungen in
seinem Betrieb im Hinblick auf Gefährdungen für die Arbeitspersonen zu
beurteilen und notwendige Maßnahmen des Arbeitsschutzes daraus
abzuleiten.
10.3.2.2 ZieleĆundĆAnwendungsbereicheĆĆ
Eine traditionelle Art der Klassifikation von Ergonomie ist die Unterscheidung in
die Produktergonomie (siehe Kap. 10.3.1), welche die Benutzbarkeit von
Produkten im Fokus hat und in die Produktionsergonomie, die sich dem
ergonomiegerechten Herstellungsprozess von Produkten und Dienstleistungen
widmet. Alle arbeitswissenschaftlichen Konzepte und Modelle, wie sie in den
Grundlagenkapiteln beschrieben wurden, haben auch in der Produktionsergonomie
ihre Gültigkeit.
Ziel der Produktionsergonomie ist die humane und wirtschaftliche Gestaltung
menschlicher Arbeit in der Fertigung und Montage. Angesichts eines steigenden
Kostendrucks, hervorgerufen u.A. durch den globalen Wettbewerb und den
demografischen Wandel in Europa, lässt sich eine wirtschaftliche Produktion nur
noch durch eine effektive und effiziente Nutzung der „Ressourcen“ des Menschen
erreichen. Nach jahrzehntelanger technischer Optimierung in der industriellen
Fertigung reicht auch in der Produktionsergonomie eine korrektive
Ergonomische Gestaltung 1131
10.3.2.3 ErgonomieĆinnerhalbĆdesĆProduktentstehungsprozessesĆ
Zieht man beispielhaft die Automobil- und Zulieferindustrie heran, so gibt es je
nach Unternehmenskultur unterschiedliche Ausprägungen von sog.
Ganzheitlichen Produktionssystemen, die sich mehr oder weniger an dem
bekannten Toyota Produktionssystem (TPS) anlehnen (siehe Kap 4.4.2) z.B. das
Mercedes-Benz-Produktionssystem (MPS), die Arbeits- und Prozessorganisation
(APO) bei Volkswagen (IFAA 2008) oder das Bosch-Produktions-System (BPS)
bei der Robert Bosch GmbH. Allen ist gemeinsam, dass bereits bei der
Produktentwicklung der gesamte Wertschöpfungsprozess betrachtet wird. Die
Entwicklung neuer Produkte ist dabei oftmals in einem festen Prozess
niedergeschrieben. Im Produktentstehungsprozess werden die hierfür
erforderlichen Schritte auf einer Zeitachse beschrieben. An definierten Quality
Gates werden technische oder qualitative Erfüllungsgrade (Prozessziele) anhand
von Checklisten überprüft und ggf. Verbesserungsmaßnahmen durchgeführt. Im
ungünstigsten Fall einer „No-go“- Situation wird der Prozess angehalten, bis das
vorliegende Problem einer befriedigenden Lösung zugeführt ist.
Die frühzeitige Berücksichtigung ergonomischer Anforderungen im Prozess der
Produktentwicklung ist nicht zuletzt aus wirtschaftlicher Sicht dringend geboten.
Mittels frühzeitiger Vermeidung ungünstiger Arbeitsbedingungen lassen sich
Kosten senken und Qualitätsverluste vermeiden (LANDAU et al. 2003). Durch die
Berücksichtigung ergonomischer Forderungen für den Produktionsprozess bereits
in der Produktentwicklung kann dem Wunsch nach einer konzeptiven anstelle
einer korrektiven Ergonomie entsprochen werden.
Zur kontinuierlichen und umfangreichen Berücksichtigung der Ergonomie im
Produktentstehungsprozess wurde ein konzeptioneller Ansatz entwickelt, der sich
aus vier Modulen zusammensetzt (BRUDER et al. 2008). Ergänzt wird das 4-Modul
Konzept durch eine Bilanzierung und Steuerung der in den einzelnen Stufen
durchgeführten Maßnahmen (siehe Abb. 10.111).
Eine Grundvoraussetzung für die Berücksichtigung von ergonomischen Belan-
gen ist die Nutzung von Methoden zur Bewertung der Belastungssituation an
vorhandenen oder geplanten Arbeitsplätzen. In vielen Unternehmen liegen solche
Werkzeuge vor, die aber häufig noch an geänderte Arbeitsbedingungen angepasst
Ergonomische Gestaltung 1133
werden müssen (SCHAUB et al. 2008). In Kapitel 10.3.2.4 werden solche Werkzeu-
ge vorgestellt.
Abb. 10.111: 4+1 Module zur Integration der Ergonomie in den Produktentstehungsprozess
Aus Abb. 1.24 (Kap. 1.5.3.3) ist ebenfalls ersichtlich, dass die erhobenen ergo-
nomischen Daten in den einzelnen Phasen des Produktentwicklungsprozesses
nicht nur für den aktuellen Prozess (Model 1.0), sondern gerade auch für die Ge-
staltung zukünftiger Produkte (Model 1.x) genutzt werden können. Mit der
Schließung von möglichen Datenlücken zwischen der Entwicklung von Produkten
unterschiedlicher Generationen ergibt sich auch die Möglichkeit zur kontinuierli-
chen Verbesserung von Arbeitsprozessen und somit auch zur Verbesserung der
Produktivität.
In einem vierten Schritt der konzeptiven Einbindung der Ergonomie in den
Produktentwicklungsprozess erfolgt die Verbindung von Anforderungen der Ar-
beitssituation mit den Fähigkeiten von Arbeitspersonen. Die Betrachtung der Fä-
higkeiten kann im Einzelfall notwendig sein, weil für eine Arbeitsperson im Rah-
men einer Rehabilitationsmaßnahme (z.B. nach einem Arbeitsunfall) zu klären ist,
welche Tätigkeiten von ihr noch ausgeführt werden können. Aber es kann auch
sinnvoll sein, die aktuellen oder auch zukünftig vorhandenen Fähigkeiten von
Populationen von Werkern in Bezug zu den aktuellen und zukünftig geplanten
Anforderungen der Arbeitsplätze zu bringen. Dieser Vergleich zwischen den Ar-
beitsanforderungen eines neu gestalteten Produktionssystems und den vorherzuse-
henden Fähigkeiten des eigenen Personals in Zukunft wird zu einer wichtigen
Aufgabe für Unternehmen im Rahmen der Herausforderungen durch den demo-
graphischen Wandel (RADEMACHER et al. 2008).
10.3.2.4 BelastungsanalysenĆalsĆBasisĆfürĆGestaltungsansätzeĆ
Das Arbeitsschutzgesetz, aber auch die 9. Verordnung des Geräte- und
Produktsicherheitsgesetzes (nationale Umsetzung der EU-MASCHINENRICHTLINIE
98/37/EG, ehemals 89/392/EWG, künftig 2006/42/EG) erfordern schnell einsetzbare
und robuste Verfahren zur ergonomischen Gefährdungs- und Risikoanalyse, um
„flächendeckende“ Analysen zu ermöglichen. Dies gilt insbesondere auch für die
Aussagen der neuen MASCHINENRICHTLINIE 2006/42/EG, Anhang I, Ziffer 1.1.6,
dass bei bestimmungsgemäßer Verwendung Belästigung, Ermüdung sowie
körperliche und psychische Fehlbeanspruchung des Personals auf das mögliche
Mindestmaß unter Berücksichtigung ergonomischer Prinzipien reduziert sein
müssen. Gefährdungs- und Risikoanalysen zeigen ergonomischen
Handlungsbedarf in Bezug auf gesetzliche Vorgaben an und geben aufgrund der
erkannten Engpässe Hinweise zu Gestaltungsansätzen.
Auf der Basis verschiedener Methoden und Verfahren, wie z.B. der
Leitmerkmalmethode Heben, Halten, Tragen (LMM-HHT) der Bundesanstalt für
Arbeitsschutz und Arbeitsmedizin (BAuA) (STEINBERG u. WINDBERG 1997;
CAFFIER et al. 1999; STEINBERG et al. 2000, siehe auch Kap. 10.1.1.1), sind in den
vergangenen Jahren eine Reihe von praxisorientierten Belastungsbewertungs-
verfahren entwickelt worden, die im Sprachgebrauch als „Screening-Verfahren“
bezeichnet werden. Diese Verfahren wurden eigens für den Einsatz in der
Ergonomische Gestaltung 1135
Ähnlich wie die Leitmerkmalmethoden der BAuA vergeben die vom Institut
für Arbeitswissenschaft Darmstadt (IAD) entwickelten Screening-Verfahren
Belastungspunkte für ergonomisch ungünstige Belastungssituationen. Die Summe
der Belastungspunkte erhöht sich mit zunehmender Belastungsdauer und -höhe.
Alle Verfahren existieren als Papier- und Bleistiftverfahren. Einige Verfahren
stehen auch rechnergestützt zur Verfügung.
10.3.2.4.1 Personenorientierte Verfahren
Personenorientierte Verfahren wie die am Institut für Arbeitswissenschaft der TU
Darmstadt entwickelten IAD-BkA (Bewertung-körperlicher-Arbeit) (SCHAUB
2002), NPW (New-Production-Worksheet) (SCHAUB u. STORZ 2003; SCHAUB u.
KALTBEITZEL 2006) und AAWS (Automotive-Assembly-Worksheet) (SCHAUB
2004) berücksichtigen körperliche Belastungen in einer tätigkeitsorientierten
Klassifikation in Form von:
x Körperhaltungen und -bewegungen mit geringem Kraftaufwand (< 30-40 N
bzw. 3-4 kg)
x Aktionskräfte in realen Körperhaltungen oder Greifarten (> 30-40 N)
x Lastenhandhabungen in realen Körperhaltungen (> 3-4 kg).
Diese Gliederungssystematik orientiert sich an den national und international
verfügbaren Bewertungsverfahren.
Die in den drei aufgelisteten Kategorien eingestuften Belastungspunkte werden
zu einer Gesamtbewertung zusammengefasst. Dies ist die Basis für die
anschließende Bewertung.
Das European Assembly Worksheet (EAWS) (SCHAUB u. GHEZEL-AHMADI
2007) und das Verfahren zur Bewertung körperlicher Belastung (IAD-BkB)
(GHEZEL-AHMADI et al. 2007) berücksichtigen zusätzlich repetitive / kurz-
zyklische Belastungen der oberen Extremitäten. In Abb. 10.112 ist ein Ausschnitt
des EAWS dargestellt.
10.3.2.4.2 Arbeitsplatzorientierte Verfahren
Arbeitsplatzorientierte Verfahren berücksichtigen in ihrem Gestaltungsansatz
keine spezifischen anthropometrischen und biomechanischen Bevölkerungs-
perzentile, sondern berücksichtigen den für die ergonomische Gestaltung
relevanten Perzentilbereich der beabsichtigten Nutzerpopulation. Als Beispiel für
ein solches Verfahren wird im Folgenden der DesignCheck (DC) beschrieben
(WINTER et al. 1999, SCHAUB u. WINTER 2002).
Auf der Vorderseite des Bewertungsbogens findet sich ein Bewertungs-
diagramm, dessen Ordinate die Arbeitshöhe in stehender und sitzender Körper-
stellung darstellt. Seine Abszisse enthält eine physiologisch-biomechanische
Bewertungsskala dessen Punktwerte auf der Rückseite des Bogen ermittelt
werden. Dabei werden Ganzkörperbelastungen, Belastungen der oberen
Extremitäten sowie physisch relevante Belastungen aus der Arbeitsumgebung
berücksichtigt (siehe Abb. 10.113).
Ergonomische Gestaltung 1137
Abb. 10.112: Ausschnitt aus der EAWS Bewertung „Körperhaltungen mit geringem
Kraftaufwand“
1138 Arbeitswissenschaft
230
130
80
30
10 100 1000
Legend
'AVo'
Abb. 10.113: DesignCheck zur Bewertung eines Taktes an einem Arbeitsplatz. Die Rauten
stellen die Bewertung einzelner Arbeitsvorgänge (AVo) dar; das Quadrat ihre zeitlich
gewichtete Gesamtbewertung
Abb. 10.116: Ergebnisse aus Ergonomie Workshops (n=14) bei einem Automobilhersteller
benwischer von außen in einer gut zugänglichen Position montiert. Dabei erfolgte
der Einbau der Wischermechanik durch eine Öffnung in der Karosserie.
Als Ergebnis einer Änderung sollte die Öffnung der Karosserie vermieden wer-
den und stattdessen eine kleine Öffnung in der Heckscheibe für die Verbindung
von Wischermotor und Wischermechanik genutzt werden. Somit wurde der Ein-
bau der Wischermechanik aus dem Fahrzeuginnern heraus notwendig. Die be-
schriebene Arbeitssituation ist in Abb. 10.117 dargestellt.
Abb. 10.117: Simulation der Positionierung und Fügen als Folge einer Designänderung
(WINTER et al. 2007)
Eine Analyse der Arbeitssituation mit dem Verfahren Design Check (WINTER
et al. 1999, SCHAUB u. WINTER 2002) ergab eine hohe, zu vermeidende Belas-
tungssituation beim Einbau aus dem Fahrzeuginneren („rote Belastungssituation“
gemäß Ampelschema nach DIN EN 614-1).
Nach Rücksprache mit der Produktentwicklung wurde eine Änderung der ur-
sprünglich geplanten Lösung vorgenommen und die Öffnung der Heckscheibe
wurde wieder entfernt. Als Ergebnis der Änderung konnte der Heckscheibenwi-
scher-Motor von außen verbaut werden (siehe Abb. 10.118). Dies hat eine deutlich
verbesserte Körperhaltung für die Arbeitsperson zur Folge („grüne Belastungssi-
tuation“ gemäß DIN EN 614-1). Zudem kann die Heckscheibe nach der Änderung
automatisch gefügt werden, was zusätzlich eine Produktivitätsverbesserung zur
Folge hat (siehe auch WINTER et al. 2008).
Ergonomische Gestaltung 1143
Abb. 10.118: Auswirkung einer Produkt- und Prozessänderung auf die Körperhaltung des
Mitarbeiters
Eine problematische Situation stellte der Einbau des Heckraumdeckels bei einer
vorhandenen Montagelinie dar. Für die Montage des Heckraumdeckels sind hohe
Fingerkräfte erforderlich, um die Schlauchfeder auf die Zugfeder zu pressen und
hohe Armkräfte um die Zugfeder zum Einhängen zu dehnen. Wegen der notwen-
digen visuellen Kontrolle der Montagestelle mussten die Arbeitspersonen eine
starke seitliche Rumpfbeugung in Verbindung mit starker Rumpftorsion einneh-
men (siehe Abb. 10.120).
Abb. 10.120: Ehemalige Montage der Zugfeder mit hohen Finger- und Armkräften bei
seitlich gebeugtem und gedrehtem Rumpf
und Sensormodelle möglich, so dass eine Verifikation der Planung vor Ort erfol-
gen kann.
siehe Kap. 10.1.2.5.2). Hierbei wird darauf abgezielt, dass sowohl Mensch als
auch Maschine hinreichend genau abschätzen können, welche Absichten und
Pläne sich hinter dem Verhalten des jeweils anderen verbergen, und dass die Ma-
schine ähnliche Problemlösungsstrategien verfolgt wie der menschliche Operateur.
So soll z.B. eine kognitive Maschinensteuerung aufgrund ihrer kognitiven Simula-
tionsmodelle (kognitive Architektur auf der Basis von SOAR, siehe Kap.
3.3.2.2.5.2) und durch die Kooperation mit dem Operateur in die Lage versetzt
werden, den Fertigungsablauf unter sich ändernden Randbedingungen sowie un-
vollständigen Informationen fein zu planen und ggf. zu optimieren (BRECHER et
al. 2008). Hierfür werden u.A. Regelwerke in Form von Wenn-Dann-Konstrukten
verwendet (production rules), die situativ miteinander verknüpft werden. Ein
derartiges System wäre zunächst auf der höchsten Stufe der Automatisierung nach
SHERIDAN (2002) (siehe Kap. 10.1.2.5.1) anzusiedeln, die jedoch keine Koopera-
tion mit dem Menschen vorsieht (Abb. 10.46). Daher wurde eine Erweiterung des
Supervisory-Control-Modells notwendig, die in Abb. 10.125 wiedergegeben ist.
Durch die Modellerweiterung können u.A. (fein)planerische Funktionen auf die
kognitive Maschinensteuerung übertragen werden. Der Mensch nimmt jedoch
nach wie vor die Definition der Fertigungsziele, Randbedingungen (constraints)
und Prioritäten vor, und ihm steht durch die ergonomische Gestaltung der
Mensch-Maschine-Schnittstelle jederzeit die Möglichkeit zur (proaktiven) Inter-
vention in den Fertigungsprozess offen (SCHLICK et al. 2009, siehe Abb. 10.125).
Auftrag
Mensch MMS kognitive Steuerung
planen Aufgabe
i t i
instruieren
Programm planen
mentales Prozess-
Modell überwachen Prozess überwachen wissen
intervenieren intervenieren
nein direkt
möglich?
indirekt
lernen Ablauf lernen
Information
Abb. 10.125: Aufgabenteilung zwischen Mensch und kognitiver Steuerung (nach MAYER
et al. 2008, modifiziert; MMS: Mensch-Maschine-Schnittstelle)
chend der an ihn gerichteten Anforderungen hinsichtlich Zeit, Kosten und Qualität
Hardware-ergonomisch zu unterstützen. Dazu muss der Operateur, der zumeist
mehrere Fertigungsanlagen simultan zu überwachen hat, schnell und sicher in die
Lage versetzt werden, Fehler am Bauteil oder an der Anlage zu identifizieren, um
sie im nächsten Schritt beheben zu können. Hierbei können kopfbasierte Anzeigen
die Fehleridentifikation und -klassifikation wesentlich erleichtern (ODENTHAL et
al. 2009, SCHLICK et al. 2009). Ein exemplarisches Benutzungsbeispiel einer kopf-
basierten Anzeige in einer Roboterzelle für die kognitiv-automatisierte Montage
wird in Abb. 10.126 gezeigt.
10.4 Literatur
Chaffin DB (2005) Improving digital human modelling for proactive ergonomics in design.
Ergonomics, Vol. 48, Taylor & Francis, London
Chapanis A (1991) The business case for human factors in informatics. In: Shackel B,
Richardson S (Hrsg) Human Factors for Informatics Usability. University Press,
Cambridge
Coy W, Gorny P, Kopp I, Skarpelis D (1993) Menschengerechte Software als Wettbe-
werbsfaktor. BG Teubner, Stuttgart, Leipzig
Dassault Systèmes (2008) Digital Mock-up inklusive Mensch-Modell. www-306.ibm.com/
software/applications/plm/enovia/configs/dh2/
Diaper D, Stanton NA (Hrsg.) (2004) The Handbook of Task Analysis for Human–
Computer Interaction. Lawrence Erlbaum Associates.
Didier M, Schreiber M, Bruder R (2008) Nutzung und Informationsstrategie für ein Ab-
standsregelsystem mit erweiterten Funktionen bis zum Stillstand (ACC-Full Speed
Range) Useware 2008, Verfahrens- und Produktionstechnik, Engineering, Informati-
onspräsentation und Interaktionskonzepte, VDI-Berichte 2041. VDI Verlag GmbH,
Düsseldorf
Dodgson NA (1997) Autostereoscopic Displays: 3D Without Glasses. In: Proceedings of
Electronic Information Displays (EID), Esher, Surrey, S 18-20
Donath D, Schulte A (2006) Weiterentwicklungsmöglichkeiten kognitiver und kooperativer
Operateurassistenz: Ein Konzeptansatz für modellbasierte adaptive Automation. In:
Grandt M (Hrsg) Cognitive Systems Engineering in der Fahrzeug- und Prozessführung
(DGLR-Bericht 2006-02). Deutsche Gesellschaft für Luft- und Raumfahrt, Bonn
Duncker K (1935) Zur Psychologie des produktiven Denkens. Springer, Berlin
Eggerath J (2004) Aktuelle Themen der Virtuellen Realität: Autostereoskopische Displays.
Seminararbeit im Studiengang Informatik, Lehrstuhl für Hochleistungsrechnen,
RWTH Aachen
Eigner M, Stelzer U (2004) Produktdatenmanagement-Systeme. Springer, Berlin Heidel-
berg New York
Electrical Power Research Institute (1979) Human Factors Methods for Nuclear Control
Room Design (NP-118). Electrical Power Research Institute, Palo Alto, CA
Elias HJ, Istanbuli S (o. J.) Technische Hilfsmittel zur ergonomischen Arbeitsplatzgestal-
tung. Institut der deutschen Wirtschaft, Köln
Ellis SR, Begault DR, Wenzel EM (1997) Virtual Environments as Human-Computer
Interfaces. In: Helander M, Landauer TK, Prabhu P (Hrsg) Handbook of Human-
Computer Interaction. 2. Aufl. Elsevier, Amsterdam
Endsley MR (1995) Toward a Theory of Situation Awareness in Dynamic Systems. Human
Factors 37/1:32-64
Endsley MR, Kiris EO (1995) The Out-of-the-Loop Performance Problem and Level of
Control in Automation. Human Factors 37/2:381-394
Enterprise Dynamics (2008) Virtuelle Fabrikplanung. http://enterprisedynamics.com/
Faber G (2004) Sicherere Mensch-Maschine-Systeme durch hochqualifizierte Operatoren.
In: Grandt M (Hrsg) Verlässlichkeit der Mensch-Maschine-Interaktion (DGLR-Bericht
2004-03). Deutsche Gesellschaft für Luft- und Raumfahrt, Bonn
Fitts PM (1954) The Information Capacity of the Human Motor System in Controlling the
Amplitude of Movement. Journal of Experimental Psychology 47:381-391
Fitts PM (Hrsg) (1951) Human engineering for an effective air navigation and air traffic
control system. National Research Council, Washington DC
Flanagan JC (1954) The Critical Incident Technique. Psychological Bulletin 51/4:327–359
Flemisch F (1998) Human Factors Tool caSBaro: Alter Wein in neuen Schläuchen. In:
Gärtner KP (Hrsg) Anthropotechnik gestern - heute – morgen (DGLR-Bericht 98-02)
Deutsche Gesellschaft für Luft- und Raumfahrt. Bonn
Ergonomische Gestaltung 1155
Grandt M (2004a) Zur Erfassung und Bewertung der mentalen Beanspruchung mittels
psychophysiologischer Messverfahren. Dissertation, Bergische Universität Wuppertal.
Grandt M (Hrsg) (2004b) Verlässlichkeit der Mensch-Maschine-Interaktion (DGLR-
Bericht 2004-03). Deutsche Gesellschaft für Luft- und Raumfahrt, Bonn
Grandt M, Gärtner KP (Hrsg) (2002) Situation Awareness in der Fahrzeug- und Prozess-
führung (DGLR-Bericht 2002-04). Deutsche Gesellschaft für Luft- und Raumfahrt,
Bonn
Grandt M, Ley D (2008) Unterstützung von Entscheidungsprozessen durch benutzerzen-
trierte Gestaltung von Führungssystemen. In: Schmidt L, Schlick CM, Grosche J
(Hrsg) Ergonomie und Mensch-Maschine-Systeme. Springer, Berlin,
Grandt M, Witt O (2004) Benutzerzentrierte FüWES für die Deutsche Marine. In: Wunder
M, Koch W, Marquart D, Schlick C, Thielecke J (Hrsg), Festschrift zum 60. Ge-
burtstag von Dr. Jürgen Grosche, Bonn
Grandt M, Pfendler C, Mooshage O (2003) Empirical Comparison of Five Input Devices
for Anti-Air Warfare Operators. Proceedings of the 8th International Command and
Control Research and Technology Symposium (ICCRTS) on “Information Age Trans-
formation”, June 17-19, Washington DC, USA
Green DM, Swets JA (1966) Signal Detection Theory and Psychophysics. Wiley, New
York
Greil H (1995) Anthropometrische Grundlagen zur körperbauspezifischen Gestaltung von
rechnergestützten Mensch Modellen. In: Gärtner KP (Hrsg) Anthropometrische Cock-
pitgestaltung. 37. Fachausschusssitzung Anthropotechnik der Deutschen Gesellschaft
für Luft und Raumfahrt am 4. und 5. Oktober 1995 in Potsdam. Deutsche Gesellschaft
für Luft- und Raumfahrt, Bonn
Gubanka B, Sandl P (2000) Robuste Spracherkennung in fliegenden Waffensystemen. In:
Gärtner KP (Hrsg) Multimodale Interaktion im Bereich der Fahrzeug- und Prozessfüh-
rung (DGLR-Bericht 2000-02). Deutsche Gesellschaft für Luft- und Raumfahrt, Bonn
Hacker W (1988) Zu Analyse-, Bewertungs- und Gestaltungsgrundlagen rechnerunterstütz-
ter Arbeit. In: Frieling E, Klein H (Hrsg.) Rechnerunterstutzte Konstruktion. Verlag
Hans Huber, Bern, Stuttgart, Toronto.
Hacker W (1998) Allgemeine Arbeitspsychologie: Psychische Regulation von Arbeitstätig-
keiten. Hans Huber, Bern
Hacker W, Lindemann U (2002) Virtual-Reality-Darstellungen – Hilfen für Entwicklungs-
denken? Konstruktion, Zeitschrift für Produktentwicklung 54/5:58-64
Häcker H, Stapf KH (Hrsg) (1998) Dorsch Psychologisches Wörterbuch. Huber, Bern,
Göttingen, Toronto, Seattle
Hakuli S, Bruder R, Felisch FO, Löper C, Rausch H, Schreiber M, Winner H (2009) Ko-
operative Automation. In: Winner H, Hakuli S, Wolf G (Hrsg) Handbuch
Fahrerassistentenzsysteme. Vieweg + Teubner, Wiesbaden, S 647-656
Hassenzahl M, Burmester M, Koller F (2003) AttrakDiff: Ein Fragebogen zur Messung
wahrgenommener hedonischer und pragmatischer Qualität. In: Ziegler J, Szwillus G
(Hrsg) Mensch u Computer. Interaktion in Bewegung. BG Teubner, Stuttgart, Leipzig,
S 187–196
Hecking M (2004) Informationsextraktion aus militärischen Freitextmeldungen (FKIE-
Bericht Nr. 74). FGAN, Wachtberg
Heeg FJ, Kleine G, Bahsier G (1989) Ergonomische Gestaltung handgeführter Elektrowär-
mewerkzeuge. Schriftenreihe der Bundesanstalt für Arbeitsschutz Dortmund Fb 599.
Wirtschaftsverlag NW, Bremerhaven
Helander MG, Khalid HM (2006) Affective and pleasurable design. In: Salvendy G (ed)
Handbook of Human factors and Ergonomics. 3rd edition. John Wiley & Sons, Hobo-
ken (NJ)
Ergonomische Gestaltung 1157
May F, Stahs T (1997) Virtual Reality für Entwicklungs- und Produktionsprozesse bei
Daimler Benz. In: Forschungszentrum Karlsruhe, Heinz Nixdorf Institut: Fachgespräch
Virtual Reality Anwendungen in der industriellen Produktion. Heinz Nixdorf Institut,
Paderborn
Mayer M, Odenthal B, Grandt M, Schlick C (2008) Anforderungen an die benutzerzentrier-
te Gestaltung einer Kognitiven Steuerung für Selbstoptimierende Produktionssysteme.
In: Gesellschaft für Arbeitswissenschaft eV (Hrsg) Produkt- und Produktions-
Ergonomie - Aufgabe für Entwickler und Planer. GfA-Press, Dortmund
Mayer M, Odenthal B, Faber M, Kabuß W, Kausch B, Schlick C (2009a) Simulation of
Human Cognition in Self-Optimizing Assembly Systems. In: Proceedings of 17th
World Congress on Ergonomics IEA 2009. Beijing
Mayer M, Odenthal B, Faber M, Neuhöfer J, Kabuß W, Kausch B, Schlick C
(2009b) Cognitive Engineering for Direct Human-Robot Cooperation in Self-
optimizing Assembly Cells. In: (Kurosu M) Human Centered Design, Lecture Notes in
Computer Science 5619. Springer, Heidelberg
Meißner UF, Maurial A (2008) Die Methode der finiten Elemente: Eine Einführung in die
Grundlagen. Springer, Berlin
Milgram P, Colquhoun H (1999) A Taxonony of Real and Virtual World Display Integra-
tion. In: Ohta Y, Tamura H (Hrsg) Mixed Reality – Merging Real and Virtual Worlds,
Springer, Berlin
Milgram P, Kishino F (1994) A Taxonomy of Mixed Virtual Reality Visual Displays. In:
IEICE Trans. on Information and Systems, E77-D (12), S 1321-1329
Miller GA (1956) The Magical Number Seven, Plus or Minus Two: Some Limits on our
Capacity for Processing Information. Psychological Review 63:81-97
Mital A, Nicholson AS, Ayoub MM (1993) A guide to manual materials handling. Taylor
& Francis, London
Moll T, Sauter R (1987) Über den Gebrauch eines context-spezifischen Helpsystems. Soft-
ware-Ergonomie 1987:408-416.
Morris C (1946) Signs, language und behaviour. Prentice-Hall-Verlag, New York.
Mühlstedt J, Kaußler H, Spanner-Ulmer B (2008) Programme in Menschengestalt: Digitale
Menschmodelle für CAx- und PLM-Systeme. Zeitschrift für Arbeitswissenschaft
62:79-86
Mühlstedt J, Spanner-Ulmer B (2009) Homo Sapiens Digitalis: über den Praxiseinsatz
digitaler Menschmodelle. In Tagungsband 8. Berliner Werkstatt Mensch-Maschine-
Systeme (im Druck)
Müller T (2001) Strukturen arbeitswissenschaftlichen Wissens. Deutscher Wissenschafts-
Verlag. Würzburg
Mussgnug J, Meyer O, Honal M (1999) Einsatz von LabView als Rapid-Prototyping Werk-
zeug zur Analyse von Mensch-Maschine-Schnittstellen. In: Gärtner (Hrsg) Ergonomi-
sche Gestaltungswerkzeuge in der Fahrzeug- und Prozessführung - 41. Fachausschuss-
sitzung der Anthropotechnik der Deutschen Gesellschaft für Luft- und Raumfahrt e.V.
Stuttgart, 19.-20. Oktober 1999
Nachemson A, Elfström G (1979) Intravital Dvnamic Pressure Measurement in Lumbar
Disks. A study of common movements, maneuvers and exercises. Scandinavian Jour-
nal of Rehabilitation Medicine 1:1–40
NATO Research & Technology Organisation (Hrsg) (2004) Operator Functional State
Assessment (TR-HFM-104). NATO-RTO, Neully-sur-Seine
Neuhöfer J, Kausch B, Schlick C (2009) Design and Evaluation of an Augmented Reality
Training System for Human-Robot Cooperation in Manufacturing, In: Proceedings of
the IEA2009 - 17th World Congress on Ergonomics, 09. - 14. August, Beijing
Ergonomische Gestaltung 1161
Schaub K (2004) Das „Automotive Assembly Worksheet“ (AAWS) In: Landau K (Hrsg)
Montageprozesse gestalten: Fallbeispiele aus Ergonomie und Organisation. ergonomia
Verlag, Stuttgart: 91–111
Schaub K, Ghezel-Ahmadi K (2007) Vom AAWS zum EAWS – ein erweitertes Screening-
Verfahren für körperliche Belastungen. In: Gesellschaft für Arbeitswissenschaft eV
(Hrsg) Bericht zum 53. Arbeitswissenschaftlichen Kongress vom 28.2.-2.3.2007 an der
Otto-von-Guericke-Universität Magdeburg. Gesellschaft für Arbeitswissenschaft e.V.,
Dortmund: 601–604
Schaub K, Kaltbeitzel J (2006) NPW - Advances in Ergonomic Design at New OPEL (GM)
Plant in Ruesselsheim, Germany. (Beitrag zu 16th World Congress on Ergonomics,
10.-14.07.2006 in Maastricht, Niederlande)
Schaub K, Storz W (2003) The „New Production Worksheet“ -An Example of Applying
Ergonomic EU-Directives. In: Gesellschaft für Arbeitswissenschaft e.V. (Hrsg)
Quality of Work and Products in Enterprises of the Future. Proceedings of the Annual
Spring Conference of the GfA on the Occasion of the Foundation of the Gesellschaft
für Arbeitswissenschaft e.V. (GfA) and the XVII Annual Conference on the
International Society for Occupational Ergonomics u Safety (ISOES) 7-9 Mai 2003 in
München, Arbeitswissenschaft e.V., Dortmund: 327–330
Schaub K, Winter G (2002) Design-Check: ein Screeningverfahren zur Beurteilung
körperlicher Belastungen. Der Orthopäde 31/10:987–996
Schaub K, Hüttmann K, Grunewald B, Hellwege H, Breitkreuz H, Storz W (2003) Ausge-
wählte good practice Beispiel aus dem neuen Opel Werk Rüsselsheim. In: Landau, K.
(Hrsg.) Good Practice. Ergonomie und Arbeitsgestaltung, ergonomia Verlag, Stuttgart:
53–72
Schaub K, Britzke B, Sanzenbacher G, Jasker K, Landau K (2004a) Ergonomische
Risikoanalysen mit MTM-Ergo. In: Landau K (Hrsg) Montageprozesse gestalten:
Fallbeispiele aus Ergonomie und Organisation. ergonomia Verlag, Stuttgart: 175–199
Schaub K, Britzke B, Landau K (2004b) Möglichkeiten und Grenzen der Systeme
vorbestimmter Belastungen in der Montage. In: Gesellschaft für Arbeitswissenschaft
e.V. (Hrsg) Arbeit + Gesundheit in effizienten Arbeitssystemen, Bericht zum 50.
Arbeitswissenschaftlichen Kongress an der ETH Zürich, 24.-26. März 2004,
Gesellschaft für Arbeitswissenschaft e.V., Dortmund: 637–642
Schaub K, Britzke B, Landau K (2005) Piloterprobungen von MTM-Ergo für ausgewählte
Tätigkeiten in der Automobilindustrie. In: Gesellschaft für Arbeitswissenschaft e.V.
(Hrsg) Personalmanagement und Arbeitsgestaltung, Bericht zum 51.
Arbeitswissenschaftlichen Kongress an der Universität Heidelberg, 22.–24. März
2005, Gesellschaft für Arbeitswissenschaft e.V., Dortmund: 683–686
Schaub K, Landau K, Bruder R (2008) Development and application of methods for stress
analysis in manufacturing. In: Proceedings of the Applied Human Factors and Ergo-
nomics 2008. 2nd International Conference 14-17 July 2008, Las Vegas
Schlick C (1999) Modellbasierte Gestaltung der Benutzungsschnittstelle autonomer Pro-
duktionszellen. In: Luczak H (Hrsg) Schriftenreihe Schriftenreihe Rationalisierung und
Humanisierung, Bd 61 (zugl. Dissertation RWTH Aachen). Shaker, Aachen
Schlick C (2004) Informatorische Benutzermodellierung mit diskreten stochastischen Pro-
zessen. Habilitationsschrift RWTH Aachen. Shaker, Aachen
Schlick C (2009) Vorwort und Einführung. In: Schlick C (Hrsg) Industrial Engineering and
Ergonomics. Springer, Berlin
Schlick C, Daude R, Luczak H, Weck M, Springer J (1997) Head-mounted display for
supervisory control in autonomous production cells. Displays 17:199-206
Ergonomische Gestaltung 1165
VDI-Richtlinie 2221 (1993) Methodik zum Entwickeln und Konstruieren technischer Sys-
teme und Produkte. Verein Deutscher Ingenieure, Düsseldorf
VDI-Richtlinie 2242 (1986) Konstruieren ergonomiegerechter Erzeugnisse. Grundlagen
und Vorlagen. Verein Deutscher Ingenieure, Düsseldorf
Verein Deutscher Ingenieure (1980) Handbuch der Arbeitsgestaltung und Arbeitsorganisa-
tion. VDI-Verlag, Düsseldorf
Verordnung über Sicherheit und Gesundheitsschutz bei der Arbeit an Bildschirmgeräten
(Bildschirmarbeitsverordnung - BildscharbV) (Bundesgesetzblatt I, S.1843) vom
04.12.1996 i.d.F. (Bundesgesetzblatt I. S.2768) vom 18.12.2008
Verordnung zur Schaffung barrierefreier Informationstechnik nach dem Behindertengleich-
stellungsgesetz (Barrierefreie Informationstechnik-Verordnung - BITV) (Bundesge-
setzblatt I S. 2654) vom 17.07.2002
Index
Aufbauorganisation ... 434, 436, 443, 455 Basilarmembran ........................ 338, 340
Einlinienorganisation .................. 444 Basiseffektivtemperatur .................... 869
Matrixorganisation ...................... 446 BAuA-Leitmerkmalmethode .. 951, 1134
Mehrlinienorganisation ............... 445 Baustellenverordnung ....................... 738
Produktorientierte Organisation .. 449 Beanspruchung ... 38, 230, 394, 777, 782,
Prozessorganisation..................... 447 794, 797, 818, 843, 871, 875, 900,
Stab-Linien-Organisation ............ 446 916, 926, 935
Aufenthaltsgesetz .............................. 109 emotionale ... 394, 399, 402, 404, 409
Aufgabe ....................................... 34, 455 mentale ....... 287, 291, 293, 294, 298,
siehe Arbeitsaufgabe 320, 379, 392, 394, 396, 400, 403,
Aufgabenanalyse ................. 58, 434, 437 404, 408, 410, 413, 416, 1020, 1027
Aufgabenangemessenheit ...... 1064, 1080 subjektiv erlebte ......................... 416
Aufgabengestaltung... 508, 512, 514, 761 Beanspruchungsbewertung ....... 395, 416
Aufgabennähe ................... 995, 996, 998 Beanspruchungsmessung, psycho-
Aufgabenorientierung ....................... 513 physiologische ............................ 396
Aufgabenstrukturierung .................... 475 Bedarfsgerechtigkeit ......................... 634
Aufgabensynthese ............. 434, 437, 505 Bediensystemgestaltung ................. 1068
Aufgabenvollständigkeit ... 513, 519, 551 bedingungsbezogene Analyse-
Aufmerksamkeit ....... 128, 151, 168, 188, verfahren ...................................... 57
196, 292, 296, 298, 316, 343, 356, bedingungsbezogene Intervention .... 755
361, 379, 403, 407, 413, 662, 871, Bedürfnispyramide ........................... 185
976, 978, 989, 992, 999, 1025, 1026, Beeinträchtigungsfreiheit ........ 59, 65, 67
1075 Befragung .... 53, 57, 60, 671, 1074, 1096
Aufmerksamkeitsreaktion ................. 397 Behinderung ................90, 147, 151, 736
Auftragsabwicklung .. 437, 475, 540, 666 geistige ............................... 155, 162
Auftragsinsel ..................................... 543 körperliche.......................... 153, 161
Auftragszeit ....................... 657, 670, 671 psychische (seelische) ........ 153, 162
Auge ................................. 298, 314, 317, Belastung ......................38, 41, 283, 772,
318, 323, 325, 329, 331, 334, 335, 790, 806, 862, 885, 911, 935
345, 402, 405, 407, 815, 822, 832, energetische ...........41, 200, 228, 950
849, 885, 937 informatorische............. 41, 286, 394
Augenbewegung............ 407, 1040, 1075 physikalisch-chemische .............. 769
Augmented Reality.................. 973, 1086 soziale......................................... 495
Ausdauerdiagramm ........................... 199 Belastungsabschnitt ............................ 40
Ausführbarkeit ........................ 42, 63, 66 Belastungs-Beanspruchungs-
Ausführungsdauer ............................. 954 Konzept .................38, 63, 392, 1026
Ausführungshäufigkeit ...................... 954 Belastungsdauer ............40, 58, 201, 769,
Ausgabeinformation ........................ 1083 935, 1136
Ausgleichsabgabe.............................. 165 Belastungshöhe .............40, 57, 201, 279,
Außenmaße ........................... 1031, 1043 283, 769, 935, 1136
Automation ..................................... 1024 Belastungssuperposition ................... 935
kognitive ......................... 1026, 1149 Belastungstyp ..................................... 40
kooperative ............................... 1026 Belegungszeit ................................... 670
Automatisierung ..................... 7, 24, 102, Beleuchtung ...............125, 320, 327, 885
159, 228, 286, 581, 1021, 1146 Beleuchtungsstärke .......... 124, 887, 891,
autonome Produktionszellen ... 479, 1146 892, 900, 936
Autonomie................ 442, 496, 507, 509, Benutzeranforderungen.. 73, 1067, 1071,
512, 514, 519, 528, 535, 1022 1080, 1112, 1117, 1118
autostereoskopische Displays ............ 990 Benutzeraufgaben ................. 1023, 1067
Bandscheibeninnendruck ................ 1049 Benutzerfreundlichkeit ......... 1064, 1067
Barrierefreiheit ................................ 1066 Benutzerzustand.................... 1027, 1028
Index 1177