Geschäftsführender Herausgeber:
Professor Dr. Dr. h.c. Sönke Albers,
Institut für betriebswirtschaftliche Innovationsforschung,
Christian-Albrechts-Universität zu Kiel
Deutscher Universitäts-Verlag
Bibliografische Information Der Deutschen Nationalbibliothek
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der
Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über
<http://dnb.d-nb.de> abrufbar.
D83
D 17
.
.. Auflage Dezember 1997
ISBN 978-3-8350-0736-9
Geleitwort
Für die Praxis des Innovationsmanagements spielen formale Planungs- und Steuerungsin-
strumente eine große Rolle, und dabei insbesondere die Frage nach der richtigen Intensität
des Einsatzes dieser Instrumente im Innovationsprozess. Der effektivitäts- und effizienz-
steigernden Wirkung von Planung und Steuerung stehen die für Innovationsvorhaben
grundsätzlich notwendigen Bedingungen wie Kreativität, Flexibilität und Entscheidungs-
freiräume gegenüber, die potentiell durch zu starke formale Steuerung eingeschränkt wer-
den. Eine empirische Analyse zur Annäherung an die Frage, bis zu welchem Grad noch
formelle Projektsteuerung und Fortschrittskontrolle zulässig sind, ohne dass Dysfunktio-
nalitäten eintreten, ist somit von großem Interesse für die betriebliche Praxis des Innova-
tionsmanagements.
Obwohl bereits in der Vergangenheit eine Vielzahl empirischer Studien die Erfolgsfak-
toren bei der Planung und Steuerung von Innovationsprojekten untersucht haben, kann
die Dissertation von Herrn Weise doch unseren Erkenntnisstand auf diesem Gebiet in
wesentlichen Punkten erweitern. Diese Erweiterung bezieht sich sowohl auf inhaltliche
als auch methodische Aspekte. Während die überwiegende Mehrzahl der Studien Pla-
nung und Steuerung als voneinander unabhängige Prädiktoren des Vorhabenserfolges be-
trachtet, legt Herr Weise ein schlüssig abgeleitetes Pfadmodell vor, das eine differenzierte
Analyse der Mediatorbeziehungen zwischen Planung, Steuerung und Innovationserfolg
erlaubt. Hinzu tritt die Analyse des multidimensional erfassten Innovationsgrads als kri-
tische Randbedingung (Moderatorvariable) für die Erfolgswirkung von Planungs- und
Steuerungsaktivitäten in Innovationsprozessen. Methodisch besonders hervorzuheben ist
die quantitative Meta-Analyse der bisherigen Forschungsergebnisse, die über die sonst
übliche qualitative Literaturkritik weit hinausgeht. Übertroffen wird diese noch durch die
äußerst anspruchsvolle empirische Studie, in der Herr Weise eindrucksvoll seine methodi-
sche Kompetenz belegt und Analyseansätze präsentiert, die in der betriebswirtschaftlichen
Forschung bisher kaum diffundiert sind.
Die Ergebnisse der Analysen von Herrn Weise zeigen, dass die Businessplanung zu
Projektbeginn wesentlich zur Strukturierung und Qualität der späteren Vorhabenspha-
sen beiträgt und damit ein unverzichtbarer Erfolgsfaktor für Innovationsprojekte ist, und
zwar auch für hochgradige Innovationen, die sich scheinbar einer solchen Planung entzie-
hen. Stark operativ orientierte Projektplanung und eine entsprechend an Meilensteinen
vi GELEITWORT
ausgerichtete Steuerung sollten dagegen nur bei Vorhaben mit vergleichsweise niedriger
Innovationshöhe betont werden, da sie sich bei hochgradigen Innovationen als Ressour-
cenverschwendung oder gar Hindernis erweisen können. Wichtiger als ablauforientierte
Projektplanung sind Aspekte der Risikoidentifikation, -analyse und -vermeidung. Solche
Aktivitäten helfen bei der Stabilisierung des späteren Projektverlaufs und haben darüber
hinaus eine direkte Erfolgswirkung. Häufige Anpassungen der zentralen Vorhabenszie-
le und der Ressourcenausstattung eines Projektes sollten unbedingt vermieden werden.
Selbst bei hochinnovativen Projekten erweisen sich Konstanz und Stabilität der Projekt-
steuerung als wesentliche Erfolgsfaktoren.
Die Dissertation von Herrn Weise kombiniert einen theoretisch schlüssig abgeleiteten
Bezugsrahmen mit einer außergewöhnlich anspruchsvollen und umfassend dokumentierten
empirischen Studie. Neben dem beachtlichen wissenschaftlichen Beitrag zur Innovations-
forschung hat die Arbeit auch eine hohe Relevanz für die praktische Ausgestaltung der
Planung und Steuerung von Innovationsprojekten im Unternehmensalltag - ein nicht
häufig zu beobachtender Tatbestand. Daher wünsche ich mir eine weite Verbreitung der
hier dokumentierten Erkenntnisse in Wissenschaft und Praxis. Es wäre ein echter Gewinn,
nicht nur für den Autor, sondern vor allem für die Leser und Nutzer seiner Ergebnisse.
Joachim Weise
Inhaltsverzeichnis
I Theoretischer Teil 1
4.2.1 Businessplanung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.2.2 Zieldefinition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.2.3 Projektplanung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.2.4 Risikomanagement . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.3 Steuerung von Innovationsvorhaben . . . . . . . . . . . . . . . . . . . . . . 75
4.3.1 Methoden formeller Projektsteuerung . . . . . . . . . . . . . . . . . 75
4.3.2 Formelle versus organische Steuerung bei innovativen Projekten . . 78
4.3.3 Kontinuität versus Flexibilität bei innovativen Projekten . . . . . . 80
4.4 Erfolgsbeurteilung von Innovationsvorhaben . . . . . . . . . . . . . . . . . 81
4.4.1 Perspektiven der Erfolgsbeurteilung . . . . . . . . . . . . . . . . . . 81
4.4.2 Abgrenzung Innovationserfolg und Projekteffizienz . . . . . . . . . . 84
4.4.3 Empirische Befunde zu Dimensionen und Maßen des Innovationser-
folgs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.4.4 Kongruenz subjektiver und objektiver Erfolgsbeurteilung . . . . . . 94
7 Untersuchungsdesign 163
7.1 Vorgehen bei der Datenerhebung . . . . . . . . . . . . . . . . . . . . . . . 163
7.2 Abschätzung möglicher Methodenfehler . . . . . . . . . . . . . . . . . . . . 165
7.3 Beschreibung der Stichprobe . . . . . . . . . . . . . . . . . . . . . . . . . . 167
4.1 Modell der Planung und Steuerung im Front End von Innovationsprojekten 56
4.2 Core Measures auf Projektebene nach Griffin und Page (1993) . . . . . . . 86
Theoretischer Teil
Kapitel 1
Die historische Entwicklung hin zur gegenwärtigen Industrielandschaft ist stark durch
technologische Revolutionen und die Fokussierung auf Innovationen als Quelle von Wett-
bewerbsvorteilen determiniert.1 Empirische Studien belegen, dass der Aufbau von Wettbe-
werbsvorteilen durch innovative Neuprodukte wesentlich zu Wachstum und Profitabilität
von Firmen beiträgt.2 Schätzungsweise 25 Prozent der Unternehmensumsätze werden heu-
te von Produkten generiert, die innerhalb der letzten drei Jahre in den Markt eingeführt
wurden.3 Daneben deuten Untersuchungen auf einen positiven Zusammenhang zwischen
der Einführung neuer Produkte und dem Marktwert von Unternehmen hin.4
Obwohl die strategische Bedeutung von Produktinnovationen weithin anerkannt ist,
sehen sich viele Firmen bei ihrer Umsetzung mit schweren Problemen konfrontiert, die
u. a. die Wahl effizienter und effektiver Prozesse und Managementmethoden betreffen.5 So
zeigen Studien zu Neuprodukt-Erfolgsraten, dass diese unbefriedigend sind und sich im
Zeitverlauf auch nicht verbessern.6 Die tatsächlich festgestellten Misserfolgsraten schwan-
ken dabei stark, jedoch wurden in der Vergangenheit meist Werte zwischen 30 und 45 Pro-
1
Leifer et al. (2001), S. 102.
2
Vgl. u. a. Crépon et al. (1998), S. 135f.; Geroski et al. (1993), S. 208f.; Hall und Mairesse (1995),
S. 287f.; Lööf und Heshmati (2002), S. 14ff. Ittner und Larcker. (1997, S. 21) können dagegen zwar
für die Computerindustrie einen direkten Zusammenhang zwischen Innovationsaktivität und Profita-
bilität nachweisen, nicht aber für die Automobilindustrie.
3
Ayers et al. (1997), S. 107; Urban und Hauser (1993), S. 3f.
4
Vgl. u. a. Blundell et al. (1999), S. 550; Chaney und Devinney (1991), S. 590ff.; Chaney und Devinney
(1992), S. 678; Deeds (2001), S. 42.
5
Gupta und Wilemon (1990), S. 28ff.; Wheelwright und Clark (1992a), S. 70.
6
Solche Übersichten zu Neuprodukt-Erfolgsraten finden sich u. a. bei Crawford (1977), S. 51 und Urban
und Hauser (1993), S. 4f.
4 1. Einführung in die Problemstellung
zent genannt und eher ein Zu- als ein Abnehmen der Rate vermutet.7 Produktentwicklung
scheint insbesondere dann schwierig zu sein, wenn Firmen nur geringe Erfahrung mit den
verwendeten Produkt- und Prozesstechniken haben.8 Gerade solche hochgradigen Innova-
tionen werden jedoch zunehmend wichtig, da Unternehmen heute immer stärker Gefahr
laufen, ihre Wettbewerbsfähigkeit einzubüßen, wenn sie nicht auf die – häufig durch radi-
kale technische Neuerungen hervorgerufenen – diskontinuierlichen Veränderungen in ihrer
Industrie reagieren können.9 So bemerken Lynn et al. (1996, S. 9):
Natürlich handelt es sich nicht bei jedem neuen Produkt um eine hochgradige Innovation,
vielmehr lässt sich ein breites Spektrum von inkrementellen Produktmodifikationen bis
hin zu radikalen technischen Neuerungen identifizieren.10 Nach dem heutigen Stand der
Wissenschaft erscheint es fraglich, ob sich weitläufig eingesetzte Best Practices, die ein ef-
fizientes Management kontinuierlicher Produktverbesserungen versprechen, ohne weiteres
auch auf radikale Innovationen übertragen lassen.11 Vielmehr kann es als eine der Grund-
thesen des Innovationsmanagement angesehen werden, dass sich Innovationen nicht durch
wiederholte Routineentscheidungen zum Erfolg führen lassen, sondern einer gesonderten
Behandlung bedürfen.12 So zeigen empirische Studien, dass Neuproduktentwicklungen,
die auf sehr hohe Innovationsgrade abzielen, anderer Managementmethoden bedürfen als
mittel- oder niedriginnovative Entwicklungsprojekte,13 und dass sich die Übertragung der
bei normalen Produktentwicklungen erprobten Praktiken auf radikale Innovationen als
kontraproduktiv erweisen kann.14
7
Booz, Allen & Hamilton, Inc. (1982); Boulding et al. (1997), S. 164.; Crawford (1977), S. 51.
8
Ayers et al. (2000), S. 133; Tatikonda und Rosenthal (2000), S. 74.
9
Christensen und Overdorf (2000), S. 73; Tushman und O’Reilly (1996), S. 8ff.
10
Der Innovationsbegriff und Fragen der Innovationsgradmessung werden in Abschnitt 2.1 ausführlich
erläutert.
11
Song und Montoya-Weiss (1998), S. 126f.; Veryzer (1998a), S. 305f.
12
Hauschildt (2004), S. 27.
13
Salomo et al. (2003b); Salomo et al. (2003a); Song und Montoya-Weiss (1998), S. 130ff.
14
Leifer et al. (2000); Veryzer (1998a), S. 317.
1.1. Motivation und zentrale Forschungsfragen 5
Der Prozess der Neuproduktentwicklung ist komplex und erfordert zumeist die Betei-
ligung einer Reihe von Personen aus unterschiedlichen funktionalen und hierarchischen
Positionen innerhalb eines Unternehmens.15 In der Vergangenheit sind zahlreiche empi-
rische Untersuchungen mit dem Ziel durchgeführt worden, die kritischen Erfolgsfaktoren
im Rahmen von Neuprodukt-Entwicklungsprozessen zu identifizieren.16 Meta-Analysen
dieser Arbeiten zeigen, dass zu den Faktoren, die dabei immer wieder als erfolgswirksam
identifiziert werden, u. a. die methodische Ideengenerierung und -evaluation, die Entwick-
lung eines Produktkonzeptes und des darauf basierenden Business-Planes, die operative
Projektplanung und schließlich die stringente Steuerung des Entwicklungsprozesses gemäß
dieser Planung gehören.17 Die Relevanz dieser Prozessschritte wird v. a. in der Rational-
Plan-Literatur18 zur Neuproduktforschung hervorgehoben, die davon ausgeht, dass die
einzelnen Produktentwicklungsschritte relativ zuverlässig planbar sind und als Top-Down-
Prozess, beispielsweise im Rahmen eines Stage-Gate Systems ,19 gesteuert werden soll-
ten. Prozessüberwachung, -bewertung und -steuerung erfolgen in einem systematischen
Feedback-Zyklus. Meilensteine helfen dem Team, den Projektfortschritt systematisch zu
überwachen, formelle Reviews ermöglichen eine Bewertung des Projektstatus und bilden
die Grundlage für strategische Projektentscheidungen. Weisungsorientierte Projektsteue-
rung schließlich erlaubt es dem Management, Zielvorgaben und Projektressourcen bei
Bedarf anzupassen.20 Obwohl auch allgemein ein gewisses Maß an Flexibilität und Ent-
scheidungsspielräumen als wichtige Voraussetzung für erfolgreiche Produktentwicklung
angesehen wird,21 bilden nach wie vor die traditionellen Methoden formeller Projektsteue-
rung das zentrale Managementinstrument, um die Erreichung strategischer wie operativer
Projektziele zu gewährleisten.22 Dabei stellt sich jedoch gerade im Zusammenhang mit
innovativen Forschungs- und Entwicklungsprojekten die kritische Frage, bis zu welchem
Grad noch formelle Projektsteuerung und Fortschrittskontrollen zulässig sind, ohne dass
Dysfunktionalitäten eintreten.23
Während Montoya-Weiss und Calantone (1994) in ihrer umfassenden Meta-Analyse
15
Högl und Gemünden (2001), S. 436ff.
16
Vgl. hierzu Kapitel 5, insbesondere Abschnitt 5.2.
17
Vgl. u. a. Balachandra und Friar (1997); Brown und Eisenhardt (1995); Ernst (2001, 2002); Gerwin
und Barrowman (2002); Griffin und Hauser (1996); Henard und Szymanski (2001); Johne und Snelson
(1988); Krishnan und Ulrich (2001); Lilien und Yoon (1989); Montoya-Weiss und Calantone (1994).
18
Vgl. Brown und Eisenhardt (1995), S. 348ff., und Abschnitt 3.1 dieser Arbeit.
19
Das Konzept des Stage-Gate Systems wird in der Literatur v. a. von Cooper und Kleinschmidt dis-
kutiert, vgl. beispielsweise Cooper (1990); Cooper und Kleinschmidt (1990); Cooper (1991).
20
Rosenau und Moran (1993); Wheelwright und Clark (1992b).
21
Burns und Stalker (1961); Moorman und Miner (1998).
22
Cooper und Kleinschmidt (1995), S. 384.
23
Eisenhardt und Tabrizi (1995), S. 106.
6 1. Einführung in die Problemstellung
2. Welcher Zusammenhang besteht dabei zwischen den Planungs- und den Steuerungs-
aktivitäten, inwiefern übt also die Projektsteuerung eine Mediator -Rolle für die Be-
ziehung zwischen Planung und Erfolg aus?
24
Montoya-Weiss und Calantone (1994), S. 411.
25
Vgl. hierzu Kapitel 5, insbesondere Tabelle 5.3 (S. 113ff.) und Tabelle 5.5 (S. 124ff.).
26
Shenhar (2001); Song und Montoya-Weiss (1998)
8 1. Einführung in die Problemstellung
Die Arbeit gliedert sich entsprechend Abbildung 1.1 in einen theoretischen und einen
empirischen Teil.
Der theoretische Teil beginnt mit der Vorstellung der zentralen Forschungsfragen und
der wissenschaftstheoretischen Grundhaltung der vorliegenden Untersuchung. Im folgen-
den Kapitel 2 werden die Begriffe Innovation“ und Innovationsgrad“ erläutert, die für
” ”
das Verständnis der Arbeit von zentraler Bedeutung sind. Neben einer kurzen Erörterung
der Bezugspunkte zu Strömungen der Neuproduktforschung dient Kapitel 3 vor allem der
Ableitung eines theoretischen Grundmodells, das die Forschungsfragen vor dem Hinter-
grund betriebswirtschaftlicher Theoriebildung integriert, wobei der situative Ansatz, die
Theorie der Informationsverarbeitung sowie der ressourcenbasierte Ansatz herangezogen
werden. Entsprechend der grundsätzlichen Differenzierung des Grundmodells in Infor-
mationserzeugung und -verarbeitung werden in Kapitel 4 die für Innovationsvorhaben
relevanten Elemente der Projektplanung und -steuerung näher untersucht, wobei neben
der Literatur zur Neuproduktentwicklung auch auf allgemeinere Arbeiten zum Projekt-
management und zur strategischen Planung zurückgegriffen wird. In Kapitel 5 erfolgt eine
systematische Bestandsaufnahme der empirischen Forschung zur Planung und Steuerung
von Innovations- und Produktentwicklungsprojekten sowie eine meta-analytische Verdich-
tung der relevanten Befunde. Kapitel 6 stellt den Bezugsrahmen sowie die Hypothesen
für den empirischen Teil dieser Arbeit vor. Dieser Abschnitt kann relativ kurz gehalten
werden, da hier im wesentlichen auf die in den Kapiteln 3 und 4 systematisch abgeleiteten
Aussagen sowie auf die in Kapitel 5 aggregierten Befunde zurückgegriffen wird.
Der empirische Teil der Arbeit beginnt in Kapitel 7 mit einer Erläuterung des Unter-
suchungsdesigns, insbesondere des Vorgehens bei der Datenerhebung, und einer Beschrei-
bung der Stichprobencharakteristika. Kapitel 8 geht zunächst auf methodische Fragen
der Konstruktbildung ein, bevor der Ablauf der statistischen Datenanalyse und die dabei
verwendeten Verfahren näher beschrieben werden. Die in der vorliegenden Arbeit verwen-
deten Konstrukte werden in Kapitel 9 operationalisiert und validiert, bevor die eigentliche
Hypothesenprüfung in Kapitel 10 durch Ermittlung von direkten Zusammenhängen, Me-
diatorbeziehungen und Moderatoreffekten erfolgt. Im abschließenden Kapitel 11 werden
die gewonnenen Erkenntniss diskutiert, wobei sowohl konkrete Handlungsempfehlungen
für die Praxis als auch wichtige Implikationen der Arbeit für die Forschung dargelegt
werden.
1.2. Aufbau der Arbeit 9
Begriffliche Grundlagen:
Kap. 2
Innovation und Innovationsgrad
Theoretische Bezugspunkte
Kap. 3
der Arbeit
Hypothesen der
Kap. 6
empirischen Untersuchung
Operationalisierung und
Kap. 9
Validierung der Konstrukte
Wirkungszusammenhänge:
Kap. 10
Überprüfung der Hypothesen
3. Welchen Einfluss hat die Innovationshöhe auf die Beziehungen zwischen Vorhabens-
planung, -steuerung und -erfolg, inwiefern übt also der Innovationsgrad eine Mode-
rator -Rolle aus?
Im einzelnen soll die vorliegende Arbeit den derzeitigen Stand der Forschung wie folgt
erweitern:
27
Dougherty (1996), S. 424
28
Vgl. Abschnitt 3.4 (S. 45ff.).
29
Solche Messkonzepte werde u. a. von Danneels und Kleinschmidt (2001), Garcia und Calantone (2002),
Gatignon et al. (2002), Salomo (2003), und Schlaak (1999) entwickelt.
Kapitel 2
Jedes Unternehmen unterliegt, ebenso wie sein Umfeld, einem ständigen technischen, wirt-
schaftlichen und sozialen Wandel. Um erfolgreich sein zu können, müssen Firmen den
Anforderungen dieses Wandels durch Innovationen entsprechen, die damit als richtige
”
Antworten der Unternehmen auf Veränderungen in ihrer Aufgabenumwelt“ angesehen
werden können.1 Der durch die Veränderungen hervorgerufene Grad an Neuigkeit ist folg-
lich auch das konstitutive Merkmal von Innovationen, wie eine etymologische Analyse
zeigt (lat.: innovatio = Neuerung).
Dabei muss Innovation jedoch von Invention und Imitation unterschieden werden. Al-
len ist gemeinsam, dass es sich um etwas Neues handelt, dessen Ursprung eine Idee zur
Befriedigung eines unmittelbar feststellbaren oder auch nur vermuteten Bedürfnisses ist.2
Eine Imitation bezeichnet zunächst nur eine Nachahmung, also die wiederholte Anwen-
dung einer neuen Problemlösung in einem anderen Unternehmen. Dennoch kann es sich
dabei aus der subjektiven Sicht des imitierenden Unternehmens um eine Neuerung handeln
(vgl. hierzu die Ausführungen zur Mikroperspektive des Innovationsgrads in Abschnitt
2.2.2).3 Der Begriff Invention bedeutet Erfindung“. Er beinhaltet die gedankliche Konzi-
”
pierung und technische Realisierung einer Neuheit auf der Basis neuer wissenschaftlicher
Erkenntnisse bzw. durch neue Kombination bestehender Erkenntnisse.4 Eine Erfindung
muss nicht zwangsläufig geplantes Ergebnis von Forschung und Entwicklung sein, sie kann
1
Zahn und Weidler (1995), S. 352; Pleschak und Sabisch (1996), S. 1.
2
Brockhoff (1999), S. 35ff.
3
Pleschak und Sabisch (1996), S. 6.
4
Haß (1983), S. 2.
12 2. Begriffliche Grundlagen: Innovation und Innovationsgrad
5
Specht und Beckmann (1996), S. 15.
6
Hauschildt (2004), S. 4ff.; Zahn und Weidler (1995), S. 353; Pleschak und Sabisch (1996), S. 1.
7
Hauschildt (2004), S. 24.
8
Marr (1980), Sp. 948.
9
So z. B. bei Specht und Beckmann (1996), S. 15
10
So z.B. bei Souder (1987), S. 6; Kupsch et al. (1991), S. 1073.
11
Vgl. hierzu auch Veryzer (1998a).
2.1. Begriff der Innovation 13
Eine Innovation liegt also nur bei neuartigen Zweck-Mittel-Beziehungen vor. Werden neue
Mittel zur Erfüllung vorhandener oder neuer Zwecke angeboten, so kann man von einer
mittelinduzierten Innovation sprechen, entsteht dagegen ein neuer Zweck, der mit un-
veränderten oder neuen Mitteln befriedigt wird, liegt eine zweckinduzierte Innovation vor.
Bei einer eigentlichen Innovation schließlich sind die Zwecke neu gesetzt, und es werden
zugleich neue Mittel zur Erfüllung dieser Zwecke eingesetzt.13 Bereits hier wird deutlich,
dass bei Innovationen unterschiedliche Grade der Neuartigkeit auftreten können und ihre
Messung anhand verschiedener Dimensionen zu erfolgen hat.
Bevor auf dieses mehrdimensionale Messproblem näher eingegangen wird, soll im
nächsten Abschnitt zunächst anhand einer Funktionaltypologie näher beleuchtet werden,
welche Arten von Innovationen eigentlich auftreten können, d. h. welche Objekte einer
Neuerung“ unterliegen. Obwohl die dabei vorgestellten Innovationstypen teilweise deut-
”
lich über den Rahmen hinausgehen, der durch die oben stehenden Definitionen gegeben
ist, verdeutlichen sie doch die Reichweite, die die Diskussion des Phänomens Innovation“
”
in der Betriebswirtschaftslehre mittlerweile angenommen hat.
12
Hauschildt (1992), Sp. 1029; Hauschildt (2004), S. 11.
13
Hauschildt (2004), S. 11.
14
Dieser findet sich erst bei Schumpeter (1939), S. 87.
15
Schumpeter (1931), S. 100f. Diese Beschreibung nimmt bereits eine Reihe von im Folgenden noch zu
besprechenden Aspekten vorweg, so den Verzicht auf eine rein technische Betrachtungsweise zugun-
sten einer betriebswirtschaftlichen Perspektive, die Unterscheidung von Produkt- und Prozessinno-
vationen und die Einbeziehung von wettbewerbsbezogenen Innovationen.
14 2. Begriffliche Grundlagen: Innovation und Innovationsgrad
(1995, S. 362ff.) sowie Hauschildt (2004, S. 13) können diese Perspektiven systemati-
siert und in vier Dimensionen zusammengefasst werden:16 Technische, organisationale,
wettbewerbsbezogene und soziale Innovationen.
Technische Innovationen resultieren aus der Erweiterung naturwissenschaftlich-
technischen Wissens als Ergebnis erfolgreicher Forschungs- und Entwicklungstätigkeiten.
Technischer Fortschritt verändert die Bestimmungsgrößen für Qualität, Quantität und
Wirtschaftlichkeit einzelner Leistungsprozesse und beeinflusst damit auch das Leistungs-
ergebnis. Die resultierenden Produkt- und Prozessinnovationen sind Ursprung der wirt-
schaftlichen Dynamik.17 Produktinnovationen liegen vor, wenn eine Unternehmung Pro-
dukte in ihr Leistungsprogramm aufnimmt, die es dem Benutzer erlauben, neue Zwecke
zu erfüllen oder vorhandene Zwecke in einer völlig neuartigen Weise zu erfüllen.18 Da-
mit Produktinnovationen den Nutzer überhaupt erreichen können, müssen sie sich am
Markt durchsetzen können. Prozessinnovationen dagegen müssen sich nur innerbetrieb-
lich durchsetzen. Bei ihnen handelt es sich um neuartige Faktorkombinationen, durch die
die Produktion eines bestimmten Gutes kostengünstiger, qualitativ hochwertiger, sicherer
oder schneller erfolgen kann. Ziel dieser Innovation ist also eine Effizienzsteigerung.19
Der Zusammenhang zwischen Produkt- und Prozessinnovationen wird in der Literatur
sowohl auf Branchen- als auch auf Firmenebene untersucht, wobei häufig ein Produkt-
Prozess-Muster unterstellt wird, bei dem Organisationen zunächst Produktinnovationen
implementieren, bevor sie sich verstärkt der Durchführung von Prozessinnovationen zu-
wenden.20
Organisationen spielen im Rahmen des Innovationsmanagement eine zentrale Rolle, da
sie die Effektivität und Effizienz der in ihnen ablaufenden Neuerungsprozesse bestimmen.
Vor diesem Hintergrund müssen Unternehmen selbst das Objekt sog. organisationaler In-
novationen werden, um ihr Innovationspotential als Quelle technischer und wettbewerbs-
bezogener Innovationen zu sichern.21 Organisationale Innovationen stehen oft in Zusam-
menhang mit Produkt- bzw. Prozessinnovationen oder Unternehmensgründungen, können
jedoch auch als gesonderte Organisationsmaßnahme durchgesetzt werden.22 Sie können
struktureller Natur sein (z. B. bei der Bildung neuer Organisationseinheiten), durch eine
16
Andere Autoren unterscheiden dagegen nur zwischen Produkt-, Prozess- und Sozialinnovationen, vgl.
u. a. Thom (1980), S. 7 und Whipp und Clark (1986).
17
Marr (1980), Sp. 950.; Utterback und Abernathy (1975), S. 645ff.
18
Hauschildt (2004), S. 11.
19
Ettlie und Reza (1992), S. 796; Gopalakrishnan et al. (1999), S. 148.
20
Damanpour und Gopalakrishnan (2001), S. 50; Gopalakrishnan et al. (1999), S. 148ff.; Utterback und
Abernathy (1975), S. 645.
21
Zahn und Weidler (1995), S. 363.
22
Pleschak und Sabisch (1996), S. 23.
2.1. Begriff der Innovation 15
23
Kieser und Kubicek (1992), S. 389.
24
Pleschak und Sabisch (1996, S. 23) und Thom (1992, S. 8) bezeichnen alle organisatorischen In-
novationen, die den Humanbereich des Unternehmens betreffen, als Sozialinnovation. Dieser Defini-
tion wird hier nicht gefolgt, stattdessen wird der Begriff soziale Innovation“ auf gesellschaftliche
”
Veränderungen bezogen (siehe unten).
25
Zahn und Weidler (1995), S. 365.
26
Robert (1991), S. 53ff.
27
Neidhardt (1980).
28
Marr (1980), Sp. 949.
29
Zapf (1989).
16 2. Begriffliche Grundlagen: Innovation und Innovationsgrad
Es reicht nicht aus, die Neuartigkeit einer Innovation zu postulieren, vielmehr sollte man
den graduellen Unterschied gegenüber dem bisherigen Zustand durch Bestimmung ei-
nes Innovationsgrads“ mess- und bewertbar machen. Bevor jedoch solche intersubjektiv
”
überprüfbaren Messungen auf Kardinal- oder wenigstens Ordinalskalen konzipiert wur-
den, lag der Fokus der wissenschaftlichen Diskussion auf einer Reihe von Dichotomien,
die zumindest eine nominale Unterscheidung von Innovationen ermöglichen.30 Ohne An-
spruch auf Vollständigkeit sollen hier nur vier Begriffspaare vorgestellt werden, die eine
besondere Bedeutung für die Entwicklung der Innovationsgradmessung hatten.31
Innovation in Kern- und peripheren Systemen Betrachtet man Produkte als eine
hierarchisch geordneten Menge von Subsystemen und Schnittstellen,32 so lassen sich In-
novationen unterscheiden, die die Kernkomponenten eines Produkts betreffen, und solche,
die Veränderungen in eher peripheren Komponenten bewirken. Vor dem Hintergrund die-
ser Unterscheidung konnte in einer Reihe von Untersuchungen33 festgestellt werden, dass
es zunächst meist die zentralen Komponenten eines Produktes sind, in denen technische
Veränderungen erfolgen. Diese Kernkomponenten fungieren anschließend als Impulsgeber
für den technischen Fortschritt in eher peripheren Komponenten, sie bilden also strategi-
sche Engpassfaktoren. So beschreibt z. B. Constant (1980), wie die Einführung des Strahl-
triebwerks weitreichende Veränderungen in fast allen anderen Teilsystemen des Flugzeugs
nach sich zog.
Die Unterteilung in zentrale und periphere Komponenten kann nach dem Kriterium er-
folgen, wie fest ein Teilsystem mit den anderen Systemen eines Produktes verbunden ist.34
Kernkomponenten, wie z. B. der Oszillationsmechanismus einer Uhr, sind enger verbun-
den mit anderen Teilsystemen, stärker abhängig von diesen und von höherer Bedeutung
für die zentralen Leistungsparameter eines Produktes als die peripheren Komponenten.35
Änderungen in diesen zentralen Komponenten ziehen zwangsläufig Änderungen in den
meisten anderen Komponenten nach sich. Werden dagegen Änderungen an peripheren
Komponenten, wie z.B. dem Armband einer Uhr, vorgenommen, so hat dies höchstens
30
Hauschildt (2004), S. 14f.
31
Vgl. Gatignon et al. (2002), S. 1105ff. für eine ähnliche Darstellung.
32
Clark (1985); Schilling (2000).
33
Vgl. u. a. Constant (1980); Landes (1983); Henderson (1993); Henderson (1995).
34
Gatignon et al. (2002), S. 1106.
35
Landes (1983).
2.1. Begriff der Innovation 17
Kernkomponenten
Beibehalten Ersetzt
Verbindung zwischen
Innovationen sind nach dieser Klassifikation dann radikal“, wenn sie in einer neuen Pro-
”
duktarchitektur Komponenten miteinander verbinden, die selbst wieder auf neuen Gestal-
tungskonzepten beruhen. Inkrementelle Innovationen dagegen verbessern und erweitern
bestehende Produkte, ohne Veränderungen an der grundsätzlichen Gestaltung der Kom-
ponenten und der verbindenden Architektur vorzunehmen. Die Verwendung des Begriffs
36
Henderson und Clark (1990), S. 10.
37
Dies heißt jedoch nicht notwendigerweise, dass architektonische Innovationen die Komponenten selbst
vollkommen unverändert lassen. Oft werden architektonische Innovationen von Änderungen in einzel-
nen Leistungsparametern der Komponenten ausgelöst, die neuartige Wechselwirkungen in der Pro-
duktarchitektur auslösen bzw. ermöglichen.
18 2. Begriffliche Grundlagen: Innovation und Innovationsgrad
radikale Innovation“ ist jedoch in der einschlägigen Literatur alles andere als einheitlich,
”
was im folgenden Abschnitt diskutiert wird.
38
McDermott und O’Connor (2002), S. 425.
39
Meyers und Tucker (1989), S. 73; Chandy und Tellis (2000), S. 2.
40
Chandy und Tellis (1998), S. 474
41
Veryzer (1998a), S. 305; Veryzer (1998b), S. 137.
42
Wind und Mahajan (1997), S. 3.
43
Ali (1994), S. 48.
44
Schmidt und Calantone (1998), S. 112f.; Song und Montoya-Weiss (1998), 126.
45
Das Konzept der technologischen Trajektorie geht auf institutionenökonomische Betrachtungen
von Dosi (1982) zurück. Dosi fasst Innovationen als paradigmengebundene Problemlösungsprozesse
auf, die im wesentlichen von zwei Faktoren beeinflusst werden: Den technologischen Chancen und
den Aneignungsmöglichkeiten der Innovationsrenten durch die Institution der Unternehmen. Das
technologische Paradigma umfasst also nicht nur ein naturwissenschaftliches Prinzip oder eine
Schlüsseltechnologie, sondern auch ein bestimmtes Muster von Such- und Lösungsmethoden sowie
die Definition der wirtschaftlich relevanten Probleme. Der tatsächliche technische Wandel verläuft
nach Dosi wie auf einer technologischen Bahn (Trajektorie) entlang den ökonomischen und techni-
schen Zielkonflikten innerhalb des Paradigmas.
2.1. Begriff der Innovation 19
46
Abernathy und Clark (1985).
47
Anderson und Tushman (1990), S. 609; Tushman und Anderson (1986), S. 442.
48
Gerade beim Übergang von Verstärkerröhren zu Transistoren wird deutlich, welches Ausmaß die
Kompetenzvernichtung bei etablierten Firmen annehmen kann. Während Mitte der fünfziger Jahre
Firmen wie RCA, Sylvania, Raytheon und Westinghouse zu den Marktführern im Röhrengeschäft
zählten, mussten sie mit der zunehmenden Verbreitung des Transistors ihre Stellung an Firmen wie
Texas Instruments, Motorola und Fairchield abgeben, bevor diese im Zuge höchstintegrierter ULSI-
Schaltkreise wiederum durch Firmen wie Intel, NEC, Toshiba und Hitachi abgelöst wurden. Vgl.
Tushman und O’Reilly (1996), S. 9ff.
49
Tushman und Anderson (1986), S. 442.
20 2. Begriffliche Grundlagen: Innovation und Innovationsgrad
Wie im letzten Abschnitt deutlich wurde, kann die Bestimmung des Innovationsgehalts
eines betrieblichen Entscheidungs- und Durchsetzungsproblems anhand verschiedener Di-
50
Anderson und Tushman (1990), S. 609.
51
Hünecke (1983), S. 20.
52
Vgl. Gatignon et al. (2002), Tabelle 2.
2.2. Der Innovationsgrad und seine Dimensionen 21
mensionen erfolgen. In der Literatur finden sich zahlreiche Ansätze zur Messung eines
Innovationsgrads, die sich hinsichtlich ihres Messkonzeptes und ihrer Detaillierung von-
einander unterscheiden.53 Eine Reihe relativ neuer Studien54 vergleicht im Rahmen von
Literaturanalysen die unterschiedlichen Verwendungen des Begriffs Innovationsgrad“, um
”
über die Identifizierung übereinstimmender, charakteristischer Dimensionen zu einem um-
fassenden Konzept für seine Definition und Messung zu gelangen. Da auch diese Metaana-
lysen bereits an anderer Stelle vergleichend gegenübergestellt wurden,55 sollen hier nur
die für die vorliegende Arbeit wichtigsten Ergebnisse zusammengefasst werden.
Gemeinsam ist den erwähnten neueren Studien, dass sie den Innovationsgrad als ein
komplexes mehrdimensionales Konstrukt definieren. Bei der Bildung von Dimensionen
muss dabei zunächst beachtet werden, dass die Einschätzung der qualitativen Unterschie-
de einer Innovation gegenüber dem vorhergehenden Zustand naturgemäss subjektgebun-
den ist und bestenfalls objektiviert, aber nicht objektiv bestimmt werden kann.56 Es ist
daher von zentraler Bedeutung, aus welcher Perspektive die Neuheit beurteilt werden soll.
Vor diesem Hintergrund differenzieren Garcia und Calantone (2002) sowie Danneels und
Kleinschmidt (2001) auf Basis der von ihnen analysierten Untersuchungen grundsätzlich
nach einem Innovationsgrad hinsichtlich des Marktes und einem Innovationsgrad hinsicht-
lich des Unternehmens.57 Die erste Dimension, die von Garcia und Calantone als Makro-
Perspektive bezeichnet wird, misst, inwieweit eine Innovation einen Paradigmenwechsel
in Wissenschaft und Technik bzw. in der Struktur eines Marktes oder einer ganzen Indu-
strie herbeizuführen vermag. Die unternehmensspezifische Dimension (Mikroperspektive)
dagegen drückt aus, wie weit sich ein Unternehmen durch eine Innovation von bekann-
ten und bewährten Strategien und Kompetenzen in Marketing und Technologie entfernen
muss.58 Aus diesen Definitionen geht hervor, dass eine auf Makro-Ebene ermittelte Neuar-
tigkeit auch eine Neuartigkeit auf Mikro-Ebene bedingt, wohingegen eine auf Mikro-Ebene
bestimmte Neuheit nicht hinreichend für eine Neuheit auf Makro-Ebene ist. Die Dimen-
sionen des Innovationsgrads und ihre Komponenten sind in Abbildung 2.2 dargestellt und
werden in den folgenden Abschnitten näher erläutert.
53
Hauschildt und Schlaak (2001).
54
Avlonitis et al. (2001); Danneels und Kleinschmidt (2001); Garcia und Calantone (2002); Green et al.
(1995); Schlaak (1999).
55
Billing (2003), S. 19ff.; Salomo (2003).
56
Hauschildt (2004), S. 22.
57
Auch die Untersuchungen Avlonitis et al. (2001) und Green et al. (1995) identifizieren diese beiden
Dimensionen, ergänzen jedoch auf gleicher Gliederungsebene noch weitere Dimensionen des Innova-
tionsgrads.
58
Garcia und Calantone (2002), S. 113.
22 2. Begriffliche Grundlagen: Innovation und Innovationsgrad
Innovationsgrad
Makro-Perspektive Mikro-Perspektive
Neuer Kunden- Neues techn. Infrastruktur Neuer Markt Neues techn. Strategie
nutzen Prinzip Prinzip
Regulation Neue Kunden Organisations-
Adoptions- Leistungs- Leistungs- struktur
Gesellschaftl. Neue Markt-
risiko steigerung steigerung
Bedingungen position Prozesse
Verhaltens-
Informale
änderung
Organisation
Lernaufwand
Die Makroperspektive des Innovationsgrads beurteilt eine Innovation anhand von Firmen-
exogenen Faktoren, die anzeigen, wie neuartig sie für einen Markt, eine Industrie oder so-
gar die Welt an sich ist. Dabei ist es unerheblich, in welchem Verhältnis die Innovation zu
Strategie, Organisation, Fähigkeiten und Ressourcen des einzelnen Unternehmens steht.
Im Zusammenhang mit dieser Makroperspektive werden häufig zwei Quellen bzw. Trieb-
kräfte identifiziert, nämlich marktbezogene und technologiebezogene Diskontinuitäten.59
Als dritte Quelle des Makro-Innovationsgrads wird daneben in neueren Arbeiten auch der
Umfeldinnovationsgrad, also der Fit einer Innovation in das Makro-Umfeld (z. B. Bran-
chenstruktur), konzeptualisiert.60
Marktbezogene Diskontinuitäten treten dann auf, wenn eine Innovation aus Sicht des
Kunden neu ist.61 Diese Kundensicht wird im Rahmen der umfangreichen Forschung
zur Diffusion und Adoption von Innovationen behandelt,62 auf deren Ergebnisse die Er-
folgsfaktorenforschung zur Neuproduktentwicklung häufig zurückgreift. Insbesondere der
Aspekt eines relativen Produktvorteils bzw. eines völlig neuen Kundennutzens wird hier
59
Moriarity und Kosnik (1989), S. 8; Beard und Easingwood (1996), S. 96ff; Garcia und Calantone
(2002), S. 119.
60
Billing (2003), S. 35; Salomo (2003).
61
Danneels und Kleinschmidt (2001), S. 360.
62
Vgl. hierzu grundlegend Rogers (1995).
2.2. Der Innovationsgrad und seine Dimensionen 23
63
Leifer et al. (2000), S. 6.
64
Gatignon und Robertson (1991); Schmidt und Calantone (1998), S. 113.
65
Atuahene-Gima (1996), S. 38; Veryzer (1998b), S. 138.
66
Lee und O’Connor (2003), S. 8.
67
Abernathy und Clark (1985), S. 6; Garcia und Calantone (2002), S. 119.
68
Salomo (2003), S. 5.
69
Green et al. (1995), S. 210.
24 2. Begriffliche Grundlagen: Innovation und Innovationsgrad
Innovationsgrads ist vermutet worden, dass sich diese theoretisch ableitbare Kategorie
in der Realität mit Messprobleme konfrontiert sieht.70 Zum einen lässt sich die objekti-
ve Neuheit einer Technologie nur schwer ermitteln, zum anderen sind beide Kategorien
stark korreliert: Ein hoher Makro-Innovationsgrad führt automatisch zu einem hohen
Mikro-Innovationsgrad, bei einem niedrigen Makro-Innovationsgrad dagegen werden Fir-
men tendenziell zögern, eine für sie individuell vollkommen neue Technologie auch als
solche einzustufen.71
Neben markt- und technologiebezogenen Diskontinuitäten stellt der Umfeld-Fit einen
dritten Treiber für den Makro-Innovationsgrad dar.72 Innovationen können einen signifi-
kanten Einfluss auf ganze Industrien ausüben und Wettbewerbsstrukturen revolutionie-
ren.73 Sie können Wertschöpfungsketten verändern und den Aufbau vollkommen neuer
Infrastruktur erforderlich machen, beispielsweise die Errichtung eines neuen Tankstellen-
netzwerkes für die Versorgung wasserstoffbetriebener PKW.74 Neben solchen Infrastruk-
turerfordernissen können innovative Produkte jedoch auch weiterreichende soziale und
gesellschaftliche Diskussionen auslösen und Anpassungsprozesse erfordern – der Erfolg
einer Produktinnovation hängt hier also vom Eintreten einer Sozialinnovation ab.75 Bil-
ling (2003, S. 35) führt in diesem Zusammenhang das Beispiel der Kernenergie an, deren
mangelnde gesellschaftliche Akzeptanz letztlich ihre nachhaltige Etablierung im Energie-
erzeugungsmarkt beeinträchtigt hat.
Die Mikro-Perspektive des Innovationsgrads drückt aus, wie weit sich ein Unternehmen
durch eine Innovation von bekannten und bewährten Strategien und Kompetenzen in
Marketing und Technologie entfernen muss. Sie wird von Danneels und Kleinschmidt
(2001) in eine Vertrautheitskomponente und eine Fitkomponente gegliedert.76
Die Vertrautheitskomponente bezieht sich auf die Beziehungen zwischen einer Un-
ternehmung und ihrer Umwelt. Nach Thompson (1967) etabliert jede Organisation eine
Domäne, die durch die Menge all jener Punkte eingegrenzt ist, an denen die Organisation
70
Billing (2003), S. 32.
71
Salomo (2003), S. 5.
72
Der Umfeld-Fit wird von Salomo (2003, S. 6) als externer Ressourcenfit“ bezeichnet, Billing (2003,
”
S. 35) verwendet den Begriff Umfeldinnovationsgrad“.
”
73
Green et al. (1995), S. 204; Johannessen et al. (2001), S. 23; Robert (1991), S. 53ff.; Song und
Montoya-Weiss (1998), S. 126.
74
Billing (2003), S. 35; Salomo (2003), S. 6.
75
Vgl. Abschnitt 2.1.1 zum Begriff der Sozialinnovation.
76
Danneels und Kleinschmidt (2001), S. 360f.
2.2. Der Innovationsgrad und seine Dimensionen 25
auf externen Input angewiesen ist.77 Normann (1971) interpretiert eine solche Domäne als
den Bereich des Markt- und Technologieumfelds, mit dem das Unternehmen permanent in
Wechselwirkung steht. Der Teil der Umwelt, der nicht in die Domäne des Unternehmens
fällt, wird als Sekundärumfeld bezeichnet.78 Produktinnovationen erweitern die Domäne
des Unternehmens, so dass eine Auseinandersetzung mit einem Teil der Sekundärumwelt
erfolgen muss, die eine Herausforderung für die Mitarbeiter darstellt und eventuell ei-
ne Anpassung vorhandener kognitiver Strukturen erforderlich macht. In marktbezogener
Hinsicht kann dies beispielsweise die Auseinandersetzung mit neuen Kundensegmenten
und Wettbewerbern umfassen, in technologiezogener Hinsicht das Erlernen neuer Tech-
nologien und Produktionsprozesse.79
Die Fitkomponente des Innovationsgrads kann aus dem ressourcenbasierten Ansatz
hergeleitet werden, der die Erzielung nachhaltiger Wettbewerbsvorteile durch das Vorhan-
densein firmenspezifischer, einzigartiger Ressourcen erklärt.80 Materielle wie immaterielle
Ressourcen sind eine unverzichtbare Voraussetzung für die Entwicklung neuer Produk-
te. Insbesondere immaterielle Ressourcen, wie z. B. ein besonders ausgeprägtes Markt-
Know-How, unterliegen dabei keinem Verbrauch, sind nur schwer imitierbar und können
immer wieder neuen Produkten zum Erfolg verhelfen. Je besser das Produkt zu den ei-
genen Kompetenzen passt, desto niedriger ist der subjektiv empfundene Innovationsgrad.
Entsprechend kann die Fitkomponente des Mikro-Innovationsgrads als Grad an Synergie
bestimmt werden, der zwischen den Kompetenzen des Unternehmens und den Anforde-
rungen des Produkts besteht.81 Dabei kann zunächst wieder eine Unterscheidung nach
markt- und technologiebezogenen Kompetenzen vorgenommen werden, wichtiger dürften
hier jedoch dynamische, integrative Fähigkeiten sein, also Prozesse, Systeme und Struk-
turen, die die Verarbeitung technischer und marktbezogener Informationen ermöglichen
und so letztendlich zur Erzielung von Innovationsrenten beitragen.82
77
Thompson (1967), S. 27.
78
Normann (1971), S. 206.
79
Danneels und Kleinschmidt (2001), S. 366.
80
Hauschildt und Schlaak (2001), S. 167. Vgl. zum ressourcenbasierten Ansatz auch die Ausführungen
in Abschnitt 3.2 (S. 30ff.) der vorliegenden Arbeit.
81
Danneels und Kleinschmidt (2001), S. 361.
82
Vgl. Verona (1999), S. 134 sowie den Abschnitt 3.2.2 (S. 33ff.) der vorliegenden Arbeit.
Kapitel 3
1
Vgl. u. a. Balachandra und Friar (1997); Brown und Eisenhardt (1995); Ernst (2001, 2002); Gerwin
und Barrowman (2002); Griffin und Hauser (1996); Henard und Szymanski (2001); Johne und Snelson
(1988); Krishnan und Ulrich (2001); Lilien und Yoon (1989); Montoya-Weiss und Calantone (1994).
28 3. Theoretische Bezugspunkte der Arbeit
Krishnan und Ulrich analysieren die Literatur zur Neuproduktentwicklung aus ei-
ner Entscheidungsperspektive heraus, d. h. sie definieren Produktentwicklung als einen
Geschäftsprozess, in dessen Verlauf eine große Zahl spezifischer Entscheidungen zu treffen
ist. Sie begründen die Wahl dieses Standpunktes damit, dass sich zwar die Art und Weise,
wie Produkte entwickelt werden, sehr stark zwischen unterschiedlichen Unternehmen un-
terscheiden kann oder sogar innerhalb einer Firma über den Zeitverlauf sehr stark variieren
kann, dass aber die generischen Entscheidungen, die dabei getroffen werden müssen, ten-
denziell gleich bleiben.2 Um die gesamte Breite an Entscheidungen behandeln zu können,
die im Laufe eines Produktentwicklungsprozesses zu treffen sind, greifen die Autoren auf
die Ergebnisse von vier Forschungsrichtungen zurück, die sie als Marketing“, Engi-
” ”
neering Design“, Operations Management“ und Organizations“ bezeichnen. Während
” ”
sich die ersten drei Strömungen stark auf ihre funktionsspezifischen Erfolgsfaktoren, Ent-
scheidungsvariablen und Erfolgsgrößen fokussieren, ist es die Operations-Perspektive, die
die breiteste Betrachtungsweise wählt. Ein Produkt wird hier als Ergebnis eines Orga-
nisationsprozesses angesehen, den es so zu konfigurieren gilt, dass ein möglichst hoher
Projekterfolg erzielt wird.3
Da es das Ziel der vorliegenden Untersuchung ist, erfolgreiche Gestaltungsmöglichkeiten
für Planungs- und Kontrollprozesse bei hochgradigen Innovationen zu ermitteln, also eine
typische Organisationsfrage im Vordergrund steht, wird stark auf die Erkenntnisse der
Organizations-Perspektive zurückgegriffen. Ihre zentralen Ergebnisse sind in dem umfas-
senden Übersichtsartikel von Brown und Eisenhardt (1995) dargestellt. Auch Brown und
Eisenhardt differenzieren wiederum zwischen mehreren Theorieströmungen, die anhand
ihrer jeweiligen Zitationsmuster und zentralen Konstrukte identifiziert werden: Ratio-
”
nal Plan“, Communication Web“ und Disciplined Problem Solving“. Dabei betonen
” ”
sie jedoch, dass es sich bei dieser Einteilung um eine gewisse Idealisierung handelt und
Überlappungen zwischen den drei Kategorien unvermeidlich sind.4
Die sog. Rational Plan-Forschung hat ihren Ursprung in einer Reihe von breit-
gefächerten Studien zu Erfolgsfaktoren in der Produktentwicklung.5 Solche Erfolgsfak-
torenstudien haben oft einen explorativen Fokus und untersuchen ein breites Spektrum
an Variablen hinsichtlich ihrer Wirkung auf den (weit gefassten) Projekterfolg. Vor- und
2
Krishnan und Ulrich (2001), S. 3.
3
Projekterfolg wird hier im Gegensatz zu den drei anderen Forschungsrichtungen als ein umfassendes
Maß verstanden, zielt also nicht auf einzelne Messgrößen, wie z. B. Kundenzufriedenheit, technische
Leistung oder Lead time ab.
4
Brown und Eisenhardt (1995), S. 345 und 348.
5
Die wichtigsten frühen Arbeiten sind Myers und Marquis (1969); Rothwell (1972); Rothwell et al.
(1974); Rubenstein et al. (1976). Zentrale spätere Arbeiten sind u. a. Cooper (1979a); Cooper und
Kleinschmidt (1987a); Maidique und Zirger (1984); Maidique und Zirger (1985); Zirger und Maidique
(1990).
3.1. Einordnung in die Forschung zur Neuproduktentwicklung 29
Nachteile eines solchen Zugangs werden von Brown und Eisenhardt pointiert charakteri-
siert:
Ein weiterer Kritikpunkt der Autorinnen besteht darin, dass die Arbeiten der Rational
Plan-Forschung bei ihrem Untersuchungsdesign oft wenig theoriegeleitet vorgehen und es
versäumen, ihre empirischen Befunde an theoretischen Erkenntnissen widerzuspiegeln.
Die beiden anderen von Brown und Eisenhardt umrissenen Forschungsrichtungen ar-
beiten tendenziell stärker theoriebasiert und nehmen im weitesten Sinne Bezug auf die
Information Processing Theory. Die Communication Web-Forschung betrachtet stark fo-
kussiert die Wirkung von interner und externer Kommunikation des Produktentwick-
lungsteams auf zumeist psychosoziale Erfolgsmaße.7 Die Disciplined Problem Solving-
Richtung erweitert diesen informationstheoretischen Ansatz inhaltlich, indem sie Produkt-
entwicklung – stark vereinfacht ausgedrückt – als eine Gratwanderung zwischen relativ
eigenständigen Problemlösungsprozessen des Projektteams auf der einen Seite und der dis-
ziplinierenden Rolle einer übergreifenden Produktvision und eines Heavyweight Project
”
Manager“ 8 auf der anderen Seite interpretiert. Untersuchungen dieser Forschungsrichtung9
arbeiten oft fallstudienbasiert und bilden Prozessaspekte der Produktentwicklung reali-
stischer ab als die Arbeiten des Rational Plan, abstrahieren auf der anderen Seite aber
von den psychosozialen Aspekten, die in der Communication Web-Forschung behandelt
werden.
Vor diesem Hintergrund kann die vorliegende Arbeit in die Organisationsforschung zur
Neuproduktentwicklung eingeordnet werden. Der empirische Teil der Arbeit untersucht,
6
Brown und Eisenhardt (1995), S. 353.
7
Zentrale Arbeiten dieser Forschungsrichtung sind u. a. Allen (1971); Allen (1977); Katz und Tushman
(1981); Katz (1982); Katz und Allen (1985); Ancona und Caldwell (1990); Ancona und Caldwell
(1992a); Ancona und Caldwell (1992b); Dougherty (1990); Dougherty (1992).
8
Clark und Fujimoto (1991), S. 247ff..
9
Zentrale Arbeiten sind u. a. Imai et al. (1985); Takeuchi und Nonaka (1986); Hayes et al. (1988); Clark
und Fujimoto (1991); Womack et al. (1990); Iansiti (1992); Iansiti (1993); Eisenhardt und Tabrizi
(1995).
30 3. Theoretische Bezugspunkte der Arbeit
wie einzelne Faktoren des Planungs- und Steuerungssystems gestaltet werden sollten, um
einen möglichst hohen Projekterfolg zu erzielen, behandelt also eine typische Forschungs-
frage des Rational Plan-Zugangs zur Neuproduktentwicklung. Auf der anderen Seite wird
jedoch großer Wert auf die theoretische Ableitung der Hypothesen anhand der Theorie
der Informationsverarbeitung10 sowie auf die damit verbundene Konzeptualisierung und
Operationalisierung der betrachteten Konstrukte gelegt. Die Arbeit greift also auch direkt
auf die Methoden der beiden anderen Forschungsströmungen zurück. Im Interesse klarer
Fokussierung werden allerdings die für die Communication Web-Forschung charakteristi-
schen psychosozialen Aspekte des Teamprozesses und damit verbundene Konstrukte, wie
z. B. die Teamwork Quality, im Weiteren nicht vertieft betrachtet, diese sind beispielsweise
von Högl und Gemünden (2001) umfassend analysiert worden.
Auf der Grundlage dieser Einordnung in das Forschungsfeld zur Neuproduktentwick-
lung wird in den nächsten Abschnitten auf verschiedene Ansätze der Organisationstheorie
und der Forschung zum Strategischen Management zurückgegriffen, um ein theoretisches
Grundmodell für die vorliegenden Untersuchung abzuleiten.
Der ressourcenbasierte Ansatz, der vor allem in der Literatur zum strategischen Mana-
gement stark diskutiert und als komplementäre Sichtweise zur Industrieökonomik ver-
wendet wird, stellt die internen Ressourcen einer Unternehmung in den Mittelpunkt der
Analyse. Obwohl die Bedeutung der internen Ressourcenausstattung schon länger in der
ökonomischen Theorie11 und der strategischen Managementliteratur12 betont wurde, war
es vor allem Wernerfelt (1984), der den ressourcenbasierten Ansatz als potentielle Grund-
lage für die Forschung im strategischen Management etabliert hat.13
Die Bedeutung des ressourcenbasierten Ansatzes wird insbesondere dann deutlich,
wenn man die Ausrichtung der amerikanischen Managementforschung während der 80er
Jahre unter dem Einfluss von Vertretern der Harvard Business School berücksichtigt. Ins-
besondere von Porter (1980) wurden unternehmensexterne Faktoren als wesentliche Ein-
flussfaktoren des Unternehmensverhaltens betrachtet, so dass der wirtschaftliche Erfolg
10
Vgl. Abschnitt 3.4 der vorliegenden Arbeit.
11
Vgl. u. a. Penrose (1959), Nelson und Winter (1982).
12
Vgl. u. a. Christensen et al. (1982), Rumelt (1991).
13
Die Aufmerksamkeit, die dieser Forschungsansatz in den letzten Jahren erfahren hat, kann man
z. B. an einer Reihe von Sonder- oder Schwerpunktheften international führender Management-
Zeitschriften erkennen, u.a. Organization Science (Sept./Okt. 1996), Strategic Management Journal
(Special Issue Okt. 2003) und Journal of Management (Frühzahr 1991 und Special Issue Nov./Dez.
2001). Einflussreiche Artikel im Harvard Business Review zeigen zudem, dass das Thema auch für
Praktiker von hoher Relevanz ist, vgl. v. a. Prahalad und Hamel (1990) und Stalk et al. (1992).
3.2. Ressourcenbasierter Ansatz 31
eines Unternehmens letztlich als Funktion der Branchenattraktivität und seiner relati-
ven Wettbewerbsposition in dieser Branche betrachtet werden kann.14 Das Grundkonzept
dieser umweltorientierten Forschungsrichtung wird oft in Anlehnung an Bain (1956) als
Structure-Conduct-Performance-Paradigma oder als Market-Based View 15 bezeichnet. An
dieser branchenzentrierten Sichtweise setzt nun die Kritik des ressourcenbasierten Ansat-
zes an. Die Dominanz umweltorientierter Faktoren als Prädiktoren des unternehmerischen
Erfolgs wird bezweifelt, stattdessen versuchen die Vertreter des ressourcenbasierten An-
satzes, den Erfolg eines Unternehmens und die Performance-Unterschiede zwischen mehre-
ren Unternehmen einer Branche durch das Vorhandensein firmenspezifischer, einzigartiger
Ressourcen zu erklären.16
Nach dem ressourcenbasierten Ansatz besteht die zentrale Aufgabe des Management
zunächst darin, ausgehend von der spezifischen Ressourcensituation des Unternehmens
adäquate Wettbewerbsstrategien für dessen Tätigkeitsbereiche zu entwickeln. Dabei stellt
eine sorgfältige Analyse der unternehmensinternen Ressourcen den Ausgangspunkt aller
folgenden Überlegungen und Maßnahmen dar. Das spezifische Ressourcenprofil eines Un-
ternehmens kann sich im Vergleich zur Konkurrenz als entscheidender Wettbewerbsvor-
oder -nachteil erweisen. Folglich müssen die Ressourcen dergestalt weiterentwickelt wer-
den, dass sie eine Form der Einzigartigkeit erlangen und zur Sicherung längerfristiger
Wettbewerbsvorteile beitragen. Die Nutzung des Ressourcenpotentials wird somit zur
wesentlichen Quelle von Wettbewerbsvorteilen und substituiert damit z. T. Maßnahmen
zur Wettbewerbsbeschränkung (z.B. Eintritts- und Mobilitätsbarrieren), die in den indu-
strieökonomischen Ansätzen Wettbewerbsvorteile begründen.17
Die Frage, was genau unter einer Ressource zu verstehen ist, kann noch nicht als ab-
schließend geklärt betrachtet werden. Für Wernerfelt (1984) sind Ressourcen anything
”
which could be thought of as a strength or weakness of a given firm“. Dabei kann zwischen
materiellen und immateriellen Ressourcen unterschieden werden. Materielle Ressourcen
bezeichnen Kapital, das handelbar ist und der Erzeugung von Endprodukten dient, also
z. B. Produktionsanlagen und Standort, EDV-Systeme, aber auch Humankapital, Paten-
te und Lizenzen. Immaterielle ( intangible“, tacit“) Ressourcen dagegen bezeichnen das
” ”
Vermögen, Ressourcen zu einem gewünschten Zweck einzusetzen. Sie umfassen u. a. die
14
Porter (1980), S. 142f.
15
Vgl. zur Unterscheidung zwischen Resource Based View und Market Based View u. a. Makhija (2003),
S. 433, Mehra (1996), S. 307f. und Peteraf und Bergen (2003), S. 1028.
16
Barney (1991), S. 100f.; Wernerfelt (1984), S. 172.
17
Barney (1991); Teece et al. (1997).
32 3. Theoretische Bezugspunkte der Arbeit
18
Amit und Schoemaker (1993), S. 35.
19
Dierickx und Cool (1989); Knyphausen (1993).
20
So bezeichnen z.B. Amit und Schoemaker (1993) materielle Ressourcen schlicht als Ressourcen
(i.e.S.) während sie für immaterielle Ressourcen den Begriff Fähigkeiten“ (capabilities) verwenden.
”
In Abhängigkeit von der Frage, ob eher die Dinghaftigkeit oder die Handelbarkeit der Ressourcen in
den Vordergrund gestellt wird, unterscheiden sich verschiedene Klassifikationen auch in ihrer Zuord-
nung des Humankapitals sowie von Patenten und Lizenzen. Daher führt z.B. Barney (1991), S. 101,
das Humankapital als eigene Kategorie.
21
Barney (1991), S. 101.
22
Bowman (1974), S. 47.
23
Porter (1985).
24
Schoemaker (1990), S. 1180.
25
Barney (1991), S. 101.
3.2. Ressourcenbasierter Ansatz 33
ten zunichte gemacht werden können.26 In der Literatur werden häufig vier Bedingungen
dafür genannt, dass auf asymmetrische Ressourcenausstattungen zurückzuführende Wett-
bewerbsvorteile entstehen und aufrechterhalten werden können.27 Danach müssen Res-
sourcen erstens einen deutlichen Wert schaffen, es also beispielsweise der Unternehmung
erlauben, Möglichkeiten im Unternehmsumfeld zu nutzen oder Bedrohungen abzuwehren.
Zweitens müssen Ressourcen knapp sein, denn wenn eine große Zahl von Wettbewerbern
sie ebenfalls besäße, würden sie keine Wettbewerbsvorteile generieren. Ressourcen dürfen
drittens nicht substituierbar sein, es darf also keine ähnlichen oder alternativen Ressourcen
geben, die die zum Aufbau von Wettbewerbsvorteilen notwendigen Leistungen gleichwer-
tig erbringen können. Viertens können Ressourcen nur dann eine Quelle zum Aufbau
von Wettbewerbsvorteilen sein, wenn sie schwer imitierbar sind.28 Diese letzte und wich-
tigste Bedingung der Nichtimitierbarkeit kann dann als erfüllt angesehen werden, wenn
die vorteilhafte Ressourcenposition eines Unternehmens auf seine charakteristische histori-
sche Entwicklung zurückzuführen ist ( Pfadabhängigkeit“),29 wenn der Kausalzusammen-
”
hang zwischen bestimmten Ressourcen und einem Wettbewerbsvorteil für die Konkurrenz
schwer zu erkennen ist ( kausale Ambiguität“) oder wenn die Ressourcen aus einem kom-
”
plexen System von Elementen besteht, die miteinander interagieren und kaum isoliert
voneinander analysiert werden können ( soziale Komplexität“).30
”
Trotz der weiten Verbreitung, die der ressourcenbasierte Ansatz erfahren hat, ist er teil-
weise auch deutlicher Kritik ausgesetzt gewesen. So wurde in Bezug auf diese Forschungs-
richtung geäußert, dass sie konzeptionell vage und tautologisch sei und sich damit einer
empirischen Überprüfung entziehe.31 Der zentrale Vorwurf lässt sich dahingehend zusam-
menfassen, dass die wertvollen, nicht imitierbaren Ressourcen in der Praxis häufig dadurch
identifiziert würden, dass man bei einem Unternehmen zunächst Wettbewerbsvorteile fest-
stelle, die dann ex post auf die Wirkung der jeweils wertvoll erscheinenden Ressourcen
zurückgeführt würden.32 Charakterisiert man jedoch Ressourcen genau dann als wertvoll,
wenn sie die Implementation effizienz- und effektivitätssteigernder Strategien ermöglichen
26
Barney (1991), S. 103.
27
Vgl. z. B. Grant (1991), S. 123ff; Barney (1991), S. 105ff.; Mahoney und Pandian (1992); Peteraf
(1993), S. 180.
28
Vgl. hierzu grundlegend Lippmann und Rumelt (1982).
29
Dierickx und Cool (1989).
30
Barney (1991), S. 110.
31
Williamson (1999); Priem und Butler (2001a); Priem und Butler (2001b).
32
Eisenhardt und Martin (2000), S. 1108.
34 3. Theoretische Bezugspunkte der Arbeit
(Barney, 1991, S. 106), läuft man leicht Gefahr tautologische, nicht-falsifizierbare Aussa-
gen zu generieren.33
Diese Gefahr lässt sich nach Ansicht von Eisenhardt und Martin (2000, S. 1108) da-
durch mindern, dass man weniger auf den derzeitigen Ressourcenbestand abstellt als viel-
mehr auf die dynamischen Fähigkeiten (Dynamic Capabilities) zur Ressourcenänderung,
also auf die konkreten organisatorischen Prozesse, durch die die Integration externer und
die Rekonfiguration interner Ressourcen erfolgt.34 Produktentwicklungs- und Innovations-
prozesse sind ein zentrales Beispiel für solche dynamischen Fähigkeiten, da sie die Kom-
bination vielfältiger Begabungen und funktioneller Hintergründe zur Erzeugung gewinn-
bringender Produkte und Dienstleistungen ermöglichen.35 Sie können damit als Routinen
zur Transformation von Ressourcen beschrieben werden.36 Obwohl der ressourcenbasierte
Ansatz vor allem im Rahmen der strategischen Theoriebildung entwickelt wurde, kann
er also durch die Betrachtung dynamischer Fähigkeiten (d. h. organisatorischer Prozes-
se) auch herangezogen worden, um Determinanten für die Effizienz und Effektivität von
Entwicklungs- und Innovationsvorhaben abzuleiten.37 Die besondere Qualität eines Pro-
duktentwicklungsprozesses kann danach zur Quelle nachhaltiger, überdurchschnittlicher
Renten werden.38 Im ressourcenbasierten Modell der Produktentwicklung von Verona
(1999) werden dabei neben technischen und marketingbezogenen Fähigkeiten, die stark
funktionsorientiert sind, integrative Fähigkeiten betont, von denen insbesondere die in-
ternen Integrationsfähigkeiten für die vorliegende Arbeit relevant sind. Verona (1999)
versteht hierunter die Prozesse, Systeme und Strukturen, die die Verarbeitung techni-
scher und marktbezogener Informationen ermöglichen und zur Reduktion von Unsicher-
heit führen. Diese lassen sich als dynamische Fähigkeiten auffassen, die die Differenz zwi-
schen den bestehenden und den zur Innovation erforderlichen Kompetenzen ausgleichen
und so letztendlich zur Erzielung von Innovationsrenten beitragen.39 Als Beispiel führt
Verona (1999) ausdrücklich Planungs- und Steuerungsfähigkeiten an, so dass die folgende
Aussage festgehalten werden soll:
33
Priem und Butler (2001a), S. 27.
34
Die Notwendigkeiten, neben Ressourcen als Bestandsgrößen auch die Fähigkeit zur Ressourcenakku-
mulation als Stromgröße zu betrachten, wird bereits von Penrose (1959), S. 25 sowie Dierickx und
Cool (1989) hervorgehoben. Das Konzept der Dynamic Capabilities als Erweiterung des ressourcen-
basierten Ansatzes wurde vor allem von Teece et al. (1997), S. 515ff. ausgearbeitet.
35
Eisenhardt und Martin (2000), S. 1107.
36
Mahoney (1995), S. 93; Moenaert et al. (1995), S. 244.
37
McGrath et al. (1996), S. 390.
38
Verona (1999), S. 134.
39
Amit und Schoemaker (1993), S. 40; McGrath et al. (1996), S. 390f.; Verona (1999), S. 137.
3.3. Situativer Ansatz der Organisationsforschung 35
Der situative Ansatz (alternativ: Kontingenzansatz) geht von der zentralen Prämisse aus,
dass sich die Effizienz und Effektivität von Organisationen aus ihrer Anpassung an äußere
Situationen bzw. Kontingenzen ableitet. Da eine Übereinstimmung mit diesen Kontingen-
zen erfolgssteigernd wirkt, streben Organisationen aktiv danach, ihre strukturellen Eigen-
schaften so lange anzupassen, bis ein Fit erreicht ist, ihre Organisationsstruktur wird also
– unter der Voraussetzung rationaler, erfolgsmaximierender Akteure – zu einem gewissen
Grade direkt von externen Kontingenzen determiniert.41
Untersuchungen, die auf den Grundannahmen des situativen Ansatzes basieren, postu-
lieren – im Gegensatz zur älteren Organisationslehre – nicht mehr generelle Gültigkeit be-
anspruchende Organisationsprinzipien, sondern formulieren Bedingtheitsaussagen, gemäß
derer die Ausprägung und die Effizienz organisatorischer Regelungen von der jeweiligen
Situation abhängig sind.42 Das zentrale Ziel solcher Studien besteht also darin, Bezie-
hungszusammenhänge zwischen den Strukturen von Organisationen und ihren äußeren
40
Tidd (2001), S. 173; Tidd und Bodley (2002), S. 128.
41
Donaldson (2001), S. 1f.
42
Ebers (1992), Sp. 1818.
36 3. Theoretische Bezugspunkte der Arbeit
Aus der letzten Fragestellung geht bereits hervor, dass die mangelnde Anpassung einer
Organisation an ihre Umwelt Verhaltensänderungen bei ihren Mitgliedern hervorrufen
kann, die auf eine Beseitigung der Diskrepanzen ausgerichtet ist. Ein auf diese Weise
dynamisierter Kontingenzansatz, der auch als SARFIT (Structural Adaptation to Regain
Fit) bezeichnet wird, geht also davon aus, dass im Falle eines mangelhaften Leistungs-
niveaus, das beispielsweise durch veränderte Umfeldbedingungen hervorgerufen worden
sein kann, ein Feedback-Mechanismus in Gang gesetzt wird, in dessen Rahmen bestimmte
Gestaltungsparameter verändert werden, um so wieder eine zufriedenstellende Anpassung
der Organisation an ihre Kontingenzen herzustellen.45 Das dementsprechend erweiterte
Grundmodell des situativen Ansatzes ist in Abbildung 3.1 zusammengefasst.
Obwohl damit die generelle Fragestellung des Forschungsansatzes umrissen ist, bleibt
noch zu klären, welche Kontextfaktoren als besonders einflussreich und untersuchenswert
erachtet werden. Zwei Forschungsrichtungen, die das Bild der kontingenztheoretischen
Forschung in besonderer Weise geprägt haben, betrachten jeweils die Umwelt bzw. die
eingesetzte Technologie als wesentliche Determinante der Organisationsstruktur.46
Die Betrachtung des Kontextfaktors Umwelt geht vor allem auf die einflussreiche Pio-
nierarbeit von Burns und Stalker (1961) zurück. Sie stellen in ihrer Untersuchung 20 bri-
tischer Industriebetriebe fest, dass die Unternehmen mit wenig bürokratisierten, organi-
”
schen“ Organisationsstrukturen und Managementsystemen Änderungen in ihrer Mark-
tumwelt und in der technologischen Entwicklung erfolgsreicher bewältigen als stärker
43
Fieten (1980), Sp. 1613.
44
Kieser (1993), S. 163f.
45
Donaldson (1987), S. 2ff.
46
Schreyögg (1998), S. 333.
3.3. Situativer Ansatz der Organisationsforschung 37
Kontingenz- Andere
faktoren Ursachen
Fit Erfolg
Organisations-
struktur
SARFIT: Dynamische Anpassung
bei mangelhaftem Erfolg
Abbildung 3.1: Das Grundmodell des situativen Ansatzes (durchgezogene Linien) leitet den Erfolg von
Organisationen aus einem Fit zwischen deren Organisationsstruktur und externen Kontingenzfaktoren
ab. Der erweiterte SARFIT-Ansatz (Structural Adaptation to Regain Fit, gestrichelte Linien) beschreibt,
wie Unternehmen auf mangelnden Fit und mangelnde Performance durch Strukturanpassungen reagieren.
Darstellung in Anlehnung an Donaldson (2001, S. 12).
47
Zu ähnlichen Ergebnissen gelangen auch Schoonhoven (1981) und Leblebici und Salancik (1981).
48
Lawrence und Lorsch (1967a); Lawrence und Lorsch (1967b). Vgl. auch die ausführliche Diskussion
dieser Untersuchung bei Schreyögg (1994), S. 24-53.
49
Donaldson (1996b), S. 60.
50
Lawrence und Lorsch (1967a), S. 4f. und S. 13-16.
51
Lawrence und Lorsch (1967a), S. 18.
38 3. Theoretische Bezugspunkte der Arbeit
Perrow definiert anhand der Ausprägungen hoch“ und niedrig“ entlang dieser beiden
” ”
Dimensionen vier Technologietypen, für die er strukturelle Gestaltungsempfehlungen gibt.
Danach erfordert der Extremtyp Non-Routine“ (hohe Aufgabenänderung, geringe Ana-
”
lysierbarkeit) organische Managementsysteme während für den Typ Routine“ (gerin-
”
ge Aufgabenänderung, hohe Analysierbarkeit) eher mechanistische Managementsysteme
52
Lawrence und Lorsch (1967a), S. 28f.
53
Miller et al. (1991) führen eine umfassende Metaanalyse der Befunde hinsichtlich des Verhältnisses
von Technologie und Organisationsstruktur durch.
54
Schreyögg (1998), S. 61.
55
Woodward (1965), S. 51-67.
56
Staehle (1994), S. 451.
3.3. Situativer Ansatz der Organisationsforschung 39
Fit bzw. Misfit stellen zentrale Begriffe des situativen Ansatzes dar. Sie geben allge-
mein an, ob sich zwei Variablengruppen (z. B. Umwelt und Organisationsstruktur) in
ihren Merkmalen entsprechen, ob sie aufeinander abgestimmt sind.59 In Kontingenz-
modellen folgt der organisationale (unternehmerische) Erfolg als Konsequenz aus der
Übereinstimmung der beiden Variablengruppen.60 Als eines der zentralen Probleme des
situativen Ansatzes kann jedoch die Tatsache angesehen werden, dass das Fit-Konzept
nie in einer allgemeinen, d. h. von der jeweiligen Untersuchung unabhängigen Form cha-
rakterisiert wurde.61 So schreiben Galbraith und Nathanson (1979, S. 266):
Obwohl in vielen Studien durch die Verwendung von Begriffen wie contingent upon“,
”
matched with“, consistent with“, fit“ oder coalignment“ eine Fit-Beziehung zum Aus-
” ” ” ”
druck kommt, wird nur in wenigen Fällen eine analytische Konzepualisierung des jeweils
verwendeten Fit-Konzepts vorgenommen und daraus die Wahl der mathematischen Un-
tersuchungsmethode abgeleitet.62 Eine explizite Benennung des gewählten Fit-Konzepts
ist jedoch notwendig, da hiervon sowohl die theoretische Argumentationslogik abhängt als
auch die Frage, welche Daten genau zu erheben sind und wie sie statistisch ausgewertet
werden müssen.63
Van de Ven und Drazin unterscheiden mit dem Selektionsansatz, dem Interaktions-
ansatz sowie dem Systemansatz drei grundlegend unterschiedliche Verständnisse des Fit-
57
Hage und Aiken (1969); Van de Ven und Delbecq (1974); Tushman und Nadler (1978).
58
Schreyögg (1998), S. 62.
59
Staehle (1994), S. 47.
60
Drazin und Van de Ven (1985), S. 515.
61
Galbraith und Nathanson (1979), S. 266; Van de Ven und Drazin (1985), S. 333.
62
Venkatraman (1989), S. 423.
63
Schoonhoven (1981), S. 351ff.; Wolf (2000), S. 41.
40 3. Theoretische Bezugspunkte der Arbeit
Konzeptes.64 Beim Selektionsansatz wird implizit angenommen, dass aus einer festge-
stellten Kongruenz zwischen Kontext und Organisationsstruktur auch die Effizienz folgt,
ohne dass diese Effizienz durch Erfolgsmaße operationalisiert und gemessen wird. Als
beispielhaft für diesen Ansatz werden die Arbeiten von Woodward (1965) und Perrow
(1967) sowie darauf aufbauende Folgeuntersuchungen angesehen.65 Die Effizienz der fest-
gestellten Kongruenz ist später v. a. dadurch begründet worden, dass es langfristig im
Rahmen von evolutionären Prozessen zu einer Auslese kommt, durch die sichergestellt
wird, dass nur angepasste (d. h. effiziente) Unternehmen fortbestehen.66 Das vorrangige
Interesse beim Interaktionsansatz besteht dagegen weniger in der Aufdeckung einer Kau-
salstruktur zwischen Kontext und Gestaltung, sondern vielmehr in der Erklärung von
Erfolgsunterschieden durch die Wechselwirkung von Kontext- und Gestaltungsvariablen.
Regressionen mit multiplikativen Interaktionstermen stellen hier eine typische Analyseme-
thode dar, wobei Schoonhoven (1981, S. 351f.) die damit verbundene starke Einschränkung
der Wechselwirkungsform auf lineare Modelle hinweist.67 Beim System- oder Gestaltansatz
schließlich handelt es sich um eine neuere Forschungsrichtung, die die Notwendigkeit mul-
tivariater Analysen der Zusammenhänge zwischen vielfältigen Kontext-, Struktur- und
Erfolgsdimensionen betont und davon ausgeht, dass es mehrere, gleichermaßen günstige
Gestaltungsmöglichkeiten geben kann:
64
Van de Ven und Drazin (1985), S. 334ff.; Drazin und Van de Ven (1985), S. 515ff.
65
Drazin und Van de Ven (1985), S. 516.
66
Hannan und Freeman (1977); DiMaggio und Powell (1983).
67
Wechselwirkungseffekte müssen nicht linearer Natur sein, so stellte ja Woodward (1965) einen um-
gekehrt U-förmigen Zusammenhang zwischen der Komplexität der Fertigungstechnologie und dem
Formalisierungsgrad der Managementsysteme fest, siehe oben S. 38.
68
Miller (1981), S. 1-3.
3.3. Situativer Ansatz der Organisationsforschung 41
kann zu Inkonsistenzen in der Organisation führen. Neben der Forderung, dass Gestal-
ten typische, häufig anzutreffende Variablenkombinationen darstellen, gilt daher häufig
die interne Stimmigkeit des Beziehungsgefüges als ein weiteres Kriterium für das Vorlie-
gen einer Gestalt.69 In verschiedenen empirischen Untersuchungen konnte nachgewiesen
werden, dass ein positiver Zusammenhang zwischen der internen Konsistenz unterschied-
licher Organisationsvariablen und der Effizienz einer Organisation besteht.70 Vor diesem
Hintergrund unterscheidet Mintzberg (1979, S. 219ff.) zwischen Kongruenz- und Konfi-
gurationshypothesen. Kongruenzhypothesen entsprechen dem klassischen Denkmodell des
situativen Ansatzes: Eine Struktur ist effizient, wenn ein Fit zwischen Kontingenzfaktoren
und Gestaltungsparametern besteht. Konfigurationshypothesen fordern darüberhinaus,
dass eine interne logische Konsistenz zwischen den Gestaltungsparametern besteht. Die
Suche nach einer begrenzten Anzahl in sich konsistenter Konfigurationen71 oder Gestal-
ten wird dabei nicht als Alternative, sondern als Erweiterung des ursprünglichen Kontin-
genzansatzes verstanden.72 Bei dem gleichzeitigen Streben nach externem Fit und interner
Konsistenz kann es dabei zwar teilweise zu Zielkonflikten kommen, die beiden Ziele sind
jedoch nicht grundsätzlich inkompatibel.73
Die Klassifikation von Van de Ven und Drazin (1985) wurde später von Venkatraman
(1989) erweitert und v. a. hinsichtlich der statistischen Operationalisierung der verschie-
denen Ansätze präzisiert, vgl. Tabelle 3.1. Venkatraman geht davon aus, dass bei jeder
mit einem Fit-Konzept arbeitenden Untersuchung zwei grundlegende Entscheidungen zu
treffen sind.74 Auf der einen Seite muss aufgrund theoretischer Überlegungen bestimmt
werden, durch welchen funktionalen Zusammenhang der Fit zwischen Variablen erfasst
werden soll, also ob z. B. ein sehr spezifischer multiplikativer Interaktionsterm angebracht
ist, oder ob der Fit eher durch einen einfachen euklidischen Abstand gemessen werden
sollte. Dabei gilt tendenziell, dass der Funktionszusammenhang umso spezifischer gewählt
werden kann, je weniger Variablen in die Analyse einbezogen werden. Auf der anderen
Seite muss – wie oben bereits erwähnt – entschieden werden, ob die Auswirkung von Fit
auf ein bestimmtes Effizienzkriterium untersucht wird, oder ob die Variablenkongruenz
als eine Qualität an sich betrachtet wird, aus der über Selektionsargumente direkt auf
Effizienz geschlossen werden kann.75
69
Macharzina (1995), S. 69.
70
Khandwalla (1973); Child (1975).
71
Meyer et al. (1993).
72
Staehle (1994), S. 62.
73
Miller (1992), S. 175.
74
Venkatraman (1989), S. 424.
75
Wolf (2000), S. 46.
42 3. Theoretische Bezugspunkte der Arbeit
Tabelle 3.1: Klassifikation von Fit-Konzepten anhand der Eigenschaften ihrer jeweiligen Fitfunktion.
Eigene Darstellung in Anlehnung an Venkatraman (1989, S. 425).
Venkatraman (1989) diskutiert die konzeptionellen Grundlagen der sechs in Abb. 3.1
dargestellten Fit-Konzepte und operationalisiert sie, indem er jeweils geeignete Moglichkei
¨ -
ten zur statistischen Analyse vorschlägt.76 Diese Diskussion soll hier nicht im Einzelnen
nachvollzogen werden, sondern wird im Zusammenhang mit Moderatormodellen im Absc-
hnitt 8.6.4 wieder aufgegriffen.
Der situative Ansatz hat eine Reihe von methodischen und inhaltlichen Innovationen in
die Organisationsforschung eingeführt.77 Die wesentliche methodische Neuerung des Kon-
tingenzansatzes besteht darin, dass sich seine Aussagen nicht mehr vornehmlich auf die
Autorität und Erfahrungsberichte einzelner Autoren stützen, sondern auf systematisch
durchgeführte, empirisch-quantitative Untersuchungen mehrerer Organisationen. Inhalt-
lich erweitert er die Perspektive der Organisationsforschung, indem er den Strukturunter-
schieden von Organisationen mehr Beachtung schenkt und die organisatorische Bedeutung
zuvor nicht berücksichtigter Situationseinflüsse auf die organisatorische Gestaltung, Ef-
fektivität und Effizienz aufzeigt.
Obwohl der situative Ansatz also wesentlich dazu beigetragen hat, dass die Organi-
sationsforschung ein differenzierteres und empirisch informierteres Bild der Struktur von
76
Im Fall des Gestaltansatzes ist die Frage der statistische Operationalisierung noch nicht abschließend
geklärt, für einen aktuellen Ansatz vgl. Veliyath und Srinivasan (1995), S. 212ff.
77
Vgl. hierzu Ebers (1992), Sp. 1817ff.
3.3. Situativer Ansatz der Organisationsforschung 43
1. Mit Hinblick auf die Grundannahmen des situativen Ansatzes wird eingewendet,
dass die Organisationsstruktur nicht eindeutig durch die externe Situation deter-
miniert sei: In der Realität sei es ex ante nicht möglich, eine optimale Organisa-
tionsstruktur zu identifizieren.80 Darüberhinaus handelten Manager nur begrenzt
rational und hätten auch die Möglichkeit, ihre externe Umwelt zu beeinflussen.81
2. Das Fehlen einer theoretischen Fundierung wird bemängelt: Der situative Ansatz
erkläre nicht die grundlegenden Mechanismen, durch die die Anpassung der Or-
ganisationsstruktur an die Situation erfolgt. Es handelte sich also mehr um eine
Metatheorie“ bzw. einen Denkansatz als eine Theorie im eigentlichen Sinne.82
”
3. Inhaltlich wird kritisiert, dass wichtige Struktur- und Umweltmerkmale nicht
berücksichtigt würden und der Informationsgehalt der empirischen Ergebnisse ge-
ring sei.83
4. Hinsichtlich der Methodik wird kritisiert, dass die Operationalisierung der Kon-
strukte teilweise unangemessen sei, dass die Stichproben nicht immer repräsentativ
und vergleichbar seien und dass die Autoren sich bei der statistischen Analyse zu
unkritisch auf lineare Modelle verließen und oft nur Korrelationen betrachteten.84
Die inhaltlichen Kritikpunkte sind nicht spezifisch für den situativen Ansatz, sondern
treffen in ähnlicher Form auf den größeren Teil der empirischen Wirtschafts- und Sozial-
forschung zu. Organisationen sind als offene soziale Systeme durch Komplexität und Dy-
namik gekennzeichnet.85 Dieser Tatsache tragen systemtheoretische Organisationstheorien
dadurch Rechnung, dass sie analytisch-isolierende Betrachtungsweisen durch eine stärkere
78
Ebers (1992), Sp. 1829.
79
Ausführliche Zusammenfassungen der Kritikpunkte liefern u. a. Schreyögg (1994), S. 141-193,
Schreyögg (1998), S. 356-370, Kieser (1993), S. 175-184. Auf eine Präsentation der Gegenargumente
von Vertretern des situativen Ansatzes wird dort verzichtet. Am nachhaltigsten verteidigt wird der
situative Ansatz von Donaldson (1985; 1996a); vgl. auch die Debatte in Hinings et al. (1988).
80
Meyer et al. (1993), S. 1178.
81
Miller (1981), S. 6ff.; Schreyögg (1994), S. 184-191; Schreyögg (1998), S. 367-369.
82
Schoonhoven (1981), S. 350; Staehle (1994), S. 51.
83
Kieser (1993), S. 175-177.
84
Aldrich (1972), S. 28; Mitchell (1985); Kieser (1993), S. 176; Meyer et al. (1993), S. 1177.
85
Bronner (1992), Sp. 1123.
44 3. Theoretische Bezugspunkte der Arbeit
Akzentuierung ganzheitlicher Aspekte ergänzen. Dabei waren es gerade die oben kurz
vorgestellen frühen Kontingenzuntersuchungen, die eine Öffnung und stärkere Umweltori-
entierung der Organisationstheorie bewirkt haben.86 Obwohl die neueren Gestalt- bzw.
Konfigurationsansätze der Kontingenzforschung den Versuch unternehmen, zunehmend
größere Variablenkomplexe in die Analyse einzubeziehen, sind der empirischen Forschung
dabei durch den Datenerhebungsaufwand natürliche Grenzen gesetzt – empirische Sozi-
alforschung muss sich zu einem gewissen Grade immer auf Partialanalysen und ceteris
paribus-Betrachtungen verlassen.
Die methodischen Einwände mögen auf einen Teil der früheren Kontingenzforschung
zutreffen, allerdings haben Konstruktvalidierung und Kausalanalyse in den letzten Jahr-
zehnten deutliche Fortschritte gemacht und sollen auch in der vorliegenden Arbeit
sorgfältig dokumentiert werden (vgl. Kapitel 9 und 10).
Schwerer wiegen die beiden Einwände gegen die grundsätzliche Logik des Kontin-
genzansatzes. Die Kritik an den Grundannahmen ist sicher dann gerechtfertigt, wenn von
Seiten der Kontingenzforscher ein Absolutheitsanspruch erhoben wird, wenn also behaup-
tet wird, es gäbe für jede Umweltsituation eine eindeutig identifizierbare Optimalstruktur,
die folglich auch realisiert würde. Eine solch deterministische Sichtweise weisen allerdings
Kieser und Kubicek (1992) als ein – durch die Kontingenztheoretiker selbst verursachtes –
Missverständnis zurück. Sie vertreten die Auffassung, dass kontingenztheoretische Aussa-
gen nur angeben, in welchem Umfang Organisationsgestalter auf die gleiche Situation mit
den gleichen Maßnahmen reagieren.87 Entsprechend beschränkt sich auch die vorliegen-
de Untersuchung auf die Identifizierung bestimmter Konfigurationen des Planungs- und
Steuerungssystems, die tendenziell zu höherem Innovationserfolg führen, verzichtet dabei
jedoch angesichts der großen Anzahl in der Analyse nicht berücksichtigter Umwelt- und
Gestaltungsparameter bewusst auf einen Absolutheitsanspruch. Da der situative Ansatz
weiterhin keine geschlossene theoretische Begründung für den Anpassungsprozess liefert,
über den die Organisation auf bestimmte Kontextfaktoren reagiert, soll er hier eher als
ein Forschungsansatz denn als eine Theorie im eigentlichen Sinne aufgefasst werden.88
Dennoch sollen an dieser Stelle bereits zwei grundsätzliche Aussagen der Kontin-
genzforschung festgehalten und auf die Fragestellung der vorliegenden Untersuchung
übertragen werden. Wie oben dargestellt wurde, führen sowohl die Untersuchungen der
Umwelt- als auch der Technik-Schule zu dem generellen Ergebnis, dass unsichere Kon-
textfaktoren besser durch wenig formalisierte Organisationsstrukturen und Management-
systeme behandelt werden können:
86
Lehmann (1992), Sp. 1844.
87
Kieser und Kubicek (1992). Vgl. Schreyögg (1994), S. 152f. zu einer Kritik an dieser Sichtweise.
88
Vgl. zu dieser Sichtweise Schoonhoven (1981), S. 350; Staehle (1994), S. 51.
3.4. Situative Theorie der Informationsverarbeitung 45
Aussage 3.2: Je höher der Innovationsgrad eines Vorhabens ist, desto größer
ist die Erfolgswirkung organischer Planungs- und Steuerungssysteme.89
Die zweite Aussage leitet sich aus den neueren Konfigurations- und Gestaltansätzen her,
bei denen – wie oben erläutert – neben der Kongruenz zwischen externen Kontingenzfak-
toren und internen Gestaltungsparametern auch eine interne Konsistenz der Gestaltungs-
parameter gefordert wird:
Aussage 3.3: Je höher die interne Konsistenz der für den Innovationsprozess
relevanten Managementsysteme ist, je besser also ihre Elemente aufeinander
abgestimmt sind, desto höher ist der Innovationserfolg.
Zur Ableitung konkreterer Aussagen für das theoretische Grundmodell der vorlie-
genden Arbeit wird im folgenden Abschnitt auf die Information Processing Theory
zurückgegriffen, die zwar auf dem situativen Ansatz beruht, diesen jedoch um Aspekte
von Informationsbedarf und -verarbeitung bereichert und damit schlüssige Kontingenz-
und Effizienzaussagen ableiten kann.
Ein grundlegendes Problem des oben vorgestellten situativen Ansatzes besteht darin, dass
es sehr schwer fällt, den Fit zwischen einer Organisationsstruktur und der jeweils re-
levanten Umwelt ex ante zu ermitteln, da es sich hier um zwei abstrakte, nicht direkt
vergleichbare Konstrukte handelt.90 So bemerkt Aldrich (1979):
We know the physics of air, water, and light to which flying, swimming,
”
and seeing creatures must conform. We need much better knowledge of or-
ganizational types and appropriate environments before we can do as well in
understanding organizational change.“ 91
Egelhoff (1991, S. 345) sieht als diese fehlende Physik“ die Informationsverarbeitung von
”
Organisationen an, die von Galbraith (1969; 1973; 1977) und anderen Autoren92 im Rah-
men einer als Information Processing Theory bezeichneten Forschungsrichtung analysiert
89
Trotz der angeführten Kritik am situativen Ansatz kann diese Aussage als unkritisch betrachtet wer-
den. So widersprechen sich zwar beispielsweise die Befunde der Technologie-Schule z. T. auf der Ebene
der Gesamtorganisation, sie sind aber viel enger und konsistenter hinsichtlich der Zusammenhänge
auf Abteilungs- und Arbeitsplatzebene (Ebers (1992), Sp. 1827).
90
Egelhoff (1991), S. 345; West (2000), S. 350.
91
Aldrich (1979), S. 45.
92
Neben den Arbeiten von Galbraith stammen weitere zentrale Veröffentlichungen u. a. von Tushman
und Nadler (1978), Egelhoff (1982) sowie Daft und Lengel (1986).
46 3. Theoretische Bezugspunkte der Arbeit
Unsicherheit entsteht also als Resultat der Kombination einer bestimmten Aufgabe mit
einer bestimmten Organisationskonfiguration. Je höher die hierdurch hervorgerufene Un-
sicherheit ist, desto größer ist der Informationsbedarf, den die Organisation aktiv befrie-
digen muss:
Therefore, the greater the task uncertainty, the greater the amount of infor-
”
mation that must be processed among decision makers during task execution
in order to achieve a given level of performance.“ 96
Neben Unsicherheit haben Daft und Lengel (1986) später auch das Konzept der Mehr-
deutigkeit (equivocality) herangezogen, um die Notwendigkeit der Informationsverarbei-
tung theoretisch zu begründen: Während Unsicherheit auf einen Mangel an Information
zurückgeführt werden kann, der dazu führt, dass auf bestehende Fragen keine Antwor-
ten gegeben werden können, lässt sich Mehrdeutigkeit als das grundlegendere Problem
beschreiben, dass nicht einmal klar ist, welche Fragen überhaupt zu beantworten sind.97
93
Ähnlich bezeichnen Rogers und Agarwala-Rogers (1976, S. 7) Kommunikation, also den interperso-
nellen Informationstransfer, als lifeblood of an organization“.
”
94
Kmetz (1998), S. 6. Der zentrale Einfluss von Unsicherheit auf die Gestaltung von Organisationen
wird schon von Thompson (1967, S. 13) hervorgehoben: [. . . ] the central problem for complex orga-
”
nizations is one of coping with uncertainty. As a point of departure, we suggest that organizations
cope with uncertainty by creating certain parts specifically to deal with it, specializing other parts
in operating under conditions of certainty or near certainty. [. . . ] We also suggest that technologies
and environments are major sources of uncertainty for organizations, and that differences in those
dimensions will result in differences in organizations.“
95
Galbraith (1973), S. 5.
96
Galbraith (1973), S. 5.
97
Daft und Lengel (1986), S. 556f.
3.4. Situative Theorie der Informationsverarbeitung 47
98
Daft und MacIntosh (1981), S. 211; Kmetz (1998), S. 26.
99
Galbraith (1973), S. 5; Perrow (1967); Van de Ven et al. (1976), S. 324.
100
Galbraith (1973), S. .
101
Daft und MacIntosh (1981), S. 211.
102
Zadeh (1973), S. 28ff.
103
Daft und MacIntosh (1981), S. 212.
48 3. Theoretische Bezugspunkte der Arbeit
104
Downey et al. (1975); Downey und Slocum (1975); Duncan (1972); Galbraith (1977), Kapitel 14 und
15; Leblebici und Salancik (1981).
105
Daft und Weick (1984), S. 285; Tushman und Nadler (1978), S. 615f.
106
Daft und Lengel (1986), S. 566.
107
Vgl. allgemein Galbraith (1973; 1977) sowie für den Sonderfall internationaler Unternehmen Egelhoff
(1982; 1991).
108
Vgl. zu diesem Punkt Gemünden et al. (2005) sowie ausführlich Krieger (2005).
3.4. Situative Theorie der Informationsverarbeitung 49
Dieser Zusammenhang konnte u. a. von Keller (1994) direkt nachgewiesen werden. Bei
einer Stichprobe von 98 F&E-Projektgruppen hat er Unsicherheit und Informationsver-
arbeitung anhand von Multi-Item-Skalen erhoben und anschließend den Fit als Abstand
aus beiden Größen ermittelt. In Regressionen auf mehrere Erfolgmaße ging dieses Fitmaß
als starker Prädiktor für die eigentlichen Outcome-Dimensionen des Projektes ein, die
Wirkung auf Maße der Projekteffizienz war dagegen nicht signifikant.110
Hinsichtlich organisatorischer Informationsverarbeitungsmechanismen soll hier vor al-
lem die Frage diskutiert werden, wie die effiziente Gestaltung der Managementsysteme, al-
so beispielsweise der Koordinations- und Kontrollmechanismen, erfolgen sollte. Galbraith
(1973) diskutiert in diesem Zusammenhang eine Reihe organisatorischer Mechanismen,
die später von Tushman und Nadler (1978) sowie Daft und Lengel (1986) anhand ihres
Potentials, Unsicherheit und Mehrdeutigkeit zu reduzieren, angeordnet wurden.111 Die
letztgenannten Autoren untersuchen dafür den medialen Reichtum“ (media richness)
”
der einzelnen Mechanismen, also ihre Fähigkeit, innerhalb eines bestimmten Zeitinter-
valls durch Informationsverarbeitung zu einem Verständnisgewinn beizutragen.112
Reiche Medien (Gespräche, Gruppen-Meetings, etc.) erfolgen persönlich, von Angesicht
zu Angesicht, erlauben unmittelbares Feedback und übermitteln Informationen sprachlich
wie auch über sekundäre Kanäle, beispielsweise Stimmlage und Körpersprache. Kommu-
nikationsmittel mit geringerem medialen Reichtum (Memos, Pläne, Regeln, Datenbanken
etc.) sind dagegen unpersönlich und eignen sich weniger zum Abbau von Mehrdeutigkeit,
sind dafür aber ein effizientes Mittel, um große Mengen klarer, wohlverstandener Da-
ten zu verarbeiten. Diese Zusammenhänge konnten z. T. auch empirisch belegt werden.
So haben Van de Ven et al. (1976) nachgewiesen, dass mit zunehmender Unsicherheit –
speziell: Komplexität und Variabilität – der Aufgaben die Verwendung von Plänen und
Regeln zur Koordination stark nachlässt und diese vor allem durch spontane Meetings
substituiert werden.113 Tushman (1979) hat gezeigt, dass mündliche Kommunikation und
109
Tushman und Nadler (1978), S. 619.
110
Keller (1994), S. 174.
111
Galbraith (1973), S. 10ff.; Tushman und Nadler (1978), S. 618; Daft und Lengel (1986), S. 560ff.
112
Daft und Lengel (1986), S. 559f.
113
Van de Ven et al. (1976), S. 329.
50 3. Theoretische Bezugspunkte der Arbeit
Bedarf an
Informations-
vearbeitung
Fit Erfolg
Potential zur
Informations-
verarbeitung
Anpassung bei
Koordinations- mangelhaftem Erfolg
Organisations-
und Kontroll-
struktur
mechanismen
Abbildung 3.2: Das Modell der organisationalen Informationsverarbeitung leitet den Erfolg von Or-
ganisationen aus einem Fit von deren Informationsverarbeitungspotenzial und dem durch Komplexität,
Unsicherheit und Mehrdeutigkeit hervorgerufenen Informationsbedarf ab. Das Unternehmen kann auf
mangelhafte Performance durch Strukturanpassungen reagieren. Darstellung in Anlehnung an Tushman
und Nadler (1978), S. 622.
114
Tushman (1979), S. 89.
115
Leifer und Mills (1996), S. 121f.; Tushman und Nadler (1978), S. 618.
3.4. Situative Theorie der Informationsverarbeitung 51
116
So beispielsweise die Untersuchungen von Keller (1994), Moenaert et al. (1994), Moenaert et al.
(1995) und Tushman (1978).
117
Souder und Moenaert (1992), S. 488.
118
Saren (1984).
119
So beispielsweise die bei Cooper (1990; 1991) und Rosenthal (1992), S. 18ff. dargestellten Modelle.
120
Souder und Moenaert (1992), S. 492.
121
Rogers et al. (1999), S. 568.
52 3. Theoretische Bezugspunkte der Arbeit
Aussage 3.7: Höherer Abbau von Unsicherheit in der Planungsphase des In-
novationsprojektes führt zu einem strukturierteren Implementierungsprozess
und weniger unplanmäßigen Änderungen.
122
Mintzberg (1981), S. 322.
123
Browning et al. (2002), S. 443.
124
Souder und Moenaert (1992), S. 495.
125
Leifer und Mills (1996), S. 125f.; Souder und Moenaert (1992), S. 500.
3.5. Fazit der theoretischen Diskussion 53
Fit
Projekt-
Planung
Fit Fit erfolg
Steuerung
Unsicherheit = Innovationsgrad
Abbildung 3.3: Das theoretische Grundmodell der Arbeit leitet den Erfolg von Innovationsvorhaben
aus den im Projektverlauf zum Tragen kommenden Planungs- und Steuerungsfähigkeiten her. Nach der
situativen Theorie der Informationsverarbeitung hängt deren optimale Ausprägung vom Grad der Unsi-
cherheit ab, hier als Innovationsgrad des Vorhabens erfasst. Weiterhin fordern Konfigurationsansätze die
interne Konsistenz der Gestaltungsparameter, hier der Planungs- und Steuerungsaktivitäten.
Kapitel 4
4.1 Überblick
1
Der Begriff Fuzzy Front End geht auf Smith und Reinertsen (1991) zurück und bezeichnet allgemein
die früheste Phase des Produktentwicklungsprozesses, in der engsten Abgrenzung sogar den Zeitab-
schnitt, der noch vor dem ersten Team-Meeting und dem damit einsetzenden Strategiebildungsprozess
liegt, vgl. u. a. Khurana und Rosenthal (1997), S. 104, Moenaert et al. (1995), S. 243, Reid und de
Brentani (2004), S. 171.
2
Cooper (1990); Cooper und Kleinschmidt (1990).
56 4. Planung, Steuerung und Erfolg von Innovationsprojekten
Projekt-
planung
Prozess-
Ideen- und Produkt-
formalisierung
Alternativen- konzept,
generierung, Business Case,
Ziel-
’’Vision’’ Zielfestlegung
änderungen
Risiko-
management
Portfoliostrategie, Multiprojektmanagement
Abbildung 4.1: Modell der Planung und Steuerung im Front End von Innovationsprojekten. Eigene
Darstellung in Anlehnung an Khurana und Rosenthal (1997, S. 105) und Veryzer (1998a, S. 317).
realisiert wird, beschreiben lassen. Auf der einen Seite zeigen empirische Untersuchungen,
dass gerade bei neuartigen, schlecht strukturierten Entscheidungsproblemen nur selten ein
im Voraus definierter geradliniger Entscheidungsprozess verfolgt werden kann.3 Auf der
anderen Seite kommt Veryzer (1998a) in seiner Untersuchung des Entwicklungsprozesses
von acht hochgradigen Innovationen zu dem Ergebnis, dass diese zwar nicht nach einem
ausgesprochen formellen Schema gesteuert werden, insgesamt aber doch einem konsisten-
ten Muster folgen.4
Hochinnovative Projekte beginnen danach häufig mit einer Phase des Dynamic Drif-
ting, in der zunächst Ideen und alternative Lösungswege entwickelt und wieder verworfen
werden, bis sich, beispielsweise unter dem Einfluss von Promotoren, eine erste Projektvisi-
on herauskristallisiert. Als eine unter vielen möglichen Quellen für Projektideen kann da-
bei beispielsweise die Identifikation strategischer Lücken im Rahmen des Projektportfolio-
Management dienen. In der Folge werden potenzielle Produktkonzepte, Anwendungen und
Kundengruppen identifiziert, Kundennutzendimensionen und Produktspezifikationen de-
finiert sowie erste Marktanalysen und Business Case-Betrachtungen durchgeführt. Obwohl
3
Vgl. beispielsweise Mintzberg et al. (1976), S. 246ff; Witte (1968), S. 625ff.
4
Veryzer (1998a), S. 313.
4.1. Überblick 57
diese mit großer Unsicherheit verbunden sind, bilden sie doch eine notwendige Vorausset-
zung für eine formelle Projektevaluation, die in Koordination mit dem Projektportfolio-
Management vorzunehmen ist und die Entscheidung über eine eventuelle Aufnahme der
eigentlichen Produktentwicklung herbeiführt.5 Da diese Phase v. a. Planungsaktivitäten
vor der eigentlichen Go-/No-Go-Entscheidung umfasst, handelt es sich nach Mintzberg
(1981), S. 322 um Pre-Decision Planning, die im weiteren Verlauf der Untersuchung als
Businessplanung“ bezeichnet werden soll. Mit der Entscheidung zur Fortführung des
”
Vorhabens werden strategische Ziele festgelegt, die als Grundlage für die Steuerung und
Erfolgsbeurteilung des weiteren Projektverlaufes dienen. Die zur Erreichung der Ziele
notwendigen Arbeitspakete und Aktivitäten werden, soweit sie bereits absehbar sind, im
Rahmen einer eher operativ ausgerichteten Planung (Post-Decision Planning bzw. Pro-
gramming 6 ) erarbeitet. Diese umfasst einerseits die klassische Projektplanung, anderer-
seits aber auch das projektbezogene Risikomanagement, da gerade bei Innovationsprojek-
ten mit dem Eintreten unvorhergesehener Ereignisse zu rechnen ist, die zu identifizieren
und quantifizieren sind, damit Pläne zur Schadensvermeidung bzw. -minderung entwickelt
werden können. In Erweiterung des in Abbildung 3.3 zusammengefassten theoretischen
Grundmodells soll vorhabensbezogene Planung im Folgenden also in die zwei Bereiche
Businessplanung (Pre-Decision Planning) und operative Planung (Post-Decision Plan-
ning) differenziert werden, zwischen denen die kritische Entscheidung über die Aufnahme
der eigentlichen Produktentwicklung fällt.
Die Vorhabenssteuerung baut idealerweise direkt auf den so erstellten Plänen auf. An
zentralen Meilensteinen des Projektes kann in formellen Reviews der Status des Projektes
mit der ursprünglichen Planung verglichen und so der Grad der Zielerreichung hinsichtlich
der wesentlichen Projektziele ermittelt werden. Für den Fall, dass hier wesentliche Ab-
weichungen festgestellt werden oder sich die Ausprägung kritischer Umfeldfaktoren stark
verändert hat, kann es zu Zielanpassungen kommen, die zu einer veränderten Ressourcen-
ausstattung des Projektes oder sogar zum Abbruch oder Einfrieren des Vorhabens führen
können. Diese zentralen Vorhabensentscheidungen sind wiederum in Koordination mit
dem Projektportfolio-Management zu treffen.
Die hier kurz erwähnten Aspekte der Vorhabensplanung und -steuerung werden in den
folgenden Abschnitten näher beleuchtet und insbesondere hinsichtlich ihrer Anwendbar-
keit bei innovativen Projekten untersucht. Dabei wird – ähnlich wie im vorhergehenden
Kapitel – wiederum eine Reihe zentraler Aussagen abgeleitet, die die Grundlage für die
Metaanalyse bisheriger empirischer Forschung in Kapitel 5 und die Hypothesenformulie-
5
Veryzer (1998a), S. 314f.
6
Mintzberg (1981), S. 322.
58 4. Planung, Steuerung und Erfolg von Innovationsprojekten
Planung kann als Durchführung formalisierter Prozeduren aufgefasst werden, die eine
Organisation einsetzt, um Entscheidungen zu treffen, zu integrieren und zu artikulieren.7
Die im Rahmen dieser Prozeduren entwickelten Pläne sollten weitestmöglich objektiv,
logisch und sachlich sein, realistische Zielsetzungen enthalten und Wege aufweisen, um
diese Ziele zu erreichen.8
Planung umfasst zunächst die Entwicklung und Analyse von Handlungsalternativen,
die als Grundlage für eine Entscheidung über das weitere Vorgehen dienen.9 Solche Ent-
scheidungen können mit Hilfe formeller Planungsmethoden erheblich beschleunigt wer-
den, da durch sie fehlende Informationen wesentlich effizienter beschafft werden können
als durch zufällige Suchstrategien.10 Planung stellt weiterhin einen wichtigen Bezugspunkt
für anschließende Handlungen dar, ermöglicht also nicht nur die Setzung von Zielen, son-
dern erleichtert zugleich auch deren Erreichung, indem sie definiert, was zu tun ist, wie
etwas zu tun ist, und wer für die Durchführung verantwortlich ist.11
Mintzberg (1981) nimmt, wie bereits erwähnt, eine konzeptionelle Unterteilung des
Planungsprozesses in zwei Phasen vor: Eine eher visionäre erste Phase, in der Ziele und
Handlungsalternativen entwickelt und abgewogen werden (Pre-Decision Planning), und
eine zweite Phase, deren Fokus auf der Ausarbeitung der Konsequenzen und operativen
Umsetzungsschritte einer gewählten Handlungsalternative liegt (Post-Decision Planning,
Programming).12 Dieser Zweiteilung wird in den nächsten Abschnitten gefolgt, indem
zunächst Businessplanung (Abschnitt 4.2.1) und die damit verbundene Zieldefinition (Ab-
schnitt 4.2.2) behandelt werden, bevor mit Projektplanung (Abschnitt 4.2.3) und Risiko-
management (Abschnitt 4.2.4) näher auf die operative, umsetzungsorientierte Phase der
Planung eingegangen wird.
4.2.1 Businessplanung
7
Mintzberg (1981), S. 321.
8
Steiner (1969), S. 20.
9
Koontz und O’Donnell (1976), S. 70; Snyder und Glueck (1980), S. 73.
10
Delmar und Shane (2003), S. 1167
11
Snyder und Glueck (1980), S. 73.
12
Mintzberg (1981), S. 322f.
4.2. Planung von Innovationsvorhaben 59
gegenwärtigen Situation mit dem erforderlichen Sollzustand abgeleitet werden und dass
mögliche Problemlösungen gesucht und bewertet werden, damit eine hinreichende Ent-
scheidungsgrundlage für einen etwaigen Eintritt in die eigentliche Entwicklungsphase be-
reitsteht.13 Der zeitliche Ablauf dieser Frühphasenplanung wird im Rahmen der Discipli-
ned Problem Solving-Forschung14 als ein System iterativer Problemlösungszyklen beschrie-
ben. Ein Problemlösungszyklus besteht dabei aus einer Abfolge von Informationsverarbei-
tungsschritten, zu denen im wesentlichen die Punkte Problem- und Zieldefinition, Alter-
nativengenerierung, Evaluation und Entscheidungsfindung gehören.15 In einem zyklischen
Durchlaufen von Situationsanalyse, Problemstellung und möglichen Lösungen nähert sich
ein Entwicklungsvorhaben seiner Realisierung, wobei der Detaillierungsgrad zu- und der
Entscheidungsspielraum abnimmt.16 Es handelt sich dabei um einen alles andere als li-
nearen Prozess, dessen Phasen auch im Rahmen von Concurrent Engineering-Ansätzen
überlappen können.17
In den folgenden Absätzen werden zunächst mit der Ideen- und Alternativengenerie-
rung sowie der methodischen Businesscase-Analyse einzelne Aspekte der Businessplanung
erörtert, bevor auf die Anwendbarkeit der Businessplanung bei innovativen Projekten
eingegangen wird. Aspekte der Zielfestlegung werden dann in Abschnitt 4.2.2 untersucht.
Trotz der so festgelegten Reihenfolge ist zu betonen, dass es sich hier um interdependente
Aktivitäten handelt: Alternativkonzepte können nicht ohne die Existenz erster Global-
ziele generiert werden, und Zielveränderungen im Innovationsprozess ziehen wiederum
Konzeptänderungen nach sich.18
13
Pleschak und Sabisch (1996), S. 129.
14
Vgl. Abschnitt 3.1 der vorliegenden Arbeit.
15
Clark und Fujimoto (1991), S. 206f.
16
Specht und Beckmann (1996), S. 122.
17
Vgl. Gerwin und Barrowman (2002) für eine aktuelle Metaanalyse empirischer Befunde der Concur-
rent Engineering-Forschung.
18
Marks et al. (2001), S. 365; Urban und Hauser (1993), S. 50f.
19
Hauschildt (2004), S. 375.
20
Veryzer (1998a), S. 313.
60 4. Planung, Steuerung und Erfolg von Innovationsprojekten
können innovative Ideen generell auch durch den eher zweckorientierten Nachfragesog
des Kunden (Demand Pull ) induziert werden.21 Die Quelle der Initialidee ist letztlich
weniger entscheidend als vielmehr ihre technische Realisierbarkeit, ihre wirtschaftliche
Tragfähigkeit und ihr Fit mit den Kernkompetenzen und der Strategie des Unterneh-
mens.22
Innovative Lösungskonzepte sind meist ebenso das Ergebnis systematischen Vorgehens
wie überraschender Einfälle, erfordern also eine Mischung aus Kreativität, analytischer
Systematik und harter Arbeit“.23 Bevor eine begründete Auswahl unter den Initialide-
”
en vorgenommen werden kann, müssen diese durch Detaillierung und Ausarbeitung zu
groben Produktkonzepten verdichtet werden.24 Die Generierung alternativer Konzepte
im Innovationsprozess kann in Anlehnung an Hauschildt (2004) in multiple und muta-
tive Entwicklungen differenziert werden. Erzeugt man immer neue Kombinationen der
unterschiedlichen Ausprägungen bestehender Produkteigenschaften, so werden multiple“
”
Alternativen generiert. Fügt man einem Produkt dagegen völlig neue Eigenschaften hinzu,
liegt eine mutative Alternativenentwicklung vor. In diesem Fall ist der realisierte Innova-
tionsgrad deutlich höher, und erst hier liegt wohl eine eigentliche Innovation vor.25
Mit der Alternativengenerierung ist immer auch eine erste Alternativenselektion ver-
bunden, da sich einzelne Konzepte häufig schon im Prozess der Lösungssuche als nicht
tragfähig erweisen. Damit können bereits im Verlauf der Lösungssuche viele Gestaltungs-
optionen verworfen werden, und der Raum möglicher Problemlösungen wird immer stärker
eingegrenzt, je näher das Projekt dem ersten zentralen Entscheidungspunkt, also dem
möglichen Eintritt in die Entwicklungsphase, kommt.26 Am Ende des Suchprozesses lie-
gen schließlich mehrere alternative Grobkonzepte zur Auswahl vor, die einer detaillierten
methodischen Analyse zu unterziehen sind, um ihre technischen, marktbezogenen und
finanziellen Implikationen deutlich und vergleichbar zu machen.
Eine solche systematische Generierung und Evaluation alternativer, z. T. konträrer
Gestaltungs- und Handlungsoptionen ist im allgemeinen gut geeignet, um schlechtstruk-
turierte Probleme ( messes“) zu behandeln. Je gegensätzlicher dabei die Optionen ausge-
”
staltet werden, desto eher gelingt es, die den verschiedenen Ansätzen zugrundeliegenden
Annahmen aufzudecken und infragezustellen.27 Neben der Tatsache, dass diese dialek-
tische Alternativenanalyse kritische Annahmen und Hypothesen explizit machen kann,
21
Rosenthal (1992), S. 128ff.
22
Specht und Beckmann (1996), S. 144.
23
Hauschildt (2004), S. 371.
24
Specht und Beckmann (1996), S. 144.
25
Hauschildt (2004), S. 389.
26
Morris (1998), S. 10.
27
Mitroff und Emshoff (1979), S. 2.
4.2. Planung von Innovationsvorhaben 61
hilft sie auch, das Management-Commitment für einzelne Alternativen zu reduzieren und
damit die Gefahr zu senken, dass später eine offensichtlich aussichtslose Option blind
weiterverfolgt wird ( commitment to a loosing course of action“, vgl. auch Abschnitt
”
4.3.1).28
Methodische Businessplan-Analyse Ist der Lösungsraum auf eine geringe Zahl von
Alternativen eingegrenzt, deren technische und wirtschaftliche Realisierbarkeit auf den
ersten Blick nicht utopisch erscheint, so muss die Auswahlentscheidung vor Aufnahme der
eigentlichen Produktentwicklung und dem damit verbundenen Ressourcen-Commitment
vorbereitet werden. Hierfür ist ein Businessplan bzw. Detailkonzept zu erarbeiten, in
dem eine konsistente Projektstrategie zur Erreichung der Innovationsziele entwickelt und
als spätere Entscheidungsgrundlage aufbereitet wird.29 Erfahrungen zeigen, dass diese
Validierungsphase von eminenter Wichtigkeit zur Vermeidung späterer Fehlschläge ist und
– bei gründlicher Ausführung – zwischen drei und sechs Prozent der späteren aggregierten
Projektkosten verursachen kann.30
Ausgangspunkt der Konzeptentwicklung ist idealtypischerweise zunächst die Identifi-
zierung eines attraktiven Markt- oder Geschäftsfelds durch die Analyse der eigenen Lei-
stungspotenziale sowie der Marktchancen und -risiken. Hierunter fallen beispielsweise die
Untersuchung und Prognose von Kundenbedürfnissen, Technologielebenszyklen oder regu-
latorischen Rahmenbedingungen.31 Aus den identifizierten Kundenbedürfnissen sind dann
im nächsten Schritt die zentrale Value Proposition und die geforderten Leistungsmerkmale
des zukünftigen Produktes abzuleiten.32 Für jedes der relevanten Alternativkonzepte ist
ein vorläufiges technisches Lösungskonzept zu erarbeiten, das zwar noch nicht die detail-
lierten Design-Spezifikationen umfasst, aber bereits die wesentlichen Funktionsstrukturen,
Technologien und Wirkprinzipien beschreibt.33
Abschließend sind die finanziellen und strategischen Implikationen der Konzeptvari-
anten zu erarbeiten, da nur deren Vergleich untereinander bzw. mit dem bestehenden
Zustand ein Urteil über die Vorteilhaftigkeit des Innovationsvorhabens erlaubt.34 Da-
bei stellt vor allem die Übersetzung des realwirtschaftlichen Geschäftsmodells in harte
28
Eisenhardt (1989), S. 558.
29
Specht und Beckmann (1996), S. 145.
30
Morris (1998), S. 11.
31
Bacon et al. (1994), S. 33ff.; Khurana und Rosenthal (1997), S. 104f.; Rosenau und Moran (1993), S.
60ff.; Urban und Hauser (1993), S. 130ff. und 222ff.
32
Chesbrough und Rosenbloom (2001), S. 58f.; Khurana und Rosenthal (1997), S. 105.
33
Specht und Beckmann (1996), S. 149.
34
Hauschildt (1991), S. 395.
62 4. Planung, Steuerung und Erfolg von Innovationsprojekten
Fit Weiterhin ist es bei wirklich neuen Produkten wegen der mit ihnen verbundenen
hohen finanziellen Risiken und der meist sehr langen Zeit bis zur Markteinführung beson-
ders wichtig, dass ihre Integration in die langfristige Unternehmensplanung und ihr Fit mit
der Unternehmensstrategie sichergestellt wird. Nur wenn diese speziellen Produktinnova-
tionen als zentral für die Unternehmensstrategie gelten, werden hinreichende Ressourcen
eingesetzt und das notwendige Durchhaltevermögen aufgebracht, um solche schwierigen
Projekte zum Erfolg zu führen.40 Ausgehend von der zuvor erfolgten methodischen Analy-
se des Geschäftsplanes muss daher noch vor Eintritt in die eigentliche Entwicklungsphase
untersucht werden, inwieweit das Vorhaben zur Umsetzung strategischer Unternehmens-
ziele beiträgt und ob es dabei von den eigenen Kernkompetenzen profitieren kann.41
35
Chesbrough und Rosenbloom (2001), S. 59.
36
Jovanović (1999), S. 218ff.; Morris (1998), S. 11; Rosenau und Moran (1993), S. 57. Eine ausführliche
Beschreibung von Sensitivitätsanalysen als Bestandteil der Modellanalyse findet sich bei Saltelli et al.
(2000).
37
Browning et al. (2002), S. 446f.
38
Khurana und Rosenthal (1997), S. 112.
39
Bacon et al. (1994), S. 39f.
40
Deszca et al. (1999), S. 616.
41
Hamilton (2002), S. 132.
4.2. Planung von Innovationsvorhaben 63
gehend auf Analogieschlüsse auf der Basis von Arbeiten der Gründungsforschung und
dem strategischen Management zurückgegriffen werden, da die positive Erfolgswirkung
der Businessplanung zwar in allgemeinen empirischen Studien der Neuproduktforschung
tendenziell belegt werden konnte,42 konzeptionelle Arbeiten zu dem Themenkreis bisher
allerdings kaum existieren.
Die Durchführung von Aktivitäten der Businessplanung dient zunächst der Befriedi-
gung von Informationsbedürfnissen und hilft dem Projektteam, potentielle zukünftige Pro-
bleme zu antizipieren. Eine solche analytische Vorbereitung ermöglicht es relativ schnell,
gangbare Lösungen und Kontingenz-Szenarien zu definieren, ohne dass sich das Pro-
jektteam auf zeitintensives Trial-and-Error Lernen verlassen muss.43 Die Vorabplanung
fördert proaktives Lernen, also das Erkennen kausaler Zusammenhänge, bevor Handlungen
eingeleitet werden, und führt zu Zeiteinsparungen, da schon vor Beginn der Implementa-
tionsphase wichtige Fragen detailliert analysiert werden können.44
Vor dem Hintergrund dieser Überlegungen erscheint daher die Vermutung plausi-
bel, dass Planungsaktivitäten generell eine positive Erfolgswirkung haben. Übersichten
über die empirische Planungsforschung zeigen jedoch, dass hinsichtlich solcher und
ähnlicher Wirkungsbeziehungen häufig die jeweiligen Kontextfaktoren, also die relevan-
ten Moderator- und Mediatorvariablen, vernachlässigt werden und damit die eigentlichen
Wirkungszusammenhänge unverstanden bleiben.45 So konnten Studien und Metaanaly-
sen der strategischen Managementforschung sowohl positive als auch negative Wirkungen
von strategischer Planung auf den Unternehmenserfolg nachweisen.46 Weiterhin erweisen
Studien auf dem Gebiet der Gründungsforschung, dass sich Geschäftsgründungen auch
ohne vorherige formale Planung als sehr erfolgreich erweisen können (so z. B. im Fall
der Firma Apple), während andere Firmen trotz intensiver Vorabplanung einen Fehlstart
erleiden können.47 Nach Ansicht von Castrogiovanni (1996) besteht folglich kein direkter
logischer Zusammenhang zwischen Planungsaktivitäten und Erfolgsgrößen. Stattdessen
sei immer eine transitive Wirkung über Mediatorvariablen zu unterstellen.48
Als eine Mediatorgröße zwischen Planung und Erfolgsgrößen im engeren Sinnen postu-
42
Vgl. hierzu die Zusammenfassung der Befunde in Tabelle 5.7 auf S. 142.
43
Delmar und Shane (2003), S. 1168.
44
Castrogiovanni (1996), S. 808.
45
Pearce et al. (1987a), S. 671.
46
Positive Zusammenhänge werden u. a. von Bracker et al. (1988), S. 597, Capon et al. (1994), 109,
und Robinson und Pearce (1984) berichtet. Robinson und Pearce (1983), S. 202, finden keinen Zu-
sammenhang zwischen formeller Planung und Erfolg, während Rue und Fulmer (1973), S. 72, sogar
einen negativen Zusammenhang berichten.
47
Castrogiovanni (1996), S. 802.
48
Castrogiovanni (1996), S. 803f.
64 4. Planung, Steuerung und Erfolg von Innovationsprojekten
liert Castrogiovanni (1996) die Effizienz der Projektplanung und -implementation. Ist eine
Frühphasenplanung erfolgt, so kann die Kommunikation ihrer Ergebnisse zu verbesserter
Koordination und damit letztendlich zu verminderten Kosten führen.49 Die Kommunika-
tion des Businessplans und der zentralen Vorhabensziele bildet den Ausgangspunkt für
die operative Projektplanung, indem sie die Definition zentraler Meilensteine vorberei-
tet und die Erwartungen der zentralen Stakeholder des Vorhabens auf die Erreichung
dieser Meilensteine hin fokussiert.50 Daneben stellt die Businessplanung auch die Grund-
lage zur Ressourcenplanung bereit, indem sie zentrale Ziele fixiert und damit Prioritäten
für einzelne Projektphasen herausarbeitet. Hierdurch kann der jeweilige Ressourcenbedarf
frühzeitig abgeschätzt und Engpässe nach Möglichkeit vermieden werden.51 Durch die Be-
trachtung von Kontingenz-Szenarien und die Vorbereitung der Meilensteindefinion bildet
die Businessplanung also die Grundlage für Risikomanagement und Projektplanung, so
dass zusammenfassend die folgenden Aussagen festgehalten werden können:
49
Grinyer et al. (1986).
50
Bird (1992), S. 15.
51
Delmar und Shane (2003), S. 1168; MacMillan und Narasimha (1987).
52
Lawton und Parasuraman (1980); Moenaert und Souder (1990).
53
Ottum und Moore (1997), S. 263.
4.2. Planung von Innovationsvorhaben 65
Aussage 4.3: Je höher der Innovationsgrad eines Projektes ist, desto wich-
tiger ist die Businessplanung als Vorbereitung für Projektplanung und Risiko-
management (positiver Interaktionseffekt).
4.2.2 Zieldefinition
Unter Zielen55 sollen hier in Anlehnung an Hauschildt (1977) normative Aussagen von
Entscheidungsträgern verstanden werden, die einen gewünschten, von ihnen oder ande-
ren anzustrebenden, zukünftigen Zustand der Realität beschreiben.56 Mit der Entschei-
dung zur Aufnahme der eigentlichen Produktentwicklung werden in der Regel auch stra-
tegische Zielvorgaben formuliert, die sich auf einzelne Dimensionen des Businessplanes
zurückführen lassen. Dabei handelt es sich in der hier betrachteten frühen Phase der
Produktplanung meist noch um die Etablierung übergeordneter, eher visionäre Ziele,57
die beim Entwurf der Produktkomponenten schrittweise zu operationalen Zielen konkre-
tisiert werden.58 Gerade bei innovativen, komplexen Projekten sind die Ziele in dieser
Projektphase weder vollständig, noch klar, noch wohlgeordnet,59 sondern müssen in enger
Verzahnung mit dem eigentlichen Problemlösungsprozess operationalisiert werden.60
54
Ramanujam et al. (1986), S. .
55
Ergänzen mit Simon (1964) und Heath et al. (1999).
56
Hauschildt (1970), S. 551.
57
Vgl. beispielsweise Latham und Locke (1995), Sp. 2223f. zur Unterscheidung übergeordneter und
spezifischer Ziele.
58
Specht und Beckmann (1996), S. 145.
59
Gemünden (1995), S. 252; Greenwood (1981), S. 226.
60
Drucker (1976), S. 19. Vgl. für eine umfassende Behandlung der Zielbildung in innovativen Entschei-
dungsprozessen auch Hauschildt (1977).
66 4. Planung, Steuerung und Erfolg von Innovationsprojekten
Zielhöhe Die Motivationsfunktion anspruchsvoller Ziele und ihr Einfluss auf die Ziel-
erreichung zählt zu den am intensivsten untersuchten Zusammenhängen in der Organi-
sationstheorie.66 Einen zentralen Beitrag hat hier die Zielsetzungstheorie von Locke und
Latham geleistet, deren Kernaussage darin besteht, dass höher gesetzte Ziele auch zu
höheren realisierten Leistungen führen, wenn sie nur hinreichend präzise und innerhalb
realistischer Leistungsgrenzen formuliert sind.67 Der Zusammenhang zwischen Zielsetzung
und Leistung wird durch eine Reihe von Moderatoren beeinflusst, von denen im Zusam-
menhang mit Innovationsvorhaben wiederum die Aufgabenkomplexität von besonderer
Bedeutung ist:68 Mit steigender Komplexität der Aufgabe steht die Entwicklung neuer
61
McComb et al. (1999), S. 7.
62
Carley und Palmquist (1992), Weick (1993).
63
Gemünden (1995), S. 254.
64
Gemünden (1995), S. 259.
65
Gebert (1995), Sp. 428ff.
66
So bemerken Mento et al. (1987, S. 74): If there is ever to be a viable candidate from the organizatio-
”
nal scienes for elevation to the lofty status of a scientific law of nature, then the relationships between
goal difficulty, difficulty/specificity and task performance are most worthy of serious considerations.“
67
Vgl. hierzu u. a. Locke und Latham (1990), S. 27ff.
68
Gemünden (1995), S. 255.
4.2. Planung von Innovationsvorhaben 67
69
Wood et al. (1987), S. 420; Wright (1990), S. 230; O’Leary-Kelly et al. (1994), S. 1294.
70
Latham und Locke (1995), Sp. 2223f.
71
Gebert (1995), Sp. 428.
72
Vgl. hierzu unter anderem den Überblicksartikel Locke et al. (1981).
73
Baumler (1971); Huber (1985); Klein (1989), S. 155.
68 4. Planung, Steuerung und Erfolg von Innovationsprojekten
Aussage 4.5: Je spezifischer die zentralen Ziele des Vorhabens formuliert wer-
den, desto höher fällt die Zielerreichung in den entspechenden Erfolgsdimen-
sionen aus. Mit zunehmendem Innovationsgrad wird dieser Zusammenhang
jedoch schwächer ausgeprägt sein (negativer Interaktionseffekt).
74
Earley et al. (1989), S. 32.
75
Wood et al. (1987), S. 420.
76
O’Leary-Kelly et al. (1994), S. 1294.
77
Gemünden (1995), S. 258.
78
Miller und Monge (1986), S. 730.
79
French et al. (1960), S. 5; Ritchie und Miles (1970), S. 348.
4.2. Planung von Innovationsvorhaben 69
Betrachtet man allerdings die tatsächlich vorliegenden empirischen Befunde der Orga-
nisationsforschung und angewandten Psychologie, so ist zu konstatieren, dass bislang keine
Einigkeit darüber erzielt werden konnte, ob Partizipation tatsächlich zu höherer Leistung
führt und welche Mediatorvariablen diesen Effekt eventuell vermitteln.80 Die Metaanaly-
se von Miller und Monge (1986) zur partizipativen Entscheidungsfindung81 identifiziert
zunächst mit einer mittleren Effektstärke ρ = 0, 34 einen starken Zusammenhang zwi-
schen Partizipation und Zufriedenheit.82 Die Wirkung der Partizipation auf die Produkti-
vität fällt dagegen mit ρ = 0, 15 vergleichsweise gering aus und beträgt insbesondere bei
Studien, die speziell die Wirkung von Zielsetzung untersuchen, nur ρ = 0, 11.83 Die Un-
tersuchung von Wagner und Gooding (1987) stellt eine methodische Erweiterung früherer
Metaanalysen zu diesem Thema dar, indem sie zwischen Arbeiten mit Percept-Percept-
Inflation84 und solchen, die Informationen aus verschiedenen Quellen erheben, unterschei-
det. Im Ergebnis der Arbeit zeigt sich, dass ein deutlicher Unterschied zwischen den Ar-
beiten der ersten und denen der zweiten Kategorie festzustellen ist: Während die mittlere
Effektstärke im Percept-Percept-Paradigma ρ = 0, 454 beträgt, lassen sich Studien, die
verschiedene Informationsquellen heranziehen, durch die deutlich niedrigere Effektstärke
ρ = 0, 108 zusammenfassen. Ein sehr ähnliches Resultat ergibt sich auch beim Effekt
der Partizipation auf die Mitarbeiterzufriedenheit (ρ = 0, 423 vs. ρ = 0, 109), während
die Ergebnisse hinsichtlich des Motivationseffektes ausgeglichener sind (ρ = 0, 347 vs.
ρ = 0, 252).85
Die Wirkung partizipativer Entscheidungsfindung und Zielsetzung auf die Produkti-
vität von Mitarbeitern kann also nach dem derzeitigen Stand der Forschung als gering
eingestuft werden, was auch eine Reihe gezielter Experimente zur Klärung der wider-
sprüchlichen Befunde zeigt.86 Hinsichtlich des möglichen Einflusses situationsbezogener
Moderatorvariablen, wie z. B. Aufgabenkomplexität oder -neuartigkeit, liegen keine si-
gnifikanten Befunde vor.87 Dagegen kann es als gesicherte Tatsache angesehen werden,
dass partizipative Entscheidungsfindung zumindest die Informationsbasis bei der Ent-
scheidungsfindung bereichert und somit letztendlich zu besseren Entscheidungen führt:
Aussage 4.6: Partizipation im Prozess der Planung und Entscheidungsfin-
80
Gebert (1995), Sp. 429f.; Latham und Locke (1995), Sp. 2224f.
81
Dieser Forschungszweig wird im englischsprachigen Raum auch als PDM (Participation in Decision
Making) bezeichnet.
82
Miller und Monge (1986), S. 740.
83
Miller und Monge (1986), S. 742.
84
Vgl. Abschnitt 7.2
85
Wagner und Gooding (1987), S. 532.
86
Latham et al. (1988), S. 767.
87
Wagner und Gooding (1987), S. 532.
70 4. Planung, Steuerung und Erfolg von Innovationsprojekten
4.2.3 Projektplanung
Ausgehend von der zentralen Projektvision, die im Rahmen der Businessplanung in kon-
kretere Technologie-, Markt- und Finanzzielen übersetzt wird, ist es das zentrale Anliegen
der Projektplanung, die zur operativen Durchführung notwendige Aufgabenstrukturie-
rung, Ablaufplanung und Ressourcenplanung vorzunehmen. Zunächst ist es notwendig,
das Vorhaben durch einen Projektstrukturplan systematisch in zweckmäßige Teilaufga-
ben zu gliedern. Hierauf bauen sowohl die Ablauf- und Terminplanung als auch die Res-
sourcenzuweisung zu einzelnen Arbeitspaketen auf. Diese Elemente der Projektplanung
werden in den folgenden Absätzen näher dargestellt.
Projektstrukturplanung Für die Planung und Bearbeitung von Projekten ist es er-
forderlich, die globale Aufgabenstellung in sinnvolle Teilaufgaben bzw. Arbeitspakete zu
gliedern. Als Grundlage der Gliederung wird ein Projektstrukturplan (Work Breakdown
Structure) erstellt, der den Ausgangspunkt für die gesamte weiterführende Projektpla-
nung bildet.88 Damit der Projektstrukturplan diese Rolle erfüllen kann, muss zunächst
sichergestellt werden, das er tatsächlich alle wesentlichen Aufgabenbereiche umfasst, da
ansonsten die Gefahr besteht, dass die Produktspezifikation in wesentlichen Punkten ver-
fehlt werden könnte.89
Das Projekt kann durch die Gliederung in Aufgaben und Teilaufgaben bis hin zu
Arbeitspaketen als voneinander abgegrenzte und damit unabhängige Teilschritte hierar-
chisch dargestellt werden.90 Ein Arbeitspaket ist eine in sich geschlossene Arbeitsmenge
mit einem vordefinierten, eindeutigen und nachweisbaren Ergebnis. Es bildet die Basis
für Planung, Vorgabe, Kontrolle, Abnahme und Freigabe von Ergebnissen im Projekt
und meist die kleinste Einheit, auf der Kosten geplant und gesammelt werden. Durch die
hierarchische Systematisierung der Leistungsstruktur stellt der Projektstrukturplan ge-
wissermaßen das Organigramm des Projektes dar und kann als zentrales Managementin-
strument fungieren.91 Die strukturierte Zusammenfassung aller zur Projektdurchführung
88
Bullinger (1996a), S. 37
89
Rosenau und Moran (1993), S. 83.
90
Bullinger (1996a), S. 37
91
Simons und Lucarelli (1998), S. 159f.
4.2. Planung von Innovationsvorhaben 71
92
Madauss (1994), S. 193f.
93
Meredith und Mantel (1995), S. 221ff.
94
Seibt (1989), Sp. 1669.
95
Bullinger (1996a), S. 38.
96
Gido und Clements (1998), S. 177ff.; Meredith und Mantel (1995), S. 207ff. und S. 332ff.
97
Bullinger (1996b), S. 45.
98
Hart et al. (2003), S. 22ff.
72 4. Planung, Steuerung und Erfolg von Innovationsprojekten
99
Seibt (1989), Sp. 1668.
100
Bullinger (1996a), S. 39f.
101
Rosenau und Moran (1993), S. 105f.
102
Meredith und Mantel (1995), S. 395ff. und 412ff.
4.2. Planung von Innovationsvorhaben 73
4.2.4 Risikomanagement
Der Terminus Risiko“ ist zunächst von Unsicherheit“ zu unterscheiden. Der forma-
” ”
le Risikobegriff, der sich in der Entscheidungstheorie durchgesetzt hat, knüpft an das
Vorhandensein objektiver statistischer Wahrscheinlichkeiten für den Eintritt zukünftiger
Datenkonstellationen an und beschreibt Risiko als messbare Unsicherheit. Liegen dagegen
keine oder nur subjektive Wahrscheinlichkeitsinformationen vor, so ist eine Entscheidungs-
situation unter Unsicherheit gegeben.103 Stärker als dieser entscheidungstheoretische Risi-
kobegriff hat sich in der betriebswirtschaftlichen Praxis die pragmatische Auffassung von
Risiko als Maß der potentiellen Schäden durchgesetzt, die auch im Folgenden verwendet
werden soll.104 Hierbei wird Risiko einseitig als ungünstige Abweichung“, also als Ziel-
”
verfehlung zur negativen Seite hin, beschrieben, günstige Abweichungen“ dagegen meist
”
als Chance bezeichnet.105
Gerade Innovationsprojekte sind von Natur aus mit hohen Risiken verbunden, bei-
spielsweise hinsichtlich der Fragen, ob das zukünftige Produkt die gewünschten Leistungs-
merkmale erreichen wird, ob die Bedürfnisse potentieller Kunden angesprochen werden
können oder ob der Projektzeitplan eingehalten werden kann. Dieser Umstand ist nicht
nur darauf zurückzuführen, dass Innovationen Gebrauch von neuen, z. T. unvollständig
verstandenen Technologien machen und die Nachfrage, die sie befriedigen wollen, erst
noch generieren müssen, sondern auch darauf, dass sie gerade auf die Destabilisierung
von Märkten und die Erzielung überdurchschnittlicher Erträge ausgerichtet sind.106
Die zentrale Aufgabe des projektbezogenen Risikomanagement liegt im Erkennen und
Analysieren potentieller Projektrisiken sowie in der Risikohandhabung, d. h. dem Initiieren
und Implementieren von Maßnahmen zur Minimierung dieser Risiken und ihrer möglichen
Folgen.107 Diese beiden Aufgabenbündel werden in folgenden Absätzen näher betrachtet.
103
Kupsch (1995), S. 530.
104
von Werder (1992), Sp. 2212.
105
Farny (1989), Sp. 1751.
106
Branscomb und Auerswald (2001), S. 3.
107
Farny (1989), Sp. 1751ff.; Keizer und Vos (2003), S. 5; Kupsch (1995), S 534ff.; von Werder (1992),
Sp. 2213f.; Wideman (1998), S. 138f.
74 4. Planung, Steuerung und Erfolg von Innovationsprojekten
108
von Werder (1992), Sp. 2213.
109
Vgl. Browning et al. (2002), S. 446f. für ein Anwendungsbeispiel, das kontinuierliche Wahrscheinlich-
keitsverteilungen zur Risikoquantifizierung verwendet.
110
Farny (1989), Sp. 1751f.; Madauss (1995), S. 683f.
111
Keizer und Vos (2003), S. 3f.
112
Kupsch (1995), S. 536.
113
Farny (1989), Sp. 1754.
4.3. Steuerung von Innovationsvorhaben 75
114
Kupsch (1995), S. 538f.
115
Brealey und Myers (1996), S. 707ff.
116
Gerwin und Moffat (1997); Pinto und Prescott (1988); Pinto und Prescott (1990); Steckler und Fondas
(1995).
76 4. Planung, Steuerung und Erfolg von Innovationsprojekten
Ziele auch erreicht werden, muss eine Erhebung des aktuellen Zielerreichungsgrads sowie
ein Vergleich mit den ursprünglich gesetzten Anspruchsniveaus erfolgen, um Abweichun-
gen zu ermitteln. Inakzeptable Planabweichungen oder Planrevisionen aufgrund neuer
Erkenntnisse können eine umfassende Neubewertung auslösen und dadurch zu einer deut-
lichen Anpassung der Ressourcenausstattung des Projektes oder sogar zu seinem Abbruch
führen.117
Bei der Gestaltung der Projektsteuerung ist grundsätzlich zu klären, zu welchen Zeit-
punkten Innovationsvorhaben beurteilt werden sollten, damit jeweils ein wohlbegründetes
Urteil über den erzielten Fortschritt sowie eine Entscheidung über Weiterführung, Res-
sourcenanpassung oder Abbruch des Projektes gefällt werden kann.118 Nach den obenste-
henden Ausführungen zur Projektplanung bieten sich hierfür die Meilensteine an, die für
jedes Innovationsvorhaben individuell zu bestimmen sind und sich nicht aus einem allge-
meingültigen Prozessschema ableiten lassen. Zur Verfolgung des Projektverlaufes werden
diese Meilensteine häufig samt der sie vorbereitenden Aktivitäten in Balken- oder Netz-
plänen zusammengefasst. Zwar kann der Einsatz dieser Methoden – wie oben erwähnt
– aufgrund der geringen Determinierbarkeit von Innovationsprojekten mit Schwierigkei-
ten verbunden sein. Wurden sie jedoch im Rahmen der Planung eingesetzt, dann muss
auch tatsächlich anhand dieser Pläne geführt werden; der Einsatz als Alibifunktion zur
Dokumentation der bisher geleisteten Aufgabenpakete würde sich schnell als zeit- und
kostenintensives Instrumentarium erweisen.119
Die Fortschrittskontrolle erstreckt sich über die gesamte Laufzeit des Entwicklungs-
vorhabens und erfasst als Beurteilungsdimensionen meist produkt-, markt- und zeitbezo-
gene Zielgrößen.120 Hart et al. (2003) haben systematisch untersucht, welche Größen von
Unternehmen in der Praxis zur Steuerung von Entwicklungs- und Innovationsvorhaben
eingesetzt werden, und konnten nachweisen, dass sich deren Verwendung und Gewichtung
über den Projektverlauf stark verändert. Werden anfangs noch insbesondere das Markt-
potenzial und die technische Realisierbarkeit einer Innovation beurteilt, gewinnt mit fort-
schreitender Projektrealisierung und Informationsverfügbarkeit an späteren Meilensteinen
zunehmend die Kontrolle von Produktleistung, Qualität und Budgeteinhaltung an Be-
deutung. Soll mit anderen Worten ein mehrdimensionaler Vorhabenserfolg erzielt werden,
muss auch eine entsprechend differenzierte Menge von Steuerungsgrößen eingesetzt wer-
den, da durch die Verwendung einer bestimmten Steuerungsgröße die Zielerreichung in der
117
Lange (1993), S. 15.
118
Brown und Svenson (1988), S. 12; von Hippel (1990), S. 407ff.
119
Bullinger (1996b), S. 45.
120
Tymon (1986), S. 236.
4.3. Steuerung von Innovationsvorhaben 77
121
Hart et al. (2003), S. 24f.
122
Avlonitis et al. (1999), S. 41.
123
Balachandra (1994), S. 451.
124
Vgl. Simonson und Staw (1992) für eine grundlegende Übersicht.
125
Whyte (1986).
126
Schmidt und Calantone (2002), S. 106; Staw und Ross (1987), S. 70.
78 4. Planung, Steuerung und Erfolg von Innovationsprojekten
Im Rahmen empirischer Studien und Experimente konnte gezeigt werden, dass die
Gefahr solche Fehlentscheidungen mittels verschiedener Entscheidungshilfen deutlich ver-
ringert werden kann.127 Zu den effizientesten Mechanismen gehört dabei die Definition
einer objektiven Entscheidungsregel, die vor Beginn des Entscheidungsprozesses festzu-
legen ist und eindeutig ermittelt, wann eine Abbruchentscheidung zu treffen ist.128 Als
Konsequenz für die erfolgsorientierte Steuerung von Innovationsprojekten kann damit die
Forderung abgeleitet werden, dass bereits im Rahmen der Projektplanung unter Partizi-
pation des Projektteams eindeutige Kriterien oder Szenarien zu definieren sind, die einen
Abbruch des Vorhabens nach sich ziehen. Hierdurch kann das Risiko gemindert werden,
dass unternehmerische Wahrnehmungsverzerrungen die Fortführung aussichtsloser Pro-
jekte verursachen. Dieser Aspekt der Risikominderung kann auch herangezogen werden,
um die folgende, statistisch geprägte Aussage zu formulieren:
Diese Aussage ist aus zwei Gründen bewusst restriktiv formuliert. Erstens lässt sich für
abgebrochene Projekte kein umfassendes Erfolgsmaß ermitteln, da sich die tatsächliche
Erreichung von Markt-, Technik- und Zeitzielen durch den Abbruch vor Beginn der
Markteinführung nicht beurteilen lässt. Einzig ein Finanzerfolg“ lässt sich auf der Ba-
”
sis der bereits durch das Projekt verursachten Kosten beurteilen. Zweitens lässt sich im
Rahmen eines weit verbreiteten und auch im Rahmen dieser Arbeit verwendeten Unter-
suchungsdesigns, das den Erfolg tatsächlich durchgeführter, nicht abgebrochener Projekte
untersucht, kein direkter Erfolgszusammenhang auf Einzelprojektebene feststellen. Abge-
brochene Projekte werden im Rahmen einer solchen Untersuchung nicht berücksichtigt,
während die Formulierung von Abbruchkriterien keinen Einfluss auf die Zielerreichung bei
erfolgreich verlaufenden Vorhaben hat.
127
Vgl. u. a. Boulding et al. (1997), S. 171ff.
128
Boulding et al. (1997), S. 166; Simonson und Staw (1992), S. 420.
4.3. Steuerung von Innovationsvorhaben 79
Formalisierungsgrad der Projektsteuerung mit dem Bedürfnis nach Flexibilität und krea-
tivem Freiraum im Rahmen des Innovationsprozesses verträglich ist.129 Unter Formalisie-
rung der Projektsteuerung soll dabei im Folgenden der Grad verstanden werden, zu dem
Zielvorgaben, Prozeduren und Entscheidungsregeln den Ablauf des Innovationsvorhabens
bestimmen. Ein hoher Formalisierungsgrad äußert sich meistens durch die Verwendung ei-
nes Stage-Gate Prozessmodells, das den Entwicklungsprozess in klare Phasen gliedert und
formelle Bewertungen des Projektfortschrittes an bestimmten Meilensteinen beinhaltet.
Prozessformalisierung kann die Effektivität eines Innovationsprozesses dadurch stei-
gern, dass regelmäßige Kontrollen und Reviews den Projektmitgliedern ein Gefühl von
Struktur und Ordnung vermitteln und die Unsicherheit darüber verringern, wer welche
Aufgaben mit welcher Dringlichkeit zu erfüllen hat.130 Zielvorgaben und Bewertungen
können weiterhin motivierende Wirkung haben und geben den Projektmitgliedern die
Möglichkeit, den Status des Vorhabens und den bisher erreichten Fortschritt zu beurtei-
len. Auf der anderen Seite können sich konkrete Zielvorgaben und Arbeitspläne jedoch
auch als hinderlich erweisen, da sie das Innovationsvorhaben in eine vorgegebene Rich-
tung lenken und es nur in eingeschränktem Maße zulassen, auf die unvorhergesehenen
Umstände zu reagieren, die häufig im Rahmen solcher Projekte auftreten können.131
Angesichts dieser Spannungen wurde zuletzt in einer Reihe von Veröffentlichungen die
Erfolgswirkung von tendenziell formell-mechanistischen“ Steuerungsmechanismen mit
”
der von eher organisch-partizipativen“ Methoden zur Führung von Innovationsprojek-
”
ten kontrastiert, so u. a. von Olson et al. (1995), Tatikonda und Montoya-Weiss (2001),
Bonner et al. (2002) und Lewis et al. (2002). Organisch-partizipative Steuerungsmodel-
le verlassen sich weniger auf plan- und weisungsorientiertes Vorgehen, sondern stellen
stärker die Kreativität, Flexibilität und Improvisationsgabe der Projektmitglieder in den
Vordergrund, wobei die betriebswirtschaftliche Theoriebildung vor allem Erkenntnisse
aus eklektischen Studien des Gruppenverhaltens im Rahmen von Jazz- und Theater-
aufführungen, Mannschaftssportarten oder Feuerwehreinsätzen bezieht.132 Im Rahmen der
theoretischen Diskussion kommen die genannten Veröffentlichungen zu dem Ergebnis, dass
ein hoher Grad der Prozessformalisierung dann angemessen ist, wenn Ursache-Wirkungs-
Zusammenhänge bekannt und zeitlich stabil sind.133 Unter dieser Voraussetzung können
formelle Steuerungsmethoden eine motivierende Wirkung ausüben und eine effiziente Pro-
jektdurchführung bewirken. Da bei hochinnovativen Projekten hingegen die relevante Wis-
129
Bonner et al. (2002), S. 234.
130
Tatikonda und Montoya-Weiss (2001), S. 156.
131
Eisenhardt und Tabrizi (1995), S.
132
Vgl. u. a. Dougherty (1992), Moorman und Miner (1998) und Weick (1998).
133
Ouchi (1979), S. 838ff.
80 4. Planung, Steuerung und Erfolg von Innovationsprojekten
senbasis des Unternehmens oft klein ist und in nur sehr geringem Maße Erfahrungen aus
vergleichbaren Projekten übertragen werden können, kann sich hier ein hoher Grad der
Prozessformalisierung sogar deutlich negativ auf den Vorhabenserfolg ausüben, da er die
Handlungsfreiheit des Projektteams und die Kreativität der Problemlösung zu stark ein-
schränkt.134 Zusammenfassend soll daher die folgende Aussage festgehalten werden:
Vor Beginn der Durchführungsphase sollten nach Möglichkeit die strategische Stoßrich-
tung sowie die zentralen Projektziele festgelegt sein.135 Gerade bei innovativen Vorhaben
treten jedoch im Projektverlauf häufig umweltbedingte Veränderungen und technische
Unwägbarkeiten auf, die einen gewissen Grad an Zielflexibilität erforderlich erscheinen
lassen.136 Wesentliche Planungsgrößen, die ursprünglich in die Produktdefinition einge-
flossen sind, können sich im Laufe des Projektes ändern. Wettbewerber können Konkur-
renzprodukte in den Markt einführen, Kundenbedürfnisse können sich verschieben, und
regulatorische Auflagen können erleichtert oder verschärft werden. Solche Veränderungen
stellen große Herausforderungen an die Projektsteuerung, da voreilige bzw. ungeschickte
Änderungen einzelner Zielgrößen und Aspekte der Produktdefinition zu Verzögerungen bei
der Markteinführung, zu Überschreitungen des Projektbudgets oder sogar zum Scheitern
des Gesamtprojektes führen können.137
Projektteams sollten daher grundsätzlich in die Lage versetzt werden, die ur-
sprünglichen Ziele im Projektverlauf kritisch zu hinterfragen und gegebenenfalls an
geänderte Randbedingungen anzupassen.138 Ändern sich die Projektziele jedoch wie-
derholt im Projektverlauf, so kann dies Konfusion und Frustration bei den Projektmit-
gliedern auslösen, die Teamkreativität mindern sowie die Qualität und den Markterfolg
des resultierenden Produktes beeinträchtigen.139 So ist beispielsweise im Rahmen von
Produktentwicklungsprojekten sorgfältig abzuwägen, ob Änderungen am aktuellen Pro-
duktkonzept noch gerechtfertigt sind oder eher Anpassungen in Nachfolgeprodukten nach
134
Bonner et al. (2002), S. 238; Lewis et al. (2002), S. 552.
135
McDonough (2000), S. 223.
136
Barczak und Wilemon (1989).
137
Bacon et al. (1994), S. 47.
138
Marks et al. (2001), S. 365; Urban und Hauser (1993), S. 50f.
139
Bonner et al. (2002), S. 238; Lynn und Akgün (2001), S. 382.
4.4. Erfolgsbeurteilung von Innovationsvorhaben 81
sich ziehen sollten. Es kommt also wesentlich darauf an, die richtige Balance zwischen in-
tensiver Frühphasenplanung und fortlaufenden Zielanpassungen, zwischen endgültigen“
”
Entscheidungen und absichtlich verfolgten Parallelentwicklungen zu finden.140 Die Suche
nach einer solchen Balance ähnelt der Gratwanderung zwischen formeller und organischer
Projektsteuerung, die im letzten Abschnitt dargestellt wurde.
Bei Innovationsprojekten stellt sich dabei die grundsätzliche Frage, ob stabile Zie-
le überhaupt realisierbar und wichtig sind.141 Aufgrund der typischerweise hohen Un-
sicherheiten können sich anfänglich entwickelte Pläne schnell als obsolet erweisen und
Änderungen unterliegen. Fehlende Kontinuität im Rahmen der Projektimplementation er-
weist sich in einem solchen Umfeld unter Umständen dann nicht als erfolgskritisch, wenn
sich ein Innovationsprojekt auch auf anderen, zu Projektbeginn noch nicht absehbaren
Wegen zum Erfolg führen lässt.142 Auf der anderen Seite können mit hoher Unsicherheit
konfrontierte Entscheidungsträger nur schwer Vorhersagen über ihre Umwelt treffen und
tendieren dazu, auf Signale, die sie aus dieser Umwelt empfangen, überzureagieren. Es
besteht damit die Gefahr, dass Projekte unter solch unsicheren Rahmenbedingungen zu-
nehmend von reaktionären Verhaltensweisen geprägt sind und ihren strategischen Fokus
verlieren. Vorhaben, die es hier schaffen, ihren strategischen Fokus zu bewahren, sind
als erfolgsträchtiger einzuschätzen als solche, die zum Spielball spontaner Strategiewech-
sel werden.143 Verschiedene Fallstudienuntersuchungen können entsprechend belegen, dass
auch hochgradige Innovationen von stabilen, im Projektverlauf möglichst konstanten Ziele
profitieren.144 Damit kann die folgende Vermutung festgehalten werden:
Für die vorliegende Untersuchung ist der Innovationserfolg – oder genauer: der Erfolg
von Innovationsprojekten – insofern eine zentrale Größe, als sie im empirischen Teil zur
Effizienzbeurteilung der Planungs- und Steuerungsaktivitäten herangezogen wird. Hierbei
140
Khurana und Rosenthal (1997), S. 114.
141
Lynn und Akgün (2001), S. 381.
142
Dutton und Webster (1988), S. 664.
143
Covin und Slevin (1998), S. 217; Romanelli (1987), S. 174.
144
Billing (2003); Lynn und Akgün (2001), S. 381; Rice et al. (2001), S. 54.
82 4. Planung, Steuerung und Erfolg von Innovationsprojekten
steht zunächst das wissenschaftliche Interesse aus dem Blickwinkel der Erfolgsfaktoren-
forschung im Vordergrund. Angesichts der hohen Investitionen, die mit der Entwicklung
neuer Produkte oder mit Innovationsvorhaben im allgemeineren Sinne verbunden sind,
ist es jedoch auch für Unternehmen und ihre Stakeholder wichtig, den Erfolg der Inno-
vationsaktivitäten auf Unternehmens-, Abteilungs- und Projektebene messen zu können.
Ähnlich wie beim Innovationsgrad handelt es sich also auch beim Innovationserfolg um
ein vielschichtiges Konzept, das aus einer Reihe unterschiedlicher Perspektiven betrachtet
werden kann.
Auch wenn man sich ausschließlich auf das Einzelvorhaben fokussiert, bleibt der Inno-
vationserfolg ein vielschichtiges Konstrukt, das zu unterschiedlichen Zeitpunkten aus den
145
Gemünden (1990), S. 8f.; Hauschildt (1991), S. 466; Kerssens-van Drongelen und Cook (1997), S.
351ff.
146
Vgl. hierzu Grupp (1994) sowie Grupp (1997), v. a. Kapitel 3 und 4. Beispiele für solche Analysen
sind u. a. Solow (1957); Henderson (1993); Henderson und Cockburn (1996); Iansiti und West (1999).
147
Vgl. hierzu u. a. Brown und Svenson (1988); Cordero (1990); Kerssens-van Drongelen und Cook
(1997); Foster et al. (1985); Hertenstein und Platt (2000); McGrath und Romeri (1994); Pappas und
Remer (1985); Pearson et al. (2000); Schoenecker und Swanson (2002); Schumann et al. (1995).
148
Hauschildt (2004), S. 501. Diese überproportionale Fokussierung der Forschung auf die Erfolgsbe-
urteilung auf Unternehmensebene wird auch durch die empirischen Befunde von Griffin und Page
(1993), S. 303 bestätigt.
4.4. Erfolgsbeurteilung von Innovationsvorhaben 83
149
Vgl. Freeman und Beale (1992), S. 8 sowie Hauschildt (1991), S. 452f. zur folgenden Darstellung
idealtypischer Perspektiven.
150
Vgl. March und Sutton (1997) zu einer grundlegenden Kritik an der Verwendung von Performance
als abhängige Variable. Vgl. hierzu auch die Anmerkungen in Abschnitt ??.
151
Gemünden (1990), S. 8.
152
Vgl. hierzu die entsprechenden Angaben in den Tabellen 5.1, 5.3 und 5.5 der vorliegenden Arbeit sowie
Hauschildt (1991), Tabelle 1 für Gegenüberstellungen verschiedener Erfolgsoperationalisierungen in
empirischen Innovationsstudien.
153
Hauschildt (2004), S. 500.
154
Griffin und Page (1993), S. 299.
84 4. Planung, Steuerung und Erfolg von Innovationsprojekten
werden, bevor in Abschnitt 4.4.3 eine Übersicht über empirische Studien zur Erfolgsmes-
sung gegeben wird.
155
Gemünden (1990), S. 8.
156
Liu und Walker (1998), S. 209; Shenhar et al. (2001), S. 700.
157
Vgl. u. a. Gardiner und Stewart (2000), S. 251ff.; Platz und Schmelzer (1986), S. 134ff.; Pleschak und
Sabisch (1996), S. 6.
158
Shenhar et al. (2001), S. 700.
159
Baccarini (1999), S. 25f.; Wateridge (1998).
160
Gemünden (1990), S. 9; Lechler (1997), S. 42.
161
Freeman und Beale (1992), S. 8; Hauschildt (1991), S. 452f.; Lim und Mohamed (1999), S. 243f.;
Shenhar et al. (2001), S. 703.
4.4. Erfolgsbeurteilung von Innovationsvorhaben 85
sehr niedrig gewählt, so gibt ihre Erreichung nicht notwendigerweise Aufschluss darüber,
ob das betreffende Projekt als erfolgreicher einzustufen ist als ein anderes Vorhaben des-
selben Unternehmens oder gar eines Wettbewerbers.162 Auf der anderen Seite erscheint
ein Zeit- oder Betriebsvergleich nicht weniger problematisch, da hier durch die Auswahl
eines geeigneten Vergleichsprojektes der Referenzzustand praktisch willkürlich bestimmt
werden kann. Hauschildt (2004) sieht daher in einem Vergleich des Innovationserfolgs mit
einem zuvor definierten Ziel den einzig rationalen Messvorgang.163
Um das komplexe Konstrukt Innovationserfolg“ besser zu verstehen, sind vor allem seit
”
Anfang der neunziger Jahre eine Reihe von Studien durchgeführt worden, die anhand
unterschiedlicher Methoden eine Sammlung und Klassifikation der verwendeten Mess-
größen vornehmen, vgl. Tabelle 4.1. Zwar kann eine solche Konzeptualisierung durch
”
Messung“ eine umfassende theoretische Diskussion nicht ersetzen und bleibt wahrschein-
lich unvollständig, dennoch kann die kritische Betrachtung der Messung einzelner Bereiche
des Konstrukts zu einem tiefergehenden Verständnis beitragen.164
Die Studien von Hauschildt (1991) und Griffin und Page (1993) ziehen für die Dis-
kussion relevanter Erfolgsdimensionen die von anderen Wissenschaftlern im Rahmen von
Erfolgsfaktorenstudien verwendeten Erfolgsmaße heran. Eine solche Vorgehensweise wird
auch in verschiedenen Studien zur Organizational Effectiveness auf Unternehmensebene165
gewählt und von Steers (1975, S. 546) wie folgt charakterisiert:
The perspective taken here is one of measurement; that is, it is argued that
”
a meaningful way to understand the abstract idea of effectiveness is to consi-
der how researchers have operationalized and measured the construct in their
work.“
162
Ernst (2001), S. 168.
163
Hauschildt (2004), S. 508.
164
Cameron und Whetten (1983), S. 267.
165
Vgl. u. a. Kanter und Brinkerhoff (1981) sowie Venkatraman und Ramanujam (1986) für eine Syste-
matisierung und Zusammenfassung der Forschung zum Erfolgsbegriff auf Unternehmensebene.
166
Hauschildt (1991), S. 467.
86 4. Planung, Steuerung und Erfolg von Innovationsprojekten
die vor allem die Erfüllung individueller Sozialziele betreffen. Inhaltlich kann an dieser
Systematik bemängelt werden, dass sie das Spektrum an Erfolgsmaßen, das in den unter-
suchten Veröffentlichungen verwendet wird, nur unvollständig erfasst. So werden Aspekte
der Projekteffizienz, also beispielsweise die Einhaltung von Projektzeitplan und -budget,
nicht berücksichtigt und der marktbezogene Erfolg nur in Form des Umsatzes erfasst,
Maße für die Kundenzufriedenheit werden dagegen gar nicht berücksichtigt. Hinsichtlich
der Methodik dieser Arbeit haben Griffin und Page (1993) kritisiert, dass keine statisti-
sche Validierung der Ergebnisse erfolgt.167 Dieser Vorwurf ist jedoch nur bedingt haltbar,
da eine quantitative Auswertung nur durch eine meta-analytische Zusammenfassung ver-
schiedener Faktorenanalysen zum Vorhabenserfolg erfolgen könnte. Voraussetzung für eine
solche Analyse ist jedoch, dass in den Veröffentlichungen jeweils die Korrelationsmatrizen
berichtet werden,168 was aber in älteren Arbeiten der einschlägigen Fachzeitschriften nur
selten der Fall ist – zumal auf der Ebene einzelner Items.
Abbildung 4.2: Core Measures auf Projektebene nach Griffin und Page (1993). Die Häufigkeit, mit der
die Maße verwendet werden, nimmt je Dimension von oben nach unten ab. Quelle: Eigene Darstellung
basierend auf den Daten von Griffin und Page (1993), S. 297f.
Interessanterweise sehen sich Griffin und Page mit dem gleichen Problem konfrontiert.
Zwar führen die Autoren anhand einer Literaturanalyse eine umfangreiche Sammlung der
in der Wissenschaft verwendeten Erfolgsmaße durch, verdichten sie jedoch zunächst nur
durch Konsensbildung im Rahmen von Gruppendiskussionen mit anderen Wissenschaft-
lern zu Dimensionen. Die statistische Überprüfung dieser Dimensionen mittels Faktoren-
analysen basiert dagegen auf Fragebögen, die von 50 Managern während der PDMA-
167
Griffin und Page (1993), S. 295.
168
Vgl. Hunter und Schmidt (1990), S. 503. Die Durchführung einer Meta-Analyse von Faktoranalysen
wird von Becker (1996) erläutert.
4.4. Erfolgsbeurteilung von Innovationsvorhaben 87
Konferenz 1991 ausgefüllt wurden.169 Griffin und Page kommen im Ergebnis zu einer
produktbezogenen, einer kundenbezogenen und einer finanziellen Dimension des Innova-
tionserfolgs auf Vorhabensebene, denen sie insgesamt 16 sog. Core Measures zuordnen,
vgl. Abbildung 4.2.170 Als Core Measures bezeichnen sie dabei die Maße, die sowohl von
Innovationsforschern als auch von Firmen derzeit verwendet werden und die die Firmen
auch in Zukunft weiter verwenden wollen. Durch die umfassende Sammlung von Erfolgs-
maßen sowie die gleichzeitige Einbindung von Wissenschaftlern und Firmenpraktikern
haben Griffin und Page ein vergleichsweise breites und gut fundiertes Messkonzept für
den Vorhabenserfolg entwickelt, das den Ausgangspunkt für mehrere Nachfolgeuntersu-
chungen gebildet hat, die im wesentlichen Kontingenzüberprüfungen anstellen.171
Betrachtet man die von Griffin und Page gebildeten Erfolgsdimensionen, so fällt auf,
dass zwar die kundenbezogene (oder umfassender: marktbezogene) und die finanzielle
Dimension jeweils relativ homogen sind und ihr zugrundeliegendes Konzept weitgehend
abbilden, der produktbezogene Faktor dagegen eigentlich zwei separate Aspekte erfasst,
nämlich die Projekteffizienz (Entwicklungszeit und -kosten) auf der einen Seite und die
Erreichung von Produktzielen auf der anderen Seite. Dieser Eindruck wird tendenziell
durch die Untersuchung von DeCotiis und Dyer (1979) bestätigt, die ebenfalls eine Fakto-
renanalyse über Items zum Projekterfolg durchführen und dabei einen Faktor Projektef-
”
fizienz“ identifizieren, der eben die Zeitplan- und Budgeteinhaltung im Projektablauf
misst. Unglücklicherweise berichten Griffin und Page (1993) nicht das Faktorladungsmu-
ster, anhand dessen sie die drei Erfolgsdimensionen abgeleitet haben, so dass eine objektive
Beurteilung der Unidimensionalität ihrer Teilskalen nicht möglich ist.
Besser dokumentiert sind die Ergebnisse der Faktorenanalysen von Shenhar et al.
(2001), die anhand einer Stichprobe von 172 israelischen Projekten mit starkem Schwer-
punkt im Produktentwicklungsbereich vier Dimensionen des umfassend verstandenen
Konstrukts Projekterfolg“ ableiten. Vergleicht man anhand von Tabelle 4.1 die iden-
”
tifizierten Erfolgsdimensionen mit denen von Griffin und Page (1993), so tritt zunächst
am deutlichsten die neue Dimension Preparing for the Future hervor, deren Items zwar
inhaltlich über den von Griffin und Page (1993) gesteckten Rahmen hinausgehen, jedoch
teilweise keine echten Erfolgsaspekte, sondern eher Indikatoren der Innovationshöhe um-
fassen. Die Kundendimension fällt bei beiden Untersuchungen zwar grundsätzlich ähnlich
aus, ermittelt bei Shenhar et al. (2001) jedoch auch die Einhaltung der funktionellen
169
Griffin und Page (1993), S. 292f.
170
Das letzte der 16 Core Measures von Griffin und Page ist allerdings auf Firmenbene angesiedelt.
171
So untersuchen Story et al. (2001) die Anwendbarkeit des Messkonzeptes auf die (britische) Auto-
mobilzulieferindustrie, Hultink und Robben (1995) den Einfluss von Zeitperspektive, Markt, Inno-
vationsgrad und Strategie sowie Griffin und Page (1996) ebenfalls den Einfluss der Strategie auf die
jeweilige Wichtigkeit der Erfolgsgrößen.
88 4. Planung, Steuerung und Erfolg von Innovationsprojekten
und technischen Produktspezifikation, die bei Griffin und Page (1993) einen Aspekt des
produktbezogenen Faktors bilden. Die beiden übrigen Faktoren – Projekteffizienz und
Business Success – ähneln in ihrer Struktur stärker den entsprechenden Resultaten in der
Untersuchung von DeCotiis und Dyer (1979), da ihre jeweiligen Inhalte bei Griffin und
Page (1993) entweder gar nicht oder aber in anderen Faktoren berücksichtigt werden.
Insgesamt geht aus dem Vergleich der in Tabelle 4.1 aufgestellten Studien deutlich her-
vor, dass sich die verwendeten Erfolgsmaße zwar oft ähneln, ihre Verdichtung zu Dimen-
sionen jedoch immer wieder unterschiedlich ausfällt. Dass eine dimensionale Abgrenzung
der Erfolgsdimensionen mit Problemen verbunden ist, deuten dabei auch schon die hohen
Querladungen an, die bei der von Shenhar et al. (2001) berichteten Faktorenanalyse zu
Tage treten. Vor diesem Hintergrund soll im Rahmen der Konstruktoperationalisierung in
Kapitel 9 der vorliegenden Arbeit eine vergleichsweise große Zahl von Erfolgsindikatoren
untersucht und statistisch zu Dimensionen verdichtet werden. Durch methodische Itemse-
lektion soll dabei versucht werden, eine möglichst klare Trennung und Charakterisierung
der einzelnen Dimensionen zu erreichen.
Tabelle 4.1: Studien zur Erfolgsmessung bei Innovationsvorhaben
DeCotiis Konzeptualisierung und Ope- 20 strukturierte In- Inhaltsanalyse der In- 5 Erfolgsdimensionen identifiziert:
und Dyer rationalisierung des Erfolgs terviews mit F&E- terviews, dann Fakto- (1) Manufacturability and Business Perfor-
(1979) von F&E-Projekten Mitarbeitern eines US- ranalyse über identifi- mance (u. a. Time-to-market, Profitabilität);
amerikanischen Großun- zierte Erfolgsitems (2) Technical Performance; (3) Efficiency
ternehmens (u. a. Zeitplaneinhaltung, Budgeteinhaltung,
Produktivität); (4) Personal Growth Experi-
ence (Projekt stellt interessante, herausfor-
dernde Erfahrung dar etc.); (5) Technologi-
cal innovativeness (u. a. entscheidender tech-
nischer Fortschritt)
Griffin und Identifikation aller verwende- 77 Publikationen aus 61 Group consensus pro- 75 unterschiedliche Erfolgsmaße wurden iden-
Page (1993) ten Erfolgsmaße sowie Bil- Forschungsprojekten cess, Faktorenanalyse tifiziert (46 aus Veröffentlichungen, 34 von Fir-
4.4. Erfolgsbeurteilung von Innovationsvorhaben
dung und Validierung zusam- 50 Fragebögen, ausfüllt men verwendet, 45 von Firmen als erstrebens-
menfassender Dimensionen von Managern auf der PD- wert eingeschätzt)
Einteilung der Maße danach, MA Konferenz 1991 16 Maße ( Core Measures“) sind in allen drei
”
ob sie von Innovationsfor- Kategorien vertreten
schern genutzt werden, ob sie Zuordnung der Maße zu 5 Kategorien: Firm
von Firmen tatsächlich ge- Benefit, Program Level, Product, Financial
nutzt werden oder ob Firmen Performance, Customer Acceptance
sie gern nutzen würden
Firmen nutzen im Mittel 4 Maße: 2 Custo-
mer Acceptance, 1 Financial, 1 Firm oder
Product Level. Innovationsforscher gewichten
Firm und Program Level stärker
(wird fortgesetzt)
89
90
(Fortsetzung)
Griffin und Analyse des Zusammenhangs 80 Manager aus dem Fragebögen beschrei- Met Profit Goals“, Competitive Advantage“
” ”
Page (1996) zwischen Projektstrategie Tätigkeitsfeld Produkt- ben Projekt- und und Customer Satisfaction“ gehören über al-
”
und verwendeten Maßen für entwicklung, die aktive Firmenstrategien, zu le Typen von Projektstrategien zu den meist-
Projekterfolg Mitglieder der PDMA denen die Studien- genutzten Maßen, daneben werden je nach
Analyse des Zusammenhangs oder der NPD Common teilnehmer jeweils die Projekttyp weitere Maße herangezogen
zwischen Firmenstrategie Interest Group der APQC Maße nennen, die sie Empfohlene Maße für Programmerfolg unter-
und verwendeten Maßen für sind am ehesten verwenden scheiden sich z. T. signifikant entlang der Stra-
Programmerfolg würden tegietypen von Miles und Snow (1978): Pro-
spectors betonen v. a. Sales“ und Opportu-
” ”
nities“, die anderen Kategorien v. a. Strategy
”
Fit“ und Program ROI“
”
Hart (1993) Hauptziel ist die Analyse der 69 Fragebögen, ausgefüllt Faktorenanalyse Innovationserfolg wird auf Projektebene
wechselseitigen Beziehungen von Mitarbeitern bri- durch 3 relativ heterogene Dimensionen mit
von Erfolgsmaßen auf Pro- tischer Manufacturing z. T. hohen Querladungen erfasst:
”
grammebene Companies“ diverser Technology Race: Technological Break-
Branchen ”
Daneben sollen auch Dimen- through“, Beaten the competition technical-
”
sionen des Erfolgs auf Projek- ly“, Beaten the competition to market“
”
tebene identifiziert werden Price/Cost: Reduced production costs“,
”
Beaten the competition on costs“, Met the
” ”
objectives set“, Launched into new markets“
”
ROI: Profits in excess of costs“, Beaten the
” ”
competition to market“, Met the objectives
”
set“
(wird fortgesetzt)
4. Planung, Steuerung und Erfolg von Innovationsprojekten
(Fortsetzung)
Hauschildt Vergleich der Konzepte zur 35 Erfolgsfaktorenstudien, Heuristische Gruppie- Innovationserfolg wird durch 3 Dimensionen
(1991) Messung des Innovationser- die den Innovationserfolg rung der Erfolgsmaße erfasst:
folgs in wissenschaftlichen als Variable verwenden Technische Effekte: Direkt: technische
Veröffentlichungen Messwerte; Indirekt: Know-How-Aufbau,
Werbeeffekte, Abwehreffekte, etc.
Ökonomische Effekte: Direkt: Umsatz, Ge-
winn, Kosten; Indirekt: Umsatzverringerung
oder Kostenerhöhung der Konkurrenz
Sonstige Effekte: Umwelteffekte, wissen-
schaftliche Anerkennung, etc.
Hultink und Analyse, wie die Verwen- 80 Fragebögen, aus- t-Tests Kurzfristig sind v. a. Time-to-market und Ent-
Robben dung der 16 Core Mea- gefüllt von Marketing- wicklungskosten wichtig, langfristig sind v. a.
4.4. Erfolgsbeurteilung von Innovationsvorhaben
(1995) sures von Griffin und Pa- und F&E-Managern Profitabilitätsmaße und Umsatzziele wichtig
ge (1993) von Zeitperspek- niederländischer Großun- Keine signifikanten Ergebnisse hinsichtlich der
tive, Markt, Strategie, Inno- ternehmen anderen Kontingenzfaktoren
vationsgrad und funktioneller
Orientierung anhängt
Kerssens-van Analyse des in der Pra- 44 Fragebögen, ausgefüllt Deskriptive Statistik Maße zur Projektbeurteilung werden mit der
Drongelen xis eingesetzten Systems zur von F&E-Managern folgenden Frequenz von Firmen eingesetzt:
und Erfolgsbeurteilung von NPD niederländischer Fir- 74% Zeitplaneinhaltung, 42% Qualität, 26%
Bilderbeek auf Projekt-, Programm- und men, Vertiefung durch 9 Budgeteinhaltung, 21% Kundenzufriedenheit,
(1999) Unternehmensebene mit dem strukturierte Interviews 11% ROI
Ziel, Kontingenz- und Effizi-
enzaussagen zu treffen
(wird fortgesetzt)
91
92
(Fortsetzung)
Lipovetsky Bestimmung der relativen Jeweils 3 Fragebögen Round Robin Tourna- Alle 3 Bewertergruppen priorisieren die 4 Er-
et al. (1997) Wichtigkeit verschiedender ausgefüllt von End ment, AHP folgsdimensionen gleich: (1) Benefits to the cu-
”
Dimensionen des Projekter- User“, Customer“ und stomer, (2) Meeting design goals, (3) Benefits
”
folgs Developer“ für 110 to the defense infrastructure, (4) Benefits to
”
NPD-Projekte in der the developing organizsation
israelischen Verteidi-
gungsindustrie
Shenhar Identifikation der Dimensio- 127 Fragebögen von Pro- Erste Stufe: Fallstu- Projekterfolg wird durch 4 Dimensionen er-
et al. (2001) nen des Konstrukts Projekt- jekten aus 76 israelischen dieninterviews bei 15 fasst:
”
erfolg“ Firmen, davon ca. 75% Firmen zur Sammlung Project Efficiency: Budget- und Zeitplanein-
aus dem Bereich Produkt- potentieller Erfolgsma- haltung
Analyse der jeweiligen Wich- entwicklung ße und -dimensionen
tigkeit der Erfolgsdimensio- Impact on the Customer: Einhaltung funktio-
nen für unterschiedliche Pro- Zweite Stufe: Fakto- neller und technischer Spezifikationen, Lösung
jekttypen renanalysen über die eines Kundenproblemes, Erfüllung der Kun-
in den Fragebögen auf- denbedürfnisse, Der Kunde nutzt das Pro-
geführten Erfolgsitems dukt, Kundenzufriedenheit
Business Success: Wirtschaftlicher Erfolg und
Erlangung eines großen Marktanteils
Preparing for the Future: Entwicklung einer
neuen Technologie, Schaffung einer neuen Pro-
duktlinie, Schaffung eines neuen Marktes
(wird fortgesetzt)
4. Planung, Steuerung und Erfolg von Innovationsprojekten
(Fortsetzung)
Storey und Analyse, wie Firmen den Er- Fragebögen beantwor- Deskriptive Statistik 56% aller Firmen messen den NSD-Erfolg an-
Kelly (2001) folg neuer Dienstleistungen tet von 43 Managern hand von Gewinn und Umsatz, 28% mes-
auf Projekt- und Programme- britischer Diensleistungs- sen Kundenzufriedenheit, nur gut 10% messen
bene messen firmen jeweils Projektrentabilität, Kosteneinhaltung
und strategischen Fit
Story et al. Überprüfung der 16 Core Strukturierte Interviews Deskriptiv Financial measures: Gewinn, ROI und Bud-
(2001) Measures von Griffin und Pa- mit jeweils einem NPD- geteinhaltung werden häufig gemessen, nicht
ge (1993) auf Vollständigkeit Manager aus 10 britischen dagegen Break-even-time.
und Relevanz für eine speziel- Automobilzulieferfirmen Customer/market measures: Marktanteil,
le Branche Stückzahl und Kundenzufriedenheit werden
häufig gemessen, nicht dagegen Umsatz.
Technical: Qualität wird häufig als wichtige
4.4. Erfolgsbeurteilung von Innovationsvorhaben
172
Dess und Robinson (1984), S. 269.
173
Dess und Robinson (1984), S. 271.
4.4. Erfolgsbeurteilung von Innovationsvorhaben 95
Tabelle 4.2: Studien zur Korrelation zwischen subjektiven Einschätzungen und objektiven Performance-
Maßen auf Unternehmensebene
Kapitel 5
In diesem Kapitel sollen die Ergebnisse bisheriger empirischer Forschung in Bezug auf
die Planung und Steuerung von Innovations- und NPE-Projekten aufgearbeitet werden.
Hierfür werden 39 empirische Untersuchungen, die in 45 Aufsätzen veröffentlicht wur-
den, einer detaillierten Analyse unterzogen. Die Metaanalyse dieser Studien verfolgt im
wesentlichen drei Ziele:
1. Anhand einer umfassenden Sichtung der Literatur zur Planung und Steuerung von
Innovationsprojekten soll eine möglichst vollständige Zusammenstellung und Syste-
matisierung des relevanten empirischen Forschungsfeldes erreicht werden. Neben der
Erfassung der jeweils gewählten Operationalisierungen zentraler Variablen betrifft
dies vor allem die Befunde hinsichtlich der Erfolgswirkung verschiedener Planungs-
und Steuerungsaspekte.
3. Die Rolle des Innovationsgrads als zentraler Kontingenzfaktor im Rahmen von Pro-
98 5. Metaanalyse der empirischen Forschung zur Planung und Steuerung
Die Suche nach relevanten Studien erfolgte zunächst in Form von Datenbankabfragen mit
logisch verknüpften Stichworten (innovation, new product development, planning, control,
formality, etc.) in Datenbanken zur wirtschaftswissenschaftlichen Literatur (EBSCO, ABI-
INFORM). Ergänzend wurden die Inhaltsverzeichnisse derjenigen deutsch- und englisch-
sprachigen Zeitschriften durchsucht, in denen am ehesten Veröffentlichungen zu Fragen
des Innovationsmanagement auf Projektebene erscheinen.1 Als weitere Quelle einzube-
ziehender Studien dienten die Zitationen bereits ermittelter Veröffentlichungen. Studien
mussten die folgenden Kriterien erfüllen, um in die Metaanalyse einbezogen zu werden:
1. Die Ebene der Analyse muss das Einzelprojekt sein. Nicht berücksichtigt werden also
Arbeiten, die sich ausschließlich auf das Innovationssystem auf Projektprogramm-
oder Gesamtunternehmensebene beziehen.
2. Der Zusammenhang zwischen Aspekten der Planung und Steuerung auf der einen
Seite und dem Projekterfolg auf der anderen Seite muss auf der Basis großzahliger
Stichproben untersucht werden. Ergebnisse von Arbeiten, die reine Existenzaussagen
treffen oder auf Fallstudien basieren, wurden im letzten Kapitel berichtet.
3. Die Stichprobe muss sich zum größten Teil aus wirklichen Entwicklungsprojekten
rekrutieren. Untersuchungen, bei denen Innovationsprojekte nur beispielsweise 20
Prozent der Stichprobe ausmachen, müssen so zugunsten der Homogenität ausge-
schlossen werden.
Im Rahmen der Literatursuche musste festgestellt werden, dass sich im Vergleich zu ande-
ren, thematisch weiter gefassten Metaanalysen nur eine relativ geringe Zahl von Studien
1
Bei den folgenden Zeitschriften wurden die Jahres-Inhaltsverzeichnisse ab 1990 auf relevante Stu-
dien hin untersucht: Academy of Management Journal, Administrative Science Quarterly, Die Be-
triebswirtschaft, Journal of Management, Journal of Product Innovation Management, Management
Science, R&D Management, Zeitschrift für Betriebswirtschaft, Zeitschrift für betriebswirtschaftliche
Forschung.
5.2. Ergebnisse allgemeiner NPD- und NSD-Studien 99
mit diesem Themenkreis befasst. Zudem berichtet nur ein kleinerer Teil der Arbeiten die
für eine quantitative Metaanalyse geeignete Effektstärken . Um dennoch eine möglichst
umfassende Darstellung des empirischen Forschungsfeldes zu gewährleisten, wird zunächst
eine qualitative Gegenüberstellung der zentralen Befunde durchgeführt. Dabei bietet sich
unter inhaltlichen und methodischen Gesichtspunkten die folgende Dreiteilung an: In Ab-
schnitt 5.2 werden die Untersuchungen analysiert, die sich in ihrer Methodik an die frühe
Studie von Cooper (1979a) anlehnen und auf eher abstrakter Ebene sowohl Planungs- als
auch Steuerungsaspekte behandeln. Abschnitt 5.3 behandelt Studien, die gezielt Aspek-
te der Projektplanung betrachten, und Abschnitt 5.4 analysiert schließlich Studien, die
den Fokus auf Projektsteuerung setzen. Die quantitative Metaanalyse erfolgt dann im
Abschnitt 5.5 bevor die zentralen Befunde in Abschnitt 5.6 zusammengefasst werden.
Die in diesem Abschnitt vorgestellten Studien sind dadurch gekennzeichnet, dass sie ein
relativ breit gefächertes Spektrum organisationaler Gestaltungsmerkmale auf ihren Ein-
fluss auf den Innovationserfolg hin untersuchen. Sie gehen dabei stark exploratorisch vor
und identifizieren über Diskriminanzanalysen, Korrelationsrechnungen oder einfache Mit-
telwertvergleiche eine oft relativ große Zahl sogenannter Erfolgsfaktoren“, stellen also
”
typische Beispiele für den Rational Plan-Zugang zur Neuproduktforschung dar.2 Konzep-
tionell lehnen sich nahezu alle Arbeiten stark an die beiden Pionierstudien von Cooper
(1979a) sowie Cooper und Kleinschmidt (1987a) an und übernehmen in großen Teilen de-
ren Frageblöcke. Die wesentlichen Merkmale der Studien werden in Tabelle 5.1 dargestellt
sowie in Tabelle 5.2 verdichtet.
In den ersten Arbeiten von Cooper (1979a; 1979b; 1980a; 1980b), die auf der Untersu-
chung NewProd“ vom Ende der siebziger Jahre basieren, werden 77 Variablen durch ex-
”
ploratorische Faktorenanalysen zu 18 Dimensionen verdichtet. Die Diskriminanzanalyse in
der methodisch ausgefeiltesten der vier Veröffentlichungen (1979a, S. 100f.) zeigt, dass der
Erfolg neuer Produkte vor allem durch drei Aspekte signifikant positiv beeinflusst wird:
die Überlegenheit des Produktes“ 3 , die Professionalität der Marktforschung“ und die
” ”
Professionalität der technischen Produktentwicklung“. Projektplanung und -steuerung
”
werden von Cooper nicht untersucht, dagegen werden Aspekte der Businessplanung durch
2
Vgl. Abschnitt 3.1 (S. 27ff.) sowie Brown und Eisenhardt (1995), S. 348ff. Eine Sonderstellung nimmt
jedoch die Arbeit von Ernst (2001) ein, der zunächst umfassend die einschlägigen Erfolgsfaktorenstu-
dien gegenüberstellt, um dann anhand einer eigenen Erhebung deren Validität, v. a. hinsichtlich des
sog. informant bias , abzuschätzen.
3
Dieser Faktor enhält auch mindestens zwei Items, die die Makro-Perspektive des Innovationsgrads
messen: Highly innovative product, new to market“ und Product had unique features for customer“.
” ”
100 5. Metaanalyse der empirischen Forschung zur Planung und Steuerung
4
Vgl. u. a. Cooper und Kleinschmidt (1986).
5
Bei vier von zehn Faktoren liegt Cronbach’s Alpha unter 0.6, ein Drittel der Items hat Item-to-Total-
Korrelationen unter 0.4. Vgl. Cooper und Kleinschmidt (1987a), Tabelle 2 auf S. 176-177.
Tabelle 5.1: Übersicht über allgemeine NPD- und NSD-Studien
Publikation Stichprobe Messung von Erfolg sowie Wesentliche Befunde hinsichtlich Projektplanung
ggf. Innovationsgrad und -steuerung
Ali et al. 243 nordamerikanische Erfolgsmessung anhand von NPD cycle ti- Gute Up-front homework (u. a. Marktstudie, Ideenevaluation und
(1995) NPE-Projekte aus klei- me sowie die Break-even time. Business Case) wirkt stark positiv auf die NPD cycle time, die
nen Fertigungsbetrie- (positive) Wirkung auf die Break-even time ist dagegen nicht si-
ben gnifikant.
Atuahene- 275 australische In- Innovationsleistung als Faktor mit 12 Proficiency of predevelopment activities (u. a. Ideenevaluation und
Gima novationsprojekte aus Items operationalisiert (u. a. Grad der Ziel- Business Case) hat bei Produktinnovationen eine vergleichsweise
(1996) 158 produzierenden erreichung hinsichtlich Umsatz, Marktan- geringe positive Wirkung auf den Innovationserfolg, bei Dienstlei-
und 117 Dienstlei- teil, Profitabilität, Wettbewerbsvorteil). stungsinnovation wirkt sie gar nicht signifikant.
stungfirmen
Cooper 195 kanadische Erfolgsmessung: Einteilung in erfolgreiche Proficiency of precommercialization activities durch 7 Items er-
(1979a; NPE-Projekte aus und nicht erfolgreiche Projekte durch die fasst, u. a. durch Marktstudie, Ideenevaluation und Businesspla-
5.2. Ergebnisse allgemeiner NPD- und NSD-Studien
Cooper und 203 NPE-Projekte aus Erfolgsmessung anhand von 11 Items, Proficiency of predevelopment activities (u. a. Ideenevaluation,
Klein- 125 kanadischen Indu- die Profitabilität, Payback Period, Umsatz Marktforschung, finanzieller Business Case) zeigt signifikante po-
schmidt strieunternehmen. und Window of Opportunity“ erfassen. sitive Korrelationen mittlerer Höhe mit allen Erfolgsmaßen außer
”
(1987a; mit der Payback Period, mit der sie negativ korreliert.
1987b;
1987c)
(wird fortgesetzt)
101
(Fortsetzung)
102
Publikation Stichprobe Messung von Erfolg sowie Wesentliche Befunde hinsichtlich Projektplanung
ggf. Innovationsgrad und -steuerung
Cooper 103 nordamerikanische Erfolgsmessung: Clusterung der Projekte Up-front homework (Pre-development activities) enthält als we-
(1994a, und britische in Top, Mid und Bottom anhand von 6 Di- sentliche Punkte Marktstudie, Ideenevaluation und sowie Buil-
”
1994b) NPE-Projekte aus 21 mensionen: ding the business case“ vor dem Entscheidungspunkt Go to De-
”
Unternehmen der 1. Overall success velopment“.
chemischen Industrie 2. Profit rating Firmen mit besonders guter Up-front homework gehören entlang
3. Tech success rating allen Erfolgsdimensionen zu den Top-Performern.
4. Impact on company
5. Time efficiency
6. Adherence to schedule
Cooper und Gleiche Datenbasis Timeliness gemessen durch 2 Items: Up-front homework (Marktstudie, Ideenevaluation und Building
”
Klein- wie bei Cooper 1. Zeitplaneinhaltung the business case“ vor dem Entscheidungspunkt Go to Develop-
”
schmidt (1994a, 2. Zeiteffizienz (tatsächliche Projektdauer ment“) ist der zweitwichtigste Erfolgsfaktor für die Timeliness.
(1994) 1994b) im Verhältnis zu theoretisch effizienter Product definition (Zielmarkt und -positionierung, Kundennut-
Projektdauer) zendimensionen und Produktspezifikation) hat ein vergleichsweise
geringe Wirkung auf die Timeliness.
Cooper und 135 Neuproduktpro- Erfolg des Projektprogramms wird über 10 Solid performers“ heben sich von den anderen drei Clustern u. a.
”
Klein- gramme von Firmen Items erhoben, die auf 2 Faktoren laden: durch ihre Projektsteuerung ab. Sie verfolgen ein umfassendes
schmidt aus Nordamerika und 1. Program impact Prozessschema, dass sorgfältig und flexibel umgesetzt wird, hal-
(1995) Europa (v. a. 2. Program profitability ten an Steuerungsgrössen fest und nutzen diese für wohldefinierte
Deutschland und Go/Kill-Entscheidungen.
Dänemark) Anhand dieser zwei Dimensionen werden
vier Erfolgscluster gebildet: Solid perfor-
”
mers“, Technical winners“, Low-impact
” ”
performers“ und Dogs“.
”
(wird fortgesetzt)
5. Metaanalyse der empirischen Forschung zur Planung und Steuerung
(Fortsetzung)
Publikation Stichprobe Messung von Erfolg sowie Wesentliche Befunde hinsichtlich Projektplanung
ggf. Innovationsgrad und -steuerung
de Brentani 276 kanadische Erfolgsmessung: Einteilung in erfolgreiche Qualität des NSD-Prozesses hat von allen Faktoren die höchste
(1991) Dienstleistungsinnova- und nicht erfolgreiche Projekte durch die Wirkung auf die Cost performance und die zweithöchste Wirkung
tion aus 115 Firmen, Respondenten (150 erfolgreiche, 126 nicht auf die Sales performance, zeigt jedoch nur eine schwache Wirkung
breites Spektrum an erfolgreiche Projekte). auf die Competitive Performance. Qualität des NSD-Prozesses be-
Sektoren (Finanz, Daneben Erhebung diverser Erfolgsitems, steht dabei aus den 2 Faktoren
Professional, Logistik die zu 4 Dimensionen verdichtet wurden: 1. Formale Planung und Steuerung (Marktstudie, Ideenevalua-
und Kommunikation) tion, Finanzplan, Alternativenabwägung, Markttest,
1. Sales performance (6 Items)
2. Competitive performance (4 Items) Launch)
3. Cost performance (3 Items) 2. Effektivität des NSD-Management (u. a. Teambeteiligung in der
4. Other booster“ (2 Items) Planungsphase)
”
(Mikro-) Innovationsgrad wurde anhand
der beiden Faktoren Market newness to
”
the firm“ (5 Items) und Service newness
5.2. Ergebnisse allgemeiner NPD- und NSD-Studien
”
to the firm“ (3 Items) erhoben.
de Brentani Gleiche Stichprobe wie Erfolgsmessung: Einteilung in erfolgreiche Formelle Planung und Steuerung (Marktstudie, Ideenevaluation,
(1995) bei de Brentani (1991) und nicht erfolgreiche Projekte durch die Finanzplan, Alternativenabwägung, Markttest, Launch) hat bei
Respondenten (150 erfolgreiche, 126 nicht kleinen Firmen eine schwache, bei großen Firmen eine sehr schwa-
erfolgreiche Projekte). che Erfolgswirkung.
(Mikro-) Innovationsgrad wurde anhand Service newness to the firm“ hat eine negative Erfolgswirkung
”
der beiden Faktoren Market newness to bei kleinen Firmen, Moderatoreffekte wurden nicht untersucht.
”
the firm“ (5 Items) und Service newness
”
to the firm“ (3 Items) erhoben.
de Brentani Gleiche Stichprobe wie Gleiche Operationalisierung wie bei de Formelle Planung und Steuerung (Marktstudie, Ideenevaluation,
(2001) bei de Brentani (1995) Brentani (1995) Finanzplan, Alternativenabwägung, Markttest, Launch) hat bei
niedriginnovativen Projekten nur geringe Erfolgswirkung und ist
bei hochinnovativen gar nicht signifikant.
103
(wird fortgesetzt)
(Fortsetzung)
104
Publikation Stichprobe Messung von Erfolg sowie Wesentliche Befunde hinsichtlich Projektplanung
ggf. Innovationsgrad und -steuerung
Dwyer und 95 NPE-Projekte aus Einteilung in erfolgreiche und nicht er- Korrelationsanalyse zeigt, dass Ideenevaluation sowohl mit Um-
Mellor 75 australischen folgreiche Projekte durch die Responden- satz als auch mit Profitabilität signifikant korreliert; Marktstudie
(1991) Firmen ten (61 erfolgreiche, 32 nicht erfolgreiche und Business Case korrelieren mit dem Umsatz.
Projekte), daneben Erhebung von Umsatz,
Profitabilität und Window of opportuni-
”
ty“.
Edgett und 118 Dienstleistungsin- Einteilung in erfolgreiche und nicht erfolg- Businessplanung und Prozessformalisierung gehen in Diskrimi-
Parkinson novationen aus 67 bri- reiche Projekte durch die Respondenten nanzfunktion als relativ schwache Prädiktoren für Projekterfolg
(1994) tischen Bausparkassen (62 erfolgreiche, 56 nicht erfolgreiche Pro- ein.
jekte). Businessplanung umfasst dabei schriftliches Niederlegen der Pro-
jektziele, die Erstellung eines ersten Business Case, eine formel-
le Go/No Entscheidung und einen weiteren Business Case vor
Launch.
Prozessformalisierung erfasst, wie formell Projektselektion und
-ausführung erfolgten.
Edgett 148 Dienstleistungsin- Einteilung in erfolgreiche und nicht erfolg- Mittelwertvergleiche ohne Skalenbildung zeigen, dass hinsichtlich
(1994) novationen aus 88 bri- reiche Projekte durch die Respondenten der formellen Projektselektion nur schwach signifikante Unter-
tischen Bausparkassen (78 erfolgreiche, 70 nicht erfolgreiche Pro- schiede zwischen erfolgreichen nur nicht erfolgreichen Projekten
und Banken jekte). bestehen, hinsichtlich der Items zur Business Planung (schriftli-
ches Niederlegen der Projektziele, Erstellung eines ersten Business
Case, formelle Go/No-Go Entscheidung und weiterer Business Ca-
se vor Launch) dagegen sehr hohe.
(wird fortgesetzt)
5. Metaanalyse der empirischen Forschung zur Planung und Steuerung
(Fortsetzung)
Publikation Stichprobe Messung von Erfolg sowie Wesentliche Befunde hinsichtlich Projektplanung
ggf. Innovationsgrad und -steuerung
Ernst (2001) 258 Informanten (je- Erfolgsmessung in 3 Dimensionen: Vorarbeiten mit kommerzieller Projektbewertung umfasst projekt-
weils 129 aus der 1. Umsatzwachstum (3 Items) vorbereitende Arbeiten, frühzeitige Definition der Produkteigen-
Leitungs- und Pro- 2. Profitabilität (3 Items) schaften und Leistungsmessung.
jektebene) über die 3. Zielerreichung (2 Items) Prozessbegleitende Bewertung und Steuerung umfasst Steuerung
NPE-Programme von des NPE-Prozesses und Kriterien für Projektfortführung.
43 Unternehmen bzw.
SGEs Vorarbeiten mit kommerzieller Projektbewertung und Prozessbe-
gleitende Bewertung und Steuerung haben einen signifikant posi-
tiven Einfluss auf die Profitabilität des NPE-Programms.
Huang et al. 276 australische NPE- Erfolgsmessung anhand der 16 Core Mea- Diskriminanzanalyse zwischen erfolgreichen und nicht erfolgrei-
(2002) Projekte aus den Be- sures von Griffin und Page (1993). Danach chen Projekten zeigt, dass Analyse des finanziellen Business Ca-
reichen Maschinenbau Einteilung in erfolgsreiche und nicht erfolg- se ein signifikanter Erfolgsfaktor ist. Hinsichtlich des Idea Scree-
und chemische Indu- reiche Projekte. ning unterscheiden sich erfolgreiche und nicht erfolgreiche Projek-
5.2. Ergebnisse allgemeiner NPD- und NSD-Studien
strie te nicht.
Kotzbauer 120 deutsche NPE- Einteilung in erfolgreiche und nicht erfolg- Planungsqualität wirkt positiv auf den Neuprodukterfolg.
(1992) Projekte reiche Projekte durch die Respondenten. Planungsqualität wird gemessen als Güte der Planungsaktivitäten
Daneben Erfolgsmessung in 3 Dimensio- vor Eintritt in die Entwicklungsphase (Vorabdefinition des Ziel-
nen: marktes, der Kundenwünsche, des Produktkonzeptes, der techni-
1. Markterfolg schen Produktanforderungen).
2. Finanzieller Erfolg
3. Strategischer Erfolg
Mishra et al. 288 koreanische Einteilung in erfolgreiche und nicht erfolg- Marktstudie und Ideenevaluation korrelieren relativ hoch mit dem
(1996) NPE-Projekte aus 144 reiche Projekte durch die Respondenten so- Projekterfolg, finanzielle Analyse dagegen geringer.
Firmen wie Erhebung eines Items Projekterfolg“
”
auf 10er Skala.
(wird fortgesetzt)
105
(Fortsetzung)
106
Publikation Stichprobe Messung von Erfolg sowie Wesentliche Befunde hinsichtlich Projektplanung
ggf. Innovationsgrad und -steuerung
Parry und 258 chinesische Einteilung in erfolgreiche und nicht erfolg- Finanzielle Analyse und Alternativenabwägung gehören zu den
Song (1994) NPE-Projekte aus 129 reiche Projekte durch die Respondenten so- Prozessfaktoren, die am höchsten mit dem Erfolg korrelieren.
Firmen wie Erhebung eines Items Projekterfolg“
”
auf 10er Skala.
Simpson 151 NPE-Projekte aus Einteilung in erfolgreiche und nicht erfolg- Die Qualität des Projektprozesses (3 items) hat positive Erfolgs-
et al. (2002) High-Tech Firmen, reiche Projekte durch die Respondenten. wirkung in der deutschen Teilstichprobe, in der amerikanischen
davon 111 aus den (79 erfolgreiche und 72 nicht-erfolgreiche dagegen ist die Beziehung nicht signifikant.
USA und 40 aus Projekte, davon 21 bzw. 19 aus Deutsch-
Deutschland land).
Song und 788 japanische Erfolgsmessung in 4 Dimensionen: Proficiency of concept development and evaluation (u. a. Ideen-
Parry (1996) NPE-Projekte aus 404 1. Product advantage (7 Items) entwicklung, Alternativenabwägung, Businessplanung, Machbar-
Firmen. 2. Relative profitability (4 Items) keitsstudie) gehört zu den Faktoren, die eher stark mit den vier
Die Stichprobe wird 3. Relative sales (3 Items) Erfolgsfaktoren korrelieren.
auch in Song und 4. Relative market share (4 Items) Proficiency of the predevelopment planning process (u. a. Projekt-
Parry (1997) strukturplan und Meilensteinplanung) gehört zu den Faktoren, die
verwendet. weniger stark mit den vier Erfolgsfaktoren korrelieren.
(wird fortgesetzt)
5. Metaanalyse der empirischen Forschung zur Planung und Steuerung
(Fortsetzung)
Publikation Stichprobe Messung von Erfolg sowie Wesentliche Befunde hinsichtlich Projektplanung
ggf. Innovationsgrad und -steuerung
Song und 788 japanische und Positionierungsvorteil durch Differenzie- Proficiency in the Business and Market Opportunity Analysis
Parry (1997) 612 nordamerikanische rung als vorgelagertes Erfolgsmaß. Hierin Stage (u. a. Marktstudie, Machbarkeitsstudie sowie Investitions-,
NPE-Projekte aus 404 sind tatsächliche Differenzierungsaspekte Zeit- und Risikoplanung) wirkt in beiden Stichproben stark posi-
bzw. 312 Firmen. enthalten (u. a. superior to competing pro- tiv auf den Positionierungsvorteil.
Die japanische ducts, higher quality, first into the market), Proficiency in the Idea Development and Screening Stage (u. a.
Stichprobe wird auch aber auch Innovationsgradaspekte (highly Ideenentwicklung, Alternativenabwägung, Businessplanung, Do-
in Song und Parry innovative, first of its kind, technology ne- kumentation) dagegen hat in der amerikanischen Stichprobe einen
(1996) verwendet. ver used before, changes the whole indu- signifikant negativen Einfluss auf den Positionierungsvorteil, in
stry). der japanischen Stichprobe keinen signifikanten Einfluss.
Aus Positionierungsvorteil folgt Relative
product performance mit 3 Dimensionen:
1. Relative profitability (4 Items)
2. Relative sales (3 Itesm)
5.2. Ergebnisse allgemeiner NPD- und NSD-Studien
Thamhain 74 Projektteams aus Innovative team performance gemessen Ein klarer Projektplan wirkt positiv auf alle Erfolgsdimensionen,
(2003) 27 internationalen durch 4 Items: v. a. auf die Ressourceneffektivität.
Technologiefirmen 1. Predicting change Prozessstabilität und wenig Änderungen zeigen dagegen keine si-
2. Market focus gnifikante Erfolgswirkung.
3. Communication effectiveness
4. Resource effectiveness
5. Overall innovative performance
Thieme 64 japanische und 128 Einteilung in erfolgreiche und nicht er- Prozessqualität (Güte der Durchführung von 8 Prozessphasen)
et al. (2003) koreanische folgreiche Produkte anhand einer survival wirkt positiv auf den Projekterfolg.
”
Neuprodukte aus den classification“. Planungsqualität (detaillierte Projektplanung und -kontrolle, Par-
Bereichen Elektronik tizipation des Projektteams, klare Berichtswege) wirkt positiv auf
und Kommunikation Prozessqualität und Projekterfolg.
107
(wird fortgesetzt)
(Fortsetzung)
108
Publikation Stichprobe Messung von Erfolg sowie Wesentliche Befunde hinsichtlich Projektplanung
ggf. Innovationsgrad und -steuerung
Zirger und 148 nordamerikanische Einteilung in erfolgreiche und nicht erfolg- R&D Excellence (7 Items) wirkt positiv auf den Produkterfolg.
Maidique NPE-Projekte im reiche Projekte durch die Respondenten Dieser Faktor enthält auf der einen Seite Aspekte des Projekt-
(1990) Bereich Elektronik, (77 erfolgreiche, 71 nicht erfolgreiche Pro- management (gute Prozessplanung und Koordination, gute Un-
v. a. Computer-, Mess- jekte). terstützung durch Projektleitung und Promotoren), auf der an-
und Kommunikations- deren Seite aber auch Produktaspekte (hohe Qualität und Zu-
technik verlässigkeit, Ausrichtung auf Kundenbedürfnisse).
5. Metaanalyse der empirischen Forschung zur Planung und Steuerung
5.2. Ergebnisse allgemeiner NPD- und NSD-Studien 109
Der Verzicht auf eine bessere statistische Bestätigung bzw. Bereinigung der Faktorstruk-
tur ist umso bedauerlicher, als sie im Rahmen der Chemiestudie von Cooper und Klein-
schmidt (1993a; 1993b; 1993c; 1994) wieder verwendet wurde und als Vorbild für die
Arbeiten anderer Autoren diente, die die in Kanada entwickelte NewProd II-Systematik
auf andere Länder übertrugen. In der vorliegenden Analyse werden davon die folgen-
de Studien berücksichtigt: Australien – Dwyer und Mellor (1991) sowie Atuahene-Gima
(1996), China – Parry und Song (1994), Japan – Song und Parry (1996), Korea – Mishra
et al. (1996) sowie USA – Song und Parry (1997). Mit Ausnahme von Song und Parry
(1997) kommen alle genannten Untersuchungen zu dem Ergebnis, dass sorgfältige Markt-
forschung, bewusste Ideengenerierung und Alternativenabwägung sowie die Erstellung
eines finanziellen Business Case positiv auf die jeweils gewählten Erfolgsmaße wirken.
Neben den bisher vorgestellten Studien enthalten die Tabellen 5.1 und 5.2 mit de Bren-
tani (1991; 1995; 2001), Edgett (1994) sowie Edgett und Parkinson (1994) auch fünf
Arbeiten, die die Erfolgsfaktoren bei der Entwicklung neuer Dienstleistungen untersu-
chen. Dienstleistungen unterscheiden sich von Produkten durch eine Reihe besonderer
Charakteristika,6 die die Vergleichbarkeit der jeweiligen Erfolgsfaktoren zunächst fraglich
erscheinen lassen. Da die vorliegende Arbeit jedoch Planungs- und Steuerungmechanismen
untersucht, die stark vom eigentlichen Ergebnis des Innovationsprozesses abstrahieren und
im Schwerpunkt deutlich vor der Markteinführung ablaufen, sollen auch diese Dienstlei-
stungsstudien zur Verbreiterung des empirischen Fundaments herangezogen werden.7
6
Häufig werden in Anlehnung an Zeithaml et al. (1985) Intangibility, Inseparability, Heterogenity,
Perishability genannt.
7
Darüberhinaus wird es in einigen Industrien zunehmend schwieriger, eine klare Trennung zwischen
Produkt und Dienstleistung vorzunehmen, vgl. Johne und Storey (1998, S. 185-187). Dies trifft auch
auf einige der Innovationen zu, die im empirischen Teil dieser Arbeit untersucht werden.
110 5. Metaanalyse der empirischen Forschung zur Planung und Steuerung
Relevante Erfolgsfaktoren
ng
ng
ru
ng
e
nu
as
ue
ie
ni
la
ud
te
ee
tp
ss
ts
cr
st
ek
ek
ns
kt
Erfolgs-
in
oj
oj
ar
ee
us
Pr
Pr
Studie messung
Id
B
Ali et al. (1995) Zeit
Atuahene-Gima (1996) Multidim.
Cooper (1979a) S/F
Cooper und Kleinschmidt (1987a) Multidim.
Cooper und Kleinschmidt (1993a) S/F
Cooper und Kleinschmidt (1994) Zeit
Cooper (1994a) S/F
Cooper und Kleinschmidt (1995) S/F
de Brentani (1991) Multidim.
de Brentani (1995; 2001) S/F
Dwyer und Mellor (1991) Multidim.
Edgett (1994) S/F
Edgett und Parkinson (1994) S/F
Ernst (2001) Multidim.
Huang et al. (2002) Multidim.
Kotzbauer (1992) S/F
Mishra et al. (1996) S/F
Parry und Song (1994) S/F
Simpson et al. (2002) S/F
Song und Parry (1996) Multidim.
Song und Parry (1997) Multidim.
Thamhain (2003) Multidim.
Thieme et al. (2003) S/F
Zirger und Maidique (1990) S/F
Erläuterung. Drei Arten der Erfolgsmessung werden verwendet: Dichotome oder trichotome
Erfolgsklassifikation ( S/F“ = Success/Failure); Projektplaneinhaltung bzw. Time-to-market
”
( Zeit“); mehrdimensionale Erhebung ( Multidim.“). Erfolgswirkung der Planungs- und Steue-
” ”
rungsfaktoren wie folgt kodiert: = stark positiv; = schwach positiv; = keine signifikante
Wirkung; = schwach negativ.
Tabelle 5.2: Erfolgswirkung der in allgemeinen NPD- und NSD-Studien untersuchten Faktoren
Die Veröffentlichungen von de Brentani (1991; 1995; 2001) beruhen alle auf dersel-
5.2. Ergebnisse allgemeiner NPD- und NSD-Studien 111
8
Dieser Faktor wird bei de Brentani (2001, S. 187) als NSD: formal evaluation and design bezeichnet
und enthält u. a. die Items In-depth Market Study, Formal Idea Screening und In-depth Financial
Analysis.
9
de Brentani (2001), S. 179.
10
Simpson et al. (2002), S. 199; Thieme et al. (2003), S. 118.
11
Vgl. Thamhain (2003), Tabelle 4 auf S. 305. Werte mit τ 0, 2 sind dabei nicht signifikant.
112 5. Metaanalyse der empirischen Forschung zur Planung und Steuerung
5. Ein Einfluss von Prozessstabilität (bzw. invers kodiert: Zieländerungen) auf den
Vorhabenserfolg kann nicht nachgewiesen werden.
Die Präsentation dieser Befunde ist jedoch als vorläufig anzusehen, da einige der Untersu-
chungen methodisch nicht auf dem aktuellen Stand der Forschung sind (siehe oben), die
Operationalisierung der Konstrukte aus einem Teil der Veröffentlichungen nicht klar her-
vorgeht und die Punkte (2) und (5) nur auf den Ergebnissen jeweils einer Studie beruhen.
In den beiden nächsten Abschnitten werden weitere Studien vorgestellt, die z. T. deutlich
detailliertere Ergebnisse zur Planung und Steuerung von Innovationsprojekten enthalten.
Im ersten Teil dieses Abschnitts werden drei Arbeiten der israelischen Forschergruppe um
Dvir und Shenhar vorgestellt, die gezielt die Erfolgswirkung von Projektplanung anhand
langer Tätigkeitenlisten untersuchen. Der Verdienst dieser Arbeiten ist es, einzelne Pla-
nungsaktivitäten unter die Lupe zu nehmen“, eine Konstruktbildung wird jedoch nicht
”
vorgenommen. Im Anschluss werden zwei Arbeiten diskutiert, die eine geringe Anzahl
kritischer Entwicklungsaktivitäten“ betrachteten (darunter jeweils mehrere Planungs-
”
faktoren), um ihre Erfolgswirkung bei hoch- und niedriginnovativen Projekten zu un-
tersuchen. Sie arbeiten also fokussierter als die in Abschnitt 5.2 (S. 99ff.) vorgestellten
Untersuchungen, können aber im Gegensatz zu den Arbeiten von Dvir und Shenhar keine
Aussage über Einzelaktivitäten treffen (vgl. Tabelle 5.3).
Tabelle 5.3: Übersicht über Studien mit Fokus auf Projektplanung
Publikation Stichprobe Messung von Erfolg sowie Wesentliche Befunde hinsichtlich Projektplanung
ggf. Innovationsgrad
Avlonitis 100 griechische Dienst- Erfolgsmessung: Gesamterfolg durch ein Businessplanung (u. a. Alternativenabwägung, Produktkonzept,
und leistungsinnovationen Item auf 5er-Skala erhoben, danach Ein- Business Case) hat bei innovativen Projekten sehr hohe Erfolgs-
Papastatho- aus dem Finanzsektor teilung in erfolgreiche und nichterfolgreiche wirkung, bei nicht innovativen Projekten gar keine Erfolgswir-
poulou Projekte (54 erfolgreiche, 46 nicht erfolg- kung.
(2001) reiche Projekte). Projektplanung (u. a. Setzung von Leistungszielen, Abschätzung
Innovationsgrad : Multidimensional erho- von Zeit-, Personal- und allg. Ressourcenbedarf) hat bei nicht in-
ben, in der vorliegenden Arbeit wird aber novativen Projekten hohe Erfolgswirkung, bei innovativen Projek-
nur eine Einteilung in innovative bzw. nicht ten niedrige Erfolgswirkung.
innovative Projekte anhand eines zusam-
5.3. Studien mit Fokus auf Projektplanung
Dvir et al. 110 israelische Ein Item Gesamterfolg des Projekts“. Da- Projektplanung wird durch 3 Dimensionen erfasst:
”
(2003) Verteidigungsprojekte, neben 3 Multi-Item Erfolgsdimensionen: 1. Entwicklung funktionaler Anforderungen (6 Items)
vgl. Dvir et al. (1998) 1. Meeting planning goals (5 Items) 2. Entwicklung technischer Spezifikationen (9 Items)
2. End-user benefits (7 Items) 2. Implementation des Projektmanagement (17 Items)
3. Contractor benefits (9 Items) Keine Korrelation zwischen der Implementation des Projektma-
nagement und den Erfolgsdimensionen. Dagegen korrelieren die
Anforderungs- und Spezifikationsentwicklung hoch mit dem End-
user Benefit und dem Gesamterfolg.
(wird fortgesetzt)
113
(Fortsetzung)
114
Publikation Stichprobe Messung von Erfolg sowie Wesentliche Befunde hinsichtlich Projektplanung
ggf. Innovationsgrad
Raz et al. 127 israelische Erfolgsmessung über 4-Item Skala: Projekt-Risikomanagement wird durch 5 Items erfasst:
(2002) NPE-Projekte, v. a. 1. Einhaltung funktioneller 1. Systematische Risiko-Identifizierung
aus den den Bereichen Spezifikationen 2. Probabilistische Risikoanalyse
Elektronik, Computer, 2. Einhaltung technischer 3. Planung zur Risikoreduktion
Maschinenbau, Spezifikationen 4. Planung zur Risikobewältigung
Chemie und Bau 3. Einhaltung Zeitplan 5. Ernennung eines Risikomanagers
4. Einhaltung Plan-Budget Items 1, 4 und 5 sind bei allen Projekten positiv mit der Bud-
Technische Unsicherheit wird durch Zu- geteinhaltung korreliert. Bei Projekten mit hoher technischer Un-
ordnung zu einer von 4 Unsicherheitsklas- sicherheit korrelieren Items 1 und 4 auch positiv mit der Zeitplan-
sen ermittelt. einhaltung.
Shenhar Gleiche Stichprobe wie Erfolgsmessung in 3 Dimensionen: Alternativenabwägung und Machbarkeitsstudien sind unabhängig
et al. (2002) bei Raz et al. (2002) 1. Meeting design goals (Erreichung der vom Unsicherheitsgrad des Projektes erfolgswirksam.
Leistungsziele, Zeitplaneinhaltung, Dokumentation der Planung ist vor allem bei Projekten mit hoher
Budgeteinhaltung) Komplexität und niedriger Unsicherheit wichtig.
2. Benefits to the customer (4 Items) Erstellung eines Projektstrukturplans ist unabhängig vom Projekt-
3. Commercial success and future potential typ erfolgswirksam.
(5 Items)
Meilensteinplanung und Netzplantechniken sind vor allem bei
Technische Unsicherheit und Projektum- komplexen Projekten mit hoher Unsicherheit wichtig.
fang werden jeweils durch die Aus-
prägungen hoch“ und niedrig“ beschrie-
” ”
ben.
(wird fortgesetzt)
5. Metaanalyse der empirischen Forschung zur Planung und Steuerung
(Fortsetzung)
Publikation Stichprobe Messung von Erfolg sowie Wesentliche Befunde hinsichtlich Projektplanung
ggf. Innovationsgrad
Song und 331 NPE-Projekte Erfolgsmessung: Grad, zu dem das Pro- Idea development and screening (5 Items) hat weder bei hoch-
Montoya- US-amerikanischer dukt die Gewinnziele des Unternehmens noch bei niedriginnovativen Produkten eine signifikante Wirkung
Weiss High-Tech erfüllt auf den Projekterfolg.
(1998) Unternehmen Innovationsgrad: Einteilung der Produk- Business and market analysis (7 Items) wirkt bei wenig innovati-
ten in really new“ (163) und incremen- ven Projekten positiv auf den Erfolg, ist jedoch bei hochinnovati-
” ”
tal“ (169) durch die Respondenten. ven Projekten kontraproduktiv.
Projektplanung ( Proficiency in the Strategic Planning Stage“,
”
8 Items) hat dagegen positive Erfolgswirkung bei hochinnova-
tiven Projekten und ist kontraproduktiv bei niedriginnovativen.
Hierunter fallen u. a. Items zur Zeit- und Meilensteinplanung, zur
5.3. Studien mit Fokus auf Projektplanung
Shenhar et al. (2002) und Raz et al. (2002) Beide Veröffentlichungen der For-
schergruppe um Dvir und Shenhar basieren auf einer Stichprobe von 127 israelischen Pro-
duktentwicklungsprojekten, die einen breiten Industriequerschnitt widergeben. Ein Inno-
vationsgrad im Sinne von Kapitel 2.2 wird nicht erhoben, stattdessen werden die Projekt
anhand einer von den Autoren entwickelten Projekttypologie mit den zwei Dimensionen
Technische Unsicherheit“ und Projektumfang“ klassifiziert.12
” ”
Die Arbeit von Shenhar et al. (2002) nimmt eine inhaltlich fast erschöpfende Untersu-
chung der Verwendung und Erfolgswirkung operativer Techniken des Projektmanagement
vor, betrachtet jedoch weder Aspekte der Businessplanung noch psychosoziale Aspekte der
Teamarbeit. Insgesamt werden fünf Variablengruppen mit 22 Untergruppen und insgesamt
172 Items betrachtet, die jedoch nicht statistisch zu Faktoren und Dimensionen verdichtet
werden. Zur Erfolgsbeurteilung werden die drei Variablen Meeting design goals“, Custo-
” ”
mer benefits“ und Commercial success and future potential“ verwendet. Angesichts der
”
Variablenzahl und der unterschiedlichen Projekttypen liefert die Datenauswertung mit-
tels kanonischer Korrelationsanalyse eine Fülle an Einzelbefunden, die sich hinsichtlich
der Projektplanung wie folgt aggregiert lassen:
Insgesamt zeigt sich also, dass formelle Methoden der Projektplanung grundsätzlich eine
positive Erfolgswirkung haben, insbesondere bei Projekten mit hohem Unsicherheitsgrad.
Die Veröffentlichung von Raz et al. (2002) setzt auf der eben beschriebenen Unter-
suchung auf, indem sie einen der 22 Faktoren des Projektmanagement herausgreift und
näher untersucht. Die zentrale Fragestellung lautet hier, zu welchem Grad fünf Aktivitäten
des Risikomanagement bei den verschiedenen Projekttypen eingesetzt werden und wel-
che Auswirkung dies auf den Projekterfolg hat. Bei den fünf Aktivitäten handelt es sich
um (1) Risikoidentifikation, (2) Probabilistische Analyse der Risikohöhe, (3) Vorbeugende
Planung zur Reduktion der Eintrittswahrscheinlichkeit, (4) Maßnahmenplanung für den
12
Vgl. zu dieser Typologie Shenhar et al. (1995) sowie Shenhar und Dvir (1996), S. 610ff.; Dvir et al.
(1998), S. 917ff.; Shenhar (2001), S. 397ff.
5.3. Studien mit Fokus auf Projektplanung 117
Eintritt des Risikofalls sowie (5) Ernennung eines Risikomanagers. Die Erfolgsmessung er-
folgt im Gegensatz zu Shenhar et al. (2002) nur anhand von vier Items, nämlich Budget-
und Zeitplaneinhaltung sowie Einhaltung technischer und funktioneller Spezifikationen.
Die empirischen Ergebnisse zeigen zunächst, dass im Rahmen der untersuchten Pro-
jekte nur in relativ geringem Umfang Methoden der Risikobewältigung verwendet wer-
den. Projekte, die sich mit hoher technischer Unsicherheit konfrontiert sehen, investieren
signifikant mehr Ressourcen in Risikoidentifikation und vorbeugende Planung, die den
Eintritt des Risikofalls vermeiden. Bei Projekten mit niedrigem Unsicherheitsgrad zeigt
keine der Maßnahmen eine positive Erfolgswirkung, die Ernennung eines Risikomanagers
korreliert sogar deutlich negativ mit der Erreichung technischer und funktioneller Spezifi-
kationen. Bei Projekten mit hoher technischer Unsicherheit fördern die Maßnahmen (1),
(2) und (5) die Budgeteinhaltung, die Maßnahmen (1) und (4) die Zeitplaneinhaltung.
Zusammenfassend lässt sich also sagen, dass sich Aktivitäten zum Risikomanagement bei
Projekten hoher Unsicherheit zwar positiv auf die Projekteffizienz auswirken, aber keinen
Effekt auf Outcome-Dimensionen haben. Bei Projekten mit niedriger Unsicherheit können
Risikomanagement-Methoden sogar kontraproduktiv wirken.
tor benefits“ führt, die durch eine Reihe von Kundennutzen-Dimensionen erfasst werden.
Song und Montoya-Weiss (1998) Die Autoren dieser Studie untersuchen die Erfolgs-
wirkung von sechs ausgewählten Aktivitäten des Produktentwicklungsprozesses, gehen
also stärker fokussiert vor als die im Abschnitt 5.2 vorgestellten Untersuchungen. Durch
eine Unterscheidung von wirklich neuen“ gegenüber inkrementellen“ Produkten zielen
” ”
sie zudem darauf ab, eine Moderatorwirkung des dichotomisch gemessenen Innovations-
grads hinsichtlich einzelner Prozessaktivitäten zu identifizieren. Zu den sechs untersuchten
Entwicklungstätigkeiten zählen auch drei Faktoren, die Planungstätigkeiten umfassen.13
Bei der Betrachtung der drei von Song und Montoya-Weiss untersuchten Planungs-
faktoren muss zunächst kritisch angemerkt werden, dass die für die Faktoren gewählten
Bezeichnungen z. T. dem Inhalt der dahinterliegenden Fragebogenitems deutlich zuwider-
laufen.14 So enthält der Faktor Strategic Planning Proficiency zwar ein Item Assessing
”
of the required investment, time, and risk of the product concept“, daneben aber auch
Meilensteindefinition, Zeit- und Kostenplanung, also typische Aspekte operativer Pro-
jektplanung. Der Faktor Idea Development and Screening dagegen beinhaltet Items zur
Entwicklung des Produktkonzeptes sowie zur Analyse des finanziellen Business Case. Der
Faktor Business and Market Opportunity Analysis schließlich erfasst neben Aspekten der
Markt- und Wettbewerberanalyse auch verschiedene Aktivitäten zur Ableitung von Kun-
dennutzendimensionen, betrifft also wie auch der zweite Faktor die Produktkonzeption.
Erst vor diesem Hintergrund lassen sich die empirischen Ergebnisse interpretieren, die
Song und Montoya-Weiss anhand von zwei separaten Regressionsmodellen für die wirk-
”
lich neuen“ sowie die inkrementellen“ Produkte ermitteln.
”
Die Befunde zur operativen Projektplanung (Faktor 1) sind eindeutig: Bei hochinno-
vativen Produkten wirken Meilensteindefinition, Zeit- und Kostenplanung stark positiv
auf den finanziellen Erfolg des Projektes, bei niedriginnovativen Produkten haben sie je-
doch eine deutlich negative Wirkung. Der zweite Faktor zeigt weder bei hoch- noch bei
niedriginnovativen Projekten eine statistisch signifikante Wirkung, die Erfolgswirkung des
dritten Faktors ist dagegen genau reziprok zu der des ersten: Die Analyse von Umfeld und
Kundennutzen-Dimensionen ist der größte Erfolgsfaktor bei niedriginnovativen Produk-
ten, wirkt aber kontraproduktiv bei den hochinnovativen. Während also klare Aussagen
hinsichtlich der Projektplanung vorliegen, wird die Interpretation der Befunde zur Busi-
nessplanung durch die inhaltliche Überschneidung der Faktoren 2 und 3 erschwert. Eine
mögliche Kernaussage könnte darin bestehen, dass es sich bei der Alternativenabwägung,
13
Die sechs Faktoren wurden von den Autoren anhand von Fallstudien und Fokusgruppen als beson-
ders erfolgskritisch identifiziert. Neben den drei Planungsfaktoren zählen dazu noch Produkttest,
technische Entwicklung und Kommerzialisierung.
14
Vgl. Song und Montoya-Weiss (1998), Appendix auf S. 134f.
5.3. Studien mit Fokus auf Projektplanung 119
Diskussion Zur schnelleren Übersicht werden die Befunde der in diesem Abschnitt
beschriebenen Studien noch einmal in stark abstrahierter Form in Tabelle 5.4 ge-
genüberstellt. Dabei fällt unmittelbar auf, dass sich die Arbeiten von Avlonitis und
Papastathopoulou (2001) sowie Song und Montoya-Weiss (1998) hinsichtlich ihrer Kon-
tingenzaussagen fundamental widersprechen: Folgt man den Ergebnissen von Avloni-
tis und Papastathopoulou, so ist bei hochinnovativen Projekten besonderer Wert auf
sorgfältige Businessplanung zu legen, während detaillierte Projektplanung bei Vorhaben
mit niedrigem Innovationsgrad im Vordergrund stehen sollte. Eine solche Konstellation
ist jedoch nach Song und Montoya-Weiss gerade als erfolgsschädigend einzustufen. Die
mögliche Ursache dieses Widerspruches könnte natürlich in der Tatsache zu suchen sein,
15
Vgl. hierzu die Anmerkungen im vorigen Abschnitt.
16
Hierunter fallen z. B. die Items Exploring implications on operating/delivery systems“, Assessing
” ”
time, personnel and investment requirements“ und Setting performance objectives“, vgl. Avlonitis
”
und Papastathopoulou (2001), Appendix 1.
120 5. Metaanalyse der empirischen Forschung zur Planung und Steuerung
Businessplanung Projektplanung
Erläuterung. Erfolgswirkung der Planung wie folgt kodiert: = stark positiv; = schwach
positiv; = keine signifikante Wirkung; = schwach negativ.
Tabelle 5.4: Erfolgswirkung der Planung – Zusammenfassung der Befunde für Projekte unterschiedlichen
Innovationsgrads
novativen Vorhaben nur in geringem Maße erfolgssteigernd wirkt. Dagegen weisen Song
und Montoya-Weiss (1998) sowie Shenhar et al. (2002) übereinstimmend nach, dass sich
fortgeschrittene Methoden der Projektplanung, also Meilen- und Netzplantechniken sowie
Risikomanagement, vor allem bei hochinnovativen Projekten auszahlen.
Abstrahiert man pragmatisch von den eben dargestellten Differenzen in Detailbefun-
den und Fragen der Operationalisierung, so kann festgehalten werden, dass Business-
planung – operationalisiert durch sorgfältige Marktforschung, bewusste Ideenevaluation
sowie die Erstellung eines finanziellen Business Case – positiv auf den Vorhabenserfolg
wirkt. Diese Wirkung wird tendenziell negativ durch den Innovationsgrad moderiert, Busi-
nessplanung wirkt also v. a. bei Projekten mit niedrigem Innovationsgrad erfolgssteigernd.
Die Moderatoraussage ist nicht unstrittig, scheint jedoch insofern vertretbar zu sein, als
sie die Mehrzahl der Studien widerspiegelt und der stärkste Widerspruch von einer Stu-
die über Dienstleistungsinnovationen (Avlonitis und Papastathopoulou, 2001) herrührt.
Projektplanung wirkt generell positiv auf den Vorhabenserfolg. Die Wirkung fortgeschrit-
tener Projektplanungsmethoden (v. a. Meilensteinplanung, Netzplantechniken, Risikoma-
nagement) auf den Vorhabenserfolg wird positiv durch den Innovationsgrad moderiert,
komplexe Projektplanungstechniken wirken also v. a. bei Projekten mit hohem Innova-
tionsgrad erfolgssteigernd. Auch im Fall der Projektplanung ist es wiederum nur die
Veröffentlichung von Avlonitis und Papastathopoulou (2001), die hinsichtlich des Modera-
toreffektes zu gegensätzlichen Aussagen gelangt. Da sie zudem einen anderen Schwerpunkt
bei der Konstruktoperationalisierung setzt, scheint die Aussage gerechtfertigt zu sein.
Die Arbeiten, die in diesem Abschnitt besprochen werden sollen, lassen sich in drei Kate-
gorien einteilen. Die beiden Arbeiten der Gruppe um Lynn et al. (1999; 2000) betrachten
schwerpunktmäßig das Zusammenspiel von Projektvision, Team Learning und Teampro-
zess und generieren dabei auch Erkenntnisse über die Erfolgswirkung von Projektsteue-
rung und Zielstabilität . In die zweite Kategorie fallen die Studien Dvir et al. (1998) sowie
Shenhar et al. (2002), die zwar wenig theoriegeleitet vorgehen und keine Konstruktbildung
durchführen, dafür aber für die betrachteten Projekttypen sehr detaillierte Informatio-
nen mit überdurchschnittlicher Praxisrelevanz liefern. Alle übrigen Arbeiten lassen sich
einer dritten Kategorie zuordnen, deren gemeinsames Ziel es ist, Kontingenz- und Effi-
zienzaussagen hinsichtlich der Verwendung von formell-mechanistischen“ Steuerungsin-
”
strumenten im Gegensatz zu organisch-partizipativen“ zu machen. Diese Arbeiten gehen
”
überwiegend theoriegeleitet vor, kommen aber zum Teil zu widersprüchlichen Ergebnissen
und können kaum konkrete Gestaltungsempfehlungen für das Management von Innova-
tionsprojekten geben. Forschungsdesign und die zentralen Befunde aller Studien sind in
122 5. Metaanalyse der empirischen Forschung zur Planung und Steuerung
Lynn et al. (1999; 2000) Beide Veröffentlichungen von Lynn et al. gehen im Schwer-
punkt der Frage nach, inwieweit eine klare Projektvision und organisationales Lernen im
Projektteam wichtige Determinanten des Vorhabenserfolgs sind, der jeweils durch einen
umfassenden Faktor New Product Success und das speziellere Kriterium Speed gemessen
wird. In der ersten Arbeit, die auf einer Stichprobe von 95 amerikanischen Hochtecholo-
gieprojekten basiert, wird daneben auch die Erfolgswirkung formeller Projektsteuerung
untersucht. Die Operationalisierung erfolgt durch Items, die u. a. die Verfolgung eines
Meilensteinplanes sowie Mechanismen der Fortschritts- und Kostenkontrolle ermitteln.
Durch Regressionsanalysen können die Autoren signifikant positive Wirkungen der Pro-
jektsteuerung auf beide Erfolgskriterien nachweisen.
Die zweite Arbeit erweitert die Analyse der Projektvision, indem sie neben der Klar-
heit der Vision auch deren Stabilität über den Projektverlauf untersucht. Vision Stabi-
”
lity“ wird dabei anhand konkreter Projektziele operationalisiert, erfasst also vor allem,
in welchem Ausmaß Design-, Produktions- oder sonstige technische Ziele Änderungen
unterworfen waren. Eine Pfadanalyse, die auf einer Stichprobe von 280 amerikanischen
Produktentwicklungsprojekten basiert, weist einen positiven Einfluss der Ziel- bwz. Visi-
onsstabilität auf das Kriterium Speed nach, der Zusammenhang mit dem umfassenden New
Product Success wird im Pfadmodell dagegen nicht untersucht. Allerdings lässt sich der
angegebenen Korrelationsmatrix ein hoher Korrelationskoeffizient zwischen diesen Größen
entnehmen, so dass auch dieser Effekt im Rahmen der quantitativen Metaanalyse in Ab-
schnitt 5.5 berücksichtigt werden kann.
Dvir et al. (1998) Im Rahmen dieser Arbeit werden zunächst die 110 untersuchten
Projekte aus der israelischen Verteidigungindustrie mittels linearer Diskriminanzanaly-
se anhand verschiedener Prädiktor-Dimensionen17 in sechs Projektkategorien eingeteilt.
Über kanonische Korrelationsanalyse wird anschließend für die sechs Projektkategorien
untersucht, wie groß die Erfolgswirkung von insgesamt 106 Items zum Projektmanage-
ment bei den sechs Projektkategorien auf die beiden Erfolgsdimensionen Meeting design
goals und Benefits to the customer ist.
Aufgrund der Tatsache, dass keine Wirkungszusammenhänge auf aggregierter Fak-
torebene untersucht, sondern 1272 Einzelkorrelationen betrachtet werden, lassen sich aus-
sagekräftige Befunde nur schwer identifizieren.18 Zudem sind die Ergebnisse wegen der
17
Zu diesen zählen u. a. Projektumfang, technische Unsicherheit, Technologietyp, Hard- vs. Software,
etc.
18
Die von Brown und Eisenhardt (1995) gewählte Bezeichnung Fishing Expedition“ charakterisiert
”
diese Herangehensweise treffend, vgl. das auf S. 29 der vorliegenden Arbeit wiedergegebene Zitat.
5.4. Studien mit Fokus auf Projektsteuerung 123
sehr untersuchungsspezifischen Definition der Projekttypen kaum mit denen anderer Ar-
beiten vergleichbar. Mittelt man die Aussagen über die verschiedenen Projekttypen, so
zeigt sich, dass das Steuern anhand eines Meilensteinplanes positiv mit der Realisierung
der Customer benefits 19 korreliert. Für das Erreichen der Design goals 20 sind ebenfalls
Meilensteinsteuerung sowie strikte Budgetkontrolle wichtig. Bei sehr umfangreichen und
komplexen Projekten sind darüber hinaus Massnahmen zum Risikomanagement erfolgs-
kritisch.21
Shenhar et al. (2002) Ähnlich wie die früheren Veröffentlichungen Shenhar und Dvir
(1996) sowie Dvir et al. (1998) untersuchen auch Shenhar et al. (2002) Erfolgsfaktoren im
Prozessablauf von Neuproduktentwicklungen mit Hilfe von langen Itembatterien, fassen
aber die betrachteten 127 NPE-Projekte anhand von Komplexität und Unsicherheitsgrad
zu nur vier Klassen zusammen. Die Suche nach Treibern des Projekterfolgs wird hier
ebenfalls über eine kanonische Korrelationsanalyse durchgeführt, die unter den insgesamt
170 berücksichtigten Items 96 Erfolgsfaktoren“ identifiziert.
”
Angesichts der großen Zahl betrachteter Einzelkorrelationen sind verallgemeinerbare
Aussagen wiederum nur schwer zu treffen. In den frühen Projektphasen sind v. a. Al-
ternativengenerierung, Durchführung von Machbarkeitsstudien sowie die Erstellung eines
Projektstrukturplans unabhängig vom Projekttyp erfolgswirksam. Die Steuerung anhand
von Meilenstein- bzw. Netzplänen wird dagegen v. a. bei Projekten mit hoher Unsicherheit
empfohlen, sorgfältige Projektdokumentation ist dort ebenfalls wichtig. Bei Projekten ho-
her Unsicherheit sollte verstärkt die Zeitplaneinhaltung überwacht werden, bei Projekten
niedriger Sicherheit dagegen die Budgeteinhaltung.
19
Customer benefits liegen nach Dvir et al. dann vor, wenn das Produkt in Betrieb genommen wurde,
eine lange Nutzungsdauer erreicht sowie Kundenzufriedenheit erzielt hat.
20
Hierunter fallen u. a. Budgeteinhaltung, Zeitplaneinhaltung sowie die Einhaltung technischer und
funktionaler Spezifikationen.
21
Dvir et al. (1998), S. 924.
Tabelle 5.5: Übersicht über Studien mit Fokus auf Projektsteuerung
124
Publikation Stichprobe Messung von Erfolg sowie Wesentliche Befunde hinsichtlich Projektsteuerung
ggf. Innovationsgrad
Bonner et al. 95 nordamerikanische Erfolgsmessung über 4-Item Skala: Projektsteuerung wird durch formelle Steuerungsmechanismen
(2002) NPE-Projekte, davon 1. Einhaltung Projektzeitplan und interaktive Steuerungsmechanismen erfasst:
ca. 1/3 Konsumgüter 2. Einhaltung Projektbudget Formelle Steuerungsmechanismen umfassen Projektsteuerung (4
3. Einhaltung Produkt-Leistungsziele items), outputorientierte Steuerung (4 items) und Anreizsystem
4. Zufriedenheit mit der Leistung des (3 items)
Teams Interaktive Steuerungsmechanismen umfassen den Einfluss des
Innovationsgrad als dichotome Variable: Projektteams auf die operative Steuerung (4 items), den Einfluss
Entsprechend Systematik von Booz, Al- des Teams auf die Projektstrategie (4 items) sowie Interventionen
len & Hamilton, Inc. (1982) wurden die des Management (6 items).
Projekttypen New-to-the-World und New- Einflussnahme des Teams auf die operative Steuerung hat positi-
to-the-Firm als innovativ, alle anderen als ve Wirkung auf den Projekterfolg, Managementintervention und
nicht-innovativ eingestuft. formelle Projektsteuerung haben negative Erfolgswirkung.
Dvir et al. 110 israelische Erfolgsmessung in 2 Dimensionen: Die Projekte wurden nach mehreren Kriterien, u. a. Projektum-
(1998) Verteidigungsprojekte 1. Meeting design goals (Budgeteinhal- fang, in 6 Kategorien eingeteilt.
tung, Zeitplaneinhaltung sowie Einhal- Für das Erreichen der Design goals wichtig sind Budgetkontrolle
tung technischer und funktionaler und das Steuern anhand eines Meilensteinplans. Risikomanage-
Spezifikationen) ment ist nur für sehr umfangreiche und komplexe Projekte wich-
2. Benefits to the customer (u. a. Produkt tig.
wurde in Betrieb gesetzt, Nutzungs- Für das Erreichen der Customer benefits ist das Steuern anhand
dauer, Kundenzufriedenheit) eines Meilensteinplans von mittlerer Wichtigkeit für alle Projekt-
typen.
(wird fortgesetzt)
5. Metaanalyse der empirischen Forschung zur Planung und Steuerung
(Fortsetzung)
Publikation Stichprobe Messung von Erfolg sowie Wesentliche Befunde hinsichtlich Projektsteuerung
ggf. Innovationsgrad
Griffin 343 Entwicklungspro- Erfolgskriterium ist die NPD cycle time“ Formelle Projektsteuerung gemessen durch ein Item: Having and
” ”
(1997) jekte (Produkte und in 3 Ausprägungen: following a well-documented product development process“.
Dienstleistungen) aus 1. Development time Moderierte Regressionen auf die drei Zeitkenngrößen ergibt, dass
21 Geschäftsbereichen 2. Concept to customer time formelle Projektsteuerung keine direkte Erfolgswirkung hat. Der
von 11 Firmen (Elek- 3. Total time Interaktionsterm zwischen formeller Projektsteuerung und Pro-
tromaschinenbau, duktkomplexität wirkt negativ auf die Development time, d. h.
Chemie, Konsumgüter, Produktkomplexität gemessen durch die
Anzahl an Funktionen, die ein Produkt komplexe Projekte sollten formeller gesteuert werden, um kurze
Medizintechnik, Kom- Entwicklungszeiten zu erreichen.
munikation) erfüllen muss (ein Item).
Lewis et al. 80 NPE-Projekte aus 4 Erfolgsmessung in 4 Dimensionen: Zwei Arten des Projektmanagement werden unterschieden: Emer-
5.4. Studien mit Fokus auf Projektsteuerung
(2002) Geschäftsbereichen ei- 1. Technical knowledge:“ Aufbau von gent Style und Planned Style. Der Emergent Style stellt Aspekte
nes US-amerikanischen ” des Lernens, Verstehens, Experimentierens und Improvisierens in
Markt- und technischem Know-how,
Chemie-Konzerns Erzielung eines Wettbewerbsvorteils den Vordergrund. Der Planned Style sieht Projektmanagement als
(7 Items) einen rationalen top-down Prozess. Methodische Kontrolle bildet
2. Commercial objectives:“ Einhaltung die Grundlage für Go/Kill- und Ressourcen-Entscheidungen bei
” Meilenstein-Reviews.
von Time-to-market und Zielkosten,
Erreichung der Ergebnisziele (4 Items) Der Planned Style wirkt v. a. positiv auf Budgeteinhaltung und
3. On time“ (2 Items) Technical knowledge, der Emergent Style wirkt v. a. positiv auf
”
4. Within budget“ (3 Items) Zeitplaneinhaltung und die Commercial objectives. Einzelne Mo-
”
Uncertainty in 2 Dimensionen: deratoreffekte konnten identifiziert werden: Commercial uncer-
tainty moderiert die Erfolgswirkung der Items des Emergent Sty-
1. Technical uncertainty (10 Items) ”
le“ tendenziell positiv, technical uncertainty moderiert die Erfolgs-
2. Commercial uncertainty (5 Items) wirkung des Planned Style“ tendenziell negativ.
”
Lynn et al. 95 US-amerikanische Erfolgsmessung in 2 Dimensionen: NPD Process, d. h. Steuerung anhand Meilenplan, Mechanismen
(1999) NPE-Projekte ( high 1. Speed to Market (4 Items) zur Fortschrittskontrolle und Mechanismen zur Kostenkontrolle,
”
technology“) 2. New Product Success (8 Items wirkt signifikant positiv sowohl auf Speed to Market als auch auf
verschiedener Dimensionen New Product Success.
125
(wird fortgesetzt)
(Fortsetzung)
126
Publikation Stichprobe Messung von Erfolg sowie Wesentliche Befunde hinsichtlich Projektsteuerung
ggf. Innovationsgrad
Lynn et al. 280 US-amerikanische Erfolgsmessung in 2 Dimensionen: Vision Clarity, erfasst als Klarheit hinsichtlich Geschäftszielen,
(2000) NPE-Projekte, 1. Speed to Market (4 Items) technische Zielen, Produkteigenschaften, Zielmarkt und Kunden-
(breiter Querschnitt 2. New Product Success (6 Items präferenzen, wirkt signifikant positiv auf Vision Stability und New
von Industrien mit hinsichtlich Profitabilität und Product Success.
Schwerpunkt auf Erreichung der Marktziele Vision Stability, erfasst als Stabilität von Designzielen, Produk-
Elektronik und Kom- tionszielen sowie technischen Zielen, wirkt signifikant positiv auf
munikationstechnik) Speed to Market (korreliert aber auch sehr hoch mit New Product
Success).
Moenaert 78 Projekte aus 40 Commercial Success wird durch Items ge- Project Formalization erfasst, inwieweit der Prozess anhand ei-
et al. (1994; belgischen Firmen messen. nes Projektplans mit definierten Aktivitäten, Zeitvorgaben und
1995) verschiedener Innovationsgrad wird durch die Dimen- Meilensteinen gesteuert und der Fortschritt überwacht wurde (5
Industrien sionen Technological Newness“ (5 Items) Items).
”
und Market Newness“ (5 Items) erfasst. Zwischen Project Formalization und Commercial Success besteht
”
eine schwach signifikante positive Korrelation.
(wird fortgesetzt)
5. Metaanalyse der empirischen Forschung zur Planung und Steuerung
(Fortsetzung)
Publikation Stichprobe Messung von Erfolg sowie Wesentliche Befunde hinsichtlich Projektsteuerung
ggf. Innovationsgrad
Olson et al. 45 NPE-Projekte aus Erfolgsmessung in 3 Dimensionen: Gestaltung der Projektsteuerung: Projekte mit geringem Innova-
(1995) 15 Geschäftsbereichen 1. Product and financial outcomes tionsgrad werden tendenziell mechanistischer und hierarchischer
von 12 Firmen (breiter (Qualität, Zufriedenheit mit Produkt- gesteuert als solche mit hohem Innovationsgrad.
Querschnitt von design, Time-to-break-even, Umsatz- Erfolgswirkung: Je besser der Innovationsgrad des Projekts und
Industrien) zielerreichung) der Formalisierungsgrad der Steuerungsmechanismen zueinander
2. Efficiency outcomes (Entwicklungszeit, passen, desto höher ist die Zielerreichung, v. a. hinsichtlich Um-
Launchdauer, Budgeteinhaltung) satz, Zeitplaneinhaltung und den psychosozialen Maßen.
3. Psychosocial outcomes (Gefühl von
Zufriedenheit, eigenem Beitrag und Ziel-
erfüllung)
Innovationsgrad in Form der Klassifikation
5.4. Studien mit Fokus auf Projektsteuerung
(wird fortgesetzt)
127
(Fortsetzung)
128
Publikation Stichprobe Messung von Erfolg sowie Wesentliche Befunde hinsichtlich Projektsteuerung
ggf. Innovationsgrad
Tatikonda 120 nordamerikanische Operational outcomes als 3-Item Skala: Process formality (Projektmanagement durch Regeln und Proze-
und NPE-Projekte von 57 1. Erreichung Produktleistung duren, Befolgung dieser Prozeduren, Durchführung formeller Re-
Montoya- Firmen, 2. Einhaltung Produktzielkosten views) wirkt stark auf die Operational outcomes.
Weiss schwerpunktmäßig aus 3. Einhaltung Time-to-market Process adaptibility (Ausmaß, zu dem die Projektleitung Vorge-
(2001) den Bereichen hen, Zeitplanung und Art der Reviews bestimmen kann) wirkt
Medizintechnik, Market outcomes als 2-Item Skala:
stark positiv auf die Time-to-market sowie bei hochinnovativen
Imaging, 1. Kundenzufriedenheit mit Produkt Produkten auch positiv auf die Einhaltung der Produktzielkosten
Informations- und 2. Erreichung Umsatzziel (Interaktionseffekt).
Kommunikationselek- Produktinnovationsgrad operationalisiert
tronik Erreichung der Produktleistung und Einhaltung der Time-to-
als Neuigkeitsgrad der Produkttechnolo- market wirken positiv auf die Kundenzufriedenheit, wobei die
gien, -module und -architektur.
Wirkung der Produktleistung auf die Kundenzufriedenheit wird
Marktneuartigkeit für die Firma durch ein leicht negativ durch die Marktneuartigkeit moderiert wird. Die
Item erfasst. Produktleistung und die Einhaltung der Produktzielkosten wir-
ken positiv auf die Umsatzzielerreichung.
5. Metaanalyse der empirischen Forschung zur Planung und Steuerung
5.4. Studien mit Fokus auf Projektsteuerung 129
Griffin (1997) Die Arbeit von Griffin hat einen etwas engeren Fokus als die anderen in
diesem Abschnitt vorgestellten Studien. Die Autorin untersucht anhand einer Stichpro-
be von 343 Entwicklungsprojekten (sowohl Produkt- als auch Dienstleistungsinnovatio-
nen), welchen Einfluss der Grad der Prozessformalisierung auf die Entwicklungsdauer in
drei verschiedenen Abgrenzungen hat, andere Erfolgsdimensionen werden nicht erhoben.
Zudem wird der Formalisierungsgrad der Projektsteuerung nur durch ein einziges Item
operationalisiert, das nicht sonderlich scharf gefasst ist.22 Als charakterisierendes Element
der Projekte wird im Gegensatz zu anderen Arbeiten nicht der Innovationsgrad, sondern
die Produktkomplexität“ erhoben, die als Anzahl der vom Produkt zu erfüllenden Funk-
”
tionen operationalisiert wird.
Der zentrale Befund der Arbeit von Griffin besteht darin, dass von der Existenz und
Befolgung eines formellen Projektprozesses im Allgemeinen keine direkte Erfolgswirkung
ausgeht.23 Erst die Überprüfung auf Moderatoreffekte zeigt, wann formelle Projektsteue-
rung Erfolg zeitigt: Bei Produkten hoher Komplexität führt ein formeller Produktentwick-
lungsprozess zu einer signifikanten Verringerung der Entwicklungszeit im engeren Sinne,
Auswirkungen auf die Concept to customer time oder Total NPD cycle time können jedoch
nicht nachgewiesen werden. Hinsichtlich der Signifikanz dieses Moderatoreffektes muss je-
doch kritisch angemerkt werden, dass die Autorin in die moderierte Regression nur den
direkten Effekt der Produktkomplexität sowie den Interaktionsterm mit der Prozessfor-
malisierung aufnimmt, nicht jedoch den direkten Effekt der Prozessformalisierung.24 Dies
entspricht nicht dem empfohlenen Standardvorgehen für moderierte Regressionen (vgl.
Abschnitt 8.6.4). Sie begründet dieses Vorgehen ausdrücklich mit der Tatsache, dass die
Interaktionsterme bei der Schätzung des vollständigen Modells nur noch schwach signifi-
kant sind.
Olson et al. (1995) Die Studie von Olson et al. zielt explizit darauf ab, die mode-
rierende Rolle des Innovationsgrads auf Koordinationsaspekte im Rahmen der Neupro-
duktentwicklung zu untersuchen. Die zentrale Kontingenzhypothese der Arbeit besagt,
dass bei geringer Erfahrung mit den verwendeten Produkt- und Prozesstechnologien ein
hoher Bedarf an Informations- und Ressourcenfluss zwischen verschiedenen Abteilungen
(v. a. Marketing und F+E) besteht und daher organische Koordinationsformen Verwen-
dung finden, während bei geringen Innovationsgraden mechanistische Formen bevorzugt
werden. Daran schließt sich die zentrale Erfolgshypothese an, nämlich dass ein Fit zwi-
22
Das Item lautet Having and following a well-documented product development process“. Man ver-
”
gleiche dagegen beispielsweise die ausführlichen, theoretisch fundierten Ableitungen in den Arbeiten
von Lewis et al. (2002) sowie Tatikonda und Montoya-Weiss (2001), siehe unten.
23
Dieser Befund wird in der Arbeit von Griffin (1997) nur in einer Fussnote auf S. 31 berichtet.
24
Vgl. Griffin (1997), Tabelle 6 auf S. 31.
130 5. Metaanalyse der empirischen Forschung zur Planung und Steuerung
schen der Neuartigkeit des Produktes und dem Formalisierungsgrad der Projektsteuerung
notwendige Voraussetzung für die Erreichung der Projektziele ist.
Um den Formalisierungsgrad der Projektsteuerung zu operationalisieren, greifen die
Autoren auf frühere Arbeiten von Galbraith und Nathanson (1978) sowie Mintzberg
(1979) zurück und definieren insgesamt sieben Typen organisatorischer Koordinations-
mechanismen, die das Kontinuum von mechanistischen, fest gekoppelten Strukturen bis
hin zu organischen, locker gekoppelten Strukturen abdecken.25 Im Rahmen der empi-
rischen Untersuchung von 45 NPE-Projekten aus 12 amerikanischen Firmen wird der
Formalisierungsgrad der Projektsteuerung erhoben, indem die Respondenten ihr Projekt
einer dieser sieben Koordinationsmechanismen zuordnen. Der Innovationsgrad der Pro-
jekte wird über die zweidimensionale Typologie von Booz, Allen & Hamilton, Inc. (1982)
ermittelt, zur Erfolgsmessung werden Effizienzmaße, Produkt- und Finanzzielerreichung
sowie psychosoziale Erfolgsgrößen erhoben.
Die empirischen Befunde von Olson et al. (1995) bestätigen zunächst die Kontingenz-
hypothesen, hochinnovative Projekte führen zu erhöhten funktionellen Interdepenzen und
damit tendenziell zur Bevorzugung organischer Organisationsformen. Dieser Fit zwischen
Innovationsgrad und Koordinationsmechanismen ist jedoch bei vielen Projekten alles an-
dere als perfekt, so dass hinreichend Varianz in der Stichprobe vorhanden ist, um die Effi-
zienzhypothesen mittels multivariater Varianzanalysen (MANOVA) zu überprüfen. Diese
führen zum Ergebnis, dass Projekte mit hohem Fit in allen Dimensionen erfolgreicher sind
als Projekte, die entweder zu formal“ oder zu organisch“ gesteuert werden.
” ”
Bonner et al. (2002) Die Autoren untersuchen anhand einer Stichprobe von 95 nord-
amerikanischen NPE-Projekten den Einfluss, den verschiedene Elemente der Projektsteue-
rung des oberen Management“ auf den Projekterfolg haben. Dabei wird zum einen ein
”
differenziertes Spektrum an steuerungsrelevanten Faktoren abgeleitet und operationali-
siert, zum anderen werden Interaktionseffekte mit dem Innovationsgrad der Vorhaben
und ihrer Einbindung in das Projektprogramm berücksichtigt.
Bonner et al. differenzieren grundsätzlich zwischen formellen Steuerungsaspekten, die
in der Literatur traditionell stark betont werden, und sog. interaktiven Steuerungsmecha-
nismen. Formelle Steuerungsaspekte umfassen dabei die Frage, inwieweit das obere Mana-
gement Vorgaben bezüglich des Innovationssprozesses und der zu bearbeitenden Schritte
und Aufgabenpakete gemacht hat (formelle Projektsteuerung), inwieweit vom Manage-
ment klare Zielvorgaben gemacht wurden (outputorientierte Steuerung) und die Frage,
inwieweit das Projektteam ein attraktives Anreizsystem (Entlohnung, Beförderungen, An-
25
Diese sieben Koordinationsmechanismen sind Bureaucratic control, Individual liaisions, Temporary
task forces, Integrating managers, Matrix structures, Design teams und Design center.
5.4. Studien mit Fokus auf Projektsteuerung 131
Die Vorgabe zu starrer Prozessschemata als Bestandteil formeller Steuerung zieht also
häufig negative Konsequenzen nach sich: Kostenüberschreitungen, Terminverzögerungen
26
Bonner et al. (2002), S. 240.
132 5. Metaanalyse der empirischen Forschung zur Planung und Steuerung
Lewis et al. (2002) Ähnlich wie Bonner et al. (2002) unterscheidet auch die Unter-
suchung von Lewis et al. zwei unterschiedliche Grundhaltungen des Projektmanagement.
In Anlehnung an theoretische Überlegungen, v. a. von Dougherty31 , operationalisieren sie
die Ausprägungen, die die drei Bereiche Projektsteuerung, -überwachung und -beurteilung
(control, monitoring and evaluation) im Rahmen eines planorientierten Projektmanage-
ment ( planned style“) sowie im Rahmen eines improvisatorischen Projektmanagement
”
( emergent style“) annehmen.
”
Befürworter eines improvisatorischen Projektmanagement sehen Produktentwicklungs-
und Innovationsvorhaben als komplexe, tendenziell chaotische Prozesse an, die nur schwer
im Voraus planbar sind. Zentrale Aufgabe des oberen Management ist es, Projektteams
mit der Freiheit und Fähigkeit zur Improvisation und zum Lernen durch eigene Erfah-
rung zu versehen.32 Lewis et al. operationalisieren diese Grundhaltung für ihre Studie
anhand der drei oben genannten Bereiche des Projektmanagement: Projektüberwachung
als Überwachung des Verstehens, Projektbeurteilung als Informationssammlung ( Boun-
”
27
Ein zentraler Befund der Untersuchung von Olson et al. (1995) besagt ja, dass der Projekterfolg
stark davon abhängt, wie gut der Innovationsgrad des Projektes und der Formalisierungsgrad der
Steuerungsmechanismen zusammenpassen.
28
Bonner et al. (2002), S. 242.
29
Vgl. z. B. die zusammenfassenden Übersichten in den Arbeiten von Balachandra und Friar (1997),
S. 281, Brown und Eisenhardt (1995), S. 346, Montoya-Weiss und Calantone (1994), S. 406.
30
Bonner et al. (2002), S. 242.
31
Dougherty (1992); Dougherty (1996).
32
Vgl. für diese Grundhaltung beispielsweise Dougherty (1996), Barrett (1998) und Weick (1998).
5.4. Studien mit Fokus auf Projektsteuerung 133
dary Spanning“ 33 und Environmental Scanning“) 34 und partizipative Steuerung mit viel
”
Entscheidungsspielraum für das Team. Vertreter eines planorientierten Vorgehens sehen
dagegen Projektmanagement als vergleichsweise rationalen, deterministischen Prozess
an. Erfolgreiche Manager leiten Projektziele aus Unternehmenszielen her und stellen die
notwendigen Strukturen zur Verfügung, damit Projektteams ihre individuellen Ziele er-
reichen können. Projektmanagement stellt hier einen festen Regelkreis dar, den Lewis
et al. als Projektüberwachung anhand von Meilensteinen, formelle Projektbeurteilung
sowie weisungsorientierte Steuerung durch das obere Management operationalisieren.35
Die Datenbasis für den empirischen Teil von Lewis et al. (2002) bilden 80 NPE-
Projekte aus verschiedenen Geschäftsbereichen eines US-amerikanischen Chemie-Konzerns,
die z. T. im Längsschnitt bis zu zwei Jahre lang begleitet wurden. Anhand der erhobenen
Stichprobe wird zunächst über konfirmatorische Faktorenanalysen und χ2 -Differenztests
die Diskriminanzvalidität der drei Aktivitätenpaare des Projektmanagement nachgewie-
sen.36 Entgegen der ursprünglichen Hypothese, dass die Verwendung improvisatorischer
Elemente im Projektverlauf abnimmt, die der planorientierten dagegen konstant bleibt,
sinkt mit zunehmender Projektdauer die Bedeutung der planorientierten Aktivitäten,
bei den improvisatorischen Elementen ist teilweise eine schwach signifikante Abnahme zu
beobachten. Im Ergebnis kommt es also über den Projektverlauf zu keiner signifikanten
Verschiebung im Schwerpunkt der Projektmanagementaktivitäten.
Um Kontingenz- und Effizienzaussagen zu den beschriebenen Grundhaltungen des Pro-
jektmanagement machen zu können, werden zwei Dimensionen der Projektunsicherheit
(technische und kommerzielle) sowie vier Erfolgsdimensionen (Aufbau von Know-How,
Erreichung kommerzieller Ziele sowie Zeitplan- und Budgeteinhaltung) erhoben. Die vier
moderierten Regressionen der Erfolgsdimensionen auf Prozessvariablen, Projektunsicher-
heit und Interaktionsterme liefern z. T. überraschende Befunde:
33
Aldrich und Herker (1977); Ancona und Caldwell (1990); Ancona und Caldwell (1992a); Leifer und
Delbecq (1978).
34
Aguilar (1967)
35
Vgl. für diese Grundhaltung beispielsweise die praxisorientierten Monographien von Wheelwright und
Clark (1992b) sowie Rosenau und Moran (1993).
36
Vgl. zu diesem Vorgehen Abschnitt 8.5.3.3 der vorliegenden Arbeit.
134 5. Metaanalyse der empirischen Forschung zur Planung und Steuerung
Zunächst ist anzumerken, dass bei 24 möglichen Kombinationen zwischen den sechs
Prozess- und den vier Erfolgsdimensionen vergleichsweise wenige direkte Zusammenhänge
identifiziert werden können, dagegen jedoch eine Reihe von Moderationseffekten, was für
eine Verwendung von Kontingenzmodellen im Rahmen der Forschung zur Steuerung in-
novativer Projekte spricht. Die Befunde zeigen, dass weder die improvisatorische noch die
planorientierte Ausrichtung grundsätzlich der jeweils anderen vorzuziehen ist. Improvisa-
torisches Projektmanagement fördert grundsätzlich die Projekteffizienz, da partizipative
Projektsteuerung positiv auf die Zeitplaneinhaltung wirkt, formelle Projektreviews dage-
gen negativ auf die Budgeteinhaltung. Schließlich sollte bei Projekten mit hoher Unsi-
cherheit eher planorientierten Aktivitäten der Vorrang gegeben werden. Insgesamt decken
sich diese Ergebnisse mit den Befunden von Griffin (1997): Formelle Projektsteuerung ist
für sich genommen kein Garant für kurze Projektlaufzeiten, wird bei Projekten mit hoher
Unsicherheit und Komplexität aber zu einem wesentlichen Erfolgsfaktor.37
Tatikonda und Montoya-Weiss (2001) Die Studie von Tatikonda und Montoya-
Weiss (2001) verbindet in ihrem Design Ansatzpunkte aus zwei unterschiedlichen For-
schungsrichtungen zur Neuproduktentwicklung. Zum einen wird die Information Proces-
sing Theorie 38 herangezogen, um Hypothesen zum effizienten Management der operativen
Produktenwicklung abzuleiten, zum anderen werden über den Ressourcenbasierten An-
satz39 Hypothesen über die Wirkung von Fähigkeiten in der operativen Produktentwick-
lung auf den Markterfolg abgeleitet. Diese Hypothesen werden anhand einer Stichprobe
von 120 nordamerikanischen NPE-Projekten aus Firmen verschiedener Hochtechnologie-
branchen überprüft.
Zur Untersuchung des operativen Produktentwicklungsprozesses werden drei Faktoren
gebildet, zum einen die Prozessparallelität ( Simultaneous Engineering“), zum anderen
”
die auch für diese Arbeit relevanten Faktoren Prozessformalisierung und -anpassbarkeit.
Tatikonda und Montoya-Weiss operationalisieren die Prozessformalisierung als Grad, zu
37
Es sei jedoch wieder auf die gegenläufigen Ergebnisse von Olson et al. (1995) hingewiesen.
38
Vgl. hierzu Abschnitt 3.4 der vorliegenden Arbeit.
39
Vgl. hierzu Abschnitt 3.2 der vorliegenden Arbeit.
5.4. Studien mit Fokus auf Projektsteuerung 135
dem das operative Projektmanagement durch das Aufstellen und Befolgen fester Regeln
und Prozeduren sowie das Durchführen planmäßiger Überprüfungen bzw. Revisionen er-
folgt. Ein zentraler Befund ihrer Untersuchung ist, dass die so definierte Prozessforma-
lisierung nahezu gleichermaßen stark positiv auf die drei betrachteten Erfolgsdimensio-
nen Produktleistung, -zielkosten und Time-to-market wirkt, und zwar unabhängig vom
Innovationsgrad des Vorhabens. Dieser Befund ist insofern bemerkenswert, als die Un-
tersuchung von Bonner et al. (2002) eine negative Wirkung formeller Projektsteuerung
auf die Erfolgsitems Budgeteinhaltung, Zeitplaneinhaltung, Produktleistung und Team
Performance nachweist. Da der Erfolg in beiden Studien ähnlich operationalisiert ist, sind
die widersprüchlichen Befunde vermutlich auf geringfügige Unterschiede in der Operatio-
nalisierung der Projektsteuerungsdimension zurückzuführen: Bonner et al. betonen v. a.
die Vorgabe spezifischer Arbeitsschritte durch das obere Management während Tatikonda
und Montoya-Weiss stärker das Vorliegen eines strukturierte Prozessschemas bzw. Regel-
werks in den Vordergrund stellen.40
Tatikonda und Montoya-Weiss operationalisieren die Prozessanpassbarkeit als den
Grad, zu dem die Projektleitung Vorgehen, Zeitplanung und Art der Revisionen im Pro-
jektverlauf selbst bestimmen kann. Dieser Faktor wirkt stark positiv auf die Einhaltung
der Time-to-market, hat jedoch zunächst keinen signifikanten Einfluss auf die beiden an-
deren Erfolgsdimensionen. Erst durch Miteinbeziehung eines Interaktionsterms mit dem
Produktinnovationsgrad in die Regressionsmodelle wird deutlich, dass Prozessanpassbar-
keit bei hochinnovativen Produkten tatsächlich auch stark positiv auf die Einhaltung der
Produktzielkosten wirkt.
Direkte Effekte der Prozessfaktoren auf den Markterfolg werden in der Studie nicht
untersucht, obwohl zumindest die Prozessanpassbarkeit signifikant mit den beiden Markt-
zielen Kundenzufriedenheit und Umsatzzielerreichung korreliert.41 Das Erreichen der ope-
rativen Ziele Produktleistung, -zielkosten und Time-to-market wird von Tatikonda und
Montoya-Weiss stattdessen als Vorhandensein von Produktentwicklungsfähigkeiten inter-
pretiert, von denen nach dem Ressourcenbasierten Ansatz positive Impulse auf die Markt-
zielerreichung ausgehen.42 Die moderierte Regression der Kundenzufriedenheit auf die
operativen Leistungsziele ergibt, dass die Produktleistung und die Einhaltung der Time-
40
Vgl. Bonner et al. (2002), S. 243, sowie Tatikonda und Montoya-Weiss (2001), S. 168.
41
Tatikonda und Montoya-Weiss (2001), S. 162.
42
Für Tatikonda und Montoya-Weiss ist also die Erreichung der operativen Leistungsziele ein Indikator
dafür, dass besondere immaterielle Ressourcen vorliegen, nämlich die notwendigen Fähigkeiten, um
Produktentwicklung so durchzuführen, dass die Voraussetzungen zur Erreichung der Marktziele gege-
ben sind. Aufgabe des Management ist es dann, unter gegebenen Ressourcenbeschränkungen einzelne
Ziele zu priorisieren und negativen Effekten technischer und externer Unsicherheiten vorzubeugen
(vgl. Tatikonda und Montoya-Weiss (2001), S. 154).
136 5. Metaanalyse der empirischen Forschung zur Planung und Steuerung
43
Ein kausaler Zusammenhang zwischen Time-to-market und Kundenzufriedenheit lässt sich nach An-
sicht des Autors nur dann begründen, wenn der Kunde in Ermangelung von Substitutionsprodukten
mit ähnlichem Image und Leistungsmerkmalen keine Möglichkeit hat, seiner Unzufriedenheit durch
Wahl eines anderen Produktes vorzubeugen. Daher wäre es zu untersuchen, ob die Time-to-market
wirklich als vorgelagertes Ziel betrachtet werden kann oder nicht vielmehr auf einer Ebene mit den
Marktzielen stehen sollte.
44
Vgl. hierzu die Ausführungen in Abschnitt 3.3.2 der vorliegenden Arbeit.
5.5. Quantitative Metaanalyse 137
tionsgrads vermutet werden. Während Bonner et al. (2002) und Olson et al. (1995) die
Innovationstypologie von Booz, Allen & Hamilton, Inc. (1982) verwenden, nehmen Lewis
et al. (2002) sowie Tatikonda und Montoya-Weiss (2001) mehrdimensionale Operationa-
lisierungen des Innovationsgrads vor. Griffin (1997) und Shenhar et al. (2002) schließlich
fokussieren vor allem auf die Unsicherheit hinsichtlich wichtiger Projektparameter.
Entsprechend kann hier also kein Fazit hinsichtlich der Erfolgswirkung von formellen
Projektsteuerungstechniken gezogen werden, allerdings sei auf die Diskussion im Rahmen
der quantitativen Metaanalyse verwiesen, in der der Stichprobenmittelwert des Innova-
tionsgrads als Moderatorvariable im Vergleich zwischen den Studien herangezogen wird,
um diese offene Frage näher zu beleuchten.
Formelle Projektsteuerung
Erläuterung. Erfolgswirkung der Planung wie folgt kodiert: = stark positiv; = schwach
positiv; = stark negativ; = schwach negativ.
Tabelle 5.6: Erfolgswirkung der Projektsteuerung – Zusammenfassung der Befunde für Projekte unter-
schiedlichen Innovationsgrads
Als Assoziationsmaß zwischen den Gestaltungs- und den Erfolgsvariablen wird hier der
Pearson-Korrelationskoeffizient gewählt, da diese Effektstärke noch am ehesten in den hier
138 5. Metaanalyse der empirischen Forschung zur Planung und Steuerung
untersuchten Studien berichtet wurde, allgemein wohl am häufigsten im Rahmen von Me-
taanalysen eingesetzt wird und damit auch die zur Verfügung stehenden Rechenverfahren
am breitesten dokumentiert sind.45
Im Folgenden werden die von Hunter und Schmidt (1990) vorgeschlagenen Verfahren
der Metaanalyse verwendet, da ihre heuristische Natur Probleme mit der statistischen
Teststärke bei kleiner Studienanzahl vermeidet und die Korrektur verschiedener Fehler-
quellen ermöglicht, die zu einer Verzerrung der Korrelationen führen können. Beispiele
für solche Fehlerquellen, die von Hunter und Schmidt auch als Studien-Artefakte be-
zeichnet werden, sind mangelnde Reliabilität (Messfehler), mangelnde Validität, Skalen-
beschränkungen (Range Restrictions) oder künstliche Dichotomisierung der abhängigen
und unabhängigen Variablen.46 Eine Metaanalyse kann damit in den folgenden in drei
Schritten durchgeführt werden:47 (1) Der Stichprobenfehler wird ermittelt, (2) die mittle-
re Effektstärke wird geschätzt und um den verzerrenden Einfluss von Studien-Artefakten
(hier: die jeweilige Variablen-Reliabilität, gemessen durch Cronbach’s Alpha) korrigiert
und (3) die Heterogenität der zugrundeliegenden Studien wird überprüft um festzustel-
len, ob die Suche nach einem Moderator notwendig erscheint, der die Varianz zwischen
den Studien erklären könnte.
45
Vgl. die Darstellungen bei Hunter et al. (1982), Kapitel 3, Hunter und Schmidt (1990), Kapitel 3-5.
46
Hunter und Schmidt (1990), S. 44-72; Hunter und Schmidt (1994), S. 325f.
47
Vgl. Hunter et al. (1982), S. 35ff. und Schwarzer (1996), S. 35ff. zur Methodik sowie Gerwin und
Barrowman (2002), S. 942f. für ein aktuelles Anwendungsbeispiel.
48
Fricke und Treinies (1985), S. 124; Hunter et al. (1982), S. 43.
49
Hedges (1989), S. 470. Alternativ leitet Hedges einen erwartungstreuen Schätzer für σ(ρ) ab, der
jedoch schwieriger zu berechnen ist und in der praktischen Anwendung nur bei sehr kleiner Gesamt-
stichprobengröße Vorteile bietet, vgl. Hedges (1989), S. 473ff.
5.5. Quantitative Metaanalyse 139
1 (1 − ri2 )2
k
σ2 (ρ) = S 2 (r) −
k i=1 ni − 1 (5.5.1)
∼ k
= S 2 (r) − (1 − r2 )2 .
N
Zwar ist S 2 streng genommen kein erwartungstreuer Schätzer, dennoch kann auf eine
Anwendung der Fisher-Z-Transformation verzichtet werden, da die resultierenden Diffe-
renzen im Normalfall unterhalb des Rundungsfehlers liegen und selbst bei sehr kleinen
Stichprobengrößen trivial gegenüber dem Stichprobenfehler sind.52
50
Hunter et al. (1982), S. 44.
51
Hunter et al. (1982), S. 40f.; Schwarzer (1996), S. 35.
52
Hunter und Schmidt (1990), S. 71.
140 5. Metaanalyse der empirischen Forschung zur Planung und Steuerung
ρ σ2 (ρ) − ρ 2 2 2 2 2
true (αP σ (αE ) + αE σ (αP ))
ρ
true = √ √ ; σ
2
true (ρ) = 2 2
. (5.5.3)
αP αE σ (αE ) σ (αP )
In dem Maße, in dem die abhängigen oder unabhängigen Variablen mit Messfehlern ver-
sehen sind, liegen also die beobachteten Korrelationen unter den wahren“ Werten. Die
”
Interpretation der wahren“ Werte muss jedoch mit Vorsicht erfolgen, da die dargestellte
”
Prozedur bei sehr geringen Reliabilitäten zu einem sehr hohen Schätzer für die Relia-
bilität führen kann. Eine vernünftige Variablenmessung sollte jedoch eigentlich immer
den Ausgangspunkt einer Untersuchung bilden und ist einer nachträglichen Korrektur
vorzuziehen, jedoch kann eine Metaanalyse nicht die Qualität der ihr zugrunde liegen-
den Studien verbessern. Daher sollten neben der wahren“ Effektstärke auch immer die
”
gewichtete, jedoch nicht korrigierte Effektstärke nach Gl. 5.5.2 berichtet werden.56
Test auf Homogenität Eine Populations-Effektstärke kann nur dann zuverlässig in-
terpretiert werden, wenn die zugrunde liegenden Datensätze hinreichend homogen sind.
Werden beispielsweise Studien mit starkem negativen und starkem positiven Effekt inte-
griert, kann eine durchschnittlich Effektstärke von Null resultieren, obwohl die einzelnen
Populationseffektstärken signifikant von Null verschieden sind.57 Liegen solch inhomoge-
ne Effektstärken vor, muss im Rahmen der Metaanlyse nach Moderatorvariablen gesucht
werden, die die starken Unterschiede zwischen den Studien erklären können. Die Voraus-
setzung der Homogenität kann dann als erfüllt angesehen werden, wenn der größte Teil
53
Hunter et al. (1982), S. 74ff.
54
Für den Fall, dass alle Studien vollständige Angaben bzgl. beider Alpha-Koeffizienten machen, könnte
man als Gewicht wi = ni /(αP,i αE,i ) verwenden, das den Studien, die mit höheren Messfehlern
behaftet sind, ein kleineres Gewicht beimisst, vgl. Hunter und Schmidt (1994), S. 329.
55
Hunter et al. (1982), S. 78f.
56
Schwarzer (1996), S. 36.
57
Fricke und Treinies (1985), S. 85.
5.5. Quantitative Metaanalyse 141
der Varianz der beobachteten Korrelationen auf den Stichprobenfehler zurückzuführen ist
und nicht auf systematische Differenzen zwischen den Ausgangsstudien. Hierfür sind drei
Kriterien gebräuchlich:58
1. Die Varianz der Populationseffektstärke σ 2 (ρ), also die Residualvarianz nach Ab-
zug der Stichprobenvarianz, sollte höchstens 25 Prozent der beobachteten Varianz
betragen.59
Der zuletzt angegebene Test besitzt jedoch eine sehr hohe Teststärke und lehnt die Null-
hypothese, dass Homogenität besteht, schon bei sehr kleiner Variation ab. Ist der χ2 -Wert
also nicht signifikant, kann dies als sehr starke Bestätigung der Homogenität aufgefasst
werden, während ein signifikanter Wert dennoch auf eine zu vernachlässigende Variation
zwischen den Studien zurückzuführen sein kann.62 Aus diesem Grund empfiehlt Schwar-
zer (1996, S. 37) vor allem die Verwendung der beiden ersten Kriterien zur Beurteilung
der Studienhomogenität. Es handelt sich dabei allerdings um Faustregeln“, deren Ak-
”
zeptanzgrenzen sich nicht theoretisch begründen lassen und bislang auch nur bedingt im
Rahmen von Simulationsstudien untersucht wurden.63
Elf der insgesamt 39 im Rahmen der Literaturanalyse analysierten Studien haben ihre
Datenbasis in hinreichender Qualität dokumentiert, um in die quantitative Metaanaly-
se miteinbezogen werden zu können. Die restlichen Studien berichten für die relevanten
Beziehungen weder Korrelationskoeffizienten noch Signifikanztests zwischen erfolgreichen
und nicht erfolgreichen Produkten, sondern enthalten ausschließlich Regressionskoeffizi-
enten oder Angaben wie hoch/niedrig“, die sich zur metaanalytischen Auswertung nicht
”
eignen. Anhand der elf Studien kann die jeweilige mittlere Erfolgswirkung von Business-
planung, formeller Projektsteuerung und Zielstabilität errechnet werden, dagegen kann
58
Schwarzer (1996), S. 37.
59
Hunter und Schmidt (1990), S. 68 und 440. Siehe auch Schmidt und Hunter (1977) sowie Hunter und
Schmidt (1994), S. 335.
60
Stoffelmayr et al. (1983), S. 343.
61
Hunter et al. (1982), S. 47.
62
Hunter und Schmidt (1990), S. 112.
63
Vgl. jedoch Rasmussen und Loher (1988) für eine Diskussion des ersten Kriteriums.
142 5. Metaanalyse der empirischen Forschung zur Planung und Steuerung
die Erfolgswirkung der anderen Aspekte der Vorhabensplanung und -steuerung von In-
novationsprojekten sowie die Wechselwirkung zwischen Planung und Steuerung aufgrund
der begrenzten empirischen Basis nicht untersucht werden.
Die für die vorliegende Untersuchung relevanten Korrelationskoeffizienten wurden zu-
sammen mit Angaben über die jeweilige Studie, Stichprobengröße sowie eventuell vorhan-
dene Angaben über Reliabilitätkoeffizienten und die in der Stichprobe durchschnittlich
realisierte Innovationshöhe systematisch in Microsoft EXCEL erfasst, dort mittels Pivot-
Tabellen aggregiert und anhand der im vorherigen Abschnitt beschriebenen Methodik
ausgewertet. Anschließend wurden die Ergebnisse mit der Software Meta-Analysis Pro-
grams von Schwarzer (1996) überprüft. Die Ausgangsdaten sind in den Tabellen 5.7 bis
5.10 zusammengefasst, die statistische Auswertung ist in Tabelle 5.11 dokumentiert.
Tabelle 5.7: Übersicht über die Studien zur Metaanalyse hinsichtlich Businessplanung
Businessplanung Tabelle 5.7 zeigt die sechs Studien, die den Effekt von Businesspla-
nung auf den Vorhabenserfolg messen. Da bei den Veröffentlichungen von Cooper (1979b),
Mishra et al. (1996) sowie Parry und Song (1994) die relevanten Facetten der Business-
planung auf mehrere Faktoren verteilt sind, werden hier Durchschnittskorrelationen aus
jeweils drei Korrelationskoeffizienten zwischen dem Erfolgsmaß Vorhabenserfolg“und den
”
Planungsfaktoren Initial Screening, Preliminary Market Assessment und Financial Analy-
sis errechnet.64 Eine Betrachtung der Ausgangsdaten zeigt zunächst, dass die berichteten
Korrelationskoeffizienten weitgehend homogen erscheinen, wobei allerdings die sehr hohen
Werte r = 0, 70 bei Parry und Song (1994) sowie r = 0, 57 bei Mishra et al. (1996) aus
64
Vgl. zu diesem Vorgehen Hunter und Schmidt (1990), S. 467.
5.5. Quantitative Metaanalyse 143
dem Rahmen fallen. Diese beiden Studien berichten durchweg ungewöhnlich hohe Kor-
relationen, ohne dass den Veröffentlichungen ein möglicher Grund dafür zu entnehmen
wäre.
In der aggregierten Betrachtung erhält man zunächst eine mittlere Effektstärke ρ =
0, 435 bzw. ρtrue = 0, 534 nach Artefakt-Korrektur (vgl. Tabelle 5.11). Die aggregierte
Stichprobe ist jedoch als stark heterogen einzustufen, da die Varianz der Populationskor-
relationen 83 Prozent der beobachteten Varianz ausmacht und der χ2k−1 -Wert signifikant
ist. Aus diesem Grunde werden separate Metaanalysen für die einzelnen Erfolgsmaße
durchgeführt. Die Analyse der drei Studien, die den Vorhabenserfolg schlicht durch ein
übergreifendes Items erfassen, ergibt eine sehr hohe Effektstärke ρ = ρtrue = 0, 551. Al-
lerdings sind die entsprechenden Konfidenzintervalle sehr groß und alle Homogenitätstest
verletzt, da in diese Teilstichprobe neben der von Cooper (1979b) berichteten normalen“
”
Korrelation auch die erwähnten atypischen Resultate von Parry und Song (1994) sowie
Mishra et al. (1996) enhalten sind. Aufgrund der geringen Studienzahl ist eine Suche nach
Moderatoren nicht möglich. Die Betrachtung der beiden anderen Erfolgsmaße, Profitabi-
lität und Umsatz, führt jeweils zu homogenen Teilstichproben mit mittleren Effektstärken
ρ = 0, 409 (ρtrue = 0, 507) bzw. ρ = 0, 377 (ρtrue = 0, 467), nur in der Teilstichprobe zum
Erfolgsmaß Umsatz“ macht die Populationsvarianz 30 Prozent der beobachteten Varianz
”
aus und liegt damit geringfügig über dem von Hunter und Schmidt (1990) empfohlenen
Grenzwert. In Hinblick auf die Analyse zur Profitabilität sowie zwei weiter unten berichte-
te Analysen ist anzumerken, dass aufgrund der approximativen Natur des Verfahrens von
Hunter und Schmidt die Varianz des Stichprobenfehlers über der beobachteten Varianz
liegt. Da Varianzen kleiner Null nicht interpretierbar sind, wird die Populationsvarianz
auf Null fixiert.65
65
Hunter und Schmidt (1990), S. 109.
144 5. Metaanalyse der empirischen Forschung zur Planung und Steuerung
Tabelle 5.8: Übersicht über die Studien zur Metaanalyse hinsichtlich formeller Projektsteuerung
nach Erfolgsmaßen erhält man für Profitabilität“ und Umsatz“ jeweils homogene Teil-
” ”
stichproben. Dabei ist interessanterweise die Effektstärke hinsichtlich der Profitabilität
deutlich höher als die hinsichtlich der zeitlichen Effizienz des Projektes, ohne dass sich die
entsprechenden Konfidenzintervalle überschneiden. Die Metaanalysen für die Beziehungen
zwischen formeller Projektsteuerung und die Erfolgsmaße Umsatz“ sowie Gesamterfolg“
” ”
sind stark heterogen, wobei die Effektstärken bei letzterer praktisch Null betragen und die
Konfidenzintervalle fast den ganzen Wertebereich des Korrelationskoeffizienten abdecken.
Eine statistisch solide Suche nach möglichen Moderatoren erscheint aufgrund der ge-
ringen Studienzahl nicht möglich, da diese beispielsweise durch Stichprobenteilung anhand
der vermuteten Moderatoren und anschließende Differenztests oder durch eine Regression
der Effektstärken auf die möglichen Moderatoren erfolgen müsste. Dennoch ist es an-
gesichts der zentralen Fragestellung dieser Arbeit notwendig, wenigstens näherungsweise
den möglichen Effekt der unterschiedlicher Innovationsgrade, die jeweils in den Studien
realisiert werden, zu untersuchen. Drei Studien berichten neben der Korrelation zwischen
Projektsteuerung und Erfolg auch den ihrer Studie realisierten Mittelwert des Innovati-
onsgrads, vgl. Tabelle 5.9. Bei Betrachtung der Daten stellt man umittelbar fest, dass
die Verwendung formeller Projektsteuerungsmethoden mit zunehmendem Innovations-
grad geringere Wirkung auf den Vorhabenserfolg zeigt und schließlich gar zu einem Hin-
dernis wird. Dieser Zusammenhang ist sehr stark (r = −0, 88).
5.5. Quantitative Metaanalyse 145
Tabelle 5.10: Übersicht über die Studien zur Metaanalyse hinsichtlich Zielstabilität
146
σ 2 (ρ) σ(ρ)
Analysierte Beziehungen k N ρ CIρ95% ρtrue CIρ95%
true
σ 2 (r) σ 2 (e) σ 2 (ρ) σ 2 (r) ρ χ2k−1 df
BUSINESSPLANUNG
Alle Erfolgsmaße 8 2826 0,435 0,246 – 0,624 0,534 0,343 – 0,725 0,0111 0,0019 0,0093 0,83 0,22 47,85∗∗ 7
— Gesamterfolg 3 741 0,551 0,290 – 0,813 0,551 0,294 – 0,821 0,0198 0,0020 0,0178 0,90 0,24 30,16∗∗ 2
— Profitabilität 2 991 0,409 0,409 – 0,409 0,507 0,507 – 0,507 0,0005 0,0014 0,0000 0,00 0,00 0,73 1
— Umsatz 2 991 0,377 0,327 – 0,426 0,467 0,467 – 0,467 0,0021 0,0015 0,0006 0,30 0,07 2,85 1
FORMELLE PROJEKTSTEUERUNG
Alle Erfolgsmaße 10 2339 0,289 0,007 – 0,585 0,357 -0,002 – 0,715 0,0264 0,0036 0,0228 0,86 0,52 73,54∗∗ 9
— Gesamterfolg 2 190 0,064 -0,722 – 0,849 0,080 -0,906 – 1,000 0,1710 0,0104 0,1605 0,94 6,31 32,75∗∗ 1
— Profitabilität 3 946 0,348 0,315 – 0,380 0,405 0,405 – 0,405 0,0027 0,0025 0,0003 0,10 0,05 3,33 2
— Umsatz 2 908 0,299 0,111 – 0,487 0,335 0,125 – 0,546 0,0110 0,0110 0,0018 0,83 0,32 12,07∗∗ 1
— Zeit 3 295 0,218 0,218 – 0,218 0,309 0,309 – 0,309 0,0074 0,0092 0,0000 0,00 0,00 2,41 2
ZIELSTABILITÄT
Alle Erfolgsmaße 2 375 0,443 0,443 – 0,443 0,543 0,543 – 0,543 0,0000 0,0034 0,0000 0,00 0,00 0,01 1
Erläuterung. k = Anzahl berichteter Effektstärken; N = aggregierte Stichprobengröße; ρ = aggregierte Effektstärke; CIρ95% = Konfidenzintervall
für ρ; ρtrue = aggregierte Effektstärke nach Artefaktkorrektur; CIρ95% true
= Konfidenzintervall für ρtrue ; σ 2 (r) = Stichprobenvarianz; σ 2 (e) =
Varianz des Stichprobenfehlers; σ 2 (ρ) = Populations- oder Residualvarianz; σ 2 (ρ)/σ 2 (r) sollte 0, 25 für homogene Stichproben sein; σ(ρ)/ρ
sollte 0, 25 für homogene Stichproben sein; χ2k−1 (df ) sollte bei homogenen Stichproben nicht signifikant sein.
∗∗
p 0, 01
Tabelle 5.11: Ergebnisse der Metaanalyse
5. Metaanalyse der empirischen Forschung zur Planung und Steuerung
5.6. Zusammenfassung der Befunde 147
Nach der qualitativen Gegenüberstellung der Studien in den Abschnitten 5.2 bis 5.4 sowie
der quantitativen Metaanalyse im letzten Abschnitt werden hier noch einmal die wesentli-
chen Befunde kurz zusammengefasst und in Beziehung zu den theoretischen Überlegungen
der beiden letzten Kapitel gesetzt.
Hinsichtlich der Businessplanung konnten sowohl die Studien im Abschnitt 5.2 als auch
die fokussierten Arbeiten im Abschnitt 5.3 generell einen positiven Effekt auf den Vor-
habenserfolg feststellen. Die quantitative Metaanalyse ergab eine aggregierte Effektstärke
von ρ = 0, 435. Dies berechtigt zur folgenden Aussage:
Befund 5.2: Die Wirkung der Businessplanung auf den Vorhabenserfolg wird
tendenziell negativ durch den Innovationsgrad moderiert, sie wirkt also v. a.
bei Projekten mit niedrigem Innovationsgrad erfolgssteigernd.
Während die Befunde zur Businessplanung für sich genommen interessant sind, stützen sie
doch nicht direkt die in Abschnitt 4.2.1 abgeleiteten Aussagen zur Businessplanung. Dieser
Umstand ist darauf zurückzuführen, dass alle analysierten Studien die Variablen Business-
planung, Projektplanung und Projektsteuerung als voneinander unabhängige Prädiktoren
des Vorhabenserfolgs betrachten und ihre Wechselwirkung daher nicht untersuchen. Eines
der in der Einleitung der vorliegenden Untersuchung definierten Ziele ist es jedoch gera-
de, Mediatorbeziehungen zwischen diesen Variablen aufzudecken, so dass im Rahmen der
Hypothesenformulierung in Kapitel 6 zumindest im Fall der Businessplanung nicht auf
die Befunde der Metaanalyse zurückgegriffen werden kann.
Die operative Projektplanung wurde von einer Reihe von Studien als ein wichtiger Er-
folgsfaktor für Innovationsprojekte identifiziert, eine quantitative Erhärtung im Rahmen
der Metaanalyse war allerdings nicht möglich, da keiner der relevanten Veröffentlichungen
verwertbare Effektstärken (z. B. Korrelationskoeffizienten) zu entnehmen waren.
Wie bereits im Fall der Businessplanung ist hier festzustellen, dass die analysierten Stu-
dien nur die direkte Erfolgswirkung der Projektplanung untersuchen, jedoch keine Media-
toreffekte. Die Befunde sind damit für die Hypothesenableitung wiederum nur begrenzt
aussagefähig, da sie keine Aussage über den Zusammenhang zwischen Projektplanung und
-steuerung ermöglichen. Dennoch ist der identifizierte Moderatoreffekt für sich genommen
bemerkenswert. Während in Kapitel 4 eine indirekte Erfolgswirkung der Projektplanung
über die Projektsteuerung mit negativer Moderation des Pfads von Projektsteuerung auf
Innovationserfolg abgeleitet wurde, präsentiert der Befund 5.4 eine positiv moderierte
(direkte) Erfolgswirkung. Ein solcher Zusammenhang widerspricht deutlich der in Ab-
schnitt 4.3.2 dargelegten Argumentation. Danach sind formelle Planungs- und Steuerungs-
mechanismen v. a. dann angemessen, wenn Ursache-Wirkungs-Zusammenhänge bekannt
und zeitlich stabil sind. Da bei hochinnovativen Projekten jedoch die relevante Wissen-
basis des Unternehmens oft klein ist und in nur sehr geringem Maße Erfahrungen aus
vergleichbaren Projekten übertragen werden können, kann sich hier ein hoher Planungs-
und Formalisierungsgrad deutlich negativ auf den Vorhabenserfolg ausüben, da er die
Handlungsfreiheit des Projektteams und die Kreativität der Problemlösung zu stark ein-
schränkt. Der Befund 5.4 ist von daher als überraschend zu werten.
Im Rahmen der quantitativen Metaanalyse im Abschnitt 5.4 konnte weiterhin gezeigt
werden, dass die Stabilität der zentralen Projektziele eine wesentliche Voraussetzung für
die erfolgreiche Durchführung von Innovationsvorhaben ist. Mit einer Effektstärke von
ρ = 0, 443 ist sie von vergleichbarer Wichtigkeit wie sorgfältige Businessplanung:
Befund 5.5: Die Stabilität zentraler Vorhabensziele hat einen positiven Ein-
fluss auf den Vorhabenserfolg.
66
Auch im Fall der Projektplanung ist es wiederum nur eine Studie über Dienstleistungsinnovationen,
die hinsichtlich dieses Moderatoreffektes zu gegensätzlichen Aussagen gelangt. Da sie zudem einen
anderen Schwerpunkt bei der Konstruktoperationalisierung setzt, scheint diese Feststellung gerecht-
fertigt zu sein.
5.6. Zusammenfassung der Befunde 149
In diesem Kapitel werden die Hypothesen für die empirische Untersuchung im zweiten
Teil der Arbeit abgeleitet. Die Darstellung kann vergleichsweise knapp gehalten werden,
da sich diese Hypothesen als direkte Folgerung aus dem theoretischen Grundmodell der
Arbeit (vgl. Abschnitt 3.4 und 3.5), aus den in Kapitel 4 abgeleiteten Aussagen zur
Planung und Steuerung von Innovationsvorhaben sowie aus den Befunden der empirischen
Metaanalyse (vgl. Abschnitt 5.6) ergeben. Die Tabellen 6.1 bis 6.3 auf den Seiten 155ff.
fassen noch einmal die zentralen Aussagen und Befunde zusammen und stellen ihnen die
daraus abgeleiteten Hypothesen gegenüber. Die logische Struktur der Hypothesen wird
darüber hinaus in Abbildung 6.1 auf S. 159 veranschaulicht.
toreffekt soll darüberhinaus gerade für hochinnovative Projekte von besonderer Bedeutung
sein, so dass in der vorliegenden Arbeit die beiden folgenden Hypothesen geprüft werden
sollen:
H1: (a) Die Durchführung von Aktivitäten der Businessplanung hat einen
positiven Effekt auf die Qualität der Projektplanung. (b) Je höher der Innova-
tionsgrad eines Projektes ist, desto stärker tritt dieser Effekt zutage (positiver
Interaktionseffekt).
H2: (a) Die Durchführung von Aktivitäten der Businessplanung hat einen
positiven Effekt auf das Risikomanagement. (b) Je höher der Innovationsgrad
eines Projektes ist, desto stärker tritt dieser Effekt zutage (positiver Interak-
tionseffekt).
H3: Die Intensität der Projektplanung hat einen positiven Effekt auf die Pro-
zessformalisierung.
H4: Die Intensität der Projektplanung hat einen positiven Effekt auf die Pro-
zessstabilität.
Auch bei der Risikoerkennung und -analyse (vgl. Abschnitt 4.2.4) handelt es sich um
Prozesse der Informationsbeschaffung und -verarbeitung, die gerade bei hochinnovati-
ven, von hoher Unsicherheit gekennzeichneten Projekten eine besondere Erfolgswirkung
ausüben. Diese kommt auf der einen Seite, ähnlich wie im Fall der Projektplanung, durch
die Mediatorwirkung von Projektsteuerungsvariablen zum Tragen, da Maßnahmen der
Risikoanalyse und -handhabung zu einem strukturierteren und stabileren Implementati-
onsprozess führen und damit indirekt den Vorhabenserfolg steigern. Auf der anderen Seite
153
aber üben speziell die Maßnahmen der Risikohandhabung durch Verlustvermeidung und
-verkürzung auch direkt einen positiven Einfluss auf den Projekterfolg aus. Entsprechend
werden für die empirische Untersuchung die folgenden Hypothesen aufgestellt:
H5: Die Intensität des Risikomanagement hat einen positiven Effekt auf die
Prozessformalisierung.
H6: Die Intensität des Risikomanagement hat einen positiven Effekt auf die
Prozessstabilität.
H7: (a) Die Intensität des Risikomanagement hat einen positiven Effekt auf
den Vorhabenserfolg. (b) Je höher der Innovationsgrad eines Projektes ist,
desto stärker tritt dieser Effekt zutage (positiver Interaktionseffekt).
Entsprechend den Ausführung in den Abschnitten 4.2.2 und 4.3.1 unterliegt diese Bezie-
hung zwischen Zielsetzung und -erreichung zumindest zwei wichtigen Randbedingungen:
Auf der einen Seite ist zu berücksichtigen, dass mit zunehmender inhaltlicher Spezifizie-
rung von Zielen auch die Wahrscheinlichkeit der Zielerreichung steigt, da hierdurch die Ab-
leitbarkeit konkreter Handlungspläne zunimmt. Auf der anderen Seite ist die Erreichung
bestimmter Ziele immer auch an eine darauf ausgerichtete Projektsteuerung gebunden, die
die Erreichung spezifischer Ziele durch die Verwendung entsprechender Steuerungsgrößen
forciert. Dementsprechend sollen im empirischen Teil dieser Arbeit zusätzlich noch die
zwei folgenden Hypothesen untersucht werden:
H11: (a) Je spezifischer die zentralen Ziele des Vorhabens formuliert werden,
desto höher fällt die Zielerreichung in den entspechenden Erfolgsdimensionen
aus. (b) Je höher der Innovationsgrad eines Projektes ist, desto schwächer
wird dieser Zusammenhang ausgeprägt sein (negativer Interaktionseffekt).
Theorie der Informations- Veröffentlichungen zu Innovations- und Pro- Empirische Metaanalyse Hypothesen
verarbeitung jektmanagement
Aussage 3.7 (vgl. Aussage 4.1 (vgl. S. 64): Die Durchführung Befund 5.1 (vgl. S. 147): Busi- H1: (a) Die Durchführung von Akti-
S. 52): Höherer Abbau von Aktivitäten der Businessplanung führt zu nessplanung wirkt im allgemei- vitäten der Businessplanung hat einen
von Unsicherheit in der gesteigerter Intensität der Projektplanung. nen positiv auf den Vorhabens- positiven Effekt auf die Intensität der
Planungsphase des Inno- erfolg. Projektplanung. (b) Je höher der In-
vationsprojektes führt zu Aussage 4.2 (vgl. S. 64): Die Durchführung novationsgrad eines Projektes ist, desto
einem strukturierteren von Aktivitäten der Businessplanung führt zu Befund 5.2 (vgl. S. 147): Die stärker tritt dieser Effekt zutage (posi-
Implementierungsprozess, gesteigerter Intensität des Risikomanagement. Wirkung der Businessplanung tiver Interaktionseffekt).
weniger unplanmäßigen auf den Vorhabenserfolg wird
Aussage 4.3 (vgl. S. 65): Je höher dabei tendenziell negativ durch den H2: (a) Die Durchführung von Akti-
Änderungen und einem der Innovationsgrad eines Projektes ist, desto
höheren Innovationser- Innovationsgrad moderiert, sie vitäten der Businessplanung hat einen
wichtiger ist die Businessplanung als Vorbe- wirkt also v. a. bei Projekten positiven Effekt auf die Intensität des
folg. reitung für Projektplanung und Risikomana- mit niedrigem Innovationsgrad Risikomanagement. (b) Je höher der
gement (positiver Interaktionseffekt). erfolgssteigernd. Innovationsgrad eines Projektes ist, de-
Aussage 4.7 (vgl. S. 72): Je intensiver sto stärker tritt dieser Effekt zutage
Befund 5.3 (vgl. S. 147): Pro- (positiver Interaktionseffekt).
die Projektplanung durchgeführt wird, desto jektplanung wirkt generell posi-
strukturierter kann die Projektsteuerung in tiv auf den Vorhabenserfolg. H3: Die Intensität der Projektplanung
der eigentlichen Durchführungsphase erfolgen. hat einen positiven Effekt auf die Pro-
Befund 5.4 (vgl. S. 148): zessformalisierung.
Aussage 4.8 (vgl. S. 73): Je intensiver die Der Einfluss fortgeschrittener
Projektplanung durchgeführt wird, desto we- Projektplanungsaktivitäten auf H4: Die Intensität der Projektplanung
niger Plan- und Ressourcenänderungen wer- den Vorhabenserfolg wird positiv hat einen positiven Effekt auf die Pro-
den im Laufe der Durchführungsphase not- durch den Innovationsgrad mo- zessstabilität.
wendig. deriert, sie wirken also v. a. bei
Projekten mit hohem Innovati-
onsgrad erfolgssteigernd.
(wird fortgesetzt)
155
(Fortsetzung)
156
Theorie der Informations- Veröffentlichungen zu Innovations- und Pro- Empirische Metaanalyse Hypothesen
verarbeitung jektmanagement
Aussage 4.9 (vgl. S. 75): Je intensiver das H5: Die Intensität des Risikomanage-
Risikomanagement erfolgt ist, desto struktu- ment hat einen positiven Effekt auf die
rierter und stabiler kann die Projektsteuerung Prozessformalisierung.
in der Durchführungsphase ablaufen. Mit zu-
nehmendem Innovationsgrad wird dieser Zu- H6: Die Intensität des Risikomanage-
sammenhang stärker ausgeprägt sein (positi- ment hat einen positiven Effekt auf die
ver Interaktionseffekt). Prozessstabilität.
Aussage 4.10 (vgl. S. 75): Je intensiver H7: (a) Die Intensität des Risikomana-
das Risikomanagement erfolgt ist, desto höher gement hat einen positiven Effekt auf
fällt der Projekterfolg aus. Mit zunehmendem den Vorhabenserfolg. (b) Je höher der
Innovationsgrad wird dieser Zusammenhang Innovationsgrad eines Projektes ist, de-
stärker ausgeprägt sein (positiver Interakti- sto stärker tritt dieser Effekt zutage
onseffekt). (positiver Interaktionseffekt).
6. Hypothesen der empirischen Untersuchung
Tabelle 6.2: Aussagen, Befunde und Hypothesen zur Projektsteuerung
Theorie der Informations- Veröffentlichungen zu Innovations- und Pro- Empirische Metaanalyse Hypothesen
verarbeitung jektmanagement
Aussage 3.8 (vgl. S. 52): Aussage 4.13 (vgl. S. 80): Ein hoher Grad Befund 5.5 (vgl. S. 148): Die H8: (a) Der Grad der Prozessformali-
Je geringer das Aus- der Prozessformalisierung wirkt erfolgsstei- Stabilität zentraler Vorhabens- sierung hat im Mittel“ über die Pro-
”
maß an Unsicherheit gernd bei inkrementellen Innovationsvorhaben ziele hat einen positiven Einfluss jekte unterschiedlicher Innovationsgra-
und Mehrdeutigkeit im und erfolgshemmend bei hochinnovativen Vor- auf den Vorhabenserfolg. de keinen signifikanten Einfluss auf den
Rahmen der Implemen- haben. Vorhabenserfolg. (b) Bei niedriginno-
tierungsphase ist, desto Befund 5.6 (vgl. S. 149): Die vativen Projekten wirkt ein hoher For-
stärker tragen formelle Aussage 4.14 (vgl. S. 81): Kontinuität der Wirkung formeller Projektsteue- malisierungsgrad erfolgssteigernd, bei
Koordinations- und Kon- Projektsteuerung im Sinne von geringen Ziel- rungsmethoden auf den Vorha- hochinnovativen Projekten dagegen er-
trollmechanismen zum , Plan- und Ressourcenänderungen hat un- benserfolg hängt stark vom Inno- folgshemmend (negativer Interaktions-
Innovationserfolg bei. abhängig vom Innovationsgrad des Vorhabens vationsgrad ab. Während sie sich effekt).
eine positive Erfolgswirkung. bei niedriginnovativen Vorhaben
positiv auswirken, führen sie bei H9: Prozessstabilität hat unabhängig
neuartigen Projekten zu starken vom Innovationsgrad eines Vorhabens
Dysfunktionalitäten. Über den einen positiven Effekt auf den Vorha-
mittleren Effekt“ kann keine si- benserfolg.
”
chere Aussage getroffen werden.
157
Tabelle 6.3: Aussagen, Befunde und Hypothesen zur Zieldefinition
158
Theorie der Informati- Veröffentlichungen zu Innovations- und Pro- Empirische Metaanalyse Hypothesen
onsverarbeitung jektmanagement
Aussage 4.4 (vgl. S. 67): Je höher das An- H10: (a) Je höher das Anspruchsni-
spruchsniveau hinsichtlich bestimmter Vorha- veau hinsichtlich bestimmter Vorhabens-
bensziele gesetzt wird, desto höher fällt auch ziele gesetzt wird, desto höher fällt auch
die Zielerreichung in der entspechenden Erfolgs- die Zielerreichung in der entspechenden
dimension aus. Mit zunehmendem Innovati- Erfolgsdimension aus. (b) Je höher der
onsgrad wird dieser Zusammenhang schwächer Innovationsgrad eines Projektes ist, de-
ausgeprägt sein (negativer Interaktionseffekt). sto schwächer wird dieser Zusammen-
hang ausgeprägt sein (negativer Interak-
Aussage 4.5 (vgl. S. 68): Je spezifischer die tionseffekt).
zentralen Ziele des Vorhabens formuliert wer-
den, desto höher fällt die Zielerreichung in den H11: (a) Je spezifischer die zentralen
entspechenden Erfolgsdimensionen aus. Mit zu- Ziele des Vorhabens formuliert werden,
nehmendem Innovationsgrad wird dieser Zu- desto höher fällt die Zielerreichung in den
sammenhang jedoch schwächer ausgeprägt sein entspechenden Erfolgsdimensionen aus.
(negativer Interaktionseffekt). (b) Je höher der Innovationsgrad eines
Projektes ist, desto schwächer wird die-
Aussage 4.11 (vgl. S. 77): Je stärker bestimm- ser Zusammenhang ausgeprägt sein (ne-
te Steuerungsgrößen im Rahmen der Projekt- gativer Interaktionseffekt).
steuerung verwendet werden, desto höher ist die
Zielerreichung in den korrespondierenden Er- H12: (a) Je stärker bestimmte Steue-
folgsdimensionen. Je höher der Innovationsgrad rungsgrößen im Rahmen der Projekt-
eines Projektes ist, desto schwächer wird dieser steuerung verwendet werden, desto höher
Zusammenhang ausgeprägt sein (negativer In- ist die Zielerreichung in den korrespon-
teraktionseffekt). dierenden Erfolgsdimensionen. (b) Je
höher der Innovationsgrad eines Projek-
tes ist, desto schwächer wird dieser Zu-
sammenhang ausgeprägt sein (negativer
Interaktionseffekt).
6. Hypothesen der empirischen Untersuchung
159
Innovationsgrad (Moderatorvariable)
Projekt- Prozess-
planung H3 formali-
sierung
H1 H8
H4
Business- Erfolg
planung
H7
H5
H9
H2
Risiko- Prozess-
mgmt. H6 stabili-
tät
H10
Ziel-
wichtigkeit
H11
Ziel-
spezifität
H12
Steuerungs-
größen
Empirischer Teil
Kapitel 7
Untersuchungsdesign
Die Auswahl der Datenerhebungsmethode sollte von der Zielsetzung der Untersuchung
abhängig gemacht werden. Da die Art der im theoretischen Teil aufgestellten Hypothesen
die Anwendung multivariater statistischer Verfahren erfordert, zielte die Datenerfassung
auf eine großzahlige Erhebung standardisierter Indikatoren von Produktinnovationspro-
jekten ab. Unter Ressourcengesichtspunkten wurde hierfür eine schriftliche Befragung
mit einem voll standardisierten Fragebogen als geeignetes Erhebungsinstrument gewählt.
Neben pragmatischen sprachen aber auch methodische Aspekte für die Wahl dieser Er-
hebungsform. So wird bei schriftlichen Befragungen die Gefahr einer Antwortverzerrung
aufgrund sozialer Erwünschtheitseffekte als geringer eingestuft1 und vermutet, dass die
zeitliche Flexibilität zu konzentrierterem und überlegterem Antwortverhalten der Respon-
denten führt.2
Auf der Grundlage des ersten Fragebogenentwurfes erfolgte zunächst eine interne Re-
vision, durch die die Variablenzahl reduziert und die effektive Länge des Fragebogens
auf 12 Seiten beschränkt werden konnte.3 Im Anschluss wurde ein Pretest mit insge-
samt 4 Firmenvertretern durchgeführt, um die Brauchbarkeit und Gültigkeit des Erhe-
bungsinstruments zu überprüfen. Insbesondere sollte geklärt werden, ob die gestellten
Fragen verständlich waren, ob Schwierigkeiten bei der Beantwortung auftraten und ob
die Fragen tatsächlich variierende Antworten produzierten. Die Teilnehmer der Vorstu-
die wurden persönlich aufgesucht, wobei die Gespräche im Mittel 90 Minuten dauerten.
Insgesamt zeigte es sich, dass der Fragebogen logisch aufgebaut war und keine wesentli-
chen Verständnisprobleme auftraten. Einige Fragebogenitems wurden auf Anregung der
1
Bradburn und Sudman (1979), S. 166.
2
Schnell et al. (1995), S. 333.
3
Vgl. Hippler (1988), S. 245.
164 7. Untersuchungsdesign
4
Vgl. hierzu unter anderem die Veröffentlichungen Brennecke et al. (2002) und Billing (2003).
5
Vgl. u. a. Littkemann (1997), Hauschildt (1999) und Schlaak (1999).
6
Vgl. Hauschildt (1999), S. 6 für diese Einschätzung.
7.2. Abschätzung möglicher Methodenfehler 165
7
Vgl. hierzu auch Abschnitt 8.5.3 der vorliegenden Arbeit.
8
Bagozzi et al. (1991), S. 421.
9
Fiske (1982), S. 81-84; Podsakoff et al. (2003), S. 881-885.
10
Bradburn und Sudman (1979), S. 166.
11
Idaszak und Drasgow (1987).
166 7. Untersuchungsdesign
Übergang von allgemeinen zu spezifischen Fragen zerstört worden wäre.12 Die Befragung
von Schlüsselinformanten konnte jedoch unter den Randbedingungen des hier gewählten
Untersuchungs-Designs nicht vermieden werden. Inwieweit ein solcher Ansatz bei der Ana-
lyse institutioneller Phänomene adäquat ist, war und ist Gegenstand intensiver Diskus-
sionen.13 Das Vertrauen in subjektive Bewertungen von Informanten kann zu erheblichen
Messproblemen führen, die auf beschränkte Informationsverarbeitungskapazitäten, Wahr-
nehmungsunterschiede und divergierende Informationsstände zwischen Informanten und
eine Vielzahl unterschiedlicher Motive, wie z. B. das Streben nach Zielerreichung, An-
erkennung und Sicherheit, zurückgeführt werden können.14 Empirische Untersuchungen
zeigen, dass ein solcher Informant Bias mitunter über 30 Prozent der gesamten Varianz
ausmachen kann und bei vielen Konstrukten höher als die inhaltlich durch das Konstrukt
erklärte Varianz ist.15
Für die Diagnose, Abschätzung und Elimination von Methodenfehlern sind eine Rei-
he statistischer Techniken entwickelt worden, die von Podsakoff et al. (2003, S. 887ff.)
zusammengefasst werden. Bei Untersuchungsdesigns, die Prädiktor- und Kriteriumsva-
riablen im gleichen Kontext aus derselben Quelle erheben und die genaue Ursache des
Methodenfehlers ex ante nicht spezifizieren können, bieten sich grundsätzlich zwei Ana-
lysemöglichkeiten an. Eine einfache Diagnose möglicher Methodenfehler kann durch den
sog. Einfaktoren-Test nach Harman (1978) erfolgen, bei dem alle Items in eine explo-
ratorische Faktorenanalyse geladen werden. Ein Methodenfehler äußert sich hier darin,
dass die unrotierte Lösung entweder nur einen Faktor enthält oder dass zumindest ein
Methodenfaktor den größten Teil der Item-Varianzen erklärt. Für die vorliegende Arbeit
wurden bei diesem Test insgesamt neun Faktoren mit einem Eigenwert größer Eins ex-
trahiert, wobei der Abfall der Eigenwerte im Scree-Plot bzw. die Abnahme der erklärten
Varianz relativ flach verläuft, so dass offensichtlich kein schwerwiegender Methodenfehler
vorliegt. Da Podsakoff et al. (2003, S. 889) dieser Methode jedoch nur geringe Aussage-
kraft zuschreiben und ein Ausgleich eines potenziellen Methodenfehlers durch sie nicht
möglich ist, empfehlen sie stattdessen die Verwendung eines Strukturgleichungsmodells,
bei dem jede manifeste Variable nicht nur auf ihren jeweiligen Faktor lädt, sondern auch
auf einen generellen Methodenfaktor. Dieses Modell ist jedoch häufig unteridentifiziert,
wenn die Zahl der Indikatoren pro Faktor niedrig ist, und konnte auch für die vorliegende
Arbeit nicht gelöst werden.
12
Podsakoff et al. (2003), S. 888.
13
Vgl. u. a. Seidler (1974), Phillips (1981), Podsakoff und Organ (1986), Kumar et al. (1993), Ernst
(2001).
14
Ernst (2001), S. 87f.
15
Cote und Buckley (1987), S. 317; Ernst (2003), S. 1260.
7.3. Beschreibung der Stichprobe 167
Bis zur Beendigung der Datenerhebungsphase im Januar 2003 wurden 136 ausgefüllte
Fragebögen zurückgesendet und mit Hilfe der Statistiksoftware SPSS Version 11.0 er-
fasst. Nach Ausschluss von zwei stark unvollständigen Datensätzen bilden 134 auswertbare
Produktinnovationen die Stichprobe für die empirischen Analysen, was einer korrigierten
Rücklaufquote von 42 Prozent entspricht.
Die Stichprobe spiegelt einen breiten Querschnitt von Produktentwicklungsaktivitäten
in Deutschland wider und ist damit als vergleichsweise heterogen einzustufen. Die Ver-
teilung der teilnehmenden Unternehmen nach Industrien wird in Tabelle 7.1 zusam-
men mit Angaben zur durchschnittlichen Mitarbeiterzahl und zum durchschnittlichen
Umsatz berichtet. Neben den zu erwartenden Schwerpunkten in den Bereichen Elektro-
nik/Kommunikation und Maschinenbau fällt vor allem auf, dass die Automobilindustrie
verhältnismäßig stark vertreten ist sowie Firmen, die überwiegend mittels Lasertechnik
Werkstoffbearbeitung durchführen.
Die Größenverteilung der teilnehmenden Unternehmen ist in den Abbildungen 7.1
und 7.2 widergegeben. Über die Hälfte aller Firmen hat weniger als 500 Mitarbeiter und
erzielt weniger als 100 Mio. Euro Umsatz, wobei allein die kleinste Größenklasse mit bis
zu 50 Mitarbeitern und bis zu 10 Mio. Euro Umsatz schon fast ein Drittel der Stichprobe
konstituiert.
Anzahl 50
Unternehmen
40
30
20
10
0
0 50 500 5.000 grösser Anzahl
bis bis bis bis als Mitarbeiter
50 500 5.000 50.000 50.000
Anzahl 50
Unternehmen
40
30
20
10
0
0 10 100 1.000 grösser Umsatz in
bis bis bis bis als Mio. EURO
10 100 1.000 10.000 10.000
Das zentrale Ziel der Datenauswertung ist die empirische Überprüfung der im letzten Ab-
schnitt zusammengefassten Hypothesen. Hierzu sind zwei Schritte notwendig: Zunächst
müssen die theoretischen Konstrukte des Bezugsrahmens, bei denen es sich um latente
(nicht direkt beobachtbare) Variablen handelt, empirisch greifbar, d. h. messbar gemacht
werden. Erst im Anschluss daran können die Wirkungszusammenhänge zwischen den la-
tenten Variablen untersucht werden. In beiden Schritten wird bei der statistischen Analyse
auf Strukturgleichungsmodelle mit latenten Variablen zurückgegriffen, deren Erläuterung
im Mittelpunkt dieses Kapitels steht. Der folgende Abschnitt enthält dementsprechend
zunächst eine kurze Einführung zu latenten Variablen und Strukturgleichungsmodellen
, bevor in Abschnitt 8.2 auf die Anwendung exploratorischer Faktorenanalysen in der
ersten Stufe der Messung latenter Variablen eingegangen wird. In den Abschnitten 8.3
und 8.4 werden die Grundlagen und Anpassungsmaße des weit verbreiteten Struktur-
gleichungsmodells LISREL erläutert. Abschnitt 8.5 behandelt die Konstruktmessung im
Rahmen von Strukturgleichungsmodellen, wobei zunächst die Unterscheidung zwischen
reflexiven und formativen Konstrukten erläutert wird, bevor näher auf die Abbildung von
reflexiven, formativen und multidimensionalen Messmodellen eingegangen wird. Die ei-
gentliche Überprüfung der Wirkungszusammenhänge im Pfadmodell wird schließlich in
Abschnitt 8.6 behandelt, wobei nach einem kurzen Überblick insbesondere auf die Ana-
lyse von Alternativmodellen mittels des Veripath-Algorithmus und die Abbildung von
Moderatormodellen eingegangen wird.
Latente Variablen Unter latenten Variablen versteht man Größen, die zwar Eingang
in – zumeist sozialwissenschaftliche – Modelle finden, sich jedoch nicht direkt einer empi-
risch ermittelten Datenbasis entnehmen lassen. Sie werden alternativ auch als Konstrukte,
170 8. Methodik der Datenauswertung
Faktoren, unbeobachtete Variablen oder True Scores bezeichnet.1 Vergleicht man unter-
schiedliche Definitionen von latenten Variablen, so lassen sich zumindest drei Aspekte
feststellen, die häufig diskutiert werden.2 Zunächst stellen verschiedene Definitionen auf
den Umstand der Unbeobachtbarkeit ab, heben also hervor, dass latente Variablen nicht
direkt beobachtbar oder messbar sind.3 An zweiter Stelle wird häufig die Frage erörtert,
ob es sich bei latenten Variablen um reale Größen oder aber vielmehr um imaginäre,
hypothetische“ Gebilde handelt. Der letzteren Sichtweise folgen beispielsweise Edwards
”
und Bagozzi (2000, S. 156f.), für die Konstrukte nicht real sind, sondern nur den Versuch
darstellen, reale Phänomene zu erfassen. Ähnlich kennzeichnen Bentler (1980, S. 420) und
Nunnally (1978, S. 96) Konstrukte als etwas, das Wissenschaftler nur in ihrer Vorstellung
entwickeln. Drittens werden latente Variablen häufig als Instrumente der Datenreduktion
beschrieben, die eine Reihe von Variablen zu einer geringeren Zahl von Faktoren verdich-
ten.4 Hier wird also vor allem die deskriptive Funktion latenter Variablen betont, weniger
die theoretischen Überlegungen, die der Wissenschaftler vor der Datenerhebung anstellt.
Um eine latente Variable empirisch greifbar zu machen, muss zunächst geklärt wer-
den, welche Dimensionen sie hat, d. h. welche theoretischen Aspekte eines bestimmten
Gegenstandsbereiches das hinter ihr stehende Konzept umfasst. Diese Erarbeitung der
Konstruktdimensionen bezeichnet man als Konzeptspezifikation oder – in Anlehnung an
das Englische – als Konzeptualisierung.5 Aufbauend auf den hypothetischen Konstruktdi-
mensionen ist im nächsten Schritt ein Mess-System aus manifesten Variablen bzw. Indi-
katoren zu entwickeln, das der Operationalisierung des hypothetischen Konstrukts dient.
Als Indikatoren bezeichnet man dabei direkt messbare Sachverhalte, die das Vorliegen
der gemeinten, aber nicht direkt erfassbaren Phänomene anzeigen.6 Das grundlegende
Ziel des Messens latenter Variablen ist es also, den beobachteten Wert des Meßinstru-
ments möglichst nah an den wahren“ der latenten Variable anzugleichen. Dieses Ziel
”
wird kaum jemals vollständig zu erreichen sein, da sich die beobachteten Werte aufgrund
von systematischen und Zufallsfehlern von den wahren“ Werten unterscheiden werden.7
”
1
Bagozzi und Phillips (1982), S. 45; Bollen (2002), S. 607.
2
Bollen (2002), S. 607f.
3
So beispielsweise Jöreskog und Sörbom (1979).
4
Harman (1978), S. 4.
5
Homburg und Giering (1996), S. 5.
6
Backhaus et al. (2000), S. 393.
7
Churchill (1979), S. 65.
8.1. Strukturgleichungsmodelle mit latenten Variablen 171
8
MacCallum und Austin (2000), S. 202.
9
Bollen (1989), S. 11; McDonald und Ho (2002), S. 65.
10
Gegenwärtige Anwendung: Williams et al. (2003), Steenkamp und van Trijp (1991), Steenkamp und
Baumgartner (2000), Hershberger (2003), Shook et al. (im Druck), Hulland et al. (1996), Medsker
et al. (1994), MacCallum und Austin (2000), McDonald und Ho (2002), Baumgartner und Homburg
(1996).
11
Jöreskog (1973); Keesling (1972); Wiley (1973).
12
Bollen (1989), S. 8; Browne (1982), S. 120; McDonald und Ho (2002), S. 64.
172 8. Methodik der Datenauswertung
13
Bollen (2000), S. 74; Fornell und Yi (1992), S. 292.
14
Anderson und Gerbing (1988), S. 411; Lance et al. (1988), S. 171.
15
Burt (1976), S. 4.
16
Anderson und Gerbing (1988), S. 418.
17
Kumar und Dillon (1987), S. 103f.; Lance et al. (1988), S. 173; MacCallum (1986), S. 110.
8.1. Strukturgleichungsmodelle mit latenten Variablen 173
Obwohl die sukzessive Analyse von Mess- und Pfadmodell nach wie vor nicht unum-
18
Burt (1976), S. 17f.
19
Zwei ineinander geschachtelte Modelle entstehen dadurch, dass man an ein uneingeschränktes Mo-
dell Mu Restriktionen stellt, aus denen ein eingeschränktes Modell Me hervorgeht mit dfe > dfu
Freiheitsgraden.
20
Steiger et al. (1985) haben gezeigt, dass die χ2 -Differenztests beim Übergang vom allgemeineren
zum spezifischeren Modell voneinander unabhängig sind, dass es also statistisch angemessen ist, die
mit den jeweils auferlegten Einschränkungen verbundenen Nullhypothesen zu überprüfen. Vgl. auch
Bentler (2000), S. 83.
21
Die Untersuchung dieses Modells kann entweder mit einem Programm zur Kovarianzstrukturanalyse
(z.B. LISREL) erfolgen oder aber mit einem Programm zur exploratorischen Faktorenanalyse, dem
sich Werte für die χ2 -Teststatistik entnehmen lassen, so z.B. mit dem Programm CEFA von Browne
et al. (1998), das unter http://quantrm2.psy.ohio-state.edu/browne/software.htm heruntergeladen
werden kann.
22
Eine ausführlichere Darstellung der Vier-Schritt-Prozedur findet sich bei Mulaik und Millsap (2000),
S. 43-52.
174 8. Methodik der Datenauswertung
stritten ist,23 wird sie in einer Vielzahl von Veröffentlichung eingesetzt und von Exper-
ten auf dem Gebiet der Strukturgleichungsmodellierung empfohlen, so beispielsweise von
Bentler (2000, S. 86) und Jöreskog (1993, S. 297). Dementsprechend werden in der vorlie-
genden Arbeit zunächst exploratorische Faktorenanalysen zur Überprüfung und eventuel-
len Bereinigung der Itemstrukturen durchgeführt, wobei entweder jeweils die Dimensionen
eines komplexen Konstrukts oder aber ein Aggregat inhaltlich verwandter Konstrukte si-
multan untersucht wird (vgl. Abschnitt 8.2). Im zweiten Schritt werden konfirmatorische
Faktorenanalysen zunächst für alle Konstrukte separat, dann für das gesamte Messmodell
parallel vorgenommen, um die Messung auf Reliabilität und Validität hin zu untersuchen
(vgl. Abschnitt 8.5). In den Schritten drei und vier werden dann – wie oben angedeutet
– das Basismodell der vorliegenden Arbeit sowie mögliche Alternativmodelle analysiert
(vgl. Abschnitt 8.6).
Im Rahmen von Faktorenanalysen werden latente Variablen identifiziert, die die beob-
achteten Kovarianzen der manifesten Variablen erklären. Dabei werden die Varianzen
der manifesten Variablen in einen Anteil zerlegt, den sie gemeinsam mit allen anderen
Variablen haben (common variance), und eine sog. Einzelrestvarianz, die spezifisch für
die jeweilige manifeste Variable ist (unique oder specific variance). Beide Varianztypen
werden separat geschätzt, wobei der Schätzwert für die von den gemeinsamen Faktoren
erklärte Varianz einer beobachteten Variable als deren Kommunalität bezeichnet wird
und die durch die spezifischen Faktoren bedingte Varianz sich aus tatsächlich variablen-
spezifischer Varianz und Messfehlern zusammensetzt.24 Die Zerlegung in gemeinsame und
spezifische Varianz kommt in der Grundgleichung der Faktorenanalyse zum Ausdruck,
die auch Bestandteil des LISREL-Modells ist und unten in Gleichung (8.3.11) abgeleitet
wird. Die folgenden Absätze gehen kurz auf die im Rahmen von Faktorenanalysen zu
beachtenden Punkte und zu treffenden Entscheidungen ein und erläutern das Vorgehen
im Rahmen der vorliegenden Untersuchung. Die Ausführungen orientieren sich dabei an
einer Reihe aktueller Übersichtsartikel zu diesem Themenbereich.25
23
Die prominenteste Kritik wurde von Fornell und Yi (1992) sowie Hayduk und Glaser (2000) vorge-
bracht, bezieht sich jedoch z. T. auf eher periphere Aspekte der jeweils kritisierten Veröffentlichungen.
Darüberhinaus konnten einzelne Kritikpunkte später widerlegt werden, vgl. hierzu u. a. Anderson und
Gerbing (1992), Herting und Costner (2000) und Mulaik und Millsap (2000).
24
Fabrigar et al. (1999), S. 275; Hair et al. (1998), S. 102.
25
Vgl. v. a. die Veröffentlichungen Fabrigar et al. (1999), Floyd und Widaman (1995), Ford et al. (1986),
Gorsuch (1997), Hurley et al. (1997) sowie Preacher und MacCallum (2003).
8.2. Exploratorische Faktorenanalysen 175
26
Hair et al. (1998), S. 99.
27
Mittelwert und Varianz einer Verteilung werden auch als Momente erster und zweiter Ordnung be-
zeichnet. Im Falle einer Normalverteilung nehmen die standardisierten Momente dritter und vierter
Ordnung die Werte 0 bzw. 3 an. Zur vereinfachten Interpretation subtrahieren allerdings manche
Softwarepakete (u. a. das in LISREL integrierte Data-Screening-Tool PRELIS) den Wert 3 vom stan-
dardisierten Moment vierter Ordnung, so dass die Kurtosis einer Normalverteilung hier Null beträgt.
Vgl. West et al. (1995), S. 60.
28
DeCarlo (1997), S. 296.
29
Bollen (1989), S. 423f.; Mardia (1970), S. 519ff.; Rencher (2002), S. 98f.
176 8. Methodik der Datenauswertung
Beobachtungen pro analysierter Variable bei einer Stichprobengröße über 100 genannt.30
Um die Eignung der beobachteten Korrelationsmatrix für eine Faktorenanalyse zu
überprüfen, sind eine Reihe von Kriterien entwickelt worden, die auf jeweils unterschied-
liche Art das Niveau der Korrelationskoeffizienten beurteilen. Zunächst sollten höchstens
25 Prozent der Außerdiagonalelemente der Anti-Image-Kovarianzmatrix größer als 0,1
sein.31 Zur Präzisierung dieser Faustregel haben Kaiser, Mayer und Olkin eine Prüfgröße
entwickelt, die nach ihnen als Kaiser-Mayer-Olkin-Maß (KMO) bezeichnet wird.32 Der
Wertebereich dieser Größe liegt zwischen 0 und 1, wobei Werte größer als 0,8 als erstre-
benswert angesehen werden.33 Dabei ist jedoch zu beachten, dass der KMO nicht nur mit
der durchschnittlichen Korrelationshöhe steigt, sondern auch mit der Anzahl der beobach-
teten Variablen, der Anzahl der extrahierten Faktoren sowie der Stichprobengröße. Daher
empfiehlt es sich, zunächst ein ähnliches Maß, den MSA (Measure of Sampling Adequacy)
jeweils für die einzelnen Variablen zu berechnen und diejenigen Variablen mit einem in-
akzeptabel niedrigen Wert (beispielsweise kleiner als 0,5) zu eliminieren, bevor der KMO
für die gesamte Faktorenanalyse interpretiert wird.34 Als weiteres Kriterium kann der
Bartlett Test of Sphericity herangezogen werden, der die Nullhypothese überprüft, dass
die Stichprobe aus einer Grundgesamtheit stammt, in der die Variablen unkorreliert sind.
Unter der Voraussetzung, dass die analysierten Daten einer Normalverteilung folgen, ist
die entsprechende Prüfgröße χ2 -verteilt, wobei (1 − p) die Wahrscheinlichkeit angibt, dass
die Korrelationsmatrix signifikante Korrelationen enthält.35
30
Floyd und Widaman (1995), S. 5; Hair et al. (1998), S. 98f.; MacCallum et al. (1999); Velicer und
Fava (1998).
31
Das Anti-Image bezeichnet in der Anti-Image-Analyse von Guttmann (1953) den Anteil der Varianz
einer Variablen, der sich im Rahmen einer multiplen Regressionsanalyse als unabhängig von den
übrigen Variablen erweist. Vgl. Backhaus et al. (2000), S. 268.
32
2
2
Dieses Maß berechnet sich nach der Formel KMO = ( i=j rij )/( i=j rij + i=j a2ij ), wobei rij den
einfachen Korrelationskeffizienten zwischen der Variablen i und j bezeichnet sowie aij den partiellen
Korrelationskoeffizienten.
33
Vgl. Kaiser (1970), S. 405 und Kaiser (1974), S. 111ff.
34
Hair et al. (1998), S. 98f. Der MSA der i-ten Variable berechnet sich analog zum KMO, wobei jedoch
nur über den Index j (für alle j = i) summiert wird. SPSS gibt die MSA-Werte in der Hauptdiagonale
der Anti-Image Korrelationsmatrix aus.
35
Backhaus et al. (2000), S. 268.
36
Vgl. u. a. Velicer und Jackson (1990), Widaman (1993).
8.2. Exploratorische Faktorenanalysen 177
nig spezische Varianz enthalten, und wählt als Startwerte für die iterative Kommuna-
litätenschätzung daher immer den Wert Eins.37 Bei der eigentlichen Faktorenanalyse
wird die Varianz einer Variablen dagegen immer in Kommunalität und Einzelrestva-
rianz aufgeteilt und Startwerte für die Kommunalitäten kleiner als Eins vorgegeben,
um in der anschließenden Iteration tatsächlich nur die gemeinsame Varianz zu erklären.
Während das Ziel einer Hauptkomponentenanalyse also vor allem in einer möglichst
vollständigen Datenreproduktion bzw. Varianzerklärung ohne kausale Interpretation der
Hauptkomponenten liegt, ist es die Aufgabe der eigentlichen Faktorenanalyse, in Situa-
tionen, bei denen von signifikanten spezifischen Varianzanteilen auszugehen ist, latente
Variablen zu identfizieren, die als kausale Einflussfaktoren für die manifesten Variablen
interpretiert werden können.38 Da in der vorliegenden Arbeit überwiegend die Identifika-
tion tatsächlicher latenter Variablen im Vordergrund steht, werden für alle Konstrukte
zunächst Maximum-Likelihood-Faktoranalysen39 gerechnet und im Anschluß mit den
Ergebnissen der häufiger eingesetzten Hauptkomponentenanalyse verglichen. Auf die
Hauptkomponentenanalyse soll unter anderem aus dem Grunde nicht verzichtet wer-
den, dass bei der ML-Faktorenanalyse häufig Heywood-Fälle40 auftreten können, die die
Interpretation des resultierenden Modells nur eingeschränkt zulassen.
Zahl der Faktoren Für die Bestimmung der Zahl der zu extrahierenden Faktoren
existieren keine objektiven Kriterien, vielmehr kommt es darauf an, die richtige Balance
zwischen statistischer Sparsamkeit (wenige Faktoren) und Plausibilität (adäquate Varian-
zerklärung) des Modells zu erreichen.41 Dabei zeigen Studien, dass durch die Extraktion
einer zu geringen Faktorenzahl (Underfactoring) tendenziell schwerwiegendere Verzerrun-
37
Werden ebenso viele Faktoren wie Variablen extrahiert, so werden die Kommunalitäten von Eins
auch immer vollständig reproduziert, während sich bei einer geringeren Zahl extrahierter Faktoren
auch bei der Hauptkomponentenanalyse ein nicht erklärter Varianzanteil ergibt, der jedoch eher als
Informationsverlust denn als Einzelrestvarianz zu interpretieren ist. Vgl. Backhaus et al. (2000), S.
284ff.
38
Backhaus et al. (2000), S. 285f.; Hair et al. (1998), S. 102.
39
ML-Faktorenanalysen haben gegenüber anderen Typen der exploratorischen Faktorenanalyse den
Vorteil, dass für sie die aus LISREL bekannten Fitindizes berechnet werden können, setzen aller-
dings die Überprüfung der Normalverteilungsannahmen voraus, vgl. Fabrigar et al. (1999), S. 283.
Weiterhin sind sie bei der Identifikation schwacher Faktoren weniger zuverlässig als Kleinstquadrate-
Faktorenanalysen, vgl. Briggs und MacCallum (2003), S. 36ff.
40
Ein Heywood-Fall liegt dann vor, wenn die Kommunalität einer gemessenen Variable als größer oder
gleich Eins geschätzt wird. Da nicht mehr als 100 Prozent der Varianz einer Variablen erklärt werden
können, ist eine solche Schätzung problematisch. Die Tatsache, dass solche Fälle mitunter bei ML-
Faktorenanalysen auftreten, ist nicht notwendigerweise als Nachteil ggü. Hauptkomponentenanalysen
zu werten, da sie auf potentielle Fehlspezifikationen oder Verletzungen der Verteilungsannahmen
hindeuten können und damit einen diagnostischen Wert haben, vgl. Fabrigar et al. (1999), S. 275f.
41
Fabrigar et al. (1999), S. 277.
178 8. Methodik der Datenauswertung
gen in den Faktorladungsmustern enstehen als durch die Extraktion zu vieler Faktoren
(Overfactoring).42 Die vielleicht am weitesten verbreitete Heuristik zur Bestimmung der
Faktorenzahl, das sog. Kaiser-Kriterium, bestimmt, wieviele Eigenwerte der Korrelati-
onsmatrix größer als Eins sind, und extrahiert die entsprechende Anzahl an Faktoren.
Ein Eigenwert ist dabei genau die Summe der quadrierten Ladungen aller Variablen auf
den jeweiligen Faktor.43 In Hinblick auf dieses Kriterium ist kritisiert worden, dass der
Wert Eins eine beliebige Grenze darstellt und ein Faktor mit dem Eigenwert 0,99 prak-
tisch den gleichen Erklärungswert besitzt wie einer mit dem Eigenwert 1,01. Weiterhin
zeigen Simulationsstudien, dass das Kaiser-Kriterium bei einer Betrachtung von weni-
ger als 20 Variablen tendenziell zu wenige Faktoren extrahiert (Underfactoring).44 Daher
wird in der vorliegenden Arbeit zusätzlich auch immer der Scree-Plot betrachtet, bei dem
die Eigenwerte in absteigender Reihenfolge grafisch dargestellt werden und die Zahl der
zu extrahierenden Faktoren aus der Position desjenigen Eigenwertes bestimmt wird, der
nach dem letzten steilen Abfall der Kurve den Übergang in eine Asymptote zur Abszisse
kennzeichnet. Hiernach ist meistens ein Faktor mehr als nach dem Kaiser-Kriterium zu
extrahieren.45 Dieses Kriterium ist wiederum v. a. von Kaiser (1970) wegen seiner Sub-
jektivität hinsichtlich der Identifikation eines wirklich steilen“ Abfalles kritisiert worden.
”
Simulationsstudien zeigen jedoch, dass das Verfahren bei der Präsenz starker Faktoren gut
funktioniert.46 Da es sich bei exploratorischen Faktorenanalysen um einen Spezialfall von
Strukturgleichungsmodellen mit latenten Variablen handelt, kann schließlich neuerdings
in verschiedenen Software-Implementationen47 auch auf die LISREL-typischen Fitmaße
zurückgegriffen werden, um die Anpassungsgüte unterschiedlicher Faktorlösungen mit der
empirischen Korrelationsmatrix zu überprüfen. Für die Analysen in Kapitel 9 wird auf
den RMSEA und den χ2 -Wert der ML-Faktorenanalyse zurückgegriffen.
Wahl der Rotationsmethode Ziel der Faktorration ist es, durch Rotation der Koordi-
natenachsen eine sog. Einfachstruktur sichtbar zu machen, bei der die Variablen möglichst
42
Fava und Velicer (1992); Wood et al. (1996).
43
Gorsuch (1983), S. 97f. Der Eigenwert ist damit von der Kommunalität zu unterscheiden, die sich als
Summe der quadrierten Ladungen aller Faktoren auf jeweils eine Variable errechnet.
44
Hair et al. (1998), S. 103f.
45
Backhaus et al. (2000), S. 289; Hair et al. (1998), S. 104.
46
Fabrigar et al. (1999), S. 279.
47
So bei dem kostenlos erhältlichen Programm CEFA (Browne et al., 1998) und dem unter
http://koko15.hus.osaka-u.ac.jp/∼harada/factor/stepwise/ zugänglichen Webtool, das von Kano und
Harada (2000) beschrieben wird.
8.2. Exploratorische Faktorenanalysen 179
immer nur auf einen Faktor hoch und auf alle anderen Faktoren niedrig laden.48 Je nach
Wahl des neuen Koordinatensystems unterscheidet man dabei orthogonale (rechtwink-
lige) Rotationen, bei denen die Faktoren untereinander nicht korrelieren, und oblique
(schiefwinklige) Rotationen, bei denen eine Korrelation zwischen den Faktoren zugelassen
wird. Während in der Vergangenheit häufig die Verwendung orthogonaler Rotationsme-
thoden empfohlen wurde, setzt sich mittlerweile zunehmend die Meinung durch, dass die
Verwendung obliquer Rotationen im Allgemeinen angebrachter ist.49 So ist es für viele so-
zialwissenschaftliche Konstrukte typisch, dass ihre Dimensionen sowohl untereinander als
auch mit anderen Konstrukten deutliche Korrelationen aufweisen und daher durch eine
schiefwinklige Faktorlösung besser repräsentiert werden. Die Faktorkorrelationen können
wichtige Hinweise darauf geben, ob das Konstrukt sinnvoll durch einen Faktor höherer
Ordnung erfasst werden kann. Selbst für den Fall unkorrelierter Konstrukte liefern oblique
Rotationen Lösungen, die den orthogonalen sehr ähnlich sind und Faktorkorrelationen na-
he Null aufweisen.50 In Kapitel 9 wird daher die oblique Promax-Rotation in Verbindung
mit der ML-Faktorenanalyse eingesetzt und die Ergebnisse mit denen der häufig verwende-
ten Little-Jiffy 51 -Kombination, also einer Hauptkomponentenanalyse mit anschließender
orthogonaler Varimax-Rotation, verglichen.
48
Preacher und MacCallum (2003), S. 25. Die Definition der Einfachstruktur geht auf Thurstone (1947,
S. 328ff.) zurück: Danach liegt eine Einfachstruktur dann vor, wenn durch Rotation fast alle oder sehr
viele Variablenvektoren in oder nahe an die Koordinatenhyperebenen gebracht werden können. Da die
Konfiguration der Variablenvektoren im gemeinsamen Faktorenraum durch die Korrelationsmatrix
bestimmt wird, handelt es sich bei der Einfachstruktur also um eine Eigenschaft des Datenkörpers.
Vgl. auch Harman (1978), S. 99 und Ueberla (1968), S. 183.
49
Fabrigar et al. (1999), S. 281.
50
Fabrigar et al. (1999), S. 281.
51
Kaiser (1970).
52
Faktorladungen berechnen sich als Korrelation zwischen der Originalvariable und dem Faktor.
53
Vgl. Hair et al. (1998), Tabelle 3.2, S. 112.
54
Kano und Harada (2000), S. 7.
180 8. Methodik der Datenauswertung
werden. Eliminationskandidaten sind danach zunächst Variablen, die entweder auf meh-
rere Faktoren gleichzeitig oder auf keinen der Faktoren stark laden. Desweiteren wird oft
die Höhe der Kommunalitäten als Kriterium zur Variablenselektion herangezogen: Sie
sollten zumindest über 0,5 liegen, da ansonsten die extrahierten Faktoren weniger als 50
Prozent der Variablenvarianz erklären.55 Kano und Harada (2000) heben jedoch hervor,
dass auch Variablen mit niedrigen Kommunalitäten vollständig mit den Daten verträglich
sein können und ihre Elimination daher nicht zu einer Verbesserung der Anpassungsgüte
führen würde. Vor diesem Hintergrund haben sie eine Teststatistik entwickelt, die auf dem
Lagrange-Multiplikatoren-Test56 basiert und im Rahmen einer schrittweisen Variablen-
selektion die Änderung der Modellanpassung in Form des erwarteten neuen χ2 -Wertes
angibt, der aus der Elimination jeweils einer Variablen resultiert. Damit ist ein effizien-
tes Verfahren implementiert, mit dem sich unmittelbar diejenige Variable identifizieren
lässt, deren Ausschluss zur größten Verbesserung der Anpassungsgüte führt, ohne dass
dafür die Evaluation sämtlicher alternativer Faktormodelle mit reduzierter Variablenzahl
notwendig wäre.57
In den folgenden Absätzen werden kurz die Grundgleichungen und -annahmen des
LISREL-Modells vorgestellt, soweit sie für das Verständnis der weiteren Arbeit, ins-
besondere der Abschnitte 8.5.2 und 8.6, erforderlich sind. Die Ausführungen orientieren
sich dabei an den Darstellungen bei Bollen (1989, S. 13ff. und 319ff.), Browne und
Arminger (1995, S. 205ff.) und Fahrmeir et al. (1996, S. 732ff.).
Dabei ist B die m × m Matrix mit den Regressionsgewichten bzw. Pfadkoeffizienten der
endogenen auf die endogenen Variablen. Die Hauptdiagonalelemente dieser Matrix sind
immer gleich Null, da angenommen werden kann, dass eine Variable nicht unmittelbare,
instantane Ursache ihrer selbst ist.58 Γ ist die n × n Matrix mit den Pfadkoeffizienten, die
die Wirkung der exogenen auf die endogenen Variablen messen, und ζ ist ein m × 1 Zu-
55
Hair et al. (1998), S. 113.
56
Buse (1982), S. 155ff.
57
Kano und Harada (2000), S. 7.
58
Bollen (1989), S. 15.
8.3. Grundlagen des LISREL-Modells 181
fallsvektor, der sowohl zufällige Störungen als auch Fehlspezifikationen in den Gleichungen
abbildet. Da die latenten Variablen η und ξ als intervallskaliert vorausgesetzt und nicht
beobachtbar sind, ist ihr Nullpunkt noch frei wählbar.59 Deshalb wird ohne Beschränkung
der Allgemeinheit angenommen, dass sie den Erwartungswert Null besitzen,
Über die Störvariablen ζ wird angenommen, dass die den Erwartungswert Null besitzen
und mit den unabhängigen Variablen ξ unkorreliert sind,
Untereinander dürfen die Störvariablen aber korrelieren und bilden eine symmetrische
Kovarianzmatrix Ψ,
Ψ = cov(ζ, ζ) = E(ζζ ) . (8.3.4)
Schließlich wird angenommen, dass (I − B) regulär ist, so dass (I − B)−1 existiert und
Gleichung (8.3.1) in die reduzierte Form umgeformt werden kann, bei der η nur auf der
linken Seite der Gleichung auftritt,
η = (I − B)−1 (Γ ξ + ζ) . (8.3.5)
Messmodell Da die Vektoren η und ξ nicht beobachtbar sind, müssen sie durch ma-
nifeste Zufallsvariablen y und x operationalisiert werden. Dabei ist y der p × 1 Vektor
der Indikatoren endogener Variablen und x der q × 1 Vektor der Indikatoren exogener
Variablen, die über den folgenden faktoranalytischen Ansatz mit den latenten Variablen
verknüpft sind:
y = Λy η + (8.3.6)
x = Λx ξ + δ (8.3.7)
Die p × m Matrix Λy und die q × n Matrix Λx enthalten die Ladungen der manifesten auf
die latenten Variablen. Die Zufallsvariablen und δ repräsentieren die in den manifesten
Variablen y und x enthaltenen Messfehler. Die Gleichungsstruktur setzt dabei implizit
voraus, dass die y-Variablen nicht auf die ξ-Faktoren und die x-Variablen nicht auf die
η-Faktoren laden. Weiterhin wird angenommen, dass die Fehlervariablen des Messmodells
59
Fahrmeir et al. (1996), S. 733.
182 8. Methodik der Datenauswertung
den Erwartungswert Null besitzen, dass sie mit den latenten Variablen unkorreliert sind
und dass sie mit den Fehlervariablen des Pfadmodells unkorreliert sind,
Dagegen dürfen die Messfehler selbst aber korrelieren und symmetrische Kovarianzmatri-
zen bilden, die im Gegensatz zum klassischen faktorenanalytischen Modell nicht notwen-
digerweise diagonal sein müssen,
Θ = cov(, ) = E( )
(8.3.9)
Θδ = cov(δ, δ) = E(δδ ) .
Kovarianzstruktur In den Gleichungen (8.3.1), (8.3.6) und (8.3.7) sind die un-
abhängigen Variablen jeweils nicht beobachtbar. Ähnlich wie beim faktorenanalytischen
Modell können daher auch beim LISREL-Modell die Modellparameter nicht direkt da-
durch geschätzt werden, dass die Beobachtungen der abhängigen Variablen auf die zu-
gehörigen Beobachtungen der unabhängigen regressiert werden.60 Stattdessen betrachtet
man Σ(θ), die Kovarianzmatrix des Vektors aller beobachteten Variablen in Abhängigkeit
vom Vektor aller unbekannten Modellparameter:61
⎡ ⎤
⎢Σyy (θ) Σyx (θ)⎥
⎢ ⎥
Σ(θ) = ⎢
⎢
⎥
⎥ (8.3.10)
⎣ ⎦
Σxy (θ) Σxx (θ)
⎡ ⎤
⎢Λy (I − B)−1 (ΓΦΓ + Ψ) [(I − B)−1 ] Λ + Θ Λy (I − B)−1 ΓΦΛ ⎥
⎢ y x⎥
= ⎢
⎢
⎥
⎥
⎣ ⎦
Λx ΦΓ [(I − B)−1 ] Λ
y
Λx ΦΛx + Θδ .
Dabei ist die Matrix Σxy (θ) im linken unteren Quadranten dieser Gleichung die Trans-
ponierte der Matrix Σyx (θ) im rechten oberen Quadranten. Die Teilmatrizen lassen sich
unter Verwendung der Rechenregeln für Erwartungswerte und Kovarianzen sowie der Glei-
60
Fahrmeir et al. (1996), S. 738.
61
Bollen (1989), S. 323ff.; Hayduk (1987), S. 106ff.
8.3. Grundlagen des LISREL-Modells 183
chungen (8.3.1) bis (8.3.9) herleiten,62 wie das folgende Beispiel illustriert:
Σxx (θ) = E xx
= E (Λx ξ + δ) ξ Λ
x +δ
(8.3.11)
= Λx E ξξ Λx + E δδ
= Λx ΦΛ
x + Θδ
Diese Umformung zeigt unter anderem, wie die Fehlervariablen δ in die Kovarianzmatrix
der Fehler Θδ übergehen, weiterhin wurde das neue Symbol Φ für die Kovarianzmatrix der
exogenen latenten Variablen eingeführt. Gleichung (8.3.11) wird auch als Grundgleichung
der Faktorenanalyse bezeichnet und spiegelt die Zerlegung der Varianz der manifesten
Variablen in gemeinsame und Einzelrestvarianz wider für den allgemeinen Fall, dass die
Faktoren korrelieren und eine Varianz ungleich Eins besitzen können.63
Die oben erläuterten Annahmen des LISREL-Modells führen zu einer vergleichsweise
strengen Struktur, die durch acht Matrizen vollständig spezifiziert werden kann.64 Vier
dieser Matrizen enthalten Regressionsgewichte: Λy und Λx die Ladungen manifester Varia-
blen auf die endogenen bzw. exogenen Faktoren, B die Regressionsgewichte der endogenen
auf die endogenen Faktoren und Γ die Regressionsgewichte der endogenen auf die exo-
genen Faktoren. Zusätzlich müssen vier Kovarianzmatrizen spezifiziert werden: Φ ist die
Kovarianzmatrix der exogenen Faktoren, Ψ die Kovarianzmatrix der Regressionsfehler;
Θδ und Θ sind die Kovarianzmatrizen der zu den exogenen bzw. endogenen Faktoren
gehörenden Fehlervariablen.
Wahl der Fitfunktion Für die Messung des Anpassungsgrads zwischen einer theo-
retischen Kovarianzmatrix Σ(θ) und der zugehörigen empirischen Kovarianzmatrix S
werden in der Literatur verschiedene Diskrepanzfunktionen F (S, Σ(θ)) vorgeschlagen.
Diese Diskrepanzfunktionen erfüllen drei Eigenschaften: (1) Sie sind nichtnegativ, (2) sie
nehmen den Wert Null genau dann an, wenn eine perfekte Anpassung S = Σ(θ) vor-
für
liegt, und (3) sie sind zweimal stetig differenzierbar in S und Σ(θ). Schätzwerte θ
die Modellparameter eines LISREL-Modells enthält man dadurch, dass man eine Dis-
62
Vgl. die ausführlichen Darstellungen bei Bollen (1989), S. 323ff. und Hayduk (1987), S. 106ff.
63
Lawley und Maxwell (1971), S. 13.
64
Browne und Arminger (1995), S. 206. Diese Struktur wird von einigen Forschern als zu rigide empfun-
den. So weist u. a. Bentler (2000), S. 85 darauf hin, dass es in der Praxis durchaus der Fall sein kann,
dass eine manifeste Variable einen direkten Einfluss auf eine andere manifeste Variable hat oder dass
die Fehlervariable einer manifesten Variable mit dem Regressionsfehler des ihr zugeordneten Faktors
korreliert. Solche Effekte lassen sich in LISREL nur über bestimmte Modellierungstricks“ abbilden,
”
fügen sich jedoch natürlich in das von Bentler und Weeks (1980) vorgeschlagene EQS Modell ein, in
dem sich beliebige Modellvariablen gegenseitig beeinflussen können.
184 8. Methodik der Datenauswertung
FML (S, Σ(θ)) = ln Σ(θ) + Sp S Σ−1 (θ) − ln S − (p + q) . (8.3.12)
Wenn das hypothetisierte Modell korrekt spezifiziert ist und die manifesten Variablen
multivariat normalverteilt sind, lässt sich analytisch zeigen, dass die unterschiedlichen
Schätzprozeduren gegen dasselbe Optimum konvergieren und ähnliche asymptotische Ei-
genschaften haben.66 Unter Idealbedingungen ist die Wahl der Diskrepanzfunktion also
beliebig. Da diese jedoch in der Realität nur selten vorliegen, stellt sich die berechtigte Fra-
ge, welche der Prozeduren sich unter bestimmten Bedingungen als vorteilhaft gegenüber
den anderen erweist. Zur Beantwortung dieser Frage sind eine Reihe von Untersuchungen
durchgeführt worden, die im wesentlichen zeigen, dass ML bei fehlspezifizierten Model-
len realistischere globale Anpassungsmaße produziert als GLS. Dagegen ist WLS nur in
den seltensten Fällen vorzuziehen und liefert nur bei sehr großen Fallzahlen ( 1.000)
Anpassungsmaße, die denen der anderen Methoden nahe kommen.67
Festlegung der Skalen Ein LISREL-Modell ist erst dann vollständig spezifiziert, wenn
für alle latenten Variablen eine Maßeinheit fixiert wurde.68 Eine Möglichkeit der Skalenfi-
xierung besteht darin, dass man die Maßeinheit der latenten Variable gleich der eines sog.
Referenzindikators setzt, dass man also in jeder der Ladungsmatrizen Λx und Λy genau ein
Element auf Eins fixiert.69 Die zu einer bestimmten Spalte einer Ladungsmatrix gehörende
latente Variable besitzt dann genau die gleiche Maßeinheit wie der Referenzindikator, in
dessen Zeile das Spaltenelement gleich Eins gesetzt wurde.70 Die zweite Möglichkeit zur
Skalenfixierung besteht darin, dass man die Varianzen der latenten Variablen auf Eins
fixiert. Dadurch entfällt die Notwendigkeit, Parameter in den Λ-Matrizen zu fixieren, und
alle Faktorladungen können frei geschätzt werden. Diese Lösung wird von LISREL ab
Version 8.0 automatisch realisiert, falls vom Benutzer keine der Faktorladungen fixiert
65
Fahrmeir et al. (1996), S. 746.
66
Browne (1982).
67
Curran et al. (1996), S. 20ff.; Olsson et al. (2000), S. 577ff. Vergleiche hierzu auch die Ausführungen
zu inferenzstatistischen Anpassungsmaßen im nächsten Abschnitt.
68
Long (1983), S. 49ff.
69
Marsh und Hocevar (1985), S. 566.
70
Bollen (1989), S. 183.
8.4. Gütebeurteilung von LISREL-Modellen 185
wurde.71
Im Anschluss an die Parameterschätzung stellt sich die Frage, inwieweit das spezifizierte
Modell geeignet ist, um die Assoziation zwischen den beobachteten Variablen zu beschrei-
ben. Diese Fragestellung wird als globale Gütebeurteilung bezeichnet.72 Grundsätzlich
werden zur globalen Gütebeurteilung zwei Arten von Anpassungsmaßen (Fitindizes)
herangezogen: Inferenzstatistische Anpassungsmaße, die einen statistischen Test auf die
Übereinstimmung zwischen der empirischen und der geschätzten Kovarianzmatrix erlau-
ben, und deskriptive Anpassungsmaße, die – statt ein dichotomes Testergebnis zu liefern
– die Modellanpassung anhand von kontinuierlichen Gütemaßen beschreiben.73
71
Byrne (1998), S. 30.
72
Während globale Anpassungsmaße ermitteln, ob das Gesamtmodell eine zufriedenstellende Anpas-
sung an die Daten liefert, existieren daneben noch lokale Gütemaße, die sich nur auf einzelne Teil-
strukturen beziehen. Diese werden nach Mess- und Pfadmodell differenziert in den Abschnitten 8.5
und 8.6 behandelt.
73
Hu und Bentler (1998), S. 426.
74
Hu und Bentler (1995), S. 77.
186 8. Methodik der Datenauswertung
Annahmen, unter denen die χ2 -Asymptotik gilt, nämlich dass die Beobachtungen multi-
normal verteilt sind, die Stichprobe groß ist und die Analyse auf der Kovarianzmatrix,
nicht der Korrelationsmatrix basiert.75
Im Rahmen von Strukturgleichungsmodellen überprüft der χ2 -Test, ob das Modell die
Wirklichkeit vollständig abbildet. Man kann jedoch davon ausgehen, dass dies praktisch
niemals der Fall ist, sondern ein Modell eher das bescheidenere Ziel verfolgt, die wesentli-
chen Wirkungsbeziehungen aufzuzeigen und eine vernünftige“ Anpassung an die Daten
”
zu erzeugen.76 Eine perfekte Anpassung ist also im Zweifel ein wenig geeigneter Maßstab,
und hohe χ2 -Werte spiegeln wider, dass H0 eben nur näherungsweise erfüllt ist.
Die Anwendbarkeit des χ2 -Tests ist von der Stichprobengröße und der Erfüllung
von Verteilungsannahmen abhängig. Da die Teststatistik T nur asymptotisch χ2 -verteilt
ist, genügt sie bei kleinen Stichproben eventuell nicht der χ2 -Verteilung und ist daher
für die Modellbeurteilung nicht anwendbar. Desweiteren ist nach T = (N − 1)F der
geschätzte χ2 -Wert proportional zur Fallzahl, so dass die Teststärke77 mit steigendem N
zunimmt. Als Folge können bei großen Stichproben schon kleine, inhaltlich irrelevante
Abweichungen zwischen der empirischen und der geschätzten Kovarianzmatrix zur Ab-
lehnung des Modells führen, während es umgekehrt die bei kleinen Fallzahlen geringe
Teststärke sehr schwer macht, selbst deutliche Abweichungen zwischen S und Σ(θ) nach-
zuweisen.78 Neben großen Fallzahlen setzen sowohl die Maximum-Likelihood (ML) als
auch die Generalized-Least-Square (GLS) Schätzung multivariat normalverteilte Daten
voraus, damit die Schätzer TML bzw. TGLS jeweils χ2 -verteilt sind. In der Praxis erhobene
Datensätze erfüllen jedoch nur in den seltensten Fällen die Normalverteilungsannahme,79
was im Allgemeinen zu überschätzten χ2 -Werten und zu stark unterschätzten Standard-
abweichungen der Strukturkoeffizienten führt.80 Um diesem Problem zu begegnen, sind
verschiedene Methoden und Korrekturfaktoren vorgeschlagen worden, so u. a. von Browne
(1982) ein asymptotisch verteilungsfreier Schätzer, der im LISREL-Programm als WLS
(Weighted Least Squares) bezeichnet wird.81 Dieser kann jedoch in der vorliegenden Un-
tersuchung nicht verwendet werden, da Simulationsstudien gezeigt haben, dass er erst bei
75
Bollen (1989), S. 266; Sobel und Bohrnstedt (1985), S. 153.
76
Jöreskog und Sörbom (1982), S. 408; Bollen (1989), S. 268.
77
Die Teststärke bezeichnet die Gegenwahrscheinlichkeit 1 − β des Fehlers 2. Art (β-Fehler). Sie gibt
an, mit welcher Wahrscheinlichkeit ein Signifikanztest zugunsten einer spezifischen Alternativhypo-
these entscheidet, sofern diese wahr ist, d.h. mit welcher Wahrscheinlichkeit ein Unterschied oder
Zusammenhang entdeckt wird, wenn er existiert. Vgl. Bortz (1999), S. 122.
78
Bollen (1989), S. 268; Hu und Bentler (1995), S. 78.
79
Micceri (1989), S. 161.
80
West et al. (1995), S. 62f.
81
Browne (1982), S. 90ff.
8.4. Gütebeurteilung von LISREL-Modellen 187
sehr großen Fallzahlen zu zuverlässigen Ergebnissen führt.82 Damit sind für kleine und
mittlere Stichproben die durch eine moderate Verletzung der Normalverteilungsannah-
me verursachten Verzerrungen bei einer ML/GLS-Schätzung als geringer einzustufen als
die durch zu kleine Stichprobengrößen verursachten Probleme einer ADF-Schätzung.83
Um dennoch eventuelle Probleme aufgrund nicht-normaler Beobachtungen abschätzen zu
können, wird bei der Validierung des Messmodells in der vorliegenden Arbeit routinemäßig
Mardia’s Maß für Nichtnormalität berechnet.
Die vierte Voraussetzung für die Anwendbarkeit des χ2 -Tests ist die Forderung, dass
eine Kovarianz-, nicht eine Korrelationsmatrix analysiert wird. Der wesentliche Grund
für diese Forderung liegt darin begründet, dass die Maximum-Likelihood Schätzung auf
Kovarianzmatrizen basiert und bei der Verwendung von Korrelationsmatrizen unter be-
stimmten Bedingungen zu inkorrekten χ2 -Werten und Standardabweichungen für die Pa-
rameterschätzungen führen kann.84 Der Übergang von Kovarianzen zu Korrelationen bein-
haltet eine Reskalierung der Variablen, die in der statistischen Behandlung von Struktur-
gleichungsmodellen berücksichtigt werden müsste und diese deutlich komplizierter ma-
chen würde. Auf der anderen Seite sind viele der im Rahmen von Strukturgleichnungs-
modellen erfolgenden Schätzungen und Tests skaleninvariant,85 wodurch die χ2 -Werte in
praktischen Anwendungen oft kaum voneinander abweichen. Allerdings sind selbst bei
skaleninvarianten Modellen die auf der Basis von Korrelationsmatrizen geschätzten Stan-
dardabweichungen der Modellparameter im Allgemeinen inkorrekt86 und müssen manuell
korrigiert werden.87 Starke praktische Einwände gegen die Verwendung von Korrelations-
matrizen sind v. a. dann vorzubringen, wenn sich bei wiederholten Messungen die Varian-
zen systematisch über die Zeit verändern (z.B. bei Wachstumseffekten) oder bei multiplen
Gruppenvergleichen, da in diesen Fällen die Unterschiede der Varianzen die wesentliche
82
Die Simulationen von Curran et al. (1996, S. 24) erreichen ab einer Stichprobengröße N = 500
eine stabile ADF-Schätzung. Dagegen führen die Simulationen von Hu et al. (1992, S. 355) erst
ab N = 5.000 zu zufriedenstellenden Ergebnissen für eine konfirmatorische Faktorenanalyse mit 15
Indikatoren und 3 korrelierenden Faktoren. Zu einem ähnlichen Ergebnis kommen auch Boomsma
und Hoogland (2001, S. 159), die für eine konfirmatorische Faktorenanalyse mit 15 Indikatoren und
5 korrelierenden Faktoren eine minimale Stichprobengröße von N = 3.600 ermitteln.
83
McDonald und Ho (2002), S. 70.
84
Cudeck (1989), S. 317.
85
Ein Modell Σ ist skaleninvariant, wenn für jede Diagonalmatrix Dα (αi = 0) und jeden Parametervek-
tor γ ein weiterer Parametervektor γ ∗ existiert, so dass Σ(γ ∗ ) = Dα Σ(γ)Dα erfüllt ist, vgl. Browne
(1982), S. 75ff. Ein Beispiel sind konfirmatorische Faktorenanalysen ohne Gleichheits-Restriktionen,
vgl. Bollen (1989), S. 267 und Cudeck (1989), S. 318f.
86
Eine Ausnahme stellen sog. skaleninvariante Parameter dar, vgl. Cudeck (1989), S. 323.
87
Entsprechende Rechnungen werden von Lawley und Maxwell (1971), S. 59ff. und 100ff. sowie Brow-
ne (1982), S. 90ff. demonstriert. Sie sind in den aktuellen Versionen von LISREL und EQS nicht
implementiert, vgl. Steiger (2001), S. 334.
188 8. Methodik der Datenauswertung
Grundlage für das Verständnis des Zeiteffektes bzw. der Gruppenunterschiede bilden.88
Aufgrund dieser sehr restriktiven Annahmen ist es mittlerweile gängige Praxis, χ2 nicht
mehr als Teststatistik im eigentlichen Sinn zu verwenden, sondern als Maß für die Anpas-
sungsgüte.89 Ein Modell ist danach dann anzunehmen, wenn der χ2 -Wert im Verhältnis zu
den Freiheitsgraden df einen bestimmten Schwellenwert unterschreitet, wobei das Spek-
trum der Empfehlungen von der vergleichsweise leicht zu erfüllenden Forderung χ2 /df 3
bis zur sehr anspruchsvollen Forderung χ2 /df 1 reicht.90
88
Netemeyer et al. (2001), S. 85.
89
Fahrmeir et al. (1996), S. 759; Jöreskog und Sörbom (1982), S. 408.
90
Letzterer Wert wird von Backhaus et al. (2000), S. 466, angegeben.
91
Eine Übersicht lässt sich den Beiträgen im Sammelband von Bollen und Long (1993).
92
Hu und Bentler (1998), S. 426.
93
Hu und Bentler (1999), S. 2; McDonald und Ho (2002), S. 72.
94
Vgl. hierzu auch Abbildung C.1 auf S. 316 der vorliegenden Arbeit.
8.4. Gütebeurteilung von LISREL-Modellen 189
95
Hu und Bentler (1999), S. 5.
96
McDonald und Ho (2002), S. 72.
97
McDonald und Ho (2002), S. 72.
98
McDonald (1999), S. 388f.
190 8. Methodik der Datenauswertung
sucht werden, in welcher Weise die Korrelationen der latenten Variablen im Messmodell
von den Korrelationen abweichen, die unter den Restriktionen des Pfadmodells reprodu-
ziert werden.
Given the complexity of our subject matter, what makes us think we can
”
use responses to single items (or even two or three items) as measures of
these concepts, then relate these scores to a host of other variables, arrive at
conclusions based on such an investigation, and get away calling what we have
done quality research‘?“ (Jacoby, 1978, S. 93)
’
With a single measure of each variable, one can remain blissfully unaware
”
of the possibility of measurement [error], but in no sense will this make his
inferences more valid. [. . . ] In the absence of better theory about our measu-
rement procedures, I see no substitute for the use of multiple masures of our
most important variables.“ (Blalock, 1970, S. 111)
Zum einen ist ein einzelner Indikator nur sehr begrenzt in der Lage, verschiedene Facetten
eines Konstrukts zu erfassen, zum anderen ist jede Messgröße mit zufälligen und syste-
matischen Fehlern behaftet, deren verzerrender Einfluss erst durch die Mittelung über
einen Satz alternativer Indikatoren verringert werden kann.100 So ist die Reliabilität von
Skalen größer als die einzelner Indikatoren, da im Zuge der Addition die gemeinsame Vari-
anz aggregiert wird, während sich Zufallsfehler tendenziell ausgleichen. Weiterhin ist mit
praktisch jedem Item ein spezifischer, systematischer Varianzanteil verbunden, der bei-
spielsweise auf idiosynkratische Frageformulierungen zurückzuführen sein kann. Da diese
systematischen Verzerrungen ebenfalls im Zuge der Addition mehrerer Indikatoren ten-
denziell ausgeglichen werden, besitzen Skalen auch eine höhere Validität . Schließlich kor-
relieren Skalen stärker miteinander als einzelne Indikatoren, da sie weniger grobkörnig“
”
99
Klein (2000), S. 234.
100
Churchill (1979), S. 66f.; Zeller und Carmines (1980), S. 48f.
8.5. Vorgehen bei der Analyse des Messmodells 191
als die Likert-Skalen individueller Items sind und eine weniger schiefe Verteilung aufweisen
als die jeweiligen Items, aus denen sie gebildet wurden.101
In den folgenden Abschnitten wird zunächst eine Unterscheidung zwischen reflexi-
ver und formativer Konstruktmessung vorgenommen, bevor methodische Aspekte dieser
beiden Messmodelle näher erläutert werden. Im Anschluss daran werden noch multidi-
mensionale Konstrukte diskutiert, bei denen nicht nur ein Konstrukt durch mehrere Indi-
katoren gemessen wird, sondern darüberhinaus eine Reihe inhaltlich verwandter Faktoren
zu einem komplexen mehrdimensionalen Konstrukt zusammengefasst wird.
Hinsichtlich der Beziehung zwischen latenten Variablen und Indikatoren sind zwei Fälle
zu unterscheiden:102 Von reflexiven Indikatoren (Effektindikatoren) spricht man, wenn ein
Faktor die ihm zugeordneten beobachtbaren Variablen verursacht“, d.h. die Indikatoren
”
werden hier als (in der Regel fehlerbehaftete) Messungen des wahren“ Konstrukts be-
”
trachtet. Die Entwicklung einer Menge von reflexiven Messgrößen für eine latente Variable
bezeichnet man auch als Skalenbildung. Eine alternative Messperspektive, die mitunter als
Indexbildung bezeichnet wird, basiert auf formativen Indikatoren (Kausalindikatoren) und
geht davon aus, dass es die Indikatoren sind, die einen kausalen Einfluss auf die latente
Variable ausüben (vgl. Abbildung 8.1).
(a) (b)
Abbildung 8.1: (a) Reflexives Messmodel, bei dem eine latente Variable ξ vier Indikatoren x1 , . . . , x4 be-
einflusst. Die Messfehler δ1 , . . . , δ4 werden auf der Itemebene erfasst. (b) Formatives Messmodel, bei dem
vier Items x1 , . . . , x4 eine Kompositvariable ξ definieren. Der Messfehler ζ wird auf der Konstruktebene
erfasst.
Reflexive Messmodelle basieren auf dem sog. Domain-Sampling Modell, nach dem
ein Messinstrument durch eine zufällige Stichprobe aus einer hypothetischen, unendlich
101
Gorsuch (1997), S. 537f.
102
Bollen und Lennox (1991); Diamantopoulos und Winklhofer (2001).
192 8. Methodik der Datenauswertung
großen Grundgesamtheit von Items gebildet wird, die als Domäne oder Universum be-
zeichnet wird.103 Die messtheoretische Fundierung reflexiver Messmodelle beruht auf den
Annahmen der klassischen Testtheorie und setzt unter anderem voraus, dass die ein Kon-
strukt gemeinsam erfassenden Indikatoren intern konsistent sind und untereinander deut-
lich höher korrelieren als mit den Indikatoren anderer Konstrukte.104 Da die Indikatoren
von den dahinter liegenden latenten Variablen beeinflusst werden und deren Facetten glei-
chermaßen gut erfassen sollten, ist die Konstruktvalidität idealerweise invariant gegenüber
dem Austausch oder Eliminieren einzelner Indikatoren.105
Formative Messmodelle gehen dagegen nicht davon aus, dass die Ausprägungen der
gemessenen Indikatoren durch eine einzelne, dahinter liegende latente Variable beeinflusst
werden. Hier sind es umgekehrt die empirisch beobachteten Variablen, die das Konstrukt
beeinflussen, die Kausalität fließt“ m.a.W. von den Items zum Konstrukt.106 Rossiter
”
(2002) weist zurecht darauf hin, dass man im Zusammenhang mit formativen Messmodel-
len nicht länger von Indikatoren sprechen sollte, da den Items hier gerade keine indikative,
sondern eine formative Funktion zukommt. Entsprechend handelt es sich bei formativ ge-
messenen Konstrukten auch nicht um latente Variablen , so dass hier z. T. der Begriff
Kompositvariable“ verwendet wird.107 Im Gegensatz zu reflexiven Messmodellen folgen
”
formative Modelle nicht dem Domain-Sampling Modell, die Items eines Index können
also, anders als die Items einer Skala, nicht ohne weiteres weggelassen oder ersetzt wer-
den, ohne dass sich das Konstrukt inhaltlich verändert.108 Da die Items eines formativen
Messmodells nicht durch einen gemeinsamen Faktor beeinflusst werden, ist es im Ge-
gensatz zu reflexiven Messmodellen auch nicht notwendig, dass die Items untereinander
deutliche Korrelationen aufweisen und intern konsistent sind.109 Damit ist es bei forma-
tiven Konstrukten auch unangebracht, eine Skalenbereinigung unter dem Gesichtspunkt
der internen Konsistenz, beispielsweise unter Verwendung von Cronbach’s Alpha, durch-
zuführen, da hierbei im Zweifelsfall gerade diejenigen Items eliminiert würden, die die
geringste Überschneidung mit den anderen Items aufweisen und damit entscheidend zur
inhaltlichen Definition des Konstrukts beitragen.110 Vor diesem Hintergrund müssen for-
103
Nunnally und Bernstein (1994), S. 216ff.
104
Bollen und Lennox (1991), S. 305. Vgl. hierzu im einzelnen auch Abschnitt 8.5.5.
105
Dies gilt zumindest für den Fall einer wirklich unidimensionalen Operationalisierung des Konstrukts.
Leidet dagegen die Inhaltsvalidität einer Skala deutlich unter der Elimination oder dem Austausch
eines Indikators, so ist sie im Zweifel als multidimensional einzustufen. Vgl. Bollen und Lennox (1991),
S. 308 sowie unten, Abschnitt 8.5.3.
106
Jarvis et al. (2003), S. 201.
107
MacCallum und Browne (1993), S. 534.
108
Jarvis et al. (2003), S. 202; Rossiter (2002), S. 315.
109
Bollen und Lennox (1991), 312; Heise (1973), S. 6.
110
Rossiter (2002), S. 315.
8.5. Vorgehen bei der Analyse des Messmodells 193
mativ gebildete Konstrukte vor allem danach beurteilt werden, wie vollständig sie den
inhaltlich-semantischen Bereich des Konstrukts repräsentieren (Inhaltsvalidität) und in-
wieweit sich die theoretisch vorhergesagten Wirkbeziehungen zu kausal vor- und nachge-
lagerten Konstrukten empirisch nachweisen lassen (nomologische Validität).111
Die Frage, ob ein Konstrukt durch ein reflexives oder ein formatives Modell abgebil-
det werden sollte, muss vor allem auf der Grundlage inhaltlicher Erwägungen entschieden
werden. Aus der erläuterten Unterscheidung zwischen reflexiven und formativen Kon-
strukten lassen sich sechs Indizien ableiten, die für die Verwendung eines formativen Mo-
dells sprechen:112 (1) Die Items definieren die Facetten des Konstrukts, (2) den Items liegt
nicht notwendigerweise ein gemeinsamer inhaltlicher Kern zu Grunde, (3) veränderte Aus-
prägungen der Items ziehen eine veränderte Ausprägung der Kompositvariable nach sich,
(4) veränderte Ausprägungen der Kompositvariable gehen nicht notwendigerweise mit
veränderten Ausprägungen aller Items einher, (5) veränderte Ausprägungen eines Items
gehen nicht notwendigerweise mit veränderten Ausprägungen der anderen Items einher
und (6) die Items sind nicht notwendigerweise durch dieselben Ursachen und Wirkungen
gekennzeichnet.
Aus der Darstellung im letzten Abschnitt geht hervor, dass die Unterscheidung zwischen
reflexiven und formativen Indikatoren durch inhaltliche Erwägungen geleitet werden muss.
Dennoch ist es sicherlich erstrebenswert, statistische Tests zu entwickeln, die die Unter-
scheidung dadurch erleichtern, dass sie Verträglichkeit des jeweils gewählten statistischen
Modells mit den erhobenen Daten überprüfen. Bei der Durchführung einer konfirmatori-
schen Faktorenanalyse im Rahmen des LISREL-Modells stellt die Maximum-Likelihood
Fitfunktion genau eine solche Entscheidungsunterstützung dar und kann als Likelihood-
Ratio- bzw. χ2 -Differenztest zum Vergleich geschachtelter Modelle verwendet werden.113
Obwohl der Likelihood-Ratio Test von zentraler Bedeutung für die Beurteilung alterna-
tiver LISREL-Modelle ist, gibt es doch eine Reihe von Fragen, die er nicht beantworten
kann. So ist er beispielsweise insensitiv gegenüber bestimmten Fehlspezifikationen des
Gleichungssystems, kann nur für den Vergleich geschachtelter Modelle verwendet werden
und setzt eine Überidentifizierung des Gleichungssystems voraus.114
Vor diesem Hintergrund haben Bollen (1990) sowie Bollen und Ting (1993) einen Test
111
Bollen und Lennox (1991), S. 312; Bagozzi (1994), S. 333; Diamantopoulos und Winklhofer (2001),
S. 272; Jarvis et al. (2003), S. 202.
112
Jarvis et al. (2003), S. 203.
113
Bollen (1989), S. 292; Bollen und Ting (1993), S. 149.
114
Bollen und Ting (1993), S. 149.
194 8. Methodik der Datenauswertung
entwickelt, der die Tatsache ausnutzt, dass modellbedingt bestimmte Kombinationen von
Kovarianzen, sog. Tetraden, verschwinden müssen. Die Entdeckung und Verwendung die-
ser verschwindenden Tetradendifferenzen geht bereits auf frühe Arbeiten von Spearman
(1904) und Kelley (1928) zurück und wird auch in den strukturfindenden Algorithmen
von Spirtes et al. (1993) ausgenutzt, allerdings haben erst Bollen und Ting (1993) die
Elimination redundanter Tetraden implementiert und einen statistisch wohldefinierten
Omnibus-Test für die nichtredundanten Tetraden entwickelt (siehe Anhang A der vorlie-
genden Arbeit für eine ausführliche Beschreibung). Eine Tetrade bzw. Tetradendifferenz
τghij bezeichnet dabei ein Objekt mit vier Indizes, das als Differenz zwischen zwei Pro-
dukten jeweils zweier Kovarianzen gebildet wird,
Hier bezeichnet σ die Populationskovarianz der beiden durch die Indizes gekennzeichneten
Variablen, also σgh = cov(xg , xh ).115 Das Konzept der verschwindenden Tetraden lässt sich
am einfachsten am Beispiel des in Abbildung 8.1 dargestellten Messmodells mit vier refle-
xiven Indikatoren erläutern. Wählt man entsprechend Gleichung (8.3.7) die x-Darstellung
x = Λx ξ + δ und bildet nach Gleichung (8.3.11) die Kovarianzmatrix, so erhält man die
Modellstruktur
⎡ ⎤
2
⎢λ1 var(ξ) + var(δ1 ) λ1 λ2 var(ξ) λ1 λ3 var(ξ) λ1 λ4 var(ξ) ⎥
⎢ ⎥
⎢ ⎥
⎢ λ λ var(ξ) λ 2
var(ξ) + var(δ ) λ λ var(ξ) λ λ var(ξ) ⎥
⎢ 2 1 2 2 2 3 2 4 ⎥
Σ(θ) = ⎢ ⎥. (8.5.14)
⎢ ⎥
⎢ λ3 λ1 var(ξ) λ3 λ2 var(ξ) λ23 var(ξ) + var(δ3 ) λ3 λ4 var(ξ) ⎥
⎢ ⎥
⎣ ⎦
λ4 λ1 var(ξ) λ4 λ2 var(ξ) λ4 λ3 var(ξ) λ24 var(ξ) + var(δ4 )
Berücksichtigt man jetzt, dass sowohl σgh σij als auch σgi σhj gleich λg λh λi λj var2 (ξ) sind,
so lassen sich Gleichung (8.5.14) drei Tetraden entnehmen, die nichttrivial identisch ver-
schwinden,116
115
Aus der Definition der Tetrade und der Identität σij = σji sind verschiedene Symmetrieeigenschaften
direkt ersichtlich, beispielsweise τghij = τijgh = τhgji oder τghij = −τgihj .
116
Triviale Fälle sind beispielsweise τiiii oder Tetraden, die – unabhängig von der konkreten Modell-
struktur – allein schon wegen der Symmetrie der Kovarianzmatrix verschwinden, also beispielsweise
τijji .
8.5. Vorgehen bei der Analyse des Messmodells 195
117
Bollen und Ting (2000), S. 12.
196 8. Methodik der Datenauswertung
wesentlicher Vorteil dieser Implementierung besteht darin, dass mit Mathematica die ver-
schwindenden Tetraden symbolisch direkt anhand von Gleichung (8.3.11) ermittelt wer-
den können, während in SAS zunächst die Erzeugung eines künstlichen Datensatzes aus
der unterstellten Modellstruktur heraus notwendig ist, um anschließend numerisch die
veschwindenden Tetraden zu bestimmen.118
x=t+s+r . (8.5.17)
Ein Messinstrument ist dann vollständig valide, wenn die beobachteten Größen exakt den
118
Vgl. Bollen und Ting (1993), S. 156.
119
Loevinger (1957, S. 659) bringt dies wie folgt zum Ausdruck: The items of the pool should be chosen
”
so as to sample all possible contents which might comprise the putative trait according to all known
alternative theories of the trait“.
120
Clark und Watson (1995), S. 311.
121
Lord und Novick (1968), S. 36. Vgl. für die entsprechende Formulierung im Rahmen des LISREL-
Modells auch Gleichung (8.3.8).
122
Zeller und Carmines (1980), S. 12.
8.5. Vorgehen bei der Analyse des Messmodells 197
wahren Größen entsprechen, x = t, wenn also weder systematische noch zufällige Messfeh-
ler vorliegen.123 Ist das Messinstrument dagegen mit systematischen Messfehlern behaftet,
aber keinen Zufallsfehlern unterworfen, so ist es zumindest reliabel (zuverlässig). Reliabi-
lität ist damit eine notwendige, jedoch keine hinreichende Bedingung für Validität.124 Die
Methoden zur Beurteilung von Reliabilität und Validität einer Messung werden in den
folgenden Abschnitten näher erläutert, zunächst soll jedoch noch das verwandte Konzept
der Unidimensionalität eingeführt werden.
8.5.3.1 Unidimensionalität
Eine grundlegende Annahme der Messtheorie besteht darin, dass alle Indikatoren eines
Messinstruments nur ein gemeinsames Konstrukt messen.125 Der Umstand, dass nur eine
latente Variable einer Reihe von manifesten Variablen zugrunde liegt, wird als Unidimen-
sionalität bezeichnet.126 Obwohl vielfältige Maßgrößen für die Überprüfung einer Skala auf
Unidimensionalität vorgeschlagen wurden, haben sich im Gegensatz zur Reliabilitäts- und
Validitätsbeurteilung bislang keine weithin akzeptierten Standards durchsetzen können.127
Eine zuverlässige Beurteilung scheint am ehesten im Rahmen von Latent-Trait-Modellen
möglich zu sein.128
Eindeutig nachgewiesen ist mittlerweile jedoch, dass Reliabilitätskennzahlen nicht zur
Beurteilung der Unidimensionalität einer Skala eingesetzt werden können. Reliabilität
(gemessen als interne Konsistenz) stellt eine Aussage über den Grad dar, zu dem die
Items einer Skala frei von zufälligen Messfehlern sind, während Unidimensionalität ein
Ausdruck dafür ist, dass sämtliche Indikatoren nur einen dahinterliegenden Faktor ab-
bilden. Green et al. (1977) sowie Cortina (1993) haben Simulationen durchgeführt, die
zeigen, dass auch Items, die unter einem mehrdimensionalen Modell erzeugt wurden, je
nach Höhe ihrer mittleren Korrelationen zu befriedigenden bis hohen Werten für Cron-
bach’s Alpha führen können.129 Eine solche Konstellation liegt gerade dann vor, wenn es
mehrere Bündel von Items gibt, die einer Dimension entstammen und untereinander stark
korrelieren, während zwischen den Items verschiedener Dimensionen nur geringe Korre-
lationen bestehen. Umgekehrt kann auch aus niedrigen Reliabilitätskennzahlen nicht auf
123
In diesem Fall wird also die gesamte beobachtete Varianz der Messgröße allein durch die Varianz im
zugrunde liegenden Konstrukt erklärt. Vgl. Peter (1981), S. 134
124
Churchill (1979), S. 65.
125
Lumsden (1976), S. 266.
126
Anderson und Gerbing (1982), S. 453; Hattie (1985), S. 139.
127
Vgl. dazu u. a. den Diskurs in den Veröffentlichungen Anderson und Gerbing (1982), Kumar und
Dillon (1987) und Anderson et al. (1987).
128
Hattie (1985), S. 158.
129
Cortina (1993), S. 102.
198 8. Methodik der Datenauswertung
die Mehrdimensionalität einer Skala geschlossen werden, obwohl dies oft in der Literatur
behauptet wird.130
Damit ist interne Konsistenz also weder eine notwendige noch eine hinrei-
chende Bedingung für die Unidimensionalität einer Skala.
Als pragmatische Methode zur Beurteilung der Unidimensionalität einer Skala hat sich
mittlerweile die Verwendung exploratorischer und konfirmatorischer Faktorenanalysen
durchgesetzt.131 Sowohl im Rahmen einer exploratorischen als auch einer konfirmatori-
schen Faktorenanalyse stellt sich jeweils die zentrale Frage, ob die Analyse simultan über
mehrere latente Variablen oder aber für jede Variable separat ausgeführt werden sollte.
Analysiert man jede latente Variable separat, so kann man zwar feststellen, ob die jewei-
ligen Indikatoren signifikant mit der latenten Variable, die sie erfassen sollen, assoziiert
sind, erhält jedoch keine Informationen über die zweite notwendige Bedingung für Uni-
dimensionalität, nämlich dass die Indikatoren nicht gleichzeitig auch die Facetten einer
weiteren latenten Variable widerspiegeln.132
Exploratorische Faktorenanalysen können zum einen zur Konstruktion von unidi-
mensionalen Skalen durch Itemselektion verwendet werden. Hierbei werden aus einem
anfänglich gewählten Pool diejenigen Indikatoren eliminiert, die nur niedrige Faktorla-
dungen bezüglich einer latenten Variable aufweisen bzw. – im Fall mehrerer extrahierter
Faktoren – deutliche Querladungen“ auf weitere latente Variablen aufweisen. Zum an-
”
deren kann eine exploratorische Faktorenanalyse auch dazu verwendet werden, die Unidi-
mensionalität einer ex ante definierten Itembatterie dadurch nachzuweisen, dass im Zuge
der Faktorenanalyse nach dem Kaiser-Kriterium nur ein Faktor extrahiert wird.133
Im Rahmen konfirmatorischer Faktorenanalysen kann ein Test auf Unidimensiona-
lität anhand der Anpassungsgüte von Modellen erfolgen, die so spezifiziert sind, dass alle
Indikatoren auf genau einen Faktor laden. Eine nicht signifikante χ2 -Teststatistik bzw.
gute Fitmaße deuten auf eindimensionale Skalen hin. Erhält man dagegen nur eine un-
befriedigende Anpassungsgüte, so kann man v. a. anhand der Residual-Kovarianzmatrix
diejenigen Indikatoren identifizieren, die am schlechtesten mit dem eindimensionalen Mo-
dell verträglich sind.134 Mit einem χ2 -Differenztest kann dann überprüft werden, ob sich
die Indikatoren-Menge eventuell besser durch ein Zwei-Faktor-Modell erklären lässt.135
130
So unter anderem von Clark und Watson (1995), S. 315 und Cortina (1993), S. 100.
131
Ahire und Devaraj (2001), S. 321f.
132
O’Leary-Kelly und Vokurka (1998), S. 391f.
133
Homburg und Giering (1996), S. 12.
134
Bollen (1989), S. 262; McDonald (1981), S. 102.
135
Hattie (1985), S. 147.
8.5. Vorgehen bei der Analyse des Messmodells 199
8.5.3.2 Reliabilität
Als Reliabilität (Zuverlässigkeit) bezeichnet man nach den obigen Ausführungen den
Grad, zu dem die Indikatoren eines Konstrukts frei von zufälligen Messfehlern sind.136 In
der empirischen Sozialforschung werden drei klassische Standardformen von Reliabilitäts-
prüfungen unterschieden:137 (1) Test-Retest-Reliabilität, d. h. Korrelation mit einer Ver-
gleichsmessung desselben Messinstruments zu einem zweiten Zeitpunkt, (2) Paralleltest-
Reliabilität, d. h. Korrelation mit einer Vergleichsmessung auf einem äquivalenten Mess-
instrument und (3) Interne-Konsistenz- oder Split-Half-Reliabilität, d. h. Korrelation zwi-
schen zwei Hälften der Items eines Messinstruments. Da in der empirischen Sozialforschung
wirklich äquivalente Messinstrumente nur schwer zu definieren und wiederholte Messun-
gen nur selten zu realisieren sind, werden in der Praxis vor allem Reliabilitätsmaße der
dritten Kategorie verwendet.138
Split-Half-Reliabilitätsmaße erfassen die Homogenität einer Skala, indem sie die be-
obachteten Werte der Indikatoren hälftig teilen und die so entstandenen Halbskalen mit-
einander korrelieren. Dabei stellt sich allerdings die grundlegende Frage, nach welchem
Kriterium die Skala geteilt werden soll. Meist geschieht dies durch die Trennung von
gerade und ungerade numerierten Items oder nach einem Zufallsprinzip, wobei diese Vari-
anten jeweils zu einem anderen Zahlenwert führen, was nicht als erstrebenswert angesehen
werden kann.139 Diesen Mangel behebt Cronbachs Alpha-Koeffizient, der die Reliabilität
einer Skala mit k Items als Mittelwert aller möglichen Split-Half-Korrelationen wie folgt
bestimmt:140
k
k var(xi )
α= 1 − i=1
k−1 var(xt )
k (8.5.18)
k i=1 var(xi )
= 1 − k k
k−1 i=1 var(xi ) + 2 i>j cov(xi , xj )
Alpha kann Werte zwischen Null und Eins annehmen; empirische Werte über 0,7 bzw. 0,8
werden häufig als akzeptabel betrachtet. Aus Gleichung (8.5.18) geht jedoch hervor, dass
Alpha eine Funktion der Itemzahl sowie ihrer wechselseitigen Korrelationen ist. Durch eine
große Zahl von Indikatoren kann somit auch bei einer niedrigen mittleren Korrelation der
136
Peter (1979), S. 7; Peter und Churchill (1986), S. 4.
137
Bollen (1989), S. 209ff.; O’Leary-Kelly und Vokurka (1998), S. 395ff.; Peter (1979), S. 8ff.; Schnell
et al. (1995), S. 145ff.; Zeller und Carmines (1980), S. 52ff.
138
O’Leary-Kelly und Vokurka (1998, S. 395) stellen unterschiedliche Methoden der Reliabilitäts-
schätzung mit ihren jeweiligen Voraussetzungen sowie Vor- und Nachteilen tabellarisch gegenüber.
139
Bollen (1989), S. 215ff., Peter (1979), S. 8.
140
Cronbach (1951), S. 299; Lord und Novick (1968), S. 87-95.
200 8. Methodik der Datenauswertung
Skalenitems und dem Vorliegen zufälliger Messfehler ein hoher Alpha-Koeffizient erzielt
werden.
Neben den klassischen Formen der Reliabilitätsprüfung setzen sich in letzter Zeit
verstärkt Methoden durch, die von schwächeren Voraussetzungen ausgehen und auf In-
formationen basieren, die im Rahmen konfirmatorischer Faktorenanalysen ermittelt wer-
den.141 Diese Kennzahlen gehen von der klassischen Definition von Reliabilität als qua-
drierter Korrelation zwischen den beobachteten Werten x und den wahren Werten t aus.142
Die Reliabilität ρi für einen Indikator xi einer latenten Variable ξ berechnet sich damit
als quadrierte Korrelation zwischen Indikator und latenter Variable.143 Unter den in Ab-
schnitt 8.3 genannten Voraussetzungen kann eine äquivalente Darstellung der Indikator-
reliabilität als Quotient zwischen der durch das Konstrukt erklärten Varianz λ2i · var(ξ)
und der den Messfehler beinhaltenden Gesamtvarianz von xi hergeleitet werden,144
wobei λi die geschätzte Faktorladung und δi der geschätzte Messfehler des Indikators
sind.145 Die Indikatorreliabilität ist auf den Bereich von Null bis Eins normiert. Ab wann
ihre Werte als befriedigend angesehen werden können, ist in der Literatur umstritten,
allerdings wird häufig eine Indikatorreliabilität von wenigstens 0,4 gefordert.146 Wichtiger
als die Frage, wie gut einzelne Indikatoren eine latente Variable messen, ist die Frage,
wie gut sie durch die Gesamtheit der ihr zugeordneten Indikatoren abgebildet wird. Der
von Werts, Linn und Jöreskog angegebene Index ρWLJ für die Faktorreliabilität ermittelt
ähnlich wie Cronbach’s Alpha eine aggregierte Reliabilität als Anteil der durch die latente
Variable erklärten Varianz an der Gesamtvarianz,147
[cov( i xi , ξ)]2 ( i λi )2 · var(ξ)
ρWLJ = = , (8.5.20)
var( i xi ) · var(ξ) ( i λi )2 · var(ξ) + i var(δi )
wobei hier Werte oberhalb von 0,6 als erstrebenswert gelten.148 Fornell und Larcker (1981)
schlagen daneben ein ähnlich berechnetes Maß für die durchschnittlich erklärte Varianz
141
Fornell und Larcker (1981), S. 45f.; O’Leary-Kelly und Vokurka (1998), S. 398f.
142
Lord und Novick (1968), S. 61.
143
Wiley und Wiley (1970), S. 112.
144
Bei der Herleitung wird von den Gleichungen (8.3.7) und (8.3.8) sowie den Rechenregeln für Varianzen
und Kovarianzen Gebrauch gemacht.
145
Bagozzi und Baumgartner (1994), S. 402; Fornell und Larcker (1981), S. 45; Ping (2004), S. 129.
146
Bagozzi und Baumgartner (1994), S. 402.
147
Werts et al. (1974), S. 29.
148
Fornell und Larcker (1981), S. 46; Bagozzi und Yi (1988).
8.5. Vorgehen bei der Analyse des Messmodells 201
vor, das zur Beurteilung der Konvergenzvalidität verwendet werden kann und in Ab-
schnitt 8.5.3.3 näher beschrieben wird, vgl. Gleichung (8.5.21) auf S. 202.
8.5.3.3 Validität
Die Validität (Gültigkeit) eines Messinstruments bezeichnet das Ausmaß, in dem das
Messinstrument tatsächlich das misst, was es messen sollte, also den Grad, zu dem die
gemessenen Werte x den wahren Werten t entsprechen. Wie bereits oben erwähnt, sind
Unidimensionalität und Reliabilität nur notwendige, aber nicht hinreichende Vorausset-
zungen für die Validität eines Messinstruments, da auch eine (praktisch) zufallsfehlerfreie
Messung eines Faktors eben den falschen Faktor messen und damit invalide sein kann.149
Die Validität eines Instruments wird in der Praxis anhand von drei Kriterien definiert,
nämlich Inhaltsvalidität, Kriteriumsvalidität und Konstruktvalidität.150
Inhaltsvalidität Inhaltsvalidität bezieht sich darauf, dass möglichst alle Aspekte der
Dimension, die gemessen werden sollte, berücksichtigt wurden. Da diese Definition wenig
operational ist, wird Inhaltsvalidität häufig mit der sog. Face-Validity, der logischen und
fachlichen Beurteilung einer Skala durch Experten, gleichgesetzt.151 Bohrnstedt (1970, S.
92) kennzeichnet Inhaltsvalidität durch den Grad, zu dem die eine Skala konstituieren-
den Items den inhaltlich-semantischen Bereich des Konstrukts repräsentieren und seine
inhaltlichen Facetten vollständig erfassen.152
Konstruktvalidität
149
Nunnally (1978), S. 103; Zeller und Carmines (1980),S. 77f.
150
Cronbach und Meehl (1955), S. 281.
151
Churchill (1979), S. 69.
152
Vgl. auch Haynes et al. (1995) und Rossiter (2002).
153
Schnell et al. (1995), S. 150.
202 8. Methodik der Datenauswertung
Aussagekräftiger als die beiden vorher genannten Merkmale ist das Konzept der Kon-
struktvalidität, das auf Cronbach und Meehl (1955) zurückgeht. Unter Konstruktvalidität
versteht man die Beziehung zwischen einem abstrakten, begrifflich festgelegten Konstrukt
und seiner operativen Messkonzeption. Sie kann dann als ideal erfüllt angesehen werden,
wenn ein Messinstrument Größe und Richtung aller Charakteristika eines Konstrukts
erfasst und nicht daneben noch durch zufällige oder systematische Einflüsse anderer Va-
riablen geprägt wird.154 Bei der Beurteilung der Konstruktvalidität wird oft wiederum
zwischen Konvergenz- und Diskriminanzvalidität155 sowie nomologischer Validität156 un-
terschieden.
Konvergenzvalidität kann als Korrelation zweier Messungen bestimmt werden, die mit
maximal unterschiedlichen Messmethoden erhoben wurden. Traditionell wurde die Kon-
vergenzvalidität anhand sog. Multitrait-Multimethod-Matrizen nach Campbell und Fiske
(1959) beurteilt, wobei sich mittlerweile eine methodisch verlässlichere Variante im Rah-
men hierarchisch geschachtelter konfirmatorischer Faktorenanalysen durchgesetzt hat.157
Da die vorliegende Arbeit jedoch einen Key-Informant-Ansatz verfolgt und damit keine
separaten Messmethoden zur Verfügung stehen, kann hier keine MTMM-Analyse durch-
geführt werden. Stattdessen ist es in den weitverbreiteten Monomethoden-Studien gängige
Praxis, die einzelnen Indikatoren einer Skala als separate Methoden der Konstruktmessung
zu betrachten und auf ihre Konvergenz zu prüfen.158 Ein Minimalkriterium für die Kon-
vergenzvalidität eines Messinstruments stellt dabei zunächst die Forderung dar, dass alle
Faktorladungen hinreichend groß und signifikant sind, was durch einen t-Test überprüft
werden kann.159 Ein schärferes Kriterium fordert, dass die durchschnittlich erfasste Vari-
anz ρave einer latenten Variable ξ,
2
i λi · var(ξ)
ρave = 2
, (8.5.21)
i λi · var(ξ) + i var(δi )
wenigstens 0,5 beträgt, dass also der Varianzanteil, der auf Fehlervariablen zurückzuführen
ist, unter 50 Prozent liegt.160 Die Konvergenzvalidität eines mehrdimensionalen Kon-
strukts lässt sich daneben durch die paarweise Untersuchung seiner einzelnen Dimen-
sionen überprüfen. Dabei wird jeweils über einen χ2 -Differenztest ein Modell, bei dem
die Korrelation zwischen beiden Faktoren frei geschätzt wird, mit einem solchen vergli-
154
Peter (1981), S. 134.
155
Campbell und Fiske (1959), S. 81.
156
Cronbach und Meehl (1955), S. 290ff.
157
Vgl. hierzu die grundlegenden Arbeiten von Widaman (1985) sowie Bagozzi et al. (1991).
158
Ahire und Devaraj (2001), S. 322; Ping (2004), S. 131.
159
Bagozzi und Phillips (1982), S. 434; Homburg und Giering (1996), S. 11.
160
Fornell und Larcker (1981), S. 46; Ping (2004), S. 131.
8.5. Vorgehen bei der Analyse des Messmodells 203
chen, das die Korrelation auf Null fixiert. Ist die Anpassungsgüte bei frei korrelierenden
Faktoren jeweils signifikant höher als bei den restringierten Alternativmodellen, so deutet
dies auf die enge Verbindung der Dimensionen und damit die Konvergenzvalidität des
multidimensionalen Konstrukts hin.161
Diskriminanzvalidität liegt dann vor, wenn empirisch gezeigt werden kann, dass ein
Messinstrument andere Sachverhalte misst, als andere Instrumente. Zur praktischen
Überprüfung können verschiedene Kriterien herangezogen werden, die die Korrelationen
des betrachteten Messinstruments mit anderen Skalen untersuchen.162 Zunächst lassen
sich χ2 -Differenztests durchführen, die den χ2 -Wert eines Ausgangsmodells mit denen
von hierarchisch geschachtelten Modellen vergleichen, bei denen jeweils die Korrelation
zweier Modellfaktoren auf Eins fixiert wurde. Die Nullhypothese des χ2 -Tests mit ei-
nem Freiheitsgrad besteht darin, dass sich die Anpassungsgüte des Modells durch die
zusätzliche Restriktion nicht signifikant verschlechtert, dass die beiden Faktoren also das
Gleiche messen. Ist die χ2 -Differenz dagegen signifikant, kann die Diskriminanzvalidität
der beiden Konstrukte als gewährleistet angesehen werden.163 Weiterhin haben Fornell
und Larcker (1981, S. 46) vorgeschlagen, die durchschnittlich erfasste Varianz ρave eines
Faktors i mit den quadrierten Korrelationen Φij zwischen diesem Faktor und allen wei-
teren Faktoren j zu vergleichen. Ist die durchschnittlich erfasste Varianz ausnahmslos
größer als die quadrierten Korrelationen, kann dies als Bestätigung der Diskriminanzva-
lidität angesehen werden. Ergänzend kann man schließlich noch das Konfidenzintervall
für den Korrelationskoeffizienten zwischen zwei Skalen ermitteln, um festzustellen, ob
darin der Wert Eins enthalten ist. Dies wäre als Mangel an Diskriminanzvalidität zu
interpretieren.164
Nomologische Validität bezeichnet schließlich den Grad, zu dem die auf einem Kon-
strukt basierenden Vorhersagen im Rahmen einer umfassenderen Theorie bestätigt wer-
den. Die Betrachtung der nomologischen Validität erfordert also die Einbindung des Kon-
strukts in einen übergeordneten theoretischen Rahmen, ein sog. nomologisches Netz,165
aus dem sich empirisch überprüfbare Hypothesen ableiten lassen. Ein Test auf nomolo-
gische Validität läuft im Endeffekt also auf die empirische Überprüfung des Wahrheits-
gehaltes der Theorie und ihrer Substanzhypothesen hinaus und ist von dieser nicht zu
trennen.166
161
Gatignon (2003), S. 179; Gatignon et al. (2002), S. 1109.
162
Ahire und Devaraj (2001), S. 322; Ping (2004), S. 131.
163
Bagozzi und Phillips (1982), S. 475.
164
Anderson und Gerbing (1988), S. 416.
165
Cronbach und Meehl (1955), S. 290.
166
Cronbach und Meehl (1955), S. 320; Schwab (1980), S. 2.
204 8. Methodik der Datenauswertung
Obwohl formative Messmodelle seit den siebziger Jahren diskutiert werden und inhaltlich
häufig eher angebracht sind als reflexive Modelle, haben sie in wirtschafts- und sozialwis-
senschaftlichen Studien bislang kaum Verwendung gefunden.167 Die Bevorzugung reflexi-
ver Messmodelle mag einerseits durch die spezifisch auf die Skalenbildung zugeschnittenen
methodischen Anforderungen einschlägiger Fachzeitschriften begünstigt werden, kann an-
dererseits aber auch auf methodische Schwierigkeiten zurückzuführen sein, die sich bei der
Spezifikation formativer Modelle im Rahmen von Strukturgleichungsmodellen ergeben.168
Zum einen ist die Grundform eines formativen Messmodells, wie sie in Abbildung 8.1b dar-
gestellt ist, wegen des Fehlerterms auf Konstruktebene und der fehlenden Skalenfixierung
nicht identifiert, zum anderen muss eine Entscheidung darüber getroffen werden, wie die
Kovarianzen der formativen Items untereinander und mit anderen exogenen Konstrukten
zu behandeln sind.
Um die Identifikation eines formativen Messmodells zu erreichen, müssen mehrere Be-
dingungen erfüllt sein. Zunächst muss, wie auch bei reflexiven Konstrukten, die Skala des
Messmodells festgelegt werden, indem entweder der Pfad eines Items auf das Konstrukt
hin auf Eins fixiert wird oder die Residualvarianz des Konstrukts auf Eins fixiert wird.169
Weiterhin müssen von einer formativ gebildeten Variable wenigstens zwei Pfade ausge-
hen, die jeweils entweder auf eine latente Variable mit Effektindikatoren oder auf eine
direkt beobachtete Variable gerichtet sind.170 Abbildung 8.2 präsentiert einen Überblick
über verschiedene Strukturmodelle mit formativen Konstrukten: (a) Ein formatives Kon-
strukt, das für sich allein nicht identifiziert ist, (b) ein formatives Konstrukt, das durch
zwei Strukturbeziehungen identifiziert ist, (c) ein formatives Konstrukt, das durch einen
zusätzlichen reflexiven Indikator und eine Strukturbeziehung identifiziert ist und (d) ein
formatives Konstrukt, das durch zwei zusätzliche reflexive Indikatoren identifiziert ist.
Letzteres Modell ist in der Literatur als MIMIC (multiple indicators and multiple causes)-
Modell171 bekannt und hat gegenüber den beiden anderen den Vorteil, dass es unabhängig
von anderen Konstrukten identifiziert ist und damit an beliebigen Stellen des Pfadmodells
167
Frühe Unterscheidungen zwischen reflexiven und formativen Messmodellen finden sich beispielsweise
bei Blalock (1971), S. 336 und Heise (1973), S. 6. Diamantopoulos und Winklhofer (2001), S. 275 sowie
Jarvis et al. (2003), S. 205ff. demonstrieren anhand zahlreicher Beispiele aus der Marketingliteratur,
dass Konstrukte, die eigentlich als formativ aufzufassen sind, in der Forschungspraxis meist durch
reflexive Messmodelle abgebildet werden.
168
Jarvis et al. (2003), S. 213.
169
Jarvis et al. (2003), S. 213
170
MacCallum und Browne (1993), S. 540.
171
Hauser und Goldberger (1971), S. 95ff.; Jöreskog und Goldberger (1975), S. 631ff.; Winklhofer und
Diamantopoulos (2002), S. 152ff.
8.5. Vorgehen bei der Analyse des Messmodells 205
(a) (b)
(c) (d)
Abbildung 8.2: Idenfizierung verschiedener formativer Messmodelle: (a) Nicht identifiziert, (b) Identifi-
zierung durch zwei Strukturbeziehungen, (c) Identifizierung durch zwei zusätzliche reflexive Indikatoren,
(d) Identifizierung durch einen zusätzlichen reflexiven Indikator und eine Strukturbeziehung.
172
Allerdings haftet dem MIMIC-Modell eine gewisse konzeptionelle Mehrdeutigkeit an. Das Modell
lässt sich auf drei verschiedene Weisen interpretieren, nämlich (1) als ein Konstrukt mit mehreren
formativen und zwei reflexiven Indikatoren, (2) als mehrere exogene Variablen, die ein endogenes
Konstrukt mit zwei reflexiven Indikatoren beeinflussen und (3) als ein formativ gemessenes Konstrukt,
das zwei manifeste Variablen anderer Konstrukte beeinflusst. Vgl. Jarvis et al. (2003), S. 213.
173
Simon (1954), S. 467ff.
206 8. Methodik der Datenauswertung
unterscheiden MacCallum und Browne (1993) zwei Strategien zur Behandlung formati-
ver Konstrukte. Im Rahmen der ersten Strategie werden nur die Kovarianzen formativer
Items eines Konstrukts untereinander geschätzt, die Kovarianzen mit anderen manifesten
und latenten exogenen Variablen werden dagegen auf Null fixiert. Die zweite Strategie
entspricht demgegenüber dem üblichen Vorgehen bei der Strukturgleichungsanalyse und
behandelt alle Kovarianzen exogener Variable als frei zu schätzende Modellparameter.174
Der erste Ansatz hat den Vorteil, dass die statistische Sparsamkeit des Modells nicht durch
eine große Zahl von nicht mit Hypothesen untermauerten Kovarianzpfaden gefährdet wird,
trifft andererseits aber die sehr starke Annahme einer vollständigen Unkorreliertheit der
formativen Konstrukte untereinander und mit anderen Konstrukten. Dagegen zeichnet
sich der zweite Ansatz, der von MacCallum und Browne (1993) empfohlen wird, durch
den Vorteil aus, dass die Anpassungsgüte nicht durch eine große Zahl auf Null fixierter
Modellparameter gefährdet wird, ist jedoch statistisch alles andere als sparsam, so dass der
Modell-Fit zu einem guten Teil durch Parameter bestimmt wird, denen keine theoretisch
belastbare Hypothese zu Grunde liegt.
Um hier eine begründete Entscheidung treffen zu können, empfehlen Jarvis et al.
(2003) die Betrachtung einer Reihe ineinander geschachtelter Modelle. Ausgehend vom
sparsamen ersten Modell können sukzessive weitere Kovarianzen aufgenommen werden
und durch χ2 -Differenztests überprüft werden, ob die zusätzlichen Freiheitsgrade den Er-
klärungswert des Modells signifikant verbessern.175
Die Diskussion hat sich bislang auf die Beziehung zwischen empirisch beobachteten Indi-
katoren und latenten Variablen erster Ordnung beschränkt. Die konzeptionelle Definition
von Konstrukten erfolgt jedoch oft auf einer abstrakteren Ebene, die mehrere reflexive
oder formative Dimensionen erster Ordnung umfassen kann. Können diese verschiedenen
Facetten oder Dimensionen auf einer abstrakteren Ebene so zusammengefasst werden,
dass sich die Abstraktion als inhaltlich sinnvoll erweist und darüber hinaus eine spar-
same statistische Modellierung ermöglicht, so kann das Konstrukt als multidimensional
angesehen werden.176 Die Dimensionen korrelieren dabei untereinander im Allgemeinen
nur moderat und repräsentieren das multidimensionale Konstrukt nur unvollkommen. Sie
werden jedoch zusammengefasst, da jede Dimension eine bestimmte Facette des allgemei-
neren Konstrukts erfasst.177
174
MacCallum und Browne (1993), S. 536.
175
Jarvis et al. (2003), S. 215.
176
Law et al. (1998), S. 741.
177
Law und Wong (1999), S. 144.
8.5. Vorgehen bei der Analyse des Messmodells 207
178
Edwards (2001), S. 145; Jarvis et al. (2003), S. 204.
179
Gerbing und Anderson (1984), S. 576.
180
Law et al. (1998), S. 742f.
181
Edwards (2001), S. 146f.
182
Law et al. (1998), S. 742f.
208 8. Methodik der Datenauswertung
zweiter Ordnung erfassen, die das übergeordnete Konstrukt als Faktor zweiter Ordnung,
seine Dimensionen als Faktoren erster Ordnung und deren Indikatoren als beobachtete
Variablen abbilden.183 Hierdurch lassen sich die Messfehler in den beobachteten Varia-
blen von der spezifischen, nicht durch das übergeordnete Konstrukt erklärten Varianz
der Dimensionen differenzieren. Dies ist nicht mehr möglich, wenn man beispielsweise
das übergeordnete Konstrukt als Faktor erster Ordnung und seine Dimensionen durch
Summation über die jeweiligen Indikatoren als beobachtete Variablen abbildet.184 Der we-
sentliche Unterschied aggregierter multidimensionaler Konstrukte gegenüber den latenten
Konstrukten besteht im Rahmen von Strukturgleichungsmodellen darin, dass die Pfade
beim latenten Modell vom übergeordneten Konstrukt auf die Dimensionen hin gerichtet
sind, während sie beim aggregierten Modell von den Dimensionen auf das zusammenge-
setzte Konstrukt weisen.185
Die Entscheidung, ob verschiedene Facetten zu einem multidimensionalen Konstrukt
zusammengefasst werden sollten, und welches der beschriebenen Modelle sich dafür am
besten eignet, muss vor allem durch inhaltliche Überlegungen getrieben sein. So ist zwar
beispielsweise das Vorliegen deutlicher Korrelationen zwischen den Dimensionen eine not-
wendige Voraussetzung für die Anwendbarkeit des latenten Modells, jedoch nicht hin-
reichend, da korrelierte Dimensionen auch mit dem aggregierten und dem Profilmodell
verträglich sind.186 Dennoch kann die statistische Untersuchung im Rahmen von Struk-
turgleichungsmodellen hier zumindest in zweierlei Hinsicht Hilfestellung leisten. Zunächst
ist die nomologische Validität der unterschiedlichen Konstruktbildungen zu prüfen, da die
unterschiedlichen Abstraktionen meist auch zu unterschiedlich stark ausgeprägten Wirk-
beziehungen im nomologischen Netzwerk führen. Die durch die Zusammenfassung der Di-
mensionen erfolgende Abstraktion kann nur dann als sinnvoll erachtet werden, wenn das
fragliche Konstrukt nach wie vor die erwarteten Beziehungen zu kausal vor- und nachgela-
gerten Konstrukten aufweist. Daneben geben die Anpassungsmaße der unterschiedlichen
Strukturgleichungsmodelle einen Hinweis auf die relative Vorteilhaftigkeit der Dimensi-
onszusammenfassung.
Insbesondere kann die χ2 -Anpassungsstatistik bei latenten multidimensionalen Kon-
strukten dazu herangezogen werden, um eine Reihe ineinander geschachtelter Modelle
durch χ2 -Differenztests zu vergleichen und damit die Dimensionalität der Konstrukte zu
überprüfen. Man beginnt dabei mit einem möglichst allgemeinen Messmodell und erlegt
ihm sukzessive weitere Restriktionen auf, so dass jedes neue Modell ein Spezialfall des
183
Hunter und Gerbing (1982); Marsh und Hocevar (1985); Rindskopf und Rose (1988).
184
Edwards (2001), S. 146.
185
Law und Wong (1999), S. 146.
186
Law et al. (1998), S. 752.
8.5. Vorgehen bei der Analyse des Messmodells 209
(a) (b)
(c) (d)
Abbildung 8.3: Durch den Vergleich verschiedener ineinander geschachtelter Messmodelle kann die
Dimensionalität eines Konstrukts untersucht werden: (a) Faktorenanalyse erster Ordnung, (b) Fakto-
renanalyse zweiter Ordnung, (c) Gruppen-Faktormodell, (d) Bi-Faktormodell.
vorangegangenen ist, vgl. Abbildung 8.3. Rindskopf und Rose (1988) empfehlen, mit ei-
nem Bi-Faktormodell zu beginnen, bei dem jeder Indikator sowohl einem Faktor aus einer
Gruppe korrelierender Faktoren zugeordnet ist als auch einem allgemeinen bzw. Metho-
denfaktor. Restringiert man die Ladungen des Methodenfaktors auf Null, erhält man als
Spezialfall ein reines Gruppen-Faktormodell. Schränkt man die Kovarianzen zwischen den
Faktoren dadurch ein, dass man einen Faktor zweiter Ordnung einführt, erhält man wie-
derum als Spezialfall eine Faktorenanalyse zweiter Ordnung. Setzt man bei dieser die
Einzelrestvarianzen der Faktoren erster Ordnung gleich Null, erhält man schließlich eine
Faktorenanalyse erster Ordnung.187
Die Anpassungsgüte wird zwar im Übergang vom Bi-Faktormodell zur Faktorenana-
lyse erster Ordnung immer weiter abnehmen, allerdings benötigen die Modelle auch im-
mer weniger Freiheitsgrade zur Erklärung der empirischen Datenbasis und vermeiden
daher zunehmend die Gefahr eines Overfitting“. Durch χ2 -Differenztests lässt sich je-
”
weils überprüfen, ob der Verlust an Anpassungsgüte signifikant ist oder im Interesse einer
sparsameren statistischen Modellierung in Kauf genommen werden kann. Um die relative
Anpassungsgüte der unterschiedlichen Messmodelle schnell erfassbar zu machen, haben
187
Rindskopf und Rose (1988), S. 55f.
210 8. Methodik der Datenauswertung
Marsh und Hocevar (1985) den sog. Target-Koeffizienten vorgeschlagen, der als Quoti-
ent zwischen dem χ2 -Wert der Faktorenanalyse erster Ordnung und dem χ2 -Wert eines
allgemeineren Vergleichsmodells gebildet wird.188
8.5.6 Zusammenfassung
Im Rahmen der vorliegenden Arbeit wird grundsätzlich der Versuch unternommen, für
alle verwendeten Konstrukte eine mit reflexiven Messmodellen verträgliche Operationali-
sierung zu erreichen. Daher sollen alle Konstrukte zunächst nach der im Abschnitt 8.5.3
dargestellten Methodik untersucht werden. Zunächst werden exploratorische Faktoren-
analysen zur Überprüfung und eventuellen Bereinigung der Itemstrukturen durchgeführt,
wobei entweder jeweils die Dimensionen eines komplexen Konstrukts oder aber ein Aggre-
gat inhaltlich verwandter Konstrukte simultan analysiert wird. Obwohl dabei jeweils eine
Hypothese für die Anzahl der zu extrahierenden Faktoren besteht, werden Scree-Plot und
Kaiser-Kriterium zur Überprüfung herangezogen. Die Faktorlösungen werden zunächst
anhand des Faktorladungsmusters und der Höhe der Faktorladungen beurteilt. Idealer-
weise wird hier eine Einfachstruktur angestrebt, bei der die Variablen möglichst immer
nur auf einen Faktor hoch und auf alle anderen Faktoren niedrig laden. Weiterhin sollten
die beobachteten Variablen näherungsweise einer Multinormalverteilung folgen, ihr MSA
über 0,5 liegen, das Kaiser-Mayer-Olkin Maß einen Wert größer als 0,8 aufweisen und der
Bartlett Test of Sphericity auf die Existenz signifikanter Korrelationen hinweisen. Können
diese Kriterien nicht auf Anhieb erfüllt werden, erfolgt eine Variablenselektion, bei der die
Höhe der Kommunalitäten, die von Kano und Harada (2000) vorgeschlagene Teststatistik
und inhaltliche Gesichtspunkte berücksichtigt werden.
Sobald eine statistisch wie inhaltlich zufriedenstellende Faktorlösung ermittelt wurde,
wird anhand des Tetradentests nach Bollen und Ting (1993, 2000) überprüft, ob die resul-
tierende Variablenmenge wie vorausgesetzt mit einem reflexiven Messmodell verträglich
ist. Ist dies der Fall, werden Unidimensionalität, Reliabilität und Validität der Konstrukt-
messung gemäß der Ausführungen in Abschnitt 8.5.3 überprüft. Das Vorliegen einer Ein-
fachstruktur im Rahmen der exploratorischen Faktorenanalyse kann bereits als erster
Hinweis auf die Unidimensionalität des Faktormodells gewertet werden. Führt auch eine
konfirmatorische Faktorenanalyse, bei der alle Indikatoren auf genau einen Faktor laden,
zu zufriedenstellenden Anpassungsmaßen bzw. einer nicht signifikanten χ2 -Teststatistik,
kann dies als weitere Bestätigung der Unidimensionalität gewertet werden. Die Reliabi-
lität der Messung wird anhand von Cronbach’s Alpha und den aus dem LISREL-Output
zu errechnenden Indikator- und Faktorreliabilitäten überprüft. Alpha sollte Werte über
188
Marsh und Hocevar (1985), S. 570f.
8.6. Vorgehen bei der Analyse des Pfadmodells 211
0,7 annehmen, die Indikatorreliabilitäten sollten über 0,4 liegen und der WLJ-Koeffizient
größer als 0,6 sein. Zur Beurteilung der Konstruktvalidität wird zunächst geprüft, ob die
durchschnittlich extrahierte Varianz der latenten Variable als Maß ihrer Konvergenzva-
lidität über 0,5 liegt. Die Diskriminanzvalidität wird schließlich im Zusammenhang mit
den übrigen latenten Variablen der Untersuchung über χ2 -Differenztests und das Fornell-
Larcker-Kriterium beurteilt. Bei multidimensionalen Konstrukten werden darüberhinaus
Bi-Faktormodelle, Gruppen-Faktormodelle und Faktorenanalysen zweiter Ordnung mit-
einander verglichen und die Konvergenz der Faktoren beurteilt.
Unter fundamentalen Modellbestandteilen sollen hier Größen verstanden werden, die sich
spezifisch auf einzelne Modellgleichungen beziehen, wie z. B. die direkten, indirekten und
totalen Effekte einer gegebenen Variable auf eine andere oder der Varianzanteil, den die
Prädiktoren einer endogenen Variable erklären können. Zwischen der globalen Anpas-
sungsgüte eines Strukturgleichungsmodells und der Qualität fundamentaler Modellbe-
standteile besteht kein unmittelbarer Zusammenhang. So kommt es einerseits vergleichs-
weise häufig vor, dass Modelle mit sehr guten Fitmaßen nur kleine Pfadkoeffizienten auf-
weisen und kaum zur Varianzerklärung der endogenen Variablen beitragen, während mit-
unter auch Fälle auftreten, bei denen Modelle mit exzellenter Varianzerklärung zu einer
unbefriedigenden Anpassungsgüte führen.190
189
Tomarken und Waller (2003), S. 578.
190
Vgl. hierzu auch die bei Tomarken und Waller (2003), S. 586 präsentierten Beispiele.
212 8. Methodik der Datenauswertung
Vor diesem Hintergrund soll bei der Analyse des Pfadmodells hinreichendes Augen-
merk auf die angesprochenen fundamentalen Modellbestandteile gelegt werden. Zunächst
wird neben Betrag und Vorzeichen aller Pfadkoeffizienten auch die statistische Signi-
fikanz in Form des t-Wertes berichtet. Weiterhin werden neben den direkten Effekten
einer Variablen auf eine andere Variable auch die indirekten Effekte berichtet, da sich
erst dadurch ihre vollständige Wechselwirkung beurteilen lässt.191 Schließlich werden
noch Angaben zur Varianzerklärung im Pfadmodell gemacht: Zur Beschreibung der Ef-
fektstärke wird für jede endogene Variable ηi die von LISREL ermittelte multiple Kor-
relation Rη2i = 1 − var(ζi )/var(ηi ) angegeben, während als Maß für die Varianzerklärung
aller Pfadgleichungen gemeinsam der Determinationskoeffizient 1 − |Ψ|/| Σ ηη | berichtet
192
wird.
Die Ausführungen in Abschnitt 8.1 dieser Arbeit haben gezeigt, dass es sich bei einem
Strukturgleichungsmodell um eine komplexe statistische Hypothese über die gerichteten
und ungerichteten Beziehungen einer Mengen von latenten und manifesten Variablen han-
delt, die im Allgemeinen aus zwei Teilen, einem Messmodell und einem Pfadmodell, be-
steht. Obwohl durch die häufig praktizierte sukzessive Analyse von Mess- und Pfadmodell
bereits ein gewisses Maß an Information über die Güte der beiden Teilmodelle vorliegt,
kann eine belastbare Aussage erst dann getroffen werden, wenn der Fit für den Mess- und
Pfadanteil separat ausgewiesen wird.
Das entsprechende Vorgehen wird von Anderson und Gerbing (1988, S. 418ff.) sowie
McDonald und Ho (2002, S. 73ff.) beschrieben: Ausgangspunkt ist die Tatsache, dass die
asymptotische Verteilung einer ML-Diskrepanzfunktion nach Steiger et al. (1985) in un-
abhängige additive Komponenten für das Mess- und das Pfadmodell zerlegt werden kann.
Die Pfadkomponente kann als Differenz aus der Diskrepanzfunktion des vollständigen
Strukturmodells und der des Messmodells geschätzt werden. Die Anzahl der Freiheitsgrade
df ist ebenfalls additiv, so dass separate χ2 -Tests für Mess- und Pfadmodell durchgeführt
werden können. Hierbei erweist sich häufig die Anpassungsgüte der Pfadkomponente als
kritisch, da die Anzahl der Freiheitsgrade dort wesentlich niedriger als im Messmodell ist.
Die in der vorliegenden Untersuchung hauptsächlich verwendeten globalen Fitindizes
SRMR und CFI lassen sich zwar für die beiden Teilmodelle nicht separat ausweisen,
jedoch ist dies für den RMSEA möglich. Der RMSEA gehört ebenfalls zu den von Hu und
Bentler (1998; 1999) ausdrücklich empfohlenen Anpassungsmaßen und lässt sich nach
191
Bollen (1989), S. 376ff.; Bollen (1987), S. 38.
192
Backhaus et al. (2000), S. 462ff.; Bollen (1989), S. 337.
8.6. Vorgehen bei der Analyse des Pfadmodells 213
RMSEA = F0 /dfT berechnen mit F0 = max[(Fmin − df )/(N − 1), 0], wobei Fmin den
minimalen Wert der χ2 -Fitfunktion bezeichnet und N die Stichprobengröße.193 Da der
RMSEA offensichtlich nicht additiv ist, muss diese Berechnung jeweils für die Teilmodelle
separat durchgeführt werden.
Abgesehen von äquivalenten Modellen lässt sich meist durch geringfügige Änderungen
(z. B. Hinzufügen, Eliminieren oder Umkehren von Pfaden) eine Vielzahl nichtäquivalenter
Alternativmodelle aufstellen, die von der zu Grunde liegenden Theorie ebenfalls getragen
werden. Da die hierbei auftretenden Modelle häufig von gleicher Komplexität sind, aber
stark unterschiedliche Kausalzusammenhänge aufweisen, lassen sie sich nicht durch χ2 -
Differenztests vergleichen, wie sie im Abschnitt 8.5.5 beschrieben wurden. Um zumindest
für die große Zahl von Modellen gleicher Komplexität einen systematischen Modellver-
gleich zu ermöglichen, haben Meehl und Waller (2002) einen von ihnen als Veripath be-
zeichneten Algorithmus in Mathematica implementiert, der die Wahrheitsähnlichkeit eines
gegebenen Zielmodells aus einem Vergleich mit der Menge gleich komplexer Alternativ-
modelle ermittelt.194
Der Veripath-Algorithmus basiert auf der folgenden Grundüberlegung:195 Obwohl je-
des Diagramm D, das die Substanzhypothesen eines Strukturgleichungsmodells grafisch
repräsentiert, strenggenommen inkorrekt ist, kann man davon ausgehen, dass die unter-
suchte Theorie T ein bevorzugtes Diagramm D∗ motiviert und darüberhinaus eine Menge
von Diagrammen {DT } toleriert. Falls Elemente der nicht tolerierten Menge {−DT } zu
einer deutlich besseren Modellanpassung führen als D∗ , wird die untersuchte Theorie
T diskreditiert. Ziel der Veripath-Untersuchung ist es, das präferierte Modell D∗ und
eine möglichst kleine Menge geduldeter Diagramme {DT } mit der Menge {−DT } der
von der Theory T ausgeschlossenen Diagramme zu vergleichen. Hierdurch wird indirekt
die Stichhaltigkeit der Theorie T mit der von möglichen Alternativtheorien verglichen.
Die Untersuchung erfasst allerdings nur die topologische Struktur der Theorie, die durch
das Pfaddiagramm erfasst wird, nicht dagegen einzelne Strukturkomponenten. Direkte
Aussagen über die Signifikanz oder Wahrheitsähnlichkeit einzelner Pfade sind also nicht
möglich, sondern nur Aussagen über die Wahrheitsähnlichkeit des präferierten Modells
D∗ im Vergleich zur Menge der nicht tolerierten Diagramme {−DT }.
Für die eigentliche Modellbeurteilung geht die Veripath-Analyse von der folgen-
193
Jöreskog (1993), S. 310; Hu und Bentler (1998), S. 428.
194
Das Mathematica-Notebook kann unter http://www.vanderbilt.edu/quantmetheval samt einer kurz-
en Anleitung heruntergeladen werden.
195
Vgl. Meehl und Waller (2002), S. 286f. sowie Waller (2002), S. 3f.
214 8. Methodik der Datenauswertung
den mathematischen Überlegung aus: Ein Diagramm D stellt eine komplexe Beziehung
Rel({ci }, {rj }) zwischen den Pfadkoeffizienten ci und den beobachteten Korrelationen rj
her. Diese Beziehung kann in zwei Mengen Rel1 ({ci }, {rj }) und Rel2 ({ci }, {rl }) zerlegt
werden, die sich zwar auf die gleichen Pfade beziehen, jedoch disjunkt hinsichtlich der
Korrelationen sind. Diese Zerlegung erfolgt vor dem folgenden Hintergrund: Die Menge
Rel1 ({ci }, {rj }) kann verwendet werden, um die k unbekannten Pfadkoeffizienten des
Diagrammes durch Lösung von k Polynom-Gleichungen unter Verwendung der beob-
achteten Korrelationen rj zu bestimmen. Die so ermittelten k Pfadkoeffizienten können
im Folgenden in die in Rel2 enthaltenen Polynom-Gleichungen eingesetzt werden, um
die nicht verwendeten Korrelationen rl vorherzusagen. Aus der Differenz zwischen den
vorhergesagten und den beobachteten Korrelationen kann ein globales Anpassungsmaß
ermittelt werden, das dem in LISREL verwendeten SRMR ähnelt, aber nur über die in
Rel2 enthaltenen, nicht verwendeten Korrelationen summiert:
1
SRMRVeri = (rij − rij )2 . (8.6.22)
m i=j
Anders als bei den in LISREL verwendeten Full-Information-Methoden, die zur Mo-
dellschätzung alle Korrelationen heranziehen, verwendet Veripath also ein Limited Infor-
mation-Verfahren. Dennoch besteht eine hohe Korrelation zwischen den durch Veripath
und LISREL erzielten Parameterschätzungen.196
Auf dieser Basis ermittelt Veripath die Wahrheitsähnlichkeit des präferierten Dia-
grammes D∗ wie folgt: Aus D∗ wird zunächst ein korrumpiertes Diagramm D erzeugt,
indem einer der Pfade in D∗ elimiert wird und dafür eine der Leerstellen“ des Diagram-
”
mes durch einen neuen Pfad gefüllt wird. Diese von Meehl und Waller (2002) als Delete
1 – Add 1 (D1A1) bezeichnete Regel wird anschließend wiederum auf das korrumpier-
te Modell angewendet, um ein weiteres Alternativmodell zu erzeugen. Auf diese Weise
werden alle durch Ersetzung eines Pfades ableitbaren Modelle generiert und anhand des
SRMRVeri hinsichtlich ihrer Anpassungsgüte untersucht. Obwohl noch zahlreiche ande-
re Methoden zur Erzeugung von Alternativmodellen denkbar wären, hat die D1A1-Regel
den Vorteil, dass sie strukturell benachbarte Alternativmodelle mit der gleichen Anzahl an
Freiheitsgraden und gerichteten Pfaden erzeugt. Dies ist eine notwendige Voraussetzung
zum Modellvergleich, da sich die durch den SRMR gemessene empirische Anpassungsgüte
eines Modells beim Hinzufügen neuer Modellpfade ohne Elimination bestehender Pfade
nur verbessern kann, obwohl der theoretische Fit, d. h. die Anpassung des theoretischen
Modells an die (unbekannten) wahren Strukturen, eventuell sogar nachlässt.197
196
Vgl. Anhang C, insbesondere Tabelle C.1 auf S. 316 sowie Waller und Meehl (2002), S. 323ff.
197
Olsson et al. (1999), S. 34ff.
8.6. Vorgehen bei der Analyse des Pfadmodells 215
Durch den Vergleich der Anpassungsgüte zwischen präferiertem Modell D∗ und sei-
nen Alternativmodellen kann abschließend die Wahrheitsähnlichkeit des Modells beurteilt
werden. Die risikoreichste Prognose besteht in der Vorhersage, dass das präferierte Modell
einen besseren Fit aufweist als alle seine Alternativmodelle. Daneben lässt sich aber auch
die weniger risikoreiche Vorhersage testen, dass das beste Diagramm aus der tolerierten
Menge {DT } stammt.
8.6.4 Moderatoreffekte
Die Idee des Moderatorvariablenansatzes entstand aus einer generellen Skepsis gegenüber
linear-additiven Modellen, die in vielen Fällen der Erklärung und Vorhersage menschli-
chen Verhaltens nicht gerecht werden. Ein linear-additives Modell gestattet nur die Mo-
dellierung einer additiven Überlagerung von Effekten, nicht aber die Modellierung einer
Wechselwirkung (Interaktion) zwischen Prädiktorvariablen.198 In Abschnitt 3.3.2 wurde
jedoch bereits deutlich, dass die Einbeziehung nichtlinearer Interaktionen eine wesentli-
che Voraussetzung ist, um den Fit von Variablengruppen (z. B. Prozessformalisierung und
Innovationsgrad) zu untersuchen. Will man beispielsweise nachweisen, dass der Innovati-
onsgrad einen signifikanten Einfluss auf den Zusammenhang zwischen Prozessformalisie-
rung und Erfolg hat, so liegt ein typisches Beispiel für eine Moderationshypothese vor.
Allgemein liegt eine Moderation des Zusammenhangs zwischen zwei Variablen X und Y
durch die Drittvariable Z dann vor, wenn sich die Stärke dieses Zusammenhangs mit den
Ausprägungen die Variablen Z verändert. Dabei wird Z als Moderatorvariable oder auch
als Moderator bezeichnet.
Y = β1 X + β2 Z + β0 (8.6.23)
In dieser Gleichung hat die Steigung von Y in Abhängigkeit von X einen konstanten Wert
für alle Werte von Z. Fügt man Gleichung (8.6.23) dagegen einen Interaktionsterm XZ
198
Klein (2000), S. 1.
199
Vgl. u. a. Jaccard et al. (1990) und Aiken und West (1991).
216 8. Methodik der Datenauswertung
hinzu, so hängt die Regression von Y auf X vom spezifischen Wert von Z ab, für den sie
erfolgt:
Y = β1 X + β2 Z + β3 XZ + β0
= (β1 + β3 Z)X + (β2 Z + β0 ) (8.6.24)
= (β2 + β3 X)Z + (β1 X + β0 )
200
Aiken und West (1991), S. 9f.; Sharma et al. (1981), S. 294. Vgl. zur grafischen Veranschaulichung
auch Abbildung 10.7 auf Seite 280 der vorliegenden Arbeit.
201
Aiken und West (1991), S. 35.
202
Myers (1990), S. 369; DeMaris (2004), S. 110.
203
Vgl. Anderson (1986), S. 191 sowie Zedeck (1971).
8.6. Vorgehen bei der Analyse des Pfadmodells 217
ratoreffektes mittlerweile weite Verbreitung erfahren hat, weist sie doch eine Reihe me-
thodischer Mängel auf. So wird bei der Regressionsanalyse implizit vorausgesetzt, dass die
erfassten Regressoren messfehlerfrei sind, d. h. vollständig reliable Messungen der durch
sie repräsentierten Konstrukte darstellen. In der Praxis wird diese Annahme jedoch meist
verletzt, so dass die Regressionsparameter weder erwartungstreu noch effizient geschätzt
werden. Diese Problematik verschärft sich bei einer moderierten Regression gegenüber ei-
nem rein linearen Modell zusätzlich dadurch, dass die Reliabilität eines Produktterms XZ
unter der Reliabilität der Ausgangsvariablen X und Z liegt.204 Es kann gezeigt werden,
dass das Inkrement des Produktterms in direkter Beziehung zu seiner Reliabilität steht
und sich bei sinkender Reliabilität ebenfalls deutlich vermindert.205 Um dieses Problem zu
vermeiden, wurde in der Vergangenheit verstärkt die Abbildung von Moderatormodellen
im Rahmen von Strukturgleichungsmodellen diskutiert, die im nächsten Abschnitt kurz
vorgestellt werden sollen.
204
Sind X und Z vollständig unkorreliert, so entspricht die Reliabilität des Produktterms dem Produkt
der Reliabilitäten der Ausgangsvariablen.
205
Busemeyer und Jones (1983); Jaccard und Wan (1995).
206
Vgl. für eine Übersicht v. a. die Arbeiten von Cortina et al. (2001), Jaccard und Wan (1996), Li et al.
(1998), Moulder und Algina (2002) sowie den Sammelband Schumacker und Marcoulides (1998).
207
Cortina et al. (2001), S. 324f.
218 8. Methodik der Datenauswertung
bereits durch 16 Indikatoren zu messen wäre. Neben der resultierenden hohen Parameter-
zahl erfordert das Modell die Schätzung nichtlinearer Terme, die sich vor der Einführung
von LISREL 8.0 nur unter Zuhilfenahme zahlreicher Phantomvariablen realisieren lie-
ßen.208 Als Folge wurden später einfachere Modelle entwickelt,209 die sich im Rahmen
von Simulationsstudien bewährt haben und zu jeweils ähnlichen Parameterschätzungen
führen.210
In dieser Arbeit soll ein einfaches Modell mit nur einem Indikator für den Interak-
tionsterm in Anlehnung an Mathieu et al. (1992) und Ping (1995) verwendet und mit
den Ergebnissen der moderierten Regressionsanalysen verglichen werden. Um das Mo-
dell abbilden zu können, wird zunächst eine Kovarianzmatrix generiert, die alle latenten
Variablen erster Ordnung durch nur einen Indikator erfasst, im Rahmen einer Pfadana-
lyse die gleichen Strukturbeziehungen wie das vollständige LISREL-Modell liefert und
darüberhinaus einen Indikator für den Interaktionsterm enthält. Im ersten Schritt wer-
den dazu in SPSS Summenvariablen für die latenten Variablen erster Ordnung errechnet,
wobei als Gewichte die von LISREL für das vollständige Messmodell errechneten Fak-
torwerte verwendet werden. Anschließend werden die für den Moderatoreffekt relevanten
Variablen zentriert, der Indikator des Interaktionsterms durch Multiplikation errechnet
und die Kovarianzmatrix gebildet. Im zweiten Schritt wird in LISREL ein Pfadmodell auf
Basis der so errechneten Kovarianzmatrix geschätzt und die Signifikanz des Moderatoref-
fekts beurteilt.
208
Die Anwendung von Phantomvariablen für latente Moderatormodelle geht auf Hayduk (1987) zurück
und wird dort ausführlich in Kapitel 7 beschrieben.
209
Jaccard und Wan (1995); Jöreskog und Yang (1996); Mathieu et al. (1992); Ping (1995); Ping (1996).
210
Cortina et al. (2001), S. 354ff.; Li et al. (1998), S. 21ff.
Kapitel 9
9.1 Businessplanung
1
Obwohl hierdurch an aktuelle Forschungsergebnisse angeknüpft wird, zeigt die Meta-Analyse von
Churchill und Peter (1984, S. 367), dass dies nicht notwendigerweise zu einer höheren Reliabilität
der Messung führt. Aus diesem Grund werden im vorliegenden Kapitel alle Konstrukte mit den in
Kapitel 8.5.3 beschriebenen Methoden validiert.
2
Atuahene-Gima und Li (2004), S. 597.
220 9. Operationalisierung und Validierung der Konstrukte
Item Item
Faktor
(Kurzbezeichnung) (vollständige Formulierung)
Fit mit Unterneh- Der Fit des Vorhabens mit der Unternehmensstrategie
mensstrategie wurde untersucht
Fit
Fit mit Der Fit des Vorhabens mit eigenen Kernkompetenzen
Kernkompetenzen wurde untersucht
3
Jovanović (1999), S. 218ff.; Morris (1998), S. 11.
4
Deszca et al. (1999), S. 616.
9.1. Businessplanung 221
die hypothetisierten Faktoren in sauberer Einfachstruktur, wobei der Bartlett-Test auf si-
gnifikante Korrelationen hinweist und die KMO- und MSA-Maße zufriedenstellende Werte
annehmen. Auf eine Itemselektion kann daher verzichtet werden. Beide Faktorlösungen
zeigen ähnliche Ladungsmuster, wobei die ML-FA/Promax allerdings Heywood-Fälle auf-
weist und daher mit Vorsicht zu interpretieren ist.
Um die Verträglichkeit der insgesamt neun Indikatoren mit einem reflexiven Messmo-
dell zu überprüfen, werden die vier korrelierenden Faktoren in Einfachstruktur in Mathe-
matica abgebildet und der Tetradentest durchgeführt. Die 21 nichtredundant verschwin-
denden Tetraden führen zu einer nicht signifikanten Teststatistik (χ2 = 15,87; df = 21;
p = 0,78), so dass die Verwendung eines reflexiven Modells nicht abgelehnt werden kann,
vgl. Tabelle 9.3. In Vorbereitung auf die konfirmatorische Faktorenanalyse wird die mul-
tivariate Normalität der neun Variablen überprüft. Die mit PRELIS ermittelte relative
multivariate Kurtosis beträgt 1,2, so dass keine wesentlichen Verzerrungen bei der Ver-
wendung der ML-Fitfunktion in LISREL zu erwarten sind.
Im Rahmen der konfirmatorischen Faktorenanalyse wurde zunächst ein Gruppen-
Faktormodell mit vier frei korrelierenden Faktoren geschätzt. Das Modell zeigt sehr gute
Fitmaße (SRMR = 0,037; CFI = 0,98) und macht keine Modellmodifikationen notwendig,
vgl. Tabelle 9.5. Da die durchschnittlich erklärte Varianz aller Faktoren über 50 Prozent
liegt, kann ihre Konvergenzvalidität als gewährleistet angesehen werden. Um weiterhin
die Güte des multidimensionalen Messmodells gegenüber alternativen Modellen beurtei-
len zu können, werden entsprechend der in Abschnitt 8.5.5 dargestellten Methodik durch
Aufhebung und Hinzufügung von Restriktionen mehrere ineinander geschachtelte Modelle
konstruiert und durch χ2 -Differenztests verglichen.
Die geringsten Restriktionen weist ein Bi-Faktormodell auf, das dadurch entsteht,
dass dem Gruppen-Faktormodell ein allgemeiner Faktor hinzugefügt wird, der auf alle
manifesten Variablen lädt, mit dem Gruppenfaktoren jedoch nicht korrelieren soll (vgl.
Abbildung 8.3d). Das Bi-Faktormodell liefert eine sehr gute Anpassung an die Daten
(χ2 = 17,11; df = 15; p = 0,34), vgl. Tabelle 9.4, wobei die ursprüngliche Lösung jedoch
drei negative Fehlervarianzen enthielt, die auf positive Werte fixiert werden mussten.5 Eine
mögliche Erklärung für die negativen Fehlervarianzen besteht darin, dass entweder der all-
gemeine oder einer der spezifischen Faktoren zur Beschreibung der Daten nicht notwendig
ist und die daraus resultierende Kollinearität der Faktoren zur empirischen Unteridenti-
fikation führt.6 Ein Vergleich des Bi-Faktormodells mit dem Gruppen-Faktormodell ist
äquivalent zu einem Test darauf, dass alle Faktorladungen des allgemeinen Faktors gleich
5
Dies ist auch der Grund dafür, dass für das Bi-Faktormodell 15 Freiheitsgrade berichtet werden statt
der 12, die sich ceteris paribus durch Hinzufügen von 9 weiteren zu schätzenden Faktorladungen zum
Gruppen-Faktormodell mit 21 Freiheitsgraden ergeben würden.
6
Rindskopf und Rose (1988), S. 59.
222 9. Operationalisierung und Validierung der Konstrukte
Null sind. Die signifikante χ2 -Differenz (∆χ2 = 13,74; df = 6; p = 0,03) zwischen beiden
Modellen zeigt zwar, dass das Bi-Faktormodell besser an die Daten angepasst ist, dies
wird allerdings durch seine schwerere Interpretierbarkeit erkauft.
9.1. Businessplanung
PCA/Varimax ML-EFA/Promax
Analyse auf Werttreiber 0,81 0,20 0,07 0,08 0,73 0,05 -0,06 -0,02 0,84 0,52 1,00
Analyse von Szenarien 0,81 0,13 0,15 0,08 0,70 0,02 -0,05 -0,04 0,80 0,52 2,66
Methodisches Vorgehen 0,80 0,12 0,19 0,25 0,80 -0,04 0,01 0,09 0,83 0,68 3,82
Suche nach Alternativkonzepten 0,17 0,93 0,12 0,16 0,01 0,83 -0,01 0,09 0,65 0,73 1,99
Auswahl aus Alternativkonzepten 0,24 0,91 0,21 0,03 0,03 0,99 0,03 -0,07 0,65 0,99 3,00
Fit mit Unternehmensstrategie 0,11 0,18 0,92 0,12 -0,04 0,09 0,81 -0,05 0,64 0,65 0,36
Fit mit Kernkompetenzen 0,24 0,14 0,88 0,24 0,03 -0,07 0,99 0,05 0,68 0,99 1,52
Einbindung von Fachabteilungen 0,21 0,04 0,11 0,86 0,19 -0,04 0,00 0,54 0,73 0,39 4,36
Partizipative Zielvereinbarung 0,10 0,13 0,20 0,86 -0,10 0,04 -0,01 1,03 0,70 0,99 4,73
Erläuterung. KMO = 0,71. Barlett-Test: χ2 = 518,8; df = 36; p=0,00. Die Kommunalitäten beziehen sich auf die ML-FA/Promax. Fett
gedruckte Faktorladungen kennzeichnen Werte über 0,3. Die Korrelationen der Faktoren nach Promax-Rotation betragen r12 = 0,46; r13
= 0,46; r14 = 0,39; r23 = 0,41; r24 = 0,25; r34 = 0,42.
Tabelle 9.2: Exploratorische Faktorenanalyse zur Businessplanung
223
224 9. Operationalisierung und Validierung der Konstrukte
Tabelle 9.3: Nichtredundante verschwindende Tetraden und zugehörige Tetradenwerte zur Businesspla-
nung. Die Daten sind mit einem reflexiven Messmodell verträglich: χ2 (21) = 15,87 (p = 0, 78).
Anpassungsgüte χ2 -Differenztest
Erläuterung. Analyse der Kovarianzmatrix. Faktorladungen zeigen die standardisierte Lösung ohne Skalenfixierung. Die Korrelationen der
Faktoren betragen r12 = 0,48; r13 = 0,49; r14 = 0,48; r23 = 0,38; r24 = 0,27; r34 = 0,51. Die Anpassungsmaße betragen SRMR=0,037;
CFI=0,98; χ2 = 30,85; df = 21; p = 0,08; χ2 /df = 1,5.
Φ χ2 df p Φ χ2 df p Φ χ2 df p
Die operativen Aspekte der Vorhabensplanung sollen durch zwei Faktoren, nämlich Pro-
jektplanung und Risikomanagement erfasst werden (Tabelle 9.7). Obwohl es sich bei die-
sen Konstrukten gemäß der Konzeptualisierung in Abschnitt 4.2 nicht um Faktoren eines
mehrdimensionalen Konstrukts handelt, sollen sie doch aufgrund ihrer inhaltlichen Nähe
in den folgenden statistischen Analysen gemeinsam betrachtet werden, um dadurch die
Modellidentifizierung im Rahmen der konfirmatorischen Faktorenanalysen und des Tetra-
dentestes zu gewährleisten. Für den Faktor Projektplanung sind fünf Indikatoren vorge-
sehen, die mit Struktur-, Meilenstein- und Ressourcenplanung sowie Kostenabschätzung
und Dokumentation typische Aktivitäten der Projektplanung abbilden.7 Der Faktor Risi-
komanagement lehnt sich stark an die von Raz et al. (2002) entwickelte Skala an. Die Items
Risikoidentifikation, Risikoanalyse, Risikoverhütung und Schadensverkürzung wurden di-
rekt der genannten Arbeit entnommen, das dort zusätzlich verwendete Item Ernennung
”
eines Risikomanagers“ jedoch weggelassen, da es im Gegensatz zu den anderen Indikatoren
weniger ein Prozessmerkmal als vielmehr einen aufbauorganisatorischen Aspekt erfasst.
Tabelle 9.8 illustriert die Befunde der exploratorischen Faktorenanalysen. Sowohl bei
der PCA/Varimax als auch bei der ML-FA/Promax werden nach dem Kaiser-Kriterium
jeweils zwei Faktoren extrahiert, was durch den deutlichen Abfall im Scree-Plot unter-
mauert wird. Die Korrelation der beiden Faktoren bei der MF-FA/Promax beträgt 0,62,
der Bartlett-Test weist auf signifikante Korrelationen hin, und das KMO-Maß sowie alle
MSA-Werte sind durchweg sehr hoch. Dennoch wurden nach Betrachtung des Faktorla-
dungsmusters die drei Items Kostenabschätzung, Dokumentation der Projektplanung und
Risikoidentifikation von der weiteren Analyse ausgeschlossen, da sie vergleichsweise hohe
Querladungen auf den jeweils anderen Faktor aufwiesen.
Unter Verwendung von Mathematica wurde ein Tetradentest durchgeführt, um die
Verträglichkeit der sechs verbleibenden Indikatoren mit einem reflexiven Messmodell zu
überprüfen (vgl. Tabelle 9.9). Die beiden korrelierenden Faktoren mit je drei Indikatoren
liefern acht nicht redundant verschwindende Tetraden sowie eine Teststatistik, die auf
einem Niveau α = 0,05 signifikant ist (χ2 = 15,85; df = 8; p = 0,045). Folglich ist für die
beiden Faktoren der operativen Vorhabensplanung die Nullhypothese H0 : τ = 0 abzuleh-
nen, die Daten sind hier also nicht mit einem reflexiven Messmodell verträglich. Angesichts
der sehr guten Ergebnisse der exploratorischen Faktorenanalyse ist dieses Ergebnis durch-
aus überraschend und sollte daher durch weitere Analysen untermauert werden. Da sich
zwar jedem Strukturgleichungsmodell eine Maximalzahl nichtredundant verschwindender
Tetraden zuordnen lässt, die Wahl der Tetradenmenge jedoch nicht eindeutig ist, wurde
7
Vgl. u. a. Bullinger (1996a), S. 37ff. sowie ausführlich Meredith und Mantel (1995).
9.2. Projektplanung und Risikomanagement 229
Item Item
Faktor
(Kurzbezeichnung) (vollständige Formulierung)
die Analyse mit alternativen Tetradenmengen wiederholt, die jedoch zu noch höheren χ2 -
Werten führten. Weiterhin wurde für beide Faktoren ein separater Tetradentest berechnet,
wobei zur Modellidentifikation allerdings jeweils wieder ein viertes Items aufgenommen
werden musste (Kostenabschätzung im Fall der Projektplanung und Risikoidentifikation
im Fall des Risikomanagement). Beide Modelle liefern wiederum jeweils zwei nichtredun-
dant verschwindenden Tetraden und signifikante Teststatistiken (χ2 = 23,15; p = 0,000
sowie χ2 = 7,73; p = 0,021).
Im nächsten Schritt wurden die sechs Indikatoren auf multivariate Normalität unter-
sucht. Die mit PRELIS ermittelte relative multivariate Kurtosis von 1,2 ist akzeptabel,
so dass keine nennenswerten Verzerrungen bei der Verwendung der ML-Fitfunktion in
LISREL zu erwarten sind. Abschließend wurde daher entgegen der Indikation des Tetra-
dentests ein (reflexives) konfirmatorisches Faktorenmodell geschätzt, um die Modellanpas-
sung zu untersuchen und daraus eventuell den Grund für die Ablehnung eines reflexiven
Modells zu ermitteln. Tabelle 9.10 zeigt die durchweg hervorragenden Fitmaße, die alle
in Abschnitt 8.5 genannten Anforderungen erfüllen. Auch eine Betrachtung der stan-
dardisierten Residuen im LISREL-Output zeigt keine Auffälligkeiten. Die Abweichungen
230 9. Operationalisierung und Validierung der Konstrukte
PCA/Varimax ML-FA/Promax
verteilen sich relativ gleichmäßig über die einzelnen Indikatoren, so dass die Ersetzung
einzelner Indikatoren keine wesentliche Verbesserung der Anpassungsgüte zu erwarten
ist. Für die beiden Faktoren bleibt daher abschließend festzuhalten, dass sie zwar eine ho-
he Anpassungsgüte in der konfirmatorischen Faktorenanalyse aufweisen, der Tetradentest
ein solches Modell jedoch ablehnt. Aus diesem Grund sollen Projektplanung und Risiko-
management bei der Überprüfung des vollen Strukturmodells in Kapitel 10 sowohl durch
reflexive als auch durch formative Messmodelle abgebildet werden, um die Auswirkung
bei der Beurteilung der Substanzhypothesen abschätzen zu können.
Erläuterung. Analyse der Kovarianzmatrix. Faktorladungen zeigen die standardisierte Lösung ohne Skalenfixierung. Die Korrelation der beiden
Faktoren beträgt r12 = 0,54. Die Anpassungsmaße betragen SRMR=0,048; CFI=0,99; χ2 = 14,49; df = 8; p = 0,07; χ2 /df = 1,8.
Die Projektsteuerung soll durch zwei postulierte Faktoren, nämlich den Grad der Pro-
zessformalisierung und die Prozessstabilität, erfasst werden. Für die Prozessformalisierung
sind sechs Indikatoren vorgesehen, von denen sich vier (Meilensteinsteuerung, explizite
Zielvorgaben, Entscheidungen an Meilensteinen, klare Abbruchkriterien) stark an exi-
stierende Skalen zur Prozessformalisierung von Ernst (2001) sowie ferner Tatikonda und
Montoya-Weiss (2001) und Lewis et al. (2002) anlehnen.8 Ein weiteres Item (transparente
Entscheidungen) wurde zusätzlich aufgenommen, um die Prozessformalisierung durch den
Grad an Transparenz der im Projektverlauf getroffenen Entscheidungen zu reflektieren.
Prozessstabilität wird in Anlehnung an existierende Skalen von Covin und Slevin (1998)
sowie Lynn und Akgün (2001) durch vier Items operationalisiert, die messen, in welchem
Umfang im Projektverlauf Zielvorgaben und der ursprüngliche Zeitplan geändert wurden,
wie häufig Ressourcen-Commitments revidiert werden mussten, inwieweit die aktuellen
Projektziele noch mit denen übereinstimmen, die ursprünglich im Businessplan niederge-
legt wurden, und wie häufig das Top-Management direkt in die Projektarbeiten eingreift
(vgl. Tabelle 9.11).9
Tabelle 9.12 illustriert die Befunde der exploratorischen Faktorenanalysen zur For-
malisierung der Projektsteuerung. Sowohl bei der PCA/Varimax als auch bei der ML-
FA/Promax werden nach dem Kaiser-Kriterium jeweils zwei Faktoren extrahiert, wobei
der Bartlett-Test auf signifikante Korrelationen hinweist und das KMO-Maß sowie alle
MSA-Werte durchweg hoch sind. Beide Faktorlösungen zeigen ähnliche Faktorladungen,
wobei das Ladungsmuster bei der ML-FA/Promax noch deutlicher zu Tage tritt und zu
einer relativ hohen Faktorkorrelation (0,5) führt. Da nach dem Scree-Plot jedoch ebenfalls
Lösungen mit drei Faktoren in Frage kämen, wurden zusätzlich Faktorenanalysen mit ei-
ner auf Drei restringierten Faktorenzahl gerechnet, jedoch auf Grund der statistisch wie
inhaltlich unbefriedigenden Faktorladungsmuster verworfen. Im Zuge der Itembereinigung
wurden zwei Indikatoren (transparente Entscheidungen, geringe Managementinterventio-
nen) eliminiert, die niedrige Kommunalitäten und niedrige Werte in der Kano-Harada-
Statistik aufweisen und das Faktormodell inhaltlich dadurch stören, dass sie stärker auf
den jeweils anderen als den hypothetisierten Faktor laden.
Der Tetradentest wurde durchgeführt, um die Veträglichkeit der sieben verbleiben-
den Indikatoren mit einem reflexiven Messmodell zu überprüfen. Das in Mathematica
abgebildete Modell mit zwei korrelierenden Faktoren mit jeweils vier bzw. drei Indikato-
ren in Einfachstruktur liefert bei 13 nichtredundant verschwindenden Tetraden eine nicht
8
Ernst (2001), S. 198; Tatikonda und Montoya-Weiss (2001), S. 168; Lewis et al. (2002), S. 554.
9
Covin und Slevin (1998), S. 233; Lynn und Akgün (2001), S. 379.
9.3. Projektsteuerung (Prozessformalisierung und -stabilität) 233
signifikante Teststatistik, χ2 (13) = 7,98, p = 0, 85 und ist folglich mit einem reflexi-
ven Messmodell verträglich (vgl. Tabelle 9.13). In Vorbereitung auf die konfirmatorische
Faktorenanalyse werden die verbleibenden Indikatoren schließlich noch auf multivaria-
te Normalität untersucht. Die mit PRELIS ermittelte relative multivariate Kurtosis von
1,3 ist akzeptabel, so dass keine nennenswerten Verzerrungen bei der Verwendung der
ML-Fitfunktion in LISREL zu erwarten sind.
Item Item
Faktor
(Kurzbezeichnung) (vollständige Formulierung)
Die konfirmatorische Faktorenanalyse zeigt sehr gute Fitmaße und macht keine weiteren
Modellmodifikationen notwendig, vgl. Tabelle 9.14. Bemerkenswert ist insbesondere der
seltene Fall, dass aufgrund der niedrigen Werte der Fitfunktion und der Teststatistik T
die Nullhypothese S = Σ(θ) des χ2 -Tests nicht abgelehnt werden kann.
234
PCA/Varimax ML-FA/Promax
Erläuterung. Kursiv gedruckte Items werden im Folgenden eliminiert. Fett gedruckte Faktorladungen
kennzeichnen Werte über 0,3. Die Korrelation der beiden Faktoren nach Promax-Rotation beträgt 0,5.
KMO = 0,82. Barlett-Test: χ2 (36) = 400,6 (p = 0, 00).
Tabelle 9.13: Nichtredundante verschwindende Tetraden und zugehörige Tetradenwerte zur Projekt-
steuerung (Prozessformalisierung und -stabilität). Die Daten sind mit einem reflexiven Messmodell ver-
träglich: χ2 (13) = 7,98 (p = 0, 85).
236
Erläuterung. Analyse der Kovarianzmatrix. Faktorladungen zeigen die standardisierte Lösung ohne Skalenfixierung. Die Korrelation der beiden
Faktoren beträgt 0,5. Die Anpassungsmaße betragen SRMR=0,044; CFI=1,00; χ2 = 14,22; df =13; p=0,36; χ2 /df = 1,1.
9.4 Vorhabenserfolg
1. Messbereich: Projektebene
2. Messdimensionen: Produkterfolg, Markterfolg, Finanzerfolg,
Projekteffizienz
3. Messzeitpunkt: Markteinführungsphase
4. Referenzgrößen: Ursprüngliche Projektziele
5. Messsubjekt: Überwiegend subjektive Beurteilung
10
Hauschildt (1991), S. 466 und ähnlich Kerssens-van Drongelen und Cook (1997), S. 351ff.
11
Ernst (2001), S. 168.
12
Block und MacMillan (1985), S. 184; Sheremata (2000), S. 392.
13
Hauschildt (2004), S. 508.
238 9. Operationalisierung und Validierung der Konstrukte
Hinsichtlich des Messsubjektes muss sich diese Untersuchung auf das Urteil von Key
Informants verlassen. Von dem Versuch, objektive Kennzahlen für die einzelnen Erfolgsdi-
mensionen zu erheben, wurde aus einer Reihe von Gründen abgesehen. Der größte Teil der
untersuchten Innovationen befand sich zum Zeitpunkt der Erhebung noch in der Phase der
Markteinführung, so dass keine aussagefähigen Profitabilitäts- und Umsatzzahlen vorla-
gen. Hinsichtlich der finanziellen Kennzahlen ist es ohnehin fraglich, ob bei allen Unterneh-
men Projekterfolgsrechnungen durchgeführt werden und inwieweit diese zu vergleichbaren
Ergebnissen führen. Selbst wenn solche Zahlen bereits vorgelegen hätten, wären sie zudem
aus Gründen der Vertraulichkeit wohl nur selten mitgeteilt worden. Dagegen sind subjek-
tive Erfolgseinschätzungen von den Respondenten relativ einfach vorzunehmen und haben
bei Studien mit breitem Industriequerschnitt möglicherweise den Vorteil, dass bei ihnen
bereits bestimmte Industriespezifika (z. B. typische Profitabilitätsniveaus) berücksichtigt
werden, die die Vergleichbarkeit objektiver Kennzahlen stark einschränken könnten.14
Als relevante Dimensionen des Vorhabenserfolgs werden entsprechend der Ausfüh-
rungen in Abschnitt 4.4.3 die vier Größen Produkterfolg, Markterfolg, Finanzerfolg und
Projekteffizienz herangezogen, vgl. Tabelle 9.16. Der Produkterfolg soll durch insgesamt
sieben Items messen, inwieweit das Produkt als solches die technischen und strategischen
Erwartungen bei Einhaltung der gesetzten Kostenziele erfüllt. Die Marktdimension erfasst
durch fünf Items, wie zufrieden die Kunden mit dem Produkt sind, ob es die Umsatz- bzw.
Marktanteilsziele erfüllt und inwieweit es dem Unternehmen einen nachhaltigen Wettbe-
werbsvorteil und Imagegewinn sichert. Der Finanzerfolg wird durch die geschätzte Er-
reichung von Plan-Kapitalwert und Verzinsung erfasst, während unter Projekteffizienz
die Einhaltung von Projektbudget sowie Projektzeitplan und Time-to-Market verstanden
wird.
Tabelle 9.17 präsentiert die Ergebnisse der exploratorischen Faktorenanalyse. So-
wohl bei der PCA/Varimax als auch bei der ML-FA/Promax werden nach dem Kaiser-
Kriterium vier Faktoren extrahiert, was auch durch den Scree-Plot nahegelegt wird. Die
resultierenden Faktorlösungen weisen jedoch in beiden Fällen z. T. recht niedrige Faktor-
ladungen mit deutlichen Querladungen auf und stimmen nur bedingt mit der hypotheti-
sierten Faktorstruktur überein. Insbesondere scheint das Faktorladungsmuster die Unidi-
mensionalität des Faktors Produkterfolg zu widerlegen. Unter Heranziehung von Kommu-
nalitäten sowie MSA- und LMT-Werten wurde daher eine Itembereinigung vorgenommen,
die auf vier Faktoren in Einfachstruktur mit jeweils zwei Indikatoren führt. Insbesonde-
re der erste Faktor hat durch die verbleibenden zwei Items Technische Leistung“ und
”
Qualität“ eine starke inhaltliche Re-Fokussierung erfahren und wird daher im Folgenden
”
als Technischer Erfolg bezeichnet. Daneben wird der Faktor Projekteffizienz nach Wegfall
14
Dawes (1999), S. 66.
9.4. Vorhabenserfolg 239
15
Dies ist auch der Grund dafür, dass für das Bi-Faktormodell 8 Freiheitsgrade berichtet werden statt
der 6, die sich ceteris paribus durch Hinzufügen von 8 weiteren zu schätzenden Faktorladungen zum
Gruppen-Faktormodell mit 14 Freiheitsgraden ergeben würden.
240 9. Operationalisierung und Validierung der Konstrukte
Item Item
Faktor
(Kurzbezeichnung) (vollständige Formulierung)
Kundenzufriedenheit Kundenzufriedenheit
Umsatz Erreichung des Ziel-Umsatzes
Marktanteil Erreichung des Ziel-Marktanteiles
Markterfolg Erzielung eines nachhaltigen
Wettbewerbsvorteil
Wettbewerbsvorteiles
Kommunikationsfähigkeit im Markt,
Imagegewinn
Imagegewinn
Erläuterung: Jede Itembatterie wurde mit der folgenden Frage eingeleitet: Wie wichtig waren
”
die folgenden produktbezogenen Zielgrößen für Ihr Vorhaben und wie hoch war jeweils die
Zielerreichung?“.
Tabelle 9.16: Operationalisierung des Vorhabenserfolgs
Anpassungsgüte (∆χ2 = 86,59; df = 4; p = 0,00) einher und ist folglich nicht mit den
Daten verträglich.
PCA/Varimax ML-FA/Promax
Technische Leistung 0,13 0,16 0,25 0,64 0,33 -0,06 0,33 0,02 0,83 0,38 95,0
9.4. Vorhabenserfolg
Kompetenzgewinn 0,08 0,13 -0,04 0,76 0,45 -0,26 0,07 0,18 0,79 0,26 104,1
Patentschutz 0,09 -0,06 0,58 -0,09 -0,03 -0,02 0,33 0,05 0,70 0,19 105,1
Qualität 0,26 -0,03 0,67 0,41 0,33 -0,05 0,65 -0,17 0,83 0,54 98,8
Produktionsfreundlichkeit -0,12 0,19 0,73 0,27 -0,11 -0,01 0,79 -0,04 0,78 0,44 107,5
Zielkosten 0,12 0,51 0,55 0,02 -0,09 0,25 0,49 0,15 0,85 0,46 97,4
Lebenszykluskosten 0,18 0,39 0,62 -0,03 -0,07 0,25 0,49 0,13 0,88 0,43 106,2
Kundenzufriedenheit 0,47 0,05 0,27 0,57 0,70 -0,12 0,25 -0,05 0,87 0,55 102,4
Umsatz 0,82 0,20 0,09 0,22 0,68 0,35 -0,09 -0,07 0,87 0,69 105,8
Marktanteil 0,76 0,13 0,05 0,28 0,78 0,08 -0,17 0,13 0,83 0,64 94,3
Wettbewerbsvorteil 0,72 -0,05 0,33 0,21 0,66 0,04 0,08 0,03 0,90 0,52 104,0
Imagegewinn 0,40 -0,01 -0,13 0,45 0,47 -0,02 -0,09 0,02 0,88 0,21 111,8
Kapitalwert 0,50 0,45 0,25 0,01 0,10 0,54 0,16 -0,02 0,87 0,48 100,0
ROI 0,63 0,53 0,03 -0,15 -0,02 0,93 -0,09 -0,05 0,84 0,60 98,8
Time-to-break-even 0,74 0,31 0,02 0,08 0,37 0,54 -0,11 -0,02 0,89 0,57 105,6
Budgeteinhaltung 0,07 0,77 0,01 0,13 -0,20 0,53 0,17 0,11 0,78 0,45 86,5
Zeitplaneinhaltung 0,13 0,79 0,05 0,11 -0,07 0,34 0,06 0,47 0,80 0,53 104,5
Time-to-market 0,23 0,70 0,18 0,14 0,18 -0,04 -0,01 0,97 0,81 0,57 87,6
Erläuterung. Kursiv gedruckte Items werden im Folgenden eliminiert. Fett gedruckte Faktorladungen kennzeichnen Werte über 0,3. Die Korre-
lation der beiden Faktoren nach Promax-Rotation beträgt 0,5. KMO = 0,82. Barlett-Test: χ2 (36) = 400,6 (p = 0, 00).
Tabelle 9.18: Nichtredundante verschwindende Tetraden und zugehörige Tetradenwerte zum Vorha-
benserfolg. Die Daten sind mit einem reflexiven Messmodell verträglich: χ2 (14) = 11,88 (p = 0, 62).
Anpassungsgüte χ2 -Differenztest
Erläuterung. Analyse der Kovarianzmatrix. Faktorladungen zeigen die standardisierte Lösung ohne Skalenfixierung. Die Korrelationen der
Faktoren betragen r12 = 0,50; r13 = 0,41; r14 = 0,35; r23 = 0,79; r24 = 0,42; r34 = 0,61. Die Anpassungsmaße betragen SRMR=0,043;
CFI=0,98; χ2 = 22,07; df =14; p =0,08; χ2 /df = 1,6.
Φ χ2 df p Φ χ2 df p Φ χ2 df p
9.5 Innovationsgrad
Wie im Abschnitt 2.2 ausführlich erläutert, sollte der Innovationsgrad eines Projektes als
mehrdimensionales Konstrukt aufgefasst werden, dessen Ausprägungen sowohl auf einer
unternehmensübergreifenden Makroperspektive wie auch auf einer unternehmensspezifi-
schen Mikroperspektive zu erfassen sind.
Auf der Makroebene wurden dabei eine Technologie- und eine Marktdimension so-
wie der Umfeld-Fit der Innovation unterschieden. Die Technologiedimension des Innova-
tionsgrads zielt hier in Anlehnung an Green et al. (1995) weniger auf die individuelle
Neuartigkeit einer Technologie für das innovierende Unternehmen ab, sondern erfasst
vielmehr, inwieweit eine Technologie prinzipiell neu ist, das Potenzial hat, existierende
Technologien zu verdrängen und eine deutliche Leistungssteigerung bewirken kann, vgl.
Tabelle 9.22.16 Die Makro-Marktdimension soll die Neuartigkeit der Innovation aus der
Sicht des Kunden ermitteln. Hierfür sind vier Indikatoren vorgesehen, die messen, ob das
neu entwickelte Produkt Vorteile gegenüber Konkurrenzprodukten aufweist und einen
neuen Kundennutzen adressiert, aber auch, ob dem Kunden dadurch Einstellungs- und
Verhaltensänderungen sowie ein erhöhter Lernaufwand abverlangt werden.17 Die Dimen-
sion Umfeld-Fit misst, ob die Innovation im Kreuzfeuer gesellschaftlicher Kritik steht und
die Schaffung neuer Infrastruktur und gesellschaftlicher Rahmenbedingungen notwendig
macht.18
Auf der Mikroebene wurden in Abschnitt 2.2.2 eine Vertrautheits- und eine Fitkompo-
nente unterschieden. Die Vertrautheitskomponente wird hier als Mikro-Marktdimension
durch drei Items operationalisiert, die erfassen, ob das Unternehmen in Folge der Inno-
vation mit vielen neuen Kunden sowie einer grundlegend veränderten Marktposition kon-
frontiert ist und ob sich ganze Wertschöpfungsstufen stark verändern oder sogar obsolet
werden, vgl. Tabelle 9.23.19 Der interne Ressourcenfit schließlich soll anhand von acht Indi-
katoren messen, wie gut ein Produkt zu den Kompetenzen und weitergehenden Merkmalen
eines Unternehmens passt. Hierfür wird im Wesentlichen der Anpassungsbedarf erfasst,
den die Innovation in Bezug auf Mitarbeiterqualifikationen, Geschäftsprozesse, Produk-
tionsverfahren, Unternehmensstrategie, Organisationsstruktur und Unternehmenskultur
ausgelöst hat.20
Die Befunde der exploratorischen Faktorenanalyse sind in Tabelle 9.24 zusammen-
gefasst. Sowohl bei der PCA/Varimax als auch bei der ML-FA/Promax werden nach
16
Green et al. (1995), S. 210f.
17
Atuahene-Gima (1996), S. 38; Lee und O’Connor (2003), S. 8; Veryzer (1998b), S. 138.
18
Salomo (2003), S. 6.
19
Danneels und Kleinschmidt (2001), S. 366.
20
Danneels und Kleinschmidt (2001), S. 361.
246 9. Operationalisierung und Validierung der Konstrukte
Item Item
Faktor
(Kurzbezeichnung) (vollständige Formulierung)
dem Kaiser-Kriterium zunächst sechs Faktoren extrahiert. Der Scree Plot weist jedoch
spätestens beim fünften Faktor den Übergang in eine Asymptote zur Abszisse auf,21 so
dass die Faktorenzahl in der Folge auf fünf restringiert wurde. Dies wird tendenziell auch
durch eine Betrachtung der rotierten Lösung bei sechs extrahierten Faktoren bestätigt,
da einer der Faktoren nur relativ niedrige Ladungen mit gegenläufigen Vorzeichen auf-
weist. Allerdings weist das Faktorladungsmuster auch bei fünf extrahierten Faktoren z. T.
noch deutliche Querladungen auf und stimmt nur bedingt mit der hypothetisierten Fak-
torstruktur überein, so dass eine Itembereinigung auf der Basis von MSA- und LMT-
Werten vorgenommen wurde. Bei der Technologiedimension wird das Item Technologie-
”
Verdrängung“ aufgrund seiner niedrigen Faktorladung und LMT-Statistik eliminiert, bei
der Makro-Marktdimension die beiden Items, die Nutzen bzw. Vorteile der Innovation er-
fassen, da sie vergleichsweise niedrige Ladungen aufweisen und sowohl bei PCA/Varimax
21
Die Eigenwerte fünf bis sieben betragen 1,14, 1,06 und 0,97, womit eine Festlegung der Faktorenzahl
auf sechs nach dem Kaiser-Kriterium als relativ willkürlich erscheint.
9.5. Innovationsgrad 247
Item Item
Faktor
(Kurzbezeichnung) (vollständige Formulierung)
Neue
Die Umsetzung des Vorhabens verlangte eine
Organisations-
vollkommen neue Organisationsstruktur
struktur
Interner Die notwendigen Qualifikationen der Mitarbeiter zur
Neue Mitarbeiter-
Ressourcen- Umsetzung der Innovationsidee mussten komplett neu
qualifikationen
Fit aufgebaut werden
Geänderte Unter- Zur Umsetzung der Innovation mussten die
nehmensprozesse Unternehmensprozesse grundlegend verändert werden
Neue Produktions- Mit den zur Produktion verwendeten Verfahren /
verfahren Anlagen hatten wir nur sehr wenig Erfahrung
Veränderte Unter- Das gesamte Vorhaben hat die bisher in dem
nehmenskultur Unternehmen vorhandene Kultur sehr stark verändert
Die Umsetzung der Innovation verlangte eine deutlich
Externe Partner
intensivere Zusammenarbeit mit externen Partnern
Außergewöhnlicher Der Finanzbedarf für das Vorhaben übersteigt weit
Finanzbedarf den sonst bei Entwicklungsvorhaben üblichen Rahmen
als auch bei ML-FA/Promax jeweils anderen Faktoren zuzuordnen sind. Beim Faktor
Umfeld-Fit werden dagegen alle drei Items beibehalten. Die Mikro-Marktdimension konn-
te nicht nachgewiesen werden, da ihre Indikatoren in beiden Analyseformen auf jeweils
andere Faktoren luden. Beim Faktor Interner Ressourcen-Fit schließlich wurden die vier
Items mit den geringsten Kommunalitäten und den höchsten Querladungen eliminiert.
Die verbleibenden vier Faktoren wurden in Einfachstruktur in Mathematica abgebil-
det, um anhand des Tetradentests die Verträglichkeit mit einem reflexiven Messmodell zu
überprüfen. Mit 38 nicht redundant verschwindenden Tetraden ist die Teststatistik nicht
signifikant (χ2 = 17,80; df = 38; p = 0,99), so dass die Verwendung eines reflexiven Modells
nicht abgelehnt werden kann (vgl. Tabelle 9.25). In Vorbereitung auf die konfirmatorische
Faktorenanalyse wurde weiterhin für die multivariate Kurtosis der Wert 1,1 ermittelt, so
248 9. Operationalisierung und Validierung der Konstrukte
dass keine wesentlichen Verzerrungen bei der Verwendung der ML-Fitfunktion in LISREL
zu erwarten sind.
Im Rahmen der konfirmatorischen Faktorenanalyse wurde zunächst ein Gruppen-
Faktormodell mit vier frei korrelierenden Faktoren geschätzt. Das Modell zeigt sehr gute
Fitmaße (SRMR = 0,044; CFI = 1,00; vgl. Tabelle 9.27), wobei allerdings eine als ne-
gativ geschätzte Fehlervarianz auf einen positiven Wert fixiert werden musste. Bei drei
der vier Faktoren liegt die durchschnittlich erklärte Varianz über 50 Prozent, so dass
ihre Konvergenzvalidität als gewährleistet angesehen werden kann. Lediglich die Tech-
nologiedimension verfehlt die geforderte Mindestgrenze, wird aber dennoch beibehalten,
um die inhaltliche Breite des Innovationsgradkonstrukts zu gewährleisten. Um weiterhin
die Güte des multidimensionalen Messmodells gegenüber alternativen Modellen beurtei-
len zu können, wurden durch Aufhebung und Hinzufügung von Restriktionen mehrere
ineinander geschachtelte Modelle konstruiert und durch χ2 -Differenztests verglichen.
Das Bi-Faktormodell, das aus dem Gruppen-Faktormodell durch Hinzufügung eines
mit den Gruppenfaktoren unkorrelierten allgemeinen Faktors hervorgeht, liefert ebenfalls
eine sehr gute Anpassung an die Daten (χ2 = 20,79; df = 29; p = 0,87), vgl. Tabel-
le 9.26, wobei die ursprüngliche Lösung jedoch zwei negative Fehlervarianzen enthielt, die
auf positive Werte fixiert werden mussten. Ein Vergleich des Bi-Faktormodells mit dem
Gruppen-Faktormodell ist äquivalent zu einem Test darauf, dass alle Faktorladungen des
allgemeinen Faktors gleich Null sind. Da die χ2 -Differenz zwischen beiden Modellen nicht
signifikant ist (∆χ2 = 11,72; df = 10; p = 0,30), kann hier die Nullhypothese nicht
widerlegt werden, der allgemeine Faktor kann also den Erklärungswert des Modells nicht
signifikant steigern. Die Übergänge vom Gruppen-Faktormodell zur Faktorenanalyse zwei-
ter Ordnung sowie von dieser zur Faktorenanalyse erster Ordnung führen dagegen jeweils
zu einer signifikanten Verschlechterung der Anpassungsgüte, so dass von der Verwendung
dieser beiden Modelle abgesehen werden sollte. Angesichts der Multidimensionalität des
Innovationsgrads ist dies im Fall der Faktorenanalyse erster Ordnung nicht überraschend,
deutet bei der Faktorenanalyse zweiter Ordnung allerdings darauf hin, dass sich der In-
novationsgrad nicht als mehrdimensionale latente Variable interpretieren lässt, sondern
eher als ein aggregiertes Konstrukt oder sogar durch ein Profilmodell erfasst werden sollte
(vgl. Abschnitt 8.5.5).
Um das Zusammenspiel der vier Dimensionen des postulierten Innovationsgrad-
Konstrukts besser zu verstehen, werden abschließend ihre Diskriminanz- und v. a. Konver-
genzvalidität untersucht (vgl. Tabelle 9.28). Die Diskriminanzvalidität der Faktoren kann
nach dem χ2 -Differenztest als gewährleistet angesehen werden, da die freie Schätzung der
Faktorkorrelationen in allen Fällen zu einer signifikant besseren Modellanpassung führt
als im Fall einer Restriktion auf Eins.
PCA/Varimax ML-FA/Promax
Neue Technologie 0,66 0,28 -0,03 0,19 0,14 0,83 0,01 0,02 0,05 -0,02 0,82 0,71 117,4
Leistungssteigerung 0,73 0,13 -0,02 -0,20 0,19 0,30 0,07 -0,04 0,40 0,05 0,79 0,37 112,6
9.5. Innovationsgrad
Technologie-Verdrängung 0,49 0,13 0,07 0,01 0,16 0,29 -0,02 0,00 0,22 0,09 0,69 0,21 102,3
Neue Infrastruktur 0,16 0,72 0,13 0,18 0,05 0,08 0,64 0,07 0,01 0,02 0,67 0,49 109,9
Regulatorische Anpassungen 0,10 0,82 0,02 0,19 -0,05 -0,03 1,05 -0,12 0,01 -0,05 0,61 1,00 108,3
Gesellschaftliche Kritik 0,02 0,73 0,10 -0,07 0,01 -0,04 0,52 0,15 -0,03 -0,04 0,72 0,32 117,8
Neuer Kundennutzen 0,44 0,15 0,51 0,12 0,13 0,11 0,13 0,18 0,42 0,03 0,78 0,36 103,0
Kundenvorteil 0,65 -0,23 0,15 0,15 -0,06 0,27 -0,10 -0,08 0,47 -0,10 0,68 0,33 109,6
Verhaltensänderungen 0,01 0,39 0,62 -0,25 0,35 -0,04 0,02 0,94 0,03 0,03 0,75 0,91 113,3
Hoher Lernaufwand -0,07 0,40 0,47 -0,32 0,25 0,09 -0,01 0,69 -0,09 -0,04 0,66 0,46 119,0
Viele neue Kunden 0,41 -0,25 0,56 -0,04 0,09 -0,19 0,03 0,00 0,76 0,13 0,79 0,52 116,5
Geänderte Wertschöpfungskette 0,00 0,15 0,66 0,18 0,02 -0,06 0,14 0,22 0,21 -0,02 0,62 0,14 107,8
Verbesserte Marktposition 0,62 -0,11 0,28 -0,20 0,30 0,09 -0,02 -0,04 0,62 0,16 0,81 0,51 110,2
Strategische Neuorientierung 0,25 -0,01 0,06 0,14 0,73 0,07 -0,03 -0,02 0,06 0,71 0,88 0,56 111,2
Neue Organisationsstruktur 0,12 0,06 0,09 0,06 0,83 -0,10 0,02 0,00 0,03 0,85 0,87 0,69 111,9
Neue Mitarbeiterqualifikationen 0,12 0,19 0,06 0,36 0,55 0,10 0,09 -0,03 -0,06 0,54 0,85 0,34 107,9
Geänderte Unternehmensprozesse 0,10 -0,05 0,10 0,06 0,80 -0,10 -0,08 -0,02 0,05 0,83 0,82 0,63 110,1
Neue Produktionsverfahren -0,08 0,24 0,02 0,70 0,29 0,16 0,13 -0,03 -0,27 0,37 0,77 0,23 113,4
Veränderte Unternehmenskultur 0,10 -0,01 0,10 0,10 0,77 -0,08 -0,03 0,00 0,06 0,75 0,82 0,55 99,3
Externe Partner 0,04 -0,03 0,12 0,53 0,43 0,12 -0,08 0,03 -0,09 0,44 0,78 0,21 103,8
Außergewöhnlicher Finanzbedarf 0,36 0,18 -0,13 -0,05 0,47 0,33 -0,03 0,08 -0,03 0,31 0,80 0,29 112,3
Eigenwert 2,43 2,18 1,40 1,12 5,20 0,81 1,96 1,57 3,66 2,05
Erklärte Varianz 11,15% 9,9% 6,4% 5,4% 23,6% 3,7% 8,9% 7,1% 16,6% 9,4%
Erläuterung. KMO = 0,78. Barlett-Test: χ2 = 832,7; df = 210; p =0,00. Die Kommunalitaten beziehen sich auf die ML-FA/Promax. Kursiv
gedruckte Items werden im Folgenden eliminiert. Fett gedruckte Faktorladungen kennzeichnen Werte über 0,3. Die Korrelationen der Faktoren
nach Promax-Rotation betragen r12 = 0,32; r13 = 0,21; r14 = 0,35; r15 = 0,35; r23 = -0,01;r24 = 0,28; r25 = 0,34; r34 = 0,34; r35 = 0,29; r45 =
0,21.
249
Tabelle 9.25: Nichtredundante verschwindende Tetraden und zugehörige Tetradenwerte zum Innovati-
onsgrad. Die Daten sind mit einem reflexiven Messmodell verträglich: χ2 (38) = 17,80 (p = 0, 99).
Anpassungsgüte χ2 -Differenztest
Die Konvergenz der Faktoren ist dagegen nach dem von Gatignon et al. (2002) vorge-
schlagenen Kriterium nicht in allen Fällen gewährleistet. Tabelle 9.28 zeigt zwar in fünf
von sechs Fällen eine signifikant bessere Modellanpassung bei einer freien Schätzung der
Faktorkorrelation als bei einer Restriktion auf Eins, allerdings nicht für das Paar Interner
Ressourcenfit und Marktdimension. Die Domänen dieser beiden Faktoren weisen eine so
geringe Überschneidung auf, dass sie nicht durch einen latenten Faktor zweiter Ordnung
beschrieben werden können und die niedrige Anpassungsgüte der Faktorenanalyse zweiter
Ordnung in Tabelle 9.26 herbeiführen.
Standard. Lösung Indikatorreliabilität Faktorreliabilität
9.5. Innovationsgrad
Erläuterung. Analyse der Kovarianzmatrix. Faktorladungen zeigen die standardisierte Lösung ohne Skalenfixierung. Die Korrelationen der
Faktoren betragen r12 = 0,31; r13 = 0,28; r14 = 0,41; r23 = 0,30; r24 = 0,11; r34 = 0,34. Die Anpassungsmaße betragen SRMR=0,044;
CFI=1,00; χ2 = 32,51; df = 39; p= 0,76; χ2 /df = 0,83.
Φ χ2 df p Φ χ2 df p Φ χ2 df p
Das vollständige Messmodell ist in Abbildung 9.1 dargestellt, wobei hier bereits exo-
gene Faktoren (ξ’s) und endogene Faktoren (η’s) entsprechend ihrer späteren Stellung im
vollständigen Strukturmodell unterschieden werden. Mit 16 latenten und 41 manifesten
Variablen weist das Modell eine hohe Komplexität auf und stellt angesichts der vergleichs-
weise niedrigen Fallzahl n = 134 hohe Anforderungen an die Datenqualität. Tabelle 9.29
zeigt das Ergebnis der Modellschätzung in LISREL. Die χ2 -Statistik ist zwar signifikant,
jedoch nicht allzu hoch im Verhältnis zu der sehr hohen Zahl an Freiheitsgraden (χ2 =
924,9; df =661; p=0,00; χ2 /df = 1,4). Während der SRMR mit 0,067 unterhalb des von Hu
und Bentler (1999) ermittelten Grenzwertes von 0,08 liegt, verfehlt der CFI mit 0,86 den
Zielbereich ( 0, 95) klar. Alle geschätzten Faktorladungen sind signifikant und zeigen nur
geringfügig veränderte Zahlenwerte gegenüber den in den letzten Abschnitten berichteten
Partialmodellen.
Nachdem die drei multidimensionalen Konstrukte dieser Arbeit bereits in den letzten
Abschnitten auf die Diskriminanzvalidität ihrer Einzeldimensionen hin untersucht wurden,
soll hier noch eine Überprüfung der Diskriminanzvalidität des vollständigen Messmodells
vorgenommen werden. Tabelle 9.30 zeigt zunächst die p-Werte von χ2 -Differenztests mit
einem Freiheitsgrad, die jeweils das vollständige Messmodell mit durchweg frei geschätzten
Faktorkorrelationen mit einem Alternativmodell vergleichen, bei dem eine der Faktorkor-
relationen auf den Wert Eins fixiert wurde. Bei nahezu allen Faktorenpaaren führt dieser
Test zu einer signifikanten Zunahme der Teststatistik und deutet damit auf die Diskri-
minanzvalidität der untersuchten Konstrukte hin. Einzige Ausnahme ist hier die Techno-
logiedimension des Innovationsgrads. Während der χ2 -Differenztest bei der Paarung mit
dem Umfeld-Fit zumindest noch auf einem 10%-Niveau signifikant ist, zeigt die Teststati-
stik im Zusammenhang mit der Markt-Dimension und dem Internen Ressourcen-Fit nur
noch einen nicht signifikanten Anstieg. Dieses Ergebnis ist insofern überraschend, als bei
der isolierten Analyse des multidimensionalen Innovationsgrad-Konstrukts in Tabelle 9.28
keine Probleme zutage traten.
254 9. Operationalisierung und Validierung der Konstrukte
(wird fortgesetzt)
9.6. Vollständiges Messmodell und Diskriminanzvalidität 255
(Fortsetzung)
Erläuterung. Analyse der Kovarianzmatrix. Faktorladungen zeigen die standardisierte Lösung oh-
ne Skalenfixierung. Die Anpassungmaße betragen SRMR=0,067; CFI=0,86; χ2 = 924,9; df =661;
p=0,00; χ2 /df = 1,4.
Um diesen Befund näher zu untersuchen, wird in einer zweiten Analyse die Diskrimi-
nanzvalidität der Konstrukte anhand des von Fornell und Larcker (1981) vorgeschlagenen
Kriteriums untersucht, nach dem die durchschnittlich erfasste Varianz ρave (i) eines Faktors
i größer sein sollte als die quadrierten Korrelationen Φij zwischen ihm und allen weiteren
Faktoren j. Wie Tabelle 9.31 zu entnehmen ist, fällt dieser Test wiederum für nahezu alle
Faktor-Paare positiv aus, insbesondere auch für die vier Dimensionen des Innovationsgrad-
Konstrukts. Grenzfälle bilden dagegen die aus Projektplanung und Prozessformalisierung
sowie aus Technischem Erfolg und der Technologiedimension des Innovationsgrads gebil-
deten Paare. Hier liegt für jeweils einen der beiden Faktoren die durchschnittlich erfasste
Varianz unter der quadrierten gemeinsamen Korrelation.
Da die Ergebnisse dieser Tests teilweise widersprüchlich ausfallen, wurden abschlie-
ßend noch aus dem LISREL-Output die Konfidenzintervalle der geschätzten Korrelati-
onskoeffizienten berechnet. Keines der Konfidenzintervalle enthält den Wert Eins, so dass
nach Anderson und Gerbing (1988, S. 416) die Diskriminanzvalidität aller Konstrukte im
vollständigen Messmodell als gewährleistet angesehen werden kann.
256 9. Operationalisierung und Validierung der Konstrukte
Alterna- Projekt-
tivenab- planung
wägung
Risiko-
Methodik mgmt.
Prozess-
Fit formali-
sierung
Partizipa- Prozess-
tion stabili-
tät
Technolo- Technischer
giedimen- Erfolg
sion
Umfeld- Markt-
Fit erfolg
Markt-
dimen- Finanz-
sion erfolg
Interner Zeitplanein-
Ressourcen- haltung
Fit
Abbildung 9.1: Vollständiges Messmodell. Die gestrichelten Pfeile stellen die 120 ungerichteten Pfade
(Kovarianzen) zwischen den Faktoren dar. Entsprechend ihrer späteren Stellung im vollständigen Struk-
turmodell werden hier bereits exogene Faktoren (ξ’s) und endogene Faktoren (η’s) unterschieden.
p-Werte (1) (2) (3) (4) (5) (6) (7) (8) (9) (10) (11) (12) (13) (14) (15) (16)
(1) Methodik –
(2) Alternativenabwägung 0,00 –
(3) Fit 0,00 0,00 –
(4) Partizipation 0,00 0,00 0,00 –
(5) Projektplanung 0,00 0,00 0,00 0,00 –
(6) Risikomanagement 0,00 0,00 0,00 0,00 0,00 –
(7) Prozessformalisierung 0,00 0,00 0,00 0,00 0,00 0,00 –
(8) Prozessstabilität 0,00 0,00 0,00 0,00 0,00 0,00 0,00 –
(9) Technischer Erfolg 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 –
(10) Markterfolg 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 –
(11) Finanzerfolg 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 –
(12) Zeitplaneinhaltung 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 –
9.6. Vollständiges Messmodell und Diskriminanzvalidität
(13) Technologiedimension 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 –
(14) Umfeld-Fit 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,08 –
(15) Markt-Dimension 0,01 0,01 0,01 0,01 0,01 0,01 0,01 0,00 0,00 0,01 0,00 0,00 0,12 0,02 –
(16) Interner Ressourcen-Fit 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,29 0,00 0,01 –
2
Erläuterung. Dargestellt sind die p-Werte von χ -Differenztests mit einem Freiheitsgrad, die jeweils ein vollständiges Messmodell mit
durchweg frei geschätzten Faktorkorrelationen mit einem Alternativmodell vergleichen, bei dem eine der Faktorkorrelationen auf den
Wert Eins fixiert wurde. Die Diskriminanzvalidität kann als gewährleistet angesehen werden, wenn diese Restriktion zu einer signifikanten
Zunahme der Teststatistik führt.
Tabelle 9.30: Beurteilung der Diskriminanzvalidität anhand von χ2 -Differenztests
257
258
Quadrierte Korrelationen (1) (2) (3) (4) (5) (6) (7) (8) (9) (10) (11) (12) (13) (14) (15) (16)
(1) Methodik – 0,22 0,24 0,20 0,24 0,49 0,35 0,34 0,17 0,05 0,20 0,08 0,00 0,01 0,01 0,00
(2) Alternativenabwägung 0,22 – 0,14 0,06 0,14 0,21 0,13 0,04 0,02 0,01 0,02 0,05 0,00 0,01 0,00 0,01
(3) Fit 0,24 0,14 – 0,25 0,26 0,26 0,18 0,14 0,01 0,03 0,01 0,03 0,00 0,00 0,02 0,01
(4) Partizipation 0,20 0,06 0,25 – 0,31 0,12 0,26 0,16 0,08 0,14 0,08 0,04 0,00 0,06 0,00 0,00
(5) Projektplanung 0,24 0,14 0,26 0,31 – 0,30 0,66 0,28 0,03 0,03 0,07 0,12 0,00 0,06 0,00 0,00
(6) Risikomanagement 0,49 0,21 0,26 0,12 0,30 – 0,36 0,32 0,19 0,10 0,19 0,17 0,00 0,00 0,02 0,00
(7) Prozessformalisierung 0,35 0,13 0,18 0,26 0,66 0,36 – 0,22 0,03 0,02 0,10 0,12 0,01 0,01 0,01 0,00
(8) Prozessstabilität 0,34 0,04 0,14 0,16 0,28 0,32 0,22 – 0,21 0,08 0,18 0,38 0,00 0,07 0,01 0,01
(9) Technischer Erfolg 0,17 0,02 0,01 0,08 0,03 0,19 0,03 0,21 – 0,24 0,61 0,14 0,00 0,02 0,02 0,06
(10) Markterfolg 0,05 0,01 0,03 0,14 0,03 0,10 0,02 0,08 0,24 – 0,17 0,12 0,01 0,00 0,03 0,08
(11) Finanzerfolg 0,20 0,02 0,01 0,08 0,07 0,19 0,10 0,18 0,61 0,17 – 0,35 0 0,01 0,02 0,03
(12) Zeitplaneinhaltung 0,08 0,05 0,03 0,04 0,12 0,17 0,12 0,38 0,14 0,12 0,35 – 0,00 0,00 0,03 0,00
(13) Technologiedimension 0,00 0,00 0,00 0,00 0,00 0,00 0,01 0,00 0,00 0,01 0,00 0,00 – 0,12 0,08 0,10
(14) Umfeld-Fit 0,01 0,01 0,00 0,06 0,06 0,00 0,01 0,07 0,02 0,00 0,01 0,00 0,12 – 0,18 0,01
(15) Markt-Dimension 0,01 0,00 0,02 0,00 0,00 0,02 0,01 0,01 0,02 0,03 0,02 0,03 0,08 0,18 – 0,10
(16) Interner Ressourcen-Fit 0,00 0,01 0,01 0,00 0,00 0,00 0,00 0,01 0,06 0,08 0,03 0,00 0,10 0,01 0,10 –
Durchschn. erfasste Varianz 0,57 0,84 0,82 0,60 0,71 0,83 0,56 0,54 0,49 0,72 0,63 0,64 0,41 0,56 0,69 0,60
Erläuterung. Dargestellt sind die durchschnittlich erfasste Varianz je Faktor sowie die quadrierten Korrelationen aller Faktoren, wobei die
obere Diagonalmatrix redundant ist, aber zur leichteren Vergleichbarkeit mit der durchschnittlich erfassten Varianz beibehalten wird. Nach
dem Fornell-Larcker-Kriterium ist die Diskriminanzvalidität eines Faktors i dann als gewährleistet anzusehen, wenn seine durchschnittlich
erfasste Varianz ρave (i) größer ist als die quadrierten Korrelationen Φij mit allen weiteren Faktoren j.
Wirkungszusammenhänge:
Überprüfung der Hypothesen
2. Im zweiten Schritt wird das Basismodell auf durch den Innovationsgrad hervorge-
rufene Interaktionseffekte untersucht (vgl. Abschnitt 10.5).
Als Basismodell wird hier ein lineares Strukturgleichungsmodell bezeichnet, das zunächst
alle Konstrukte durch reflexive Messmodelle erfasst und die in Kapitel 6 aufgestellten
260 10. Wirkungszusammenhänge: Überprüfung der Hypothesen
STRUKTURPFADE
γ1,0 η1 Projektplanung ξ0 Businessplanung 0,70 6,65 H1
γ2,0 η2 Risikomanagement ξ0 Businessplanung 0,79 7,12 H2
β3,1 η3 Prozessformalisierung η1 Projektplanung 0,77 10,88 H3
β4,1 η4 Prozessstabilität η1 Projektplanung 0,28 2,84 H4
β3,2 η3 Prozessformalisierung η2 Risikomanagement 0,18 2,75 H5
β4,2 η4 Prozessstabilität η2 Risikomanagement 0,43 4,29 H6
β9,2 η9 Erfolg η2 Risikomanagement 0,33 2,95 H7
β9,4 η9 Erfolg η4 Prozessstabilität 0,37 2,95 H9
MESSMODELL
γI,0 ηI Alternativenabwägung ξ0 Businessplanung 0,57 5,42
γII,0 ηII Methodik ξ0 Businessplanung 0,80 —
γIII,0 ηIII Fit ξ0 Businessplanung 0,66 6,47
γIV,0 ηIV Partizipation ξ0 Businessplanung 0,63 5,10
β5,9 η5 Technischer Erfolg η9 Erfolg 0,53 4,18
β6,9 η6 Markterfolg η9 Erfolg 0,86 8,57
β7,9 η7 Finanzerfolg η9 Erfolg 0,89 —
β8,9 η8 Zeitplaneinhaltung η9 Erfolg 0,64 5,41
Erläuterung. Angaben beziehen sich auf die standardisierte Lösung mit Skalenfixierung. t-Werte
können daher nur für die frei geschätzten Parameter angegeben werden.
Tabelle 10.1: Basismodell: Geschätzte Parameter zwischen latenten Variablen
10.1. Basismodell mit Faktoren zweiter Ordnung 261
Zeitplanein-
Technischer
haltung
Finanz-
Markt-
Erfolg
erfolg
erfolg
Erfolg
Prozess-
Prozess-
formali-
sierung
stabili-
tät
Projekt-
planung
Risiko-
mgmt.
Business-
planung
Partizipa-
Methodik
Alterna-
tivenab-
wägung
tion
Fit
Abbildung 10.1: Basismodell mit Faktoren zweiter Ordnung. Alle Konstrukte werden durch reflexive
Messmodelle erfasst, Businessplanung und Erfolg werden als Faktoren zweiter Ordnung abgebildet, Mo-
deration durch den Innovationsgrad wird noch nicht erfasst. Durch Einführung von Businessplanung“
”
als Faktor zweiter Ordnung ξ0 werden die vier Einzeldimensionen zu endogenen Variablen ηI , . . . , ηIV .
262
Abhängige Variable T D I T D I T D I T D I R2
η9 Erfolg 0,37 0,37 0,10 0,10 0,49 0,33 0,16 0,46 0,46 0,39
η5 — Technischer Erfolg 0,20 0,20 0,05 0,05 0,26 0,26 0,25 0,25 0,28
η6 — Markterfolg 0,32 0,32 0,09 0,09 0,42 0,42 0,40 0,40 0,74
η7 — Finanzerfolg 0,30 0,30 0,09 0,09 0,44 0,44 0,41 0,41 0,80
η8 — Zeitplaneinhaltung 0,24 0,24 0,07 0,07 0,32 0,32 0,30 0,30 0,42
η3 Prozessformalisierung 0,77 0,77 0,18 0,18 0,68 0,68 0,77
η4 Prozessstabilität 0,28 0,28 0,43 0,43 0,53 0,53 0,39
η1 Projektplanung 0,70 0,70 0,49
η2 Risikomanagement 0,79 0,79 0,62
Tabelle 10.2: Basismodell: Totale, direkte und indirekte Effekte der latenten Variablen
10. Wirkungszusammenhänge: Überprüfung der Hypothesen
10.1. Basismodell mit Faktoren zweiter Ordnung 263
Tabelle 10.1 zeigt unmittelbar, dass die Hypothesen H1-H9 durch das Basismodell nicht
widerlegt werden können, wobei die Überprüfung der Moderatorhypothesen H1b, H2b und
H7b erst in Abschnitt 10.5 erfolgt. Die Durchführung von Aktivitäten der Businessplanung
hat sowohl auf Projektplanung als auch auf Risikomanagement einen sehr starken, signifi-
kanten Einfluss (H1a: γ1,0 = 0,70, t = 6,65 und H2a: γ2,0 = 0,79, t = 7,12). Projektplanung
wiederum zeigt signifikant positive Wirkungen auf Prozessformalisierung und -stabilität,
allerdings fällt der erste Effekt deutlich stärker als der zweite aus, Aktivitäten der Pro-
jektplanung scheinen also formelle Methoden der Projektsteuerung stark zu begünstigen
(H3: β3,1 = 0,77, t = 10,88), während sie nur in geringerem Umfang zu Aktivitäten-,
Ressourcen- und Zielkonstanz beitragen (H4: β4,1 = 0,28, t = 2,84). Ein ähnlich differen-
ziertes Bild zeigt sich auch hinsichtlich des Risikomanagement. Während Risikoanalyse
sowie Risiko- und Schadensverkürzung deutlich zur Stabilität der Projektsteuerung bei-
tragen (H6: β4,2 = 0,43, t = 4,29) und den Vorhabenserfolg positiv beeinflussen (H7a: β9,2
= 0,33, t = 2,95), begünstigen sie nur in deutlich geringerem Umfang eine formalisierte
Projektsteuerung (H5: β3,2 = 0,18, t = 2,75).
Besonders interessant ist schließlich die Frage, wie die beiden untersuchten Projekt-
steuerungsvariablen auf den Vorhabenserfolg wirken. Entsprechend der in Kapitel 6 aufge-
stellten Untersuchungshypothesen enthält das Basismodell einen Pfad, der den Effekt der
Prozesssstabilität auf den Vorhabenserfolg abbildet und im Rahmen der Modellprüfung
als signifikant und relativ hoch geschätzt wird (H9: β9,4 = 0,37, t = 2,95). Der direkte
(lineare) Effekt der Prozessformalisierung auf den Erfolg wird dagegen als nicht signifi-
kant angenommen und daher auch nicht im Basismodell abgebildet. Um diese Hypothese
zu untersuchen, wird das Basismodell mit einem Alternativmodell verglichen, das um
den betroffenen Pfad β9,3 zwischen Prozessformalisierung und Erfolg ergänzt wird. Bei
der Modellschätzung zeigt sich dabei einerseits, dass der Pfad nur schwach negativ und
nicht signifikant ist (H8a: β9,3 = -0,11, t= -0,97), sowie andererseits, dass sich die An-
passungsgüte des Gesamtmodells nicht signifikant verändert (χ2 = 1,7, df = 1, p =
0,00). Hypothese H8a kann damit als bestätigt angesehen werden, der Formalisierungs-
grad der Projektsteuerung hat im Mittel“ über Projekte verschiedenster Innovationsgra-
”
de tatsächlich keinen signifikanten Einfluss auf den Projekterfolg.
Obwohl die im Basismodell geschätzten Parameter die zentralen Untersuchungshy-
pothesen zu bestätigen scheinen, muss letztendlich vor allem die Anpassungsgüte des
Gesamtmodells beurteilt werden, um die Stichhaltigkeit der zugrunde liegenden Theorie
zu prüfen. Tabelle 10.3 weist die Fitmaße des Basismodells aus, und zwar sowohl für das
gesamte Strukturmodell als auch separat für Mess- und Pfadmodell.1 Die Anpassungsgüte
des Modells ist angesichts der sehr hohen Parameterzahl und der vergleichsweise niedri-
1
Das Vorgehen, um diese Fitmaße getrennt ausweisen zu können, wurde in Abschnitt 8.6.2 dargestellt.
264 10. Wirkungszusammenhänge: Überprüfung der Hypothesen
Erläuterung. Die χ2 -Statistik des Pfadmodells wird als Differenz aus den χ2 -Werten des
gesamten Strukturmodells und des separat geschätzten Messmodells errechnet. Der RMSEA
wird hier in Ergänzung zu SRMR und CFI ausgewiesen, da er sich im Gegensatz zu diesen
direkt aus der χ2 -Statistik errechnen lässt und somit auch für das nicht direkt zu schätzende
Pfadmodell angegeben werden kann.
Tabelle 10.3: Basismodell: Anpassungsgüte von Mess-, Pfad- und Gesamtmodell
gen Stichprobengröße insgesamt als gut zu beurteilen. Das Strukturmodell verfehlt den
von Hu und Bentler (1999) vorgeschlagenen Grenzwert für den SRMR zwar merklich,
den Grenzwert für den CFI aber nur knapp und weist darüberhinaus einen relativ nied-
rigen Quotienten aus χ2 -Statistik und Freiheitsgraden df auf. Die getrennte Betrachtung
von Mess- und Pfadkomponente zeigt, dass sich diese Anpassungsgüte als Mittelwert aus
einem angesichts der hohen Parameterzahl sehr guten Fit des Messmodells und einem
weniger guten Fit des Pfadmodells ergibt. Vergleicht man die Fitmaße allerdings mit den
bei McDonald und Ho (2002), Tabelle 2 berichteten Ergebnissen, so zeigt sich, dass dieser
Befund in der Praxis häufig vorkommt und Pfadkomponenten, die weniger Freiheitsgrade
bei höheren Fallzahlen aufweisen, oft eine deutlich schlechtere Anpassungsgüte realisie-
ren. Unter den genannten Umständen kann die Modellanpassung also ingesamt als gut
angesehen und das zugrunde liegende Theoriegerüst nicht zurückgewiesen werden.
Zeitplanein-
Technischer
haltung
Finanz-
Markt-
Erfolg
erfolg
erfolg
Prozess-
Prozess-
formali-
sierung
stabili-
tät
Projekt-
planung
Risiko-
mgmt.
Partizipa-
Methodik
Alterna-
tivenab-
wägung
tion
Fit
Abbildung 10.2: Alternativmodell ohne Faktoren zweiter Ordnung. Alle Konstrukte werden durch
reflexive Messmodelle erster Ordnung erfasst, Moderation durch den Innovationsgrad wird noch nicht
erfasst.
266
Abhängige Variable T D I T D I T D I T D I
η5 Technischer Erfolg 0,04 0,04 0,20 0,20 0,05 0,05 -0,01 -0,01
η6 Markterfolg 0,05 0,05 0,29 0,29 0,08 0,08 -0,01 -0,01
η7 Finanzerfolg 0,06 0,06 0,25 0,25 0,08 0,08 0,06 0,06
η8 Zeitplaneinhaltung 0,06 0,06 0,23 0,23 0,08 0,08 0,07 0,07
η3 Prozessformalisierung 0,11 0,11 0,29 0,29 0,16 0,16 0,28 0,28
η4 Prozessstabilität 0,08 0,08 0,32 0,32 0,12 0,12 0,11 0,11
η1 Projektplanung 0,11 0,11 0,22 0,22 0,16 0,16 0,36 0,36
η2 Risikomanagement 0,11 0,11 0,59 0,59 0,16 0,16 0,01 0,01
Abhängige Variable T D I T D I T D I T D I R2
η5 Technischer Erfolg -0,16 -0,16 0,31 0,31 -0,03 -0,03 0,36 0,26 0,10 0,18
η6 Markterfolg -0,26 -0,26 0,49 0,49 -0,05 -0,05 0,52 0,36 0,16 0,41
η7 Finanzerfolg -0,02 -0,02 0,51 0,51 0,14 0,14 0,37 0,15 0,22 0,37
η8 Zeitplaneinhaltung -0,03 -0,03 0,70 0,70 0,19 0,19 0,32 0,02 0,30 0,49
η3 Prozessformalisierung 0,77 0,70 0,20 0,20 0,77
η4 Prozessstabilität 0,30 0,30 0,44 0,44 0,40
η1 Projektplanung 0,45
η2 Risikomanagement 0,56
2
Erläuterung. T=Totaler Effekt; D=Direkter Effekt; I=Indirekter Effekt. R bezieht sich auf die Menge aller latenten Variablen mit
einer direkten Wirkung auf die jeweils abhängige Variable.
Tabelle 10.4: Alternativmodell ohne Faktoren zweiter Ordnung: Totale, direkte und indirekte Effekte
der latenten Variablen.
10. Wirkungszusammenhänge: Überprüfung der Hypothesen
10.2. Alternativmodell ohne Faktoren zweiter Ordnung 267
Ähnlich wie im Basismodell zeigt die Projektplanung einen sehr starken Einfluss auf die
Prozessformalisierung und einen schwächeren Effekt auf die Prozessstabilität , während
das Risikomanagement umgekehrt einen deutlichen Einfluss auf die Prozessstabilität und
einen schwächeren Effekt auf die Prozessformalisierung ausübt. Ebenso zeigen Risikoma-
nagement und Prozessstabilität deutliche direkte Wirkungen auf die Erfolgsdimensionen,
während von der Projektplanung nur ein schwacher indirekter Effekt ausgeht. Interessant
ist es hierbei, die jeweils unterschiedliche Betonung der Erfolgsdimensionen zu analysieren.
Während sich die Antizipation unvorhergesehener Ereignisse im Rahmen des Risikoma-
nagement insbesondere postiv auf den Markterfolg auswirkt, macht sich die Stabilität der
Projektsteuerung insbesondere durch die verbesserte Zeitplaneinhaltung bemerkbar.
Bei den Dimensionen der Businessplanung zeigt sich ebenfalls gegenüber dem Basis-
modell ein differenziertes Bild. Die stärkste Wirkung geht hier insgesamt von der Metho-
dik aus, die sich insbesondere als Grundlage für ein systematisches Risikomanagement
herausstellt. Die Partizipation aller Stakeholder im Prozess der Businessplanung erweist
sich dagegen vor allem als Voraussetzung für den Erfolg der anschließend durchgeführten
Projektplanung. Um näher zu verstehen, wie sich der nicht signifikante Zusammenhang
zwischen Prozessformalisierung und Vorhabenserfolg im Basismodell erklären lässt, wur-
de hier die Wirkung dieser Variable auf die einzelnen Erfolgsdimensionen mit untersucht.
Im Ergebnis zeigt sich, dass formelle Projektsteuerung im Mittel über die betrachteten
Projekte praktisch keinen Einfluss auf Finanzerfolg und Zeitplaneinhaltung hat, jedoch
negative Zusammenhänge mit Markt- und Technikerfolg aufweist.
Während die Betrachtung dieses disaggregierten Modells also interessante Informatio-
nen über die relative Bedeutung der Einzeldimensionen der beiden multidimensionalen
Konstrukte Businessplanung und Erfolg liefert, zeigt Tabelle 10.5 doch, dass die Anpas-
sungsgüte hier deutlich niedriger als im Basismodell ist und insbesondere ein vergleichswei-
se schlechter Fit des Pfadmodells zu verzeichnen ist. Das Basismodell ist damit aufgrund
seiner höheren statistischen Sparsamkeit und Erklärungskraft dem hier untersuchten dis-
aggregierten Modell vorzuziehen.
Tabelle 10.5: Alternativmodell ohne Faktoren zweiter Ordnung: Anpassungsgüte von Mess-, Pfad- und
Gesamtmodell
268 10. Wirkungszusammenhänge: Überprüfung der Hypothesen
,67
Technischer
Erfolg
,96 ,61 ,75 ,58 ,72
,52 ,92
Prozess-
formali-
,82 sierung
,86 Markt-
,84 erfolg
,97 ,77
Projekt-
,72 planung Erfolg ,91 ,78
,52 ,54
,65 Finanz-
Prozess- erfolg
stabili- ,81
tät
,73 ,89 ,55 ,81
Zeitplanein-
haltung
,79
,57
Technischer
Erfolg
,96 ,62 ,76 ,59 ,72
,65 Finanz-
Prozess- erfolg
stabili- ,81
tät
,73 ,89 ,55 ,81
Zeitplanein-
haltung
,79
Abbildung 10.3: Strukturmodelle mit reflexiver und formativer Abbildung der Projektplanung
270 10. Wirkungszusammenhänge: Überprüfung der Hypothesen
,66
Technischer
Erfolg
,91 ,63 ,78 ,65 ,73
,54 ,91
Prozess-
formali-
,91 sierung
,63 Markt-
,86 erfolg
,94 ,78
Risiko- ,39
,89 mgmt. Erfolg ,89 ,77
,58 ,39
,64 Finanz-
Prozess- erfolg
stabili- ,82
tät
,72 ,90 ,54 ,83
Zeitplanein-
haltung
,78
,57
Technischer
Erfolg
,91 ,63 ,78 ,55 ,73
,54 ,90
Prozess-
formali-
,67 sierung
,72 Markt-
,86 erfolg
,12 ,78
Risiko- ,39
,10 mgmt. Erfolg ,89 ,77
,67 ,27
,65 Finanz-
Prozess- erfolg
stabili- ,82
tät
,70 ,90 ,54 ,83
Zeitplanein-
haltung
,78
Abbildung 10.4: Strukturmodelle mit reflexiver und formativer Abbildung des Risikomanagement
10.4. Untersuchung des Basismodells auf Wahrheitsähnlichkeit 271
Ein ähnliches Ergebnis zeigt der Vergleich von reflexiver und formativer Konstruktmes-
sung auch für den in Abbildung 10.4 dargestellten Fall des Risikomanagement. Wiederum
führt die formative Konstruktmessung global zu einer leicht höheren Anpassungsgüte,
wobei die Verbesserung des SRMR von 0,76 auf 0,69 spürbar ausfällt. Im Pfadmodell
kommt es zu stärkeren Verschiebungen als im Fall der Projektplanung. Während der di-
rekte Pfad von Risikomanagement auf Vorhabenserfolg in beiden Fällen gleich geschätzt
wird, fällt im formativen Fall die Wirkung des Risikomanagement auf die beiden folgen-
den Mediatorvariablen höher aus. Dennoch sinkt im formativen Fall der totale Effekt des
Risikomanagement auf den Erfolg von 0,62 auf 0,57, da der Pfad über die Mediatorvaria-
ble Prozessstabilität an Wirkung verliert. Der höher geschätzte Pfadkoeffizient von Risi-
komanagement auf Prozessstabilität wird durch den niedriger geschätzten Koeffizienten
von Prozessstabilität auf Erfolg überkompensiert. Hinsichtlich der Faktorladungen blei-
ben auch hier analog zu den Befunden beim Projektmanagement größere Veränderungen
der reflexiv gemessenen Variablen aus.
Eine zusammenfassende Wertung dieser Befunde zeigt, dass die Umstellung von reflexi-
ver auf formative Konstruktmessung in den betrachteten Teilmodellen keine wesentlichen
Veränderungen ergeben hat. Dieser Befund ist insofern bemerkenswert, als eine Reihe ak-
tueller Artikel2 vor der irrtümlichen Erfassung formativ aufzufassender Konstrukte durch
reflexive Messmodelle warnt und Beispiele von signifant unterschiedlich geschätzten Struk-
turmodellen präsentiert. Zukünftige Untersuchungen sollten sich daher eingehender mit
der Frage beschäftigen, unter welchen Randbedingungen der in Abschnitt 8.5.2 erläuterte
Tetraden-Algorithmus Konstrukte als formativ einstuft und wann eine Umstellung von
reflexiver auf formative Messung zu signifikant unterschiedlich geschätzten Wirkungsbe-
ziehungen führt. Für die Belange der vorliegenden Untersuchung ergibt sich aus dieser
Diskussion jedenfalls kein Anlass, die Gültigkeit des Basismodells mit ausschließlich refle-
xiver Konstruktmessung anzuzweifeln.
Obwohl das Basismodell in Abschnitt 10.1 nicht falsifiziert werden konnte und weder die
Auflösung der Faktoren zweiter Ordnung noch die Verwendung formativer Indikatoren in
den beiden letzten Abschnitten wesentliche Verschiebungen in den Wirkungsbeziehungen
der latenten Variablen hervorgerufen haben, existiert umgekehrt weder ein statistischer
Test noch ein Fitindex, durch den ein Modell verifiziert werden könnte. Meehl und Waller
(2002) argumentieren jedoch, dass die Nicht-Falsifikation eines Modells als Erhärtung
bzw. Untermauerung (corroboration) der zugrunde liegenden Theorie gewertet werden
2
So u. a. Diamantopoulos und Winklhofer (2001) und Jarvis et al. (2003).
272 10. Wirkungszusammenhänge: Überprüfung der Hypothesen
kann, wenn die Vorhersage des Modells hinreichend risikoreich ist. Eine solche risikoreiche
Vorhersage besteht für sie darin, dass es einem zu beurteilenden Modell besser gelingt,
bestimmte Beobachtungen auf der Grundlage anderer Beobachtungen vorherzusagen, als
dies eine Menge möglicher Alternativmodelle leisten kann. Je größer dabei die Menge der
Alternativmodelle ist, desto risikoreicher ist die theoretische Vorhersage und desto größer
ist die Wahrheitsähnlichkeit (verisimilitude) des Basismodells, wenn es die Vorhersage
erfüllen kann.3
Die Wahrheitsähnlichkeit des Basismodells soll im Folgenden durch den in Ab-
schnitt 8.6.3 erläuterten Veripath-Algorithmus beurteilt werden. Da dieser nur Pfadmo-
delle überprüft, wird das im letzten Abschnitt beschriebene vollständige Strukturmodell
durch ein äquivalentes Pfadmodell ersetzt, bei dem alle Konstrukte als manifeste Va-
riablen abgebildet werden bzw. als Faktoren erster Ordnung mit einem Indikator, der
jeweils Faktorladung Eins und Fehlervarianz Null aufweist. Ein solches Modell kann nicht
direkt auf die bisher verwendete empirische Kovarianzmatrix der manifesten Variablen
zurückgreifen, sondern muss eine Kovarianzmatrix auf Konstruktebene verwenden. Ein
Weg, eine solche Eingabematrix zu generieren, könnte darin bestehen, Summenvariablen
je Konstrukt zu bilden und aus diesen eine Kovarianzmatrix zu errechnen. Bei einem
solchen Ansatz würden jedoch die bisher verwendeten reflexiven Konstrukte durch for-
mative ersetzt werden, was zu einer deutlich unterschiedlichen Konstruktmessung und
damit zu veränderten Schätzungen für die Pfadkoeffizienten führen würde. Um diesen
Effekt zu vermeiden, wird stattdessen auf die von LISREL geschätzte Kovarianzmatrix
der latenten Variablen für das in Abschnitt 9.6 dargestellte Messmodell zurückgegriffen,
wobei die Einzeldimensionen der Faktoren zweiter Ordnung hier irrelevant sind und keine
Verwendung finden.
Der Veripath-Algorithmus schätzt zunächst mit einer Limited-Information-Methode
das Basismodell und identifiziert anschließend unter Verwendung der in Abschnitt 8.6.3
beschriebenen D1A1-Regel insgesamt 69 Alternativmodelle, wobei auf die Möglichkeit
verzichtet wurde, eine Zeitordnung der Variablen vorzugeben. Tabelle 10.6 zeigt, dass die
Pfadkoeffizienten von LISREL und Veripath sehr ähnlich geschätzt werden, der SRMRVeri
jedoch deutlich niedriger als der SRMRLISREL ausfällt, da im vollständigen LISREL-
Strukturmodell die Parameterzahl aufgrund des Messmodells deutlich höher ist. Die An-
passungsgüte der Alternativmodelle reicht von SRMRVeri = 0,042 bis 0,235, wobei nur drei
Modelle einen besseren Fit als das Basismodell aufweisen. Entsprechend der Veripath-
Logik übertrifft damit das Basismodell hinsichtlich der Vorhersagegüte 95 Prozent der
Alternativmodelle und weist eine hohe Wahrheitsähnlichkeit auf.
Neben dieser zentralen Aussage ist weiterhin die Untersuchung der von Veripath vor-
3
Meehl und Waller (2002), S. 285.
10.4. Untersuchung des Basismodells auf Wahrheitsähnlichkeit 273
Erläuterung. Schätzung des vollen Strukturmodells in LISREL (vgl. Abbildung 10.1 und Tabel-
le 10.1), Schätzung eines reinen Pfadmodells in Veripath.
Tabelle 10.6: Vergleich der durch LISREL und Veripath geschätzten Pfadkoeffizienten
,78 ,78
,70 ,30 ,17 ,70 ,30 ,17
,33 ,55
,79 ,38 ,79 ,37
,41 ,21
,22
,78 ,78
,70 ,17 ,70 ,30
,33 ,33
,79 ,38 ,79 ,38
,23 ,41
,43
,78 ,78
,70 ,17 ,70 ,18 ,17
,18
,33 ,36
,79 ,38 ,79 ,40
,46
,48
,87 ,87
,70 ,18 ,70 ,30
,33 -,15 ,39
,79 ,38 ,79 ,42
,23 ,41
,30
Abbildung 10.5: Veripath-Analyse. Für das Basismodell sowie die von Veripath vorgeschlagenen sieben
Alternativmodelle mit der besten Anpassungsgüte sind jeweils die von Veripath geschätzten Pfadkoeffi-
zienten und der SRMR dargestellt.
10.4. Untersuchung des Basismodells auf Wahrheitsähnlichkeit 275
,78 ,87
,70 ,30 ,17 ,70 ,30 -,03
,23 ,34
,79 ,45 ,79 ,39
,41 ,41
,87 ,87
,70 ,30 ,70 ,27
,01 ,03
,33 ,33
,79 ,38 ,79 ,38
,41 ,41
,87 ,87
,70 ,30 ,73 ,30
,18
,32 -,04 ,33
,79 ,38 ,79 ,38
,41 ,41
,02
,87 ,88
,70 ,18 ,70 ,30 -,03
-,03 ,33 ,33
,81 ,38 ,79 ,38
,41 ,41
Nachdem in den letzten Abschnitten die Strukturparameter des Basismodells mit guter
Anpassungsgüte geschätzt wurden, die Verwendung von Faktoren zweiter Ordnung und
reflexiven Messmodellen gerechtfertigt werden konnte und die Wahrheitsähnlichkeit des
Basismodells nachgewiesen wurde, sollen im Folgenden die in Kapitel 6 aufgestellten Mo-
deratorhypothesen geprüft werden. Entsprechend den Ausführungen in Abschnitt 8.6.4
werden dabei zwei separate Analysemethoden, nämlich moderierte Regressionen und ein
LISREL-Pfadmodell mit Interaktionstermen verwendet und hinsichtlich ihrer Ergebnisse
miteinander verglichen.
Tabelle 10.7 präsentiert die in den Regressions- und LISREL-Analysen geschätzten
Parameter. Betrachtet man zunächst die Pfadkoeffizienten der Variablen erster Ordnung
im LISREL-Modell, so zeigt sich eine große Ähnlichkeit zu den in Abschnitt 10.1 berich-
teten Resultaten für das Basismodell, wobei der Pfad von Prozessformalisierung auf Er-
folg neu aufgenommen wurde, um den vermuteten Moderatoreffekt des Innovationsgrads
überprüfen zu können. Für diese Interaktion wird im LISREL-Modell tatsächlich ein si-
gnifikant negativer Pfadkoeffizient auf den Erfolg geschätzt (H8b: β = −0, 13, t = −1, 65).
Damit kann Hypothese H8b nicht abgelehnt werden, der Innovationsgrad moderiert die
Beziehung zwischen Prozessformalisierung und Erfolg also tatsächlich negativ, d. h. for-
melle Projektsteuerung wirkt erfolgssteigernd bei niedriginnovativen und erfolgshemmend
bei hochinnovativen Projekten. Es handelt sich hier allerdings nicht um einen reinen Mo-
10.5. Erweiterung des Basismodells um Moderatoreffekte 277
deratoreffekt, da der Innovationsgrad selbst einen signifikant negativen Effekt auf den
Vorhabenserfolg ausübt (β = −0, 21, t = −2, 95) und auch die Prozessformalisierung eine
negative Erfolgswirkung an der Grenze zur Signifikanz zeigt.4 Die drei anderen Mode-
ratorhypothesen H1b, H2b und H7b werden dagegen widerlegt, da die geschätzten Ko-
effizienten der Interaktionsterme nicht nur insignifikant sind, sondern auch ein positives
Vorzeichen haben. Die positive Wirkung von Businessplanung auf Projektplanung und
Risikomanagement wird folglich ebenso wenig durch den Innovationsgrad moderiert wie
die Wirkung des Risikomanagement auf den Vorhabenserfolg. Bemerkenswert ist schließ-
lich noch die Tatsache, dass der Innovationsgrad einen signifikant negativen Effekt auf
die Projektplanung und einen signifikant positiven Einfluss auf das Risikomanagement
ausübt.
Da die geschlossene Überprüfung der drei postulierten Moderatoreffekte in einem ein-
zigen Regressionsmodell nicht möglich ist, wird für jede der abhängigen Variablen eine
separate Regression gerechnet. Wie schon im Rahmen der LISREL-Analyse wird auch im
ersten Regressionsmodell für den Interaktionsterm zwischen Prozessformalisierung und In-
novationsgrad ein signifikant negativer Pfadkoeffizient auf den Vorhabenserfolg geschätzt.
Im Gegensatz zum LISREL-Modell zeigen hier jedoch die beiden Variablen erster Ord-
nung keine signifikante Erfolgwirkung, so dass ein reiner Moderatoreffekt vorliegt. Ein
Moderatoreffekt des Innovationsgrads auf die Beziehung zwischen Risikomanagement und
Erfolg kann dagegen auch hier nicht festgestellt werden. Die Regressionsmodelle 2 und 3
liefern strukturell ähnliche Ergebnisse wie die LISREL-Analyse, d. h. Moderatorbeziehun-
gen können zwar nicht nachgewiesen werden, dafür wird aber ein negativer Zusammen-
hang zwischen Innovationsgrad und Projektplanung sowie ein positiver Zusammenhang
zwischen Innovationsgrad und Risikomanagement geschätzt.
Die in diesem Abschnitt berichteten Befunde lassen sich also wie folgt zusammen-
fassen: Die Beziehung zwischen Prozessformalisierung und Vorhabenserfolg wird negativ
durch den Innovationsgrad moderiert, was den Umstand erklärt, dass im Basismodell
(vgl. Abbildung 10.1 auf Seite 261) dieser zentrale Strukturpfad fehlt. Das durch die
in Tabelle 10.7 zusammengefassten Wirkungsbeziehungen definierte Strukturgleichungs-
modell übertrifft in seinem Erklärungsumfang also das Basismodell und bildet das in
Abschnitt 6 entwickelte nomologische Netz vollständig ab. Die übrigen dort zusammen-
gefassten Moderatoreffekte lassen sich jedoch empirisch nicht nachweisen. Schließlich sind
die direkten Effekte des Innovationsgrads bemerkenswert, auch wenn sich der besonders
interessante Befund einer negativen Wirkung des Innovationsgrads auf den Erfolg nur im
LISREL-Modell nachweisen lässt.
4
Solche Konstellationen werden auch als Quasi-Moderatoren bezeichnet, vgl. Sharma et al. (1981), S.
292.
278 10. Wirkungszusammenhänge: Überprüfung der Hypothesen
Im Anschluss an die letzte Bemerkung lässt sich also hinsichtlich der Methodik noch
die Schlussfolgerung ziehen, dass die Partialanalysen der Moderatoreffekte über mode-
rierte Regressionen strukturell ähnliche Befunde wie das LISREL-Modell liefern, Einzel-
ergebnisse aber durchaus voneinander abweichen können. Auf eine Überprüfung von Mo-
deratorhypothesen im Rahmen des vollen durch ein Strukturgleichungsmodell erfassten
nomologischen Netzes sollte daher nach Möglichkeit nicht verzichtet werden.
ABHÄNGIGE VARIABLEN Regression 1 Regression 2 Regression 3 LISREL-Modell
— Unabhängige Variablen Koeff. t-Wert Koeff. t-Wert Koeff. t-Wert Koeff. t-Wert
ERFOLG
— Prozessformalisierung 0,01 (0,06) −0,12 (−1,40)
— Prozessstabilität 0,38 (4,40) 0,28 (3,42)
— Risikomanagement 0,34 (3,52) 0,47 (5,13)
— Innovationsgrad (Innov.) −0,05 (−0,65) −0,21 (−2,95)
— Innov. × Prozessformalisierung −0,16 (−1,96) −0,13 (−1,65)
— Innov. × Risikomanagement 0,05 (0,55) 0,03 (0,39)
PROZESSFORMALISIERUNG
— Projektplanung 0,76 (15,39)
— Risikomanagement 0,19 (3,77)
PROZESSSTABILITÄT
— Projektplanung 0,29 (3,62)
— Risikomanagement 0,42 (5,21)
PROJEKTPLANUNG
10.5. Erweiterung des Basismodells um Moderatoreffekte
Erläuterung. Alle Koeffizienten geben standardisierte Lösungen wieder. Die Anpassungsmaße für das LISREL-
Modell betragen SRMR = 0,055; CFI = 0,96; χ2 = 52,76; df = 19; p= 0,00; χ2 /df = 2,8.
279
(a) 1
Innovationsgrad
Innovationsgrad 0
1
0.5
0.25
Erfolg
Erfolg 0
0.25
0.5
1
0
Prozessformalisierung 1
Prozessformalisierung
(b) 1
Innovationsgrad
Innovationsgrad 0
1
0.5
Erfolg
Erfolg 0
0.5
1
0
Prozessformalisierung 1
Prozessformalisierung
Abbildung 10.7: Moderatorwirkung des Innovationsgrads auf die Beziehung zwischen Prozessformalisie-
rung und Erfolg. (a) Reiner Moderator im Regressionsmodell. (b) Quasi-Moderator im LISREL-Modell.
10.6. Ergänzende Analysen zur Zieldefinition 281
5
Vgl. v. a. Tabelle 9.20 auf S. 243.
6
Die Items wurden anhand der Frage Wie wichtig waren die folgenden Zielgrößen für ihr Vorhaben?“
”
auf Siebenerskalen erhoben.
282 10. Wirkungszusammenhänge: Überprüfung der Hypothesen
Technischer Erfolg
∗ ∗∗ ∗∗∗
p < 0, 10, p < 0, 01, p < 0, 001.
Tabelle 10.8: Moderierte Regressionsanalyse zum Einfluss von Zielwichtigkeit auf Technischen Erfolg
Markterfolg
∗ ∗∗ ∗∗∗
p < 0, 10, p < 0, 01, p < 0, 001.
Tabelle 10.9: Moderierte Regressionsanalyse zum Einfluss von Zielwichtigkeit auf Markterfolg
10.6. Ergänzende Analysen zur Zieldefinition 283
Finanzerfolg
∗ ∗∗ ∗∗∗
p < 0, 10, p < 0, 01, p < 0, 001.
Tabelle 10.10: Moderierte Regressionsanalyse zum Einfluss von Zielwichtigkeit auf Finanzerfolg
Zeitplaneinhaltung
∗ ∗∗ ∗∗∗
p < 0, 10, p < 0, 01, p < 0, 001.
Tabelle 10.11: Moderierte Regressionsanalyse zum Einfluss von Zielwichtigkeit auf Zeitplaneinhaltung
284 10. Wirkungszusammenhänge: Überprüfung der Hypothesen
Im folgenden soll Hypothese H11 überprüft werden, in der vermutet wurde, dass die
Zielerreichung in bestimmten Erfolgsdimensionen desto höher ausfällt, je spezifischer die
Vorhabensziele im Hinblick auf diese Erfolgsdimensionen formuliert wurden (H11a). Mit
zunehmendem Innovationsgrad eines Projektes wird dieser Zusammenhang vermutlich
schächer ausgeprägt sein (H11b).
Zur Messung der Zielspezifität wurde wiederum auf die Items zur Zielwichtigkeit
zurückgegriffen. So wird der Grad an Zielspezifität hinsichtlich einer bestimmten Er-
folgsdimension dadurch ermittelt, dass die Summe der für diese Dimension relevanten
Zielwichtigkeitsitems summiert und durch die Gesamtsumme aller Zielwichtigkeitsitems
dividiert wird. Die so errechnete Variable wird im folgenden als Betonung“ der jeweiligen
”
Erfolgsdimension bezeichnet. Auf diese Weise wird der Versuch unternommen, die Spezi-
fität der Zielformulierung direkt messbar zu machen, anstatt sich auf perzeptive Items zu
verlassen.7
Wie oben wurden für alle vier Erfolgsdimensionen separate Regressionsmodelle ana-
lysiert, deren Ergebnisse in den Tabellen 10.12 bis 10.15 zusammengefasst sind. Für den
Finanzerfolg lässt sich ein signifikanter positiver Zusammenhang zwischen einer Betonung
finanzieller Ziele und der tatsächlichen Zielerreichung nachweisen (β = 0,32 und p < 0,01),
der F -Wert ist signifikant und lässt damit eine sinnvolle Interpretation des Ergebnisses zu,
die Varianzerklärung ist mit 8 Prozent immerhin spürbar. Für alle anderen Erfolgsdimen-
sionen erweisen sich die direkten Zusammenhänge zwischen Zielbetonung und -erreichung
als nicht signifikant. Darüberhinaus haben die Moderatorprodukte zwar in allen vier Mo-
dellen negative Vorzeichen, sind jedoch nie signifikant. Eine mögliche Verzerrung durch
Multikollinearität kann vernachlässigt werden, da der Variance Inflation Factor einen Wert
von 1,2 nicht überschreitet.
Angesichts dieser Befunde können die Hypothesen H11a und H11b zwar nicht rund-
heraus abgelehnt werden, allerdings bestätigt sich die in Abschnitt 4.2.2 erwähnte Tat-
sache, dass der Zusammenhang zwischen Zielspezifität und Erfolg auf der Ebene von
Gruppenzielen bislang nicht besonders eingehend untersucht wurde und sogar auf der
Ebene von Individualzielen die Allgemeingültigkeit des Zusammenhangs mittlerweile an-
gezweifelt wird. Folgearbeiten sollten daher die theoretischen Grundlagen des vermuteten
Zusammenhangs näher beleuchten und sich daraus eventuell ergebende alternative Wege
der Variablenoperationalisierung und Hypothesenprüfung eingehend untersuchen.
7
Ein solches Item könnte etwa durch die Frage Wie spezifisch waren die technischen Ziele für das
”
Vorhaben formuliert?“ gebildet werden.
10.6. Ergänzende Analysen zur Zieldefinition 285
Technischer Erfolg
∗ ∗∗ ∗∗∗
p < 0, 10, p < 0, 01, p < 0, 001.
Tabelle 10.12: Moderierte Regressionsanalyse zum Einfluss von Zielspezifität auf den Technischen Erfolg
Markterfolg
∗ ∗∗ ∗∗∗
p < 0, 10, p < 0, 01, p < 0, 001.
Tabelle 10.13: Moderierte Regressionsanalyse zum Einfluss von Zielspezifität auf den Markterfolg
286 10. Wirkungszusammenhänge: Überprüfung der Hypothesen
Finanzerfolg
∗ ∗∗ ∗∗∗
p < 0, 10, p < 0, 01, p < 0, 001.
Tabelle 10.14: Moderierte Regressionsanalyse zum Einfluss von Zielspezifität auf den Finanzerfolg
Zeitplaneinhaltung
∗ ∗∗ ∗∗∗
p < 0, 10, p < 0, 01, p < 0, 001.
Tabelle 10.15: Moderierte Regressionsanalyse zum Einfluss von Zielspezifität auf die Zeitplaneinhaltung
10.6. Ergänzende Analysen zur Zieldefinition 287
Technischer Erfolg
∗ ∗∗ ∗∗∗
p < 0, 10, p < 0, 01, p < 0, 001.
Tabelle 10.16: Moderierte Regressionsanalyse zum Einfluss von Steuerungsgrößen auf den Technischen
Erfolg
Abschließend ist noch Hypothese H12 zu prüfen, in der vermutet wird, dass mit stei-
gender Betonung bestimmter Steuerungsgrößen im Rahmen der Projektsteuerung die Ziel-
erreichung in den korrespondierenden Erfolgsdimensionen steigt (H12a). Je höher der In-
novationsgrad eines Projektes ist, desto schwächer wird dieser Zusammenhang vermutlich
ausgeprägt sein (H12b).
Insgesamt wurden in Anlehnung an Hart et al. (2003) zehn verbreitete Steuerungs-
größen ausgewählt und auf Siebenerskalen erhoben, wie wichtig diese Größen für die
Entscheidungsfindung bei zentralen Vorhabensfragen waren. Um die Auswirkung der Be-
tonung verschiedener Steuerungsgrößen auf den Vorhabenserfolg zu beurteilen, wird für
jede der Erfolgsdimensionen wiederum ein separates Modell untersucht, bei dem zunächst
die auf die jeweilige Erfolgsdimension zugeschnittenen Steuerungsgrößen als unabhängige
Variablen in die stufenweise Regression aufgenommen werden, bevor der Innovationsgrad,
die Moderatorterme sowie als Kontrollvariablen die übrigen Steuerungsgrößen folgen. Die
Ergebnisse sind in den Tabellen 10.16 bis 10.19 zusammengefasst.
288 10. Wirkungszusammenhänge: Überprüfung der Hypothesen
Markterfolg
∗ ∗∗ ∗∗∗
p < 0, 10, p < 0, 01, p < 0, 001.
Tabelle 10.17: Moderierte Regressionsanalyse zum Einfluss von Steuerungsgrößen auf den Markterfolg
Tabelle 10.16 kann entnommen werden, dass sich die geschätzte Wahrscheinlichkeit des
technischen Erfolgs nicht als geeignete Steuerungsgröße erweist, um den endgültig reali-
sierten technischen Erfolg signifikant zu steigern. Demgegenuber
¨ zeigt sich uberraschender
¨ -
weise, dass sich eine Projektsteuerung anhand der finanziellen Kenngröße Prognostizierter
”
Kapitalwert/NPV“ signifikant positiv auf die Erreichung technischer Ziele auswirkt. Even-
tuell lässt sich dieser Umstand dadurch erklären, dass eine stringente Steuerung anhand
nüchterner Finanzkennzahlen eine fokussierende Wirkung auf das Projektteam hat und
von der Verfolgung schwer einzuschätzender, risikoreicher technischer Lösungen abhält.
Demgegenüber entspricht die in Tabelle 10.17 gezeigte Analyse zur Wirkung von Steue-
rungsgrößen auf den Markterfolg stärker den ursprünglich formulierten Hypothesen. Ins-
besondere die Beurteilung zentraler Vorhabensentscheidungen vor dem Hintergrund der
aus Markt- und Kundenforderungen abgeleiteten Zielkosten zeigt hier eine stark positive
Erfolgswirkung, aber auch die Verwendung der Steuerungsgröße Wahrscheinlichkeit des
”
10.6. Ergänzende Analysen zur Zieldefinition 289
Finanzerfolg
∗ ∗∗ ∗∗∗
p < 0, 10, p < 0, 01, p < 0, 001.
Tabelle 10.18: Moderierte Regressionsanalyse zum Einfluss von Steuerungsgrößen auf den Finanzerfolg
Markterfolgs“ stellt sich als positiv heraus. Für diese Variable bestätigt sich auch der in
H11b postulierte Moderatoreffekt, d. h. mit zunehmendem Innovationsgrad fällt die mit
der Verwendung dieser Steuerungsgröße verbundene Erfolgssteigerung geringer aus. Da-
neben erweist sich wie schon beim Technischen Erfolg auch hier wieder die Verwendung
der Kenngröße Prognostizierter Kapitalwert/NPV“ als erfolgswirksam.
”
Vor diesem Hintergrund ist es als erstaunlich zu werten, dass sich eine Steuerung
anhand zukünftig erwarteter Kapitalwerte nicht in einer signifikanten Steigerung des
endgültig realisierten Finanzerfolgs niederschlägt (vgl. Tabelle 10.18).8 Hier erweist
sich vielmehr die Betrachtung des erwarteten ROI bzw. des internen Zinsfusses als
zielführend sowie die Steuerungsgröße Wahrscheinlichkeit des Markterfolgs“, was inso-
”
fern verständlich ist, als ein Markterfolg als Voraussetzung für einen kommerziellen Erfolg
8
Hierbei ist allerdings zu berücksichtigen, dass der β-Koeffizient des Moderatorterms aus Innovations-
grad und erwartetem Kapitalwert negativ und an der Grenze zur Signifikanz auf 10-Prozent-Niveau
ist.
290 10. Wirkungszusammenhänge: Überprüfung der Hypothesen
Zeitplaneinhaltung
∗ ∗∗ ∗∗∗
p < 0, 10, p < 0, 01, p < 0, 001.
Tabelle 10.19: Moderierte Regressionsanalyse zum Einfluss von Steuerungsgrößen auf die Zeitplanein-
haltung
anzusehen ist. Tabelle 10.17 kann schließlich noch entnommen werden, dass sich ein strik-
ter Fokus auf Zeitplaneinhaltung tatsächlich auch in einer entsprechenden Zielrealisierung
niederschlägt, wobei dieser Zusammenhang wiederum negativ durch den Innovationsgrad
moderiert wird.
Zusammenfassend kann festgestellt werden, dass Hypothese H12 nicht abgelehnt wer-
den kann, die Wirkung der Steuerungsvariablen allerdings nicht durchweg der Erwartung
entspricht. So erweist sich beispielsweise die Steuerung anhand der absoluten Finanzkenn-
zahl Kapitalwert/NPV v. a. als förderlich für die Erreichung von technischen und Markt-
zielen, während die Erreichung der finanziellen Projektziele eher durch die Verfolgung der
relativen Finanzkenngrößen ROI und IRR unterstützt werden sollte. Die Koeffizienten
der Moderatorterme sind nicht durchgängig signifikant und negativ, doch erweisen sich
zumindest alle signifikanten Terme als negativ, ein zunehmender Innovationsgrad scheint
also tatsächlich die Erfolgswirkung von Steuerungsgrößen einzuschränken.
Kapitel 11
In diesem Kapitel sollen zunächst die zentralen Ergebnisse der theoretischen Analyse im
ersten Teil dieser Arbeit sowie die Befunde der empirischen Untersuchung im zweiten
Teil der Arbeit zusammenfassend diskutiert werden. Im Anschluss werden Konsequenzen
für die tatsächliche Planung und Steuerung von Innovationsvorhaben in der Unterneh-
menspraxis abgeleitet, bevor abschließend Ansatzpunkte für die weitere wissenschaftliche
Vertiefung des in dieser Arbeit betrachteten Untersuchungsgegenstands aufgezeigt wer-
den.
Ausgangspunkt der Untersuchung war die Tatsache, dass sich trotz der großen Bedeutung
von Innovationsprojekten nach wie vor viele Unternehmen mit erheblichen Problemen
bei der Planung und Umsetzung dieser strategisch wichtigen Vorhaben konfrontiert se-
hen. Angesichts der Tatsache, dass viele für die Unternehmenspraxis formulierte Best
Practices, die ein effizientes Management von Neuproduktentwicklungen versprechen, nur
unzureichend zwischen hoch- und niedriginnovativen Projekten und ihren spezifischen An-
forderungen differenzieren, wurden die Planung und Steuerung von Innovationsvorhaben
sowie die dabei möglicherweise auftretenden Moderatorwirkungen der Innovationshöhe
zuletzt verstärkt in der betriebswirtschaftlichen Forschung untersucht. Dabei traten eine
Reihe von offensichtlich widersprüchlichen Befunden und Forschungslücken zutage, die zu
den folgenden Forschungsfragen für die vorliegende Arbeit geführt haben:
2. Welcher Zusammenhang besteht dabei zwischen den Planungs- und den Steuerungs-
aktivitäten, inwiefern übt also die Projektsteuerung eine Mediator -Rolle für die Be-
ziehung zwischen Planung und Erfolg aus?
292 11. Zusammenfassung und Ausblick
3. Welchen Einfluss hat die Innovationshöhe auf die Beziehungen zwischen Vorhabens-
planung, -steuerung und -erfolg, inwiefern übt also der Innovationsgrad eine Mode-
rator -Rolle aus?
Im theoretischen Teil der Arbeit wurde zunächst ein Grundmodell abgeleitet (vgl.
Abschnitt 3.5), das den Erfolg von Innovationsvorhaben aus den im Projektverlauf zum
Tragen kommenden Planungs- und Steuerungsfähigkeiten herleitet. Nach der situativen
Theorie der Informationsverarbeitung hängt deren optimale Ausprägung vom Grad der
Unsicherheit ab, der hier durch den Innovationsgrad des Vorhabens erfasst werden soll.
Weiterhin fordern Konfigurationsansätze die interne Konsistenz der Gestaltungsparame-
ter, hier also der Planungs- und Steuerungsaktivitäten. Dieses theoretische Grundmodell
wurde in Kapitel 4 anhand der wissenschaftlichen Literatur zum Innovations- und Pro-
jektmanagement konkretisiert und in eine Reihe von Aussagen gefasst, die in Kapitel 5 mit
den Befunden einer Metaanalyse über die bestehende empirische Forschung zum Untersu-
chungsgegenstand der Arbeit konfrontiert wurden. Auf dieser Basis wurden in Kapitel 6
die eigentlichen Hypothesen der Arbeit abgeleitet und im empirischen Teil überprüft.
Die Ergebnisse der statistischen Analyse zeigen zunächst, dass sorgfältige Business-
planung in der Frühphase eines Vorhabens einen starken positiven Effekt auf die Qualität
der sich anschließenden Aktivitäten von Projektplanung und Risikomanagement hat. Die-
se Beziehungen gelten sowohl für hoch- als auch für niedriginnovative Projekte. Die ur-
sprünglich vermutete positive Moderatorwirkung des Innovationsgrades konnte hier also
nicht nachgewiesen werden. Die operative Projektplanung in Form von Aktivitäten- und
Ressourcenplanung sowie systematischer Risikoanalyse und -vorbeugung zeigt wiederum
unabhängig vom realisierten Innovationsgrad einen starken Einfluss auf die Qualität der
Projektdurchführung, die hier durch Prozessformalisierung und -stabilität erfasst wird.
Als einzige der Planungsvariablen hat das Risikomanagement, das ja direkt Maßnah-
men der Verlustvermeidung bzw. -verkürzung beinhaltet, eine direkte Erfolgswirkung, die
wiederum unabhängig vom Innovationsgrad des Vorhabens ist. Im Gegensatz zu vielen
früheren Untersuchungen im Bereich des Innovationsmanagement unterstellt die vorliegen-
de Arbeit also nicht per se eine direkte Erfolgswirkung aller Planungsaktivitäten, sondern
weist anhand eines Pfadmodells mit mehreren zeitlich separierten Stufen nach, dass sich
sorgfältige Planung zunächst vor allem in einer verbesserten Prozessqualität im Rahmen
der Projektdurchführung niederschlägt, die dann möglicherweise den Vorhabenserfolg po-
sitiv beeinflussen kann.
In dieser letzten Stufe des nomologischen Netzes zeigt sich einer der interessantesten
Befunde der vorliegenden Arbeit. Basierend auf der situativen Theorie der Informations-
verarbeitung war die Hypothese abgeleitet worden, dass die Koordinations- und Kon-
trollmechanismen in der Implementierungsphase am Ausmaß der nach der Planungsphase
11.2. Methodische Aspekte und Ansatzpunkte für zukünftige Forschung 293
Das in LISREL abgebildete Basismodell zur Planung und Steuerung von Innovations-
projekten erklärt knapp 40 Prozent der Varianz des Vorhabenserfolgs. Dieser Wert kann
als zufriedenstellend angesehen werden, lässt sich aber sicher steigern durch Modellerwei-
294 11. Zusammenfassung und Ausblick
terungen, die über den Rahmen der vorliegenden Untersuchung hinausgehen und neue
Forschungsfragen aufwerfen.
Zunächst ist anzumerken, dass sich diese Arbeit klar auf die Ebene des Ein-
zelprojekts beschränkt hat und damit von der Einbettung des Vorhabens in einen
übergeordneten Unternehmenszusammenhang abstrahiert. Folgeuntersuchungen könnten
diese Einschränkung aufgeben und beispielsweise analysieren, ob die von einem Unter-
nehmen gewählte Innovationsstrategie einen nachweisbaren Einfluss auf die Planung und
Durchführung einzelner Innovationsprojekte hat, ob sich also signifikant unterschiedliche
Wirkungsbeziehungen für verschiedene Typen innovierender Unternehmen nachweisen
lassen. Ein anderer interessanter Gesichtspunkt ist die Frage, wie Innovationsprojekte in
ein Projektportfolio einzubetten sind und welche Auswirkungen dabei hinsichtlich ihrer
Planung und Steuerung zutage treten. Führen regelmäßige Priorisierungsentscheidungen
im Rahmen eines Portfolios dazu, dass erhöhtes Augenmerk auf Aspekte der Business-
planung und Risikoidentifikation gelegt wird? Welchen Effekt hat die Portfoliosteuerung
auf Steuerungsvariablen, führen also beispielsweise regelmäßige Portfolioreviews zu einer
formalisierteren Prozesssteuerung? Stellen sich Repriorisierungen im Rahmen des Innova-
tionsportfolios für das Einzelvorhaben als störende Eingriffe in den Projektablauf heraus,
die zu einer niedrigeren Prozessstabilität führen? Eine Analyse von Innovationsvorhaben
im Kontext des Projektportfolios würde darüber hinaus die Möglichkeit eröffnen, un-
abhängige Einschätzungen der Portfolio- und Einzelprojektperspektive zu erhalten und
damit den in der vorliegenden Untersuchung nicht zu vermeidenden Informant Bias zu
kontrollieren.
Ein weiterer Ansatzpunkt zukünftiger Forschung könnte in der Ausarbeitung und em-
pirischen Validierung der im theoretischen Teil erläuterten informationstheoretischen Fun-
dierung von Planungs- und Steuerungsgesichtspunkten liegen. Aus der situativen Theo-
rie der Informationsverarbeitung lassen sich hier zahlreiche Fragen ableiten, die den De-
taillierungsgrad der vorliegenden Arbeit übersteigen: Welche spezifischen Informationen
können in unterschiedlichen Projektphasen generiert werden? Wie wirkt sich die Güte der
Informationsverarbeitung an kritischen Entscheidungspunkten eines Vorhabens auf den
realisierten Erfolg aus? Wie lässt sich medialer Reichtum möglichst praxisnah operatio-
nalisieren, um das Konstrukt Prozessformalisierung informationstheoretisch messbar zu
machen?
Auch unter vorrangig methodischen Gesichtspunkten ergibt sich weiterer Forschungs-
bedarf. Im Rahmen der vorliegenden Untersuchungen ist großer Wert auf die statistische
Operationalisierung und Validierung der verwendeten Konstrukte gelegt worden. Hinsicht-
lich der dabei zu verwendenden Messmodelle stellt sich die ungelöste Frage, inwiefern sich
die Indikation des Tetradentests für oder gegen die Verwendung eines reflexiven Messmo-
delles in den spezifischen Charakteristika des analysierten Itempools widerspiegelt. So
11.3. Konsequenzen für die Unternehmenspraxis 295
sind in der vorliegenden Arbeit beispielsweise die für Projektplanung und Risikomana-
gement verwendeten Items durch den Tetradentest als klar formativ eingestuft worden,
obwohl sie sich auf den ersten Blick nicht offensichtlich von der bei den anderen Kon-
strukten gewählten Operationalisierung unterscheiden. Daran anschließend stellt sich die
Frage, welche Auswirkung die Umstellung von reflexiver auf formative Messung überhaupt
auf die im Gesamtmodell geschätzten Wirkungsbeziehungen (Pfadkoeffizienten) hat. Die
Analysen im Abschnitt 10.3 haben hier keine allzu großen Differenzen erkennen lassen.
Zu prüfen wäre weiterhin, ob die Wirkung einer Umstellung von reflexiv auf formativ
auch von der Position des Konstruktes innerhalb des nomologischen Netzes abhängt. Um
dies erschöpfend untersuchen zu können, müsste wahrscheinlich auf Analysen mit PLS
(Partial Least Squares)1 zurückgegriffen werden, da die in Abschnitt 8.5.4 skizzierten
Identifikationsprobleme bei dieser Analysemethode nicht auftreten.
Auch hinsichtlich der beiden in dieser Arbeit verwendeten multidimensionalen Kon-
strukte hat sich weiterer Untersuchungsbedarf ergeben. Für zwei Dimensionen des In-
novationsgrades (Marktdimension und Interner Ressourcenfit) war das hier verwendete
Kriterium für Konvergenz validität nicht erfüllt. Es sollte daher näher untersucht werden,
ob sich die Domänen dieser beiden Faktoren überhaupt so weit überschneiden, dass man
sie sinnvollerweise unter dem übergeordneten Konstrukt Innovationsgrad“ zusammenfas-
”
sen kann. In ähnlicher Weise ergeben sich je nach verwendetem Kriterium auch tendenziell
Probleme mit der Diskriminanz validität im Zusammenhang mit der Technologiedimensi-
on des Innovationsgrades sowie dem Konstruktpaar Projektplanung und Prozessformali-
sierung. Dimensionalität und Itempool dieser Konstrukte sollte in Folgeuntersuchungen
weiter geprüft und verfeinert werden.
Die Zielsetzung dieser Arbeit war in erster Linie eine wissenschaftliche Untersuchung der
Wechselwirkung und Erfolgswirkung von Projektplanung und Steuerung im Rahmen von
Innovationsvorhaben. Dennoch stellt sich nach der detaillierten Analyse von 134 Innova-
tionsprojekten die Frage, welche praktischen Handlungsempfehlungen sich für das Mana-
gement ableiten lassen. Eine Reihe solcher Empfehlungen soll hier kurz zusammengefasst
werden:
1. Businessplanung in frühen Projektphasen ist ein unverzichtbarer Erfolgsfaktor für
Innovationsprojekte, auch für hochgradige Innovationen, die sich scheinbar einer
solchen Planung entziehen. Auch wenn die eigentlichen Planungsinhalte bei hochin-
novativen Vorhaben evtl. im Projektverlauf modifiziert werden müssen, trägt doch
1
Lohmöller (1989); Chin (1998).
296 11. Zusammenfassung und Ausblick
schon der Akt der Planung selbst wesentlich zur Strukturierung und Qualität der
späteren Projektphasen bei.
3. Das Zielsystem eines Projektes prägt deutlich die Art des letztendlich realisierten
Erfolges, insbesondere wenn die entsprechenden Steuerungsgrößen verwendet wer-
den. Finanzkennzahlen wurden in der untersuchten Stichprobe tendenziell weniger
als andere Kennzahlen verwendet, erweisen sich jedoch als zentraler Erfolgsfaktor,
da ihre Betonung die Erreichung von Technik-, Markt- und Finanzzielen signifikant
positiv beeinflusst.
Anhänge
Anhang A
Zur Durchführung des Tetradentests wurde das von Ting (1995) beschriebene SAS-Makro
in ein Mathematica 5.0-Notebook übertragen, wobei z. T. die zusätzlichen symbolischen
Fähigkeiten dieses Computer-Algebra-Systems ausgenutzt wurden. Das Mathematica-
Notebook beginnt mit der Definition der Modellstruktur durch die Matrizen Λ, Φ und Θδ
sowie der Eingabe der empirischen Kovarianzmatrix und der Fallzahl. Im Anschluss wird
die Kovarianzstruktur des Modells in Form der Matrix Σ = Λx ΦΛ x + Θδ symbolisch –
d. h. ohne Verwendung der empirischen Daten – berechnet:
<< Statistics‘ContinuousDistributions‘;
Off[General::spell1]
phi = {
{aa, ab, ac, ad},
{ab, bb, bc, bd},
{ac, bc, cc, cd},
{ad, bd , cd, dd}};
theta = DiagonalMatrix[{del1, del2, del3, del4, del5, del6, del7, del8, del9}];
dim = Length[theta];
sigma = lambda.phi.Transpose[lambda] + theta;
sigmaEmp = {
{2.905, 1.536, 1.601, 1.113, 1.206, 0.651, 0.726, 0.710, 0.555},
{1.536, 3.093, 1.638, 0.962, 1.265, 0.643, 0.946, 0.772, 0.586},
{1.601, 1.638, 2.537, 0.934, 1.132, 0.769, 0.960, 0.930, 0.863},
{1.113, 0.962, 0.934, 3.467, 3.109, 0.917, 0.903, 0.681, 0.851},
{1.206, 1.265, 1.132, 3.109, 3.940, 1.231, 1.051, 0.504, 0.621},
{0.651, 0.643, 0.769, 0.917, 1.231, 2.481, 1.815, 0.721, 0.705},
{0.726, 0.946, 0.960, 0.903, 1.051, 1.815, 2.109, 0.772, 1.002},
{0.710, 0.772, 0.930, 0.681, 0.504, 0.721, 0.772, 2.652, 1.510},
{0.555, 0.586, 0.863, 0.851, 0.621, 0.705, 1.002, 1.510, 2.468}};
Im nächsten Schritt werden die identisch verschwindenden Tetraden des Modells ermittelt.
Zunächst wird dafür eine Funktion definiert, die die Tetradendifferenz τijkl = σij σkl −σik σjl
abbildet. Mit Hilfe von vier ineinander geschachtelten Schleifen werden systematisch die
möglichen Indexkombinationen durchlaufen, um Nulltetraden zu idenfizieren:
Als nächstes wird ein maximaler Satz nichtredundant verschwindender Tetraden als Teil-
menge aller Nulltetraden identifiziert. Hierzu werden zunächst die jeweils vier Kovarianzen
einer Tetrade unter Ausnutzung der Symmetrie der Kovarianzmatrix in eine Standardform
gebracht, bei der der kleinere Index vor dem größeren steht. Anschließend wird die Menge
der Nulltetraden mit Hilfe mehrerer ineinander geschachtelter Schleifen durchlaufen, um
Redundanzen zu idenfizieren. Redundanzen treten nach der von Bollen und Ting (1993, S.
157ff.) abgeleiteten Regel dann auf, wenn zwei Tetraden ein gemeinsames Kovarianzpaar
besitzen:
im = Table[0, {Length[var1]}];
nr = Table[0, {Length[var1]}];
rvt = {x};
Elemente der Matrix ΣSS können bei multinormalverteilten manifesten Variablen nach
[ΣSS ](ef )(gh) = σeg σf h −σeh σf g gebildet werden. Jeder der beiden Doppelindizes läuft dabei
über alle in σ auftretenden Indexpaare. Für das in Abschnitt 8.5.2 besprochene Beispiel ei-
nes reflexiven Messmodells mit vier Indikatoren ergeben sich nach Gleichung (8.5.15) drei
verschwindende Tetraden, von denen eine redundant ist. Eliminiert man letztere, verblei-
ben insgesamt fünf nichtredundante Kovarianzen, beispielsweise {σ12 , σ13 , σ14 , σ23 , σ24 }. In
diesem Beispiel ist ΣSS also eine 5 × 5-Matrix, wobei jeder der beiden Doppelindizes über
die Menge {(12), (13), (14), (23), (24)} läuft. Die Rechnungen werden in Mathematica wie
folgt durchgeführt:
]
tauvec = Rest[tauvec];
DtauDsig = Outer[D, tauvec, sigvec];
(1) (2) (3) (4) (5) (6) (7) (8) (9) (10) (11) (12) (13) (14)
(1) Businessplanung 1,00 0,82 0,55 0,64 0,63 0,71 0,79 0,72 0,60 0,47 0,26 0,41 0,42 0,30
(2) Methodik 0,70 0,72 0,45 0,53 0,52 0,57 0,66 0,59 0,50 0,39 0,21 0,34 0,34 0,24
(3) Alternativenabwägung 0,52 0,36 0,89 0,35 0,35 0,38 0,44 0,40 0,34 0,25 0,14 0,22 0,23 0,16
(4) Fit 0,64 0,45 0,33 0,99 0,41 0,46 0,52 0,46 0,40 0,30 0,16 0,27 0,27 0,19
(5) Partizipation 0,50 0,35 0,26 0,32 0,63 0,44 0,50 0,46 0,39 0,30 0,15 0,26 0,26 0,20
(6) Projektplanung 0,68 0,47 0,35 0,44 0,34 0,93 0,54 0,86 0,52 0,29 0,16 0,25 0,26 0,19
(7) Risikomanagement 0,74 0,52 0,39 0,48 0,37 0,49 0,87 0,60 0,58 0,55 0,29 0,47 0,48 0,35
(8) Prozessformalisierung 0,69 0,48 0,36 0,44 0,35 0,80 0,54 0,92 0,46 0,31 0,17 0,28 0,28 0,20
(9) Prozessstabilität 0,55 0,39 0,29 0,36 0,28 0,46 0,49 0,40 0,83 0,57 0,30 0,50 0,50 0,35
(10) Erfolg 0,47 0,33 0,24 0,30 0,24 0,28 0,51 0,30 0,52 1,00 0,54 0,87 0,89 0,63
(11) Technischer Erfolg 0,19 0,13 0,10 0,12 0,09 0,11 0,20 0,12 0,20 0,40 0,54 0,47 0,48 0,33
(12) Markterfolg 0,37 0,26 0,19 0,24 0,19 0,22 0,40 0,24 0,41 0,79 0,31 0,82 0,77 0,56
(13) Finanzerfolg 0,42 0,29 0,22 0,27 0,21 0,25 0,45 0,27 0,46 0,89 0,35 0,70 1,00 0,57
(14) Zeitplaneinhaltung 0,23 0,16 0,12 0,15 0,12 0,14 0,25 0,15 0,25 0,49 0,19 0,39 0,44 0,60
Erläuterung. Die fettgedruckten Zahlen der Hauptdiagonale zeigen die Varianzen der latenten Variablen. In der unteren Diagonalmatrix
stehen die Kovarianzen, in der oberen Diagonalmatrix die Korrelationen.
Tabelle B.1: Messmodell: Kovarianzen und Korrelationen der latenten Variablen
B. Ergänzende Angaben zur Strukturmodellprüfung
(1) (2) (3) (4) (5) (6) (7) (8) (9) (10) (11) (12) (13) (14)
(1) Businessplanung 1,17 0,80 0,57 0,66 0,64 0,70 0,79 0,68 0,53 0,46 0,25 0,40 0,41 0,30
(2) Methodik 1,17 1,81 0,46 0,53 0,51 0,57 0,63 0,55 0,43 0,37 0,20 0,32 0,33 0,24
(3) Alternativenabwägung 1,15 1,15 3,49 0,38 0,36 0,40 0,45 0,39 0,30 0,26 0,14 0,23 0,24 0,17
(4) Fit 1,03 1,03 1,02 2,08 0,42 0,46 0,52 0,45 0,35 0,31 0,16 0,26 0,27 0,20
(5) Partizipation 0,86 0,86 0,84 0,76 1,56 0,45 0,50 0,43 0,34 0,29 0,16 0,25 0,26 0,19
(6) Projektplanung 1,17 1,17 1,15 1,03 0,86 2,36 0,55 0,87 0,51 0,38 0,20 0,32 0,34 0,24
(7) Risikomanagement 1,38 1,38 1,36 1,22 1,01 1,38 2,63 0,60 0,58 0,55 0,29 0,47 0,49 0,35
(8) Prozessformalisierung 1,17 1,17 1,16 1,04 0,86 2,12 1,56 2,54 0,50 0,39 0,21 0,33 0,35 0,25
(9) Prozessstabilität 0,86 0,86 0,85 0,76 0,63 1,18 1,41 1,19 2,25 0,57 0,30 0,48 0,51 0,36
(10) Erfolg 0,50 0,50 0,49 0,44 0,36 0,58 0,89 0,62 0,85 1,00 0,54 0,86 0,89 0,64
(11) Technischer Erfolg 0,26 0,26 0,25 0,23 0,19 0,30 0,46 0,32 0,44 0,52 0,94 0,46 0,47 0,35
(12) Markterfolg 0,60 0,60 0,59 0,53 0,44 0,69 1,07 0,74 1,01 1,20 0,62 1,95 0,77 0,56
(13) Finanzerfolg 0,44 0,44 0,44 0,39 0,33 0,52 0,80 0,55 0,76 0,89 0,46 1,07 1,00 0,57
(14) Zeitplaneinhaltung 0,43 0,43 0,42 0,38 0,32 0,50 0,77 0,53 0,73 0,86 0,45 1,04 0,77 1,80
Erläuterung. Die fettgedruckten Zahlen der Hauptdiagonale zeigen die Varianzen der latenten Variablen. In der unteren Diagonalmatrix
stehen die Kovarianzen, in der oberen Diagonalmatrix die Korrelationen. Die Übereinstimmungen in den Spalten (1) und (2) sind
darauf zurückzuführen, dass die Ladung der Businessplanung auf die Methodik zur Modellidentifikation auf Eins fixiert werden musste.
Tabelle B.2: Basismodell: Kovarianzen und Korrelationen der latenten Variablen
309
310 B. Ergänzende Angaben zur Strukturmodellprüfung
(1) Methodik 0,69 0,48 0,49 0,46 0,52 0,72 0,55 0,47 0,25 0,35 0,35 0,33
(2) Alternativenabwägung 0,39 0,94 0,39 0,26 0,37 0,45 0,38 0,32 0,16 0,22 0,23 0,22
(3) Fit 0,40 0,37 0,96 0,52 0,50 0,50 0,48 0,37 0,17 0,24 0,26 0,25
(4) Partizipation 0,32 0,21 0,42 0,69 0,57 0,40 0,52 0,35 0,12 0,17 0,23 0,24
(5) Projektplanung 0,42 0,35 0,47 0,46 0,93 0,44 0,86 0,49 0,13 0,17 0,31 0,33
(6) Risikomanagement 0,56 0,41 0,46 0,31 0,40 0,87 0,53 0,56 0,34 0,49 0,44 0,39
(7) Prozessformalisierung 0,43 0,35 0,45 0,41 0,79 0,47 0,90 0,49 0,13 0,18 0,32 0,32
(8) Prozessstabilität 0,32 0,25 0,30 0,24 0,39 0,43 0,38 0,67 0,38 0,57 0,60 0,69
(9) Technischer Erfolg 0,16 0,12 0,13 0,08 0,10 0,25 0,10 0,24 0,61 0,27 0,24 0,27
(10) Markterfolg 0,26 0,19 0,21 0,13 0,15 0,41 0,15 0,42 0,19 0,81 0,37 0,41
(11) Finanzerfolg 0,29 0,22 0,25 0,19 0,30 0,41 0,30 0,49 0,19 0,33 1,00 0,41
(12) Zeitplaneinhaltung 0,23 0,18 0,21 0,17 0,27 0,31 0,26 0,48 0,18 0,31 0,35 0,72
Erläuterung. Die fettgedruckten Zahlen der Hauptdiagonale zeigen die Varianzen der latenten Variablen. In der unteren
Diagonalmatrix stehen die Kovarianzen, in der oberen Diagonalmatrix die Korrelationen.
Tabelle B.4: Alternativmodell ohne Faktoren zweiter Ordnung: Kovarianzen und Korrelationen der
latenten Variablen
311
Anhang C
Ausgangspunkt für die in Abschnitt 10.4 berichtete Untersuchung des Basismodells auf
Wahrheitsähnlichkeit ist die folgende Matrixgleichung:
⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤
η 0 0 0 0 0 η1 γ1,0 ζ
⎢ 1⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ 1⎥
⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢η2 ⎥ ⎢ 0 0 0 0 ⎥ ⎢ ⎥ ⎢
0⎥ ⎢η2 ⎥ ⎢γ2,0 ⎥ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎢ζ2 ⎥
⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢η ⎥ = ⎢β 0⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ 3 ⎥ ⎢ 3,1 β3,2 0 0 ⎥ ⎢η3 ⎥ + ⎢ 0 ⎥ [ξ0 ] + ⎢ζ3 ⎥ (C.0.1)
⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢η4 ⎥ ⎢β4,1 β4,2 0 0 0⎥ ⎢η4 ⎥ ⎢ 0 ⎥ ⎢ζ4 ⎥
⎣ ⎦ ⎣ ⎦⎣ ⎦ ⎣ ⎦ ⎣ ⎦
η9 0 β9,2 0 β9,4 0 η9 0 ζ9
Die beiden ersten Zeilen beschreiben den Einfluss der Businessplanung (ξ0 ) auf Projekt-
planung (η1 ) und Risikomanagement (η2 ). Die Zeilen drei und vier bilden den Effekt
von Projektplanung und Risikomanagement auf Prozessformalisierung und -stabilität ab,
während die letzte Gleichung den Einfluss der Prozessstabilität und der Businessplanung
auf den Erfolg erfasst. Im Rahmen der Veripath-Algorithmus wird zunächst eine Lösung
für dieses Gleichungssystem errechnet, bevor durch Verschiebung jeweils eines Parameters
der B- oder Γ-Matrix die Menge aller nach der D1A1-Regel realisierbaren Alternativmo-
delle generiert und gelöst wird.
Die praktische Verwendung des Veripath-Algorithmus, der von Meehl und Waller
(2002) in Mathematica implementiert wurde, wird von Waller (2002) näher erläutert und
soll hier nur kurz anhand des auf der nächsten Seite wiedergegebenen ASCII-Files skizziert
werden, der die wichtigsten Eingabeinformationen für die Ausführung des Mathematica-
Notebooks enthält.
314 C. Ergänzende Erläuterungen zur Veripath-Analyse
(*======================================================================*)
(* Veripath-Analyse für das Basismodell *)
(*======================================================================*)
SRMRVeri
SRMRLISREL
RMSEA
CFI
AGFI
Abbildung C.1: Korrelationen von fünf ausgewählten Fitmaßen für die von Veripath erzeugten Alter-
nativmodelle. Der SRMRVeri wird direkt von Veripath berechnet, die anderen Anpassungsmaße wurden
durch Stapelverarbeitung in LISREL erzeugt.
Literaturverzeichnis
Abernathy, W. J.; K. B. Clark (1985): Innovation: mapping the winds of creative destruc-
tion. Research Policy 14, 3–12.
Aiken, L. S.; S. G. West (1991): Multiple regression: Testing and interpreting interactions.
Sage, Newbury Park (CA).
Aldrich, H. E.; D. Herker (1977): Boundary spanning roles and organization structure.
Academy of Management Review 2, 217–203.
Ali, A. (1994): Pioneering Versus Incremental Innovation: Review and Research Proposi-
tions. Journal of Product Innovation Management 11, 46–51.
Ali, A.; R. Krapfel; D. LaBahn (1995): Product Innovativeness and Entry Strategy: Impact
on Cycle Time and Break-Even Time. Journal of Product Innovation Management
12 (1), 54–69.
Allen, T. J. (1971): Communications, technology transfer, and the role of technical gate-
keeper. R&D Management 1, 14–21.
Allen, T. J. (1977): Managing the Flow of Technology. MIT Press, Cambridge (MA).
Amit, R.; P. J. H. Schoemaker (1993): Strategic Assets and Organizational Rent. Strategic
Management Journal 14, 33–46.
Ancona, D. G.; D. F. Caldwell (1992a): Bridging the Boundary: External Activity and
Performance in Organizational Teams. Administrative Science Quarterly 37, 634–
666.
318 LITERATURVERZEICHNIS
Ancona, D. G.; D. F. Caldwell (1992b): Demography and design: Predictors of new pro-
duct team performance. Organization Science 3, 321–341.
Armstrong, J. S. (1982): The value of formal planning for strategic decisions: Review of
empirical research. Strategic Management Journal 3 (3), 197–211.
Baccarini, D. (1999): The Logical Framework Method for Defining Project Success. Project
Management Journal 30 (4), 25–32.
Balachandra, R. (1994): Bestimmungsfaktoren für den Abbruch von Forschungs- und Ent-
wicklungsprojekten. Ein vergleichende Studie zwischen den USA und Deutschland.
Die Betriebswirtschaft 54 (4), 449–461.
Balachandra, R.; J. H. Friar (1997): Factors for Success in R&D Projects and New Product
Innovation: A Contextual Framework. IEEE Transactions on Engineering Manage-
ment 44 (3), 276–287.
Beard, C.; C. Easingwood (1996): New product launch: marketing action and launch
tactics for high-technology products. Industrial Marketing Management 25 (2), 87–
103.
Bentler, P. M. (1980): Multivariate analysis with latent variables: Causal modeling. An-
nual Review of Psychology 31, 419–456.
Bentler, P. M. (2000): Rites, Wrongs, and Gold in Model Testing. Structural Equation
Modeling 7 (1), 82–91.
Bentler, P. M.; D. G. Weeks (1980): Linear structural equations with latent variables.
Psychometrika 45, 289–308.
Bird, B. J. (1992): Intentions in Time: The Emergence of the New Venture. Entrepreneur-
ship: Theory and Practice 17 (1), 11–20.
Block, Z.; I. C. MacMillan (1985): Growing concerns: Milestones for successful venture
planning. Harvard Business Review 63 (5), 184–196.
Blundell, R.; R. Griffith; J. van Reenen (1999): Market Share, Market Value and Inno-
vation in a Panel of British Manufacturing Firms. Review of Economic Studies 66,
529–554.
Bollen, K. A. (1987): Total, Direct, and Indirect Effects in Structural Equation Models.
In: C. C. Clogg (Hrsg.): Sociological Methodology. American Sociological Association,
Washington (DC),.
Bollen, K. A. (1989): Structural equations with latent variables. John Wiley & Sons, New
York.
LITERATURVERZEICHNIS 321
Bollen, K. A. (1990): Outlier Screening and a Distribution-Free Test for Vanishing Tetrads.
Sociological Methods and Research 19, 80–92.
Bollen, K. A. (2000): Modeling Strategies: In Search of the Holy Grail. Structural Equation
Modeling 7 (1), 74–81.
Bollen, K. A. (2002): Latent Variables in Psychology and the Social Sciences. Annual
Review of Psychology 53, 605–634.
Bollen, K. A.; J. S. Long (1993): Testing structural equation models. Sage, Thousand
Oaks (CA).
Bollen, K. A.; K.-f. Ting (1993): Confirmatory Tetrad Analysis. In: P. V. Marsden (Hrsg.):
Sociological Methodology (1993). Bd. 23 Jossey-Bass, San Francisco, 147–175.
Bollen, K. A.; K.-f. Ting (2000): A Tetrad Test for Causal Indicators. Psychological Me-
thods 5 (1), 3–22.
Booz, Allen & Hamilton, Inc. (1982): New Product Management for the 1980’s. Booz,
Allen & Hamilton, Inc., New York.
Boulding, W.; R. Morgan; R. Staelin (1997): Pulling the Plug to Stop the New Product
Drain. Journal of Marketing Research 34, 164–176.