Daniel Küpper Die Erfolgswirkung von Effectuation im Kontext von F&E-Projekten
GABLER RESEARCH Entrepreneurship Herau...
16 downloads
1335 Views
1MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Daniel Küpper Die Erfolgswirkung von Effectuation im Kontext von F&E-Projekten
GABLER RESEARCH Entrepreneurship Herausgegeben von Professor Dr. Malte Brettel, RWTH Aachen, Professor Dr. Lambert T. Koch, Universität Wuppertal, Professor Dr. Tobias Kollmann, Universität Duisburg-Essen, Campus Essen, Professor Dr. Peter Witt, Universität Dortmund
„Entrepreneurship“ ist ein noch relativ junger Forschungszweig, der jedoch in Wissenschaft und Praxis stetig an Bedeutung gewinnt. Denn Unternehmensgründungen und deren Promotoren nehmen für die wirtschaftliche Entwicklung einen zentralen Stellenwert ein, so dass es nur folgerichtig ist, dem auch in Forschung und Lehre Rechnung zu tragen. Die Schriftenreihe bietet ein Forum für wissenschaftliche Beiträge zur Entrepreneurship-Thematik. Ziel ist der Transfer von aktuellen Forschungsergebnissen und deren Diskussion aus der Wissenschaft in die Unternehmenspraxis.
Daniel Küpper
Die Erfolgswirkung von Effectuation im Kontext von F&E-Projekten Eine empirische Analyse Mit einem Geleitwort von Prof. Dr. Malte Brettel
RESEARCH
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.
D 82 (Diss. RWTH Aachen University, 2009)
1. Auflage 2010 Alle Rechte vorbehalten © Gabler Verlag | Springer Fachmedien Wiesbaden GmbH 2010 Lektorat: Ute Wrasmann | Nicole Schweitzer Gabler Verlag ist eine Marke von Springer Fachmedien. Springer Fachmedien ist Teil der Fachverlagsgruppe Springer Science+Business Media. www.gabler.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Umschlaggestaltung: KünkelLopka Medienentwicklung, Heidelberg Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier Printed in Germany ISBN 978-3-8349-2411-7
Geleitwort Seit vielen Jahren ist in der Praxis das Phänomen zu beobachten, dass es jungen Unternehmern in innovativen Umfeldern deutlich besser gelingt, erfolgreich zu sein, als etablierten Unternehmen mit ähnlich gelagerten F&E-Projekten. Es scheint ein unternehmerisches Management zu geben, durch das Unternehmer erfolgreicher zu agieren vermögen als Mitarbeiter in etablierten Unternehmen. Wie sich dieses unternehmerische Management auszeichnen kann, hat Sarasvathy vor etwa zehn Jahren mit so genannten serial entrepreneurs erforscht und ihre Logik des Vorgehens Effectuation genannt. Generell ist Effectuation eine neue Theorie des Handelns unter hoher Unsicherheit, mit der es gelingen kann, trotz dieser Unsicherheit die Zukunft durch kleinschrittiges Handeln auch weiterhin zu kontrollieren. Sarasvathy hat erkannt, dass serial entrepreneurs sich in vielen unsicheren Situationen an die Logik von Effectuation halten. Ein solchermaßen beschriebenes Vorgehen steht in teilweise konträrem Verhältnis zur Logik der Planung, bei Sarasvathy auch als Causation umschrieben. Das hat zur Folge, dass dominant durch Planung koordinierte Unternehmen – das sind im Prinzip alle etablierten Unternehmen – in der Anwendung von Effectuation große Hindernisse vorfinden. Gleichwohl müssen diese Unternehmen ihre F&E-Projekte trotzdem ebenso erfolgreich gestalten. Insofern stellt sich die Frage, inwiefern sich Effectuation auch in etablierten Unternehmen findet und unter welchen Bedingungen diese Logik auch in etablierten Kontexten anwendbar ist, um Entwicklungsprojekte erfolgreich zu gestalten. Genau an dieser Stelle setzt die vorliegende Dissertationsschrift von Daniel Küpper an. Sie hat die Erfolgswirkung von Effectuation von F&E-Projekten zum Inhalt und setzt sich damit sowohl theoretisch als auch empirisch auseinander. Im ersten Teil vermag Herr Küpper einen sehr interessanten theoretischen Beitrag zu leisten, indem er ein eigentlich für junge Unternehmen entwickeltes Konzept auf etablierte große Einheiten überträgt. Das ist insofern sehr spannend, weil diese etablierten Unternehmen durch ihre plandominierte Führung gar nicht die Voraussetzungen aufweisen, um ein Konzept wie Effectuation zu implementieren. Umso wertvoller sind die Überlegungen von Herrn Küpper dazu. Diese Überlegungen bleiben aber nicht nur theoretisch, sondern Herr Küpper setzt sie auch in einer empirischen Untersuchung um. Dazu entwickelt er zuerst eine Skala, mit der Effectuation messbar gemacht werden kann. Diese überprüft er dann an einer großen Anzahl von Unternehmen und kann dadurch weitere interessante Ergebnisse erzielen. So ist bei Projekten, die einen hohen Innovationsgrad haben, auch in etablierten Unternehmen wichtig, das Risiko V
durch ein schrittweises Vorgehen aktiv zu reduzieren. Wie das funktionieren kann, das verrät die vorliegende Schrift. So hält die Arbeit für Praktiker viele interessante Hinweise bereit, wie innovative Projekte erfolgreich gestaltet werden können. Dabei ist sie nicht nur für Praktiker interessant, auch theoretisch interessierte Leser finden in den grundlegenden Überlegungen und vor allem in der Skalenbildung einen wesentlichen Beitrag für die weitere Verbreitung der Ideen des Effectuation. Insofern ist der Arbeit der breite Leserkreis zu wünschen, den sie verdient.
Malte Brettel
VI
Vorwort Innovative Produkte werden unumstritten als wesentliche Quelle von Wettbewerbsvorteilen angesehen. In der Vergangenheit konnte gezeigt werden, dass sowohl explorative, radikale Innovationen als auch eher kurzfristig orientierte, exploitative Innovationen erforderlich sind, um den Erfolg technologiebasierter Unternehmen langfristig zu sichern. Dennoch haben viele Organisationen Schwierigkeiten, die dafür erforderlichen unterschiedlichen Forschungs- und Entwicklungs (F&E)-Projekte erfolgreich durchzuführen. Die vorliegende Arbeit soll dazu beitragen, ein besseres Verständnis in Bezug auf die erfolgreiche Vorgehensweise bei F&E-Projekten zu erzielen, indem Projekte entlang des mit ihnen verbundenen Innovations- oder Neuheitsgrades unterschieden werden. Kern ist dabei die Analyse eines relativ jungen, im Rahmen der Entrepreneurship-Forschung entwickelten Konzepts, das als Effectuation bezeichnet wird. Dieses Konzept dient als Bezugsrahmen, indem es auf den Bereich von F&E-Projekten übertragen wird. Auf diese Weise wird die Erfolgswirkung einer Vorgehensweise nach Effectuation im Kontext von F&E-Projekten untersucht. Die Arbeit ermöglicht eine neue Perspektive in Bezug auf die Fragestellung, wie F&E-Projekte erfolgreich gestaltet werden können, indem der Fokus auf Aspekte der Entscheidungsfindung in unsicheren Situationen gelegt wird. Die Arbeit wurde Ende 2009 von der Wirtschaftswissenschaftlichen Fakultät der RheinischWestfälischen Technischen Hochschule (RWTH) Aachen als Dissertationsschrift angenommen. Mein besonderer Dank gilt Herrn Prof. Dr. Malte Brettel, der die Arbeit als Erstgutachter betreut und durch konstruktive Denkanstöße und jederzeitige Unterstützung gefördert hat. Herrn Prof. Dr. Michael Bastian danke ich für die freundliche Übernahme des Zweitgutachtens. Danken möchte ich auch Frau Prof. Dr. Saras Sarasvathy, die die Urheberin von Effectuation ist und für Diskussionen immer offen war. Ganz besonders danken möchte ich Tina Burkhart, die mich während meiner Promotionszeit in jeder Hinsicht unterstützt hat. Die vielen Gespräche und Diskussionen mit ihr waren sehr wertvoll. Auch meinen Geschwistern Rebecca, Sara, David und Anna bin ich sehr dankbar für ihre große Unterstützung in vielerlei Hinsicht. Gewidmet ist die Arbeit meinen Eltern Ulrike und Manfred Küpper, die meine Ausbildung ermöglicht und durch vielfältige Unterstützung zum Entstehen der vorliegenden Untersuchung beigetragen haben. Ohne Euch wäre diese Arbeit nicht möglich gewesen!
Daniel Küpper
VII
Inhaltsverzeichnis Inhaltsverzeichnis
IX
Abbildungsverzeichnis Tabellenverzeichnis
XVII
Abkürzungsverzeichnis 1
2
XV
Einleitung
XXI 1
1.1
Relevanz des Themas
1
1.2
Forschungsfragen und Forschungslücke
3
1.3
Forschungsansatz und Struktur der Untersuchung
8
Grundlagen und Begriffsdefinitionen 2.1
Forschung und Entwicklung (F&E)
2.1.1
Einordnung und Systematisierung von F&E aus prozessorientierter Sicht
12 12 13
2.1.1.1
F&E im Kontext des Innovationsprozesses
13
2.1.1.2
Abgrenzung von Teilbereichen der F&E
14
2.1.1.2.1
Grundlagenforschung
15
2.1.1.2.2
Technologieentwicklung
17
2.1.1.2.3
Vorentwicklung
17
2.1.1.2.4
Produkt- und Prozessentwicklung
18
2.1.1.3
Abgrenzung von Phasen eines F&E-Projektes
19
2.1.1.4
Aufgaben des F&E-Managements
21
2.1.2
Einordnung und Systematisierung von F&E aus ergebnisorientierter Sicht
22
2.1.2.1
Abgrenzung des F&E-Objektes
22
2.1.2.2
Unsicherheit und Innovationsgrad eines F&E-Projektes
23
2.1.2.2.1
Begriffserläuterung
23
2.1.2.2.2
Zusammenhang zwischen Unsicherheit und Innovationsgrad
26
2.1.2.2.3
Relevanz des Innovationsgrades im F&E-Kontext
28
2.1.2.2.4
Konzeptualisierung des Innovationsgrades
29
2.1.2.3
Erfolg eines F&E-Projektes
2.1.2.3.1
Rahmen zur Konzeptualisierung des F&E-Projekterfolgs
2.1.2.3.2 Dimensionen des F&E-Projekterfolgs
32 32 35
IX
2.2
3
Effectuation
2.2.1
Begriffserläuterung
39
2.2.2
Begriffsabgrenzung zwischen Effectuation und Causation
40
2.2.2.1
Zugrundeliegende Intention
41
2.2.2.2
Voraussetzungen
42
2.2.2.3
Entscheidungsprozesse
42
2.2.2.4
Herstellung von Kontrollierbarkeit
44
2.2.2.5
Prinzipielle Ergebnisse der unterschiedlichen Vorgehensweisen
45
2.2.2.6
Zusammenfassung
45
2.2.3
Die fünf Prinzipien von Effectuation
46
2.2.4
Dynamische Betrachtung von Effectuation
49
2.2.5
Rahmenbedingungen zur Anwendung von Effectuation
52
Konzeptioneller Bezugsrahmen und Hypothesenbildung 3.1
Eignung von Effectuation als Bezugsrahmen für F&E-Projekte
55 55
3.1.1 Einordnung von Effectuation in den Kontext F&E-bezogener Entscheidungsansätze
56
3.1.2
Nutzbarkeit von Effectuation als Bezugsrahmen für F&E-Projekte
59
3.1.3
Eignung von Effectuation als theoretische Grundlage in dieser Untersuchung 60
3.2
Unsicherheit und Innovationsgrad als Grenzen der Eignung von Effectuation
63
3.2.1
Konzeptionelle Herleitung der Wirkungszusammenhänge
63
3.2.2
Befunde in der angrenzenden Literatur
66
3.3
Integrative Betrachtung – Herleitung von Forschungshypothesen in Bezug auf die Erfolgswirkung von Effectuation im Kontext von F&E-Projekten
3.3.1
Spezifizierung des F&E-Projektes auf Basis vorhandener Mittel (Bird-in-hand)
68 70
3.3.1.1
Das Bird-in-hand Prinzip im F&E-Kontext
70
3.3.1.2
Konzeptionelle Herleitung der Wirkungszusammenhänge
70
3.3.1.3
Befunde in der angrenzenden Literatur
72
3.3.1.4
Ableitung der Hypothesen
74
3.3.2
Eingrenzung des Optionenraums durch Fokus auf Verlustbegrenzung (Affordable loss)
3.3.2.1
X
39
Das Affordable loss-Prinzip im F&E-Kontext
75 75
3.3.2.2
Konzeptionelle Herleitung der Wirkungszusammenhänge
75
3.3.2.3
Befunde in der angrenzenden Literatur
77
3.3.2.4
Ableitung der Hypothesen
78
3.3.3
79
3.3.3.1
Das Crazy quilt-Prinzip im F&E-Kontext
79
3.3.3.2
Konzeptionelle Herleitung der Wirkungszusammenhänge
80
3.3.3.3
Befunde in der angrenzenden Literatur
82
3.3.3.4
Ableitung der Hypothesen
85
3.3.4
Integration überraschender Ereignisse (Lemonade)
85
3.3.4.1
Das Lemonade-Prinzip im Kontext von F&E-Projekten
85
3.3.4.2
Konzeptionelle Herleitung der Wirkungszusammenhänge
86
3.3.4.3
Befunde in der angrenzenden Literatur
87
3.3.4.4
Ableitung der Hypothesen
90
3.3.5
Kontrolle durch aktive Beeinflussung zukünftiger technologischer Trends (Pilot-in-the-plane)
91
3.3.5.1
Das Pilot-in-the-plane-Prinzip im F&E-Kontext
91
3.3.5.2
Konzeptionelle Herleitung der Wirkungszusammenhänge
92
3.3.5.3
Befunde in der angrenzenden Literatur
93
3.3.5.4
Ableitung der Hypothesen
95
Herleitung des Forschungsmodells
96
3.4 4
Reduzierung von Unsicherheit durch Partnerschaften und Vorab-Verpflichtungen (Crazy quilt)
Datenerhebung und Untersuchungsmethodik 4.1
Operationalisierung des Forschungsmodells
4.1.1
Grundlagen der Messung
98 98 98
4.1.1.1
Operationalisierung mittels mehrerer Indikatoren
98
4.1.1.2
Spezifizierung der Beziehung zwischen Indikatoren und Konstrukt
99
4.1.1.3
Möglichkeiten zum Rückgriff auf bereits existierende Operationalisierungen
4.1.1.3.1
Vorbemerkungen zur Übertragbarkeit vorliegender Konstrukte
4.1.1.3.2 Vorliegende Operationalisierungen im Bereich der Effectuation-Forschung
101 102 102
XI
4.1.2 4.1.3
Vorgehen bei der Entwicklung neuer Skalen für die vorliegende Untersuchung
104
Operationalisierung der Effectuation- und Causation-Charakteristika eines F&E-Projektes
107
4.1.3.1
Operationalisierung „Bird-in-hand“
108
4.1.3.2
Operationalisierung „Affordable loss“
109
4.1.3.3
Operationalisierung „Crazy quilt“
109
4.1.3.4
Operationalisierung „Lemonade“
110
4.1.3.5
Operationalisierung „Pilot-in-the-Plane“
111
4.1.4
Operationalisierung des Innovationsgrades als moderierende Größe
4.1.4.1
Technologie-Innovationsgrad
113
4.1.4.2
Markt-Innovationsgrad
114
4.1.5
Operationalisierung des Erfolgs von F&E-Projekten
115
4.1.5.1
Prozessbezogene Erfolgskriterien
117
4.1.5.2
Outputbezogene Erfolgskriterien
118
Operationalisierung von Kontrollvariablen
121
4.1.6 4.2
Datengrundlage für die Vor- und Hauptuntersuchung
122
4.2.1
Bildung der Stichprobe
122
4.2.2
Durchführung der Datenerhebung
124
4.2.2.1
Datenbasis für die Voruntersuchung zur Skalenentwicklung
127
4.2.2.2
Datenbasis für die Hauptuntersuchung
128
4.2.3
Behandlung unvollständiger Datensätze
130
4.2.4
Beurteilung der Datenbasis
132
4.2.4.1
4.3 4.3.1
Repräsentativität der Stichprobe
132
4.2.4.1.1 Untersuchung des Fragebogenrücklaufs
132
4.2.4.1.2
134
4.2.4.2
XII
112
Untersuchung der Stichprobenstruktur
Überprüfung auf Verzerrungen
138
4.2.4.2.1
Non-Response Bias
138
4.2.4.2.2
Informant Bias
139
4.2.4.2.3
Common Method Bias
141
Methodik der Datenanalyse Auswahl und Beschreibung der Untersuchungsmethode
144 144
4.3.1.1
Multivariate Methoden zur Datenanalyse
144
4.3.1.2
Strukturgleichungsverfahren
145
4.3.1.3
Varianz- und kovarianzbasierte Strukturgleichungsverfahren
148
4.3.2
4.3.1.3.1
Modellspezifikation
149
4.3.1.3.2
Parameterschätzung
149
4.3.1.3.3
Modellbeurteilung
151
4.3.1.3.4 Ergebnisinterpretation
152
4.3.1.3.5 Zusammenfassende Beurteilung
153
Beschreibung der Vorgehensweise zur Gütebeurteilung von Messund Strukturmodellen
4.3.2.1
Lokale Gütemaße zur Beurteilung der Messmodelle
154
4.3.2.2
Globale Gütemaße zur Beurteilung des Strukturmodells
159
4.3.3
Beschreibung der Kriterien zur Überprüfung der Forschungshypothesen
166
4.3.4
Vorgehen bei der Analyse der Moderationswirkung des Innovationsgrades
167
4.3.4.1 4.3.4.2 5
153
Auswahl einer geeigneten Methode zur Analyse der moderierenden Effekte
167
Theoriegeleitete Bildung von Teilgruppen
169
Untersuchungsergebnisse
171
5.1
Ergebnisse der Voruntersuchung zur Skalenentwicklung
171
5.2
Ergebnisse der Hauptuntersuchung
180
5.2.1
Beurteilung der finalen Messmodelle
180
5.2.1.1
Beurteilung der Messmodelle für das gesamte Untersuchungssample
180
5.2.1.2
Beurteilung der Messmodelle für die untersuchten Teilgruppen
184
5.2.2
Beurteilung des Strukturmodells
186
5.2.2.1
Beurteilung des Strukturmodells für das gesamte Untersuchungssample 186
5.2.2.2
Beurteilung des Strukturmodells für die untersuchten Teilgruppen
5.2.3
Ergebnisse und Überprüfung der Hypothesen
5.2.3.1 5.2.3.2
187 188
Erfolgswirkung von Effectuation und Causation in Abhängigkeit des Innovationsgrades
188
Ergebnisse weiterer potenzieller Einflussgrößen auf die Vorteilhaftigkeit von Effectuation und Causation
194
5.2.3.2.1 Einfluss der Branche
195
XIII
6
5.2.3.2.2 Einfluss der Unternehmensgröße
197
5.2.3.2.3 Einfluss der Projektgröße
199
5.2.3.2.4 Einfluss des Projekttyps
206
Diskussion der Ergebnisse
208
6.1
Diskussion der Ergebnisse bezüglich der gestellten Forschungsfragen
208
6.2
Implikationen für die wissenschaftliche Forschung
214
6.2.1
Methodische Beurteilung
215
6.2.2
Inhaltliche und theoriebezogene Implikationen
217
6.2.3
Restriktionen der Untersuchung und weiterer Forschungsbedarf
222
6.2.3.1
Methodische Restriktionen und weiterer Forschungsbedarf
222
6.2.3.2
Inhaltliche und theoriebezogene Restriktionen und weiterer Forschungsbedarf
224
6.3 7
Implikationen für die unternehmerische Praxis
Zusammenfassung
Anhang
231 238 243
Anhang 1: Literaturüberblick zur Effectuation Forschung
243
Anhang 2: Anschreiben und Erinnerungsschreiben
247
Anhang 3: Fragebogen
251
Anhang 4: Deskriptive Statistik je erfasstem Indikator
262
Anhang 5: Diskriminanzvaliditäten der untersuchten Teilgruppen
265
Literaturverzeichnis
XIV
269
Abbildungsverzeichnis Abbildung 1:
Systematisierung des F&E-Projektmanagements als Grundlage dieser Arbeit
12
Abbildung 2:
F&E im Kontext des Innovationsprozesses
13
Abbildung 3:
Abgrenzung der F&E Teilbereiche
15
Abbildung 4:
Unsicherheit und Zielspezifikation in den unterschiedlichen Projektphasen 27
Abbildung 5:
Zusammenfassung der fünf Effectuation Prinzipien
47
Abbildung 6:
Dynamisches Modell zu Effectuation
51
Abbildung 7:
Typen von Problemlösungsstrategien mit unterschiedlichen Annahmen an die Zukunft
53
Abbildung 8:
Vorgehen bei der Entwicklung einer allgemeinen Effectuation-Theorie
61
Abbildung 9:
Anwendungsgebiet von Effectuation-Prozessen in Bezug auf den Neuheitsgrad
64
Abbildung 10: Modell zur Erforschung der Erfolgswirkung von Effectuation- und Causation-Prozessen bei F&E-Projekten
97
Abbildung 11: Vorgehen zur Entwicklung von Effectuation-Skalen
104
Abbildung 12: Übersicht über zentrale Bedeutungsinhalte der Konstrukte zur Abgrenzung zwischen den fünf Effectuation- und Causation-Prinzipien
105
Abbildung 13: Rücklauf bei der quantitativen Voruntersuchung zur Skalenentwicklung 128 Abbildung 14: Rücklauf bei der Hauptuntersuchung
129
Abbildung 15: Verteilung der Unternehmen nach Branche (in %)
134
Abbildung 16: Verteilung der Unternehmen nach Postleitzahlgebiet (in %)
136
Abbildung 17: Verteilung der Unternehmen nach Mitarbeiteranzahl (in %)
137
Abbildung 18: Gruppen zur Untersuchung eines Informant Bias
140
Abbildung 19: Aufbau eines Strukturgleichungsmodells
146
Abbildung 20: Übersicht der in dieser Untersuchung verwendeten Arten von Gütemaßen 154 Abbildung 21: Median-dichotomisierte Untersuchungsteilgruppen
169
Abbildung 22: Pfadkoeffizienten und Signifikanzen in der Stichprobe „geringer Innovationsgrad“
190
Abbildung 23: Pfadkoeffizienten und Signifikanzen in der Stichprobe „hoher Innovationsgrad“
190
XV
Abbildung 24: Detailanalyse der Konsequenzen von Effectuation: Indirekte Erfolgswirkungen
225
Abbildung 25: Detailanalyse der Einflussgrößen auf Effectuation
226
Abbildung 26: Phasenbezogene Analyse von Effectuation und Causation auf Einzelentscheidungsebene
229
Abbildung 27: Idealtypische Verteilung von Effectuation- und Causation-Prozessen in Abhängigkeit von Projektphase und Höhe des Innovationsgrades
230
XVI
Tabellenverzeichnis Tabelle 1:
Überblick über relevante empirische Untersuchungen zu Effectuation
Tabelle 2:
Arten von Unsicherheit
24
Tabelle 3:
Abgrenzung zwischen Causation und Effectuation
46
Tabelle 4:
Forschungshypothesen zum Bird-in-hand-Prinzip
75
Tabelle 5:
Forschungshypothesen zum Affordable loss-Prinzip
79
Tabelle 6:
Forschungshypothesen zum Crazy quilt-Prinzip
85
Tabelle 7:
Forschungshypothesen zum Lemonade-Prinzip
91
Tabelle 8:
Forschungshypothesen zum Pilot-in-the-plane-Prinzip
96
Tabelle 9:
Entscheidungsregeln zur Spezifikation der Konstrukte
101
Tabelle 10:
Operationalisierung des Konstruktes „Bird-in-hand“
108
Tabelle 11:
Operationalisierung des Konstruktes „Affordable loss“
109
Tabelle 12:
Operationalisierung des Konstruktes „Crazy quilt“
110
Tabelle 13:
Operationalisierung des Konstruktes „Lemonade“
111
Tabelle 14:
Operationalisierung des Konstruktes „Pilot-in-the-plane“
112
Tabelle 15:
Operationalisierung des Moderators „Technologie-Innovationsgrad“
114
Tabelle 16:
Operationalisierung des Moderators „Markt-Innovationsgrad“
115
Tabelle 17:
Review unterschiedlicher Erfolgsdimensionen in der Projektmanagement-Literatur
116
Operationalisierung des Konstruktes „Prozessbezogener Erfolg des F&E-Projektes“
118
Operationalisierung des Konstruktes „Outputbezogener Erfolg des F&E-Projektes – Aufbau von Erfahrungen und Kompetenzen“
119
Tabelle 18: Tabelle 19:
7
Tabelle 20:
Operationalisierung des Konstruktes „Outputbezogener Erfolg des F&E-Projektes – Wahrgenommener Nutzen und zukünftige Potenziale“ 121
Tabelle 21:
Explorative Faktorenanalyse zur Untersuchung eines potenziellen Common Method Bias
143
Tabelle 22:
Übersicht der lokalen Gütemaße zur Beurteilung der Messmodelle
159
Tabelle 23:
Übersicht der globalen Gütemaße zur Beurteilung des Strukturmodells
161
Tabelle 24:
Übersicht der Gütemaße bei der Skalenentwicklung (N = 123)
172
Tabelle 25:
Diskriminanzvalidität auf Indikatorebene – Korrelation zwischen Faktoren und reflektiven Indikatoren
174 XVII
Tabelle 26:
Diskriminanzvalidität auf Faktorenebene – ²-Differenztest und Fornell-Larcker-Kriterium
175
Tabelle 27:
Übersicht der quantitativen Ergebnisse des Skalenentwicklungsprozesses 179
Tabelle 28:
Übersicht der lokalen Gütemaße der exogenen Variablen (N = 400)
181
Tabelle 29:
Übersicht der lokalen Gütemaße der endogenen Variable Prozess-Effizienz (N = 400)
182
Übersicht der lokalen Gütemaße der endogenen Variablen zum outputbezogenen Erfolg (N = 400)
182
Diskriminanzvalidität auf Indikatorebene – Korrelation zwischen Faktoren und reflektiven Indikatoren
183
Tabelle 32:
Diskriminanzvalidität auf Faktorenebene (Fornell-Larcker-Kriterium)
184
Tabelle 33:
Lokale Gütebeurteilung der Messmodelle in den beiden Teilgruppen
185
Tabelle 34:
Übersicht über globale Gütemaße des gesamten Strukturmodells (N = 400)
187
Übersicht über globale Gütemaße des Teilgruppen-Strukturmodells (N = 272)
188
Tabelle 36:
Ergebnisse für Bird-in-hand – Pfadkoeffizienten und Gruppenvergleich
191
Tabelle 37:
Ergebnisse für Affordable loss – Pfadkoeffizienten und Gruppenvergleich 192
Tabelle 38:
Ergebnisse für Crazy quilt – Pfadkoeffizienten und Gruppenvergleich
192
Tabelle 39:
Ergebnisse für Lemonade – Pfadkoeffizienten und Gruppenvergleich
193
Tabelle 40:
Ergebnisse für Pilot-in-the-plane – Pfadkoeffizienten und Gruppenvergleich
194
Anteil der signifikant unterschiedlichen Variablen zwischen den Branchen (T-Test)
197
Lokale und globale Gütemaße zur Analyse der Kontrollvariable „Unternehmensgröße“
198
Tabelle 43:
Gruppenvergleich zur Kontrollvariable „Unternehmensgröße“
199
Tabelle 44:
Lokale und globale Gütemaße zur Analyse der Kontrollvariable „Projektbudget“
200
Tabelle 45:
Gruppenvergleich zur Kontrollvariable „Projektbudget“
201
Tabelle 46:
Lokale und globale Gütemaße zur Analyse der Kontrollvariable „Projektteamgröße“
202
Gruppenvergleich zur Kontrollvariable „Projektteamgröße“
203
Tabelle 30: Tabelle 31:
Tabelle 35:
Tabelle 41: Tabelle 42:
Tabelle 47:
XVIII
Tabelle 48:
Lokale und globale Gütemaße zur Analyse der Kontrollvariable „Projektdauer“
204
Tabelle 49:
Gruppenvergleich zur Kontrollvariable „Projektdauer“
205
Tabelle 50:
Scoringliste zur Überprüfung der Höhe des Innovationsgrades
233
Tabelle 51:
Zusammenfassung der praxisrelevanten Untersuchungsergebnisse
237
Tabelle 52:
Übersicht über wesentliche Forschungsbeiträge zu Effectuation
246
Tabelle 53:
Deskriptive Statistiken zu den einzelnen Indikatoren
264
Tabelle 54:
Diskriminanzvalidität auf Indikatorebene für die Teilgruppe „geringer Innovationsgrad“
265
Diskriminanzvalidität auf Indikatorebene für die Teilgruppe „hoher Innovationsgrad“
266
Diskriminanzvalidität (Fornell-Larcker-Test) für die Teilgruppe „geringer Innovationsgrad“
267
Diskriminanzvalidität (Fornell-Larcker-Test) für die Teilgruppe „hoher Innovationsgrad“
267
Tabelle 55: Tabelle 56: Tabelle 57:
XIX
Abkürzungsverzeichnis AMOS
Analysis of Moment Structures
bspw.
beispielsweise
DCF
Discounted Cash Flow
d.h.
das heißt
EC
effectual cells
F&E
Forschung und Entwicklung
i.d.R.
in der Regel
IRR
Internal Rate of Return
i.w.S.
im weiteren Sinne
LISREL
Linear Structural Relations
NPV
Net Present Value
PLS
Partial Least Squares
PPE
Produkt- und Prozessentwicklung
RWTH
Rheinisch-Westfälisch Technische Hochschule
stellv.
stellvertretend
u.a.
unter anderem
z.B.
zum Beispiel
XXI
1 Einleitung 1.1
Relevanz des Themas „The question is not one of whether or not to innovate but rather of how to do so successfully.“ 1
Schon zu Beginn des 20. Jahrhunderts erkannte Schumpeter die große Relevanz von Innovationen für Betriebe und Märkte. 2 Die technologische Invention und deren wirtschaftliche Verwertung, also die Innovation, stellen eine wesentliche Ressource von Wettbewerbsvorteilen für Unternehmen dar und sichern somit den langfristigen Unternehmenserfolg. 3 Damit es zu solchen Innovationen kommen kann, muss Forschung und Entwicklung (F&E) betrieben werden. Mittlerweile ist weithin anerkannt, dass die F&E als eine zentrale strategische Größe zur nachhaltigen Sicherung des Unternehmenserfolgs von technologieorientierten Unternehmen verstanden werden muss. 4 Die Bedeutung des Innovationsprozesses i.w.S. 5 hat in den letzten Jahren sogar zugenommen, weil sich der Wettbewerb zwischen Unternehmen intensiviert hat.6 Ursachen hierfür sind unter anderem in der zunehmenden Internationalisierung der Märkte zu finden. 7 Gleichzeitig haben sich neben der Bedeutungszunahme neue Herausforderungen ergeben. 8 So hat sich die technologische Komplexität in den meisten Fällen erhöht. Technologien werden nicht nur komplexer, sondern ändern sich auch in immer kürzeren Zeitabständen.9 Als Folge sind längere Produktentstehungsprozesse bei gleichzeitig kürzeren Produktlebenszyklen zu beobachten. 10 Das bedeutet für betroffene Unternehmen, dass für die Amortisation der F&E-Kosten und der Erwirtschaftung von Gewinnen weniger Zeit zur Verfügung steht. 11 Die Herausforderung, gleichzeitig auf gestiegene Entwicklungskosten, längere Entwicklungszeiten und zusätzlich in vielen Fällen höhere Qualitätsansprüche reagieren zu müssen, wird in der Literatur häufig als „magisches Dreieck“ 12 bezeichnet. Führende Unternehmen im Bereich des Maschinenbaus haben jedoch gezeigt, dass die drei Ziele durchaus gleichzeitig erfüllt werden können. 13 So kann beispielsweise Schnelligkeit in der Entwicklung direkt das Kostenziel be-
1 2 3 4 5 6 7 8 9 10 11
12 13
Bessant (2003), S. 761. Vgl. Schumpeter (1912); Schumpeter (1975), S. 137. Vgl. Brown/Eisenhardt (1995), S. 344; Howells (2008), S. 241. Vgl. u.a. Zahn (1989), S. 178; Zirger/Maidique (1990); Edler et al. (2002). Vgl. hierzu die Definition in Kapitel 2. Innovation i.w.S. schließt F&E mit ein. Vgl. Gerybadze (2004), S. 3. Vgl. Clark/Fujimoto (1991), S. 2. Vgl. u.a. Sen/Egelhoff (2000); Howells et al. (2003); Garcia-Morales et al. (2007). Vgl. Smidt (1985), S. 30; Yoon/Lilien (1985). Vgl. Specht et al. (2002), S. 3f. Vgl. Studie zum Rückgang der Pay-off-Perioden in unterschiedlichen Branchen in Bullinger (1990), S. 34. Vgl. Pfeiffer/Weiß (1990), S. 9; Atkinson (1999), S. 337f. Vgl. Rommel et al. (1993), S. 77; Specht et al. (2002), S. 6.
1
einflussen. Ein hoher Stellenwert von Qualitätsprozessen innerhalb des Unternehmens kann die Einhaltung des Qualitätszieles sicherstellen. Mit der großen Bedeutung der F&E für den wirtschaftlichen Erfolg einzelner Unternehmen und den zunehmenden Herausforderungen ergibt sich einerseits die Notwendigkeit effizienter und andererseits in Bezug auf den Output erfolgreicher F&E-Prozesse. Somit stellt sich die Frage nach den Kennzeichen der geforderten Effizienz bzw. den Determinanten für erfolgreiche F&E-Projekte. Die Beantwortung dieser Frage ist eine große Herausforderung, da es sich bei F&E- und Innovationsmanagement um die Behandlung von „extrem komplexen“ 14 Entscheidungsproblemen unter großer Unsicherheit 15 handelt. Aufgrund des individuellen Charakters eines jeden Projektes kann diese Frage daher auch nicht standardisiert beantwortet werden. Vielmehr muss durch die Berücksichtigung von Rahmenbedingungen versucht werden, einen Kompromiss zwischen wünschenswertem Standardprozess und der in der Praxis gegebenen Individualität eines jeden Projektes zu schließen. 16 In der Literatur sind sowohl die Rahmenbedingungen, die einen Einfluss auf die Vorteilhaftigkeit von bestimmten Einflussgrößen auf den F&EErfolg haben, als auch die Einflussgrößen selber umstritten. 17 „To date, it is not clear if the best practices associated with developing continuous products also apply to discontinuous products.“ 18 Ursache dafür ist, dass bislang einheitliche Messgrößen sowohl für die Einflussgrößen, als auch für mögliche Rahmenbedingungen und den Projekterfolg und darüber hinaus theoretische Frameworks fehlen, „to make sense of seemingly conflicting findings.“ 19 „Innovation researchers have given minimal attention to the types and characteristics of the innovations they have studied. This has hampered comparisons of empirical findings as well as theoretical development.“ 20 Kern dieser Arbeit ist die Analyse des Innovations- bzw. Neuheitsgrades im Rahmen von F&E-Projekten und der damit verbundenen Unsicherheit auf den Einfluss bestimmter erfolgsfördernder Größen. Da der Innovationsgrad als spezielle Ausprägung der Höhe von Wissensdefiziten interpretiert wird 21 , kann ein F&E-Projekt als spezielle Ausprägung eines Entscheidungsproblems 22 angesehen werden. Entsprechend ist also ein konzeptioneller Bezugsrahmen erforderlich, der einerseits einen Ansatz zur Entscheidungsfindung unter hoher Unsicherheit darstellt. Andererseits wird ein Bezugsrahmen benötigt, der eine Entscheidungsfindung im
14 15 16
17 18 19 20 21 22
2
Hauschildt/Salomo (2007), S. 40; ähnlich auch Vahs/Burmester (2002), S. 50. Vgl. u.a. Rogers (1983), S. 157; Dosi (1988), S. 1125f. Vgl. Specht et al. (2002), S. 210. Vgl. stellvertretend auch Olson et al., die bezweifeln „[that] any one type of […] structure is likely to be uniformly successful in delivering more creative new products, cutting development time, and improving new product success in the marketplace across all kinds of development projects.“ (Olson et al. (1995), S. 48). Vgl. stellvertretend Shenhar et al. (2002); Salomo et al. (2007), S. 286. Salomo et al. (2007), S. 285f. Lewis et al. (2002), S. 546. Wolfe (1994), S. 415. Vgl. Salomo et al. (2007), S. 288 und Abschnitt 3.2. Vgl. Heinemann (2006), S. 10 in Anlehnung an Dewar/Dutton (1986), S. 1423.
Rahmen von Projekten mit geringerem Innovationsgrad und entsprechend geringerer Unsicherheit zulässt. Daher besteht ein wesentliches Ziel dieser Untersuchung darin, die Erfolgswirkung und damit auch die Effizienz zweier unterschiedlicher Konzeptionen der Entscheidungsfindung im Kontext von F&E-Prozessen zu untersuchen, nämlich einerseits einen Rahmen für Projekte mit einem hohen und andererseits mit einem geringen Innovationsgrad. Die Unterscheidung zwischen diesen beiden Projektarten ist wichtig, weil sich die wissenschaftliche Literatur zunehmend darüber klar wird, dass „projects that feature a high degree of innovativeness may require a different management approach than that used for incremental or moderate innovations.“ 23 Gleichzeitig wurde in der jüngeren Vergangenheit festgestellt, dass sowohl die Durchführung von Projekten mit einem geringen Innovationsgrad, als auch Projekten mit einem hohen Innovationsgrad erforderlich ist, um langfristig den Unternehmenserfolg zu sichern. 24 Dies unterstreicht die Bedeutung beider Projektarten für die unternehmerische Praxis und die Notwendigkeit vor allem auch für Projekte mit einem hohen Innovationsgrad ein besseres Verständnis in Bezug auf die Erfolgsdeterminanten zu bekommen. 1.2
Forschungsfragen und Forschungslücke
Dem oben genannten Untersuchungsziel soll sich im Rahmen dieser Arbeit mit Hilfe einer neuartigen Konzeption der wissenschaftlichen Forschung genähert werden. Im Jahr 2001 veröffentlichte Sarasvathy eine als Effectuation bezeichnete Logik, die sie von CausationProzessen abgrenzt. 25 Die beiden Ansätze unterscheiden sich dadurch, dass die EffectuationLogik davon ausgeht, dass immer dann, wenn etwas Neues entsteht, die Einflussfaktoren auf den Erfolg so unüberschaubar groß sind, dass sie nicht im Detail im Voraus planbar sind.26 Somit geht die Effectuation-Logik davon aus, dass es vorteilhaft ist, das Umfeld durch aktive Gestaltung kontrollieren zu können, während Causation durch die Einhaltung von konkret im Voraus spezifizierten (Teil-) Prozessen gekennzeichnet ist. Allgemeiner ausgedrückt ist Effectuation eine „general theory of decision making in uncertain situations.“ 27 Causation hingegen ist ein Ansatz zur Entscheidungsfindung unter geringer Unsicherheit.
23
24
25
26 27
Salomo et al. (2007), S. 286. „[…] some of the established practices in incremental NPD (new product development) may actually be counterproductive in the context of highly innovative, discontinuous development projects“ (Salomo et al. (2007), S. 286). Vgl. ähnlich auch Veryzer (1998); Leifer et al. (2000). Die erfolgreiche Balance zwischen exploitativen und explorativen Prozessen wird in der Literatur auch als „ambidexterity“ oder „ambidextrous organization“ bezeichnet (vgl. stellvertretend Tushman/O’Reilly III (1996)). Eine positive Wirkung auf den Unternehmenserfolg wurde erstmals von He/Wong (2004) großzahlig empirisch nachgewiesen. Durch einen ambidexterity-Ansatz kann sichergestellt werden, dass sowohl eher in kurzfristiger Perspektive für den Erfolg relevante inkrementelle Innovationen sowie langfristig bedeutende disruptive oder radikale Innovationen hervorgebracht werden (vgl. He/Wong (2004), S. 481ff.; Jansen (2005), S. 2f.). Vgl. Sarasvathy (2001a). Die in dieser Veröffentlichung dargestellten Erkenntnisse fußen auf Sarasvathy’s Dissertation: Sarasvathy (1998). Vgl. Sarasvathy et al. (forthcoming) und Kapitel 2 für eine detaillierte Definition und Abgrenzung. Sarasvathy (2007), S. 227.
3
Prinzipiell ist die Effectuation-Logik auf viele in der Praxis relevanten Bereiche übertragbar. 28 Allerdings ist die aktuelle Forschung stark auf den Entrepreneurship-Bereich im Sinne von Unternehmensneugründungen fokussiert. Im Rahmen dieser Untersuchung soll die Effectuation-Logik nun erstmalig auf F&E-Projekte ausgedehnt werden. Dies ist besonders interessant, weil Effectuation vor allem in solchen Bereichen einsetzbar ist, in denen eine hohe Unsicherheit besteht und die zukünftige Entwicklung nicht prognostiziert werden kann. Auch bei F&E-Projekten gibt es ein hohes Maß an Unbestimmtheit und Komplexität. 29 „The outcomes of R&D projects are, by definition, difficult to predict […].“ 30 Dies zeigt sich im wissenschaftlichen Umfeld dadurch, dass es bis heute trotz intensiver Bemühungen seit den 1970er Jahren nicht gelungen ist, ein einheitliches Verständnis von Erfolgs- und Misserfolgsfaktoren im Bereich von F&E-Projekten zu erzielen. 31 Unterschiedliche Studien kommen zum Teil zu gegensätzlichen Aussagen. Als Ursache hierfür wird insbesondere die individuelle Struktur eines jeden Projektes und die enorme Anzahl von Einflussgrößen auf den Projekterfolg gesehen. 32 Da bestehende theoretische und empirische Analysen nicht in der Lage sind einen geeigneten konzeptionellen Rahmen für F&E-Projekte zu bieten, wird in dieser Untersuchung mit der Effectuation-Logik ein Ansatz gewählt, der die kritischen Punkte aktueller Analysen, nämlich die Unvorhersehbarkeit der Entwicklung einer Vielzahl von Einzelfaktoren, explizit berücksichtigt. Die erste wichtige Kernfrage, um sich der Thematik zu nähern lautet: Wie ist ein durch Effectuation geprägtes F&E-Projekt gekennzeichnet? Eng mit der Herleitung dieser Fragestellung verbunden ist die Analyse der Rahmenbedingungen unter denen Effectuation als geeignetes Konzept Anwendung finden kann. In diesem Zusammenhang wird der Grad der technologischen Neuheit eines zu entwickelnden Produktes und der Grad der Neuheit eines zu penetrierenden Marktes von zentraler Bedeutung sein. Diese Fragestellung ist auch unmittelbar für die Forschung im Bereich von F&E-Projekten bedeutsam, da die Erkenntnisse in Bezug auf die moderierende Wirkung des Innovationsgrades bislang teilweise uneinheitlich sind. 33 Außerdem sind weitere mögliche moderierende Größen bislang selten untersucht. So betont Shenhar bspw. die Notwendigkeit weiterführender Untersuchungen, um diesen Aspekt besser zu verstehen: „[…] more research is clearly needed to
28 29 30 31 32
33
4
Vgl. Sarasvathy (2001a). Vgl. Hauschildt/Salomo (2007), S. 40; ähnlich auch Vahs/Burmester (2002), S. 50. Pinto/Covin (1989), S. 54f. Vgl. Shenhar et al. (2002). Vgl. Damanpour (1991); Dewar/Dutton (1986); Pinto/Covin (1989); Shenhar (1993); Shenhar et al. (2002). Einerseits wird so etwa nachgewiesen, dass eine moderierende Wirkung des Innovationsgrades vorliegt (vgl. stellvertretend Montoya-Weiss/Calantone (1994); Eisenhardt/Tabrizi (1995); Olson/Walser/Ruekert (1995); Song/Parry (1997); Moorman/Miner (1998); Song/Montoya-Weiss (1998); Swink (2000); Leifer/O’Connor/Rice (2001); O’Connor/Veryzer (2001); Shenhar (2001); Tatikonda/Montoya-Weiss (2001); Shenhar et al. (2002); MacCormack/Verganti (2003); Salomo/Steinhoff/Trommsdorff (2003); Salomo/Gemünden/Billing (2003); Salomo et al. (2007)). Andererseits gibt es Untersuchungen, die keine Erfolgswirkung feststellen (vgl. bspw. Souder et al. (1998)). Vgl. dazu auch die detaillierten Ausführungen in Abschnitt 3.2 auf S. 63ff.
explore additional dimensions of project contingency.“ 34 Die zweite Kernfrage der Untersuchung lautet daher: Unter welchen Rahmenbedingungen ist die Anwendung der Effectuation-Logik im Kontext von F&E-Projekten einer Anwendung von Causation vorzuziehen? Insgesamt sind die theoretischen Grundlagen der Effectuation-Logik bislang nur in sehr geringem Maße empirisch fundiert. Es gibt nur wenige Studien, die empirischen Charakter haben und verhältnismäßig sehr wenige großzahlige Analysen (vgl. Tabelle 1). Der überwiegende Teil der bisherigen Veröffentlichungen ist hingegen theoretischer bzw. konzeptioneller Natur. Dies ist insofern erstaunlich, als dass ein sehr praxisnahes Experiment zur Entwicklung der Effectuation Logik führte. So hat Sarasvathy 27 erfahrene Entrepreneurs im Rahmen eines Experimentes befragt. 35 Diese Analyse hat das Verhalten von erfolgreichen Entrepreneurs, die jeweils Unternehmen mit heutigen Größen zwischen $200 Mio. und $6,5 Mrd. Jahresumsatz gegründet haben, untersucht. In Gedankenexperimenten sollten Unternehmen mit fiktiven neuen Produkten gegründet werden. Dabei hat sich ergeben, dass dreiviertel der erfolgreichen Entrepreneurs Effectuation-Prozesse im Gründungsvorgang anwenden würden. Ein umfassender Überblick über den aktuellen Stand der Effectuation-Literatur findet sich im Anhang. 36 Tabelle 1 zeigt einen Überblick über den noch vergleichsweise geringen Bestand an empirischen Arbeiten. Dabei zeigt sich, dass wiederum ein Großteil der Arbeiten fallstudien- oder experimentbasiert ist. Insgesamt sind dem Autor bislang nur fünf großzahlig empirische Untersuchungen (einschließlich zwei großzahliger Experimente) bekannt. 37 Lediglich eine großzahlig empirische Studie ist bislang in einem anerkannten Journal veröffentlicht. 38 Keine dieser bislang vorliegenden empirischen Studien hat sich jedoch vollumfassend mit Effectuation auseinander gesetzt. Vielmehr wurden lediglich einzelne Teilaspekte von Effectuation untersucht. Hinzu kommt, dass diese Untersuchungen eher eine rudimentäre statistische Auswertung, etwa eine multiple Regressionsanalyse durchführen. Eine Operationalisierung zur Messung von Effectuation oder Causation anhand mehrerer Faktoren auf Basis der Prinzipien 39 gibt es bislang nicht.
34 35 36 37 38
39
Shenhar (2001), S. 413. Vgl. Sarasvathy (1998). Vgl. Anhang 1: Literaturüberblick zur Effectuation Forschung, S. 243ff. Die kleinste Stichprobengröße, die hierbei mitgezählt wurde, ist N = 90. Vgl. die Veröffentlichung im Journal of Business Venturing der Untersuchung von Wiltbank et al. (2008), die allerdings auch ein Experiment darstellt. Vgl. dazu Abschnitt 2.2.3 auf S. 46ff.
5
6
Untersuchung
Typ der Studie (Stichprobe)
Zentrales Ergebnis
Sarasvathy (1998): How do firms come to be? Towards a theory of the pre-firm (Dissertation)
Experiment mit erfahrenen Entrepreneurs (N = 27)
Ableitung der Effectuation-Logik
Sarasvathy/Kotha (2001): Dealing with Knightian uncertainty in the new economy: The RealNetworks case (Buchbeitrag)
Fallstudie (RealNetworks)
Nachweis von EffectuationElementen im Gründungsprozess
Honig/Davidsson/Karlsson (2002): Learning Strategies of Nascent Entrepreneurs (unveröffentlichtes Arbeitspapier)
Großzahlig empirische Studie (N = 117), Auswertung mittels multipler linearer Regression
Positiver Einfluss zweier mit Effectuation assoziierter Lernstrategien auf die Geschwindigkeit des Start-Up Prozesses
Allen (2003): Doctoral dissertation (Dissertation)
Experiment: Vergleich von erfahrenen Entrepreneurs und unerfahrenen MBA Studenten
Starke Korrelation zwischen Erfahrung und Nutzung von Effectuation; Kein Einfluss von Persönlichkeitsmerkmalen auf Nutzung von Effectuation
Dew (2003): Lipsticks and Razorblades: how the auto ID center used pre-commitments to build the Internet of things (Dissertation)
Auswertung historischer und interviewbasierter Daten
Prozessmodell von Effectuation zur Entstehung neuer Märkte
Harmeling et al. (2004): That my neighbor’s cow might live: effectuation, entrepreneurship education and economic development in Croatia (Konferenz-Beitrag Babson)
Fallstudie (Einführung kroatisches MBA-Programm)
Zu Beginn dominieren Effectuation-Prozesse, mit zunehmender Konkretisierung werden Causation Prozesse relevanter
Harting (2004): Entrepreneurial effectuation in a corporate setting (Konferenz-Beitrag Babson)
Fallstudie (CarMax)
Im Gründungsprozess 48% causation- und 52% effectuationbasierte Entscheidungselemente
Gustafsson (2006): Entrepreneurial decision-making: individual, tasks and cognitions (Dissertation)
Experiment mit erfahrenen und unerfahrenen Entrepreneurs (Erfahren: N = 30; Unerfahren: N = 25)
Bestätigt unterschiedliches Vorgehen von erfahrenen und unerfahrenen Entrepreneurs im Entscheidungsprozess
Politis/Gabrielsson (2006): Entrepreneurial Decision Making: Examining Preferences for Causal and Effectual Reasoning (unveröffentlichtes Arbeitspapier)
Großzahlig empirische Studie (N = 291), Auswertung mittels multipler linearer Regression
Karriereerfahrung und Karrieremotive als wesentliche Moderatoren bzgl. Entscheidungsfindung nach Effectuation oder Causation
Dew et al. (2008a): Effectual versus predictive logics in entrepreneurial decision-making (European Journal of Innovation Management)
Experiment mit erfahrenen und unerfahrenen Entrepreneurs (Erfahren: N = 27; Unerfahren: N = 37)
Unterschied zwischen Experten und unerfahrenen Gründern bzgl. Nutzung von Effectuation
McKelvie et al. (2008): Entrepreneurial action: Exploitation decisions under conditions of uncertainty (Academy of Management Best Paper Proceedings)
Großzahlig empirische Studie (N = 90), Auswertung mittels Conjoint Analyse
Unterstützt v.a. Affordable loss und Pilot-in-the-plane Prinzip
Untersuchung (Fortsetzung)
Typ der Studie (Stichprobe)
Zentrales Ergebnis
Read et al. (2008): A metaanalytic review of effectuation and venture performance (Journal of Business Venturing)
Meta-Analyse (48 Studien)
Nachweis eines positiven Erfolgseinflusses von drei Effectuation-Prinzipien im Gründungsprozess
Smit/Read (2008): Why look back with trouble ahead? (Academy of Management Proceedings)
Experiment (N = 147)
Viele Manager nutzen bei einem Übergang von einer sicheren zu einer unsicheren Umgebung mehr Vorhersage-Tools ohne zu erkennen, dass diese ineffizient sind
Wiltbank et al. (2008): Prediction and control under uncertainty: Outcomes in angel investing (Journal of Business Venturing)
Experiment auf Fragebogenbasis (N = 121), Auswertung mittels multipler linearer Regression
Effectuation führt zu Vorteilen bei Unsicherheit im Rahmen von Angel Investments
Tabelle 1: Überblick über relevante empirische Untersuchungen zu Effectuation Quelle: Eigene Darstellung
Die Analyse des Effectuation-Ansatzes im Rahmen von F&E-Projekten steht noch ganz am Anfang einer wissenschaftlichen Erforschung. In diesem Teilgebiet gibt es bislang keinerlei Arbeiten, weder empirischer noch grundlegend theoretischer Natur. Daher ist es von besonderer Bedeutung neben der theoretischen Formulierung eines Effectuation-Ansatzes für F&EProjekte auch einen entsprechenden Praxistest durchzuführen. Mit Hilfe einer empirischen Analyse muss die Erfolgswirkung des Konzeptes unter bestimmten Rahmenbedingungen analysiert werden. Die dritte wesentliche Kernfrage der Untersuchung lautet entsprechend: Welche Erfolgswirkung haben Effectuation-Prozesse im Rahmen von F&E-Projekten? Das Ziel der Untersuchung kann somit folgendermaßen zusammengefasst werden: Um die Erfolgswahrscheinlichkeit zukünftiger F&E-Projekte zu steigern und ein für die Praxis relevantes Konzept mit ableitbaren Handlungsempfehlungen herzuleiten, sind drei zentrale Kernfragen zu beantworten, die bislang noch nicht in der wissenschaftlichen Forschung thematisiert wurden: 1. Wie ist ein durch Effectuation geprägtes F&E-Projekt gekennzeichnet? 2. Unter welchen Rahmenbedingungen ist die Anwendung der Effectuation-Logik im Kontext von F&E-Projekten einer Anwendung von Causation vorzuziehen? 3. Welche Erfolgswirkung haben Effectuation-Prozesse im Rahmen von F&E-Projekten?
Durch die Klärung dieser Forschungsfragen trägt die vorliegende Untersuchung in dreierlei Hinsicht zur Theoriebildung und zur bestehenden Forschung im Bereich des F&EProjektmanagements und der Effectuation-Logik bei. Erstens wird die Effectuation-Logik als eine mögliche konzeptionelle Basis für F&E-Projekte untersucht. Durch die Übertragung der im Entrepreneurship-Umfeld entstandenen Effectuation-Logik auf F&E-Projekte wird sowohl die Entwicklung einer allgemein anerkannten Effectuation-Theorie unterstützt als auch ein 7
möglicher Rahmen für das F&E-Projektmanagement entwickelt. Zweitens trägt die Untersuchung zur bestehenden Effectuation-Literatur bei, indem erstmalig Effectuation und Causation Messmodelle entwickelt werden. Dafür wird auf einen umfangreichen und allgemein anerkannten Skalenentwicklungsprozess zurückgegriffen. Auf diese Weise wird die Basis für eine Ausdehnung der Effectuation-Forschung auf großzahlig empirische Untersuchungen ermöglicht. Dies ist ein wesentlicher Schritt, da die Forschung bislang weitestgehend auf konzeptionelle Arbeiten und Experimente bzw. Fallstudien beschränkt ist. Drittens wird auf der Basis der neuentwickelten Skalen erstmals die Erfolgswirkung von fünf zentralen EffectuationPrinzipien auf den F&E-Projekterfolg analysiert. Dabei wird der Projekterfolg auf der Basis von prozess- und outputbezogenen Kriterien gemessen. Zusätzlich wird der Einfluss des Innovationsgrades in Bezug auf Markt und Technologie im Detail untersucht. 1.3
Forschungsansatz und Struktur der Untersuchung
Dieser Untersuchung liegt ein Verständnis von Betriebswirtschaftslehre als anwendungsorientierter Wissenschaft zugrunde. 40 Entsprechend besteht der Anspruch, neben wissenschaftlicher Fundierung auch einen direkten Praxisbezug herzustellen. Um dies zu ermöglichen wird ein pluralistischer Forschungsansatz 41 angewendet, der unterschiedliche betriebswirtschaftliche Forschungsstrategien kombiniert. So werden zunächst in einem sachlich-analytischen Ansatz, basierend auf bereits erzielten Erkenntnissen, Hypothesen hergeleitet. Dabei muss berücksichtigt werden, dass die Effectuation-Logik bislang ausschließlich im Umfeld junger Unternehmen erforscht wurde und keine Arbeiten existieren, die sich speziell mit der Analyse von Effectuation bei F&E-Projekten beschäftigen. Entsprechend werden in die Hypothesenbildung sowohl bestehende Erkenntnisse im Bereich der Effectuation-, als auch aus der F&E-Projekt-Forschung einfließen. Die wissenschaftstheoretische Fundierung, also eine Überprüfung der Hypothesen, erfolgt dann durch eine empirische Umfrage. Bevor im Folgenden auf das Vorgehen und die Struktur der nachfolgenden Untersuchung eingegangen wird, sollen zunächst ein paar wesentliche Rahmenparameter vorgestellt werden. Da im Rahmen der F&E- und Innovationsmanagement-Forschung eine Vielzahl von möglichen Kontextfaktoren sowie eine hohe Komplexität bestehen, hat Wolfe zur Sicherstellung
40 41
8
Vgl. ausführlich Ulrich (1984), S. 10ff. In der betriebswirtschaftlichen Literatur werden häufig drei grundlegende Forschungs-Strategien unterschieden: Der sachlich-analytische Forscher richtet sich „grundsätzlich auf die Durchleuchtung komplexer Zusammenhänge und die Erarbeitung von Handlungsgrundlagen Bei dieser Erarbeitung stützt er sich aber auf Plausibilitätsüberlegungen und empirisch festgestellte Teilzusammenhänge […].“ „Die formal-analytische Forschung ist […] stärker an der vereinfachten und mehr oder weniger abstrakten Beschreibung von Problemstrukturen interessiert.“ „Die empirische Erforschung von Organisationen ist vor allem durch das Bemühen um eine systematische Erfahrungsgewinnung gekennzeichnet.“ (Grochla (1976), S. 634); Eine Kombination der unterschiedlichen Strategien wird explizit empfohlen. (vgl. Grochla (1959), S. 65ff.; Grochla (1976), S. 637; Häckner/Hisrich (2001), S. 183).
der Qualität, Einordnung und Vergleichbarkeit der Forschung einen Kriterienkatalog entwickelt. 42 Entlang dieser Kriterien soll auch die vorliegende Arbeit eingeordnet werden: 43 1. Relevanter Forschungsstrang: Grundsätzlich handelt es sich bei dieser Untersuchung um eine empirische Erfolgsfaktorenstudie unter Berücksichtigung von Kontextfaktoren. Dabei geht es um die Anwendung der Effectuation-Logik im Bereich von F&EProjekten und somit um eine Fundierung und (Weiter-) Entwicklung in Richtung einer allgemeinen Effectuation-Theorie. 2. Analysierte Phasen des F&E-Projektes: Gegenstand der Untersuchung sind sowohl die Projektvorbereitung als auch die Projektdurchführung. 44 3. Berücksichtigte Arten von Organisationen: Es werden F&E-Projekte innerhalb von Unternehmen betrachtet. Ähnliche Projekte in öffentlichen Forschungsinstituten oder Universitäten sind nicht Bestandteil der Untersuchung. Darüber hinaus werden nur etablierte Unternehmen mit einem bereits existierenden Stammgeschäft untersucht. Keine Einschränkung gibt es in Bezug auf die Unternehmensgröße. 45 4. Konzeptualisierung der abhängigen Variablen: Als abhängige Variable wird in dieser Untersuchung der Erfolg eines F&E-Projektes herangezogen, der entlang von zwei Dimensionen gemessen wird. Zum einen wird die Prozess-Effizienz bewertet. Zum anderen wird der outputbezogene Erfolg des Projektes beurteilt. 5. Arten von F&E-Projekten: Gegenstand dieser Untersuchung sind ausschließlich F&EProjekte mit einem technischen und naturwissenschaftlichen Bezug. Geistes- und sozialwissenschaftliche F&E-Projekte sind nicht Bestandteil der Arbeit.46 Auch werden als mögliche Ergebnisse eines F&E-Projektes lediglich Produktinnovationen und nicht Prozessinnovationen betrachtet. 47 Zusätzlich werden drei weitere Kriterien als Rahmenparameter aufgenommen: 1. Partialbetrachtung: Die vorliegende Untersuchung hat nicht das Ziel, eine umfassende Aufnahme aller möglichen Erfolgsfaktoren vorzunehmen. Vielmehr geht es darum, die effectuationbezogenen Aspekte zu analysieren. Damit findet eine Einschränkung der Parameter aus einer entscheidungstheoretischen Perspektive statt. 2. Theoriebasiertheit: Bei der vorliegenden Untersuchung stellt die zugrundeliegende Theorie einen wesentlichen Schwerpunkt dar. Daher wird ein unmittelbar auf Effectu-
42
43 44
45
46 47
Vgl. Wolfe (1994), S. 406. Die Einordnung der Forschung anhand dieser Kriterien ist wichtig „to developing a cumulative information base and to determining the contingencies which differentiate the applicability of different innovation theories.“ (Wolfe (1994), S. 406). Vgl. zu einer solchen Einordnung bspw. auch Heinemann (2006), S. 7ff. Vgl. Clark (1989); Griffin (1997); Khurana/Rosenthal (1997); Tatikonda/Rosenthal (2002) und die Ausführungen in Abschnitt 2.1.1.3 auf S. 19f. Die Unternehmensgröße wird vielmehr als eine Kontrollvariable mitgeführt, um zu analysieren, ob hiervon eine moderierende Wirkung ausgeht. Vgl. bspw. Gerpott (1999), S. 18. Vgl. dazu auch Abschnitt 4.2.1 auf S. 122ff.
9
ation als theoretischer Grundlage aufbauender konzeptioneller Bezugsrahmen entwickelt, bevor ein zur Klärung der Forschungshypothesen herzuleitendes Forschungsmodell empirisch getestet wird. Dies ist notwendig, um auch der angestrebten Untersuchung von Projekten mit einem geringen und einem hohen Innovationsgrad gerecht zu werden. So besteht ein grundlegendes Problem der Forschung gerade darin, dass häufig Konzepte bzw. einzelne Erfolgsfaktoren aus dem Bereich der Erforschung von inkrementellen Innovationsprojekten unreflektiert auf den Kontext von Projekten mit einem hohen Innovationsgrad übertragen werden ohne dass es dafür eine entsprechende theoriegeleitete Fundierung gibt. 48 3. Art der Forschungsmethodik: Im Rahmen dieser Untersuchung wird ein kovarianzbasiertes Verfahren zur Analyse von Strukturgleichungsmodellen, nämlich AMOS, zur Anwendung kommen. Damit wird unmittelbar den Empfehlungen in der Literatur gefolgt. 49 Gleichzeitig wird der Kritik begegnet, dass in der Innovationsforschung häufig Analysemethoden angewendet werden, die nicht mehr dem aktuellen Stand der wissenschaftlichen Forschung entsprechen oder aber dass wesentliche Gütekriterien zur Modellbeurteilung keine Beachtung finden. 50 Zusätzlich wird in dieser Arbeit ein umfangreicher Prozess zur Entwicklung neuer Messmodelle angewendet, da bislang keine verwendbaren Operationalisierungen von Effectuation vorliegen. 51 Dabei wird genauso wie für die verwendeten etablierten Messmodelle eine intensive Güteprüfung durchgeführt, um sicherzustellen, dass anerkannte Validitäts- und Reliabilitätseigenschaften erfüllt werden. 52 Nachdem nun eine Einleitung in die Thematik und eine Erläuterung der Relevanz der Arbeit unter Berücksichtigung des aktuellen Standes der Forschung stattgefunden hat, soll im Folgenden kurz die Struktur der gesamten Arbeit vorgestellt werden. Mit Hinblick auf den Forschungsansatz ist diese Untersuchung in sieben Kapitel unterteilt. Nach dem einführenden ersten Kapitel dient das zweite Kapitel der Erläuterung der begrifflichen Grundlagen und einer Einführung in die zwei relevanten Forschungsaspekte – F&EProjektmanagement und Effectuation. Das dritte Kapitel hat das Ziel, ein Konzept von Effectuation-Prozessen im Umfeld von F&EProjekten zu entwickeln. In diesem Kapitel wird auch ein Rahmen für die Anwendbarkeit von Effectuation- in Abgrenzung zu Causation-Prozessen gebildet. Die Unterscheidung zwischen den beiden grundsätzlichen Prozessen soll anhand herzuleitender wesentlicher Charakteristika
48
49 50
51
52
10
Vgl. dazu den Vorwurf der Theorielosigkeit der Forschung im Innovationsmanagement u.a. Brown/Eisenhardt (1995), S. 353 und Ernst (2001), S. 1f. Vgl. u.a. Homburg/Klarmann (2006), S. 734. Vgl. bspw. Shenhar et al. (2002), die zwar darauf hinweisen, dass ihre Forschung auf Basis einer „multivariate analysis (in contrast to univariate and regression analyses)“ fußt und deren Bedeutung hervorheben, jedoch keinerlei globale Gütemaße für ihr Modell untersuchen. Zur genauen Beschreibung des mehrstufigen Prozesses zur Skalenentwicklung vgl. Abschnitt 4.1.2 auf S. 104ff. Vgl. zu der grundsätzlichen Problematik einer fehlenden Beachtung von Gütekriterien im Umfeld empirischer Forschung Homburg/Giering (1996), S. 5ff.
erfolgen. Zusätzlich werden im dritten Kapitel die relevanten Forschungshypothesen abgeleitet und das zu testende hypothesenbasierte Modell aufgebaut. Im vierten Kapitel werden die Datenerhebung und die Untersuchungsmethodik beschrieben. In diesem Zusammenhang findet eine Operationalisierung der in der Untersuchung verwendeten Faktoren statt. Dies ist im Rahmen der vorliegenden Arbeit von zentraler Bedeutung, weil, wie zuvor beschrieben, die dafür benötigten Skalen zunächst entwickelt werden müssen. Die Skalenentwicklung erfolgt in einem dreistufigen Prozess. Dieser setzt sich aus einer qualitativen und quantitativen Voruntersuchung sowie einer quantitativen Hauptuntersuchung zusammen. Bestandteil dieses Prozesses sind sowohl Diskussionen und Experteninterviews als auch zwei großzahlig empirische Datenauswertungen, um reliable und valide Messmodelle zur Untersuchung der weiterführenden Forschungsfragen bereitstellen zu können. Die Beschreibung der Ergebnisse der empirischen Studien zur Vor- und Hauptuntersuchung sowohl in Bezug auf die Ergebnisse der Skalenentwicklung als auch bzgl. der Forschungsfragen dieser Arbeit ist Gegenstand von Kapitel 5. Eine Beurteilung und Diskussion der Ergebnisse findet dann in Kapitel 6 statt. Dabei werden zunächst die im ersten Kapitel gestellten Kernfragen der Arbeit zusammenfassend beantwortet. Anschließend werden die Implikationen der Ergebnisse für die weitere wissenschaftliche Forschung analysiert. Es werden Startpunkte für weitere wissenschaftliche Untersuchungen von Effectuation-Prozessen vorgeschlagen. Abschließend wird die Relevanz der Ergebnisse für die unternehmerische Praxis explizit beurteilt. In Kapitel 7 findet eine abschließende Zusammenfassung der vorliegenden Untersuchung statt.
11
2 Grundlagen und Begriffsdefinitionen Innerhalb des zweiten Kapitels sollen die Grundlagen für das weitere Vorgehen und die Auseinandersetzung mit dem Thema gelegt werden. Hierzu sind die Begriffe Forschung und Entwicklung (F&E) und Effectuation zu spezifizieren. 2.1
Forschung und Entwicklung (F&E)
Forschung und Entwicklung (F&E) bedeutet die systematische Suche nach neuem Wissen, Erkenntnissen und Anwendungsmöglichkeiten. 53 Dazu werden Produktionsfaktoren kombiniert. 54 Die Forschung ist dabei auf das Auffinden neuartiger Kenntnisse ausgerichtet. Die Entwicklung verfolgt die Anwendung dieser Inhalte. 55 Damit hat die Entwicklung immer auch eine Innovation, also die Einführung eines Produktes in den wirtschaftlichen Kreislauf zum Ziel. 56 Da es bislang keine „in sich geschlossene und umfassende Innovationstheorie“ 57 oder F&EProjektmanagementtheorie gibt, wird im Folgenden in Anlehnung an Gerpott eine Systematisierung genutzt, um unterschiedliche Perspektiven und Ansätze strukturieren und integrieren zu können. 58 Dabei wird zunächst eine prozessorientierte Betrachtungsweise (Abschnitt 2.1.1) und anschließend eine ergebnisorientierte Sicht genutzt (Abschnitt 2.1.2). In der folgenden Abbildung ist die Systematik zur besseren Übersicht graphisch dargestellt.
F&EProjektmanagement Prozessorientierte Sicht Einordnung in Innovationsprozess
Abgrenzung von F&ETeilbereichen
Abgrenzung von F&EPhasen
Ergebnisorientierte Sicht F&EManagementaufgaben
F&E-Objekt (was wird untersucht?)
Innovationsgrad (wie neu?)
Abbildung 1: Systematisierung des F&E-Projektmanagements als Grundlage dieser Arbeit Quelle: Eigene Darstellung
53 54 55 56 57 58
12
Vgl. Perl (2003), S. 16. Vgl. Brockhoff (1999), S. 35. Vgl. Schröder (1979), Sp. 627. Vgl. Perl (2003), S. 16. Vahs/Burmester (2002), S. 43. Vgl. Gerpott (2005), S. 37ff.
F&E-Erfolg (wie erfolgreich?)
2.1.1
Einordnung und Systematisierung von F&E aus prozessorientierter Sicht
An dieser Stelle wird F&E zunächst aus der Perspektive eines Prozesses betrachtet. Dafür findet zu Beginn eine Einordnung von F&E in den gesamten Innovationsprozess statt (Abschnitt 2.1.1.1). Anschließend werden die wesentlichen Teilbereiche bzw. unterschiedlichen Projekttypen voneinander abgegrenzt. Zuletzt werden typische Phasen eines F&E-Projektes aufgezeigt (Abschnitt 2.1.1.3) und die prozessbezogene Sicht durch die wesentlichen strategischen und operativen Aufgaben des Managements abgeschlossen (Abschnitt 2.1.1.4). 2.1.1.1 F&E im Kontext des Innovationsprozesses Häufig wird in der Literatur zwischen einem enger und einem breiter gefassten Innovationsbegriff unterschieden. 59 Im engeren Sinne meint Innovation die Einführung einer als erfolgsversprechend erachteten Erfindung bzw. Invention am Markt. 60 Das Ergebnis der F&E sind geplante oder ungeplante Inventionen 61 , die bei erfolgreicher Umsetzung zur Markteinführung eines neuen Produktes bzw. Prozesses, nämlich einer Innovation, führen. 62 Entsprechend schließt sich die Innovation dann an die abgeschlossene F&E-Aufgabe an. Häufig wird auch ein weiter gefasster Innovationsbegriff verwendet. Nach diesem Verständnis ist F&E ein Bestandteil des Innovationsprozesses. Dieser meint dann den Prozess, der von der Projektidee über die F&E und die Invention bis hin zur Markteinführung des neuen Produktes oder Prozesses führt. 63 Im Folgenden wird dieser weiter gefasste Innovationsbegriff zugrunde gelegt, sofern nicht gesondert darauf hingewiesen wird.
Innovation im weiteren Sinne Geplante Invention Projektidee
F&E Ungeplante Invention
Innovation im engeren Sinne Investition, Fertigung, Marketing
Einführung des neuen Produktes/Prozesses
Abbildung 2: F&E im Kontext des Innovationsprozesses Quelle: Eigene Darstellung in Anlehnung an Brockhoff (1999), S. 36
59
60 61 62 63
Häufig sind die Begriffe in der Literatur nicht klar voneinander abgegrenzt oder werden unterschiedlich definiert. „There appear to be almost as many variant meanings for the terms invention, innovation and technology as there are authors.“ (Howells (2005), S. 1). Afuah (1998), S. 13. Vgl. Gerpott (1999), S. 28. „Innovation entails both invention and commercialization.“ (Afuah (1998), S. 14). Vgl. Tidd et al. (1997), S. 24.
13
Die Inanspruchnahme der einzelnen Prozessschritte in Abbildung 2 variiert je Innovationsprozess. Insbesondere ist die F&E-Intensität stark abhängig vom Typ des F&E-Projektes, das wiederum stark durch den Neuheitsgrad eines Produktes gekennzeichnet wird. 64 2.1.1.2 Abgrenzung von Teilbereichen der F&E Innerhalb der F&E wird häufig zwischen verschiedenen Teilbereichen unterschieden. 65 Je nach Untersuchungsgegenstand können unterschiedliche Abgrenzungen sinnvoll sein. 66 Allen Abgrenzungen gemeinsam ist die grundsätzliche Unterscheidung von Forschungsprojekten auf der einen Seite und Entwicklungsprojekten als separatem Teilbereich. 67 Um eine zweckmäßige, detaillierte Begriffsabgrenzung von F&E-Projekten herzuleiten, sollen zunächst mögliche Kriterien betrachtet werden, die für eine Typologisierung im Rahmen dieser Untersuchung in Frage kommen. Im Detail unterscheiden sich F&E-Projekte in aller Regel deutlich. 68 Dabei gibt es neben inhaltlichen Unterschieden in Hinblick auf verschiedene technische Forschungs- oder Entwicklungsobjekte auch strukturelle projektspezifische Merkmale. Solche Merkmale können beispielsweise der Neuheitsgrad des F&E-Objektes und damit verbunden die Höhe von Unsicherheit und Risiko sein. 69 Außerdem sind das Ausmaß der Zielspezifikation und damit zusammenhängend der Konkretisierungsgrad, der Komplexitätsgrad, der Zeitdruck, der Kapazitätsbedarf und ggf. spezielle Umweltbedingungen weitere mögliche Typologisierungskriterien. 70 Zunehmend werden auch Charakteristika wie die Internationalisierung oder etwa die Interdisziplinarität eines Projektes genannt. 71 Die angeführten Kriterien beeinflussen sich teilweise gegenseitig. In Abhängigkeit ihrer Ausprägung formen und beeinflussen sie das Erscheinungsbild und die Art des gesamten Projektes. 72 Anhand der genannten Projektcharakteristika lassen sich unterschiedliche Projekttypen bilden. 73 Im Folgenden sollen vier grundsätzliche F&E-Projekttypen unterschieden werden (vgl. Abbildung 3). 74 Dies sind die Grundlagenforschung, die Technologieentwicklung, die Vorentwicklung und die Produkt- bzw. Prozessentwicklung.
64 65 66 67 68 69 70 71
72 73 74
14
Vgl. den folgenden Abschnitt 2.1.1.2 zu einer Typologisierung von F&E-Projekten. Vgl. stellvertretend Bürgel et al. (1996), S. 9ff.; Perl (2003), S. 18; Gerpott (2005), S. 31. Vgl. Dodgson (2000), S. 56. Vgl. OECD (1982); Bürgel et al. (1996), S. 9ff.; Perl (2003), S. 18. Vgl. u.a. Ipsen (2002), S. 15. Vgl. u.a. Heck (2003), S. 36. Vgl. Specht et al. (2002), S. 210. Vgl. Pinkenburg (1980), S. 114ff.; Hügler (1988), S. 128ff.; Madauss (1994), S. 408f.; Ipsen (2002), S. 16. Vgl. Thom (1983), S. 6. Vgl. Dodgson (2000), S. 56f. In der Literatur wird keine einheitliche Abgrenzung von F&E-Projekttypen verwendet. Häufig findet auch eine Unterteilung in drei Arten (basic research, applied research, experimental development) statt (vgl. Coldrick et al. (2005), S. 188).
Grundlagenforschung
Technologieentwicklung
Vorentwicklung
Produkt-/Prozessentwicklung
Gewinnung neuer wissenschaftlicher Erkenntnisse ohne Orientierung an praktischer Anwendung
Gewinnung neuer wissenschaftlicher Erkenntnisse mit Ziel der praktischen Anwendbarkeit
Anwendungsorientierte Ausentwicklung und Funktionsnachweis (z.B. Bau von Prototypen)
Nutzung und Anwendung der wissenschaftlichen Erkenntnisse für neue Produkte und Prozesse
Abbildung 3: Abgrenzung der F&E Teilbereiche Quelle: Eigene Darstellung in Anlehnung an Specht et al. (2002), S. 15; Perl (2003), S. 18
Agbodan unterscheidet zusammenfassend die Projekttypen anhand der ihnen innewohnenden Fragestellungen: 75 Die Grundlagenforschung stellt die Frage „Warum?“, indem sie versucht, allgemeine Theorien zu bilden. Die Technologieentwicklung stellt die Frage nach dem „Wofür?“, indem sie das Ziel hat theoretisches Wissen praktisch nutzbar zu machen. Die anwendungsnahen Entwicklungsbereiche fragen schließlich nach dem „Wie?“ und haben das Ziel konkrete Produkte und Prozesse zu entwickeln. Eine detailliertere Unterscheidung wird in den folgenden Abschnitten herausgearbeitet. 2.1.1.2.1 Grundlagenforschung Die Grundlagenforschung beschäftigt sich mit der Gewinnung naturwissenschaftlicher Erkenntnisse. Dabei steht nicht die praktische Anwendbarkeit im Vordergrund. 76 Das Hauptziel ist hingegen die Überprüfung von Gesetzeshypothesen und Theorieentwürfen. 77 Entsprechend führt die Grundlagenforschung nur selten zu rechtlich schützbaren Ergebnissen. 78 Die Grundlagenforschung wird zum Teil zusätzlich in reine Grundlagenforschung und zweckorientierte Grundlagenforschung unterteilt. 79 Bei der reinen Grundlagenforschung fehlt jegliche Zweckorientierung und der Untersuchungsgegenstand wird alleine durch das wissenschaftliche Interesse des Forschers bestimmt. Bei der zweckorientierten Grundlagenforschung ist der Untersuchungsgegenstand durch den Zweck bzw. die Organisation, in der der Forscher tätig ist, vorgegeben. Grundlagenforschung ist insgesamt nur vergleichsweise selten in Unternehmen anzutreffen. 80 So beträgt der Anteil der Grundlagenforschung in Industrieunternehmen nur rund 5% des gesamten F&E-Budgets. 81 Die übrigen 95% werden in nachfolgenden Phasen eingesetzt. Ger-
75 76 77 78 79 80 81
Vgl. Agbodan (1972), S. 135. Vgl. Scholz (1976), S. 13. Vgl. Dodgson (2000), S. 56; Specht et al. (2002), S. 15. Vgl. Rücksteiner (1989), S. 23. Vgl. Rücksteiner (1989), S. 21f.; Bürgel et al. (1996), S. 9. Vgl. u.a. Perl (2003), S. 18.; Gerpott (2005), S. 32. Die genaue Höhe der Grundlagenforschung am gesamten F&E-Budget ist von 1983 bis 2001 in Deutschland nur leicht geschwankt in einer Bandbreite von 4,1% (im Jahr 1985) und 5,8% (im
15
pott nennt die folgenden vier Ursachen für die geringe Ausführung von Grundlagenforschung in Industrieunternehmen. 82 Erstens herrscht in Grundlagenforschungsprojekten ein großes Ausmaß an Unsicherheit. Unsicherheit besteht sowohl bezüglich der „Erreichbarkeit von wissenschaftlich-technologischen Zielen“ 83 , als auch in Bezug auf die „wirtschaftlichen Verwertungspotenziale“ 84 von Ergebnissen. Zweitens hält die i.d.R. erforderliche lange Zeitdauer Industrieunternehmen von der Grundlagenforschung ab. Die Zeit, die benötigt wird, um neue Erkenntnisse zu generieren übersteigt oft die Planungszeiträume für F&E in Industrieunternehmen. 85 Drittens wird häufig die Verwendbarkeit der Ergebnisse durch andere, nicht an den Kosten der Forschung beteiligte Unternehmen/Wettbewerber subjektiv als hoch eingeschätzt. Es besteht keine Möglichkeit, die Ergebnisse der Grundlagenforschung ausschließlich selber nutzen zu können. 86 Viertens ist i.d.R. kein direkter oder aber ein nur sehr schwacher Bezug zwischen der Grundlagenforschung und den aktuellen Produkten und Märkten eines Unternehmens erkennbar. Die geringe Zielspezifikation und die anscheinend geringe Relevanz eines solchen Projektes verhindern daher häufig den Einsatz von Grundlagenforschung in Unternehmen. Diese vier Aspekte führen dazu, dass Grundlagenforschung vor allem in Universitäten oder Forschungseinrichtungen wie dem Max-Planck-Institut 87 ausgeführt wird. 88 Die Grundlagenforschung ist allerdings keineswegs minder bedeutend, da sie die Basis für die stärker anwendungsorientierten F&E-Bereiche stellt. Als Erklärung dafür, dass die Grundlagenforschung zu einem geringen Anteil auch in Unternehmen stattfindet, werden häufig drei wesentliche Ursachen angeführt. 89 Insbesondere ermöglicht die Grundlagenforschung eine frühzeitige Identifikation von Technologien mit hohem Neuheitsgrad („Frühaufklärungsfunktion“ 90 ). Ein hoher technologischer Neuheitsgrad zeichnet die Grundlagenforschung generell aus. Außerdem kann sie in Unternehmen zur Anregung der F&E-Mitarbeiter in anwendungsnäheren Bereichen dienen und neue Denkanstöße geben („Übersetzungsfunktion“ 91 ). Zusätzlich kann die Grundlagenforschung grundlegend neues Wissen hervorbringen, das als Basis zum Aufbau vollständig neuer Geschäfte oder für eine deutliche Verbesserung der bestehenden technologischen Position genutzt werden kann („Transformationsfunktion“ 92 ).
82 83 84 85 86 87
88
89 90 91 92
16
Jahr 1988). Im Jahr 2001 betrug der Anteil 4,6% (vgl. Grenzmann et al. (2004), S. 32; Gerpott (2005), S. 32). Vgl. Gerpott (2005), S. 32f. Gerpott (2005), S. 32. Gerpott (2005), S. 32. Vgl. Gerpott (2005), S. 32. Vgl. Gerpott (2005), S. 33. In Europa werden rund 2% des Volkseinkommens in F&E investiert. Davon entfallen 55% auf die Privatwirtschaft. Die übrigen 45% werden durch die Staaten aufgebracht. Zum Vergleich liegen die staatlichen Aufwendungen in den USA nur bei 30% und in Japan bei gerade einmal 20% (vgl. Andreta (2005), S. 180). Vgl. zu einer näheren Beschreibung der Einrichtungen zur Grundlagenforschung: Weule (2002), S. 14ff. Vgl. Brockhoff (1997), S. 456ff.; Eggers (1997), S. 18ff.; Gerpott (2005), S. 33. Gerpott (2005), S. 33. Gerpott (2005), S. 33. Gerpott (2005), S. 33.
2.1.1.2.2 Technologieentwicklung Die Technologieentwicklung wird zum Teil auch als angewandte Forschung bezeichnet. 93 Sie stützt sich im Wesentlichen auf die Erkenntnisse der Grundlagenforschung und versucht aus diesen praktische Anwendungsmöglichkeiten zu schaffen. 94 Hier arbeiten Industrie und staatliche Institute, die ihre Arbeit auf anwendungsnahe Gebiete ausdehnen, teilweise in direkter Nachbarschaft. 95 In der deutschen Forschungslandschaft kann die Fraunhofer-Gesellschaft als typisches Beispiel angesehen werden, die eine ihrer Hauptaufgaben darin sieht, den Wissenstransfer aus der Forschung in die Praxis zu unterstützen. Zum Teil kann auch die angewandte Forschung naturwissenschaftliche Theorien hervorbringen. Dies ist allerdings nicht ihr vorrangiges Ziel. Vielmehr besteht das Ziel der Technologieentwicklung darin, Leistungspotenziale und technologische Kernkompetenzen aufzubauen.96 Es sollen Fähigkeiten in solchen Bereichen erworben werden, in denen eine Organisation bislang nicht ausreichend kompetent ist. Daraus ergibt sich, dass Technologieentwicklungsprojekte immer auch durch einen hohen subjektiven Neuheitsgrad und eine hohe Komplexität gekennzeichnet sind. Entsprechend hoch ist das Risiko und meistens auch der finanzielle Aufwand. 97 Für Technologieentwicklungsprojekte werden Mitarbeiter mit einer hohen Forschungskompetenz und entsprechender -neigung benötigt. Aufgrund der Nähe zur Grundlagenforschung sind auch spezielle Laboratorien und eine enge Zusammenarbeit mit externen Forschungseinrichtungen und Entwicklungspartnern erforderlich. Dennoch muss die Technologieentwicklung auch unternehmensintern eng in die anderen F&E-Bereiche eingebunden sein, um einen regelmäßigen Austausch in beiden Richtungen zu ermöglichen: Auf der einen Seite müssen Lösungen für die Vor- und Produkt- bzw. Prozessentwicklung bereitgestellt werden. Auf der anderen Seite muss die Technologieentwicklung Anregungen für Problemstellungen aus den marktnäheren F&E-Bereichen aufnehmen. 98 2.1.1.2.3 Vorentwicklung Die Vorentwicklung hat einen direkten Marktbezug. Allerdings wird im Unterschied zur Produkt- und Prozessentwicklung nicht für die unmittelbare Markteinführung entwickelt sondern in der Regel für die nächste oder übernächste Generation. Das Ziel besteht darin, die technische Umsetzbarkeit zu prüfen und einen Funktionsnachweis etwa durch den Bau von Prototypen zu erbringen. 99 So werden im Rahmen von Vorentwicklungsprojekten technisch anspruchsvolle Komponenten oder Produkte ausentwickelt, die wegen hoher technischer Risiken noch nicht in die Produkt- oder Prozessentwicklung integriert werden können. 100 Die
93 94 95 96 97 98 99 100
Vgl. Specht et al. (2002), S. 15. Vgl. Dodgson (2000), S. 56f. Vgl. Bürgel et al. (1996), S. 10. Vgl. Perl (2003), S. 18. Vgl. Specht et al. (2002), S. 211. Vgl. Specht et al. (2002), S. 211. Vgl. Dodgson (2000), S. 57. Vgl. Specht et al. (2002), S. 16.
17
technischen Laboratorien teilt sich die Vorentwicklung in aller Regel aufgrund der engen Verbindung mit der Produkt- und Prozessentwicklung. 2.1.1.2.4 Produkt- und Prozessentwicklung Die Produkt- und Prozessentwicklung (PPE) hat einen direkten Marktbezug. Sie soll die Erkenntnisse der Grundlagenforschung, Technologie- und Vorentwicklung nutzen und daraus Produkte und Prozesse herstellen. Ziel ist dabei immer die unmittelbare wirtschaftliche Umsetzung, so dass mit der PPE in der Regel auch der Start eines neuen Produktionsprozesses verbunden ist. 101 In der Literatur 102 werden in der Regel drei Arten der PPE anhand der angestrebten Produktund Prozessveränderung unterschieden. Dies sind Radikale Neuerungsprojekte, Plattformbzw. Nächste-Generation-Projekte und Weiterentwicklungsprojekte. 103 Radikale Neuerungsprojekte 104 haben dabei den höchsten Neuheitsgrad in Bezug auf die zu entwickelnden Produkte oder Prozesse. 105 Sie sind mit einem „signifikanten, revolutionären Produkt- und Prozesswechsel“ 106 verbunden, so dass eine fundamentale „Abweichung von den bisherigen Outputs“ 107 besteht. Ziel ist es, ein neues Umsatzpotenzial durch das Lösen neuartiger Aufgabenstellungen und Probleme zu erzielen. Der Unterschied zu Projekten der Technologieentwicklung liegt in der direkten technischen und ökonomischen Zielsetzung. Bei radikalen Neuerungsprojekten wird auf Wissen und ggf. getestete Prototypen der Technologie- und Vorentwicklung zurückgegriffen. Basierend auf einer Prinziplösung sollen Verwertungspotenziale erschlossen werden, die mit den bestehenden Plattformen nicht bearbeitet werden können. Normalerweise sind mit radikalen Neuerungsprojekten große Veränderungen nicht nur in der Entwicklungsabteilung sondern auch in der Fertigung, in der Logistik, im Vertrieb und in anderen betrieblichen Funktionen verbunden, so dass derartige Projekte nur einen sehr kleinen Anteil in der Praxis darstellen. 108
101 102
103 104
105 106 107 108
18
Vgl. Dodgson (2000), S. 57. In Anlehnung an das Frascati-Handbuch wird teilweise in der Literatur auch zwischen experimenteller und konstruktiver Entwicklung unterschieden. Bei der experimentellen Entwicklung „handelt es sich um die Nutzung wissenschaftlicher und/oder technischer Erkenntnisse, um zu neuen oder wesentlich verbesserten Materialien, Produkten, Verfahren, Systemen oder Dienstleistungen zu kommen.“ (Bürgel et al. (1996), S. 11); die konstruktive Entwicklung zielt auf technische Erzeugnisse ab, „denen eine neue Kombination von bereits genutzten Realphänomenen zugrunde liegt, die eine größere Anwendungsbreite in der Technik aufweisen und deren Kombination aus bekannten Konstruktionsprinzipien abgeleitet werden kann.“ (Bürgel et al. (1996), S. 12); da diese Unterscheidung jedoch zum einen für den hier betrachteten Untersuchungsgegenstand nicht ausreichend fein genug ist und auf der anderen Seite keine klare Abgrenzung zu Konstruktions- und Fertigungsbereichen zulässt, wird sie in dieser Untersuchung nicht angewendet. Vgl. Specht et al. (2002), S. 212ff.; Wheelwright/Clark (1992b), S.93. Häufig wird in der Literatur anstelle von radikalen Neuerungen auch von Basis-, Durchbruch- oder Pionierinnovationen gesprochen (vgl. Gerpott (2005), S. 41 und den dort angegebenen Quellen). Vgl. Dewar/Dutton (1986), S. 1423. Vgl. Specht et al. (2002), S. 213. Gerpott (2005), S. 41. Vgl. Specht et al. (2002), S. 213.
Plattform- bzw. Nächste Generation-Projekte haben neue Systemlösungen zur Folge, die zu einem Generationswechsel bei Produkten, Prozessen oder bei beidem führen. Der Neuheitsgrad der zu entwickelnden Produkte liegt zwischen denen der radikalen Neuerungsprojekte und den Weiterentwicklungsprojekten. Typischerweise werden dafür deutlich mehr Ressourcen als bei Weiterentwicklungsprojekten benötigt. In der Regel führen Plattformprojekte zu deutlichen Verbesserungen bei Kosten und Qualität im Vergleich zu vorangehenden Produktgenerationen. 109 Insgesamt geht es in Plattformprojekten um eine Reihe von Verbesserungen, für die die prinzipiellen Grundlagen zwar gegeben sind, die aber dennoch neue Systemlösungen darstellen. Es ist deutlich aufwendiger, mit einem Plattformprojekt neue Produkte hervorzubringen, als bei einem Weiterentwicklungsprojekt, bei dem das Spektrum an Lösungsmöglichkeiten aufgrund einer bereits gegebenen Plattform eingegrenzt ist. 110 Von den Kunden sollten neue Plattformen und die sich daraus ergebenden Varianten als deutlich leistungsfähiger wahrgenommen werden. Die Entwicklungskosten sind bei Plattformprojekten schlechter einzuschätzen, als bei Weiterentwicklungsprojekten, da sie in der Regel länger dauern und in einem sich ständig ändernden Umfeld höheren Unsicherheiten ausgesetzt sind. Weiterentwicklungsprojekte betreffen Veränderungen an bestehenden Produkten. 111 So kann es Varianten- und Verbesserungsprojekte geben. Verbesserungsprojekte haben eine erhöhte Leistung oder eine Reduzierung der Fehler oder Produktkosten zum Ziel. Unter Variantenentwicklung wird die Ausweitung der Produktfamilie verstanden. Dabei werden häufig zwei Arten, nämlich die Anpassungs- und die Anwendungsentwicklung unterschieden. 112 Anpassungsentwicklungen werden immer dann vorgenommen, wenn situative Anpassungen an Produkten erforderlich sind, dafür aber die prinzipielle Lösung unverändert bleibt. Dies ist dann bspw. der Fall, wenn Anpassungen vorgenommen werden müssen, um regionale Normen zu erfüllen. Unter Anwendungsentwicklungen versteht man die Nutzung bestehender oder leicht angepasster Produkte für neue Anwendungen. 113 Insgesamt ist der Neuheitsgrad bei Weiterentwicklungsprojekten sehr gering, so dass auch die technologische Unsicherheit zu vernachlässigen ist. 114 2.1.1.3 Abgrenzung von Phasen eines F&E-Projektes Generell lassen sich zwei Phasen eines F&E-Projektes unterscheiden. So kann von einer Phase vor Aufnahme der Forschung oder Entwicklung gesprochen werden („project planning“) und von der Phase der eigentlichen Durchführung des F&E-Vorhabens („project execution“). 115 In der Literatur wird darüber hinaus häufig eine etwas feinere Unterteilung der Pha-
109 110 111
112 113 114 115
Vgl. Wheelwright/Clark (1992b), S. 95. Vgl. Specht et al. (2002), S. 214. In der Literatur wird häufig in Abgrenzung zu radikalen Innovationen auch von inkrementellen Innovationen gesprochen (vgl. stellvertretend Gerpott (2005), S. 41). Vgl. Specht et al. (2002), S. 212. Vgl. Beckmann/Fischer (1994), S. 633. Vgl. Shenhar et al. (2002), S. 117. Vgl. Clark (1989); Griffin (1997); Khurana/Rosenthal (1997); Tatikonda/Rosenthal (2002).
19
sen vorgenommen und je nach Forschungsgegenstand zwischen vier 116 , fünf 117 , sechs 118 oder auch mehr 119 Phasen unterschieden. Typische gemeinsame Elemente dieser Phaseneinteilungen sind dann eine Phase der Problemdefinition, der Konzeptgenerierung, der Erstellung eines vorläufigen und dann detaillierten Designs und letztlich eine Ausführung des Konzeptes. 120 Vor der eigentlichen Aufnahme des F&E-Projektes werden häufig Budgets festgelegt und zumindest eine grobe Richtung vorgegeben, d.h. es muss eine Projektplanung erfolgen. Nicht pauschal zu beantworten ist die Frage nach dem idealen Umfang und dem Detaillierungsgrad der Planung. 121 Ein Minimum an Planung ist schon deshalb erforderlich, weil dem Projekt Ressourcen zugeordnet werden müssen. Eine Detailplanung kann jedoch nicht immer erfolgen, weil zum einen zukünftige Trends nicht bekannt sind und zum anderen insbesondere bei Projekten der Grundlagenforschung und Technologieentwicklung erst während der Erforschung und in Abhängigkeit von den Ergebnissen festgelegt werden kann, wie und in welchem Umfang das Projekt weiterverfolgt werden soll. Wegen der zugrunde liegenden Unsicherheit wird die Phase vor der eigentlichen Projektaufnahme häufig auch als „fuzzy front end“ bezeichnet. 122 Daher gibt es auch unterschiedliche Auffassungen zum Grad der Formalisierung von Planung zu Beginn des Projektes und zur Festlegung von formalen Prozessen zur Projektdurchführung. Unter Formalisierung wird hierbei der Grad verstanden, „to which rules, policies and procedures govern the role behavior and activities of organizations.“ 123 Sie bringt zum Ausdruck, wie explizit die Normen und Werte eines Unternehmens formuliert sind. 124 Ein hoher Grad an Formalisierung ist häufig durch eine Reihe von Anweisungen, Vorschriften und Guidelines gekennzeichnet. 125 Insgesamt gibt es unterschiedliche Argumente, die für und gegen formale Prozesse sprechen. 126 So haben auf der einen Seite formale Strukturen immer auch eine ordnende Wirkung. Sie können als Leitfaden für ein F&E-Projekt dienen, damit das grundsätzliche Vorgehen nicht immer wieder neu erfunden werden muss. 127 Auf der anderen Seite erfordern sie zusätzlichen Aufwand, wenn beispielsweise regelmäßige Reviews durchgeführt werden müssen und verhindern Abweichungen von vorgegebenen Pfaden, die in vielen Fällen zu besonders interessanten neuen Erkenntnissen und Inventionen führen.
116 117 118 119 120 121
122 123 124 125 126 127
20
Vgl. bspw. Hales/Gooch (2004). Vgl. bspw. Cooper (2001); Crawford/Di Benedetto (2003). Vgl. bspw. Dym/Little (2000). Vgl. bspw. Trott (1998), S. 124. Vgl. Seidel (2007), S. 523. Vgl. stellvertretend Jelinek/Schoonhoven (1990); Laufer (1997) und die detaillierten Ausführungen in Abschnitt 3.3.4.3 auf S. 87ff. Griffin (1997); Smith/Reinertsen (1998). van de Ven/Ferry (1980), S. 303. Vgl. Price/Mueller (1986). Vgl. Oldham/Hackman (1981); Scott (1981). Vgl. Cooper/Kleinschmidt (1990); Rosenthal (1992); O’Connor (1994). Vgl. Naveh (2003); Tatikonda/Montoya-Weiss (2001).
Die Frage nach dem richtigen Ausmaß von Flexibilität und Formalisierung wird im Rahmen der vorliegenden Untersuchung unter Berücksichtigung von Kontextfaktoren noch näher untersucht. 128 2.1.1.4 Aufgaben des F&E-Managements Für die vorliegende Untersuchung ist es erforderlich, die Aufgaben des Managements im Bereich der F&E abzugrenzen, um beurteilen zu können, wie die gesamte F&E durch unterschiedliche Management-Prozesse beeinflusst werden kann. Generell lassen sich die Aufgaben des F&E-Managements nach Brockhoff in die vier Bereiche Planung, Organisation, Führung und Kontrolle gliedern, die sich jeweils auf immaterielle-, Personal- und Sachmittelressourcen stützen. 129 Zusätzlich kann zwischen strategischem und operativem F&EManagement bezüglich des zeitlichen Planungshorizontes und des Konkretisierungsgrades der Planung unterschieden werden. 130 Die grundsätzliche und längerfristig ausgerichtete Planung, Organisation, Führung und Kontrolle der F&E-Aktivitäten wird als strategisches F&E-Management bezeichnet.131 In der Praxis geht das Begriffsverständnis häufig darüber hinaus. Immer kürzere Produktlebenszyklen haben dazu geführt, dass die „Langfristigkeit“ alleine nicht mehr als primäres Abgrenzungskriterium zweckmäßig ist. Vielmehr geht es zunehmend darum, Leistungspotenziale des Unternehmens rechtzeitig zu erkennen und aufzubauen und den „grundsätzlichen Weg“ des Unternehmens vorzugeben. 132 So sind typische Aufgaben des strategischen F&E-Managements beispielsweise das frühzeitige Erkennen „schwacher Signale“ 133 und eine strategische Analyse. 134 Dabei geht es darum, Entwicklungen und Trends im Umfeld zu beobachten und für einzelne Bereiche ggf. Chancen/Risiken-Analysen durchzuführen. 135 Außerdem muss ein F&ELeitbild entworfen werden, das sich aus der Unternehmenskultur ableitet. In diesem Zusammenhang kommt es insbesondere auf eine innovationsfördernde Unternehmenskultur an. 136 Eine weitere zentrale Aufgabe des strategischen F&E-Managements besteht in der grundsätzlichen Festlegung von F&E-Zielen und F&E-Strategien. Auf Basis der Unternehmensziele und des F&E-Leitbildes ist ein Zielsystem zu erstellen, das wiederum als Grundlage für eine integrierte F&E-Strategie dienen kann. Eine solche Strategie soll die „für das Unternehmen bestmöglichen Wege zum Erreichen der Ziele darstellen.“ 137 Für die vorliegende Untersuchung ist die Umsetzung der grob formulierten F&E-Strategien im Rahmen von konkreten F&E-Projekten und damit das operative F&E-Management beson-
128 129 130 131 132 133 134 135 136 137
Vgl. Abschnitt 3.3.4 auf S. 85ff. Vgl. Brockhoff (1999), S. 50. Vgl. von Nitzsch (1998), S. 4ff. Vgl. Specht et al. (2002), S. 21. Vgl. Scholz (1987), S. 5f. Vgl. Corsten (1989), S.6. Vgl. Wolfrum (1991), S. 37. Vgl. Tidd et al. (1997), S. 25f. Vgl. Dodgson (2000), S. 66f. Specht et al. (2002), S. 22.
21
ders relevant. Für das operative F&E-Management ist die Auswahl von Projekten eine wesentliche Aufgabe. Neben der Bewertung der Projekte anhand festzulegender Kriterien, muss auch der Personal- und Finanzbedarf eines jeden Projektes berücksichtigt werden. In einem weiteren Schritt ist das zur Verfügung stehende F&E-Budget auf die einzelnen Projekte zu verteilen. Außerdem muss der Personalbedarf für jedes Projekt abgeschätzt werden, so dass im Zuge einer Personaleinsatzplanung eine Zuordnung der Mitarbeiter zu den einzelnen Projekten erfolgen kann. Darüber hinaus sind die Projektdurchführung und -kontrolle zentrale Bestandteile der operativen F&E-Aufgaben. 2.1.2 Einordnung und Systematisierung von F&E aus ergebnisorientierter Sicht Neben der prozessorientierten Sichtweise wird im Folgenden auch eine output- oder ergebnisorientierte Perspektive herangezogen, um eine Systematisierung unterschiedlicher F&EAnsätze zu ermöglichen. Dafür findet zunächst in Anlehnung an die Systematisierung von Gerpott 138 eine Eingrenzung des zu untersuchenden F&E-Objektes statt (Abschnitt 2.1.2.1). Anschließend wird genauer auf den im Projekt involvierten Unsicherheits- bzw. Innovationsgrad eingegangen. Dabei findet eine Konzeptualisierung des Innovationsgrades entlang von zwei Dimensionen statt (Abschnitt 2.1.2.2). Zuletzt werden in diesem Abschnitt Erfolgskriterien für die zu untersuchenden F&E-Projekte hergeleitet und konzeptualisiert (Abschnitt 2.1.2.3). 2.1.2.1 Abgrenzung des F&E-Objektes Im Rahmen dieser Arbeit soll ausschließlich auf F&E-Projekte im Bereich technischer und naturwissenschaftlicher Erkenntnisse eingegangen werden. Häufig wird in der Literatur auch von einer geistes- und sozialwissenschaftlichen F&E gesprochen, die hier aber aufgrund ihrer geringeren Bedeutung für betriebswirtschaftliche Überlegungen nicht betrachtet wird. 139 Außerdem bezieht sich die folgende Untersuchung ausschließlich auf Projekte mit einem Schwerpunkt auf der Entwicklung von extern verwertbaren F&E-Erzeugnissen. 140 Bislang wurde als Oberbegriff der Ausdruck Produkt- und Prozessentwicklungsprojekt gebraucht. Tatsächlich ist eine klare Trennung zwischen Produkt- und Prozessentwicklung in der Praxis häufig insofern schwierig 141 , als dass viele Produktentwicklungsprojekte unmittelbar auch eine Prozesserneuerung mit sich führen. 142 Daher besteht ein Kontinuum zwischen den Polen der reinen Produktentwicklung und der reinen Prozessentwicklung. 143 Um Verzerrungen in den Aussagen insbesondere in der nachfolgenden empirischen Untersuchung zu vermeiden,
138 139 140
141
142 143
22
Vgl. Gerpott (2005), S. 37ff. und Abbildung 1 auf S. 12. Vgl. Gerpott (1999), S. 18. Dies schließt bewusst die Generierung von neuen Erkenntnissen und Theorien im Sinne der Grundlagenforschung mit ein. Deutsche Unternehmen wendeten im Jahr 2001 ihre internen F&E-Ausgaben zu 66% für Produktinnovationen, 21% für Prozessinnovationen und zu 13% für Projekte, die sowohl auf eine Verbesserungen von Produkten als auch Verfahren zielten, auf. (Vgl. Grenzmann et al. (2004), S. 54). Vgl. stellvertretend Tyre/Hauptmann (1992), S. 301. Vgl. Heinemann (2006), S. 16.
findet im Rahmen dieser Untersuchung eine Konzentration auf Produktentwicklungen, bzw. allgemeiner formuliert auf die Generierung von F&E-Erzeugnissen 144 , statt. Dies hat vor allem den Vorteil, dass Produktentwicklungen vom Prozess her deutlich stärker eingrenzbar sind. Entsprechend kann so eine projektbezogene Analyse der Forschungsfragen stattfinden. Prozessinnovationen sind hingegen häufig mit anderen Erneuerungen und Restrukturierungen im Unternehmen verbunden, so dass eine separate Betrachtung schwierig ist. 2.1.2.2 Unsicherheit und Innovationsgrad eines F&E-Projektes Die Unsicherheit oder der Innovationsgrad eines F&E-Projektes werden häufig zur Klassifizierung herangezogen. Auch im Rahmen der vorliegenden Untersuchung hat der Innovationsgrad eine große Bedeutung. Im Folgenden werden die Grundlagen für das weitere Vorgehen gelegt, indem zunächst eine Begriffserläuterung stattfindet und gezeigt wird, dass zwischen dem Innovationsgrad und der Unsicherheit ein direkter Zusammenhang besteht. Anschließend wird auf die Relevanz des Innovationsgrades eingegangen und eine Konzeptualisierung entwickelt. 2.1.2.2.1 Begriffserläuterung Zunächst soll der Begriff Unsicherheit erläutert werden, bevor dann im Anschluss auf den Begriff Innovationsgrad eingegangen wird. Nach Knight gibt es drei zu unterscheidende Arten der Unsicherheit. 145 Die erste Art, die in der Regel als Risiko bezeichnet wird 146 , bezieht sich auf eine Zukunft mit bekannten Optionen. Zusätzlich sind die zugehörigen Wahrscheinlichkeiten bekannt. Lediglich ist unsicher, welche der Optionen tatsächlich eintritt. 147 Es lassen sich dafür aber Erwartungswerte berechnen, so dass unterschiedliche Optionen vergleichbar und bewertbar werden. Als Beispiel kann eine Urne angeführt werden, die fünf grüne und fünf rote Bälle enthält. Wenn ein roter Ball gezogen wird, gewinnt man €50. 148 Die zweite Art der Unsicherheit, die in der Regel auch als Unsicherheit bezeichnet wird 149 , beinhaltet eine Zukunft, bei der die Verteilung unbekannt ist. Allerdings kann die Verteilung geschätzt werden, indem vergangene Ereignisse beobachtet werden. 150 Als Bespiel kann hier eine Urne angeführt werden, die eine unbekannte Anzahl an Bällen enthält. Wiederum gewinnt man bei Ziehung eines roten Balls €50. 151 Mehrere vergangene Versuche lassen in diesem Fall einen Rückschluss auf die Verteilung zu.
144 145 146 147 148 149 150 151
Dies schließt die Ergebnisse der Grundlagenforschung mit ein. Vgl. Knight (1921). Vgl. stellvertretend Sarasvathy/Kotha (2001), S. 5. Vgl. Sarasvathy/Kotha (2001), S. 5. Vgl. Sarasvathy/Kotha (2001), S. 40. Vgl. Sarasvathy/Kotha (2001), S. 5. Vgl. Sarasvathy/Kotha (2001), S. 5. Vgl. Sarasvathy/Kotha (2001), S. 40.
23
Die dritte Art der Unsicherheit, die auch als wahre Unsicherheit oder Knightian uncertainty bezeichnet wird 152 , besteht aus einer Zukunft, deren Verteilung nicht nur unbekannt ist, sondern auch nicht bekannt sein kann, weil sie sich beispielsweise permanent ändert. Daher kann in diesem Fall weder eine Wahrscheinlichkeit noch eine sinnvolle Schätzung angegeben werden. 153 Eine erneute Anwendung des Beispiels mit der Urne zeigt, dass die Knightian uncertainty dadurch gekennzeichnet ist, dass in Bezug auf das Experiment noch nicht einmal bekannt ist, ob überhaupt Bälle in der Urne sind oder ob die Urne im Extremfall überhaupt existiert. 154 Tabelle 2 zeigt die unterschiedlichen Arten von Unsicherheit noch einmal im Überblick.
Risiko
Unsicherheit
Knightian
Verteilung
Zukunft hat bekannte Zukunft hat unbekann- Zukunft hat keine VerVerteilung te Verteilung teilung (diese ist auch theoretisch nicht bekannt)
Beispiel
Urne mit 5 grünen und 5 roten Bällen; Ziehung eines roten Balls gewinnt €50
Urne beinhaltet unbekannte Anzahl an Bällen; Ziehung eines roten Balls gewinnt €50
Urne enthält vielleicht Bälle, vielleicht auch nicht; Existenz der Urne an sich ist unklar
Tabelle 2: Arten von Unsicherheit Quelle: In Anlehnung an Sarasvathy/Kotha (2001), S. 40
Die drei beschriebenen Unsicherheitsarten können im Rahmen von F&E-Projekten sowohl hinsichtlich interner als auch externer Faktoren bestehen. 155 Häufig werden vier Dimensionen der Unsicherheit in Zusammenhang mit F&E-Projekten genannt 156 , die jeweils in den drei oben beschriebenen Arten vorliegen können. Zum einen besteht eine technische Unsicherheit im Hinblick auf die technische Umsetzbarkeit eines F&E-Vorhabens. Außerdem kann eine zeitliche Unsicherheit bestehen. Dauert ein F&E-Projekt länger als eigentlich vorgesehen, kann es zu erheblichen Wettbewerbsnachteilen kommen. Zusätzlich ist in der Regel eine Unsicherheit in Bezug auf die Kosten vorhanden. 157 So können leichte Abweichungen bezüglich erforderlicher Ressourcen schnell erhöhte F&E-Ausgaben zur Folge haben.
152 153 154 155 156 157
24
Vgl. Sarasvathy/Kotha (2001), S. 5. Vgl. Knight (1921), S. 225. Vgl. Sarasvathy/Kotha (2001), S. 40. Vgl. Rücksteiner (1989), S. 70. Vgl. Specht et al. (2002), S. 26. Die drei Risikoarten technisches Risiko, Kostenrisiko, Zeitrisiko werden in einfachen Bewertungsmatrizen in der Praxis auch zur Auswahl von Projekten herangezogen (vgl. Frauenfelder (2000), S. 85).
Darüber hinaus unterliegt der Innovationsprozess i.w.S. einer Verwertungsunsicherheit. So ist die Akzeptanz durch den Kunden oder der zu erzielende Preis unsicher. In der Literatur werden einige unterschiedliche Methoden diskutiert, um mit Unsicherheiten umzugehen. 158 Eine große Anzahl von Arbeiten bedient sich der Methoden der Finanzwissenschaft 159 , da das Risikomanagement in Finanzmärkten von großer Bedeutung und damit wissenschaftlich intensiv untersucht ist. Häufig werden Projekte anhand von NPV (Net Present Value), IRR (Internal Rate of Return) oder DCF (Discounted Cash Flow) Berechnungen bewertet und verglichen. Dabei wird im Diskontierungsfaktor die empfundene Höhe des Projektrisikos berücksichtigt. 160 Zunehmend werden auch Optionspreismodelle diskutiert. In diesen Modellen wird das betrachtete F&E-Projekt als eine Art Aktienoption betrachtet. 161 Zusätzlich werden Entscheidungsbäume 162 , Monte-Carlo Simulationen 163 oder Szenariotechniken 164 vermehrt beschrieben. Außerdem gibt es Ansätze mit Hilfe der Fuzzy Logic Unsicherheiten abzubilden. 165 Auch Kombinationen der vorgenannten Methoden werden analysiert. 166 Insgesamt wird in der Literatur allerdings immer häufiger darauf hingewiesen, dass es schwierig ist, ein geeignetes Modell zur Einschätzung von Unsicherheiten im Rahmen von F&E-Projekten zu finden. 167 Generell gilt, dass keines der genannten Verfahren das Risiko als solches reduziert. Einfache Verfahren sind für die Bewertung von Unsicherheiten häufig ungeeignet, da sie einer Vielzahl von vereinfachenden Annahmen unterliegen. Komplexe Verfahren sind hingegen in der Praxis kaum handhabbar. 168 Daher wird zunehmend darauf hingewiesen, dass aus bestehenden Unsicherheiten auch Möglichkeiten für ein Unternehmen entstehen können. 169 So kann es sinnvoller sein, richtig mit bestehenden Unsicherheiten umzugehen, als mit allen Mitteln versuchen zu wollen, Unsicherheiten zu vermeiden oder zu umgehen. Von besonderer Bedeutung ist im Rahmen dieser Untersuchung der Grad der Neuheit bzw. der Innovationsgrad 170 eines zu entwickelnden Produktes. Neuheit bezieht sich auf das Aus-
158
159
160 161
162 163 164
165 166 167
168 169 170
Vgl. stellvertretend für die Literatur zum Umgang mit Risiken: Wördenweber/Wickord (2004), S. 53ff. Vgl. zur Übersicht über finanzwirtschaftliche Methoden der Projektbewertung stellvertretend Wahren (2004), S. 187ff. Vgl. Doctor et al. (2001). Vgl. für eine detaillierte Diskussion: Newton/Pearson (1994); Nichols (1994); Trigeorgis (1996); Faulkner (1996); Lint/Pennings (1998); Doctor et al. (2001); Olafsson (2003). Vgl. Doctor et al. (2001). Vgl. Doctor et al. (2001). Vgl. Phelps et al. (2001); Gausemeier et al. (2001), S. 78 ff.; Ahn/Skudlark (2002); Carlsson et al. (2007). Vgl. für eine detaillierte Ausführung u.a. Yager (2002); Li (2005). Vgl. u.a. Doctor et al. (2001). Vgl. Eversheim (2003), S. 30 zur Auswahl angemessener Methoden im Spannungsfeld von Unsicherheit und Zeithorizont. Vgl. Coldrick et al. (2005). Vgl. Ahn/Skudlark (2002). Die Begriffe Neuheitsgrad und Innovationsgrad werden hier synonym verwendet (vgl. u.a. Gerpott (2005), S. 43).
25
maß noch nicht vorhandener Erfahrungen mit der entsprechenden Technologie und auf das Ausmaß der Veränderung einer Technologie im Vergleich zu bereits Bestehendem. Von Neuheit wird also immer dann gesprochen, wenn noch keine Erfahrungen mit dem Produkt bestehen oder eine Veränderung hin zu einer vorher noch nicht eingesetzten Technologie erforderlich ist. 171 Graduelle Abschwächungen des Neuheitsbegriffes sind möglich. So kann auch dann noch von einer gewissen Neuheit gesprochen werden, wenn geringe Erfahrungen bereits bestehen. An dieser Stelle muss zwischen subjektiver und objektiver Neuheit unterschieden werden. 172 Unter objektiv neuen Produkten werden solche verstanden, die noch nicht, auch nicht von einem anderen Unternehmen, entwickelt wurden. Subjektiv neue Produkte meinen solche, die zwar für das betrachtete Unternehmen neu sind, jedoch im Markt bereits angeboten werden. Generell gilt, je geringer der Innovationsgrad eines Produktes ist, umso weniger ist im Normalfall der Unternehmensbereich F&E involviert. Im Extremfall muss nur eine Anpassung im Bereich der Fertigung durchgeführt werden, um ein Produkt zu modifizieren. Dann wäre der Innovationsgrad sehr gering und die F&E gar nicht involviert. Neben dem Neuheitsgrad in Bezug auf die Technologie oder das Produkt spielt auch der Neuheitsgrad des Marktes eine Rolle. So ist ein Markt immer dann für ein Unternehmen neu, wenn es diesen zuvor noch nicht penetriert hat. 173 2.1.2.2.2 Zusammenhang zwischen Unsicherheit und Innovationsgrad Unsicherheit wird hier zusammenfassend definiert als die Differenz „between the amount of information required to perform particular tasks and the amount of information already possessed by the organization“. 174 F&E ist nie frei von Unsicherheit und Risiko. 175 Als Grad der Neuheit oder Innovationsgrad 176 wird hier die „Abweichung von den bisherigen Outputs“ 177 des Unternehmens bezeichnet. Der graduelle „Unterschied gegenüber dem bisherigen Zustand“ 178 soll durch den Innovationsgrad bewertbar gemacht werden. Diese beiden Definitionen zu Unsicherheit auf der einen und Innovationsgrad auf der anderen Seite zeigen, dass der Innovationsgrad als ein Maß für die Unsicherheit gelten kann, da er die Differenz zwischen dem Status Quo vor Aufnahme des F&E-Projektes und dem Status Quo nach Beendigung des F&E-Projektes unter Einbezug des neuen F&E-Erzeugnisses darstellt. 179 Somit wird also die
171 172
173 174 175 176
177 178 179
26
Vgl. Stock/Tatikonda (2000), S. 724. Vgl. Specht et al. (2002), S. 14; Perl (2003), S. 29; Stumpfe (2003), S. 32; Corsten et al. (2006), S. 16f. Vgl. dazu auch die Konzeptualisierung in Abschnitt 2.1.2.2.4 auf S. 29ff. Salomo et al. (2007), S. 288 in Anlehnung an Galbraith (1977). Vgl. Häußer (1994), S. 68; Bürgel et al. (1996), S. 3; Badri et al. (1997); Doctor et al. (2001). Der Begriff Innovationsgrad wird hier synonym zu Grad der Neuheit verwendet. Vgl. auch Gerpott (2005), S. 43. Gerpott (2005), S. 41. Hauschildt/Salomo (2007), S. 16. Vgl. Salomo et al. (2007), S. 288.
Unsicherheit unmittelbar durch den Innovationsgrad repräsentiert. 180 Entsprechend geht mit einem steigenden Innovationsgrad ein Anstieg der Unsicherheit einher. 181 Die Unsicherheit und der Innovationsgrad eines F&E-Projektes können auch gut mit der prozessorientierten Sicht in Verbindung gebracht werden. So ist die Ausprägung dieser Charakteristika zwischen den Projekttypen i.d.R. unterschiedlich. 182 Der Innovationsgrad ist genauso wie die Unsicherheit bei Projekten der Grundlagenforschung besonders hoch und nimmt tendenziell in Richtung der marktnäheren Projekttypen ab. Gleichzeitig nimmt die Zielspezifikation und Konkretisierung eines Projektes zu und ist im Bereich der Produktentwicklung höher als etwa bei der Grundlagenforschung. Dieser Zusammenhang ist in der folgenden Abbildung graphisch dargestellt.
Grundlagenforschung
Technologieentwicklung
gering
Vorentwicklung
Produktentwicklung
hoch Zielspezifikation und Konkretisierung
Innovationsgrad und Unsicherheit hoch
gering
Abbildung 4: Unsicherheit und Zielspezifikation in den unterschiedlichen Projektphasen Quelle: Eigene Darstellung
Auch innerhalb der unterschiedlichen Projekttypen und insbesondere im Bereich der Produktentwicklung ist der Innovationsgrad verschieden stark ausgeprägt. Radikale Neuerungsprojekte sind in der Regel beispielsweise einer höheren technologischen und absatzmarktbezogenen Neuheit ausgesetzt als Weiterentwicklungsprojekte. 183 Die unterschiedlichen Merkmalsausprägungen zwischen den Projekttypen in Bezug auf Unsicherheit und Innovationsgrad implizieren auch, dass je nach Typ verschiedene Vorgehensweisen durch das Management erforderlich sind. So kann bspw. eine verbesserte Planbarkeit von F&E-Projekten mit zunehmender Marktnähe bestehen. 184 Deshalb sollte bei marktnahen Projekten ein höheres Maß an Or-
180
181 182
183 184
Ein direkter Zusammenhang zwischen Neuheitsgrad und Unsicherheit ist auch in der Literatur beschrieben. So sind Projekte mit einem hohen Neuheitsgrad auch einer vergleichsweise hohen Unsicherheit ausgesetzt. Vgl. Hauschildt/Salomo (2007), S. 21. Vgl. u.a. Tatikonda/Montoya-Weiss (2001), S. 157; Hauschildt/Salomo (2007), S. 21. Vgl. Ebert et al. (1992), S. 142; Weber/Göpfert (1992), S. 118; Schlenker (2000), S. 146; Ipsen (2002), S. 17. Vgl. Gerpott (2005), S. 42. Vgl. Ipsen (2002), S. 17.
27
ganisation „möglich und sinnvoll“ 185 sein. Die Relevanz des Innovationsgrades im Kontext des F&E-Projektmanagements wird im Folgenden genauer erläutert. 2.1.2.2.3 Relevanz des Innovationsgrades im F&E-Kontext Der Innovationsgrad und mit ihm die Unsicherheit ist schon seit langem Gegenstand der wissenschaftlichen Forschung. 186 Insbesondere dient er als Klassifikationsinstrument für unterschiedliche Projekttypen, um eine detaillierte Unterscheidung zwischen den Extrempolen radikaler und inkrementeller Innovationen oder hoher und geringer involvierter Unsicherheit zu ermöglichen. 187 Allerdings hat auch eine Vielzahl von wissenschaftlichen Untersuchungen das Ziel gehabt, einen Zusammenhang zwischen dem Grad der Neuheit und dem Innovationserfolg zu ermitteln. Die durch verschiedene empirische Studien erzielten Ergebnisse sind jedoch bislang nicht eindeutig. 188 So lässt eine Vielzahl von Arbeiten auf einen negativen Zusammenhang zwischen der Höhe des Innovationsgrades und dem zu erwartenden Innovationserfolg schließen. 189 Demnach sind Projekte mit einem besonders hohen Grad an Neuheit nicht erfolgsversprechend. Andere Untersuchungen deuten auf das Gegenteil, indem sie zeigen, dass ein positiver Einfluss zwischen Innovationsgrad und Erfolg besteht. 190 Wieder andere empirische Studien haben einen u-förmigen Zusammenhang festgestellt. 191 Zusätzlich kamen Untersuchungen zum Ergebnis, dass eine umgekehrt u-förmige Beziehung zwischen Innovationsgrad und Marktakzeptanz besteht. 192 Schließlich haben weitere Autoren herausgefunden, dass kein signifikanter Zusammenhang festzustellen ist.193 Diese unterschiedlichen Ergebnisse zeigen vor allem zwei Dinge: Erstens ist es von großer Bedeutung, welche Definition zur Messung des Innovationsgrades herangezogen und aus welcher Perspektive der Neuheitsgrad beurteilt wird. 194 Zweitens zeigt es auch, dass es offensichtlich einen Einfluss des Innovationsgrades gibt, dieser aber möglicherweise vor allem auf eine moderierende Wirkung beschränkt bleibt. 195 Insgesamt hat eine genaue Beschreibung und Berücksichtigung von Rahmenbedingungen, also möglichen Moderatoren, in der wirtschaftswissenschaftlichen Forschung noch nicht den Stellenwert, den sie haben müsste. 196 Allerdings konnte in der Erfolgsfaktorenforschung im
185 186 187 188 189 190
191 192 193 194 195
196
28
Ipsen (2002), S. 18. Vgl. bereits Knight (1967), S. 482. Vgl. Gerpott (2005), S. 41. Vgl. Heinemann (2006), S. 17. Vgl. u.a. Zirger/Maidique (1990); Schlaak (1999), S. 79; Danneels/Kleinschmidt (2001), S. 370. Vgl. Song/Montoya-Weiss (1998), S. 125, die inkrementelle und radikale Innovationen vergleichen und feststellen, dass wirklich neue Produkte eine höhere Profitabilität erzielen. Vgl. Kleinschmidt/Cooper (1991). Vgl. Kotzbauer (1992), S. 221ff. Vgl. Cooper/Kleinschmidt (1993); Salomo et al. (2002). Vgl. Danneels/Kleinschmidt (2001), S. 370. Als Moderator wird eine Größe bezeichnet, die die Stärke der Beziehung zwischen einer unabhängigen und einer abhängigen Variable beeinflusst. Vgl. zu den Defiziten bisheriger Erfolgsfaktorenstudien im Kontext von F&E-Projekten u.a. Hauschildt/Salomo (2007), S. 38f.
Bereich von F&E- und Innovationsprojekten bereits nachgewiesen werden, dass es keine universellen Erfolgsgrößen gibt. 197 Demnach sind die Einflussgrößen auch von den Rahmenbedingungen und der Art des Projektes abhängig. 198 Die in der Literatur wenig beachtete Bedeutung von Rahmenbedingungen und unterschiedlichen Projektcharakteristika ist nach Dvir et al. eine wesentliche Ursache dafür 199 , dass es bislang in der Literatur kein einheitliches Verständnis über Erfolgsfaktoren von F&E-Projekten gibt. 200 Dies unterstreicht die Bedeutung des Innovationsgrades als eine mögliche zentrale Moderatorgröße. 2.1.2.2.4 Konzeptualisierung des Innovationsgrades Bisher hat sich in der Literatur keine einheitlich anerkannte Konzeptualisierung des Innovationsgrades herausgebildet. Entsprechend gibt es bislang auch keine einheitliche Operationalisierung zur Messung des Innovationsgrades und damit auch zur Messung der Unsicherheit.201 Um eine entsprechende Größe zu entwickeln, muss zunächst eine sinnvolle Bezugsgröße zur Beurteilung des Innovationsgrades festgelegt werden. So ist zu präzisieren, aus welcher Perspektive der Innovationsgrad bestimmt werden soll. Anschließend muss eine inhaltliche Auseinandersetzung mit einzelnen zu berücksichtigenden Teilaspekten eines umfassenden Neuheitsgradbegriffes stattfinden. Als Bezugsgröße zur Bestimmung des Innovationsgrades kommt entweder eine MakroPerspektive, also eine Betrachtung aus überbetrieblicher Sicht, oder aber eine MikroPerspektive, also eine Beurteilung aus Sicht des innovierenden Unternehmens, in Frage. 202 Bei der Makro-Perspektive wird der Neuheitsgrad aus Sicht des gesamten Marktes, also einschließlich aller Wettbewerber, beurteilt. Eine Beurteilung aus der Mikro-Perspektive schließt hingegen nur das betrachtete Unternehmen ein. 203 In der Praxis ist eine Bestimmung des Innovationsgrades aus der Makro-Perspektive im Regelfall äußerst schwierig. Entsprechend empfiehlt Gerpott aufgrund „einer zumeist kaum erreichbaren Kenntnis der technischen Merkmale sämtlicher in einem Markt relevanten Kundenwahrnehmungen [und] verfügbaren Produkte“ 204 vornehmlich auf eine unternehmensbezogene Sichtweise zurückzugreifen. Angesichts der in einem Unternehmen einfacher verfügbaren Information führt eine unterneh-
197 198
199 200 201
202
203
204
Vgl. u.a. Shenhar et al. (2002), S. 122. Vgl. Pinto/Prescott (1988), S. 5ff; Belout (1998), S. 24; Dvir et al. (1998), S. 931; Shenhar et al. (2002), S. 115ff. Vgl. Dvir et al. (1998), S. 931. Vgl. Pinto/Slevin (1987); Lechler/Gemünden (1997); Dvir et al. (1998). Vgl. Garcia/Calantone (2002), S. 110ff.; Gerpott (2005), S. 40ff.; Hauschildt/Salomo (2007), S. 14ff. Vgl. zu ähnlichen Differenzierungen Song/Montoya-Weiss (1998), S. 124ff.; Danneels/Kleinschmidt (2001), S. 358ff.; Garcia/Calantone (2002), S. 118f.; Salomo (2003), S. 4ff.; Heinemann (2006), S. 21; Gerpott (2005), S. 46 unterscheidet in ähnlicher Form drei Perspektiven, nämlich die unternehmens-, kunden- und wettbewerbsorientierte Perspektive. Somit ist der Neuheitsgrad auf der Makro-Ebene eine hinreichende Bedingung für den Neuheitsgrad auf der Mikroebene. Umgekehrt gilt, dass die Neuheit auf der Mikro-Ebene eine notwendige aber nicht hinreichende Bedingung für die Neuheit auf der Makro-Ebene ist. Gerpott (2005), S. 47.
29
mensbezogene Innovationsgradbestimmung zu einer höheren Validität als ein Vorgehen, bei dem der Innovationsgrad aus einer Makro-Perspektive beurteilt wird. 205 Neben den Schwierigkeiten, die sich bei der Ermittlung eines Innovationsgrades auf MakroEbene in der Praxis ergeben, ist der zusätzliche Erkenntnisgewinn durch eine Unterscheidung zwischen Mikro- und Makro-Ebene gering. 206 In den meisten Fällen besteht vielmehr eine starke Korrelation zwischen beiden Beurteilungsmöglichkeiten. 207 Daher soll im Rahmen dieser Untersuchung der Fokus bei der Bestimmung des Neuheitsgrades auf einer Beurteilung aus der Mikro-Perspektive liegen.208 Letztlich gilt nämlich, dass „für die Unternehmung […] eine Innovation dann zu konstatieren [ist], wenn sie eine technische Neuerung erstmalig nutzt, unabhängig davon, ob andere Unternehmungen den Schritt vor ihr getan haben oder nicht.“ 209 Nach dieser Argumentation stellt der Innovationsgrad ein „secondary attribute“ dar, d.h., dass die gleiche Innovation in Abhängigkeit vom betrachteten Unternehmen unterschiedlich beurteilt werden kann. 210 Als nächstes ist zu klären, welche inhaltlichen Aspekte ein Innovations- oder Neuheitsgrad in dieser Untersuchung abdecken soll. Einigkeit besteht in der Literatur im Wesentlichen nur darüber, dass es nicht ausreicht, diskrete, nominal skalierte Dichotomien, wie beispielsweise radikal vs. inkrementell, revolutionär vs. evolutionär, diskontinuierlich vs. kontinuierlich oder Basis- vs. Verbesserungsinnovation zu unterscheiden. 211 Vielmehr muss eine „halbwegs stetige, zumindest ordinal skalierte“212 Größe verwendet werden, um der komplexen und vielschichtigen Art von Innovation gerecht zu werden und zu ermöglichen, dass ein Grad an Neuheit messbar wird. 213 Darüber hinaus setzt sich zunehmend die Erkenntnis durch, dass mehrere Dimensionen erforderlich sind, um den Begriff Innovationsgrad abbilden zu können. 214 Je nach Untersuchungsschwerpunkt wird in der Literatur auf unterschiedliche Dimensionen fokussiert. 215 Im Rah-
205 206 207 208
209 210 211
212 213 214
215
30
Vgl. Salomo (2003), S. 5; Heinemann (2006), S. 21. Vgl. Heinemann (2006), S. 21. Vgl. Salomo (2003), S. 5. Das bedeutet nicht, dass eine Kunden- und Wettbewerbssicht vollkommen ausgeklammert wird. Vielmehr sind diese beiden Perspektiven bei der Entscheidung über eine Projektdurchführung in der Praxis häufig relevant. Entsprechend werden sie in dieser Projektphase berücksichtigt. Da im Rahmen dieser Untersuchung allerdings nur durchgeführte Projekte betrachtet werden, stehen die unternehmensbezogenen Neuheitsaspekte, die während der Durchführung eines F&E-Projektes relevant sind, im Vordergrund. Witte (1973), S. 3. Vgl. Downs/Mohr (1976), S. 703ff. Vgl. Henderson/Clark (1990), S. 10; Wolfe (1994), S. 418; Gerpott (2005), S. 43; Heinemann (2006), S. 18; Hauschildt/Salomo (2007), S. 16. Gerpott (2005), S. 43. Vgl. Gerpott (2005), S. 43. Vgl. bspw. Green et al. (1995); Danneels/Kleinschmidt (2001); Hauschildt/Schlaak (2001); Garcia/Calantone (2002); Gatignon et al. (2002); Salomo (2003); zur Übersicht über neuere Ansätze auch Billing (2003), S. 23. Vgl. u.a. Henderson/Clark (1990); Wheelwright/Clark (1992a); Storey/Sykes (1996); Shenhar et al. (2002); MacCormack/Verganti (2003).
men dieser Arbeit sind die beiden Dimensionen des Technologie- und Marktinnovationsgrades von besonderer Bedeutung. 216 So weisen Garcia/Calantone darauf hin, dass es besonders wichtig ist „to consider both a marketing and technological perspective.“ 217 Unter Technologieinnovationsgrad und der damit einhergehenden Technologieunsicherheit218 wird die Neuheit in Bezug auf das erforderliche technologische Wissen und somit die Neuheit aus Sicht der F&E-Abteilung eines Unternehmens verstanden. Hoch ist der Technologieinnovationsgrad insbesondere dann, wenn im betrachteten Unternehmen noch keine Erfahrungen mit dem technologischen Prinzip bestehen und diesbezüglich kein Wissen vorhanden ist. 219 Die Höhe der Unsicherheit steigt mit der Höhe des Technologieinnovationsgrades an, da mit abnehmender Bekanntheit des Designs zunehmend unklar wird, ob eine technische Realisierung zumindest unter Berücksichtigung von Kosten- und Zeitvorgaben überhaupt möglich ist. 220 Der Marktinnovationsgrad und die damit verbundene Marktunsicherheit bezeichnen den Neuheitsgrad aus Sicht der Marketing-Abteilung eines Unternehmens. 221 Er beschreibt das Ausmaß, in dem für das betrachtete Unternehmen ein neuer Markt 222 definiert wird und neue Kundengruppen angesprochen werden, die bisher so nicht bedient wurden. Der Marktinnovationsgrad ist umso höher, je geringer das Unternehmen mit den Bedingungen auf dem Markt vertraut ist. 223 Dazu zählen beispielsweise auch die Art der Kundenansprache und die Verwendung neuer Vertriebskanäle. Die Unsicherheit steigt wiederum mit steigendem Marktinnovationsgrad an, da in diesem Fall der Markt schlechter einschätzbar wird. Insbesondere ist die Kundenakzeptanz des F&E-Erzeugnisses unbekannt und Kundenanforderungen und -wünsche sind unklar. 224 Zusätzlich ist die Zahlungsbereitschaft der Kunden unsicher, so dass nicht klar ist, welche Preise sich durchsetzen lassen werden. Häufig wird in der Literatur zusätzlich ein Umfeld-, Organisations- oder Verfahrensinnovationsgrad berücksichtigt. 225 Diese Arten sind für die vorliegende Untersuchung allerdings we-
216
217 218
219
220 221 222
223
224
225
Vgl. Abetti (2000), S. 215: „diversification from the present product lines can occur according to two orthogonal dimensions: technologies and markets“ und zur Argumentation der Notwendigkeit der Anwendung dieser beiden Sub-Dimensionen u.a. auch Garcia/Calantone (2002), S. 110. Garcia/Calantone (2002), S. 110. Vgl. u.a. Henderson/Clark (1990); Wheelwright/Clark (1992a); Storey/Sykes (1996); Shenhar et al. (2002); MacCormack/Verganti (2003). Vgl. für ähnliche Definitionen Green et al. (1995), S. 204; Hauschildt/Schlaak (2001), S. 175ff.; Danneels/Kleinschmidt (2001), S. 360ff.; Neubauer (2007), S. 12. Vgl. MacCormack/Verganti (2003), S. 220. Vgl. Neubauer (2007), S. 12. Unter Markt wird hier allgemein der Verwendungsort des aus dem F&E-Prozess hervorgegangenen Produktes verstanden. Vgl. zur marktbezogenen „familiarity“ des Unternehmens Danneels/Kleinschmidt (2001), S. 360; Salomo (2003), S. 5. Einige wenige Autoren unterscheiden zwischen Markt- und Kundenunsicherheit (vgl. z.B. Storey/Sykes (1996), S. 77). Andere fassen aufgrund der untrennbaren Zusammenhänge Markt- und Kundenunsicherheit als ein und dieselbe Dimension auf (vgl. z.B. MacCormack/Verganti (2003), S. 221). Vgl. u.a. Song/Montoya-Weiss (1998), S. 126; Heinemann (2006), S. 20; Neubauer (2007), S. 12.
31
niger bedeutend, da der Fokus auf Produktinnovationen 226 liegt. Organisations- oder verfahrensbezogene Innovationen werden hingegen von der Untersuchung explizit ausgeklammert. 227 2.1.2.3 Erfolg eines F&E-Projektes Konzepte zur Bestimmung des Erfolgs von Projekten werden in der Literatur intensiv diskutiert. Eine einheitliche Erfolgsgröße hat sich bislang allerdings nicht durchgesetzt. 228 Dies hat unterschiedliche Ursachen. Zum einen ist Erfolg immer eine mehrdimensionale Größe, die, je nachdem aus welcher Perspektive sie betrachtet wird, unterschiedliche Aspekte beinhalten und diese verschieden gewichten kann. So hat ein Mitarbeiter in der Regel andere Vorstellungen von einem erfolgreichen F&E-Projekt als beispielsweise ein Vorstandsvorsitzender oder ein Investor. 229 Außerdem muss die Definition der Erfolgsgröße immer auch an das spezielle Forschungsgebiet angepasst sein. Im Fall der Erfolgsbestimmung von F&E-Projekten ist es beispielsweise nicht sinnvoll, den Projekterfolg am Markterfolg eines möglichen Produktes festzumachen, da ein durchaus erfolgreiches F&E-Projekt nicht notwendigerweise zu einem erfolgreichen Produkt führen muss. Vice versa gilt das Gleiche. 230 Da in dieser Arbeit speziell der Erfolg der F&E-Projektarbeit zu ermitteln ist und nicht der Erfolg etwa der Marketingoder Vertriebsinstrumente, die ihrerseits einen erheblichen Einfluss auf den Produkterfolg haben, sollte darauf geachtet werden, dass auch nur solche Größen zur Bestimmung des Projekterfolgs herangezogen werden, die mit der eigentlichen F&E-Arbeit zusammenhängen. 2.1.2.3.1 Rahmen zur Konzeptualisierung des F&E-Projekterfolgs Aufgrund der oben beschriebenen Problematik, dass gegenwärtig keine einheitlich akzeptierte Erfolgsgröße besteht und eine solche auch aufgrund unterschiedlicher Forschungsschwerpunkte nur schwerlich bestehen kann, ist an dieser Stelle ein Rückgriff auf ein in der Literatur beschriebenes Erfolgsmaß nicht vollständig möglich. Vielmehr ist es notwendig, bestehende Ansätze weiter zu entwickeln, um ein für die hier zu behandelnden Fragen geeignetes Konzept zu finden. Dafür wird auf einen Rahmen zurückgegriffen, der von Heinemann 231 angewendet wurde und auf Ansätze von Hauschildt 232 und Gerpott 233 zur Messung des Innovationserfolgs aufbaut.
226
227
228 229 230 231 232
32
Mit Produkt ist hier jeweils das Objekt oder Ergebnis des F&E-Prozesses gemeint (vgl. Specht et al. (2002), S. 31). Dies muss nicht unbedingt ein materieller Verbrauchsgegenstand sein, sondern umfasst zur Vereinfachung auch immaterielle Ergebnisse eines F&E-Prozesses wie beispielsweise neue Erkenntnisse und Theorien. Dies ist insbesondere im Hinblick auf die Berücksichtigung der Grundlagenforschung von hoher Bedeutung. In Rahmen dieser Arbeit werden Prozessinnovationen ausgeschlossen, da sich die Einfluss- und Erfolgsfaktoren unterschiedlicher Innovationstypen stark unterscheiden können (vgl. Abschnitt 2.1.2.1 auf S. 22ff.). Vgl. diesbzgl. auch Wolfe (1994), S. 406. Vgl. Pinto/Slevin (1988), S. 67; Shenhar et al. (2001), S. 700; Shenhar et al. (2002), S. 113. Vgl. Freeman/Beale (1992), S. 8. Vgl. Shenhar/Levy (1997), S. 6; Tatikonda/Rosenthal (2000), S. 404. Vgl. Heinemann (2006), S. 39ff. Vgl. Hauschildt (1991), S. 466ff.; Hauschild (1997), S. 389ff.
Dieser Ansatz wird hier auf den Bereich der F&E-Projekte übertragen und ermöglicht einen systematischen Aufbau einer geeigneten Erfolgsgröße entlang von fünf Merkmalen. Diese sind der Mess- bzw. Evaluierungsbereich, die Messdimensionen bzw. Evaluierungskriterien, der Mess- bzw. Evaluierungszeitpunkt, die Referenzgrößen der Messung und das Messsubjekt bzw. die Evaluierungsperson. Der Mess- und Evaluierungsbereich beschreibt, auf welche Betrachtungsebene sich die Erfolgsmessung bezieht. 234 Unterschieden werden können die Projektebene, also die Betrachtung eines einzelnen F&E-Projektes oder aber die Unternehmens- oder Branchenebene, also eine Vielzahl von F&E-Projekten als aggregiertem Untersuchungsgegenstand. 235 Im Rahmen dieser Arbeit werden projektspezifische Fragestellungen erläutert und potenzielle Erfolgsfaktoren untersucht. Entsprechend ist der Messbereich auch auf einzelne Projekte zu beschränken. Die zweite Systematisierungsgröße hat das Ziel, Mess- bzw. Evaluierungskriterien, also einzelne Dimensionen, anzugeben, mit denen der F&E-Erfolg gemessen werden kann. Wegen der besonderen Bedeutung dieser Dimensionen zur Erfolgsmessung wird auf diesen Aspekt im nächsten Abschnitt detailliert eingegangen. Der Mess- bzw. Evaluierungszeitpunkt bestimmt, wann der Erfolg gemessen werden soll. 236 Grundsätzlich kann die Erfolgsmessung in unterschiedlichen Phasen eines Projektes oder aber am Ende eines abgeschlossenen Projektes erfolgen. In Studien, in denen Innovationsprojekte analysiert werden, die sich über mehrere Phasen erstrecken, hat sich eine phasenbezogene Messung als vorteilhaft erwiesen 237 , da eine starke Phasenabhängigkeit der Erfolgsfaktoren besteht 238 . Dies ist, wie sich im Verlauf dieser Arbeit zeigen wird, bei linearen, planbaren F&E-Projekten auch gut möglich. Bei iterativen, wenig planbaren F&E-Projekten ist ein direkter und eindeutiger Phasenbezug jedoch schwieriger festzustellen. Zusätzlich werden im Rahmen dieser Arbeit lediglich solche Faktoren untersucht, die nicht an die einzelnen Projektphasen gebunden sind, sondern vielmehr einen übergreifenden Charakter haben. Somit ist eine Messung des Erfolgs am Ende eines abgeschlossenen Projektes zweckmäßig. Dies schließt eine Notwendigkeit zur Messung der Effizienz des Prozesses der F&E nicht aus. Zusätzlich ist es wichtig, Referenzgrößen der Erfolgsmessung festzulegen, damit eine einheitliche Bezugsgröße für die Einschätzung der Höhe des Erfolges gegeben ist. Häufig wird in der Literatur der Grad der Zielerreichung gemessen. 239 Dabei wird das Ergebnis des F&EProjektes mit dem verglichen, was vor Aufnahme des Projektes als Zielgröße gesetzt wurde. Diese Vorgehensweise ist im Rahmen dieser Arbeit von besonderer Bedeutung, da eine breite
233 234 235
236 237 238 239
Vgl. ähnliches Vorgehen in Gerpott (1999), S. 69ff.; Gerpott (2005), S. 67ff. Vgl. Hauschildt (1991), S. 466. Vgl. Unterscheidung für Innovationsprojekte in Cordero (1990), S. 185ff.; Hauschildt (1997), S. 389ff.; Heinemann (2006), S. 39f. Vgl. Walther (2003), S. 33. Vgl. Hauschildt (1991), S. 469 und 471ff.; Heinemann (2006), S. 40. Vgl. Wolfe (1994), S. 406ff. Vgl. u.a. Tatikonda/Rosenthal (2000), S. 404.
33
Spannweite von F&E-Projekten von der Grundlagenforschung bis hin zur konkreten Produktentwicklung untersucht werden sollen. Entsprechend sind absolute Ziele schwer vergleichbar. Daher kann eine relative Messung in dieser Untersuchung als vorteilhaft angesehen werden. 240 Das Messsubjekt bzw. die Evaluierungsperson muss auf zwei Ebenen festgelegt werden. Erstens muss geklärt werden, aus welcher Sicht der Erfolg bewertet werden soll. Dieser Aspekt wird in der Literatur häufig vernachlässigt. 241 Zum einen kann eine Bewertung aus der Sicht des Unternehmens und zum anderen aus der Sicht von externen Stakeholdern, also etwa Investoren, erfolgen. 242 Die Einschätzung in Bezug auf den Erfolg kann dabei durchaus unterschiedlich sein. 243 In dieser Arbeit wird der Erfolg aus Sicht des Unternehmens beurteilt, um wiederum sicherzustellen, dass eine direkte Bewertung des betrachteten Projektes stattfindet. Zweitens muss festgelegt werden, welche Person oder welche Personen den Erfolg eines F&E-Projektes bewerten sollen. In dieser Untersuchung wird der Erfolg von einer Person bewertet. Das ist dem Umstand geschuldet, dass es sich um eine großzahlige Analyse handelt. Traditionell werden bei solchen Studien Projektbewertungen von lediglich einer Person abgefragt. 244 Eine Befragung mehrerer Personen zu einem Projekt gilt bei derartigen Größenordnungen der Stichprobe, wie in dieser Arbeit, als „virtually impossible to achieve“ 245 . Als nächstes ist festzulegen, ob eine unternehmensinterne oder eine unternehmensexterne Person den F&E-Projekterfolg für die Unternehmung bewerten soll. 246 Da, wie oben erläutert, der Erfolg aus Unternehmenssicht bewertet wird und die bewertende Person einen direkten Einblick in die F&E haben sollte, ist die Auswahl einer unternehmensinternen Person zweckmäßig. Bei diesem Vorgehen kann grundsätzlich das Problem auftreten, dass die Beurteilung des Erfolgs verzerrt wird, da die direkt Beteiligten dazu neigen können, ihr eigenes Projekt besser einzuschätzen, als es tatsächlich war. Dem soll durch die Anwendung von relativen Größen 247 und der Zusicherung einer strikten Vertraulichkeit der zum Projekt gemachten Angaben entgegengewirkt werden.
240
241 242 243
244
245
246 247
34
In der Literatur wird als Argument gegen eine solche Vorgehensweise teilweise angebracht, dass es in unterschiedlichen Projektumgebungen auch unterschiedliche Konkretisierungsgrade in Bezug auf die Zielspezifikation geben kann. Damit können dann wiederum Probleme bei der Beurteilung von Zielerreichungsgraden verbunden sein (vgl. dazu u.a. Gemünden (1981), S. 167). In dieser Arbeit wird dieses Problem berücksichtigt, indem keine detaillierten Zielspezifikationen zur Einschätzung der relativen Zielerreichungsgrade notwenig sind. Somit wird bestmöglich sichergestellt, dass Projekterfolge vergleichbar sind und bewertet werden können. Vgl. Hauschildt (1991), S. 464. Vgl. Belout (1998), S. 23. Vgl. dazu Shenhar et al. (2001), S. 702, die auf diese Tatsache gezielt hinweisen: „Success means different things to different people.“ Vgl. dazu exemplarisch Henderson/Clark (1990); Zirger/Maidique (1990); Zirger/Hartley (1996); Eisenhardt/Tabrizi (1995); Meyer/Utterback (1995); Hauptman/Hirji (1996); Griffin (1997); Ulrich/Ellison (1999); Tatikonda/Rosenthal (2000); Shenhar et al. (2002). Tatikonda/Rosenthal (2000), S. 411. Tatikonda/Rosenthal (2000) benutzen in ihrer empirischen Analyse eine Stichprobengröße von N = 120 Projekten. Vgl. Hauschildt (1991), S. 470. Bspw. als Grad der Zielerreichung.
Auch die potenzielle unternehmensinterne Person, die das Projekt bewertet, muss noch genauer festgelegt werden. So unterscheidet Hauschildt zwischen einer direkt beteiligten und einer nicht direkt involvierten Person. 248 Außerdem kann die Position des Befragten innerhalb der Organisation (z.B. Projektleiter vs. Projektmitarbeiter) oder der jeweilige Hintergrund (z.B. kaufmännisch vs. technisch) zur weiteren Differenzierung herangezogen werden. 249 Aufgrund der besseren Kenntnis der Einzelprozesse innerhalb des F&E-Projektes soll die Evaluierungsperson in dieser Studie direkt am Projekt beteiligt gewesen sein. Wegen der besseren Übersicht über das Gesamtprojekt ist dies i.d.R. der Projektleiter 250 , der im Normalfall, da es sich um ein F&E-Projekt handelt, einen technischen Hintergrund hat.251 Nachdem nun wesentliche Rahmenkriterien zur Konzeptualisierung der Erfolgsgröße vor dem Hintergrund der hier zu analysierenden Forschungsfragen festgelegt wurden, werden im nächsten Abschnitt geeignete Dimensionen zur Bestimmung der Erfolgsgröße identifiziert. 2.1.2.3.2 Dimensionen des F&E-Projekterfolgs In einigen Studien werden Projektleiter nach einer eindimensionalen Einschätzung gefragt, ob ihr Projekt erfolgreich war oder nicht. Argumentiert wird, dass die befragte Person intuitiv unterschiedliche, für sie wichtige Aspekte kombiniert und zu einer Gesamtaussage verbindet. 252 Bei solchen eindimensionalen Auskünften gehen allerdings wesentliche Informationen verloren. Insbesondere ist die intuitive Gewichtung einzelner Erfolgsdimensionen durch den Befragten für den Forscher nicht nachvollziehbar. Um derartige Probleme zu vermeiden, soll an dieser Stelle eine mehrdimensionale Erfolgsgröße entwickelt werden. In der betriebswirtschaftlichen Forschung finden solche Konstrukte immer häufiger Anwendung. 253 Basis für die Entwicklung einer mehrdimensionalen Erfolgsgröße sind die Besonderheiten, die bei den in dieser Arbeit zu untersuchenden Forschungsfragen berücksichtigt werden müssen. Außerdem werden in der Literatur bereits angewendete Begriffsverständnisse und Dimensionen von Projekterfolg herangezogen, um eine Vergleichbarkeit mit bestehenden Studien so weit wie möglich sicherzustellen. Ein Literaturreview zeigt allerdings, dass die Erfolgsgrößen bislang wenig einheitlich und in den meisten Fällen
248 249 250
251
252 253
Vgl. Hauschildt (1991), S. 470. Vgl. ebd. Der Begriff Projektleiter ist hier nicht als Berufstitel zu verstehen, da hierfür in der Industrie eine Vielzahl von unterschiedlichen Terminologien verwendet werden. Vielmehr meint der Ausdruck die Person mit der operativen Verantwortung für das Projekt, die von Anfang bis Ende Teil des Projektteams war. Vgl. hierzu auch Tatikonda/Rosenthal (2000), S. 410. Die Tatsache, dass der Informant einen guten Überblick über das gesamte Projekt haben sollte, unterstreicht die weiter oben getroffene Entscheidung, lediglich eine Person zum Projekt zu befragen. Ein ausreichender Projektüberblick ist vor allem in einer leitenden Funktion, als bspw. bei einem Projektleiter gegeben. Insbesondere bei kleineren Projekten ist eine zweite Person mit einem vergleichbaren Überblick nicht zu finden, so dass eine Befragung meherer Personen zu einem Projekt zu einer reduzierten Validität führen würde. Vgl. Shenhar/Levy (1997), S. 8. Vgl. Giere et al. (2006), S. 678 und die dort angegebenen Verweise auf Beispiele für die Verwendung mehrdimensionaler Konstrukte in aktuellen Untersuchungen sowie stellvertretend Shenhar et al. (2002), S. 116.
35
wenig systematisiert und strukturiert sind. Daher ist ein vollständiger Rückgriff auf bestehende Konstrukte nicht möglich. Eine Strukturierung der Erfolgsdimensionen ist im Rahmen dieser Arbeit auf zwei Ebenen zweckmäßig. Einerseits können in Anlehnung an Brockhoff input-, prozess- und outputbezogene Erfolgsdimensionen unterschieden werden. 254 Andererseits ist eine Differenzierung entlang der Frage sinnvoll, ob es sich um eine subjektive oder objektive Evaluierung des Erfolgs handelt. Inputbezogene Größen erfassen die Ressourcen, die für ein F&E-Projekt zur Verfügung gestellt werden. Dies können also beispielsweise finanzielle Aufwendungen oder die Anzahl von F&E-Mitarbeitern sein. 255 Die Verwendung solcher Kriterien ist allerdings nicht unproblematisch 256 , da sie für sich betrachtet nichts über die Effizienz und den Erfolg des Projektes aussagen. Außerdem ist es häufig schwierig, zu Beginn eingebrachte Ressourcen einzelnen Projekten zuzuweisen, da diese häufig projektübergreifend genutzt werden. 257 Daher soll in dieser Arbeit keine isolierte Betrachtung von inputbezogenen Größen erfolgen. Indirekt werden die Aspekte aber berücksichtigt, um die Effizienz während des F&E-Prozesses einzuschätzen. Prozessbezogene Größen dienen zur Effizienzabbildung des Verlaufs eines F&E-Projektes. 258 Sie finden häufig Anwendung in der Literatur. 259 Prozessbezogene Größen werden in der Regel im Verhältnis zu den vor Beginn des Projektes gesetzten Zielen bewertet und sollen die Güte des F&E-Prozesses widerspiegeln. Solche prozessbezogenen Größen sind im Falle dieser Arbeit von Bedeutung, weil sie derart operationalisiert werden können, dass nur der Erfolg des F&E-Prozesses und nicht etwa der Einfluss von Marketing- und Vertriebskonzepten gemessen wird. 260 Outputbezogene Kriterien bilden die Effektivität des Erzeugnisses eines F&E-Projektes ab. 261 Sie zeichnen sich insbesondere durch einen hohen Aussagegehalt aus. 262 Allerdings muss im Rahmen dieser Arbeit im Vergleich zu Arbeiten, in denen der Innovationsprozess i.w.S. untersucht wird, beachtet werden, dass der Output nicht notwendigerweise das Endprodukt sein muss. Auch Patente, Publikationen und wissenschaftliche Erkenntnisse für andere Projekte können Outputs eines F&E-Projektes sein. 263 Insbesondere im Bereich der Grundlagenforschung sind die vorgenannten Outputs die Regel. In Entwicklungsprojekten sind hingegen im Allgemeinen konkrete Produkte die bewertbare Outputgröße. Außerdem müssen outputbezogene Erfolgsdimensionen im Rahmen dieser Arbeit sehr sorgfältig bestimmt werden. Finan-
254 255 256 257 258 259 260 261 262 263
36
Vgl. Brockhoff (1994), S. 217 f.; Gerpott (1999), S. 77ff. Vgl. Gerpott (1999), S. 77. Vgl. Heinemann (2006), S. 43. Vgl. Gerpott (1999), S. 79. Vgl. Heinemann (2006), S. 42. Vgl. stellvertretend Shenhar et al. (2002), S. 116. Vgl. dazu die Operationalisierung in Abschnitt 4.1.5 auf S. 115ff. Vgl. Cordero (1990), S. 185; Schlaak (1999), S. 250; Ernst (2001), S. 65f. Vgl. Heinemann (2006), S. 42. Vgl. Brown/Svenson (1998), S. 31.
zielle Kennzahlen sind dabei aus unterschiedlichen Gründen nicht geeignet. So besteht auf der einen Seite generell eine erhebliche Zurückhaltung der Unternehmen, Finanzkennzahlen zur F&E oder zu Innovationsprojekten herauszugeben. 264 Außerdem sind solche Kennzahlen auch nur sehr schwer zu generieren und zu vergleichen, da finanzielle Daten erst mit einer erheblichen zeitlichen Verzögerung vorliegen. 265 Entsprechend müsste sich die Befragung auf Projekte beziehen, die weit in der Vergangenheit liegen. Dies ist generell jedoch mit dem Nachteil verbunden, dass die befragte Person dann Einzelheiten zum Projekt nicht mehr vollständig kennt. Diese Problematik kann umgangen werden, indem die Ergebnisse für die Organisation nicht in Form von harten finanziellen Größen gemessen werden, sondern eher im Sinne von Verwertbarkeit und wahrgenommenem Nutzen in Vergleich zu anderen F&EProjekten. 266 Neben der Unterscheidung von input-, prozess- und outputbezogenen Erfolgskriterien kann eine Differenzierung auch entlang der Objektivität der Messung erfolgen.267 Dafür unterscheiden Werner und Souder drei Kategorien von Erfolgsgrößen, nämlich die quantitativobjektiven, die quantitativ-subjektiven und die qualitativen Messgrößen. 268 Die Objektivität nimmt entsprechend der Reihenfolge der vorgenannten Größen ab. Quantitativ-objektive Kriterien basieren auf eindeutig bestimmbaren, objektiv nachvollziehbaren Kennzahlen. 269 Typische outputbezogene quantitativ-objektive Erfolgsdimensionen sind z.B. die Höhe der reduzierten Kosten, die Höhe des mit dem F&E-Projekt generierten Umsatzes und Gewinnes und die Anzahl der hervorgebrachten Produkte. 270 Häufig werden auch Ratios benutzt, die solche Größen auf andere output- oder inputbezogene Größen beziehen. In der Literatur und in der Praxis wird beispielsweise regelmäßig der Return on F&E-Investment berechnet. 271 Ein wesentlicher Vorteil einer solchen quantitativ-objektiven Vorgehensweise kann je nach Messgröße durch die Einfachheit der Anwendung gegeben sein. Größen, wie die Anzahl von Patenten oder Publikationen neuer wissenschaftlicher Erkenntnisse in Fachzeitschriften sind weder kostspielig noch schwierig nachzuhalten. 272 Allerdings muss für derartige Größen eine sinnvolle Referenzgröße gefunden werden, um eine Einschätzung vornehmen zu können, ob es sich etwa bei der erzielten Anzahl von Patenten um einen guten oder schlechten Wert handelt. Es müssen also Benchmarking-Studien durchgeführt werden, bei denen nur vergleichbare Projekte innerhalb abgegrenzter Branchen verglichen werden dürfen. Außerdem besteht das bereits oben angesprochene Problem eines signifikanten „time lags“.273 Viele, vor allem finanziell quantifizierbare Ergebnisse eines F&E-Projektes werden erst lange
264 265 266 267 268 269 270 271
272 273
Vgl. Olson et al. (1995), S. 55f.; Heinemann (2006), S. 42. Vgl. Werner/Souder (1997a), S. 36. Vgl. u.a. Pinto/Mantel (1990), S. 269ff. Vgl. u.a. Dess/Robinson (1984); Sapienza et al. (1988). Vgl. Werner/Souder (1997a), S. 35ff. Vgl. Werner/Souder (1997a), S. 35. Vgl. dazu auch Varadarajan/Ramanujam (1987), S. 384; Schefczyk (2000), S. 125. Vgl. Werner/Souder (1997a), S. 35 und die dort angegebenen Referenzen. Vgl. dazu auch insbesondere die Beliebtheit solcher Messgrößen in den USA, Werner/Souder (1997b), S. 29. Vgl. Werner/Souder (1997a), S. 36. Werner/Souder (1997a), S. 36.
37
Zeit nach Abschluss des eigentlichen Projektes sichtbar. Dies gilt insbesondere für alle finanziellen Größen. Hinzu kommt, dass die Anwendung von finanziellen Kennzahlen im Rahmen dieser Arbeit nicht unkritisch zu sehen ist, da F&E-Projekte nicht direkt mit marktbezogenen oder finanziellen Größen bewertbar sind. Wenn eine Bewertung auf Basis von Marktgrößen erfolgen würde, würde nicht berücksichtigt, dass der Markterfolg eines Produktes in hohem Maße durch Marketing und Vertrieb bestimmt wird, d.h., dass also ein Produkt ein Markterfolg werden kann, dessen F&E-Prozess sehr ineffizient war. Das Gleiche kann vice versa gelten. 274 Da Gegenstand dieser Arbeit nicht der gesamte Innovationsprozess i.w.S. ist, sondern lediglich der Teilaspekt F&E, sollte dieser Umstand berücksichtigt werden. Quantitativ-subjektive Kriterien sind quasi objektive Kriterien. Hierbei handelt es sich um subjektive Einschätzungen, die in quantitative, numerische Größen umgesetzt werden.275 Häufig werden auch mehrere Einschätzungen, etwa von unterschiedlichen Personen, zu einer Größe aggregiert. 276 Grundsätzlich ist eine solche Erfolgsmessung nicht unproblematisch, da mit ihr Risiken von Mess- und Schätzfehlern verbunden sind. 277 Allerdings ergeben sich auch erhebliche Vorteile. Im Gegensatz zu quantitativ-objektiven Kriterien sind quantitativsubjektive Größen nicht auf vergangenheitsbezogene Dimensionen beschränkt, sondern können auch Einschätzungen zu zukünftigen Entwicklungen ermöglichen. Dies ist insbesondere im Rahmen von F&E-Projekten interessant, wenn die Befragung der Evaluierungsperson möglichst schnell nach Abschluss des Projektes erfolgen muss. Dann können outputbezogene Größen in Form von Erwartungswerten abgefragt werden. Untersuchungen haben gezeigt, dass ein derartiges Vorgehen eine hohe Validität hat und gut als Prediktor für den tatsächlich eintretenden und objektiv messbaren Erfolg eines F&E-Projektes herangezogen werden kann. 278 Insgesamt sind quantitativ-subjektive Kriterien aufgrund ihres vergleichsweise einfachen Einsatzes in großzahligen empirischen Studien und ihrer dennoch hohen Validität im Rahmen dieser Arbeit rein quantitativ-objektiven Kriterien vorzuziehen. 279 Als dritte Kategorie kommen qualitative Kriterien in Frage. Qualitative Messgrößen werden auf Basis von direkten Einschätzungen einer am F&E-Projekt beteiligten Person gewonnen. 280 Damit stellt diese Art von Kriterien eine rein subjektive Größe dar. Vorteilhaft ist hierbei, dass die Evaluierungsperson nicht gezwungen wird, ihre Bewertung in vorgegebenen Denkstrukturen und Metriken durchzuführen, sondern diese in eigenen Worten zum Ausdruck bringen kann und dadurch gezwungen wird, intensiver über den tatsächlichen Erfolg nachzu-
274 275
276 277 278 279
280
38
Vgl. Shenhar/Levy (1997), S. 5. Möglichkeiten zur Umsetzung in numerische Größen sind etwa Skalen, Checklisten oder Scoring Modelle. Vgl. dazu Souder (1988), S. 139ff. Vgl. Werner/Souder (1997a), S. 35. Vgl. Knecht (2002), S. 111. Vgl. Souder (1969), S. 35ff.; Chandler/Hanks (1993), S. 404f. Die Vorteile quantitativ-subjektiver Kriterien spiegeln sich auch in der Häufigkeit der Anwendung in der Literatur wider, vgl. Hauschildt (1991), S. 465. Vgl. Pappas/Remer (1985), S. 15; Schefczyk (2000), S. 125.
denken. 281 Diese Art ist allerdings gewöhnlich nur bei sehr eng eingegrenzten Forschungsgebieten anwendbar, da sie sonst nicht zu einem akzeptierbaren Maß an Validität führt.282 Durch ein Abwägen zwischen Validität der Messgröße auf der einen und ihrer Erfassbarkeit auf der anderen Seite, ergibt sich insgesamt ein Vorteil für prozess- und outputbezogene qualitativ-subjektive Kriterien, die in dieser Arbeit herangezogen werden sollen. Dabei sollen die prozessbezogene Effizienz des F&E-Projektes und die outputbezogenen Ergebnisse in Bezug auf die gewonnenen Erfahrungen und Kompetenzen sowie den wahrgenommenen Nutzen und zukünftige Potenziale gemessen werden. Damit wird in dieser Untersuchung auch den in der Literatur anerkannten Erfolgsmaßen im Kontext von F&E-Projekten entsprochen: „[…] a successful product development project reflow contributes technical knowledge that enhances both the product and future R&D efforts […]. Simultaneously, projects must remain on time and within budget.“ 283 Eine Operationalisierung dieser einzelnen Erfolgsdimensionen findet im Rahmen der empirischen Untersuchung statt.284 2.2
Effectuation
Nachdem nun auf F&E-Projekte eingegangen und verschiedene Begriffe entsprechend ihrer Anwendung in dieser Arbeit abgegrenzt wurden, wird im Folgenden der zweite begriffliche Hauptbestandteil der Arbeit, nämlich Effectuation, detailliert. Sarasvathy veröffentlichte im Jahr 2001 eine als Effectuation bezeichnete Logik 285 , die zwar zunächst im Bereich des Entrepreneurships im Sinne der Gründung eines neuen Unternehmens untersucht wurde, allerdings nicht auf den Entrepreneurship-Bereich beschränkt ist. 286 So gibt es inzwischen erste Anwendungen von Effectuation in unterschiedlichen Disziplinen, wie dem allgemeinen Management 287 , der Ökonomie 288 , der Psychologie 289 und den Finanzwissenschaften 290 . 2.2.1
Begriffserläuterung
Sarasvathy nutzt ein einfaches Beispiel, um die Kerneigenschaften von Effectuation, wenn auch stark vereinfacht, zu erläutern. Dieses Beispiel, in dem sie eine hypothetische Unternehmensgründung im Sinne von Effectuation beschreibt, soll hier aufgegriffen werden: 291 Eine Frau hat die Idee, in Pittsburgh einen Gastronomiebetrieb zu eröffnen. Da die Gründerin nur geringe finanzielle Möglichkeiten hat, verzichtet sie auf große Marktstudien. Anstatt dessen überlegt sie, eine Kooperation mit einem ortsansässigen indischen Restaurant oder einer Fastfood-Kette einzugehen, um ihre Idee bei geringem Risiko zu testen. Dies ist ein typisches
281 282 283 284 285 286 287 288 289 290 291
Vgl. Werner/Souder (1997a), S. 36f. Vgl. Hauschildt (1991), S. 465; Heinemann (2006), S. 44. Lewis et al. (2002), S. 551 in Anlehnung an Bowen et al. (1994). Vgl. dazu Kapitel 4.1.3 auf S. 107ff. Vgl. Sarasvathy (2001a). Vgl. Sarasvathy (2001a), S. 243f. Vgl. Augier/Sarasvathy (2004). Vgl. Dew et al. (2004). Vgl. Sarasvathy (2003). Vgl. Wiltbank et al. (2008). Vgl. Sarasvathy (2001a).
39
Vorgehen im Rahmen eines durch Effectuation geprägten Prozesses. Angenommen, die Frau überzeugt die Fastfood-Kette und kann an einem eigenen Schalter ihre indischen Gerichte anbieten. Nach einer Zeit stellt die Gründerin dann vielleicht fest, dass viele Kunden einen Lieferservice nachfragen. Ab sofort würde sie also zusätzlich die Mahlzeiten ausliefern. Im Extremfall merkt sie dann irgendwann, dass die Kunden ihre persönliche Art und Lebensfreude schätzen und stellt daraufhin ihren Restaurantbetrieb ein und wird Autorin oder Motivationsberaterin. Effectuation lässt die Möglichkeit, ausgehend von einer Basisidee, den weiteren Entwicklungsprozess aktiv durch die eigene Beeinflussung zu gestalten und die Unternehmensstrategie entsprechend dynamisch zu entwickeln. Folglich muss die Zukunft nicht durch aufwendige Prognosen vorhergesagt werden. 292 Die Basisidee schränkt das Handlungsfeld des Unternehmens nicht ein. Der Unternehmensleiter passt, falls notwendig, seine Ziele ungeachtet der ursprünglichen Ziele an. Das Beispiel weist auf fünf wesentliche Charakteristika von Effectuation-Prozessen, die zusammenfassend noch einmal aufgegriffen werden: 293 1. Fokus auf zur Verfügung stehende Ressourcen und Fähigkeiten eher als Aufbau neuer Ressourcen zur Erreichung eines konkret spezifizierten Zieles 2. Begrenzung möglicher Verluste eher als Bestimmung eines zu erwartenden Gewinns 3. Strategische Kooperationen eher als umfangreiche Wettbewerbsanalysen 4. Bestmögliche Ausnutzung von überraschenden Ereignissen eher als Maßnahmen zur Vermeidung von Überraschungen 5. Sicherstellung der Möglichkeit zur aktiven Beeinflussung zukünftiger Entwicklungen einer unbestimmten Zukunft eher als bestmögliche Anpassung an exogen vorgegebene Trends. Bevor auf diese Charakteristika im Detail eingegangen wird und daraus Prinzipien abgeleitet werden, soll zunächst eine Begriffsabgrenzung von Effectuation und konventionellen Entscheidungslogiken, die im Folgenden zusammenfassend als Causation 294 bezeichnet werden, erfolgen. 2.2.2
Begriffsabgrenzung zwischen Effectuation und Causation
Sarasvathy unterscheidet zwei grundsätzliche Arten von Entscheidungsprozessen, nämlich „Causation“ und „Effectuation“.295 Im Gegensatz zum im Entrepreneurshipbereich hauptsächlich verfolgten Forschungsansatz, also im Gegensatz zu Causation, sieht die EffectuationLogik Entrepreneurship eher als eine „form of expertise“.296 Das als Effectuation bezeichnete
292 293 294 295 296
40
Vgl. Sarasvathy et al. (forthcoming). Vgl. Sarasvathy (2001a) und eine detaillierte Betrachtung in Abschnitt 2.2.3 auf S. 46ff. „Effectuation is the inverse of causation.“ (Sarasvathy (2007), S. 22). Vgl. Sarasvathy (2001a). Vgl. Sarasvathy et al. (forthcoming).
Konzept versucht weniger als viele anderen Ansätze zuvor 297 , den Erfolg von Entrepreneurship auf einzelne Teilaspekte zurückzuführen. Stattdessen geht Sarasvathy davon aus, dass die Anzahl der Einflussfaktoren auf den Erfolg und bestehende Unsicherheiten so unüberschaubar groß sind, dass eine vollständige Planung im Vorhinein nicht möglich ist. 298 Entsprechend ist es von besonderer Bedeutung, die Entwicklung der unsicheren Zukunft selber aktiv mitzugestalten und unerwartete Ereignisse so vorteilhaft wie möglich zu nutzen.299 So besteht eine wesentliche Annahme von Effectuation in der Logik der Kontrollierbarkeit. 300 Traditionell werden in Managementtheorien Artefakte wie Unternehmen und Organisationen als gegeben angesehen. 301 Entsprechend wird die zukünftige Entwicklung als eine exogene, nicht beeinflussbare Größe angenommen. Diese Annahme wird in der Effectuation-Logik nicht aufrechterhalten. Hier steht vielmehr der Mensch als wesentlicher Treiber zukünftiger Entwicklungen im Mittelpunkt. 302 Zukünftige Entwicklungen sind daher unter bestimmten Rahmenbedingungen nach der Effectuation-Logik unmittelbar durch die Beteiligten gestaltbar. Zur detaillierteren Abgrenzung von Effectuation und Causation sollen im Folgenden fünf Unterscheidungsdimensionen betrachtet werden: 1. Welche Intention liegt dem jeweiligen Vorgehen zugrunde? 2. Welche Voraussetzungen gibt es? 3. Wie ist der Entscheidungsprozess gekennzeichnet? 4. Wie wird Kontrollierbarkeit hergestellt? 5. Was sind die typischen Ergebnisse der jeweiligen Logik? 2.2.2.1 Zugrundeliegende Intention Bei abstrakter Betrachtung von Causation und Effectuation stellt man fest, dass beide Logiken die grundsätzlich gleiche Intention haben. 303 Beide dienen der Unterstützung einer Entscheidungsfindung 304 und der Herstellung einer Kontrollierbarkeit zukünftiger Entwicklungen 305 . Entsprechend kann Effectuation betrachtet werden „as one among many useful maps to the same city“ 306 . Allerdings unterscheiden sich die Vorgehensweisen dabei erheblich. Sie sind sogar diametral unterschiedlich und können als gegensätzliche Vorgehensweisen aufgefasst
297 298 299 300 301 302 303 304
305 306
Vgl. Venkatapathy (1983); Ahmed (1985); Allinson et al. (2000); Carter et al. (2003). Vgl. Sarasvathy et al. (forthcoming). Vgl. Sarasvathy (2007), S. 21. Vgl. Sarasvathy (2001a), S. 243. Vgl. Sarasvathy (2001a), S. 243. Vgl. Sarasvathy (2007), S. 87. Vgl. Dew et al. (2008b), S. 43. Sarasvathy bezeichnet Effectuation als „an alternative logic of decision making under uncertainty“ (Sarasvathy (2007), S. 4) und als „general theory of decision making in uncertain situations“ (Sarasvathy (2007), S. 227). „Causal and effectual logics both seek control over the future.“ (Sarasvathy (2007), S. 87). Sarasvathy (2007), S. 22.
41
werden. 307 Jedes der fünf oben genannten Effectuation Charakteristika „inverts key decision making criteria in received theories and conventional management practices“. 308 Worin diese Unterschiede im Detail bestehen, wird in den folgenden Abschnitten geklärt. 2.2.2.2 Voraussetzungen Die Voraussetzungen unterscheiden sich grundlegend zwischen Causation- und Effectuationgeprägten Vorgehensweisen. Mit Voraussetzungen sind hier nicht die Rahmenbedingungen gemeint, unter denen das ein oder andere Vorgehen zweckmäßiger ist 309 , sondern die Ausgangspunkte für ein bestimmtes Handeln. Ausgangspunkte für ein Handeln können definierte, in der Zukunft liegende Ziele oder aber auch vorhandene Ressourcen sein. Bei Causation-Prozessen wird das Ziel vorgegeben. 310 Dem Erreichen dieses Zieles wird entsprechend die höchste Priorität eingeräumt. Die dafür erforderlichen Mittel können aus den Zielen abgleitet werden. Das Vorgehen nach Causation setzt also ein klares Verständnis von dem voraus, was innerhalb bspw. eines Projektes erzielt werden soll. Häufig resultieren diese genauen Vorstellungen dabei aus Markt- und Trendanalysen. Im Gegensatz dazu sind bei durch Effectuation gekennzeichneten Vorgehensweisen begrenzte Mittel vorgegeben. 311 Mit Mitteln sind hier alle vorhandenen materiellen und immateriellen Ressourcen gemeint. Diese sind Ausgangspunkt für ein Handeln nach Effectuation.312 Bei Effectuation-Prozessen muss der Entscheider zwischen unterschiedlichen Ergebnissen, also Effekten wählen, indem er ihm zur Verfügung stehende, begrenzte Mittel zur Ergebniserreichung berücksichtigt. Die unterschiedlichen Voraussetzungen können folgendermaßen zusammengefasst werden: „Causation processes take a particular effect as given and focus on selecting between means to create that effect. Effectuation processes take a set of means as given and focus on selecting between possible effects that can be created with that set of means.” 313 2.2.2.3 Entscheidungsprozesse „Effectuation is a general theory of decision making in uncertain situations.“ 314 Die Art und Weise, wie Entscheidungen getroffen werden und der Umfang mit dem geplant wird, stellt eine weitere Möglichkeit zur Abgrenzung von Causation- und Effectuation-Vorgehen dar. 315 Im Rahmen von Causation-Ansätzen wird das Ziel, wie oben erläutert, zu Beginn vorgegeben. Das impliziert, dass Entscheidungen zu treffen sind, welche Ressourcen und welches Ausmaß
307 308 309 310 311 312 313 314 315
42
Vgl. u.a. Dew et al. (2008b), S. 43. Sarasvathy (2007), S. 21. Vgl. dazu Abschnitt 2.2.5. Vgl. Sarasvathy (2001a), S. 251. Vgl. Sarasvathy (2007), S. 21. Vgl. Sarasvathy (2001a), S. 250. Vgl. Sarasvathy (2001a), S. 245. Sarasvathy (2007), S. 227. Vgl. Sarasvathy (2001a), S. 251.
dieser Ressourcen zur Zielerreichung eingesetzt werden müssen. Darüber hinaus findet in aller Regel eine Auswahl einer Option, beispielsweise eines F&E-Projektes, aus einer größeren Gesamtmenge möglicher Projekte statt. Die Eingrenzung des Optionenraums erfolgt dabei auf Basis des erwarteten Erfolgs je Projekt. 316 Dabei werden zukünftige Gewinne mittels Marktstudien und Expertenmeinungen abgeschätzt und auf dieser Basis beispielsweise der NPV berechnet, so dass unterschiedliche Projekte vergleichbar werden. Am Ende eines solchen Vorgehens steht dann eine Bewertung der unterschiedlichen Optionen und die Auswahl der als am attraktivsten erscheinenden zur Weiterverfolgung. Mit der Auswahl der Option ist die Zielsetzung vorgegeben. Entsprechend müssen die dafür erforderlichen Ressourcen (z.B. F&E-Equipment, Fachpersonal, etc.) ermittelt und bereitgestellt werden. Das Effectuation-Vorgehen ist das Gegenteil des beschriebenen Causation-Prozesses. 317 Wie oben erläutert geht ein Effectuation-Prozess von den zu Verfügung stehenden Ressourcen aus. Bestehende Fähigkeiten und Netzwerke geben den Rahmen möglicher Optionen vor und spannen so den Entscheidungsraum auf. Entsprechend werden auch unterschiedliche Optionen mit Hinblick auf die bestehenden Kompetenzen und Ressourcen verglichen. Eine Option ist dann vorteilhaft, wenn sie möglichst viele bestehende Ressourcen nutzt. Ein Kriterium zur Eingrenzung des Entscheidungsraums ist nicht der erwartete Gewinn, sondern das akzeptierbare Risiko. 318 Anstatt über aufwendige Prognosen potenzielle zukünftige Gewinne abzuschätzen, wird beim Effectuation-Vorgehen die Entscheidungsfindung unterstützt, indem versucht wird, den möglichen Verlust zu begrenzen und somit das Risiko zu minimieren. 319 Dies steht in Übereinstimmung mit der Nutzung bestehender Ressourcen, da eine Bereitstellung neuer Ressourcen immer mit zusätzlichen Kosten und somit mit zusätzlichen Risiken verbunden ist. Auch nach der Auswahl einer Option auf Basis des Verlustes, den man im Falle eines Scheiterns zu tragen bereit ist 320 , findet die Planung häufig weniger konkret und weniger auf die Realisierung eines bestimmten, im Vorhinein festgelegten Zieles statt. Vielmehr erfolgt eine kontinuierliche Planung in kleineren Schritten, die, falls erforderlich, auch Anpassungen an der grundsätzlichen Richtung zulässt. 321 Entscheidungen über Umfang und Richtung der Weiterverfolgung einer eingeschlagenen Richtung finden typischerweise regelmäßig statt und werden durch alle beteiligten Stakeholder bestimmt. 322 Ein Effectuation-Vorgehen zeichnet sich dadurch aus, dass auf aufwendige Marktstudien zur Unterstützung der Entscheidungsfindung weitestgehend verzichtet wird und anstatt dessen die Erfahrungen der Stakeholder genutzt werden.
316 317 318 319 320 321 322
Vgl. Sarasvathy (2007), S. 77. Vgl. Sarasvathy (2007), S. 22. Vgl. Sarasvathy (2007), S. 21. Vgl. Sarasvathy (2001a), S. 251. Vgl. Sarasvathy (2007), S. 21. Vgl. Honig et al. (2002), S. 6. Vgl. Sarasvathy (2007), S. 21.
43
2.2.2.4 Herstellung von Kontrollierbarkeit „Causal and effectual logics both seek control over the future“ 323 – sowohl Causation als auch Effectuation haben die Absicht, zukünftige Entwicklungen möglichst gut kontrollierbar zu machen. 324 Beide Ansätze versuchen damit das Kontrollbedürfnis des Verantwortlichen zu befriedigen. Sie tragen so beide der Tatsache Rechnung, dass das Kontrollempfinden eines der wichtigsten psychologischen Basismotive darstellt. 325 Allerdings verfolgen sie dabei grundverschiedene Ansätze. Causation-Prozesse versuchen durch einen hohen Grad an Detailplanung jegliche überraschende Ereignisse, die zu einer Verzögerung des Vorhabens führen könnten, zu identifizieren. Es wird versucht, die unsichere Zukunft möglichst vorhersehbar zu machen. 326 Dazu dienen bspw. Marktstudien, Trendanalysen, das Auffinden schwacher Signale und technische Forecasts. 327 Diese Mittel werden genutzt, um Ziele zu definieren. Außerdem sollen so Unsicherheiten und mögliche Überraschungen frühzeitig erkannt werden, so dass sie umgehbar sind. Insgesamt versucht also Causation Kontrolle herzustellen, indem überraschende Ereignisse, die vom eigentlichen Ziel abhalten könnten, vermieden werden. Meilensteine dienen dann gewöhnlich dazu, den Projektfortschritt in Bezug auf das anvisierte Ziel zu prüfen. Zusammenfassend liegt Causation-Prozessen die Logik zugrunde, dass die Zukunft in dem Ausmaß kontrollierbar ist, in dem sie vorhergesehen werden kann: 328 „To the extent that we can predict the future, we can control it.“ 329 Effectuation versucht durch das Zurückgreifen auf bestehende Erfahrungen und Netzwerke ein gewisses Maß an Kontrollierbarkeit von vornherein sicherzustellen. Es wird weniger versucht, Kontrolle dadurch zu erlangen, dass die Zukunft vorhersehbar gemacht wird. Vielmehr wird versucht, die Unsicherheit als Vorteil zu verstehen und Kontrolle dadurch herzustellen, dass die unterschiedlichen Entwicklungsmöglichkeiten, die es gibt, aktiv mitgestaltet werden können. 330 Da die Unsicherheit prinzipiell für alle Marktteilnehmer besteht, kann in ihr auch ein Vorteil gesehen werden, weil viele potenzielle Marktteilnehmer dadurch abgeschreckt werden und diesen Bereich meiden. 331 Effectuation geht nicht nur davon aus, dass die Zukunft aktiv aufgebaut wird. Durch eine kleinteiligere Planung kann auch besser auf exogene Trends reagiert werden, was eine höhere Kontrolle während der eigentlichen Durchführung des Prozesses gewährleistet. Eine aufwendige Vorhersage von Trends ist dann nicht unbedingt nötig, weil aktuelle Erkenntnisse zeitnah in den Prozess integriert werden können. In der Vergangenheit hat sich immer wieder gezeigt, dass wesentliche Trends nicht vorherzusehen waren. So sagte 1977 noch der Vorstandsvorsitzende der Firma DEC, Ken Olsen, folgendes
323 324 325 326 327 328 329 330 331
44
Sarasvathy (2007), S. 87. Vgl. Sarasvathy (2007), S. 87. Vgl. von Nitzsch (2001), S. 46. Vgl. Wiltbank et al. (2008), S. 4. Vgl. Corsten (1989), S. 6. Vgl. Sarasvathy (2001a), S. 251. Sarasvathy (2007), S. 87. Vgl. Sarasvathy (2007), S. 22, 87. Vgl. Sarasvathy (2007), S. 89.
über die erwartete Entwicklung des PC: „Ich sehe keinen Grund, warum einzelne Individuen ihren eigenen Computer haben sollten.“ 332 Eine ähnliche Fehleinschätzung gab es im Jahr 1901 auch von der Daimler Motor Gesellschaft zur Entwicklung des Automobils: „Die weltweite Nachfrage nach Kraftfahrzeugen wird eine Million nicht übersteigen – alleine schon aus Mangel an verfügbaren Chauffeuren.“ 333 Diese beiden Beispiele verdeutlichen, dass es sinnvoll sein kann, überraschende Ereignisse aktiv zu nutzen, anstatt zu versuchen, sie zu prognostizieren und auszuweichen. Prognosen können, wie die Vergangenheit zeigt, zu deutlichen Fehleinschätzungen führen. Wesentliche Charakteristika für Effectuation zur Herstellung von Kontrollierbarkeit sind also weniger die Vorhersage von möglichen Trends als vielmehr die Aufgeschlossenheit und Integration neuer Erkenntnisse und der Versuch, Umwelt- und Marktentwicklungen so gut wie möglich durch aktive Einflussnahme gestaltbar und somit auch kontrollierbar zu machen. Die Effectuation zugrundeliegende Logik kann wie folgt zusammengefasst werden: „To the extent that we can control the future, we do not need to predict it.“ 334 Konkrete Mittel zur Herstellung von Kontrolle im Sinne von Effectuation werden in Kapitel 2.2.3 erläutert. 2.2.2.5 Prinzipielle Ergebnisse der unterschiedlichen Vorgehensweisen Bislang wurden die grundsätzlich unterschiedlichen Vorgehensweisen zwischen Causation und Effectuation bei der Entscheidungsfindung und Herstellung von Kontrollierbarkeit über unbestimmte zukünftige Entwicklungen beschrieben. Allerdings unterscheiden sich nicht nur die Vorgehensweisen, sondern in aller Regel auch die Ergebnisse solcher Prozesse. Typischerweise sind die Ergebnisse von Causation-Prozessen Neueinstiege oder Marktanteilssteigerungen in bestehenden Märkten. 335 Demgegenüber schaffen Effectuation-Prozesse neue Märkte. 336 2.2.2.6 Zusammenfassung Die folgende Tabelle stellt noch einmal zusammenfassend die wesentlichen Unterschiede zwischen Effectuation- und Causation-Prozessen entlang der oben vorgestellten grundlegenden Unterscheidungsdimensionen gegenüber.
332 333 334 335 336
Vgl. Gausemeier et al. (2001), S. 199. Vgl. Gausemeier et al. (2001), S. 199. Sarasvathy (2007), S. 87. Vgl. Sarasvathy (2001a), S. 251. Vgl. Sarasvathy (2001a), S. 251.
45
Unterscheidungsdimensionen
Causation-Merkmale
Effectuation-Merkmale
Voraussetzung
Ziel/Effekt ist vorgegeben
Mittel und Ressourcen sind vorgegeben
Entscheidungsprozess
Auswahl von Mitteln zur Erreichung des gegebenen Zieles/Effekts
Auswahl möglicher Effekte, die mit gegebenen Mitteln erreichbar sind
Auswahlkriterien abhängig von erzielbarem Gewinn
Auswahlkriterien abhängig von möglichem Verlust, bzw. akzeptierbarem Risiko
Wahl der Mittel abhängig von Ziel/Effekt und dem Kenntnisstand des Entscheiders bzgl. möglicher Mittel
Wahl der Effekte abhängig von Präferenzen des Entscheiders und seinen Fähigkeiten
Fokus auf vorhersehbare Aspekte einer unsicheren Zukunft
Fokus auf kontrollierbare Aspekte einer nicht vorhersehbaren Zukunft
In dem Ausmaß, in dem wir Zukunft vorhersehen können, können wir sie auch kontrollieren
In dem Ausmaß, in dem wir Zukunft gestalten können, brauchen wir sie nicht vorherzusagen
Marktanteile in bestehenden Märkten durch Wettbewerbsstrategien
Schaffung neuer Märkte durch aktive eigene Gestaltung und kooperatives Agieren
Herstellung von Kontrollierbarkeit
Ergebnis
Tabelle 3: Abgrenzung zwischen Causation und Effectuation Quelle: Eigene Darstellung
2.2.3
Die fünf Prinzipien von Effectuation
Effectuation-Prozesse werden nach Sarasvathy durch fünf Prinzipien gekennzeichnet, die einige der zuvor bereits erläuterten Charakteristika konkretisieren: 337 Sarasvathy unterscheidet so das „Bird-in-hand“-, „Affordable loss“-, „Crazy quilt“-, „Lemonade“- und das „Pilot-inthe-plane“-Prinzip (vgl. Abbildung 5). 338 Nachdem im vorangegangenen Abschnitt die grundlegenden Eigenschaften von Effectuation erläutert wurden, geben diese Prinzipien an, wie eine Entscheidungsfindung konkret unterstützt und wie eine Kontrollierbarkeit zukünftiger Entwicklungen hergestellt werden kann. An dieser Stelle sollen diese fünf Prinzipien vorgestellt werden. Eine darauf aufbauende Analyse der Prinzipien im Kontext von F&E-Projekten findet in Kapitel 3.3 statt.
337
338
46
„Effectuation represents one such set of principles ‘field-tested and grounded’ in the practice of entrepreneurial expertise“ (Sarasvathy et al. (2008), S. 345). Vgl. Sarasvathy (2007), S. 21f., S. 71ff.
Schaffung von Neuem auf Basis vorhandener Mittel Bird-in-hand
Affordable loss
Crazy quilt
Wesentliche Ressourcen: Who I am (Identität), What I know (Fähigkeiten, Erfahrungen), Whom I know (Vernetzung in der Community des zu schaffenden Neuen), What I have (mat. Ressourcen), Where I am (Umstände)
Eher Vorab-Commitment zur Höhe des Verlustes/akzeptierbaren Risikos, das man einzugehen bereit ist, als aufwendige Berechnung erwarteter Returns
Verhandlungen mit allen Stakeholdern, die bereit sind, sich zum Projekt zu commiten, ohne sich über Opportunitätskosten zu sorgen und ohne ausführliche Wettbewerbsanalysen auszuarbeiten Projektziele werden lediglich von solchen Stakeholdern bestimmt, die sich commited haben
Lemonade
Umgang mit Überraschungen gekennzeichnet durch die gezielte Nutzung dieser Ereignisse anstelle der Ergreifung von Maßnahmen zur Vermeidung oder Überwindung solcher Überraschungen
Pilot-in-the-plane
Mensch ist als zentraler Treiber direkter Gestalter zukünftiger Entwicklungen und nicht lediglich Ausnutzer exogen vorgegebener technologischer und sozio-ökonomischer Trends (Effectuation basiert auf zu kreierenden Möglichkeiten)
Abbildung 5: Zusammenfassung der fünf Effectuation Prinzipien Quelle: Eigene Darstellung
Unter „Bird-in-hand“ wird das Prinzip verstanden, dass Effectuation-Prozesse besonders durch die zur Verfügung stehenden Mittel und Ressourcen geleitet werden. 339 Im Gegensatz zu den durch ein vorgegebenes Ziel geleiteten Causation-Prozessen steht bei Effectuation die Schaffung von etwas Neuem mit gegebenen Mitteln im Vordergrund. Gegebene Mittel determinieren daher den Entscheidungsraum. Wesentliche Mittel sind die eigene Identität 340 („Who I am“), Fähigkeiten und Erfahrungen („What I know“) und bestehende Netzwerke („Whom I know“). Daraus können zwei weitere Mittel als Derivate abgeleitet werden: Die Ausstattung mit materiellen Ressourcen („What I have“) und die Umstände, in denen man sich gerade befindet („Where I am“). 341 Das „Affordable loss“-Prinzip 342 dient zur Eingrenzung des Entscheidungsraums, der durch das Bird-in-hand-Prinzip aufgespannt wird, indem die Grundlage bzw. das Kriterium für die Entscheidungsfindung angegeben wird. Effectuation-Prozesse zeichnen sich, im Gegensatz zu den an Gewinnen orientierten Causation-Prozessen, durch eine Risikobegrenzung aus. 343 So betrachtet der Entscheider typischerweise, welche und wie viele der vorhandenen Ressourcen
339 340
341 342 343
Vgl. Sarasvathy (2007), S. 71ff. Dies, genauso wie im Folgenden das „I“, kann sich sowohl auf einzelne Personen als auch auf ganze Organisationen beziehen. Ursprünglich bezieht Sarasvathy in ihren Ausführungen Effectuation auf einzelne Personen, nämlich Entrepreneurs. Der Schritt hin zu einer Anwendung auf „firm level“ wurde in unterschiedlichen Ausführungen vollzogen (vgl. u.a. Dew (2003); Sarasvathy (2007), S. 227ff.). Vgl. Sarasvathy (2007), S. 77. Vgl. Sarasvathy (2007), S. 77. Vgl. Wiltbank et al. (2008), S. 5.
47
er einzusetzen und ggf. zu verlieren bereit ist, anstatt Kalkulationen zu möglichen Gewinnen anzustellen. Das „Crazy quilt“-Prinzip hat zwei grundlegende Absichten: Zum einen wird der Entscheidungsraum weiter eingegrenzt. Damit dient das Prinzip wiederum zur Unterstützung der Entscheidungsfindung bei der Frage, was als nächstes getan werden soll. Zum anderen wird durch ein Vorgehen nach dem „Crazy quilt“-Prinzip aktiv Unsicherheit reduziert und damit Kontrollierbarkeit hergestellt. Sowohl die Entscheidungsunterstützung als auch die Herstellung von Kontrollierbarkeit werden durch das Hinzuziehen zusätzlicher Stakeholder erreicht. 344 Mögliche Stakeholder können Kunden, Zulieferer, Partner, Investoren oder auch Wettbewerber sein. 345 Das Ziel ist es, mit Stakeholdern zu verhandeln, um Commitments für das betreffende Projekt zu erhalten. Beachtet werden solche Stakeholder, die sich zu einem Projekt verpflichten ohne Opportunitätskosten zu betrachten. 346 Commitments können unterschiedlicher Art sein. Beispielsweise kann man sich zusammenschließen, um eine Idee zu verwirklichen. Die Summe der verfügbaren Mittel (vgl. Bird-in-hand) und der akzeptierbaren Verluste (vgl. Affordable loss) wird dann größer. Stakeholder, die sich committen, bringen zusammen mit ihren Erfahrungen und verfügbaren Ressourcen zusätzliche Möglichkeiten zur Entscheidungsfindung ein. 347 Dies bedeutet auch, dass neue Stakeholder immer auch die Richtung eines Vorhabens beeinflussen. Die Summe aller Stakeholder, die sich committed haben, bestimmt letztlich die Projektrichtung. 348 Außerdem kann ein gemeinsames Vorgehen unmittelbar eine Kontrollierbarkeit zukünftiger Entwicklungen herstellen. Besonders einfach nachzuvollziehen wird dies im Falle eines Commitments durch einen Kunden, das bspw. in einer Abnahmeverpflichtung eines zu entwickelnden Produktes bestehen kann. In diesem Beispiel wird das Verwertungsrisiko des Produktes aktiv reduziert. Intensive Marktstudien, wie sie für einen Causation-Prozess typisch wären, sind dann nur von untergeordneter Bedeutung. Die bislang beschriebenen drei Prinzipien – Bird-in-hand, Affordable loss und Crazy quilt – haben gezeigt, wie es von einer eingangs groben Idee, die durch gegebene Mittel vorgegeben ist, zur Entscheidung über das weitere Vorgehen oder zur Auswahl einer Option bei mehreren Alternativen im Rahmen eines Vorgehens nach der Effectuation-Logik kommen kann. Die Erfahrungen, Fähigkeiten und Ressourcen eines Initiators geben dabei die grobe Idee vor. Durch das Hinzuziehen weiterer Stakeholder und der Bestimmung dessen, was jeder der Stakeholder beizutragen und auch zu verlieren bereit ist, wird der Entscheidungsraum eingegrenzt. Gleichzeitig wird durch dieses Vorgehen die Kontrollierbarkeit zukünftiger Entwicklungen erhöht. Das vierte, nämlich das „Lemonade“-Prinzip 349 , hebt sich von dieser, eine Entscheidung vorbereitenden und ermöglichenden Charakteristik ab. Hierbei geht es um das konkrete Vorge-
344 345 346 347 348 349
48
Vgl. Read et al. (2008), S. 2. Vgl. Sarasvathy (2007), S. 228. Vgl. Sarasvathy (2007), S. 84. Vgl. Wiltbank et al. (2008), S. 5. Vgl. Sarasvathy (2007), S. 21. Vgl. Sarasvathy (2007), S. 85ff.
hen während eines Prozesses. Im Laufe eines einmal auf den Weg gebrachten Prozesses kann es immer wieder zu ungeplanten und unerwarteten Ereignissen kommen. Effectuation nimmt solche Überraschungen gezielt auf und versucht diese zu nutzen, anstatt sie von vornherein durch möglichst detaillierte Marktstudien zu vermeiden. 350 Die zugrunde liegende Logik ist, dass gerade in überraschenden Ereignissen häufig neue Möglichkeiten liegen, auf die man bei einer Vermeidung von Überraschungen nicht gestoßen wäre. Die Bezeichnung des Prinzips ist hergeleitet aus der Weisheit „When life gives you lemons, make lemonade“. 351 Überraschende Ereignisse können auch dazu führen, dass neue Stakeholder eingebunden und auf Basis neuer Erfahrungen und Commitments neue oder abgeänderte Projektziele definiert werden. Überraschende Ereignisse im Sinne des „Lemonade“-Prinzips sind somit auch Ausgangspunkt für einen iterativen Prozess, der dazu führt, dass immer wieder ausgehend vom „Bird-in-hand“, „Affordable loss“ und „Crazy quilt“-Prinzip neue und bessere Möglichkeiten in Betracht gezogen werden und sich im Laufe eines solchen Vorgehens ein immer konkreteres Projektziel herauskristallisiert. 352 Das fünfte Prinzip, das Sarasvathy angibt, nämlich das „Pilot-in-the-plane“-Prinzip, kann als übergeordnetes Prinzip verstanden werden, das den Gesamtprozess von der ersten groben Idee bis zur Durchführung betrifft. Unter dem „Pilot-in-the-plane“-Prinzip wird verstanden, dass der Mensch der wichtigste Treiber der zukünftigen Entwicklung ist und diese aktiv mitgestalten kann. 353 Effectuation kann sich aufgrund dieser Gestaltungsmöglichkeiten daher auf die kontrollierbaren Aspekte einer unsicheren Zukunft konzentrieren. In solchen Situationen sind aufgrund der direkten Beeinflussbarkeit zukünftiger Entwicklungen keine Prognosen erforderlich. Die Umwelt wird als veränderbar angenommen und nicht als gegebene exogene Größe. 2.2.4
Dynamische Betrachtung von Effectuation
Um die Schaffung neuer Märkte und die damit verbundenen dynamischen Prozesse von Effectuation im Detail zu betrachten, muss zunächst geklärt werden, was unter einem Markt verstanden wird. Wie andere fundamentale Begriffe, etwa Masse in der Physik oder Leben in der Biologie, wird der Begriff Markt häufig und in unterschiedlichsten Zusammenhängen verwendet. 354 Eine präzise Definition ist gar nicht einfach. 355 Coase argumentiert, dass Märkte, die neben den Unternehmen der zentrale Bestandteil einer kapitalistischen Gesellschaft sind, lediglich eine „shadowy“ Beachtung in der ökonomischen Literatur finden. 356 Verschiedene Begriffsumschreibungen beinhalten die Kategorien Nachfrage, Angebot und Institutionen. Sarasvathy verwendet das Getränk Cola als Beispiel für den Markt eines etablierten Pro-
350 351 352
353 354 355 356
Vgl. Read et al. (2008), S. 5. Vgl. Sarasvathy (2007), S. 85. Dies steht in Übereinstimmung mit der von Sarasvathy geäußerten Hypothese, dass im speziellen Umfeld eines Gründungsprozesses zunächst überwiegend Effectuation- und mit zunehmender Reife überwiegend Causation-Prozesse angewendet werden (vgl. Sarasvathy (2007), S. 124). Vgl. Read et al. (2008), S. 1; Sarasvathy (2007), S. 87. Vgl. Menard (1995), S.161ff. Vgl. Sarasvathy (2007), S. 91. Coase (1988) zitiert in Sarasvathy (2007), S. 91.
49
duktes. 357 Auf der einen Seite gibt es Menschen, die Cola trinken wollen und bereit und in der Lage sind, dafür zu zahlen. Auf der anderen Seite muss es Organisationen geben, die bereit und in der Lage sind, Cola für den Preis herzustellen, den Kunden zahlen wollen. Drittens gibt es Institutionen, wie Gesundheitsbehörden, die darauf achten, dass Cola ohne gesundheitsschädigende Wirkung getrunken werden kann. Der Markt für Cola ist einfach zu beschreiben. Dies gilt im Wesentlichen für jeden gut etablierten bestehenden Markt.358 Schwieriger wird es jedoch, wenn neue Märkte betrachtet werden. Der Aufbau eines neuen Marktes ist immer von unvollständigen Informationen begleitet.359 Auch wenn die Nachfrage als exogen vorgegeben betrachtet wird, gibt es eine unendlich große Anzahl von Möglichkeiten, diese Nachfrage durch unterschiedliche technologische Ausführungen zu bedienen. Neue Märkte brauchen nicht nur eine lange Zeit, um sich zu entwickeln, sondern sind ex-ante auch in den meisten Fällen nicht vorherzusagen. 360 Ursache hierfür ist, dass sich neue Märkte im Sinne von Effectuation durch die aktive Gestaltung aller Beteiligten entwickeln. 361 Neue Märkte gehen häufig mit der Schaffung neuer Artefakte auf unterschiedlichen Ebenen einher. So ist mit neuen Märkten in der Regel eine Innovation, also die Vermarktung eines neuen F&E-Erzeugnisses verbunden. Ebenso werden häufig neue Unternehmenseinheiten oder sogar neue Unternehmen gegründet. Für alle diese Vorgänge sind menschliche Entscheidungsfindungsprozesse erforderlich, die nicht, wie in klassischen Entscheidungstheorien sequenziell ablaufen. Vielmehr entsteht ein dynamischer, durch Iterationen gekennzeichneter komplexer Entscheidungsprozess. Ein solcher dynamischer Entscheidungsprozess basiert unmittelbar auf den vorher dargestellten Effectuation-Prinzipien. Der dynamische Entscheidungsprozess nach Effectuation kann, wie auch die klassischen Theorien, in zwei grundsätzliche Schritte getrennt werden. Dies sind die Entscheidungsvorbereitung bzw. Entscheidungsfindung mit der konkreten Entscheidung als Ergebnis und die Entscheidungsimplementierung. Allerdings ist bei diesem Prozess nicht im Vorhinein ausgeschlossen, dass während der eigentlichen Implementierung auch wieder neue Entscheidungen getroffen werden müssen, die die ursprüngliche Entscheidung revidieren. Auf diese Weise kommt es zu einem iterativen Prozess, der in Abbildung 6 dargestellt ist.
357 358 359 360 361
50
Vgl. Sarasvathy (2007), S. 91. Vgl. Sarasvathy (2007), S. 91. Vgl. Denrell et al. (2003), S. 977. Vgl. Gort/Klepper (1982), S. 630ff. Vgl. Sarasvathy (2007), S. 95.
Entscheidungsfindung
Entscheidungsvorbereitung
Entscheidungsimplementierung
Pilot-in-the-plane: „Human action is the predominant factor shaping the future“ (Sarasvathy (2007), S. 87)
Bird-in-hand: Verfügbare Mittel
Neue Mittel, die Einfluss auf Ziele haben können
Neue Erkenntnisse/Überraschungen?
Affordable loss: Kriterium zur Entscheidungsfindung
Crazy quilt: Interaktion mit anderen und Einholen von Stakeholder Commitments
Anpassung der ursprünglichen Entscheidung
Lemonade: Notwendigkeit eigentlichen Plan zu ändern
Neue Stakeholder/ Mittel notwendig?
Abbildung 6: Dynamisches Modell zu Effectuation Quelle: Eigene Darstellung
Ausgangspunkt für den Prozess sind gegebene Mittel. Vorhandene Ressourcen geben den Entscheidungsraum, also die Optionen der Entscheidungsfindung grob vor. Als nächstes muss sich der Entscheider im Rahmen des „Affordable loss“-Entscheidungskriteriums klar werden, wie viel er von seinen vorhandenen Ressourcen für jede Option zu committen und somit im negativen Fall auch zu verlieren bereit ist. Außerdem wird der Entscheider mit Stakeholdern verhandeln. Dies kann mit ganz unterschiedlichen Zielen erfolgen. Zum einen können Stakeholder unmittelbar zur Entscheidungsfindung beitragen, indem sie das Projekt unterstützen und ihre eigenen materiellen oder immateriellen Ressourcen zur Verfügung stellen. 362 Auch können sich bspw. Kunden zu einer bestimmten Option committen, indem sie sich verpflichten ein Produkt im Anschluss an die Entwicklung in einem bestimmten Ausmaß abzunehmen. Auch solche Stakeholder Commitments haben dann einen direkten Einfluss auf die Entscheidungsfindung. Jeder Stakeholder vergrößert den Entscheidungsraum, denn „each stakeholder who comes on board brings both new means and new goals“. 363 Gleichzeitig findet aber durch die Zusammenführung von Commitments auch ein Konvergieren in Richtung auf eine Entscheidung statt. Sobald eine Entscheidung für das weitere Vorgehen getroffen ist, beginnt die Umsetzung dieser Entscheidung. Diese Umsetzung ist direkt vom Handeln der Betroffenen abhängig („Pilotin-the-plane“). Zu jeder Zeit können überraschende Ereignisse eintreten, die nicht vorherzusehen waren. In diesen Fällen muss im Sinne des „Lemonade“-Prinzips die Überraschung möglichst vorteilhaft genutzt werden. Dies kann dazu führen, dass auch die initiale Entscheidung überdacht werden muss. So kann es dazu kommen, dass erneut und unter Berücksichti-
362 363
Vgl. Wiltbank et al. (2008), S. 5. Sarasvathy (2007), S. 95.
51
gung der gemachten Erkenntnisse in den Entscheidungsfindungsprozess eingetreten wird. Es kann auch ausreichen, anstelle einer grundsätzlich neuen Entscheidung lediglich den Implementierungsweg anzupassen. Auf diese Weise kommt es nicht nur im Rahmen der Entscheidungsfindung zu einem iterativen Prozess. Iterationen kann es auch während der Entscheidungsimplementierung und übergreifend zwischen Entscheidungsfindung und Entscheidungsimplementierung geben. 2.2.5 Rahmenbedingungen zur Anwendung von Effectuation Effectuation und Causation schließen sich nicht notwendigerweise gegenseitig aus. 364 Vielmehr hat das situative Umfeld einen entscheidenden Einfluss auf die Vorteilhaftigkeit eines Causation- oder Effectuation-Vorgehens. Die Rahmenbedingungen für die Anwendung von Effectuation werden im Folgenden analysiert. Der „effectual problem space“ 365 , also das Bündel von Rahmenbedingungen unter denen Effectuation-Prozesse sinnvoll angewendet werden können, wird von Sarasvathy entlang von drei Dimensionen beschrieben: „1. Knightian uncertainty – it is impossible to calculate probabilities for future consequences 2. Goal ambiguity – preferences are neither given nor well ordered 3. Isotropy – it is not clear what elements of the environment to pay attention to and what to ignore.” 366 Effectuation-Prozessen wird demnach insbesondere dann ein hoher Nutzen zugeordnet, wenn eine zu treffende Entscheidung durch eine hohe Unbestimmtheit gekennzeichnet ist. Diese Unbestimmtheit oder Unsicherheit kann als eine übergeordnete Dimension betrachtet werden und schließt die drei oben genannten Arten von Rahmenbedingungen mit ein. Effectuation ist insbesondere dann vorteilhaft, wenn es im Sinne von Knight unmöglich ist, Eintrittswahrscheinlichkeiten für zukünftige Ereignisse anzugeben, weil der Entscheidungsraum nicht als gegeben oder invariant angenommen werden kann. Zusätzlich sind in solchen Situationen notwendigerweise häufig die Präferenzen und Ziele unklar bzw. variabel und nicht von vornherein detailliert spezifiziert. Direkt mit der Höhe der Unsicherheit hängt auch die dritte Rahmenbedingung zusammen. Liegt eine hohe Unsicherheit vor, ist nicht von Beginn an klar, welche Elemente der Umwelt besonders berücksichtigt werden müssen und welche nicht. Insgesamt ergeben sich aus diesen Rahmenbedingungen unmittelbar auch Schlussfolgerungen in Bezug auf das, was Effectuation ist und das, was es nicht ist.
364 365 366
52
Vgl. Sarasvathy (2007), S. 22. Sarasvathy (2007), S. 68. Sarasvathy (2007), S. 68.
So ist Effectuation x
„non-predictive – i.e. not taking the event space for probabilities as given and immutable;
x
non-teleological – i.e. not taking preferences and goals as pre-existent or unchangeable; and,
x
non-adaptive – i.e. not taking the environment as exogenous or as something to respond to and fit with.” 367
Unter den gegebenen Rahmenbedingungen, für die Effectuation vorteilhaft ist, wird also deutlich, dass ein Vorgehen erforderlich ist, bei dem das Schaffen von etwas Neuem im Vordergrund steht: Effectuation „is a logic of design and not one of choice.“ 368 Ein Vorgehen im Sinne von Effectuation eignet sich also insbesondere dann, wenn die Prognostizierbarkeit zukünftiger Ereignisse gering ist, gleichzeitig aber eine verhältnismäßig hohe Kontrollierbarkeit besteht, indem man etwa als Vorreiter einen neuen Markt aktiv entwickelt. 369 Read et al. grenzen diese „Effectual strategy“ von drei anderen möglichen Problemlösungsstrategien ab. 370
Hoch Risikoaverse Strategie
Wissenschaftliche Strategie
Adaptive Strategie
Effectual Strategie
Prognostizierbarkeit der Zukunft
Gering Gering
Hoch
Kontrollierbarkeit der Zukunft
Abbildung 7: Typen von Problemlösungsstrategien mit unterschiedlichen Annahmen an die Zukunft Quelle: In Anlehnung an Read et al. (2008), S. 5
367 368 369 370
Sarasvathy (2007), S. 70. Sarasvathy (2007), S. 70. Vgl. Read et al. (2008), S. 5. Vgl. Read et al. (2008), S. 5; Sarasvathy et al. (forthcoming).
53
So besteht eine zweite Möglichkeit, wenn die Zukunft nicht ohne weiteres prognostiziert werden kann, darin, sich dem wechselnden Umfeld möglichst gut anzupassen („adaptive strategies“). Wenn die Zukunft als gut prognostizierbar angenommen werden kann, wird entweder versucht, negative Ereignisse zu vermeiden, also risiko-avers zu handeln („risk-averse strategies“) oder aber die gute Voraussagefähigkeit aktiv auszunutzen. Dies kann erfolgen, wenn die Zukunft gleichzeitig kontrollierbar ist, bspw. da das Wirtschaftssubjekt alleine über die relevanten Technologiekompetenzen verfügt („scientific strategies“). Abbildung 7 stellt die Typen unterschiedlicher Problemlösungsstrategien zusammenfassend in einer Matrix dar.
54
3 Konzeptioneller Bezugsrahmen und Hypothesenbildung Nachdem im zweiten Kapitel die Grundlagen im Bereich von F&E-Projekten und der Effectuation-Logik losgelöst voneinander gelegt wurden, besteht das Ziel von Kapitel 3 darin, eine Verbindung zwischen beiden Bereichen herzustellen. Es soll eine Effectuation-Logik für den speziellen Bereich der F&E-Projekte entwickelt werden, die als konzeptioneller Bezugsrahmen in dieser Untersuchung dient. Dafür muss zunächst aufgezeigt werden, dass Effectuation grundsätzlich ein sinnvoller konzeptioneller Bezugsrahmen im Kontext von F&E-Projekten ist (Abschnitt 3.1). Anschließend werden die Grenzen der Anwendbarkeit von Effectuation analysiert. In diesem Zusammenhang erfolgt eine detaillierte Auseinandersetzung mit dem in einem F&E-Projekt involvierten Unsicherheits- und Innovationsgrad, da von diesen eine erhebliche Wirkung auf die Vorteilhaftigkeit von Effectuation erwartet wird. Entsprechend muss der in Kapitel 2 bereits abgegrenzte Gegenpol 371 zu Effectuation, nämlich Causation ebenso in die Betrachtung einbezogen werden (Abschnitt 3.2). Im Anschluss daran findet dann eine integrative Betrachtung von Effectuation bzw. Causation und F&E statt (Abschnitt 3.3). Dafür werden die typischen Charakteristika von Effectuation- und Causation-Prozessen im Rahmen von F&E-Projekten entlang der bereits in Abschnitt 2.2.3 eingeführten fünf Prinzipien von Effectuation hergeleitet. Auf dieser Basis werden die Wirkungszusammenhänge auf den Erfolg eines F&E-Projektes je Prinzip untersucht und so Forschungshypothesen abgeleitet. Abschließend wird in diesem Kapitel das Forschungsmodell hergeleitet (Abschnitt 3.4). 3.1
Eignung von Effectuation als Bezugsrahmen für F&E-Projekte
Um die Eignung von Effectuation als konzeptionellem Bezugsrahmen für die Untersuchung von F&E-Projekten zu prüfen, wird Effectuation zunächst in den Kontext der Entscheidungstheorie eingeordnet (Abschnitt 3.1.1). Das Ziel ist dabei, Effectuation als Alternative zu bestehenden Ansätzen zu positionieren und den Mehrwert von Effectuation als Entscheidungslogik im speziellen Umfeld von F&E-Projekten aufzuzeigen. Dies wird anschließend vertieft, indem gezeigt wird, dass Effectuation nicht auf das Entrepreneurumfeld in jungen Unternehmen beschränkt ist, sondern vielmehr als allgemeine Entscheidungslogik unter Unsicherheit auch im Kontext von F&E-Projekten nutzbar ist (Abschnitt 3.1.2). Abschließend wird in diesem Abschnitt geprüft, ob sich Effectuation auch als theoretische Grundlage im Rahmen dieser Untersuchung eignet und so als konzeptionelle Basis zur Ableitung der relevanten Forschungshypothesen dienen kann (Abschnitt 3.1.3).
371
Zur klaren konzeptionellen Abgrenzung wird hier von einem Gegenpol gesprochen. Tatsächlich ist der Übergang zwischen Effectuation und Causation fließend und gleichzeitig können Effectuationund Causation-Elemente angewendet werden. Vgl. dazu Sarasvathy (2007), S. 22 und die Operationalisierung im Rahmen dieser Untersuchung in Abschnitt 4.1.3 auf S. 107ff.
55
3.1.1
Einordnung von Effectuation in den Kontext F&E-bezogener Entscheidungsansätze
„Effectuation is a general theory of decision making in uncertain situations.“ 372 Noch präziser formuliert handelt es sich bei Effectuation um eine „alternative logic of decision making under uncertainty that […] clearly contrasts with mainstream models based on a causal logic.“ 373 Ziel dieses Abschnitts ist es, Effectuation in den Kontext der bestehenden wissenschaftlichen Forschung im Bereich der Entscheidungstheorie einzuordnen, nachdem in Abschnitt 2.2.2.3 bereits der effectuationbezogene Umgang mit Entscheidungsproblemen beschrieben wurde. Die Entscheidungsfindung beinhaltet generell die Auswahl einer Alternative aus einer Reihe von konkurrierenden Optionen. 374 Dabei kann sich der Entscheider in unterschiedlichen Situationen befinden. So kann in drei grundsätzlich unterschiedlichen Kontexten das Treffen einer Entscheidung erforderlich sein. Zum einen gibt es Situationen, die durch Sicherheit oder nahezu bestehende Sicherheit gekennzeichnet sind. Unter solchen Umständen verfügt der Entscheider über vollständige Informationen in Bezug auf die Konsequenzen für jede Alternative. 375 Sichere Situationen gibt es im Umfeld von jungen Unternehmen und F&E-Projekten äußerst selten. Außerdem gibt es Umstände, die durch Risiken gekennzeichnet sind. In diesen Situationen besteht zwar keine Sicherheit in Bezug auf die Konsequenzen unterschiedlicher Optionen. 376 Allerdings können Eintrittswahrscheinlichkeiten unterschiedlichen Szenarien zugeordnet werden, so dass Erwartungswerte berechenbar sind. Auf dieser Basis ist ein Vergleich unterschiedlicher Optionen möglich. Viele, vielleicht sogar die meisten Entscheidungsprobleme im Umfeld von jungen Unternehmen und F&E-Projekten werden in der Praxis in der Annahme gelöst, Eintrittswahrscheinlichkeiten für unterschiedliche Optionen bestimmen zu können, obwohl tatsächlich in den meisten Fällen der Entscheidungsfindungsprozess durch ein Umfeld von Unsicherheit gekennzeichnet ist. 377 Vollständig unsichere Situationen sind weder deterministisch noch können im Sinne der Wahrscheinlichkeitsrechnung Eintrittswahrscheinlichkeiten bestimmten Optionen zugeordnet werden. 378 Entsprechend der unterschiedlichen Umstände, unter denen Entscheidungen zu treffen sind, wurden immer wieder unterschiedliche Ansätze zur Unterstützung von Entscheidungsprozessen entwickelt. Im Zusammenhang von F&E-Entscheidungen und der Auswahl geeigneter F&E-Projekte sind drei Ansätze der Entscheidungsfindung in der Praxis und der wissenschaftlichen Forschung besonders häufig anzutreffen. 379 Dies sind der „rational-analytical“, der „intuitive-emotional“ und der „behavioural-political“ Ansatz. 380 Im Folgenden werden diese Ansätze kurz be-
372 373 374 375 376 377 378 379 380
56
Sarasvathy (2007), S. 227. Sarasvathy (2007), S. 4. Vgl. u.a. Anderson (1977), S. 9.; Ilori/Irefin (1997), S. 153. Vgl. Ilori/Irefin (1997), S. 153. Vgl. Ilori/Irefin (1997), S. 153. Vgl. Zalton et al. (1973), S. 53; Ilori/Irefin (1997), S. 156. Vgl. Zalton et al. (1973), S. 53. Vgl. Ilori/Irefin (1997), S. 154. Vgl. Jauch/Glueck (1988), S. 3.
schrieben und die Möglichkeiten der Anwendung im Bereich von F&E-Projekten durch das Aufzeigen von Vor- und Nachteilen diskutiert. Unter „rational-analytical“ wird ein quantitativer Ansatz zur Entscheidungsfindung verstanden. Bei diesem Ansatz muss das Entscheidungsproblem klar definiert und die F&E-Ziele detailliert werden. 381 Dieser Schritt ist in der Regel mit einem erheblichen Aufwand verbunden 382 und erfordert die Einbeziehung unterschiedlicher Unternehmenseinheiten. Wenn das Problem adäquat definiert ist, kann ein Modell auf Basis von verfügbaren Daten zur Simulation und zum Vergleich unterschiedlicher Optionen entwickelt werden. 383 Der präzisen Aufbereitung von Informationen und Daten als Input für das Modell kommt dabei eine entscheidende Rolle zu 384 , weil die Güte des Modells letztlich direkt damit zusammenhängt. Solche quantitativen Modelle finden häufig Anwendung, wenn das Entscheidungsproblem komplex und von verschiedenen, nicht einfach zu überblickenden Einflussgrößen abhängig ist. Außerdem werden solche Modelle häufig aufgebaut, wenn die Entscheidung große finanzielle Auswirkungen hat und der Entscheidungsträger sicher sein möchte, alles zu berücksichtigen. 385 Allerdings kann ein solches Modell nur dann sinnvoll Anwendung finden, wenn es sich um eine zu treffende Entscheidung unter Sicherheit oder nahezu Sicherheit handelt oder aber Wahrscheinlichkeiten den unterschiedlichen Szenarien zugeordnet werden können. Ansonsten können die Ergebnisse eines Modells in hohem Maße irreführend sein. 386 Als weitere Nachteile eines solchen Vorgehens werden häufig die hohen, mit der Informationsbeschaffung verbundenen Kosten genannt. 387 Außerdem können bei einem solchen Vorgehen mögliche Alternativen leicht übersehen werden. 388 Darüber hinaus besteht immer die Gefahr, dass Optionen nicht objektiv bewertet, sondern Inputfaktoren so geschätzt werden, dass das Modell eine vorgefertigte Meinung des Entscheidungsträgers nur unterstützt aber nicht grundlegend bildet. 389 Als nächster Ansatz wird das „intuitive-emotional“-Vorgehen 390 erläutert, das auch als qualitatives Verfahren bezeichnet wird. Entscheidungsträger verlassen sich dabei eher auf Erfahrungen und Gewohnheiten 391 , sowie das Bauchgefühl oder ihren Instinkt.392 Ausgehend von Zielen und Erwartungen an ein F&E-Projekt werden Entscheidungen durch die intuitive Beur-
381 382 383 384 385 386 387 388 389
390 391 392
Vgl. Schoemaker/Russo (1993), S. 23ff. Vgl. Anderson et al. (1991), S. 1ff. Vgl. Schoemaker (1993), S. 5. Vgl. Ilori/Irefin (1997), S. 155. Vgl. Ilori/Irefin (1997), S. 154. Vgl. Tritle et al. (2000), S. 47. Vgl. Ilori/Irefin (1997), S. 155. Vgl. Ilori/Irefin (1997), S. 155. „The future consequences are often quite obscure, and estimating them is confounded by inadequacies of information and biases introduced by desires, prejudices, and the limitations of experience.“ (March (2006), S. 203). Vgl. Jauch/Glueck (1988), S. 3. Vgl. Anderson et al. (1991), S. 1ff.; Covin et al. (2001), S. 52. Vgl. Schoemaker/Russo (1993), S. 10; Ilori/Irefin (1997), S. 155.
57
teilung des Entscheidungsträgers getroffen. 393 Befürworter dieses Vorgehens deuten darauf hin, dass in vielen Fällen gute Ergebnisse mit einem solchen Ansatz erzielt werden.394 Allerdings sind auf diese Weise getroffene Entscheidungen, insbesondere wenn es sich um komplexe Probleme handelt, in der Regel schwer zu kommunizieren, weil ihnen jegliche quantitative und damit zumindest scheinbar objektive Basis fehlt. 395 Das Ergebnis der Entscheidung ist letztlich stark abhängig von der persönlichen Einschätzung des Entscheidungsträgers. Ebenso bleiben die Entscheidungskriterien und die dabei intuitiv gewählte Gewichtung häufig unklar. Außerdem kann mit einem solchen Vorgehen nicht auf potenzielle Probleme einer F&E-Option aufmerksam gemacht werden. 396 Der dritte Ansatz, der „political-behavioural“ genannt wird 397 , berücksichtigt, dass in realen Entscheidungssituationen Aspekte berücksichtigt werden müssen, die weit über das eigentliche Entscheidungsproblem hinausgehen. So kommt externer Druck von allen betroffenen Stakeholdern, die durch ihre Erwartungshaltung einen direkten oder indirekten Einfluss auf den Entscheider ausüben können. 398 Der „political-behavioural“-Ansatz berücksichtigt, dass Entscheidungen häufig Kompromisslösungen zwischen unterschiedlichen Lagern innerhalb einer Organisation sind. Entsprechend werden die Ziele unterschiedlicher Interessenvertreter zur Grundlage für die Entscheidung. Dieser dritte Ansatz hat allerdings den Nachteil, dass er eher beobachtender Natur ist, als ein konkreter Vorschlag wie eine Entscheidung getroffen werden kann. Als Entscheidungsunterstützung im eigentlichen Sinne ist er daher ungeeignet. Vielmehr regt er dazu an, politische Konstellationen innerhalb einer Organisation und externe Einflussnahmen offen zu legen, um durch diese in der Entscheidungsfindung nicht fehlgeleitet zu werden. Alle drei hier erläuterten Ansätze sind eindeutig einem klassischen Vorgehen nach Causation zuzuordnen. Egal wie die Auswahl einer Option im Detail erfolgt, setzen alle drei Ansätze die Existenz klar definierter Ziele voraus. In jedem Fall wird versucht, zukünftige Gewinne abzuschätzen und die Optionen auf dieser Basis zu vergleichen. Dies passiert implizit durch ein intuitiv geleitetes Vorgehen oder explizit durch die Berechnung von Business Cases. Alle Ansätze haben gerade dadurch bedingt die oben diskutierten Schwachstellen, dass sie für den Einsatz bei echter Unsicherheit nur äußerst bedingt geeignet sind. 399 In Situationen, in denen eine echte Unsicherheit im Sinne von Knight vorliegt400 und somit eine Vorhersage nicht oder
393 394
395 396 397 398 399 400
58
Vgl. Covin et al. (2001), S. 52. „Intuition can sometimes be brilliant. When based on extensive learning from past experience, it may truly reflect automated expertise“ (Schoemaker/Russo (1993), S. 10). Vgl. auch Cosmides/Tooby (1996), S. 69; Ilori/Irefin (1997), S. 155f. Vgl. Schoemaker/Russo (1993), S. 10. Vgl. Jauch/Glueck (1988), S. 3. Vgl. Jauch/Glueck (1988), S. 3. Vgl. Ilori/Irefin (1997), S. 156. Vgl. zu den Arten der Unsicherheit Abschnitt 2.1.2.2.1 auf S. 23ff. Vgl. Knight (1921) und die diesbzgl. Ausführungen in Abschnitt 2.1.2.2.1 auf S. 23ff.
nur noch eingeschränkt möglich ist, sollten daher Entscheidungsprozesse besser geeignet sein, die keine Vorhersage benötigen 401 , also etwa Techniken einer „non-predictive control.“ 402 Hier setzt Effectuation als Alternative zu den konventionellen Entscheidungsinstrumenten an. Effectuation wählt einen grundlegend anderen Weg 403 , der die mehr oder weniger genaue Abschätzung zukünftiger Returns und somit auch die komplizierte Anwendung qualitativer und quantitativer Verfahren und Tools überflüssig macht. Das Hauptkriterium bei der Auswahl einer Option nach Effectuation sind die verfügbaren Ressourcen und das, was der Entscheider gegebenenfalls zu verlieren bereit ist.404 In diesem Abschnitt hat sich gezeigt, dass bestehende Ansätze der Entscheidungstheorie im Umfeld von F&E-Projekten grundlegend anders, nämlich eher vorhersagefokussiert vorgehen als Effectuation, wo die Sicherstellung von Kontrolle über zukünftige Entwicklungen im Vordergrund steht. Außerdem wird deutlich, dass Effectuation eine potenzielle Alternative darstellen kann, um die grundlegenden Schwachstellen der konventionellen Ansätze zu überwinden. Im folgenden Abschnitt wird dieser Aspekt nun analysiert. Ziel ist dabei, zu diskutieren ob Effectuation ein nutzbarer Ansatz im Rahmen von F&E-Projekten ist. 3.1.2
Nutzbarkeit von Effectuation als Bezugsrahmen für F&E-Projekte
Die Effectuation-Logik wurde zwar ursprünglich aus der Beobachtung von erfahrenen Unternehmensgründern abgeleitet, ist grundsätzlich aber nicht auf das Umfeld junger Unternehmen beschränkt. Vielmehr stellt Sarasvathy folgendes fest: „[...] the new-venture setting can be generalized as a truly uncertain situation.“ 405 Damit ist Effectuation für den hier untersuchten Forschungsgegenstand von F&E-Projekten interessant, weil solche Projekte häufig Entscheidungen und die Auswahl zwischen mehreren Optionen unter Unsicherheit beinhalten: „Building abstract ideas into concrete businesses is extremely difficult because the entire process from concept to commercialization is riddled with unknowns and unknowables.“ 406 Jede Art von Entscheidung, die sich auf ein neues, unbestimmtes Umfeld bezieht, kann in einem Effectuation-Prozess als Alternative zu einem Causation-Prozess getroffen werden. Die Art der zu treffenden Entscheidung kann dabei auf unterschiedlichen Ebenen angesiedelt sein: Sowohl Individuen können Effectuation-Prozesse nutzen, als auch Unternehmen, Industrien oder gar Volkswirtschaften. 407 Als Beispiele seien hier vier typische Fragestellungen angeführt: 408
401 402 403 404
405 406 407 408
Vgl. March (2006), S. 211; Wiltbank et al. (2008), S. 4. Sarasvathy (2007), S. 12. Vgl. Sarasvathy (2007), S. 4. Vgl. Sarasvathy (2007), S. 21; vgl. zur detaillierteren Darstellung der Entscheidungsprozesse bei Effectuation Kapitel 2.2.2.3. Sarasvathy (2007), S. 227. Sharma (1999), S. 148. Vgl. Sarasvathy (2001a), S. 243. Vgl. Sarasvathy (2001a), S. 244.
59
x
Wie sollte der Preis eines Produktes festgelegt werden, das es bislang noch nicht gegeben hat? Oder besser, dessen Markt es im Extremfall noch nicht gegeben hat?
x
Welche Mitarbeiter brauchen wir für eine Organisation, die neu ist? Wie können wir fähige Menschen dazu bewegen, sich für diese unbestimmte, neue Organisation zu bewerben?
x
Wie bewerten wir Unternehmen in Industrien, die es noch gar nicht gibt oder die es bis vor kurzem noch nicht gab (z.B. Firmen, die sich mit der Nutzung regenerativer Energien oder der Entwicklung neuer Antriebstechnologien im Automobilbau beschäftigen)?
x
Auf volkswirtschaftlicher Ebene: Wie transformieren wir eine kommunistische in eine kapitalistische Volkswirtschaft? Oder, wie sollte eine postkapitalistische Gesellschaft aussehen?
Es ist davon auszugehen, dass insbesondere getrieben durch kürzere Innovationszyklen, zukünftig immer mehr Menschen regelmäßig mit derartigen Fragestellungen beschäftigt sind. Auch F&E-Projekte in jungen und etablierten Unternehmen sind in vielerlei Hinsicht durch die oben beschriebenen oder durch vergleichbare Situationen gekennzeichnet. Somit stellen F&E-Projekte einen gut geeigneten Untersuchungsgegenstand zur Beurteilung des Einflusses von vorhersage- und kontrollbasierten Entscheidungsstrategien dar. Einerseits eignet sich Effectuation unmittelbar als Bezugsrahmen für F&E-Projekte, da solche Projekte ein zentraler Bestandteil einer großen Anzahl junger Unternehmen, also dem ursprünglichen Bezugspunkt von Effectuation, sind. 409 Andererseits eignet sich Effectuation, weil viele F&E-Projekte durch eine hohe Unsicherheit gekennzeichnet sind. F&E-Projekte sind nämlich typischerweise „non-repetitive and characterized by unique requirements and processes. [...] The outcomes of R&D projects are, by definition, difficult to predict [...].“ 410 Entsprechend fasst Sarasvathy zusammen, dass „virtually every area in business management research offers research possibilities for tests and applications of an effectual logic [...], especially topics related to new product [...] development.“ 411 3.1.3
Eignung von Effectuation als theoretische Grundlage in dieser Untersuchung
Nachdem in den vorangegangenen Abschnitten beschrieben wurde, warum eine Untersuchung von Effectuation im Kontext von F&E inhaltlich als besonders interessant erscheint, soll nun noch geprüft werden, inwieweit sich Effectuation auch methodisch beim Vorgehen in dieser Untersuchung eignet. Insbesondere gilt es dabei zu analysieren, ob Effectuation einen konzeptionellen Bezugsrahmen darstellt, aus dem direkt die relevanten Forschungshypothesen abgeleitet werden können. Nach gängiger Forschungspraxis werden Hypothesen aus einer zugrundeliegenden Theorie oder zumindest aus einem theorieähnlichen, in sich konsistenten Bezugs-
409
410 411
60
Häufig sind junge Unternehmen durch einen überproportionalen Anteil an F&E gekennzeichnet (vgl. Pleschak/Werner (1998), S. 1). Pinto/Covin (1989), S. 54f. Sarasvathy (2007), S. 269.
rahmen abgeleitet. 412 Entsprechend ist zu hinterfragen, ob Effectuation einen solchen konsistenten Bezugsrahmen darstellt. Die Frage, was genau eine Theorie kennzeichnet, ist in der Literatur nicht abschließend geklärt und sehr umstritten. Grundsätzlich ist eine Theorie ein „Konzept zur Beschreibung der Welt.“ 413 Effectuation wurde von Sarasvathy nach dem Vorbild der Grounded Theory-Methode entwickelt. Grounded Theory bezeichnet einen Ansatz zur Theorieentwicklung, der auf der Ableitung von Thesen auf Basis einer Analyse von Daten gegründet ist. 414 Dabei werden sukzessiv gezielt Datenerhebungen durchgeführt und im Verlauf des Prozesses vorläufige Konzepte entwickelt und schrittweise immer weiter präzisiert. Dieses iterative Vorgehen erfordert eine Abwechslung zwischen Datenerhebung und Datenanalyse, bis schließlich weitere Datenerhebungen nicht mehr zu einer Verfeinerung des Konzeptes führen und somit eine datenbasierte Theorie (Grounded Theory) Gestalt annimmt. 415 Abschließend muss diese Theorie dann in einem anderen Kontext, also unter anderen Rahmenbedingungen überprüft werden. 416 Dieses Vorgehen ist für den Fall der Entwicklung von Effectuation übersichtsartig in Abbildung 8 dargestellt.
Sammlung und Beschreibung von empirischen Daten
Hypothesenbildung
Beobachtung von erfahrenen Entrepreneuren und Auswertung der Transkripte („think-aloud verbal protocols“) (vgl. zum Vorgehen u.a. Sarasvathy (2007), S. 25ff.)
„After I collected the first three protocols [...] I began to make specific predictions [...]. I began to develop hypotheses to test with my data.“ (Sarasvathy (2007), S. 29)
Theoriebildung
Fünf Prinzipien von Effectuation (vgl. Sarasvathy (2007), S. 70ff.) setzen Hypothesen miteinander in Beziehung und beschreiben das Phänomen
Überprüfung und Anwendung in anderen Bereichen Überprüfung durch Versuch der Falsifizierung der Theorie erfordert umfangreiche (insbesondere großzahlige) Überprüfung und Test in angrenzenden Forschungsbereichen
Abbildung 8: Vorgehen bei der Entwicklung einer allgemeinen Effectuation-Theorie Quelle: Eigene Darstellung
Um kritisch zu überprüfen, ob ein in diesem Prozess entwickeltes Konzept tatsächlich als Theorie bezeichnet werden kann, werden in der Literatur einige Gütekriterien angegeben.417
412
413 414 415 416 417
Der Bezug zu einem übergeordneten theoretischen Konzept stellt eine nomologische Validität der Untersuchung sicher. Vgl. Homburg/Giering (1996), S. 7. Sanders/Kianty (2006), S. 10. Vgl. stellvertretend Corbin/Strauss (1990); Strübing (2004). Vgl. Corbin/Strauss (1990), S. 6. Vgl. Corbin/Strauss (1990), S. 11f. Vgl. u.a. House (1963); Corbin/Strauss (1990).
61
So muss eine Theorie explizit, widerspruchslos, gültig, brauchbar, überprüfbar und sparsam sein und sich über einen breiten Geltungsbereich erstrecken. Effectuation stellt ein zu Causation abgegrenztes Konzept mit klar definierten und abgrenzbaren Einzelprinzipien dar, so dass von einer Explizitheit ausgegangen werden kann. Außerdem zeichnet sich Effectuation durch eine Widerspruchslosigkeit aus. Die fünf Prinzipien sind in sich konsistent und frei von „internal contradictions among propositions.“ 418 Ebenso ist eine Tauglichkeit als Erklärungsinstrument und damit eine Gültigkeit der Aussagen zumindest teilweise gesichert, da Effectuation aus Beobachtungen von Vorgehensweisen im Gründungsprozess junger Unternehmen hergeleitet wurde. Ähnlich wird eine Tauglichkeit für die Anwendung in der Praxis gefordert, nämlich eine Brauchbarkeit zur Lösung relevanter Probleme. Der Umgang mit Entscheidungssituationen unter Unsicherheit ist eine sehr relevante Problemstellung in der Managementpraxis, die von Effectuation adressiert wird, so dass von einer großen Brauchbarkeit ausgegangen werden kann. Auch besteht, wie häufig gefordert, eine grundsätzliche Überprüfbarkeit: „For a theory to provide research direction it must advance propositions which are testable or capable of rejection.“ 419 In dieser Arbeit werden, wie an späterer Stelle beschrieben, einzelne Prinzipien in Messmodelle übertragen und so empirisch testbar. 420 Zusätzlich sollte sich eine Theorie durch Sparsamkeit auszeichnen, d.h. eine möglichst große Menge an Wissen systematisiert und abstrahiert darstellen. Effectuation lässt sich in den fünf zentralen Prinzipien beschreiben und kann daher als sparsam im Sinne des Theoriebegriffs bezeichnet werden. Um darüber hinaus eine qualitativ hochwertige Theorie darzustellen, wird gefordert, dass der Geltungsbereich nicht auf einen Teilbereich der wissenschaftlichen Forschung beschränkt bleibt. Bislang wird Effectuation vor allem im Kontext junger Wachstumsunternehmen diskutiert. Eine stärkere Abstraktion von diesem Untersuchungsgegenstand könnte helfen, dass Effectuation als qualitativ hochwertige Theorie anerkannt wird. Insgesamt kann also Effectuation mit Einschränkung als Theorie bezeichnet werden.421 Kritiker könnten allerdings drei Punkte gegen die Verwendung des Theoriebegriffs im Zusammenhang mit Effectuation anführen. Zum einen steht eine großzahlige Überprüfung mittels reliabler und valider Messmodelle bislang aus (Überprüfbarkeit, Gültigkeit). 422 Zum anderen ist eine Übertragung in einen breiteren Kontext bislang nur sehr eingeschränkt erfolgt (Geltungsbereich). 423 Dies ist zumindest erforderlich, wenn Effectuation als eine allgemeine Ent-
418 419 420 421
422 423
62
House (1963), S. 8. House (1963), S. 9. Vgl. Kapitel 4 auf S. 98ff. Sarasvathy selber spricht bei Effectuation gerne von einer Logik „because it is a coherent system of principles that are inherently interrelated, internally consistent and collectively independent (i.e. do not rely on ad hoc outside assumptions)“ (Sarasvathy et al. (2008), S. 345). Sie meint mit der Bezeichnung Logik ein Konzept das noch stärker als eine Theorie ist. „[…] effectuation is not merely a theory, i.e. a statement about the truth or otherwise of a phenomenon in the world. It is also an internally consistent set of ideas that forms a clear basis for action upon the world“ (Sarasvathy et al. (2008), S. 345). Vgl. Diskussion in Abschnitt 1.2 auf S. 3ff. Vgl. zum Fokus auf junge Wachstumsunternehmen Abschnitt 1.2 auf S. 3ff.
scheidungstheorie unter Unsicherheit Anerkennung finden soll. Als konzeptionelle Grundlage eignet sich Effectuation allerdings dennoch sehr gut. Vielmehr ist es notwendig, Effectuation als ein geschlossenes Konzept zu verstehen, auf dessen Basis Hypothesen abgeleitet werden können, um eine großzahlige und auf anerkannten statistischen Verfahren basierte empirische Überprüfung zu ermöglichen. 424 Letztlich kann Effectuation nur so zu dem werden, was es nach Sarasvathy sein soll, nämlich eine breit anerkannte „general theory of decision making in uncertain situations.“ 425 3.2
Unsicherheit und Innovationsgrad als Grenzen der Eignung von Effectuation
Im vorangegangenen Abschnitt wurde gezeigt, dass Effectuation im Kontext von F&EProjekten grundsätzlich als konzeptioneller Bezugsrahmen anwendbar ist. Zwei weitere wichtige Schritte stehen jetzt noch aus. Nachdem mehrfach angesprochen wurde, dass Effectuation vor allem als Entscheidungslogik unter Unsicherheit gilt, muss zunächst präzisiert werden, welche Grenzen es bei der Anwendbarkeit von Effectuation gibt. Dies ist Gegenstand dieses Abschnitts, bevor dann in Abschnitt 3.3 eine Ausgestaltung und Abgrenzung der Eigenschaften von F&E-Projekten im Sinne von Effectuation und Causation stattfinden kann. Mögliche Grenzen für die Anwendung von Effectuation werden an dieser Stelle aus zwei Gründen analysiert. Erstens gibt es aus der bestehenden Effectuation-Forschung bereits die in Abschnitt 2.2.5 beschriebenen, wenn auch nicht großzahlig empirisch abgesicherten Hinweise in Bezug auf Rahmenbedingungen zur Anwendbarkeit von Effectuation. Den unterschiedlichen Rahmenbedingungen gemeinsam ist der Begriff der Unsicherheit. Eine konzeptionelle, theoriebasierte Herleitung der Anwendungsgrenzen von Effectuation findet auf dieser Grundlage in Abschnitt 3.2.1 statt. Zweitens erkennt die F&E-Forschung zunehmend, dass die in einem Projekt involvierte Höhe von Unsicherheit und Innovationsgrad ein wesentlicher Moderator 426 ist. Entsprechend kann vermutet werden, dass Effectuation nicht für alle Projekte sinnvoll anwendbar ist. Eine Herleitung der Grenzen oder Rahmenbedingungen von Effectuation im F&E-Kontext findet in Abschnitt 3.2.2 daher mit Hilfe der bestehenden und angrenzenden Literatur im Umfeld des F&E-Projektmanagements statt. 3.2.1
Konzeptionelle Herleitung der Wirkungszusammenhänge
Die konzeptionelle Arbeit von Sarasvathy lässt einen direkten Einfluss von moderierenden Größen auf die Vorteilhaftigkeit von Effectuation und Causation erwarten: „the same person can use both causal and effectual reasoning at different times depending on what the circumstances call for.“ 427 Entsprechend kann weder Effectuation noch Causation als grundsätz-
424
425 426
427
Die vorliegende Untersuchung hat somit weniger einen konfirmatorischen, theoriebestätigenden, sondern eher einen explorativen, theoriebildenden Charakter. Sarasvathy (2007), S. 227. Unter einem Moderator versteht man eine Größe, die die Stärke der Beziehung zwischen einer exogenen und einer endogenen Variable beeinflusst (vgl. Baron/Kenny (1986), S. 1173ff.; Huber et al. (2006), S. 697). Sarasvathy (2007), S. 71.
63
lich überlegenes Vorgehen betrachtet werden. 428 Vielmehr kommt es auf den Kontext und die Rahmenbedingungen, also die moderierenden Effekte an, ob das eine oder das andere Vorgehen vorzuziehen ist. So werden explizit drei wesentliche Rahmenbedingungen genannt, nämlich „Knightian uncertainty“, „goal ambiguity“ und „isotropy“. 429 Diese drei Bedingungen hängen alle unmittelbar mit der Unsicherheit in Bezug auf zukünftige Entwicklungen zusammen. Entsprechend relevant ist die Höhe der Ausprägung des Innovationsgrades als die wesentliche Determinante von Unsicherheit im Kontext von F&E-Projekten. 430 Effectuation ist eine Konzeption, die speziell auf die Entscheidungsfindung in unsicheren Situationen zugeschnitten ist. Bei einer hohen Unsicherheit lassen sich zukünftige Entwicklungen nicht mehr sinnvoll prognostizieren. So kann Kontrolle über zukünftige Entwicklungen nicht mehr dadurch gewonnen werden, dass Trends möglichst gut vorhergesagt und dann bestmöglich ausgenutzt werden. Vielmehr kann Kontrolle gewonnen werden, indem die Zukunft aktiv mitgestaltet wird. Causation hingegen lässt Vorteile erwarten, wenn zukünftige Entwicklungen gut einschätzbar und prognostizierbar sind. Dann lassen sich über Marktanalysen und anschließende Business Cases sinnvolle Aussagen in Bezug auf die Bedeutung eines F&E-Projektes machen. Die Entscheidung zur Durchführung eines F&E-Projektes kann dann beispielsweise anhand von definierten finanziellen Kenngrößen getroffen werden. Insgesamt wird also angenommen, dass der Neuheitsgrad in Bezug auf Technologie und Markt einen wesentlichen Einfluss auf die Vorteilhaftigkeit von Effectuation hat. Dieser Zusammenhang wird in der folgenden Abbildung verdeutlicht.
Hoch Effectuation
Technologieneuheit
Gering Gering
Hoch Marktneuheit
Abbildung 9: Anwendungsgebiet von Effectuation-Prozessen in Bezug auf den Neuheitsgrad Quelle: In Anlehnung an Sarasvathy (2007), S. 89
428 429 430
64
Vgl. Sarasvathy (2007), S. 70f. Vgl. dazu Abschnitt 2.2.5 auf S. 52. Vgl. dazu die Ausführungen bei Sarasvathy (2007), S. 64ff.
Besonders gut ableiten lässt sich der Wirkungszusammenhang im Fall der Technologiedimension also bei Vorliegen eines hohen Technologieinnovationsgrades und einer damit verbundenen hohen Technologie- oder Plattformunsicherheit. Insbesondere bei Projekten der Grundlagenforschung ist zu Beginn des Projektes nicht klar, ob das zu erforschende Problem technisch umsetzbar ist und zu einem Produkt führen wird. Bei Weiterentwicklungsprojekten hingegen ist diese Art der Unsicherheit eher unbedeutend, da bereits eine Realisierung gefunden wurde und lediglich Modifikationen an bestehenden Designs erforderlich sind. 431 Bei Vorliegen einer hohen Technologieunsicherheit sind eine kontinuierliche Integration von neuen Erkenntnissen und die Suche nach neuen Möglichkeiten bei Eintreten unerwarteter Ergebnisse zweckmäßig. Dies entspricht einem typischen Vorgehen im Sinne von Effectuation. 432 Sind hingegen die Designs und die wesentlichen technischen Realisierungsmöglichkeiten bekannt, kann eine sehr detaillierte Vorausplanung des Projektes eine möglichst schnelle und effiziente Projektdurchführung unterstützen. Entsprechend sollte bei Vorliegen einer geringen Technologieunsicherheit ein Vorgehen nach Causation positiv auf den Projekterfolg wirken. Eine ähnliche Argumentation schließt sich für den Marktinnovationsgrad und die damit verbundene Marktunsicherheit an. Diese Art der Unsicherheit besteht generell in Bezug auf die Verwertungsmöglichkeiten der Invention. Sie ist deutlich höher, wenn das F&E-Erzeugnis vollkommen neu ist. 433 Geringer ist hingegen die Unsicherheit, wenn es sich bei dem F&EErzeugnis um eine Modifikation eines bereits vermarkteten Produktes handelt. Dann besteht die Unsicherheit vor allem in der zukünftigen Entwicklung des Marktes. Das Vorgehen der bestehenden und neuen Wettbewerber ist ungewiss und kann insbesondere bei jungen Märkten einen direkten Einfluss auf die Gestalt des Marktes und somit auch auf die Verwertungsmöglichkeiten des eigenen F&E-Erzeugnisses haben. Entsprechend ist es bedeutsam, wie der Markt mit Hilfe des neuen Erzeugnisses gesteuert und kontrolliert werden kann. Um besser mit dieser Art von Unsicherheit umgehen zu können, kann eine Marktstellung vorteilhaft sein, die es einem erlaubt, die zukünftige Entwicklung des Marktes direkt beeinflussen zu können. Dafür kann es sinnvoll sein, beispielsweise Stakeholder Commitments einzuholen, wie sie ein typisches Charakteristikum für Effectuation sind. Dadurch kann Unsicherheit aktiv reduziert werden, indem beispielweise Absatzmöglichkeiten frühzeitig gesichert werden oder indem der Markt gemeinsam mit Wettbewerbern gestaltet wird. 434 Ist die Unsicherheit in Bezug auf zukünftige Verwertungsmöglichkeiten eher gering, so kann es hingegen vorteilhaft sein, Entscheidungen zur Durchführung eines F&E-Projektes direkt an detaillierte Business Cases zu koppeln und zur Entscheidung letztlich harte finanzielle Kennzahlen heranzuziehen. Dies entspricht einem klassischen Vorgehen im Sinne von Causation. Ein Vorgehen, das auf Marktstudien und Modellrechnungen basiert, kann bei Vorliegen einer geringen Unsicherheit zu guten Ergebnissen führen. Bei Vorliegen einer hohen Unsicherheit ist hingegen ein solches Vorgehen mit einer geringen Aussagekraft verbunden. Dann sollten sich eher Maßnahmen zur
431 432 433 434
Vgl. MacCormack/Verganti (2003), S. 221. Vgl. Sarasvathy (2007), S. 85. Vgl. Hauschildt/Salomo (2007), S. 21. Vgl. Sarasvathy (2007), S. 87f.
65
aktiven Reduzierung von Unsicherheit anstelle von Ansätzen zum Erkennen möglicher Risiken vorteilhaft auswirken. 435 Insgesamt kann also aufgrund der vorausgegangenen theoretischen Überlegungen vermutet werden, dass der Innovationsgrad den Prozess der Entscheidungsfindung beeinflusst. 436 Besteht ein geringer Innovationsgrad sollten causationbasierte Entscheidungsprozesse nützlich sein. Besteht hingegen ein hoher Innovationsgrad ist davon auszugehen, dass effectuationbasierte Entscheidungsprozesse im Kontext von F&E-Projekten vorteilhaft sind. 3.2.2
Befunde in der angrenzenden Literatur
Neben den Wirkungszusammenhängen, die auf Basis theoretischer Überlegungen aus dem konzeptionellen Bezugsrahmen der Effectuation-Logik abgeleitet wurden, lässt sich eine moderierende Wirkung des Innovationsgrades und damit der Unsicherheit auch auf Basis bisheriger Studien in angrenzenden Forschungsfeldern vermuten. Die Ergebnisse dieser Studien werden im Folgenden indikativ 437 herangezogen, um neben den rein theoretisch fundierten Überlegungen im vorangegangenen Abschnitt auch empirische Ergebnisse, zumindest aus Arbeiten mit angrenzenden Forschungsschwerpunkten zur Plausibilisierung der Bedeutung des Innovationsgrades verfügbar zu haben. Der Einfluss des Innovationsgrades bzw. der Unsicherheit als moderierende Größe im Kontext von F&E-Projekten ist in Anbetracht der zu erwartenden großen Bedeutung bislang vergleichsweise selten untersucht. 438 Dies ist insofern erstaunlich, als dass dieser Umstand schon seit längerem bekannt ist 439 und „coping with uncertainty“ als „the central problem of administration“ 440 angesehen wird. Auch ist wiederholt kritisiert worden, dass viele Untersuchungen in der Literatur davon ausgehen, dass ein Projekt immer mit jedem anderen Projekt vergleichbar ist, ohne unterschiedliche Charakteristika zu berücksichtigen. 441 Trotzdem haben erst jüngere Untersuchungen analysiert, ob der Innovationsgrad einen moderierenden Einfluss auf den Erfolg der F&E-Tätigkeit hat. 442 Über die Frage, ob bei Projekten mit einem niedri-
435 436 437
438 439 440 441 442
66
Vgl. Sarasvathy (2007), S. 84. Vgl. Politis/Gabrielsson (2006), S. 1. Der Rückgriff auf diese Studien kann nur indikativ sein, also lediglich erste Indizien liefern, da sowohl der Forschungsschwerpunkt (auch im Sinne der betrachteten Industrien), die Forschungsmethode als auch die Operationalisierung (insbesondere in Hinblick auf die Erfolgsgröße) teilweise deutlich von den Zielen und Methoden der vorliegenden Arbeit abweichen. Vgl. zur Kritik bisheriger Erfolgsfaktorenforschung im Bereich von F&E-Projekten u.a. Hauschildt/Salomo (2007), S. 38f. Vgl. Shenhar et al. (2002), S. 114. Vgl. u.a. Myers/Marquis (1967); Marquis (1969); Rothwell et al. (1974); Utterback et al. (1976). Gifford et al. (1979), S. 459. Ähnlich auch bei Milliken (1987), S. 133. Vgl. Pinto/Covin (1989), S. 49; Shenhar et al. (2002), S. 112. Vgl. u.a. Montoya-Weiss/Calantone (1994); Eisenhardt/Tabrizi (1995); Olson et al. (1995); Song/Parry (1997); Moorman/Miner (1998); Song/Montoya-Weiss (1998); Swink (2000); Leifer et al. (2001); O’Connor/Veryzer (2001); Shenhar (2001); Tatikonda/Montoya-Weiss (2001); Shenhar et al. (2002); MacCormack/Verganti (2003); Salomo et al. (2003); Salomo et al. (2003); Salomo et al. (2007).
gen Innovationsgrad andere Faktoren den Erfolg begünstigen, als bei Projekten mit einem hohen Innovationsgrad, besteht inzwischen weitestgehend Einigkeit. 443 So entwickeln beispielsweise Eisenhardt/Tabrizi zwei Steuerungsmodelle. 444 Das erste wird als „Compression strategy“ 445 bezeichnet und bezieht sich auf Projekte, die einer geringen Unsicherheit ausgesetzt sind. Dann gilt, dass die Projekte gut geplant und in diskreten Schritten ausgeführt werden können: „Such a process can then be compressed by shortening the time of each step“. 446 Liegt hingegen eine hohe Unsicherheit vor, so ist demnach eine als „Experiential strategy“ 447 bezeichnete Vorgehensweise vorteilhaft. Dabei steht weniger ein zielstrebiger Weg im Vordergrund als vielmehr ein durch viele Iterationen und Tests gekennzeichneter Prozess, um dem Umstand von „foggy and shifting markets and technologies“ 448 Rechnung zu tragen. Bei einer großen Unsicherheit in Bezug auf Technologie und Markt scheint demnach also eher „Probieren geht über studieren“ 449 zu gelten. Im Gegensatz zur generellen Überzeugung, dass der Innovationsgrad und die damit verbundene Unsicherheit einen moderierenden Einfluss auf den F&E-Projekterfolg zu haben scheinen, gehen die Meinung bei der Wirkung im Detail sehr stark auseinander. So ist bis heute sehr umstritten, bei welchen Einflussgrößen der Innovationsgrad eine signifikant moderierende Wirkung hat. Dies zu untersuchen bleibt letztlich „a question for empirical analysis“. 450 Nach Hauschildt/Salomo besteht insbesondere an dieser Stelle „weiterer Forschungsbedarf, denn die vergleichende Messung des Innovationsgrades ist bisher wenig befriedigend.“ 451 Als ein Beispiel, wo bislang eine große Unklarheit in Bezug auf den Einfluss des Innovationsgrades als Moderator herrscht, soll hier die Intensität der Planung im Vorfeld eines F&EProjektes angeführt werden. So haben Shenhar et al. gezeigt, dass eine detaillierte Projektplanung besonders wichtig ist, wenn das Projekt sehr komplex ist und einen hohen Neuheitsgrad bzw. eine hohe Unsicherheit beinhaltet. 452 Andererseits zeigen Song/Montoya-Weiss, dass eine detaillierte Projektplanung zu Beginn bei Vorliegen eines hohen Innovationsgrades kontraproduktiv wirkt. 453 Ähnlich fanden auch Lewis et al., dass eine negative Interaktion besteht zwischen einem planungsorientierten Projektmanagement und einem hohen Innovationsgrad bzw. einer hohen technischen Unsicherheit. 454 Salomo et al. wiederum fanden heraus, dass
443
444 445 446 447 448 449 450 451 452 453 454
Allerdings gibt es vereinzelte Studien, die keinen moderierenden Einfluss des Innovationsgrades feststellen (vgl. z.B. Souder et al. (1998)), weshalb eine Reihe von Autoren eine tiefergehende Analyse dieses Aspektes fordern, um zu einem besseren Verständnis der Wirkung des Innovationsgrades zu gelangen (vgl. bspw. Shenhar (2001), S. 413). Vgl. Eisenhardt/Tabrizi (1995). Eisenhardt/Tabrizi (1995), S. 88. Eisenhardt/Tabrizi (1995), S. 88. Eisenhardt/Tabrizi (1995), S. 91. Eisenhardt/Tabrizi (1995), S. 91. Hauschildt/Salomo (2007), S. 509. Salomo et al. (2007), S. 292. Hauschildt/Salomo (2007), S. 510. Vgl. Shenhar et al. (2002), S. 118f. Vgl. Song/Montoya-Weiss (1998), S. 124ff. Vgl. Lewis et al. (2002), S. 546ff.
67
der Innovationsgrad keinen moderierenden Einfluss auf den positiven Zusammenhang zwischen Projektplanung und Projekterfolg hat. 455 Insgesamt deuten die in der F&E-Literatur beschriebenen Ergebnisse also nur darauf hin, dass der Innovationsgrad eine besondere Bedeutung und in Bezug auf bestimmte Einflussgrößen eine moderierende Wirkung hat. Offenbar scheint diese Wirkung jedoch nicht durchgehend für alle Einflussgrößen auf den Erfolg eines F&E-Projektes gleichermaßen zu gelten. 456 Die teilweise unterschiedlichen Ergebnisse in Bezug auf gleiche Einflussgrößen bedürfen einer detaillierten Analyse. Bislang fehlen theoretische Bezugsrahmen, „to make sense of seemingly conflicting findings.“ 457 Insbesondere muss sichergestellt werden, dass vergleichbare, reliable und valide Messmodelle in der weiteren Forschung eingesetzt werden. 458 Von entsprechender Bedeutung ist die Messung des Innovationsgrades. In der Vergangenheit wurde dieser nämlich meistens lediglich entlang von zwei Gruppen gemessen, den inkrementellen und den radikalen Erneuerungen. 459 Auch im Rahmen der Entrepreneurship-Forschung hat es erste empirische Auseinandersetzungen mit der Frage gegeben, ob die gegebene Unsicherheit einen Einfluss auf die Vorteilhaftigkeit bestimmter Prozesse, also bspw. einem Vorgehen nach Effectuation oder Causation, hat. So konnte Gustafsson im Rahmen eines Experimentes zeigen, dass erfahrene Entrepreneurs in der Lage sind, die vorliegende Unsicherheit besser einzuschätzen als unerfahrene Gründer. 460 Dementsprechend können die Erfahrenen auf vorteilhafte, nämlich der Unsicherheit angepasste Techniken zur Entscheidungsfindung zurückgreifen, was es ihnen ermöglicht insgesamt erfolgreicher zu agieren: 461 „For an unprogrammed (highly uncertain, illstructured) task, such as opportunity creation, one should use intuitive (unprogrammed) decisions, whereas for a programmed (well-structured, of low uncertainty) task, such as opportunity recognition, an analytical, structured decision is most fitting.“ 462 3.3
Integrative Betrachtung – Herleitung von Forschungshypothesen in Bezug auf die Erfolgswirkung von Effectuation im Kontext von F&E-Projekten
Ein wesentliches Ziel dieser Arbeit besteht darin, zu analysieren, welche EffectuationCharakteristika von besonderer Bedeutung für den F&E-Projekterfolg sind. Nachdem im vorigen Abschnitt der Einfluss des Innovationsgrades als möglicher Moderator diskutiert wurde, bleibt nun zu untersuchen, wie die einzelnen Teilaspekte von Effectuation auf den Erfolg wirken. Als Teilaspekte werden hierbei die in Kapitel 2 kurz beschriebenen fünf Prinzipien von Effectuation bezeichnet. Dafür soll nun eine Konzeptualisierung mit einer Ableitung von For-
455 456 457 458 459 460 461
462
68
Vgl. Salomo et al. (2007), S. 292. Vgl. Song/Montoya-Weiss (2001), S. 71. Lewis et al. (2002), S. 546. Vgl. Brockhoff (2006), S. 34. Vgl. Abetti (2000), S. 208ff. Vgl. Gustafsson (2006), S. 108ff. „This, in turn, means that an appropriate decision-making behaviour in entrepreneurial situations can be taught and learned“ (Gustafsson (2006), S. 112). Gustafsson (2006), S. 109.
schungshypothesen erfolgen, die dann in den folgenden Kapiteln mit Hilfe einer empirischen Umfrage überprüft werden. Ziel der Konzeptualisierung ist die Herleitung eines zu testenden Forschungsmodells. Außerdem ist die Konzeptualisierung die Grundlage für eine Operationalisierung der zu untersuchenden Einflussgrößen auf den Erfolg von F&E-Projekten. Diese Operationalisierung findet in Kapitel 4 statt und dient als direkte Grundlage zur empirischen Überprüfung der Hypothesen. An dieser Stelle werden nun Hypothesen bzgl. der Erfolgsfaktoren von Effectuation und Causation im Rahmen von F&E-Projekten auf der Ebene der einzelnen Prinzipien gebildet. Dabei ist jeweils zu klären, in welchen Situationen, also unter welchen Rahmenbedingungen, Effectuation- oder Causation-F&E-Prozesse angewendet werden sollten. Die Konzeptualisierung und Hypothesenableitung erfolgt jeweils in vier Schritten: 1. Integrative Betrachtung von Effectuation bzw. Causation und F&E als konzeptionellem Bezugsrahmen: In diesem Schritt findet eine Beschreibung der Effectuation-Prinzipien im Kontext von F&E-Projekten und eine Abgrenzung dieser Prinzipien zu Causation statt. 463 2. Erklärung der Wirkungszusammenhänge von Effectuation bzw. Causation und dem F&EProjekterfolg: Dabei wird der Einfluss der jeweiligen Effectuation- oder CausationAusprägung auf den Projekterfolg analysiert. Die dafür genutzte Basis ist der im ersten Schritt beschriebene konzeptionelle Bezugsrahmen. Beim Projekterfolg wird entsprechend der in Kapitel 2 eingeführten Dimensionen zwischen prozess- und outputbezogenem Erfolg unterschieden. Unter der Erfolgsdimension Prozess-Effizienz wird insbesondere eine Einhaltung der Zeit- und Budgetvorgaben verstanden. Der outputbezogene Erfolg bezeichnet den Aufbau neuer F&E-Kompetenzen sowie den wahrgenommenen Nutzen bzw. die zukünftigen Potenziale des F&E-Erzeugnisses. 3. Zusätzliche Plausibilisierung der in Schritt 2 theoriebasiert hergeleiteten Wirkungszusammenhänge: In diesem Untersuchungsschritt findet eine Überprüfung von veröffentlichten Untersuchungen in angrenzenden Forschungsbereichen (z.B. Innovationsmanagement, F&EProjektmanagement, etc.) auf ähnliche Phänomene, wie die hier diskutierten, statt. Ziel einer umfassenden Literaturanalyse ist es, Effectuation-Konstrukte innerhalb bestehender Erfolgsfaktorenanalysen zu identifizieren und als zusätzliche Unterstützung für die Hypothesenbildung zu nutzen. 4. Ableitung von vier Forschungshypothesen je analysiertem Prinzip: Auf Basis der vorangegangenen Untersuchungsschritte werden jeweils zwei Effectuation- und zwei CausationHypothesen gebildet. Dabei bezieht sich jeweils für Effectuation und Causation eine Hypothese auf den prozessbezogenen und eine auf den outputbezogenen F&E-Projekterfolg.
463
Eine klare Abgrenzung zwischen Effectuation und Causation ist dabei für jedes Prinzip möglich: „Each principle inverts key decision making criteria in received theories and conventional management practices.“ (Sarasvathy (2007), S. 21).
69
3.3.1
Spezifizierung des F&E-Projektes auf Basis vorhandener Mittel (Bird-in-hand)
3.3.1.1 Das Bird-in-hand Prinzip im F&E-Kontext Das Bird-in-hand-Prinzip bedeutet, dass vorhandene Mittel und Ressourcen Ausgangspunkt für eine Entscheidung sind („means-driven action“). 464 „The emphasis here is on creating something new with existing means than discovering new ways to achieve given goals.“ 465 Im F&E-Kontext bedeutet das konkret, dass im Rahmen der Projektspezifizierung, also der Eingrenzung des F&E-Problems, der Identifikation möglicher F&E-Optionen und der Erstellung eines fachlichen Grobkonzeptes, eine Orientierung an vorhandenen Mitteln und gegebenen Ressourcen im Vordergrund steht und letztlich ausschlaggebend für die Entscheidung über die Projektdurchführung ist. Als vorhandene Ressourcen werden hier in Anlehnung an die Strukturierung bei Sarasvathy 466 und einer entsprechenden Übertragung in den F&E-Kontext bestehende Kompetenzen und Projekterfahrungen („Who I am“), ausgebildete Mitarbeiter und Spezialisten in dem betrachteten F&E-Gebiet („What I know“), Beziehungen zu Partnern (z.B. F&E-Netzwerke) („Whom I know“) sowie materielle Ressourcen wie finanzielle Mittel und bestehendes F&E-Equipment („What I have“) bezeichnet. In Abgrenzung zur Effectuation-Ausprägung von Bird-in-hand kennzeichnet ein Vorgehen nach Causation eine starke Orientierung an vorgegebenen Zielen. Im F&E-Kontext heißt dies, dass zuerst Projektziele gebildet werden. Eine solche Zielbildung kann dabei aufgrund von positiven Erwartungen in Bezug auf zukünftige Entwicklungen oder bspw. im Rahmen eines Weiterentwicklungsprojektes durch vergangenheitsbezogene eigene Erfahrungen, bestehen. Steht ein F&E-Ziel fest, findet ausgehend von diesem Ziel eine Ermittlung der zur Zielerreichung erforderlichen F&E-Ressourcen statt. Während also bei einem Vorgehen nach Effectuation eine Projektspezifizierung ausgehend von gegebenen Ressourcen erfolgt, ist das Vorgehen bei Causation genau umgekehrt: Ausgehend von konkreten Projektzielen werden die zur Zielerreichung notwendigen Mittel bestimmt. 3.3.1.2 Konzeptionelle Herleitung der Wirkungszusammenhänge Ob ein Vorgehen nach Effectuation oder Causation in Bezug auf das Bird-in-hand-Prinzip vorteilhaft ist, erfordert eine Unterscheidung zwischen dem outputbezogenen Erfolg und der Erfolgsgröße Prozess-Effizienz. Darüber hinaus erscheint eine Unterscheidung zwischen einem geringen und einem hohen Innovationsgrad erforderlich zu sein. Zunächst sollen hier die Wirkungen in Bezug auf die Prozess-Effizienz untersucht werden, die ihrerseits wiederum eine positive Wirkung auf den Projektoutput hat. Ein Rückgriff auf den konzeptionellen Bezugsrahmen lässt vermuten, dass weder im Falle eines niedrigen noch im Falle eines hohen Innovationsgrades ein Einfluss auf die ProzessEffizienz zu erwarten ist. Weder die Effectuation-Ausprägung von Bird-in-hand noch das entsprechende Causation-Gegenstück lassen auf einen überlegenen Einfluss auf die Prozess464 465 466
70
Vgl. Sarasvathy (2007), S. 21. Sarasvathy (2007), S. 21. Vgl. Sarasvathy (2007), S. 77.
Effizienz schließen. Einerseits führt eine Orientierung an vorhandenen Erfahrungen und Kompetenzen zu einer Prozessbeschleunigung und eine Nutzung von vorhandenem F&EEquipment ermöglicht vergleichsweise geringe Budgets, was für Vorteile auf der Seite eines Vorgehens nach Effectuation sprechen würde. Andererseits können klar formulierte Ziele einen Rahmen darstellen, der verhindert, dass es zu Prozessverzögerungen etwa dadurch kommt, dass Randtätigkeiten ausgeführt werden, die nicht zwingend zur Erreichung des vorgegebenen Zieles notwendig sind. Letzteres spricht für Vorteile in Bezug auf die ProzessEffizienz auf der Seite von Causation. Insgesamt kann also davon ausgegangen werden, dass die beiden diskutierten Einflüsse auf die Prozess-Effizienz von ihrer Wirkung ähnlich sind und daher weder Effectuation noch Causation Vorteile zeigt. Nachdem der konzeptionelle Bezugsrahmen weder einen vorteilhaften Einfluss von Effectuation noch von Causation auf die Prozess-Effizienz vermuten lässt, bleibt im Folgenden die Wirkung auf den outputbezogenen Erfolg zu diskutieren. Es wurde weiter oben bereits gezeigt, dass sich Effectuation und Causation in Bezug auf die Zielspezifikation unterscheiden. Da der Grad einer möglichen Zielspezifikation vor Aufnahme eines Projektes direkt mit der Höhe des Innovationsgrades verbunden ist, kann vermutet werden, dass der Innovationsgrad einen entscheidenden Einfluss auf die Vorteilhaftigkeit von Effectuation oder Causation hat. Wenn die Strukturen der Zukunft „diffus und unbekannt“ sind, also ein hoher Innovationsgrad vorliegt, sind „Ziele für Innovationen […] nicht gegeben, sondern zu entwickeln“. 467 Dies ist notwendigerweise so, weil bei der Entwicklung von etwas wirklich Neuem, erst innerhalb des Projektes geklärt werden muss, wie eine zunächst diffuse Initialidee realisiert werden kann. Die grobe Initialidee ist dabei üblicherweise lediglich über eine bestimmte Funktion des zu entwickelnden Erzeugnisses definiert, die bspw. durch bestimmte Kundenbedürfnisse erkannt wird. 468 Eine solche unklare, auf Kundenbedürfnisse zurückzuführende Initialidee ist bspw. die Entwicklung eines sparsamen Antriebskonzeptes. Da die technische Realisierung erst Aufgabe des eigentlichen F&E-Projektes ist, kann bei einem hohen Innovationsgrad zu Beginn noch kein klares Projektziel bekannt sein. 469 In dem betrachteten einfachen Beispiel muss in einer ersten Detaillierungsstufe entschieden werden, ob es sich um einen Verbrennungs-, Hybrid- oder eher einen reinen Elektromotor handeln soll. Schon bei dieser vergleichsweise einfachen Entscheidung ist es schwierig, sich auf einen zukünftigen Trend zu verlassen, weil unklar ist, welches Konzept sich in Zukunft durchsetzen wird. Die weiteren Entscheidungen auf untergeordneten Stufen werden immer komplexer und hängen letztlich von den in der übergeordneten Ebene ausgewählten Realisierungskonzepten ab, bei denen aber a priori nicht entschieden werden kann, welches das beste Realisierungskonzept ist. Entsprechend ist die Angabe von sehr detaillierten Projektzielen zu Projektbeginn wenig sinnvoll. Vielmehr sollte bei einem hohen Innovationsgrad ein Vorgehen nach Effectuation sinnvoll sein, das sich auf vorhandene Mittel und Ressourcen, also auch vorhandene Kompetenzen
467 468 469
Hauschildt/Salomo (2007), S. 371. Vgl. Gerpott (2005), S. 51. Vgl. Gerpott (2005), S. 52.
71
stützt. Eine Zielkonkretisierung ergibt sich dann in einem konvergierenden Prozess 470 mit jeder zu treffenden Entscheidung, ohne im Voraus Annahmen treffen zu müssen, die eigentlich aufgrund der vorliegenden Unsicherheit nach Knight 471 nicht getroffen werden können. Insgesamt sollte also bei einem hohen Innovationsgrad ein Vorgehen nach Effectuation positiv auf den outputbezogenen Erfolg wirken. Durch ein Vorgehen nach Effectuation wird die Wahrscheinlichkeit erhöht, dass eine Vielzahl von nutzbaren Erfahrungen und Kompetenzen aufgebaut werden und aufgrund der intensiven Nutzung eigener, bestehender Erfahrungen und Kompetenzen das F&E-Erzeugnis einen hohen Nutzen und eine gute Verwertbarkeit haben wird. Ist der Innovationsgrad hingegen gering, ist zu erwarten, dass ein konkretes, im Voraus beschlossenes Projektziel hilft und den outputbezogenen Erfolg positiv beeinflusst. Insbesondere ist dann eine sehr klare Projektplanung möglich. So sind bei einem geringen Innovationsgrad und einer klaren Zielorientierung sehr früh im Projekt Detailspezifikationen bestimmbar, so dass entsprechend Zeit für Simulationen und Tests bleibt. Schnittstellen zwischen Teilsystemen können genau geplant werden, so dass insgesamt ein qualitativ hochwertiges F&EErzeugnis entsteht, das entsprechend gut verwertet werden kann. 3.3.1.3 Befunde in der angrenzenden Literatur Die genauen Zusammenhänge zwischen Zielorientierung auf der einen und Kompetenzorientierung auf der anderen Seite und der damit verbundenen kontextabhängigen idealen Vorgehensweise sind bislang insgesamt wenig analysiert. 472 Erst in der jüngeren Vergangenheit stellen einzelne Autoren fest, dass in sehr unsicheren Projektumgebungen, wie etwa bei radikalen Innovationsprojekten, formale Prozesse, wie sie im Rahmen von inkrementellen Innovationsprojekten untersucht sind, „limited or inappropriate“ 473 sind. 474 Insbesondere gilt für unsichere Umgebungen, dass „Goals can be unclear and changing, […] the objective may not only be ambiguous to begin with but also may change over time.” 475 So stellen Hauschildt/Salomo fest, dass „die Vorstellung, Ziele für die Lösung eines innovativen Entscheidungsprozesses würden vornehmlich zu Beginn des Problemlösungsprozesses formuliert […] nicht haltbar“ 476 ist. Entsprechend ist die in etablierten Geschäftsfeldern typischerweise vorliegende Abfolge von „reflektiv geprägten Willensbildungsprozessen mit dem Ergebnis a) expliziter Zielvorgaben, b) hieraus resultierenden Handlungen, c) einer anschließenden Ergebniskontrolle sowie d) einem darauf basierenden Nachsteuern bei Zielen und/oder Maß-
470 471 472 473 474
475 476
72
Vgl. Seidel (2007), S. 524. Vgl. Abschnitt 2.1.2.2.1 auf S. 23ff. Vgl. Brown/Eisenhardt (1995), S. 374. Seidel (2007), S. 522. Vgl. Dougherty/Heller (1994); MacCormack et al. (2001); McDermott/O’Connor (2002); Seidel (2007). Seidel (2007), S. 522. Hauschildt/Salomo (2007), S. 377.
nahmen (plandominiertes Vorgehen)“ 477 in Projekten mit einem hohen Innovationsgrad weniger zweckmäßig. 478 Vielmehr erkennt bspw. Seidel im Rahmen einer Fallstudie zu radikalen Innovationsprojekten, dass sich ein Vorgehen bei solchen Projekten von einem Vorgehen bei Projekten mit einem geringen Innovationsgrad unterscheidet. 479 Er stellt fest, dass Projekte mit einem hohen Innovationsgrad durch eine „progressive elaboration“ gekennzeichnet sind und weist hin auf die „dynamics of change in those contexts in which teams negotiate paths through ambiguous product development environments“. 480 Ein auf a priori definierten Zielen basiertes Vorgehen (Causation) sollte bei einem hohen Innovationsgrad also nicht vorteilhaft sein. Vielmehr deuten Studien darauf hin, dass in einem solchen Kontext Effectuation Vorteile aufweist. So zeigen Zirger/Maidique in einer Studie zu F&E-Erfolgsfaktoren, dass Projekte insgesamt erfolgreicher sind, wenn sie auf bestehenden Kompetenzen eines Unternehmens aufbauen. 481 Sie nennen insbesondere Synergieeffekte durch die Nutzung von gleichen Kommunikationsquellen und internen und externen Netzwerken als Ursache für die Erfolgswirkung. Ähnlich stellt Danneels fest, dass „rather than trapping the firm, current competencies may be used as leverage points to add new competencies.“ 482 Zu gleichen Ergebnissen kommen Studien, die sich allgemeiner im Rahmen der Strategieentwicklung mit strategischen Entscheidungsfindungen befassen. So empfiehlt Barney bspw., dass „[…] strategic choices should flow mainly from the analysis of [a firm’s] unique skills and capabilities […]“. 483 Die fehlende Möglichkeit der Zielbildung bei Projekten mit einem hohen Innovationsgrad und die positive Wirkung einer Berücksichtigung eigener Kompetenzen deuten darauf hin, dass ein Vorgehen nach Effectuation positiv auf den outputbezogenen Erfolg wirkt. Das Festlegen von konkreten Projektzielen, das vor allem in älteren Studien häufig empfohlen wurde, also ein Vorgehen nach Causation, ist demnach hingegen sinnvoll, wenn ein geringer Innovationsgrad vorliegt. In Bezug auf die Prozess-Effizienz werden die im vorigen Abschnitt angestellten Überlegungen durch erste Erkenntnisse, die in der Literatur beschrieben sind, gestützt. Klare Zielformulierungen wirken einerseits positiv, weil sie Randarbeiten vermeiden, die nicht für das eigentliche Projekt relevant sind. Andererseits wirken rigide Zielstrukturen negativ, insbesondere dann, wenn Zieländerungen notwendig werden. Zieländerungen haben nämlich nach
477 478
479 480 481 482
483
Heinemann (2006), S. 110. Vgl. zur mangelnden Eignung solcher Prozesse bei Entscheidungsproblemen, die durch ein hohes Wissensdefizit charakterisiert sind u.a. Witt (1987), S. 186; Wossidlo (1988), S. 10ff.; Weber (2002), S. 36f. Vgl. Seidel (2007). Seidel (2007), S. 532. Vgl. Zirger/Maidique (1990), S. 880. Danneels (2002), S. 1097. Gleichermaßen empfiehlt Atuahene-Gima, dass „a firm must exploit some level of its current competencies to leverage its new competencies to develop radical innovations.“ (Atuahene-Gima (2005), S. 79). Barney (1986), S. 1231.
73
Dvir/Lechler einen sehr negativen Einfluss insbesondere auf Budget- und Zeitvorgaben. 484 Entsprechend stützt die Literatur die zuvor gemachten Aussagen, dass ein Vorgehen nach Effectuation oder Causation keinen direkten Einfluss auf die Prozess-Effizienz hat. Neben den bislang herangezogenen Ergebnissen in der F&E- und ProjektmanagementLiteratur gibt es in Bezug auf das Bird-in-hand-Prinzip auch erste Erkenntnisse aus der Effectuation-Forschung im Umfeld junger Wachstumsunternehmen. So haben Read et al. in einer detaillierten Meta-Analyse 485 herausgefunden, dass ein Vorgehen, bei dem man sich auf die vorhandenen Mittel stützt, positiv auf den Erfolg eines jungen Unternehmens wirkt. 486 Da junge Unternehmen typischerweise auch mit einer hohen Unsicherheit oder einem hohen Innovationsgrad verbunden sind, lässt dies wiederum auf einen positiven Einfluss von Effectuation im Rahmen von F&E-Projekten bei Vorliegen eines hohen Innovationsgrades schließen. In eine ähnliche Richtung weisen auch die Ergebnisse einer Studie, die die Lernstrategien von „nascent entrepreneurs“ untersucht hat. 487 Zumindest wird dort gezeigt, dass es nicht sinnvoll ist, von einem „specific known end“ auszugehen, was einem Vorgehen nach Causation entsprechen würde. Daraus folgern die Autoren, dass eine Lernstrategie, die sich auf vorhandene Kompetenzen stützt und den Prinzipien von Effectuation folgt vorteilhaft für „nascent entrepreneus“ ist. 3.3.1.4 Ableitung der Hypothesen Insgesamt lassen sich aus dem konzeptionellen Bezugsrahmen (Bird-in-hand-Prinzip) und den in der angrenzenden Literatur erzielten Forschungsergebnissen folgende vier Hypothesen ableiten. 488
484 485
486 487 488
74
Vgl. Dvir/Lechler (2004), S. 9ff. Ebenso Salomo et al. (2007), S. 298. In diese Meta-Analyse sind Erfolgsfaktorenstudien im Umfeld von jungen Unternehmen eingeflossen, die zwischen 1985 und 2007 im Journal of Business Venturing veröffentlicht wurden. Read et al. (2008), S. 9ff. Vgl. Honig et al. (2002), S. 6f. Bei der Angabe der Hypothesen wird folgende Notierung verwendet: Zunächst werden die Hypothesen entlang der fünf Prinzipien durchnummeriert (H1 bis H5). Je Prinzip werden dann noch einmal vier Hypothesen unterschieden. Für die Effectuation-Ausprägungen der Hypothese wird jeweils der Kleinbuchstabe „e“ und für die Causation-Ausprägung „c“ genutzt. Zusätzlich wird unterschieden, ob sich die Wirkung auf die Prozess-Effizienz oder den outputbezogenen Projekterfolg bezieht. Entsprechend wird der Kleinbuchstabe „p“ (Prozess-Effizienz) bzw. „o“ (Output) hinzugefügt. Der vermutete Wirkungszusammenhang wird der Notation vorangestellt. Ein „+“ kennzeichnet einen positiven Zusammenhang und ein „“ bedeutet, dass von keiner Wirkung ausgegangen wird.
Prozess-Effizienz
Outputbezogener Projekterfolg
Geringer Innovationsgrad
H1c-p: Ein Vorgehen, bei dem ausgehend von spezifizierten Projektzielen erforderliche Mittel bereitgestellt werden, hat keinen Einfluss auf die ProzessEffizienz.
+ H1c-o: Ein Vorgehen, bei dem ausgehend von spezifizierten Projektzielen erforderliche Mittel bereitgestellt werden, wirkt positiv auf den outputbezogenen Erfolg.
Hoher Innovationsgrad
H1e-p: Ein Vorgehen, bei dem ausgehend von vorhandenen Mitteln Projekte spezifiziert werden, hat keinen Einfluss auf die Prozess-Effizienz.
+ H1e-o: Ein Vorgehen, bei dem ausgehend von vorhandenen Mitteln Projekte spezifiziert werden, wirkt positiv auf den outputbezogenen Erfolg.
Tabelle 4: Forschungshypothesen zum Bird-in-hand-Prinzip Quelle: Eigene Darstellung
3.3.2 Eingrenzung des Optionenraums durch Fokus auf Verlustbegrenzung (Affordable loss) 3.3.2.1 Das Affordable loss-Prinzip im F&E-Kontext Das Affordable loss-Prinzip bedeutet, dass der Entscheidungsträger für sich vor dem Treffen einer Entscheidung festlegt, was er maximal zu verlieren bereit ist, indem er das „worst case scenario“ 489 berücksichtigt. „This principle prescribes committing in advance to what one is willing to lose rather than investing in calculations about expected returns to the project.“ 490 Im F&E-Kontext bedeutet das konkret, dass Überlegungen angestellt werden, die das Risiko eines Projektes betreffen. Auf Basis einer solchen Risikoeinschätzung wird festgelegt, wie viele der vorhandenen Mittel (einschließlich personeller Ressourcen) 491 in das Projekt investiert werden sollen. In Abgrenzung zur Effectuation-Ausprägung von Affordable loss kennzeichnet ein Vorgehen nach Causation eine starke Orientierung an möglichen Gewinnpotenzialen. Entsprechend würde bei einem solchen Vorgehen im Rahmen der Entscheidung zur Projektdurchführung versucht, mit Hilfe eines Business Cases mögliche zukünftige Gewinne zu berechnen. Die Anfertigung einer detaillierten Erfolgsrechnung setzt die Durchführung von Marktstudien und die umfassende Aufnahme externer Einflussgrößen und Trends voraus. 3.3.2.2 Konzeptionelle Herleitung der Wirkungszusammenhänge Auch in Bezug auf das Affordable loss-Prinzip ist eine Unterscheidung einerseits zwischen dem outputbezogenen Erfolg und der Erfolgsgröße Prozess-Effizienz erforderlich und andererseits zwischen Projekten mit einem geringen und einem hohen Innovationsgrad. Zunächst werden die Wirkungen in Bezug auf die Prozess-Effizienz und anschließend auf den Projektoutput analysiert. Insbesondere in Bezug auf die Prozess-Effizienz können erhebliche Einflüsse von Effectuation bzw. Causation erwartet werden, weil das Affordable loss-Prinzip einen unmittelbaren Prozessbezug hat. Bei Projekten mit einem geringen Innovationsgrad sollte ein Vorgehen
489 490 491
Read et al. (2008), S. 2. Sarasvathy (2007), S. 21. Vgl. dazu die Ausführungen in Abschnitt 3.3.1.1 auf S. 70.
75
nach Causation besonders vorteilhaft sein. Dann können zukünftige Chancen und Gewinnpotenziale gut analysiert, abgeschätzt und als solide Basis für die Entscheidung zur Durchführung eines Projektes herangezogen werden. Die genaue Kenntnis und Analyse von zukünftigen Möglichkeiten kann direkt genutzt werden, um das Projekt effizient in eine Zielrichtung zu steuern und im geplanten Budget- und Zeitrahmen zu beenden. Außerdem lassen sich auf dieser Basis dann auch alternative Entwicklungsmöglichkeiten oder Projekte gut vergleichen, da das Ziel eines solchen Projektes letztlich ja zukünftige profitable Cash Flows sind. Eine Betrachtung von Risiken ist in einer Situation, in der ein geringer Innovationsgrad besteht, hingegen weniger zweckmäßig, weil keine oder kaum zusätzliche Erkenntnisse in Bezug auf die Entscheidungsfindung möglich sind. Grundlegend anders verhält es sich, wenn ein hoher Innovationsgrad vorliegt. Dann ist das Risiko, das mit dem Projekt verbunden ist, die ausschlaggebende Komponente, weil ohnehin keine zuverlässigen Gewinnerwartungen prognostiziert werden können. Gleichzeitig stellt eine Begrenzung dessen, was man als Entscheider mit dem betrachteten Projekt zu verlieren bereit ist, sicher, dass der mögliche Verlust in einem sinnvollen Verhältnis zum vorliegenden Risiko steht. Entsprechend ist bei einem VorabCommitment in Bezug auf das Projektbudget und den zeitlichen Projektumfang besser gewährleistet, dass diese Größen nicht überschritten werden, was zu einem direkten positiven Einfluss auf die Prozess-Effizienz führt. Insgesamt sollte also die Effectuation-Ausprägung von Affordable loss bei Vorliegen eines hohen Innovationsgrades und die CausationAusprägung bei einem geringen Innovationsgrad positiv auf die Prozess-Effizienz wirken. Zu diskutieren bleibt im Folgenden der Einfluss auf den outputbezogenen Erfolg. Der direkte Prozessbezug des Affordable loss-Prinzips lässt insgesamt vermuten, dass der Einfluss auf den outputbezogenen Erfolg weniger relevant ist und der outputbezogene Erfolg vor allem über die Höhe der Prozess-Effizienz beeinflusst wird. Der im vorigen Abschnitt vorgestellte Bezugsrahmen hat gezeigt, dass sich Effectuation und Causation im Rahmen einer Entscheidungsfindung in Bezug auf das Kriterium Gewinn- vs. Risikofokussierung unterscheiden. Zuvor wurde bereits erläutert, dass der Innovationsgrad in Bezug auf dieses Kriterium einen entscheidenden Einfluss hat, weil bei hoher Unsicherheit keine zuverlässigen Gewinnaussagen gemacht werden können und gleichzeitig bei geringer Unsicherheit eine Betrachtung eines möglichen Risikos einen vergleichsweise geringen Beitrag zur Entscheidungsfindung liefert. Entsprechend ist zu erwarten, dass der Innovationsgrad auch in Bezug auf den outputbezogenen Erfolg eine moderierende Wirkung hat. Ähnlich gilt hier, dass bei einem geringen Innovationsgrad Causation eine positive Wirkung auf den outputbezogenen Erfolg haben sollte. Bei einem geringen Innovationsgrad sind Vergleiche von Gewinnmöglichkeiten durchführbar. So wird von vornherein sichergestellt, dass die gewinnoptimale Alternative oder anders ausgedrückt die Alternative mit dem höchsten Projektoutput im Rahmen eines Entscheidungsfindungsprozesses ausgewählt wird. Im Falle eines hohen Innovationsgrades und einer fehlenden Möglichkeit von Gewinnprognosen, sollte insgesamt eine striktere Sicherstellung der Prozess-Effizienz einen stärkeren Einfluss auf den Gesamterfolg haben, weil dann Projekte falls notwendig abgebrochen und nicht unnötig lange weiterverfolgt werden. Eine Gewinn- vs. Risikoorientierung sollte dann eine
76
untergeordnete Rolle in Bezug auf den Projektoutput spielen. Für diesen Output ist es im Nachhinein weniger bedeutend, ob die anfängliche Entscheidung eher auf einer Risikominimierung oder einer Gewinnmaximierung basiert war. In beiden Fällen ist eine Ableitung neuer Erkenntnisse und Erfahrungen möglich und ein höherer Nutzen des entwickelten F&EErzeugnisses bei der einen oder anderen Vorgehensweise unwahrscheinlich. Entsprechend kann angenommen werden, dass weder Effectuation noch Causation einen direkten vorteilhaften Einfluss auf den outputbezogenen Erfolg bei Vorliegen eines hohen Innovationsgrades haben. Allerdings kann die positive Wirkung bzgl. der Prozess-Effizienz insgesamt Effectuation auch in Bezug auf den Output begünstigen. Zusätzlich kann ein Vorgehen nach Effectuation dazu führen, dass insgesamt weniger Verlust mit dem einzelnen Projekt entsteht, was in Summe über mehrere Projekte auf Unternehmensebene betrachtet, wiederum zu einer Steigerung des Gesamterfolgs führen sollte. In der vorliegenden Untersuchung findet jedoch eine Analyse einzelner Projekte statt. Entsprechend sollte es schwierig sein, die oben genannten positiven Einflüsse von Effectuation, die sich vor allem in der summarischen Betrachtung mehrerer Projekte ergeben, auch auf Einzelprojektebene zu beobachten. Der methodische Aspekt, dass hier einzelne Projekte analysiert werden, sollte vielmehr Causation in Bezug auf den Projektoutput begünstigen. Projekte, die eine hohe Prozess-Effizienz erreichen, müssen nämlich nicht in jedem Fall auch in Bezug auf den Projektoutput erfolgreich sein. So gilt bspw. auch, dass alle Projekte, die aufgrund eines harten Abbruchkriteriums nach Erreichen einer bestimmten Budget- oder Zeitvorgabe abgebrochen werden, zwar eine hohe Prozess-Effizienz erreichen, aber im schlechtesten Fall keinen Output liefern. Über mehrere Projekte betrachtet (z.B. aus Gesamtunternehmensperspektive) kann ein solches Vorgehen in Summe erfolgreicher sein, als ein permanentes Überschreiten von Budgets und das Durchführen von endlosen F&E-Projekten, die nicht mit klaren Commitments in Bezug auf die maximale Verlusthöhe verbunden sind. 492 Bei einer Analyse von einzelnen Projekten wird eine differenzierte Betrachtung an dieser Stelle jedoch schwierig. Alle abgebrochenen Projekte werden in Bezug auf den Output nämlich als Misserfolge eingestuft. Projekte, die trotz einer Budgetüberschreitung hingegen nicht abgebrochen werden und dann einen ggf. nur leicht höheren Output liefern als die abgebrochenen Projekte, gelten relativ als erfolgreicher. Dieser Effekt kann ggf. dazu führen, dass bei einem hohen Innovationsgrad auf Einzelprojektebene sogar ein Vorgehen nach Causation Vorteile aufzuweisen scheint. Eine abschließende Klärung dieses eher methodisch bedingten Aspektes muss letztlich mit Hilfe der empirischen Untersuchung erfolgen und sollte zusätzlich eine Untersuchung auf Unternehmensebene erfordern, die nicht Gegenstand der vorliegenden Arbeit ist. 3.3.2.3 Befunde in der angrenzenden Literatur Insgesamt gibt es bislang sehr wenige empirische Untersuchungen, die sich mit Affordable loss oder zumindest mit angrenzenden Aspekten befasst haben. Im Bereich der F&E-
492
Vgl. hierzu insbesondere folgende Studien, die zeigen, dass Maßnahmen zur Budgetkontrolle Erfolgsfaktoren im Kontext von F&E darstellen: Tishler et al. (1996); Dvir et al. (1998); Shenhar et al. (2002).
77
Projektmanagement-Forschung sind dem Autor keine Studien bekannt, die eine Gewinn- vs. Risikoorientierung untersuchen. Im Umfeld der Effectuation-Forschung gibt es immerhin wenige erste empirische Analysen, die sich mit dem Affordable loss-Konstrukt genauer befassen. Die Studien wurden dabei jedoch unter sehr unterschiedlichen Rahmenbedingungen im Entrepreneurshipbereich durchgeführt. So reicht das Spektrum vom Kontext der Unternehmensgründungen 493 über eine stärkere investmentbezogene Perspektive von Business Angels 494 hin zu Lernstrategien junger Unternehmer 495 . In diesen Studien wurde keine direkte Analyse der moderierenden Wirkung von Unsicherheit oder Innovationsgrad vorgenommen. Auch wurde mit Ausnahme der MetaStudie von Read et al. keine Wirkung auf eine Erfolgsgröße untersucht. Die Studie von Read et al. macht wiederum keine Unterscheidung bzgl. unterschiedlicher Erfolgsgrößen. 496 Entsprechend der uneinheitlichen, bislang wenig strukturierten Forschung sind die Ergebnisse dieser Studien gemischt. Zwei Studien finden immerhin Anhaltspunkte, die das Affordable loss Prinzip unterstützen. So finden Honig et al. heraus, dass eine Lernstrategie, die auf „affordable loss or acceptable risk, rather than expected returns“ 497 basiert ist, positiv auf den Start-up-Prozess wirkt. 498 Auch McKelvie et al. finden erste Hinweise, die „in line with the effectuation reasoning, namely the “affordable loss” principle“ sind. 499 Wiltbank et al. können zwar ihre Hypothese, die sie direkt mit Affordable loss in Verbindung bringen, nicht bestätigen, schließen aber aus den übrigen Untersuchungsergebnissen im Kontext von Angel Investments, dass ihre Studie Hinweise liefert „in support of the arguments in the theory of effectuation, specifically, that efforts anchored on existing means, using the principles of affordable loss […].“ 500 Die Meta-Analyse zu den Effectuation-typischen Erfolgsfaktoren junger Wachstumsunternehmen von Read et al. liefert in Bezug auf Affordable loss keine signifikanten Ergebnisse. 501 Allerdings sind in dieser Studie bzgl. des Affordable loss Prinzips auch nur vier Einzelstudien berücksichtigt. 502 3.3.2.4 Ableitung der Hypothesen Insgesamt lassen sich vor allem auf Basis der theoriebasierten Überlegungen und dem konzeptionellen Bezugsrahmen (Affordable loss-Prinzip) die folgenden vier Hypothesen ableiten.
493 494 495 496 497 498 499 500 501 502
78
Vgl. McKelvie et al. (2008); Read et al. (2008). Vgl. Wiltbank et al. (2008). Vgl. Honig et al. (2002). Vgl. Read et al. (2008). Honig et al. (2002), S. 6. Honig et al. (2002), S. 15. McKelvie et al. (2008), S. 6. Wiltbank et al. (2008), S. 14. Vgl. Read et al. (2008), S. 14. Vgl. Read et al. (2008), S. 14.
Prozess-Effizienz
Outputbezogener Projekterfolg
Geringer Innovationsgrad
+ H2c-p: Eine Bewertung und Auswahl unterschiedlicher F&E-Optionen auf Basis von Prognosen und Vergleichen der Erwartungswerte des Gewinns, wirkt positiv auf die Prozess-Effizienz.
+ H2c-o: Eine Bewertung und Auswahl unterschiedlicher F&E-Optionen auf Basis von Prognosen und Vergleichen der Erwartungswerte des Gewinns, wirkt positiv auf den outputbezogenen Erfolg.
Hoher Innovationsgrad
+ H2e-p: Eine Bewertung und Auswahl unterschiedlicher F&E-Optionen auf Basis von Risikominimierung, bei der man im Vorhinein festlegt, wie viel Verlust man durch das F&E-Projekt maximal zu tragen bereit ist, wirkt positiv auf die Prozess-Effizienz.
H2e-o: Eine Bewertung und Auswahl unterschiedlicher F&E-Optionen auf Basis von Risikominimierung, bei der man im Vorhinein festlegt, wie viel Verlust man durch das F&E-Projekt maximal zu tragen bereit ist, hat keinen direkten Einfluss auf den outputbezogenen Erfolg.
Tabelle 5: Forschungshypothesen zum Affordable loss-Prinzip Quelle: Eigene Darstellung
3.3.3
Reduzierung von Unsicherheit durch Partnerschaften und Vorab-Verpflichtungen (Crazy quilt)
3.3.3.1 Das Crazy quilt-Prinzip im F&E-Kontext Das Crazy quilt-Prinzip bedeutet, dass der Entscheidungsträger aktiv versucht, die mit einer Entscheidung verbundene Unsicherheit zu reduzieren. Dafür werden bspw. Partnerschaften geschlossen oder Absprachen mit anderen Stakeholdern getroffen. „This principle involves negotiating with any and all stakeholders who are willing to make actual commitments to the project, without worrying about opportunity costs, or carrying out elaborate competitive analyses.“ 503 Darüber hinaus trägt jeder Stakeholder, der Commitments für das Projekt abgibt, durch seine Beteiligung zur Ausrichtung und somit zu einer Konkretisierung der Projektziele bei. Im F&E-Kontext bedeutet das konkret, dass versucht wird, die Unsicherheit zu reduzieren, indem Stakeholder involviert werden, also bspw. potenzielle Kunden des F&E-Erzeugnisses, Wettbewerber, die an ähnlichen Themen arbeiten oder etwa Organisationen mit komplementären Kompetenzen. Solche Stakeholder, die sich durch Zusagen oder durch die Bereitstellung eigener Ressourcen am Projekt beteiligen, bestimmen zusammen mit dem Projektinitiator die konkrete Richtung des F&E-Projektes. Auf diese Weise wird das Risiko, das mit dem Projekt verbunden ist, aktiv reduziert. Einerseits können so die Kosten des Projektes verteilt und zukünftige Absatzkanäle gesichert werden, so dass das Vermarktungsrisiko geringer wird. Andererseits ermöglicht eine gemeinsame Nutzung vorhandener Kompetenzen insbesondere eine Reduzierung technologischer, also mit der technischen Realisierung verbundener Risken. In Abgrenzung dazu ist ein Vorgehen nach Causation vor allem durch eine Identifikation und einer damit verbundenen Umgehung oder Vermeidung von Unsicherheiten verbunden. Dafür
503
Sarasvathy (2007), S. 21.
79
werden umfangreiche Markt- und Wettbewerbsanalysen im Vorfeld eines F&E-Projektes durchgeführt. 3.3.3.2 Konzeptionelle Herleitung der Wirkungszusammenhänge Auch in Bezug auf das Crazy quilt-Prinzip ist eine Unterscheidung zwischen der ProzessEffizienz und dem outputbezogenen Erfolg notwendig. Ebenso ist eine Trennung von Projekten mit einem geringen und einem hohen Innovationsgrad erforderlich, um Vor- und Nachteile von Effectuation und Causation zu analysieren. Zunächst werden die Wirkungen in Bezug auf die Projekteffizienz und anschließend auf den Projektoutput betrachtet. Aufgrund des geringen Prozessbezugs des Crazy quilt-Prinzips wird weder ein signifikanter Einfluss von Effectuation noch von Causation in Bezug auf die Prozess-Effizienz erwartet. Es ist weder bei einem geringen noch bei einem hohen Innovationsgrad davon auszugehen, dass in Bezug auf die Einhaltung des Zeit- und Budgetrahmens ein Vorgehen Vorteile hat, das durch Einbeziehung von Stakeholdern Unsicherheiten reduziert, gegenüber einem planbasierten, auf Vorab-Identifikation von Unsicherheiten abzielendem Verfahren. Ähnlich wie auch beim Bird-in-hand-Prinzip führt einerseits eine mittels unterschiedlicher Stakeholder erhöhte Kompetenz und Erfahrung dazu, dass der F&E-Prozess beschleunigt wird. Andererseits können wiederum klare Vorab-Überlegungen verbunden mit der Identifikation möglicher Unsicherheiten dazu führen, dass der Prozess zielstrebig durchlaufen werden kann. Signifikante Unterschiede zwischen einem geringen und einem hohen Innovationsgrad sind hingegen in Bezug auf den outputbezogenen Erfolg zu erwarten. Liegt ein geringer Innovationsgrad vor, sind Commitments von Stakeholdern in der Regel nicht nötig. In vielen Fällen sind dann Beteiligungen anderer gar nicht gewünscht, da der (mit einer hohen Wahrscheinlichkeit eintretende) Nutzen des Projektes dann mit anderen geteilt werden müsste. Darüber hinaus besteht die Gefahr, dass eigene Erfahrungen und Kompetenzen verloren gehen und andere in Zukunft als Wettbewerber in Erscheinung treten. 504 Diese Gefahr besteht insbesondere bei F&E-Kooperationen. 505 Zusätzlich ist ein wesentliches Argument für das Einholen von Stakeholder Commitments insbesondere für das Schließen von F&E-Partnerschaften dann nicht mehr gegeben. So gilt die Teilung der Projektrisiken 506 als wesentlicher Grund für F&EKooperationen. Bei einem geringen Innovationsgrad sind aber auch die Risiken gering, so dass in dieser Hinsicht Partnerschaften nicht weiterhelfen. Insgesamt bringt die Integration anderer Stakeholder also in einer Situation geringer Unsicherheit vergleichsweise wenig Zusatznutzen. Demgegenüber stehen in der Regel aber zusätzliche Kosten, wie etwa ein zusätzlicher Abstimmungsbedarf und zusätzliche Risiken, insbesondere in Bezug auf den Verlust
504 505 506
80
Vgl. Oesterle (2005), S. 771. Vgl. Fontanari (1995), S. 115ff. Vgl. Studie der DZ Bank, durchgeführt im Jahr 2001, nach der 50% der an einer Kooperation beteiligten Unternehmen die Reduzierung des Einzelrisikos als Grund für die Kooperation nannten (Mahrfachnennungen waren möglich), vgl. Bundesministerium für Wirtschaft und Technologie (o.J.), S. 5.
möglicher wissensbezogener Wettbewerbsvorteile. 507 Entsprechend sollte bei Vorliegen eines geringen Innovationsgrades ein planbasiertes Vorgehen nach Causation vorteilhaft sein. Markt- und Wettbewerbsanalysen können dann helfen, eine Einschätzung zur Marktdynamik zu bekommen und im Rahmen der Entwicklung neue Anforderungen an das F&E-Erzeugnis zu berücksichtigen. Dieses Vorgehen ermöglicht die Identifikation von potenziellen Risiken im Voraus. Solche Risiken können dann entweder umgangen oder aber direkt adressiert werden, indem bspw. das eigene F&E-Erzeugnis an gegebene Trends angepasst wird. 508 Anders muss ein Vorgehen bei einem hohen Innovatiosgrad erfolgen. Dann sind wirklich relevante Erkenntnisse nur begrenzt aus Markt- und Wettbewerbsanalysen generierbar. Eine Identifikation von Risiken und eine mögliche Anpassung an Risiken ist dann nicht möglich. Vielmehr muss versucht werden, dass Risiko aktiv zu reduzieren. Dafür können dann wiederum die zuvor schon beschriebenen Stakeholder Commitments sinnvoll sein. Auf diese Weise kann Kontrolle über zukünftige Entwicklungen aufgebaut werden. Diese Kontrolle sollte sich in jeder Projektphase positiv auswirken. Im Rahmen der Projektvorbereitung kann durch die Einbindung von Stakeholdern die Projektspezifizierung erleichtert werden. Insbesondere können Gespräche mit Stakeholdern, also etwa Kunden, Zulieferern oder Wettbewerbern zu einer Art informeller Marktanalyse 509 beitragen. So entsteht automatisch ein besseres Verständnis vom Markt, ohne dass dafür kostenintensive Markt- und Wettbewerbsanalysen notwenig sind. Insbesondere Gespräche mit potenziellen späteren Abnehmern können eine erste Auskunft über die Marktakzeptanz liefern. Dieses Verständnis kann bei der Ausrichtung und Detaillierung des Projektes hilfreich sein. Auch während der Durchführung eines F&E-Projektes kann die Einbindung von Stakeholdern bei Vorliegen eines hohen Innovationsgrades direkt von Vorteil sein. Insbesondere F&EKooperationen können dann zu einer Erhöhung der Kontrolle, bzw. zu einer aktiven Reduzierung der Unsicherheit beitragen. Durch das Zusammenwirken mehrerer Partner werden die Kompetenzen und Erfahrungen erhöht, was die Erfolgswahrscheinlichkeit in einem unsicheren Umfeld steigern kann. Außerdem wird das Risiko auf mehrere Partner verteilt, so dass im Falle eines Scheiterns der Verlust geringer ist. Darüber hinaus kann durch einen Zusammenschluss auf eine den Wünschen und Plänen entsprechende Zukunft hingewirkt werden. Entwicklungstendenzen sind im Idealfall durch ein gemeinsames Auftreten gezielt in eine Richtung steuerbar. Dies wäre bei einer separaten Entwicklung im Alleingang nicht möglich, da dann jedes Unternehmen für sich versuchen würde, die Zukunft so zu gestalten, dass sie sich für das von ihm zu entwickelnde Produkt optimal darstellt. Dies kann darin münden, dass mehrere Konzepte miteinander konkurrieren und letztlich unsicher ist, welches Konzept sich als Standard etabliert.
507 508 509
Vgl. Oesterle (2005), S. 790f. Vgl. dazu das Pilot-in-the-plane-Prinzip in Abschnitt 3.3.5 auf S. 91ff. Diese Art von informellen „Marktanalysen“ ist nicht zu verwechseln mit formalen detaillierten Marktstudien im Rahmen von Causation-Prozessen. An dieser Stelle sind lediglich informelle Gespräche mit Stakeholdern gemeint.
81
Auch im Hinblick auf die spätere Vermarktung des F&E-Erzeugnisses können „precommitments from stakeholders“ 510 bei Vorliegen eines hohen Innovationsgrades relevant sein. Ein typisches Vorgehen im Rahmen eines Effectuation-F&E-Projektes besteht darin, frühzeitig mit potenziellen Zulieferern oder Kunden zu sprechen. Auf diese Weise ist die Aufnahme von Wünschen des Kunden oder Zulieferers möglich. Gleichzeitig können Abnahmevereinbarungen getroffen werden. Dies ist von besonderem Interesse insbesondere in einem unsicheren Projektumfeld. Studien haben gezeigt, dass unter dem Umstand einer hohen Produkt- und Marktneuheit Absatzentwicklungen von Produkten kaum zu prognostizieren sind. 511 Eine Identifikation von potenziellen Risiken oder Marktchancen ist also kaum möglich, sehr wohl aber eine aktive Reduzierung der Unsicherheit durch entsprechende Vereinbarungen. Entsprechend sollte ein Vorgehen nach Effectuation, nämlich die Einbeziehung von Stakeholdern zur Erhöhung der Kontrollierbarkeit einer unsicheren Zukunft bei Vorliegen eines hohen Innovationsgrades in Bezug auf den Output sinnvoll sein. 3.3.3.3 Befunde in der angrenzenden Literatur Insgesamt ist in der Literatur anerkannt, dass Verbindungen zu Stakeholdern von großer Bedeutung sind. 512 Speziell die F&E wird als ein zentraler Bereich genannt, in dem „external relations“ die Performance positiv beeinflussen. 513 Eine Vielzahl von Autoren hat die „importance of recognising and working with stakeholders“ 514 im Bereich des F&EProjektmanagements erkannt und analysiert. 515 Demnach können Verbindungen zur externen Umwelt eines Unternehmens dazu führen, dass Risiken reduziert 516 und neue Erkenntnisse in die eigene F&E integriert werden. 517 Da letztlich entweder durch neue Erkenntnisse oder aber durch die Zusammenführung unterschiedlicher Wissensquellen Inventionen ermöglicht werden, sind „external ties […] vital sources […] that can spur innovative activity.“ 518 Dabei wird insbesondere das Eingehen von Partnerschaften im Rahmen von Entwicklungsallianzen und F&E-Netzwerken intensiv analysiert. Bei F&E-Projekten können horizontale 519
510 511 512
513
514 515
516 517 518 519
82
Vgl. u.a. Sarasvathy (2001a), S. 252. Vgl. Christensen (1997). „[…] stakeholder management is an important aspect of R&D management.“ (Elias/Cavana/Jackson (2002), S. 302). Vgl. Rothwell et al. (1974); Maidique/Zirger (1984); Link (1987); Pinto/Prescott (1988); Damanpour (1991); Gemünden (1992); Dvir et al. (1998); Shenhar et al. (2002); Elias et al. (2002); Naveh (2003); Robins/Atuahene-Gima (2003) und die dort angegeben Referenzen. Elias et al. (2002), S. 309. Vgl. stellvertretend Miller (1995); Tipping et al. (1995); Eckert (1996); Rogers (1996); Coombs et al. (1998); Elias et al. (2002). Vgl. u.a. Oesterle (2005), S. 772. Vgl. stellvertretend Cohen/Levinthal (2000), S. 39ff. Robins/Atuahene-Gima (2003), S. G2. Horizontale Kooperationen bezeichnen die gemeinsame Leistungserstellung von Organisationen auf derselben Wertschöpfungsstufe, also bspw. Wettbewerbern. Hierbei gibt es unterschiedliche Ziele. In vielen Fällen sollen die Risiken und Kosten für jeden einzelnen Partner reduziert und die Kompetenzen der an der Zusammenarbeit beteiligten Organisation gebündelt werden (vgl. Zentes/Schramm-Klein (2005), S. 294). Häufig ergänzen sich die Kompetenzen dabei (vgl. von der Oelsnitz (2005), S. 194f.). Dies ist von besonderer Bedeutung für mittlere und kleine Unterneh-
und vertikale 520 Partnerschaften unterschieden werden. Für beide Arten von Partnerschaften konnte eine positive Wirkung auf den Unternehmens- und Projekterfolg gezeigt werden. 521 Interessant ist dabei, dass wissenschaftlich nachgewiesen werden konnte, dass im Rahmen einer vertikalen Kooperation besonders auch der Zulieferer von einer Partnerschaft mit einem OEM profitiert. 522 Dies kann darauf hindeuten, dass die mit der Partnerschaft verbundenen Zusagen des OEMs, also die Stakeholder Commitments, aus Sicht des Zulieferers unmittelbar
520
521
522
men, da diese oft nicht über ausreichende finanzielle Mittel verfügen, um Ressourcen in allen für das F&E-Projekt erforderlichen Teilbereichen vorzuhalten. Außerdem sind Verbindungen zur externen wissenschaftlichen und technischen Community erforderlich (vgl. Rothwell et al. (1974), S. 266), um Kompetenzen aufzubauen und neue Trends frühzeitig mitgestalten zu können. Kooperationspartner können dabei sowohl Unternehmen als auch Universitäten und öffentliche Forschungseinrichtungen sein. Ebenso kann es auch interne horizontale Zusammenarbeiten mit anderen Projektteams geben. So konnte in empirischen Studien gezeigt werden, dass in F&E-Projekten die direkte horizontale Interaktion zwischen unterschiedlichen Teams positiv auf die Performance wirkt (vgl. Hoegl et al. (2004), S. 38). An dieser Stelle ist insbesondere eine enge Absprache und ein regelmäßiger Austausch neuer Erkenntnisse zwischen den Teams von Bedeutung (vgl. dazu auch den häufig genannten Erfolgsfaktor „interne Kommunikation“ u.a. in Rothwell et al. (1974); Pinto/Prescott (1988); Pinto/Covin (1989)). Vertikale Partnerschaften sind durch eine Zusammenarbeit von Organisationen der vor- und nachgelagerten Wertschöpfungsstufe gekennzeichnet. Unter vertikalen Partnerschaften versteht man so bspw. Kooperationen mit Zulieferern oder Kunden. In solchen Partnerschaften geht es häufig darum, mit dem Zulieferer oder Kunden eng zusammenzuarbeiten, um die Kompatibilität der unterschiedlichen Subsysteme und Komponenten durch eine gemeinsame F&E zu gewährleisten. Schnittstellenprobleme zwischen einzelnen Modulen und Komponenten von OEM und Zulieferer haben in der Vergangenheit immer wieder bspw. zu Qualitätsproblemen geführt. Diese hatten insbesondere in der Automobilindustrie erhebliche Auswirkungen auf das öffentliche Image der Hersteller und führten zu einer Reihe von Rückrufaktionen von betroffenen Fahrzeugen. So ist beispielsweise das Ergebnis der Mercedes Car Group alleine im Jahr 2004 infolge erheblicher Qualitätsprobleme um einen Betrag im „mittleren dreistelligen Millionenbereich“ (Manager Magazin vom 22.12.2004) belastet worden. Inzwischen hat der Konzern das Problem erkannt und versucht nach dem Vorbild von Toyota mit den Zulieferern im Bereich der F&E enger zusammenzuarbeiten (vgl. zum Vorgehen von Toyota und den entsprechenden Erfolgsfaktoren Dyer/Nobeoka (2000), S. 345ff.). Auch innerhalb einer Organisation kann es vertikale Partnerschaften geben. So kann eine enge Zusammenarbeit zwischen der F&E-Abteilung und anderen Organisationseinheiten erfolgsfördernd sein. Beispielsweise muss es gerade bei Produktentwicklungsprojekten einen engen Austausch mit der Fertigung geben, um sicherzustellen, dass Neu- oder Weiterentwicklungen kosteneffizient produziert werden können. Ähnliches gilt für enge Kooperationen mit Vertrieb und Marketing. Diese Abteilungen müssen zum einen Kunden- und Marktwünsche aufnehmen und an die F&EAbteilung weiterreichen und zum anderen bestehenden und potenziellen neuen Kunden Neuentwicklungen bekanntmachen. Darüber hinaus ist eine enge interne Absprache mit der Personalabteilung sinnvoll, um für das Projekt erforderliche Ressourcen zu erhalten. Vgl. u.a. Burt (1992); Gemünden et al. (1992); Elias et al. (2002), S. 301ff.; Frankort (2008), S. 1 und die dort angegebenen Referenzen. Außerdem konnte gezeigt werden, dass der Erfolg am größten ist, wenn die Partner moderat unterschiedliche Kompetenzen haben, da eine gewisse Basis gleicher Kompetenzen erforderlich ist, damit sich die Partner verständigen können und unterschiedliche Kompetenzen helfen, neue Produkte erfolgreich zu entwickeln (vgl. Sampson (2007), S. 382). Vgl. Maidique/Zirger (1984); Link (1987); Pinto/Prescott (1988); Gemuenden et al. (1992); Dvir et al. (1998); Shenhar et al. (2002); Elias et al. (2002); Naveh (2003).
83
vorteilhaft sind und eine wesentliche Ursache für die Erfolgswirkung darstellen. Darüber hinaus konnten Robins/Atuahene-Gima zeigen, dass externe Verbindungen auch die Entscheidungsqualität in Bezug auf die Durchführung eines Projektes erhöhen können und darüber positiv auf den Projekterfolg wirken. 523 Insgesamt deuten die Erkenntnisse in der Literatur darauf hin, dass ein Vorgehen nach dem effectuationbezogenen Crazy quilt-Prinzip eine größtmögliche Kontrollierbarkeit zukünftiger, ungewisser Entwicklungen sicherstellt, indem durch Partnerschaften und VorabCommitments anderer Stakeholder Unsicherheit aktiv reduziert wird. Insbesondere bei einem hohen Innovationsgrad sollte dieses Vorgehen vorteilhaft sein, weil dann eine VorabIdentifikation von Risiken und eine gezielte Vermeidung oder Anpassung an diese Risiken im Sinne von Causation kaum möglich ist. So konnte in der Literatur gezeigt werden, dass bei Projekten mit einem hohen Innovationsgrad eine Identifikation von Chancen und Risiken durch Marktanalysen wenig sinnvoll ist. 524 Vielmehr ist es dann wichtig, VorabCommitments einzuholen und Partnerschaften zu schließen, um einerseits fehlende eigene Kompetenzen auszugleichen 525 und andererseits das eigene Risiko zu reduzieren. 526 Die Abgrenzung zu Projekten mit einem geringen Innovationsgrad ist auf Basis der bestehenden Literatur schwieriger, da es nach Wissen des Autors bislang keine explizite Betrachtung des Innovationsgrades in diesem Kontext gibt. 527 Lediglich indirekt ist auf Basis der bestehenden F&E-Projektmanagement-Literatur ein Rückschluss auf eine Vorteilhaftigkeit von Causation bei einem geringen Innovationsgrad möglich. So wird einerseits darauf hingewiesen, dass insbesondere bei komplexen Entwicklungprojekten, die häufig einen hohen Innovationsgrad beinhalten, Kooperationen sinnvoll sind. 528 Eine aktive Reduzierung der Unsicherheit ist hingegen nicht notwendig, wenn keine hohe Unsicherheit vorliegt. Dann können wiederum Markt- und Wettbewerbsanalysen einen zusätzlichen Nutzen liefern. 529 Auch im Umfeld der Effectuation-Forschung gibt es erste Erkenntnisse in Bezug auf das Crazy quilt-Prinzip. Auch wenn sich diese Ergebnisse ausschließlich auf das Umfeld junger Unternehmen beziehen und nicht auf F&E-Projekte, können sie Hinweise geben, die als Unterstützung für die Hypothesenherleitung im Rahmen dieser Arbeit dienen.
523 524 525
526 527
528 529
84
Vgl. Robins/Atuahene-Gima (2003), S. G4. Vgl. Song/Montoya-Weiss (1998); Seidel (2007), S. 524. „[…] access to heterogeneous networks may complement, or substitute for, home-grown capabilities“ (Branzei (2006), S. E1). Vgl. u.a. Oesterle (2005), S. 772. Lediglich Hinweise, wie bspw. dass „[…] diverse R&D ties help firms realign their in-house innovation activities to better match the level of market uncertainty“ (Branzei (2006), S. E1), zeigen, dass die Höhe der Unsicherheit und damit der Innovationsgrad von Bedeutung zu sein scheint. Ngai et al. (2008), S. 421. Vgl. dazu insbesondere die Studien zum Einfluss der „Comprehensiveness“ auf die Entscheidungsqualität (u.a. Forbes (2007)) und Abschnitt 3.3.5 auf S. 91ff. zu einer detaillierteren Auseinandersetzung mit dieser Thematik.
So haben Read et al. in ihrer Meta-Analyse zu jungen Unternehmen 530 festgestellt, dass Partnerschaften, die dazu dienen die Risiken zwischen den Beteiligten zu teilen, positiv auf den Erfolg eines jungen Unternehmens wirken. 531 Honig et al. stellen in ihrer Studie fest, dass ein Vorgehen, das sich im Sinne von Causation auf Vorab-Analysen stützt, wenig sinnvoll für den Aufbau junger Unternehmen ist. 532 3.3.3.4 Ableitung der Hypothesen Insgesamt lassen sich auf Basis der theoriebasierten Überlegungen und den Ergebnissen in angrenzenden Forschungsbereichen in Bezug auf das Crazy quilt-Prinzip die folgenden vier Hypothesen ableiten.
Prozess-Effizienz
Outputbezogener Projekterfolg
Geringer Innovationsgrad
H3c-p: Die ex-ante Identifikation von Unsicherheit durch Markt- und Wettbewerbsanalysen hat keinen Einfluss auf die Prozess-Effizienz.
+ H3c-o: Die ex-ante Identifikation von Unsicherheit und Chancen durch Marktund Wettbewerbsanalysen wirkt positiv auf den outputbezogenen Erfolg.
Hoher Innovationsgrad
H3e-p: Das Eingehen von Partnerschaften mit dem Ziel, Commitments unterschiedlicher Stakeholder (z.B. Kunden, Zulieferer, F&E-Partner) zwecks Reduzierung von Unsicherheit zu bekommen, hat keinen Einfluss auf die ProzessEffizienz.
+ H3e-o: Das Eingehen von Partnerschaften mit dem Ziel, Commitments unterschiedlicher Stakeholder (z.B. Kunden, Zulieferer, F&E-Partner) zwecks Reduzierung von Unsicherheit zu bekommen, wirkt positiv auf den outputbezogenen Erfolg.
Tabelle 6: Forschungshypothesen zum Crazy quilt-Prinzip Quelle: Eigene Darstellung
3.3.4
Integration überraschender Ereignisse (Lemonade)
3.3.4.1 Das Lemonade-Prinzip im Kontext von F&E-Projekten Überraschungen innerhalb eines F&E-Projektes stellen häufig ungeahnte Möglichkeiten dar. Für solche überraschenden Erfindungen gibt es eine Vielzahl an Beispielen. 533 So wurde Teflon auf diese Weise entwickelt. Eigentlich wollte Roy Plunkett 1938 für DuPont ein neues Kühlmittel kreieren. Doch das dafür entwickelte Polytetrafluoroethylen verfestigte sich im Experiment. Teflon mit einem besonders geringen Reibungskoeffizient war gefunden. 1954 kam die erste Pfanne auf den Markt. Auf ähnliche Weise wurde Post-it von 3M erfunden. 1968 versuchte Spencer Silver einen Kraftkleber zu entwickeln. Zu seiner Enttäuschung führ-
530
531 532 533
In diese Meta-Analyse sind Erfolgsfaktorenstudien im Umfeld von jungen Unternehmen eingeflossen, die zwischen 1985 und 2007 im Journal of Business Venturing veröffentlicht wurden. Read et al. (2008), S. 13f. Vgl. Honig et al. (2002), S. 6f. „Many of the most dramatic inventions of the modern age were originally selected for purposes that were quite different from what eventually turned out to be their most enduring trait.“ (Mokyr (2000) zitiert in Dew et al. (2004), S. 82).
85
te seine F&E aber nur zu einem Leim mit geringer Klebeleistung. Sechs Jahre später ärgerte sich sein Firmenkollege Arthur L. Fry in der Kirche, weil sein Lesezeichen im Gesangsbuch immer raus fiel. Er erinnerte sich an den Kleber von Silver und die Idee für Post-it war geboren. Der Umstand, dass häufig Produkte erfolgreich werden, obwohl sie das ursprünglich angestrebte Projektziel verfehlen ist darauf zurückzuführen, dass neue Erkenntnisse jeglicher Art in solchen Prozessen aktiv genutzt werden. In der Literatur wird dieser Umstand auch als „Exaptation“ bezeichnet und als ein „pervasive feature of economic change“ angesehen. 534 Das Lemonade-Konzept als viertes hier betrachtetes Basisprinzip von Effectuation im Kontext von F&E-Projekten berücksichtigt die eingangs beschriebene Bedeutung von „Exaptation“. So zeichnet sich ein effectuationbezogenes F&E-Projekt in Bezug auf das LemonadePrinzip dadurch aus, dass es sehr offen für neue und überraschende F&E-Erkenntnisse ist und diese gezielt nutzt, auch wenn sie nicht mit einer möglichen ursprünglichen Entwicklungsidee übereinstimmen. Das Lemonade-Prinzip „suggests acknowledging and appropriating contingency by leveraging surprises“. 535 Damit kann das Lemonade-Prinzip deutlich von einem konventionellen Vorgehen nach Causation abgegrenzt werden. Bei Causation steht das angestrebte Ziel eines F&E-Projektes im Mittelpunkt. 536 Entsprechend werden Maßnahmen ergriffen, um mögliche Überraschungen zu vermeiden, sie schnellstmöglich zu überwinden oder sich ihnen bestmöglich anzupassen. 537 Dies erfolgt häufig durch eine sehr strukturierte Projektplanung und durch intensive Marktanalysen im Vorfeld des F&E-Projektes. Während der Durchführung des F&E-Projektes findet typischerweise eine enge Kontrolle des Fortschritts entlang von Meilensteinen statt. 3.3.4.2 Konzeptionelle Herleitung der Wirkungszusammenhänge Auch beim Lemonade-Prinzip müssen die Wirkungszusammenhänge wieder zwischen den beiden Erfolgsmaßen und dem Innovationsgrad unterschieden werden. Allerdings kommt es hier in Bezug auf eine Vorteilhaftigkeit von Effectuation und Causation in erster Linie auf das betrachtete Erfolgsmaß an, weil die Causation-Ausprägung von Lemonade, bei der es um Maßnahmen geht, um das ursprüngliche Projektziel möglichst schnell zu erreichen, einen sehr starken Prozessbezug hat. Entsprechend kann davon ausgegangen werden, dass ein Vorgehen nach Causation in Bezug auf das Lemonade-Prinzip unabhängig vom involvierten Innovationsgrad vorteilhaft ist, um einen effizienten Prozessablauf, nämlich insbesondere die Einhaltung der Zeit- und Budgetvorgaben, zu sichern. In Bezug auf den outputbezogenen Projekterfolg, insbesondere wenn es um die Generierung neuer Erkenntnisse und den Aufbau neuer Kompetenzen sowie die Sicherstellung eines zukünftigen Nutzens geht, sollte Effectuation einen positiven Erfolgseinfluss haben. Effectuation ermöglicht, dass neue Chancen erkannt und schnell weiterverfolgt und ausgenutzt werden
534 535 536 537
86
Dew et al. (2004), S. 82. Sarasvathy (2007), S. 21. Vgl. hierzu die Ausführungen in Abschnitt 3.3.1 zum Bird-in-hand-Prinzip (S. 70ff.). Der Kern von Causation besteht darin, „to avoid [surprises], overcome them, or adapt to them.“ (Sarasvathy (2007), S. 21).
können. Außerdem kann eine Offenheit gegenüber neuen Erkenntnissen im Sinne der Effectuation-Logik sicherstellen, dass im Falle von überraschenden F&E-Ergebnissen neue und gegebenenfalls bessere und ungeahnte Entwicklungsmöglichkeiten identifiziert werden.538 Dies ist von Bedeutung, weil F&E-Projekte keine, wie oftmals unterstellt, Sequenzen aus prognostizierbaren Einzelschritten sind, die zu Beginn eines Projektes lediglich identifiziert und geplant werden müssen. 539 Vielmehr gilt für einen Großteil der Projekte, insbesondere wenn ein hohes Maß an technischer Unsicherheit besteht, dass a priori nicht im Detail geplant werden kann und neue Erkenntnisse möglichst vorteilhaft aufgenommen werden müssen. 540 Der konzeptionelle Bezugsrahmen suggeriert darüber hinaus, dass die beiden zuvor beschrieben erfolgsmaßbezogenen Unterscheidungen jeweils stärker im Falle eines hohen Innovationsgrades ausgeprägt sind. So ist zu vermuten, dass bei Vorliegen eines hohen Innovationsgrades, ein Vorgehen nach Causation in Bezug auf die Prozess-Effizienz von größerer Bedeutung ist als bei einem geringen Innovationsgrad. Immer dann, wenn ein kreativer Prozess einsetzt, der, wie im Falle eines hohen Innovationsgrades auf neue Ideen und Erkenntnisse angewiesen ist, wird eine Einhaltung der Zeit- und Budgetvorgaben schwieriger und überhaupt nur erreichbar, wenn ein enges Monitoring stattfindet. Gleichzeitig ist zu erwarten, dass ein Vorgehen nach Effectuation in Bezug auf den outputbezogenen Erfolg bei einem hohen Innovationsgrad eine größere positive Erfolgswirkung hat, als bei einem geringen Innovationsgrad – wenngleich auch bei einem geringen Innovationsgrad von einer positiven Wirkung durch Effectuation ausgegangen werden kann. Bei Vorliegen eines hohen Innovationsgrades ist die Integration von neuen Erkenntnissen in vielen Fällen notwendig, um erfolgreich zu sein „especially as such projects can face considerable ambiguity and unforeseen challenges […].“ 541 Gleichzeitig ist die Wahrscheinlichkeit höher, dass neue Erkenntnisse während des Projektes generiert werden und so Kompetenzen aufgebaut werden können. Entsprechend stärker sollte sich ein Vorgehen nach Effectuation auf den outputbezogenen Erfolg auswirken. 3.3.4.3 Befunde in der angrenzenden Literatur Den hier angestellten Überlegungen sind die in der Literatur diskutierten Konzepte der sehr ergebnis- und zielorientierten formalen, planbasierten Management-Stile einerseits und der eher ergebnisoffenen, flexiblen Management-Stile andererseits am ehesten vergleichbar. Der Begriff formale Management Strukturen im Kontext von F&E-Projekten („formality“ oder „planned“) bezieht sich auf das Ausmaß, zu dem das Projekt durch feste Regeln, Vorgaben und Prozesse geleitet wird. 542 Einige solcher strukturierten Prozesse sind in der Literatur be-
538 539 540 541 542
Vgl. Sarasvathy (2007), S. 85f. Vgl. Rosenthal (1992); Bailetti et al. (1994); Schilling/Hill (1998). Vgl. Salomo et al. (2007), S. 297. Seidel (2007), S. 524. „Formality refers to adherence to standards such as routine operation, well-defined responsibilities and priorities, careful and analytical performance, coordination, precision, and accuracy.“ (Tatikonda/Rosenthal (2000), S. 404f.); Vgl. auch van de Ven/Ferry (1980), S. 303; Tatikonda/Montoya-Weiss (2001), S. 156; Naveh (2007), S. 111.
87
schrieben. 543 Am meisten Aufmerksamkeit hat das „Phase Gate“-System erlangt. 544 Dabei werden regelmäßige Reviews („Gate“) am Ende eines Projektabschnitts („Phase“) vorgenommen, um den Projektstatus zu bestimmen und in einem formalen Prozess über das weitere Vorgehen zu entscheiden und so eine effiziente und schnelle Zielerreichung sicherzustellen. Der Begriff flexible Management Strukturen im Kontext von F&E-Projekten („discretion“ oder „emergent“) bezieht sich auf die Möglichkeit zur Korrektur an vorgefertigten Ideen oder Konzepten auf der Basis neuer, unerwarteter Ideen, die während der Projektdurchführung erkannt, konkretisiert und umgesetzt werden. 545 Damit ist „formality“ am ehesten vergleichbar mit Causation und „discretion“ zumindest eingeschränkt mit einem Vorgehen nach Effectuation. 546 Die insgesamt wenigen empirischen Studien, die es in diesem Forschungsfeld gibt, kommen in Bezug auf eine mögliche Vorteilhaftigkeit einer der beiden Ansätze zu unterschiedlichen Ergebnissen.547 So gibt es auf der einen Seite Forscher, die einen „emergent, fluid style of management“ 548 bevorzugen 549 und zeigen, dass flexible Strukturen im Innovationskontext erfolgswirksam sind. 550 Auf der anderen Seite wird eine disziplinierte Planung als Möglichkeit beschrieben, Projekte zu beschleunigen 551 , Fehlerraten zu reduzieren 552 und den finanziellen Erfolg 553 insgesamt zu steigern. 554 Darüber hinaus gibt es Befürworter beider Stile, die versuchen, den scheinbaren Gegensatz zwischen beiden Ansätzen aufzuheben. 555 So haben insbesondere Fallstudien gezeigt, dass es auf die Balance und das „interplay of emergent and planned styles“ 556 ankommt. 557 Auf der einen Seite wirkt sich Flexibilität und „decision making discretion“558 positiv auf den Projekterfolg aus, weil es „may foster spontaneity, encouraging members to improvise and explore market opportunities as they arise.“ 559 Gleichzeitig finden Lewis et al., dass unter den gleichen Bedingungen eine enge Führung und stärkere Formalisierung positiv auf die Prozess-
543 544 545 546
547 548 549 550 551 552 553 554
555 556 557 558 559
88
Vgl. u.a. Cooper/Kleinschmidt (1990); Rosenthal (1992); Wheelwright/Clark (1992b). Vgl. Tatikonda/Rosenthal (2000), S. 405. Vgl. Naveh (2007), S. 112. Eine Einschränkung liegt bei „discretion“ insofern vor, als dass hier von einer Anpassung der Regeln und Prozesse an eine veränderte Umwelt gesprochen wird. Bei Effectuation wird hingegen davon ausgegangen, dass eine Anpassung nicht notwendig ist, weil durch das betrachtete F&EProjekt von vornherein ein vollständig neuer Trend/Markt geschaffen wird (vgl. dazu auch Abschnitt 3.3.5: Pilot-in-the-plane). Vgl. Salomo et al. (2007), S. 286. Lewis et al. (2002), S. 547. Vgl. dazu bspw. Dougherty (1992); Moorman/Miner (1998). Vgl. stellv. Burns/Stalker (1961); Thompson (1965); Aiken/Hage (1971); Pierce/Delbecq (1977). Vgl. bspw. Zirger/Maidique (1990); Wheelwright/Clark (1992b). Vgl. bspw. Cooper/Kleinschmidt (1986); Montoya-Weiss/Calantone (1994). Vgl. Ittner/Larcker (1997); Song/Parry (1997). Vgl. zusätzlich auch die älteren Arbeiten von Evan/Black (1967) und Ettlie/Bridges/O’Keefe (1984). Vgl. Eisenhardt/Tabrizi (1995), S. 91; Tatikonda/Rosenthal (2002), S. 417. Lewis et al. (2002), S. 547. Vgl. bspw. Jelinek/Schoonhoven (1990); Laufer (1997). Lewis et al. (2002), S. 562. Lewis et al. (2002), S. 562.
Effizienz wirkt. 560 Naveh hat jüngst gezeigt, dass sowohl „formality“, also Prozesse, die stabil verlaufen und sich an festgelegte Regeln halten, als auch „discretion“, nämlich Prozesse, die mit einer hohen Spontaneität und dem Wunsch nach Veränderung und Brechen von eingefahrenen Regeln verbunden sind, positiv auf den Erfolg eines F&E-Projektes wirken. 561 Offensichtlich scheinen also beide Vorgehensweisen sinnvoll zu sein. Der Grad, zu dem die Höhe der Formalisierung den F&E-Erfolg positiv beeinflusst, hängt demnach davon ab, wie viele Entscheidungsfreiräume bei dem Projektteam verbleiben. 562 Erfolgreiche Produktinnovation „requires flexibility but at the same time, it is also important to create structure and motivate pace.“ 563 Formalisierte Kontrollstrukturen, die ein hohes Maß an Flexibilität und ggf. auch die Neuausrichtung eines Projektes sicherstellen, erscheinen dafür als geeignet. 564 Dem Argumentationsstrang in den vorigen Abschnitten folgend, kann auch wieder ein moderierender Einfluss des Innovationsgrades bzw. der vorliegenden Unsicherheit vermutet werden: „Although project characteristics are known to make a difference […], to date few empirical studies have systematically investigated the extent to which the effect of planning […] is contingent upon a product’s degree of innovativeness.“ 565 Naveh findet jedoch heraus, dass die Unsicherheit keinen moderierenden Einfluss in Bezug auf die Vorteilhaftigkeit von „formality“ und „discreation“ auf den F&E-Projekterfolg hat. Auch Tatikonda/Montoya-Weiss haben keinen Einfluss der Unsicherheit auf die Bedeutung einer strikten Formalisierung gefunden. 566 Als eine mögliche Ursache hierfür gibt Naveh an, „that discretion’s main effect and its interaction with formality may mitigate the effect of uncertainty in R&D projects.“567 Das würde bedeuten, dass der Einfluss der Unsicherheit eliminiert werden kann „by managing formality and discretion“. 568 Dies ist ein wichtiges Ergebnis, da es einerseits im Gegensatz zu dem steht, was in der Literatur in Bezug auf die Wirkung der Unsicherheit häufig vermutet wird 569 und andererseits auch Implikationen auf die Hypothesenbildung in der vorliegenden Arbeit haben muss. Es lässt sich aus diesen Erkenntnissen schlussfolgern, dass der Innovationsgrad keinen signifikanten Einfluss auf die Vorteilhaftigkeit von Effectuation oder Causation ausübt. Gleichzeitig liefern die Erkenntnisse aber Indizien dafür, dass sowohl ein Vorgehen nach Effectuation als auch nach Causation erfolgswirksam ist. Dabei kommt es einerseits auf das oben angesprochene Zusammenspiel beider Management-Stile an. Andererseits scheint auch eine Unterscheidung entlang des betrachteten Erfolgsmaßes erforderlich zu sein.
560 561 562 563 564 565 566
567 568 569
Prozess-Effizienz gemessen an der „On-time performance“ (vgl. Lewis et al. (2002), S. 562). Vgl. Naveh (2007). Vgl. Naveh (2007), S. 114. Eisenhardt/Tabrizi (1995), S. 91. Vgl. hierzu auch Imai et al. (1985), S. 357. Salomo et al. (2007), S. 286. Tatikonda/Montoya-Weiss diskutieren dieses Ergebnis allerdings nicht im Detail. Vgl. Tatikonda/Montoya-Weiss (2001). Naveh (2007), S. 123. Naveh (2007), S. 123. Vgl. Tatikonda/Montoya-Weiss (2001); Naveh (2003).
89
So weisen Lewis et al. darauf hin, dass eine Unterscheidung in Bezug auf eine Betrachtung des prozess- und outputbezogenen Erfolgsmaßes notwendig ist, die sie zumindest teilweise auch empirisch bestätigen. 570 Sie liefern Hinweise, dass ein „emergent style of management“, der hier mit Effectuation verglichen wird, positiv auf das outputbezogene Erfolgsmaß (Generierung neuer Erfahrungen und Kompetenzen und wahrgenommener Nutzen bzw. zukünftige Potenziale) wirkt. Dabei beziehen sie sich auch auf Moorman/Miner, indem sie Improvisation als einen wesentlichen Bestandteil eines „emergent“ Management-Stils sehen. 571 „Emergent activities“ helfen einem Projektteam technische Kompetenzen aufzubauen, indem sie neue wissenschaftliche Konzepte erforschen und ausprobieren sowie mit alternativen Produktdesigns experimentieren. 572 Darüber hinaus trägt ein solcher Management-Stil in großem Ausmaß einem zunehmend in der Literatur anerkannten Umstand Rechnung, dass ein „[…] focus only on front-end concept generation practices may not be sufficient. Later changes to the concept are not only likely but are also likely to be important.“ 573 In restriktiven formalen Prozessen kann es hingegen zu erheblichen Einschränkungen in Bezug auf die Generierung neuer Erkenntnisse und den Aufbau neuer Kompetenzen kommen, so dass solche Prozesse insgesamt nachteilig für den Projektoutput sind. 574 Auf das Erfolgsmaß Projekteffizienz (bspw. Einhaltung von Zeit- und Budgetvorgaben) wirkt hingegen ein „planned style of managerial activities“ oder im Rahmen des hier angestellten Vergleichs im übertragenen Sinne Causation positiv. 575 Eine hohe Projekteffizienz ist letztlich auch das oberste Ziel eines solchen Vorgehens. 576 Manager stellen dabei sicher, dass die Projektteams immer auf die eigentlichen Projektziele fokussiert bleiben.577 Zeitplan- und budgetbezogene Meilensteine veranschaulichen und dokumentieren nach Wheelwright/Clark die begrenzten Ressourcen und führen somit zu einem effizienten Umgang mit diesen. 578 Gleiches wird durch regelmäßige formale Reviews in Bezug auf die Ressourcenallokation sichergestellt. 3.3.4.4 Ableitung der Hypothesen Insgesamt lassen sich aus dem konzeptionellen Bezugsrahmen (Lemonade-Prinzip) und den in der angrenzenden Literatur erzielten Forschungsergebnissen folgende vier Hypothesen ableiten.
570 571 572 573 574 575 576 577 578
90
Vgl. Lewis et al. (2002), S. 552 ff. Vgl. Moorman/Miner (1998), S. 1ff. Vgl. Lewis et al. (2002), S. 552. Seidel (2007), S. 531. Vgl. Sethi/Iqbal (2008), S. 129. Vgl. Lewis et al. (2002), S. 552ff. Vgl. Shenhar/Dvir (1996), S. 607ff. Vgl. Lewis et al. (2002), S. 552. Vgl. Wheelwright/Clark (1992b).
Prozess-Effizienz
Outputbezogener Projekterfolg
Geringer Innovationsgrad
+ H4c-p: Die Vermeidung von Überraschungen und strikte Verfolgung vorgegebener Ziele wirkt positiv auf die Prozess-Effizienz.
+ H4e-o: Die bestmögliche Nutzung von Unsicherheit und überraschenden Ereignissen, bspw. durch die Offenheit zur Generierung von nicht geplanten Erkenntnissen, wirkt positiv auf den outputbezogenen Erfolg.
Hoher Innovationsgrad
+ H4c-p: Die Vermeidung von Überraschungen und strikte Verfolgung vorgegebener Ziele wirkt positiv auf die Prozess-Effizienz.
+ H4e-o: Die bestmögliche Nutzung von Unsicherheit und überraschenden Ereignissen, bspw. durch die Offenheit zur Generierung von nicht geplanten Erkenntnissen, wirkt positiv auf den outputbezogenen Erfolg.
Tabelle 7: Forschungshypothesen zum Lemonade-Prinzip Quelle: Eigene Darstellung
Als zusätzliche interessante Fragestellung bleibt die direkt aus dem konzeptionellen Bezugsrahmen hergeleitete Vermutung zu prüfen, dass die positive Wirkung von Causation (in Bezug auf die Prozess-Effizienz) bzw. Effectuation (in Bezug auf den outputbezogenen Projekterfolg) bei Vorliegen eines hohen Innovationsgrades deutlich stärker ausgeprägt ist als im Falle eines geringen Innovationsgrades. 3.3.5
Kontrolle durch aktive Beeinflussung zukünftiger technologischer Trends (Pilot-inthe-plane)
3.3.5.1 Das Pilot-in-the-plane-Prinzip im F&E-Kontext Das Pilot-in-the-plane-Prinzip beinhaltet, dass zukünftige Entwicklungen durch aktives Handeln gestaltbar sind. 579 „This principle urges relying on and working with human agency as the prime driver of opportunity […].“ 580 In Abgrenzung dazu ist das Causation-Gegenstück zu Pilot-in-the-plane dadurch gekennzeichnet, dass zukünftige Entwicklungen und Trends als exogen gegeben angenommen werden. Solche Trends sind dann nicht beeinflussbar durch den Einzelnen, sehr wohl aber nutzbar, indem sie frühzeitig identifiziert werden. Ein solches Vorgehen geht dann davon aus, dass die eigenen Handlungen beschränkt sind auf „exploiting exogenous factors such as technological trajectories and socio-economic trends.“ 581 Im F&E-Kontext bedeutet das konkret, dass die Organisation im Falle von Effectuation als zentraler Treiber angesehen wird, die mit Hilfe seiner F&E-Erzeugnisse zukünftige technologische Trends mitbestimmt. Im Falle von Causation versucht die Organisation hingegen exogen gegebene Trends vorherzusagen und auf Basis seiner Erwartungen zu kapitalisieren. Auch bei diesem Prinzip wird die grundlegend unterschiedliche Auffassung über den Umgang mit Unsicherheit und die Herstellung von Kontrolle zwischen Effectuation und Causation
579 580 581
„Human action is the predominant factor shaping the future“ (Sarasvathy (2007), S. 87). Sarasvathy (2007), S. 22. Sarasvathy (2007), S. 22.
91
deutlich. 582 Grundsätzlich ist es vorteilhaft, durch unterschiedliche Maßnahmen eine Kontrollierbarkeit über zukünftige Entwicklungen herzustellen. 583 Während Effectuation darauf fokussiert ist, Kontrolle durch die aktive Beeinflussbarkeit zukünftiger Entwicklungen sicherzustellen, legt Causation eher darauf Wert, eine unsichere Zukunft möglichst exakt zu prognostizieren, was dem Unternehmen ermöglicht, sich bestmöglich auf diese Zukunft einzustellen. 3.3.5.2 Konzeptionelle Herleitung der Wirkungszusammenhänge Auch in Bezug auf das Pilot-in-the-plane-Prinzip ist zwischen der Prozess-Effizienz und dem outputbezogenen Erfolg zu unterscheiden. Darüber hinaus muss zwischen Projekten mit einem geringen und einem hohen Innovationsgrad differenziert werden. Zunächst werden erneut die Wirkungen in Bezug auf die Projekteffizienz und anschließend auf den Projektoutput analysiert. Insbesondere in Bezug auf die Prozess-Effizienz kann ein signifikanter Einfluss von Effectuation bzw. Causation erwartet werden, weil das Pilot-in-the-plane-Prinzip einen unmittelbaren Prozessbezug hat. Bei Projekten mit einem geringen Innovationsgrad sollte ein Vorgehen nach Causation besonders vorteilhaft sein. Eine genaue Analyse von Trends ist dann gut möglich, so dass eine detaillierte Vorab-Analyse und ein Anlehnen an bestehende Trends ein schnellstmögliches Abarbeiten des Projektes in den geforderten Zeit- und Budgetgrenzen sicherstellen kann. Liegt ein hoher Innovationsgrad vor, sollte sich hingegen ein Vorgehen nach Effectuation positiv auf die Prozess-Effizienz auswirken. Da, wie zuvor ausgeführt, mit steigendem Neuheitsgrad gleichzeitig auch die Höhe der Unsicherheit steigt, kann in Situationen mit einem hohen Innovationsgrad die Zukunft immer schlechter prognostiziert werden: Liegt ein hoher Innovationsgrad vor, ist „[…] our knowledge about the future […] not a deficiency that can be remedied by sufficient study but in fact derives from the originating, creative force of human choice – that such uncertainties are even in principle imponderable.“584 Entsprechend sollte ein Vorgehen, das weniger auf Vorhersage und mehr auf aktive Sicherstellung der Kontrolle aus ist, in Situationen mit einem hohen Grad an Neuheit vorteilhaft sein. VorabAnalysen sind in solchen Situationen auch wirkungslos, weil keine Möglichkeit besteht, sich an vorgezeichnete Trends anzulehnen und solche Trends auch gar nicht abzusehen sind. Daher sollte es dann vorteilhaft in Bezug auf die Prozess-Effizienz sein, im Sinne von Effectuation aktiv einen neuen Trend zu gestalten, anstatt viel Zeit und Budget darauf zu verwenden, vermeintliche Trends aufzuspüren. Auch in Bezug auf den outputbezogenen Projekterfolg können Unterschiede zwischen einem geringen und einem hohen Innovationsgrad auf Basis des konzeptionellen Bezugsrahmens vermutet werden. Allerdings sollte es deutlich schwieriger sein, diese Unterschiede zu messen, da das Pilot-in-the-plane-Prinzip ähnlich wie Affordable loss einen besonders ausgepräg-
582 583
584
92
Vgl. dazu die Ausführungen in Abschnitt 2.2.2.4 auf S. 44. Die Herstellung eines subjektiven Kontrollempfindens gehört zu einem der wesentlichen psychologischen Basismotive nach denen Entscheidungsträger in unsicheren Situationen suchen (vgl. u.a. von Nitzsch (2001), S. 46). Dew/Sarasvathy (2007), S. 269f. Vgl. auch Buchanan/Vanberg (1990), S. 172.
ten Prozessbezug hat. Bei Vorliegen eines geringen Innovationsgrades sollte ein Vorgehen nach Causation Vorteile aufweisen. Neue Trends sind dann in der Regel nicht mehr zu schaffen. Vielmehr sind die Technologie und der Markt bereits bekannt und eine detaillierte Auseinandersetzung mit den Bedürfnissen etwa der Kunden kann dazu führen, dass das entwickelte F&E-Erzeugnis insgesamt vom Output her erfolgreicher wird. Ähnlich wie auch schon in Bezug auf das Affordable loss-Prinzip wird die Diskussion schwieriger bei Vorliegen eines hohen Innovationsgrades. Dann wiederum gibt es nämlich zwei Argumentationsstränge, die einerseits Effectuation und andererseits Causation als vorteilhaft erscheinen lassen. Unter direkter Bezugnahme auf den konzeptionellen Rahmen sollte die EffectuationAusprägung des Pilot-in-the-plane-Prinzips bei einem hohen Innovationsgrad neben den Vorteilen in Bezug auf die Prozess-Effizienz auch positiv auf den Projektoutput wirken. Dies gilt insbesondere dann, wenn mögliche Umwelttrends unklar sind. Wird ein Markt durch die F&E einer Organisation entscheidend mitgestaltet, sollte es bspw. möglich sein, technische Standards zu etablieren, die eine längerfristige, nachhaltige Kontrollierbarkeit der Zukunft ermöglichen. Andererseits ist nicht gesagt, dass Projekte, die nach einem Causation-Prozess vorgehen, obwohl ein hoher Innovationsgrad vorliegt, automatisch einen schlechteren Output erzielen. So ist es durchaus möglich, dass bspw. aufwendige Marktanalysen gemacht werden und dann entweder (zufällig) tatsächlich die prognostizierte Entwicklung eintritt oder aber die detaillierte Vorab-Analyse während des Projektverlaufes gar nicht weiter berücksichtigt wird. In einem solchen Fall endet ein Causation-Vorgehen bei einem hohen Innovationsgrad zwar in einer geringen Prozess-Effizienz. Dennoch kann es aber zu einem hohen Projekt-Output kommen. Zusammen bedeutet dies, dass bei einem hohen Innovationsgrad weder ein Vorgehen nach Effectuation noch nach Causation in Bezug auf den Projektoutput klare Vorteile haben sollte. 3.3.5.3 Befunde in der angrenzenden Literatur Schon vor Sarasvathy’s Ausführungen zu Effectuation wurde von einzelnen Autoren darauf hingewiesen, dass es nicht in allen Situationen sinnvoll sein kann, anzunehmen, dass die Zukunft durch eine möglichst intensive Trendanalyse vorhergesehen und auf diese Weise kontrolliert werden kann. Vielmehr wird die Zukunft durch menschliches Handeln geschaffen. So weisen Buchanan/Vanberg auf die Notwendigkeit der Betrachtung einer Perspektive hin, „that brings in focus creativity and open-endedness in the evolution of non-equilibrium systems, a perspective that has as its leitmotiv “that the future is not given” (Prigogine, 1986, p. 493), but is created in an unfolding evolutionary process.“585 In der Literatur wird bislang insgesamt wenig auf eine solche aktive Beeinflussung zukünftiger Trends eingegangen. Anstatt dessen wird in der Regel unterstellt, dass ein Markt durch einen einzigen Marktteilnehmer nicht gestaltbar ist, sondern dass sich dieser an die exogen vorgegebenen Entwicklungen anpassen muss. Innerhalb dieser Annahmen werden dann zwei
585
Buchanan/Vanberg (1994), S. 316.
93
mögliche Vorgehensweisen beschrieben, um mit bestehender Unsicherheit umzugehen. 586 So gibt es die Möglichkeit proaktiv oder reaktiv vorzugehen. Ein proaktiver Ansatz versucht, Unsicherheit durch Flexibilität im Prozess zu kompensieren. So wird im Vorhinein bereits allen als unsicher eingestuften Prozessschritten ein höheres Maß an Flexibilität eingeräumt. Dies äußert sich in der Regel in längeren eingeplanten Projektabschnitten oder in einer höheren Projektkapazität für diese Phasen. 587 Ein reaktiver Ansatz hingegen zielt darauf ab, eine bestmögliche Antwort auf unerwartete Ereignisse zu haben, indem der ursprüngliche Plan an die neuen Erkenntnisse angepasst wird. Reaktiven Ansätzen wird eine Vorteilhaftigkeit insbesondere unterstellt, wenn eine hohe Unsicherheit besteht. 588 In der jüngeren Vergangenheit wird zunehmend, zumeist theoriebasiert, anerkannt, dass es bei Vorliegen eines hohen Innovationsgrades wenig sinnvoll ist, durch detaillierte Analysen zukünftige Trends zu identifizieren: „The future has not yet happened. About it, men can have only opinions, related to past experience (learning). Since men can (must) choose how to act, their chosen acts, together with the evolution of the physical world, are continuously creating the emerging future. If this is so (as it must be), then the future cannot be known now […].“ 589 Die Analyse von Moderatoren scheint also notwendig zu sein, um zu beurteilen, ob ein Einfluss von systematischen Analysen der Umwelt als Basis für die Entscheidung zur Durchführung eines F&E-Projektes ausgeht. Aus der Effectuation-Logik wurde abgeleitet, dass dem Innovationsgrad oder der Unsicherheit ein entscheidender Einfluss zukommt und mit steigendem Innovationsgrad der Nutzen von Detailanalysen der Umwelt abnimmt, weil dann aufgrund der hohen Unsicherheit keine genauen Prognosen über zukünftige Entwicklungen mehr abgegeben werden können: „[…] regardless of whether uncertainty comes from the environment, or is initiated by the manager […], strategies based on attempting to predict an uncertain environment are not likely to be well informed.“ 590 Aus diesem Grund können dann vermeintliche Trends auch nicht erfolgsbringend genutzt werden, wie es für ein Vorgehen nach Causation typisch ist. Dennoch wird in der Praxis häufig auf eine Zunahme der Unsicherheit derart reagiert, dass, wie Smit/Read zeigen, zusätzliche Anstrengungen unternommen werden, um die Zukunft durch Analysen besser prognostizierbar zu machen: „[…] corporate managers [often] fall into the trap of trying (too hard) to make their environment perceptions more accurate without questioning their core assumptions about the efficacy of it in uncertainty.“591 Dies wird in der Literatur zur Erforschung des Einflusses der Comprehensiveness 592 auf die Entscheidungsqualität ebenfalls untersucht. So stellt Forbes fest, dass Comprehensiveness nur dann einen positiven Einfluss auf die Entscheidungsqualität hat, wenn einerseits viel Informa-
586 587 588 589 590 591 592
94
Vgl. Hans et al. (2007), S. 564. Vgl. Hans et al. (2007), S. 564. Vgl. Hans et al. (2007), S. 564. Wiseman (1989), S. 268. Smit/Read (2008), S. 3. Smit/Read (2008), S. 6. Comprehensiveness bezeichnet ein „concept that captures the extensiveness with which an organization’s top executives systematically gather and process information from the external environment in making strategic decisions“ (Forbes (2007), S. 362).
tion verfügbar ist und andererseits diese verfügbare Information auch in ihrer Bedeutung klar ist. 593 Da bei echter Unsicherheit wenige bis keine zuverlässig verwertbaren Informationen vorliegen, ist es den Erkenntnissen von Forbes folgend fraglich, ob in solchen Situationen qualitativ hochwertige Entscheidungen auf Basis von vermeintlichen Trendanalysen 594 getroffen werden können. Demnach sollte ein Vorgehen nach Causation unter hoher Unsicherheit, also bei Vorliegen eines hohen Innovationsgrades, einem kontrollbasierten Vorgehen, also Effectuation, unterlegen sein. Atuahene-Gima/Li haben in einer Untersuchung zum Einfluss von Comprehensiveness auf den Neuprodukterfolg herausgefunden, dass die Dimensionen des Innovationsgrades unterschiedliche Moderationswirkungen haben. 595 So fanden sie heraus, dass ein breites Wissen über die Umwelt vorteilhaft ist, wenn die nachfragebezogene-, also die Marktunsicherheit hoch ist. Das würde bedeuten, dass Causation auch bei einem hohen Marktinnovationsgrad vorteilhaft ist. Gleichzeitig zeigt diese Studie, dass der Zusammenhang bei einer hohen technologischen Unsicherheit genau anders ist. Dann wirkt Comprehensiveness negativ auf den Neuprodukterfolg, weil die hohen, mit der Informationsbeschaffung verbundenen Kosten nicht durch die damit verbundenen Vorteile kompensiert werden können. Das bedeutet, dass Causation-Prozesse nur dann sinnvoll möglich sind, wenn eine geringe technologische Unsicherheit vorliegt, also der Technologieinnovationsgrad gering ist. Ist der Technologieinnovationsgrad hingegen hoch, so ist davon auszugehen, dass ein kontrollbasiertes Vorgehen im Sinne von Effectuation vorteilhaft ist. Insgesamt deuten die Erkenntnisse darauf hin, dass ähnlich wie im vorigen Abschnitt auf Basis des konzeptionellen Bezugsrahmens hergeleitet, bei Vorliegen eines hohen Innovationsgrades zwei Einflussarten von Bedeutung sind: Einerseits wirkt ein effectuationbezogener Ansatz positiv, nämlich insbesondere bei Vorliegen eines hohen Technologieinnovationsgrades und andererseits ist ein Vorgehen nach Causation, insbesondere auch bei Vorliegen eines hohen Marktinnovationsgrades, mit einer positiven Wirkung verbunden. Welche dieser Einflussarten stärker ist, bleibt letztlich durch die Empirie zu untersuchen. 3.3.5.4 Ableitung der Hypothesen Insgesamt lassen sich sowohl auf Basis der konzeptionellen Überlegungen als auch auf Basis der Ergebnisse in angrenzenden Forschungsbereichen in Bezug auf das Pilot-in-the-planePrinzip vier Hypothesen entlang des Innovationsgrades und des Erfolgsmaßes ableiten.
593
594
595
Vgl. Forbes (2007), S. 372. Ähnlich stellen auch Robins/Atuahene-Gima fest, dass „information diversity“ einen negativen Einfluss auf die Entscheidungsqualität hat (vgl. Robins/Atuahene-Gima (2003), S. G6). Aufgrund der in einer solchen Situation äußerst vagen oder unsicheren Informationsgrundlage ist eine richtige Trendanalyse eigentlich nicht möglich. Vielmehr ist eine derartige Analyse dann das Abbild subjektiver Erwartungen und/oder Wünsche (vgl. March (2006), S. 203). Vgl. Atuahene-Gima/Li (2004), S. 590ff.
95
Prozess-Effizienz
Outputbezogener Projekterfolg
Geringer Innovationsgrad
+ H5c-p: Die Nutzung von Methoden zur Prognose zukünftiger technologischer Entwicklungen und Trends als Basis zur Ausrichtung des F&E-Projektes wirkt positiv auf die Prozess-Effizienz.
+ H5c-o: Die Nutzung von Methoden zur Prognose zukünftiger technologischer Entwicklungen und Trends als Basis zur Ausrichtung des F&E-Projektes wirkt positiv auf den outputbezogenen Erfolg.
Hoher Innovationsgrad
+ H5e-p: Die Sicherstellung einer Kontrollierbarkeit durch eine Position, die eine aktive Einflussnahme auf zukünftige Entwicklungen ermöglicht, wirkt positiv auf die Prozess-Effizienz.
H5e-o: Die Sicherstellung einer Kontrollierbarkeit durch eine Position, die eine aktive Einflussnahme auf zukünftige Entwicklungen ermöglicht, hat keinen direkten Einfluss auf den outputbezogenen Erfolg.
Tabelle 8: Forschungshypothesen zum Pilot-in-the-plane-Prinzip Quelle: Eigene Darstellung
Zusätzlich soll an dieser Stelle geprüft werden, ob in Bezug auf den outputbezogenen Erfolg eine Unterscheidung zwischen Technologie- und Marktinnovationsgrad erforderlich ist. Auf Basis des konzeptionellen Bezugsrahmens und der Erkenntnisse in der Literatur kann geschlossen werden, dass umfangreiche Vorab-Analysen eher bei Vorliegen eines hohen Marktinnovationsgrades hilfreich sind. Mit zunehmendem Technologieinnovationsgrad sollte in Bezug auf den outputbezogenen Erfolg hingegen ein Vorgehen nach Effectuation stärker an Relevanz gewinnen. 3.4
Herleitung des Forschungsmodells
Auf Basis der zuvor gebildeten Forschungshypothesen wird an dieser Stelle nun das gesamte Forschungsmodell erstellt. Insgesamt wurden im vorangegangenen Abschnitt 20 Hypothesen hergeleitet, die die Wirkung der fünf, entweder nach Effectuation oder Causation ausgeprägten Prinzipien auf den Erfolg eines F&E-Projektes beschreiben. Dabei wird der Erfolg des F&E-Projektes unterteilt in eine prozessbezogene und eine outputbezogene Erfolgsgröße. Darüber hinaus wurde die Notwendigkeit aufgezeigt, zwischen Projekten mit einem geringen und einem hohen Innovatiosgrad zu differenzieren. Dabei gilt, insofern ein Einfluss auf die entsprechende Erfolgsgröße erwartet werden kann, dass Causation bei einem geringen Innovationsgrad und Effectuation bei einem hohen Innovationsgrad als vorteilhaft angenommen wird. Das Lemonade-Prinzip setzt sich von den übrigen Prinzipien in dieser Hinsicht etwas ab. Zwar wird hier auch eine Moderationswirkung des Innovationsgrades auf die Vorteilhaftigkeit von Effectuation oder Causation angenommen, allerdings ist die betrachtete Erfolgskategorie an dieser Stelle von größerer Bedeutung. So wird hypothetisiert, dass Causation sowohl bei geringem als auch bei einem hohen Innovationsgrad eine höhere Prozess-Effizienz und Effectuation einen höheren Projektoutput sicherstellt. Das vollständige Forschungsmodell ist in Abbildung 10 übersichtsartig gezeigt.
96
Moderator Effectuation/Causation-F&E-Projekt Charakteristika Bird-in-hand
Affordable loss
Crazy quilt
Lemonade
Pilot-in-the-Plane
Innovationsgrad gering
hoch
(H1c-p) (H1e-p) + (H1c-o) + (H1e-o) + (H2c-p) + (H2e-p) + (H2c-o) (H2e-o)
F&E-Erfolg Prozess-Effizienz
(H3c-p) (H3e-p) + (H3c-o) + (H3e-o) + (H4c-p) + (H4c-p) + (H4e-o) + (H4e-o)
Output
+ (H5c-p) + (H5e-p) + (H5c-o) (H5e-o)
+ positiver hypothetisierter Zusammenhang; kein wesentlicher Einfluss hypothetisiert c: Causation-Ausprägung; e: Effectuation-Ausprägung p: Wirkung auf Prozess-Effizienz; o: Wirkung auf outputbezogenen Projekterfolg Abbildung 10: Modell zur Erforschung der Erfolgswirkung von Effectuation- und Causation-Prozessen bei F&E-Projekten Quelle: Eigene Darstellung
97
4 Datenerhebung und Untersuchungsmethodik 4.1
Operationalisierung des Forschungsmodells
Die in Kapitel 3 hergeleiteten Hypothesen müssen in diesem Kapitel operationalisiert werden, um eine empirische Überprüfung der theoriebasierten Konzepte zu ermöglichen. Dies ist notwendig, da die theoretischen Konzepte, die in der Literatur typischerweise als Konstrukte bezeichnet werden 596 , an sich abstrakte und nicht direkt beobachtbare Merkmale darstellen.597 In diesem Abschnitt sollen nun die Beziehungen zwischen den Konstrukten und ihren Messgrößen, auch als Indikatoren oder Items bezeichnet 598 , hergeleitet werden. Unter Indikatoren werden Merkmale verstanden, die personenunabhängig sind und unter geeigneten Umständen durch Beobachten festgestellt werden können. 599 4.1.1
Grundlagen der Messung
Häufig werden drei Anforderungen genannt, die bei der Operationalisierung beachtet werden sollen. Dies sind in Anlehnung an Homburg/Klarmann 600 : 1. Operationalisierung der Konstrukte anhand einer Mehrzahl von Indikatoren 2. Explizite Spezifizierung der Beziehung zwischen Indikatoren und Konstrukt 3. Rückgriff auf bereits existierende Operationalisierungen. Im Folgenden werden diese einzelnen Anforderungen erläutert und analysiert, inwieweit sie von Bedeutung für die vorliegende Untersuchung sind. 4.1.1.1 Operationalisierung mittels mehrerer Indikatoren Häufig wird in der Literatur empfohlen, ein Konstrukt durch mehrere Indikatoren zu messen. 601 Dies ist von Bedeutung, da durch mehrere Messgrößen in der Regel eine bessere Annäherung an das zu untersuchende Konstrukt möglich ist. 602 Generell gilt, dass mit steigender Indikatoranzahl die Qualität der Messung zunimmt 603 : „One should opt for multiple indicators when operationalizing the latent variables.“ 604 Peter hält folgendermaßen fest: „If multi-item scales are developed, which initially demonstrate low reliability, reliability often can be increased to acceptable levels […] by simply adding similar items to the scale.“ 605
596 597 598 599 600 601 602 603 604 605
98
Vgl. Edwards/Bagozzi (2000), S. 465. Vgl. Bagozzi/Phillips (1982), S. 465. Vgl. u.a. Homburg/Giering (1996), S. 6ff. sowie Churchill (1979), S. 67f. Vgl. Hempel (1965), S. 22. Vgl. Homburg/Klarmann (2003), S. 73ff. Vgl. u.a. Homburg/Klarmann (2003), S. 73ff.; Heinemann (2006), S. 204. Vgl. Little et al. (1999), S. 193f. Vgl. Dördrechter (2006), S. 146. Diamantopolous (1994), S. 109. Peter (1979), S. 16.
Es wird konkret empfohlen, bei kleinen Stichproben sechs bis zehn Indikatoren pro Konstrukt zu verwenden. Bei Stichproben >100 reichen drei bis vier Indikatoren, um zuverlässige Messungen zu erzielen. 606 Mehrere Indikatoren helfen, das Problem von Messfehlern (zumindest) beurteilbar zu machen. 607 Dies ist wichtig, weil ein einzelner Indikator in der Regel nicht fehlerfrei gemessen werden kann 608 , sondern neben dem tatsächlichen Wert immer auch einen Messfehler enthält. Ein solcher Messfehler kann aus einer systematischen und einer zufälligen Komponente bestehen. 609 Ein systematischer Fehler kann beispielsweise durch die Meßmethode hervorgerufen werden. So kann bei einer mündlichen Befragung etwa das Verhalten des Interviewers oder bei einer schriftlichen Befragung die Formulierung der Fragen zu einer Veränderung des Antwortverhaltens führen. 610 Zufällige Fehler können entstehen, wenn beispielsweise der Befragte die Frage nicht aufmerksam liest und trotzdem eine Bewertung abgibt. 611 Der tatsächlich im Rahmen einer Messung ermittelte Wert (XO: „observed score“) setzt sich also zusammen aus dem wahren Wert der Messung (XT: „true score“), sowie dem systematischen Fehler (XS: „systematic error“) und dem Zufallsfehler (XR: „random error“): XO = XT + XS + XR. 612 Eine Messung ist dann reliabel, wenn sie zu konsistenten, wiederholbaren Ergebnissen führt, also kein Zufallsfehler vorliegt (XR = 0). 613 Gilt darüber hinaus, dass auch kein systematischer Fehler entsteht (XS = 0), so wird von einer validen Messung gesprochen, weil dann der beobachtete Wert gleich dem tatsächlichen, wahren Wert ist. 614 Somit ist die Reliabilität eine notwendige Voraussetzung, um valide Messungen durchführen zu können. 615 Entsprechend soll in dieser Untersuchung darauf geachtet werden, die Operationalisierung der Konstrukte mittels mehrerer Indikatoren durchzuführen, um eine möglichst hohe Reliabilität zu gewährleisten. 4.1.1.2 Spezifizierung der Beziehung zwischen Indikatoren und Konstrukt Häufig kommt der Spezifikation der Beziehung zwischen Konstrukten und Indikatoren in wissenschaftlichen Arbeiten nur wenig Aufmerksamkeit zu. 616 Dies kann jedoch zur Folge haben, dass reale Sachverhalte durch die Konstrukte nur schlecht abgebildet werden. 617 Um diese Problematik zu vermeiden, sollte die Spezifikation sorgfältig erfolgen. 618 Bei der Spezifikation der Beziehung zwischen Konstrukt und Indikatoren muss zwischen zwei grundsätz-
606 607 608 609 610 611 612 613 614 615 616 617 618
Vgl. Marsh et al. (1998), S. 213f. Vgl. Bagozzi et al. (1991). Vgl. Albers/Götz (2006), S. 669. Vgl. Homburg/Giering (1996), S. 7; Hildebrandt/Temme (2006), S. 621. Vgl. Cannell/Kahn (1968), 526ff. Vgl. zu zufälligen Fehlern: Churchill (1987), S. 377ff. Vgl. Churchill (1979), S. 65. Vgl. Homburg/Giering (1996), S. 7. Vgl. Churchill (1979), S. 65; Homburg/Giering (1996), S. 7. Vgl. Carmines/Zeller (1979), S. 13; Peter (1979), S. 6; Homburg/Giering (1996), S. 7. Vgl. Edwards/Bagozzi (2000), S. 155. Vgl. Blalock (1971), S. 335ff. Vgl. Homburg/Klarmann (2006), S. 731.
99
lich verschiedenen Varianten unterschieden werden. So kann die Spezifikation entweder reflektiv oder formativ erfolgen. Ein wesentlicher Unterschied besteht dabei in der Richtung der Kausalität. 619 Ist die Beziehung reflektiv, dann verläuft die Kausalität vom Konstrukt zu den Indikatoren, d.h., dass die Indikatoren die Ausprägung des Konstruktes widerspiegeln, also reflektieren. Die Indikatoren können entsprechend als kausale Folge des Konstruktes betrachtet werden. 620 Da die einzelnen Indikatoren austauschbare Messungen der latenten Variable darstellen, sollten in einem reflektiven Messmodell alle Indikatoren stark korreliert sein. 621 Entsprechend kann das Ausmaß der Korrelation der Indikatoren zur Beurteilung der Güte eines solchen Messmodels herangezogen werden. 622 Eine hohe Korrelation lässt sich dann als Hinweis auf ein reliables und valides 623 Messmodell interpretieren. 624 Zur Veranschaulichung soll hier ein gut verständliches Beispiel von Bollen angeführt werden, der das logische Denkvermögen über reflektive Indikatoren misst. Die Indikatoren hierzu sind beispielsweise unterschiedliche Logiktests. 625 Bei formativen Konstrukten bedingen die Indikatoren die Bedeutung des gesamten Konstruktes. Die Kausalität verläuft von den Indikatoren zum Konstrukt, so dass sich die Bedeutung des Konstruktes ändert, wenn ein Indikator weggelassen wird. Auch an dieser Stelle wird ein Konstrukt von Bollen zur Veranschaulichung herangezogen. Das Konstrukt Zeitaufwand für soziale Interaktion, kann anhand der Zeit gemessen werden, die einerseits mit Freunden und andererseits mit der Familie verbracht wird. 626 Dieses Beispiel verdeutlicht, dass keiner der beiden Indikatoren weggelassen werden kann, weil ansonsten das Konstrukt eine andere Bedeutung bekommt. 627 Die folgende Tabelle zeigt die unterschiedlichen Entscheidungsregeln, anhand derer eine Spezifizierung der Indikatoren möglich ist. Die auf Jarvis, MacKenzie und Podsakof zurückgehenden Dimensionen der Unterscheidung zwischen formativen und reflektiven Messmodellen umfassen die Richtung der Kausalität, die Austauschbarkeit der Indikatoren, die Rolle der Kovarianz zwischen den Indikatoren und die Unterscheidbarkeit der nomologischen Netze der Indikatoren. 628
619
620 621 622 623 624 625 626 627
628
Vgl. Blalock (1964); Fornell/Bookstein (1982); Bollen (1989); Bollen/Lennox (1991); Jarvis et al. (2003). Vgl. Jarvis et al. (2003), S. 203. Vgl. Bollen/Lennox (1991), S. 308. Vgl. Fassott/Eggert (2005), S. 37. Vgl. Abschnitt 4.1.1.1 zu den Begriffen reliabel und valide. Vgl. Homburg/Giering (1996), S. 8ff. Vgl. Bollen (2002), S. 616f. Vgl. Bollen (2002), S. 616f. Vgl. dazu die Aussage von Bollen/Lennox (1991), S. 308: „Omitting an indicator is omitting part of the construct.“ Vgl. Jarvis et al. (2003), S. 203.
100
Dimension Richtung der Kausalität
Formatives Messmodell
Reflektives Messmodell
Von den Indikatoren zum Konstrukt
Vom Konstrukt zu den Indikatoren
Indikatoren sind definierende Charakteristika des Konstruktes
Indikatoren sind Manifestationen des Konstruktes
Veränderungen der Indikatoren führen zu Veränderungen des Konstruktes
Veränderungen des Konstruktes führen zu Veränderungen der Indikatoren
Austauschbarkeit der Indikatoren
Indikatoren sind nicht austauschbar
Indikatoren sollten austauschbar sein
Eliminierung von Indikatoren kann den konzeptionellen Inhalt des Konstruktes verändern
Eliminierung von Indikatoren sollte den konzeptionellen Inhalt des Konstruktes nicht verändern
Kovarianz zwischen den Indikatoren
Indikatoren müssen nicht miteinander kovariieren
Indikatoren sollten erwartungsgemäß miteinander kovariieren
Veränderung eines Indikators bedeutet nicht unbedingt eine Veränderung der anderen Indikatoren
Veränderung eines Indikators ist mit Veränderung der anderen Indikatoren verbunden
Nomologische Netze der Indikatoren können unterschiedlich sein
Nomologische Netze der Indikatoren sollten sich nicht unterscheiden
Indikatoren müssen nicht die gleichen Ursachen bzw. Konsequenzen haben
Indikatoren sollten gleiche Ursachen und Konsequenzen haben
Nomologisches Netz der Indikatoren
Tabelle 9: Entscheidungsregeln zur Spezifikation der Konstrukte Quelle: In Anlehnung an Jarvis et al. (2003), S. 203.
Die meisten Studien im Bereich der Sozialwissenschaften basieren auf der Annahme reflektiver Messmodelle. 629 Dabei wird die Art der Spezifizierung in der Regel aber nicht explizit vorgenommen und es findet keine entsprechende Überprüfung statt 630 , so dass es zu bedeutenden Verzerrungen der empirischen Ergebnisse kommen kann. 631 Darüber hinaus bedingt die Art der Spezifikation die Anwendung geeigneter Reliabilitäts- und Validitätsmaße zur Konstruktbereinigung sowie die Auswahl einer geeigneten Analysemethode. Entsprechend kann eine Fehlspezifikation zur Anwendung von ungeeigneten Analysemethoden und schlechten Gütekriterien führen. 632 Um das zu vermeiden, wird im Rahmen dieser Arbeit schon bei der Operationalisierung die Spezifizierung der Konstrukte anhand des Kriterienkatalogs von Jarvis, MacKenzie und Podsakof durchgeführt. 633 4.1.1.3 Möglichkeiten zum Rückgriff auf bereits existierende Operationalisierungen Bevor auf die Operationalisierung eingegangen wird, muss zunächst geprüft werden, ob eine Nutzung bestehender Messmodelle für die vorliegende Untersuchung möglich ist.
629
630 631 632 633
Vgl. Bollen (1989), S. 65. Zur geringfügigen Beachtung formativer Messmodelle vgl. Eberl (2006), S. 652 und die dort angegebenen Referenzen. Vgl. Diamantopoulos/Winklhofer (2001), S. 269. Vgl. MacKenzie et al. (2005), S. 716ff. Vgl. Bollen (1989), S. 222; Diamantopoulos/Winklhofer (2001), S. 269ff. Vgl. hierzu den vorangestellten Kriterienkatalog nach Jarvis et al. (2003), S. 203.
101
4.1.1.3.1 Vorbemerkungen zur Übertragbarkeit vorliegender Konstrukte Einige Autoren empfehlen eine strikte Verwendung in der Literatur bestehender Konstrukte: „It is imperative […] that researchers consult the literature when conceptualizing constructs and specifying domains.” 634 Zwei Hauptgründe werden für ein solches Vorgehen angeführt. Zum einen wird so die Vergleichbarkeit von Forschungsergebnissen erleichtert. Zum anderen kann durch den Rückgriff auf bewährte Konstrukte mit angemessenen Reliabilitäts- und Validitätseigenschaften die Qualität der eigenen Messung abgesichert werden. 635 Auf der anderen Seite erfordert ein Rückgriff auf bestehende Konstrukte das Vorhandensein einer entsprechenden Forschung in der Literatur. „Researchers must be careful in making comparisons with other studies, even when using similar measurement scales, because of the decidedly contextual nature of behavioral research.“ 636 Viele in der Literatur verwendeten Konstrukte sind „stark optimierungsbedürftig“ 637 und zum Teil inhaltlich nicht treffend. 638 Um dies zu vermeiden, wird empfohlen, folgende Überlegungen anzustellen, um zu entscheiden, inwieweit bestehende Konstrukte übernommen werden können: 639 x
Gibt es eine hinreichend große Übereinstimmung im Forschungsziel, den Forschungsfragen und den Hypothesen zwischen bestehenden Untersuchungen und dem hier betrachteten Forschungsgegenstand?
x
Gibt es inhaltlich-semantisch in der Definition der Konstrukte und Indikatoren eine hinreichend große Übereinstimmung? Ist ein Transfer der Konstrukte überhaupt zulässig?
Um zu entscheiden, ob und inwieweit bestehende Messmodelle im Rahmen dieser Arbeit verwendet werden können 640 , wird zunächst über eine Literaturrecherche nach bestehenden Operationalisierungen im Bereich der Effectuation-Forschung gesucht und dann überprüft, ob eine Anwendung in dieser Arbeit möglich ist. 4.1.1.3.2 Vorliegende Operationalisierungen im Bereich der Effectuation-Forschung Die Suche nach geeigneten Operationalisierungen für den Untersuchungsgegenstand dieser Arbeit, nämlich Effectuation im Rahmen von F&E-Projekten gestaltet sich problematisch. In dieser Kombination sind bislang keine veröffentlichten oder unveröffentlichten Forschungstätigkeiten bekannt. Entsprechend wird die Suche nach vorhandenen Operationalsierungen breiter gefasst und einerseits auf die Forschung im Bereich von F&E-Projekten und andererseits auf die gesamte Effectuation-Forschung ausgedehnt.
634 635 636 637 638
639 640
Churchill (1979), S. 67. Vgl. Homburg/Klarmann (2003), S. 77. Gopal et al. (2004), S. 100. Homburg/Klarmann (2006), S. 732. Vgl. zur Notwendigkeit der Neuentwicklung von Konstrukten in neuen Forschungsfeldern Spector (1992); Tatikonda/Rosenthal (2002), S. 411. Vgl. Jacoby (1978), S. 91. Vgl. zur Frage inwieweit auf existierende Messmodelle zurückgegriffen werden sollte Ping (2004), S. 130; Homburg/Klarmann (2006), S. 732.
102
Im Bereich von F&E-Projekten gibt es, wie bereits zuvor ausgeführt, eine Vielzahl von Erfolgsfaktorenstudien bei denen Konstrukte entwickelt oder angewendet wurden. Vereinzelt tangieren diese Studien auch Aspekte, die im Rahmen einer Effectuation-Untersuchung interessant sein können. Allerdings gibt es in keinem dieser Fälle eine hinreichend große Übereinstimmung im Forschungsziel, in den Forschungsfragen und den Forschungshypothesen. Auch inhaltlich wird der in dieser Arbeit angestrebte Fokus von diesen Untersuchungen nicht abgedeckt. Eine Übertragung der Konstrukte aus diesem Forschungsstrang ist damit nicht zulässig. Vielversprechender erscheint die Suche im Umfeld der Effectuation-Forschung. Hier gibt es zwar mit einer Ausnahme noch keine großzahlig empirischen Untersuchungen. 641 Jedoch hat sich zunehmend die Erkenntnis durchgesetzt, dass solche Untersuchungen erforderlich sind und dass dafür zunächst entsprechende Skalen entwickelt werden müssen: „[Effectuation has] to be explored and refined with a larger sample and quantitative approach. Thus, for empirical testing of these approaches to move forward, […] development of measures is needed.“ 642 DeTienne hat einen ersten Versuch unternommen, eine Operationalisierung von Effectuation durchzuführen. 643 Eine Übernahme dieser Operationalisierung im Rahmen dieser Arbeit ist jedoch aus zwei Gründen problematisch: Erstens steht eine kritische Auseinandersetzung mit den Ergebnissen der Arbeit von DeTienne noch aus. Es erscheint jedenfalls als fragwürdig, ob im Rahmen dieser Operationalisierung alle von Sarasvathy beobachteten Teilaspekte von Effectuation durch die Operationalisierung abgedeckt wurden. Insgesamt tauchen nämlich die in Sarasvathy’s Werk zentralen fünf Prinzipien von Effectuation nicht vollumfänglich in der Operationalisierung auf. So wird lediglich auf vier anstelle von fünf Sub-Dimensionen bei Effectuation verwiesen: „[…] we further developed the four sub-dimensions of effectuation (flexibility, experimentation, affordable loss, pre-commitments).“ 644 Auch die inhaltliche Richtigkeit der einzelnen Sub-Dimensionen erscheint zumindest teilweise diskussionswürdig. 645 Zweitens hat dieser erste Versuch einer Operationalisierung nicht den gleichen inhaltlichen Fokus, der in dieser Arbeit gewählt ist, nämlich die Untersuchung von Effectuation im Rahmen von F&E-Projekten. Insgesamt bleibt festzuhalten, dass eine vollständige Übernahme bestehender Konstrukte zur Absicherung der Güte der Messung im Rahmen dieser Arbeit nicht möglich ist. Lediglich einzelne Indikatoren und konzeptionelle Anregungen können übernommen werden. Zur Beantwortung der hier zentralen Forschungsfragen müssen also zunächst neue Konstrukte entwickelt, getestet und verfeinert werden. Lediglich die Konstrukte zur Messung des Innovationsgrads und des F&E-Projekterfolgs werden weitgehend aus bestehenden Untersuchungen übernommen.
641 642 643 644 645
Vgl. dazu den Literaturüberblick in Kapitel 1.2. DeTienne (2007), S. 2. Vgl. DeTienne (2007). DeTienne (2007), S. 1. Das Paper wurde daher auch nicht zur Veröffentlichung in renommierten Journals angenommen.
103
4.1.2
Vorgehen bei der Entwicklung neuer Skalen für die vorliegende Untersuchung
Mittel/Vorgehen
x Grundlegendes Verständnis der Konstr. x Entwicklung einer Ausgangsmenge von Indikatoren
x Qualitative Techniken (Auswertung F&E und Effectuation Literatur; Experteninterviews; Diskussionen, etc.)
x Verbesserung der Indikatoren bzgl. Verständlichkeit und Inhalt x Reduzierung der Indikatorenanzahl
x Elimination oder Umformulierung unklarer Indikatoren x Elimination inhaltlich falscher Items
Quantitative Voruntersuchung
Erste großzahlige Datenerhebung
x Bereitstellung einer Datenbasis für quantitative Analysen
x Datenbanken zur Identifizierung von Unternehmen und Einrichtungen mit eigener F&E
Quantitative Analyse
x Beurteilung der Konstrukte und des Modells x Modelloptimierung
x Lokale Gütebeurteilung der Messmodelle x Explor. und konfirm. Faktorenanalyse x Globale Gütebeurteilung und Identifikation pot. Fehlspezifikationen
Zweite großzahlige Datenerhebung
x Bereitstellung von Daten zum Test des überarbeiteten Modells
x Größeres Datensample als zuvor x Befragung neuer Organisationen
Beurteilung des entwickelten Modells
x Beurteilung von Mess- und Strukturmodellen x Klärung der Forschungsfragen
x Kausalanalytische Auswertung inkl. lokaler und globaler Gütebeurteilung x Pfadkoeffizienten und Signifikanzen
Qualitative Voruntersuchung
Ziele
Quantitative Hauptuntersuchung
Zur Operationalisierung der in Kapitel 3 eingeführten latenten Variablen wird hier ein Ansatz verwendet, der sich an die Vorgehensweise bei Churchill (1979) und Homburg/Giering (1996) anlehnt. Bei dem Vorgehen handelt es sich nicht um eine rein datengestützte Herangehensweise. Vielmehr basiert der Ansatz auf inhaltlichen und theoretischen Überlegungen. Diese werden zunächst qualitativ und mit zunehmender Detaillierung und Verfeinerung auch quantitativ überprüft. Das Vorgehen gliedert sich dabei in eine qualitative und eine quantitative Voruntersuchung mit dem Ziel der Neuentwicklung von erforderlichen Skalen. Anschließend kann das vollständig operationalisierte Strukturmodell einschließlich aller neuentwickelten Messmodelle in einer quantitativen Hauptuntersuchung überprüft und zur Analyse weiterer Forschungsfragen angewendet werden. Abbildung 11 zeigt das Vorgehen in einer zusammenfassenden Übersicht.
Grobkonzeptualisierung
Pre-test
Abbildung 11: Vorgehen zur Entwicklung von Effectuation-Skalen Quelle: Eigene Darstellung
Der qualitative Teil der Voruntersuchung wird durch (1) eine Grobkonzeptualisierung und (2) einen Pre-test gekennzeichnet. Ziel und Ergebnis der qualitativen Voruntersuchung ist eine Operationalisierung, die dann einem ersten quantitativen Test unterzogen werden kann. Zunächst findet eine Grobkonzeptualisierung statt, deren Ziel es ist, ein grundlegendes Verständnis der benötigten Konstrukte und deren inhaltlicher Abgrenzung zu erhalten. 646 Eine
646
Vgl. Homburg/Giering (1996), S. 11.
104
inhaltliche Abgrenzung erfolgt dabei in zweierlei Hinsicht. Erstens müssen die Konstrukte untereinander verschieden sein. Im Rahmen dieser Arbeit wurden die Konstrukte in Anlehnung an die fünf Effectuation-Prinzipien von Sarasvathy untereinander abgegrenzt. Zweitens muss eine ausreichend starke Abgrenzung zu benachbarten Forschungsgebieten erfolgen. In dieser Arbeit besteht das Ziel darin, eine deutliche Abgrenzung zu Causation herzustellen. Dies wird dadurch gewährleistet, dass jedem der fünf Effectuation-Prinzipien ein entsprechendes Causation-Prinzip direkt gegenübergestellt wird. Über qualitative Techniken, insbesondere Expertengespräche und intensive Diskussionen mit anderen Effectuation-Forschern und Experten im Bereich von F&E-Projekten, wurde jedes Konstrukt aus unterschiedlichen Perspektiven beleuchtet. Dadurch war eine schrittweise Verfeinerung möglich. Als Ergebnis davon wurde jedem Effectuation-Prinzip eine Kernaussage, bzw. die zugrundeliegende Logik zugeordnet. Diese Logik wurde wiederum je Prinzip von konventionellen CausationProzessen abgegrenzt. Effectuation
Bird-in-hand
Affordable loss
Crazy quilt
Lemonade
Pilot-in-theplane
Zentrale Aussage/Logik des Effectuation-Prinzips
Ausgangspunkt für Projekt sind vorhandene Mitteln
Bestimmung des Verlusts, den man maximal zu tragen bereit ist
Reduzierung von Unsicherheit durch Partnerschaften und precommitments
Nutzung von Unsicherheit und überraschenden Ereignissen als Chance
Durch aktives Handeln sind zukünftige Entwicklungen gestaltbar
Abgrenzung zum Causation-Prinzip
Ausgangspunkt für Projekt sind konkrete Projektziele
Bestimmung des Gewinns, den man erwartet
Identifikation und ggf. Umgehen von Unsicherheit durch Markt- und Wettbewerbsanalysen
Vermeidung von unerwarteten Ereignissen und Erzielung präzise vorgegebener Ziele
Entwicklungen/ Trends sind exogen gegeben und können durch gute Vorhersage genutzt werden
Abbildung 12: Übersicht über zentrale Bedeutungsinhalte der Konstrukte zur Abgrenzung zwischen den fünf Effectuation- und Causation-Prinzipien Quelle: Eigene Darstellung
Im Anschluss daran wurde eine Ausgangsmenge von Indikatoren jedem Konstrukt hinzugefügt. Dabei wurde erneut darauf geachtet, dass jedem Effectuation-Item ein entsprechender Causation-Indikator gegenübersteht, um so eine sehr deutliche Abgrenzung zwischen beiden Vorgehensweisen herzustellen. Aus methodischen Gründen wurden den Empfehlungen von DeVellis folgend dabei auch sehr ähnliche Items zugelassen: 647 „A recommendation I have frequently encountered from colleagues without scale development experience is to eliminate
647
Redundanzen sind bei der Skalenentwicklung gewünscht: „By using multiple and seemingly redundant items, the content that is common to the items will summate across items while their irrelevant idiosyncracies will cancel out. Without redundancy this would be impossible.“ (DeVellis (2003), S. 65).
105
items that concern the same thing. As discussed earlier, removing all redundancy from an item pool or a final scale would be a grave error because redundancy is an integral aspect of internal consistency.“ 648 Insgesamt kam es auf diese Weise zu fünf Konstrukten mit einer Ausgangsmenge von 74 Indikatoren: Jeweils 37 mit einer Effectuation- und 37 mit einer Causation-Ausprägung. Im zweiten Schritt fand ein Pre-test statt. Der Pre-test diente dazu, die einzelnen Indikatoren vor Aufnahme der großzahligen Datenerhebung sowohl in Bezug auf die Verständlichkeit als auch in Bezug auf die inhaltliche Relevanz und Korrektheit zu überprüfen. Ziel dabei ist es, Indikatoren gezielt zu verbessern oder aber gegebenenfalls zu eliminieren. 649 „If multi-item scales are developed, which initially demonstrate low reliability, reliability often can be increased to acceptable levels by improving the clarity of the instructions [or by] reducing ambiguity in the items […].“ 650 Im Rahmen dieser Arbeit hat ein zweistufiger Pre-test über einen Zeitraum von vier Monaten stattgefunden. 651 Zum einen wurden Personen aus der Befragungs-Zielgruppe der Hauptumfrage gebeten, die einzelnen Items bezüglich ihrer Verständlichkeit zu bewerten.652 Dabei sollten die Befragten auf einer 5-Punkteskala jeden Indikator zwischen „sehr wenig“ und „sehr gut“ verständlich einordnen. Insgesamt wurden die Items so von 15 Testpersonen beurteilt. Anschließend hat ein Gespräch mit dem jeweiligen Befragten stattgefunden. Ziel war es, all jene Indikatoren zu diskutieren, die als „sehr wenig“, „wenig“ oder „mittelmäßig“ verständlich eingeschätzt wurden. Zusammen mit dem Gesprächspartner wurde an einer Verbesserung der Verständlichkeit gearbeitet. Alle nachfolgend Befragten sollten dann die bereits verbesserten Indikatoren beurteilen. Entsprechend konnte in jedem Befragungsschritt eine Verbesserung der Verständlichkeit erzielt werden. Zum anderen wurden in einem zweiten Pre-test erfahrene Effectuation-Forscher um eine Stellungnahme bezüglich der inhaltlichen Relevanz und der inhaltlichen Abgrenzung der Indikatoren zu Causation gebeten. 653 Im Rahmen dieses Tests sollten die Befragten alle Items jeweils einer der drei Kategorien „Eindeutig Effectuation“, „Könnte sowohl Effectuation als auch Causation sein“ und „Eindeutig Causation“ zuordnen. Dieser Test hat überwiegend ein sehr einheitliches Bild und eine offensichtlich gute inhaltliche Abgrenzung zwischen Effectuation- und Causation-Items gezeigt. Drei Indikatoren wurden nach diesem Test jedoch aufgrund ihrer zu geringen inhaltlichen Differenzierung eliminiert. Insgesamt verblieben nach dem Pre-test fünf quantitativ zu analysierende Konstrukte mit 68 Indikatoren (jeweils 34 mit einer Effectuation- und 34 mit einer CausationAusprägung).
648 649 650 651 652
653
DeVellis (2003), S. 87. Vgl. Homburg/Giering (1996), S. 12. Peter (1979), S. 16. Durchgeführt von August bis November 2007. Vgl. auch die explizite Aufforderung von Homburg/Klarmann (2006), S. 732 zur Durchführung von Pre-tests bei Mitgliedern der Befragungszielgruppe. Vgl. zur Notwendigkeit einer Sicherstellung der Inhaltsvalidität durch Pre-tests u.a. Bohrnstedt (1970), S. 92; Homburg/Giering (1996), S. 7; Homburg/Klarmann (2006), S. 732.
106
Abschließend wurden die entwickelten Konstrukte mit Experten im Bereich der Skalenentwicklung diskutiert, um neben Verständlichkeit und inhaltlicher Validität auch eine Richtigkeit im methodischen Vorgehen zu gewährleisten. Das Ergebnis dieses Vorgehens ist eine Operationalisierung, die im folgenden Abschnitt 4.1.3 vorgestellt wird. Die auf diese Weise entwickelten Messmodelle werden dann im Rahmen einer quantitativen Voruntersuchung mit Hilfe eines ersten großzahligen Datensamples untersucht. 654 Dabei findet eine Beurteilung der Messmodelle statt, indem quantitative Analysen der lokalen Gütemaße erfolgen. 655 Das Ziel ist dabei, sicherzustellen, dass reliable und valide Skalen entwickelt werden. 656 Die verwendeten lokalen Gütemaße werden in Abschnitt 4.3.2 genauer beschrieben. Die Ergebnisse der quantitativen Voruntersuchung sind dann finalisierte Skalen, die in der Hauptuntersuchung genutzt werden können. 657 Im Rahmen der quantitativen Hauptuntersuchung findet zunächst eine Untersuchung des gesamten Strukturmodells statt. Dafür werden zusätzlich zu den lokalen Gütemaßen auch globale Gütemaße analysiert, um sicherzustellen, dass das gesamte Forschungsmodell korrekt spezifiziert ist. 658 Anschließend kann das entwickelte Modell dann genutzt werden, um weiterführende Forschungsfragen zu untersuchen. 4.1.3
Operationalisierung der Effectuation- und Causation-Charakteristika eines F&EProjektes
Nachfolgend sind aus Gründen der Übersichtlichkeit nur noch die Ergebnisse der qualitativen Voruntersuchung zur Skalenentwicklung dargestellt, also die in der quantitativen Voruntersuchung verwendeten Konstrukte. Zur Vereinfachung bekommen dabei die einzelnen Konstrukte die bereits in den vorangegangen Kapiteln verwendeten Namen „Bird-in-hand“, „Affordable loss“, „Crazy quilt“, „Lemonade“ und „Pilot-in-the-Plane“. 659 Damit wird dem Umstand Rechnung getragen, dass der Fokus dieser Arbeit auf der Untersuchung von Effectuation im Kontext von F&E-Projekten liegt, auch wenn die einzelnen Konstrukte jeweils Indikatoren beinhalten, die sowohl Effectuation- als auch Causation-Ausprägungen besitzen. Generell baut die vorliegende Untersuchung auf geschlossenen Fragen auf. Alle Indikatoren werden mit einer 6-Punkt-Skala erfasst. 660 Dies soll auch zu einer Vergleichbarkeit der Analyse mit bestehenden Studien im Umfeld von F&E-Projekten beitragen.
654 655
656 657 658 659 660
Vgl. Abschnitt 4.2 auf S. 122ff. für eine detaillierte Beschreibung der Datengrundlage. Auf diese Weise wird einem in der Literatur häufig kritisierten Umstand entgegengewirkt, dass in weiten Teilen der betriebswirtschaftlichen Forschung erhebliche Defizite in Bezug auf die Entwicklung von reliablen und validen Skalen besteht: „[…] most of our measures are only measures because someone says they are, not because they have been shown to satisfy standard measurement criteria“ (Jacoby (1978), S. 91). Vgl. Homburg/Giering (1996), S. 6f. Vgl. zu den Ergebnissen der quantitativen Voruntersuchung Abschnitt 5.1 auf S. 171ff. Vgl. zu den Ergebnissen der Hauptuntersuchung Abschnitt 5.2 auf S. 180ff. Vgl. zur Einführung der Effectuation-Prinzipien Sarasvathy (2007), S. 21f. Insgesamt werden in der Literatur Skalen mit 5 bis maximal 9 Punkten empfohlen (vgl. u.a. Cox III (1980), S. 420). Zusätzlich wird zur Verwendung einer geraden Anzahl von Antwortalternativen geraten, wenn, wie in der vorliegenden Untersuchung, davon auszugehen ist, dass das Unter-
107
4.1.3.1 Operationalisierung „Bird-in-hand“ Das „Bird-in-hand“-Konstrukt hinterfragt, ob bei der Spezifikation 661 eines F&E-Projektes eher eine Ausrichtung an vorhandenen Mitteln/Ressourcen oder an vorgegebenen F&E-Zielen gegeben war. Eine Orientierung an vorhandenen Mitteln stellt dabei das Vorgehen im Sinne von Effectuation dar. Bei Causation hingegen ist von einer Orientierung an vorgegebenen F&E-Zielen auszugehen. 662 Die in Abschnitt 4.1.1.2 vorgestellten Kriterien von Jarvis et al. (2003) zeigen, dass eine reflektive Spezifizierung des Konstruktes vorliegt. Die Kausalität verläuft vom Konstrukt zu den Indikatoren. Außerdem ist eine Austauschbarkeit der Indikatoren gegeben. Entsprechend kovariieren die Indikatoren miteinander. Eine Veränderung eines Indikators ist mit einer Veränderung der anderen Indikatoren verbunden. Die Indikatoren weisen darüber hinaus die gleichen Ursachen und Konsequenzen auf. Somit kann davon ausgegangen werden, dass sich die nomologischen Netze der Indikatoren nicht unterscheiden. In Tabelle 10 ist das Konstrukt „Bird-in-hand“ im Detail gezeigt.
Bird-in-hand Konstrukt: Reflektiv Spezifizierung: Indikatoren: Bitte beurteilen Sie, inwieweit Sie die Spezifizierung des F&E-Vorhabens eher an vorhandenen Mitteln (Fähigkeiten/Erfahrungen, mat. Ressourcen, Kontakten) oder vorgegebenen F&E-Zielen ausgerichtet haben Effectuation Causation BIRD1 Auf Basis vorhandener Ressourcen wurde unAuf Basis vorgegebener Ziele wurde unser ser F&E-Projekt spezifiziert F&E-Projekt spezifiziert BIRD2 Das Ergebnis unseres F&E-Vorhabens war zu Das Ergebnis unseres Projektes war schon zu Beginn vage definiert Beginn klar definiert BIRD3 Ausgangspunkt waren vorhandene MitAusgangspunkt waren konkrete F&E-Ziele tel/Ressourcen BIRD4 Ausgehend von vorhandenen Mitteln wurde Ausgehend von konkreten Projektzielen wurden das F&E-Ziel spezifiziert erforderliche Mittel zur Zielerreichung bestimmt BIRD5 Vorhandene Ressourcen waren eher AusEin präzise definiertes Ziel war Ausgangspunkt gangspunkt unseres F&E-Projektes als präzise für das F&E-Vorhaben definierte Projektziele BIRD6 Die Projektspezifizierung fand überwiegend Die Projektspezifizierung fand überwiegend auf auf Basis vorhandener Ressourcen statt Basis gegebener Ziele statt BIRD7 Vorhandene Mittel haben den Rahmen unseres Konkrete Projektziele haben den Rahmen unseF&E-Vorhabens stark beeinflusst res F&E-Vorhabens stark beeinflusst Tabelle 10: Operationalisierung des Konstruktes „Bird-in-hand“ Quelle: Eigene Darstellung
661
662
suchungsobjekt (hier F&E-Projekt) einem der beiden angegebenen Extremausprägungen eher entspricht und eine neutrale Haltung wenig sinnvoll ist (vgl. Cox III (1980), S. 420). Umfasst Eingrenzung des F&E-Problems, Identifikation möglicher F&E-Optionen und ein fachliches (Grob-)Konzept. Vgl. dazu die Konzeptualisierung in Abschnitt 3.3.1 auf S. 70.
108
4.1.3.2 Operationalisierung „Affordable loss“ Der Kern des „Affordable loss“-Konstruktes ist die Frage nach der Bewertung eines möglichen F&E-Projektes. Findet eine Bewertung anhand von möglichen Verlusten (z.B. Kosten oder erforderlichen Ausgaben) statt, wird das Vorgehen Effectuation zugeschrieben. Werden Entscheidungen anhand von möglichen zukünftigen Gewinnen getroffen, so liegt eine Entscheidungsfindung im Sinne von Causation vor. 663 Auch dieses Konstrukt ist nach den qualitativen Beurteilungskriterien reflektiv spezifiziert. Die Ausprägungen der Indikatoren gehen alle auf ein ähnliches Phänomen zurück. Außerdem ist eine hohe Austauschbarkeit und Kovarianz der Indikatoren gegeben. Ebenso können vergleichbare Ursachen und Konsequenzen angenommen werden. Die Details sind in Tabelle 11 dargestellt.
Affordable loss Konstrukt: Reflektiv Spezifizierung: Indikatoren: Bitte beurteilen Sie, inwieweit Sie unterschiedliche F&E-Optionen anhand Ihrer Bereitschaft zu möglichen Verlusten (Kosten, Ausgaben) und Risiken oder möglichen zukünftigen Gewinnen verglichen haben Effectuation Causation AFFO1 Ausschlaggebend für die Auswahl der F&EAusschlaggebend für die Auswahl der F&EOption waren Überlegungen zum möglichen Option waren Überlegungen zu möglichen GeVerlust winnen AFFO2 Projektbudgets wurden genehmigt auf Basis von Projektbudgets wurden genehmigt auf Basis von Überlegungen zum tragbaren Verlust Erfolgsrechnungen (z.B. ROI) AFFO3 Die Auswahl der F&E-Option erfolgte vor alDie Auswahl der F&E-Option erfolgte vor allem auf Basis von Risikominimierung (bzw. lem auf Basis von Analysen zu möglichen GeKostenbegrenzung) winnen AFFO4 Wir haben hauptsächlich das Risiko des Projek- Wir haben hauptsächlich die Gewinnchancen tes hinterfragt des Projektes betrachtet AFFO5 Wir haben unterschiedliche Optionen auf Basis Wir haben unterschiedliche F&E-Optionen auf einer Einschätzung zu tragbarem Risiko und Basis von Gewinn-/Renditeprognosen vergliKosten verglichen (z.B. wegen fehlender oder chen (bspw. Vergleich von Erwartungswerten) ungenauer Prognostizierbarkeit erwarteter Gewinne) AFFO6 Es fand keine systematische Analyse externer Es fand eine möglichst exakte Aufnahme aller Einflussgrößen statt; eher wurde intuitiv entextern gegebenen Einflussgrößen und Trends schieden statt AFFO7 Entscheidungen zu finanziellen Ausgaben wurEntscheidungen zu finanziellen Ausgaben wurden primär an möglichen Verlustrisiken orienden primär an möglichen Gewinnen orientiert tiert Tabelle 11: Operationalisierung des Konstruktes „Affordable loss“ Quelle: Eigene Darstellung
4.1.3.3 Operationalisierung „Crazy quilt“ Das Crazy quilt-Konstrukt untersucht den Umgang mit Risiken und Unsicherheiten vor Aufnahme des Projektes. Wird insbesondere versucht, über Partnerschaften und Vereinbarungen mit Stakeholdern Risiken zu reduzieren, so kann von einem Vorgehen im Sinne von Effectua-
663
Vgl. dazu Abschnitt 3.3.2 auf S. 75.
109
tion ausgegangen werden. Wird jedoch vor allem Marktforschung betrieben, um zukünftige Trends zu identifizieren und einzuschätzen liegt Causation vor. 664 Bei einer erneuten Anwendung der Kriterien nach Jarvis et al. (2003) zeigt sich, dass auch dieses Messinstrument reflektiv spezifiziert ist. Die Richtung der Kausalität geht vom Konstrukt zu den Indikatoren. Außerdem sind die Indikatoren austauschbar. Auch bei der Eliminierung einzelner Indikatoren bleibt der konzeptionelle Inhalt des Konstruktes unverändert. Des weiteren kovariieren die Indikatoren. Zusätzlich haben die Indikatoren die gleiche Ursache und Konsequenz.
Crazy quilt Konstrukt: Reflektiv Spezifizierung: Indikatoren: Bitte beurteilen Sie, wie Sie mit Risiken/Unsicherheiten vor Aufnahme des F&E-Projektes umgegangen sind Effectuation Causation CRAZ1 Wir haben versucht, Risiken bzgl. des F&EWir haben versucht, Risiken durch MarktstuProjektes durch in- oder externe Partnerschafdien zu identifizieren ten und Vereinbarungen zu reduzieren CRAZ2 Wir haben keine detaillierten Markt- und Wett- Wir haben Markt- und Wettbewerbsanalysen bewerbsanalysen durchgeführt, um über die genutzt, um Risiken als Basis zur Entscheidung Durchführung des Projektes zu entscheiden über die Projektdurchführung zu identifizieren CRAZ3 Wir haben potenzielle Stakeholder/Partner aktiv Wir haben das Marktumfeld und externe Trends angesprochen, um gemeinsam zukünftige Entanalysiert, um zukünftige Entwicklungen besser wicklungen besser kontrollierbar zu machen einschätzen zu können CRAZ4 Wir haben unsere Entscheidungen gemeinsam Wir haben unsere Entscheidung zur Projektmit unseren Partnern/Stakeholdern auf Basis durchführung auf Basis systematischer Marktunserer Kompetenzen getroffen analysen getroffen CRAZ5 Unser Fokus lag eher auf der Reduzierung von Unser Fokus lag eher auf der Reduzierung von Risiken durch Ansprache von potenziellen Part- Risiken durch frühzeitiges Erkennen mittels nern und Kunden Marktstudien zwecks Anpassung unseres Vorgehens CRAZ6 Wir haben vor Projektbeginn Zusagen unserer Vorab-Verpflichtungen bspw. unserer Kunden, Kunden, Zulieferer oder anderer Stakeholder Zulieferer oder anderer Stakeholder (wie z.B. eingeholt Forschergruppen) sind eher selten genutzt worden CRAZ7 Um Risiken zu reduzieren sind wir PartnerUm Risiken zu identifizieren haben wir uns auf schaften eingegangen oder haben Vereinbarun- Marktstudien und –prognosen konzentriert gen im Vorfeld geschlossen Tabelle 12: Operationalisierung des Konstruktes „Crazy quilt“ Quelle: Eigene Darstellung
4.1.3.4 Operationalisierung „Lemonade“ Das Lemonade-Konstrukt analysiert, wie grundsätzlich mit unerwarteten Situationen innerhalb des F&E-Projektes umgegangen wurde. Wird eher auf eine hohe Flexibilität des Prozesses geachtet, die es erlaubt, auch F&E-Ziele des Projektes auf Basis neuer Erkenntnisse kurzfristig weiter zu entwickeln, liegt Effectuation vor. Ist hingegen für neue Erkenntnisse weniger Platz, weil der Fokus auf ein schnellstmögliches Erreichen des ursprünglich gesetzten
664
Vgl. dazu Abschnitt 3.3.3 auf S. 79.
110
F&E-Zieles gerichtet ist, so liegt ein Vorgehen nach Causation vor. 665 Auch bei diesem Konstrukt wirkt die Richtung der Kausalität vom Konstrukt zu den Indikatoren. Außerdem sind die einzelnen Indikatoren austauschbar und eliminierbar ohne dass sich dadurch der Inhalt des Messmodells ändert. Auch kann von einer Kovarianz der Indikatoren ausgegangen werden. Da die Indikatoren zusätzlich die gleiche Ursache und Konsequenz haben, liegt erneut eine reflektive Spezifizierung vor. Tabelle 13 zeigt die Details der Operationalisierung des Lemonade-Konstruktes.
Lemonade Konstrukt: Reflektiv Spezifizierung: Indikatoren: Bitte beurteilen Sie, wie Ihr F&E-Prozess mit überraschenden Ereignissen umgegangen ist Effectuation Causation LEMO1 Auf überraschende Ereignisse wurde jederzeit Das Projektziel hatte höchste Priorität; Möglireagiert – ggf. wurde das Projektziel angepasst che Überraschungen wurden im Vorfeld ausgeräumt (z.B. durch Machbarkeitsstudien) LEMO2 Auch zu Lasten des eigentlichen Projektzieles Neue Erkenntnisse wurden vor allem weiterverwurden neue Erkenntnisse immer möglichst folgt, wenn das ursprüngliche Projektziel durch vorteilhaft integriert diese gefährdet wurde LEMO3 Unser F&E-Prozess war darauf ausgerichtet, Unser F&E-Prozess war darauf ausgerichtet, das Projektziel jederzeit an neue Erkenntnisse möglichst ohne Projektverzögerungen das ananpassen zu können gestrebte Ziel zu erreichen LEMO4 Neue F&E-Erkenntnisse haben das Projektziel Neue F&E-Erkenntnisse haben das Projektziel beeinflusst nicht beeinflusst LEMO5 Die Projekt-Planung erfolgte im Wesentlichen Die Projekt-Planung erfolgte im Wesentlichen in kleinen Schritten während des Projektes zu Beginn des Projektes LEMO6 Trotz Projektverzögerungen haben wir darauf Wir haben vor allem darauf geachtet, unsere geachtet, dass sich das Projekt entsprechend ursprünglich festgelegten Ziele zu erreichen neuer Möglichkeiten entwickeln konnte und Zeitverzögerungen durch überraschende Ereignisse zu vermeiden LEMO7 Wir haben zu Lasten des ursprünglichen ProWir haben stets darauf geachtet, das ursprünglijektzieles darauf geachtet, Vorteile aus neuen che Projektziel und den vorgesehenen Zeitplan Möglichkeiten und Erkenntnissen zu ziehen zu erreichen LEMO8 Vermeintliche Rückschläge oder externe BeMittels Marktanalysen haben wir versucht, drohungen wurden nach Möglichkeit vorteilhaft Rückschläge oder externe Bedrohungen bereits genutzt im Vorfeld auszuschließen Tabelle 13: Operationalisierung des Konstruktes „Lemonade“ Quelle: Eigene Darstellung
4.1.3.5 Operationalisierung „Pilot-in-the-Plane“ Der Kern des „Pilot-in-the-Plane“-Konstruktes liegt darin, zu untersuchen, inwieweit Entwicklungen im Umfeld des F&E-Erzeugnisses durch das Unternehmen kontrollierbar waren. War das betrachtete F&E-Projekt als Reaktion auf bestimmte Markttrends gedacht und hat sich das Unternehmen eher einem exogen gegebenen Umfeld angepasst, wird von Causation ausgegangen. Schafft das Unternehmen durch das F&E-Projekt hingegen einen neuen Trend,
665
Vgl. dazu Abschnitt 3.3.4 auf S. 85.
111
den es durch die eigene F&E-Arbeit aktiv mitbestimmt und kontrolliert, dann liegt Effectuation vor. 666 Auch dieses Messmodell ist nach den Kriterien von Jarvis et al. (2003) reflektiv spezifiziert. Die Richtung der Kausalität geht vom Konstrukt zu den Indikatoren. Ebenso sind die Indikatoren austauschbar. Der Inhalt des Konstruktes bleibt auch bei der Eliminierung einzelner Indikatoren unverändert. Außerdem liegt eine Kovarianz der Indikatoren vor. Zusätzlich haben die Indikatoren die gleiche Ursache und Konsequenz. Die Details zum operationalisierten Konstrukt „Pilot-in-the-Plane“ sind in Tabelle 14 dargestellt.
Pilot-in-the-Plane Konstrukt: Reflektiv Spezifizierung: Indikatoren: Inwieweit können Sie die Richtung der Entwicklungen im Umfeld Ihres F&E-Erzeugnisses durch Ihre Position als Organisation kontrollieren? Effectuation Causation PILO1 Auf umfassende Analysen von Trends haben Durch eine präzise Analyse und Vorhersage wir vor Projektstart weitestgehend verzichtet konnten wir vor Projektstart Trends identifizieren PILO2 Wir haben uns mit unserem Projekt nicht an Das F&E-Projekt war als Antwort unserer Orexogene Trends angelehnt, sondern selber einen ganisation auf bestehende Trends gedacht Trend gesetzt PILO3 Bei dem Projekt ging es eher um den Aufbau Bei dem Projekt ging es eher um die Ausnuteines neuen Marktes/F&E-Segmentes durch zung von exogenen Markttrends als um die unsere F&E-Arbeit als um die Ausnutzung Entwicklung eines neuen, bislang eher unbeexogen gegebener Trends kannten Marktes/Segmentes PILO4 Die Richtung der Entwicklung auf dem Gebiet Die Richtung der Entwicklung auf dem Gebiet unseres F&E-Erzeugnisses haben wir nicht unseres F&E-Erzeugnisses haben wir durch durch Analysen vorhergesehen; sie wurde von Analysen vorhergesehen und genutzt uns initiiert/forciert PILO5 Wir haben keine Trendanalysen durchgeführt, Wir haben Trendanalysen durchgeführt, weil weil wir das Gefühl hatten, Kontrolle über zuwir das Gefühl hatten, Kontrolle über zukünftikünftige Entwicklungen in unserem F&Ege Entwicklungen in unserem F&E-Segment Segment dadurch zu haben, dass wir als Orgadurch ein besseres Verständnis zukünftiger nisation der unmittelbare Treiber für diese EntEntwicklungen zu erlangen wicklung sind Tabelle 14: Operationalisierung des Konstruktes „Pilot-in-the-plane“ Quelle: Eigene Darstellung
4.1.4
Operationalisierung des Innovationsgrades als moderierende Größe
Im Folgenden wird die Operationalisierung der moderierenden Größe, nämlich des Innovationsgrades vorgenommen. Erneut findet dabei eine Spezifizierung entlang der Kriterien von Jarvis et al. statt. Sämtliche Indikatoren der moderierenden Größe werden mit Hilfe einer 6Punkte-Skala erfasst. Dabei werden die Ausprägungen „trifft nicht zu“ (1) bis „trifft sehr zu“ (6) und die entsprechenden Zwischenstufen angewendet. Anhand des Innovationsgrades wird die Neuheit eines F&E-Erzeugnisses im Vergleich zu bestehenden Produkten oder Erkennt-
666
Vgl. dazu Abschnitt 3.3.5 auf S. 91.
112
nissen gemessen. Ziel ist es, den „Innovationsgehalt“ oder das „Ausmaß an Neuartigkeit“, also den „graduellen Unterschied gegenüber dem bisherigen Zustand“ 667 zu messen. In der Literatur findet sich eine große Anzahl von unterschiedlichen Ansätzen zur Operationalisierung. 668 Da der Innovationsgrad aus unterschiedlichen Perspektiven beurteilt werden kann, empfiehlt sich die Verwendung eines multidimensionalen 669 Konstruktes. 670 Dieses multidimensionale Konstrukt „Innovationsgrad“ soll hier anhand der Subkonstrukte Technologie- und Markt-Innovationsgrad gemessen werden. 671 Häufig werden in der Literatur weitere Arten von Innovationsgraden unterschieden, wie beispielsweise der VerfahrensInnovationsgrad. 672 Dieser wird hier jedoch ausgeklammert, da bewusst keine ProzessInnovationen untersucht werden sollen. 673 Das Innovationsgrad-Konstrukt ist entsprechend der Entscheidungsregel nach Jarvis et al. (2003) formativ zu spezifizieren. Die beiden Dimensionen Technologie und Markt spiegeln in Bezug auf den Neuheitsgrad unabhängige Aspekte wider. 674 Die Kausalität verläuft von den Subkonstrukten zum übergeordneten Innovationsgrad-Konstrukt. Wird ein Subkonstrukt weggelassen, ändert sich entsprechend die Bedeutung des übergeordneten Konstruktes. Außerdem müssen die Subkonstrukte weder notwendigerweise miteinander variieren noch müssen sie gleiche Voraussetzungen bzw. gleiche Konsequenzen haben. 4.1.4.1 Technologie-Innovationsgrad Der Technologie-Innovationsgrad misst unmittelbar die mit der F&E-Abteilung zusammenhängende Neuheit des Projektes. Dabei lehnt sich die Messung hier sehr eng an die empirisch validierten Indikatoren von Schlaak an 675 , die auch schon in einer Reihe weiterer Forschungsarbeiten angewendet wurden. 676 Eine erneute Anwendung der Entscheidungskriterien zur Konstruktspezifikation deutet auf das Vorliegen eines formativen Subkonstruktes hin. 677 Die kausalen Beziehungen laufen von den Indikatoren zum Konstrukt. Die Indikatoren sind daher nicht ohne weiteres austauschbar. Der Inhalt des Konstruktes verändert sich bei der Eliminie-
667 668 669
670 671
672
673
674 675 676
677
Hauschildt/Salomo (2007), S. 16. Vgl. Garcia/Calantone (2002), S. 110ff.; Hauschildt/Salomo (2007), S. 14ff. Multidimensionale Konstrukte werden nicht über direkte eigene Indikatoren gemessen, sondern über Subkonstrukte, denen wiederum jeweils Indikatoren zugeordnet sind. Vgl. Hauschildt/Salomo (2007), S. 18. Vgl. zu diesen beiden Dimensionen insbesondere Danneels/Kleinschmidt (2001), S. 366f. und den Literaturüberblick in Garcia/Calantone (2002), S. 110ff. Vgl. Neubauer (2007), S. 83 und die dort genannten Quellen. Als weitere Arten des Innovationsgrades finden sich in der Literatur auch die eng mit dem Verfahrens-Innovationsgrad zusammenhängenden Umfeld- und Organisations-Innovationsgrade. Vgl. Heinemann (2006), S. 20. In Rahmen dieser Arbeit werden Prozessinnovationen ausgeschlossen, da sich die Einfluss- und Erfolgsfaktoren unterschiedlicher Innovationstypen stark unterscheiden können (vgl. Abschnitt 2.1.2.1 auf S. 22ff.). Vgl. diesbzgl. Wolfe (1994), S. 406. Vgl. dazu auch Neubauer (2007), S. 83. Vgl. Schlaak (1999), S. 169ff. und 336f. Vgl. insbesondere Neubauer (2007), S. 84f. und Heinemann (2006), S. 208f. Darüber hinaus auch Billing (2003), S. 179ff.; Cratzius (2003), S. 122ff. Vgl. dazu auch die Spezifizierung in bspw. Neubauer (2007), S. 83f.
113
rung eines Indikators. Außerdem kann von einer geringen Kovariation zwischen den Indikatoren ausgegangen werden. Zusätzlich haben die Indikatoren mögliche unterschiedliche Ursachen und Konsequenzen. Die vier verwendeten Indikatoren des Subkonstruktes „TechnologieInnovationsgrad“ sind in Tabelle 15 dargestellt.
Technologie-Innovationsgrad Konstrukt: Formativ Spezifizierung: Indikatoren: Bitte beurteilen Sie, inwieweit Ihr Unternehmen vor Aufnahme des Projektes bereits über das geforderte F&EWissen und die F&E-Fähigkeiten verfügt hat TINN1 Wir verfügten zu Beginn des F&E-Projektes nicht über das zur Entwicklung des F&EErzeugnisses erforderliche Wissen TINN2 Wir hatten keine praktische Erfahrung in der Anwendung der im Rahmen des Projektes erforderlichen technologischen Fähigkeiten bzw. des technologischen Wissens TINN3 Unser Unternehmen konnte die vorhandenen technologischen Fähigkeiten und Erfahrungen im Rahmen des F&E-Projektes nicht anwenden TINN4 Die Forschungs- und Entwicklungsausgaben für das F&E-Erzeugnis haben im Vergleich zu bisherigen Projekten weit überdurchschnittliche Höhen erreicht Tabelle 15: Operationalisierung des Moderators „Technologie-Innovationsgrad“ Quelle: Eigene Darstellung
4.1.4.2 Markt-Innovationsgrad Wurde der Technologie-Innovationsgrad stark aus der Perspektive des F&E-Bereiches gemessen, so wird beim Markt-Innovationsgrad die Neuheit aus der Sicht des MarketingBereiches beurteilt. Die Operationalisierung des Markt-Innovationsgrades fußt wieder auf der Arbeit von Schlaak 678 und greift zusätzlich einzelne Aspekte aus darauf aufbauenden Arbeiten und deren bewährter Anwendung auf. 679 Auch der Markt-Innovationsgrad ist nach den Spezifikationskriterien formativ ausgestaltet. Die Indikatoren erfassen unterschiedliche Teilaspekte und sind nicht austauschbar. Entsprechend verläuft die Kausalität von den Indikatoren zum Konstrukt. Zusätzlich ist nur von einer geringen Kovariation der Indikatoren auszugehen. Die möglichen Ursachen und Konsequenzen der Indikatoren können unterschiedlich sein. Tabelle 16 zeigt die verwendeten fünf Indikatoren im Überblick.
678
679
Vgl. Schlaak (1999), S. 185ff. und 336f., der diese Indikatoren weitestgehend zur Messung seiner „Absatzmarkt-Dimension“ verwendet. Vgl. Billing (2003), S. 180; Heinemann (2006), S. 211ff.; Neubauer (2007), S. 85f.
114
Markt-Innovationsgrad Konstrukt: Formativ Spezifizierung: Indikatoren: Bitte beurteilen Sie, wie hoch der Neuheitsgrad des F&E-Erzeugnisses aus Sicht des Marketing-Bereichs gewesen ist MINN1 Der Neuheitsgrad des Produkts im Vergleich zu anderen Produkten war sehr hoch MINN2 Das F&E-Erzeugnis hat sehr viele von uns noch nicht bediente Kunden angesprochen MINN3 Das F&E-Erzeugnis bediente grundlegend neuartige Kundenbedürfnisse, die durch das bisherige Angebot unseres Unternehmens nicht abgedeckt werden MINN4 Das F&E-Erzeugnis hat den Einsatz von Vertriebskanälen verlangt, mit denen wir zuvor sehr wenig Erfahrung hatten MINN5 Die Marketing- und Vertriebsausgaben für das F&E-Erzeugnis haben weit überdurchschnittliche Höhen im Vergleich zu bisherigen Projekten erreicht Tabelle 16: Operationalisierung des Moderators „Markt-Innovationsgrad“ Quelle: Eigene Darstellung
4.1.5
Operationalisierung des Erfolgs von F&E-Projekten
Nachdem in Kapitel 2 die Konzeptualisierung der Erfolgsgröße vorgenommen wurde, soll an dieser Stelle die Operationalisierung erfolgen. Eine ausführliche Konzeptualisierung war notwendig, um der im Rahmen dieser Untersuchung bestehenden Komplexität und Neuartigkeit Rechnung zu tragen. Auch zeigt ein Literaturreview, der im Rahmen dieser Arbeit durchgeführt wurde, dass es nur äußerst wenige Beispiele gibt, in denen die Erfolgsgröße in systematischer Form hergeleitet und strukturiert dargestellt wird. Häufig ist die Erfolgsgröße unpräzise und „lacks rigorous definition“ 680 . Gerade dieser Aspekt macht einige Studien angreifbar und verhindert in den meisten Fällen eine direkte Vergleichbarkeit der Ergebnisse.681 Einen Überblick über häufig verwendete Erfolgsdimensionen im Kontext von Untersuchungen zu F&E-Projekten gibt die folgende Tabelle. Dabei wird jeweils auch geprüft, ob die betrachtete Größe anhand der in Kapitel 2 entwickelten konzeptionellen Grundlagen im Rahmen dieser Arbeit angewendet werden kann.
680 681
Vgl. Belout (1998), S. 22. Vgl. diesbzgl. den hier dargestellten Literaturüberblick mit den unterschiedlichen Erfolgsdimensionen und beispielsweise den Hinweis von Hauschildt, dass wegen unterschiedlicher Messzeitpunkte des Erfolgs Studien nicht immer vergleichbar sind. Vgl. Hauschildt (1991), S. 469.
115
Erfolgsdimensionen
Autoren
Untersuchungsgegenstand
Anwendbarkeit in dieser Arbeit
Meeting design goals
Shenhar/Levy (1997) 682
Projektausführung
anwendbar
Benefits to customers
Shenhar/Levy (1997)
Projektausführung
teilweise
Commercial success and future potential
Shenhar/Levy (1997)
Projektausführung
teilweise
Technical performance
Freeman/Beale (1992), Tatikonda/Rosenthal (2000)
Literaturreview, Projektausführung
anwendbar
Efficiency of execution
Freeman/Beale (1992)
Review der Projektmgmt. Literatur
anwendbar
Managerial and organizat. implications
Freeman/Beale (1992)
Review der Projektmgmt. Literatur
anwendbar
Personal growth
Freeman/Beale (1992)
Review der Projektmgmt. Literatur
nicht sinnvoll
Manufacturability and business performance
Freeman/Beale (1992)
Review der Projektmgmt. Literatur
teilweise
Product unit cost
Tatikonda/Rosenthal (2000)
Projektausführung
nicht sinnvoll
Time-to-market
Tatikonda/Rosenthal (2000)
Projektausführung
nicht sinnvoll
Opportunity window 683
Cooper/Kleinschmidt (1987)
Erfolg bei der Entwicklung neuer Produkte
teilweise
Financial performance of new products
Cooper/Kleinschmidt (1987)
Erfolg bei der Entwicklung neuer Produkte
nicht sinnvoll
Market impact
Cooper/Kleinschmidt (1987)
Erfolg bei der Entwicklung neuer Produkte
nicht sinnvoll
Perceived value of the project
Pinto/Mantel (1990)
Projektperformance
anwendbar
Client satisfaction with delivered project
Pinto/Mantel (1990)
Projektperformance
teilweise
Stakeholder satisfaction
Baker/Murphy/Fisher (1988)
Projekterfolg
teilweise
Tabelle 17: Review unterschiedlicher Erfolgsdimensionen in der Projektmanagement-Literatur Quelle: Eigene Darstellung
682
683
Shenhar et al. verwenden diese Erfolgsdimensionen in einer Reihe weiterer Veröffentlichungen, vgl. u.a. Shenhar et al. (2002). Meint das Ausmaß, in dem das Projekt dazu beiträgt, neue Kategorien von Produkten und Märkten zu erschließen (vgl. Cooper/Kleinschmidt (1987)).
116
Von dem Gros der wenig strukturierten und nur Teilaspekte abdeckenden Erfolgsgrößen in den meisten Studien, heben sich die Erfolgsdimensionen von Shenhar et al. positiv ab. 684 Sie folgen implizit einer Unterteilung nach prozess- und outputbezogenen Dimensionen 685 , so wie sie in dieser Arbeit auf Basis der Konzeptualisierung auch angewendet werden soll. 4.1.5.1 Prozessbezogene Erfolgskriterien Shenhar et al. schlagen eine prozessbezogene Dimension „Meeting design goals“ 686 vor. Diese Größe soll die Effizienz des Projektes messen und beinhaltet die vielfach verwendeten Erfolgsgrößen „Meeting the objectives of project budget“ 687 und „Meeting time goals“ 688 . Darüber hinaus nehmen sie noch die Bestandteile „Meeting operational and technical performance“ mit auf, um die inhaltliche Prozessqualität und die technische Leistungsfähigkeit des Erzeugnisses des F&E-Projektes zu analysieren. 689 Die Kausalität verläuft bei dieser Erfolgsdimension vom Konstrukt zu den Indikatoren, d.h. dass die drei Indikatoren den Erfolg der Prozess-Effizienz widerspiegeln. Außerdem sind die Indikatoren austauschbar und es kann von einer ausgeprägten Kovarianz und weitgehend übereinstimmenden nomologischen Netzen ausgegangen werden. 690 Daraus ergibt sich, dass das Konstrukt Prozess-Effizienz reflektiv spezifiziert ist. Die Messung der Indikatoren erfolgt bei den Erfolgsgrößen auch wieder anhand einer 6-Punkt-Skala.
684 685
686 687
688
689
690
Vgl. Dvir/Shenhar (1992), S. 33ff; Shenhar/Levy (1997), S. 5ff.; Shenhar et al. (2001), S. 707ff. Dvir/Shenhar und Levy machen eine derartige Unterscheidung nicht explizit, d.h. sie wenden die Unterteilung in prozess- und outputbezogene Größen nicht selber an. Dvir/Shenhar (1992), Shenhar/Levy (1997). Vgl. zur Verwendung des Kriteriums Kosten bzw. Budget u.a. die Studien von Utterback et al. (1976); Rubenstein et al. (1976); Tushman/Katz (1980); Köhler/Tebbe (1985); Gobeli/Brown (1987); Cooper (1988); Larson/Gobeli (1988); Pinto/Slevin (1988); Cooper (1990a); Bullinger (1995); Shenhar/Levy (1997); Gruner/Homburg (1999); Shenhar et al. (2002). Vgl. zur Verwendung des Kriteriums Zeit u.a. Rubenstein et al. (1976); Utterback et al. (1976); Tushman/Katz (1980); Köhler/Tebbe (1985); Larson/Gobeli (1988); Pinto/Slevin (1988); Cooper/Kleinschmidt (1994); Bullinger (1995); Cooper/Kleinschmidt (1995); Brockhoff/Schmaul (1996); Shenhar/Levy (1997); Gerpott (1999); Gruner/Homburg (1999); Kessler/Chakrabarti (1999); Shenhar et al. (2002). Vgl. u.a. Montoya-Weiss/Calantone (1994), S. 406f.; Shenhar/Levy (1997), S. 5ff.; Shenhar et al. (2002), S. 116. Vgl. Heinemann (2006), S. 221.
117
Erfolg des F&E-Projektes – Einschätzung der Prozess-Effizienz Konstrukt: Reflektiv Spezifizierung: Indikatoren: Bitte beurteilen Sie die Effizienz des F&E-Prozesses gemessen an den Vorgaben bzgl. der folgenden Kriterien (Soll/Ist-Vergleich) PEFF1 Einhaltung des geplanten Zeitrahmens PEFF2 Einhaltung der Budget-/Ressourcenvorgaben PEFF3 Hohe Qualität und Leistungsfähigkeit des F&E-Prozesses Tabelle 18: Operationalisierung des Konstruktes „Prozessbezogener Erfolg des F&E-Projektes“ Quelle: Eigene Darstellung
4.1.5.2 Outputbezogene Erfolgskriterien Wie in der Konzeptualisierung gezeigt, reicht die Beschränkung auf einfache Prozesseffizienzgrößen wie Budget- und Zeitplaneinhaltung nicht aus 691 , da damit nicht gesagt ist, dass ein Projekt, das zwar diesen Vorgaben entspricht und damit in dieser Dimension als erfolgreich gilt, auch Kundenerwartungen und -anforderungen erfüllt. 692 Andererseits können im Rahmen dieser Untersuchung auch nicht vergleichsweise einfache und in der Literatur häufig verwendete finanzielle Kennzahlen zur Erfolgseinschätzung herangezogen werden. Dies ist aus drei Gründen nicht möglich. Erstens würde so einem wesentlichen Schwerpunkt von Effectuation nicht Rechnung getragen, nämlich dass Erfahrungen und neue Erkenntnisse einen sehr hohen Wert haben können, aber zumindest kurzfristig finanziell nicht messbar sind. So können in kurzfristiger Betrachtungsweise scheinbar gescheiterte Projekte eine erhebliche mittel- bis langfristige Bedeutung für eine Organisation haben. 693 Generell sind einfache finanzielle Messungen des Erfolgs schwierig, weil eine positive oder negative Beurteilung vom Zeitpunkt der Messung abhängig sein kann. 694 Zweitens sind finanzielle Messgrößen in dem speziellen Kontext dieser Untersuchung kritisch zu beurteilen, da berücksichtigt werden muss, dass der Erfolg von Grundlagenforschung nicht, wie etwa bei der Produktentwicklung, am Endprodukt und an Marktgrößen gemessen werden kann. 695 Bei vielen Analysen zu F&E-Projekten werden die weniger anwendungsnahen Teilbereiche häufig ausgeklammert, ohne dass darauf explizit hingewiesen wird. An dieser Stelle soll aber eine Analyse der F&E-Erfolgsfaktoren über ein breites Projektspektrum erfolgen, um projektabhängige Unterschiede zu identifizieren und dem Umstand Rechnung zu tragen, dass nicht alle Projekte gleich sind. 696 Drittens wird der finanzielle Erfolg sehr stark von Maßnahmen beeinflusst, die nicht direkt dem F&E-Projekt zuzurechnen
691 692 693 694 695
696
Vgl. dazu auch Shenhar/Levy (1997), S. 5ff.; Shenhar et al. (2002), S. 113. Vgl. Baker et al. (1988). Vgl. dazu auch die in Abschnitt 3.3.4.1 auf Seite 85f. genannten Beispiele. Vgl. für eine detailliertere Betrachtung auch Abschnitt 2.1.2.3.2 (Seite 35f.). Vgl. zur Notwendigkeit der Unterscheidung der Erfolgsmessung zwischen Grundlagenforschung und anwendungsnaher Entwicklungsarbeit: Brown/Svenson (1998), S. 32. Vgl. zur Problematik, dass häufig alle Projekte als vergleichbar angenommen werden: „[…] most project management literature still assumes that all projects are fundamentally similar and that one size fits all.“ (Shenhar (2001), S. 394).
118
sind. In dieser Untersuchung soll soweit wie möglich sichergestellt werden, dass nicht solche Größen Verwendung finden, die in Wirklichkeit nicht den Erfolg des F&E-Projektes reflektieren, sondern eher den einer erfolgreichen Marketing- oder Vertriebskampagne. 697 Deshalb ist eine präzise Formulierung der Indikatoren und, wie im Rahmen der Konzeptualisierung beschrieben, eine quantitativ-subjektive Operationalisierung notwendig. Um diesen Umständen Rechnung zu tragen, werden die in der Literatur häufig verwendeten outputbezogenen Dimensionen, wie „Benefits to customers“ 698 und „Commercial success and future potential“ 699 oder auch „Benefits to the organization“ 700 in dieser Untersuchung in einer modifizierten Art aufgenommen. Als erstes outputbezogenes Konstrukt wird der Nutzen für die Organisation im Sinne von gewonnenen Erfahrungen und Kompetenzen hergeleitet. Hier sollen relative Einschätzungen herangezogen werden, d.h., dass der jeweilige Indikator im Vergleich zu anderen F&E-Projekten in der betrachteten Organisation bewertet werden soll. Abgefragt wird, ob das Projekt neue Erkenntnisse für andere F&E-Projekte hervorgebracht hat. Zusätzlich wird abgefragt, ob das Projekt Ideen generiert hat, die als Ausgangspunkt für zukünftige Projekte dienen können. Außerdem wird allgemein nach dem Kompetenzaufbau gefragt, der durch das Projekt erzielt wurde. 701 Auch für dieses Konstrukt wird ein Verlauf der Kausalität vom Konstrukt zu den Indikatoren angenommen. Zudem sind die Indikatoren weitgehend austauschbar und es wird von einer Kovarianz der Indikatoren ausgegangen. Außerdem wird unterstellt, dass die Indikatoren gleiche Ursachen und Konsequenzen haben. Insgesamt führt dies zur Schlussfolgerung, dass eine reflektive Spezifizierung vorliegt.
Erfolg des F&E-Projektes – Aufbau von Erfahrungen und Kompetenzen Konstrukt: Reflektiv Spezifizierung: Indikatoren: Bitte beurteilen Sie die gewonnenen Erfahrungen und Kompetenzen gemessen an den Erwartungen (Soll/IstVergleich) ERFK1 Erzielung von Learnings und Erkenntnissen für andere F&E-Projekte ERFK2 Generierung neuer Ideen als Ausgangspunkt für weitere Projekte ERFK3 Kompetenzaufbau durch das F&E-Projekt Tabelle 19: Operationalisierung des Konstruktes „Outputbezogener Erfolg des F&E-Projektes – Aufbau von Erfahrungen und Kompetenzen“ Quelle: Eigene Darstellung
Ein zweites outputbezogenes Konstrukt bezieht sich auf den wahrgenommenen Nutzen bzw. auf zukünftige Potenziale. Dieses Konstrukt geht über die Dimensionen „Benefits to custo-
697
698 699 700 701
Vgl. dazu die Beschreibung dieses Umstands als eine Herausforderung der F&E-Erfolgsmessung in Kerssens-van Drongelen et al. (2000), S. 117. Shenhar/Levy (1997), S. 5ff.; Shenhar et al. (2002), S. 116. Shenhar et al. (2002), S. 116. Shenhar/Levy (1997). Vgl. dazu auch Heinemann (2006), S. 223 und die dort angegebenen Quellen.
119
mers“ und „Benefits to the organization“ 702 , die von Shenhar et al. und anderen verwendet werden, hinaus, indem es die zukünftigen Potenziale insgesamt untersucht. 703 Dafür wird zunächst gefragt, ob das F&E-Projekt zu einem neuen F&E-Erzeugnis geführt hat. Da die Schaffung eines neuen F&E-Erzeugnisses in Form von neuen Erkenntnissen oder Produkten im Zentrum von F&E-Projekten steht, kann eine starke Ausprägung dieses Indikators Rückschlüsse auf die eigentliche Zielerreichung zulassen. 704 Ein wesentlicher zusätzlicher Indikator dieses Konstruktes ist der wahrgenommene Nutzen 705 , der von einem neuen Produkt, einer neuen Theorie oder neuen Erkenntnissen ausgeht. Hier zeigt sich insbesondere die Notwendigkeit des relativen Vergleichs mit anderen F&E-Projekten, da sonst die drei genannten möglichen Outputs eines Projektes in dieser Dimension kaum vergleichbar wären. Daher gibt es bei diesem Indikator den Zusatz, in welchem Umfang bestehende Probleme mit dem Projekt gelöst wurden. Ein dritter Indikator dient der Einschätzung der Verwertbarkeit der technischen Erkenntnisse oder Produkte. Verwertbarkeit meint hier je nach Projektart entweder eine wirtschaftliche Verwertung oder aber die Weiterverwendung in marktnäheren Projekten, wie dies im Rahmen von Grundlagenforschung oder Technologieentwicklung als Erfolg gewertet werden kann. Zusätzlich soll dem Umstand Rechnung getragen werden, dass F&EErgebnisse nicht immer unmittelbar und direkt für externe Kunden bestimmt sein müssen. Es kann beispielsweise ein Entwicklungsziel darin bestehen, zu demonstrieren, wie leistungsfähig die F&E eines Unternehmens ist. Dann ist der Kunde zunächst einmal die interne Marketingabteilung, die das F&E-Erzeugnis für Werbezwecke verwendet. Entsprechend wird der Imagegewinn als eine weitere Messgröße berücksichtigt.706 Zusätzlich wird die erreichte Qualität und Leistungsfähigkeit des F&E-Erzeugnisses in Bezug auf die Erwartungen gemessen. 707 Bei diesem Konstrukt ist wiederum ein Verlauf der Kausalität vom Konstrukt zu den Indikatoren gegeben, so dass eine reflektive Spezifikation angenommen wird.
702 703
704 705 706 707
Shenhar/Levy (1997), S. 5ff.; Shenhar et al. (2002), S. 116. Vgl. dazu auch Baker et al. (1988), die die weitergefasste Größe „Benefits to Stakeholders“ empfehlen. Vgl. dazu auch Shenhar et al. (2002), S. 116. Vgl. zu dieser Dimension bspw. Pinto/Mantel (1990), S.269ff. Vgl. Heinemann (2006), S. 223. Vgl. Heinemann (2006), S. 221 und die dort genannten Quellen.
120
Erfolg des F&E-Projektes – Wahrgenommener Nutzen und zukünftige Potenziale Konstrukt: Reflektiv Spezifizierung: Indikatoren: Bitte beurteilen Sie den wahrgenommenen Nutzen bzw. zukünftige Potenziale des F&E-Erzeugnisses gemessen an den Erwartungen (Soll/Ist-Vergleich) NUTP1 Ergebnis des F&E-Projektes war die Entwicklung eines neuen F&E-Erzeugnisses NUTP2 Wahrgenommener Nutzen des F&E-Erzeugnisses (Lösung eines bestehenden Problems) NUTP3 Verwertbarkeit des F&E-Erzeugnisses NUTP4 Imagegewinn durch das F&E-Projekt NUTP5 Qualität und Leistungsfähigkeit des F&E-Erzeugnisses Tabelle 20: Operationalisierung des Konstruktes „Outputbezogener Erfolg des F&E-Projektes – Wahrgenommener Nutzen und zukünftige Potenziale“ Quelle: Eigene Darstellung
4.1.6
Operationalisierung von Kontrollvariablen
Da Dependenzanalysen von der Art und Anzahl der verwendeten Variablen abhängen, werden häufig zusätzlich zu den eigentlich im Modell angegebenen Variablen weitere, sogenannte Kontrollvariablen mit in die Untersuchung einbezogen. 708 Dies ermöglicht die Analyse weiterer Aspekte auf einen potenziellen Einfluss auf die hypothetisierten Wirkungszusammenhänge. Zwei Kategorien von Kontrollvariablen wurden in dieser Studie mitgeführt. So wurden auf der einen Seite unternehmens- bzw. projektbezogene Eigenschaften abgefragt. 709 Auf der anderen Seite wurden die Befragungsteilnehmer um persönliche Angaben gebeten. Insgesamt wurden sieben projekt- bzw. unternehmensbezogene Faktoren abgefragt. 1. Anzahl der Mitarbeiter im befragten Unternehmen (in Größenklassen) 2. Projekttyp (Produktentwicklung, Vorentwicklung, Angewandte Forschung, Grundlagenforschung) 3. Größe des F&E-Projektteams (Durchschnittliche Anzahl der Teammitglieder in Größenklassen) 4. Projektbudget (in monetären (€) Größenklassen) 5. Projektdauer (in zeitlichen (Anzahl Monate) Größenklassen) 6. Branche (Sieben Hauptbranchen 710 zur Auswahl vorgegeben plus Kategorie „Andere Branche“) 7. Land (Deutschland, Österreich, Schweiz) Zusätzlich wurden drei personenbezogene Datenpunkte abgefragt, um nähere Informationen in Bezug auf den Befragten zu erhalten.
708 709 710
Vgl. Homburg/Klarmann (2003), S. 78f. Vgl. u.a. Nutt (1986); Tatikonda/Rosenthal (2000); Naveh (2003); Hiddemann (2006), S. 79. Maschinenbau, Elektrotechnik, Automobilindustrie, Metallverarbeitung, Medizintechnik, Biotechnologie, Pharma, Andere.
121
1. Funktionsbereich (F&E, Konstruktion, Produktion, Einkauf, Vertrieb/Marketing, Controlling, Accounting, Geschäftsführung, Andere) 2. Hierarchische Position (Sekretär/Assistent, Gruppenleiter, Abteilungsleiter, Bereichsleiter, Geschäftsführung, Andere) 3. Rolle im Rahmen des F&E-Projektes (Projektmitglied, Projektleiter, Supervisor/Auftraggeber, Nicht direkt involviert, Andere) 4.2
Datengrundlage für die Vor- und Hauptuntersuchung
4.2.1
Bildung der Stichprobe
Bei der Bildung der Stichprobe sind drei wesentliche Aspekte zu berücksichtigen: Erstens muss eine sinnvolle Auswahl der zu untersuchenden Branchen stattfinden. Zweitens müssen geeignete Unternehmen für die Umfrage ausgewählt werden. Drittens müssen die untersuchten Projekte so gewählt werden, dass sie die in dieser Untersuchung betrachteten Arten von Innovationen abdecken. Um einen ausgeprägten Branchen-Bias zu vermeiden und generalisierbare Ergebnisse zu erzielen, sollen in dieser Untersuchung mehrere Sektoren berücksichtigt werden. 711 Dabei wird jedoch darauf geachtet, dass die ausgewählten Branchen alle wissensintensiv sind. Dadurch kann sichergestellt werden, dass die überwiegende Anzahl der befragten Unternehmen regelmäßig F&E-Projekte durchführt und somit Erfahrung in Bezug auf den Forschungsgegenstand dieser Untersuchung hat. Daher sollen insbesondere sieben Branchen berücksichtigt werden: Maschinenbau, Elektrotechnik, Automobilindustrie, Medizintechnik, Biotechnologie, Pharma und Metallverarbeitung. Die Auswahl und Branchenzuordnung erfolgt dabei soweit wie möglich entlang des Wirtschaftszweig (WZ)-Schlüssels des Statistischen Bundesamtes. 712 Die Auswahl geeigneter Unternehmen innerhalb der zuvor identifizierten Branchen ist mit wenigen Restriktionen verbunden. Bewusst werden alle Größenklassen zugelassen, um die Möglichkeit zu haben, einen potenziellen Einfluss der Unternehmensgröße auf die Forschungsfragen zu analysieren. Die einzige echte Einschränkung, die an dieser Stelle vorgenommen wird, ist geografischer Art: Um den Einfluss nationaler Kulturunterschiede zu minimieren, wird die Untersuchung auf Unternehmen beschränkt, die ihren Sitz im deutschsprachigen Raum haben. 713 Auf der Ebene der zu analysierenden F&E-Projekte findet eine Einschränkung dahingehend statt, dass nur solche Projekte untersucht werden sollen, die das Ziel haben, ein tangibles Produkt hervorzubringen oder aber Projekte der Grundlagenforschung, deren Produkt gegebenenfalls eine neue Theorie oder eine neue Erkenntnis ist. Dies soll hier als Abgrenzung zu Projekten zur Prozessverbesserung (Prozessinnovation) verstanden werden. Prozessinnovationen
711 712 713
Vgl. Olson/Walker/Ruekert (1995), S. 55. Dafür wird die Klassifikation der Wirtschaftszweige von 1993 verwendet (WZ93). Es werden nur Unternehmen aus Deutschland, Österreich und dem deutschsprachigen Teil der Schweiz berücksichtigt.
122
werden explizit von der Untersuchung ausgeschlossen, da sie häufig mit anderen Innovationsvorhaben verknüpft sind. Dies macht eine isolierte Betrachtung sehr schwierig.714 Bei der Identifikation von geeigneten Unternehmen und Projekten wurde insgesamt auf drei Quellen zurückgegriffen: 1. Amadeus Unternehmensdatenbank, 2. Persönliche Kontakte, 3. Internetrecherche zur Identifikation von Ansprechpartnern. Die Amadeus Datenbank ist eine kostenpflichtige und öffentlich zugängliche Plattform des Anbieters Bureau van Dijk. Insgesamt enthält diese Datenbank Informationen zu über 10 Mio. europäischen Unternehmen. Nach einer Einschränkung auf Unternehmen im deutschsprachigen Raum und die oben genannten Branchen verbleibt eine Ausgangsmenge von 5.288 Unternehmen. 715 Diese Gesamtheit musste nach einer gründlichen Überprüfung der einzelnen Datenbankeinträge sowie in Zweifelsfällen durch eine zusätzliche Internetrecherche oder telefonische Kontaktaufnahme auf 3.413 reduziert werden. Die Hauptursache dafür waren entweder falsche Kontaktinformationen, falsche Brancheninformationen oder falsche Informationen in Bezug auf die eigentliche Tätigkeit des Unternehmens. So mussten eine Vielzahl von Handelsgesellschaften und Beratungsunternehmen sowie reine Vertriebsniederlassungen größerer Gesellschaften, die nicht über eine eigene F&E verfügen, entfernt werden. Zusätzlich wurden weniger wissensintensive Branchenzweige, insbesondere rein verarbeitende Branchen eliminiert. 716 Zusätzlich wurden direkte und indirekte persönliche Kontakte genutzt. 717 Auf diese Weise entstand eine zusätzliche Befragungsmenge von 425 Personen. 718 Die Qualität dieser Kontaktdaten ist als sehr hoch einzuschätzen, da die Aufgabe und Erfahrung eines jeden Kontakts in Bezug auf das Management von F&E-Projekten bekannt war. Entsprechend musste diese Gruppe auch nicht weiter überprüft und reduziert werden. Als dritte Datenquelle wurde das Internet zur Identifikation geeigneter weiterer Unternehmen genutzt. Ausgangspunkt dafür waren insbesondere Technologiezentren, um auch kleinere Unternehmen zu berücksichtigen. Auf diese Weise wurde eine weitere Ausgangsmenge von 200 Unternehmen identifiziert. Auch diese wurde im Detail per Internetrecherche überprüft. Insgesamt hat dies zu einer Grundgesamtheit von 4.038 Unternehmen geführt, die die formulierten Kriterien erfüllten und zu einem Teil (900 Unternehmen) für die erste und zu einem Teil (3.138 Unternehmen) für die zweite Umfragerunde genutzt wurden.
714
715
716 717
718
In Rahmen dieser Arbeit werden Prozessinnovationen ausgeschlossen, da sich die Einfluss- und Erfolgsfaktoren unterschiedlicher Innovationstypen stark unterscheiden können (vgl. Abschnitt 2.1.2.1 auf S. 22ff.). Vgl. diesbzgl. Wolfe (1994), S. 406. Zusätzlich wurden in dieser Datenbank 50 Mitarbeiter als Mindestgrenze für die Unternehmensgröße herangezogen, weil sich herausgestellt hat, dass die Datenbank sehr viele kleine Unternehmen enthält, die nicht mehr existieren. Außerdem wurden solche Unternehmen eliminiert, die keine Kontaktinformationen veröffentlicht haben. Die Datenbank wurde am 18.11.2007 abgerufen. Z.B. „Manufacture of wire products“ und „Treatment and coating of metals“. Diese Kontakte sind dem Autor entweder unmittelbar bekannt oder gehen auf explizite Empfehlungen unmittelbar bekannter Kontakte zurück. Eine Überschneidungsfreiheit mit den Kontaktinformationen aus der Amadeus Datenbank wurde entsprechend überprüft und sichergestellt.
123
4.2.2
Durchführung der Datenerhebung
Zunächst muss eine geeignete Erhebungsmethode ausgewählt werden. Anschließend wird auf die damit in Verbindung stehenden potenziellen Problemfelder eingegangen und aufgezeigt, wie diese gelöst werden sollen. Zum Schluss wird in diesem Abschnitt die resultierende Datenbasis für die Voruntersuchung zur Skalenentwicklung (Abschnitt 4.2.2.1) und die Datenbasis für die Hauptuntersuchung (Abschnitt 4.2.2.2) vorgestellt. Grundsätzlich ist zu entscheiden, ob eine traditionelle Offline-Befragung mit Hilfe eines in Papierform verschickten Fragebogens durchgeführt werden soll oder ob eine immer häufiger anzutreffende internetbasierte Online-Befragung gewählt wird. 719 Die vier typischen Versandoptionen sind in diesem Zusammenhang sowohl für den Befrager als auch für den Befragten Post, Fax, E-Mail und die direkt webbasierte Übertragung über Interneteingabefelder. Sowohl Offline- als auch Online-Befragungen haben Vor- und Nachteile. Generell ist die Anwendung von Online-Befragungen deutlich kostengünstiger als der postalische Versand von Fragebögen. 720 Außerdem haben Online-Fragebögen vergleichsweise kurze Rücklaufzeiten 721 und mögliche Fehler bei der Übertragung von papierbasierten Fragebögen auf elektronische Speichermedien zwecks Datenauswertung werden vollständig vermieden. 722 Zusätzlich können durch Online-Fragebögen Elemente berücksichtigt werden, die einerseits dem Ausfüllenden die Arbeit erleichtern und andererseits demjenigen, der die Umfrage durchführt zusätzliche Informationen und damit eine bessere Kontrollierbarkeit ermöglichen. So können bei einem Online-Fragebogen Buttons berücksichtigt werden, die der Nutzer aktivieren kann, um zusätzliche Informationen zu Inhalt oder Vorgehen beim Ausfüllen des Fragebogens zu erhalten. 723 Auf der anderen Seite ist für den Befrager das Ausfüllverhalten der Teilnehmer im Detail nachvollziehbar. Insbesondere können so Stellen im Fragebogen identifiziert werden, bei denen gehäuft Abbrüche stattfinden. 724 Des weiteren können unmittelbar Plausibilitätschecks durchgeführt werden und der Nutzer kann darauf hingewiesen werden, wenn er eine Frage nicht beantwortet hat. So lässt sich die Anzahl an unvollständigen Datensätzen reduzieren.
719 720
721
722 723
724
Vgl. Sax et al. (2003), S. 409. Vgl. Weible/Wallace (1998), S.23. Sie vergleichen die variablen Kosten und kommen zum Ergebnis, dass $0,01 je Fragebogen auf Online-Basis, $0,56 auf Fax- und $1,56 auf Postbasis anfallen. Vgl. auch Cobanoglu/Warde/Moreo (2001), S. 409, die ermitteln, dass sich auf Basis von 100 Fragebögen die Kosten zwischen postalischem Versand und Kombination E-Mail/Onlinefragebogen um den Faktor 2,4 unterscheiden. Vgl. Bachmann et al. (1996), S. 33; Schaefer/Dillman (1998), S. 389f.; Weible/Wallace (1998), S. 23; Granello/Wheaton (2004), S. 388. Vgl. Granello/Wheaton (2004), S. 388. Grundsätzlich kann ein solcher Begleittext zwar auch in Offline-Fragebögen angegeben werden, jedoch führt dies zu erheblich mehr sichtbarem Text. Wenn dies beim Befragten den Eindruck hinterlässt, dass der Text vollständig zu lesen ist, würde eine solche Unterstützung zu deutlich längeren Ausfüllzeiten und potenziell höheren Abbruchquoten führen. Vgl. Bosnjak/Tuten (2001).
124
Insgesamt führen webbasierte Befragungen aufgrund der einfachen Bedienbarkeit in der Regel zu einer größeren Zufriedenheit unter den Teilnehmern. 725 Allerdings haben onlinebasierte Umfragen auch Nachteile, die entsprechend berücksichtigt werden müssen. So ist bislang umstritten, welche Auswirkung die Online-Befragung auf die Antwortquote hat. Häufig wird angeführt, dass Online-Befragungen systematisch geringere Rücklaufquoten haben als papierbasierte. 726 Dieser Kritikpunkt wird durch neuere Vergleichsstudien allerdings entkräftigt. 727 Das Problem scheint vielmehr ein generelles Problem bei schriftlichen Befragungen zu sein. 728 Ein weiterer Nachteil kann in einem sogenannten Noncoverage Error bestehen, der die Repräsentativität der Umfrage beeinträchtigt. Die Ursache hierfür liegt darin, dass Teile der Grundgesamtheit möglicherweise nicht über die technische Möglichkeit eines Internetzugangs verfügen oder aber diesem Medium gegenüber wenig aufgeschlossen sind. 729 Allerdings ist auch das immer weniger zu befürchten, da sich das Internet als alltägliche Kommunikationsplattform in Unternehmen durchgesetzt hat und Unternehmensmitarbeiter in nahezu 100% der Fälle über einen entsprechenden Zugang verfügen. 730 Insgesamt wird bei der vorliegenden Untersuchung auf die Empfehlungen von Sills/Song zurückgegriffen, die eine Online Erhebungsmethode unter den gegebenen Rahmenbedingungen empfehlen. 731 Die Hauptgründe für diese Entscheidung sind der Kostenvorteil, der insbesondere zum Tragen kommt, weil ein mehrfaches Nachfassen zur Erinnerung der Teilnehmer geplant ist, die Einfachheit und Geschwindigkeit des Fragebogenversands und -rücklaufs sowie die Einfachheit bei der Übertragung in die sich anschließende Datenauswertung. Technisch realisiert wird die Umfrage mittels der Online-Umfrageplattform EFS-Survey der Firma Globalpark. 732 E-Mails dienen dabei dem Versand der Anschreiben und eine Internetplattform wird zur Datenerhebung genutzt. 733 Die Software EFS-Survey bietet darüber hinaus die Möglichkeit der onlinebasierten Teilnehmerverwaltung mit automatischer Zugriffscodegenerierung, Funktionalitäten zum personalisierten Versand von Einladungs- und ErinnerungsE-Mails sowie die Möglichkeit zum Export der Daten in Standarddateiformate. Die Nachteile einer solchen Online-Befragungsmethode sollen jedoch kritisch berücksichtigt und durch konkrete Gegenmaßnahmen begrenzt werden. Um dem aufgrund des Teilnehmerkreises ohnehin geringen Problem eines potenziellen Noncoverage Errors zu begegnen, werden alternative Antwortmöglichkeiten angeboten. So wird in der initialen E-Mail ein zusätzlicher Link zum Download des Fragebogens als pdf-Dokument angegeben. 734 Dabei wird ge-
725 726 727 728 729 730 731 732 733
734
Vgl. Grether (2003), S. 212ff. Vgl. Weible/Wallace (1998), S. 23; Crawford et al. (2001), S. 146f.; Kaplowitz et al. (2004), S. 98. Vgl. Granello/Wheaton (2004). Vgl. Diamantopoulos/Schlegelmilch (1996), S. 505. Vgl. Couper (2000), S. 467. Vgl. Schaefer/Dillman (1998), S. 378f. Vgl. Sills/Song (2002), S. 28. Globalpark Enterprise Feedback Suite (EFS) in der Version 5.2. Dabei orientiert sich das Vorgehen an Klassen/Jacobs (2001), S. 719 und Van Selm/Jankowski (2006), S. 442ff. Dabei wird das pdf-Dokument bewusst nicht direkt dem Anschreiben angehängt, da häufig E-Mails einer unbekannten Adresse, die einen Anhang enthalten, ungelesen gelöscht werden. Viel-
125
zielt darauf hingewiesen, dass auch eine Rücksendung des Fragebogens per Post, Fax oder eingescannt als E-Mail-Anhang möglich ist. Um dem generellen Problem geringer Antwortquoten bei schriftlichen Befragungen zu begegnen, wurden eine Reihe zusätzlicher Maßnahmen ergriffen. Dabei wird in Anlehnung an Diamantopoulos/Schlegelmilch und Bosnjak/Tuten insbesondere auf folgende Aspekte im E-Mail-Anschreiben und im Fragebogen geachtet: 735
735 736
737
x
Hervorhebung der Universität: Die RWTH Aachen als Herkunftshochschule der Studie wurde bereits in der Betreffzeile genannt. Damit wurde das Ziel verfolgt, die Bedeutung der Untersuchung hervorzuheben. Gleichzeitig sollte so auf den wissenschaftlichen Charakter hingewiesen werden.
x
Persönliche Ansprache: Im Rahmen der Vorbereitungen zur Studie wurde nach Möglichkeit zu jedem teilnehmenden Unternehmen ein entsprechender persönlicher Kontakt ermittelt. Dieser Kontakt wurde dann auch personalisiert angeschrieben. 736 In den Fällen, in denen eine Identifikation eines F&E-Verantwortlichen nicht möglich war, wurde ein verfügbarer Kontakt innerhalb des Unternehmens angeschrieben und gebeten, die Umfrage an einen geeigneten Teilnehmer weiterzuleiten. 737
x
Spezifikation und Einschränkung des Teilnehmerkreises: In vielen Fällen konnte bereits vorab der Adressat des Fragebogens als geeigneter Teilnehmer ermittelt werden. Es gab jedoch auch Fälle in denen dies nicht möglich war, so dass ein deutlicher Hinweis im Anschreiben notwendig war, um einzugrenzen, welche Personen an der Umfrage teilnehmen können. Die Umfrage richtet sich ausschließlich an Manager, die mit F&E-Projekten zu tun haben oder hatten. Wichtig dabei ist, dass der Befragte einen guten Überblick über das Gesamtprojekt hat.
x
Teilnahmeappell: Gezielt wurde an das Gewissen der potenziellen Teilnehmer appelliert, indem die Bedeutung des Themas der Studie hervorgehoben und darauf hingewiesen wurde, dass eine erfolgreiche Studie nur möglich ist, wenn viele Teilnehmer ihre Erfahrungen über den Fragebogen mitteilen.
x
Anreiz zur Teilnahme: Um einen unmittelbaren Anreiz für jeden einzelnen Teilnehmer zu schaffen, wurde in dem Anschreiben bereits darauf hingewiesen, dass die Möglichkeit besteht, am Ende der Umfrage seine E-Mail-Adresse zu hinterlassen, um eine exklusive, praxisorientierte Auswertung der Ergebnisse zu erhalten. Als zusätzlicher Anreiz wurde die Möglichkeit zur Teilnahme an einer Verlosung von zwei iPods von Apple gegeben. Ein iPod Touch wurde unter allen Teilnehmern und ein iPod nano un-
mehr war der Fragebogen auf einer vertrauenswürdigen Unterseite des Lehrstuhls Wirtschaftswissenschaften für Naturwissenschaftler und Ingenieure (WIN) der RWTH Aachen abrufbar. Vgl. Diamantopoulos/Schlegelmilch (1996); Bosnjak/Tuten (2001). Vgl. zur Personalisierung als Mittel zur Steigerung der Rücklaufquote auch Schaefer/Dillman (1998), S. 380f. In den Fällen, in denen keine Personalisierung möglich war, begann das Anschreiben mit „Sehr geehrte Damen und Herren“.
126
ter all denjenigen verlost, die zu einer Vermittlung eines geeigneten Kontaktes beigetragen haben. x
Hinweis auf Vertraulichkeit: Bereits im Anschreiben wurde darauf hingewiesen, dass die Umfrage vollständig anonymisiert stattfindet und die Ergebnisdarstellung keinen Rückschluss auf einzelne teilnehmende Unternehmen zulässt.
x
Umfang und Zeiterfordernis: Die Zeitanforderung wurde im Anschreiben bereits mit 10-15 min angegeben. Damit lag der angegebene Zeitrahmen innerhalb der häufig empfohlenen maximalen Zeitdauer von 15 min für Online-Befragungen. 738 Tatsächlich lag die gemessene mittlere Bearbeitungsdauer (Median) mit knapp 17,5 min etwas über diesem Richtwert.739
x
Fortschrittsanzeige im Fragebogen: Um dem Teilnehmer eine bessere Übersicht über die Fragebogenstruktur und eine Einschätzung in Bezug auf die noch erforderliche Zeitdauer zu geben, wurde auf jeder Fragebogenseite eine Fortschrittsanzeige eingebaut, indem die aktuelle Seitenanzahl und die gesamte Seitenanzahl eingeblendet wurden. 740
4.2.2.1 Datenbasis für die Voruntersuchung zur Skalenentwicklung Für die Voruntersuchung zur Skalenentwicklung wurden insgesamt 900 741 Forschungs- und Entwicklungsmanager angeschrieben. Basis für den Fragebogen war die im Rahmen der qualitativen Voruntersuchung verbesserte und reduzierte Indikatorenmenge. Die Indikatoren wurden nach inhaltlichen Überlegungen, wie in der Operationalisierung gezeigt, den fünf Effectuation-Prinzipien zugeordnet. 742 Zunächst wurden neben 425 personalisierten Kontakten weitere 475 Kontakte nach dem Zufallsprinzip aus der gesamten Kontaktmenge gewählt und mit Hilfe eines E-MailAnschreibens zur Studie eingeladen. 743 Diese Einladung erfolgte in zwei Stufen. 744 In der ersten Stufe wurden 400 Kontakte angeschrieben. In der zweiten Stufe folgten die übrigen 500. Zweieinhalb Wochen nach der ersten Einladung und anderthalb Wochen nach der zweiten Einladung wurde eine Erinnerung verschickt. Anderthalb Wochen nach dem Erinnerungs-
738 739 740
741
742 743 744
Vgl. Bosnjak/Batinic (1999), S. 145f. Der arithmetische Mittelwert der Bearbeitungsdauer lag leicht unter 20 min. Vgl. zum Problem, dass es für Teilnehmer an Online-Fragebögen schwierig ist, abzuschätzen an welcher Stelle sie sich im Fragebogen befinden: Dillmann/Tortora/Bowker (1998), S. 12. Davon wurden 425 über persönliche Kontakte und deren Kontakte identifiziert. Alle anderen wurden über die Amadeus Unternehmensdatenbank ermittelt und in unpersonalisierter Form angeschrieben. Vgl. dazu die detaillierten Ausführungen zur Operationalisierung in Abschnitt 4.1.3 (S. 107ff.). Vgl. diesbzgl. Anhang 2: Anschreiben und Erinnerungsschreiben. Hintergrund für das zweistufige Vorgehen war, dass eine Abschätzung in Bezug auf die Rücklaufquote erfolgen sollte. Auf diese Weise konnte gut abgeschätzt werden, wie viele Kontakte in der Voruntersuchung angeschrieben werden mussten, um eine angestrebte auswertbare Samplegröße von ~ 100-120 zu erzielen.
127
schreiben wurde die Datenerhebung für die quantitative Voruntersuchung zur Skalenentwicklung beendet. Insgesamt standen für diese Voruntersuchung trotz sehr moderatem Nachhaken 123 vollständig auswertbare Fragebögen zur Verfügung, was einer Rücklaufquote von 13,7% entspricht. 745 Darin waren auch drei Antworten enthalten, die über Fax und Post zurückgeschickt wurden. Das Rücklaufverhalten ist in Abbildung 13 dargestellt.
Rücklauf auf Tagesbasis in % (kumuliert) 100%
N = 123
90% 80% 70%
N = 86
60% 50% 40% 30% 20%
N = 18
10% 0%
17.03.2008 Start der 1. Befragung
25.03.2008 Vergrößerung der Befragungsbasis
03.04.2008 Erinnerung
15.04.2008 Ende der 1. Befragung
Abbildung 13: Rücklauf bei der quantitativen Voruntersuchung zur Skalenentwicklung Quelle: Eigene Darstellung
4.2.2.2 Datenbasis für die Hauptuntersuchung Für die Hauptuntersuchung wurden über einen Zeitraum von knapp zwei Monaten (vom 23. Mai bis zum 16. Juli 2008) insgesamt 3.138 Unternehmen angeschrieben. Die angeschriebene Gesamtheit der Unternehmen stammt dabei aus den noch nicht in der Voruntersuchung angeschriebenen Unternehmen der Amadeus-Datenbank (insgesamt weitere 2.938) und aus dem Bereich der über die Technologiezentren zusätzlich identifizierten Unternehmen (200). In allen Fällen, in denen ein F&E-Ansprechpartner bekannt war, wurde dieser personalisiert ange-
745
Der im Vergleich zur Hauptuntersuchung (vgl. Abschnitt 4.2.2.2) gute Rücklauf wurde ohne übermäßiges Nachhaken erzielt und ist insbesondere auf den großen Anteil persönlicher Kontakte und der damit möglichen direkten Ansprache vieler Teilnehmer zurückzuführen.
128
schrieben. In den Fällen, in denen Vorab kein geeigneter Ansprechpartner identifiziert werden konnte, wurde um eine Weiterleitung an einen geeigneten F&E-Manager gebeten. Zweieinhalb Wochen nach der ersten Ansprache wurden die potenziellen Teilnehmer, die noch nicht geantwortet hatten, an die Studie erinnert. 746 Ein zweites Erinnerungsschreiben wurde weitere knapp drei Wochen später versandt. In diesem zweiten Erinnerungsschreiben wurde darauf hingewiesen, dass die Studie am 4. Juli ausläuft und nach diesem Zeitpunkt nicht mehr an der Studie teilgenommen werden kann. Vollständig beendet wurde die Studie dann tatsächlich am 16. Juli um ein paar verspäteten Rückmeldungen die Möglichkeit zur Teilnahme einzuräumen. Rücklauf auf Tagesbasis in % (kumuliert) 100%
N = 277
90% 80%
N = 212
70% 60% 50% 40%
N = 102
30% 20% 10% 0%
23.05.2008 Start der 2. Befragung
10.06.2008 1. Erinnerung
30.06.2008 2. Erinnerung
16.07.2008 Ende der 2. Befragung
Abbildung 14: Rücklauf bei der Hauptuntersuchung Quelle: Eigene Darstellung
In der Datenerhebung für die Hauptuntersuchung wurden weitere 277 vollständig auswertbare Fragebögen zurückerhalten. Insgesamt mussten 43 Fragebögen von der Auswertung eliminiert werden, weil bei Ihnen zu viele Werte fehlten. 747 Daher steht nach Vor- und Hauptdatenerhebung eine auswertbare Datenbasis von 400 Fragebögen zur Verfügung. Im Folgenden wird
746 747
Vgl. dazu Anhang 2: Anschreiben und Erinnerungsschreiben, auf S. 247ff. Zu Beginn wurden im Fragebogen die abhängige Variable und die Moderatoren abgefragt (vom Umfang knapp 40% des gesamten Fragebogens). 43 Personen sind nicht bis zu den danach folgenden ersten unabhängigen Variablen vorgedrungen, so dass eine Auswertung dieser Antworten nicht möglich ist.
129
detailliert beschrieben, wie mit einzelnen fehlenden Werten umgegangen wird, um eine finale, auswertbare Datenbasis für die Untersuchung bereitzustellen. 4.2.3
Behandlung unvollständiger Datensätze
Bis zu 10% aller Daten einer Variablen fehlen in der Regel bei sozialwissenschaftlichen Untersuchungen. 748 In der vorliegenden Untersuchung sind es lediglich 1,6% aller Werte. Bei keinem Indikator fehlen mehr als 4,5%, so dass die häufig genannte 10%-Grenze für kein Item überschritten wird. 749 Dennoch ist eine Entscheidung über den Umgang mit fehlenden Werten erforderlich, um sicherzustellen, dass eine möglichst verzerrungsfreie Interpretation der Datenbasis erfolgen kann. 750 In der Literatur werden drei grundlegende Ansätze beschrieben, um mit dieser Problematik umzugehen. So stehen Eliminierungs-, Imputations- und Parameterschätzverfahren zur Verfügung. 751 Eliminierungsverfahren verfolgen den Ansatz, Datensätze oder Variablen mit fehlenden Werten von der Analyse auszuschließen. Dabei werden zwei grundsätzliche Vorgehensweisen unterschieden. Zum einen kann bei Vorliegen eines fehlenden Wertes der ganze Datensatz von der Untersuchung ausgeschlossen werden. Zum anderen ist es möglich, im Rahmen einer paarweisen Elimination Datensätze nur dann nicht zu berücksichtigen, wenn sie für eine bestimmte Analyse benötigt werden. Fehlen so etwa bei einem Datensatz Informationen zu einem Merkmal A, so lässt sich bei Vorhandensein von B und C dennoch eine Korrelation zwischen den Merkmalen B und C bestimmen, was bei einer kompletten Löschung des Datensatzes nicht möglich wäre. 752 Bei Imputations- und Parameterschätzverfahren werden Datensätze nicht von der weiteren Untersuchung ausgeschlossen. Fehlende Werte werden dabei vielmehr ersetzt. Imputationsverfahren benutzen im einfachsten Fall eine Substitution des fehlenden Wertes durch einen Mittelwert. Dabei können unterschiedliche Mittelwerte eingesetzt werden. Entweder kann der Mittelwert aller Antwortenden für das betrachtete Item genutzt werden (Total mean substitution) oder aber es wird der Mittelwert von Subgruppen gebildet und dann der Wert der Gruppe genommen, zu der der betrachtete Datensatz mit dem fehlenden Wert gehört (Subgroup mean substitution). 753 Am besten geeignet, insbesondere im Umgang mit reflektiven MultiItem Skalen, ist die sogenannte Case mean substitution, die auch als Valid mean substitution bezeichnet wird. 754 Dabei werden die Angaben eines Antwortenden betrachtet und der fehlende Wert durch den Mittelwert der übrigen Items gebildet. 755 Als weitere Imputationsverfahren finden die sogenannte Regression Imputation und die Hot deck Imputation Anwen-
748 749 750 751 752 753 754 755
Vgl. Schnell et al. (1999), S. 430f. Vgl. dazu Tabelle 53 in Anhang 4: Deskriptive Statistik je erfasstem Indikator (S. 262ff.). Vgl. u.a. Glasser (1964), S. 834ff. Vgl. Tsikriktsis (2005), S. 56. Vgl. Tsikriktsis (2005), S. 56. Vgl. Raaijmakers (1999), S. 729. Vgl. Raaijmakers (1999), S. 729; Tsikriktsis (2005), S. 57. Vgl. Raaijmakers (1999), S. 729; Tsikriktsis (2005), S. 57.
130
dung. 756 Bei der erstgenannten Methode werden Beziehungen zwischen Variablen geschätzt und diese Koeffizienten dann genutzt, um fehlende Werte zu berechnen. Bei der Hot deck Imputation werden fehlende Werte auf Basis eines Vergleichs mit anderen, ähnlichen Datensätzen ersetzt. Eine Reihe hoch angesehener Studien hat dieses Verfahren erfolgreich angewendet. 757 Parameterschätzverfahren ermitteln Parameter auf Basis der verfügbaren Daten und berechnen die fehlenden Werte so auf Basis eines Wahrscheinlichkeitsmodells. 758 Am häufigsten werden dabei Maximum-Likelihood (ML) oder Expectation Maximization (EM) Algorithmen angewendet. 759 Als Schwachstellen dieser Verfahren sind insbesondere die erforderlichen Annahmen an die zugrundeliegenden Daten, wie etwa einer Multinormalverteilung bei Anwendung des ML-Ansatzes und eine hohe Komplexität zu nennen. 760 Da die fehlenden Werte in dieser Untersuchung zufällig verteilt und nicht auf das Fragebogendesign zurückzuführen sind 761 , ist ein Bias durch das Ersetzen fehlender Werte nicht zu befürchten. Ein Ersetzen fehlender Werte ist daher einer Elimination von entsprechenden Datensätzen vorzuziehen, um die Größe des Datensamples zu erhalten und somit letztlich auch die statistische Aussagekraft nicht zu reduzieren. 762 Dabei wird auf zwei verschiedene Verfahren zurückgegriffen. Einzelne fehlende Items eines Faktors werden mittels Valid mean substitution ersetzt. Dabei wird jeder fehlende Wert und jeder Datensatz einzeln betrachtet. Der fehlende Wert wird dann als Durchschnitt der übrigen Items eines Faktors des betrachteten Datensatzes gebildet. Dieses Verfahren wird hier bewusst angewendet, um zu vermeiden, dass eine über das gesamte Sample durchgeführte Parameterschätzung 763 oder Mittelwertbildung zu Verzerrungen führt. Solche Verzerrungen können etwa daher rühren, dass der Algorithmus keine Unterscheidung zwischen den in dieser Untersuchung bedeutenden Gruppen, nämlich Causation und Effectuation macht. Eine solche Unterscheidung ist hingegen bei einer separaten Betrachtung jedes einzelnen Datensatzes und jedes einzelnen Faktors möglich. Zudem ist die Anwendung der Valid mean substitution bei Fehlen eines Items pro Faktor sehr gut möglich, da es sich um reflektiv spezifizierte Faktoren handelt.764 Eine sehr hohe Korrelation zwischen den Indikatorwerten eines jeden Faktors konnte nachgewiesen werden. 765
756 757 758 759 760 761
762
763
764 765
Vgl. Tsikriktsis (2005), S. 59. Vgl. Tsikriktsis (2005), S. 59 und die dort genannten Beispiele und Quellen. Vgl. Bankhofer (1995), S. 156ff. Vgl. Tsikriktsis (2005), S. 59. Vgl. Tsikriktsis (2005), S. 58f. Kein einzelnes Item hat auffällig mehr fehlende Werte als die anderen Items. Vgl. dazu Anhang 4: Deskriptive Statistik je erfasstem Indikator auf S. 262ff. So zeigt Raaijmakers, dass die Statistical Power bei Fehlen von 10% der Werte bei einer entsprechenden Elimination um 35% zurückgeht. Fehlen 30% der Werte geht die Statistical Power sogar um 98% zurück (vgl. Raaijmakers (1999), S. 727). In der Literatur wird dafür häufig der expectation maximization (EM)-Algorithmus angewendet, der in Standardsoftwarelösungen wie SPSS verfügbar ist. Vgl. zur Spezifizierung der zur Anwendung kommenden Faktoren Abschnitt 4.1 auf S. 98ff. Vgl. dazu die detaillierten Ausführungen in Abschnitt 5.1 auf S. 171ff.
131
Fehlen hingegen mehrere Werte eines Faktors, erfolgt eine Imputation nach dem Hot deck Verfahren. Dabei wird eine Ausgangsmenge vergleichbarer Datensätze ausgewählt und dann der Durchschnittswert eines Items über die Menge ausgewählter Datensätze bestimmt. Dieser Durchschnittswert wird dann für den fehlenden Wert eingesetzt. Wenngleich dieses gemischte Vorgehen nach Valid mean substitution und Hot deck Imputation mit einem deutlich höheren Arbeitsaufwand verbunden ist, wurde es in dieser Arbeit einem automatisierten und in einer Standardsoftware wie SPSS implementierten Verfahren vorgezogen, um eine bestmögliche Datengrundlage ohne Verzerrungen zu schaffen. Nach dem Ersetzen der fehlenden Werte kann die Bereitstellung der Datenbasis für diese Forschungsarbeit als abgeschlossen angesehen werden. Im Folgenden muss die bereitgestellte Datenbasis nun zunächst beurteilt werden, bevor verallgemeinernde Aussagen daraus abgeleitet werden können. 4.2.4
Beurteilung der Datenbasis
Um die Datenbasis zu beurteilen, wird zunächst geprüft, ob die Stichprobe repräsentativ ist (4.2.4.1). Anschließend erfolgt eine Prüfung auf Verzerrungen (4.2.4.2). 4.2.4.1 Repräsentativität der Stichprobe Die Repräsentativität einer Stichprobe ist die Grundlage, um daraus abgeleitete Aussagen verallgemeinern zu können. Daher ist es von großer Bedeutung die Repräsentativität der Stichprobe nachzuweisen. „Einem Ergebnis, das nicht repräsentativ ist, haftet ein Makel an.“766 Repräsentativität ist ein „Gütesiegel für ein Forschungsergebnis.“ 767 Um sie zu erreichen, muss nachgewiesen werden, dass die Stichprobe „in der Verteilung aller untersuchungsrelevanten Merkmale der Gesamtmasse entspricht, d.h. ein zwar verkleinertes, aber sonst wirklichkeitsgetreues Abbild der Gesamtheit darstellt.“ 768 Im Rahmen dieser Arbeit werden zwei Kriterien zur Analyse der Repräsentativität herangezogen. Dabei werden die für die Vor- und die Hauptuntersuchung erhobenen Daten gemeinsam betrachtet, da sie aus der gleichen zugrundeliegenden Gesamtheit stammen. Zunächst wird der Fragebogenrücklauf analysiert (Abschnitt 4.2.4.1.1), da ein akzeptabler Fragebogenrücklauf ein erster Indikator für die Repräsentativität einer Stichprobe sein kann. 769 Anschließend wird geprüft, ob die Stichprobe entlang struktureller Merkmale wie Branchenzugehörigkeit, Unternehmensgröße und regionaler Herkunft möglichst nah an der Grundgesamtheit liegt (Abschnitt 4.2.4.1.2). 770 4.2.4.1.1 Untersuchung des Fragebogenrücklaufs Für beide Untersuchungen zusammen wurden insgesamt 4.038 Einladungsschreiben versendet. Davon waren 421 Unternehmen nicht erreichbar. 185 meldeten zurück, dass sie an einer
766 767 768 769 770
Tiede/Voß (2000), S. 84. Tiede/Voß (2000), S. 84. Berekoven et al. (2006), S. 51. Vgl. Dillman (1991), S. 227. Vgl. Zentes/Swoboda (2001), S. 474.
132
Teilnahme an der Studie nicht interessiert seien. Die am häufigsten genannten Gründe dafür waren die hohe Arbeitsbelastung sowie die Vielzahl von Anfragen in der letzten Zeit. 1.117 Personen besuchten insgesamt die Befragungsseite im Internet, so dass sich eine Rückmeldequote von 36,0% 771 ergibt. Davon füllten 443 F&E-Manager den Fragebogen aus. 43 Fragebögen mussten aufgrund einer zu geringen Anzahl an beantworteten Fragen eliminiert werden. 772 Insgesamt verblieben somit 400 Fragebögen zur Auswertung. Dies entspricht einer Rücklaufquote von 11,7% 773 und einer Antwortquote von 17,4% 774 . Besonders relevant für das Reporting empirischer Studien ist dabei die Rücklaufquote.775 Bei internetbasierten Umfragen liegen die Rücklaufquoten typischerweise zwischen 10% und 20%. 776 Die Tatsache, dass an dieser Studie nur F&E-Manager mit Führungsverantwortung teilnehmen durften, reduziert die zu erwartende Rücklaufquote weiter. 777 Darüber hinaus hat die Umfrage einen starken Mittelstandsfokus. Daher muss aufgrund der geringen Ressourcendecke, die in diesen Unternehmen zur Verfügung steht, mit einem weiteren Absinken der erzielbaren Rücklaufquote gerechnet werden. 778 Berücksichtigt man darüber hinaus die überdurchschnittliche Länge des Fragebogens und die damit verbundene Zeiterfordernis 779 , sowie das moderate Nachfassverhalten, so kann die Rücklaufquote von 11,7% als zufriedenstellend betrachtet werden. Da die Rücklaufquote im Rahmen der Erwartungen liegt, kann das Vorliegen eines Sampling-Errors weitestgehend ausgeschlossen werden. 780
771
772
773
774
775 776 777
778
779
780
Dies entspricht der Summe von Interessenten, die auf die Internetseite geschaut haben (1.117) und derer, die zurück meldeten, dass sie an der Studie nicht interessiert seien (185) in Bezug auf die effektiv angeschriebenen Unternehmen: (1.117+185)/(4.038-421). Zu Beginn wurden im Fragebogen die abhängige Variable und die Moderatoren abgefragt (vom Umfang knapp 40% des gesamten Fragebogens). 43 Personen sind nicht bis zu den danach folgenden ersten unabhängigen Variablen vorgedrungen, so dass eine Auswertung dieser Antworten nicht möglich ist. Die Rücklaufquote bezeichnet das Verhältnis von auswertbaren Datensätzen und bereinigter Grundgesamtheit: 400/(4.038-421-185). Vgl. u.a. Chang et al. (2003), S. 696. Die Antwortquote (Cooperation rate) ergibt sich als Division aller Rückmeldungen durch die Anzahl erfolgreich versandter Einladungen: (400+43+185)/(4.038-421). Diese Größe kennzeichnet den Erfolg eines Forschers, Personen zur Teilnahme an der Studie zu motivieren. Vgl. Churchill/Iacobucci (2002), S. 529f. Vgl. Baruch (1999), S. 424. Vgl. u.a. Klassen/Jacobs (2001), S. 720; Bourque/Fielder (2003), S. 16f. Vgl. dazu Ausführungen, die zeigen, dass die Antwortquote sinkt, je höher die hierarchische Position des Umfrageteilnehmers ist. So kann bei einer Befragung unter Top-Managern etwa nur mit einer knapp halb so hohen Rücklaufquote gerechnet werden, wie bei einer Befragung unter Mitarbeitern. Vgl. Baruch (1999), S. 431; Bartholomew/Smith (2006), S. 85. Vgl. Dennis (2003), S. 278ff. der darauf hinweist, dass insbesondere bei kleinen und mittleren Unternehmen geringe Rücklaufquoten zu erwarten sind. Dies steht in Übereinstimmung mit den Erfahrungen, die in dieser Studie gemacht wurden. Viele kleinere Unternehmen meldeten zurück, dass sie aus Kapazitätsgründen nicht an der Studie teilnehmen können. Der arithmetische Mittelwert der Bearbeitungsdauer des Fragebogens lag bei knapp 20 min. Nach Bosnjak/Batinic sollten Online-Befragungen nicht länger als 15 min in Anspruch nehmen. Deutskens et al. haben herausgefunden, dass längere Fragebögen mit einem deutlichen Rückgang der Rücklaufquoten verbunden sind. Vgl. Bosnjak/Batinic (1999), S. 145f.; Deutskens et al. (2004), S. 33. Vgl. Güttler (2008), S. 155.
133
4.2.4.1.2 Untersuchung der Stichprobenstruktur Zur weiteren Beurteilung der Repräsentativität wird die Stichprobe der an der Befragung teilnehmenden Unternehmen mit der Grundgesamtheit der angeschriebenen Unternehmen verglichen. Dabei wird geprüft, ob die Verteilung der Stichprobe entlang wesentlicher Merkmale möglichst nah an der Grundgesamtheit liegt. In Bezug auf die Branchenverteilung fallen die Abweichungen zwischen Stichprobe und Grundgesamtheit sehr gering aus (vgl. Abbildung 15). In beiden Fällen sind deutlich über 20% der Unternehmen jeweils aus den Bereichen Maschinenbau und Automobilindustrie. Knapp 15% kommen aus der Elektrotechnik. Gut 7% der Unternehmen sind sowohl in der Stichprobe als auch in der Grundgesamtheit aus dem Bereich der Material- und Metallverarbeitung. Exakt gleich ist die Verteilung der Unternehmen aus der Medizintechnik (4,5%). Die Branchen Pharma (1,3% in Stichprobe vs. 3,2% in Grundgesamtheit) und Biotechnologie (1,3% in Stichprobe vs. 2,1% in Grundgesamtheit) sind in der Stichprobe leicht unterrepräsentiert. Weitere knapp 25% der Unternehmen kommen aus anderen, kleineren wissensintensiven Branchen. Dies schließt insbesondere Unternehmen aus den Bereichen Luft-/Raumfahrtechnik, Chemie, Umwelttechnik, Optik und Kunststofftechnik ein.
30,0% 25,0% 20,0% Stichprobe
15,0%
Grundgesamtheit
10,0% 5,0%
Andere
Material- und Metallverarbeitung
Pharma
Biotechnologie
Medizintechnik
Automobilindustrie
Elektrotechnik
Maschinenbau
0,0%
Abbildung 15: Verteilung der Unternehmen nach Branche (in %) Quelle: Eigene Darstellung
Eine Analyse der geografischen Verteilung erfolgt zunächst entlang der an der Studie beteiligten Herkunftsländer. Die Untersuchung hat sich ausschließlich auf den deutschsprachigen Raum bezogen und die Länder Deutschland, Österreich und die deutschsprachigen Teile der Schweiz eingeschlossen. Die Verteilung der Länder in der Stichprobe ist in sehr guter Übereinstimmung mit der Verteilung der angeschriebenen Unternehmen. Etwa 81% der Unter-
134
nehmen kommen aus Deutschland. Die Schweiz ist in der Stichprobe leicht unterrepräsentiert (11,5% in Stichprobe vs. 13,8% in Grundgesamtheit), wohingegen Österreich leicht überrepräsentiert ist (7,3% in Stichprobe vs. 5,4% in Grundgesamtheit). Zusätzlich wird zur Beurteilung der Repräsentativität für die deutschen Unternehmen die Postleitzahl herangezogen. Anhand der ersten Ziffer ist eine Zuordnung zu den Regionen von 0 (01 Dresden – 09 Chemnitz) bis 9 (90 Nürnberg – 99 Erfurt) möglich. Abbildung 16 stellt wiederum die Verteilung in der Stichprobe der Verteilung in der Grundgesamtheit gegenüber. Insgesamt kann eine gute Übereinstimmung festgestellt werden. Die Postleitzahlenbereiche 5 und 7 stellen den größten Anteil, wohingegen die östlichen Bundesländer (Postleitzahlenbereiche 0 und 1) sowohl in der Grundgesamtheit als auch in der Stichprobe relativ schwach vertreten sind. Insgesamt kann festgestellt werden, dass die Postleitzahlbereiche 4, 5 und 6 in der Stichprobe im Vergleich zur Grundgesamtheit leicht überrepräsentiert sind. Diese drei Bereiche umfassen das Einzugsgebiet der RWTH Aachen, auf die in der Studie ausdrücklich hingewiesen wurde. Damit sind leicht höhere Rücklaufquoten verbunden. 781 Wenig überraschend ist außerdem, dass der Postleitzahlbereich 7 in der Stichprobe leicht unterrepräsentiert ist (13,5% vs. 14,3%). Hier sind insbesondere kleine und mittlere Unternehmen aus dem Maschinenbau vertreten. In vergangenen Studien wurde bereits festgestellt, dass diese Unternehmen besonders stark von wissenschaftlichen Umfragen frequentiert werden und somit ein „Wear out“-Effekt beobachtet werden kann. 782 Diese Erkenntnis deckt sich mit den Erfahrungen dieser Studie. Eine besonders große Anzahl von Unternehmen aus dem Südwesten Deutschlands hat zurück gemeldet, dass sie aufgrund der Vielzahl von Anfragen nicht mehr an wissenschaftlichen Studien teilnehmen.
781
782
Vgl. zu diesem Effekt auch andere Studien, in denen das gleiche Phänomen beobachtet wurde, z.B. Güttler (2008), S. 158. Vgl. Güttler (2008), S. 158.
135
16,0% 14,0% 12,0% 10,0% Stichprobe
8,0%
Grundgesamtheit
6,0% 4,0% 2,0% 0,0% 0
1
2
3
4
5
6
7
8
9
Abbildung 16: Verteilung der Unternehmen nach Postleitzahlgebiet (in %) Quelle: Eigene Darstellung
Die Größe der Unternehmen wird auf Basis der Mitarbeiteranzahl verglichen. Die Repräsentativität der Stichprobe ist auch in Bezug auf dieses Merkmal weitestgehend gegeben (vgl. Abbildung 17). Allerdings ist eine genauere Analyse erforderlich, um einzelne Unterschiede zu erklären. Insgesamt ist zu beobachten, dass die kleineren Unternehmen (< 500 Mitarbeiter) in der Stichprobe im Vergleich zur Grundgesamtheit unterrepräsentiert sind. Die größeren Unternehmen (> 500 Mitarbeiter) sind hingegen überrepräsentiert. Offensichtlich scheint es ein systematisch geringeres Antwortverhalten der Vertreter kleinerer Unternehmen zu geben. Dieses Problem ist bereits in früheren Studien mehrfach festgestellt worden. 783 Dennis weist explizit darauf hin, dass die Erzielung von hohen Rücklaufquoten insbesondere bei kleinen Unternehmen ein großes Problem darstellt: „Small business owners are busy and cite time as an important reason for nonresponse.“ 784 Diese Feststellung hat sich im Rahmen dieser Arbeit bestätigt und spiegelt sich auch in Abbildung 17 wider. Eine Vielzahl von Vertretern kleinerer Unternehmen hat ihre Ablehnung zur Teilnahme an der Studie mit Zeit- und Kapazitätsrestriktionen begründet. Eine zusätzliche Erklärung für den Bias in der Stichprobe zugunsten größerer Unternehmen, insbesondere für den Fall der Unternehmen mit mehr als 5.000 Mitarbeitern, liefert eine Analyse der Ansprache der Unternehmen. Das in Abschnitt 4.2.1 beschriebene Sample personalisiert angesprochener und großteils persönlich bekannter Kontakte besteht zu knapp 75% aus Unternehmen mit mehr als 5.000 Mitarbeitern. 785 Da die Rücklaufquote der persönlichen
783 784 785
Vgl. u.a. Heinemann (2006), S. 233. Vgl. Dennis (2003), S. 285. Insgesamt wurden in diesem Sample 425 Kontakte personalisiert angeschrieben. Die meisten Kontakte waren entweder dem Autor persönlich bekannt oder wurden von einem Bekannten als für
136
Kontakte deutlich höher ist, als die Rücklaufquote im übrigen Sample, entsteht der hohe Stichproben-Anteil von Antworten der Unternehmen mit mehr als 5.000 Mitarbeitern (26,8%) im Vergleich zu einem verhältnismäßig geringen Anteil dieser Unternehmen in der Grundgesamtheit (9,2%). 786 Hinsichtlich der Dimension Unternehmensgröße könnten also kleinere Verzerrungen bestehen, die sich aber sehr gut erklären lassen. Die Abweichungen bestehen keineswegs aufgrund von einer nicht-zufallsgeleiteten Auswahl der Stichprobe von der Grundgesamtheit. Darüber hinaus sind die Abweichungen nicht so bedeutend, dass man einen Sampling Bias ableiten könnte. 787
50,0% 45,0% 40,0% 35,0% 30,0% Stichprobe
25,0%
Grundgesamtheit
20,0% 15,0% 10,0% 5,0% 0,0% 1-20
21-50
51-100 101-500
5011000
10012500
25015000
>5000
Abbildung 17: Verteilung der Unternehmen nach Mitarbeiteranzahl (in %) Quelle: Eigene Darstellung
Insgesamt kann nach der Analyse entlang der wesentlichen strukturellen Merkmale von einer ausgeprägten Repräsentativität ausgegangen werden. Abgesehen von wenigen, begründeten Ausnahmen sind keine deutlichen Abweichungen der Stichprobe von der Grundgesamtheit festzustellen. Entsprechend kann davon ausgegangen werden, dass sich die Ergebnisse auf Basis von Untersuchungen der Stichprobe auf die Grundgesamtheit verallgemeinern lassen.
786
787
diese Studie geeignete Ansprechpartner empfohlen. In diesem Sample hatten 312 (73,4%) Unternehmen mehr als 5.000 Mitarbeitern. Die Rücklaufquote bei den persönlichen Kontakten lag mit deutlich über 20% mehr als doppelt so hoch wie im übrigen Sample. Vgl. auch die zwei Ursachen, warum nach Heckman ein Sampling Bias auftreten kann: „First, there may be self selection by the individuals or data units being investigated. Second, sample selection decisions by analysts or data processors operate in much the same fashion as self selection.“ (Heckman (1979), S. 153).
137
4.2.4.2 Überprüfung auf Verzerrungen Damit stichprobenbasierte Ergebnisse auf die zugrundeliegende Grundgesamtheit übertragbar sind, ist neben der im vorigen Abschnitt beschriebenen Repräsentativität auch eine weitestgehende Unverzerrtheit der erhaltenen Antworten erforderlich. Im Folgenden werden daher mögliche Verzerrungen in der Datengrundlage untersucht. Dabei wird im Einzelnen das Vorliegen eines Non-response Bias (4.2.4.2.1), eines Informant Bias (4.2.4.2.2), sowie eines Common Method Bias (4.2.4.2.3) analysiert. 4.2.4.2.1 Non-Response Bias Der Non-Response Bias untersucht systematische Unterschiede im Antwortverhalten zwischen denen, die sich tatsächlich an der Umfrage beteiligt haben und denen, die sich nicht beteiligt haben. Liegt ein systematischer Unterschied zwischen diesen beiden Gruppen vor, können die Umfrageergebnisse nicht unmittelbar auf die Allgemeinheit übertragen werden. 788 Nach Armstrong/Overton können solche Verzerrungen analysiert werden, indem die Mittelwerte der Indikatoren der früh antwortenden mit denen der spät antwortenden Unternehmen auf signifikante Unterschiede hin verglichen werden. Dabei wird davon ausgegangen, dass das Verhalten der Spätantworter dem Verhalten der Nichtantworter ähnlich ist. 789 Um eine möglichst gute Annäherung an die Nichtantworter zu erzielen, werden die letzten 10% der erhaltenen Fragebögen als Näherungswerte für die Nichtantworter herangezogen. 790 Für diese Gruppe wird dann der Mittelwert jedes Indikators mit dem jeweiligen Mittelwert des Indikators in der Gruppe der frühen Antworten verglichen.791 Konkret wird dafür der t-Wert berechnet. 792 Dieser Wert ist null, wenn die beiden betrachteten Mittelwerte in der Stichprobe gleich sind. Zusätzlich wird die Signifikanz berechnet, also die Wahrscheinlichkeit dafür, dass man einen Fehler macht, wenn man die Nullhypothese, die besagt, dass die Mittelwerte in beiden Gruppen gleich sind, zurückweist. 793 Als Grenze für das Zurückweisen der Nullhypothese wird hier die oft genannte Grenze von 5% gewählt.794 Lediglich bei einer der 76 im Fragebogen erfassten Variablen ergibt sich ein signifikanter Unterschied. Da sich dieser Unterschied auch lediglich bei der konservativeren Variante zur Berechnung des t-Werts ergibt, nämlich der Berechnung unter der Annahme ungleicher Varianzen in beiden Gruppen 795 , kann insgesamt davon ausgegangen werden, dass kein starker Non-Response Bias vorliegt.
788 789 790 791
792
793 794 795
Vgl. Armstrong/Overton (1977), S. 396. Vgl. Armstrong/Overton (1977), S. 397. Vgl. dazu die Empfehlung bei Prater/Gosh (2005), S. 159. Die Gruppe der frühen Antwortenden umfasst N = 360. In der Gruppe der Spätantworter sind die letzten 10%, also N = 40 Unternehmen berücksichtigt. Dabei wird der t-Wert sowohl unter der Annahme gleicher und ungleicher Varianzen in den betrachteten Gruppen berechnet. Der T-Test unter der Annahme ungleicher Varianzen ist tendenziell konservativer (vgl. Brosius (2004), S. 489). Vgl. Brosius (2004), S. 486. Vgl. Brosius (2004), S. 487. Der T-Test unter der Annahme ungleicher Varianzen wurde hier hinzugezogen, da ein LeveneTest zur Prüfung von Unterschieden der Varianzen in den beiden Gruppen gezeigt hat, dass mögli-
138
4.2.4.2.2 Informant Bias Ein Informant Bias liegt vor, wenn ein systematischer Messfehler besteht zwischen der subjektiven Wahrnehmung des Informanten und dem objektiven Wert des zu messenden Indikators. 796 Die Hauptursache eines Informant Bias sind Wahrnehmungsunterschiede von Personen mit unterschiedlichen Rollen, auf unterschiedlichen Hierarchiestufen oder aus verschiedenen Funktionsbereichen. 797 Ideal wäre es also, verschiedene Personen innerhalb eines Unternehmens zu befragen und dann die Ergebnisse in Hinblick auf einen Informant Bias zu vergleichen. 798 Dies ist jedoch in der vorliegenden Untersuchung nicht möglich, weil, wie in der gängigen Forschungspraxis üblich, lediglich ein Informant je Unternehmen zu einem bestimmten F&E-Projekt befragt wurde. 799 Daher muss zur Untersuchung des Informant Bias auf eine alternative Möglichkeit zurückgegriffen werden. 800 Dabei werden, ähnlich dem Vorgehen bei der Untersuchung auf einen möglichen Non-Response Bias, verschiedene Gruppen gebildet. Die Mittelwerte der Indikatoren der einzelnen Gruppen werden dann wiederum auf signifikante Unterschiede hin überprüft. Zunächst wird geprüft, ob sich Personen mit unterschiedlichen Rollen innerhalb des F&EProjektes in Bezug auf ihre Antworten signifikant voneinander unterscheiden. Anschließend werden Personengruppen unterschiedlicher hierarchischer Stufen im Unternehmen miteinander verglichen. Abschließend werden dann die Antworten unterschiedlicher Funktionsbereiche auf Vorliegen eines Informant Bias geprüft. Die dafür jeweils gebildeten Subgruppen, zwischen denen die Vergleiche in Bezug auf das Antwortverhalten durchgeführt werden, sind in Abbildung 18 mit den entsprechenden Gruppengrößen (N und prozentuale Verteilung) dargestellt.
796 797 798 799 800
cherweise die Varianzen bei dieser Variable nicht als gleich angenommen werden dürfen (vgl. Brosius (2004), S. 405). Vgl. Bagozzi et al. (1991), S. 423ff.; Kumar et al. (1993), S. 1633ff. Vgl. Kumar et al. (1993), S. 1634; Ernst (2003), S. 1267. Vgl. dazu die Vorschläge von Golden (1992), S. 855ff. Vgl. Abschnitt 2.1.2.3 auf S. 32ff. Ernst weist darauf hin, dass bei Studien mit Einzelinformanten der Informant Bias dadurch bestimmt und ggf. aufgehoben werden kann, dass Gruppen von Personen aus unterschiedlichen organisatorischen Positionen miteinander verglichen werden (Ernst (2001), S. 156).
139
Rolle im Rahmen des F&EProjektes
Hierarchische Position im Unternehmen
Funktionsbereich im Unternehmen
305 (80%)
264 (69%) 178 (47%) 142 (37%) 118 (31%)
62 (16%)
52 (14%) 25 (7%)
Projekt- Projektleit Übergreifendes er mitglied F&EManagem ent
Sach- Gruppen- Übergreifende bearbeiter leiter Leitungsfunktion
F&E/Kon- Andere struktion Funktionsbereiche
Abbildung 18: Gruppen zur Untersuchung eines Informant Bias 801 Quelle: Eigene Darstellung
In Bezug auf die Rolle innerhalb des F&E-Projektes lässt sich kein Informant Bias erkennen. Zwischen den Gruppen von Befragungsteilnehmern, nämlich den Projektmitgliedern, die nur 16% aller Befragten ausmachen, den Projektleitern (37% der Befragten) und den übergreifend Projektverantwortlichen, die mit 47% den größten Anteil der Teilnehmer darstellen, gibt es keine systematischen Unterschiede in Bezug auf das Antwortverhalten. So ergeben sich zwischen der Gruppe der Projektmitglieder und der Projektleiter lediglich bei zwei Variablen signifikante Unterschiede. Auch sind die Unterschiede zwischen den Projektmitgliedern und den Personen, die sich zum übergreifenden Projektmanagement zählen, mit Differenzen bei lediglich fünf Variablen gering. Bei nur drei Variablen gibt es signifikante Unterschiede zwischen Projektleitern und übergreifendem Projektmanagement. Insgesamt hat die Rolle des Befragten innerhalb des F&E-Projektes daher offensichtlich keinen schwerwiegenden systematischen Einfluss auf das Antwortverhalten. Ähnliches kann auch in Bezug auf die hierarchische Position des Antwortenden innerhalb des Unternehmens festgestellt werden. Zwischen den drei analysierten Gruppen, den Sachbearbeitern (7% der Befragten), den Gruppenleitern (14%) und den darüber einzuordnenden Ma-
801
Nicht dargestellt sind in der Abbildung jeweils 18 fehlende Antworten, die auch im Rahmen der Imputation nicht zugeordnet werden können.
140
nagern mit übergreifender Leitungsfunktion 802 (80%) kann keine systematische Verzerrung des Antwortverhaltens beobachtet werden. So unterscheiden sich die Mittelwerte von nur drei Variablen signifikant zwischen den Gruppen der Sachbearbeiter und Gruppenleiter. Zwischen den Sachbearbeitern und dem übergreifendem Management sind es vier abweichende Variablen. Zwischen den Gruppenleitern und dem übergreifenden Management gibt es lediglich bei einer Frage Unterschiede. Demnach hat also auch die hierarchische Position des Befragten innerhalb des Unternehmens in Bezug auf die in dieser Untersuchung gestellten Fragen keinen systematischen Einfluss. Zuletzt werden noch mögliche Unterschiede zwischen Personen aus unterschiedlichen Funktionsbereichen analysiert. Knapp 70% der Informanten gehören dem Bereich der F&E oder Konstruktion an. Diese Befragten unterscheiden sich nur in sieben der insgesamt 76 Fragen signifikant von den übrigen Funktionsbereichen. Somit ist auch in Bezug auf die Zugehörigkeit zu einem Funktionsbereich innerhalb des Unternehmens kein starker Informant Bias und damit keine systematische Verzerrung des Antwortverhaltens festzustellen. Bei der Betrachtung der drei Einzelanalysen haben sich jeweils keine ausgeprägten Unterschiede zwischen den betrachteten Gruppen ergeben. Demnach kann insgesamt davon ausgegangen werden, dass kein starker Informant Bias vorliegt. 4.2.4.2.3 Common Method Bias Im Rahmen von empirischen Untersuchungen sollte zusätzlich zu den bislang geprüften Arten von Verzerrungen auch analysiert werden, ob es mögliche alternative Erklärungsansätze für das Vorliegen der gefundenen kausalen Zusammenhänge zwischen den unabhängigen und abhängigen Variablen gibt. Denn auch durch die Art der Datenerhebung sind Verzerrungen möglich. 803 So kann es einen negativen Einfluss geben, „from having a common rater, a common measurement context, a common item context, or from the characteristics of the items themselves.“ 804 Diese Arten von Einflüssen können einen so genannten Common Method Bias hervorrufen, der vor allem dann auftritt, wenn der Informant ein eigenes, möglicherweise dem Hypothesengerüst des Forschers entsprechendes Erklärungsmodell für bestimmte Zusammenhänge zugrunde legt. Solche Situationen können entweder auftreten, wenn der Befragte eine direkte Kenntnis einer bestimmten Theorie hat oder aber durch das Bestreben auf Seite des Informanten, konsistente Antworten zu geben. 805 Der Befragte kann dann dazu neigen, seine Antworten entlang dieses Gerüstes und nicht entsprechend der tatsächlich eingetretenen Umstände zu machen. 806 Um einen Common Method Bias zu vermeiden, werden in der Literatur unterschiedliche Möglichkeiten vorgeschlagen. Als erstes wird dabei die Möglichkeit genannt, die exogenen
802
803 804 805 806
Umfasst die Position des Bereichs- und Abteilungsleiters sowie alle hierarchisch darüber liegenden Positionen (insb. Geschäftsführung). Vgl. Homburg/Klarmann (2006), S. 733. Podsakoff et al. (2003), S. 885. Vgl. Homburg/Klarmann (2006), S. 733. Vgl. Backhaus et al. (2006), S. 714.
141
und endogenen Variablen von unterschiedlichen Personen beurteilen zu lassen. 807 Dies ist neben dem Problem der praktischen Umsetzbarkeit bei großzahligen empirischen Studien 808 auch mit Nachteilen in Bezug auf die Anonymität der Untersuchung verbunden. Um die Antworten unterschiedlicher Personen zu kombinieren, ist die Aufgabe der Anonymität zumindest teilweise erforderlich. 809 Gerade die Zusicherung einer vollständigen Anonymität ist aber im Kontext von Innovationsthemen zwingend erforderlich, um eine akzeptable Rücklaufquote zu erzielen und darüber hinaus ihrerseits eine Möglichkeit, um einen ausgeprägten Common Method Bias zu vermeiden. 810 So können dann die Befragten unbefangen und ehrlich, also der Realität entsprechend, antworten. Die Anonymität wurde den Teilnehmern im Rahmen dieser Umfrage daher garantiert. Ebenso wurde deutlich gemacht, dass es bei den meisten Antworten kein richtig oder falsch gibt, sondern dass es darum geht, zu verstehen, welche Aussage besser oder eher auf das beurteilte Projekt zutrifft. Dieses Vorgehen stellt nach Podsakoff et al. eine weitere Möglichkeit dar, um einen Common Method Bias zu vermeiden. 811 Obwohl diese Maßnahmen ergriffen wurden, um die Wahrscheinlichkeit für das Auftreten eines Common Method Bias zu reduzieren, soll im Folgenden analysiert werden, ob ein solcher Bias tatsächlich ausgeschlossen werden kann. Dafür wird ein seit langem in der Literatur eingesetztes Verfahren angewendet, nämlich der sogenannte Harman’s Single-Factor Test. Dabei wird zunächst eine explorative Faktorenanalyse (EFA) unter Einbeziehung aller Variablen durchgeführt. Die unrotierte Lösung wird dann herangezogen, um das Vorliegen einer problematischen Common Method Variance zu prüfen. Wird dabei mehr als ein Faktor extrahiert und erklärt keiner der extrahierten Faktoren mehr als 50% der Gesamtvarianz, so kann dies als Hinweis aufgefasst werden, dass kein ausgeprägter Common Method Bias vorliegt. 812 Die zugrundeliegende Annahme ist, dass bei Vorliegen einer bedeutenden Common Method Variance ein erheblicher Anteil der Varianzerklärung auf einen Faktor entfallen müsste, der genau diese (Common Method) Varianz repräsentiert. Eine EFA für diese Untersuchung zeigt, dass 16 Faktoren mit anfänglichen Eigenwerten größer eins erforderlich sind, um den Großteil der Varianz zu erklären (vgl. Tabelle 21). Alle weiteren Komponenten liefern nur noch einen geringen weiteren Varianzbeitrag. Keiner der extrahierten Faktoren erklärt mehr als 16% der Gesamtvarianz und könnte somit eine ausgeprägte Common Method Variance darstellen.
807 808 809 810 811 812
Vgl. Podsakoff/Organ (1986), S. 533f.; Podsakoff et al. (2003), S. 887. Vgl. Tatikonda/Rosenthal (2000), S. 411. Vgl. Podsakoff et al. (2003), S. 888. Vgl. Podsakoff et al. (2003), S. 888. Vgl. Podsakoff et al. (2003), S. 888. Vgl. Podsakoff/Organ (1986), S. 536; Podsakoff et al. (2003), S. 889.
142
Erklärte Gesamtvarianz (Hauptkomponentenanalyse) Anfängliche Eigenwerte Komponente Gesamt % der Varianz Kumulierte % 1 10,7 16,4 16,4 2 5,8 8,9 25,3 3 4,1 6,4 31,7 4 3,5 5,4 37,1 5 3,1 4,8 41,9 6 2,3 3,6 45,5 7 2,1 3,2 48,7 8 2,0 3,0 51,7 9 1,7 2,6 54,3 10 1,6 2,5 56,8 11 1,5 2,3 59,1 12 1,4 2,1 61,2 13 1,2 1,9 63,1 14 1,1 1,7 64,8 15 1,1 1,7 66,4 16 1,0 1,6 68,0 Tabelle 21: Explorative Faktorenanalyse zur Untersuchung eines potenziellen Common Method Bias Quelle: Eigene Darstellung
Dieses Vorgehen mittels EFA ist in der Literatur inzwischen mehr und mehr umstritten, da gilt, dass die Wahrscheinlichkeit „of finding more than one factor increases as the number of variables increases.“ 813 Daher soll hier zusätzlich eine verstärkt in der jüngeren Vergangenheit vorgeschlagene Variante des Harman’s Single Factor Test angewendet werden. Dafür wird auf eine konfirmatorische Faktorenanalyse (CFA) zurückgegriffen und die Güte des EinFaktoren Modells mit der Güte des für die Untersuchung eingesetzten Messmodells verglichen. 814 Um einen ausgeprägten Common Method Bias auszuschließen, sollte die Güte des einfaktoriellen Modells deutlich schlechter sein, als die Güte des theoriebasierten Modells. 815 Diese Analyse ergibt für die vorliegende Untersuchung bei Durchführung einer CFA mit Maximum-Likelihood Extraktion ein ²-Fit-Gütemaß von ²=1.564,6 (df=655, p0,001). Unter der Annahme, dass alle Indikatoren auf einen Faktor laden ergibt sich hingegen eine deutlich schlechtere Anpassung (²=5.309,9, df=666, p0,001). Insofern kann auch diese Analyse einen problematischen methodenbezogenen Bias ausschließen. Zusammenfassend ist festzustellen, dass sowohl die EFA- als auch die CFA-Analyse zum Harman’s Single Factor Test zu dem Schluss führen, dass in dieser Studie keine ausgeprägten Verzerrungen durch einen Common Method Bias vorliegen.
813
814 815
Podsakoff/Organ (1986), S. 536. Letztlich führt die Abhängigkeit von der Anzahl der Variablen dazu, dass der Test bei einer großen Zahl an Variablen deutlich an Zuverlässigkeit einbüßt und daher in dieser Untersuchung zumindest kritisch hinterfragt werden muss. Vgl. Podsakoff et al. (2003), S. 889. Vgl. Olson et al. (2005), S. 56.
143
4.3
Methodik der Datenanalyse
Im Rahmen dieses Abschnitts soll eine geeignete Analysemethode ausgewählt werden. 816 Anschließend wird das Vorgehen bei der Datenanalyse beschrieben. 4.3.1
Auswahl und Beschreibung der Untersuchungsmethode
Damit eine geeignete Untersuchungsmethode ausgewählt werden kann, sollen zunächst unterschiedliche Analyseverfahren hinsichtlich ihrer Eignung geprüft werden. Im Folgenden wird mit dem grundsätzlichen Vergleich von Analyseverfahren der ersten und zweiten Generation die Grundlage dafür gelegt. Dabei zeigt sich, dass in dieser Arbeit die Anwendung eines Verfahrens der Kausalanalyse erforderlich ist. Deshalb werden anschließend wesentliche Aspekte eines solchen Ansatzes, nämlich die Grundlagen der Strukturgleichungsmodelle dargestellt. Die Auswahl zwischen varianz- und kovarianzbasierten Ansätzen der Strukturgleichungsmodelle ist der abschließende Gegenstand dieses Unterkapitels. 4.3.1.1 Multivariate Methoden zur Datenanalyse Das Forschungsziel dieser Arbeit besteht unter anderem darin, die Erfolgswirkung einer Anzahl von Effectuation-Charakteristika unter unterschiedlichen Rahmenbedingungen zu analysieren. Für die gleichzeitige Untersuchung mehrerer Variablen werden in der Regel multivariate Verfahren verwendet. 817 Häufig werden dabei Verfahren der ersten und zweiten Generation unterschieden. 818 Typische Repräsentanten der ersten Generation sind z.B. die multiple Regression, die Faktor- und die Clusteranalyse. 819 Allerdings unterliegen diese Verfahren einer Reihe von Restriktionen. 820 Häufig wird angemerkt, dass sie sich größtenteils nur zur Analyse direkt beobachtbarer Größen eignen. 821 Da in dieser Untersuchung jedoch latente Variablen zum Einsatz kommen 822 , erweist sich dieser Aspekt als problematisch. Darüber hinaus sind diese Verfahren nicht in der Lage, Messfehler explizit zu berücksichtigen. 823 Außerdem erfordern sie möglichst einfache Modelle. 824 Dieser Aspekt ist in der vorliegenden Untersuchung allerdings ebenfalls so nicht oder nur bedingt gegeben. Daher ist die Anwendung einer Analysemethode erforderlich, bei der die oben genannten Nachteile überwunden werden. Als solche kann die seit den 1980er Jahren immer häufiger eingesetzte zweite Generation multivariater Analyseverfahren herangezogen werden. Insbesondere Dependenzanalysen leisten seitdem einen wesentlichen Beitrag zur Erforschung
816
817 818 819 820 821 822 823 824
Das Vorgehen bei der Auswahl einer Methode zur Datenanalyse ist angelehnt an Meier (2004), S. 66ff.; Claas (2006), S. 123ff.; Heinemann (2006), S. 239ff.; Hiddemann (2007), S. 92ff. Vgl. Fornell (1982), S. 2. Vgl. u.a. Fornell (1987), S. 408. Vgl. zu diesen Verfahren u.a. Backhaus et al. (1996), S. 2ff. Vgl. Jacoby (1978), S. 91; Fornell (1987), S. 408ff. Vgl. u.a. Heinemann (2006), S. 240. Vgl. dazu Abschnitt 4.1 auf S. 98ff. Vgl. Fornell (1982), S. 2ff. Vgl. Heinemann (2006), S. 240.
144
komplexer wirtschaftswissenschaftlicher Fragestellungen.825 Dabei hat sich die Kausalanalyse als ihr bislang leistungsfähigstes Verfahren erwiesen 826 und sich zu einer Art Standardanwendung in der betriebswirtschaftlichen Forschung entwickelt. 827 Ursache für die Popularität ist, dass die Kausalanalyse die erste und bisher einzige Methode darstellt, die gleichzeitig die Analyse komplexer Abhängigkeitsstrukturen unter der Berücksichtigung ermöglicht, dass viele interessante wissenschaftliche Aspekte nicht direkt messbar sind. 828 Allerdings ist mit zunehmender Popularität der Verfahren auch eine zunehmend unkritische Anwendung einhergegangen 829 , die dazu geführt hat, dass oftmals Probleme bei der Spezifikation, Schätzung und Bewertung der Modelle auftreten. 830 Insbesondere ist die Auswahl eines geeigneten Strukturgleichungsverfahrens vom betrachteten Forschungsmodell abhängig. 831 Auf diesen Aspekt wird im folgenden Abschnitt detaillierter eingegangen. 4.3.1.2 Strukturgleichungsverfahren Die in der Literatur auch als Kausalanalyse832 oder im englischen Sprachraum als Structural Equation Modeling (SEM) bezeichneten Strukturgleichungsmodelle ermöglichen die Analyse von kausalen Zusammenhängen, also die Erforschung der Ursachen und Konsequenzen eines Phänomens. Die Untersuchung der kausalen Zusammenhänge erfolgt in zweierlei Hinsicht. Zum einen werden die Beziehungen zwischen manifesten, also direkt messbaren Größen, den Indikatoren, und latenten, also nur indirekt beobachtbaren Größen, den Konstrukten, analysiert. Dies dient dann als Basis, um die Abhängigkeiten zwischen den latenten und damit nicht direkt messbaren Variablen zu untersuchen.833 Entsprechend bestehen Strukturgleichungsmodelle, wie in der folgenden Abbildung dargestellt, aus einem Mess- und einem Strukturmodell. Das Messmodell bildet die Beziehung zwischen den manifesten Variablen, also den Indikatoren, und den latenten Variablen, den Konstrukten, ab. 834 Das Strukturmodell hingegen stellt die auf Basis der theoretischen Vorüberle-
825 826 827
828
829
830 831 832
833 834
Vgl. Homburg/Klarmann (2006), S. 738. Vgl. Homburg/Klarmann (2006), S. 738. Vgl. Homburg/Baumgartner (1995b), S. 162ff.; Hildebrandt/Homburg (1998), S. 149ff.; Bollen (2002), S. 605ff.; Bliemel et al. (2005), S. 10; Backhaus et al. (2006), S. 711; Diller (2006), S. 611; Eberl (2006), S. 651; Scholderer et al. (2006), S. 640. Vgl. Homburg/Baumgartner (1995b), S. 162ff.; Eberl (2006), S. 651; Homburg/Klarmann (2006), S. 727. Vgl. zur Warnung vor unkritischen Anwendungen u.a. Steiger (2001); Diller (2004); Hildebrandt (2005); Albers/Hildebrandt (2006); Diller (2006). Vgl. Scholderer/Balderjahn (2006), S. 640. Vgl. Heinemann (2006), S. 246. Der Begriff Kausalanalyse kann irreführend sein, da die Analysemethode keine kausalen Beziehungen, sondern lediglich Korrelationsstärken abbildet. Die Kausalität wird nicht identifiziert sondern basiert vielmehr auf den zu leistenden theoretischen Überlegungen. Vgl. Homburg/Hildebrandt (1998), S. 17. Vgl. Fornell/Bookstein (1982), S. 440ff. Vgl. Götz/Liehr-Gobbers (2004), S. 717.
145
gungen hergeleiteten Verbindungen zwischen den abhängigen, endogenen und den unabhängigen, exogenen Konstrukten in Form eines linearen Gleichungssystems dar. 835 Strukturmodell
Strukturgleichungsmodell = · +
x1
x2
y1
y2
x1
x2
y1
y2
x1
x2
y1
y2
Messmodell x = x· +
y = y· +
x1
x2
y1
y2
x1
x2
y1
y2
x1
x2
y1
y2
reflektive exogene Variable
reflektive endogene Variable
Abbildung 19: Aufbau eines Strukturgleichungsmodells Quelle: In Anlehnung an Chin (1998b), S. 298; Brettel et al. (2004), S. 3
Innerhalb des, in der Abbildung zur Übersichtlichkeit aus lediglich zwei Konstrukten bestehenden, vereinfacht dargestellten Strukturmodells, bezeichnet („ksi“) die exogene und („eta“) die endogene latente Variable. Die Beziehungen zwischen den latenten Variablen lassen sich allgemein in dem folgenden formalen Gleichungssystem darstellen: 836
= B· + · +
(Gleichung 1)
oder in dem vereinfachten Fall der vorangegangen Darstellung:
= · +
835 836
(Gleichung 2)
Vgl. Homburg/Baumgartner (1995a), S. 163; Götz/Liehr-Gobbers (2004), S. 716. Vgl. dazu auch Götz/Liehr-Gobbers (2004), S. 717; Scholderer/Balderjahn (2006), S. 641.
146
wobei gilt: , : Vektoren der Konstruktwerte der endogenen und exogenen latenten Variablen B, : Matrizen der Pfadkoeffizienten im Strukturmodell : Pfadkoeffizient im vereinfacht dargestellten Fall : (Vektor der) Fehler- bzw. Residualvariablen.
Wie Gleichung 1 zeigt, setzt sich jede endogene Variable aus der Summe der Effekte weiterer endogener und exogener Größen sowie einem Fehler- bzw. Residualterm („zeta“) zusammen. Die Elemente der Matrix B stehen dabei für die vermuteten direkten Beziehungen zwischen mehreren latenten endogenen Variablen. Die Elemente der Matrix bilden hingegen die direkten Beziehungen zwischen den exogenen und endogenen latenten Variablen ab. 837 Diese Pfadkoeffizienten geben die Stärke der Regressionsbeziehungen zwischen den latenten Variablen an. Das Messmodell spezifiziert die Beziehungen zwischen dem Konstrukt und den direkt beobachtbaren und entsprechend messbaren Indikatoren. 838 Die Messmodelle der endogenen und exogenen Variablen lassen sich wieder über Basisgleichungen beschreiben. Diese Gleichungen geben an, wie die messbaren Indikatorvariablen mit den nicht beobachtbaren latenten Variablen in Verbindung stehen. Die Operationalisierung der Konstrukte hat gezeigt, dass es unterschiedliche Möglichkeiten der Spezifizierung in Abhängigkeit der Richtung der kausalen Beziehung gibt. So muss zwischen reflektiven und formativen Messmodellen unterschieden werden. Entsprechend unterscheiden sich auch die Gleichungen. Im Falle eines reflektiven Messmodels ergibt sich folgende formale Darstellung für die Vektoren der endogenen (y) und exogenen (x) Indikatoren: 839
y = y· +
(Gleichung 3)
x = x· +
(Gleichung 4)
wobei gilt: y, x: Vektoren der Indikatoren der latenten endogenen bzw. exogenen Variablen
y, x: Faktorladungsmatrizen , : Vektoren der Konstruktwerte der endogenen und exogenen latenten Variablen , : Vektoren der Messfehler der Indikatoren. 840 837 838 839
Vgl. Götz/Liehr-Gobbers (2004), S. 717. Vgl. Homburg/Baumgartner (1995a), S. 163. Vgl. Götz/Liehr-Gobbers (2004), S. 718; Eberl (2006), S. 652; Scholderer/Balderjahn (2006), S. 641.
147
In Abbildung 19 ist eine reflektive Darstellung gewählt. Die so spezifizierte exogene Variable wird durch die beiden Indikatoren x1 und x2 gemessen. Entsprechend stellen y1 und y2 die beobachtbaren Größen zur Messung des endogenen Konstruktes dar. Die Pfeile zeigen aufgrund der reflektiven Spezifizierung vom Konstrukt zu den Indikatoren. Entsprechend ergibt sich im formativen Fall das Konstrukt als Linearkombination der messbaren Variablen sowie einem Fehlerterm. Das Gleichungssystem kann wie folgt dargestellt werden: 841
= ·y +
(Gleichung 5)
= ·x +
(Gleichung 6)
wobei gilt: , : Vektoren der Konstruktwerte der endogenen und exogenen latenten Variablen y, x: Vektoren der Indikatoren der latenten endogenen bzw. exogenen Variablen
, : Gewichtungskoeffizientenmatrizen , : Fehlerterme. 842
Dabei geben die Gewichtungskoeffizienten ( , ), auch Regressionskoeffizienten genannt 843 , die Gewichtungen der betrachteten Indikatoren bei der Linearkombination zu den latenten Variablen , an. 4.3.1.3 Varianz- und kovarianzbasierte Strukturgleichungsverfahren Bei den im vorangegangen Absatz beschriebenen Strukturgleichungsmodellen kann grundsätzlich zwischen varianz- und kovarianzbasierten Ansätzen unterschieden werden. 844 Kovarianzbasierte Verfahren versuchen, die Unterschiede zwischen der empirisch erhobenen und der theoretisch hergeleiteten Kovarianzmatrix zu minimieren. Dafür wird in der Regel das Maximum Likelihood-Schätzverfahren angewendet. 845 Kovarianzbasierte Verfahren haben die betriebswirtschaftliche Forschung bislang dominiert. 846 Als Ursache hierfür werden häufig die einfache Verfüg- und Bedienbarkeit von Softwarelösungen wie LISREL 847 oder A-
840
841
842 843 844 845 846 847
Vgl. Jöreskog/Sörbom (1982), S. 405; Homburg/Baumgartner (1995a), S. 163; Götz/LiehrGobbers (2004), S. 718; Claas (2006), S. 126. Vgl. Götz/Liehr-Gobbers (2004), S. 719; Eberl (2006), S. 652; Scholderer/Balderjahn (2006), S. 641. Vgl. Götz/Liehr-Gobbers (2004), S. 719. Vgl. u.a. Götz/Liehr-Gobbers (2004), S. 719. Vgl. u.a. Bliemel et al. (2005), S. 10. Vgl. hierzu grundlegend Keesling (1972); Wiley (1973); Jöreskog (1973). Vgl. Scholderer/Balderjahn (2005), S. 91. Linear Structural Relations.
148
MOS 848 genannt. 849 Lange wurden Strukturgleichungsverfahren mit LISREL, einem Ansatz der auf Jöreskog zurückgeht 850 , gleichgesetzt. 851 In den letzten Jahren haben sich zunehmend auch varianzbasierte Verfahren als Alternative zu den kovarianzbasierten Methoden etabliert. Solche Verfahren versuchen die unerklärte Varianz der endogenen latenten Variablen zu minimieren. 852 Insbesondere der Partial Least Squares (PLS)-Ansatz hat eine breite Anwendung in der betriebswirtschaftlichen Forschung erreicht. 853 Auch hier hat die Entwicklung entsprechender Anwendungssoftware in den letzten Jahren erheblich zur stärkeren Nutzung beigetragen. 854 Der PLS-Ansatz geht auf Wold zurück und benutzt ein Schätzverfahren auf Basis der Kleinstquadratmethode. 855 Weder varianz- noch kovarianzbasierte Ansätze sind generell vorzuziehen.856 Vielmehr kommt es auf die Gegebenheiten und Anforderungen des zu analysierenden Forschungsgebietes an. 857 Daher soll im Folgenden eine Betrachtung und Bewertung der beiden Ansätze entlang des idealtypischen kausalanalytischen Untersuchungsablaufs erfolgen. 858 Dieser lässt sich in die vier Schritte Modellspezifikation, Parameterschätzung, Modellbeurteilung und -anpassung sowie die Ergebnisinterpretation gliedern. 4.3.1.3.1 Modellspezifikation Kovarianzbasierte und varianzbasierte Verfahren sind gleichermaßen für die Analyse von reflektiven Messmodellen, die in dieser Arbeit überwiegend verwendet werden, geeignet. Wie in Abschnitt 4.1.4 gezeigt wurde, ist lediglich der Innovationsgrad formativ spezifiziert, der aber ausschließlich in kategorisierter Form als Moderatorvariable eingesetzt wird. Entsprechend bieten sich in Bezug auf die Modellspezifikation sowohl varianz- als auch kovarianzerklärende Verfahren im Rahmen dieser Untersuchung an. 4.3.1.3.2 Parameterschätzung Die Pfadkoeffizienten, die Faktorladungen und die Gewichte des Modells werden im Rahmen der Parameterschätzung ermittelt. Bei der kovarianzerklärenden Strukturanalyse werden die Parameter so geschätzt, dass „eine Diskrepanzfunktion minimiert wird, die die Distanz zwischen empirischer und vom Modell implizierter Kovarianzmatrix der Indikatoren misst“ 859 .
848 849 850
851 852 853 854 855 856 857 858
859
Analysis of Moment Structures. Vgl. Chin (1998b), S. 295; Götz/Liehr-Gobbers (2004), S. 714. Scholderer/Balderjahn (2005), S. 89 bezeichnen den 1970 in Biometrika veröffentlichten Artikel von Jöreskog (1970) als die Geburtsstunde von LISREL; vgl. zusätzlich Jöreskog (1973). Vgl. Homburg/Hildebrandt (1998), S. 17; Scholderer/Balderjahn (2005), S. 91. Vgl. u.a. Chin/Newsted (1999), S. 313. Vgl. Chin et al. (2003), S. 197. Vgl. Fassot (2005), S. 21. Vgl. Wold (1966); Wold (1980); Wold (1985). Vgl. Bliemel et al. (2005), S. 11. Vgl. Homburg/Klarmann (2006), S. 734f.; Heinemann (2006), S. 246. Vgl. zum Vorgehen Homburg/Klarmann (2006), S. 728ff.; Heinemann (2006), S. 243ff.; Hiddemann (2007), S. 95ff. Homburg/Klarmann (2006), S. 734.
149
Es wird also versucht, die empirisch ermittelte Kovarianzmatrix der vom Modell generierten möglichst gut anzupassen. Auf diese Weise ist die Hypothese, dass die beiden Kovarianzmatrizen übereinstimmen, statistisch überprüfbar und das Modell bzw. die darin ausgedrückte Theorie abzulehnen bzw. zu unterstützen. 860 In der Regel wird bei dieser Parameterschätzung die Maximum-Likelihood-Methode angewendet. Dabei ist zu beachten, dass dieses Schätzverfahren einen Stichprobenumfang von mindestens N = 100 haben sollte. 861 Ansonsten besteht die Gefahr, dass ein Identifikationsproblem auftritt, also die empirisch ermittelte Kovarianzmatrix nicht durch eine theoretische abgebildet werden kann. 862 Zusätzlich kann es zu sogenannten Heywood Cases kommen. Dann liegen negative Werte für einzelne geschätzte Parameter vor. 863 Alle diese Fehler sind aber identifizierbar und aus diesem Grunde bei einer entsprechenden Überprüfung unproblematisch in der Anwendung. 864 Im Falle des varianzbasierten PLS-Ansatzes sind die Einschränkungen in Bezug auf die Stichprobengröße weniger bedeutend. Der zugrundeliegende Algorithmus konvergiert auch bei geringen Stichprobengrößen. 865 So wird als Entscheidungsregel für die Anwendung von PLS folgende Faustregel in Bezug auf die Stichprobengröße genannt 866 : Der jeweils höhere Wert aus (a) der Anzahl von Pfaden zur endogenen Variable oder (b) der Anzahl von Indikatoren des größten formativen Konstruktes sollte mit zehn multipliziert werden.867 Die Ursache für die geringere Anforderung an die Stichprobengröße im Vergleich zu kovarianzbasierten Ansätzen liegt darin, dass es bei PLS keine globale Zielfunktion gibt. 868 Vielmehr wird bei der varianzerklärenden Parameterschätzung die erklärte Varianz der abhängigen Variable im Strukturmodell und in den reflektiven Messmodellen maximiert. 869 Entsprechend beschränkt sich in diesem Fall die Parameterschätzung immer nur auf Teilmodelle unter der Annahme, dass die anderen Teilmodelle bereits bekannt sind. 870 Ein zusätzliches Kriterium zur Auswahl eines geeigneten Verfahrens besteht im Rahmen der Parameterschätzung in den Anforderungen an die Datenqualität. Formal setzt der MaximumLikelihood (ML)-Ansatz bei kovarianzbasierten Verfahren eine Multinormalverteilung der für die Indikatoren erhobenen Daten voraus, da die Diskrepanzfunktion dann zuverlässige Ergebnisse liefert. 871 Häufig wird dies als Argument gegen die Anwendung von kovarianzbasierten Ansätzen verwendet, da diese Annahme in einzelnen Forschungssituationen nicht zutrifft. 872
860 861 862 863 864 865 866 867
868 869 870 871 872
Vgl. Fassott (2005), S. 26. Vgl. Bollen (1989), S. 254ff.; Homburg/Klarmann (2006), S. 735. Vgl. Homburg/Baumgartner (1995b), S. 1093. Vgl. Boomsma/Hoogland (2001), S. 139ff. Vgl. Kolenikov/Bollen (2007), S. 1. Vgl. Hänlein/Kaplan (2004), S. 292ff.; Götz/Liehr-Gobbers (2004), S. 721. Vgl. Chin/Newsted (1999), S. 326f. Andere Quellen gehen sogar nur von einem benötigten Multiplikator von fünf zur Berechnung der Mindeststichprobengröße aus. Vgl. Tabachnick/Fidell (1989), S. 129. Vgl. Fassott (2005), S. 26. Vgl. Homburg/Klarmann (2006), S. 734. Vgl. Homburg/Klarmann (2006), S. 734. Vgl. Homburg/Klarmann (2006), S. 736. Vgl. Dijkstra (1983), S. 76.
150
Diese Argumentation ist allerdings nur bedingt zulässig, da einerseits nicht notwendigerweise auf das ML-Prinzip im Rahmen einer kovarianzbasierten Kausalanalyse zurückgegriffen werden muss. 873 Andererseits hat eine Vielzahl von Simulationsstudien gezeigt, dass eine Abweichung von der geforderten Multinormalverteilung auch bei Verwendung des ML-Ansatzes „höchstens zu einer geringen Verzerrung der geschätzten Parameter“ führt und die MLSchätzungen andere Verfahren auch bei Abwesenheit einer Multinormalverteilung an Präzision übertreffen. 874 PLS hat diese Einschränkungen in Bezug auf die Anforderungen an die Datenqualität nicht. 875 Allerdings neigen varianzbasierte Verfahren insgesamt zu Verzerrungen. So werden Pfadkoeffizienten tendenziell unter- und Ladungen tendenziell überschätzt. 876 Diese sogenannte consistency-at-large-Problematik tritt auf, weil die Konstruktwerte der latenten Variablen durch die Aggregation der manifesten Variablen bestimmt werden. Die Indikatoren unterliegen aber zumindest teilweise Messfehlern, so dass für die Messmodelle (Ladungen) tendenziell höhere und für das Strukturmodell (Pfadkoeffizienten) geringere Werte berechnet werden. 877 Diese Problematik lässt sich nur reduzieren, indem gleichzeitig die Anzahl der reflektiven Indikatoren je Messmodell und die Stichprobengröße erhöht wird. 878 4.3.1.3.3 Modellbeurteilung Bei der Modellbeurteilung müssen lokale und globale Gütekriterien unterschieden werden.879 Lokale Gütekriterien werden herangezogen, um die einzelnen Messmodelle zu beurteilen. 880 Diesbezüglich gibt es keine Unterschiede zwischen varianz- und kovarianzerklärenden Ansätzen. Unterschiede gibt es hingegen bei den globalen Gütekriterien, die dazu dienen die Güte des gesamten Strukturgleichungsmodells zu prüfen. Bei varianzbasierten Ansätzen kann lediglich auf nicht-parametrische Tests zurückgegriffen werden. 881 So kann ausschließlich das Bestimmtheitsmaß R² und das Stone-Geisser-Kriterium Q² als Maß für die Prognoserelevanz des Modells genutzt werden. Globale Kriterien zur Beurteilung der Modellgüte, wie sie bei
873
874 875 876 877 878
879
880 881
Die Anforderung einer Multinormalverteilung kann bei kovarianzbasierten Verfahren umgangen werden, indem auf das Maximum-Likelihood-Schätzverfahren verzichtet und stattdessen beispielsweise auf das Prinzip der ungewichteten kleinsten Quadrate (ULS) zurückgegriffen wird. Auch dieses Verfahren ist für Samplegrößen ab N = 100 geeignet. Allerdings ist über die Leistungsfähigkeit dieses Verfahrens bislang wenig bekannt. Generell haben ULS-Schätzer weniger günstige Eigenschaften als ML-Schätzer. Ein weiteres mögliches Verfahren ist das der gewichteten kleinsten Quadrate (WLS). Dieses Verfahren liefert allerdings erst ab Stichprobenumfängen von 1000 und mehr zuverlässige Ergebnisse, so dass es aufgrund der Stichprobengröße in dieser Arbeit nicht einsetzbar ist. Vgl. Homburg/Klarmann (2006), S. 736. Homburg/Klarmann (2006), S. 736. Vgl. Götz/Liehr-Gobbers (2004), S. 721. Vgl. Chin (1998b), S. 329; Fassott (2005), S. 29. Vgl. Heinemann (2006), S. 245. Vgl. Chin/Newsted (1999), S. 328f.; Chin et al. (2003), S. 205; Götz/Liehr-Gobbers (2004), S. 721. Vgl. Bollen/Long (1993), S. 6; Homburg/Baumgartner (1995a), S. 171; Homburg/Klarmann (2006), S. 736. Vgl. zu einer detaillierten Beschreibung der lokalen Gütekriterien Abschnitt 4.3.2.1 auf S. 154ff. Vgl. Krafft et al. (2005), S. 83.
151
einer kovarianzbasierten Auswertung möglich sind, stehen hingegen nicht zur Verfügung. 882 Kovarianzbasierte Verfahren bieten an dieser Stelle Vorteile, weil eine Beurteilung der globalen Güte mit Hilfe von inferenzstatistischen Tests möglich ist. 883 4.3.1.3.4 Ergebnisinterpretation Die Ergebnisinterpretation erfolgt bei varianz- und kovarianzbasierten Verfahren auf ähnliche Weise. In beiden Fällen werden Gewichte, Faktorladungen und Pfadkoeffizienten berechnet. Allerdings ist der zugrundeliegende Forschungsansatz sehr unterschiedlich. Varianzbasierte Verfahren zielen insbesondere auf eine ausgeprägte Vorhersagegüte ab. 884 „[…] the variance-based approach of PLS shifts the orientation from causal model/theory testing to component-based predictive modeling.“ 885 PLS ist somit anwendbar, wenn es um die „Prognose abhängiger Variablen“ 886 geht und ein Zusammenhang nicht als zutreffend angenommen werden kann. 887 Insbesondere wenn es primär um die Beurteilung von Einzelbeziehungen und weniger um die Beurteilung eines gesamten Strukturgleichungsmodells geht, eignet sich PLS, um zu überprüfen, ob eine Beziehung zwischen zwei Größen überhaupt besteht. 888 PLS bietet sich daher vor allem dann an, wenn das Ziel besteht, erste Indizien für das Vorliegen bestimmter Beziehungen zu sammeln, um auf dieser Basis gezielte Vorschläge für eine weitere Überprüfung abzuleiten. 889 Häufig wird jedoch kritisiert, dass die PLS-Schätzer in Bezug auf die Ergebnisgenauigkeit Schwachstellen besitzen. So weisen Homburg/Klarmann darauf hin, dass die PLS-Schätzer „im Allgemeinen nicht einmal konsistent und auch bei reflektiven Konstrukten nicht messfehlerkorrigiert“ sind. 890 Kovarianzbasierte Verfahren bieten diesbezüglich Vorteile. Besteht, wie im Rahmen der vorliegenden Arbeit, das Ziel in der „Überprüfung und Entwicklung von Theorien zu komplexen Wirkungszusammenhängen […], so ist die kovarianzerklärende Kausalanalyse deutlich besser geeignet.“ 891 Nur mit Hilfe eines kovarianzbasierten Ansatzes können mittels globaler Gütemaße fehlspezifizierte Modelle entdeckt und somit unzulässige Ergebnisinterpretationen vermieden werden. Die verfügbare kovarianzbasierte Anwendungssoftware AMOS bietet zudem Vorteile bei der Ergebnisinterpretation der im Rahmen dieser Arbeit zentralen Analyse von Moderatorvariablen in Form von Gruppenvergleichen. So bietet AMOS im Gegensatz zu PLS die Möglichkeit, einzelne Beziehungen zwischen unterschiedlichen Gruppen gleichzusetzen. Auf diese Weise kann ein Gruppenvergleich durchgeführt werden, bei dem die Messmodelle
882 883
884 885 886 887
888 889 890 891
Vgl. Krafft et al. (2005), S. 83; Homburg/Klarmann (2006), S. 736. Vgl. dazu die Ausführungen in Abschnitt 4.3.2.2 auf S. 159ff. und Homburg/Klarmann (2006), S. 736. Vgl. Fornell/Bookstein (1982), S. 450; Wold (1982), S. 82; Chin (1998b), S. 301. Chin/Newsted (1999), S. 312. Homburg/Klarmann (2006), S. 735. Vgl. Fornell/Bookstein (1982), S. 312; Lohmöller (1989), S. 28; Götz/Liehr-Gobbers (2004), S. 721. Vgl. Bagozzi/Yi (1994), S. 19. Vgl. Chin (1998b), S. 295; Fassott (2005), S. 29. Homburg/Klarmann (2006), S. 734. Homburg/Klarmann (2006), S. 734.
152
in den untersuchten Gruppen identisch sind. 892 Nur so kann eine verzerrungsfreie Interpretation der Ergebnisse erfolgen. Mit PLS ist dieses Vorgehen so nicht möglich. Vielmehr muss bei Anwendung von PLS im Nachhinein nachgewiesen werden, dass die Messmodelle in den unterschiedlichen Gruppen möglichst ähnlich sind. 893 Sind die Messmodelle zwischen den Gruppen nicht ähnlich, ist eine sinnvolle Interpretation der Ergebnisse nicht möglich. 4.3.1.3.5 Zusammenfassende Beurteilung Wie weiter oben bereits erläutert wurde, sind weder varianz- noch kovarianzbasierte Verfahren grundsätzlich vorzuziehen. Der am besten geeignete Ansatz muss vielmehr aus der jeweiligen Forschungssituation heraus abgeleitet werden. Die in den vorangegangenen Abschnitten diskutierten Kriterien sprechen im Rahmen dieser Untersuchung mehrheitlich für den Einsatz eines kovarianzbasierten Verfahrens. Entsprechend soll aufgrund des „deutlich höheren Leistungspotenzials“ 894 den Empfehlungen von Homburg/Klarmann folgend in dieser Untersuchung ein kovarianzbasiertes Verfahren, nämlich AMOS 895 , zum Einsatz kommen. 896 Die wesentliche Ursache dafür, dass ein kovarianzbasiertes Verfahren einem varianzbasierten vorgezogen wird, ist, dass das in dieser Untersuchung aufgestellte Modell grundlegend neu und auch in angrenzenden Forschungsfeldern noch nicht untersucht ist. Entsprechend spielt eine korrekte Spezifikation des Modells und eine entsprechende Prüfung mit Hilfe von globalen Gütemaßen eine entscheidende Rolle. Auf PLS soll hingegen weitestgehend verzichtet werden. Lediglich für Kontroll- und Überprüfungszwecke wird PLS im Rahmen der Voruntersuchung eingesetzt 897 , da das für die Voruntersuchung zur Verfügung stehende Datensample deutlich kleiner ist. 898 4.3.2
Beschreibung der Vorgehensweise zur Gütebeurteilung von Mess- und Strukturmodellen
In diesem Abschnitt werden die Gütekriterien zur Beurteilung der Messmodelle sowie zur Beurteilung des Strukturmodells erläutert. Dabei findet auch eine Auswahl der Gütekriterien statt, die in dieser Arbeit Anwendung finden. Zunächst werden die lokalen Gütekriterien be-
892 893
894 895
896
897
898
Vgl. zum Vorgehen Arbuckle (2007), S. 197ff. Dafür wird in der Praxis häufig der Coefficient of Congruence berechnet. Vgl. u.a. Güttler (2008), S. 211. Homburg/Klarmann (2006), S. 734. Abkürzung für „Analysis of Moment Structure“. AMOS ist eine Software mit graphischer Bedienoberfläche zur kovarianzbasierten Berechnung von Strukturgleichungsmodellen. Im Rahmen dieser Untersuchung wurde die Version 16.0.1 (Build 1335) verwendet. Homburg/Klarmann weisen darauf hin, dass aufgrund der hier dargestellten Kriterien der Einsatz von kovarianzbasierten Verfahren „der Regelfall im Rahmen der empirischen betriebswirtschaftlichen Forschung“ sein sollte (Homburg/Klarmann (2006), S. 734). Ähnlich konstatieren Scholderer/Balderjahn: „PLS sollte nach unserer Auffassung insofern nur eingesetzt werden, wenn ein Einsatz von LISREL definitiv nicht möglich ist“ (Scholderer/Balderjahn (2006), S. 67). Dabei wird das Programm PLS-Graph in der Version 3.0 (Build 1130) verwendet, das von Professor Wynne Chin zur Verfügung gestellt wurde. Für die Voruntersuchung stehen insgesamt nur N = 123 auswertbare Stichproben zur Verfügung. Für die Hauptuntersuchung sind es N = 400.
153
schrieben, die zur Beurteilung der Messmodelle herangezogen werden. Anschließend werden die globalen Gütemaße zur Prüfung des Strukturmodells vorgestellt. In Abbildung 20 ist eine Übersicht über die in dieser Untersuchung herangezogenen Gütemaße dargestellt. Eine detailliertere Beschreibung der einzelnen Maße findet sich in den folgenden beiden Abschnitten.
Gütemaße für Kausalmodelle
Lokale Gütemaße
Maße zur Reliabilitätsprüfung
Maße zur Validitätsprüfung
Beschreibung in Abschnitt 4.3.2.1
Globale Gütemaße
Stand-Alone Maße
Inkrementelle Maße
Modellkomplexitätsbezogene Maße
Informationstheoretische Maße
Beschreibung in Abschnitt 4.3.2.2
Abbildung 20: Übersicht der in dieser Untersuchung verwendeten Arten von Gütemaßen Quelle: Eigene Darstellung in Anlehnung an Güttler (2008), S. 166.
4.3.2.1 Lokale Gütemaße zur Beurteilung der Messmodelle Wie bereits in Abschnitt 4.1.1 ausführlich erläutert, sind reliable und valide Messmodelle die Voraussetzung, um unverzerrte Ergebnisse der Datenanalyse zu ermöglichen. 899 Entsprechend liegt der Schwerpunkt der lokalen, auf die einzelnen Messmodelle bezogenen Gütebeurteilung auf Reliabilitäts- und Validitätsprüfungen. Dabei wird im Folgenden auf die Beurteilung von reflektiv spezifizierten Messmodellen eingegangen 900 , so wie sie in dieser Untersuchung angewendet werden. 901
899 900
901
Vgl. Abschnitt 4.1.1 auf S. 98ff. Die Beurteilung von formativ spezifizierten Messmodellen muss grundlegend anders erfolgen, da dann nicht, wie bei reflektiv spezifizierten Faktoren, davon ausgegangen werden darf, dass eine starke Korrelation zwischen den Indikatoren eines Konstrukts vorliegen muss. Vgl. zur Beschreibung der Vorgehensweise bei der Beurteilung von formativen Messmodellen bspw. Heinemann (2006), S. 250f. Lediglich der Innovationsgrad wurde formativ spezifiziert. Dieser wird allerdings einerseits in dieser Arbeit nicht entwickelt, sondern aus bewährten Untersuchungen übernommen und andererseits ausschließlich in kategorisierter Form als Moderatorvariable eingesetzt. Auf Basis des Durch-
154
Die Reliabilität, die sich auf den zufälligen Fehleranteil einer Messung bezieht, wird sowohl auf Indikatoren- als auch auf Faktorenebene beurteilt. 902 Auf Indikatorenebene wird zur Sicherstellung einer akzeptablen Abhängigkeit der manifesten von der latenten Variable gefordert, dass mindestens 50% der Varianz eines Indikators durch den zugrundeliegenden Faktor erklärt wird. „Reflective indicators are considered to be reliable if they share more variance with their underlying construct than with their error variance.“ 903 Diese Forderung ist dann erfüllt, wenn die jeweilige Indikatorladung größer als 0,707 ist. 904 Items mit einer geringeren Indikatorladung werden in der Regel aus dem Messmodell entfernt. Insbesondere im Zusammenhang mit neuentwickelten Skalen, wie sie in dieser Untersuchung angewendet werden, sind nach Auffassung einiger Autoren jedoch auch geringere Grenzwerte zulässig. 905 Als Ergänzung kann zur Beurteilung der Reliabilität die Indikatorsignifikanz herangezogen werden, wobei signifikante Koeffizienten als Hinweis auf die Güte der Messung interpretiert werden können. 906 Zusätzlich müssen die Indikatoren, die zu einem Konstrukt gehören, eine akzeptable Unidimensionalität aufweisen. 907 Eine Untersuchung auf Unidimensionalität kann mit Hilfe einer explorativen Faktorenanalyse (EFA) durchgeführt werden. 908 Um sicherzustellen, dass eine EFA für ein bestimmtes Konstrukt anwendbar ist, müssen zunächst der Bartlett Test auf Sphärizität und eine Güteprüfung der extrahierten Faktorenstruktur mittels Kaiser-Meyer-Olkin Maß (KMO) erfolgen. 909 Ist eine EFA durchführbar, müssen Indikatoren, die stark auf mehr als einen Faktor laden, eliminiert werden, da dann nicht mehr von einer unidimensionalen Faktorenstruktur ausgegangen werden kann. Als Grenzwert wird häufig 0,4 angesetzt. 910
902 903 904
905
906 907 908 909
910
schnittswertes der Indikatorvariablen eines Moderators erfolgt dabei eine Gruppenzuordnung des betrachteten Fragebogens im Rahmen des Gruppenvergleichs (vgl Abschnitt 4.3.4 auf S. 167ff.). Vgl. Hulland (1999), S. 198. Carmines/Zeller (1979), S. 27. Vgl. Carmines/Zeller (1979), S. 27; Chin (1998b), S. 325. Der Wert von 0,707 ergibt sich als Quadratwurzel von 0,5. Für den Fall standardisierter Variablen ergeben sich die Varianzen aus den quadrierten Korrelationen. Da die Indikatorladungen in diesem Fall den Regressionskoeffizienten entsprechen, ergibt sich die Indikatorladung als Wurzel aus dem für die Varianz gegebenen Grenzwert von 50%. Vgl. Hulland (1999), S. 198f., der für neuentwickelte Skalen einen Grenzwert von 0,4 empfiehlt. Diese weniger restriktive Grenze wird jedoch im Rahmen dieser Untersuchung nur in begründeten Ausnahmefällen herangezogen. Vgl. Bagozzi/Yi (1988), S. 80. Vgl. Anderson/Gerbing (1988), S. 414f. Vgl. Homburg/Giering (1996), S. 8. Vgl. Bartlett (1950) und Kaiser (1974). Da eine Faktorenanalyse nur sinnvoll durchgeführt werden kann, wenn die Korrelationskoeffizienten der zugrunde liegenden Korrelationsmatrix signifikant ungleich null sind, ist Bartlett’s Test auf Sphärizität erforderlich. Er testet auf Basis einer ²Statistik und der vorliegenden Stichprobe die Hypothese, nach der alle Korrelationskoeffizienten in der Grundgesamtheit den Wert null haben (vgl. Brosius (2004), S. 779). Das KMO-Maß gibt ebenfalls einen Hinweis darauf, wie gut eine Faktorenanalyse durchführbar ist. Es sollte dafür über 0,5 liegen (vgl. Brosius (2004), S. 782). Vgl. Chen et al. (2004), S. 513; Güttler (2008), S. 170.
155
Auf Faktorenebene setzt eine hohe Reliabilität eine starke Beziehung der reflektiven Indikatoren eines Faktors voraus. Zur Beurteilung haben sich insbesondere Maße der internen Konsistenz, wie Cronbachs Alpha und Faktorreliabilität sowie die durchschnittlich erfasste Varianz (DEV) durchgesetzt. 911 Das Cronbachsche Alpha 912 ist der Mittelwert aller Inter-Item-Korrelationen zwischen den einem Faktor zugeordneten Indikatoren. 913 Der Wertebereich dabei liegt zwischen Null und Eins, wobei ein hoher Wert als Hinweis auf eine hohe Reliabilität interpretiert wird. Als Grenzwert hat sich in der Literatur 0,7 durchgesetzt. 914 Cronbachs Alpha hat drei entscheidende Schwachstellen. Zum einen ist eine inferenzstatistische Prüfung, also eine Beurteilung auf der Basis von statistischen Tests nicht möglich. 915 Zum anderen ist die Höhe des Koeffizienten unmittelbar von der Anzahl der Indikatoren abhängig. 916 Zusätzlich findet bei der Berechnung keine Gewichtung der einzelnen Indikatorkorrelationen statt. Um insbesondere den letztgenannten Kritikpunkt zu beheben, wurde als weiteres Maß für die interne Konsistenz die Faktorreliabilität 917 entwickelt. 918 Hierbei gehen bei der Berechnung die Faktorladungen als Gewichte für die Inter-Item-Korrelationen mit ein. Auch für die Faktorreliabilität hat sich ein Grenzwert von 0,7 etabliert. 919 Das dritte lokale Gütemaß zur Reliabilitätsbeurteilung reflektiver Messmodelle ist die DEV, die in der englischsprachigen Literatur auch als „average variance extracted“ (AVE) bezeichnet wird. 920 Die DEV gibt den Anteil der Varianz des betrachteten Faktors an, der durch die zugehörigen Indikatoren erklärt werden kann. Entsprechend kann sie genutzt werden, um das relative Ausmaß des Messfehlers einzuschätzen. 921 Eine akzeptable Messgüte liegt dann vor, wenn die Indikatoren die zu messende Größe stärker erklären, als sonstige Phänomene, wie bspw. auch die Messfehler. Dies ist sichergestellt, wenn die DEV größer als 0,5 ist, da dann die Indikatoren mindestens 50% der Varianz des Faktors erklären. 922 Neben der Reliabilität muss die Validität reflektiver Messmodelle geprüft werden. Bei der Beurteilung der Validität werden Inhalts-, Konvergenz-, Diskriminanz- und Nomologische Validität unterschieden.
911 912
913 914 915 916 917
918 919 920 921 922
Vgl. Hulland (1999), S. 199ff.; Homburg/Baumgartner (1995), S. 170. Zum Teil wird das Cronbachsche Alpha insbesondere in der englischsprachigen Literatur auch als „Coefficient Alpha“ bezeichnet. Vgl. zur Berechnung u.a. Homburg/Giering (1996), S. 8. Vgl. Homburg/Giering (1996), S. 8. Vgl. Nunnally (1978), S. 245. Vgl. Cortina (1993), S. 101. Vgl. Homburg/Giering (1996), S. 8. Die Faktorreliabilität wird häufig auch als interne Konsistenz bezeichnet. In der englischsprachigen Literatur finden sich die Ausdrücke „internal consistency“ oder „composite reliability“. Vgl. zur Berechnung u.a. Homburg/Giering (1996), S. 10. Vgl. Werts et al. (1974), S. 29. Vgl. Götz/Liehr-Gobbers (2004), S. 728. Zur Berechnung vgl. u.a. Fornell/Larcker (1981), S. 46; Homburg/Giering (1996), S. 11. Vgl. Chin (1998b), S. 321. Vgl. Fornell/Larcker (1981), S. 46; Bagozzi/Yi (1988), S. 80.
156
Eine hohe Inhaltsvalidität liegt vor, wenn die Indikatoren eines reflektiven Messmodells „dem inhaltlich-semantischen Bereich des Konstruktes angehören“ 923 und somit eine korrekte Modellierung in Bezug auf die Bedeutungsinhalte stattgefunden hat. Eine Überprüfung der Inhaltsvalidität mit Hilfe von statistischen Verfahren ist dabei nicht ohne weiteres möglich. 924 Vielmehr muss vor allem bei der Skalenentwicklung durch eine umfangreiche Literaturanalyse und intensive Diskussionen mit Experten sichergestellt werden, dass ein hohes Maß an Inhaltsvalidität gegeben ist. 925 Dies wurde, wie in Abschnitt 4.1.2 dargestellt, durch einen detaillierten und bewährten Prozess zur Skalenentwicklung berücksichtigt. 926 Konvergenzvalidität bezeichnet das Ausmaß „to which two or more attempts to measure the same concept are in agreement.“ 927 Das bedeutet, dass die Indikatoren, die einem Faktor zugeordnet sind, eine starke Beziehung untereinander haben müssen. Dies ist eine wesentliche Voraussetzung für reflektive Konstrukte und wird durch die Analysen im Rahmen der Reliabilitätsuntersuchung bereits betrachtet. Daher werden die entsprechenden Gütemaße an dieser Stelle nicht wiederholt. Von großer Bedeutung ist auch die Diskriminanzvalidität, die die Unterschiedlichkeit der einzelnen Indikatoren bzw. Faktoren bestimmt und somit überprüft, ob die inhaltlich vorgenommenen Abgrenzungen zwischen den Faktoren durch die erhobenen Daten gestützt werden können. 928 Die Diskriminanzvalidität wird sowohl auf Indikator- als auch auf Konstruktebene erfasst. Auf Indikatorebene wird gefordert, dass die Assoziation der Indikatoren, die denselben Faktor messen, stärker ist, als die Assoziation zwischen den Indikatorvariablen verschiedener Faktoren. Entsprechend sollte ein Item mit keinem anderen Faktor stärker korrelieren als mit dem reflektiven Faktor, dem es zugeordnet ist. 929 Tritt ein solcher Fall ein, muss der entsprechende Indikator ggf. eliminiert werden. Ähnliches gilt auch für die Diskriminanzvalidität auf Faktorenebene. Dabei bezeichnet sie den Grad „to which measures of distinct concepts differ.“ 930 Entsprechend wird die Unter-
923 924
925 926 927 928 929 930
Homburg/Giering (1996), S. 7. Vgl. Bohrnstedt (1970), S. 92. Homburg/Giering zeigen, dass es auch eine (eingeschränkte) Möglichkeit zu einer quantitativen Erfassung geben kann, indem bspw. ein Faktor über direktem und indirektem Weg abgefragt wird. Als Beispiel nennen sie das Konstrukt Kundennähe, dass einerseits indirekt über bestimmte Items gemessen werden kann. Andererseits kann der Befragte aber auch direkt um eine Einschätzung der Kundennähe gebeten werden, indem der Begriff Kundennähe explizit gebraucht wird. Als Maß für die Inhaltsvalidität kann dann die Assoziation der beiden (direkten und indirekten) Konstrukte dienen (vgl. Homburg/Giering (1996), S. 17). Ein solches Vorgehen ist allerdings im Rahmen dieser Arbeit nicht anwendbar, da es sich nur eignet, wenn der Untersuchungsgegenstand bei den Befragten hinreichend bekannt ist. Davon ist bei dem hier behandelten Themenkomplex von Effectuation und Causation nicht auszugehen. Vgl. u.a. Churchill (1979), S. 67f. Vgl. Abschnitt 4.1.2 auf S. 104ff. Bagozzi/Phillips (1982), S. 468. Vgl. Krohmer (1999), S. 140. Vgl. Chin (1998b), S. 325f. Bagozzi/Phillips (1982), S. 469.
157
schiedlichkeit der gemessenen Faktoren untersucht. 931 Im Rahmen dieser Untersuchung werden zwei quantitative Verfahren herangezogen, um die Diskriminanzvalidität auf Faktorenlevel zu beurteilen. Zum einen wird ein ²-Differenztest durchgeführt. 932 Für jede mögliche Paarkombination zweier Faktoren wird als Ausgangspunkt der ²-Wert des jeweiligen Modells berechnet. Anschließend werden jeweils die Korrelationen zwischen zwei Faktoren auf Eins fixiert und erneut der resultierende ²-Wert ermittelt. Der sich daraus ergebende ²-Wert wird zwangsläufig größer, da die zusätzliche Restriktion die Anpassung des Modells verschlechtert. Interessant ist dabei, ob die Verschlechterung des ²-Wertes signifikant ist. Dann müsste die Nullhypothese, dass beide Faktoren das Gleiche messen, abgelehnt werden. 933 Zusätzlich wird bei dieser Untersuchung das Vorliegen von Diskriminanzvalidität mit einem noch strengeren Kriterium, dem sogenannten Fornell-Larcker-Kriterium überprüft. 934 Dieses Maß basiert auf der oben beschriebenen DEV eines Faktors. Es wird gefordert, dass die jeweilige DEV größer ist als die quadrierten Korrelationen zwischen den paarweise betrachteten Faktoren. 935 Die nomologische Validität bezeichnet das Ausmaß „to which predictions based on a concept are confirmed within the context of a larger theory.“ 936 Damit erfordert die Analyse der nomologischen Validität die Einbeziehung des Messmodells in einen übergeordneten Rahmen 937 , der in dieser Untersuchung durch das Strukturgleichungsmodell gegeben ist. Entsprechend findet eine Prüfung der nomologischen Validität im Zuge der Beurteilung des Strukturmodells mit Hilfe der im nächsten Abschnitt beschriebenen globalen Gütekriterien sowie einer Überprüfung der im Rahmen der Konzeptionalisierung aufgestellten Hypothesen statt. Von nomologischer Validität kann ausgegangen werden, wenn die globalen Gütekriterien in ausreichendem Maße erfüllt sind. 938 Zusammenfassend sind die lokalen Gütemaße zur Beurteilung der Reliabilität und Validität der Messmodelle in Tabelle 22 dargestellt. Im Rahmen der Gesamtbeurteilung eines Messmodells müssen nach Homburg/Baumgartner nicht ausnahmslos alle Gütemaße innerhalb der angegebenen Grenzen strikt erfüllt sein. 939 Vielmehr kommt es auf eine Gesamtbeurteilung an, die nicht notwendigerweise zu einer Ablehnung des Messmodells führen muss, wenn eines der Kriterien nicht erfüllt ist.
931 932 933
934 935 936 937 938 939
Vgl. Bohrnstedt (1970), S. 96; Krohmer (1999), S. 140. Vgl. Homburg/Giering (1996), S. 11. Bei einem Signifikanzniveau von 5% führt eine Differenz der beiden ²-Werte von über 3,841 zur Ablehnung der Nullhypothese. Vgl. dazu die Quantile der ²-Verteilung bei einem Freiheitsgrad, z.B. Hartung (2002), S. 893. Vgl. Homburg/Giering (1996), S. 11. Vgl. Fornell/Larcker (1981), S. 46; Homburg/Giering (1996), S. 16. Bagozzi (1979), S. 14. Vgl. Homburg/Giering (1996), S. 7. Vgl. Bagozzi (1981), S. 198ff. Vgl. Homburg/Baumgartner (1995a), S. 172.
158
Art der Güteprüfung
Gütekriterium
Indikatorreliabilität
Reliabilität Konstruktreliabilität
Inhaltsvalidität Konvergenzvalidität
Validität Diskriminanzvalidität
Wertebereich
Grenzwert für akzeptable Messgüte
Indikatorladung
[-1; +1]
i 0,7 (0,4) 940
Unidimensionale Faktorladung
[-1; +1]
FA 0,4
Cronbachs Alpha
[0; +1]
0,7
Faktorreliabilität
[0; +1]
c 0,7
Lokales Gütemaß
Durchschnittl. erfasste [0; +1] DEV 0,5 Varianz Über den Prozess zur Skalenentwicklung abgedeckt (vgl. Abschnitt 4.1.2) Über die Gütemaße zur Indikator- und Konstruktreliabilität abgedeckt Indikator-Kreuzladung [-1; +1]
i, Cross = klein (Fremdkonstrukt) ² 3,841 ²-Differenztest [Ja; Nein] (5% Niveau) Fornell-Larcker-Test
Nomologische Validität
[Ja; Nein]
(DEV)² >
Über globale Gütemaße abgedeckt (vgl. Abschnitt 4.3.2.2)
Tabelle 22: Übersicht der lokalen Gütemaße zur Beurteilung der Messmodelle Quelle: Eigene Darstellung in Anlehnung an Güttler (2008), S. 176.
4.3.2.2 Globale Gütemaße zur Beurteilung des Strukturmodells Um die Anpassungsgüte des gesamten Strukturmodells an die empirischen Daten zu beurteilen, werden sogenannte globale Gütemaße herangezogen. 941 Grundsätzlich können vier Arten von globalen Gütemaßen unterschieden werden, nämlich Stand Alone, Inkrementelle, Modellkomplexitätsbezogene und Informationstheoretische Gütemaße. 942 Die Einteilung in diese vier Kategorien orientiert sich daran, ob und welches Bezugsmodell für das jeweilige Gütemaß existiert, das dem Nutzer eine Interpretation der Anpassungsgüte ermöglicht. 943 Stand Alone Gütemaße beurteilen im Gegensatz zu den anderen drei Kategorien die Anpassungsgüte eines Modells isoliert, also ohne Rückgriff auf Referenzmodelle. 944 Inkrementelle Anpassungsmaße nutzen hingegen zur Beurteilung der Modellgüte ein Bezugsmodell. 945 Ent-
940 941 942 943 944
945
Als alternativer Grenzwert wird in der Literatur auch 0,4 genannt (vgl. Hulland (1999), S. 198f.). Vgl. Homburg/Baumgartner (1995a), S. 165. Vgl. Arbuckle (2007), S. 585ff.; Güttler (2008), S. 176ff. Vgl. Homburg/Baumgartner (1995a), S. 166. Vgl. Baumgartner/Homburg (1993), S. 149; Bagozzi/Baumgartner (1994), S. 399; Homburg/ Baumgartner (1995a), S. 166. Vgl. Baumgartner/Homburg (1993), S. 149; Bagozzi/Baumgartner (1994), S. 399; Homburg/ Baumgartner (1995a), S. 170.
159
sprechend geben inkrementelle Maße an, wie sich die Anpassungsgüte beim Übergang von diesem Referenzmodell zum relevanten Modell verbessert. 946 Als Referenzmodell werden Modelle verwendet, die keine inhaltliche Relevanz besitzen.947 So werden in der Regel zwei Basismodelle herangezogen. Zum einen wird ein Modell gewählt, das die Datenbasis perfekt widerspiegelt („Saturated Model“). 948 Dabei werden alle Beziehungen innerhalb des Modells freigegeben, so dass das ideale Modell zur Datenbasis entsteht. Zum anderen wird ein Vergleichsmodell berechnet, bei dem die Unabhängigkeit aller Parameter angenommen wird („Independence Model“). 949 Dieses Modell passt daher am schlechtesten zur betrachteten Datenbasis. Durch die beiden Referenzmodelle sind zwei Bezugspunkte gegeben, mit denen sich das eigentliche Forschungsmodell vergleichen lässt. Modellkomplexitätsbezogene und Informationstheoretische Gütemaße nutzen ein theoriebezogenes Modell des Forschers als Referenz. Entsprechend können die Werte auch nur zum Vergleich von Modellen und nicht isoliert betrachtet werden. 950 Bei beiden Ansätzen fließt die Komplexität, also die Anzahl der zu schätzenden Parameter mit in die Beurteilung ein. Bevor im Folgenden auf einzelne, im Rahmen dieser Untersuchung angewendete Gütemaße eingegangen wird, soll zunächst ein Überblick über die bedeutendsten Maße gegeben werden. Tabelle 23 zeigt übersichtsartig die wichtigsten globalen Gütemaße und die zugehörigen Anspruchsniveaus.
946 947 948 949 950
Vgl. Homburg/Baumgartner (1995a), S. 170. Vgl. Homburg/Baumgartner (1995a), S. 170. Vgl. Arbuckle (2007), S. 585. Vgl. Bentler/Bonett (1980), S. 588ff.; Arbuckle (2007), S. 585. Vgl. Arbuckle (2007), S. 593.
160
Kategorie
StandAlone
Inkrementell
Modellkomplexitätsbezogen Informationstheoretisch
Globales Gütemaß Relative ²-Teststatistik Root Mean Square Error of Approximation Close Fit Test (H0: RMSEA 0,05) (Standardized) Root Mean Square Residual Goodness of Fit Index Adjusted Goodness of Fit Index Tucker-Lewis Index Comparative Fit Index Normed Fit Index Relative Fit Index Parsimony Goodness of Fit Index Parsimony Normed Fit Index Parsimony Comparative Fit Index Akaike Information Criterion Brown-Cudeck Criterion Bayes Information Criterion Consistent AIC ECVI
Relevanz in dieser Untersuchung 952
²/df
[0; +]
Grenzwert für akzeptable Messgüte 951 3
RMSEA
[0; +]
0,08
9
pCLOSE
[0; +1]
0,5
9
(S)RMR
[0; +1]
0,08
9
GFI AGFI
[0; +1] [0; +1]
0,9 0,9
TLI CFI NFI RFI PGFI PNFI PCFI AIC BCC BIC CAIC ECVI
[0; +1] [0; +1] [0; +1] [0; +1] [0; +1] [0; +1] [0; +1] [0; +] [0; +] [0; +] [0; +] [0; +]
0,9 953 0,9 0,9 0,9 0,5 954 0,5 0,5 -
(9) (9) 9 9 8 8 8 8 8 8 8 8 8 8
Abkürzung
Wertebereich
9 Relevant für vorliegende Untersuchung (9) Nur zu Informationszwecken 8 Nicht relevant
9
Tabelle 23: Übersicht der globalen Gütemaße zur Beurteilung des Strukturmodells Quelle: Eigene Darstellung
Tabelle 23 zeigt auch eine Auswahl der im Rahmen dieser Untersuchung verwendeten Gütemaße. Diese Auswahl geht auf Empfehlungen und Simulationsstudien in der Literatur zurück. So empfehlen bspw. Homburg/Klarmann neben einer relativen ²-Teststatistik, auch die Globalgütemaße Root Mean Square Error of Approximation (RMSEA), (Standardized) Root Mean Square Residual (RMR), den Comparative Fit Index (CFI) und den Tucker-Lewis Index
951
952
953
954
Die Anspruchsniveaus orientieren sich an Literaturempfehlungen. Vgl. u.a. Byrne (2001), S. 79ff.; Marsh et al. (2004), S. 340; Sharma et al. (2005), S. 941f.; Homburg/Klarmann (2006), S. 737. Die Auswahl der relevanten Maße berücksichtigt dabei einerseits die Anerkennung des betrachteten Gütemaßes in der Literatur und andererseits die Eignung im Rahmen der vorliegenden Untersuchung. Teilweise werden die Anspruchniveaus für die inkrementellen Gütemaße in der Literatur noch höher angesetzt. Vgl. diesbzgl. bspw. den Grenzwert von 0,95, der bei Hu/Bentler (1999), S. 27, für den TLI genannt wird. Häufig wurden diese, aufgrund der Simulationsstudie von Hu/Bentler jedoch wenig gesicherten, Hinweise in anderen Literaturquellen übernommen und in Form von konkreten Empfehlungen weitergegeben. Problematisch dabei ist jedoch, dass bei solch restriktiven Grenzwerten die Wahrscheinlichkeit steigt, dass korrekt spezifizierte Modelle als falsch abgelehnt werden (Typ-1 Fehler). Entsprechend wird in dieser Untersuchung den Empfehlungen von Marsh et al. (2004) gefolgt und Modelle mit inkrementellen Gütemaßen größer als 0,9 akzeptiert. „Parsimony-based indexes have lower values than the threshold level generally perceived as “acceptable” for other normed indices of fit. […] parsimonious-fit indices in the .50s are not unexpected.“ (Byrne (2001), S. 82).
161
(TLI) 955 aufgrund ihrer Leistungsfähigkeit.956 Dieser Empfehlung wird im Rahmen der vorliegenden Untersuchung gefolgt. Zusätzlich wird ein Close Fit Test durchgeführt, der die Hypothese prüft, dass der RMSEA-Wert kleiner als 0,05 ist. Außerdem werden zur Information die Werte des Goodness of Fit Index (GFI) und des Adjusted Goodness of Fit Index (AGFI) angegeben, um dem Umstand Rechnung zu tragen, dass diese beiden Werte vor allem in der älteren Forschungspraxis stark verbreitet sind. 957 Es muss jedoch kritisch angemerkt werden, dass GFI und AGFI in der Literatur sehr umstritten sind und daher im Folgenden nicht primär zur Beurteilung eines Modells herangezogen werden sollen.958 Die ausgewählten Gütemaße werden im Folgenden zur besseren Verständlichkeit entlang der zu Beginn eingeführten Systematisierung kurz erläutert. Dabei wird zunächst auf die fünf globalen Stand Alone Gütemaße eingegangen, die zum Einsatz kommen. Die relative ²-Teststatistik 959 erweitert den herkömmlichen ²-Test, indem die Diskrepanzfunktion in Relation zu den Freiheitsgraden gesetzt wird. Geprüft werden soll so die Richtigkeit des Modells. Dabei wird die herkömmliche ²-Teststatistik genutzt, um die Nullhypothese zu testen, dass die datenbasierte Kovarianzmatrix der Indikatoren der modellgestützten Kovarianzmatrix entspricht. Da jedoch Forschungsmodelle letztlich immer eine Vereinfachung der Realität darstellen und somit die Nullhypothese des ²-Tests eigentlich nie erfüllt sein kann, wird dieser restriktive Test in der Literatur häufig kritisiert.960 Insbesondere können die mit dem ²-Test verbundenen p-Werte zu falschen Schlussfolgerungen führen. Der p-Wert gibt die Wahrscheinlichkeit an, mit der ein ²-Wert erzielt wird, der mindestens erforderlich ist, um einen exakten Fit zu erzielen, also die Nullhypothese zu bestätigen. 961 Demnach wird ein hoher p-Wert als Hinweis auf eine hohe Modellgüte interpretiert. Dies ist jedoch aus zwei Gründen kritisch zu beurteilen. Zum einen wird damit nicht der modellimmanenten notwendigen Vereinfachung der Realität Rechnung getragen, die dazu führt, dass kein perfekter Fit vorliegen kann. 962 Zum anderen ist die ²-Teststatistik sehr sensitiv in Bezug auf die Stichprobengröße. 963 So steigt die Wahrscheinlichkeit mit zunehmender Samplegröße, ein richtiges Modell als falsch abzulehnen, weil dann auch die Wahrscheinlichkeit von Abweichungen
955
956 957 958
959 960 961 962
963
Der TLI wird teilweise in der Literatur auch als Nonnormed Fit Index (NNFI) bezeichnet (vgl. Homburg/Klarmann (2006), S. 736). Vgl. Homburg/Klarmann (2006), S. 736. Vgl. Baumgartner/Homburg (1996), S. 150; Shah/Goldstein (2006), S. 158f. Vgl. exemplarisch Sharma et al., die im Rahmen einer Simulationsstudie für GFI und AGFI im Vergleich zu den anderen hier dargestellten Gütemaßen folgendes herausgefunden haben: „First, the performance of goodness-of-fit index is the worst, both with respect to how it is affected by sample size, number of indicators and detecting model misspecification. It is suggested that this index should not be used to evaluate model fit.“ (Vgl. Sharma et al. (2005), S. 941). Häufig (vgl. AMOS) auch als CMIN/DF bezeichnet. Vgl. u.a. Homburg/Klarmann (2006), S. 736. Vgl. Arbuckle (2007), S. 587f. „It is generally acknowledged that most models are useful approximations that do not fit perfectly in the population. In other words, the null hypothesis of perfect fit is not credible to begin with and will, in the end, be accepted only if the sample is not allowed to get too big.“ (Arbuckle (2007), S. 588). Vgl. Hu/Bentler (1995), S. 78.
162
zwischen empirisch ermittelter und modellbezogener Kovarianzmatrix der Indikatoren zunimmt. 964 Wenn hingegen das untersuchte Datensample klein ist, wird nahezu jedes Modell als richtig akzeptiert. 965 Um dieses Problem zumindest teilweise zu beheben, wurde von Wheaton et al. die relative ²-Teststatistik eingeführt. 966 Dabei wird die Güte pro Freiheitsgrad gemessen und dadurch zumindest berücksichtigt, dass es auch akzeptierbare Modelle geben kann, die die Anforderung eines exakten Fits nicht erfüllen. Entsprechend sind in der Literatur unterschiedliche Schwellenwerte für akzeptable Modellgüten empfohlen worden.967 Im Rahmen dieser Arbeit wird ein eher konservativer Schwellenwert herangezogen, indem gefordert wird, dass die relative ²-Teststatistik kleiner als 3 sein muss, damit das Modell akzeptiert wird. Das zweite in dieser Arbeit angewendete globale Stand Alone Gütemaß ist der Root Mean Square Error of Approximation (RMSEA). Dieses Gütemaß wurde schon 1980 von Steiger/Lind 968 vorgeschlagen, jedoch erst in der jüngeren Vergangenheit als „one of the most informative criteria in covariance structure modeling“969 erkannt und vermehrt angewendet. Der entscheidende Unterschied besteht beim RMSEA im Vergleich zur ²-Teststatistik darin, dass er den Fehler, der bei der Annäherung eines Modells an die Realität bzw. bei der Erhebung einer Stichprobe aus der Grundgesamtheit entsteht („error of approximation“), mit einbezieht. 970 Entsprechend wird nicht geprüft, ob das Modell im „absoluten Sinn „richtig“ ist, sondern es wird getestet, ob das Modell die Realität gut approximiert.“ 971 Insgesamt gilt, dass kleine RMSEA-Werte eine bessere globale Modellgüte repräsentieren und ein Wert von 0 einen perfekten Fit darstellt. Brown/Cudeck haben Richtwerte zur Beurteilung der Modellgüte auf Basis des RMSEA vorgeschlagen, die sich weitestgehend etabliert haben. 972 So gelten RMSEA-Werte kleiner oder gleich 0,05 als Indikation für einen „close fit“ des Modells. 973 Werte zwischen 0,05 und 0,08 gelten als „reasonable errors“ 974 und Werte zwischen 0,08 und 0,1 als Indikation für einen „mediocre fit“.975 Werte größer als 0,1 weisen auf einen „poor
964 965
966 967
968 969 970
971 972 973 974 975
Vgl. Bagozzi/Yi (1988), S. 77; Arbuckle (2007), S. 588. „If the sample is small, then the ² test will show that the data are ‘not significantly different from’ quite a wide range of very different theories, while if the sample is large, the ² test will show that the data are significantly different from those expected on a given theory even though the difference may be so very slight as to be negligible or unimportant on other criteria.“ (Gulliksen/Tukey (1958), S. 95f.). Vgl. Wheaton et al. (1977), S. 99. Bspw. 5 bei Wheaton et al. (1977), S. 99 und 3 bei Carmines/McIver (1980), S. 80 oder Homburg/Klarmann (2006), S. 737. Vgl. Steiger/Lind (1980). Byrne (2001), S. 84. Vgl. Steiger (1990), S. 176: Der RMSEA ist demnach „based on a population rationale, rather than heuristic arguments or a sample rationale […].“ Ähnlich drücken Browne/Cudeck (1993), S. 137f. die Kernfrage des RMSEA aus: „How well would the model, with unknown but optimally chosen parameter values, fit the population covariance matrix if it were available?“ Homburg/Baumgartner (1995), S. 166. Vgl. Browne/Cudeck (1993), S. 144. Vgl. Browne/Cudeck (1993), S. 144. Browne/Cudeck (1993), S. 144. Byrne (2001), S. 85.
163
fit“ 976 hin und sollten nicht akzeptiert werden. 977 Diesen Empfehlungen wird im Rahmen dieser Untersuchung gefolgt. Zusätzlich wird mit Hilfe eines Close-Fit-Tests (pCLOSE) überprüft, wie hoch die Wahrscheinlichkeit ist, dass der RMSEA-Wert tatsächlich unter 0,05 liegt. Hierbei wird ein statistischer Wahrscheinlichkeitswert von größer als 0,5 gefordert. 978 Als drittes globales Gütemaß wird der Root Mean Square Residual (RMR) bzw. auf Basis standardisierter Residuen der Standardized Root Mean Square Residual (SRMR) angewendet. Der RMR ist die Wurzel aus dem Durchschnittswert aller quadrierten Residuen der Kovarianzmatrix. 979 Die Residuen stellen dabei die Abweichung zwischen theoriebasiertem Modell und empirischer Beobachtung dar, also die Differenz zwischen modelltheoretischer und empirisch ermittelter Kovarianzmatrix. Das Ausmaß dieser durchschnittlich unerklärten Kovarianz ermöglicht einen Rückschluss auf die Güte des Modells. Kleine Werte des nicht-normierten RMR deuten so auf eine gute Modellgüte hin. Ein bestimmter, sinnvoller Schwellenwert für den RMR kann allerdings nicht angegeben werden, weil er direkt auch von den verwendeten Skalen abhängig ist und somit je nach Untersuchung variieren würde. 980 Aus diesem Grund hat sich die standardisierte Form des RMR, nämlich der SRMR etabliert.981 Hierbei werden die Werte auf einen Bereich zwischen 0 und 1 normiert und somit eine modellübergreifende Vergleichbarkeit geschaffen. 982 Die Standardisierung wird dabei erzielt, indem die Residuen durch die Standardabweichungen der zugehörigen manifesten Variablen geteilt werden.983 Analog zum RMR gilt, dass kleinere Werte für eine bessere Modellgüte stehen. Für eine akzeptable Modellgüte soll im Rahmen dieser Arbeit ein Wert von 0,08 akzeptiert werden. 984 Die letzten beiden zur Anwendung kommenden Stand Alone Gütemaß sind der Goodness of Fit Index (GFI) und der darauf aufbauende Adjusted Goodness of Fit Index (AGFI). 985 Wie weiter oben bereits angemerkt, werden diese beiden Indices nur für das Gesamtmodell und auch nur zu Informationszwecken mitgeführt. Eine Beurteilung der Modellgüte ist auf Basis von GFI und AGFI nur sehr eingeschränkt möglich. 986 Konzeptionell ist der GFI vergleichbar
976 977 978 979
980 981
982 983 984
985
986
Byrne (2001), S. 85. Vgl. Browne/Cudeck (1993), S. 144. Vgl. Byrne (2001), S. 85 und die dort angegebenen Quellen. Vgl. Bagozzi/Yi (1988), S. 79; Jöreskog/Sörbom (1989), S. 44; Hair et al. (1998), S. 656; Schermelleh-Engel et al. (2003), S. 37f. Vgl. Schermelleh-Engel et al. (2003), S. 38. Im Gegensatz zu LISREL und EQS gibt die in dieser Untersuchung verwendete Version von AMOS (Version 16.0.1) den SRMR nicht über den Outputgenerator aus. Die Berechnung innerhalb von AMOS erfolgte daher im Rahmen dieser Arbeit über ein Plugin. Vgl. Byrne (2001), S. 85; Schermelleh-Engel et al. (2003), S. 38. Vgl. Schermelleh-Engel et al. (2003), S. 38. Vgl. Hu/Bentler (1999), S. 1; Beauducel/Wittmann (2005), S. 51. Einige Autoren vertreten sogar die Meinung, dass Werte bis 0,1 als akzeptable Modellgüten angesehen werden können. Vgl. Schermelleh-Engel et al. (2003), S. 38; Homburg/Klarmann (2006), S. 737. GFI und AGFI „can be classified as absolute indexes of fit because they basically compare the hypothesized model with no model at all“ (Byrne (2001), S. 82). In der Forschungspraxis wird zunehmend von der Verwendung von GFI und AGFI als Gütemaß abgeraten, weil die Leistungsfähigkeit im Vergleich zu den anderen Maßen deutlich geringer ist. Hinzu kommt, dass GFI und AGFI stark durch die Samplegröße beeinflusst werden. Vgl. Byrne (2001), S. 82; Sharma et al. (2005), S. 941; Homburg/Klarmann (2006), S. 737.
164
mit dem Bestimmtheitsmaß der multiplen Regression (R²). 987 Es wird der Anteil der Varianzen und Kovarianzen der empirisch erhobenen Daten angegeben, der durch das Modell erklärt werden kann. 988 Der Unterschied zwischen GFI und AGFI besteht lediglich darin, dass beim AGFI die Anzahl der Freiheitsgrade mit berücksichtigt werden. 989 Der Wertebereich liegt für beide Maße zwischen 0 und 1 990 , wobei ein Wert von 1 ein ideales Güteniveau kennzeichnet. Generell werden Werte größer oder gleich 0,9 als akzeptabel bezeichnet.991 Neben den Stand Alone Gütemaßen werden im Rahmen dieser Untersuchung zwei inkrementelle Maße zur globalen Gütebeurteilung, nämlich der TLI und der CFI angewendet. Der Tucker-Lewis Index (TLI) hat sich in Simulationsstudien als eines der besten und zuverlässigsten globalen Gütemaße erwiesen. 992 Dies gilt insbesondere aufgrund seiner geringen Sensitivität gegenüber der Stichprobengröße und der guten Identifikation von abzulehnenden Modellen. 993 Ursprünglich wurde dieses Gütemaß für die ML-Faktorenanalyse entwickelt, bevor es später in leicht angepasster Form zur Beurteilung von Strukturgleichungsmodellen eingesetzt wurde. 994 Mit dem TLI wird methodisch die Verbesserung der Anpassungsgüte beim Übergang vom Basismodell, nämlich dem datenbezogenen Independence-Modell995 , zum relevanten Untersuchungsmodell geprüft. 996 Der Wertebereich des TLI liegt typischerweise zwischen 0 und 1, wobei wiederum ein Wert von 1 einen idealen Fit darstellt. 0,9 hat sich als Schwellenwert für ein akzeptables Modell etabliert.997 Als letztes globales Gütemaß wird der Comparative Fit Index (CFI) im Rahmen dieser Untersuchung zur Modellbeurteilung herangezogen. Ähnlich wie auch der TLI misst der CFI die Verbesserung der Anpassungsgüte beim Übergang vom Independence-Modell zum relevanten theoriebasierten Modell. 998 Allerdings werden dafür im Vergleich zur Berechnung des TLI andere Verteilungsannahmen verwendet.999 Der CFI wird aufgrund seiner Leistungsfähigkeit
987 988 989 990
991 992 993 994
995
996 997 998 999
Vgl. Gerbing/Anderson (1993), S. 42; Tanaka (1993), S. 19. Vgl. Homburg/Baumgartner (1995a), S. 167; Byrne (2001), S. 82. Vgl. Byrne (2001), S. 82. Allerdings konnte nachgewiesen werden, dass theoretisch auch negative Werte bei sehr schlecht angepassten Modellen möglich sind (vgl. Byrne (2001), S. 82). Deshalb wird häufig auch von approximativ genormten Globalgütemaßen gesprochen (vgl. Tanaka (1993), S. 23). Vgl. Hu/Bentler (1995), S. 91f.; Homburg/Baumgartner (1995a), S. 168. Vgl. Sharma et al. (2005), S. 941. Vgl. Hu/Bentler (1995), S. 90; Sharma et al. (2005), S. 936. Vgl. zur ursprünglichen Entwicklung Tucker/Lewis (1973), S. 5 und zur leicht abgeänderten Variante des in SEM eingesetzten Maßes v.a. Bollen (1989). Das Independence-Modell geht davon aus, dass alle Variablen unkorreliert sind. Entsprechend ist dieses Modell die schlechtestmögliche Anpassung der theoretischen an die empirische Kovarianzmatrix (vgl. Arbuckle (2007), S. 585). Vgl. Homburg/Baumgartner (1995a), S. 168; Tabachnick/Fidell (2007), S. 716. Vgl. Hair et al. (1998), S. 657; Homburg/Klarmann (2006), S. 737. Vgl. Homburg/Baumgartner (1995a), S. 168; Byrne (2001), S. 83. Beim CFI kommt die nicht-zentrale ²-Verteilung mit dem nicht-Zentralitätsparameter NCP zum Einsatz. Je größer der NCP ist, desto größer ist die Fehlspezifikation des Modells. Das bedeutet, dass bei einem perfekten Modell der NCP 0 ist. Zur Berechnung des CFI wird der Quotient aus dem NCP des theoriebasierten Modells und dem NCP des unabhängigen (Independent) Modells von 1 subtrahiert (vgl. Tabachnick/Fidell (2007), S. 717).
165
in der Literatur als ein wesentliches Gütemaß empfohlen. 1000 Insbesondere wegen seiner guten Anwendbarkeit auch in kleineren Samples ist das Gütemaß an dieser Stelle von großer Bedeutung. 1001 Der Hauptvorteil des CFI ist dabei, dass er im Vergleich zu den anderen Gütemaßen am wenigsten vom zugrundeliegenden Parameterschätzalgorithmus beeinflusst wird. 1002 Der CFI ist auf den Wertebereich zwischen 0 und 1 normiert und analog zum TLI entspricht ein Wert von 1 einem perfekten Fit. 1003 Werte größer als 0,9 werden in der Regel als Grenzwerte für eine akzeptable Modellanpassung angesehen. 1004 4.3.3
Beschreibung der Kriterien zur Überprüfung der Forschungshypothesen
Grundsätzlich erfolgt die Überprüfung der Hypothesen auf Basis der Höhe, des Vorzeichens und der Signifikanz der im Strukturgleichungsmodell geschätzten Pfadkoeffizienten. Für das Vorliegen einer starken Beziehung nennt beispielsweise Chin einen Schwellenwert von 0,2 für den Pfadkoeffizienten. 1005 Die zugehörige Signifikanz dieser Pfadkoeffizienten wird von AMOS berechnet. Bei den Signifikanzen orientiert sich diese Untersuchung an den in der Literatur üblichen Größenordnungen. So werden die Signifikanzniveaus für 0,01, 0,05, 0,1 und 0,15 ausgewiesen. 1006 Da es in der Literatur mitunter als kritisch angesehen wird, den Wert einer empirischen Untersuchung ausschließlich von strikt festgelegten Signifikanzniveaus abhängig zu machen 1007 , wird zusätzlich eine Analyse der erreichten Teststärke („statistical power“) herangezogen. 1008 Dabei werden die spezifischen Untersuchungsbedingungen in die Betrachtung einbezogen, um ein gerechtfertigtes Signifikanzniveau zu bestimmen. 1009 Eine solche Untersuchung kombiniert das Konzept der Signifikanz mit dem der Relevanz, indem sie einen Zusammenhang zwischen Signifikanz, Stichprobengröße, Teststärke und Effektgröße herstellt. 1010 Die Relevanz wird dabei über die Effektgröße statistisch erfasst. Die Effektgröße bestimmt, für welche Parameterunterschiede in statistischen Tests von relevanten Unterschieden ausgegangen werden darf. In der Managementforschung wird von einer niedrigen (0,1) bis mittleren (0,25) Effektgröße ausgegangen. 1011 Daher wird für die vorliegende Untersuchung der Mittelwert dieses Korridors (0,17) gewählt. Das Signifikanzniveau, häufig auch als oder p bezeichnet, gibt die Wahrscheinlichkeit an, mit der eine zutreffende Nullhypothese fälschlicherweise zurückgewiesen wird. 1012 Dieser Fehlertyp wird auch als Fehler
1000
Vgl. Bagozzi/Baumgartner (1994), S. 400. Der CFI gilt neben dem RMSEA als das am häufigsten angegebene Gütemaß in der jüngeren Forschungsliteratur (vgl. Tabachnick/Fidell (2007), S. 720). Vgl. Tabachnick/Fidell (2007), S. 717. 1002 Vgl. Tanaka (1993), S. 27f. 1003 Vgl. Bagozzi/Baumgartner (1994), S. 400; Byrne (2001), S. 83; Arbuckle (2007), S. 600. 1004 Vgl. Sharma et al. (2005), S. 936; Homburg/Klarmann (2006), S. 737. 1005 Vgl. Chin (1998a), S. XIII. 1006 Signifikanzen kleiner als 0,01 werden dabei mit „****“ gekennzeichnet. Für p 0,05 wird das Symbol „***“ verwendet, für p 0,1 „**“ und für p 0,15 „*“. 1007 Vgl. zur Diskussion einer ausschließlichen Betrachtung von Signifikanzniveaus Nickerson (2000). 1008 Vgl. u.a. Kaplan (1995). 1009 Vgl. Kaplan (1995), S. 117. 1010 Vgl. Cohen (1992), S. 156; Cashen/Geiger (2004), S. 154. 1011 Vgl. Baroudi/Orlikowski (1989), S. 91. 1012 Vgl. u.a. Nickerson (2000), S. 243. 1001
166
erster Ordnung oder Fehlertyp I bezeichnet. Die Teststärke (1-) gibt hingegen an, mit welcher Wahrscheinlichkeit eine nichtzutreffende Nullhypothese fälschlicherweise angenommen wird (Fehler zweiter Ordnung oder Fehlertyp II). 1013 Damit mittels Teststärkenanalyse auf ein geeignetes Signifikanzniveau geschlossen werden kann, muss neben der Annahme in Bezug auf die Effektgröße noch das Verhältnis von und festgelegt werden. Dieses wird im Rahmen dieser Untersuchung zu eins gesetzt, da es sich um eine Untersuchung mit weitestgehend explorativem Charakter handelt. Daher ist davon auszugehen, dass ein Fehler erster oder zweiter Ordnung mit ähnlichen negativen Konsequenzen verbunden wäre. 1014 In Abhängigkeit der Stichprobengröße lässt sich für die jeweilige Analyse auf diese Weise ein angemessenes Kompromiss-Signifikanzniveau bestimmen. 1015 Die Berechnung erfolgt dabei mit Hilfe des Softwareprogramms G*Power 3. 1016 4.3.4
Vorgehen bei der Analyse der Moderationswirkung des Innovationsgrades
Bislang spielt die Analyse von Kausalmodellen mit Moderationswirkungen oder Interaktionseffekten in der betriebswirtschaftlichen Forschung „nahezu keine Rolle.“ 1017 Nach Auffassung einer zunehmenden Anzahl von Autoren ist diese Vernachlässigung jedoch in Anbetracht der Komplexität betriebswirtschaftlicher Vorgänge nicht mehr angemessen. 1018 Als Moderatoren werden allgemein solche Größen bezeichnet, die die Richtung oder Stärke einer Beziehung zwischen einer unabhängigen und einer abhängigen Variable verändern. 1019 Im Rahmen dieser Untersuchung ist der Einfluss des Innovationsgrades auf die Vorteilhaftigkeit von Effectuation und Causation von besonderem Interesse. Zwei grundsätzliche Verfahren können genutzt werden, um Moderationseffekte zu untersuchen, nämlich die Interaktionstermmethode und der Gruppenvergleich. 4.3.4.1 Auswahl einer geeigneten Methode zur Analyse der moderierenden Effekte Bei der Interaktionstermmethode wird ein neuer Faktor, nämlich das Produkt aus Moderator und exogener Variable zum Modell hinzugefügt. Dieser sogenannte Interaktionsterm wirkt dann zusätzlich zusammen mit dem Moderator und den exogenen Variablen auf die abhängige Größe. Ein Einfluss des Moderators auf die Beziehung zwischen exogener und endogener Größe lässt sich nun anhand der zusätzlich berechneten Pfadkoeffizienten von Moderator und Interaktionsterm ableiten. 1020 Diese Methode ist jedoch mit ein paar Nachteilen verbunden. So
1013
Vgl. Kaplan (1995), S. 101; Nickerson (2000), S. 243. Vgl. Baroudi/Orlikowski (1989), S. 91f. 1015 Die innerhalb der auf diese Weise berechneten Signifikanzniveaus liegenden Parameter werden in der vorliegenden Untersuchung mit „(*)“ gekennzeichnet. 1016 Diese Software wurde in der Version 3.0.10 verwendet. Sie ist frei im Internet verfügbar und kann unter folgender Adresse heruntergeladen werden (abgerufen am 13.08.2008): http://www.psycho.uni-duesseldorf.de/abteilungen/aap/gpower3/download-and-register. Eine detaillierte Einführung zu dieser Software findet sich bei Faul et al. (2007). 1017 Huber et al. (2006), S. 697. 1018 Vgl. Huber et al. (2006), S. 6 und die dort angegebenen Quellen. 1019 Vgl. Baron/Kenny (1986), S. 1174. 1020 Vgl. Chin et al. (2003), S. 196ff. 1014
167
kann die Annahme der multivariaten Normalverteilung der manifesten Variablen bei Vorliegen eines Interaktionsterms nicht erfüllt sein.1021 Darüber hinaus werden linear verlaufende Moderationseffekte benötigt, die im Rahmen dieser Untersuchung nicht gegeben sein müssen. 1022 Insgesamt wird daher den Empfehlungen von Rigdon et al. gefolgt und das Verfahren des Gruppenvergleichs genutzt: „A careful review suggests that the multisample approach is still the most useful procedure for modelling latent variable interaction effects […].“ 1023 Beim Gruppenvergleich muss zunächst das gesamte Sample in zwei oder mehr Gruppen unterteilt werden. Die Einteilung in Gruppen findet dabei entlang des Medians der Konstruktwerte der Moderatorvariablen statt. 1024 Anschließend werden die Strukturgleichungsmodelle für die verschiedenen Gruppen geschätzt. Dabei wird sichergestellt, dass die Schätzung auf Basis identischer Messmodelle in den untersuchten Gruppen erfolgt. Dies kann durch eine entsprechend einheitliche Bezeichnung der Regressionskoeffizienten der Pfade zwischen den manifesten und latenten Variablen in AMOS gewährleistet werden. 1025 AMOS bietet an dieser Stelle einen erheblichen Vorteil bspw. im Vergleich zu PLS, wo eine solche Fixierung von Parametern über Gruppen hinweg nicht möglich ist. Dies ist problematisch, da sich dann die inhaltliche Bedeutung der Faktoren zwischen den Gruppen ändern kann und somit zu Verzerrungen bei der Ergebnisinterpretation führt. Zur Untersuchung von Unterschieden zwischen den Gruppen werden die Pfadkoeffizienten der Gruppen miteinander verglichen und mittels t-Tests auf signifikante Unterschiede analysiert. Um dies durchzuführen werden die t-Werte mit folgender Formel berechnet: 1026 t'
ª « «¬
Pfadkoeffizient1 Pfadkoeffizient 2 m 1 2 * SE 2 n 1 2 SE 2 º» ª 1 1 º » « 2 m n 2 1 m n 2 »¼ ¬ m n ¼
In dieser Formel repräsentieren m und n die Stichprobengrößen der Gruppen 1 und 2. SEi bezeichnet den jeweiligen Standardfehler der Pfadkoeffizienten. Die Verwendung dieses Tests setzt gleiche Indikatorgewichte voraus, was durch das oben beschriebene Vorgehen in AMOS sichergestellt wird. Wenn zwischen den Gruppen signifikante Unterschiede vorliegen, lässt dies auf das Vorliegen eines moderierenden Effekts schließen. Im folgenden Abschnitt wird nun auf Basis des konzeptionellen Bezugsrahmens die Bildung der Gruppen beschrieben, die im Rahmen dieser Untersuchung analysiert werden.
1021
Vgl. Baltes-Götz (2006), S. 6. Vgl. Heinemann (2006), S. 254. Rigdon et al. (1998), S. 2. 1024 Vgl. u.a. das Vorgehen bei Avolio et al. (1999), S. 222. 1025 Vgl. zum Vorgehen Arbuckle (2007), S. 197ff. 1026 Vgl. Keil et al. (2000), S. 315. 1022 1023
168
4.3.4.2 Theoriegeleitete Bildung von Teilgruppen Die Untersuchung von Effectuation und Causation im Kontext von F&E-Projekten erfordert wie in Kapitel 3 hypothetisiert die Berücksichtigung des Innovationsgrades. Zwei relevante Dimensionen des Innovationsgrades, nämlich der Technologie- und der Marktinnovationsgrad wurden eingeführt. 1027 Entlang dieser beiden Dimensionen soll nun die Unterscheidung der Gruppen erfolgen. 1028 Diese Einteilung wird somit unmittelbar aus den konzeptionellen Grundlagen von Sarasvathy abgeleitet. 1029 Technologie- und Marktinnovationsgrad können unabhängig voneinander jeweils hoch oder gering ausgeprägt sein. Als Dichotomisierungskriterium wird der Median genutzt. Das bedeutet, dass bei einer Gesamtsamplegröße von N = 400 insgesamt jeweils 200 auswertbare Fragebögen mit einem geringen und einem hohen Technologie- bzw. Marktinnovationsgrad betrachtet werden. 1030 Aus der Kombination beider Kriterien ergibt sich die in Abbildung 21 gezeigte jeweilige Gruppengröße.
Hoch Teilgruppe II N = 64
Teilgruppe I N = 136
Teilgruppe III N = 136
Teilgruppe IV N = 64
Technologieinnovationsgrad
Gering Gering
Hoch Marktinnovationsgrad
Abbildung 21: Median-dichotomisierte Untersuchungsteilgruppen Quelle: Eigene Darstellung
1027
Vgl. Abschnitt 3.2 auf S. 63 und Abetti (2000), S. 215; Garcia/Calantone (2002), S. 110. Vgl. dazu bspw. auch die Unterscheidung von Projekten in der Fallstudie von Abetti (2000), S. 215. 1029 Vgl. zu dieser Ableitung insbesondere Abschnitt 3.2.1 auf S. 63ff. 1030 Die Dichotomisierung erfolgt auf Basis der Konstruktwerte des Markt- und Technologieinnovationsgrades. Für Konstruktwerte unterhalb des Medians werden der Markt- bzw. Technologieinnovationsgrad als gering ausgeprägt angenommen und für Werte oberhalb des Medians entsprechend als hoch ausgeprägt. Die Indikatoren beider Konstrukte wurden mittels einer 6-Punkte-Skala gemessen (1: sehr geringer Innovationsgrad bis 6: sehr hoher Innovationsgrad). Für den Marktinnovationsgrad liegt der Median bei 3,2 und für den Technologieinnovationsgrad bei 2,5. 1028
169
Im Fokus der Untersuchung stehen die beiden Extremausprägungen, also Quadrant I mit jeweils einer hohen Ausprägung in Bezug auf Technologie- und Marktinnovationsgrad und Quadrant III, also Projekte mit einer entsprechend niedrigen Ausprägung der beiden Innovationsgraddimensionen.
170
5 Untersuchungsergebnisse In diesem Abschnitt werden zunächst die Ergebnisse der quantitativen Voruntersuchung zur Skalenentwicklung vorgestellt (Abschnitt 5.1). Ziel war es, die über den in Abschnitt 4.1.2 beschriebenen qualitativen Prozess entwickelten Messmodelle durch ein erstes großzahliges Sample zu überprüfen. Anschließend werden in diesem Kapitel (Abschnitt 5.2) die Ergebnisse der Hauptuntersuchung dargestellt. Dazu wird die zweite großzahlige Befragung ausgewertet. 5.1
Ergebnisse der Voruntersuchung zur Skalenentwicklung
Bevor auf die eigentliche Klärung der zu Beginn dieser Arbeit gestellten Forschungsfragen detailliert eingegangen wird, besteht zunächst die Aufgabe darin, die Skalenentwicklung abzuschließen. Der letzte Schritt in dem hier angewendeten Vorgehen zur Skalenentwicklung besteht in einer großzahligen empirischen Überprüfung der Messmodelle. Dafür erfolgte eine Auswertung auf Basis der ersten Datenerhebung 1031 mit insgesamt 123 vollständig auswertbaren Fragebögen. Zur quantitativen Überprüfung der Skalen wurden zunächst sukzessiv alle fünf Faktoren separat analysiert. 1032 Dabei wurde als erstes für jeden Faktor das Cronbachsche Alpha ermittelt. In jedem Fall war der Reliabilitätswert deutlich über dem häufig genannten Grenzwert von 0,7 1033 . Eine Elimination von Items war daher in diesem Prozessschritt für keinen Faktor erforderlich (vgl. Tabelle 24).
1031
Vgl. zu einer detaillierten Beschreibung der Vorgehensweise bei der Datenerhebung Abschnitt 4.2 auf S. 122ff. 1032 Vgl. für das folgende Vorgehen Churchill (1979), S. 68 und Homburg/Giering (1996), S. 12. 1033 Dieses Vorgehen orientiert sich an den Empfehlungen von Churchill (1979), S. 68 und Homburg/Giering (1996), S. 8f.
171
Faktor
Item
Indikatorladung
Itemto-total Korrelation
Alpha CronVarianzModifibei bachs erklärung durch ziertes ItemAlpha ersten Faktor CronElimi(exploratorische bachs nierung Faktorenanalyse) Alpha 1034 F 1: BIRD1 ,769 ,739 ,887 ,908 65,4% ,908 BirdBIRD2 ,611 ,517 ,913 in-hand BIRD3 ,831 ,782 ,883 BIRD4 ,807 ,774 ,884 BIRD5 ,894 ,862 ,874 BIRD6 ,854 ,810 ,881 BIRD7 ,552 ,584 ,907 F 2: AFFO1 ,695 ,592 ,756 ,837 55,9% ,838 AfforAFFO2 ,696 ,643 ,747 dable AFFO3 ,743 ,662 ,742 loss AFFO4 ,518 ,431 ,785 AFFO5** ,487 ,776 AFFO6* ,175 ,837 AFFO7 ,888 ,787 ,723 F 3: CRAZ1 ,860 ,677 ,794 ,840 60,0% ,843 Crazy CRAZ2*** ,476 ,827 quilt CRAZ3*** ,653 ,798 CRAZ4 ,882 ,719 ,789 CRAZ5 ,669 ,707 ,792 CRAZ6* ,266 ,862 CRAZ7 ,595 ,650 ,799 F 4: LEMO1*** ,513 ,868 ,869 53,1% ,868 LemoLEMO2 ,614 ,583 ,860 nade LEMO3 ,715 ,693 ,847 LEMO4 ,523 ,501 ,868 LEMO5 ,650 ,632 ,855 LEMO6 ,936 ,817 ,832 LEMO7 ,858 ,761 ,840 LEMO8*** ,508 ,867 F 5: PILO1 ,847 ,540 ,799 ,777 57,8% ,811 PilotPILO2 ,502 ,572 ,792 in-thePILO3*** ,621 ,776 plane PILO4 ,726 ,607 ,780 PILO5 ,778 ,695 ,753 * Elimination des Indikators nach explorativer Faktorenanalyse (auf Faktorenlevel) ** Elimination des Indikators nach explorativer Faktorenanalyse (unter Einbezug aller Indikatoren) *** Elimination nach konfirmatorischer Faktorenanalyse und Gesamtoptimierung
DEV
,591
,515
,580
,533
,525
Tabelle 24: Übersicht der Gütemaße bei der Skalenentwicklung (N = 123) 1035 Quelle: Eigene Darstellung
Anschließend wurde mit Hilfe der explorativen Faktorenanalyse kontrolliert, ob die einem Faktor zugeordneten Items wirklich nur auf diesen einen Faktor laden. Nur dann ist gewähr-
1034
Häufig wird das modifizierte Cronbachs Alpha auch als „composite reliability“ oder Faktorreliabilität bezeichnet. Es unterscheidet sich vom Cronbachs Alpha dadurch, dass keine gleichgewichteten Indikatoren angenommen werden. 1035 Die Maße Item-to-total Korrelation und Alpha bei Item Eliminierung sind jeweils vor der Eliminierung eines Items angegeben. Alle anderen Maße sind nach der vollständigen Bereinigung von Items neu berechnet worden und entsprechend abgebildet, um die vollständigen Validitäts- und Reliabilitätsinformationen verfügbar zu haben.
172
leistet, dass ein sinnvolles Maß an konvergenter Validität vorliegt. 1036 Unter Konvergenzvalidität versteht man den Grad, in dem die Resultate mehrerer Messinstrumente (hier Indikatoren), die vorgeben denselben Faktor zu messen, übereinstimmen. 1037 Zunächst wurde dafür jeder Faktor mit seinen zugehörigen Items auf Anwendbarkeit der Faktorenanalyse untersucht. Dafür wurde das Kaiser-Mayer-Olkin-Maß (KMO) herangezogen. Dieses Maß liegt in allen Fällen über 0,8 1038 , so dass eine gute bis fabelhafte Anwendbarkeit der explorativen Faktorenanalyse gegeben ist.1039 Zudem wurde gefordert, dass jeder hypothetisierte Faktor durch einen Faktor abgebildet werden kann, der mindestens 50% der Varianz der zugehörigen Indikatoren erklärt. Aus diesem Grund musste in diesem Schritt ein Indikator (Item AFFO6) des zweiten Faktors eliminiert werden. Das Kriterium für eine Elimination war hierbei die Faktorladung 1040 , die mit 0,25 deutlich kleiner als der häufig genannte Grenzwert von 0,4 ist 1041 , so dass eine zu geringe Relation zwischen Faktor und beobachtetem Item konstatiert werden muss. 1042 Gleiches gilt für einen Indikator (CRAZ6) des dritten Faktors. Auch inhaltlich kann die Elimination dieser beiden Items nachvollzogen werden. AFFO6 beinhaltet Aspekte („Es fand keine systematische Analyse externer Einflussgrößen statt; eher wurde intuitiv entschieden“), die den Kern des Affordable loss-Prinzips, also die Orientierung an möglichen Verlusten oder potenziellen zukünftigen Gewinnen, nicht direkt widergeben. Ähnliches gilt für CRAZ6. Beim Crazy quilt-Konstrukt kommt es darauf an, wie mit Risiken vor Aufnahme des Projektes umgegangen wird. Ein Vorgehen nach Effectuation ist gekennzeichnet durch die Interaktion mit anderen. Um erfolgreich mit anderen zu kooperieren und somit das Risiko zu reduzieren, muss keine fixierte „Zusage“ oder ein Vertrag vorliegen, wie dies durch CRAZ6 suggeriert wird. Entsprechend ist auch die Elimination von diesem Indikator inhaltlich gerechtfertigt. Alle anderen Faktoren können mit ihren zugehörigen Indikatoren auch nach der explorativen Faktorenanalyse unverändert beibehalten werden. Anschließend wurden die noch verbliebenen Items eines Faktors mit Hilfe der konfirmatorischen Faktorenanalyse untersucht. Auch hierbei ging es wieder darum, im Falle einer Verletzung von Gütekriterien, Indikatoren zu entfernen. Als Gütekriterien dienten die Indikatorladung, die Faktorreliabilität 1043 und die durchschnittlich erfasste Varianz eines Faktors. Als Anspruchsniveau wurde bei der Indikatorladung 0,4, bei der Faktorreliabilität 0,6 und bei der durchschnittlich erfassten Varianz 0,5 gefordert. 1044 Diese Anspruchsniveaus werden alle deutlich übertroffen, so dass in diesem Schritt kein weiterer Indikator ausgeschlossen
1036
Vgl. hierzu auch Robinson et al. (1991); Bearden et al. (1993); Homburg/Giering (1996), S. 12. Vgl. Homburg/Giering (1996), S. 7. Einzige Ausnahme ist der Faktor 5, wo das KMO-Maß mit 0,77 knapp unter 0,8 liegt. Dennoch ist eine Anwendbarkeit der Faktorenanalyse gegeben. Vgl. Brosius (2004), S. 782. 1039 Vgl. Brosius (2004), S. 782. 1040 Vgl. Homburg/Giering (1996), S. 12. 1041 Vgl. zum Grenzwert von 0,4 im Rahmen einer Skalenentwicklung u.a. Homburg/Giering (1996), S. 12. 1042 Vgl. Brosius (2004), S. 787. 1043 Diese wurde gemessen durch das modifizierte Cronbachs Alpha (composite reliability). 1044 Vgl. Homburg/Giering (1996), S. 13. 1037 1038
173
werden muss. Als Ergebnis dieser Analysen hat jeder Faktor eine unter den Gesichtspunkten der Reliabilität und Konvergenzvalidität bereinigte Indikatormenge. Als nächstes wurde die Diskriminanzvalidität untersucht. 1045 Wie aus Tabelle 25 hervorgeht, ist Diskriminanzvalidität auf Indikatorebene gegeben, da jeder Indikator stärker mit dem Faktor, den er messen soll, assoziiert ist, als mit allen anderen Faktoren. Das Kriterium einer Korrelation stärker als 0,4 mit einem der Faktoren wird lediglich durch die bereits zuvor zur Elimination identifizierten zwei Items AFFO6 und CRAZ6 nicht erfüllt.
Faktor F 1: F 2: AfforF 3: F 4: F 5: Pilot-inItem Bird-in-hand dable loss Crazy quilt Lemonade the-plane BIRD1 0,150 0,044 0,148 0,217 0,757 BIRD2 0,111 0,033 0,109 0,160 0,559 BIRD3 0,162 0,048 0,159 0,233 0,814 BIRD4 0,156 0,046 0,153 0,225 0,786 BIRD5 0,182 0,054 0,178 0,262 0,914 BIRD6 0,175 0,052 0,171 0,252 0,879 BIRD7 0,113 0,033 0,110 0,162 0,566 AFFO1 0,139 0,151 -0,049 0,225 0,698 AFFO2 0,141 0,154 -0,049 0,229 0,709 AFFO3 0,148 0,161 -0,052 0,240 0,744 AFFO4 0,105 0,115 -0,037 0,171 0,531 AFFO5 0,106 0,115 -0,037 0,171 0,531 AFFO6* 0,044 0,223 0,048 -0,016 0,072 AFFO7 0,176 0,192 -0,062 0,286 0,886 CRAZ1 0,042 0,156 0,148 0,279 0,721 CRAZ2 0,035 0,130 0,123 0,231 0,598 CRAZ3 0,043 0,159 0,151 0,284 0,735 CRAZ4 0,049 0,181 0,171 0,322 0,833 CRAZ5 0,046 0,170 0,162 0,304 0,786 CRAZ6* 0,015 0,056 0,257 0,053 0,099 CRAZ7 0,038 0,139 0,132 0,248 0,641 LEMO1 0,101 -0,036 0,107 0,167 0,520 LEMO2 0,124 -0,044 0,131 0,204 0,636 LEMO3 0,147 -0,052 0,155 0,242 0,753 LEMO4 0,104 -0,037 0,110 0,172 0,535 LEMO5 0,140 -0,050 0,147 0,230 0,716 LEMO6 0,174 -0,062 0,183 0,286 0,891 LEMO7 0,162 -0,058 0,171 0,268 0,833 LEMO8 0,102 -0,037 0,108 0,168 0,523 PILO1 0,203 0,228 0,274 0,228 0,708 PILO2 0,178 0,200 0,239 0,199 0,619 PILO3 0,182 0,204 0,245 0,204 0,633 PILO4 0,192 0,216 0,260 0,216 0,672 PILO5 0,234 0,263 0,315 0,262 0,815 * Zu eliminieren Tabelle 25: Diskriminanzvalidität auf Indikatorebene – Korrelation zwischen Faktoren und reflektiven Indikatoren Quelle: Eigene Darstellung
1045
Vgl. zur Beschreibung der Vorgehensweise auch Abschnitt 4.3.2.1 auf S. 154ff.
174
Zusätzlich wird die Diskriminanzvalidität auf Faktorenebene untersucht. Dafür wird zunächst ein ²-Differenztest durchgeführt. 1046 Die Untersuchung hat gezeigt, dass sich in allen Fällen die Anpassungsgüte des Modells signifikant verschlechtert, wenn die Korrelation zwischen zwei Faktoren auf Eins fixiert wird. 1047 Entsprechend kann Diskriminanzvalidität vermutet werden. Zusätzlich wurde die Diskriminanzvalidität mit Hilfe des Fornell-Larcker-Kriteriums untersucht. Auch dieses Kriterium war in allen Fällen erfüllt, so dass insgesamt von Diskriminanzvalidität, also einer ausreichenden Unterschiedlichkeit aller fünf betrachteten Faktoren ausgegangen werden kann (vgl. Tabelle 26).
²-Differenztest F 1: Bird-in-hand F 1: Bird-in-hand F 2: Affordable loss F 3: Crazy quilt F 4: Lemonade F 5: Pilot-in-the-plane
F 2: Affordable loss
F 3: Crazy quilt
F 4: Lemonade
F 5: Pilot-inthe-plane
279,30 323,05
252,22
397,69
336,32
314,82
174,49
177,22
131,11
F 2: Affordable loss 0,515
F 3: Crazy quilt 0,580
181,03
Fornell-Larcker-Kriterium
DEV F 1: Bird-in-hand F 2: Affordable loss F 3: Crazy quilt F 4: Lemonade F 5: Pilot-inthe-plane
F 1: Bird-in-hand 0,591
0,591
F 4: Lemonade 0,533
F 5: Pilot-inthe-plane 0,525
Quadrierte Korrelationen der Faktoren
0,515
0,019
0,580
0,003
0,040
0,533
0,043
0,008
0,044
0,525
0,070
0,091
0,160
0,104
Tabelle 26: Diskriminanzvalidität auf Faktorenebene – ²-Differenztest und Fornell-Larcker-Kriterium Quelle: Eigene Darstellung
Anschließend erfolgte eine Untersuchung der Dimensionalität. Ziel dabei war es zu prüfen, ob Effectuation als eine Dimension mit den fünf zugehörigen Faktoren angesehen werden kann oder ob ein mehrdimensionales Konstrukt vorliegt. Dies wurde über eine explorative Fakto-
1046
Vgl. zu diesem Test auch Jöreskog (1977), S. 273; Jöreskog/Sörbom (1982), S. 408; Homburg/Dobratz (1992), S. 123f.; Homburg/Giering (1996), S. 11. 1047 Vgl. für eine detaillierte Beschreibung der Vorgehensweise Abschnitt 4.3.2.1 auf S. 154ff. und Homburg/Giering (1996), S. 11.
175
renanalyse auf Ebene der Faktoren durchgeführt, wobei deren Werte als Mittelwerte der zugehörigen Indikatoren berechnet wurden. 1048 Diese Analyse hat gezeigt, dass es keine, auch inhaltlich begründbare Unterscheidung mehrerer Dimensionen gibt, die wiederum Effectuation als übergeordnetes Konstrukt bilden. Daher wird im Folgenden davon ausgegangen, dass es sich um ein eindimensionales Konstrukt handelt. Als nächstes wurde die Gesamtheit aller verbliebenen Indikatoren betrachtet. In dieser Betrachtungsebene wurde erneut eine explorative und eine konfirmatorische Faktorenanalyse durchgeführt. Im Rahmen der explorativen Faktorenanalyse bestand das Ziel darin, zu überprüfen, ob die unterstellten fünf Faktoren „wiedererkannt“ 1049 werden. Die explorative Faktorenanalyse zeigt, dass ein Indikator des zweiten Faktors eliminiert werden muss (AFFO5). Auch diese Elimination wurde erst nach einer inhaltlichen Prüfung vollzogen. So wird bei AFFO5 der Vergleich unterschiedlicher F&E-Optionen betont. Dies kann vom Befragten in so fern falsch aufgefasst werden, als dass er die Auswahl zwischen Optionen als Kern des Prinzips auffasst. Dies ist jedoch nicht der Fall. Entsprechend wird durch die Elimination des Items das Gesamtkonstrukt inhaltlich verbessert. Die fünf Faktoren, die für die verbliebenen 31 Indikatoren extrahiert werden, erklären 62,3% der Gesamtvarianz aller Items. Auch die anschließende konfirmatorische Faktorenanalyse kommt bezüglich der Gütekriterien zu guten Ergebnissen. Hierbei kamen Kriterien zum Einsatz, um die Gesamtanpassung des Modells zu überprüfen. 1050 Alle relevanten Kriterien liegen dabei innerhalb der in der Literatur geforderten Anspruchsniveaus. Obwohl somit von einer guten Anpassung des Messmodells an die Daten ausgegangen werden kann, wurden zusätzlich Untersuchungen angeschlossen, um mögliche Fehlspezifikationen zu identifizieren und Verbesserungen am Modell zu erzielen. Dafür wurden die Residuen der Kovarianzmatrix und die Modifikationsindizes berechnet. Da kovarianzbasierte Strukturgleichungsmodelle versuchen, einen bestmöglichen Fit der Daten an das hypothetisierte Modell zu erzielen, wird jegliche Abweichung in Form von Residuen erfasst. Die Kovarianzmatrix der Residuen kann entsprechend Hinweise auf mögliche Fehlspezifikationen im Modell geben. 1051 In der Regel werden dafür die standardisierten Residuen 1052 ausgewertet. Residuen in der Kovarianzmatrix, die betragsmäßig größer als 2,58 sind, gelten dabei als groß und müssen hinterfragt werden. 1053 Drei Indikatoren sind durch diese Analyse als auffällig identifiziert worden (CRAZ2, LEMO1, LEMO8). Da dieses Vorgehen erneut nicht als Ersatz für eine detaillierte inhaltliche Auseinandersetzung vor einer möglichen Elimination von Indikatoren gelten darf 1054 , wurde zunächst gründlich geprüft, ob
1048
Vgl. Homburg/Giering (1996), S. 17; Homburg (2007), S. 42f. Homburg/Giering (1996), S. 13. 1050 Vgl. Tabelle 34 auf S. 187 zu einer Darstellung der globalen Gütekriterien, die sich auf das gesamte Sample der Vor- und Hauptuntersuchung beziehen. 1051 Vgl. Byrne (2001), S. 88. 1052 „Standardized residuals are fitted residuals divided by their asymptotically (large sample) standard errors.“ (Byrne (2001), S. 89). 1053 Vgl. Byrne (2001), S. 89. 1054 Vgl. dazu auch Byrne (2001), S. 88 und die dort genannten Quellen. 1049
176
eine Elimination inhaltlich gerechtfertigt ist und die Aussage des betroffenen Faktors dadurch nicht beeinträchtigt wird. CRAZ2 fokussiert auf die Durchführung von „Markt- und Wettbewerbsanalysen“. Diese stellen eine Möglichkeit dar, um potenzielle Risiken zu identifizieren. Die nicht-Durchführung solcher Analysen lässt allerdings nicht automatisch auf ein Vorgehen nach Effectuation schließen, wie dies in CRAZ2 impliziert wird. Das Fehlen von Markt- und Wettbewerbsanalysen stellt nämlich noch keine Maßnahme zur aktiven Reduzierung von Risiken dar. Entsprechend ist es sinnvoll, den Indikator CRAZ2 aus dem Messmodell Crazy quilt herauszunehmen. Für LEMO1 und LEMO8 ist eine Elimination ebenfalls gerechtfertigt. Inbesondere für LEMO1 gilt, dass kein neuer inhaltlicher Aspekt im Vergleich zu den anderen Items genannt wird. Allerdings besteht bei diesem Item die Gefahr, dass der Befragte einzelne Ausdrücke übermäßig bewertet (z.B. „jederzeit“ oder „ggf. wurde das Projektziel angepasst“). Da aus inhaltlicher Sicht eine Elimination unkritisch ist, wurden die beiden Indikatoren in diesem Schritt zusätzlich aus dem Modell entfernt. Dadurch konnte insgesamt die Anpassungsgüte weiter verbessert werden. Zusätzlich wurden die zugehörigen Modifikationsindizes ausgewertet. Modifikationsindizes dienen grundsätzlich zur Identifikation fälschlich festgesetzter Beziehungen 1055 im Modell und können somit ein weiteres Optimierungspotenzial des Modells aufzeigen. Modifikationsindizes zeigen dabei an, um wie viel der ²-Wert des Modells sinkt, wenn eine bestimmte Restriktion zwischen zwei Indikatoren oder Faktoren, nämlich eine Fixierung des zugehörigen Kovarianz- oder Regressionsparameters auf 0, aufgehoben wird. 1056 Eine Analyse der Modifikationsindizes zeigt, dass das Modell durch eine Elimination der Indikatoren CRAZ3 und PILO3 weiter verbessert werden kann. Eine inhaltliche Prüfung ergibt zusätzlich, dass beide Items aus dem reflektiven Messmodell eliminierbar sind. So werden einerseits die Inhalte der Items durch die übrigen Indikatoren der zugehörigen Messmodelle ausreichend abgedeckt. Andererseits können einzelne Ausdrücke in den beiden Items (z.B. „aktiv angesprochen“) zu Verwirrungen beim Befragten führen, so dass eine Elimination insgesamt die Güte der Konstrukte verbessert. Insgesamt zeigen die Ergebnisse der Voruntersuchung zur Skalenentwicklung, die zusammenfassend in Tabelle 27 dargestellt sind, dass durch den systematischen qualitativen und quantitativen Prozess robuste, reliable und valide Skalen entwickelt werden konnten. Diese Skalen können im Folgenden genutzt werden, um die weitergehenden Forschungsfragen zu untersuchen. Grundlegende Änderungen an einzelnen Skalen sind nach der quantitativen Voruntersuchung im Vergleich zur qualitativen Voruntersuchung nicht erforderlich. Deutlich wurde allerdings, dass einzelne Indikatoren eliminiert werden müssen: 1057
1055
Dabei geht es um Beziehungen, die im Modell nicht eingezeichnet wurden, da AMOS fehlende Beziehungen dahingehend interpretiert, dass kein Zusammenhang zwischen den beiden Größen besteht. 1056 Vgl. Byrne (2001), S. 90f. 1057 Das bedeutet, dass zur Untersuchung der weiteren Forschungsfragen auch die ausgefüllten Fragebögen aus der Voruntersuchung zur Skalenentwicklung genutzt werden können.
177
178
x
Die explorative Faktorenanalyse auf Ebene jedes einzelnen Faktors führte zur Elimination von AFFO6 und CRAZ6.
x
Eine explorative Faktorenanalyse unter Einbezug aller Indikatoren hat zur Elimination von AFFO5 geführt.
x
Zusätzlich wurden im Rahmen einer konfirmatorischen Faktorenanalyse und einer angeschlossenen Optimierung der gesamten Messmodelle weitere fünf Indikatoren eliminiert (CRAZ2, CRAZ3, LEMO1, LEMO8, PILO3).
Art der Güteprüfung
Analyseschritte
Anspruchsniveau
Ergebnisse
Cronbachs Alpha
0,7
x Keine Item-Elimination
Explorative Faktorenanalyse je Faktor (Unidimensionale Faktorenladung)
Indikatoren eines Faktors laden (nur) auf einen Faktor: Varianzerklärung des einen Faktors 50% (ggf. Elimination der Items mit Faktorladung 0,4)
x Elimination von zwei Items (AFFO6, CRAZ6) wg. zu geringer Faktorladung (kleiner 0,4)
Konfirmatorische Faktorenanalyse
Indikatorreliabilität 0,4 Faktorreliabilität 0,6 DEV 0,5
x Keine Item-Elimination
Diskriminanzvalidität auf Indikatorenlevel
Assoziation der Items eines Faktors mit diesem Faktor stärker als mit allen anderen Faktoren
x Lediglich die zuvor eliminierten AFFO6 und CRAZ6 erfüllen Kriterium nicht
Diskriminanzvalidität auf Faktorenlevel: ²Differenztest
Fixierung des Regressionskoeffizienten zwischen zwei Faktoren auf 1: ²-Differenz 3,841
x Diskriminanz auf Faktorenebene gegeben
Diskriminanzvalidität auf Faktorenlevel: FornellLarcker-Test
DEV quadrierte Korrelation zwischen zwei Faktoren
x Diskriminanz auf Faktorenebene gegeben
Dimensionalität
Explorative Faktorenanalyse auf Ebene der Faktoren (Faktorwerte als Mittelwerte der zugehörigen Indikatoren)
Anzahl der extrahierten Faktoren entspricht Anzahl der erforderlichen Dimensionen
x Keine Dimensionsunterscheidung erforderlich
Nomologische Validität und globale Anpassungsgüte
Explorative Faktorenanalyse unter Einbezug aller Indikatoren
„Wiedererkennung“ der Faktoren; Faktoren erklären mehr als 50% der Gesamtvarianz
x Elimination eines Items (AFFO5)
Konfirmatorische Faktorenanalyse und Berechnung globaler Gütemaße
Überprüfung der Gesamtanpassung des (Mess-)Modells: Ermittlung von globalen Gütekriterien (insbesondere: ²/df 3; (S)RMR 0,08; TLI 0,9; CFI 0,9; RMSEA 0,08)
x Gute Anpassung des Messmodells an die Daten
Residuen der Kovarianzmatrix
Standardized Residual Covariances 2,58
x Zusätzliche inhaltliche Prüfung führt zur Elimination von drei Items (CRAZ2, LEMO1, LEMO8)
Modifikationsindizes
Große Indizes zuerst hinterfragen
x Elimination von zwei Items (CRAZ3, PILO3) führt zur weiteren Verbesserung der Anpassungsgüte
Reliabilität und Konvergenzvalidität
Diskriminanzvalidität
Identifikation möglicher Fehlspezifikationen
x „Wiedererkennung“ der fünf Faktoren
Tabelle 27: Übersicht der quantitativen Ergebnisse des Skalenentwicklungsprozesses Quelle: Eigene Darstellung
179
5.2
Ergebnisse der Hauptuntersuchung
Zunächst werden in diesem Abschnitt die finalen Mess- und Strukturmodelle beurteilt. Abschließend werden die Ergebnisse der zentralen Analysen, insbesondere die Ergebnisse in Bezug auf die Forschungshypothesen, dargestellt. 5.2.1
Beurteilung der finalen Messmodelle
In diesem Abschnitt findet zu Beginn eine Beurteilung der Messmodelle in Bezug auf das gesamte Untersuchungssample statt (Abschnitt 5.2.1.1). Anschließend wird noch übersichtsartig auf die entsprechenden Ergebnisse für die beiden hier untersuchten Teilgruppen, nämlich die Projekte mit einem geringen und einem hohen Innovationsgrad eingegangen (Abschnitt 5.2.1.2). 5.2.1.1 Beurteilung der Messmodelle für das gesamte Untersuchungssample Zunächst wird die Reliabilität der exogenen und dann der endogenen Variablen beurteilt. Anschließend findet in diesem Abschnitt eine Überprüfung der Validität, insbesondere der Diskriminanzvalidität statt. 1058 Dabei geht es im Wesentlichen darum, die in der Voruntersuchung zur Skalenentwicklung erzielten Ergebnisse auf Basis des vergrößerten Samples von N = 400 zu überprüfen. Zur Überprüfung der Reliabilität der verwendeten Messmodelle werden die Indikatorladungen, Cronbachs Alpha, die Faktorreliabilität sowie die durchschnittlich erfasste Varianz berechnet. Eine Übersicht der entsprechenden Werte ist für die exogenen Variablen in Tabelle 28 dargestellt. Zusätzlich sind in dieser Tabelle auch die im Rahmen der Skalenentwicklung zusätzlich diskutierten Maße aufgeführt, um die endgültigen Werte vollständig verfügbar zu haben. 1059 Alle Indikatorladungen liegen dabei deutlich über dem Mindestgrenzwert für neuentwickelte Skalen von 0,4. Der Großteil der Indikatorladungen liegt sogar deutlich über dem häufig genannten Grenzwert für etablierte Skalen von 0,7. 1060 Lediglich 9 der 26 Items haben eine Indikatorladung die knapp unterhalb von 0,7 liegt. Zusätzlich sind alle Indikatorladungen höchst signifikant (0,001-Niveau), so dass insgesamt von einer hohen Güte der Messung ausgegangen werden kann. Darauf weist auch das Cronbachs Alpha hin, das für jeden Faktor deutlich über dem Grenzwert von 0,7 liegt. Auch die durchschnittlich erfasste Varianz erfüllt das Grenzwertkriterium von 0,5 für jeden Faktor.
1058
Inhalts-, Konvergenz- und Nomologische Validität sind über den Prozess der Skalenentwicklung, die Reliabilitätsprüfung und die im nächsten Abschnitt zu untersuchenden globalen Gütemaße abgedeckt. Vgl. dazu die Ausführungen in Abschnitt 4.3.2.1 auf S. 154ff. 1059 Vgl. dazu auch Tabelle 24 (S. 172) im Rahmen der Skalenentwicklung, die insgesamt eine hohe Übereinstimmung mit Tabelle 28 und somit mit den Werten des großen Samples (N = 400) aufweist. 1060 Vgl. Abschnitt 4.3.2.1 auf S. 154ff.
180
Faktor
Item
Indikatorladung Gesamtmodell
Itemto-total Korrelation
F 1: Birdin-hand
BIRD1 BIRD2 BIRD3 BIRD4 BIRD5 BIRD6 BIRD7 AFFO1 AFFO2 AFFO3 AFFO4 AFFO7 CRAZ1 CRAZ4 CRAZ5 CRAZ7 LEMO2 LEMO3 LEMO4 LEMO5 LEMO6 LEMO7 PILO1 PILO2 PILO4 PILO5
,769 ,619 ,867 ,774 ,839 ,863 ,644 ,714 ,759 ,820 ,698 ,810 ,798 ,866 ,647 ,653 ,628 ,753 ,616 ,652 ,783 ,804 ,876 ,560 ,757 ,711
,706 ,477 ,803 ,734 ,818 ,811 ,646 ,660 ,602 ,731 ,588 ,778 ,622 ,689 ,629 ,625 ,605 ,707 ,552 ,543 ,768 ,757 ,577 ,519 ,675 ,672
F 2: Affordable loss F 3: Crazy quilt F 4: Lemonade
F 5: Pilotin-theplane
Alpha bei ItemEliminierung ,886 ,913 ,875 ,883 ,874 ,875 ,894 ,829 ,844 ,810 ,846 ,798 ,782 ,750 ,778 ,780 ,847 ,828 ,856 ,858 ,817 ,819 ,760 ,793 ,713 ,714
Modifiziertes Cronbachs Alpha 1061 ,911
DEV
,903
Varianzerklärung durch ersten Faktor (exploratorische Faktorenanalyse) 64,1%
,856
63,8%
,873
,580
,820
64,9%
,832
,558
,861
59,5%
,858
,504
,800
62,7%
,821
,540
Cronbachs Alpha
,598
Tabelle 28: Übersicht der lokalen Gütemaße der exogenen Variablen (N = 400) 1062 Quelle: Eigene Darstellung
Die Analyse der Messmodelle der Erfolgsgrößen zeigt ein ähnliches Bild. In Bezug auf die Prozess-Effizienz musste ein Indikator (PEFF3) aufgrund einer zu geringen Indikatorladung aus dem Messmodell eliminiert werden. Für die verbleibenden beiden Indikatoren liegen alle herangezogenen Beurteilungskriterien über den Grenzwerten, so dass von einer hohen Reliabilität ausgegangen wird (vgl. Tabelle 29).
1061
Häufig wird das modifizierte Cronbachs Alpha auch als „composite reliability“ oder Faktorreliabilität bezeichnet. Es unterscheidet sich vom Cronbachs Alpha dadurch, dass keine gleichgewichteten Indikatoren angenommen werden. 1062 Alle Maße sind nach der vollständigen Bereinigung von Items (vgl. Voruntersuchung zur Skalenentwicklung in Abschnitt 5.1 auf S. 171ff.) neu berechnet worden und entsprechend für die gesamte Stichprobe N = 400 abgebildet.
181
Faktor
Item
Indikatorladung Gesamt modell
Itemto-total Korrelation
Alpha bei ItemEliminierung
Cronbachs Alpha
Varianzerklärung durch ersten Faktor (exploratorische Faktorenanalyse)
Modifiziertes Cronbachs Alpha
DEV
Suc 1: ProzessEffizienz
PEFF1 PEFF2 PEFF3
,734 ,759 eliminiert
,559 ,559
-
,717
77,9%
,716
,557
Tabelle 29: Übersicht der lokalen Gütemaße der endogenen Variable Prozess-Effizienz (N = 400) Quelle: Eigene Darstellung
Der outputbezogene Erfolg wird mit zwei Faktoren gemessen, nämlich dem Faktor „Erfahrungs- und Kompentenzaufbau“ (Suc 2) und dem „wahrgenommenen Nutzen und zukünftigen Potenzialen“ (Suc 3). Beim letztgenannten Faktor wurden zwei Items (NUTP1 und NUTP4) aufgrund zu geringer Ladungen aus dem Messmodell entfernt, so dass für beide Faktoren jeweils drei Indikatoren verbleiben. Für die verbliebenen Faktoren ergibt sich eine hohe Reliabilität. Erneut werden die geforderten Anspruchsniveaus ausnahmslos übertroffen (vgl. Tabelle 30).
Faktor
Item
Indikatorladung Gesamt modell
Itemto-total Korrelation
Alpha bei ItemEliminierung
Cronbachs Alpha
Varianzerklärung durch ersten Faktor (exploratorische Faktorenanalyse)
Modifiziertes Cronbachs Alpha
DEV
Suc 2: Erfahrungen und Kompetenzen Suc 3: Nutzen und zukünftige Potenziale
ERFK1 ERFK2 ERFK3
,657 ,689 ,853
,578 ,545 ,627
,674 ,718 ,619
,756
67,2%
,780
,580
NUTP1 NUTP2 NUTP3 NUTP4 NUTP5
eliminiert ,770 ,771 eliminiert ,799
,720 ,749
,790 ,762
,850
76,9%
,823
,609
,691
,816
Tabelle 30: Übersicht der lokalen Gütemaße der endogenen Variablen zum outputbezogenen Erfolg (N = 400) Quelle: Eigene Darstellung
Als nächstes ist nun die Diskriminanzvalidität auf Indikatoren- und auf Faktorenlevel zu überprüfen. Wie Tabelle 31 zu entnehmen ist, liegt auf Indikatorebene eine hohe Diskriminanzvalidität vor. Alle Indikatoren sind mit dem zugehörigen Faktor deutlich stärker korreliert als mit allen übrigen Faktoren. Auch wird an dieser Stelle bereits deutlich, dass es tatsächlich sinnvoll ist, die Erfolgsgrößen „Erfahrungen und Kompetenzen“ (Suc 2) und „Nutzen und zukünftige Potenziale“ (Suc 3) in einer übergeordneten, outputbezogenen Erfolgsdimension zu bündeln.
182
Faktor
Item BIRD1 BIRD2 BIRD3 BIRD4 BIRD5 BIRD6 BIRD7 AFFO1 AFFO2 AFFO3 AFFO4 AFFO7 CRAZ1 CRAZ4 CRAZ5 CRAZ7 LEMO2 LEMO3 LEMO4 LEMO5 LEMO6 LEMO7 PILO1 PILO2 PILO4 PILO5 PEFF1 PEFF2 ERFK1 ERFK2 ERFK3 NUTP2 NUTP3 NUTP5 Suc2 Suc3
F 1: Bird-inhand
0,769 0,619 0,867 0,774 0,839 0,863 0,644 0,338 0,360 0,388 0,331 0,384 0,147 0,159 0,119 0,120 0,223 0,267 0,218 0,231 0,277 0,285 0,306 0,196 0,265 0,248 0,137 0,142 0,191 0,200 0,248 0,242 0,242 0,251 0,291 0,314
F 2: Affordable loss 0,364 0,293 0,410 0,367 0,398 0,409 0,305 0,714 0,759 0,820 0,698 0,810 0,181 0,197 0,147 0,148 0,142 0,171 0,139 0,148 0,177 0,182 0,340 0,217 0,293 0,276 0,124 0,129 0,169 0,177 0,219 0,214 0,214 0,222 0,257 0,278
F 3: Crazy quilt
0,142 0,114 0,159 0,142 0,154 0,159 0,118 0,162 0,172 0,186 0,159 0,184 0,798 0,866 0,647 0,653 0,115 0,138 0,113 0,119 0,143 0,147 0,472 0,301 0,407 0,382 0,056 0,058 0,078 0,082 0,101 0,099 0,099 0,102 0,119 0,128
F 4: Lemonade
0,273 0,219 0,307 0,274 0,297 0,306 0,228 0,162 0,172 0,186 0,158 0,183 0,146 0,159 0,118 0,120 0,628 0,753 0,616 0,652 0,783 0,804 0,306 0,196 0,264 0,248 0,201 0,208 0,064 0,067 0,083 0,081 0,081 0,084 0,098 0,106
F 5: Pilot-intheplane
Suc 1: ProzessEffizienz
0,269 0,216 0,303 0,271 0,293 0,302 0,225 0,277 0,294 0,318 0,271 0,314 0,430 0,466 0,348 0,351 0,219 0,263 0,215 0,228 0,273 0,281 0,876 0,560 0,757 0,711 0,089 0,092 0,178 0,186 0,230 0,225 0,225 0,233 0,270 0,292
0,144 0,116 0,162 0,145 0,157 0,161 0,120 0,121 0,129 0,139 0,118 0,137 0,061 0,066 0,049 0,050 0,172 0,206 0,169 0,179 0,214 0,220 0,106 0,068 0,091 0,086 0,734 0,759 0,185 0,194 0,240 0,234 0,234 0,243 0,281 0,304
Suc 2: Erfahrungen, Kompetenzen 0,224 0,180 0,252 0,225 0,244 0,251 0,187 0,184 0,195 0,211 0,179 0,208 0,095 0,103 0,077 0,077 0,061 0,074 0,060 0,064 0,077 0,079 0,237 0,151 0,204 0,192 0,206 0,213 0,657 0,689 0,853 0,490 0,490 0,508 1,000 0,636
Suc 3: Zukünftige Potenziale 0,242 0,194 0,272 0,243 0,263 0,271 0,202 0,198 0,211 0,227 0,194 0,225 0,102 0,111 0,083 0,084 0,066 0,080 0,065 0,069 0,083 0,085 0,256 0,163 0,221 0,207 0,223 0,231 0,418 0,439 0,543 0,770 0,771 0,799 0,636 1,000
OutSuc: Outputbez. Erfolg 0,291 0,234 0,328 0,293 0,318 0,327 0,244 0,239 0,254 0,274 0,234 0,271 0,123 0,134 0,100 0,101 0,080 0,096 0,078 0,083 0,100 0,102 0,308 0,197 0,266 0,250 0,269 0,278 0,505 0,529 0,654 0,638 0,639 0,662 0,767 0,829
Tabelle 31: Diskriminanzvalidität auf Indikatorebene – Korrelation zwischen Faktoren und reflektiven Indikatoren Quelle: Eigene Darstellung
Dieser letztgenannte Aspekt wird durch die Diskriminanzanalyse auf Faktorenebene bekräftigt, die in Tabelle 32 dargestellt ist. Für alle Faktoren ist das Fornell-Larcker-Kriterium erfüllt. Lediglich für die beiden Erfolgskategorien (Suc 2 und Suc 3) ist das Kriterium in Bezug auf das übergeordnete outputbezogene Erfolgsmaß nicht erfüllt, was die Notwendigkeit unterstreicht, an dieser Stelle von einer übergeordneten Erfolgsdimension „Output“ zu sprechen, die über die Faktoren Suc 2 und Suc 3 gemessen wird.
183
DEV F 1: Bird-in-hand F 2: Affordable loss F 3: Crazy quilt F 4: Lemonade F 5: Pilot-inthe-plane Suc 1: Prozess Suc 2: Erfahrungen Suc 3: Potenziale OutSuc: Output
F 1: Birdinhand 0,598
F 2: Affordable loss 0,580
0,598
F 3: Crazy quilt
F 4: Lemonade
0,558
0,504
F 5: Pilotin-theplane 0,540
Suc 1: Prozess
Suc 2: Erfahrungen
Suc 3: Potenziale
OutSuc: Output
0,557
0,545
0,609
0,638
Quadrierte Korrelationen der Faktoren
0,580
0,225
0,558
0,034
0,052
0,504
0,125
0,052
0,033
0,540
0,123
0,151
0,289
0,122
0,557
0,035
0,029
0,006
0,075
0,015
0,545
0,085
0,066
0,014
0,010
0,073
0,079
0,609
0,099
0,077
0,016
0,011
0,085
0,092
0,404
0,638
0,144
0,112
0,024
0,016
0,124
0,135
0,588
0,687
Tabelle 32: Diskriminanzvalidität auf Faktorenebene (Fornell-Larcker-Kriterium) Quelle: Eigene Darstellung
5.2.1.2 Beurteilung der Messmodelle für die untersuchten Teilgruppen Nachdem für das gesamte Untersuchungssample gezeigt wurde, dass valide und reliable Messmodelle entwickelt werden konnten, wird dies übersichtsartig entlang der wichtigsten Kriterien noch einmal für die im Folgenden intensiv untersuchten zwei Teilgruppen 1063 analysiert. Es zeigt sich, dass auch für die Teilgruppen alle Indikatorladungen deutlich über dem Mindestgrenzwert für neuentwickelte Skalen von 0,4 liegen (vgl. Tabelle 33). Der Großteil der Indikatorladungen liegt sogar über dem häufig genannten Grenzwert für etablierte Skalen von 0,7. 1064 Außerdem sind alle Indikatorladungen höchst signifikant (0,001-Niveau), so dass auch für die Teilgruppenuntersuchungen insgesamt von einer hohen Güte der Messung ausgegangen werden kann. Darauf weist auch die Faktorreliabilität bzw. das modifizierte Cronbachs Alpha hin, das mit Ausnahme von zwei leichten Unterschreitungen für die Erfolgskonstrukte Suc 1 und Suc 2 im Falle eines hohen Innovationsgrades für jeden Faktor deutlich über dem Grenzwert von 0,7 liegt. Auch die durchschnittlich erfasste Varianz erfüllt das Grenzwertkriterium von 0,5 mit einer Ausnahme für jeden Faktor. Lediglich die DEV für das Pilot-in-the-plane-Prinzip in der Teilgruppe eines geringen Innovationsgrades unterschreitet leicht das geforderte Anspruchsniveau. Da jedoch alle anderen Kriterien für dieses Konstrukt
1063 1064
Vgl. zu den gebildeten Teilgruppen Abschnitt 4.3.4.2 auf S. 169. Nur 8 der 36 Items in der Teilgruppe „Geringer Innovationsgrad“ haben eine Indikatorladung knapp unterhalb von 0,7. In der Teilgruppe „Hoher Innovationsgrad“ sind es 13.
184
deutlich erfüllt werden, wird insgesamt von einer hohen Güte auch dieses Messmodells ausgegangen.
Faktor
F 1: Bird-in-hand
F 2: Affordable loss
F 3: Crazy quilt
F 4: Lemonade
F 5: Pilot-inthe-plane
Suc 1: Prozess-Effizienz Suc 2: Erfahrungen und Kompetenzen Suc 3: Nutzen und zukünftige Potenziale OutSuc: Output
Item
BIRD1 BIRD2 BIRD3 BIRD4 BIRD5 BIRD6 BIRD7 AFFO1 AFFO2 AFFO3 AFFO4 AFFO7 CRAZ1 CRAZ4 CRAZ5 CRAZ7 LEMO2 LEMO3 LEMO4 LEMO5 LEMO6 LEMO7 PILO1 PILO2 PILO4 PILO5 PEFF1 PEFF2 ERFK1 ERFK2 ERFK3 NUTP2 NUTP3 NUTP5 Suc2 Suc3
Teilgruppe Geringer Innovationsgrad (N = 136) IndikatorModifiDEV ladung ziertes Cronbachs Alpha 0,918 0,618 0,768 0,626 0,838 0,717 0,853 0,878 0,794 0,866 0,566 0,710 0,793 0,800 0,615 0,823 0,828 0,548 0,661 0,783 0,727 0,783 0,897 0,594 0,765 0,841 0,672 0,689 0,798 0,841 0,774 0,464 0,741 0,550 0,689 0,729 0,765 0,620 0,802 0,772 0,861 0,677 0,696 0,831 0,925 0,831 0,620 0,794 0,779 0,790 0,813 0,827 0,705 0,865
Teilgruppe Hoher Innovationsgrad (N = 136) IndikatorModifiDEV ladung ziertes Cronbachs Alpha 0,906 0,583 0,737 0,582 0,874 0,734 0,828 0,864 0,681 0,848 0,529 0,767 0,730 0,763 0,627 0,742 0,859 0,606 0,677 0,896 0,791 0,732 0,844 0,478 0,669 0,753 0,598 0,580 0,754 0,767 0,891 0,675 0,875 0,668 0,915 0,806 0,665 0,498 0,672 0,738 0,699 0,441 0,586 0,614 0,776 0,779 0,541 0,744 0,680 0,779 0,649 0,816 0,699 0,988
Tabelle 33: Lokale Gütebeurteilung der Messmodelle in den beiden Teilgruppen Quelle: Eigene Darstellung
Die Prüfung der Diskriminanzvalidität erfolgt wieder anhand der Indikator-Kreuzladungen und dem Fornell-Larcker-Kriterium. Auf Indikatorebene zeigt sich eine hohe Diskriminanzvalidität. In beiden Teilgruppen sind die Indikatoren mit dem zugehörigen Faktor deutlich stär-
185
ker korreliert als mit allen übrigen Faktoren. Die Ergebnisse sind im Anhang detailliert dargestellt. 1065 Auch bestätigt diese Analyse erneut, dass die Zusammenfassung von Suc 2 und Suc 3 zum outputbezogenen Erfolg sinnvoll ist. Auch das Fornell-Larcker-Kriterium ist für beide Teilgruppen erfüllt. 1066 Darüber hinaus wird erneut die Notwendigkeit deutlich, eine übergeordnete Erfolgsdimension „Output“ einzuführen, die über die Faktoren Suc 2 und Suc 3 gemessen wird. 5.2.2
Beurteilung des Strukturmodells
Neben der Beurteilung der einzelnen Messmodelle muss auch das gesamte Strukturmodell in Bezug auf die Güte untersucht werden. Dafür werden die globalen Gütekriterien angewendet, die in Abschnitt 4.3.2.2 ausgewählt und beschrieben wurden. 5.2.2.1 Beurteilung des Strukturmodells für das gesamte Untersuchungssample Insgesamt zeigt sich eine sehr gute Anpassung des Gesamtmodells an die zugrundeliegenden Daten. Kein einziges der wesentlichen globalen Gütekriterien wird verletzt. 1067 Die Untergrenzen der Güten werden vielmehr deutlich über- bzw. in den Fällen, in denen eine Obergrenze gegeben ist, untertroffen (vgl. Tabelle 34). Es kann von einem „Close Fit“ gesprochen werden, da der pCLOSE-Wert, der die Hypothese überprüft, dass der RMSEA-Wert kleiner als 0,05 ist, 1,00 1068 beträgt. Die Werte des RMSEA liegen also mit an Sicherheit grenzender Wahrscheinlichkeit unter 0,05 und somit deutlich unter dem geforderten Anspruchsniveau von 0,08. Als einziger Wert verfehlt der AGFI das Anspruchsniveau knapp. Da es aus konzeptionellen Überlegungen ohnehin fragwürdig ist, ob es sinnvoll sein kann, für den GFI und den AGFI überhaupt ein Anspruchsniveau zu definieren und daran die Modellgüte zu messen, wurde bereits in Abschnitt 4.3.2.2 darauf hingewiesen, dass diese beiden Werte hier nur zu Informationszwecken und wegen der starken Abhängigkeit von der Samplegröße auch nur für das Gesamtmodell mitgeführt werden. Als Basis für eine Modellbeurteilung sollen sie der neueren Literatur folgend nicht herangezogen werden. 1069
1065
Vgl. Anhang 5: Diskriminanzvaliditäten der untersuchten Teilgruppen (S. 265ff.). Vgl. Tabelle 56 und Tabelle 57 in Anhang 5: Diskriminanzvaliditäten der untersuchten Teilgruppen (S. 267). 1067 Vgl. dazu Abschnitt 4.3.2.2 auf S. 159ff. 1068 Gerundeter Wert. 1069 Vgl. u.a. Homburg/Klarmann (2006), S. 737. 1066
186
Globale Anpassungsmaße: Gesamtmodell
Anspruchsniveau
Modellgüte
²
-
768,32
Freiheitsgrade (df)
-
479
Signifikanzniveau Exact Fit-Test (p-Wert)
-
0,001
Relative Teststatistik ²/df Root Mean Square Error of Approximation (RMSEA)
3
1,59
0,08
0,04
Signifikanzniveau Close Fit-Test (pCLOSE)
0,5
1,00
Standardized Root Mean Square Residual (SRMR)
0,08
0,05
Tucker-Lewis-Index (TLI)
0,9
0,95
Comparative Fit Index (CFI)
0,9
0,96
Goodness of Fit Index (GFI)*
0,9
(0,90)
Adjusted Goodness of Fit Index (AGFI)*
0,9
(0,88)
* Nur zur Information – nicht mehr uneingeschränkt als Gütemaß anerkannt
Tabelle 34: Übersicht über globale Gütemaße des gesamten Strukturmodells (N = 400) Quelle: Eigene Darstellung
5.2.2.2 Beurteilung des Strukturmodells für die untersuchten Teilgruppen Zusätzlich wird an dieser Stelle auch die globale Güte des reduzierten Stichprobenumfangs zur Untersuchung der beiden Teilgruppen herangezogen. 1070 Dies ist notwendig, weil durch den vorzunehmenden Gruppenvergleich zusätzliche Restriktionen in das Modell aufgenommen werden müssen. So muss sichergestellt sein, dass die verglichenen Gruppen tatsächlich auch die gleichen Messmodelle verwenden. Dies ist nur dann der Fall, wenn die Schätzwerte für die „Measurement Weights“, also die (nicht-standardisierten) Regressionskoeffizienten, in beiden Gruppen gleich sind. Um das zu erreichen, kann in AMOS eine Gleichsetzung der „Measurement Weights“ in den verglichenen Gruppen erfolgen, indem diese Parameter gruppenübergreifend mit den gleichen Variablennamen bezeichnet werden. 1071 Aufgrund der damit verbundenen Einführung zusätzlicher Restriktionen und Freiheitsgrade im Modell und der im Fall des Gruppenvergleichs reduzierten Stichprobengröße, muss sich die Gesamtanpassungsgüte verschlechtern. Es bleibt also durch eine Überprüfung der globalen Gütekriterien zu untersuchen, ob diese Verschlechterung dennoch vertretbar ist. Tatsächlich bleibt die globale Güte auch in dem betrachteten Teilgruppenmodell trotzt einer leichten Verschlechterung sehr gut. Immer noch ist ein „Close Fit“ gegeben. Alle untersuch-
1070
Vgl. zur Bildung der Teilgruppen Abschnitt 4.3.4.2 auf S. 169. Um die dort dargestellten Teilgruppen analysieren zu können, reduziert sich der Stichprobenumfang von N = 400 auf N = 272. 1071 Diese Möglichkeit ist ein wesentlicher Vorteil von AMOS im Vergleich zu anderen Softwarepaketen zur Berechnung von Strukturgleichungsmodellen. Auf diese Weise lassen sich Verzerrungen in den Ergebnissen von Gruppenvergleichen vermeiden, die potenziell auftreten können, wenn die Messmodelle zwischen zwei verglichenen Gruppen voneinander abweichen. Dann kann es sein, dass vermeintliche Unterschiede zwischen den Gruppen ausschließlich auf die unterschiedlichen Messmodelle zurückzuführen sind.
187
ten Gütekriterien liegen deutlich über bzw. unter den Anspruchniveaus. Tabelle 35 zeigt die globalen Gütemaße für das im Rahmen der Gruppenvergleiche eingesetzte Modell.
Globale Anpassungsmaße: Teilgruppenmodell
Anspruchsniveau
Modellgüte
²
-
1334,02
Freiheitsgrade (df)
-
975
Signifikanzniveau Exact Fit-Test (p-Wert)
-
0,001
Relative Teststatistik ²/df Root Mean Square Error of Approximation (RMSEA)
3
1,40
0,08
0,04
Signifikanzniveau Close Fit-Test (pCLOSE)
0,5
1,00
Standardized Root Mean Square Residual (SRMR)
0,08
0,07
Tucker-Lewis-Index (TLI)
0,9
0,91
Comparative Fit Index (CFI)
0,9
0,92
Tabelle 35: Übersicht über globale Gütemaße des Teilgruppen-Strukturmodells (N = 272) Quelle: Eigene Darstellung
Nachdem nun also sichergestellt ist, dass die verwendeten Messmodelle eine hohe Reliabilität und Validität aufweisen und das gesamte Strukturmodell eine sehr gute Anpassung an die empirisch erhobenen Daten zeigt, sollen im Folgenden die Ergebnisse der Untersuchung dargestellt werden. 5.2.3
Ergebnisse und Überprüfung der Hypothesen
In Abschnitt 4.2.4 wurde gezeigt, dass die Datenbasis repräsentativ und unverzerrt ist. Zusätzlich wurden im letzten Abschnitt Reliabilität und Validität der Messmodelle und des Strukturmodells geprüft. Insgesamt kann also davon ausgegangen werden, dass die in diesem Abschnitt beschriebenen Ergebnisse der Untersuchung, die auf Basis der Stichprobe gewonnen wurden, verallgemeinerbar sind und für die Grundgesamtheit Gültigkeit haben. Die Überprüfung der hergeleiteten Hypothesen ermöglicht also generalisierbare Aussagen. Im Folgenden sollen zunächst die zentralen Ergebnisse der Untersuchung beschrieben und die gebildeten Forschungshypothesen überprüft werden (Abschnitt 5.2.3.1). Dabei wird eine Unterscheidung entlang der in Abschnitt 4.3.4.2 auf Basis des Innovationsgrades eingeführten Teilgruppen vorgenommen. Anschließend findet eine Darstellung der Ergebnisse weiterer Analysen statt, die das Ziel hatten, potenzielle weitere Moderatoren in Bezug auf eine Vorteilhaftigkeit von Effectuation und Causation zu identifizieren (Abschnitt 5.2.3.2). 5.2.3.1 Erfolgswirkung von Effectuation und Causation in Abhängigkeit des Innovationsgrades Die Kontextabhängigkeit von Effectuation und Causation im Rahmen von F&E-Projekten wurde als eine übergeordnete, direkt mit dem konzeptionellen Bezugsrahmen verbundene Eigenschaft in Abschnitt 2.2.5 im Detail erläutert. Entsprechend wird weder Causation noch Ef-
188
fectuation eingeräumt, unabhängig vom Kontext Vorteile aufzuweisen. Vielmehr wurde insbesondere hypothetisiert, dass der Innovationsgrad eine entscheidende Rolle in Bezug auf eine Vorteilhaftigkeit von Effectuation oder Casusation hat. 1072 Entsprechend werden die Ergebnisse im Folgenden entlang der beiden Teilgruppen des Innovationsgrades vorgestellt. Sowohl für Projekte mit einem geringen Innovationsgrad als auch für Projekte mit einem hohen Innovationsgrad wurde ein vollständiges Strukturgleichungsmodell gerechnet. Die entsprechenden Pfadkoeffizienten und Signifikanzen sind in Abbildung 22 für den Fall eines geringen Innovationsgrades und in Abbildung 23 für den Fall eines hohen Innovationsgrades dargestellt. 1073
1072 1073
Vgl. Abschnitt 3.2 auf S. 63ff. Die Signifikanzen werden dabei im Falle von gerichteten Hypothesen, also wenn aufgrund der Konzeptualisierung eine bestimmte Wirkungsrichtung vermutet wird, mit Hilfe von einseitigen Tests und im Falle von ungerichteten Hypothesen mit einem zweiseitigen Test berechnet (vgl. dazu auch die Detaildarstellungen in Tabelle 36 bis Tabelle 40).
189
Prinzipien Bird-in-hand Affordable loss Crazy quilt Lemonade
0,11/0,24**** F&E-Erfolg 0,25**/0,22*** 0,00/0,06
Pilot-in-the-Plane
0,22****
0,02/-0,11** ( )
Prozess-Effizienz
Output
( )
0,22 * /0,15 *
Signifikanzniveaus: **** p 0,01; *** p 0,05; ** p 0,1; * p 0,15; (*) p 0,24 Interpretation der Pfadkoeffizienten: Der erste Koeffizient zeigt die Wirkung auf die Prozess-Effizienz, der zweite auf den Output. +: Wirkung der Causation-Ausprägung; -: Wirkung der Effectuation-Ausprägung des Prinzips Abbildung 22: Pfadkoeffizienten und Signifikanzen in der Stichprobe „geringer Innovationsgrad“ Quelle: Eigene Darstellung
Prinzipien Bird-in-hand Affordable loss Crazy quilt Lemonade Pilot-in-the-Plane
0,12/-0,03 F&E-Erfolg -0,25**/0,41**** 0,08/-0,14*** 0,28****/-0,23****
Prozess-Effizienz 0,15** Output
-0,19***/0,20***
Signifikanzniveaus: **** p 0,01; *** p 0,05; ** p 0,1; * p 0,15; (*) p 0,24 Interpretation der Pfadkoeffizienten: Der erste Koeffizient zeigt die Wirkung auf die Prozess-Effizienz, der zweite auf den Output. +: Wirkung der Causation-Ausprägung; -: Wirkung der Effectuation-Ausprägung des Prinzips Abbildung 23: Pfadkoeffizienten und Signifikanzen in der Stichprobe „hoher Innovationsgrad“ Quelle: Eigene Darstellung
190
Im Folgenden werden die Ergebnisse je Prinzip kurz beschrieben. 1074 Dabei wird zusätzlich ein Gruppenvergleich zwischen den Projekten mit geringem und hohem Innovationsgrad vorgenommen 1075 , der zur ergänzenden Plausibilisierung von Unterschieden zwischen den beiden Gruppen herangezogen wird. Tabelle 36 zeigt noch einmal die Ergbnisse für das Prinzip Bird-in-hand in einer zusammenfassenden Übersicht.
Gruppe 1: Geringer Innovationsgrad (N = 136) Pfad KoeffiSig Lezient Sig vel
Gruppe 2: Hoher Innovationsgrad (N = 136) Pfad KoeffiSig Lezient Sig vel
Unterschied zwischen Gruppen
t
Sig
Sig Level
Bird ProzessEffizienz
0,11
0,471b
n.s.
0,12
0,371b
n.s.
0,045
0,964b
n.s.
Bird Output
0,24
0,010a
****
-0,03
0,403a
n.s.
1,835
0,034a
***
a: Einseitiger Test;
b: Zweiseitiger Test
Tabelle 36: Ergebnisse für Bird-in-hand – Pfadkoeffizienten und Gruppenvergleich Quelle: Eigene Darstellung
Für Bird-in-hand wurde ein Einfluss in Bezug auf den Output und weniger in Bezug auf die Prozess-Effizienz hypothetisiert. Entsprechend können die beiden Hypothesen H1c-p und H1e-p, die sich auf den untergeordneten Einfluss der Effectuation- bzw. CausationAusprägung von Bird-in-hand auf die Prozess-Effizienz beziehen, bestätigt werden. In Bezug auf den outputbezogenen Projekterfolg wird Hypothese H1c-o, die besagt, dass ein Vorgehen nach Causation bei einem geringen Innovationsgrad einen positiven Einfluss hat, auf signifikantem Niveau unterstützt. Der Pfadkoeffizient bei einem hohen Innovationsgrad deutet zwar, wie hypothetisiert, auf eine Vorteilhaftigkeit von Effectuation hin (negatives Vorzeichen), allerdings ist diese Beziehung nicht signifikant. Daher kann die Hypothese H1e-o nicht bestätigt werden. Der Gruppenvergleich zeigt an dieser Stelle jedoch, dass es zumindest signifikante Unterschiede zwischen einem erfolgsfördernden Vorgehen bei einem geringen und einem hohen Innovationsgrad gibt.
1074
Vgl. Kapitel 6 (S. 208ff.) für eine Diskussion und Interpretation der hier beschriebenen Ergebnisse. 1075 Vgl. zum Vorgehen Abschnitt 4.3.4 auf S. 167ff.
191
Gruppe 1: Geringer Innovationsgrad (N = 136) Pfad KoeffiSig Lezient Sig vel
Gruppe 2: Hoher Innovationsgrad (N = 136) Pfad KoeffiSig Lezient Sig vel
Unterschied zwischen Gruppen
t
Sig
Sig Level
Afford ProzessEffizienz
0,25
0,090a
**
-0,25
0,087a
**
1,927
0,028a
***
Afford Output
0,22
0,038a
***
0,41
0,007b
****
0,962
0,338b
n.s.
a: Einseitiger Test;
b: Zweiseitiger Test
Tabelle 37: Ergebnisse für Affordable loss – Pfadkoeffizienten und Gruppenvergleich Quelle: Eigene Darstellung
Für das Affordable loss-Prinzip wurde eine hohe Bedeutung vor allem in Bezug auf die Prozess-Effizienz, aber auch bezüglich des Outputs, zumindest bei Vorliegen eines geringen Innovationsgrades, hypothetisiert. Die Hypothesen H2c-p und H2e-p, die besagen, dass Causation bei einem geringen und Effectuation bei einem hohen Innovationsgrad in Bezug auf die Prozess-Effizienz vorteilhaft sind, können bestätigt werden (vgl. Tabelle 37). Auch wird durch den Gruppenvergleich verdeutlicht, dass das in Bezug auf die Prozess-Effizienz erfolgswirksame Vorgehen signifikant kontextabhängig ist. In Bezug auf den Output werden die Hypothesen teilweise bestätigt. So ist bei einem geringen Innovationsgrad entsprechend der Hypothese H2c-o ein Vorgehen nach Causation signifikant vorteilhaft. Hypothese H2e-o nach der bei einem hohen Innovationsgrad bei einer Einzelprojektbetrachtung keine der beiden Vorgehensweisen vorteilhaft ist, kann hingegen nicht bestätigt werden. Vielmehr ergibt sich auch hier ein Vorteil für die Causation-Ausprägung.
Gruppe 1: Geringer Innovationsgrad (N = 136) Pfad KoeffiSig Lezient Sig vel
Gruppe 2: Hoher Innovationsgrad (N = 136) Pfad KoeffiSig Lezient Sig vel
Unterschied zwischen Gruppen
t
Sig
Sig Level
Crazy ProzessEffizienz
0,00
0,993b
n.s.
0,08
0,457b
n.s.
0,437
0,663b
n.s.
Crazy Output
0,06
0,282a
n.s.
-0,14
0,047a
***
1,528
0,064a
**
a: Einseitiger Test;
b: Zweiseitiger Test
Tabelle 38: Ergebnisse für Crazy quilt – Pfadkoeffizienten und Gruppenvergleich Quelle: Eigene Darstellung
Für das Crazy quilt-Prinzip wurde ein Einfluss in Bezug auf den Output und weniger in Bezug auf die Prozess-Effizienz hypothetisiert. Die beiden Hypothesen H3c-p und H3e-p, nach
192
denen weder Effectuation noch Causation einen signifikanten Vorteil in Bezug auf die Prozess-Effizienz haben, werden bestätigt (vgl. Tabelle 38). In Bezug auf den outputbezogenen Projekterfolg wird Hypothese H3c-o, die besagt, dass ein Vorgehen nach Causation bei einem geringen Innovationsgrad einen positiven Einfluss hat, nicht unterstützt. Das Signifikanzniveau liegt dabei knapp über der geforderten Obergrenze. Die Hypothese H3e-o, nach der bei einem hohen Innovationsgrad ein Vorgehen entsprechend der Effectuation-Ausprägung von Crazy quilt vorteilhaft ist, kann jedoch auf signifikantem Niveau bestätigt werden. Der Gruppenvergleich liefert darüber hinaus eine Bestätigung dafür, dass es signifikante Unterschiede zwischen den beiden Gruppen gibt.
Gruppe 1: Geringer Innovationsgrad (N = 136) Pfad KoeffiSig Lezient Sig vel
Gruppe 2: Hoher Innovationsgrad (N = 136) Pfad KoeffiSig Lezient Sig vel
Unterschied zwischen Gruppen
t
Sig
Sig Level
Lemon ProzessEffizienz
0,02
0,439a
n.s.
0,28
0,008a
****
1,601
0,056a
**
Lemon Output
-0,11
0,086a
**
-0,23
0,009a
****
0,997
0,160a
(*)
a: Einseitiger Test;
b: Zweiseitiger Test
Tabelle 39: Ergebnisse für Lemonade – Pfadkoeffizienten und Gruppenvergleich Quelle: Eigene Darstellung
Für das Lemonade-Prinzip wurde hypothetisiert, dass in Bezug auf die Wirkung von Effectuation und Causation vor allem zwischen der Prozess-Effizienz und dem Output unterschieden werden muss. So wurde gesagt, dass Causation in Bezug auf die Prozess-Effizienz und Effectuation in Bezug auf den Output vorteilhaft sein sollte. Zusätzlich wurde auf Basis der konzeptionellen Überlegungen vermutet, dass im Falle eines hohen Innovationsgrades die Wirkung jeweils stärker ausgeprägt sein muss. In Bezug auf die Prozess-Effizienz deuten die Pfadkoeffizienten unabhängig von der Höhe des Innovationsgrades auf eine Vorteilhaftigkeit von Causation (vgl. Tabelle 39). Allerdings ist diese Beziehung, wie zuvor hypothetisiert, im Falle eines hohen Innovationsgrades deutlich ausgeprägter. Es zeigt sich sogar ein signifikanter Unterschied zwischen den beiden Gruppen. Hypothese H4c-p kann bei einem hohen Innovationsgrad auf einem signifikanten Niveau bestätigt werden. Bei einem geringen Innovationsgrad ist die Beziehung nicht signifikant. In Bezug auf den Projektoutput ergeben sich sowohl bei einem geringem als auch bei einem hohen Innovationsgrad signifikante Vorteile für die Effectuation-Ausprägung des Lemonade-Prinzips. Hypothese H4e-o wird somit unterstützt. Auch zeigt sich auf zumindest schwach signifikantem Niveau, dass im Falle eines hohen Innovationsgrades die Wirkung von Effectuation zunimmt.
193
Gruppe 1: Geringer Innovationsgrad (N = 136) Pfad KoeffiSig Lezient Sig vel
Gruppe 2: Hoher Innovationsgrad (N = 136) Pfad KoeffiSig Lezient Sig vel
Unterschied zwischen Gruppen
t
Sig
Sig Level
Pilot ProzessEffizienz
0,22
0,151a
(*)
-0,19
0,042a
***
1,724
0,043a
***
Pilot Output
0,15
0,154a
(*)
0,20
0,028b
***
0,304
0,762b
n.s.
a: Einseitiger Test;
b: Zweiseitiger Test
Tabelle 40: Ergebnisse für Pilot-in-the-plane – Pfadkoeffizienten und Gruppenvergleich Quelle: Eigene Darstellung
Für das Pilot-in-the-plane-Prinzip wurde eine hohe Bedeutung vor allem in Bezug auf die Prozess-Effizienz und zumindest bei einem geringen Innovationsgrad auch für den Output hypothetisiert. Die Hypothesen in Bezug auf die Prozess-Effizienz (H5c-p und H5e-p), die besagen, dass Causation bei einem geringen und Effectuation bei einem hohen Innovationsgrad vorteilhaft sind, werden beide auf signifikantem Niveau bestätigt. Auch der Gruppenvergleich zeigt, dass das in Bezug auf die Prozess-Effizienz erfolgswirksame Vorgehen signifikant kontextabhängig ist. In Bezug auf den Output werden die Hypothesen teilweise bestätigt (vgl. Tabelle 40). So ist bei einem geringen Innovationsgrad entsprechend der Hypothese H5c-o ein Vorgehen nach der Causation-Ausprägung von Pilot-in-the-plane vorteilhaft. Hypothese H5e-o, nach der bei einem hohen Innovationsgrad keine der beiden Vorgehensweisen vorteilhaft ist, kann hingegen nicht bestätigt werden. Vielmehr ergibt sich auch hier ein Vorteil für die Causation-Ausprägung. An dieser Stelle wurde zusätzlich ein unterschiedlicher Einfluss des Markt- und Technologieinnovationsgrades vermutet. Tatsächlich zeigt sich, dass die Bedeutung eines Vorgehens nach Causation bei zunehmendem Technologieinnovationsgrad abnimmt. 1076 Bei zunehmendem Marktinnovationsgrad hingegen nimmt die Bedeutung von Causation zu. 1077 Erst wenn eine Unklarheit in Bezug auf mögliche Umwelttrends besteht, zeigt sich, dass Effectuation vorteilhaft wird. 1078 5.2.3.2 Ergebnisse weiterer potenzieller Einflussgrößen auf die Vorteilhaftigkeit von Effectuation und Causation Im Folgenden wird der Einfluss der Branche, der Unternehmensgröße, der Projektgröße und des Projekttyps bezüglich eines möglichen Einflusses auf die Vorteilhaftigkeit von Effectuati-
1076
Hierfür wurde eine Analyse durchgeführt, bei dem das Gesamtsample (N = 400) entlang des Medians des Technologieinnovationsgrades in zwei Gruppen geteilt wurde. Die Analyse erfolgte dann genauso wie die hier detailliert dargestellte Analyse mit der Moderatorvariablen Innovationsgrad. 1077 Zur Analyse des Einflusses des Marktinnovationsgrades wurde das Gesamtsample (N = 400) wie bei der Analyse des Technologieinnovationsgrades entlang des Medians in zwei Gruppen geteilt. 1078 Dafür wurde eine Analyse entlang der Moderatorvariable UNK1 durchgeführt (Unklarheit in Bezug auf mögliche Umwelttrends).
194
on und Causation untersucht. Dafür wird, ähnlich dem Vorgehen bei der Untersuchung der moderierenden Wirkung des Innovationsgrades, jeweils ein gruppenspezifisches Strukturgleichungsmodell gerechnet und die Pfadkoeffizienten anschließend auf signifikante Unterschiede hin geprüft. Lediglich für die im Folgenden beschriebene Untersuchung des Einflusses der Branche und für die Analyse des Projekttyps ist ein etwas anderes Vorgehen aufgrund der geringen resultierenden Gruppengrößen erforderlich. 5.2.3.2.1 Einfluss der Branche Insgesamt wurden in dieser Untersuchung acht verschiedene Branchen befragt. 1079 Der Maschinenbau stellt die größte Einzelgruppe mit N = 90 (22,5%) dar. Da eine Teilgruppengröße von mindestens N = 100 notwendig ist 1080 , um Strukturgleichungsmodelle zuverlässig mit AMOS berechnen zu können, lässt sich eine Analyse je Branche nicht auf Basis eines Vergleichs der Pfadkoeffizienten der jeweiligen Strukturgleichungsmodelle durchführen. Um dennoch eine Aussage in Bezug auf die Bedeutung der Branche zumindest indikativ treffen zu können, soll an dieser Stelle untersucht werden, ob die Werte der Variablen in den unterschiedlichen Branchen signifikant voneinander abweichen. 1081 Zunächst wird dafür ein Paarvergleich jeweils zweier Branchen auf Basis eines parametrischen T-Tests durchgeführt. Anschließend findet zur Überprüfung der nicht-parametrische Kruskal-Wallis-Test Anwendung, der den Vorteil hat, dass mehr als zwei Gruppen direkt miteinander verglichen werden können. 1082 Zusätzlich werden die Ergebnisse mit Hilfe eines Median-Tests geprüft. 1083
1079
Vgl. dazu die grafische Übersicht in Abschnitt 4.2.4.1.2 auf S. 134. „Eine Reihe von Studien zeigt, dass die Verwendung von Stichproben mit weniger als 100 Fällen sehr problematisch ist“ (Homburg/Klarmann (2006), S. 733). Auch ein varianzbasiertes Verfahren wie PLS stellt in dieser Situation keine Alternative dar, weil die Gruppengrößen auch für solche Verfahren zu klein werden. Eine einzig mögliche Lösung zur Verwendung eines Strukturgleichungsmodells wäre eine Zusammenfassung einzelner Gruppen. Dann allerdings wird der Aussagegehalt deutlich geschmälert. Bei einer Zusammenfassung von unterschiedlichen Branchen zu einer Gruppe kann zumindest innerhalb der Gruppe kein Unterschied mehr analysiert werden. Da zusätzlich durch eine gemeinsame Betrachtung verschiedener Branchen mögliche Unterschiede ausgeglichen werden, sinkt die Wahrscheinlichkeit, über diesen Weg tatsächlich Unterschiede aufzudecken. Im Folgenden soll daher auf einen direkten Vergleich aller Branchen auf der Ebene der einzelnen Indikatoren zurückgegriffen werden. 1081 Auf diese Weise kann zumindest geprüft werden, ob zwischen den Branchen ein grundlegend unterschiedliches Antwortverhalten vorliegt, ob also F&E-Projekte anders gemanagt werden. Es ist durch dieses Vorgehen keine abschließende Überprüfung möglich, ob sich die Erfolgswirkung von Effectuation und Causation zwischen den Branchen unterscheidet. 1082 Der Kruskal-Wallis-Test nutzt eine gemeinsame Rangfolge aller Werte der verglichenen Gruppen. Entsprechend der Position in der Rangordnung wird jedem Variablenwert ein Rangwert zugewiesen. Auf Basis dieser Rangwerte können dann für jede untersuchte Gruppe und jede untersuchte Variable durchschnittliche Rangwerte berechnet werden. Anschließend wird die Nullhypothese getestet, dass die mittleren Rangzahlen in den einzelnen Branchen gleich sind (vgl. Brosius (2004), S. 866ff.). Konzeptionell ist dieses Vorgehen vergleichbar mit anderen Testverfahren, wie bspw. dem T-Test oder der Varianzanalyse (ANOVA). Allerdings hat der nicht-parametrische KruskalWallis-Test (und auch der Median-Test) deutlich geringere Anforderungen an die Daten. So gelten nicht die strikten Annahmen in Bezug auf die Verteilung der Werte, wie dies etwa beim parametri1080
195
Bevor der T-Test angewendet werden kann, ist zunächst zu prüfen, ob die untersuchten Variablen normalverteilt sind, weil dies eine formale Anforderung des T-Tests ist.1084 Dafür wird einerseits auf Normalverteilungsdiagramme zurückgegriffen und andererseits werden statistische Signifikanztests durchgeführt, die die Hypothese testen, dass die Variablen in den jeweiligen Branchengruppen normalverteilt sind. Die Signifikanzprüfung erfolgt dabei mit dem Kolmogorov-Smirnov-Test und dem Shapiro-Wilks-Test. 1085 Beide Tests ergeben, dass die Hypothese auf dem p = 0,01-Niveau in den meisten Fällen nicht verworfen werden kann. Entsprechend kann dann von normalverteilten Werten ausgegangen und der parametrische T-Test angewendet werden. 1086 Die Anwendung des T-Tests zeigt, dass es insgesamt nur sehr wenige signifikante Unterschiede gibt. So weisen lediglich höchstens knapp 8% oder zwei von 26 Indikatorvariablen der fünf Faktoren einen signifikanten Unterschied der Mittelwerte zwischen den paarweise verglichenen Branchen auf. 1087 Die Ergebnisse des T-Tests sind zur Übersicht in Tabelle 41 dargestellt.
schen T-Test der Fall ist. Grundsätzlich gilt, dass anstelle eines T-Tests auch der nichtparametrische Kruskal-Wallis-Test durchgeführt werden kann (vgl. Brosius (2004), S. 843). Mit dem Median-Test kann überprüft werden, ob die unterschiedlichen Gruppen den gleichen Median aufweisen. Er ist somit dem T-Test ähnlich, der die Mittelwerte verschiedener Stichproben vergleicht (vgl. Brosius (2004), S. 866). 1084 Vgl. Brosius (2004), S. 479ff. Allerdings konnte gezeigt werden, dass der T-Test in den meisten Fällen auch ohne die Erfüllung der Annahme normalverteilter Variablen zu guten Ergebnissen führt (vgl. Brosius (2004), S. 480). 1085 Beide Tests prüfen die Nullhypothese, die untersuchten Variablen seien in der Grundgesamtheit normalverteilt. Insbesondere für große Stichproben gilt der Kolmogorov-Smirnov-Test als besonders geeignet. Da dieser Test bei kleinen Stichproben (< 50) nicht ganz so stabil ist, wird zusätzlich der Shapiro-Wilks-Test empfohlen (vgl. Brosius (2004), S. 404) und hier entsprechend durchgeführt. 1086 Da der T-Test auch in Fällen nicht-normalverteilter Variablen weitestgehend robust ist, wird er an dieser Stelle angewendet, obwohl nicht für alle Variablen in jeder Branche eine Normalverteilung nachgewiesen werden kann. Um eine zusätzliche Zuverlässigkeit der Untersuchungsergebnisse sicherzustellen, wird auf die beiden nicht-parametrischen Tests ergänzend zurückgegriffen, die die Anforderung normalverteilter Variablenwerte nicht haben. 1087 Bei Anwendung eines Signifikanzniveaus von p = 0,05. 1083
196
Branche
Maschinenbau
Elektrotechnik
Automobilindustrie
Medizintechnik
Biotechnologie
Pharma
Metallverarbeitung
Maschinenbau
-
Elektrotechnik
0%
-
Automobilindustrie
4%
0%
-
Medizintechnik
8%
8%
8%
-
Biotechnologie
4%
4%
4%
8%
-
Pharma
4%
0%
0%
0%
0%
-
Metallverarbeitung
4%
0%
4%
0%
0%
0%
-
Andere
0%
0%
4%
8%
0%
0%
0%
Andere
-
Tabelle 41: Anteil der signifikant unterschiedlichen Variablen zwischen den Branchen (T-Test) Quelle: Eigene Darstellung
Zur Sicherstellung der Analysequalität auch in den Fällen, in denen nicht von einer strikten Normalverteilung aller Indikatorvariablen ausgegangen werden kann, werden zusätzlich die beiden nicht-parametrischen Kruskal-Wallis- und Median-Tests durchgeführt. Beide Analysen bestätigen die Ergebnisse des T-Tests. Sowohl der Kruskal-Wallis-Test, als auch der Median-Test deuten darauf hin, dass es keine großen Unterschiede in den Indikatorausprägungen zwischen den Branchen gibt. So weisen lediglich 12% der Indikatoren beim Kruskal-Wallis-Test und sogar nur 8% der Indikatoren beim Median-Test Unterschiede zwischen den Branchen auf. 1088 5.2.3.2.2 Einfluss der Unternehmensgröße Der Einfluss der Unternehmensgröße wird auf Basis der Mitarbeiteranzahl in dem jeweiligen Unternehmen diskutiert. Dabei werden zwei Gruppen von Unternehmensgrößen verglichen, nämlich Unternehmen mit mehr und Unternehmen mit weniger als 500 Mitarbeitern. Diese Einteilung orientiert sich an der Definition des Instituts für Mittelstandsforschung zur Trennung von kleinen und mittleren Unternehmen (KMU) einerseits und großen Unternehmen andererseits. 1089 Bevor mögliche Unterschiede zwischen den Gruppen mit Hilfe eines Vergleichs der Strukturgleichungsmodelle analysiert werden können, muss analog dem Vorgehen in Abschnitt 5.2 zunächst geprüft werden, ob eine Interpretation der Strukturgleichungsmodelle überhaupt zu1088
Als kritisches Signifikanzniveau zur Ablehnung der Nullhypothese der beiden Tests wurde p