Wolfgang Baumann / Ulrich Braukmann Winfried Matthes (Hrsg.) Innovation und Internationalisierung
Tronx 4 LNU
GABLER RESEARCH
Wolfgang Baumann / Ulrich Braukmann Winfried Matthes (Hrsg.)
Innovation und Internationalisierung Festschrift für Norbert Koubek
RESEARCH
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.
Die Veröffentlichung dieser Festschrift wurde finanziell unterstützt durch: E/D/E Stiftung, K. A. Schmersal GmbH, Barmenia Lebensversicherung a. G., Schumpeter School Alumni e. V., Stadtsparkasse Wuppertal.
1. Auflage 2010 Alle Rechte vorbehalten © Gabler Verlag | Springer Fachmedien Wiesbaden GmbH 2010 Lektorat: Ute Wrasmann | Jutta Hinrichsen Gabler Verlag ist eine Marke von Springer Fachmedien. Springer Fachmedien ist Teil der Fachverlagsgruppe Springer Science+Business Media. www.gabler.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Umschlaggestaltung: KünkelLopka Medienentwicklung, Heidelberg Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier Printed in Germany ISBN 978-3-8349-1709-6
Professor Dr. Norbert Koubek
Vorwort
Mit dieser Festschrift wollen Autoren und Herausgeber Herrn Universitätsprofessor Dr. Norbert Koubek als erfolgreichen Hochschullehrer, Kollegen, Weggefährten und Freund aus Anlass seiner Versetzung in den Ruhestand ehren und ihm für seine wertvollen wissenschaftlichen und berufspolitischen Beiträge danken. Mit seiner Abschiedsvorlesung am 7.7.2010 an der Bergischen Universität Wuppertal, Fachbereich Wirtschaftswissenschaft – Schumpeter School of Business and Economics – beendet Norbert Koubek seine akademische Laufbahn als Universitätsprofessor. Seine Freunde, Weggefährten, die Autoren und die Herausgeber dieser Festschrift wünschen Norbert Koubek weiterhin beste Gesundheit und Schaffenskraft, Erfolg bei seinen weiteren Vorhaben und bei der Lektüre dieser Festschrift viel Freude.
I. Norbert Koubek wurde 1942 in Lanz/Böhmen geboren. Von 1962 bis 1969 studierte er Volkswirtschaftslehre an der Johann Wolfgang Goethe-Universität Frankfurt am Main, wurde dort zum Diplom-Volkswirt graduiert und zum Dr. rer. pol. promoviert. Bis 1974 war er in verschiedenen internationalen Organisationen, Unternehmen und im Wirtschafts- und Sozialwissenschaftlichen Forschungsinstitut (WSI), Düsseldorf, tätig. 1974 wurde er als Professor für Wirtschaftswissenschaft, mit Schwerpunkt Arbeitswirtschaft, an die Bergische Universität berufen und war dort von 1994 bis 2010 Inhaber der Professur für Betriebswirtschaftslehre, insbesondere Innovationsmanagement und Produktionswirtschaft. In zahlreichen Funktionen der akademischen Selbstverwaltung – als Dekan, langjähriges Mitglied im Fachbereichsrat und Akademischen Senat – war die Wirkung Norbert Koubeks stets auf konstruktive Lösungen allfälliger Konflikte unter Beachtung unverzichtbarer qualitativer Anforderungen von Wissenschaft und Praxis gerichtet. In oftmals nicht einfachen Auseinandersetzungen um Reformen und zukunftsträchtige Entwicklungen von Studiengängen, Prüfungsordnungen und Strukturen des Fachbereichs half Norbert Koubek in schwierigen Umbruchphasen mit, wesentliche Grundlagen letztlich auch für eine erfolgreiche Ausbildungs- und Berufungspolitik des Fachbereichs zu legen und anzuwenden.
VIII
Vorwort II.
Es ist ein großes Verdienst von Norbert Koubek, die Ausbildungschancen der Studierenden der Wirtschaftswissenschaft durch internationale Kontakte im Bereich von Wissenschaft und Praxis gesteigert zu haben. In Verbindung mit diesen Aktivitäten warb Norbert Koubek mit seinen persönlichen Kontakten zu Wirtschaft und Gesellschaft weit über das Bergische Land hinaus für seine akademische Wirkungsstätte, letztlich und vor allem zum Wohle der Studierenden. Einen Höhepunkt seines wissenschaftspolitischen Wirkens stellt seine Initiative und Mitwirkung bei der Gründung der Schumpeter School of Business and Economics dar, mit der ein Rahmen für Forschung und Lehre zu aktuellen ökonomischen Entwicklungsthemen unter Einbeziehung der herausragenden wissenschaftlichen Beiträge Joseph Schumpeters geschaffen wurde.
III. In seinen wissenschaftlichen Publikationen hat Norbert Koubek sich weit über die Betriebswirtschaftslehre hinaus schwerpunktmäßig den folgenden Themengebieten gewidmet:
Wirtschaftsstrukturen und Institutionen mit Themen zu staatlicher Planung, Wettbewerb und Konzentration unter Einbeziehung der Universitäten als gesellschaftliche Bildungsinstitutionen sowie der Entwicklung ihrer verschiedenen Modelle, Arbeitsorientierung und Betriebswirtschaftslehre mit der Entwicklung einer arbeitsorientierten Einzelwirtschaftslehre und der zugehörigen Theorie der Unternehmung sowie mit Themen zur Arbeitslehre und arbeitsorientierten Wirtschaftspädagogik und Ausbildung für den Schuldienst, Internationale Organisationen und Globalisierung mit Themen zur internationalen bis globalen Verflechtung von Unternehmen, Verbänden, Länderaktivitäten und Weltreligionen, Entwicklung multinationaler Unternehmen und internationalen Managements, entsprechender neuer Arbeitsbeziehungen, international ausgerichteter Gewerkschaften und neuer Machtzentren vor allem in Ost- und Südasien und Südamerika, außerhalb der westlichen Basis der modernen Wirtschaftsordnungen, sowie mit Perspektiven der sich in diesen Zusammenhängen abzeichnenden Verschiebungen in der Welt-, insbesondere Weltwirtschaftspolitik.
Vorwort
IX
Der Ansatz Norbert Koubeks zur Konzipierung der Arbeitsorientierten Betriebswirtschaftslehre und der sie stützenden Theorie mit Erweiterungsoptionen ist für die Diskussion und Weiterentwicklung der Betriebswirtschaftslehre nach wie vor von zukunftsträchtiger Bedeutung. Diese Konzeption stellt Ansprüche und Bedingungen des Produktionsfaktors Arbeitsleistung explizit neben diejenigen des Faktors (Finanz-)Kapital und versucht, diese auch mit den Standardrestriktionen einer marktwirtschaftlichen Unternehmung – wie Sicherung der Zahlungs- und Lieferfähigkeit, von Cashflow und Anteilen am Absatz- und Beschaffungsmärkten sowie der existenziellen Kapitalstrukturen, auch und zunehmend des Humanund Innovationskapitals aller Art – in einem mehrdimensionalen Zielsystem zu verbinden. Die später aufgekommene, vielfach einseitig und kurzfristig betriebene Wiederbelebung von Finanzkapitalinteressen in Form des Shareholder-ValueKonzepts und seiner Varianten schien längere Zeit Arbeitnehmerinteressen in der wissenschaftlichen Diskussion zu verdrängen, bis die existenziellen Gefahren dieser engen Konzeption spätestens durch diverse Absatz- und Finanzkrisen national und international praktisch politisch sichtbar wurden. In diesen aktuellen Entwicklungen lohnt durchaus eine zukunftsbezogene Erinnerung an den Ansatz Norbert Koubeks, denn er steht in der bewährten, jedoch immer wieder gefährdeten und zu allen Zeiten umkämpften Tradition, den Menschen mit seinen individuellen, gesellschaftlichen (kulturellen und ökonomischen) sowie natürlichen Entwicklungsbedingungen und -optionen umfassend zu sehen und seine Konflikte und seine ständige Suche nach Konfliktlösungen bzw. Gleichgewichten wissenschaftlich, d.h. im Kern vor allem mit nachvollziehbaren Methoden und überprüfbaren Ergebnissen, analytisch und konstruktiv zu bearbeiten. Mit diesem wissenschaftlichen Schwerpunkt verbindet Norbert Koubek bis heute die Analyse internationaler multizentrischer Entwicklungen als einen weiteren höchst aktuellen wissenschaftlichen Schwerpunkt nicht nur in der Forschung, sondern auch in der Lehre, indem er seinen Schülern auf vielen international orientierten Exkursionen konkrete Einblicke in die Entwicklungen auch an neuen Machtzentren der globalen Wirtschaft mit all ihren großen Chancen, aber auch nicht geringen Risiken im Spannungsfeld großen Reichtums und größter Armut geboten hat. Zu solchen Fragen hat Norbert Koubek mehrere gewichtige Arbeiten mit Bezug auf konkrete ökonomische Aktivitäten verschiedener international wirkender Unternehmen und Regionen auch unter Berücksichtigung ihrer jeweiligen kulturellen Entwicklungsbedingungen vorgelegt: zum pazifischen Raum, Indien, zur Kooperation von EU und ASEAN und zu den BRICStaaten (Brasilien, Russland, Indien und China). Aus dieser auf den Menschen in seinen vielfältigen Arbeits-, Lern- und Innovationsprozessen gerichteten, zugleich aktuell weltoffenen Sicht wirkte Norbert Koubek an diversen Reformen wirtschaftswissenschaftlicher Studienpro-
X
Vorwort
gramme und zugehöriger Prüfungsordnungen konstruktiv mit: Insbesondere am Studienprogramm mit der Prüfungsordnung von 1991, die vier spezifisch berufsfeld-bezogene Lehrprogramme (zu den Themen Arbeit und Produktion, Marktund Konsum, Finanzen und Revision sowie Planung und Organisation) um ein schwerpunktfreies Studienprogramm ergänzte, das über der verbindlichen Struktur von fünf Kategorien von Prüfungsfächern im Diplomhauptstudium sehr viele mögliche Fächerkombinationen zur Wahl der Studierenden nach ihren individuellen wissenschaftlichen und beruflichen Interessen anbot.
IV. Als Mitglied des Fachbereichsrats, später auch des Akademischen Senats, war Norbert Koubek an wichtigen Studien- und Prüfungsreformen beteiligt:
2000 bis 2006 an der erstmaligen Einführung von Studienmodulen als Fächeranteilen mit eigenen kurzen Prüfungen und Kredit-/Leistungspunkten im Rahmen eines ersten Bachelor- und Masterprogramms und des tradierten Diplomstudiums im integrierten Studiengang Wirtschaftswissenschaft, 2007 am neuen akkreditierten Bachelor- und Masterprogramm nach europäischen Standards des sog. Bologna-Prozesses sowie ab 2007/08 an der Entwicklung mehrerer Studienprogramme eines Wirtschaftsingenieurstudiums, das nach langjährigen zunächst vergeblichen Bemühungen die gewachsenen Lehrpotenziale der Wirtschaftswissenschaft mit denen der Ingenieurwissenschaften (insbesondere im Bereich des Verkehrswesens und der Elektrotechnik) an der Bergischen Universität zukunftsträchtig zusammenführt und den Studierenden neue Ausbildungsoptionen für aktuelle Berufsfelder bietet.
V. Norbert Koubek war vielen wissenschaftlichen Vereinigungen und Unternehmen, z.T. auch als Organmitglied, verbunden. In diesem Zusammenhang sind seine frühen Initiativen und erfolgreichen Aktivitäten beim Aufbau und Einsatz einer Alumniorganisation zu nennen. Im Januar 2003 wurde auf Initiative von Norbert Koubek die erste Alumniorganisation der Bergischen Universität – WTALumni e.V. – gegründet, die im Jahr 2009 ihren Namen in Schumpeter School Alumni e.V. änderte. Von 2003 bis 2007 gab Norbert Koubek als Erster Vorsitzender dieses Vereins die wichtigsten Organisa-
Vorwort
XI
tionsstrukturen und Tätigkeitsfelder mit regelmäßigen Veranstaltungsreihen zur Förderung und Unterstützung des Fachbereichs vor. Diese Aktivitäten ergänzte er durch seinen Einsatz bei der Etablierung des jährlich durchgeführten Universitätsballs – einer erfolgreichen Festlichkeit in den Sälen der Historischen Stadthalle Wuppertal als Forum gesellschaftlicher Kontakte zwischen allen interessierten Institutionen, der Universitätsleitung und -verwaltung, den Lehrenden und Studierenden, verbunden mit den ebenfalls von ihm initiierten Absolventenfeiern. Einen weiteren Meilenstein setzte Norbert Koubek im Jahre 2006 durch seine Mitwirkung bei der Errichtung der USI-Stiftung Wuppertal – Unternehmertum-Strukturwandel-Internationalisierung. Motiv für die Gründung dieser Stiftung war, die Forschung und Lehre im wirtschafts- und sozialwissenschaftlichen Fachbereich der Bergischen Universität Wuppertal finanziell, ideell dauerhaft und nachhaltig zu unterstützen, um deren nationale und internationale Wettbewerbsfähigkeit gegenüber anderen Hochschulen sicherzustellen. Ferner sollte die Stiftung das Interesse der Fachwelt und Öffentlichkeit an den Veranstaltungen, Projekten, Veröffentlichungen und Personen des wirtschafts- und sozialwissenschaftlichen Fachbereichs der Bergischen Universität Wuppertal stärken. Dementsprechend ist Zweck der Stiftung die Förderung aller Gegenstände der Lehre, der Forschung und des Wissenstransfer an der Bergischen Universität Wuppertal im wirtschaftswissenschaftlichen Kontext. Den Akquisitionsaktivitäten Norbert Koubeks ist zu verdanken, dass sich namhafte Unternehmen und Persönlichkeiten das Stiftungskapital zur Gründung zur Verfügung stellten: So der Verein WTALumni e.V. (aufgrund einer Spende der Stadtsparkasse Wuppertal), die Wuppertaler Stadtwerke Aktiengesellschaft, die Barmenia Krankenversicherung a.G., die Vorwerk & Co. KG, die E/D/E GmbH, Frau Dorothee Hannesschläger, Herr Prof. Dr. Gerhard Arminger. Norbert Koubek übernahm als Vorstandsvorsitzender die Leitung dieser Stiftung, die im Jahr 2009 ihren Namen in Schumpeter School Stiftung änderte.
VI. Die Beiträge dieser Festschrift greifen zahlreiche Facetten des wissenschaftlichen Werkes Norbert Koubeks auf: von der Arbeitsorientierten Betriebswirtschaftslehre über Arbeit und Personal, Soziale Verantwortung, Innovation und Unternehmensgründung, Innovationen in Finanzmärkten, Europäische Integration und Globalisierung, steuerliche, öffentlich- und privatrechtliche Entwicklungen, Informationen und Medien, Konsumentenverhalten und Vertriebspolitik bis zu aktuellen methodischen Fragen offener vieldimensionaler polyzentrischer und
XII
Vorwort
dennoch kooperativer Planung nicht zuletzt auch komplexer Arbeitsprozesse in beliebigen strategischen Umfeldern. Die Festschrift ist das Werk vieler, denen die Herausgeber an dieser Stelle herzlich danken: allen Autoren, die jeweils wichtige Fragen ihrer aktuellen Arbeit behandelten und zukunftsträchtige Analysen vorlegten, in der zumeist im Hintergrund erfolgenden, dennoch überaus bedeutsamen Organisation Frau Natascha Compes M. A., Herrn cand. rer. oec Dominik Bartsch und Herrn Dipl.-Kfm. Daniel Schneider, im Kontakt mit den Autoren und dem Lektorat der Festschrift Herrn cand. rer. oec. Marcus Knappstein, der unermüdlich, mit großen Engagement und hoher Präzision half, das Vorhaben erfolgreich und fristgerecht durchzuführen, allen Sponsoren, die die Finanzierung ermöglichten, dem Gabler-Verlag für seine Unterstützung des Festschriftprojekts für fruchtbare Verlagsbedingungen und die ansprechende Ausstattung der Festschrift, insbesondere auch der Verlagslektorin, Frau Jutta Hinrichsen, die in der „heißen“ Schlussphase der Fertigstellung der druckreifen Files die letzten Fehler erkannte und entsprechend die nötigen „Tüpfelchen auf das i“ setzte. Wir wünschen Norbert Koubek einen vergnüglichen (Un-)Ruhestand und lange gute Gesundheit, um seinen wissenschaftlichen Neigungen zur internationalen Entwicklung in allen Regionen des Globus nachgehen zu können. Ad multos annos in vita et scientia! Die Herausgeber Wolfgang Baumann
Wuppertal, im Juni 2010
Ulrich Braukmann
Winfried Matthes
Inhaltsverzeichnis
Vorwort der Herausgeber ………………………………….…....................... VII Autorenverzeichnis ……..………………………………………….….......... XIX Arbeitsorientierte Betriebswirtschaftslehre ………...…………………….….. 1 Ist Betriebswirtschaftslehre nachhaltig? Vom Nutzen und Nachteil seinerzeitigen arbeitsorientierten Denkens in der Betriebswirtschaftslehre Reinhard Pfriem …….…………..………………………………………….......... 3 Das kritische Vermächtnis der AOEWL Hartmut Wächter / Thomas Metz …………………………………..................... 29
Arbeit und Personal ………..…………………………………………………. 45 Studenten-Kaizen-Workshops als Lehrelement der Produktionswirtschaft Karl Maisch ………………………………………………………...………...… 47 Die Globalisierung der Personalfunktion – Das Projekt „Transforming Human Resources“ des Bayer-Konzerns Jan H. Peters / Markus Siebenmorgen ……...……………………...……........... 67 Arbeit ohne Zukunft? Zukunft ohne Arbeit? Ronald Schettkat ……...………………………………………………………… 89 Personalmanagement im Reich der Mitte: Rekrutierung in China erfolgreich gestalten Stephan Weinert ……………….……………………………………………… 107
XIV
Inhaltsverzeichnis
Soziale Verantwortung, Innovation und Unternehmensgründung …….… 127 Die Ideologien beim Wort nehmen: Soziale Verantwortung von Unternehmen inhaltlich und institutionell sichern! Jürgen Freimann ………...……………………………………………...…….. 129 Soziale Innovationen und Social Entrepreneurship Christine Volkmann / Kim Oliver Tokarski ………...……………......…….….. 151 Wagnis Innovation – Zur Unsicherheitssituation junger Unternehmen Michael Fallgatter / Heiko Breitsohl ……...………………………………….. 171 Wuppertal als Wirtschaftsstandort für Existenzgründer – Stadtsparkasse Wuppertal als aktiver Begleiter in die wirtschaftliche Selbständigkeit Peter H. Vaupel ……………………………………………………………..… 189 Zum Bild des mittelständischen Unternehmers – Analyse des Status quo anhand einer empirischen Vollerhebung von Schulbüchern des Landes Nordrhein-Westfalen und Plädoyer für ein »aufgeklärtes« Unternehmerbild Ulrich Braukmann / Carsten Kreutz / Daniel Schneider ………….…..……… 201 Wandel als Chance – Innovationsimpulse und institutionelles Unternehmertum Lambert T. Koch / Marc Grünhagen …………………………………..……… 231 Internationale Märkte und Innovationen. Wie innovativ sind die Chemieunternehmen in Europa? Thomas Cleff ………………………………………………………………..… 261 Effective Management Tools from Indian ethos: A paradigm of innovation for International Companies (INCS) G. R. Krishnamurthy ………………………………………………………...... 283
Innovationen in Finanzmärkten ………….….….….….….……………..…. 287 Innovationsbasierte Performancestrategien Michael Nelles / Marie Luise Meyer / Mareike Hermann / Martin Užík / Markus Pütz …………………………...…. 289
Inhaltsverzeichnis
XV
Finanzinnovationen, Wachstum und Transatlantische Bankenkrise Paul J. J. Welfens ……………………………………………………............... 303
Europäische Integration und Globalisierung …………....………………… 327 Kapitalintensität und europäische Wettbewerbsfähigkeit Erich Hödl ………………………………………………..……………….…... 329 Standortwettbewerb und Globalisierung – Grenzenlose Innovation als Chance für Europa? Thorsten Posselt / Falk Kunadt ………………..…………………………..….. 343 Die „Méthode Monnet“ der europäischen Integration: Mythos und Realität Franz Knipping ……………………………………………………………….. 363 Aggregate Productivity and Spatial Distribution: Evidence from the US Economy Werner Bönte / Zuoquan Zhao ……………………………………………..…. 381 Krisenmanagement am Beispiel Brasilien Heinz Schmersal ………………………………………………………………. 399 Marketing in the process of transformation. A Polish case. Roman Glowacki / Grzegorz Karasiewicz …………………….……………… 409
Steuerliche, öffentlich- und privatrechtliche Entwicklungen ……...……... 417 Europarecht und Wirtschaftsvölkerrecht als Innovationsaccelerator, Steuerungsmedium und Motor globalen Fortschritts Winfried Bausback / Franziska Schuierer ……………………………………. 419 Die „Trihotel“-Entscheidung des BGH – Eröffnung neuer Haftungsstatute bei Fällen mit Auslandsbezug? Claus Ahrens …………………….……………………………………….…… 439 Unternehmensstiftungen – Stiftungen als Unternehmensträger Wolfgang Baumann ……………….……………………………………..……. 459
XVI
Inhaltsverzeichnis
Innovation im Steuerrecht: Wie kann die Thesaurierungsbegünstigung eine annähernd belastungsneutrale Besteuerung von Personen- und Kapitalgesellschaften gewährleisten? Kerstin Schneider / Claudia Wesselbaum-Neugebauer …………………….… 475
Informationen und Medien …………………………………...….…………. 503 Zur Ökonomie digitaler Medien Jochen Koubek …………………………………………………..………….… 505 Informationstransparenz auf dem deutschen Elektrizitätshandelsmarkt – Eine Analyse des Erklärungsgehaltes ausgewählter schumpeterianischer Aussagen für empirisch beobachtbare Phänomene Christian Kunze ……………………………………...…………..………….… 523 Critical Incidents im Internationalen Projektmanagement erfordern hybrid skills Harald Meier ……………………………………...……………..………….… 537
Konsumentenverhalten und Vertriebspolitik …………………………....… 569 Das adaptive Entscheidungsverhalten der Konsumenten – nicht rational, aber zweckmäßig Gerold Behrens ……………………………………...……………..……….… 571 Markenliebe: Vom Wesen der intensivsten aller Markenbeziehungen Tobias Langner / Jochen Kühn ………………………………...…..……….… 589 Das Versicherungsprodukt der Zukunft – Unter besonderer Berücksichtigung der Privaten Krankenversicherung Josef Beutelmann ……………………………………...……………..……...… 613
Planung und Steuerung ……………………………………………….......… 637 Neue Institutionenökonomik – Einige Überlegungen zur Bedeutung, Funktionsweise und Entstehung von Institutionen Hans Frambach ……………………………………...……………..……….… 639
Inhaltsverzeichnis
XVII
Quantitatives Controlling von Offshoring-Entscheidungen Stefan Bock / Thorsten Böth …………………………...…………..….…….… 659 Der Einfluss internationaler Rechnungslegungsvorschriften auf die Bilanzierung von Entwicklungsausgaben nach deutschem Bilanzrecht Frank Hülsberg / Stefan Thiele ………………………...…………..……….… 681 Fair Value – Controllers Traum oder Albtraum? Nils Crasselt ………………………...…………..…………………………...... 701 Evolution der Balanced Score Card Winfried Matthes ……………………….........................…………..……….… 717
Schriftenverzeichnis Norbert Koubek ……………………...……….……… 765
Autorenverzeichnis Autorenverzeichnis
Univ.-Prof. Dr. Claus Ahrens Claus Ahrens studierte Rechtswissenschaft an der Universität Würzburg und schloss 1993 mit dem Zweiten Juristischen Staatsexamen ab. Von 1994 bis 2000 war er Wissenschaftlicher Assistent an der Universität Würzburg (Professor Dr. Hans Forkel) mit Promotion zum Dr. iur. in 1995. Im Jahr 2001 habilitierte Claus Ahrens. Seit August 2004 ist er Inhaber der Professur für Privatrecht, insbesondere Wirtschaftsprivatrecht an der Bergischen Universität Wuppertal (FB B – Wirtschaftswissenschaft, Schumpeter School of Business an Economics) E-Mail:
[email protected] Prof. Dr. Wolfgang Baumann Wolfgang Baumann studierte an den Universitäten Göttingen, Freiburg und Münster Rechts- und Wirtschaftswissenschaften. Nach dem ersten juristischen Staatsexamen war er während seines Referendardienstes an den Universitäten Münster und Bielefeld zunächst wissenschaftliche Hilfskraft (Prof. Dr. Norbert Horn) und nach dem zweiten juristischen Staatsexamen wissenschaftlicher Assistent an der Universität Bielefeld (Prof. Dr. Gerhard Otte). Seine Dissertation zum „Schuldanerkenntnis“ wurde mit dem Dissertationspreis der WestfälischLippischen Universitätsgesellschaft ausgezeichnet. Nach Lehrtätigkeiten an den Universitäten Münster, Bielefeld, Köln und Fernuniversität Hagen wurde er im Jahr 2001 Lehrbeauftragter an der Bergischen Universität und ist seit 2006 Honorar-Professor (FB Wirtschaftswissenschaft, Schumpeter School of Business and Economics). E-Mail:
[email protected] Univ.-Prof. Dr. Winfried Bausback, MdL Winfried Bausback hat nach seiner Promotion zum Dr. iur. (1997) und Habilitation (2002) an der Julius Maximilians Universität Würzburg verschiedene Vertretungsprofessuren und Lehraufträge an unterschiedlichen Universitäten wahr-
XX
Autorenverzeichnis
genommen. Seit April 2007 ist er an der Bergische Universität Wuppertal Inhaber der Professur für Öffentliches Recht, insbesondere Europäisches und Internationales Wirtschaftsrecht, und zudem seit Oktober 2008 Mitglied des Bayerischen Landtages. E-Mail:
[email protected] Univ.-Prof. Dr. Gerold Behrens Studium der Ingenieurwissenschaften an der TU Berlin (Dipl.-Ing.) und der Betriebswirtschaftslehre an der Universität des Saarlandes (Dr. rer. oec., Habilitation in Betriebswirtschaftslehre). Lehre und Forschung an den Universitäten Paderborn, Oldenburg, Saarbrücken und zuletzt Professur für Betriebswirtschaftlehre, insbesondere Marketing, an der Bergischen Universität Wuppertal. Die Forschungsschwerpunkte liegen an der Schnittstelle von Ökonomie und Verhaltenswissenschaften, insbesondere auf den Gebieten verhaltensorientiertes Marketing, Werbung und Konsumentenverhalten. E-Mail:
[email protected] Dr. h.c. Josef Beutelmann Der 1949 in Nordkirchen geborene Autor absolvierte eine Ausbildung zum Versicherungskaufmann bei den Barmenia Versicherungen. Nach Tätigkeiten bei der Barmenia in Münster, Dortmund und Wuppertal studierte er Betriebswirtschaftslehre an der Universität zu Köln und trat erneut in die Barmenia Versicherungen ein. Seit 1998 ist er Vorsitzender der Vorstände der Barmenia Versicherungen. E-Mail:
[email protected] Univ.-Prof. Dr. Stefan Bock Stefan Bock ist Inhaber der Professur für Wirtschaftsinformatik und Operations Research an der Schumpeter School of Business and Economics, Bergische Universität Wuppertal E-Mail:
[email protected] Univ.-Prof. Dr. Werner Bönte Werner Bönte ist Inhaber der Professur für Industrieökonomik und Innovation an der Schumpeter School of Business and Economics der Bergischen Universität Wuppertal. Er promovierte zum Dr. rer. pol. und habilitierte an der Universität Hamburg. E-Mail:
[email protected] Autorenverzeichnis
XXI
Dipl.-Ök. Thorsten Böth Thorsten Böth ist Projektmanager im Institut für Gründungs- und Innovationsforschung (IGIF), Lehrbeauftragter im Bereich Controlling an der Schumpeter School of Business and Economics, Bergische Universität Wuppertal und Vorsitzender des Beirats des Bundesverbandes Deutscher Volks- und Betriebswirte. E-Mail:
[email protected] Univ.-Prof. Dr. Ulrich Braukmann Ulrich Braukmann absolvierte ein Doppelstudium der Wirtschafts- und Sozialwissenschaft sowie der Sportwissenschaft an der Universität zu Köln und an der Deutschen Sporthochschule Köln sowie an der London School of Economics and Political Science. Er promovierte an der Wirtschafts- und Sozialwissenschaftlichen Fakultät der Universität zu Köln zum Dr. rer. pol. Zeitgleich war er wissenschaftlicher Mitarbeiter an der Wirtschafts- und Sozialwissenschaftlichen Fakultät der Universität zu Köln sowie Wissenschaftlicher Mitarbeiter und Assistent an der Wirtschaftswissenschaftlichen Fakultät der Friedrich-Schiller-Universität Jena. Er habilitierte an der Wirtschaftswissenschaftlichen Fakultät der Friedrich-SchillerUniversität Jena. Zur Zeit ist er Inhaber der Professur für Wirtschaftspädagogik, Gründungspädagogik und Gründungsdidaktik der Schumpeter der School of Business and Economics der Bergischen Universität Wuppertal. Zugleich leitet er mit seinem Kollegen Lambert Koch (bzw. seiner Vertreterin Christine Volkmann) das Institut für Gründungs- und Innovationsforschung (IGIF). E-Mail:
[email protected] Dr. Heiko Breitsohl Heiko Breitsohl studierte Betriebswirtschaftslehre an der Wirtschaftswissenschaftlichen Fakultät Ingolstadt der Katholischen Universität Eichstätt-Ingolstadt sowie an der University of Memphis, Tennessee, USA. Seit 2005 ist er Wissenschaftlicher Mitarbeiter am Lehrstuhl für BWL, insb. Personalmanagement und Organisation an der Schumpeter School of Business and Economics der Bergischen Universität Wuppertal und wurde dort 2009 zum Dr. rer. oec promoviert. E-Mail:
[email protected] Prof. Dr. Thomas Cleff Thomas Cleff ist Absolvent der Universität Wuppertal und der Université de Panthéon-Sorbonne (Paris 1). Zwischen 1993 und 1996 war er Assistent am Lehrstuhl bei Prof. Dr. Koubek an der Universität Wuppertal. Nach Abschluss
XXII
Autorenverzeichnis
seiner Promotion baute er den Forschungsschwerpunkt „Internationale Unternehmensstrategien“ am ZEW Mannheim verantwortlich auf. Seit 2000 ist er Professor für Quantitative Methoden der BWL an der Hochschule Pforzheim und Research Associate am ZEW Mannheim. E-Mail:
[email protected] Univ.-Prof. Dr. Nils Crasselt Nils Crasselt studierte Betriebswirtschaftslehre an der Westfälischen WilhelmsUniversität Münster. Nach dem Studienabschluss war er von 1997 bis 2008 als wissenschaftlicher Mitarbeiter am Lehrstuhl für Internationale Unternehmensrechnung der Ruhr-Universität Bochum tätig. Seit dem Wintersemester 2008/09 ist er Inhaber der Professur für Betriebswirtschaftslehre, insbesondere Controlling, an der Schumpeter School of Business and Economics der Bergischen Universität Wuppertal. E-Mail:
[email protected] Univ.-Prof. Dr. Michael J. Fallgatter Michael Fallgatter studierte Betriebswirtschaftslehre an der Johann Wolfgang Goethe-Universität Frankfurt. Anschließend promovierte er an der FriedrichSchiller-Universität Jena zum Dr. rer. pol. Seine Habilitationsschrift „Theorie des Entrepreneurship. Perspektiven zur Erforschung der Entstehung und Entwicklung junger Unternehmungen“, entstanden an der Universität Bielefeld, wurde mit dem Wolfgang-Ritter-Preis ausgezeichnet. Es folgten Lehrstuhlvertretungen an den Universitäten Siegen und Wuppertal. Seit 2004 ist er Inhaber der Professur für Betriebswirtschaftslehre, insbesondere Personalmanagement und Organisation, an der Bergischen Universität Wuppertal. Zudem ist er derzeit Dekan der Schumpeter School of Business and Economics. E-Mail:
[email protected] Prof. Dr. Hans Frambach Studium der Wirtschafts- und Sozialwissenschaften an der Universität Dortmund (Dipl.-Volksw. 1988), Promotion zum Dr. rer. oec. (1992) und Habilitation (1999) in Volkswirtschaftslehre an der Universität Wuppertal. Seit 1992 Professor für Volkswirtschaftslehre an der Universität Wuppertal. E-Mail:
[email protected] Autorenverzeichnis
XXIII
Univ.-Prof. Dr. Jürgen Freimann Studium in Berlin (FU) und Frankfurt/Main, wiss. Tätigkeit an den Universitäten Frankfurt, Wuppertal, Kassel, Eichstätt und Hannover, seit 1993 Professor für Betriebswirtschaftslehre und Leiter des Fachgebiets Nachhaltige Unternehmensführung, seit 2009 Geschäftsführender Direktor des Instituts für Betriebswirtschaftslehre an der Universität Kassel E-Mail:
[email protected] Prof. dr hab. Roman Glowacki Roman Glowacki is full professor of marketing, PhD in economics, Dr habilitus (docent) in marketing, alumnus of Harvard Business School, 1966-1973 associate professor of Szkoa Gówna Handlowa (Main School of Commerce), 19681973 general director of the Market Research Institute, 1973-2005 the founder and the head of marketing chair at Warsaw University Faculty of Management, President of the Centre For Management Training at Warsaw University 1990up to now, the author of more than 300 publications on Marketing, Economic Incentives, Prices and other Economic issues. E-Mail:
[email protected] Dr. Marc Grünhagen Marc Grünhagen arbeitet an der Professur für Wirtschaftswissenschaft, insbesondere Unternehmensgründung und Wirtschaftsentwicklung, der Schumpeter School of Business and Economics. Er lehrt Entrepreneurship und Entrepreneurial Economics. In seiner Forschung widmet er sich den Bereichen Unternehmertum an Universitäten, Handlungsintentionen von Gründern und Wachstum junger Unternehmen. Vor seiner akademischen Tätigkeit war Marc Grünhagen Berater im Bereich Corporate Finance und Investmentmanager für einen VentureCapital Fonds im Bereich IT und Telekommunikation. E-Mail:
[email protected] Dipl.-Ök. Mareike Hermann Seit Abschluss Ihres Studiums der Wirtschaftswissenschaften an der Bergischen Universität Wuppertal in 2006 ist Mareike Hermann Wissenschaftliche Mitarbeiterin bei der Professur für Betriebswirtschaftslehre, insbesondere Finanz- und Bankwirtschaft, an der Bergischen Universität Wuppertal und dort Doktorandin. E-Mail:
[email protected] XXIV
Autorenverzeichnis
Univ.-Prof. Dr. Dr. h.c. Erich Hödl Studium der Mathematik und Wirtschaftswissenschaft in Paris und Wien, Habilitation TU Darmstadt (1973), Columbia University/N.Y. (1973/74), Professuren in Kassel (1974-77) und Wuppertal (1977-2005), Rektor in Wuppertal (19911999) und TU Graz (2000-2003), Ehrendoktorat in Moskau (1994), Mitglied des Österreichischen Akkreditierungsrates (seit 2005) und Vizepräsident der Europäischen Akademie der Wissenschaften und Künste (seit 2005). Zahlreiche Publikationen zur Europäischen Wirtschaftspolitik, Umweltökonomie und Hochschulund Technologiepolitik sowie Beratungstätigkeiten für die Bundesregierung, EU und UNO. E-Mail:
[email protected] Dipl.-Ök. Frank M. Hülsberg Frank Hülsberg absolvierte sein Studium an der Universität Wuppertal und schloss 1991 als Diplom-Ökonom mit dem Schwerpunkt Finanzen und Revision ab. Hülsberg ist Wirtschaftsprüfer, Steuerberater und Certified Fraud Examiner. Er leitet derzeit den Bereich „Forensic“ bei KPMG und beschäftigt sich mit der Prävention und Aufdeckung von Wirtschaftskriminalität sowie mit Compliance und Risikomanagement. Zuvor war er bei Andersen sowie bei Deloitte jeweils sieben Jahre im Bereich Abschlussprüfung, Transaktionsberatung und Forensic/Risikomanagement tätig und leitete rund 2 Jahre die M&A-Abteilung eines deutschen Konzerns. Der Autor ist u.a. in der Schmalenbach-Gesellschaft, der Risikomanager-Association und der Prüfungskommission für Wirtschaftsprüfer tätig. E-Mail:
[email protected] Prof. dr hab. Grzegorz Karasiewicz associate professor of marketing, Dr habilitus in management and marketing, head of marketing department since 2005 at Warsaw University Faculty of Management, alumnus of Harvard Business School, the author of above one hundred publications, mostly of marketing. E-Mail:
[email protected] Univ.-Prof. Dr. Franz Knipping Franz Knipping studierte Geschichte und Romanistik an den Universitäten Münster, Tübingen und Paris. Er hatte Professuren in Augsburg, Tübingen und Paris inne und ist Jean- Monnet- Professor für Geschichte der Europäischen Integration und der Internationalen Beziehungen. Seit 1994 ist er Inhaber der
Autorenverzeichnis
XXV
Professur für Neuere und Neueste Geschichte an der Bergischen Universität Wuppertal. E-Mail:
[email protected] Univ.-Prof. Dr. Lambert T. Koch Lambert T. Koch ist Rektor der Bergischen Universität Wuppertal sowie Direktor des Instituts für Gründungs- und Innovationsforschung. Sein wissenschaftliches Interesse gilt vor allem den Bereichen Gründungsförderung, Innovationsund Technologiepolitik, Strategische Netzwerke sowie regionale und internationale Wirtschaftsentwicklung. Daneben erfolgt eine Beschäftigung mit wissenschaftstheoretischen und evolutionsökonomischen Fragestellungen. Professor Koch engagiert sich in einer Vielzahl von Gründungs- und Regionalförderungsprojekte unterschiedlicher Institutionen, in der Unternehmens- und Politikberatung sowie im Rahmen diverser Beiratsmandate. E-Mail:
[email protected] Univ.-Prof. Dr. Jochen Koubek Jochen Koubek studierte Mathematik, Philosophie und Informatik in Darmstadt und Bordeaux. Er promovierte in Kulturwissenschaft mit einer Arbeit über kulturelle Auswirkungen des Internet. Anschließend arbeitete er als wissenschaftlicher Assistent am Institut für Informatik der Humboldt-Universität zu Berlin mit dem Forschungsschwerpunkt Informatische Allgemeinbildung. Derzeit ist er Professor für Digitale Medien an der Universität Bayreuth. Hier lehrt und forscht er in den Bereichen Medienproduktion, Interaktivität und gesellschaftliche Wechselwirkungen von Medientechnik. E-Mail:
[email protected] Carsten Kreutz Carsten Kreutz studierte an der Bergischen Universität Wuppertal Wirtschaftswissenschaften und erlangte sein Staatsexamen im Jahr 2009. Im Anschluss arbeitete er als wissenschaftliche Hilfskraft an der Professur für Wirtschaftspädagogik, Gründungspädagogik und -didaktik, bevor er in den Schuldienst wechselte. E-Mail:
[email protected] Prof. Dr. Gogineni R. Krishnamurthy G. R. Krishnamurthy lehrt und forscht an der Mangalore University und am A. J. Institute of Management (Transformational Institute for Managerial Excellence
XXVI
Autorenverzeichnis
(TIME)) in den Fächern (Personal-) Management und Organisation in Mangalore, Indien. E-Mail:
[email protected] Dipl.-Kfm. Jochen Kühn Jochen Kühn ist wissenschaftlicher Mitarbeiter an der Professur für Betriebswirtschaftslehre mit dem Schwerpunkt Marketing der Bergischen Universität Wuppertal sowie Projektmitarbeiter am Institut für Marken- und Kommunikationsforschung an der Bergischen Universität Wuppertal, Deutschland. E-Mail:
[email protected] Falk Kunadt, M.A. Falk Kunadt ist Wissenschaftlicher Mitarbeiter im Geschäftsfeld Unternehmen und Internationale Märkte sowie Wissenschaftlicher Assistent der Institutsleitung am Fraunhofer-Zentrum für Mittel- und Osteuropa (MOEZ) in Leipzig. Er studierte an der Neisse University in Polen, Tschechien und Deutschland Informations- und Kommunikationsmanagement mit Schwerpunkt Osteuropa. Er war zudem als Gastwissenschaftler an den Universitäten Samara (Russland) und Cluj-Napoca (Rumänien) tätig. E-Mail:
[email protected] Dr. Christian W. Kunze Christian Kunze hat im Anschluss an eine kaufmännische Ausbildung an der Universität Wuppertal Wirtschaftswissenschaft studiert und wurde dort zum Dr. rer. oec. promoviert. Er war wissenschaftlicher Mitarbeiter von Univ.-Prof. Dr. Norbert Koubek. Im Rahmen seiner rund 10-jährigen Industrieerfahrung hat er verschiedene Führungspositionen im Energiehandel in Deutschland, Italien, der Schweiz und Großbritannien besetzt. Nach erfolgreicher Konzeption und Akkreditierung des Studiengangs „Energy Management“ für die International School of Management (ISM) in Dortmund ist er heute als „Director of Studies“ für den Aufbau des Studien- und Weiterbildungsprogrammes des „Norwegian Centre of Expertise in Energy and Emissions Trading“ verantwortlich. E-Mail:
[email protected] Univ.-Prof. Dr. Tobias Langner Tobias Langner ist Inhaber der Professur für Betriebswirtschaftslehre mit dem Schwerpunkt Marketing an der Bergischen Universität Wuppertal sowie Wissen-
Autorenverzeichnis
XXVII
schaftlicher Direktor des Instituts für Marken- und Kommunikationsforschung der Bergischen Universität Wuppertal, Deutschland. E-Mail:
[email protected] Prof. Karl Maisch Kurzvita: Hauptschule, Lehre, Facharbeiter, Berufsaufbauschule, Fachhochschule, Technische Universität, Dipl. Ing. (FH), Dipl. Ing. (TH) Planungsingenieur, wissenschaftl. Mitarbeiter Bergische Universtität Wuppertal bei Prof. N. Koubek, Fraunhoferinstitut für Systemtechnik (ISI), Referent im Bundesministerium für Forschung und Technologie, Professor FH Offenburg, Dekan des Studiengangs Wirtschaftsingenieurwesen, langjahriges Senatsmitglied der FH, Unternehmensberater Mitglied in Unternehmensbeiräten, Autor des Konzeptes „Balanced Scorecard als Steuerungsinstrument an Fachhochschulen“, das einen der vier Preise für den Titel „Reformfachhochschule“ des Stifterverbandes der dt. Wissenschaften erhielt. Landeslehrpreis des Landes Baden-Württemberg 2006. E-Mail:
[email protected] Univ.-Prof. Dr. Winfried Matthes Winfried Matthes, geb. 1941/Berlin, Dipl.-Kfm. 1966/Freie Universität Berlin, Systemplaner/Standard Elektrik Lorenz AG 1966; Dr. rer. pol. 1970, Wiss. Hilfskraft/Prof. Dr. Dr. h.c. mult. E. Kosiol 1967-69, Wiss. Assistent 1970 und Assistenzprofessor für Betriebswirtschaftslehre 1971-75 und Habilitation für Betriebswirtschaftslehre 1974/Freie Universität Berlin; Professor für BWL/Universität zu Köln 1976-87, Professur für Betriebswirtschaftslehre, insbesondere Betriebswirtschaftliche Planung (Vertg.)/Universität zu Köln 1980-86; Univ.-Prof. für Betriebswirtschaftslehre, insbesondere Rechnergestütztes Controlling/Bergische Universität Wuppertal 1987-2008, 1990-2004 Dekan des FB Wirtschaftswissenschaft, Vorsitzender des Prüfungsausschusses 2005-2009, ab 2008 i. R. E-Mail:
[email protected] Prof. Dr. Harald Meier Nach einer kaufmännischen Ausbildung und dem Studium der Wirtschaftwissenschaften promovierte Harald Meier zum Dr. rer. oec. Er nahm berufliche Funktionen im Personalwesen einer Großbank und Personalberatung sowie Managementtraining war und ist seit 1992 Hochschulprofessur an der Hochschule BonnRhein-Sieg mit den Lehr- und Forschungsgebieten International Management, HRM Project Management, NGO Management. E-Mail:
[email protected] XXVIII
Autorenverzeichnis
Priv.-Doz. Dr. Thomas Metz Diplom-Kaufmann, Promotion und Habilitation an der Universität Trier, Referent des Gesamtbetriebsrats in einem großen deutschen Industrieunternehmen. E-Mail:
[email protected] Dipl.-Kffr. Marie Luise Meyer Marie Luise Meyer absolvierte ihr Studium der Betriebswirtschaftslehre an der Universität Osnabrück und ist seit 2008 Wissenschaftliche Mitarbeiterin am Lehrstuhl für Finanz- und Bankwirtschaft an der Bergischen Universität Wuppertal und dort Doktorandin. E-Mail:
[email protected] Prof. Dr. Michael Nelles Nach Promotion (1994) und Habilitation (1999) an der Universität Essen übernahm Michael Nelles eine Vertretungsprofessur an der Bergischen Universität Wuppertal und einen Lehrauftrag an der FOM Essen. Von April 2000 bis März 2009 war er Inhaber der Professur für Wirtschaftswissenschaft, insbesondere Finanz- und Bankwirtschaft, an der Bergischen Universität Wuppertal. Seit April 2007 ist er Vorstandsvorsitzender der Conpiar AG, Essen. E-Mail:
[email protected] Dipl.-Vw. Jan H. Peters Jan H. Peters, Studium der Rechts- und Wirtschaftswissenschaften, 1976 Eintritt als Personalleiter in die Schwarz-Pharma AG in Monheim, 1984 Wechsel in die Geschäftsführung der General Electric Informations-Service GmbH in Hürth. 1985 Eintritt in die VAW aluminium AG in Bonn, zuletzt als Generalbevollmächtigter für die Konzernbereiche Personal und Organisation, Umwelt/Arbeitssicherheit und Prozessmanagement. Seit 2003 Leiter des Bereichs Corporate Human Resources & Organization (HRO) der Bayer AG. E-Mail:
[email protected] Univ.-Prof. Dr. Thorsten Posselt Thorsten Posselt ist Leiter des Fraunhofer-Zentrums für Mittel- und Osteuropa (MOEZ), Inhaber der Professur für Innovationsmanagement und Innovationsökonomik an der Wirtschaftswissenschaftlichen Fakultät der Universität Leipzig sowie der Professur für Betriebswirtschaftslehre, insbesondere Handel und Service Management, an der Bergischen Universität Wuppertal. Er war Professor für Betriebswirtschaftslehre, insbesondere Dienstleistungsmanagement, an der
Autorenverzeichnis
XXIX
Universität Leipzig und sammelte Erfahrungen als Gastwissenschaftler an der University of California in Berkeley und der University of California in Davis. Forschungsinteressen: Innovationsmanagement, Innovationsökonomik, Dienstleistungsmanagement und Marketing. E-Mail:
[email protected] Univ.-Prof. Dr. Reinhard Pfriem Reinhard Pfriem, geb. 1949, ist seit 1994 ordentlicher Universitätsprofessor für Allgemeine Betriebswirtschaftslehre, Unternehmensführung und Betriebliche Umweltpolitik an der Carl von Ossietzky Universität Oldenburg. 1985 Initiator und bis 1990 geschäftsführender Gesellschafter des Instituts für ökologische Wirtschaftsforschung (IÖW) gGmbH in Berlin. Seit 1993 Gründungsgesellschafter der ecco ecology and communication Unternehmensberatung GmbH. Seit 2003 Direktoriumsmitglied des Konstanzer Zentrums für Wirtschaftsethik (ZfW). Vorsitzender des nachhaltigkeitsorientierten Unternehmensnetzwerks ONNO e. V. in Ostfriesland. Initiator der Spiekerooger Klimagespräche, die seit Ende Oktober 09 jährlich im Künstlerhaus auf der ostfriesischen Insel stattfinden. E-Mail:
[email protected]. Dr. Markus Pütz Promotion zum Dr. rer. oec. an der Bergischen Universität Wuppertal, Fachbereich Wirtschaftswissenschaft (2004). Er ist als wissenschaftlicher Assistent und Habilitand an der Professur für Betriebswirtschaftslehre, insbesondere Controlling, der Schumpeter School of Business and Economics an der Bergischen Universität Wuppertal tätig. Seit Sommersemester 2007 ist er zudem Lehrbeauftragter an der Universität Duisburg-Essen. E-Mail:
[email protected] Univ.-Prof. Dr. Ronald Schettkat Ronald Schettkat leitet seit 2004 die Professur für Volkswirtschaftslehre, insbesondere Wirtschaftspolitik, an der Schumpeter School, Bergische Universität Wuppertal; zuvor Lehrstuhl für Wirtschaftswissenschaften an der Universität Utrecht, Niederlande; zahlreiche Gastprofessuren und Forschungsaufenthalte unter anderem an der Stanford University, University of California at Berkeley, Princeton University, Netherlands Institute for Advanced Study, Tinbergen Institut, Universitäten Bologna und Modena, sowie am Wissenschaftszentrum Berlin. Außerdem ist er Vorsitzender des Wissenschaftlichen Beirates und Mitglied im Kuratorium der Hans-Böckler-Stiftung.
XXX
Autorenverzeichnis
Er hat 14 Bücher publiziert und zahlreiche Aufsätze in renommierten Journals veröffentlicht und nimmt darüber hinaus zahlreiche Gutachter- und Beratertätigkeiten war. E-Mail:
[email protected] Dipl.-Ing. Heinz Schmersal Heinz Schmersals beruflicher Werdegang enthält Stationen als Bauleiter bei MAN Schwermaschinen Brücken- und Stahlhochbau, Bauleiter für Stahlbau des Kohlekraftwerks Mainz, Technische Beratung bei Klöckner-Humboldt-Deutz in Spanien. Von 1982 bis 2003 war er Technischer Geschäftsführender Gesellschafter der Firma K.A. Schmersal. Seit 2004 ist Heinz Schmersal alleiniger Geschäftsführender Gesellschafter der K.A. Schmersal Holding GmbH & Co KG, Wuppertal. E-Mail:
[email protected] Dipl.-Kfm. Daniel Schneider Daniel Schneider studierte an der Bergischen Universität Wuppertal sowie der University of South Australia, Adelaide Wirtschaftswissenschaften mit dem Schwerpunkt 'Management und Unternehmensentwicklung'. Bereits während seines Studiums arbeitete er als studentische Hilfskraft an der Professur für Wirtschaftspädagogik, Gründungspädagogik und -didaktik sowie dem Institut für Gründungs- und Innovationsforschung (igif). Seit 2006 ist er Wissenschaftlicher Mitarbeiter am Lehrstuhl für Wirtschaftspädagogik, Gründungspädagogik und Gründungsdidaktik an der Schumpeter School of Business and Economics der Bergischen Universität Wuppertal. E-Mail:
[email protected] Univ.-Prof. Dr. Kerstin Schneider Kerstin Schneider studierte von 1984-1989 Geschichtswissenschaft und Volkswirtschaftslehre an der Universität Bielefeld. Sie beendete ihr Studium an der University of Georgia, USA im Jahr 1990 mit dem M.A. in Economics. Anschließend promovierte Sie an der University of Georgia zum Ph.D. (1993). In 2001 wurde Kerstin Schneider an der Universität Dortmund habilitiert. Seit 2004 Inhaberin der Professur für Wirtschaftswissenschaft, insbesondere Steuerlehre und Finanzwissenschaft, an der Bergischen Universität Wuppertal. E-Mail:
[email protected] Autorenverzeichnis
XXXI
Franziska Schuierer Franziska Schuierer ist Juristin (Univ.) und Europajuristin (Univ. Würzburg). Sie studierte in Göttingen, Bristol und Würzburg und ist zur Zeit wissenschaftliche Mitarbeiterin von Prof. Dr. Bausback, MdL. E-Mail:
[email protected] Dipl.-Soz.-Wiss. Markus Siebenmorgen Markus Siebenmorgen, Studium der Politikwissenschaften, Geschichte und Medienwissenschaften, verschiedene journalistische und wissenschaftlich-publizistische Tätigkeiten (u.a. beim ZDF und für RölfsPartner Wirtschaftsprüfungsgesellschaft AG), PR-Volontariat und –Berater bei vom Hoff Kommunikation GmbH in Düsseldorf, seit 2006 Referent „HR Communications“ im Bereich Corporate Human Resources & Organization (HRO) der Bayer AG. E-Mail:
[email protected] Univ.-Prof. Dr. Stefan Thiele Stefan Thiele studierte Betriebswirtschaftslehre und Jura an der Universität Münster und promovierte in seiner Zeit als wissenschaftlicher Mitarbeiter am Institut für Rechnungslegung und Wirtschaftsprüfung der Universität Münster. Zur Zeit ist er Inhaber der Professur für Betriebswirtschaftslehre, insbesondere Wirtschaftsprüfung und Rechnungslegung, der Schumpeter School of Business and Economics an der Bergischen Universität Wuppertal. E-Mail:
[email protected] Prof. Dr. Kim Oliver Tokarski Kim Oliver Tokarski studierte Betriebswirtschaftslehre an der Fachhochschule Gelsenkirchen sowie der Bergischen Universität Wuppertal. An der Bergischen Universität promovierte er am Lehrstuhl für Unternehmensgründung und Wirtschaftsentwicklung des Fachbereiches Wirtschaft. Seit August 2008 ist Kim Oliver Tokarski in der Schweiz als Professor für Unternehmensführung an der Berner Fachhochschule tätig. E-Mail:
[email protected] Priv.-Doz. Dr. Martin Užík Martin Užík, Promotion (2004) und Habilitation (2009) an der Bergischen Universität Wuppertal. Seit 2009 Vertretung der Professur für Betriebswirtschaftslehre, insbesondere Finanz- und Bankwirtschaft, an der Universität Wuppertal
XXXII
Autorenverzeichnis
und Gastprofessur für Investitions-, Finanz- und Bankwirtschaft an der Technischen Universität Kosice, Slowakei. E-Mail:
[email protected] Peter H. Vaupel Peter H. Vaupel, geboren 1949 in Wuppertal, absolvierte eine Ausbildung zum Bankkaufmann bei der Stadtsparkasse Wuppertal. Nach diversen sparkassenspezifischen Weiterbildungen war er seit 1976 leitender Angestellter in verschiedenen Marktpositionen. 1995 wurde er stv. Vorstandsmitglied, 1997 dann ordentliches Vorstandsmitglied. Seit 2000 ist Vaupel Vorsitzender des Vorstandes der Stadtsparkasse Wuppertal. E-Mail:
[email protected] Univ.-Prof. Dr. Christine K. Volkmann Christine K. Volkmann leitet die Professur für Wirtschaftswissenschaft, insbesondere Unternehmensgründung und Wirtschaftsentwicklung, sowie das Institut für Gründungs- und Innovationsforschung (IGIF) an der Schumpeter School of Business and Economics der Bergischen Universität Wuppertal. Ihre Lehr- und Forschungsschwerpunkte liegen in den Bereichen Responsible Entrepreneurship, Entrepreneurial Leadership, High Growth Entrepreneurship sowie Wirtschaftsund Marktentwicklung. E-Mail:
[email protected] Univ.-Prof. Dr. Hartmut Wächter Hartmut Wächter ist emeritierter Professor der Betriebswirtschaftslehre, Universität Trier. Er hat sich sein ganzes akademisches Leben mit der Betrieblichen Personalpolitik immer auch aus Arbeitnehmersicht beschäftigt. E-Mail:
[email protected] Dr. Stephan Weinert Stephan Weinert studierte Wirtschaftswissenschaften in Deutschland, Großbritannien und den USA. Er arbeitet als Berater im Bereich Human Capital bei Mercer in Franfurt und ist spezialisiert auf die Themen Personalstrategie, Talent Management und Post Merger Integration. Darüber hinaus veröffentlicht er regelmäßig in Fachzeitschriften und Büchern zu den Themen Personalstrategie, Internationales Management und Change Management. E-Mail:
[email protected] Autorenverzeichnis
XXXIII
Univ.-Prof. Dr. Paul J. J. Welfens Paul J. J. Welfens, geboren 1957 in Düren, Studium der Volkswirtschaftslehre in Wuppertal, Duisburg und Paris, Promotion 1985, Habilitation 1989. Inhaber der Professur für Volkswirtschaftslehre – Schwerpunkt Makroökonomische Theorie und Politik – an der Bergischen Universität Wuppertal; Präsident des Europäischen Instituts für Internationale Wirtschaftsbeziehungen (EIIW); Jean-MonnetProfessor für Europäische Wirtschaftsintegration; zuvor Distinguished Research Fellow am AICGS/The John Hopkins University, Professor an der Universität Münster bzw. Potsdam, Visiting Alfred Grossier Professor Sciences Po, Paris. E-Mail:
[email protected] Dr. Claudia Wesselbaum-Neugebauer (StBin) Claudia Wesselbaum-Neugebauer studierte bis 1990 Wirtschaftswissenschaft an der Bergischen Universität – Gesamthochschule Wuppertal und ist seitdem an der Bergischen Universität Wuppertal tätig – zunächst als wissenschaftliche Mitarbeiterin in einem befristeten Forschungsprojekt, anschließend bei der Professur für Volkswirtschaftslehre, insbesondere Finanzwissenschaft (Univ.-Prof. Dr. O. Roloff). 1993 erfolgte die Promotion zum Dr. rer. oec., 1999/2000 die Prüfung/Bestellung zur Steuerberaterin. Zurzeit ist sie an der Professur für Wirtschaftswissenschaft, insbesondere Steuerlehre und Finanzwissenschaft (Univ.Prof. Dr. K. Schneider), an der Bergischen Universität Wuppertal beschäftigt. E-Mail:
[email protected] Prof. Zuoquan Zhao, Ph.D. Zuoquan Zhao ist Professor am Institut für Politik und Management der Chinesischen Akademie der Wissenschaften in Peking. Er promovierte im Bereich „Public Policy“ an der George Mason University und im Bereich „Engineering Geology“ an der Chinesischen Akademie der Wissenschaften. E-Mail:
[email protected] Arbeitsorientierte Betriebswirtschaftslehre
Ist Betriebswirtschaftslehre nachhaltig? Vom Nutzen und Nachteil seinerzeitigen arbeitsorientierten Denkens in der Betriebswirtschaftslehre Reinhard Pfriem
Norbert Koubek hat mir in einer sehr wichtigen Phase meines Lebens unbedingte Unterstützung gewährt. Nach Politikwissenschaft und Philosophie hatte ich in den siebziger Jahren des inzwischen vorigen Jahrhunderts an der RuhrUniversität Bochum mit eben der instrumentellen und wissenschaftsaversen Einstellung Wirtschaftwissenschaften studiert, über die ich mich heute als Hochschullehrer der Betriebswirtschaftslehre bei einem Teil der Studierenden reichlich ärgere: weil ich danach die väterliche Druckerei in Wuppertal-Elberfeld übernehmen wollte. Das zerschlug sich zum einen, zum anderen hatte ich ab etwa 1978 „Blut geleckt“ an der Thematik von Ökonomie und Ökologie, also den ökologischen Herausforderungen des Wirtschaftens. Die unter dem Begriff der Ökologie vorgetragene Kritik der kapitalistischen Industriegesellschaften schien mir wesentlich tiefgreifender und überzeugender als eine Fokussierung der Kritik auf den Privatbesitz an Produktionsmitteln, wo doch Vergesellschaftung als Verstaatlichung im 20. Jahrhundert schon so viel Unheil angerichtet hatte. In unseren jenseits der SPD angesiedelten linken Zirkeln von 1968 und den siebziger Jahren war die Argumentation, dass wir es so natürlich nicht meinten, sondern anders, immer schwierig gewesen. Die Zerschlagung der Illusion, dass es in China anders wäre, kam dazu. Endlich nicht nur negativ sein, sondern positiv setzen zu können auf anders leben, anders arbeiten, anders wirtschaften, das war für mich wie für zunehmend mehr Mitakteure von 1968 ff. eine intellektuelle, emotionale, moralische, jedenfalls zutiefst persönliche Befreiung.
4
Reinhard Pfriem
Vielleicht bedingt durch den vorübergehenden Plan, in der Nachfolge meines Vaters selbst Unternehmer zu werden1, interessierte mich an der Beziehung von Ökonomie und Ökologie von Anfang an vor allem die betriebswirtschaftliche bzw. unternehmenspolitische Ebene. Die ökologische Selbstkritik an unserer Art von Marxismus 1968 ff. war ja nicht zuletzt auch die Kritik an einem zentralistischen Verständnis von Politik: anders leben, anders arbeiten, anders wirtschaften musste dezentral, lokal, also auch: auf Unternehmensebene angepackt werden. Die Idee, dass das nicht nur die sich seinerzeit rasch entwickelnden sich selbst so bezeichnenden Alternativbetriebe betreffen könnte, sondern auch „normale Unternehmen“, war eigentlich nur logisch. 1978 ein „normales Unternehmen“ zu finden, das die ökologische Herausforderung von Wirtschaft und Gesellschaft nicht nur als Aufgabe staatlicher Politik ansah, sondern als eigenverantwortliches Handlungsfeld, war aber nahezu unmöglich. Was lag näher, als den Zusammenhang von ökologischen Herausforderungen des Wirtschaftens, Unternehmenspolitik und Betriebswirtschaftslehre zum Gegenstand einer Dissertation zu machen? Nur, wo konnte man das – in einer akademischen Betriebswirtschaftslehre, die sich für Ökologie bzw. Umweltschutz zu dieser Zeit noch weniger interessierte als die Unternehmenspraxis? Bekanntlich hängt ein Teil des Lebenserfolgs an glücklichen Zufällen. In Wuppertal war ich geboren und bis zum Abitur zur Schule gegangen, besuchte Ende der siebziger Jahre auch häufig mein (Küllenhahner) Elternhaus, mit der dort inzwischen gegründeten Universität hatte ich freilich rein gar nichts zu tun. Inzwischen wieder in Westberlin wohnend, war mir die ja auch räumlich fremd. Der glückliche Zufall: mein Freund Rainer Lucas wies mich auf die Möglichkeit hin, eine solche Doktorarbeit doch an der Universität meiner Heimatstadt zu platzieren. Dort sei der wirtschaftswissenschaftliche Fachbereich insgesamt viel interessanter als an vielen anderen Stellen, und er speziell werde seine Diplomarbeit bei Prof. Norbert Koubek schreiben, der einige Jahre vorher mit anderen zusammen beim Wirtschafts- und Sozialwissenschaftlichen Institut des DGB (WSI) eine „Arbeitsorientierte Einzelwirtschaftslehre (AOEWL)“ konzipiert hätte. Das würde zwar jetzt so nicht mehr weiter geführt, aber die ökologische Dimension des Wirtschaftens würde in der Weiterentwicklung ausdrücklich stark gemacht über eine entsprechende theoretische Fassung des Arbeitsbegriffs. Und kritische Betriebswirtschaftslehre theoretisch über Arbeit zu konzipieren, wäre doch für unseren vormals marxistischen und gleichzeitig gewerkschaftsfüh-
1
Das wurde ich dann erst später, 1985 mit der Gründung des Instituts für ökologische Wirtschaftsforschung (IÖW) gGmbH im damals noch eingemauerten Westberlin, zusätzlich 1993 mit der ecco ecology and communication Unternehmensberatung GmbH nach meinem Wechsel nach Oldenburg.
Nutzen und Nachteil des arbeitsorientierten Denkens in der BWL
5
rungskritischen Bezugsrahmen sowieso besser als die Orientierung von Wissenschaft an gewerkschaftlichen Programmatiken. (In der Tat!) So kam es. Von meinem ersten Gespräch mit meinem künftigen Doktorvater an begann ich die freundliche und hilfsbereite Art zu schätzen, mit der Norbert Koubek mein Dissertationsvorhaben begleitete. Er half mir nicht nur, dieses dann 1983 erfolgreich abzuschließen2, sondern (das war kaum weniger wichtig) übernahm auch die Verantwortung dafür, dass ich als noch nicht Promovierter eine eigenständige Lehrveranstaltung machen konnte zum Thema „Ökologie und Betriebswirtschaftslehre“. Daran waren fast dreißig Studierende über vier Semester dann so aktiv und engagiert interessiert, dass das Ganze unter Beteiligung einer Reihe von ihnen in einer Publikation mündete, die zwei Jahre vor dem Zeitpunkt erschien, als die akademische Betriebswirtschaftslehre in Deutschland endlich auf breiterer Front anfing, sich diesem Thema zu widmen.3 Lieber Norbert, ich habe diese Geschichte, „unsere Geschichte“, so breit erzählt, um deutlich zu machen, wie wenig selbstverständlich Deine unbedingte Unterstützung seinerzeit war. Und deshalb möchte ich Dir an dieser Stelle „lauthals“ dafür noch einmal von ganzem Herzen danken. Was ich im folgenden eher wissenschaftlichen Teil dieses Textes darlege, ist der Versuch, aus meiner wissenschaftlichen und irgendwie natürlich auch gesellschaftspolitischen Sicht zu erläutern, inwiefern die Begriffe Arbeit und Ökologie ein Vierteljahrhundert später in einer zukunftsfähigen Betriebswirtschaftslehre (im Hegelschen Sinne) aufgehoben sein sollten, einer Betriebswirtschaftslehre, die insofern immer noch kritische Betriebswirtschaftslehre sein muss, als ihr Gegenstand, die Unternehmung, bzw. die real existierenden Unternehmenspolitiken, dieses Kriterium der Zukunftsfähigkeit in betrüblich vielen Fällen immer noch nicht einzulösen vermögen. Meine Argumentation dazu gliedere ich in folgende Punkte: 1. 2. 3.
Vom Arbeitsbegriff zum Unternehmertum? Von der Ökologie zur regulativen Idee nachhaltiger Entwicklung Von Innovationsrhetorik zu zukunftsfähigen Unternehmensstrategien
2 3
Pfriem (1983). Pfriem (1986). Der zuständige Lektor des Gabler-Verlags, wo ich das Buch platzieren wollte, gab damals noch den Hinweis, mit so etwas zu einem Öko-Verlag zu gehen wie dem Freiburger Dreisam-Verlag.
6 1
Reinhard Pfriem Vom Arbeitsbegriff zum Unternehmertum?
Norbert Koubeks ausdrücklicher Versuch, den ökonomischen Prozess über die Kategorie Arbeit zu erfassen, führte zu einer Unterscheidung in vier von ihm so genannte stoffliche Dimensionen von Arbeit, die soziale und die ökologische als originär und die technische und die produkturale als derivativ.4 Das knüpft natürlich an an das von Marx her stammende Verständnis von Arbeit als Stoffwechsel zwischen Mensch und Natur.5 „Alle Produktion ist Aneignung der Natur von seiten des Individuums innerhalb und vermittelst einer bestimmten Gesellschaftsform.“6 In der Marxschen Terminologie kann das auch auf den Begriff des Gebrauchswertes bezogen werden: damit versuchte Karl Marx seinerzeit die durch den Tauschwert verdeckten stofflichen Grundlagen des ökonomischen Prozesses aufzudecken. Es ist nicht falsch, in der Verwendung des Begriffes „sozialökologisch“ eine Erinnerung an diese Herangehensweise zu identifizieren. Ich habe selbst den Begriff – in absichtsvollem Plural – mit dem Titel der Veröffentlichung meiner St. Galler Habilitationsschrift benutzt,7 und er dient dem Bundesforschungsministerium seit 2001 auch zu einem ganzen Förderprogramm.8 Die ursprüngliche Konzeption einer Arbeitsorientierten Einzelwirtschaftslehre (AOEWL) (Projektgruppe 1974) hatte sich als Alternative zur so genannten kapitalorientierten Betriebswirtschaftslehre verstanden, für die in der sehr besonderen deutschen Entwicklung des Faches vor allem der Name Erich Gutenberg stand. Die eben angesprochene Dialektik von Gebrauchswert und Tauschwert wurde der Betriebswirtschaftslehre, die sich in Deutschland nach Gründung der ersten Handelshochschulen 1898 als wissenschaftliche Disziplin zu entwickeln begann, in sehr bemerkenswerter Weise auf den Weg gegeben. Eugen Schmalenbach rückte die stofflich-technische Seite in den Vordergrund und formulierte 1914: „Wir sehen in der Privatwirtschaftslehre die Fabrik als Fabrik und nicht als Veranstaltung eines Unternehmers.“9 Demgegenüber hieß es bei Wilhelm Rieger: „Die Unternehmung ist eine Veranstaltung zur Erzielung von Geldeinkommen – hier Gewinn genannt – durch Betätigung im Wirtschaftsleben.“10 Erich Gutenberg, der zum prominentesten Vertreter der deutschen Betriebswirtschaftslehre im 20. Jahrhundert werden sollte, kombinierte die Theorien seiner beiden Vorläufer in einer Konzeption, die das betriebliche Geschehen 4 5 6 7 8 9 10
Vgl. Koubek (1981). Vgl. Schmidt (1978). Marx (1953), S. 9. Pfriem (1995). Zum theoretischen Bezugsrahmen hier s. Becker/Jahn (2006). Schmalenbach (1914), S. 319. Rieger (1984), S. 44.
Nutzen und Nachteil des arbeitsorientierten Denkens in der BWL
7
produktionstheoretisch über objektbezogene menschliche Arbeitsleistungen, Werkstoffe und Betriebsmittel als so genannte Elementarfaktoren fundierte und diesen Betrieb einbettete in das erwerbswirtschaftliche Prinzip der marktwirtschaftlichen (kapitalistischen) Unternehmung. Arbeit wurde von ihm in zwei Klassen geteilt: auf der einen Seite wurden als ausführende Arbeit die objektbezogenen menschlichen Arbeitsleistungen, auf der anderen die Betriebs- und Geschäftsleitung als dispositiver Faktor platziert.11 Ein orthodoxer Marxist hätte das nicht plakativer definieren können. Gutenbergs produktionstheoretischer Zugriff war allerdings bei näherem Hinsehen wie die frühe moderne Nationalökonomie von Smith, Ricardo u. a. keine wirkliche Produktionstheorie im umfassenden Sinn, sondern eine Theorie der Produktionsfaktoren, diesmal aber nicht zur Legitimierung kapitalistischer Profite des in Ausbreitung befindlichen bürgerlichen Unternehmertums, sondern mit dem Ziel der gesteigerten Effizienz betrieblicher Leistungserstellungsprozesse. Innerhalb dessen waren die objektbezogenen menschlichen Arbeitsleistungen (also die große Masse der arbeitenden Menschen) ein Produktionsfaktor auf derselben Ebene wie Werkstoffe und Betriebsmittel. Sinn von Arbeit war und bleibt hier ganz außen vor, so wie für die neoklassische Volkswirtschaftslehre die Präferenzen. Ökonomik wird in beiden Fällen – und gerade in dieser Hinsicht hat Gutenberg Betriebswirtschaftslehre zeitlebens als Wirtschaftswissenschaft im engen Sinn sehen wollen, ausdrücklich nicht als Sozialwissenschaft12 – so konzeptualisiert, dass es um die maximale Effizienz beim Mitteleinsatz für Ziele geht, die selbst nicht thematisiert werden sollen. Die Sinnhaftigkeit von Arbeit wird weder in ihrem Wofür noch in ihrem Wie befragt. Auch die Ausführungen, die in der von Jürgen Mittelstraß herausgegebenen Enzyklopädie Philosophie und Wissenschaftstheorie zum Begriff der Arbeit zu finden sind, beginnen mit deren Zweckrationalität: „In einem sehr allgemeinen Sinne heißt Arbeit jede menschliche Tätigkeit, die um der Herstellung zweckdienlicher Situationen und Gegenstände willen ausgeführt wird.“13 Im weiteren wird immerhin auf die Möglichkeit verwiesen, dass Arbeit auch der Selbstverwirklichung bzw. einem guten Leben dienen könne, in Abgrenzung von jenem Begriff entfremdeter Arbeit, den wir theoretisch vor allem über Karl Marx kennen gelernt hatten. In einem engeren Sinne, so die Enzyklopädie weiter, bezieht sich das Wort Arbeit nur auf mühevolle und unerwünschte Tätigkeiten. Die nachfolgenden Literaturhinweise fangen zwar mit Hannah Arendt an, aber deren Unterscheidung in animal laborans, homo faber, Handeln und Vita activa kommt im Text gar nicht vor. Der Begriff „zweckdienlich“ unterstreicht den instrumen11 12 13
Vgl. die Einleitung des ersten Bandes von Gutenberg (1951). Vgl. Gutenberg (1957). Mittelstraß (2004), S. 151.
8
Reinhard Pfriem
tellen Charakter von Arbeit. Wirklich modern würden wir über Arbeit reden, wenn wir auch sprechen über das Spiel, so wie Herbert Marcuse schon vor über sieben Jahrzehnten in seinem Aufsatz über die philosophischen Grundlagen des wirtschaftswissenschaftlichen Arbeitsbegriffs,14 sowie über Muße – nicht mit Müßiggang zu verwechseln. Die kommunistische Utopie, bei ausreichenden materiellen Grundlagen und unter veränderten gesellschaftlichen Bedingungen nicht nur im Leben, sondern auch am selben Tag – wohlgemerkt: frei wählend und nicht als Kombination von drei zur Existenzsicherung nötigen Teilzeitjobs! – mal dieses, mal jenes tun zu können, scheint sich nicht realisieren zu lassen. ‚An sich‘ spräche vielleicht nichts dagegen, aber in dem ‚an sich‘ liegt das Problem. Die Menschen – sie sind nicht so. Karl Marx war wie Immanuel Kant und viele andere führende Gestalten der frühen industriekapitalistischen Moderne im Grunde der Ansicht, dass die Menschen an sich gut sind und eine Welt des Friedens, der Toleranz und des allgemeinen Glücks schaffen werden, wenn man sie nur lässt. Die Dialektik der Aufklärung von Horkheimer und Adorno15 hätte aus heutiger Sicht vor allem diesen anthropologischen Fehler deutlich machen sollen. Dass die vollends aufgeklärte Erde im Zeichen triumphalen Unheils strahlt, wie der Text beginnt, liegt offenkundig daran, dass die Menschheit, oder weniger pathetisch: die Menschen, anders ticken, als in den frühmodernen Utopien sowohl bürgerlicher wie proletarisch-sozialistischer und kommunistischer Provenienz unterstellt. Speziell auch die emanzipatorischen Bedeutungszuweisungen, die Marx und Engels der Arbeit verpassten, können heute in der Weise keine Geltung mehr beanspruchen. Die Wende von marxistisch geleiteter zu einer ökologisch inspirierten Gesellschaftskritik bestand in den 80er Jahren des 20. Jahrhunderts nicht unwesentlich darin, sich von der Fetischisierung von Arbeit, Technik und Industrie zu verabschieden und auf den zerstörerischen Charakter spezifischer Arbeiten und Technologien unabhängig von deren Organisation, Verfügung über Produktionsmittel etc. hinzuweisen. Lars Clausen machte seinerzeit absichtsvoll den Begriff der destruktiven Arbeit stark und unterschied diese in „(1) Naturzerstörung, (2) Mitmenschenzerstörung, (3) Selbstzerstörung“.16 Diese Differenzierung könnte heute so aufgenommen werden, dass gegenüber dem wirklich zukunftsgerichtet Schöpferischen von Arbeit zumindest zwei Typen gesellschaftlicher Arbeit abgezogen, also dafür nicht in Rechnung gestellt werden, die ich vorschlage als Reparatur- und Therapiearbeit zu kennzeichnen. Das Problem der Reparaturarbeit ist bereits früh in die Debatten um Ökonomie 14 15 16
Vgl. Marcuse (1965). Horkheimer/Adorno (1969). Clausen (1988), S. 55.
Nutzen und Nachteil des arbeitsorientierten Denkens in der BWL
9
und Ökologie eingespeist worden. So hat etwa Leipert (1989) unter dem bezeichnenden Titel „Die heimlichen Kosten des Fortschritts“ darauf hingewiesen, dass die übliche Berechnung des Bruttosozialprodukts (die nach wie vor als Ausweis unserer gesellschaftlichen Wohlfahrt anerkannt wird) systematisch die zum Teil ja auch in direkten Kosten erfassbaren ökologischen Zerstörungen unterschlägt, die wir mit unserer Wirtschaftsweise anrichten. Das Treiben von Unternehmensberatungen ist ebenso wie die Aktivitäten von Coaches, Supervisor/innen, Psychotherapeut/innen im engeren Sinne etc. vernünftigerweise nicht als Arbeit zu kennzeichnen, die sich auf die Sache (Gestaltung besserer Zukünfte) direkt selber bezieht, sondern darauf, die Akteure zu therapieren, die aus diesen oder jenen Gründen darin be- und gehindert sind, angemessen an der Sache zu arbeiten.17 Von Novalis ist der Satz überliefert: Der Grund aller Verkehrtheit in Gesinnungen und Meinungen ist – Verwechslung des Zwecks mit dem Mittel. Und von Mark Twain stammt bekanntlich die Formulierung: Als sie das Ziel aus den Augen verloren hatten, verdoppelten sie ihre Anstrengungen. Dass David Ricardo, Karl Marx und andere Ökonomen im 19. Jahrhundert so viel Gewicht auf die Frage nach dem Wert der Arbeit(skraft) legten, war kein Zufall, geht es doch dabei sehr fundamental um gesellschaftliche Gerechtigkeit. Die Überwindung auf Objektivität zielender Arbeitswerttheorien war in wissenschaftlicher Hinsicht zweifellos richtig, über ein angemessenes ökonomisches Gerechtigkeitsverständnis verfügen wir heute aber immer noch nicht. Eher vollziehen sich gerade in jüngster Zeit in diesem Feld gesellschaftliche Entwicklungen, die als hoch problematisch gekennzeichnet werden müssen. Eine ganz wesentliche liegt gegenwärtig in einer kulturellen Verschiebung, die sich bemerkenswerterweise gleichzeitig durch verschiedene gesellschaftliche Teilsysteme zieht und zu dem Ergebnis führt, die Mehrheit und das Meiste zum Mittelmaß im negativen Sinne zu degradieren. Gemeint ist die deutliche Tendenz, ausgehend von dem Befund sich verschärfenden Wettbewerbs, nur noch die Besten als hinreichend gut anzuerkennen. Das Wissenschaftssystem wird überflutet von paranoiden Exzellenzwettbewerben18, die allen denjenigen (und das sind logischerweise fast alle), die dabei nicht zum Zuge kommen, das Gefühl nahe bringen, eine Niederlage eingesteckt zu haben. Im Fußballsport sind Trainer spätestens ab dem zweiten Tabellenplatz mittlerweile von Entlassung bedroht19, und die Fluktuation der Spieler nimmt immer stärkere Ausmaße an, als wüsste man nicht das Geringste davon, dass ein 17 18 19
Vgl. Illouz (2009). Eine kluge und hinreichend sarkastische Analyse dazu liefert Liessmann (2006). Aktuell ist zum ersten Mal ein Bundesligatrainer sogar vor dem ersten Saisonspiel entlassen worden.
10
Reinhard Pfriem
gutes Team aus mehr besteht als aus den einzelnen Qualitäten seiner einzelnen Mitglieder. Und in der Wirtschaft wird über Championships und viele andere Mechanismen seit Jahren das unternehmensinterne Klima rauer, die Verweilzeiten der Top-Manager werden ständig kürzer, der kapitalmarktgetriebene Druck darauf, immer kurzfristiger dem Renditehunger der Shareholder zu genügen, untergräbt systematisch die Fähigkeiten, noch strategisch unternehmerisch zu handeln.20 Der Wert dessen, was die meisten Menschen als ihre Tätigkeit bzw. ihre Arbeit betreiben, kommt dabei unter die Räder. Was ist heute eigentlich mit dem sozialen Ort von Arbeit, Tun, Handeln? Von einigermaßen konsistenter gesellschaftlicher Orientierung kann da längst keine Rede mehr sein. Etwa globale Flexibilitätsanforderungen und familienfreundliche Werte stehen in eklatantem Widerspruch. Die Gesellschaft klagt über ihre Kinderfeindlichkeit21 und funktioniert gleichzeitig so, dass ein ständig höherer Anteil jüngerer Menschen gar keine Chance hat, eine Familie zu gründen, es sei denn um den Preis der Aufgabe beruflicher Entwicklungschancen für mindestens eine der beiden Seiten. Die nicht ganz unbegründete frühere Vision, dass es doch mit zunehmender materieller Wohlfahrt möglich sein müsse, weniger zu arbeiten, löst sich in Verhältnisse auf, in denen ein Teil der Bevölkerung ackert wie noch nie und Workaholic sich als Krankheit ausbreitet. Es scheint fast so, als ob sich der Kapitalismus alle Mühe gäbe, den Eindruck zu zerstreuen, er sei in der Lage, die gesellschaftliche Arbeit gerecht zu verteilen. Arbeit wird aber nicht nur mehr denn je zum Verteilungsproblem zwischen verschiedenen Menschen, auch für die einzelnen Beschäftigten verändert sich die Situation dramatisch. Der wirtschaftliche und gesellschaftliche Strukturwandel zerstört die überkommene Lebensbiographien prägende Beruflichkeit des Arbeitens. Christian Lutz betonte als Direktor des Gottlieb Duttweiler Instituts (GDI) für Trends und Zukunftsgestaltung vor einem Jahrzehnt die positive Seite dieser Prozesse: „Die Menschen sind immer weniger Rädchen in Organisationsmaschinen. Sie emanzipieren sich – den eigenen Bedürfnissen oder der Not gehorchend – von der Firma und werden selber gewissermaßen ein Unternehmen der eigenen Arbeitskraft. Sie haben das Wesentliche bei sich: ihren Kopf und ihr Beziehungsnetzwerk. Sie suchen aus ihrer persönlichen Biographie heraus einen Lebenspfad, der ihren besonderen Stärken und Vorlieben entspricht.“22 Der Druck auf neue Formen der Selbständigkeit ist im Zuge der Veränderung der Arbeitsgesellschaft unhintergehbar. Komplementär dazu beobachten wir auf der organisatorischen Ebene die zunehmende Fluidität der Unternehmens20 21 22
Vgl. dazu Pfriem (2006a), S. 71 f. Dieser Tage macht die Nachricht die Runde, dass Deutschland gegenwärtig eines der wenigen europäischen Länder mit weniger Geburten als Sterbefällen ist. Lutz (1998), S. 82.
Nutzen und Nachteil des arbeitsorientierten Denkens in der BWL
11
grenzen über Prozesse des Out-Sourcing, der Netzwerkbildung und der kapitalmarktgetriebenen Mergers & Acquisitions.23 Der nüchterne Blick auf die sozialen Ausprägungen dieser Veränderungen lehrt aber, nicht nur die positiven Seiten dieser Entwicklung zu sehen24: auf der kognitiven wie der psychischen Ebene, in allen Dimensionen menschlichen Handelns erfordert das Lebensunternehmertum Fähigkeiten, die nicht jedem Menschen in die Wiege gelegt sind, sondern als kulturelle Kompetenzen erworben werden müssen. Das unterscheidet sich deutlich von einer eben auch zu beobachtenden neuen jobholderKonstellation, die zu einem erneut instrumentellen Verhältnis zur eigenen Arbeit führt (die Arbeit selbst interessiert mich nicht, nur das dadurch erzielte Einkommen) und damit zu einer neuen jobholder-Mentalität statt dazu, der persönlichen Arbeit einen zukunftsfähigen Sinn zu geben. Die offenkundigen Probleme, Arbeit gesellschaftlich gerecht zu verteilen, haben neben der quantitativen eine erhebliche qualitative Dimension. Die „Herrschaft der Mechanisierung“25 vermittelte noch während des 20. Jahrhunderts lange Zeit, also weit über Marxens Analyse und Kritik des Kapitalismus hinaus, den Eindruck, als könnte es zu einer sozialen Homogenisierung der abhängig beschäftigten Menschen kommen. Inzwischen stellt sich das Bild ganz anders dar. Robert Reich, zeitweilig auch Arbeitsminister in der US-Regierung Bill Clintons, differenzierte vor einem Jahrzehnt die „Jobs der Zukunft“ über die Dreiteilung in routinemäßige Produktionsdienste, kundenbezogene sowie symbolanalytische Dienste. Dabei gelangte er mit Blick auf die Globalisierung der Wirtschaft bereits zu dem Befund, dass die Reichen reicher und die Armen ärmer werden: „Das Boot mit den in der Routineproduktion tätigen Arbeitskräften sinkt rasch…Auch das zweite Boot, in dem die ‚Dienstleistenden‘ sitzen, ist im Sinken begriffen, wenn auch etwas langsamer und ungleichmäßig.“26 Seit einigen Jahren gibt es in Deutschland eine neue Diskussion über Mindestlöhne, zu Recht: der Begriff des Prekariats hat längst die Runde gemacht und dient als Indikator dafür, dass Beschäftigung keineswegs einen ausreichenden Lebensunterhalt garantiert. Insofern bedeutet das Ende des klassischen Dualismus von Arbeit und Kapital keine Aufhebung sozialer Spaltungen und Verwerfungen, sondern im Gegenteil deren Vertiefung: jenseits der Spaltung, dass die durchschnittlich Beschäftigten in drei Leben nicht das verdienen können, was Vorstandsvorsitzende großer Kapitalgesellschaften als Grundgehalt bekommen, 23 24 25 26
Die Betriebswirtschaftslehre beschäftigt sich damit seit längerem intensiv, vgl. z. B. Picot/Reichwald/Wigand (1996). Dazu Bröckling (2007). So der Titel von Giedeon (1948). Reich (1996), S. 232 ff.
12
Reinhard Pfriem
die immerhin auch abhängig Beschäftigte sind, und jenseits der Spaltung in Beschäftigte und Arbeitslose beobachten wir innerhalb des Feldes der Beschäftigten selbst sich verschärfende Unterschiede. Wie kann die Arbeit der Zukunft aussehen? Diese Frage leitet Frithjof Bergmann, der mit seinen praktischen Aktivitäten und deren Reflexion27 zum Pionier des Bemühens um Neue Arbeit geworden ist: „Das Konzept zu Neuer Arbeit ist mit der Gründung eines ersten gleichnamigen Zentrums zu Beginn der 1980er Jahre in Flint (Michigan, USA) entstanden. General Motors entließ an diesem Standort als Folge der Automatisierung nahezu die Hälfte der Belegschaft. Es formierte sich eine Gruppe, die meinte, es gäbe bessere Lösungen als ‚halb Flint‘ arbeitslos zu machen. Eine davon wäre, nur die Hälfte des Jahres zu arbeiten und die andere Hälfte der Entwicklung verborgener Talente und Fähigkeiten zu widmen, die nicht nur zu erfüllenderen Tätigkeiten, sondern auch zu einem ‚substantiellen Einkommen‘ führen sollten.“28 Bergmanns Ansatz heißt Kompetenzentwicklung ausgehend von den Schwierigkeiten der persönlichen Daseinsbewältigung, die nicht nur bei Arbeitern zum Ausdruck kommen, wenn man sie nach ihren eigentlichen Wünschen in Bezug auf Arbeit fragt: „Wenn man Menschen ganz spontan fragt, was sie wirklich und wahrhaftig möchten, dann halten die allermeisten den Atem an, schauen betroffen drein und zucken die Schultern. Nicht nur Arbeiter, sondern die meisten von uns können diese Frage nicht beantworten. Dies ist in der Tat so verbreitet, dass wir uns in den Gruppen für Neue Arbeit daran gewöhnt haben, dieser häufigen menschlichen Schwäche einen Namen zu geben; wir nennen sie die ‚Armut der Begierde‘.“29 Noch ist ein solcher Zugang ein kaum bearbeitetes Feld. Er scheint aber bestens geeignet, den nicht geringen Voraussetzungen, die die Fähigkeit zum Lebensunternehmertum erfordert, den Weg zu bereiten. Der theoretische und praktische Übergang von einer einmal mit emanzipatorischen Potenzialen versehenen abhängigen Arbeit zum persönlichen Unternehmertum hat vielleicht doch eine Zukunft.
27 28 29
Vgl. Bergmann (2004). Paulesich (2006), S. 117. Bergmann (2004), S. 134.
Nutzen und Nachteil des arbeitsorientierten Denkens in der BWL 2
13
Von der Ökologie zur regulativen Idee nachhaltiger Entwicklung
Für die Aufbruchsituation ökologischer Unternehmenspolitik und betriebswirtschaftlicher Umweltforschung seit Mitte der 80er Jahre des 20. Jahrhunderts sind mehrere Beschreibungsmerkmale anzuführen.30 Die ökologischen Analysen und Diagnosen insbesondere der 80er Jahre waren getrieben von dem prognostischen Zweifel, ob das westliche, kapitalistische oder wie auch immer markierte Industriesystem grundsätzlich in der Lage sein könne, mit der gegebenen Expansion des Verbrauchs an Rohstoffen und Energie sowie der Belastung von Luft, Wasser und Boden mit schädlichen Stoffen zurecht zu kommen. Es gab in den ersten Jahren dieser Diskussionen viele Stimmen, die dies bezweifelten.31 Neben dieser mit Begriffen wie carrying capacity zunächst eher technisch und quantitativ anmutenden Frage kamen bei einem Teil der an den Debatten Beteiligten Zweifel auf über die Sinnhaftigkeit des überkommenen gesellschaftlichen Entwicklungsmodells von immer weiterem technischem und ökonomischem Fortschritt. Es gab anfangs nicht wenige, die in dem Druck auf permanente industrielle und wirtschaftliche Innovationen von daher nicht die Lösung sahen, sondern das Problem, und daraus das Erfordernis grundsätzlich neuer gesellschaftlicher und politischer Entwicklungsoptionen ableiteten, sowie ebenso einer Neubesinnung theoretischer Orientierungen.32 Wie in der Zyklizität politischer Themen üblich, beruhigte sich in Sachen ökologische Krise nach einigen Jahren das Diskussionsklima merklich, mit erheblichen Folgen für das Selbstverständnis der beteiligten Akteure. So mancher vormalige gesellschaftliche Fundamentalkritiker sah nun seine vornehmste Pflicht darin, Unternehmen bei der Umsetzung der EG-Öko-Audit-Verordnung zu begleiten. Das ist keineswegs diskreditierend gemeint, wäre sonst übrigens auch eine heftige Selbstkritik. Nein, inklusive des operativen Herunterbrechens in EMAS, ISO usw. war die Übersetzung großen Redens und Schreibens in häufig sehr kleines Handeln eine notwendige Entwicklungsetappe, an der viele von uns sich mit großem Recht aktiv beteiligt haben. Wer nämlich gerade in den ersten Jahren persönlich dabei war, Unternehmen wie Wilkhahn, MerckleRatiopharm oder Kunert auf ihrem Weg zu systematischer ökologischer Aktivität 30
31
32
Vgl. auch Pfriem (1995). 1985 wurde nicht nur unser Institut für ökologische Wirtschaftsforschung (IÖW) gegründet, sondern auch die ökologisch orientierten Unternehmervereinigungen BAUM (Bundesdeutscher Arbeitskreis für Umweltbewusstes Management) und der Förderkreis Umwelt – futur – es war sozusagen das offizielle Startjahr ökologischer Unternehmenspolitik in Deutschland Zum publizistischen Auftakt der Ökologiedebatte gehörten Publikationen, die in verschiedenen Bereichen der Umweltbelastungen Katastrophenszenarien einschlossen, auf dem Felde der Rohstoffverknappung etwa Meadows/Meadows (1972) und andere Berichte des Club of Rome. Sehr verbreitet damals in Deutschland beispielsweise Capra (1983).
14
Reinhard Pfriem
zu begleiten, hat schnell merken können, wie viel das in diesen Unternehmen weit über den engeren ökologischen Bereich hinaus bewegt hat, wie stark dadurch die eher gesellschaftlich und zukunftsorientierten Kräfte im Management Oberwasser bekommen haben, welch vielfältige Kommunikationen und Interaktionen auf diesem Wege zwischen Unternehmen und externen Stakeholdern aufgenommen wurden etc. Die terminologische Umstellung von Ökologie bzw. Umwelt auf Nachhaltigkeit ist allerdings gerade auch in der Betriebswirtschaftslehre in den bald zwanzig Jahren, die seit der Rio-Konferenz mittlerweile verstrichen sind, nicht sonderlich ernst genommen worden.33 Dieser Befund lässt sich am besten gleich zweifach markieren: zum einen, insofern das Thema Nachhaltigkeit eigentlich die Fragen nach Bedingungen, Möglichkeiten und Sinnbezügen unternehmerischer Tätigkeiten schlechthin stellt, in unserer Fachdisziplin außerhalb derjenigen, die sich sowieso schon mit Fragen der Ökologie, gesellschaftlicher Verantwortung etc. beschäftigten, bis heute aber keine nennenswerten Irritationen ausgelöst hat. Auf der Ebene des Hochschullehrerverbandes für Betriebswirtschaftslehre war mit der Festlegung des Schwerpunktthemas Umwelt bei der jährlichen Pfingsttagung 1996, ein halbes Jahrzehnt nach Gründung der Kommission mit dem irreführenden Namen Umweltwirtschaft, sowohl die Schublade in den Schrank der Funktionsbereiche offiziell eingebaut als auch die Akte geschlossen. Wer das Programm der Kieler Pfingsttagung 2005 immerhin zum Thema Innovationen oder der Grazer Tagung 2004 zum Thema „Gesellschaftliche Verantwortung von Unternehmen“ genauer anschaut, kann nur sicherer werden in dem Befund: Nachhaltigkeit ist für den deutschen Verband der Hochschullehrer für Betriebswirtschaftslehre kein Thema besonderer Relevanz. Auf der anderen Seite steht nach zwei Jahrzehnten eine ganze Anzahl von betriebswirtschaftlichen Lehrstühlen, die sich mit Ökologie, Umwelt, Nachhaltigkeit beschäftigen. Häufig scheint dabei freilich die Ersetzung des Begriffs Ökologie (oder Umwelt) durch Nachhaltigkeit nur der Austausch von Wörtern zu sein, ohne dass sich an den Lehr- und Forschungsinhalten selbst etwas ändert. Dabei geht es doch um die Frage, welche Beiträge wir als Wissenschaftler dazu leisten können, die Rolle von Unternehmen in modernen Gesellschaften analytisch wie normativ enger zusammen zu bringen mit dem, worin nun einmal der Kern der Herausforderung Nachhaltige Entwicklung besteht: auch in den frühindustrialisierten Ländern zu solchen Wirtschafts-, Arbeits- und Lebensstilen zu kommen, die dauerhaft global übertragbar sind, also auch zu entsprechenden 33
Zu einer kritischen Zwischenbilanz dieser Konstellation vgl. die Publikation zu der 2005 an der Universität Oldenburg durchgeführten Tagung der Kommission Umweltwirtschaft: Pfriem et. al. (2006). In wichtigen Teilen stützen sich die Ausführungen dieses Kapitels auf meinen seinerzeitigen Vortrag.
Nutzen und Nachteil des arbeitsorientierten Denkens in der BWL
15
Unternehmenspolitiken. Und davon sind wir – bei allen erfreulichen Fortschritten bisheriger Umweltpolitik – unbestreitbar noch weit entfernt. Natürlich handelt es sich bei den Problemen der globalen Übernutzung von Ressourcen, der übermäßigen Emission von Schadstoffen, der globalen Klimaveränderungen und vielem mehr auf den ersten Blick um ökologische Probleme. Es sei aber daran erinnert, dass die in ihrer Bedeutung klassisch gewordene RioKonferenz 1992 nicht nur die weltweiten ökologischen Zerstörungen zum Gegenstand hatte, sondern auch die mangelnde Entwicklung vieler Länder dieser Erde vor allem auf ihrer südlichen Hälfte. Und die jüngere Entwicklung in China führt uns nicht nur drastisch vor Augen, was passiert, wenn für die Industrialisierung weiterer Länder keine ökologischen Lehren aus vorangegangenen Industrialisierungsprozessen gezogen werden – sie zeigt auch, welch massive Verschärfung sozialer Ungleichheiten mit solchen Entwicklungsprozessen verbunden ist. Bei näherem Hinsehen erweist sich die ökologische Frage also als zutiefst gesellschaftspolitische Frage. In einer Ökonomie, die sich nicht nur von den klassischen Schwerindustrien und Massenproduktionen verabschiedet, sondern damit auch von den stabilen Organisationsformen und Ordnungsmustern, die gerade weniger orientierungsfähigen Menschen Halt und Ordnung gaben, gehen materielle und kulturelle Verarmungsprozesse zwangsläufig Hand in Hand. Die bundesdeutschen Verhältnisse seit der Wiedervereinigung zeigen längst, dass ein Selbstverständnis, die Fragen ökologischer Innovationen unter den Bedingungen breiter materieller Wohlfahrt analysieren und konzeptualisieren zu können, anachronistisch geworden ist. So merkwürdig das klingen mag, gibt es deshalb gute Gründe dafür, dass ein zu eng definiertes Umweltproblem in der Sicht der deutschen Bevölkerung an Bedeutung verloren hat. Die daraus abzuleitende kritische Anmerkung heißt dann, dass eine zu eng definierte Umweltforschung ebenfalls zu Recht an Bedeutung verloren hat und weiter verlieren wird. Nunmehr zwei Jahrzehnte umweltökonomischer Forschung haben sich in weiten Teilen viel zu abstrakt mit den Beziehungen von ökonomischem Handeln und ökologischen Folgen, mit ökologischen Modernisierungen und umweltpolitischen Innovationen beschäftigt, statt konkreter die ökonomisch-ökologischen Probleme spezifischer Märkte und Branchen zu analysieren, damit notwendigerweise auch die kulturellen und gesellschaftlichen Aspekte und Dimensionen. Die fokussierte wissenschaftliche Beschäftigung damit, mit welchen Anreizinstrumenten öko-effizientere Verfahren begünstigt werden können, mag zwar in einzelnen Bereichen zu ökologischen Verbesserungen führen. In einer gewissen Weise haben diese Dinge aber immer weniger mit den Bedingungen und Möglichkeiten einer zukunftsfähigen Entwicklung im Sinne von Nachhaltigkeit zu tun. Denn diese ist abhängig davon, welche Ziele, Neigungen und Wünsche sich bei den ökonomischen Akteuren auf beiden Seiten
16
Reinhard Pfriem
der ökonomischen Interaktion – Angebot wie Nachfrage – entwickeln und wie es um die Entwicklung von Kulturtechniken, von intellektuellen, moralischen und ästhetischen Kompetenzen in der Gesellschaft steht. Was sind die kulturellen und sinnbezogenen Orientierungen, von denen das Handeln der ökonomischen Akteure getrieben wird?34 Es geht also darum, diesen Fragen für nachhaltigkeitsbezogene betriebswirtschaftliche Forschung Aufmerksamkeit zuzuwenden und den vorgängigen Schein zu überwinden, als handle es sich dabei um Fragen gesellschaftlicher und kultureller Entwicklungen, mit denen Betriebswirtschaftslehre gar nichts zu tun hat. Es ist nach wie vor sinnvoll, wie Erich Gutenberg vor einem Dreivierteljahrhundert die Unternehmung als Gegenstand betriebswirtschaftlicher Theorie auszuzeichnen. Wir müssen „nur“ angemessen berücksichtigen, wie sich das, was er als Unternehmung bezeichnet hat, inzwischen verändert und mit den verschiedenen anderen Elementen der Gesellschaft verwoben hat. Dem Ökologieproblem als Problem der Übernutzung von Ressourcen und der Schadstoffüberlastung von Luft, Wasser und Boden konnte man über Modifikationen der klassischen betriebswirtschaftlichen Produktionstheorie noch gut beikommen, wie Harald Dyckhoff35, Gerd Rainer Wagner36 und andere sehr früh gezeigt haben. Für die andere wesentliche Gutenbergsche Idee der Isolierbarkeit der betrieblichen Leistungserstellungsprozesse war damit aber bereits der Sprengsatz gelegt: schon bei ökologischer Erweiterung der vormaligen Produktionstheorie erweist sich die Unternehmung als ökonomische Organisationsform der Gesellschaft, die nur über ihre Verflechtungen mit den gesellschaftlichen Umwelten angemessen analysiert werden kann. Wenn wir heute bei prominenten globalen Unternehmen auf Märkten wie Bekleidung, Sportschuhe und vielen anderen nicht weniger erleben als deren Emanzipation von der Produktion als dem, was die Betriebswirtschaftslehre des 20. Jahrhunderts für das hielt, was den Kern ihrer Sache ausmacht, dann müssen wir als betriebswirtschaftstheoretische Forscher, die auf der Höhe der Zeit bleiben wollen, daraus Konsequenzen ziehen.37 Die unternehmerische Emanzipation von der Produktion mit der Herausbildung von Markenführung als unternehmerischem Kerngeschäft macht in solchen Fällen wie Nike, H & M und anderen speerspitzenartig deutlich, wohin die Reise geht. Unternehmensstrategien sind insofern kulturelle Angebote an die Gesellschaft. Entgegen einer jahrzehntelangen sozialwissenschaftlichen Forschungsrichtung, kulturellen und Wertewandel einer irgendwie allgemeinen gesellschaftlichen und vor allem konsumentenbezo34 35 36 37
Dass dies gerade eine Herausforderung der Anbieterseite darstellt, verdeutlicht Pfriem (2004). Dyckhoff (1992). Wagner (1990). Vgl. dazu Pfriem (2005), insbesondere S. 187 ff.
Nutzen und Nachteil des arbeitsorientierten Denkens in der BWL
17
genen Sphäre zuzuordnen, der gegenüber Unternehmen als Anpasser zu modellieren wären, sind Unternehmen wesentliche Produzenten kultureller Veränderungen in modernen Gesellschaften.38 Sie waren das im Grunde schon zu Zeiten, als die Chefs von Krupp und Siemens noch Krupp und Siemens hießen, allerdings täuschten die Sach- und Zweckrationalitäten der frühen kapitalistischen Entwicklung nicht nur darüber hinweg, sondern generierten schon aus Gründen der frühen industriellen Technik lock-ins, mit denen wir in nicht geringem Umfang noch heute zu tun haben.39 Wir haben es also mit einer wesentlich kulturell aufgeladenen Ökonomie zu tun, in der Unternehmen heute agieren. Am Beginn unserer Einleitung zu dem Band unserer Forschungsgruppe Unternehmen und Gesellschaft (FUGO) über Perspektiven einer kulturwissenschaftlichen Theorie der Unternehmung haben wir dies in vier Punkten zusammengefasst: „1. die kulturelle Aufladung der betrieblichen Organisation, die sich durch alle relevanten Funktionsbereiche eines Unternehmens zieht, 2. die kulturelle Einbettung von Unternehmen in ihre gesellschaftlichen Umwelten, dabei insbesondere 3. die kulturelle Aufladung der Beziehung zwischen Unternehmen und Konsumenten, die sich wiederum 4. in den, den Produkten anhaftenden Bedeutungen widerspiegelt.“40 Dieser Befund ist gerade unter dem Gesichtspunkt einer nachhaltigen Entwicklung von außerordentlicher Relevanz. Über die Ausrichtung und Entwicklung ihrer Geschäftsfelder und Geschäftspolitiken unterbreiten Unternehmen der Gesellschaft eben in vielfältigster Weise Angebote dazu, wie diese sich weiter entwickeln sollte, zum Beispiel:
38 39 40
ob sie passive Tätigkeiten wie Fernsehen stärken sollen oder aktive wie Sport treiben, Reisen etc., ob sie bestehende Trends zur Wertminderung von Ernährung (z.B. auch als Anteil der Lebenshaltungskosten) weiterführen sollen oder Ansätze liefern, für Ernährung wieder mehr Zeit aufzuwenden und vielleicht auch mehr Geld auszugeben,
Zur Kritik des „adaptionistischen Missverständnisses“ vgl. Hejl (2006). Zur Frage der Lock-Ins in der Unternehmenstheorie vgl. Lehmann-Waffenschmidt/Reichel (2000). Beschorner/Fischer/Pfriem/Ulrich (2004), S. 11.
18
Reinhard Pfriem ob die Fetischisierung des Automobils mit Typen von 300 und mehr PS wieder aufleben soll oder neue Wege zur Integration verschiedener Verkehrsträger beschritten werden, ob kulturelle und geschichtliche Bildung ein wichtiges Element gesellschaftlicher Fähigkeitsentwicklung ist oder eher hinderlich für Exzellenz in technisch-naturwissenschaftlichen Wettbewerben, ob Umweltqualität als vorübergehende Modeerscheinung behandelt wird oder als unabdingbarer Bestandteil von Produkten und Dienstleistungen im 21. Jahrhundert.
Natürlich ließe sich diese Liste unendlich fortführen. Die Beispiele zeigen bereits deutlich genug, zu welch kulturell unterschiedlichen Perspektiven unternehmerische Angebotsstrategien führen können. In der vierten Ausgabe des Jahrbuchs Ökologische Ökonomik hat Ulrich Witt, vor inzwischen rund zwei Jahrzehnten der Initiator des Ausschusses für Evolutorische Ökonomik im Verein für Socialpolitik, einen schon im Titel bemerkenswerten Kommentar zu einigen anderen Beiträgen in diesem Band geschrieben. Der Titel lautet: Innovationsförderung als Königsweg zur Nachhaltigkeit?41 Im selben Band hat Niko Paech nachhaltige Innovationen als Gestaltung ambivalenter Prozesse des Wandels charakterisiert.42 In diesem Sinne und in Pointierung des Wittschen Arguments scheint mir der Hinweis wichtig, dass wir stark genug sein sollten, der Entwicklung und Verbreitung von Placebo-Theorien tüchtig zu widerstehen. Als Betriebswirtschaftler stehen wir bekanntermaßen für eine traditionelle Macherlehre, außerdem wollen wir vielleicht noch den einen oder anderen Beraterauftrag akquirieren – in Bezug auf die Frage nach Innovationen sind wir also doppelt gefährdet. Niko Paech ist an verschiedenen Stellen der Frage nachgegangen43, ob es bei Innovationen eigentlich darum geht, immer etwas Neues dazuzusetzen oder vielleicht gerade auch Korrekturen an der eingeschlagenen Richtung vorzunehmen. Von Innovationen für nachhaltige Entwicklung kann doch – kontrafaktisch, gegen eine nicht nachhaltige Entwicklung – immer nur in dem Maße die Rede sein, in dem das Erste in das Zweite eingebettet wird. Das ist ein explizit kulturalistisches Argument zum Innovationsphänomen, wozu der Hinweis von Boris Groys passt: „Die Innovation besteht nicht darin, dass etwas zum Vorschein kommt, was verborgen war, sondern darin, dass der Wert dessen, was man im-
41 42 43
Vgl. Witt (2005). Vgl. Paech (2005b). Besonders gründlich in seiner Habilitationsschrift, Paech (2005a).
Nutzen und Nachteil des arbeitsorientierten Denkens in der BWL
19
mer schon gesehen und gekannt hat, umgewertet wird. Die Umwertung der Werte ist die allgemeine Form der Innovation.“44 In diesem Sinne spricht Dirk Fischer vom Strategischen Management in der Symbolökonomie.45 Dabei fällt übrigens auf, dass die symbolischen Konnotationen in unterschiedlichen Produkt-, Dienstleistungs- und Versorgungsbereichen sehr unterschiedlich ausfallen und gerade diese Ungleichzeitigkeiten wegen ihrer Nachhaltigkeitsrelevanz ein wichtiger Gegenstand betriebswirtschaftlicher Forschung werden sollten. Im Rahmen unseres BMBF-Projektes OSSENA zum Thema Ernährungskultur46 konnten wir feststellen, wie ausgerechnet das unter Lebensqualitätsgesichtspunkten fundamentale Bedürfnisfeld der Ernährung zu einem solchen geworden ist, wo selbst bei Teilen höherer Einkommensschichten die „Geiz ist geil“-Mentalität greift, während in anderen Bereichen der von Thorstein Veblen schon vor einhundert Jahren so bezeichnete demonstrative Konsum47 fröhliche Urstände feiert. Die Scham der Reichen, ihren Reichtum zur Schau zu stellen, sinkt auch in Deutschland offenkundig rapide, bemerkenswerterweise zur selben Zeit, zu der hierzulande echte Armut eher wieder zunimmt. Das ist eine wichtige kulturelle, ökonomisch natürlich bedeutsame und, wie mir scheint, außerordentlich nachhaltigkeitsfeindliche Entwicklung. Die höchst unterschiedlichen Ausprägungen der Beziehungen von Preis und Qualität und unternehmensseitige Aktivitäten zur Förderung demonstrativen Konsums sind also für nachhaltigkeitsökonomische Forschung wichtige Themen, ebenso wie Bemühungen um die Wiederbelebung handwerklicher Qualität oder solcher Produkte und Dienstleistungen, die im Gegensatz zum demonstrativen Konsum von der Idee getragen sind, Zugänglichkeit für sehr viele oder alle sicher zu stellen. Nicht nur die ökologischen Rucksäcke, von denen wir seit langem aus unseren Forschungen wissen, sondern auch das Erfordernis oder besser: die Ermöglichung von handwerklichen Fertigkeiten und Kulturtechniken, die Entfaltungsbedingungen für ästhetische Bildung sind in angebotene Produkte und Dienstleistungen häufig schon eingebaut, oder betrüblich häufig auch die Verhinderung. Das fängt bei der Spielzeugindustrie für kleinste Kinder schon an, die bei dem einen Spielzeug die Möglichkeit zu phantasievoller Eigenaktivität haben, bei dem anderen ist das Wegwerfen die einzige Alternative. Damit stellen sich übrigens ganz neue Herausforderungen für die Kultur eines Unternehmens. Und wir haben zu lernen, dass es bei Unternehmenskultur nicht nur um etwas Internes geht. Thomas Beschorner hat das als Unterneh-
44 45 46 47
Groys (1992), S. 14. Vgl. Fischer (2005). Vgl. Pfriem/Raabe/Spiller (2006). Vgl. Veblen (1981).
20
Reinhard Pfriem
menskultur II bezeichnet.48 Das heißt, so wie etwa Unternehmen schon damit begonnen haben, im Sinne von Corporate Citizenship gesellschaftliches Engagement von Mitarbeiterinnen und Mitarbeitern zu fördern, so tragen Unternehmen selbstverständlich durch die Gestaltung ihrer Angebote auch Verantwortung dafür, welche Befähigungs- oder Entmündigungsprozesse bei Nutzern und Konsumenten ablaufen können. In diesem Sinne und in Richtung einer erst wieder zu entfaltenden Debatte über Wirtschaftsstile und Wirtschaftskulturen sollten wir der längst stagnierenden Diskussion und Forschung zum Thema Organisationskulturen neues Leben einflößen.49 In der Literatur zu Innovationen für nachhaltige Entwicklung ist damit begonnen worden, typologische Unterscheidungen für Innovationen vorzunehmen, die über frühere Einsichten, dass es jenseits technischer Produkt- und Verfahrensinnovationen doch auch irgendwie organisatorische oder soziale Innovationen gibt, an Präzision deutlich hinausgehen. Fichter50 reflektiert ausgehend von der kritischen Rekonstruktion, wie wenig Innovations- und Nachhaltigkeitsforschung bislang zusammen kommen wollen, das Innovationshandeln in der Welt grenzenlos werdender Unternehmungen. Die Gefahr ist selbstverständlich groß, dass in der Verkoppelung von Nachhaltigkeitsinnovationen mit einem zu oberflächlich verstandenen Schumpeterschen Unternehmertum, mit Entre-, Intra- und Interpreneurship eine neue betriebswirtschaftliche Mode von Machermentalität kreiert wird. Umso wichtiger ist die konkrete Analyse realer Entwicklungen. Just in dem Kapitel, das mit dem seit Jahren verbreiteten Lieblingszitat vom Prozess der schöpferischen Zerstörung überschrieben ist, hat Schumpeter formuliert: „Der Kapitalismus ist also von Natur aus eine Form oder Methode der ökonomischen Veränderung und ist nicht nur nie stationär, sondern kann es auch nie sein. Dieser evolutionäre Charakter des kapitalistischen Prozesses ist nicht einfach der Tatsache zuzuschreiben, dass das Wirtschaftsleben in einem gesellschaftlichen und natürlichen Milieu vor sich geht, das sich verändert und durch seine Veränderung die Daten der wirtschaftlichen Tätigkeit ändert. [...] Der fundamentale Antrieb, der die kapitalistische Maschine in Bewegung setzt und hält, kommt von den neuen Konsumgütern, den neuen Produktions- oder Transportmethoden, den neuen Märkten, den neuen Formen der industriellen Organisation, welche die kapitalistische Unternehmung schafft.“51 Der Name Schumpeter springt schnell ins Auge, wenn man die Homepage des Lehrstuhls von Norbert Koubek öffnet. Das passt ausgezeichnet dazu, dass
48 49 50 51
Beschorner/Lindenthal/Behrens (2004). Zur Wirtschaftskulturdiskussion auch in historischer Perspektive vgl. Pfriem (2006b). Fichter (2005). Schumpeter (1993), S. 136 f.
Nutzen und Nachteil des arbeitsorientierten Denkens in der BWL
21
bei der Charakterisierung zukunftsfähiger Unternehmensstrategien Schumpeter auch für mich einen wichtigen theoretischen Bezugsrahmen darstellt.
3
Von Innovationsrhetorik zu zukunftsfähigen Unternehmensstrategien
Joseph Schumpeter formulierte 1947: „Economic historians and economic theorists can make an interesting and socially valuable journey together, if they will, It would be an investigation into the sadly neglected area of economic change.”52
Mit diesen Worten begann Schumpeter drei Jahre vor seinem Tod den Aufsatz „The Creative Response in Economic History”. Die Definition für den Creative Response war eindeutig: „[...] whenever the economy or an industry or some firms in an industry do something else, something that is outside of the range of existing practice […]“53. Ökonomischer Wandel beruht auf Rekursivität, auf dem gegenseitig aufeinander Einwirken von Angebot und Nachfrage im interaktiven Spiel der Ökonomie, das im konsumgetriebenen Kapitalismus, unter den Bedingungen sprunghaft gestiegener kultureller Aufladungen dessen, was man einmal in der Welt rationaler Kalküle und sachzwanghafter Mechanismen verortete, nicht länger auch nur ansatzweise sinnvoll untersucht werden kann, wenn man von einseitigen Maximierungs- oder Optimierungsstrategien ausgeht. Es ist nicht von der Hand zu weisen, dass sich Schumpeter im Laufe seines Lebens vom Vertreter der eher klassischen Nationalökonomie zu dem entwickelt hat, was man einen Soziologen des Ökonomischen nennen könnte, die gesellschaftstheoretische Selbstaufklärung Schumpeters nahm im Laufe seines Lebens eindeutig zu.54 Auf der anderen Seite wird im Feld der Ökonomik dem frühen Schumpeter geradezu ständig Unrecht getan, indem er als Urvater des methodologischen Individualismus angeführt wird. Denn selbst in dieser der ökonomischen Klassik sicher nächsten theoretischen Lebensetappe war Schumpeter klug genug, der unhistorischen und allgemein gültigen Vernünftigkeit des methodologischen Individualismus ausdrücklich zu widersprechen, für die er seither so oft in Beschlag genommen wurde. In seinem 1908 verfassten Werk über Wesen und Hauptinhalt der theoretischen Nationalökonomie betont er die Unentbehrlichkeit 52 53 54
Schumpeter (1947), S. 149. Schumpeter (1947), S. 150. Vgl. dazu die brillante Biographie von Swedberg (1991). Der Befund ergibt sich aber auch etwa durch den Vergleich der mit großem Abstand am meisten zitierten Werke Schumpeter (1997), orig. 1911 und Schumpeter (1993), orig. 1946.
22
Reinhard Pfriem
der individualistischen Methode „freilich nur für die Zwecke der reinen Theorie im engsten Sinne“ und fährt fort mit dem Hinweis auf die Möglichkeit, sie zu verlassen: „Vielleicht wird das später einmal geboten sein, so wie es schon gegenwärtig außerhalb jenes ganz engen Gebietes der Fall ist.“55 Es ist das betrübliche Schicksal großer Geister, dass sie sich nach ihrem Tod gegen diejenigen, die sich verzerrend auf sie berufen, nicht mehr zur Wehr setzen können. Die Interaktionsökonomik, der Schumpeter mit dem Gedanken des „Creative Response“ vor inzwischen mehr als sechs Jahrzehnten schon das Wort redete, wird jedenfalls unter heutigen ökonomischen Bedingungen das Gebot der Stunde. Wie lässt sich das angemessen in einen theoretischen Bezugsrahmen bringen? In den strategischen Spielen, die Angebot und Nachfrage als die beiden elementaren Seiten der ökonomischen Interaktion miteinander spielen56, geht es um Aufmerksamkeit, Anerkennung und in der weiteren Perspektive auch um kulturelle Hegemonie.57 Diesbezügliche Wahrnehmungs- und Verarbeitungsprozesse sind wie ökonomische Aktionen im engeren Sinne keine isoliertindividuell ablaufenden Vorgänge, sondern finden statt in sozialen Beziehungen und Bezügen. Was wir als Gesellschaft bezeichnen, ist im Sinne der hier vorgestellten Überlegungen ein kulturelles Spielfeld oder eine Plattform für kulturelle Spiele: Unterschiedliche soziale Praktiken, normative Orientierungen, symbolische Ordnungen und kulturelle Muster ringen um die genannten Aufmerksamkeiten, Anerkennungen und Hegemonien. Ökonomische Interaktionen sind weder einseitige Manipulation der Konsumenten noch die unternehmensseitige Befolgung von Konsumentensouveränität. Von dieser Einsicht aus lassen sich die kulturellen Effekte der Unternehmenstätigkeit und damit die gesellschaftliche und kulturelle Verantwortung von Unternehmen entdecken. Konkurrierende Unternehmen machen sich nicht nur dadurch Konkurrenz, dass sie zu höheren Periodengewinnen oder langfristig besseren betriebswirtschaftlichen Erfolgspositionen kommen wollen als ihre Wettbewerber, dass sie vielleicht Marktführer werden wollen und das nicht gleichzeitig auch der andere sein kann etc., sondern zunehmend über die unterschiedliche kulturelle Qualität der von ihnen angebotenen Güter und Dienstleistungen. 55 56 57
Schumpeter (1970), S. 96. Mit Pfriem (2004) habe ich die Unternehmensseite betont, die in einer Welt vermeintlicher Konsumentensouveränität gewöhnlich zu wenig beachtet wird. Für diese Beobachtung ist mindestens erst einmal unerheblich, wie ausdrücklich die Absichten der Beteiligten dabei sind. Auf die Nennung begrifflicher Quellen wie Franck, Hegel bzw. Honneth und Gramsci verzichte ich im Unterschied zu früher inzwischen lieber, nicht um diese zu ignorieren, sondern weil es sich doch in allen Fällen um den terminologischen Transfer aus reichlich anderen Theoriegebäuden handelt.
Nutzen und Nachteil des arbeitsorientierten Denkens in der BWL
23
Auf dem Boden einer Interaktionsökonomik gibt es für Innovationen keine Regeln, keine Normen, keine Rahmenbedingungen, nur Kontexte und Ermöglichungsbedingungen (jenseits dessen, was die Akteure für sich vermögen). In diesem interaktiven Zusammenhang sind insofern auch evolutorisch, systemtheoretisch und sonst wie aufgeklärte Kategorien wie Pfadabhängigkeiten und Lernpfade, Lerntypen, Lernmodelle zu denken, ebenso solche Anstöße wie Perturbationen, Irritationen, Multifurkationen, der ganze Komplex der Alternativenräume, die so wichtigen Was wäre, wenn-Szenarien; die Formierung von Zukunftserwartungen. Organisationen sind nicht nur über Routinen und Anpassungshandeln erklärbar. Unternehmen kennen nicht nur ihre Kostenfunktionen nicht58, sie treffen ihre strategischen Entscheidungen auch beileibe nicht vor allem nach der Kostenseite, sondern nach der Erfolgs- bzw. Erfolgspotentialseite, damit nach einem kategorial anderen Kalkül. Unsicherheit und Ungewissheit oder – philosophischer ausgedrückt – Kontingenz werden zu den zentralen Kategorien des Strategischen Managements. „Vor allem muss die black box Zukunft aufgehellt werden, das heißt: Die Unternehmen müssen Stellung beziehen, welche künftigen Entwicklungen sie erwarten und welche sie befördern wollen. Zukunftsfähiges Strategisches Management muss insofern versuchen, eine Doppelperspektive einzunehmen: sich einerseits auf die Seite der möglichen gesellschaftlichen Zukünfte schlagen und für das Unternehmen die Frage beantworten, welche es unterstützen will, andererseits die Bedingungen des eigenen Unternehmens auf seine Möglichkeiten befragen, eben dieses zu tun.“59 Das ist (um auf den Ausgangspunkt dieses Textes zurückzukommen) Arbeit im besten Sinne von schöpferischer Arbeit – unternehmerische Arbeit – Unternehmerarbeit. Interaktionsökonomik als theoretische Untersuchung der praktischen Rekursivitäten zwischen Angebot und Nachfrage hat viel damit zu tun, dass sich seit Schumpeter die Verhältnisse von einem produktions- zu einem konsumgetriebenen Kapitalismus verschoben haben. Ein Zeitungsartikel titelte vor einiger Zeit treffend: Wir empören uns als Bürger über das, was wir als Konsumenten anrichten. Die qualitätszersetzende Konsumkultur „Geiz ist geil“ kann natürlich nur dadurch greifen, dass hinreichend viele Konsumentscheidungen entsprechend ausfallen. Und wer die anhaltende Expansion des materiellen Konsums bis in die einkommensschwächsten Schichten hinein auch nur halbwegs realitätstüchtig beobachtet, sollte auf das Argument verzichten, die Konsumenten folgten eben legitimerweise dem ökonomischen Prinzip. Schlechtes Essen, schlechte Kleidung, schlechte Geräte sind bei näherem Hinsehen in vielen Fällen nicht billiger, sondern teurer. 58 59
Das zielt auf eine weiterhin notwendige Kritik am transaktionskostentheoretischen Ansatz. Pfriem (2006a), S. 269 f.
24
Reinhard Pfriem
Sven Hillenkamp hat dies in der ZEIT vom 8. Juni 2006 als Persönlichkeitsspaltung beschrieben: „Wir buchen Flüge zu Preisen, von denen wir wissen, dass sie auf Niedriglöhnen und Stellenabbau beruhen. Wir kaufen ein in Supermärkten, deren Preise angemessene Gewinne für die Produzenten ausschließen – ebenso wie eine umwelt- und tiergerechte Produktion. Wir haben gelesen, dass den Angestellten hinter der Kasse landesübliche Rechte vorenthalten werden. Wir wissen, dass Hosen und Pullover, Computer und DVD-Player, die wir zu Spottpreisen kaufen, nicht in Deutschland, sondern im Ausland gefertigt werden, in so genannten Niedriglohnländern. Sozialdumping, Stellenabbau, Verlagerung der Produktion ins Ausland – als Kunde fördern wir alles, was uns als Bürger empört.“ Das vorherrschende Konsummodell untergräbt damit Sinn und Wert guter Arbeit. Nicht nur der Dualismus von Kapital und Arbeit ist längst erodiert. Die Transformation des ursprünglich unternehmerischen, dann Managerkapitalismus zum Anlegerkapitalismus macht das zu Kritisierende bzw. zu Bekämpfende spätestens dann „unsichtbar“, wenn wir merken, dass wir potentiell alle die Heuschrecken sind, über die wir uns aufregen. Dieselben Menschen, die sich darüber aufregen, dass Gewinne und Dividenden steigen, wenn Menschen in großer Zahl entlassen werden, werkeln oft daran mit, indem sie – unterstützt von ihren Banken und anderen Finanzdienstleistern – ihre eigenen Geldanlagen dort positionieren, wo es die kurzfristig größte Rendite verspricht. So setzt sich die Persönlichkeitsspaltung der internationalen Konsumentenklasse als Schizophrenie bei denselben Menschen als stark ansteigender Anlegerklasse fort. Und verschärft wird das Problem dadurch, dass hinter dem Stichwort Erbengeneration das Phänomen der geradezu systematischen Abkopplung persönlichen Reichtums von Arbeit und Leistung steckt. Albert Hirschman hat die geistig-kulturellen Vorentwicklungen dessen, was wir heute als kapitalistische oder marktwirtschaftliche Ökonomie kennen, schon vor langer Zeit sehr präzise herausgearbeitet. „Die Unfähigkeit der modernen Sozialwissenschaften, die politischen Folgen des ökonomischen Wachstums aufzuhellen“60, stellt er bemerkenswerterweise an den Anfang seiner Überlegungen. Weltanschauungshistorischer Kernpunkt ist die Auseinandersetzung damit, dass der moderne Kapitalismus nichts weniger darstellt als den Versuch, die Todsünde Habgier zum ökonomischen Interesse zu pazifizieren. Sorgfältig rekonstruiert Hirschman die ideologische Emanzipation (= Aufstieg der Legitimation) der Gewinnsucht ab der zweiten Hälfte des 18. Jahrhunderts. Er zitiert jenen Hutcheson, auf den noch vor Jeremy Bentham die Formulierung vom größtmöglichen Glück der größtmöglichen Zahl zurückgeht, der „das ruhige 60
Hirschman (1987), S. 11.
Nutzen und Nachteil des arbeitsorientierten Denkens in der BWL
25
Verlangen nach Reichtum“ der „Leidenschaft der Habgier“ gegenüberstellt, und besonders genüsslich jenen Dr. Johnson, der 1775 notiert: „Es gibt für einen Mann [!!; RP] wenig Möglichkeiten, sich unschuldiger zu betätigen als beim Geldverdienen.“61 Meine These heißt nun, dass der Schein (!) der Möglichkeit, es könne diese Pazifizierung der Habgier zum ökonomischen Interesse gelingen, so lange gewisse Glaubwürdigkeit für sich verbuchen konnte, so lange mit dem Reich der Produktion eine selbst natürlich auch nur scheinbar sachrationale Welt den dominanten Faktor des modernen Wirtschaftslebens bildete. Mit der Gewichtsverschiebung zwischen Produktion und Konsum im Feld der ökonomischen Interaktion zugunsten des letzteren geht dieser Schein „natürlich“ zuschanden.62 Die Gewichtsverschiebung von der Produktions- zur Konsumseite der ökonomischen Interaktion ist unverkennbar und inzwischen auch weitgehend unbestritten.63 Ein Vertreter der klassischen Betriebswirtschaftslehre des 20. Jahrhunderts, erst recht im an Gutenberg geschulten Deutschland, hätte bei der Behauptung, die Produktion werde durch die Markenführung als unternehmerisches Kerngeschäft abgelöst, sofort die Diskussion abgebrochen – und doch ist nichts anderes inzwischen der Fall. Effizienz und Knappheitsparadigma entstammen geradezu weltanschaulich einer Zeit der Sparsamkeit, als der Bundeskanzler (Ludwig Erhard) noch zum Maßhalten aufgerufen hat. Unter den Bedingungen von Entwertung und Erlebnisinszenierung hat sich die konsumbezogene Weltanschauung zur Verschwendung hin entwickelt, und wenige Jahre nach Kanzler Schröders Konsumappellen wird ernsthaft über Konsumgutscheine als Mittel der Wirtschaftspolitik diskutiert. Wo es bei Marx noch hieß „Akkumuliere, akkumuliere, das ist Moses und die Propheten“, lautet die heutige Formel „Konsumiere, konsumiere“ – sicher nicht mehr auf Moses bezogen, eher dann gekoppelt mit Heidi Klum als der „schönsten Hexe der Welt“. Viele Vertreter der Ökonomik als Wissenschaft, ebenfalls viele Vertreter der Unternehmenspraxis haben diese Verschiebung vom produktions- zum konsumgetriebenen Kapitalismus64 noch gar nicht bemerkt, weite Teile von ökono61 62 63
64
Hirschman (1987), S. 74 bzw. S. 66. Der Frage, ob es gelingen könnte, die Todsünde Völlerei zum Genuss zu pazifizieren, kann in diesem Text ebenfalls nicht nachgegangen werden. Industriesoziologische Untersuchungen erfassten diesen Wandel bereits vor drei Jahrzehnten als Veränderungen von Produktionsökonomie zu Marktökonomie (häufig symbolisiert durch den Wechsel vom VW-Standard-Käfer zum produktdifferenzierten VW Golf), im Marketing wird ungefähr schon genau so lange, also etwa seit dessen deutschem Start über die Veränderung von Verkäufer- zu Käufermärkten gesprochen – in beiden Fällen taucht eine Ahnung des großen Wandels auf, ohne freilich dessen tiefliegende kulturelle Dimensionen zu erfassen. Unter den zur Verfügung stehenden, irreführenderweise auf Singular gepolten Begriffen scheint uns dieser noch das kleinste Übel zu sein.
26
Reinhard Pfriem
mischer Accademia wie ökonomischer Praxis sind in der Etappe des Produktionskapitalismus stecken geblieben. Das hat weit reichende Folgen: Materielle Güterausstattung und Lebensglück werden verwechselt, der Konsumismus vom Standpunkt einer Produktion, die ihren Absatz sucht und dabei auf wachsende Schwierigkeiten stößt, zum gepredigten Lebensmodell. Der „Kampf um Arbeitsplätze“ verschärft das Problem. Das Wachstum nach außen verdrängt Fragen zu Bedingungen und Möglichkeiten des Wachstums nach innen.65 Wenn es gelänge, die wesentliche Beschäftigung der ökonomischen Theorie von der früheren Produktions(faktoren)theorie auf eine Ökonomik des Glücks, das heißt für uns: des gelingen könnenden Lebens zu verlagern, bestünde (grau, grau ist alle Theorie?) so etwas wie Hoffnung auf neues wissenschaftliches Leben.
Literatur Becker, E./Jahn, Th. (2006): Soziale Ökologie – Grundzüge einer Wissenschaft von den gesellschaftlichen Naturverhältnissen. Frankfurt/M./New York 2006. Bergmann, F. (2004): Neue Arbeit, Neue Kultur, Freiamt 2004. Beschorner, Th./Fischer, D./Pfriem, R./Ulrich, G. (2004): Perspektiven einer kulturwissenschaftlichen Theorie der Unternehmung – Zur Heranführung, in: Forschungsgruppe Unternehmen und gesellschaftliche Organisation (Hrsg.): Perspektiven einer kulturwissenschaftlichen Theorie der Unternehmung, Marburg 2004. Beschorner, Th./Lindenthal, A./Behrens, T. (2004): Unternehmenskultur II – Zur kulturellen Einbettung von Unternehmen, in: Forschungsgruppe Unternehmen und gesellschaftliche Organisation (Hrsg.): Perspektiven einer kulturwissenschaftlichen Theorie der Unternehmung, Marburg 2004. Bröckling, U. (2007): Das überforderte Selbst, Frankfurt 2007. Capra, F. (1983): Wendezeit. Bausteine für ein neues Weltbild, München 1983. Clausen, L. (1988): Produktive Arbeit, destruktive Arbeit, Berlin/New York 1988. Dyckhoff, H. (1992): Betriebliche Produktion – Theoretische Grundlagen einer umweltorientierten Produktionswirtschaft, Berlin et. al. 1992. Fichter, K. (2005): Interpreneurship. Nachhaltigkeitsinnovationen in interaktiven Perspektiven eines vernetzenden Unternehmertums, Marburg 2005. Fischer, D. (2005): Strategisches Management in der Symbolökonomie, Marburg 2005. Giedeon, S. (1948): Mechanization takes command, New York 1948. Groys, B. (1992): Über das Neue. Versuch einer Kulturökonomie, München 1992. Gutenberg, E. (1957): Betriebswirtschaftslehre als Wissenschaft, Krefeld 1957. Gutenberg, E. (1951): Grundlagen der Betriebswirtschaftslehre, Bd. I: Die Produktion, Heidelberg/Berlin/New York 1951. 65
Diese Problematik wurde immer wieder auch mit der Gegenüberstellung der Begriffe Entwicklung und Wachstum diskutiert.
Nutzen und Nachteil des arbeitsorientierten Denkens in der BWL
27
Hirschman, A.O. (1987): Leidenschaften und Interessen. Politische Begründungen des Kapitalismus vor seinem Sieg, Frankfurt/M. 1987. Hejl, P. M. (2006): Das adaptionistische Missverständnis, in: Rusch, G. (Hrsg.): Konstruktivistische Ökonomik, Marburg 2006. Horkheimer, M./Adorno, Th. W. (1969, orig. 1944): Dialektik der Aufklärung. Philosophische Fragmente, Frankfurt/M. 1969. Illouz, E. (2009): Die Errettung der modernen Seele, Frankfurt/M. 2009. Koubek, N. (1981): Perspektiven der Weiterentwicklung einer arbeitsorientierten Theorie der Unternehmung, in: Ökonomische Theorie und wirtschaftliche Praxis. Festschrift für Rolf Hanschmann, hrsg. v. P. Clever u. a., Herne/Berlin 1981, S. 143-152. Lehmann-Waffenschmidt, M./Reichel, M. (2000): Kontingenz, Pfadabhängigkeit und Lock-In als handlungsbeeinflussende Faktoren der Unternehmenspolitik, in: Beschorner, Th./Pfriem, R. (Hrsg.): Evolutorische Ökonomik und Theorie der Unternehmung, Marburg 2000. Liessmann, K. P. (2006): Theorie der Unbildung, Wien 2006. Lutz, Ch. (1998): Was ist ein „Lebensunternehmer“ – Persönlichkeitsbilder und Schlüsselqualifikationen in der nachindustriellen Gesellschaft, in: Politische Ökologie 16. Jg., Heft 54/1998, S. 82 ff. Marcuse, H. (1965, orig.1933): Über die philosophischen Grundlagen des wirtschaftswissenschaftlichen Arbeitsbegriffs, in: Ders. (Hrsg.): Kultur und Gesellschaft 2., Frankfurt/M. 1965. Marx, K. (1953, orig. 1858): Grundrisse der Kritik der Politischen Ökonomie, Berlin 1953. Meadows, D. u. a. (1972): Die Grenzen des Wachstums. Bericht des Club of Rome zur Lage der Menschheit, Stuttgart 1972. Mittelstraß, J. (Hrsg.) (2004): Enzyklopädie Philosophie und Wissenschaftstheorie, Stuttgart/Weimar 2004. Paech, N. (2005a): Nachhaltiges Wirtschaften jenseits von Innovationsorientierung und Wachstum. Eine unternehmensbezogene Transformationstheorie, Marburg 2005. Paech, N. (2005b): Nachhaltige Innovationen: Zur Gestaltung ambivalenter Prozesse des Wandels, in: Jahrbuch 4 für Ökologische Ökonomik, Marburg 2005. Paulesich, R. (2006): Neue Arbeit. Impulse für eine nachhaltige Entwicklung?, in: Pfriem, R./Antes, R./Fichter, K./Müller, M./Paech, N./Seuring, St./Siebenhüner, B. (Hrsg.): Innovationen für eine nachhaltige Entwicklung, Wiesbaden: 2006. Pfriem, R. (2006a): Unternehmensstrategien. Ein kulturalistischer Zugang zum Strategischen Management, Marburg 2006. Pfriem, R. (2006b): Unternehmen und Wirtschaftskulturen. Glückwünsche für einen leidenschaftlichen Vermeider von Denkverboten, in: Göllinger, Th. (Hrsg.): Bausteine einer nachhaltigkeitsorientierten Betriebswirtschaftslehre, Marburg 2006. Pfriem, R. (2005): Heranführung an die Betriebswirtschaftslehre. Zweite erweiterte Auflage, Marburg 2005. Pfriem, R. (2004): Unternehmensstrategien sind kulturelle Angebote an die Gesellschaft, in: Forschungsgruppe Unternehmen und gesellschaftliche Organisation (Hrsg.): Perspektiven einer kulturwissenschaftlichen Theorie der Unternehmung, Marburg 2004.
28
Reinhard Pfriem
Pfriem, R. (1995): Unternehmenspolitik in soziaökologischen Perspektiven, Marburg 1995. Pfriem, R. (Hrsg.) (1986): Ökologische Unternehmenspolitik, Frankfurt/New York 1986. Pfriem, R. (1983): Betriebswirtschaftslehre in sozialer und ökologischer Dimension, Frankfurt/New York 1983. Pfriem, R./Raabe, Th./Spiller, A. (Hrsg.) (2006): OSSENA – Das Unternehmen nachhaltige Ernährungskultur, Marburg 2006. Pfriem, R./Antes, R./Fichter, K./Müller, M./Paech, N./Seuring, St./Siebenhüner, B. (Hrsg.) (2006): Innovationen für eine nachhaltige Entwicklung, Wiesbaden 2006. Picot, A./Reichwald, R./Wigand, R. (1996): Die grenzenlose Unternehmung. Information, Organisation und Management, Wiesbaden 1996. Projektgruppe im WSI (1974): Grundelemente einer Arbeitsorientierten Einzelwirtschaftslehre, Köln 1974. Reich, R. B. (1996): Die neue Weltwirtschaft. Das Ende der nationalen Ökonomie, Frankfurt/M. 1996. Schmidt, A. (1978): Der Begriff der Natur in der Lehre von Marx, 3. Auflage, Frankfurt/M. 1978. Schumpeter, J.A. (1997, orig. 1911): Theorie der wirtschaftlichen Entwicklung. Eine Untersuchung über Unternehmergewinn, Kapital, Kredit, Zins und den Konjunkturzyklus, Berlin 1997. Schumpeter, J. A. (1993, orig. 1945): Kapitalismus, Sozialismus und Demokratie, Tübingen/Basel 1993. Schumpeter, J.A. (1947): The Creative Response in Economic History, in: Journal of Economic History, 7, S. 149-159. Schumpeter, J.A. (1970, orig. 1908): Das Wesen und der Hauptinhalt der theoretischen Nationalökonomie, Berlin 1970. Swedberg, R. (1991): J.A. Schumpeter. Eine Biographie, Stuttgart 1991. Veblen, Th. (1981, orig. 1899): Theorie der feinen Leute. Eine ökonomische Untersuchung der Institutionen, Frankfurt/M. 1981. Wagner, G. R. (Hrsg.) (1990): Unternehmung und ökologische Umwelt, München 1990. Witt, U. (2005) Innovationsförderung als Königsweg zur Nachhaltigkeit?, in: Jahrbuch Ökologische Ökonomik 5., Marburg 2005.
Das kritische Vermächtnis der AOEWL Hartmut Wächter / Thomas Metz
1
Einleitung
Norbert Koubek hat in der BWL Zeichen gesetzt – Ausrufezeichen. Sein Name ist untrennbar mit dem kühnen Projekt der „Arbeitsorientierten Einzelwirtschaftslehre“ (AOEWL) verbunden. Er hat dieses Projekt aus der Taufe gehoben, er war Integrator, Moderator, Frontmann, Anchorman. Dass trotz des hohen persönlichen Einsatzes die AOEWL eine Episode blieb, ein „Unikum“ (Reinhard Pfriem), muss bei Freund und sollte auch bei Feind Bedauern auslösen. Das reflexive Potenzial der BWL hat von der Konfrontation mit der AOEWL profitiert. 1975 befand sich die AOEWL auf dem Höhepunkt ihrer öffentlichen Wahrnehmung, wenn nicht gar Anerkennung. Der Verein für Socialpolitik hatte dem Hauptprotagonisten Norbert Koubek die Bühne der Aachener Jahrestagung zur Verfügung gestellt, die dieser zu einer pointierten Darstellung seiner Position nutzte. Die Ablehnung und Kritik war massiv, wenngleich sich dies in der zusammenfassenden schriftlichen Zusammenfassung der Diskussion heute gar nicht wieder findet.1 Es wurde schweres Geschütz aufgefahren, insbesondere in der Person des sehr renommierten und eigentlich auch wissenschaftlich liberalen Fritz Neumark, der den früheren Frankfurter Doktoranden Norbert Koubek ermahnte, auf den Pfad der volkswirtschaftlichen Tugend zurückzukehren. Die AOEWL wurde als „wenig sinnvoll“ (W. Engels) und als „Dumme-Jungen-Streich“ (Albach) apostrophiert. Von da an versank sie zumindest in der akademischen Bedeutungslosigkeit; heute ist sie eine Fußnote in der Fachgeschichte der Wirtschaftswissenschaften, die in Übersichten über theoretische Ansätze der BWL noch erwähnt 1
Vgl. Albach/Sadowski (1976), S. 810 f.
30
Hartmut Wächter / Thomas Metz
wird.2 Mit der AOEWL ist offenbar auch das Projekt einer kritischen BWL untergegangen.3 Ihr inhaltlich kritischer Impetus wurde nicht, bzw. allenfalls vereinzelt, weiter geführt. Den Verfassern ist jedenfalls aus den Jahren danach kein Ansatz bekannt, der sich auf die AOEWL berufen oder an sie anknüpfen würde. Die Gründe für diesen Fall sind vielfältig. Man kann – wie Freimann (in diesem Band) – darin das allgegenwärtige „Kommen und Gehen“ von Paradigmen eines Faches sehen, bei dem sich die etablierte Wissenschaft als „normal science“ gegen einen Außenseiter behauptete. Man kann auch versuchen zu analysieren, woran es denn lag, dass die AOEWL eine Episode blieb. Im folgenden sollen einige theoretische und praxeologische Konstitutionsbedingungen beleuchtet werden, die dazu beigetragen haben, die Hoffnungen, die die Protagonisten und Verteidiger auf eine neue „kritische BWL“ setzten, zu enttäuschen. Dabei geht es natürlich nicht darum, besserwisserisch „Defizite“ aufzuzeigen. Die AOEWL wollte – aus heutiger Sicht – gleichzeitig zu viel und zu wenig. Zuviel, weil sie bessere Instrumente für die Praxis der Entscheidungsfindung in den Unternehmen verfügbar machen wollte, um so Arbeitnehmerinteressen verstärkt zur Geltung zu bringen, ohne zu berücksichtigen, dass dieser Instrumentenkasten praktisch nicht nutzbar war. Zu wenig, weil sie zwar das einzelwirtschaftliche Tun in seinen gesamtwirtschaftlichen und gesamtgesellschaftlichen Zusammenhang stellte, dabei aber nicht genügend in die Grundlagen des Wirtschaftssystems und dessen – auch damals schon bekannten – Kritik eindrang.
2
War die Kritik der AOEWL an der BWL gerechtfertigt?
In einem Beitrag in den Gewerkschaftlichen Monatsheften beschrieb Norbert Koubek die Kritik der BWL wie folgt: „Allgemein zeigt sich, daß sich die BWL als Entscheidungslehre für einen möglichst rentablen privatwirtschaftlichen Kapitaleinsatz entwickelt hat. Die Kritik läßt sich vor allem in zwei Punkten zusammenfassen: Erstens werden die Ziele und Interessen der abhängig Beschäftigten nicht oder nur am Rande und in formaler Weise berücksichtigt und zweitens werden die gesamtwirtschaftlichen Konsequenzen eines ausschließlich rentabilitätsorientierten unternehmerischen Handelns außer acht gelassen. Die Unzulänglichkeiten der BWL werden deutlich, wenn man sie an ihren eigenen zentralen Begriffen „Rentabilität“, 2 3
Vgl. z.B. Hopfenbeck (2000). Ein Schlaglicht hierzu mag sein, dass Google (Stand Mai 2009) 284 Einträge zum Stichwort „AOEWL“ referiert, wohingegen unter dem Stichwort „Kritische BWL“ lediglich 102 Einträge zu finden sind.
Das kritische Vermächtnis der AOEWL
31
„Kosten“, „Gewinn“ und „Zielsystem“ mißt. Darüber hinaus führt die scharfe Trennung zwischen einzelwirtschaftlichen und gesamtwirtschaftlichen Problemen dazu, daß in der BWL gesamtwirtschaftliche Überlegungen bis vor kurzem überhaupt nicht einbezogen wurden, obwohl das Wirtschaftssystem in erheblichem Maße gerade von den Unternehmungen und den hier feststellbaren Machtstrukturen her gestaltet wird.“4
Die AOEWL ist nicht vom Himmel gefallen. Sie war eine Antwort auf den Problemdruck einer mit bestimmten Fragestellungen und Praxisanforderungen sowie einer generellen gesellschaftlichen Reformstimmung überforderten BWL. Sie kam auf den ersten Blick nicht aus dem Fach heraus, sondern „von außen“ (weil aus einem der BWL fremden politisch-ökonomischen Grundverständnis) und „von unten“ (weil nicht durch arrivierte Fachvertreter) in das Fach herein. Die BWL wurde durch diesen exogenen Schock in einem Stadium getroffen, in dem sie sich gerade erst der Forderung nach einer sozialwissenschaftlichen bzw. „verhaltenswissenschaftlichen“ Öffnung ausgesetzt sah, verkörpert durch den entscheidungsorientierten und den systemorientierten Ansatz. Heinen hatte seine Arbeiten zum Zielsystem des Unternehmens vorgelegt und gezeigt, dass es – entgegen der bisherigen Auffassung – zumindest in Grenzen gestaltbar war und dass Unternehmen realiter nicht ein Ziel, sondern viele und z.T. widersprüchliche Ziele verfolgen. Diese konzeptionelle Öffnung des bisher qua der Wirtschaftsordnung determinierten Unternehmenszieles machte es möglich, mit „Arbeitsorientierung“ überhaupt eine alternative Zielsetzung als Gewinnmaximierung für das Unternehmen zu reklamieren, die nicht zugleich die Systemfrage stellen musste. Das machte sich die AOEWL zunutze. Die Entzauberung des ökonomischen Sachzwangs Profitmaximierung, wie er als Grundannahme in (mikro-) ökonomischen Theorien aller Couleur steckt, war die Vorbedingung dafür, ein (erreichbares, handhabbares, nicht utopisches) Unternehmensziel der Arbeitsorientierung postulieren zu können, über das im Unternehmen entschieden werden konnte. Der für die Abkehr vom ökonomischen Determinismus zu zahlende Preis war allerdings, dass die Wahl von Unternehmenszielen gleichsam beliebig wurde.5 Ein Aspekt einer gewissen „Inhaltsleere“ von entscheidungsorientiertem und systemorientiertem Ansatz, auf denen die AOEWL aufsetzte, liegt in der Problematik, Arbeitsorientierung bzw. Arbeitnehmerinteressen zu bestimmen. Der vom entscheidungsorientierten Ansatz propagierte Weg der bloßen empirischen Erfassung von Unternehmenszielen liefert kaum Ansätze zu einer kriti-
4 5
Koubek (1973), S. 698. Vgl. Nagaoka (1980).
32
Hartmut Wächter / Thomas Metz
schen oder gar emanzipatorischen Analyse. Dennoch folgte man auch hier im Grundsatz: „Je nach der Möglichkeit, ob die Interessen der abhängig Beschäftigten direkt in den Einzelwirtschaften umgesetzt werden können oder nicht, erfolgt eine Trennung in einzelwirtschaftliche Interessen und gesamtwirtschaftliche Interessen. Dabei ist zu betonen, daß diese Interessen erst dann in politische Entscheidungen umgesetzt werden können, wenn sie konkret formulierbar, mobilisierungsfähig und konfliktfähig sind. Auf einzelwirtschaftlicher Ebene werden die arbeitsorientierten Interessen als Interesse an Arbeitsplatzsicherheit, Sicherung und Steigerung der Einkommen sowie optimaler Gestaltung der Arbeit formuliert. Diese drei Ziele werden von den Arbeitnehmern als vorrangig betrachtet. Dies läßt darauf schließen, dass sie in der bestehenden Unternehmungspraxis sehr gefährdet sind bzw. als solche angesehen werden. Auf gesamtwirtschaftlicher Ebene wird der Interessenbezug hinsichtlich der rationalen Steuerung der Produktion (Probleme der gesamtwirtschaftlichen Kosten, des Einsatzes von Arbeit sowie von Kapital) und hinsichtlich der Versorgung und Verteilung (bedürfnisgerechte Versorgung mit privat und öffentlich nutzbaren Gütern sowie gerechte Einkommens- und Vermögensverteilung) formuliert. 6 Damit ist eine allgemeine Operationalisierung gelungen (…).“
Die AOEWL konfrontierte die BWL mit dem Vorwurf, einseitig „kapitalorientiert“ zu sein und baute damit eine Front auf, die in den 60er und 70er Jahren nur bedingt gültig war. Es ist nicht verwunderlich, dass sich gerade gegen diesen Vorwurf einige Wissenschaftler vehement wehrten.7 Die BWL ist als Fachdisziplin ja gerade in der Abkehr von der eher modellhaften volkswirtschaftlichen Theorie entstanden und hat – nicht zuletzt, um ihre Eigenständigkeit zu beweisen – ihre eigenen, aus heutiger Sicht eher skurrilen Konzepte für das die einzelne Unternehmung einbettende Gesamtsystem entwickelt, die z.T. durchaus normativen Charakter hatten. Zu denken ist an Schmalenbachs Versuch, eine „gemeinwirtschaftliche Wirtschaftlichkeit“ statt des unbedingten Gewinnprinzips zu begründen, das aus seiner Sicht in einer durch Kartelle und andere Wettbewerbsbeschränkungen verformten Marktwirtschaft zu Fehlentscheidungen auf einzelwirtschaftlicher Ebene führen musste. Ganz anders hatte Nicklisch gleichsam kontrafaktisch auf eine BWL hingearbeitet, die statt der Objektstellung des „Faktors Arbeit“ den Menschen im Betrieb als Subjekt viel größere Bedeutung beimaß. Die Riegersche Konzeption dagegen, die am ehesten kapitalorientiert genannt werden kann und bewusst die Geldwirkungen wirtschaftlicher Tätigkeit als 6 7
Koubek (1973), S. 694 f. Vgl. Hax (1974), S. 798.
Das kritische Vermächtnis der AOEWL
33
Hauptgegenstand einer BWL (die deshalb auch „Privatwirtschaftslehre“ heißen sollte) in den Vordergrund rückte, hat sich in der BWL gerade nicht durchgesetzt. Vielmehr wirkten die Vorstellungen von Schmalenbach und Nicklisch sowie von weiteren, eher normativ ausgerichteten Professoren auch noch in die Nachkriegszeit hinein. Dies kann man z.B. an dem stark und kontrovers diskutierten Ziel der „Substanzerhaltung“ des Betriebes und an frühen Ansätzen zur Unternehmensverfassung sehen. Und die Gutenbergsche Konzeption der Unterscheidung systembezogener und systemindifferenter Faktoren behauptete, dass es eine BWL gebe, die fernab vom Wirtschaftssystem funktioniere. Der Vorwurf an die Adresse der etablierten BWL, sie sei einseitig kapitalorientiert, war also nur bedingt gerechtfertigt. Die Konfrontationsstrategie der AOEWL hat allerdings dazu geführt, dass sich innerhalb der BWL eine Selbstvergewisserung über den Status und den Nutzen ihrer praxeologischen Aussagen entspann und sich eine gewisse Sensibilisierung für ideologisch verbrämte Aussagen einstellte. Dies kann man z.B. an der Auseinandersetzung von Klaus Chmielewicz8 mit der AOEWL ablesen. Eine gewisse Offenheit für die Interessenproblematik und für die Pluralität von Zielsetzungen, die empirisch vorzufinden sind, war also vorhanden. Die AOEWL hielt aber auch an dem normativ-praktischen Postulat der BWL fest, nach dem Instrumente für gegebene Zielsetzungen von der Wissenschaft bereitgestellt werden sollten. Was eine kapitalorientierte BWL bedeuten kann, wurde besonders deutlich, als ab Mitte der 90er Jahre die shareholder-value-Orientierung um sich griff. Angesichts des blinden Vertrauens in die segensreiche Wirkung der KapitalMarktkräfte (bis hin zum „Markt für Unternehmenskontrolle“ oder den „Markt für Manager“) und auf Investoren (und nicht auf Unternehmen bzw. Manager) zugespitzter Finanzierungs- bzw. Investitionskalküle wäre der Vorwurf der Kapitalorientierung an die BWL viel eher gerechtfertigt. Die AOEWL wäre als Gegengewicht zur wesentlich später entwickelten shareholder-value-Orientierung der Praxis (und in Folge der BWL) dringlicher gewesen. Ein Gegenmodell zur herrschenden kapitalistischen Marktwirtschaft wurde theoretisch zwar rudimentär in allerersten Grundüberlegungen entworfen und diskutiert, allerdings konnte es vor allem praktisch kaum verwirklicht werden. Die AOEWL setzte ja an der in Deutschland vorhandenen Mitbestimmung an, die in das herrschende System eingebaut war und dieses nur marginal im Sinne einer „sozialen Marktwirtschaft“ modifizierte. Die AOEWL hat sich an der im System der Bundesrepublik bereits etablierten Mitbestimmung orientiert, der zu größerer Effektivität verholfen werden sollte. Eine grundlegende Änderung des 8
Vgl. Chmielewicz (1975).
34
Hartmut Wächter / Thomas Metz
Wirtschaftssystems, etwa hinsichtlich der Eigentumsordnung, war offenbar weder beabsichtigt, noch im Sinne der Gewerkschaften, die ja dem Projekt des WSI den Segen gaben, erwünscht. In einer durch Mitbestimmung modifizierten (aber nicht überwundenen) marktwirtschaftlichen Ordnung erscheint es jedoch als zweckmäßiger und wichtiger, die bestehenden betriebswirtschaftlichen Instrumente (des Rechnungswesens, des Controllings, der Personalplanung usw.) genau auf deren praktisch Wirkungen hin zu untersuchen, um deren – den Arbeitnehmerinteressen möglicherweise entgegen gesetzten – Wirkungen herauszuarbeiten und innerhalb desselben Bezugsrahmens Alternativen zu entwickeln.
3
Brauchte die Praxis die AOEWL?
Mit ihrer konzeptionell-theoretischen Weichenstellung stellte sich die AOEWL auf die Mitbestimmungspraxis ein. Sie hatte drei gute Nachrichten: Erstens, dass Arbeitnehmervertreter Entscheidungsträger im Unternehmen sind und nicht bloße Anhängsel der kapitalistischen Maschinerie. Zweitens, dass sie Arbeitnehmerinteressen auch im ansonsten kapitalistisch verfassten Unternehmen zur Geltung bringen können. Jedenfalls war es eine empirische Frage und keine prinzipielle, wie weit dies möglich wäre. Ein etwaiges empirisch feststellbares Defizit bei der Verfolgung arbeitnehmerorientierter Ziele im Unternehmen war drittens über „Gegenrechnungen“ und „Gegeninstrumente“ zu korrigieren, die die AOEWL zur Verfügung stellen wollte. Damit war die Brücke gebaut für Betriebsräte und Gewerkschaften und deren wissenschaftliche Begleitung und Beratung. „ (…) es muß nun in einem zweiten Schritt aufgezeigt werden, welche Konsequenzen diese Interessen für die Theorie der Unternehmung bzw. für die Einzelwirtschaftslehre haben. Dies bezieht sich auf alle Funktionsbereiche, d. h. auf Fragen von Beschaffung, Produktion, Absatz, Personalwirtschaft, Forschung und Entwicklung, Investitionen, Organisation, Kosten und Preise sowie Finanzierung und Verteilung. In der Ausformulierung dieser einzelnen Funktionsbereiche liegt der Schwerpunkt einer AOEWL, und zwar in der Entwicklung arbeitsorientierter einzelwirtschaftlicher Handlungsmodelle.“9
An dieser Stelle kommt jedoch eine Eigentümlichkeit zum Tragen, die – vielleicht mehr als die fachinterne Kritik – dafür sorgte, dass das Projekt AOEWL nicht wirklich aus den Startlöchern kam. Statt sich mit entsprechender Verve an die Erarbeitung eines solchen alternativen Instrumentenkastens „arbeitsorientier9
Vgl. Chmielewicz (1975).
Das kritische Vermächtnis der AOEWL
35
ter einzelwirtschaftlicher Handlungsmodelle“ zu begeben, blieb die AOEWL in dieser Hinsicht merkwürdig blutleer. Ansätze arbeitsorientierter Bilanzierung, arbeitsorientierter Personalplanung, arbeitsorientierter Arbeitsorganisation usw. wurden kaum systematisch ausgearbeitet. Vor allem aber wurden sie auch nicht in einem umfassenderen Beratungsansatz erprobt. Dieser an sich schlüssige Weg wurde nicht beschritten. Warum? Wurden die Probleme bei der Ausarbeitung unterschätzt? Fand sich niemand, der die entsprechende Kärrnerarbeit verrichtete und sich an die „Vermarktung“ machte? Entdeckte man, dass es auf instrumenteller Ebene gar nicht so große Unterschiede zum konventionellen betriebswirtschaftlichen Instrumentarium gab? Vor allem aber: Gab es einen Bedarf? Rannte die Praxis der AOEWL die Türen ein? Offensichtlich nicht, und es stellt sich die Frage, warum die so weit gediehene AOEWL in einem von ihr selbst als zentral erachteten Feld der Praxisorientierung keinen Fuß auf den Boden bekam. Um diese Frage zu verfolgen, muss ein Blick auf die Handlungsbedingungen von Arbeitnehmervertretern, die praktische Konstituierung der Mitbestimmung und von Betrieb und Unternehmung sowie den Stellenwert betriebswirtschaftlicher Kalküle in der Praxis geworfen werden. Die Verheißung der BWL und der AOEWL ist und war, dass mit der Beherrschung des betriebswirtschaftlichen Kalküls die Beherrschung der grundlegenden Dimension des Unternehmensgeschehens verbunden sei. Die BWL/AOEWL wähnt sich gleichsam an den zentralen Schalthebeln der Macht im Unternehmen bzw. sie weist den Weg dorthin. Betriebswirtschaftliches Wissen ist dem Anspruch nach Führungswissen, realiter Herrschaftswissen. Dass die Unternehmung eine auch in praxi im Kern ökonomische Veranstaltung sei, ist aber eine These, keine naturalistische Gegebenheit. Diese Grundannahme blendet die technische, rechtliche, soziale, politische und kulturelle Verfasstheit des realen Unternehmens aus. Die alltägliche Erfahrung – von Arbeitnehmervertretern im Unternehmen wie von Controllern – lehrt dagegen durchaus anderes. Je konkreter man Entscheidungen im Unternehmen auf allen Ebenen in den Blick nimmt, umso stärker wird deutlich, dass diese These nicht zutrifft. BWL und AOEWL haben insofern einen selektiven, reduktionistischen bzw. modellhaften Zugriff auf das Unternehmensgeschehen. Sie müssen die Grundlagen ihrer eigenen Anwendbarkeit im Unternehmen im Zuge einer betriebswirtschaftlichen (oder arbeitsorientierten) Rationalisierung erst herstellen. Und selbst wenn dies gelänge – wenn also die These, dass es in allererster Linie um ökonomische Entscheidungen (bzw. um Profitmaximierung) gehe, von den Entscheidungsträgern auf breiter Basis akzeptiert würde, träte hinzu, dass selbst daraus noch kein klares Bild entsteht. Ein Blick auf Managementhierarchien (die in der BWL seltsamerweise kaum erforscht sind) zeigt, dass z.B. Vorstandsvorsitzende in Deutschland oftmals aus technischen Berufen stammen. Auch betriebswirt-
36
Hartmut Wächter / Thomas Metz
schaftliche Fachdisziplinen und in der Folge Fachabteilungen im Unternehmen mögen sich darüber einig sein, dass es um Gewinne geht, gleichwohl gibt es häufig Streit darüber, wie das denn gehen soll. Die Produktion hat hier andere Vorstellungen als der Vertrieb; das Controlling stellt andere Anforderungen als die Personalwirtschaft; usw. Diesen Aspekt der – wie man heute sagen würde: Mikropolitik im Unternehmen – blendeten beide, BWL und AOEWL, weitgehend aus. Man könnte dies polemisch zuspitzen: Ein Unternehmen lässt sich recht problemlos ohne fundierte betriebswirtschaftliche Kenntnisse führen. Und Arbeitnehmervertreter benötigen keine betriebswirtschaftliche Ausbildung oder Beratung, um ihren Job zu machen. Das gilt selbst für einen Kernbereich der Mitbestimmung, die Personalpolitik. Diese ist typischerweise sehr stark vom (Arbeits-) Recht geprägt. In vielen Fällen sind Juristen die Ansprechpartner für Betriebsräte. Gewerkschaftliche Grundlagenseminare für Betriebsräte sind deshalb auch sehr stark von arbeitsrechtlichen Inhalten geprägt. Personalwirtschaftslehre spielt eher eine Nebenrolle. Ein weiterer praktischer Aspekt des Einsatzes betriebswirtschaftlicher wie arbeitsorientierter Instrumente ergibt sich aus ihrer keinesfalls trivialen Ausarbeitung und Umsetzung. Betriebswirtschaftliche Kenntnisse über Konzepte und Methoden werden in der Praxis gestützt und umgesetzt durch ein Heer von Planungsabteilungen und Controllern, gegen die Mitbestimmungsträger inhaltlich oft auf verlorenem Posten stehen. Es mag z.B. im Sinne von Arbeitsorientierung essenziell sein, die Absatzplanung eines Unternehmens zu beeinflussen. Soll dies dadurch geschehen, dass Arbeitnehmervertretungen selbst systematische Marktforschung betreiben? Müssen sie den Anspruch haben, selbst in Zielkostenkalkulationen einzusteigen? Kann man von ihnen erwarten, dass sie die Details der Bilanzierung und des Aktienrechts durchdringen? Und das alles ohne den Apparat an Fachabteilungen und Beratern, den Unternehmensleitungen typischerweise zur Hand haben? Angesichts der beschränkten Ressourcen, die Arbeitnehmervertretern zur Verfügung stehen, wäre damit eine völlige Überforderung verbunden. Eine betriebswirtschaftliche Parallelorganisation können sie nicht aufbauen. Typischerweise sind die Entscheidungssituationen, mit denen Arbeitnehmervertreter konfrontiert werden, so beschaffen, dass Unternehmensleitungen Entscheidungsvorhaben und Planungen vorstellen und ihre Notwendigkeit begründen. Wenn man da bestehen will, bedarf es keiner alternativer Ansätze, sondern eines gründlichen Verständnisses konventioneller betriebswirtschaftlicher Methoden und Denkweisen. Gegen Zahlen kann man nur mit Zahlen argumentieren und andernfalls deren Voraussetzungen und Grundlagen hinterfragen. Dazu ist aber gehöriger betriebswirtschaftlicher Sachverstand vonnöten. Allerdings kann auch betriebswirtschaftliches Nichtwissen eine Machtressource darstellen, indem die Argumentation von der betriebswirtschaftlichen auf
Das kritische Vermächtnis der AOEWL
37
die politische Ebene gehievt wird, um den Entscheidungsspielraum, den Zahlen beschränken, wieder zu erweitern. Nicht alles, was (zugegebenermaßen) betriebswirtschaftlich notwendig erscheint, ist am Ende auch akzeptierbar oder z.B. gegenüber den Belegschaften durchsetzbar. Nur nutzt sich eine solche Strategie schnell ab, so dass man sich sehr genau überlegen muss, wann sie eingesetzt werden soll. Mitbestimmung ist letztlich nicht (nur) eine ökonomische Institution; sie hat auch immer eine politische Dimension. Je berechenbarer sie wird, desto eher laufen die Arbeitnehmervertreter Gefahr, diesen politischen Anspruch aufzugeben. Andererseits ist natürlich auch die Berechenbarkeit eines Verhandlungspartners und ein gewachsenes Verhandlungsklima eine wichtige Ressource, um Einfluss auszuüben. Berechenbare Betriebsräte sind gute, durchsetzungsfähige Verhandlungspartner im Rahmen der „vertrauensvollen Zusammenarbeit“; Unberechenbarkeit ist aber eine strategische Option, die nicht ausgeschlossen werden sollte. Diese Befunde legen den Schluss nahe, dass der Bedarf an betriebswirtschaftlicher Expertise im Unternehmen und besonders bei Arbeitnehmervertretern eher differenziert zu betrachten ist. Eine weitere alltägliche Erfahrung besteht allerdings unzweifelhaft auch darin, dass Entscheidungen im Unternehmen immer auch wirtschaftlich legitimierbar sein müssen. Insofern läuft die ökonomische Dimension immer mit. Gerade Arbeitnehmervertreter werden in allen möglichen Zusammenhängen mit den (vermeintlichen) Zwängen der wirtschaftlichen Lage des Unternehmens oder Betriebs konfrontiert, die ihnen bzw. den Belegschaften bestimmte Zugeständnisse abfordert. Beim Gedanken an den Wert einer AOEWL kommen sicherlich solche Situationen vor das Auge und es wäre für Betriebsräte in solchen Situationen sicherlich äußerst hilfreich, wenn sie tatsächlich mit schlüssigen arbeitsorientierten Gegenkalkülen argumentieren könnten. Allerdings laufen sie, wenn sie sich auf betriebswirtschaftliche bzw. arbeitsorientierte Argumentationen einlassen, Gefahr, dass sie – falls ihre Gegenkalküle ähnliche Ergebnisse zeigen – sich auch fügen müssen. Man mag dies als wünschenswerte Versachlichung ansehen. Das dem für Arbeitnehmervertreter innewohnende Risiko ist allerdings, dass sie – gegeben, dass entsprechende Analysen und Berechnungen keinesfalls trivial sind und ggf. einen hohen Aufwand mit sich bringen, der von der Unternehmensseite in aller Regel deutlich besser geleistet werden kann – ins Hintertreffen geraten. Gegenrechnungen helfen nur dann weiter, wenn ihre Prämissen und Verfahren auf allen Seiten akzeptiert werden. Mit dem – ja durchaus pauschalen – Vorwurf der AOEWL an die BWL, sie erstelle „kapitalorientierte“ Kalküle wird genau diese Aussicht geschwächt. Dies gilt um so mehr, als die AOEWL nicht reklamierte, die objektiv richtigen oder wahren Kalküle zu liefern, sondern sie
38
Hartmut Wächter / Thomas Metz
stellte den Anspruch der Arbeitsorientierung dem Vorwurf der Kapitalorientierung auf gleicher Ebene entgegen. Sie löste so gleichsam wissenschaftliche Wahrheits- und Objektivitätsansprüche im Interessenbegriff auf – mit allen Konsequenzen einer auf diese Weise politisierten BWL, die – wenn sie dies anerkennt – um ihre Legitimität als Wissenschaft fürchten muss. Dem entsprechend wurde der Angriff auf die BWL mit dem Nachweis abgewehrt, dass die BWL interessenneutral sei. Die „disziplinierende“ Funktion der eigenen Kalküle wird von der BWL in ihrem Anspruch, Führungswissen zu liefern, selbstverständlich gesehen und mit dem Verweis auf Objektivität (bzw. zumindest Interessenneutralität) sogar noch verstärkt. Die politisierte und politisierende AOEWL tat sich damit wesentlich schwerer. Die AOEWL ignorierte, dass sich Wissenschaft gegenüber Praxis durch Wahrheitsansprüche legitimiert und eine spezifische Problemlösungskapazität beansprucht. Diese Ansprüche zu relativieren oder sie gar zu negieren, führt auf beiden Seiten zu Verunsicherungen. Dies durch die Idee des Diskurses zu lösen, findet seine Grenze dann, wenn die Praxis für die wissenschaftliche Dienstleistung bezahlen soll, der Diskurs also kostenpflichtig wird. Warum sollten Arbeitnehmervertreter eine Beratung einkaufen, die sich selbst relativiert und die keine schnellen und zielgenauen Problemlösungen liefert? Der Ansatz der AOEWL, betriebswirtschaftliche Methoden und Kennzahlen durch Alternativen zu ersetzen, ist nicht zielführend gewesen und konnte tatsächlich – entgegen dem ersten Anschein – nicht praktisch werden. Die Mitbestimmungspraxis benötigt in diesem Sinne keine „bessere“ BWL, sondern die Fähigkeit und die Macht, gegen betriebswirtschaftliche Argumente „nein“ zu sagen. Im Rahmen der Mitbestimmung ist es wichtiger, die bestehenden betriebswirtschaftlichen Methoden und Kenntnisse zu beherrschen, um diese Kenntnisse auch gegen die Unternehmensleitungen einzusetzen, als neue Instrumente dagegen zu setzen. Das Bemühen der AOEWL um neue Methoden und Kennzahlen hat jedoch nicht unerheblich dazu beigetragen, vermeintliche betriebswirtschaftliche Sachzwänge zu hinterfragen und der Kritik zugänglich zu machen. Die AOEWL hat damit der Mitbestimmung Freiräume eröffnet. Innerhalb des Wissenschaftsbetriebes hat die Diskussion um die AOEWL zu Irritationen geführt, die eine Diskussionsebene eröffnet hat, die vorher nicht vorhanden war. Da in der BWL programmatisch das praktisch-normative Wissenschaftsverständnis vorherrscht, erscheint es plausibel, auch praktisch vorfindbare Ansprüche aus der Mitbestimmung stärker zu thematisieren. Allerdings sind neue, die bestehende Praxis transzendierende Vorschläge im Rahmen einer solchen Orientierung kaum zu erwarten. Die Mitbestimmung wird damit auf ein historisch gewachsenes Feld begrenzt und bleibt ohne innovative Schübe aus
Das kritische Vermächtnis der AOEWL
39
dem Wissenschaftsbetrieb. Es ist nicht verwunderlich, dass sich heute Mitbestimmung in einer Dauerdefensive befindet, z.B. gegen die Zweifel an der Legitimität der Unternehmensmitbestimmung im Rahmen der Debatte um corporate governance. Mögliche Erweiterungen der Mitbestimmung, etwa durch eine verstärkte Mitbestimmung am Arbeitsplatz und die Schaffung der Anschlussfähigkeit an neue soziale Bewegungen kommen aus der Wissenschaft nicht.
4
Und wo stehen wir heute?
Die BWL war nicht so völlig ohne Anknüpfungspunkte für eine stärkere Berücksichtigung der Arbeitnehmerinteressen, wie von der AOEWL suggeriert. Vom Verständnis einer praktisch-normativen Orientierung, also Instrumente zu entwickeln, die vorgegebene oder vorgefundene Ziele zu erreichen versprechen, war sie sogar der BWL gleich oder ähnlich. Die „traditionelle BWL“ bietet z.B. mit der Debatte um die Unternehmensverfassung10 durchaus Anknüpfungspunkte für arbeitnehmerorientierte Forschung und Lehre. Das Thema hatte bekanntlich Horst Steinmann mit den beiden „Grundfragen der Unternehmensverfassung“ strukturiert, nämlich erstens, welche Interessen bei der Konstruktion und in den grundlegenden Entscheidungen des (Groß-)Unternehmens überhaupt berücksichtigt werden sollen bzw. wie sich diese Interessen legitimieren. Die zweite Grundfrage problematisiert – daran anschließend – wie ein solchermaßen begründetes Unternehmensinteresse organisatorisch und instrumentell am zweckmäßigsten umzusetzen sei. Innerhalb eines solchen Konzeptes findet die Mitbestimmung nicht nur einen legitimen Platz; es verlangt gerade danach, Instrumente zu entwickeln, die Arbeitnehmerinteressen innerhalb des Unternehmens und des Betriebes zur Geltung zu bringen. In der heutigen BWL dominiert dagegen im Sinne der shareholder-valueOrientierung die angelsächsisch geprägte Definition der „corporate governance“ für denselben Problemkreis. Bei corporate governance wird aber nicht nur – wie selbstverständlich – davon ausgegangen, dass es grundlegend um die Interessen der Aktionäre geht und Interessengegensätze lediglich zwischen außenstehenden Aktionären und Managern (Vorstand) gesehen werden. Die Frage nach anderen Interessen und die grundlegende Legitimitätsfrage wird überhaupt nicht einmal gestellt! Stattdessen definieren z.B. Monks und Minow11 corporate governance lapidar als “relationship among various participants in determining the direction
10 11
Vgl. insbesondere Steinmann/Gerum (1978). Monks/Minow (1995), S. 1.
40
Hartmut Wächter / Thomas Metz
and performance of corporations“ und als die „primary participants“ werden „shareholders, management and the bord of directors“ erkannt. Die schlichte Übernahme der corporate-governance-Definition, die sich innerhalb eines ganz anderen Kontextes (dem amerikanischen Kapitalmarkt) entwickelt hat, in die deutsche Debatte, ohne die spezifischen Eigenarten der deutschen AG und Mitbestimmung zu reflektieren, musste notgedrungen dazu führen, die Mitbestimmung (im Aufsichtsrat) als Fremdkörper zu begreifen, der möglichst reduziert oder eliminiert werden muss.12 Es stünde der BWL gut an, diese ideologische Vereinseitigung kritisch aufzuarbeiten und die Arbeitnehmerorientierung, die in der deutschen Unternehmensverfassung angelegt ist, aktiv zur Geltung zu bringen und sich nicht auf Defensivgefechte gegenüber einer voreingenommenen, ideologischen Definition von corporate governance zu beschränken. Vor dem Hintergrund, dass die Berücksichtigung von Arbeitnehmerinteressen legitim ist und mit guten Gründen gerechtfertigt werden kann, ließe sich unbefangener über die „zweite Grundfrage“ befinden, nämlich ob die derzeitige Funktionsweise von Aufsichtsräten der Weisheit letzter Schluss ist. Es wäre Aufgabe betriebswirtschaftlicher Forschung, ohne Tabus effizientere Formen der Arbeit zu finden, ohne – wie es heute meist geschieht – die Mitbestimmungsträger dafür verantwortlich zu machen, dass die Aufsichträte ihre ihnen zugedachte Rolle nur unvollständig nutzen. Dies würde sowohl die Größe des Gremiums, die Rolle von Ausschüssen und die Qualifikation der Mitglieder betreffen. Auch was die Erforschung der Betriebsratstätigkeit angeht, so hat sich doch in der BWL seit der AOEWL-Attacke einiges geändert, was auch neue Anknüpfungspunkte für eine arbeitnehmerorientierte Sichtweise liefert. Bis weit in die 80er Jahre war die Forschung eher an den Funktionsweisen und Organisationsformen von Betriebsverfassung und Arbeitnehmervertretung im Aufsichtsrat interessiert als an deren Wirkung. Auch das hat sich stark geändert. Aus der ursprünglich eher ideologisch motivierten Ablehnung, etwa aus der Sicht der property rights, heraus hat sich eine Wirkungsforschung etabliert, die die Mechanismen der Mitbestimmung mit deren Resultaten – sei es auf Personalaspekte wie die Fluktuation sei es auf Unternehmensergebnissen wie den Börsenkurs – verknüpft. Solche Forschungen13 sind insofern problematisch, als die Wirkungen der Mitbestimmung von anderen Einflüssen (z.B. des Ausbildungssystems) schwer isolierbar sind. Aber sie kommen doch meist zu dem Schluss, dass Mitbestimmung nicht nur nicht „schade“ (wie die Biedenkopf-Kommission befand), sondern meist positive produktive Beiträge liefere.
12 13
So z.B. von Werder et al. (2003) Vgl. z.B. Dilger (2002), Frick/Sadowski (1995)
Das kritische Vermächtnis der AOEWL
41
Auch das löst selbstverständlich noch nicht den Anspruch ein, arbeitnehmerorientierte Forschung zu sein. Vielmehr ist es sogar sehr problematisch, Mitbestimmung auf diese Weise rechtfertigen oder begründen zu wollen. Denn bei negativen Befunden bezüglich Produktivität, Fluktuationsminderung etc. müsste man ja dann für die Abschaffung der Mitbestimmung plädieren. Mitbestimmung ist aber historisch gesehen nie primär oder ausschließlich eine ökonomische Forderung gewesen, sondern hat politisch mehr Teilhabe an Entscheidungen in einer demokratischen Gesellschaft gefordert. Diese Dimension sollte – ähnlich wie in der Debatte um corporate governance – auch in betriebswirtschaftlichen Arbeiten nicht übergangen werden. Die empirische Mitbestimmungsforschung könnte erweitert werden, indem sie Spielräume versucht herauszufinden, wie Arbeitnehmervertreter – ohne ihren produktiven Beitrag im Unternehmen zu gefährden – diese politische Dimension stärker nutzen könnten. Anknüpfungspunkte wären etwa die Etablierung von Frühwarnsystemen, besonders hinsichtlich der Beschäftigung, oder das Benennen von strategischen Optionen, die Arbeitnehmer besser zu sichern versprechen. Dies könnte auch darin bestehen, im Sinne einer speziellen prinicipal-agent Beziehung das Management daran zu hindern, die eigenen Interessen bei Entscheidungen zu stark in den Vordergrund zu stellen.14 In der modernen Produktion und Dienstleistung erscheint es unzweckmäßig, den Menschen nur als Kostenfaktor zu betrachten. Das darauf reagierende Human Resource Management (HRM) liefert weitere Ansatzpunkte, arbeitnehmerorientierte Forschung zu betreiben. Im HRM wird der Kostenbetrachtung eine Konzeption entgegengesetzt, die primär die Leistungen und deren Optimierung in den Vordergrund stellt. Dies hat weitreichende Folgerungen für Führung, Entgelt und Personalentwicklung. Der Wert und die Rolle des Faktors Arbeit sind entsprechend größer. Das hat zunächst noch nichts mit Arbeitnehmerorientierung zu tun, eröffnet allerdings Potentiale, die Mitbestimmung nutzen könnte, und zwar in zweierlei Hinsicht. Zum einen ist es fast ironisch zu nennen, dass unter dem Begriff HRM eine Philosophie der Nutzung von Arbeit als neu den Einzug in Deutschland findet, die vom Wesen her genau der betrieblichen Mitbestimmung entspricht und im übrigen in deutschen Unternehmen, in denen die vertrauensvolle Zusammenarbeit – von Arbeitgeber- wie Betriebsratsseite – praktiziert wird, längst etabliert war.15 Zum anderen müssten die produktiven Beiträge, die Arbeitnehmer über ihre bloße Erfüllung von Verpflichtungen aus dem Arbeitsvertrag hinaus leisten, als kollektive Leistungen der Mitbestimmung benannt und in Verhandlungen eingefordert werden. Es müsste ins Bewusstsein gerufen werden, dass eine lebendige 14 15
Vgl. als Beispiel van den Berg (2004). Vgl. Wächter/Müller-Camen (2002).
42
Hartmut Wächter / Thomas Metz
Betriebskultur mehr nutzt als die ausgefeiltesten Programme des Personalmanagements. Auch hier sollten neue Formen der Beteiligung ausprobiert und experimentell erforscht werden statt sich an überkommene Beteiligungsprozeduren zu klammern. Die Verhältnisse würden unübersichtlicher und von oben weniger zu steuern sein, ein Gewinn für die Mitbestimmung – und für die betriebswirtschaftliche Forschung – wäre das allemal. Die Mitbestimmung profitiert von der „Politisierung“ der Ökonomie im Sinne der Eröffnung von Gestaltungsspielräumen für interessenorientiertes Handeln. Dies war, wie bereits gezeigt, ein wichtiger konzeptioneller Ausgangspunkt für die AOEWL. Mit den organisationstheoretischen Ansätzen der Mikropolitik16 wurde hier später an wichtiger Stelle die endogene Politikhaltigkeit des organisationalen Geschehens erfasst und einer weiter gehenden theoretischen wie empirischen Analyse zugänglich gemacht. Solche Beispiele der neueren BWL können natürlich nicht heißen, dass sie die Entwicklung einer arbeitnehmerorientierten Betrachtung ersetzen könnten, gar die Arbeitnehmerorientierung in der BWL schon Wirklichkeit sei. Ganz und gar nicht. Nur würde die kritische Aufarbeitung dieser Ansätze und der Praktiken, die sie empirisch stützen, wesentlich mehr für die Weiterentwicklung der BWL (als AOEWL) bedeuten als der Anspruch, eine „Gegenlehre“ zu etablieren. Arbeiten müssten sich sowohl ideologiekritisch mit diesen Ansätzen beschäftigen, als empirisch herausarbeiten, wo sie Arbeitnehmerinteressen verletzen bzw. welche Ansatzpunkte es gäbe, diese Orientierung bewusst zu verfolgen. Das Ziel wäre insofern wesentlich bescheidener als das der AOEWL, die ja sogar eine „emanzipatorische Rationalität“ der Gewinnorientierung entgegensetzen wollte. Es wäre auch eine Bereicherung für die BWL, die sich als Wissenschaft ja auch kritischen Fragen zu ihrem Gegenstand stellen sollte. Die Forschung sollte sich aber nicht auf die heute geltende Mitbestimmung beschränken. Auch „jenseits der Grenze“17 etablierter Formen und Gesetze gäbe es auch für die BWL genügend Aufgaben, die im Sinne einer Verwirklichung demokratischer Prinzipien in der Wirtschaft zu bewältigen sind. Diese „Entgrenzung“ der bisherigen Fragestellungen ist deshalb notwendig, weil die Mitbestimmung z.T. durch Ausgründungen, Verflechtungen und den weltweit agierenden Kapitalmarkt ins Leere läuft und so nur noch einen relativ geringen Einfluss auf Unternehmensentscheidungen hat. Die Mitbestimmung der Betriebsräte verkommt bei der Krisenbewältigung und in der Milderung der schlimmsten negativen Folgen oft zur bloßen Beteiligungsarithmetik, die den ohnehin unabwendbar erscheinenden Entscheidungen eine höhere Legitimität verschafft. Eine Ausdehnung des Anspruchs der Mitbestimmung und das Einwirken auf andere Ebenen 16 17
Vgl. Crozier/Friedberg (1979), Küpper/Ortmann (1988). Demirovi (2007), S. 135.
Das kritische Vermächtnis der AOEWL
43
und Akteure wirtschaftlicher Entscheidungen wären deshalb notwendig. Ansätze dazu sind etwa auf der Ebene der Individuen und Kleingruppen in der kritischen Auseinandersetzung mit der „Subjektivierung der Arbeit“18 und bezüglich der überbetrieblichen Ebene die Sicherung des Mitbestimmungseinflusses in netzwerkartigen Strukturen.19 Es geht nicht um neue Instrumente oder „bessere“ Kennziffern für Mitbestimmungsträger, sondern um die Bezeichnung von neuen Freiräumen (und Begrenzungen) und die Etablierung neuer Handlungsfelder. Ansatzpunkte gibt es schon reichlich. Aber das ist alles unübersichtlicher und auch unspektakulärer. Auch wenn die AOEWL heute kaum mehr bekannt ist, kann sie sich das Verdienst zurechnen, die etablierte BWL auf breiter Font herausgefordert und in ihrer Selbstgewissheit in neuer Weise provoziert zu haben. Dadurch, dass sie sowohl theoretische als auch praktische Alternativen reklamierte, hat sie Fragen aufgeworfen, an denen Fachvertreter bis heute nicht vorbei kommen. Sie hat damit – auch noch in ihrem und durch ihr Scheitern – einen kritischen betriebswirtschaftlichen Beobachtungsposten geschaffen, der bis heute besteht.
Literatur Albach, H./Sadowski, D. (Hrsg.) (1976): Schriften des Vereins für Socialpolitik, N.F. Band 88. Berlin 1976. Chmielewicz, K. (1975): Arbeitnehmerinteressen und Kapitalismuskritik in der Betriebswirtschaftslehre, Reinbek 1975. Crozier, M./Friedberg, E. (1979): Macht und Organisation, Königstein 1979. Demirovi, A. (2007): Demokratie in der Wirtschaft, Münster 2007. Dilger, A. (2002): Ökonomik betrieblicher Mitbestimmung, München/Mering 2002. Frick, B./Sadowski, D. (1995): Works Councils, Unions, and Firm Performance: The Impact of Workers' Participation in Germany, in: Buttler, F. et al. (eds.): Institutional Frameworks and Labor Market Performance, London 1995, S. 46-81. Hopfenbeck, W. (2000): Allgemeine Betriebswirtschafts- und Managementlehre. 13.Aufl. Landsberg/Lech 2000. Küpper, W./Ortmann, G. (Hrsg.) (1988): Mikropolitik, Opladen 1988. Moldaschl, M./Voß, G. (Hrsg.) (2003): Subjektivierung von Arbeit, 2. Aufl. München/Mering 2003. Monks, R.A.G./Minow, N. (1995): Corporate Governance, Cambridge, Mass. 1995. Nagaoka, K. (1980): Brauchen wir eine neue Betriebswirtschaftslehre? Eine Situationsanalyse der deutschen Betriebswirtschaftslehre aus der Sicht der japanischen kritischen Betriebswirtschaftslehre, in: Koubek, Norbert/Küller, Hans-Detlef/Scheibe-
18 19
Vgl. Moldaschl/Voß (2003). Vgl. Sydow (2003).
44
Hartmut Wächter / Thomas Metz
Lange, Ingrid (Hrsg.): Betriebwirtschaftliche Probleme der Mitbestimmung, 2. Aufl., Köln 1980, S. 236 – 261. Pfriem, R. (2006): Fünfundzwanzig Möglichkeiten, über den Sinn von Arbeit nachzudenken (als Betriebswirt angefangen bei der Betriebswirtschaftslehre), in: Jäger, W./Röttgers, K. (Hrsg.): Sinn von Arbeit. Hagen 2006, S. 69-109. Projektgruppe des Wirtschafts- und Sozialwissenschaftliches Institut des DGB (1974): Grundelemente einer Arbeitsorientieren Einzelwirtschaftslehre, Köln 1974. Steinmann, H./Gerum, E. (1978): Reform der Unternehmensverfassung, Köln et. al. 1978. Sydow, J. (Hrsg.) (2003): Management von Netzwerkorganisationen, 3. Aufl., Wiesbaden 2003. van den Berg, A. (2004): The contribution of work representation to solving the governance structure problem, in: Journal of Management and Governance, Vol. 8/2004, S. 129-148. von Werder, A. et. al. (2003): 12 Thesen zur "Modernisierung der Mitbestimmung". Berliner Netzwerk Corporate Governance, o.O. Dez. 2003. Wächter, H./Müller-Camen, M. (2002): Codetermination and strategic integration in German firms, in: Human Resource Management Journal, Vol. 12 , No. 3 (2002), S. 76-87.
Arbeit und Personal
Studenten-Kaizen-Workshops als Lehrelement der Produktionswirtschaft Karl Maisch
1
Warum Studenten-Kaizen-Workshops?
Warum in einer Festschrift mit dem Leitthema Innovation und Internationalisierung ein Beitrag zum Thema Studenten-Kaizen-Workshops? Es gibt zwei Gründe dafür: Der Erste: Derartige Workshops haben innovativen Charakter für die Lehre und für die anwendungsnahe Forschung, denn sie sind in der im Folgenden beschriebenen Form bislang einer breiteren Öffentlichkeit nicht bekannt. Der zweite Grund: die Internationalisierung; weil die Prinzipien, die Methoden und die Werkzeuge, die in solchen Kaizen-Workshops zum Tragen kommen, überwiegend dem Toyota Produktionssystem entstammen und bei Toyota und dessen Zulieferern seit Jahrzehnten mit Erfolg angewandt werden. Der anwendungsnahe Forschungsansatz besteht darin, die Methoden nicht einfach nur auf die Verhältnisse in Deutschland zu übertragen, sondern herauszuarbeiten, welche der Methoden und Werkzeuge aber auch der Vorgehensweise schließlich hier in Deutschland Verwendung finden können und weiter entwickelt werden sollten. Ein wichtiger Bestandteil der Theorie der Unternehmen ist die Lehre der industriellen Produktion, wie sie in den jeweiligen Schwerpunkten der Industriebetriebslehre, dem Produktionsmanagement1 bzw. der Produktionswirtschaft vermittelt werden. Nicht generell aber doch weitestgehend wird mit recht abstrahierten Modellannahmen gearbeitet. Diese beschreiben dann das betriebliche Geschehen in der Produktion sehr allgemein. Diese abstrakten Modellannahmen beziehen sich überwiegend auf die strategische Planung, die Produktionsplanung 1
In Anlehnung an Zäpfel wird hier der Begriff Produktionsmanagement verwendet, vgl. Zäpfel (2001), S. 1 f.
48
Karl Maisch
und gelegentlich auch auf die Produktionssteuerung, eher selten auf die operative Gestaltung der Produktionsplanung und -steuerung sowie auf die Gestaltung der Produktionsabläufe und Produktionsprozesse. Letzteres scheint jahrelang ein allgemeines Problem gewesen zu sein, zu viel Aufwand wurde in der Lehre in Hochschulen für die Planung der Produktion verwendet und zu wenig widmete man sich der Gestaltung der Produktion. Dies überließ man den Ingenieurwissenschaften. Möglicherweise entstand dadurch auch der in Deutschland überwiegend verbreitete technikzentrierte Entwicklungspfad. Meist werden bei größeren Optimierungsmaßnahmen entweder EDV-technische Lösungen in Form von aufwendigen PPS-ERP-Systemen gesucht oder zum Ersatz oder Kauf neuer Maschinen und Anlagen geraten. Dadurch aber entsteht in diesen Unternehmen immer ein hoher Fixkostendruck, der sich wiederum in der mehr kapazitätsauslastungsbezogenen als in der kundenorientierten terminbezogenen Auftragseinlastung bemerkbar macht. Die Vermittlung der Themen in den Hochschulen ist recht unterschiedlich und die Vermittlungsformen erstrecken sich von Vorlesungen über Übungen, Fallstudien, Planspiele und Projekte; hier wird von einer anderen Form der praktischen Wissensvermittlung berichtet, von Workshops, bei denen jeweils 5 Studenten für zwei Tage ein Projektthema in einem Unternehmen bearbeiten. Der Verfasser hat sich seit vielen Jahren mit der Frage auseinandergesetzt, wie Studenten an Themen herangeführt werden können, in denen unmittelbar eine praktische produktionswirtschaftliche Fragestellung innerhalb eines überschaubaren Zeitraumes mit einem abschließenden positiven Ergebnis für das Unternehmen und für die Studenten erreichbar ist. Vielleicht hat dem Verfasser die Erfahrung in der Beratung von Unternehmen und die Erfahrung in der Weiterbildung von Mitarbeitern und Führungskräften geholfen.2 Auf Bestehendes oder Vergleichbares konnte nicht zurückgegriffen werden, also war es notwendig, sich über die Hochschullehre hinaus an Konzepten zu orientieren, wie sie seit einigen Jahren in der Weiterbildung von Führungskräften in der Produktion verwendet werden. Dieses Grundkonzept ist nun auf die Kaizen-Workshops mit Studenten übertragen worden. Hochschuldidaktiker würden solche Vermittlungsformen der experimentellen Didaktik zuordnen. Hier stand mehr das Bemühen im Vordergrund, wie neben der Anwendung von Sachwissen das Lernen von Zusammenhängen erfahrbar wird, wie z.B. die Wechselwirkungen zwischen Logistik, Produktion, Kostenrechnung, Personalwirtschaft und Personalplanung, und vieler anderer Elemente auch in kleinen, scheinbar geringkomplexen Reorganisationsprojekten erfahrbar ist. Erst wenn diese Interdependenzen zwischen den Subsystemen eines Unternehmens verstanden werden, 2
Vgl. Dombrowski et al. (2008), S. 8-13.
Studenten-Kaizen-Workshops als Lehrelement der Produktionswirtschaft
49
kann eine Problemlösungs- und Handlungskompetenz für komplexere Fragestellungen in der Produktionswirtschaft und im Produktionsmanagement aufgebaut werden. Seit der Studie „Die zweite Industrielle Revolution in der Automobilindustrie“ von Womak und Jones3 wissen wir, dass es eine erste und zweite LeanWelle gibt. Die erste Lean-Welle ist mit hohem publizistischem Aufwand durch die oben angegebene Studie angestoßen worden; es gab viele Schriften aber doch relativ wenig Resonanz bei den Unternehmen. Die zweite Lean-Welle wurde durch viele japanische Unternehmensberater geprägt, die vorwiegend in Automobilunternehmen seit ca. 15 Jahren Beratungen durchführen. Aus diesen Beratungen entstanden schließlich wiederum Beratungsunternehmen, die ihrerseits bis heute viele Zulieferunternehmen beraten. Von einer dritten Lean-Welle lässt sich inzwischen auch sprechen, diese bezieht sich auf die Übertragung von Lean Konzepten auf Dienstleistungsunternehmen, Krankenhäuser und andere Einrichtungen. Dass schlanke Strukturen notwenig sind, haben viele Unternehmen erkannt und teilweise auch umgesetzt. Kaizen ist ein Bestandteil des Lean Manufacturing. Mit Lean Manufacturing wiederum sollten Prozesse mit einfachen Mitteln und Methoden vereinfacht werden. Warum Studenten-Kaizen-Workshops? Hätte nicht einfach der Begriff „Optimierungsworkshop“ gereicht? Hätte es nicht gereicht, der Dramaturgie klassischer Rationalisierungsprojekte zu folgen, bei denen ein Prozess aus der Sicht des externen Experten oder Beraters analysiert, die Schwachstellen aufgezeigt und ein Sollkonzept erstellt werden. Womöglich wird die Potenzialfreistellung als Ratio-Effekt ausgegeben, damit sich das Projekt auch „rechnet“. Anschließend könnte dann ein Vorschlag an die Geschäftsleitung gemacht werden und das Projekt wäre abgeschlossen, ohne Kenntnis davon, ob das Projekt jemals realistisch umgesetzt werden könnte. Die Kaizen-Methodik basiert zumindest in der hier vermittelten Art auf einer anderen Denkweise. Der externe Berater oder Coach sucht anhand verschiedener, meist einfacher Methoden, die Verschwendungen im Prozessablauf auf, damit eine Produktion ohne Verschwendung erzielt werden kann. Den Studenten soll dabei vermitteln werden, dass sie Prozesse sehr genau ansehen und immer einen Blick auf die Verschwendungen zu werfen haben. Sehen lernen und Verschwendungen erkennen und beseitigen, das ist der Kern des Workshops. Die Methoden und Werkzeugen können erworben und erlernt werden, das Sehen und Erkennen von Verschwendungen ist nicht so einfach, denn sonst würden es ungezählte Unternehmen mit Erfolg anwenden.
3
Vgl. Womack et. al. (1991), S. 7.
50
Karl Maisch
Das Verfahren, die Methode und die Werkzeuge basieren auf dem von der Toyota Motor Corporation in den 50-iger Jahren des vergangenen Jahrhunderts begonnenen Toyota-Produktionssystem (TPS), welches im Laufe der Jahre stetig weiterentwickelt, verbessert, aber auch verändert wurde und wird.
2
Die Bausteine des Studenten- Kaizen-Workshops
Einem breiteren Kreis wurde das Kaizenprinzip durch die Studie des International Motor Vehicle Program am Massachusetts Institute of Technology (MIT) bekannt. Das zugrunde liegende Managementsystem wird als „revolutionär“ beschrieben. Dabei ist dieses Produktions- und Managementsystem eher ein evolutionärer Prozess der Verbesserung in kleinen Schritten, und einer Fehlerkultur4, wie sie in Europa und USA bislang nicht zu finden waren. Häufig wurden und werden die Begriffe „lean“ oder „schlank“ mit einzelnen Methoden zur reinen Kostenreduktion, zum Arbeitsplatzabbau und dem Outsourcing von Leistungen gleichgesetzt.5 Der Begriff des Lean-Managements geht jedoch weit darüber hinaus. Lean-Management beschreibt die Anwendung eines holistischen Ansatzes, mit dem die operativen Leistungen eines Unternehmens, ausgehend von den Kundenbedürfnissen unter Einbezug der Mitarbeiter, dauerhaft und stetig verbessert werden sollen.6 Das Lean-Management hat seinen Ursprung in der Produktion (Lean-Manufacturing), wird aber heutzutage auch in Dienstleistungsprozessen und über die komplette Wertschöpfungskette angewandt.7 Dabei stellt der Einsatz von Lean-Management kein einzelnes Projekt dar, sondern ist eine dauerhafte Aufgabe mit dem Ziel, unaufhörlich nach Perfektion zu streben.8 Das Lean-Management stellt einen ganzheitlichen Ansatz zur Optimierung des kompletten Unternehmens dar und soll durch eine funktions- und abteilungsübergreifende Betrachtung Teiloptimierungen und Suboptima vermeiden.9 Mit der Optimierung der Prozesse wird das Ziel verfolgt, die Qualität zu erhöhen, gleichzeitig die Durchlaufzeiten (DLZ) zu verkürzen und die Umlaufbestände zu senken und dadurch eine Flexibilität zu schaffen, die es dem Unternehmen ermöglicht, die Anforderungen und Bedürfnisse des Kunden durch Herstellung 4
5 6 7 8 9
Anmerkung: Fehler sollten direkt am Entstehungsort behoben werden. Fehler sollten auf Schwächen des gegenwärtigen Zustandes verweisen. Fehler dürfen nicht verdeckt werden, Mitarbeiter, die Fehler machen, sollten nicht bestraft werden, sondern es sollte offen über die Fehler, die sie verursacht haben, geredet werden. Vgl. Womack et al. (2004), S. 7 f. Vgl. Drew et al. (2005), S. 35. Vgl. Corbett (2007), S. 95. Vgl. Drew et al. (2005), S. 35. Vgl. Drew et al. (2005), S. 39.
Studenten-Kaizen-Workshops als Lehrelement der Produktionswirtschaft
51
individualisierter Produkte in bester Qualität zu befriedigen.10 Der Erfolg von Unternehmen, die Lean-Management einsetzen, wie Toyota und Porsche, legt nahe, dass der Einsatz von Lean-Management auch maßgeblichen Einfluss auf den Unternehmenswert hat. Lean-Management stellt kein punktuelles oder periodisches Projekt dar, sondern einen nie endenden Prozess, der mit der Einführung von Lean-Prinzipien beginnt und danach durch kontinuierliche, systematische Aufdeckung und Eliminierung von Verschwendung weitergeführt wird.11
2.1 Vier wichtige Methoden, die in den Workshops verwendet werden Die Methoden müssen geeignet sein, schnell und hinreichend zuverlässig ein Gesamtbild des Ausgangszustandes zu erfassen. Es gibt eine leidenschaftliche und nicht immer sachlich geführte Diskussion darüber, wie Kaizenprojekte einzuführen sind. Die Einen schlagen ein eher deduktives Verfahren vor, also vom Ganzen zum Detail gehend. Die Andern meinen, dass mit Einzelprojekten auf Arbeitsplatzebene zu beginnen ist und schließlich die vielen kleinen Einzelprojekte zu einer gesamten Änderung des Unternehmens führen. Jene, die den induktiven Ansatz bevorzugen, begründen ihr Vorgehen damit, dass in relativ kurzer Zeit Quantensprünge an Verbesserungsmaßnahmen zu erzielen sind; jene, die mit vielfältigen Einzelmaßnahmen auf der Arbeitsplatzebene beginnen, sagen, dass erst die Mitarbeiter, aber auch die Führungskräfte über mehrere Jahre mit den Methoden vertraut sein müssen, um den gesamten Prozess nachhaltig zu gestalten. Es zeigt sich indessen immer wieder, dass eine nachhaltige Wirkung der eingeführten Projekte erst dann eintritt, wenn die Mitarbeiter in den Prozess eingebunden werden und mit einfachen Projekten begonnen wird. Mit wachsender Methodenkenntnis kann dann zu einem späteren Zeitpunkt mit komplexen Projekten begonnen werden. Das Konzept des Studenten-Kaizen-Workshops basiert jedenfalls auf dieser Erkenntnis. Je nach Kenntnisstand der Führungskräfte und Mitarbeiter werden einfache oder eher komplexe Projekte in den Workshop aufgenommen.
10 11
Vgl. Womack et al. (2004), S. 8. Vgl. Rother (2004), S. 4.
52
Karl Maisch
Im Folgenden werden nun einige Methoden vorgestellt, welche als BasisMethoden für den Studenten-Workshop dienen. Es handelt sich um 4 Methoden:
Verschwendungsvermeidung, Fünf Stufen (5S) und Standardisierung, die Berücksichtigung von Takt, Fluss und Pull, und schließlich die Wertstromanalyse.
2.1.1 Die Vermeidung von Verschwendung Eine Antwort auf die Frage, welche Arbeitsschritte, Aktivitäten und Prozesse als wertschöpfend betrachtet werden können, erhält man durch die Überlegung, ob der Kunde dafür bereit ist, zu zahlen. Kunden sind sicher bereit, dafür zu zahlen, dass z.B. die Räder an ihrem neuen PKW sicher montiert sind. Die im Unternehmen notwendigen logistischen Prozesse, die die Räder zu ihrem Montageort transportieren, sind aus Sicht des Kunden dagegen mit keinem Wert verbunden. Insofern ist er nicht bereit, dafür zu zahlen und sämtliche internen logistischen Aktivitäten sind entsprechend nicht wertschöpfend. Verschwendung, bzw. nicht wertschöpfende Arbeit umfasst alle Aktivitäten, Tätigkeiten und Prozesse, die Zeit, Ressourcen und/oder Raum kosten, aber nicht zur Erfüllung der Kundenwünsche beitragen. Verschwendung ist damit der Teil der Arbeit, für den der Kunde nicht zahlt, z.B. der interne Transport von Bauteilen zum Montageort. Wertschöpfende Arbeit umfasst dagegen alle Aktivitäten, Tätigkeiten und Prozesse, die Rohwaren oder Informationen umwandeln oder formen, um (interne und externe) Kundenanforderungen zu erfüllen. Wertschöpfende Arbeit ist der Teil der Arbeit, für den der Kunde zu zahlen bereit ist, z.B. die Montage von Bauteilen zu einem Produkt. In der betrieblichen Praxis gilt es daher, den Anteil wertschöpfender Arbeit zu maximieren und den Anteil nicht wertschöpfender Arbeit zu minimieren. Dabei muss berücksichtigt werden, dass nichtwertschöpfende Arbeit zwar minimiert, jedoch nicht vollständig eliminiert werden kann. Sämtliche innerbetrieblichen logistischen Prozesse, z.B. die Materialbereitstellung an Arbeitsstationen, sind aus Kundensicht zwar nicht wertschöpfend, können aber aufgrund ihrer Notwendigkeit nicht beseitigt werden. Es ist ein zentrales Ziel, zunächst Transparenz darüber zu erlangen, welche Arbeitsschritte wertschöpfend und welche nicht wertschöpfend sind, um anschließend im Sinne eines kontinuierlichen Verbesserungsprozesses den Anteil der nichtwertschöpfenden Arbeit auf ein minimal notwendiges Maß zu reduzieren Wird eine größere Menge produziert als geplant oder benötigt ist, spricht man von Überproduktion. Gründe dafür können sein: zu viele Mitarbeiter aufgrund
Studenten-Kaizen-Workshops als Lehrelement der Produktionswirtschaft
53
schlechter Kapazitätsplanung, Aufbau von Lagerbeständen als Sicherheit gegen Maschinenausfälle.
2.1.2 5S und Standardisierung Der SOS-Baustein hat einen standardisierten Ablauf, der in fünf Stufen gegliedert ist. Deshalb wird SOS auch in verschiedenen Firmen oder Veröffentlichungen als die 5S-Methode vorgestellt. Die Methode zielt darauf ab, komplette Arbeitsabläufe und Arbeitssysteme systematisch zu verbessern, indem die betreffenden Mitarbeiter Standards und Regeln festlegen. Die Methode reduziert erheblich die Suchzeiten und steigert die Motivation der Mitarbeiter, weil sie in sehr kurzer Zeit sehr wirksam ist und die Ergebnisse sehr schnell sichtbar sind. Hinter der 5S-Methode verbergen sich folgende Aufgaben:
Selektieren, (zunächst wird alles aus dem Arbeitsbereich entfernt), Sortieren, (was kann sofort weggeworfen werden, was lohnt sich in einer zentralen Ablage zu lagern, was und wieviel soll direkt am Arbeitsplatz gelagert werden?), Säubern (der komplette Arbeitsbereich wird nach einem Grundreinigungsprinzip gereinigt, Böden, Schränke, Maschinen, Werkzeugablagen, Transportmittel etc.), Standardisieren (feste Stell- und Ablageplätze, feste Arbeitsabläufe, auch Besprechungsroutinen etc.; Standards erleichtern Arbeitsprozesse und erschweren sie nicht!), Selbstorganisation sowie Selbstverantwortung (ohne Selbstverantwortung und Selbstorganisation ist keine Zusammenarbeit und keine Weiterentwicklung möglich.).
Die Standardisierung ist das wichtigste Element der SOS-Methode. Standardisierung bedeutet in diesem Fall, feste Stell- und Ablageplätze für Material, Behälter, Werkzeuge, Boxen usw. Die Standardisierung folgt ebenfalls wieder einem Standard. Wir beginnen mit sog. Cleanboards, das sind Stellwände für die Aufnahme der Reinigungsgeräte und Reinigungsmittel, sodann wird fortgefahren mit Toolbords, die an gekennzeichneten Stellen anzubringen sind und zwar so, dass kurze Wege und somit schnelles Greifen möglich wird. Nach der Erstellung von Werkzeugablagen und -boards werden die Standards für Maschinenwerkzeuge festgelegt.
54
Karl Maisch
Danach folgt die Erstellung und Kennzeichnung von Standardablagen für Transportmittel. Es müssen Standardstellplätze für Hubwagen, Stapler und Leergut nach einem Standardmuster festgelegt werden, ferner Stellplätze für Paletten und Gitterboxen, für Kisten und Behälter. Oft ist eine Reduzierung des Platzangebotes hilfreich. Die Zwecke der Standardisierung sind:
Verringerung des Suchaufwandes, Verbesserung der Produkt- und Prozessqualität, Herstellung von Übertragbarkeit auf andere Arbeitsbereiche und Werke desselben Unternehmens.
2.1.3 Takt, Fluss und Pull Die drei Lean-Prinzipien Takt, Fluss und Pull bilden das Rückgrat des Wertstroms. Um dem Kunden den definierten Wert zum richtigen Zeitpunkt in der richtigen Qualität zu schaffen, soll der Wertstrom in einen kontinuierlichen Fluss gebracht werden, der in einem bestimmten, an die Kundennachfrage angepassten Takt fließt. Dabei soll sowohl der Wertstrom insgesamt, als auch jeder Teilprozess, ausgelöst durch die Kundennachfrage, nur die Menge herstellen, welche der jeweils nächste Prozess benötigt.12 In der Literatur wird häufig die Einführung eines Flusses als erstes einzuführendes Prinzip nach der Definition des Wertes und des Wertstroms vorgeschlagen.13 An dieser Stelle wird die Wertstromanalyse als letzte Methode aufgeführt, weil Sie gleichsam alle bisher erwähnten Methoden integriert. In der traditionellen Massenproduktion liegt das Hauptaugenmerk auf der Schaffung von Skaleneffekten in den Prozessen. Um möglichst geringe Stückkosten zu erreichen, wird versucht, pro Maschine oder Arbeitskraft eine möglichst hohe Produktivität und eine hohe Auslastung zu erreichen.14 Dazu werden oft spezialisierte, voneinander entkoppelte Teilprozesse (Inseln) und Abteilungen gebildet, in denen ähnliche Arbeitsschritte und Technologien zusammengefasst und an ihrer Produktivität gemessen werden. Wir sprechen in diesem Fall von einer Werkstattfertigung. Große Losgrößen und eine hohe Kapazitätsauslastung kennzeichnen ein solches Fertigungsprinzip.15 Durch entkoppelte Fertigung in großen Losen bilden sich zwischen den Teilprozessen lange Transportwege und Umlaufbestände, die die bereits beschriebenen Probleme der Überproduktion zur 12 13 14 15
Vgl. Drew et al. (2005), S. 52. Vgl. Drew et al. (2005), S. 64; Womack et al. (2004), S. 30 f., S. 64; Liker (2007a), S. 136. Vgl. Liker (2007a), S. 140 f. Vgl. Drew et al. (2005), S. 69; Liker (2007a), S. 140, S.175 f.
Studenten-Kaizen-Workshops als Lehrelement der Produktionswirtschaft
55
Folge haben.16 Durch nicht miteinander verknüpfte Abteilungen kann es zudem zu Verzögerungen innerhalb des Wertstroms bei der Weitergabe von einer Abteilung zur anderen kommen.17 Diese Bearbeitung in großen Losgrößen lässt sich auch in der Logistik und im innerbetrieblichen Materialhandling in Form von wenigen großen Materiallieferungen beobachten.18
2.1.4 Den Wertstrom erfassen und verbessern Im Gegensatz zur traditionellen Betrachtung sollen in einem nach dem LeanManagement Ansatz organisierten Wertstrom die wertschöpfenden Prozesse in einen kontinuierlich fließenden Ablauf gebracht und Hindernisse, die diesen Fluss stören, beseitigt werden.19 Dabei sollen sich stets sowohl der Material-, der Personal- als auch der Informationsfluss in einer kontinuierlichen Abfolge befinden.20 Der Informationsfluss stellt dabei den Weg der Kundenbestellung entlang der Wertschöpfungskette und damit der Arbeitsanweisungen an jeden einzelnen Prozessschritt dar. Der Personalfluss beschreibt die Art und Weise, wie die Mitarbeiter sich innerhalb und zwischen den Prozessschritten des Teilprozesses bewegen und wie sie die Anlagen nutzen. Der Materialfluss stellt den Weg des Materials durch den Transformationsprozess zum Kunden dar. Der Wertstrom soll durch die Optimierung so konfiguriert werden, dass der Wert für den Kunden mit einer möglichst geringen Durchlaufzeit (DLZ) erstellt und ausgeliefert werden kann. Langfristiges Ziel ist die Schaffung eines One-Piece-Flow, d.h. eines kontinuierlichen Wertschöpfungsstroms, der in der kleinsten sinnvollen Einheit, vorzugsweise in der Losgröße eins, durch den Prozess fließt.21 Dieser One-Piece-Flow soll eine reduzierte DLZ ermöglichen und gleichzeitig Flexibilität und Reaktionsfähigkeit schaffen, um den Kundenbedarf mit dem richtigen Teil zum richtigen Zeitpunkt und in der richtigen Qualität schnellstmöglich zu befriedigen.22
16 17 18 19 20 21 22
Vgl. Drew et al. (2005), S. 54; Liker (2007a), S. 141. Vgl. Liker (2007a), S. 141. Vgl. Liker (2007a), S. 141. Vgl. Shingo (1989), S. 105; Takeda (2006), S. 55. Vgl. Rother et al. (2006), S. 9. Vgl. Liker (2007b), S. 119 f.; Shingo (1989), S. 105. Vgl. Liker (2007a), S. 141; Shingo (1993), S. 63.
56
Karl Maisch
2.2 Das Konzept des Kaizen-Workshops 2.2.1 Der Workshopaufbau Beteiligt sind Studenten des Wirtschaftsingenieurwesen im Diplomstudiengang an einer Fachhochschule und neuerdings Studenten im neuen BachelorStudiengang. Zwischenzeitlich konnte auch ein Workshop mit Studenten eines Masterstudiengangs durchgeführt werden, die die Vertiefungsrichtung LeanManufacturing besuchen. Die Voraussetzung für die Teilnahme an einem Studenten-KaizenWorkshop ist der Besuch einer 4 SWS Lehrveranstaltung Produktionswirtschaft, in der alle grundlegenden praktischen Kaizenmethoden gezeigt werden, wie sie in den Workshops benutzt werden. Es können max. 35 Studenten an einem Workshop teilnehmen. Die Studenten bearbeiten in Kleingruppen von fünf bis sieben Personen ein Thema aus der Produktions- bzw. Fertigungsorganisation. Die Themen können aus den Bereichen Produktion, Montage, Lager, innerbetriebliche Logistik, Kommissionierung und Versandbereitstellung stammen. Das kooperierende Unternehmen stellt für jede Gruppe jeweils einen Betreuer bereit. Die Workshops finden ein- bis zweimal pro Jahr statt. Begonnen wurde mit der Aktion im Jahre 2001; bisher gelang es, jedes Jahr ein Unternehmen zu gewinnen. Die weitaus meisten Workshops konnten bei einem Premium Hersteller von Bürostühlen und Bürosystemen aus Weil am Rhein durchgeführt werden. Das Management unterstützte dieses Vorhaben besonders. Die Workshops sind in diesem Unternehmen in ganz unterschiedlichen Bereichen angesiedelt. Neben diesem Unternehmen finden noch weitere Workshops bei einem sehr agilen Hersteller von Stahlbaugruppen und bei zwei Automobilzulieferunternehmen, welche Tiefziehteile und Komponenten fertigen, statt.
2.2.2 Der Ablauf von Kaizen-Workshops in Unternehmen Wie sieht nun der Ablauf eines Kaizen-Workshops aus? Mit dem Unternehmen wird einige Wochen vorher festgelegt, welche Themen bearbeitet werden können, die Betreuer aus dem Unternehmen sind an der Themenwahl beteiligt. Oft werden von diesen Betreuern auch Themen vorgeschlagen. Neben den Workshopthemen sind die technischen Details zu planen, Arbeitsmaterialien wie Flipcharts, Pinwände, Moderations-Koffer, Arbeitstische und -stühle. Die gesamte Projektarbeit wird immer vor Ort in dem Bereich durchgeführt, in dem auch das Thema bearbeitet wird. Die Workshoparbeit findet immer in der unmittelbaren
Studenten-Kaizen-Workshops als Lehrelement der Produktionswirtschaft
57
Nähe der Arbeitsbereiche statt. „Go and see“ ist immer das Motto des Workshops! Der Tagesablauf für den Workshop ist wie folgt festgelegt:
Beginn Gruppenaufteilung Erfassung der Verschwendungen durch einen Muda-Check Weitere Erfassung des Ausgangszustandes z.B. Art der Materialbereitstellung, des Handlings, der Kommissionierung, der Auftragssteuerung, der Arbeitsabläufe, der Informationsflüsse Erste Zwischenpräsentation der bisherigen Befunde Ende des ersten Projekttages gegen Beginn zweiter Projekttag Erstellen eines Visionsszenarios (wie könnte der zukünftige Bereich gestaltet werden kann) Übertragung des Idealzustandes auf machbare Projekte Vorbereitung der Präsentation Präsentation der Projekte Ende des Kaizen-Workshops
8:00 8:30 8:35 11:30
15:30 17:00 8:00 8:05 9:30 13:00 16:00 18:00
Diese Darstellung bezieht sich auf Workshops, deren Aufgabe es ist, ein brauchbares Konzept für eine nachgelagerte Umsetzung durch die Planungsabteilung zu erstellen, es gibt allerdings auch Projekte, bei denen explizit die Umsetzung von Maßnahmen erwünscht und erwartet wird. 5S- bzw. SOS-Projekte oder die Umstellung einer einfachen Linie mit wenigen Arbeitsplätzen sind typische Themen solcher Projekte. Bei derartigen Umsetzungsprojekten werden bereits die letzten Stunden des ersten Tages und der gesamte zweite Tag für die Umsetzung genutzt. Die Unternehmen gewinnen dabei Anregungen, auch mitunter völlig neue Ideen, Abläufe und Prozesse einfacher, schlanker und wirkungsvoller zu gestalten. Alle Unternehmen, in denen bislang Workshops durchgeführt wurden, haben Teile oder die gesamten Ergebnisse der jeweiligen Projekte verwendet. Es ist also ein extrem hoher Umsetzungsgrad vorhanden. Ein Unternehmen hat die Workshops zum Anlass genommen, sich immer wieder durch die Studenten die Schwächen aufzeigen zu lassen. Die erarbeiteten Lösungsalternativen werden dann komplett oder fragmentarisch durch die Mitarbeiter und einen Betreuer umgesetzt.
58
Karl Maisch
Die Studenten gewinnen Erfahrungen im Umgang mit Kaizen-Projekten, sie lernen, wie auch in kurzer Zeit Optimierungen von Produktionsabläufen möglich sind, sie erfahren vor Ort die Vorteile von Gruppenarbeiten, sie lernen methodisches und systematisches Vorgehen in Projekten. 2.2.3 Typische Themen bei Kaizen-Workshops Wir unterscheiden zwischen Umsetzungsprojekten und Konzeptprojekten. Umsetzungsprojekte sind Projekte mit geringerer Komplexität und geringerer Aufgabenfülle, z.B. sind 5S Projekte Umsetzungsprojekte. Konzeptprojekte sind Projekte, bei denen unterschiedliche Konzeptvarianten erstellt werden, wie z.B.
Montagelinien optimieren, Einzelarbeitsplätze verbessern, Versandabwicklung, Kommissionierung.
Tabelle 1: Bislang durchgeführte Studenten-Kaizen-Projekte Nr. 1
2 3
Firmentyp Einzel- u. Kleinserienfertigung (EKSF) EKSF EKSF
4 5 6 7 8 9 10 11 12 13 14 15
EKSF EKSF EKSF EKSF EKSF EKSF EKSF EKSF EKSF EKSF EKSF EKSF
16
Serienfertiger
17
Einzelfertiger
18
Einzelfertiger
Kaizenthema Montage Tischhöhenverstellung
Themenschwerpunkt Montage
Versandsteuerung einer Montage Erstellung eines Stromaufwärtskonzeptes Montagelinie Bürotisch Ablauf Kommissionieraufgabe Ablauf Shuttle-Kommissionierung Logistik Zug Konzept Verpackungsaufgabenoptimierung Tischfußmontage Fußmontage Ablauf Tischplattenendmontage Versandabwicklung Informationsflussgestaltung Rüstzeitoptimierung Kleinserie Optimierung d. Sicherheit bei Auslagerung Arbeitssystemgestaltung Montage Bürostuhl Sondermaschinen Montageablaufgestaltung Fertigung Siebdruckplatten
Logistik Logistik Montage Logistik Logistik Logistik Montage / Verpackung Montage Montage Montage Logistik Prozesse Produktion Logistik Montage Montage Produktion
Studenten-Kaizen-Workshops als Lehrelement der Produktionswirtschaft 19
Serienfertiger
20
Serienfertiger
21
Serienfertiger
22
Serienfertiger
23
Serienfertiger
24
Serienfertiger
25 26 27
Serienfertiger AI Serienfertiger AI Serienfertiger AI
28
Serienfertiger AI
29
Serienfertiger AI
30 31
Serienfertiger Serienfertiger
Verbesserung d. Materialbereitstellung Bestandsdifferenzen in der Galvanik und deren Minimierung Steuerung von Sitzbezügen aus einem LCC C-Teilebereitstellung durch Kanban und Logistikzug Versandabwicklung Flughafenmöbel Versandentlastung durch Restrukturierung Prozessoptimierung Drehtisch Ablaufgestaltung Verpressautomat Ablaufgestaltung Umformmaschine Sammler Ablaufgestaltung Siliconspritzmaschine Ablaufgestaltung Verstemmautomat Montagezellengest. Bürostuhl Verlagerung Montagezelle
32
Serienfertiger
Zusammenführung Montagezelle
33
Serienfertiger
Integration Montagezelle
34
Neugestaltung Lagerlogistik
35 36
Einzelfertiger / Lohnfertiger (EF/LF) EF/LF EF/LF
37 38
EF/LF EF/LF
39
Serienfertiger
40
Serienfertiger
41
Serienfertiger
42 43
Serienfertiger Serienfertiger
Rüstablauf Abkantpresse Ablauf- und Prozessgestaltung Laserautomat Prozessgestaltung Nasslackierung 5S-Aktion bei Schweißarbeitsplätzen Zusammenlegung zweier Montagearbeitsplätze Integration in Kleinserienfertigung Integration in bestehende Montagezelle Optimierung Montagezelle Optimierung Neuanlauf Homechair
59
Logistik Logistik Logistik Logistik Logistik Logistik Produktion Produktion / Logistik Produktion Produktion Produktion Montage Montage / Auslaufsteuerung Montage / Auslaufsteuerung Montage / Auslaufsteuerung Logistik
Produktion Produktion Produktion Produktion Montage / Auslaufsteuerung Montage / Auslaufsteuerung Montage / Auslaufsteuerung Montage Montage / Neuanlauf
60
Karl Maisch
Hierzu wird nun ein Beispiel vorgestellt. Um ein weitgehend authentisches Bild der Workshops zu vermitteln, wird auf die von den Studenten erstellten Präsentationen zurückgegriffen. Die PowerPoint-Präsentationen werden erst in der Nachbereitung des Workshops erstellt. Während der Workshops sind PowerPointPräsentationen nicht zugelassen, weil der Zeitaufwand zu groß ist und die Studenten ausdrücklich ermuntert werden sollen, Präsentation mit einfachen Mitteln zu machen. Bei dem Projekt handelt es sich um einen Montageauslauf. Solche Projekte sind typisch, weil durch den Nachfragerückgang die entsprechende Montagezelle nicht mehr ausgelastet ist. Spätestens dann ist eine Integration in eine andere Montagezelle erforderlich, damit wieder eine hinreichend gute Auslastung sichergestellt ist.
2.2.4 Projektbeispiel Montageauslauf (Konzeptprojekt) Die Ausgangslage: Der Projektablauf wird nun in den wichtigsten Schritten wiedergegeben. Abbildung 1:
Typischer Projektablauf
1. Aufgabenstellung 2. Istanalyse a. Spaghettidiagramm erstellen b. Operationsfolgediagramm aufbauen c. Montageablauf dokumentieren d. Bedarfsanalyse des Arbeitsplatzes bzw. der Linie durchführen e. Reichweitenanalyse der Materialien ermitteln f. ZDF-Vergleich machen (ZDF= Zahlen, Daten, Fakten; z.B. Bestände im Umlauf, Durchlaufzeiten, Reichweite, Wege, Flächenbedarf, Handlingsanzahl etc.) 3. Stärken/Schwächenanalyse (Auffälligkeiten, Verschwendungen erfassen z.B. durch MUDA-Check) 4. Erstellung von Sollkonzepten 5. Empfehlungen für die Produktionsleitung
Studenten-Kaizen-Workshops als Lehrelement der Produktionswirtschaft
61
Die Operationsfolgenanalyse hat die Aufgabe, den Montageablauf zu dokumentieren und sich mit diesem vertraut zu machen. Oft erschließen sich daraus neue Möglichkeiten zur Verbesserung. Mit dem Spaghettidiagramm und der Flächenanalyse sollen die nichtwertschöpfenden Wege bzw. Flächen dokumentiert werden. Später können daraus nützliche Hinweise für die Layout-Neugestaltung gewonnen werden. Mit dem Spaghetti-Diagramm werden die Wege der Mitarbeiter sehr einfach und anschaulich erfasst. Wege sind per se Verschwendungen, sofern sie nicht in Arbeit umgesetzt werden können. Bei der Suche nach Verschwendungen in den Prozessen, bildet demnach die Erfassung von Wegen und Transporten eine wesentliche Voraussetzung für die Optimierung von Prozessen. Abbildung 2:
Beispiel eines Operationsfolgediagramms
1x Rücken
1
2
3
1x Sitz
4x Gleiter
1x Schaumstoffabdeckung
1x Untergestell
4x Senk Torx
1x Schutzhülle
1x Stapelschutz vorne
1x Stapelschutz hinten
2x Stapelzapfen vorne
2x Stapelzapfen hinten
2x Feder für Stapelzapfen
2x Abdeckung Stapelzapfen
1
Montage I
2
Montage II
3
Verpacken
Bestände stellen Verschwendungen dar und sollten somit immer reduziert werden, am Besten geschieht dies über die standardisierte Festlegung der Reichweite für die Teile, die am jeweiligen Arbeitsplatz anzuliefern sind. Die ideale Reichweite am Arbeitsplatz für Serienfertiger beträgt z.B. 0,5 Tage, für Sondereinzelfertiger zwischen 1 bis 2 Tage. Die Istaufnahme in den Kaizen-Workshop zeigt immer wieder, dass insgesamt die durchschnittlichen Reichweiten der Materialien mit >10 - 12 Tagen viel zu groß bemessen sind und dass in vielen Fällen keine differenzierte Reichweitensteuerung nach Teilewertigkeit (A-, B-, C-Teile)
62
Karl Maisch
durchgeführt wird. Oft finden sich auch bei A-Teilen Reichweiten von mehr als 8 bis 10 Tagen. Eine Istanalyse sollte mit einer Gesamtübersicht abgeschlossen werden. Zahlen, Daten, Fakten (ZDF) stellen den Ausgangszustand für Verbesserungsmöglichkeiten dar, denn nur dann ist auch ein wirklicher Vergleich zwischen einem alten und einem neuen Zustand möglich. Der Istanalyse schließt sich eine Potenzialanalyse an. Dabei soll darauf verwiesen werden, welche Flächen, Wege und Bestände gesenkt und wie die Wertschöpfung insgesamt verbessert werden kann. Abbildung 3:
Vorläufige Potenzialabschätzung und Sollkonzept
x
Reduzierung der Fläche — Zusammenführen der 3 Arbeitsplätze (81 m³ Fläche)
x
Kürzere Wege — 65m Laufweg/Stuhl reduzieren
x
Erhöhung der Wertschöpfung — derzeit 43% Wertschöpfung
x
Bestandssenkung — momentan über 14.000 EUR gebundenes Kapital
Variante 1: Teilesatzwagen Bereitstellung der Tagesproduktion von zwölf Stühlen mittels eines Teilesatzwagens. Vorkommissionierung durch die Logistik. + Der Werker erhält die benötigten Montageteile auf zwei Wagen, pro Wagen 6 Stühle. + Die Tätigkeit des Kommissionierens wird in die Logistik verlagert. + Klare Trennung von Wertschöpfung und vorbereitenden Tätigkeiten. + Verringerung der Zykluszeit (-13%), der Wege (-80%) und des Platzbedarfs (-30%). + Bestandsreduzierung durch Verringerung der Losgrößen. + Enorme Werschöpfungssteigerung um ca. 30%. –
Investition in Teile-Satzwagen und in Überzug eines neuen Bezugstisches (ca. 1.600 EUR). – Große Teile (Rückenlehnen, Sitzschalen, Fußgestelle) lagern noch am Arbeitsplatz. – Bereitstellung in Logistik verlagert (Zeitaufwand geschätzt max. 1h).
Studenten-Kaizen-Workshops als Lehrelement der Produktionswirtschaft
63
Bei der Erarbeitung von Lösungen sollten mindestens zwei bis drei Alternativen angeboten werden, damit der Lösungs- und Entscheidungsspielraum für die Planer größer wird, denn diese müssen bei solchen Konzeptworkshops auf der Basis der Workshopergebnisse die weitere Ausarbeitung durchführen. Ein einfaches Layout der Montagezelle sollte aufzeigen, wie der Montageablauf gestaltet werden kann. Die Layoutgestaltung von einfachen Fertigungszellen zielt darauf ab, die Bearbeitungszeiten durch die Reduzierung von Wege- und Handlingzeiten zu senken und dadurch eine höhere Produktivität zu erzielen, ohne dass eine Leistungsverdichtung notwendig ist. (Die Mitarbeiter arbeiten effektiver, nicht schneller.) In der Abbildung 4 sehen Sie einen Vergleich eines Ist-Layouts und eines Soll-Layouts. Im Ist-Zustand ist keine Montage-Ablaufstruktur auch nur im Ansatz sichtbar; es sind viele Rückwärtsbewegungen erkennbar, der Mitarbeiter verliert damit sehr viel Zeit. Im Sollablauf hingegen ist ein gerichteter Fluss zu erkennen. Abbildung 4:
Neues Montagelayout (nicht maßstäblich)
Layout alt: Wege 65m
Fläche: 81 qm
Layout neu: Wege 9,6 m
Fläche: 27 qm
Welche Möglichkeiten sich aus den Verbesserungen ergeben können, ist in einer abschließenden Gegenüberstellung aufgeführt. Dies erleichtert es den Unternehmen, die Umsetzung der Projekte nicht nur mit qualitativen, sondern auch mit quantitativen Argumenten besser vorzubereiten.
64
Karl Maisch
Tabelle 2: Verbesserungspotenziale
Weg (Stuhl) Bestand Fläche Durchlaufzeit Wertschöpfung
3
Ist
Soll
Differenz
65 m 14931 € 81 qm 16,81 min 43 %
9,6 m 2208 € 27 qm 12,9 min 57 %
45,4 m 12723 € 54qm 3,91 min 14 %
Veränderung in % – 85 % – 85 % – 67 % – 24 % + 32 %
Zusammenfassung
Studenten-Kaizen-Workshops sind jeweils zweitägige Veranstaltungen mit Studenten in Unternehmen, bei denen vorgegebene Themen nach einem standardisierten Ablauf bearbeitet werden. Es wurde gezeigt, wie solche Workshops aufgebaut sind und welcher Dramaturgie sie folgen. Es wurden die wichtigsten Methoden und Instrumente vorgestellt, mit denen in den Workshops gearbeitet wird. Die Themen konzentrieren sich bislang auf die Bereiche der Montage einfacher Produkte, auf die Produktion und die Logistik. Komplexe Vorhaben sind mit den Workshops nicht zu bearbeiten. In den indirekten Bereichen wie der Arbeitsvorbereitung oder der Produktionsplanung konnten bislang noch keine Unternehmen für einen Workshop gewonnen werden. Die Schwäche der Workshops ist die kurze Bearbeitungszeit sowie die Tatsache, dass immer wieder Unternehmen überzeugt werden müssen, solche Workshops in ihren Unternehmen durchzuführen. Deshalb können die Workshops nicht mit verbindlicher Zusage in ein festes Lehrangebot eingefügt werden. Die Studenten lernen, mit wenigen Methoden und Instrumenten wirksame Projekte aus der Praxis innerhalb eines sehr kurzen Zeitraumes in einem Arbeitsteam zu bearbeiten. Der Göttinger Neurobiologe Hüther beschreibt sehr treffend, wie sich die Studenten während des Workshops fühlen und mit welcher Begeisterung sie an den Workshop teilnehmen: „Es gibt kein stärkeres Bedürfnis der Menschen, als das, dass sie sich als selbstwirksam erfahren wollen. Die Grundlage dafür entsteht in der frühen Kindheit. Schulunterricht, Studium oder Berufsausbildung oder die Weiterbildung am Arbeitsplatz – an keiner Stelle ist gewährleistet, dass diese alte Erfahrung aufgefrischt wird. Vielmehr muss man alle möglichen Dinge machen, ohne dass man etwas bewirken kann – und man lernt, sein Fühlen vom
Studenten-Kaizen-Workshops als Lehrelement der Produktionswirtschaft
65
Denken und oft auch vom Handeln abzuspalten“23. Diese Erfahrung der Selbstwirksamkeit, wie es Hüther zum Ausdruck bringt, kann durch solche Workshops gestützt werden. In eine ähnliche Richtung weisen die Forderungen von Toyota Managern, die sich mit der Arbeitsplatzgestaltung und dem Veränderungsmanagement befassen. Sie sprechen in diesem Zusammenhang von Quickening Factory24 und meinen dabei, dass Maßnahmen, die Mitarbeiter in relativ kurzer Zeit mit recht großem Erfolg selbst durchführen können, die Motivation sehr viel stärker fördern als lange Planungsprojekte, die durch die Planungsabteilungen durchgeführt werden.
Literatur Corbett, S. (2007): Beyond manufacturing, in: The evolution of lean production, The McKinsey Quarterly, Heft 3/2007, S. 95. Dombrowski, Uwe et. al. (2008): GPS Einführung bei laufender Produktion, in: Industrial Engineering, Heft 1/2008, S. 8-13. Drew, J./McCallum, B./Roggenhofer, S. (2005): Unternehmen Lean – Schritte zu einer neuen Organisation, Frankfurt 2005. Hüther, G. (2009): Wo man noch wirklich etwas gestalten kann, in: Focus, Heft 23/2009, S. 82. Horikiri, T. (2008): Total TPS, in: Production Systems, Management Circle 2008. Liker, J. K. (2007a): Der Toyota Weg, 2. unveränderte Auflage, München 2007. Liker, J. K. (2007b): Praxisbuch - Der Toyota Weg, 1. Auflage, München 2007. Ohno, T. (1993): Das Toyota Produktionssystem, 1. Auflage, Frankfurt, New York 1993. Rother, M./Shook, J. (2003): Learning to See – Value-Stream Mapping to Create Value and Eliminate Muda, Version 1.3, Brookline 2003. Shingo, S. (1993): Das Erfolgsgeheimnis der Toyota Produktion, 2. Auflage, Landsberg/Lech 1993. Takeda, H. (2006): Das synchrone Produktionssystem: Just-in-time für das ganze Unternehmen, 5. aktualisierte Auflage, Landsberg am Lech 2006. Womack, J. P./Jones, D. T. (2004): Lean Thinking - Ballast abwerfen, Unternehmensgewinne steigern, 1. Auflage, Frankfurt 2004. Womack, J. P./Jones, D. T./Roos, D. (1992): Die zweite Revolution in der Autoindustrie: Konsequenzen aus der weltweiten Studie aus dem Massachusetts Institute of Technology, 3. Auflage, Frankfurt 1991. Zäpfel, G. (2001): Grundzüge des Produktions- und Logistikmanagement, 2. Auflage, München/Wien 2001.
23 24
Hüther (2009), S. 82 f. Vgl. Horikiri (2008) S. 5 f.
Die Globalisierung der Personalfunktion – Das Projekt „Transforming Human Resources“ des Bayer-Konzerns
Jan H. Peters / Markus Siebenmorgen
1
Einleitung
Die Personalfunktion gewinnt als Faktor für den Unternehmenserfolg zunehmend an Bedeutung. Wichtige Themenfelder, die über die künftige Wettbewerbsfähigkeit in einer globalisierten Wirtschaft entscheiden, liegen in der Verantwortung des Personalressorts. Das Spektrum der strategischen Herausforderungen reicht von den Auswirkungen des demographischen Wandels über die Positionierung als attraktiver Arbeitgeber im weltweiten Wettbewerb um qualifizierte Mitarbeiter bis hin zu neuen Anforderungen an die Personalentwicklung und die betriebliche Weiterbildung. Die klassischen Aufgaben des Personalmanagements treten darüber jedoch nicht in den Hintergrund, sondern müssen vielmehr gestiegenen Anforderungen an ihre Qualität und Kosteneffizienz genügen. In einem weltweit operierenden Unternehmen können diese Ziele und Prioritäten nur dann effektiv verfolgt werden, wenn die Personalfunktion organisatorisch der globalen Aufstellung des Gesamtkonzerns folgt und damit in die Lage versetzt wird, die erforderliche internationale Wettbewerbsfähigkeit auch im Bereich Human Resources (HR) zu gewährleisten. Bayer hat daher im Jahr 2005 mit dem konzernweiten Projekt „Transforming Human Resources“ (THR) damit begonnen, seinen Personalbereich weltweit neu auszurichten. Der vorliegende Beitrag erläutert Entstehung, Strategie und Ausführung des Projekts, das derzeit im internationalen Vergleich zu den ambitioniertesten Vorhaben seiner Art zählt. Das Projekt ist zugleich ein signifikantes Beispiel für Innovation und Internationalisierung im Personalwesen eines global operierenden Unternehmens und veranschaulicht die damit verbundenen Perspektiven für eine zukunftsorientierte Personalarbeit.
68 2
Jan H. Peters / Markus Siebenmorgen Entstehung des Projektauftrags
Im Jahr 2002 wurde der Bayer-Konzern grundlegend umstrukturiert. Den Abschluss dieser strategischen und organisatorischen Neuausrichtung bildete die Ausgliederung des klassischen Chemiegeschäfts in die spätere Lanxess AG und deren Börsengang im Januar 2005. Seither konzentriert sich der Bayer-Konzern weltweit auf seine Kernkompetenzen auf den Gebieten Gesundheit, Ernährung und hochwertige Materialien. Die wirtschaftlichen Aktivitäten sind in den drei Teilkonzernen HealthCare, CropScience und MaterialScience gebündelt, die in ihren Bereichen jeweils eine führende Marktposition einnehmen. Die zentralen Servicefunktionen sind in drei Dienstleistungsgesellschaften zusammengefasst: Bayer Business Services, Bayer Technology Services und Currenta. Die Teilkonzerne und Servicegesellschaften arbeiten eigenverantwortlich unter der Führung einer Managementholding, der Bayer AG mit Sitz in Leverkusen. Sie definiert die gemeinsamen Werte, Ziele und Strategien des gesamten Konzerns. Der Konzernvorstand wird bei der strategischen Führung des Unternehmens vom Corporate Center unterstützt (Abb. 1). Im Jahr 2008 beschäftigte Bayer in 316 Konzerngesellschaften auf fünf Kontinenten insgesamt 108.600 Mitarbeiter und erzielte einen Umsatz von 32,9 Mrd. Euro. Abbildung 1:
Die Organisationsstruktur des Bayer-Konzerns seit 2005
Die Globalisierung der Personalfunktion
69
Nach der erfolgreich vollzogenen Neuausrichtung wandte sich der Konzern ab 2004 der Verbesserung seiner operativen Performance zu. Ein Programm zur Effizienzsteigerung in den Verwaltungsfunktionen (General & Administrative Functions, G&A) sollte hauptsächlich in den Bereichen Informationstechnologie, Rechnungswesen, Finanzen und Controlling sowie Personal mögliche Einsparpotentiale und Verbesserungsmöglichkeiten identifizieren und anschließend realisieren. Zu Beginn des G&A-Projekts nahm die Unternehmensberatung Hackett eine Benchmark-Analyse von zwanzig global operierenden Industrieunternehmen vor. Die Vergleichsstudie umfasste die 21 größten Bayer-Landesgesellschaften, die insgesamt rund 80 Prozent des Umsatzes erwirtschaften. Für den BayerPersonalbereich ergab der Wettbewerbsvergleich, dass sowohl seine Kosten als auch die Anzahl des dort eingesetzten Personals im Verhältnis zur Gesamtbelegschaft teilweise deutlich oberhalb des Durchschnitts der untersuchten Unternehmen lagen. Unabhängig von den Ergebnissen der Benchmark-Analyse zeigte eine etwa zeitgleich durchgeführte Mitarbeiterbefragung zur Qualität der Personaldienstleistungen im Unternehmen ebenfalls dringenden Handlungsbedarf auf. Auch diese Erhebung bestätigte, dass die überkommenen Strukturen des Personalbereichs als zu komplex und zu ressourcenintensiv bewertet wurden und den gewandelten Bedürfnissen des erneuerten Unternehmens insgesamt nicht mehr gerecht wurden. Kritisiert wurde von den Kunden des Personalwesens zudem, dass dessen Dienstleistungen zu langsam erbracht und wenig pragmatisch seien. Angesichts der offenkundigen Defizite bestand innerhalb des Konzerns ein breiter Konsens, die Personalfunktion grundlegend neu auszurichten. Das nach einem entsprechenden Beschluss des Konzernvorstands initiierte Projekt „Transforming Human Resources“ erhielt den Auftrag, die Personalfunktion konzernweit so zu reorganisieren, dass deren Wertbeitrag zum operativen Geschäftserfolg erhöht und die Qualität und Effizienz ihrer Dienstleistungen gesteigert werden. Im Mai 2005 nahm die globale Projektorganisation in Leverkusen ihre Arbeit auf.
3
Konzept und Entwicklung des neuen HR-Funktionsmodells
Die internationale Diskussion über die konzeptionelle und funktionale Weiterentwicklung der Personalfunktion wird seit Ende der neunziger Jahre maßgeblich durch die Ideen des amerikanischen Wirtschaftswissenschaftlers und Unternehmensberaters Dave Ulrich bestimmt. In seinem 1996 erschienen Werk „Human
70
Jan H. Peters / Markus Siebenmorgen
Resource Champions“1 legte Ulrich erstmals dar, dass die Wertschöpfung im Personalwesen häufig zu gering sei. Zur Überwindung dieses Defizits schlug Ulrich vor, die Personalfunktion solle sich zum „strategischen Partner“ des Managements entwickeln und ihre Strukturen und Arbeitsprozesse an den Bedürfnissen des operativen Geschäfts ausrichten. Zur praktischen Umsetzung dieses Innovationskonzepts entwarf Ulrich vier einander ergänzende Rollenprofile, die eine solchermaßen modernisierte HROrganisation idealerweise abdecken sollte und die seither das sogenannte „Ulrich-Modell“ bilden: Den „Strategic Partner“, der die Strategien von HR und dem operativen Geschäft aneinander angleicht, den „Administrative Expert“ als Spezialist für die effiziente Abwicklung von Personalprozessen, den im unmittelbaren Kontakt mit den Mitarbeitern stehenden „Employee Champion“ sowie den „Change Agent“, der Veränderungsprozesse im Unternehmen begleitet und steuert. Die Grundannahmen, Anregungen und Zielvorstellungen des „UlrichModells“ waren die wichtigsten theoretischen Grundlagen bei der Entwicklung des neuen HR-Funktionsmodells für den Bayer-Konzern. Als stark akademisch geprägtes Konzept konnte es jedoch naturgemäß nicht sämtliche praktischen Anforderungen an die künftige Personalfunktion des Unternehmens realitätsnah abbilden. Bayer entschloss sich daher, die in dem Modell definierten Rollen an seine Bedürfnisse anzupassen und in ein neuartiges Funktionsmodell für das gesamte Unternehmen zu integrieren (s. auch Abb. 3). Dieses besteht aus vier Säulen und beinhaltet die folgenden Funktionen:
1
Ulrich (1996).
Die Globalisierung der Personalfunktion Abbildung 2:
71
Das neue HR-Funktionsmodell des Bayer-Konzerns
3.1 HR-Intranetportal Die erste Säule des neuen Funktionsmodells bildet das Mitarbeiterportal HR//direct online. Über diese weltweit zugängliche Intranetplattform werden die Beschäftigten aller Unternehmensbereiche und Hierarchieebenen direkt erreicht und in die Personalarbeit eingebunden. Mit den darin integrierten Self-ServiceApplikationen können die Mitarbeiter selbstständig ihre Personaldaten verwalten, Prozesse anstoßen und wichtige persönliche Informationen einsehen. In HR//direct online können Beschäftigte beispielsweise jederzeit ihre Privatanschrift oder Bankverbindung ändern, ihre Arbeitszeitdaten kontrollieren und verwalten, Trainings buchen, auch rückwirkend ihre Entgeltabrechnung einsehen und ausdrucken oder Urlaub beantragen. Ein weiterer Vorteil des Intranetportals ist die Möglichkeit, Anwendungen und Informationen rollenspezifisch ausgestalten zu können. Dies erlaubt es, SelfServices speziell für Mitarbeiter (Employee Self Services, ESS) und für Führungskräfte (Manager Self Services, MSS) einzurichten, die genau auf die jewei-
72
Jan H. Peters / Markus Siebenmorgen
ligen Aufgaben und Kompetenzen innerhalb eines Prozesses zugeschnitten sind. Die Beschäftigten an einem Bildschirmarbeitsplatz können das Intranetportal über ihren Dienst-PC aufrufen, Mitarbeiter in einem Produktionsbetrieb nutzen die Services des HR-Portals über eines der zentral aufgestellten und einfach zu bedienenden Kiosk-Terminals. HR//direct online wird weltweit stets in den jeweiligen Landessprachen sowie in Englisch angeboten.
3.2 HR-Shared Service Center HR//direct ist als das HR-Shared Service Center (SSC) die zweite Säule des Bayer-Personalmanagements und übernimmt in dem neuen Funktionsmodell die Rolle des „administrativen Experten“. An die dortigen Mitarbeiter können von den Beschäftigten Anfragen per E-Mail, Post, Fax oder Telefon gerichtet werden. Bei HR//direct sind HR-Generalisten für den Erstkontakt und HRSpezialisten für besondere Anfragen und Aufgaben unter einem Dach vereint. Während die Generalisten rund 80 Prozent der Anfragen über das Front Office abwickeln sollen, werden die komplexeren Themen durch die HR-Spezialisten im Back Office abgedeckt. Die HR-Shared Service Center sind als zentrale Serviceeinheit für das globale Personalmanagement konzipiert, in denen die administrativen Prozessanteile schnell, effizient und kundenorientiert abgewickelt werden. Mit ihnen können internationale und unternehmensweite Personaldienstleistungen kosteneffizient und zugleich in höherer Qualität bereitgestellt werden. In den Aufgabenbereich der HR-Generalisten fallen dabei hauptsächlich wiederkehrende und standardisierte Aufgaben wie etwa Entgeltabrechnungen, Urlaub oder Trainingsbuchungen. Einem Großteil der Anfragen der Mitarbeiter kann so bereits im Front Office mit grundlegenden Auskünften zu Standardvorgängen begegnet werden. Handelt es sich um individuelle Anfragen oder komplexere Sachverhalte, werden die Fachleute aus dem Back Office eingebunden. Dort wird eine spezifische HR-Expertise vorgehalten, um auch Sonderfälle, etwa Regelungen bei Auslandsaufenthalten oder auch weitergehende Auslegungen der HR-Richtlinien, zügig beantworten zu können.
3.3 HR-Center of Expertise Die dritte Säule bildet das sogenannte Center of Expertise, dessen hoch spezialisierte Personalfachleute die Rolle des „strategischen Partners“ wahrnehmen. Das Center of Expertise entwickelt und verantwortet die HR-Prozesse des Gesamtmodells. Es bildet den fachlichen Kern der neuen Personalfunktion und bündelt
Die Globalisierung der Personalfunktion
73
weltweit die Kompetenz zu allen relevanten Personalfragen. Gleichzeitig ist das Center of Expertise Ansprechpartner für die Weiterentwicklung des Funktionsmodells und der Prozesse, entscheidet über etwaige Veränderungen und Anpassungen und gestaltet so die HR-Strategie des Konzerns aktiv mit. Dort werden Instrumente und Prozesse für das Personalmanagement konzipiert, die die Geschäfts- und Konzernstrategie wirkungsvoll unterstützen. Die globale Prozessverantwortung (process ownership) erfordert eine hohe internationale Kompetenz in den jeweiligen Personalfragen, erlaubt aber zugleich eine konsistente und unternehmensweite Regelung zentraler Richtlinien und Vorgehensweisen.
3.4 HR-Business Partner Die HR-Business Partner vereinen als vierte Säule des Bayer-Modells in sich die Rollen des „Employee Champions“ und des „Change Agent“. Sie sind eingebettet in das operative Geschäft und stehen den dortigen Managern als strategische Berater zur Seite. Die Position des HR-Business Partners – und damit die strategische Beratungsleistung durch Personalexperten – ist das unmittelbare Ergebnis der Verlagerung von administrativen Tätigkeiten in das Shared Service Center. Die dadurch gewonnenen Kapazitäten können nun auf die umfassende Beratung an der Schnittstelle zwischen Geschäftsfeld- und Personalstrategie verwandt werden. Abbildung 3:
Adaption des „Ulrich-Modells“ in der Personalfunktion des Bayer-Konzerns
74 4
Jan H. Peters / Markus Siebenmorgen Voraussetzungen zur Neugestaltung der Personalfunktion
Um dieses Funktionsmodell und die in ihm vorgesehenen Rollen und Aufgaben in der Praxis zu implementieren, waren verschiedene vorbereitende Maßnahmen und Veränderungen erforderlich. Diese umfassten im Einzelnen die folgenden Bereiche:
4.1 Neugliederung der HR-Organisation Die Personalfunktion war im Bayer-Konzern von 1971 bis 2001 als zentraler Servicebereich organisiert. Der seinerzeitige „Zentralbereich Personal“ konnte seinem schon damals bestehenden globalen Steuerungsanspruch jedoch aus unterschiedlichen Gründen nur bedingt entsprechen. Seine Organisation war einerseits stark administrativ und deutschlandlastig ausgerichtet, andererseits waren die vielen parallel existierenden dezentralen Einheiten nicht über einheitliche Prozesse miteinander verbunden. Der Konzernumbau im Jahr 2002 brachte mit der Einrichtung eigener Personalleitungen in den neugeschaffenen Teilkonzernen und Servicegesellschaften sowie der Etablierung einer HR-Community eine weitere Dezentralisierung mit sich, ohne allerdings den administrativen Schwerpunkt der Personalorganisation zu verändern. Im Zuge des THR-Projekts wurde die Personalfunktion organisatorisch grundlegend optimiert. Die strategisch-konzeptionellen und administrativen Funktionsbereiche wurden in Gestalt des Centers of Expertise und der Shared Service Center zentralisiert, während die strategisch-beratenden Tätigkeiten in Form der geschäftsnah operierenden Business-Partner-Organisation dezentralisiert wurden. Diese Organisationsstruktur ermöglicht über die im neuen Funktionsmodell angelegte fachlich-prozessuale Führungsbeziehung erstmals eine effektive zentrale Steuerung der gesamten Personalfunktion des Konzerns (s. Abb. 4). Durch die nunmehr stark arbeitsteilig strukturierte HR-Organisation gelang es zudem, in wichtigen Bereichen Synergieeffekte zu erzielen, und zwar einerseits durch die Bündelung der administrativen Tätigkeiten im Shared Service Center (Synergies of Scale) und andererseits durch die Konzentration der konzeptionell-strategischen Arbeit im Center of Expertise (Synergies of Scope). Neben wirtschaftlichen Vorteilen durch einen langfristig geringeren Personalbedarf schaffte die vorgenommene Konzentration von Tätigkeiten und Kompetenzen in zentralen Einheiten überdies die organisatorischen Voraussetzungen für die im Rahmen des Projekts ebenfalls angestrebte weitgehende Standardisierung von Personalprozessen und -instrumenten.
Die Globalisierung der Personalfunktion Abbildung 4:
Organisation der Personalfunktion seit Oktober 2006
75
76
Jan H. Peters / Markus Siebenmorgen
4.2 Standardisierung der Personalprozesse Die vergleichsweise geringe Effizienz der bisherigen Personalorganisation war maßgeblich auf den geringen Standardisierungsgrad der in ihr angewandten Verfahrensweisen und Methoden zurückzuführen. Die daraus resultierende Komplexität verhinderte eine länder- und gesellschaftsübergreifende Anwendung einheitlicher Prozesse und damit auch die Schaffung wirtschaftlicher Strukturen für deren administrative Abwicklung. Eine der wichtigsten Aufgaben des Projekts bestand daher in der grundlegenden Vereinfachung und Standardisierung aller relevanten Personalprozesse. Als Ergebnis einer umfassenden Bestandsaufnahme wurden zunächst 28 zentrale Personalprozesse identifiziert und nach ihrem Standardisierungspotenzial einer von drei Kategorien innerhalb eines globalen Prozessmodells zugeordnet (s. Abb. 5): 1.
2.
3.
Globale Prozesse mit einem weltweit einheitlichen Prozessdesign. Neben dem Organisationsmanagement (OM), das die Grundlage für nahezu sämtliche Personalprozesse bildet, zählen hierzu weitere wichtige Prozesse wie das Performance Management, die jährliche Entgeltanpassung (Merit Increase) sowie die Systeme zur kurzfristigen und langfristigen Mitarbeiterbeteiligung am Unternehmenserfolg (STI bzw. LTI). Kernprozesse mit einer konzernweit einheitlichen Grundstruktur, die jedoch in Teilbereichen an lokale Gegebenheiten und rechtliche Erfordernisse angepasst sind. So musste beispielsweise in Frankreich die bei betrieblichen Fortbildungsmaßnahmen gesetzlich vorgeschriebene Beteiligung der Arbeitnehmervertreter im Trainingsprozess berücksichtigt werden. In den Vereinigten Staaten wurde das Design des Recruiting-Prozesses um die dort erforderlichen Antidiskriminierungsmaßnahmen ergänzt. Unterschiedliche Rechtsgrundlagen machten häufig auch lokale Anpassungen in den Verfahrensweisen bei der Entgeltabrechnung (Payroll) nötig. Lokale Prozesse, die sich in ihrer Gestaltung an den spezifischen Erfordernissen vor Ort orientieren und daher nur ein geringes Potenzial zur Standardisierung aufweisen. Hierzu zählen beispielsweise die Verfahren zur Gewährung von Nebenleistungen (Benefits), nationale Aktien-Beteiligungsprogramme, lokale Angebote zur Verbesserung der betrieblichen Altersvorsorge (Deferred Compensation und Matching Contribution) oder auch die Betreuung von schwerbehinderten oder längerfristig erkrankten Mitarbeitern (Employee Assistance).
Die Globalisierung der Personalfunktion
77
Die ausgewählten Prozesse wurden anschließend in ihrem Ablauf wesentlich vereinfacht und in ihrer prinzipiellen Struktur vereinheitlicht. Ziel war es dabei stets, die Prozesse so schlank und damit so effizient wie möglich zu gestalten. So wurde beispielsweise immer dort, wo innerhalb eines Verfahrensablaufs davon ausgegangen werden kann, dass sich Mitarbeiter und Vorgesetzter bereits vorab persönlich über einen bestimmten Vorgang, etwa einen Urlaubsantrag oder eine Weiterbildungsmaßnahme, ausgetauscht und verständigt haben, auf die bislang obligatorische schriftliche Genehmigung mittels entsprechender Formularvordrucke (hard approval) zugunsten einer lediglich formalen elektronischen Bestätigung verzichtet. Auf diese Weise ist es gelungen, die Personalprozesse im Bayer-Konzern weitgehend zu standardisieren und dabei eine größtmögliche Internationalität mit der Berücksichtigung lokaler Erfordernisse zu vereinen. Die deutlich verringerte Komplexität macht die Personalarbeit für Mitarbeiter und Führungskräfte einerseits transparenter und in ihren Abläufen nachvollziehbarer und erlaubt es der Personalfunktion andererseits, ihre Dienstleistungen schneller zu erbringen. Standardisierte Prozesse sind zudem eine entscheidende Voraussetzung für die Konzentration von administrativ-transaktionalen Tätigkeiten in einem Shared Service Center und der sich daraus ergebenden Skaleneffekte. Abbildung 5:
Das globale Prozess-Modell der neuen Personalfunktion
78
Jan H. Peters / Markus Siebenmorgen
Die weltweite Vereinheitlichung der Personalprozesse ermöglichte zugleich den Aufbau einer globalen IT-Infrastruktur, der technischen Basis des neuen HRFunktionsmodells. Abbildung 6:
Neun zentrale Personalprozesse werden künftig in 72 Ländern identisch ausgeführt
4.3 Aufbau einer globalen IT-Infrastruktur Die IT-Infrastruktur des Personalbereichs war in der Vergangenheit entsprechend ihrer weltweit diversifizierten Organisation sehr heterogen. Die Länderorganisationen und sogar einzelne Gesellschaften unterhielten jeweils eigene Systeme, die aufgrund fehlender gemeinsamer Standards und Prozesse nicht miteinander harmonisiert und verbunden waren. Im Zuge des THR-Projekts wurde schrittweise eine weltweit einheitliche IT-Plattform aufgebaut, über die künftig das gesamte Personalmanagement des Bayer-Konzerns abgewickelt wird. Aufgrund seiner umfangreichen Anwendungsmöglichkeiten und Schnittstellen zu anderen Systemen wurde SAP ERP Human Capital Management (SAP ERP HCM) als Basis des neuen Systems ausgewählt. Diese HCM-Lösung wird von Bayer Business Services fortlaufend an die spezifischen Bedürfnisse und Prozessdesigns des neuen HR-Funktionsmodells angepasst und wird intern als „Globales HR-Produktivsystem“ (GHP) bezeichnet. Das GHP ist weltweit permanent über alle Zeitzonen hinweg produk-
Die Globalisierung der Personalfunktion
79
tiv und wird als globale IT-Plattform von mehreren Standorten in Europa, Asien und Amerika aus betreut und gewartet. Abbildung 7:
Hebel und Voraussetzungen der Transformation der BayerPersonalfunktion
Das GHP und das in ihm verwendete einheitliche Datenmodell bilden die technischen Voraussetzungen für die globale Personalfunktion und die in ihr vorgesehenen Prozesse. Das System bietet vielfältige Möglichkeiten für die Integration rollenspezifischer Self-Service-Applikationen im Mitarbeiterportal HR//direct online und schafft die Grundlagen für ein weltweites HR-Reporting mit einer bislang unbekannten Datenqualität und -tiefe. Ein Beispiel dafür ist das globale Organisationsmanagement, in dem sowohl die einzelnen Organisationseinheiten und Stellen im Konzern als auch nahezu sämtliche Mitarbeiter mit ihren unterschiedlichen Führungsbeziehungen, Berichtslinien und Berechtigungen innerhalb der Organisation erfasst und dokumentiert sind. Da die gesamte Personalfunktion des Bayer-Konzerns künftig auf nur noch einer zentralen IT-Plattform basieren wird, können in großem Umfang Betreuungs- und Entwicklungskosten sowie Ausgaben für IT-Hardware und Software-
80
Jan H. Peters / Markus Siebenmorgen
lizenzen eingespart werden. Das weltweit einheitliche System vereinfacht überdies die erforderliche Qualitätssicherung und erleichtert es dem Unternehmen, gesetzlichen Berichtspflichten und Compliance-Bestimmungen zu entsprechen.
5
Projektführung und Meilensteine
Nachdem der Beschluss zur Neuausrichtung der Personalfunktion feststand, wurden im Frühjahr 2005 die erforderlichen konzeptionellen, organisatorischen und technischen Vorbereitungen zur Einführung des neuen Funktionsmodells eingeleitet. Eine wichtige Entscheidung in dieser frühen Projektphase betraf den Standort und die wirtschaftlichen Rahmenbedingungen der in der Personalorganisation künftig vorgesehenen HR-Shared Service Center. Der globalen Ausrichtung des Projekts entsprechend wurden weltweit mehrere mögliche Standorte ausgewählt und auf ihre Eignung geprüft. Obwohl Barcelona und Costa Rica im Vergleich deutliche Kostenvorteile aufwiesen, entschied sich das Unternehmen, die Shared Service Center für Europa und Nordamerika an den jeweiligen Konzernzentralen in Leverkusen und Pittsburgh anzusiedeln. Ausschlaggebend dafür waren neben dem politischen Bekenntnis zu den traditionellen Kernstandorten auch die räumliche Nähe zum Center of Expertise und der HR-Leitung sowie die Absicht, möglichst viele erfahrene Mitarbeiter aus der bisherigen Personalorganisation in die neuen Strukturen zu übernehmen und so einen kritischen Knowhow-Verlust zu vermeiden. Um gleichwohl wettbewerbsfähige Kostenstrukturen für den Betrieb der Shared Service Center zu schaffen, wurde mit der Bayer Direct Services (BDS) eigens eine neue Servicegesellschaft gegründet. Über einen Haustarifvertrag mit einer innovativen Entgeltstruktur konnte für HR//direct ein marktübliches Vergütungsniveau erreicht werden. Die BDS wurde gesellschaftsrechtlich so konzipiert, dass unter ihrem Dach zu einem späteren Zeitpunkt bei Bedarf auch Servicefunktionen anderer Unternehmensbereiche angesiedelt werden können. Durch den Abschluss von Leistungsverrechnungsvereinbarungen (Service-LevelAgreements) mit den einbezogenen Konzerngesellschaften wurde schließlich die transparente Finanzierung der künftigen Personalfunktion geregelt. Nachdem im Laufe des Jahres 2006 die künftigen Leiter und Mitarbeiter der neuen Personalorganisation ausgewählt und ernannt worden waren und die übrigen Vorarbeiten ebenfalls zügig voranschritten, konnte die Projektorganisation dazu übergehen, die effektive Einführung des neuen Funktionsmodells im Unternehmen (Go-live) vorzubereiten. Da eine vollständige Umstellung der HROrganisation zu einem bestimmten Zeitpunkt („Big Bang“) angesichts der Komplexität der Transformation als Projektstrategie von vornherein ausschied, ent-
Die Globalisierung der Personalfunktion
81
schied sich die Projektorganisation, die neuen Strukturen und Prozesse schrittweise im Unternehmen einzuführen. Die Implementierung des neuen Funktionsmodells begann am 1. Oktober 2006 mit vier Konzernführungsgesellschaften in Deutschland und ihren rund 15.000 Beschäftigten; Bayer CropScience (BCS) folgte nach der Fusion mit der aus der früheren Aventis CropScience hervorgegangenen deutschen Tochtergesellschaft im Mai 2007. Gleichzeitig nahmen auch das Shared Service Center in Leverkusen, das Center of Expertise und die Business Partner in den einbezogenen Unternehmen ihre Arbeit auf. Die Projektplanung sah zunächst vor, das neue Modell in drei Wellen innerhalb eines Jahres in den größten Konzerngesellschaften an den deutschen Hauptstandorten einzuführen. Den Auftakt machte ein Cluster von vierzehn Personal- und Subprozessen. Im weiteren Projektverlauf zeigte sich jedoch, dass dieser Zeitplan zu ambitioniert war, um der Organisation die neuen Prozesse in der erforderlichen Qualität und Zuverlässigkeit bereitzustellen. Daher entschloss sich die Projektführung nach der zweiten Welle, in deren Verlauf im Mai 2007 zehn weitere Prozesse eingeführt wurden, das Tempo der Transformation zugunsten einer höheren Praxisreife der neugestalteten Prozesse zu verringern. Seither folgt das Projekt der noch immer anspruchsvollen Maßgabe, etwa alle drei Monate einen weiteren Meilenstein in Form einer Prozesseinführung oder der Einbeziehung (Roll-in) einer Landesorganisation oder Konzerngesellschaft in das neue Funktionsmodell zu erreichen. Die Anpassung der Projektstrategie nach den ersten praktischen Erfahrungen mit dem neuen Modell führte zu einer deutlichen Stabilisierung des Projektverlaufs und erhöhte die interne Akzeptanz für das gesamte Vorhaben. In den folgenden Monaten wurden schließlich sukzessive alle geplanten Meilensteine erreicht, so dass die Transformation in Deutschland im Frühjahr 2009 erfolgreich abgeschlossen werden konnte. Höhepunkte des Projekts in Deutschland waren im November 2008 die Einbeziehung von fünf inländischen Beteiligungsgesellschaften mit insgesamt 2.500 Mitarbeitern sowie die Einführung des Funktionsmodells in der Bayer Schering Pharma AG mit ihren rund 6.500 Beschäftigten im Januar 2009. In den Vereinigten Staaten wurde die neue HR-Organisation mit dem Shared Service Center in Pittsburgh, den Business Partnern sowie Außenstellen (Hubs) des Centers of Expertise am 1. April 2007 eingeführt. Während die globalen Prozesse dort anschließend reibungslos implementiert werden konnten, erwies sich die Harmonisierung der übrigen Personalprozesse in den USA als überaus schwierig. Die Ursachen der hohen Komplexität der dortigen Ausgangssituation lagen einerseits in einer großen Heterogenität von Standards, Richtlinien und Prozessen innerhalb der US-Organisation infolge eines vorwiegend
82
Jan H. Peters / Markus Siebenmorgen
externen Unternehmenswachstums und andererseits in der weiten geographischen Streuung der fast 70 Standorte und den daraus resultierenden unterschiedlichen gesetzlichen Vorgaben und Rahmenbedingungen in den einzelnen Bundesstaaten. Die vollständige Harmonisierung der Standards und Prozesse in den USA wird voraussichtlich bis zum konzernweiten Abschluss des Projekts andauern. Abbildung 8:
Meilensteine des THR-Projekts 2006 bis 2009
In Südamerika begann die Einführung des neuen Funktionsmodells im Januar 2008 mit den fünf Ländern der Region Cono Sur. Dabei wurden die Personalorganisationen in Argentinien, Bolivien, Chile, Paraguay und Uruguay ebenso wie deren IT-Infrastruktur grundlegend optimiert und an die neuen Strukturen angepasst; die administrativen Tätigkeiten für die rund 1.800 Mitarbeiter in diesen Ländern wurden in Buenos Aires im „Hub Cono Sur“ zusammengefasst. Da einige Personalprozesse wie Recruiting oder Training in der Region quantitativ eine zu geringe Bedeutung besitzen, um deren umfassende Standardisierung zu rechtfertigen, wurden diese Verfahren im Zuge des Projekts zwar ebenfalls effi-
Die Globalisierung der Personalfunktion
83
zienter gestaltet, ihre Administration jedoch nicht auf die globale IT-Plattform überführt. Mit Großbritannien und Spanien führten im Juni 2008 bzw. im März 2009, wie in der Projektplanung vorgesehen, zwei weitere europäische Landesorganisationen erfolgreich das neue HR-Funktionsmodell bei sich ein. Unterschiede zwischen den beiden Länderprojekten ergaben sich aus den jeweils verschieden ausgeprägten Mitbestimmungsrechten der örtlichen Arbeitnehmervertreter. Während in Großbritannien die betriebliche Mitbestimmung landesüblich eher schwach ausgebildet war, machten in Spanien weitreichende Mitspracherechte der gewerkschaftlichen Arbeitnehmervertreter bei einigen Prozessen vorwiegend aus Gründen der Besitzstandswahrung spezifische Anpassungen erforderlich. In Belgien sah sich das Projekt zunächst großen kulturellen und organisatorischen Differenzen zwischen dem Forschungsstandort in Gent, dem Verwaltungssitz in Brüssel und dem bedeutenden Produktionsstandort in Antwerpen gegenüber, die bislang jeweils autonome Personalabteilungen unterhalten hatten. In Antwerpen kam noch ein traditionell hoher gewerkschaftlicher Organisationsgrad der Belegschaft als weiteres potentielles Harmonisierungshemmnis hinzu. Dennoch gelang es auch an den belgischen Konzernstandorten, die Strukturen und Prozesse wie vorgesehen zu vereinheitlichen und die Betreuung der rund 1.400 Beschäftigten Anfang Juli 2009 an das Shared Service Center in Leverkusen zu übergeben. Mit der Einführung des neuen Funktionsmodells in Italien und Frankreich wird das Projekt in Europa im Frühjahr 2010 abgeschlossen sein. Mit Mexiko und Brasilien wendet sich das THR-Projekt im September 2009 wieder dem südamerikanischen Kontinent zu. Die Standardisierung wird sich in beiden Ländern auf ein Cluster von Prozessen aus den Bereichen Entgeltabrechnung, Benefits und Zeitwirtschaft konzentrieren. In den Vorstudien bestätigte sich die zuvor in der Region Cono Sur gemachte Erfahrung, dass die für ein transkontinentales HR-Shared Service Center erforderliche kritische Masse an Personalvorgängen in den lateinamerikanischen Ländern derzeit nicht erreicht wird. Die administrativen Tätigkeiten werden daher zunächst in beiden Ländern separat gebündelt (in-country consolidation). Langfristig ist jedoch aufgrund der weitgehend vereinheitlichen Prozesse und der kulturellen Homogenität ein gemeinsames Shared Service Center für ganz Lateinamerika durchaus denkbar. Die großen Länder des Fernen Ostens bilden nach derzeitiger Planung den Abschluss des Projekts. Eine länderübergreifende Standardisierung der dortigen Personalfunktion stellt angesichts der erheblichen sprachlichen und kulturellen Unterschiede vor allem zwischen Japan und China eine überaus komplexe Herausforderung dar. Die heute bereits erhebliche und langfristig weiter zunehmende wirtschaftliche Bedeutung der Region gebietet gleichzeitig eine Modernisierung und Anbindung der dortigen Personalarbeit an die weltweiten Konzern-
84
Jan H. Peters / Markus Siebenmorgen
strukturen. Daher ist bislang vorgesehen, in Japan und China – ähnlich wie in Südamerika – jeweils ein nationales Shared Service Center einzurichten. Südkorea könnte im Zuge der dort ohnehin anstehenden Erneuerung der HRInfrastruktur in den Projektrahmen einbezogen werden. Abbildung 9:
6
Übersicht über die weltweite Einführung des neuen HRFunktionsmodells (Stand Juli 2009)
Erfahrungen aus dem Projektverlauf
6.1 Interdependenzen innerhalb des Funktionsmodells Das neue Funktionsmodell kann seine Vorteile nur dann voll zur Geltung bringen, wenn seine Organisationseinheiten, Prozesse und seine IT-Infrastruktur jeweils genau aufeinander abgestimmt sind. Partielle oder asynchrone Eingriffe in die systemische Architektur der Personalfunktion haben aufgrund der hohen wechselseitigen Interdependenzen zwangsläufig Auswirkungen auf die Funktionsfähigkeit der gesamten Personalfunktion. Eine wichtige Erfahrung der Transformationsphase ist daher, dass Veränderungen an der Personalfunktion stets alle Funktionsbereiche einschließen und gleichzeitig erfolgen müssen. Wenn etwa Prozesse noch nicht soweit harmonisiert sind, dass ihre Abwicklung vollständig vom Shared Service Center übernommen werden kann, können auch die Busi-
Die Globalisierung der Personalfunktion
85
ness Partner nicht im vorgesehenen Maß von administrativen Aufgaben entlastet werden und folglich ihrer neuen strategisch-beratenden Funktion gegenüber dem operativen Management nicht befriedigend nachkommen. Inkonsequente Veränderungen oder Verbesserungsmaßnahmen erschweren den einzelnen Teilfunktionen die ihnen zugewiesenen Rollen optimal auszufüllen und können, auch in der Wahrnehmung der Kunden, die Leistungsfähigkeit der HR-Organisation beeinträchtigen. Diese Erkenntnis gilt es auch bei der künftigen Weiterentwicklung des Modells zu berücksichtigen.
6.2 Kommunikation und Change Management Zweifel, Vorbehalte und sogar offener Widerstand gehören vor allem in der Anfangsphase zu den normalen Begleiterscheinungen von tiefgreifenden Veränderungsprozessen in einem Unternehmen. Die Neuausrichtung der BayerPersonalfunktion stellte an das begleitende Change Management besonders hohe Anforderungen, weil von ihr nicht nur die Mitarbeiter im Personalwesen, sondern als ihre Kunden letztlich alle Beschäftigten im Konzern unmittelbar betroffen waren. Die Projektorganisation begann die Mitarbeiter daher frühzeitig und auf unterschiedlichen Wegen über die bevorstehenden Veränderungen zu informieren und auf deren praktische Auswirkungen vorzubereiten. Das Change Management wurde im Projektverlauf kontinuierlich intensiviert. Das neue HR-Funktionsmodell brachte nicht nur für die Beschäftigten in der Personalabteilung weitreichende organisatorische und geistige Veränderungen in Form neuer Rollenmuster und Arbeitsweisen; es verlangte durch die Ausweitung der Self-Services auch von den übrigen Mitarbeitern und Führungskräften des Unternehmens eine höhere Eigenverantwortung bei der Abwicklung von Personalprozessen. Die Erfahrungen in Deutschland zeigten, dass es ausdauernder Bemühungen bedurfte, um insbesondere die Manager an ihre neue aktive Rolle in für sie wichtigen Personalprozessen heranzuführen und die unter ihnen anfangs verbreiteten Vorbehalte abzubauen. Die Bandbreite der Change-Kommunikation reicht inzwischen von klassischen Broschüren und Kurzanleitungen für Self-Services über einen eigenen Intranetauftritt und zielgruppenspezifischen Informations- und Trainingsveranstaltungen bis hin zu aufwendigen Roadshows zur Vorbereitung der Transformation in einem Land oder einer Konzerngesellschaft. Auch die Konzernmedien berichteten regelmäßig über die jüngsten Projektfortschritte, griffen in ihrer Berichterstattung aber auch vereinzelte Kritikpunkte am Projektverlauf auf und förderten so in der internen Öffentlichkeit eine offene und produktive Diskussion über die Leistungen und Ziele der Reorganisation.
86
Jan H. Peters / Markus Siebenmorgen
6.3 Impulse zu Kohäsion und Internationalisierung Die konzernweite Neuausrichtung eines zentralen Unternehmensbereichs wie des Personalwesens entfaltet mit fortschreitender Dauer eine Veränderungsdynamik, die über die engeren Projektziele hinaus einen nachhaltigen Impuls zu Innovation und Internationalisierung der Personalfunktion enthält. So hat das THRProjekt in vielen Ländern bislang fest gefügte Grenzen zwischen den Personalabteilungen einzelner Gesellschaften oder Standorte aufgelöst und zur erstmaligen Entstehung einer landesweiten HR-Community geführt. Die Vereinheitlichung von Prozessen und Organisationsstrukturen leistet somit in mehrfacher Hinsicht einen wichtigen Beitrag zur Überwindung eines selbstbezogenen und innovationsfeindlichen „Silodenkens“ und fördert zugleich die gesellschaftsübergreifende Zusammenarbeit und die Kohäsion innerhalb der Personalfunktion eines Landes und letztlich des gesamten Konzerns. Ein anderes Beispiel für die weitergehende Internationalisierung von Strukturen und Instrumenten der Personalarbeit infolge des Projekts bietet die Einführung der elektronischen Personalakte im Bayer-Konzern. Nachdem sich in den Vorstudien für Großbritannien herausgestellt hatte, dass diese Dokumentationsform dort – anders als in Deutschland – nicht existierte, wurde dafür ein globales Konzept entwickelt, das an den internationalen Richtlinien und Erfordernissen ausgerichtet war. An diesen Konzernstandard für eine elektronische Personalakte wird im Zuge seiner weltweiten Implementierung, die in Kürze in den USA beginnt, später auch das deutsche Konzept angepasst.
7
Bilanz und Ausblick
Seit Oktober 2006 hat „Transforming Human Resources“ in immer mehr Konzernbereichen das Projektstadium hinter sich gelassen. Das neue HRFunktionsmodell ist seitdem für viele tausend Beschäftigte rund um den Globus gelebte Realität. Eine erste vorläufige Bilanz nach gut zweieinhalb Jahren kann mit beeindruckenden Erfolgen aufwarten: Zehn Länder arbeiten im Juli 2009 in den neuen Strukturen, HR//direct betreut aus Leverkusen mehr als 35.000 BayerMitarbeiter in vier europäischen Ländern, das HR-Shared Service Center in Pittsburgh bedient weitere 14.000 Beschäftigte in den Vereinigten Staaten. Hinzu kommen die rund 1.800 Mitarbeiter in der Südspitze Lateinamerikas, die seit 2008 aus Buenos Aires zuverlässig Personaldienstleistungen von hoher Qualität erhalten. Die finanzielle Bilanz des Projekts wird in der Transformationsphase noch stark von Restrukturierungsaufwendungen und Einmalausgaben beeinflusst; der
Die Globalisierung der Personalfunktion
87
Business Case ist jedoch weiterhin eindeutig positiv. Für die laufenden Kosten der erneuerten Personalfunktion besteht allerdings schon heute eine bislang unbekannte Transparenz, die einen der großen Vorteile des neuen Funktionsmodells darstellt. Während die Kosten des Personalwesens früher auf viele unterschiedliche Personal- und Verwaltungsfunktionen verteilt waren und kaum einzelnen Bereichen oder Prozessen zugeordnet werden konnten, sind die Ausgaben für jeden einzelnen Personalprozess jetzt vollständig transparent. Nun lassen sich endlich praktische Effizienzfragen der Personalwirtschaft verlässlich beantworten: Was kostet das Unternehmen die Einstellung eines neuen Mitarbeiters von der Bewerbung bis zum ersten Arbeitstag? Was kostet eine internationale Entsendung oder der Prozess der jährlichen Zielvereinbarungen? Ergänzt werden diese finanziellen Kennzahlen durch qualitative Key Performance Indicators (KPIs), die beispielsweise die Effektivität einzelner Prozesse oder die Kundenzufriedenheit mit HR//direct messen und dokumentieren. Der Personalbereich wird dadurch in die Lage versetzt, sich von der reinen Verwaltungsfunktion früher Zeiten zu einer unternehmerisch geführten, hocheffizienten und flexibel operierenden Organisationseinheit zu wandeln. Die konsequente Ausrichtung der neuen Strukturen an den globalen Anforderungen an ein zukunftsorientiertes Personalmanagement ermöglicht gleichzeitig substantielle Beiträge der Personalfunktion zum Unternehmenserfolg. So haben die Centers of Expertise seit ihrer Einrichtung bereits zahlreiche bedeutende Leistungen zur personalpolitischen Umsetzung der Konzernstrategie erbracht – von der Neugestaltung des konzernweiten „Bayer Global STI“ zur Mitarbeiterbeteiligung am Unternehmenserfolg über strategische Konzepte und Instrumente zur Begegnung des demographischen Wandels bis hin zur Begründung eines wissenschaftlich fundierten Humankapitalmanagements. Eine breit angelegte „Employee Strategy“ formuliert erstmals eine globale Personalstrategie für den Konzern und definiert langfristig die Inhalte der internationalen Arbeitgebermarke „Bayer“. In vielen Bereichen der Personalfunktion sind die erreichten Fortschritte bereits heute offenkundig. Dennoch enthalten das neue Funktionsmodell und seine Systeme noch erhebliches weiteres Potenzial für eine strategische Personalarbeit. Allein das globale Organisationsmanagement, in dem schon jetzt die Führungsbeziehungen und elementare Personaldaten von weltweit rund 100.000 Beschäftigten erfasst sind, bietet beinahe grenzenlose Erweiterungsmöglichkeiten. So könnten die Mitarbeiterprofile etwa um Altersangaben oder um Daten zur beruflichen Qualifikation ergänzt werden. In einer ersten Stufe könnte damit beispielsweise ein konzernweites Kompetenzmanagement aufgebaut oder demographische Analysen in bislang unbekannter Schnelligkeit und Präzision vorgenommen werden. Die Verknüpfung aller so gewonnenen Daten ermöglicht schließ-
88
Jan H. Peters / Markus Siebenmorgen
lich eine ebenso intelligente wie vorausschauende Planung und Steuerung der weltweiten Konzernbelegschaft. Qualifizierte Mitarbeiter sind der wichtigste Werttreiber in den Unternehmen der chemisch-pharmazeutischen Industrie. Mit dem Projekt „Transforming Human Resources“ und dem neuen Organisationsmodell ist es Bayer gelungen, den strategischen Gestaltungsauftrag der Personalfunktion mit hoher Wertschöpfung und Effizienz in der Administration zu verbinden. Bayer verfügt damit über die nötigen Voraussetzungen, um die kommenden Herausforderungen an das Personalmanagement wirkungsvoll zu adressieren und mit seiner Personalfunktion nachhaltig zur globalen Wettbewerbsfähigkeit des Konzerns beizutragen.
Literatur Ulrich, Dave (1996): Human Resource Champions. The Next Agenda for Adding Value and Delivering Results, Boston 1996.
Arbeit ohne Zukunft? Zukunft ohne Arbeit? Ronald Schettkat
1
Einleitung
Geht uns die Arbeit aus? Gibt es nicht mehr ausreichend Arbeit für alle? Muss Arbeit deshalb umverteilt werden? In der Diskussion um die Beschäftigungsentwicklung im internationalen Vergleich, insbesondere zwischen den USA und Europa, haben sich drei zentrale Thesen herausgebildet, die die transatlantischen Beschäftigungsunterschiede deutlich anders – wenn auch nicht im gegenseitigen Ausschluss – begründen: Edward Prescott1 kommt zu dem Schluss, dass unterschiedliche Besteuerungen diesseits und jenseits des Atlantiks als Erklärung mehr als ausreichend sind; Olivier Blanchard2 stellt auf unterschiedliche Präferenzen ab – Amerikaner sind Workaholics, Europäer präferieren Freizeit –, Richard Freeman und Ronald Schettkat3 identifizieren „Marketization“, die unterschiedlichen Spezialisierungsgrade der Haushalte in Europa und den USA, als Ursache der Beschäftigungsunterschiede. Bevor diese drei Erklärungsmuster diskutiert werden, wird der grundlegende Zusammenhang von Wirtschaftswachstum und Beschäftigung – die Nachhaltigkeit der Wirtschaftsentwicklung in Bezug auf Beschäftigung – behandelt und nach der Entwicklung unserer Bedürfnisse gefragt.
1 2 3
Vgl. Prescott (2004). Vgl. Blanchard (2004). Vgl. Freeman/Schettkat (2005).
90 2
Ronald Schettkat Geht uns die Arbeit aus? Wie viel Wachstum ist zur Stabilisierung von Beschäftigung nötig?
Harrod4 hat die Summe aus den Wachstumsraten der Bevölkerung (Erwerbsbevölkerung) und des Produktivitätsfortschrittes als „natürliches“ Wachstum bezeichnet, das zur Erhaltung von Vollbeschäftigung notwendig ist. Diese Gleichung lässt sich selbstverständlich auch um eine Arbeitszeitkomponente erweitern, wenn Beschäftigung in gearbeiteten Stunden (Arbeitsvolumen) ausgedrückt wird. Sieht man vom Bevölkerungswachstum und variablen Arbeitszeiten ab, dann muss die Nachfrage (Produktion) in einer Volkswirtschaft mit der Wachstumsrate der Produktivität zunehmen, weil anderenfalls die Beschäftigung (genauer das Beschäftigungsvolumen in Stunden) zurückgeht. C. p. kann die Beschäftigung nur zunehmen, wenn die Produktion stärker als die Produktivität wächst. Produktivitätsgewinne können natürlich auch in Form reduzierter Arbeitszeit „konsumiert“ werden, was die Zahl beschäftigter Personen ebenfalls stabilisieren oder erhöhen kann. Abbildung 1 soll die Beschäftigungswirkungen, die sich aus der Interaktion von Angebot und Nachfrage ergeben, verdeutlichen. Nachhaltige Beschäftigung ist durch die dargestellte hyperbolische Funktion beschrieben. Auf der Abzisse ist die Inverse der Arbeitsproduktivität abgetragen und die Ordinate repräsentiert die Nachfrage. Produktivitätsgewinne vermindern bei unveränderter Produktnachfrage bzw. Produktion die Beschäftigung, d.h. die Volkswirtschaft bewegt sich horizontal zur Vertikalen hin, weil der gleiche Output mit weniger Beschäftigten produziert werden kann. Zur Aufrechterhaltung des Beschäftigungsniveaus (in Personen gemessen) bedarf es deshalb bei Produktivitätsgewinnen zunehmender Nachfrage bzw. Produktion oder einer entsprechenden Verkürzung der durchschnittlichen Arbeitszeit. Die lange Zeit stagnierende Beschäftigung (oder das Korrelat: Die hohe, persistente Arbeitslosigkeit) in vielen Ländern Europas hat Skepsis gegenüber dem Wachstum als Beschäftigungsmotor aufkommen lassen. Mit sehr unterschiedlichen Begründungen wurden die „Grenzen des Wachstums“ prophezeit. Nicht erst die „Club of Rome“ Studie5 hat Wachstumsgrenzen diskutiert, die auf der Begrenztheit unseres Planeten beruhen. Auch zuvor gab es immer wieder Befürchtungen, dass die Nachfrage nicht mit den verbesserten Produktionsmöglichkeiten, mit der Produktivitätssteigerung, Schritt halten kann.6 In der Tat ist es schwer vorstellbar, dass wir unseren Konsum ausdehnen, in dem wir mehr und mehr des Gleichen nur in größeren Mengen verbrauchen. Im Gegenteil, auf ein4 5 6
Vgl. Harrod (1939). Vgl. Meadows et al. (1972). Vgl. z. B. Hansen (1941).
Arbeit ohne Zukunft? Zukunft ohne Arbeit?
91
zelnen Markten kommt es stets zu Sattigungsphanomenen, 7 aber neue Produkte erweitem auch immer wieder unsere Konsummoglichkeiten lllld verdrangen bekannte, alte Produkte. Schumpeters Entrepreneur dynamisiert unsere Okonomie und sorgt fur standige Erweiterungen der Produktpalette (Produktinnovationen) lllld fur laufende Verbesserungen der Produktionsverfahren (Prozessinnovationen). Abbi/dung 1: ~ ~
..: .=
Beschaftigung im Nachfrage-Angebots-Raum
konstante Beschaftlqunq
~
Z
Europa 1970
Arbettsprodukttvttat-' Die These des abnehrnenden Wachstums, der Erlahrnung der wirtschaftlichen Dynamik, wird haufig mit abnehmenden Wachstumsraten des ElP gestiitzt. In der Tat, wenn man die Wachstumsrate des BIP in Deutschland wahrend der 1960er Jahre von rund 4% mit denen der 1990er Jahre oder der 2000er Jahre vergleicht (1,7% bzw. 1,5%), dann zeigt sich zweifellos ein deutlicher Ruckgang. Nimmt man aber einen langeren Zeitraum, dann erscheinen die hohen Wachstumsraten der 1960er Jahre eher als Ausnahme." Wenn die These abnehmenden Wachstums zutrifft, dann sollten die Wachstumsraten des Pro-Kopf-Einkommens (Bl PrBevolkerung) einen negativen Trend aufweisen und wenn die Wachstumsraten insbesondere in wohlhabenden Landem zutiickgehen, daun sollte auch das Ausgangsniveau des Pro-KopfEinkommens einen negativen Koeffizienten aufweisen bzw. es sollte sich dann in der "OEeD-Welt" ein negativer Trend zeigen. Die Penn World Tables (hier Version PWT6.l) ermoglichen die empirische Uberprufung der These, nach der 7 8
Vgl. Shapiro/Varian (1999) . Vgl. Maddison (200 1).
92
Ronald Schettkat
9 uns die Arbeit ausgeht. Fiir 47 Lander ergibt sich fur den Zeitraum 1950 bis 2000 der im oberen Teil von Abbildung 2 dargestellte Zusarnmenhang fur die erste Differenz der logarithrnierten Pro-Kopf-Einkommen. Sieher keine Funktion mit negativern Trend. Fiir die Of'Cl.I-Lander (unterer Teil von Abbildung 2) ergibt sich in Regressionen ein leicht negativer Trend, derjedoch lediglich eine Abnahrne der Wachtumsrate des Pro-Kopf-Einkommens tiber einen Zeitraum von funf Jahrzelmten von 0,1 Prozentpunkten jahrlich anzeigt. Sehr wenig, wenn man berucksichtigt, class das Pro-Kopf-Einkommen auch durch kttrzere Arbeitszeiten reduziert wird (vgl. weiter unten). In einzelnen Landern zeigt sich ein signifikant negativer Trend, etwa in Frankreich, aber hier wurde ~ wie in anderen Landern Europas auch - nach 1970 die Arbeitszeit deutlich reduziert. Da Deutschland eine ahnliche Arbeitszeitentwickhmg wie Frankreich durchlaufen hat, mag es uberraschen, class hier kein signifikant negativer Trend der Wachstumsraten des Pro-KopfEinkommens in den Daten der Penn World Tables festzustellen ist. Die wirtschaftliche Entwicklung Europas im Vergleich zu den USA seit den 1970er Jahren lasst sich vereinfacht folgendermaJlen beschreiben (vgl. Abbildung I): Die Nachfrage (produktion oder Einkommen) der USA war bei ungefahr gleicher relativer Beschaftigung (relativ zur Bevolkerung im erwerbsfahigen Alter (15 bis 65 Jahre)) sehr viel hoher, weil die USA 1970 ein deutlich hoheres Produktivitatsniveau als Europa erreicht hatten. Die USA waren teclmologisch fuhrend, In den letzten Jahrzehnten des vergangenen Jahrhunderts venninderte Europa (genauer Nordwest-Europa) den Produktivitatsabstand zu den USA (sog. Catching-up) und lag zur Jahrtausendwende in der Produktivitat mit den USA ungefahr gleich auf." In Abbildung I sind Europa und die USA im Jahr 2000 deshalb auf ungefahr gleicher Abzissenposition. In den USA nahm jedoch die Nachfrage (relativ zur Bevolkerung, also die Pro-Kopf-Nachfrage) starker zu als die Produktivitatsgewinne (bekanntenna13en wurden die USA sogar zu einern Nettoimporteur), wtlhrend in Europa die Nachfragesteigerung hinter den Produktivitatsgewinnen zuriickblieb. 1m Ergebnis zeigte sich em Beschaftigungsboom bei ungefahr konstanter Arbeitszeit in den USA, aber stagnierende oder auch schrumpfende Beschaftigung bei sinkender Arbeitszeit in Europa. In Abbildung I liegen die USA in 2000 oberhalb der Funktion konstanter Beschaftigung,
9
10
Diese Linder sind: Argentina, Australia, Austria, Belgium, Bangladesh, Brazil, Chile, China, Cameroon, Colombia, Cape Verde, Cuba, Denmark, Dominican Republic, Algeia, Egypt, Spain, Finland, France, United Kingdom, Germany, Ghana, Hong Kong, India, Ireland, Israel, Cambodia, Republic of Korea, Luxembourg, Netherlands, Norway, New Zealand, Philippines, Poland, Puerto Rico, Portugal, Russia, Saudi Arabia, Senegal, Singapore, Sweden, Thailand, Turkey, United States, Venezuela, Vietnam, South Africa. Vgl. Bailey/Solow (200 1).
Arbeit ohne Zukunft? Zukunft ohne Arbeit?
93
wahrend Europa in 2000 darunter liegt, Berucksichtigt man die unterschiedlichen Trends in der Arbeitszeit, so werden die dargestellten Unterschiede noch deutlicher. Abbi/dung 2:
Dienstleistungsanteil und Wachstum des Pro-Kopf-Einkommens auf Basis der Penn World Tables (Version PWT6.1)
47 Lander (v~1. Fufinote 9)
•
•
•
•
• • ~
'-r---~-~--~--~--~
o
20
10
40
30
50
tr8l1d
OECD- Lander
•
•
• .. · I,
••
-. .
••• . '.. . .I ...•.. :1 .1. . .• . .1. I • • 1 ',' ,... 1" I. ' I .I" . . ' -. •,.·'1·"1 II""1"'" II I • 1'1,1 I :
I
••1
I.
'I
1!,;ljl:,::i!llll!ill l 1::llij:IIIIII!II!llli!lll !I ••••1••:" I • I. ill;'" I.I•••• ! I I •••• •, ••••: . .: •• "'1.:'
.., . .
. . ..'
• .'
• ••
•
• 10
I.'
•• • •
I
•
•• 20
30
40
50
Ie,,"
Quelle: Berechmmgen basieren aufPWT6.1 (fIestonlSmnmers/Aten (2002)).
94
Ronald Sehettkat
Zur Aufreehterhaltung der Beschaftigtenzahl ist also Wachstum oder eine verminderte durehsehnittliehe Arbeitszeit notwendig. Aber wird Wachstum darnit zum Selbstzweck? Mussen wir rnehr und rnehr von den gleichen Produkten konsumieren, damit es nicht zu Arbeitslosigkeit kommt, wei! die Gesellschaft nicht in der Lage ist, entweder auf andere Produkte oder kurzere Arbeitszeiten umzusteuem?
3
Wachstum als Selbstzweck?
Die Volkswirtschaftliche Gesamtreclmung wurde in erster Linie zur Erfassung der beschaftigungsrelevanten, auf Erw erb gerichteten Wirtschaftsaktivitat entwiekelt und ihr zentrales Mall, das BIP (Bruttoinlandsprodukt) ist blind gegenuber der Art der produzierten Gurer und Dienstleistungen. ' : Das BIP ist deshalb aueh kein Wohlstandsrna13 und noch viel weniger eines fur das Wohlbefinden," wenngleich eine hohe Korrelation mit dem von den UN entwickelten "Human Development Index" besteht. Der Wohlstand in der westlichen, kapitalistischen Welt hat enonn zugenommen. Wir leben in einern rnateriellen Uberfluss, der fur vorhergehende Generationen undenkbar war . Aber dieser ,;Oberfluss" ist keineswegs ausschlie13lich in hoheren materiellen Konsum geflossen, sondem in erheblichem Ma13e in die Befriedigung nichtrnaterieller Bedurfnisse (inklusive einer Ausweitung von Freizeit). Reisen, noch vor einem Jahrhundert wenigen vorbehalten, ist heute fur viele selbstverstandlich und zwar langst nicht nur bis nach Italien, sondem weit uber die europaischen Grenzen hinaus. Wenn heute jeder nach Italien reisen kann, so ist die Fahrt nicht mehr so romantisch, anstrengend und zeitraubend wie zu Goethes Zeiten, aber der erste Blick auf den Gardasee ist noch irnmer faszinierend und das Schlendem durch die Altstadtgassen von Rom ist noch irnrner erlebenswert. Natiirlich, Massenkonsurn und Massentourismus missen die Exklusivitat, sie taugen nicht als Statussymbol. Gurer haben irnmer mehrere Eigenschaften: Ein Auto ermoglicht Mobilitat, aber es signalisiert auch Status, der natiirlich aus der Wahmehmung der Umgebung abgeleitet ist. Es ist ein positionelles Gut. 13 Was ist der Wert eines Porsches, wenn der Porsche ein Auto fur jeden ist? Positionelle Gurer sind nicht beliebig vennehrbar lllld je mehr ein 11
12 13
Vgl. Arrow et al. (1995). Es ist bekannt, dass im BIP der Verbrauch .freier" Ressourcen nicht als Kosten der Produktion berncksichtigt wild, Reparaturkosten aber als WertschOpfung erscheinen. Es ist ebenfalls bekannt, dass produktive Tatigkeit auch auBerhalb der von der Volkswirtschaftlichen Gesamtreclmung erfassten Produktion stattfindet (vor allem Haushaltsproduktion). Vgl. Layard (2006) fur eine Zusammenfassung der "Glucksforschung". Vgl. Hirsch (1976).
Arbeit ohne Zukunft? Zukunft ohne Arbeit?
95
Luxusgut zum Massengut wird, desto geringer ist der mit seinem Besitz verbundene Status. Die Demokratisierung des Wohlstandes (Harrod) zerstört Statussymbole. Entspricht unser Lebensstil unseren Präferenzen oder erliegen wir gesellschaftlichen Trends, die uns durch Werbung aufgezwungen werden? Unstrittig dürfte wohl sein – wenn auch nicht unter den härtesten Verfechtern der Annahmen des neoklassischen Urmodells, welche die Konsumentensouveränität beschwören –14, dass Menschen soziale Wesen sind und deshalb Bedürfnisse auch durch das gesellschaftliche Umfeld geprägt werden. Zugenommen hat im längerfristigen Vergleich unser „Freizeitkonsum“, die erwerbsarbeitsfreie Zeit. Zeit ist für jeden begrenzt, der Tag hat immer nur 24 Stunden und Zeit lässt sich nicht ansparen. Gerhard Scherhorn15 hat dem materiellen Wohlstand den Zeitwohlstand gegenübergestellt, der in der Tat bei unermüdlicher Jagd nach mehr Gütern auf der Strecke bleibt, wie es Burenstein Linder16 in seiner Opportunitätskostenanalyse der Zeitverwendung geschildert hat. Mit steigendem Einkommen und zunehmender Verfügbarkeit von Gütern muss auch die „Produktivität“ der Konsumzeit steigen, aber um materiellen Wohlstand sinnvoll nutzen zu können, bedarf es Zeit. In der Rückschau muss man feststellen, dass sowohl der materielle Wohlstand als auch der Zeitwohlstand erheblich gesteigert wurden. Möglich war dieses durch stetige Produktivitätsgewinne, die durch den technologischen Fortschritt ermöglicht wurden.17 Kürzere Arbeitszeiten, mehr Muße und Entspannung, eine intensivere Nutzung vorhandener Güter mögen letztlich befriedigender sein, aber möglicherweise eilen unsere Wünsche stets den Möglichkeiten der Bedürfnisbefriedigung voraus, so dass wir niemals Entspannung und Zufriedenheit erreichen werden, weil es immer etwas gibt, das wir auch noch tun möchten. Dieser Zusammenhang ist aber nicht auf die Benutzung von Gütern beschränkt, sondern findet auf Dienstleistungen und Freizeitaktivitäten gleichermaßen Anwendung: Wer Skilaufen, Segeln, Musizieren, Malen und Lesen, Kinder erziehen und noch andere Dinge tun möchte, der wird schnell an die Grenzen seiner zeitlichen Möglichkeiten stoßen. Kürzere Arbeitszeiten können den Zeitdruck solange lindern bis neue Begehrlichkeiten entstehen, sie sollten aber im Sinne eines „Mehr“ statt eines
14
15 16 17
Selbstverständlich treffen Individuen Entscheidungen „frei“, aber die soziale Isolation des Individuums im methodologischen Individualismus ist wohl eher eine theoretische Idealisierung. Vgl. Scherhorn (1995). Vgl. Linder (1970). Vgl. Solow (1956); technologischer Fortschritt bezieht technischen Fortschritt ein, beschränkt sich aber nicht auf diesen.
96
Ronald Schettkat
Verzichtens interpretiert werden und die Konzentration von Arbeit und Nichtarbeit auf bestimmte Personen und Lebensphasen ist sicher nicht wünschenswert.18 In der historischen Perspektive hat der Zeitwohlstand enorm zugenommen. Angus Maddison19 hat in seiner Zusammenstellung von historischen Wirtschaftsstatistiken unter anderem die Entwicklung der Arbeitszeiten ermittelt und kommt unisono zu einer erheblichen Reduktion der jährlichen (Erwerbs-) Arbeitszeit der Beschäftigten durch kürzere Wochenarbeitszeiten und längere Urlaube. Tabelle 1 zeigt, dass die Erwerbsarbeitszeit in allen westlichen Ländern in den letzten 100 Jahren ungefähr halbiert wurde, aber dennoch empfinden wir Zeitnot und sehnen manchmal sogar die „alte Zeit“ herbei, die vermeintlich stressfreier war. Die Erwerbsarbeitsstunden je Bürger – beeinflusst durch die Erwerbsbeteiligung und Arbeitszeiten – sind im unteren Teil von Tabelle 1 abgebildet, wobei sich ein ungefähr gleicher Trend wie bei den Arbeitsstunden je Beschäftigten zeigt, was das Ergebnis sinkender Jugendbeschäftigung zugunsten längerer (Aus-)Bildungszeiten,20 sehr viel längerer Phasen der „Zeitsouveränität“ im Alter, bedingt durch frühere Verrentungen und stark gestiegene Lebenserwartungen, teilweise kompensiert durch gestiegene Frauenerwerbstätigkeit, ist. Natürlich lässt sich fragen, ob eine strikte Dreiteilung der Lebensphasen in Ausbildung, Erwerbsarbeit, Pensionierung sinnvoll ist oder ob nicht eine flexiblere Verteilung der Nichtarbeitszeit sinnvoller ist, aber das ändert nichts an ihrer grundsätzlichen Abhängigkeit von der Produktivität.21 Betrachtet man nur die letzten Jahrzehnte des vergangenen Jahrhunderts, so zeigt sich seit den 1970er Jahren einzig in den USA eine Zunahme der Arbeitszeit je Bürger, was mehrere Ursachen haben mag.22 Die Arbeitszeit liegt 1998 in den USA mit rund 800 Stunden pro Einwohner um rund 100 Stunden über der der europäischen Länder.
18 19 20 21
22
Wenn die Zeitverwendung in der Gesellschaft auseinander läuft, besteht die Gefahr der Isolierung (Bowling alone, Putman (2000)). Vgl. Maddison (2001). Ökonomen schreiben vom „Humankapital” und Bildungszeiten werden zu Investitionsperioden (Becker (1965)), was sicher ein Teilaspekt von Bildung ist, aber eben nicht der Einzige. Natürlich gibt es Fehlentwicklungen, die es zu korrigieren gilt. Wenn die Produktivität durch übermäßigen, gesundheitsschädlichen Leistungsdruck erhöht wird, deren Gewinne nur kurzfristig anfallen, deren Kosten aber zu einem späteren Zeitpunkt sichtbar werden, dann ist die Produktivität nicht nachhaltig verbessert worden, sondern es hat lediglich eine Verschiebung von „Inputs“ stattgefunden, die auch unter puren Effizienzgesichtspunkten kontraproduktiv sein kann. Ebenso ist der Verbrauch natürlicher Ressourcen zu bilanzieren, damit Effizienzund Wachstumsgewinne unverzerrt ermittelt werden können. Vgl. Freeman/Schettkat (2005).
Arbeit ohne Zukunft? Zukunft ohne Arbeit?
97
Tabelle 1: Langfristige Entwicklung der Erwerbsarbeitszeit in „Industrieländern“ 1870
Frankreich Deutschland Niederlande Schweden Ver. Königreich USA Frankreich Deutschland Niederlande Schweden Ver. Königreich USA
1950 1973 1998 1998/1870 [Stunden] [%] Jahresarbeitsstunden je Beschäftigten 2945 1926 1771 1503 51.0 2841 2316 1804 1523 53.6 2964 2208 1751 1389 46.9 2945 1951 1571 1582 53.7 2984 1958 1688 1489 49.9 2964 1867 1717 1610 54.3 Jahresarbeitsstunden je Bürger 1364 905 728 580 42.5 1172 974 811 670 57.2 1133 899 671 660 58.3 1360 952 749 711 52.3 1251 871 753 682 54.5 1084 756 704 791 73.0
Quelle: Maddison (2001).
4
Entsprechen die beobachteten den präferierten Arbeitszeiten?
Entsprechen die realisierten Arbeitszeiten den präferierten Arbeitszeiten? Olivier Blanchard23 zeigt, dass Arbeitslosigkeit nur in geringem Maße zu den unterschiedlichen Erwerbsarbeitszeiten pro Kopf in den USA und Europa beigetragen hat.24 Olivier Blanchard argumentiert, dass die USA wie auch Europa im Gleichgewicht sind. Die längeren Arbeitszeiten der Amerikaner wie auch die kürzeren der Europäer entsprechen also den unterschiedlichen Präferenzen. Gary Becker25 hat mit seiner ökonomischen Analyse des Verhaltens zu erklären versucht, wa23 24
25
Vgl. Blanchard (2004). Freeman/Schettkat (2005) ermitteln, dass die Differenz zwischen der Erwerbsarbeitszeit in den USA und Europa in den letzten 3 Jahrzehnten hälftig auf die höhere Erwerbsbeteiligung – vor allem unter den Lateinamerikanischen Frauen – und auf die gesunkene Erwerbsarbeitszeit – in Europa – zurückzuführen ist. Vgl. Becker (1965).
98
Ronald Schettkat
rum Amerikaner schnell zuzubereitende Steaks essen und Europäer Eintopf kochen: Die Opportunitätskosten26 der Amerikaner sind höher als die der Europäer. Edward Prescott27 identifiziert in einer neueren Variante der Beckerschen Analyse hohe Steuern in Europa28 als Ursache kürzerer Arbeitszeiten. Es bestehe in Europa ein geringerer Anreiz, Arbeit aufzunehmen und auszudehnen. So sehr die Argumentationen zum Querschnittsvergleich passen mögen, so können aber beide Autoren – Blanchard und Prescott – die Entwicklung über die Zeit innerhalb der Länder nicht erklären: In Blanchards Argumentation muss es einen Umschwung in den kulturellen Werten gegeben haben, denn noch 1970 haben Europäer länger gearbeitet als Amerikaner und Prescott kann die Zunahme der Beschäftigung in den USA nicht erklären, denn der Durchschnittssteuersatz hat sich in den USA kaum verändert. Freeman und Schettkat29 zeigen, dass sich vor allem die Erwerbsarbeitszeiten von amerikanischen und deutschen Frauen unterscheiden, diese Unterschiede aber verschwinden, wenn die Gesamtarbeitszeit (Erwerbsarbeitszeit plus Haushaltsproduktionszeit) betrachtet wird. Amerikanerinnen teilen ihre Arbeitszeit ungefähr gleich auf Erwerbsarbeit und Haushaltsproduktion auf, während deutsche Frauen nur rund ein Drittel ihrer Arbeitszeit in Erwerbsarbeit und zwei Drittel mit Haushaltsproduktion verbringen. Sie argumentieren, dass die Spezialisierung der Haushalte in den USA weiter fortgeschritten ist, was mit dem erfolgreichen Aufstieg von Amerikanerinnen in der Lohnhierarchie, ihrem hohen Bildungsstand und im Support-System (von der Kinderbetreuung bis zum Angebot fertiger oder halbfertiger Mahlzeiten) begründet ist. In Deutschland sind dagegen Frauen in den höheren Lohngruppen nur spärlich vertreten und das Support-System ist hinderlich für die Erwerbsbeteiligung von Müttern.30 Warum ergeben sich aber unterschiedliche Arbeitszeitentwicklungen bei den Beschäftigten in USA und Europa? Häufig wird das dezentralisierte, unkoordinierte Lohnverhandlungssystem der USA als überlegen gegenüber den kollektiven Lohnverhandlungen in Europa dargestellt, weil es den theoretischen Vorstellungen eines idealen Marktes näher kommt und deshalb – so die Argumentation – individuelle Präferenzen besser berücksichtigen kann.
26
27 28 29 30
Der Opportunitätskostenbegriff bietet möglicherweise für Verwechslungen Anlass, denn Eigenarbeit kann zwar Ausgaben einsparen, aber sie kann eben kein Einkommen generieren, das in entwickelten Volkswirtschaften zur gesellschaftlichen Teilhabe unabdingbar ist. Vgl. Prescott (2004). Ceteris paribus bedeuten höhere Steuern niedrigere Nettolöhne, weshalb der Anreiz, eine Erwerbstätigkeit aufzunehmen, im Hochsteuerland geringer sein sollte. Vgl. Freeman/Schettkat (2005). Erstaunlicherweise hat sich der Zusammenhang von Fertilität und Frauenerwerbsbeteiligung im internationalen Vergleich von negativ zu positiv verkehrt (vgl. Freeman (2007)).
Arbeit ohne Zukunft? Zukunft ohne Arbeit?
99
Kann es aber sein, dass individualisierte Lohnverhandlungen in den USA zu suboptimal langen Arbeitszeiten führen? Thomas Schelling31 hat auf einfache aber umso eindrucksvollere Weise gezeigt, dass individuelles Handeln unter Wettbewerbsbedingungen zu suboptimalen individuellen und gesellschaftlichen Ergebnissen führen kann. Es ist keineswegs gesichert, dass ein unkoordiniertes Marktsystem einen Optimalzustand erreicht, vielmehr kann es sein, dass selbst bei homogenen Präferenzen ohne Regulierung dieses Optimum nicht erreicht wird. In der amerikanischen National Hockey League bedurfte es der Verpflichtung zum Tragen von Helmen (Regulierung), obwohl jeder Spieler Helme als notwendig ansah. Da das Tragen von Helmen aber einen kleinen Nachteil gegenüber dem helmlosen Spiel bedeutete, konnte sich das freiwillige Tragen von Helmen im Wettbewerb unter den Spielern nicht durchsetzen. Erst die Regulierung (Helmpflicht) machte das Erreichen des Optimums möglich. Es kann also sein, dass es in der weniger koordinierten US-Ökonomie zu suboptimalen, unerwünscht langen Arbeitszeiten kommt, weil „collective voice“32 durch Gewerkschaften nicht (mehr) ausreichend hörbar ist. Gewerkschaften werden von einigen Ökonomen gern als Monopolisten dargestellt, deren Funktionäre nicht nur den Arbeitgebern, sondern sogar den eigenen Mitgliedern ihre Vorstellungen aufzwingen, wozu die Verkürzung der Arbeitszeiten in Europa häufig als Illustration dient. Haben die Gewerkschaften mit ihren Forderungen nach kürzeren Arbeitszeiten über die Köpfe ihrer Mitglieder hinweg gehandelt oder waren sie „collective voice“, die Institution, die den individuellen Präferenzen Nachdruck verschafft hat?33 In Europa war in der Vergangenheit die „collective voice“ der Arbeitnehmer wahrscheinlich ausreichend hörbar und hat wohl die Präferenzen der Beschäftigten gut erfasst. Aber Tabelle 2 „Welche Arbeitszeitmuster präferieren Europäerinnen?“ zeigt die tatsächlichen und präferierten Arbeitszeiten von Europäerinnen, wenn der Ehemann vollzeitig beschäftigt ist. Zunächst fällt in Tabelle 2 ins Auge, dass „Mann Vollzeit, Frau nicht erwerbstätig“ (Spalte 3) nur geringe Präferenz hat, insbesondere in Deutschland, aber tatsächlich sehr häufig anzutreffen ist. Überwiegend werden entweder „Vollzeit/Vollzeit“ oder „Vollzeit/Teilzeit“ Arrangements präferiert, wobei die Niederlande hinsichtlich der „Vollzeit/Teilzeit“ Präferenz und Schweden hinsichtlich der „Vollzeit/Vollzeit“ Präferenz das Spektrum abstecken.34 In keinem Land sind aber Präferenzen und tatsächliche Arbeitszeit im Einklang, d.h. die realisierten Arbeitszeitarrange31 32 33 34
Vgl. Schelling (1978). Hirschman (1970). Vgl. Alesina/Glaeser/Sacerdote (2003). Vermutlich wurden die Präferenzen stark durch den institutionellen Rahmen der jeweiligen Länder beeinflusst.
100
Ronald Schettkat
ments stellen kein Gleichgewicht dar. Die Daten zeigen deutlich, dass in allen Ländern eine stärkere Erwerbsbeteiligung von Frauen präferiert wird. Soll eine höhere Erwerbsbeteiligung von Frauen durch radikale Umverteilung der Erwerbsarbeitszeit unter Beibehaltung oder gar Erweiterung der Haushaltsproduktion angestrebt werden oder sollte „Professionalisierung“, also eine Substitution von Haushaltsproduktion durch Erwerbsarbeit, präferiert werden? Tabelle 2: Präferenzen von Frauen hinsichtlich der Arbeitszeitarrangements von Männern und Frauen
Frau Vollzeit 1
Mann Vollzeit Frau Frau nicht Teilzeit erwerbstätig 2 3
Andere 4
PRÄFERIERT
Schweden Großbritannien Deutschland Niederlande Frankreich
66,8 21,3 32,0 5,6 52,4
22,2 41,8 42,9 69,9 21,9
Schweden Großbritannien Deutschland Niederlande Frankreich
51,1 24,9 15,7 4,8 38,8
13,3 31,9 23,1 54,8 14,4
Schweden Großbritannien Deutschland Niederlande Frankreich
15,7 -3,6 16,3 0,8 13,6
6,6 13,3 5,7 10,7 14,1
4,4 23,6 19,4 13,8 11,7
TATSÄCHLICH
24,9 32,8 52,3 33,7 38,3
10,7 10,4 8,9 6,7 8,4
PRÄFERIERT – TATSÄCHLICH
8,9 9,9 19,8 15,1 7,5
Quelle: EU Kommission Survey, Eurostat.
-18,3 -19,5 -46,6 -23,0 -24,2
-6,3 13,2 10,5 7,1 3,3
Arbeit ohne Zukunft? Zukunft ohne Arbeit? 5
101
Marketization
Die Wirtschaftsgeschichte kann als fortlaufende Spezialisierung charakterisiert werden, in der kontinuierlich Funktionen aus den Haushalten ausgelagert wurden, was enorme Produktivitätsgewinne ermöglichte und letztlich hoch komplexe Produkte und Gesellschaftsformen hervorbrachte. Dieser Prozess ist auch heute noch nicht abgeschlossen, wie Abbildung 2 verdeutlicht. In der Abbildung ist die Veränderung der Erwerbsarbeitszeit (Vertikale) als Funktion der Veränderung der Haushaltsproduktionszeit (Horizontale) während der letzten Jahrzehnte des vergangenen Jahrhunderts dargestellt.35 Im linken oberen Quadranten, dort wo die Erwerbsarbeitszeit zugenommen und die Hausarbeitszeit abgenommen hat, finden sich ausschließlich Frauen, während bei den Männern – weniger eindeutig – der umgekehrte Prozess stattgefunden hat. In den westlichen Industrieländern hat vor allem eine weitere Spezialisierung der Haushalte, verbunden mit einer – wenngleich nicht so stark ausgeprägten – Umverteilung von Erwerbsund Hausarbeit zwischen Männern und Frauen, stattgefunden. Eigenarbeit, Haushaltsproduktion wurde durch Erwerbsarbeit substituiert. Sehr deutlich ausgeprägt ist diese Entwicklung in den USA, wo man die Ursache in neo-feudalistischen Strukturen vermuten mag, aber eine sehr ähnliche Entwicklung ist auch in Skandinavien zu beobachten, wo diese Charakterisierung wohl kaum zutreffend sein dürfte. In Skandinavien wie in den USA haben Frauen frühzeitig sehr hohe Bildungsniveaus erreicht, was einerseits durch höhere erzielbare Einkommen, aber auch durch den Wunsch nach Teilhabe und Unabhängigkeit zu einer höheren Erwerbsbeteiligung führt.36 Wer aber vermutet, dass die Entwicklung mit einem Boom neo-feudaler Hausangestelltenverhältnisse einhergeht, wird enttäuscht. Weder in Skandinavien noch in den USA haben Angestelltenverhältnisse in privaten Haushalten einen nennenswerten Anteil. Die Auslagerung von Haushaltsaktivitäten verläuft subtiler als durch die direkte Substitution von eigener Hausarbeit durch dieselben professionellen Tätigkeiten. Vorbereitete Mahlzeiten, Restaurants, Geschirrspülmaschinen, Kindergärten etc. substituieren die Eigenarbeit, wenngleich in Manhattans Upper East Side (wohl die Region mit den höchsten Pro-Kopf-Einkommen in der Welt) auch „Nannys“ im Straßenbild unübersehbar sind.
35
36
Es sind jeweils die Veränderungen in der Erwerbsarbeitszeit und der Haushaltsproduktion derjenigen Länder erfasst, für die Zeitbudgeterhebungen für mindestens zwei Zeitpunkte vorlagen (USA, Schweden, Niederlande, Vereinigtes Königreich, Kanada; vgl. für Details: Freeman/Schettkat (2005)). Vgl. ausführlicher Freeman/Schettkat (2005).
102
Ronald Schettkat
Veränderung der Erwerbsarbeitszeit
Abbildung 3:
Veränderung von Erwerbs- und Eigenarbeit 20
15 W -Can W-US
10 W -NL
5 W-Swed W -UK
-20
-15
-10
-5
M -NL M-Can
0
M-Swed 0
5
10
15
20
-5 M -US
-10
M-UK
-15
-20
Veränderung Zeit in Haushaltsproduktion
Quelle: Freeman/Schettkat (2005).
Es sind nicht so sehr „neo-feudale“ Arbeitsverhältnisse, sondern andere Organisationsformen, die in der modernen Dienstleistungsgesellschaft dominieren. Warum haben aber Dienstleistungen den schalen Beigeschmack vorindustrieller Ausbeutungsverhältnisse? Es wird nicht als anrüchig empfunden, ein Auto in der Werkstatt mit Schmierstoffen versorgen zu lassen, die Schuhreparatur ist ebenfalls kein Problem, aber das Polieren der Schuhe durch Schuhputzer erzeugt Unbehagen. Kultur ist ein möglicher Grund für diese Differenzierung, schließlich gibt es in Städten Südamerikas wie selbstverständlich Schuhputzer. Ökonomische Zusammenhänge mögen die Unterschiede in der Akzeptanz aber ebenfalls begründen: Offenbar ist die Akzeptanz von Fremdleistungen hoch, wenn die Leistung professionell sehr viel effizienter erbracht werden kann als in Eigenarbeit, wenn also die Spezialisierung Produktivitätsgewinne ermöglicht. Diese können einerseits durch besondere Fertigkeiten begründet sein, deren Aneignung langwierig und deshalb nur bei permanenter Auslastung sinnvoll ist. Der einzelne Haushalt könnte diese Fertigkeiten prinzipiell ebenfalls erwerben, würde sie für den Eigenbedarf aber nicht ausreichend nutzen. Die professionelle Organisation (Spezialisierung) ist deshalb sehr viel effizienter. Anders ist es bei Tätigkeiten, die in Eigenarbeit praktisch genauso produktiv ausgeführt werden wie bei professioneller Erbringung, etwa beim Hausputz. Hier macht die Substitution der Eigenleistung durch Fremdbezug ökonomisch nur Sinn, wenn der eigene Netto-
Arbeit ohne Zukunft? Zukunft ohne Arbeit?
103
lohn sehr viel höher als der Bruttolohn des professionellen Dienstleisters ist. Sehr große Einkommensunterschiede ermöglichen also den Ersatz von Eigenarbeit durch Fremdbezug und dies kann in der Tat zu neo-feudalen Strukturen führen.37 38 Ein Großteil der Haushaltsproduktionszeit wird für die Betreuung und Erziehung der Kinder aufgewendet, die nach dem „Dritt-Person-Kriterium“ ebenfalls professionalisiert werden kann. Insbesondere bei Dominanz von Kleinfamilien kann die Professionalisierung Effizienzgewinne ermöglichen, weil mehrere Kinder gleichzeitig von einer Erzieherin betreut werden können. Die Urteile über die „Qualität“ professioneller Kinderbetreuung laufen allerdings weit auseinander. Ist Kindererziehung am Besten in der Familie – oder gar bei der Mutter – aufgehoben oder ist eine professionelle Betreuung vorteilhafter? Die konservative Überhöhung der Familie spielt hier natürlich eine große Rolle, weshalb Bundesministerin Ursula von der Leyen, beim Versuch traditionelle Arrangements von Familie und Kindererziehung in Deutschland auf „Europäisches Niveau“ zu heben, der Gegenwind ihrer konservativen Parteifreunde kräftig ins Gesicht bläst. Betrachtet man Kindererziehung als Bildung, dann dürfte Professionalisierung wohl außer Frage stehen.39 Insbesondere unter den Finanzministern ist es sehr beliebt, mehr direktes Elternengagement einzufordern, und natürlich können Kindergärten und Schulen so belebt werden. Der Haken ist nur, dass sich – wie in Familien auch – in der Regel Gleich zu Gleich gesellt und damit die Segregation der Gesellschaft verstärkt wird, und nicht für eine soziale Durchmischung Sorge getragen wird. Eine Verlagerung dieser Bildungsleistungen in den informellen Eigenarbeitsbereich, noch dazu unter Anwendung des räumlichen Subsidiaritätsprinzips, dürfte die durch lang anhaltende Arbeitslosigkeit und Rückschneidung des Sozialstaates ohnehin vorhandenen und in Deutschland besonders ausgeprägten Segregationstendenzen dramatisch verstärken, denn man kann wohl nicht behaupten, dass Wohngebiete nicht durch spezifische soziale Schichten geprägt sind. Nachhaltige Integration erfordert aber, dass Bildungschancen möglichst gleichmäßig verteilt sind und Benachteiligungen ausgeglichen oder wenigsten nicht verstärkt werden. Aber auch unter ökonomischen Gesichtspunkten sind schichtspezifische Bil-
37 38
39
Vgl. ausführlicher Freeman/Schettkat (2005). Die USA haben eine breitere Lohnspreizung als westeuropäische Länder, aber in Deutschland hat die Lohnspreizung seit Mitte der 1990er Jahre rasant zugenommen und hat das Niveau von Großbritannien erreicht (Schettkat (2006)). Eine ausführliche Analyse des Niedriglohnsektors in den USA und Europa findet sich in demnächst erscheinenden Büchern der Russell Sage Foundation. Qualität der Erziehungseinrichtungen hinsichtlich personeller Ausstattung (quantitativ und qualitativ), Flexibilität soll hier nicht weiter thematisiert werden.
104
Ronald Schettkat
dungschancen fatal, wenn Talente und Fähigkeiten schichtunspezifisch verteilt sind.40
6
Geldillusion
Produktivitätsgewinne erlauben Wirtschaftswachstum und/oder eine Verkürzung der Arbeitszeit, was in der Vergangenheit auch genutzt wurde. Zwar gab es immer wieder Phasen der Wachstumsschwäche, aber neue Bedarfsfelder erweiterten stets den Raum unserer Bedürfnisse. Luxus wurde durch Effizienzgewinne demokratisiert und immaterielle (aber nicht notwendigerweise ökologisch verträgliche) Bedürfnisse nahmen wachsende Teile unserer Einkommen in Anspruch. Die Sättigung unserer Bedürfnisse wird in Teilbereichen sicher eintreten, aber eine allgemeine Sättigung ist nicht absehbar, weshalb uns die Arbeit nicht ausgehen wird. Sollte uns tatsächlich die Arbeit ausgehen, so hilft natürlich die Verlagerung von Tätigkeiten aus der erwerbswirtschaftlichen in die informelle Sphäre nicht. Unser Wachstumsmaß, das BIP, ist beschäftigungsrelevant, aber es ist blind hinsichtlich der Struktur des Outputs. Im Extrem ließe sich Wachstum beispielsweise allein durch Bildung nahezu unbegrenzt steigern. Es gibt sicher ausreichend unbefriedigte gesellschaftliche Bedarfe, die aber häufig im technologisch stagnierenden Teil des Dienstleistungssektors angesiedelt sind und deshalb steigende relative Preise aufweisen (Baumols Kostenkrankheit), was den Eindruck erweckt, dass sie unbezahlbar wären. Solange aber die gesamtwirtschaftliche Produktivität wächst, können wir uns mehr von allem leisten. Andere Argumentationen erliegen der Geldillusion.41
Literatur Alesina, A./Glaeser, E./Sacerdote, B. (2005): Work and Leisure in the US and Europe: Why so Different? NBER Macroeconomics Annual, 2005, Cambridge, Mass 2005. Arrow K., et al. (1995): Economic Growth, Carrying Capacity and the Environment, Ecological Economics Vol. 15, S. 91-95. Bailey, M./Solow, R. (2001): International Productivity Comparisons Built from the Firm Level, Journal of Economic Perspectives 15, S. 151-173. Baumol, W. (1967): The Macroeconomics of Unbalanced Growth: The Anatomy of Urban Crisis, American Economic Review 62, S. 415-426.
40 41
Im internationalen Maßstab erleiden die Länder Nachteile, die ihr kreatives und intellektuelles Potenzial nicht ausschöpfen. Vgl. Baumol (2007).
Arbeit ohne Zukunft? Zukunft ohne Arbeit?
105
Baumol, W. (2001): Paradox of the Services: Exploding Costs, Persistent Demand, in: Raa, T./Schettkat, R. (2001), The Growth of Service Industries: The Paradox of Exploding Costs and Persisten Demand. Cheltenham 2001. Baumol, W. (2007): On Mechanisms Underlying the Growing Share of Service Employment in the Industrialized Economies, in: Gregory, M./Salverda, W./Schettkat, R. (ed.) (2007), Services and Employment. Explaining the U.S.-European Gap. Princeton and Oxford 2007, S. 63-80. Becker, G. (1965): A Theory of the Allocation of Time, Economic Journal 75, S. 493-517. Blanchard, O. (2004): The Economic Future of Europe, Journal of Economic Perspectives 18, S. 3-26. de Graaf, J./Wann, D./Naylor, T. (2002): Affluenza. The All-Consuming Epidemic, San Francisco 2002. De Grauwe, P./Costá Storti, C. (2007): Monetäre Politik und reale Ökonomie, in: Schettkat, R./Langkau, J. (2007), Aufschwung für Deutschland. Plädoyer international renommierter Ökonomen für eine bessere Wirtschaftspolitik, Bonn 2007, S. 49-80. Freeman, R. (2007): Gesucht: Ein neues Wirtschaftswunder, in: Schettkat, R./Langkau, J. (2007), Aufschwung für Deutschland. Plädoyer international renommierter Ökonomen für eine bessere Wirtschaftspolitik. Bonn 2007, S. 195-224. Freeman, R./Schettkat, R. (2005): Marketization of Household Production and the EU-US Gap in Work, Economic Policy 20, S. 6-50. Friedman, B. (2005): The Moral Consequences of Economic Growth. New York 2005. Gregory, M./Salverda, W./Schettkat, R. (ed.) (2007): Services and Employment. Explaining the U.S.-European Gap, Princeton and Oxford 2007. Griliches, Z. (1992): Introduction to Output Measurement in the Service Sector, in: Griliches, Z. (1992), Output Measurement in the Service Sector, Chicago (1992). Hansen, A. (1941): Fiscal Policy and Business Cycles, New York 1941. Harrod, R. (1939): An Essay on Dinamic Theory, The Economic Journal 49, S. 14-33. Hartard, S./Schaffer, A./Stahmer, C. (Hrsg.) (2006): Die Halbtagsgesellschaft. Konkrete Utopie für eine zukunftsfähige Gesellschaft. Heston, A./Summers, R./Aten, B. (2002): Penn World Table. Version 6.1: Center for International Comparisons at the University of Pennsylvania 2002. Hirsch, F. (1995): Social Limits to Growth, New York and London 1995. Hirschmann, A. (1970): Exit, Voice and Loyalty, Cambridge 1970. Layard, R. (2006): Happiness. Lessons from a New Science, New York 2006. Linder, S. (1970): The Harried Leisure Class, New York 1970. Maddison, A. (2001): The World Economy: A Millennial Perspective, Paris 2001. Meadows, D. H/Meadows, D. L/Randers, J./Behrens, W. W. (1972): The Limits to Growth: a report for the Club of Rome’s project on the predicament of mankind, London 1972. Prescott, E. (2004): Why Do Americans Work so Much More than Europeans?, Federal Reserve Bank of Minesota Quarterly Review 28, S. 2-13. Putman, R. (2000): Bowling Alone: The Collapse and Revival of American Community, New York 2000. Schelling, T. (1978): Micromotives and Macro Behavior, New York 1978.
106
Ronald Schettkat
Scherhorn, G. (1995): Güterwohlstand versus Zeitwohlstand: über die Unvereinbarkeit des materiellen und des immateriellen Produktivitätsbegriffs, in: Biervert, Bernd (Hrsg.) (1995), Zeit in der Ökonomik: Perspektiven für die Theoriebildung, Frankfurt/Main 1995, S. 147-168. Schettkat, R. (2003): Differences in US-German Time-Allocation: Why Do Americans Work Longer Hours then Germans?, IZA Discussion Paper No. 697. Schettkat, R. (2006): Lohnspreizung: Mythen und Fakten. Eine Literaturübersicht zu Ausmaß und ökonomischen Wirkungen von Lohngleichheit, Edition der HansBöckler-Stiftung 183. Schettkat, R. (2009): Analyzing Rebound Effects, in: Wuppertal Institut (Hrsg.), Wuppertal-Papers Nr. 177, Wuppertal 2009 Schettkat, R./Sun, R. (2008): Monetary Policy and European Unemployment. Draft prepared for the LOWER Conference: "Institutions, Markets and European Unemployment Revisited: What have we learned?", Amsterdam April 18/19 2008. Schumpeter, J. (1934): Theorie der wirtschaftlichen Entwicklung. Berlin 1934. Scitovsky, T. (1976): The Joyless Economy. The Psycology of Human Satisfaction, London 1976. Shapiro, C./Varian, H. (1999): Information Rules, Boston/Mass. 1999. Solow, R. (2007). Die Beschränktheit der makroökonomischen Diskussion überwinden, in: Schettkat, R./Langkau, J. (2007), Aufschwung für Deutschland. Plädoyer international renommierter Ökonomen für eine bessere Wirtschaftspolitik, Bonn 2007, S. 35-48. Veblen, T. (1899): The Theory of the Leisure Class. An Economic Study on the Evolution of Institutions, New York 1899.
Personalmanagement im Reich der Mitte: Rekrutierung in China erfolgreich gestalten Stephan Weinert
1
Einführung
China ist der bedeutendste Wachstumsmarkt weltweit. Das Land wird sich zukünftig als eine führende Wirtschaftsnation etablieren. Angelockt von noch nicht erschlossenen Marktpotenzialen und der Aussicht auf immense Gewinne, zieht es immer mehr ausländische Unternehmen an, die den chinesischen Markt durch eigene Niederlassungen erschließen möchten. Die Expansion ausländischer Unternehmen kann indes nicht durch Expatriates alleine getragen werden. Vielmehr müssen Fach- und auch verstärkt Führungskräfte lokal rekrutiert werden. Dies stellt die Personalarbeit ausländischer Unternehmen in China vor enorme Herausforderungen. Um diese zu meistern, bedarf es umfassender Kenntnisse über den chinesischen Arbeitsmarkt und spezieller Informationen darüber, wie dringend benötigte Manager, Spezialisten und Facharbeiter erfolgreich rekrutiert werden können. Eine Vielzahl dieser Informationen wird im Folgenden zur Verfügung gestellt. Entsprechend ist es Ziel dieses Artikels, Anregungen zu geben, welche Aspekte für die Entwicklung und Umsetzung einer nachhaltigen Rekrutierungsstrategie in China notwendig sind.
2
Bedeutung des Wirtschaftsstandorts China für deutsche Unternehmen
Chinas Wirtschaft ist nach Jahrzehnten der Stagnation zu einer weltweiten „Wachstumslokomotive“ geworden. Das Land hat die ökonomisch wie sozial schwierigen Zeiten, insbesondere hervorgerufen durch die von Mao Zedong
108
Stephan Weinert
initiierte Kampagne „Großer Sprung nach vorn“ (1959-1961) sowie im Nachgang der „Kulturrevolution“ (1966-1977), die zu extremer Armut und politischer Verfolgung führten, erfolgreich hinter sich gelassen. An diesem Aufschwung wird sich voraussichtlich, auch wenn die derzeitige ökonomische Krise selbst im Reich der Mitte tiefe Spuren hinterlässt, langfristig nichts ändern. Chinas Volkswirtschaft wächst so rasant, dass das Land sogar aus der Gruppe der BRIC-Staaten (Brasilien, Russland, Indien, China), die allgemein als die Länder mit dem größten ökonomischen Wachstumspotenzial gelten, herausragt. So gehen Prognosen davon aus, dass China, gemessen in US$ berechnetem Bruttoinlandsprodukt (BIP), Deutschland im Jahr 2010 und Japan im Jahr 2015 überholen wird – lange Zeit vor dem zweiten großen Wachstumsmarkt Indien, der Deutschland aller Voraussicht nach erst im Jahr 2020 und Japan im Jahr 2030 ökonomisch überflügelt. China ist in der Gruppe der BRIC zudem das einzige Land, dass es zukünftig schaffen kann, auf Augenhöhe mit der USWirtschaft zu sein – allerdings erst im Jahr 2040.1 Im Durchschnitt erwirtschaftete die Volksrepublik China in den Jahren 2006-2008 ein BIP von US$ 3,5 Bio., die Bundesrepublik hingegen ein BIP von US$ 2,8 Bio. Beeindruckend ist Chinas Wachstum aber nicht nur in absoluten Zahlen. Im selben Zeitraum betrug die durchschnittliche Wachstumsrate Chinas 11,2%, während Deutschland 2,3% erreichte.2 Diese Zahlen dürfen den Betrachter allerdings nicht von Chinas ökonomischen Schwächen ablenken. So stellt insbesondere die Inflation, die im Jahr 2008 fast 9% betrug, das Land vor enorme Herausforderungen. Zudem zeigt das BIP pro Einwohner, dass China ökonomisch noch enorm aufholen muss, um das Niveau führender westlicher Industrienationen zu erreichen. So lag das BIP pro Einwohner in China im Jahr 2008 lediglich bei US$ 3.270, in Deutschland hingegen bei ca. US$ 35.000.3 Allen derzeit noch existierenden Schwächen zum Trotz, lässt die enorme Dynamik Chinas, die exemplarisch in Tabelle 1 zusammengefasst ist, doch bereits heute den Rückschluss zu, dass das Land in den kommenden Jahren einen festen Platz unter den weltweit führenden Wirtschaftsnationen einnehmen und langfristig erfolgreich behaupten wird. Eine Vielzahl deutscher Unternehmen hat diese positive Entwicklung bereits vor Jahren identifiziert und entsprechend begonnen, die lokale Präsenz in Form von Tochtergesellschaften auszubauen (Abbildung 1). Diese konnten ihre Umsätze sukzessive steigern und tragen somit verstärkt zum weltweiten Geschäftsergebnis bei (Abbildung 2).
1 2 3
Vgl. Goldman Sachs (2006), S. 7. Vgl. Deutsche Bank Research (2009). Vgl. CIA World Fact Book (2009).
Personalmanagement in China: Rekrutierung erfolgreich gestalten
109
Tabelle 1: Zentrale Indikatoren der Wirtschaftsleistung Chinas4 Indikator
Maßeinheit
2005
2006
2007
2008
2009
BIP (absolut)
US$ Mrd.
2.306
2.779
3.393
4.342
4.799
BIP pro Kopf
US$
1.764
2.115
2.568
3.270
3.596
BIP Wachstum (relativ)
%
10,4
11,6
13,0
9,0
6,8
US$ Mrd.
1.391
1.722
2.125
2.503
2.287
%
4,2
3,3
5,2
8,7
k.A.
Handelsbilanz Inflation
So hat Volkswagen beispielsweise bereits 1984 eine eigene Produktionsstätte in Form eines Joint Ventures (JV) mit einem einheimischen Partner gegründet, die Shanghai Volkswagen Automotive Company. Ein weiteres JV folgte im Jahr 1990 mit der FAW – der Volkswagen Automotive Company. Bis heute investierte der Volkswagenkonzern dafür weit über EUR 5 Mrd.5 Ein weiteres Beispiel ist BASF. Schon vor über 15 Jahren gründete der Chemiekonzern in Nanjing eine Produktionsanlage für ungesättigte Polyesterharze, die mit einem chinesischen Partner gebaut wurde. In den Folgejahren weitete BASF sein Netz an Tochtergesellschaften und JV immer weiter aus.6
4 5 6
Vgl. Deutsche Bank Research (2009), World Bank (2009). Vgl. Volkswagen (2009). Vgl. BASF (2009).
110
Stephan Weinert
Abbildung 1:
Anzahl deutscher Auslandsniederlassungen in China von 1998 bis 20067
Anzahl (absolut)
1000 800 600 400 200 0 1998
Abbildung 2:
1999
2000
2001
2002
2003
2004
2005
2006
Umsatzentwicklung deutscher Auslandsniederlassungen in China von 1998 bis 20068
60
Umsatz (€ Mrd.)
50 40 30 20 10 0 1998
7 8
1999
2000
Vgl. Deutsche Bundesbank (2009). Vgl. Deutsche Bundesbank (2009).
2001
2002
2003
2004
2005
2006
Personalmanagement in China: Rekrutierung erfolgreich gestalten
111
Doch nicht nur multinationale Großunternehmen bauen ihre Chinapräsenz aus. Insbesondere nachdem die chinesische Regierung im Jahr 2004 der Forderung der Welthandelsorganisation nachgekommen ist, die die Aufhebung der ZwangsJV9 mit chinesischen Partnern zur Folge hatte, gründeten zunehmend mittelständische Unternehmen eigene Niederlassungen in der Volksrepublik, was zu einem weiteren Anstieg deutscher Tochtergesellschaften führte. Beispielhaft für andere Mittelständler sei hier der Sanitärkamerikhersteller Duravit genannt, der vor vier Jahren für US$ 20 Mio. eine Fabrik in Chongqing gebaut hat.10 Der Anstieg an ausländischen Tochtergesellschaften, Beteiligungen und Repräsentanzen in China hat zur Folge, dass immer mehr qualifizierte einheimische Fach- und Führungskräfte benötigt werden. Dies stellt die Personalarbeit ausländischer Unternehmen in China vor enorme Herausforderungen, insbesondere im Hinblick auf ein effizientes und nachhaltiges Recruiting. Ein solides Wissen über den chinesischen Arbeitsmarkt ist dafür ebenso erfolgsentscheidend, wie detaillierte Kenntnisse über Rekrutierungskanäle sowie zielgruppenspezifische Motivations- und Bindungsmotive.
3
Der chinesische Arbeitsmarkt
China hat zurzeit eine Gesamtbevölkerung von über 1,3 Mrd. Menschen. Das Bevölkerungswachstum ist weiterhin ansteigend – trotz der lange Zeit praktizierten „One Child Policy“. So wird die chinesische Bevölkerung bis zum Jahr 2020 um weitere 100 Mio. zunehmen (Abbildung 3). Man kann daher leicht dem Trugschluss unterliegen, dass in China kein Mangel an Arbeitskräften existiert. Diese Schlussfolgerung ließe sich zudem durch die Analyse der Altersstruktur untermauern. Stellt man nämlich exemplarisch Chinas und Deutschlands Altersstruktur gegenüber, so zeigt sich, dass erstere über eine erheblich jüngere Bevölkerung verfügt (Abbildung 4). So beträgt der Anteil der bis 14jährigen an der Gesamtbevölkerung Chinas 20%, in Deutschland hingegen 14%. Ebenso liegt der Anteil der 15-64jährigen in China mit 72% über dem Deutschlands mit gerade mal 66%. Entsprechend ist der Anteil der über 65jährigen in Deutschland mit 20% wesentlich stärker ausgeprägt. In China repräsentiert diese Gruppe lediglich 8% der Gesamtbevölkerung. 9
10
Bis zum Jahr 2004 durften ausländische Unternehmen keine eigenständigen Tochtergesellschaften in China gründen, sondern mussten JV mit einheimischen Partnern eingehen. Diese Maßnahme der chinesischen Regierung sollte den Wissens- und Technologietransfer verstärken, um die einheimische Wirtschaft möglichst zeitnah auf das Niveau westlicher Industrienationen zu heben. Vgl. Duravit (2009).
112
Stephan Weinert
Abbildung 3:
Entwicklung der Bevölkerungszahl in China11
Anzahl in Mio.
1.500
1.423,9 1.354,5
1.331,4 1.250
1.000 2007
Abbildung 4:
relative Anteile an Gesamtbevölkerung
100
2010
2020
Altersstruktur in China im Vergleich zu Deutschland im Jahr 200812 8
20
80 60
72 66
40 20 20
14
China
Deutschland
0
0 bis 14
15 bis 64
65+
Entsprechend dem Anteil an Menschen in China, die zwischen 15-64 Jahren alt sind, verfügt das Land über eine hohe Zahl Erwerbsfähiger. Absolut ausgedrückt waren es im Jahr 2008 ca. 800 Mio. Menschen. Damit hat China 760 Mio. mehr 11 12
Vgl. International Labour Organisation (2009). Vgl. CIA World Fact Book (2009).
Personalmanagement in China: Rekrutierung erfolgreich gestalten
113
Erwerbsfähige als Deutschland. Weltweit stellt China damit ca. 26% der erwerbsfähigen Bevölkerung.13 Trotz all dieser auf den ersten Blick beeindruckenden Zahlen stellen der Aufbau und die Aufrechterhaltung eines leistungsstarken und nachhaltigen Personalmanagements in China Unternehmen vor enorme Herausforderungen. Speziell bei der Rekrutierung von Fach- und Führungskräften stoßen viele ausländische Unternehmen schnell an ihre Grenzen, da sie die Besonderheiten und Dynamiken des chinesischen Marktes unterschätzen. Eine oberflächliche Betrachtung der Bevölkerungs- und Erwerbsfähigenzahlen trägt in diesem Zusammenhang mitunter zu gravierenden Fehleinschätzungen bei. Daher sind diese Zahlen kritisch zu hinterfragen und in Relation zu setzen. So existiert beispielsweise ein gravierender Mangel an qualifiziertem Personal – trotz der über 800 Mio. Erwerbsfähigen und der großen Zahl an Hochschulabgängern, die jedes Jahr millionenfach auf Chinas Arbeitsmarkt drängen. Allein im Jahr 2009 sind es laut offizieller Zahlen der Regierung rund 6,1 Mio. Absolventen.14 Auf den ersten Blick ist ein Fachkräftemangel daher kaum zu erkennen, nicht einmal bei Qualifikationen, die auf starke Nachfrage stoßen, zum Beispiel Absolventen der Natur- und Technikwissenschaften. Dem gravierenden Ingenieurmangel, den deutsche Unternehmen in der Heimat beklagen, steht in China ein hoher Anteil an Ingenieurstudenten gegenüber. So sind 8 Mio. der insgesamt 23 Mio. Hochschulstudenten für ein ingenieurwissenschaftliches Fach eingeschrieben.15 Auf den zweiten Blick offenbart sich allerdings, dass die hohen absoluten Zahlen die Wirklichkeit des chinesischen Arbeitsmarktes nur sehr bedingt widerspiegeln. Ein gravierender Mangel herrscht in diesem Zusammenhang nicht nur an Spezialisten und Führungskräften, sondern generell an qualifiziertem Personal. Das Ausmaß an Knappheit ist dabei so hoch, dass die Gewinnung qualifizierter Mitarbeiter in China von Unternehmen sogar als die maßgebliche Hürde bezeichnet wird (Abbildung 5). Dieses Problem wird zusätzlich durch den Wettbewerb zwischen den Unternehmen um diese knappen Human-Ressourcen verschärft. Darüber hinaus spielt der Standort des Unternehmens bei der Entscheidung eines Kandidaten für oder gegen dessen Offerte eine wichtige Rolle. So lässt sich generell sagen, dass Unternehmen, deren Standorte in der chinesischen Provinz angesiedelt sind, sich wesentlich schwerer tun, ihre Wunschkandidaten zu überzeugen, als Unternehmen, die ihre lokale Präsenz im Einzugsgebiet von Ballungszentren wie Shanghai, Peking oder Hong Kong aufweisen. Schließlich können die Unternehmensmarke bzw. Employer Branding einen starken Einfluss auf die Entscheidung 13 14 15
Vgl. CIA World Fact Book (2009). Vgl. Spiegel Online (2006). Vgl. Spiegel Online (2006).
114
Stephan Weinert
potenzieller Mitarbeiter ausüben. Weltweit bekannte Konzerne wie Coca Cola, Microsoft oder Volkswagen sprechen allein aufgrund ihrer Größe und Reputation Kandidaten an. Letztere erhoffen sich von der Arbeit bei einem solchen Unternehmen ein höheres Gehalt sowie bessere Trainings- und Karrieremöglichkeiten. Ein starkes Employer Brand verspricht zudem ein höheres soziales Prestige, was die Entscheidung von Kandidaten ebenfalls positiv beeinflussen kann. Westliche Unternehmen, die über ein entsprechendes Employer Branding verfügen, sind allerdings gut beraten, nicht allein auf dessen positive Ausstrahlung auf chinesische Arbeitskräfte zu vertrauen. In der Vergangenheit zeigte sich zwar, dass insbesondere die junge Generation eine starke Neigung zu bekannten ausländischen Unternehmen aufwies. In den letzten Jahren haben es einheimische Firmen aber immer besser verstanden, eigene Unternehmensmarken aufzubauen, die insbesondere den ausgeprägten Nationalstolz der Chinesen ansprechen und sich zueigenmachen. Ein besonders erfolgreiches Unternehmen ist in diesem Zusammenhang Lenovo. Seit dem Kauf der PC-Sparte von IBM gehört es zu den weltweit führenden Herstellern von Computerhardware. Damit stellt Lenovo eines der bislang wenigen chinesischen Unternehmen dar, die technologisch im globalen Wettbewerb nicht nur auf Augenhöhe agieren können, sondern diesen auch zunehmend dominiert. Lenovo steht so stellvertretend für Chinas Anspruch, eine führende Wirtschaftsnation zu sein. Dementsprechend übt das Unternehmen auf zahlreiche gut ausgebildete chinesische Arbeitskräfte eine große Anziehungskraft aus. Neben dem Mangel an Fach- und Führungskräften stellt die hohe Fluktuation eine weitere erhebliche Schwierigkeit für das Personalmanagement dar. Zu beachten ist hier allerdings, dass die Fluktuation in Abhängigkeit vom jeweiligen Qualifikationslevel bisweilen starken Schwankungen unterliegt (Abbildung 6).
Personalmanagement in China: Rekrutierung erfolgreich gestalten Abbildung 5:
115
Wesentliche Hürden bei der Gewinnung qualifizierter Mitarbeiter in China im Jahr 200816 prozentualer Anteil der Antworten
0
20
40
60
80
100
Zu wenig qualifiziertes Personal Wettbewerb Attraktivität des Standorts Geringes Markenimage Wahrgenommene Unternehmenskultur Geringe Karriereentwickl.möglichk. Zu wenig Trainingsmaßnahmen
Generell kann die Tendenz festgestellt werden, dass mit abnehmender Qualifikation die Fluktuation steigt. Dies lässt sich u.a. damit erklären, dass die Zahl von sehr erfahrenen Führungskräften sowohl relativ als auch absolut äußerst gering ist. Firmen, die über diese erfolgskritische Ressource verfügen, unternehmen daher gewaltige Anstrengungen, diese mit lukrativen Vergütungspaketen zu halten. Letztere wirken sich zwar auf eine Absenkung der Fluktuation aus. Allerdings sind trotz dieser Maßnahmen auch bei dieser Gruppe Fluktuationsraten von über 20% festzustellen. Neben dem Qualifikationsniveau sind deutliche Unterschiede bei der Fluktuation in Abhängigkeit von der Dauer der Firmenzugehörigkeit zu beobachten. Zahlreiche Arbeitnehmer verlassen ihre Unternehmen bereits zwischen dem ersten und dritten Jahr wieder. Zwischen dem ersten und zweiten Jahr sind dies durchschnittlich 40%, zwischen dem zweiten und dritten Jahr immerhin noch 25%. Erst nach einer Firmenzugehörigkeit von über drei Jahren nimmt die Fluktuation deutlich ab (Abbildung 7).
16
Vgl. China Employee Attraction & Retention Survey (2008).
116
Stephan Weinert
prozentualer Anteil der Antworten
Abbildung 6:
Durchschnittliche jährliche Fluktuation in China pro Unternehmensebene17
100 80 60 40 20 0 Se nior Manage r
Fluktuationsrate
Abbildung 7:
< 5%
Manage r
6 bis 10%
Fachkraft
11 bis 19%
Einfache r Arbe ite r
> 20%
Durchschnittliche jährliche Fluktuation von Mitarbeitern in China nach Unternehmenszugehörigkeit18 Fluktuationsrate ; re l. Häufigke it de r Antworte n
Unternehmenszugehörigkeit in Jahren
0
10
20
30
40
50
< 0,5 0,5 bis 1 1 bis 2 2 bis 3 3 bis 4 4 bis 5
Die Gründe für die hohe Fluktuation bei relativ kurzer Firmenzugehörigkeit sind vielfältig. Besonders hervorzuheben sind sicherlich die mitunter hohen Ansprüche gut ausgebildeter Absolventen auf der einen Seite und der zunehmende „War
17 18
Vgl. China Employee Attraction & Retention Survey (2008). Vgl. China Employee Attraction & Retention Survey (2008).
Personalmanagement in China: Rekrutierung erfolgreich gestalten
117
for Talents“19 auf der anderen, der eine Abwerbungsspirale zwischen Unternehmen über eben dieses Klientel mit immer lukrativeren Angeboten ausgelöst hat. Zusammenfassend lässt sich festhalten, dass bei einer genaueren Analyse des chinesischen Arbeitsmarkts ein deutlicher Mangel an (hoch-)qualifizierten Fach- und Führungskräften existiert. Da sich diese Problematik allen aktuellen Studien zufolge auch auf absehbare Zeit kaum maßgeblich ändern wird, gewinnt die Rekrutierung dieser Zielgruppen eine herausragende Bedeutung für die Sicherung und den Ausbau der Wettbewerbsfähigkeit. Im Folgenden soll daher näher erläutert werden, welche grundlegenden Aspekte für eine erfolgreiche Rekrutierungsstrategie unbedingt beachten werden sollten.
4
Grundlagen erfolgreicher Rekrutierung in China
Eine langfristig erfolgreiche Rekrutierungsstrategie setzt generell voraus, dass diese aus der Unternehmensstrategie abgeleitet werden muss. Eine ausführliche Analyse derselben ist daher zwingend erforderlich. Darüber hinaus sind branchen- sowie landesspezifische Besonderheiten einzubeziehen. Auf Letztere soll nun näher, wenngleich nicht erschöpfend, eingegangen werden.
4.1 Rekrutierungskanäle und -zeiten Um eine gezielte Ansprache der jeweiligen Zielgruppe mit möglichst geringen Streuverlusten zu ermöglichen, sind entsprechende Kenntnisse über geeignete und in China besonders verbreitete Rekrutierungskanäle unerlässlich. Hierbei zeigt sich, dass sich diese in ihrer Anwendungshäufigkeit bei Fach- und Führungskräften mitunter deutlich unterscheiden (Abbildung 8).
19
Der Begriff „War for Talents“ stammt aus einem gleichnamigen Buch, das auf einer McKinsey-Studie aus dem Jahr 1997 basiert, in der der Mangel an geeigneten Fachkräften analysiert wird.
118
Stephan Weinert
Abbildung 8:
Häufigste Rekrutierungskanäle in China nach Zielgruppen20
Personalvermittler / Exec. Search
Mitarbeiterempfehlung
Stellenanzeige Zeitung 0
20
40
60
80
100
proz e ntuale r Ante il de r Antworte n Fachkraft
Senior Manager
Bei der Suche nach Führungskräften zeigen aktuelle Studien, dass in über zwei Drittel der Fälle spezialisierte Personalvermittler bzw. Executive SearchUnternehmen eingesetzt werden. Dies kann dadurch erklärt werden, dass qualifizierte und erfahrene Führungskräfte, wie bereits zuvor ausgeführt, auf dem freien Arbeitsmarkt kaum zu finden sind. Um diese Personen ausfindig zu machen und deren Interesse zu wecken, scheint die persönliche Ansprache durch professionale „Head Hunter“ besonders gut geeignet. Weitere Kanäle sind zudem die lokalen Arbeitsämter sowie Mitarbeiterempfehlungen. Letztere werden in immer mehr Unternehmen aktiv gefördert. Für diese Rekrutierungsmethode sprechen die relativ geringen Kosten bei einer zugleich hohen Erfolgswahrscheinlichkeit, qualifizierte Kandidaten zu gewinnen. Immer häufiger werden daher spezielle „Mitarbeiter-finden-Mitarbeiter-Programme“ implementiert. Diese beinhalten Prämien (monetärer als auch nicht monetärer Art), die ein Mitarbeiter bei der erfolgreichen Vermittlung eines Kandidaten für eine vakante Stelle erhält. Die Mitarbeiterempfehlung wird von knapp 40 % der Unternehmen genutzt, um Fachkräfte anzuwerben. Noch häufiger wird nur noch die Stellenanzeige im Internet mit circa 50 % angewandt. Neben der Wahl geeigneter Rekrutierungskanäle ist insbesondere die Rekrutierungszeit (ausgedrückt durch die Zeitspanne zwischen Stellenausschreibung und Unterzeichnung des Arbeitsvertrags) ein wichtiger Faktor, den es in China 20
Vgl. China Employee Attraction & Retention Survey (2008).
Personalmanagement in China: Rekrutierung erfolgreich gestalten
119
zu beachten gilt. Je nach Qualifizierung können die Zeitspannen mitunter hoch sein. So dauert die Suche nach einem Senior Manager bei ca. 75 % der Unternehmen im Durchschnitt über drei Monate. Für die Besetzung einer ManagerPosition des mittleren Managements benötigen zwei Drittel ein bis drei Monate, bei Fachkräften ist die Zeitspanne in etwas vergleichbar. Nur einfache Arbeiter können relativ schnell rekrutiert werden. Circa 50 % der Unternehmen sind in der Lage, bei dieser Zielgruppe vakante Stellen in 16 bis 30 Tagen zu füllen, knapp 40 % der Unternehmen brauchen hierfür jedoch auch durchschnittlich ein bis drei Monate (Abbildung 9). Insgesamt bleibt festzuhalten, dass die Ansprache bestimmter Zielgruppen auf dem chinesischen Arbeitsmarkt durch die Wahl spezifischer Kanäle optimiert werden kann. Dennoch sind längere Zeiträume, insbesondere bei Managern, bis zur Einstellung zu überbrücken. Mittelfristig können ausländische Firmen auf den Einsatz von Expatriates für die oberen Unternehmensebenen ihrer in China ansässigen Auslandsniederlassungen daher weiterhin wohl nicht verzichten.
prozentualer Anteil der Antworten
Abbildung 9:
Rekrutierungszeiten in China nach Zielgruppe21
100 80 60 40 20 0
Rekr. Dauer
Senior Manager
6 bis 15 Tage
Manager
16 bis 30 Tage
Fachkraft
1 bis 3 Monate
Einfacher Arbeiter
> 3 Monate
4.2 Gehalt und Nebenleistungen Erfolgreiche Rekrutierung sowie Bindung von Mitarbeitern setzt voraus, dass diese marktkonform vergütet werden. Vergleichbarkeit gilt es sowohl in der Höhe des Gehalts als auch bei der Zusammensetzung zu beachten. Bei der Höhe 21
Vgl. China Employee Attraction & Retention Survey (2008).
120
Stephan Weinert
können regionale Unterschiede mitunter gravierend sein. So lag das jährliche Grundgehalt eines Personalleiters in Peking im Jahr 2007 bei ca. US$ 65.000, in Guangzhou in der Provinz Guangdong bei US$ 48.000, in Nanjing, Hauptstadt der Provinz Jiangsu, sogar nur bei US$ 25.000.22 Bei der Rekrutierung ist aber nicht nur auf die Höhe eines positionsadäquaten Gehalts, sondern auch auf die Zusammensetzung der Gehaltsbestandteile zu achten. Diese setzen sich in ihrer Bedeutung für einzelne Zielgruppen unterschiedlich zusammen (Tabelle 2). Tabelle 2: Top 5 der Gehaltsbestandteile für einzelne Mitarbeitergruppen in China23 Rang
Senior Manager
Manager
Fachkraft
1
Marktkonformes Gehalt
2
Stock Options
Marktkonformes Gehalt Leistungsbezogene variable Vergütung
Marktkonformes Gehalt Leistungsbezogene variable Vergütung
3
Leistungsbezogene variable Vergütung
Retention Bonus
Sonstige Boni
4
Retention Bonus
Sonstige Boni
Retention Bonus
5
Sonstige Boni
Stock Options
Stock Options
Ein Grundgehalt, dessen Höhe mit dem vergleichbarer Positionen im Einklang steht, ist für Mitarbeiter aller Unternehmensebenen das wichtigste Entscheidungskriterium bei der Wahl eines Arbeitgebers. Personalverantwortliche sind daher gut beraten, entsprechende Gehaltsdaten als Entscheidungsgrundlage heranzuziehen. Diese Gehalts-Benchmark-Daten sollten mindestens zwischen Position, Unternehmensgröße und Industrie differenzieren, damit eine kostenminimale sowie marktkonforme Vergütung angeboten werden kann. Bei Führungskräften der oberen und mittleren Ebenen spielen zudem Aktienoptionen bzw. Stock Options eine immer wichtigere Rolle. Letztere sind eher mittel- bis langfristig orientiert, wohingegen die leistungsbezogene variable Vergütung kurzfristig (i.d.R. erfolgt die Auszahlung jährlich und in bar) ausgezahlt wird. Retention bzw. Mitarbeiterbindungsboni stellen ebenfalls einen wichtigen Gehaltsbestandteil dar. Die Auszahlung erfolgt hier erst nach Ablauf einer 22 23
Vgl. Managing China’s HR Environment (2007). Vgl. China Employee Attraction & Retention Survey (2008).
Personalmanagement in China: Rekrutierung erfolgreich gestalten
121
vorher vereinbarten Bindungsfrist. Zudem gelten sie nur für einzelne Personen oder Gruppen und zielen darauf ab, besonders leistungsfähige und spezialisierte Mitarbeiter zu halten. In Anbetracht hoher Fluktuationsraten in China gewinnen solche monetären Anreize im Rahmen von Mitarbeiterbindungsprogrammen immer stärker an Bedeutung.24 Neben den monetären Gehaltsbestandteilen sind zudem betriebliche Nebenleistungen und deren Unterschiede für einzelne Mitarbeitergruppen zu beachten (Tabelle 3). Tabelle 3: Top 5 der Nebenleistungen für einzelne Mitarbeitergruppen in China25 Rang
Senior Manager
Manager
1
Krankenversicherung
Krankenversicherung
2
TeambuildingAktivitäten
3
Flexible Arbeitszeiten
TeambuildingAktivitäten Zusätzliche Urlaubstage
4
Wellnessprogramme
Flexible Arbeitszeiten
5
Zusätzliche Urlaubstage
Unternehmensdarlehen
Fachkraft Krankenversicherung Zusätzliche Urlaubstage TeambuildingAktivitäten Flexible Arbeitszeiten Unternehmensdarlehen
Eine betriebliche Krankenversicherung ist für alle Mitarbeiter, unabhängig von ihrer Unternehmensebene, die wichtigste Nebenleistung. Eine solche anzubieten stellt häufig ein ausschlaggebendes Kriterium für eine erfolgreiche Rekrutierung dar. Der Grund ist, dass China über ein rudimentäres und äußerst vielschichtiges Gesundheitssystem verfügt, das bestenfalls eine Mindestversorgung sicherstellen kann. Zwar plant die Regierung, bis zum Jahr 2010 ein neues, verbessertes Krankenversicherungssystem in ganz China zu verbreiten, die Bedeutung einer zusätzlichen Absicherung über eine betriebliche Krankenversicherung wird voraussichtlich dennoch kaum sinken. Zurzeit stehen für alle Arbeiter und Angestellten in festen Beschäftigungsverhältnissen zehn bezahlte Feiertage zur Verfügung. Künftig werden diese zwar um einen Tag erhöht, in Anbetracht der weiterhin geringen Zahl an Feiertagen stellen zusätzliche, vertraglich vereinbarte Urlaubstage allerdings eine bedeuten24 25
Siehe für nähere Informationen zu Mitarbeiterbingsprogrammen bspw. Weinert (2008). Vgl. China Employee Attraction & Retention Survey (2008).
122
Stephan Weinert
de Nebenleistung dar, die die Erfolgswahrscheinlichkeit der Rekrutierungsaktivitäten verbessert. Weitere Nebenleistungen wie Teambuilding-Aktivitäten, Unternehmensdarlehen und flexible Arbeitszeiten sind für die einzelnen Mitarbeitergruppen ebenfalls von Bedeutung, wenngleich in unterschiedlicher Ausprägungsstärke. Auf deren Ausgestaltung soll an dieser Stelle allerdings nicht näher eingegangen werden, da sie als weniger wichtig einzuschätzen sind.
4.3 Karriere und Entwicklung Neben Gehalt und Nebenleistungen werden „weiche“ Faktoren, die das berufliche Weiterkommen betreffen, häufig nicht oder nur unzureichend berücksichtigt. Dies ist ein gravierender Fehler, denn es sind gerade diese schwer quantifizierbaren Faktoren, die für eine nachhaltige Differenzierung vom Wettbewerb und eine erfolgreiche Rekrutierungsstrategie in China verantwortlich sind. Zudem sind diese Faktoren zwar nicht kostenneutral, können langfristig aber kostenminimal wirken. Dies liegt daran, dass Individuen bei ihren Entscheidungen für oder gegen ein Unternehmen Gehalt, Nebenleistungen und Karriere gleichermaßen berücksichtigen. Vernachlässigt ein Unternehmen beispielsweise karrierebezogene Anreize, müssen diese durch kostenintensive, monetäre Faktoren überkompensiert werden. Hingegen können Unternehmen mit klar strukturierten Karrierewegen und einer zielgruppengerechten Unternehmenskultur Kandidaten trotz (unter-)durchschnittlichem Gehalt für sich begeistern, insbesondere dann, wenn es sich bei dieser Gruppe um Berufseinsteiger und Young Professionals handelt. Die wichtigsten karrierebezogenen Faktoren für verschiedene Positionsklassen sind nachfolgend abgebildet (Tabelle 4). Dabei zeigt sich, dass ein auf die einzelne Person individuell zugeschnittener Karriereplan insbesondere für Führungskräfte herausragende Bedeutung besitzt. Ein solcher Plan zeigt nicht nur die möglichen Karrierestufen und die für jede Stufe notwendigen Qualifikationen, Erfahrungen und Kompetenzen auf. Er illustriert auch, wie die Führungskraft durch gezielte On- und Off-the-JobEntwicklungsmaßnahmen die einzelnen Stufen im Zeitverlauf erklimmen können. Solche individuellen „Wegweiser“ setzen allerdings eine entsprechend qualifizierte und mit den notwendigen Ressourcen ausgestattete Personalentwicklung voraus, über die in China derzeit nur die wenigstens Unternehmen, einheimische wie ausländische eingeschlossen, verfügen.
Personalmanagement in China: Rekrutierung erfolgreich gestalten
123
Tabelle 4: Top 5 der karrierebezogenen Faktoren für einzelne Mitarbeitergruppen26 Rang
Senior Manager
Manager
Fachkraft
1
Individuelle Karriereplanung
Individuelle Karriereplanung
2
Nachfolgeplanung
Auslandsentsendungen
3
Auslandsentsendungen
Nachfolgeplanung
Auslandsentsendungen Individuelle Karriereplanung Training/ Fortbildung
4
Job Rotation
Job Rotation
Job Rotation
5
Training/Fortbildung
Training/ Fortbildung
Nachfolgeplanung
Auslandsentsendungen stellen für Führungs- als auch für Fachkräfte ebenfalls einen starken Anreiz dar. Solche Entsendungen bieten die Möglichkeit, den eigenen Erfahrungshorizont zu erweitern und neue Kompetenzen zu erlangen. Wenngleich immer mehr Chinesen außerhalb der Volksrepublik studieren, ist deren Zahl relativ gesehen weiterhin äußerst gering. Auslandserfahrung wird indes gerade von den für die Chinesen attraktiven multinationalen Unternehmen gefordert. Können Arbeitgeber ihren Mitarbeitern Möglichkeiten des Auslandseinsatzes im Rahmen der Karriereentwicklung bieten, erhöhen sie merklich ihre Attraktivität auf dem Arbeitsmarkt. Die hohe Lernbereitschaft chinesischer Mitarbeiter zeigt sich dabei in deren Präferenz für Job Rotation und Trainings-/Fortbildungsmaßnahmen. Erstere erfolgen On-the-Job und ermöglichen die zeitlich befristete Arbeit in unterschiedlichen Unternehmensbereichen. Hierdurch sollen neue Fähigkeiten und Kompetenzen gezielt erlernt werden. Trainings- und Fortbildungsmaßnahmen erfolgen hingegen häufig Off-the-Job. Besonders beliebt sind bei Führungskräften MBA-Programme ausländischer Spitzenuniversitäten. Um an einem solchen Studium teilzunehmen, müssen die Teilnehmer nicht einmal mehr ihr Heimatland verlassen. So bietet beispielsweise die University of Texas MBAStudiengänge vollständig sowohl in den USA als auch in ihrer Dependance in China an. Andere Universitäten folgen diesem Beispiel. So eröffnete die Harvard University im Jahr 2008 eine Außenstelle in Shanghai und plant, dort den MBA sowie weitere Studiengänge anzubieten.
26
Vgl. China Employee Attraction & Retention Survey (2008).
124 5
Stephan Weinert Fazit
Die Rekrutierung einer ausreichenden Zahl von (hoch-)qualifizierten Fach- und Führungskräften stellt ausländische Unternehmen in China vor enorme Herausforderungen. Dafür sind häufig fehlende oder mangelhafte Informationen über den chinesichen Arbeitsmarkt, dessen zentrale Einflussgrößen und Trends maßgeblich verantwortlich. Ausländische Unternehmen, die einen Einstieg in China durch lokale Niederlassungen planen und einheimisches Personal einstellen wollen, sollten sich daher frühzeitig mit den lokalen Besonderheiten detailliert auseinandersetzen. Kenntnisse über zielgruppengerechte Rekrutierungskanäle, -zeiten und Fluktuationsraten sind unerlässlich. Zudem ist eine sorgfältige Segmentierung des Arbeitsmarkts notwendig. Nur so können regionale Unterschiede, zum Beispiel bezogen auf die Anzahl und die Qualifikation von verfügbaren Arbeitskräften, erkannt werden. Von besonderer Bedeutung ist zuletzt die zielgruppengerechte Zusammenstellung des Vergütungspaketes. Dabei ist speziell darauf zu achten, dass unter Vergütung nicht allein monetäre Elemente verstanden werden. Vielmehr sollten drei gleichermaßen bedeutsame Säulen, bestehend aus Gehalt, betrieblichen Nebenleistungen sowie Karriere- und Entwicklungsmaßnahmen, enthalten sein. Erst durch das richtige Zusammenspiel von Elementen dieses Dreiklangs können attraktive Vergütungspakete erstellt werden, die eine erfolgreiche Rekrutierung und langfristige Mitarbeiterbindung in China ermöglichen.
Literatur BASF (2009): BASF's History 1965-2006. URL: http://www.basf.com/group/corporate/ de/about-basf/history/1965-2006/index. CIA World Fact Book (2009): Country Information. URL: https://www.cia.gov/library/ publications/the-world-factbook. Deutsche Bank Research (2009): Country Infobase, URL: http://www.dbresearch.de/ servlet/reweb2.ReWEB?rwsite=CIB_INTERNET_EN-PROD&$rwframe=0. Deutsche Bundesbank (2009): Außenwirtschaftsstatistik. URL: http://www.bundesbank. de/statistik/statistik_aussenwirtschaft.php. Duravit (2009): Historie. URL: http://www.duravit.de/unternehmen/portrait/historie-use o6nhru6.html. Goldmann Sachs (2006): BRICs-Kompass. Goldmann Sachs, Frankfurt a.M 2006. International Labour Organisation (2009): LABORSTA Database China. URL: http:// laborsta.ilo.org. Mercer (2007): Managing China’s HR Environment, New York et al. 2007. Mercer (2008): China Employee Attraction & Retention Survey, New York et al. 2008.
Personalmanagement in China: Rekrutierung erfolgreich gestalten
125
o. V., Spiegel Online (2006): Chinas Absolventen - Jeder dritte hält das Studium für nutzlos. URL: http://www.spiegel.de/unispiegel/studium/0,1518,432750,00.html. Volkswagen (2009): Volkswagen in China. URL: http://www.vw.com.cn/cds/ ?menu_uid=551. Weinert, Stephan (2008): Erfolgsfaktor Mitarbeiterbindung: Bedeutung und Struktur von Mitarbeiterbindungsprogrammen für M&A, M&A Review, Nr. 6/2008, S. 293-296. World Bank (2009): Country Profile China. URL: http://web.worldbank.org.
Soziale Verantwortung, Innovation und Unternehmensgründung
Die Ideologien beim Wort nehmen: Soziale Verantwortung von Unternehmen inhaltlich und institutionell sichern! Jürgen Freimann
Persönliche Vorbemerkung Am 15. Mai 1977 läutete bei einem jungen Betriebswirt an der Universität Frankfurt das Telefon. Er war gerade dabei, seine Siebensachen zu packen und der Universität ade zu sagen, denn sein Arbeitsverhältnis als wissenschaftlicher Mitarbeiter am Lehrstuhl für Handelsbetriebslehre bei Prof. Dr. Rudolf Gümbel näherte sich nach knapp 5 Jahren seinem unwiderruflichen Ende und eine andere Perspektive war nicht in Sicht. „Hätten Sie Interesse, in einem Forschungsprojekt aus dem Förderschwerpunkt Humanisierung des Arbeitslebens mitzuarbeiten?“ ließ sich der Anrufer vernehmen. Es war Norbert Koubek, der gerade an die damalige Gesamthochschule Wuppertal berufen worden und damit beschäftigt war, die Mannschaft für das von ihm konzipierte Projekt „Einzelwirtschaftliche Investitionsentscheidungen und Arbeitssysteme“ zu rekrutieren. Wir fanden zusammen und für mich – der geneigte Leser wird erkannt haben, dass der im Jahre 1977 „junge Betriebswirt“ der Autor des folgenden Beitrags ist – begann eine spannende Zeit in dem Bemühen, gemeinsam mit Dirk Hinze, Karl Maisch und Eberhard Seifert sowie – als Projekthilfskraft – Rainer Lucas unter der Leitung von Norbert Koubek den Versuch in Angriff zu nehmen, das von der Mainstream-BWL damals skeptisch beäugte Programm der Arbeitsorientierten Einzelwirtschaftslehre (AOEWL) praxiswirksam zu machen, seine Gestaltungskraft auf Investitionsentscheidungsprozesse anzuwenden. Vorangegangen war auf Seiten von Norbert Koubek während seiner Zeit im WSI die maßgebliche Mitwirkung an der Ausarbeitung der AOEWL als einem
130
Jürgen Freimann
Ansatz, der im Spannungsfeld von wissenschaftlicher Analyse und praktischer Handlungsanleitung für Mitbestimmungsträger die generellen Handlungsorientierungen arbeitsorientierter Politik auf einzelwirtschaftlicher Ebene differenzierter zu bestimmen und deren praktischen Handlungsmöglichkeiten auszuloten und auszuweiten versuchte.1 Vorangegangen war auf meiner Seite die Veröffentlichung eines kritischen BWL-Lehrbuchs für die Erwachsenenbildung2 und die Auseinandersetzung mit eben diesem AOEWL-Ansatz im Rahmen eines Diskussionsbeitrags für das 2. Wuppertaler Wirtschaftswissenschaftliche Kolloquium.3 Aus persönlichen Gründen konnte ich die Tätigkeit im gemeinsamen Projekt nicht bis zum Projektende fortsetzen, sondern trat eine neue Aufgabe an. Das Projekt fand 1982 seinen erfolgreichen Abschluss.4 Seither sind die Bindungen lockerer geworden. Umso mehr freut es mich, von den Herausgebern der Festschrift gebeten worden zu sein, einen Beitrag beizusteuern. Denn die inhaltlichen Bezüge zu meiner gemeinsamen Tätigkeit mit Norbert Koubek sind nach wie vor virulent. Zwar steht heute mit der Nachhaltigen Unternehmensführung ein nicht nur auf die menschliche Arbeit, sondern auf ein ganzheitlich tragfähiges Wirtschafts- und Lebensmodell bezogenes Wirtschaften im Fokus meines wissenschaftlichen Bemühens. Nachhaltige Unternehmensführung wird aber gerade in jüngster Zeit insbesondere in der Unternehmenspraxis immer häufiger als Corporate Social Responsibility (CSR) buchstabiert und damit auf die gesellschaftliche Verantwortung der Unternehmen bzw. Unternehmer zurückverwiesen, aus der heraus sie vermeintlich entspringt und in deren Umsetzung sie sich praktisch offenbart. Hier setzen die Gedanken an, die ich beisteuern möchte. Denn ich halte das CSR-Konzept, insbesondere in seiner in der Praxis vorherrschenden Ausprägung, für hochgradig ideologieverdächtig und empfehle Praktikern und Theoretikern dringend die bis heute erfrischende Lektüre des einschlägigen Aufsatzes von Horst Steinmann aus dem Jahre 1973, an den ich meine nachfolgenden Ausführungen anknüpfe. Das scheint mir berechtigt, ja geradezu notwendig, denn ich finde ihn zwar hier und da in den Literaturverzeichnissen aktueller Veröffentlichungen zum Thema aufgeführt, aber seine Thesen nicht wirklich rezipiert und gewürdigt. Das mag daran liegen, dass er „uralt“ ist und zudem in Deutsch verfasst und daher der internationalen Diskussion nicht zugänglich. Deshalb will ich zumindest die inhaltliche Lücke schließen und anknüpfend daran versuchen, eine Fortschreibung aus heutiger Sicht vorzunehmen, indem ich die Kritik konstruktiv
1 2 3 4
Vgl. Projektgruppe im WSI (1974) sowie Koubek (1977). Freimann (1975) und Freimann/Schoele (1977). Freimann (1976). Koubek et al. (1982).
Soziale Verantwortung von Unternehmen sichern!
131
wende und Gestaltungsmöglichkeiten der glaubwürdigen Umsetzung sozialer Verantwortungsübernahme von Unternehmen diskutiere.
1
Was meint CSR heute?
Die jüngere Diskussion um CSR wurde im angelsächsischen Sprachraum entfacht. Hintergrund der Debatte dort waren die gehäuft zutage getretenen Unternehmensskandale, die sich zumindest teilweise sogar in explizit gesetzeswidrigen Handlungen von Managern offenbarten. Hintergrund war und ist zudem die in den USA weit mehr als z.B. in Deutschland verbreitete Gewohnheit von Unternehme(r)n, in größerem Umfang als Spendengeber für kulturelle und soziale Projekte in Erscheinung zu treten. Dementsprechend treten die Aspekte der good corporate governance sowie des philanthropischen Engagements deutlich in den Vordergrund und prägen die Debatte.5 Das drückt sich z.B. in der viel zitierten Carroll-Pyramide aus, die CSR auf vier Pyramidenstufen verortet, deren unterste die ökonomische Verantwortung („be profitable“) ausmacht, der auf der zweiten Ebene die Einhaltung der einschlägigen Gesetze als Ausdruck gesetzlicher Verantwortung folgt („obey the law“). Darüber ist die ethische Verantwortung im Sinne einer Beachtung von Fairness und Gerechtigkeit angesiedelt („be ethical“), gefolgt vom bürgerschaftlichen Engagement als Förderer sozialer Anliegen („be a good corporate citizen“).6 Eine andere Akzentuierung zeigt sich in den europäischen Auseinandersetzungen mit CSR. So wird in der quasi-offiziellen Begriffsdefinition der EU Kommission CSR verstanden als „ein Konzept, das den Unternehmen als Grundlage dient, auf freiwilliger Basis soziale Belange und Umweltbelange in ihre Unternehmenstätigkeit und in die Wechselbeziehungen mit den Stakeholdern zu integrieren. Sozial verantwortlich handeln heißt nicht nur, die gesetzlichen Bestimmungen einhalten, sondern über die bloße Gesetzeskonformität hinaus ‚mehr‘ zu investieren in Humankapital, in die Umwelt und in die Beziehungen zu anderen Stakeholdern.“7
Zentral an dieser Definition sind zum einen die Freiwilligkeit, zum anderen der Einbezug in die Unternehmenstätigkeit und in die darüber hinaus bestehenden Stakeholderbeziehungen etwa in Form von Sponsoring oder Volunteering. Zent5 6 7
Vgl. hierzu z.B. Matten/Moon (2008), Habisch/Wegener (2005). Vgl. Carroll (1991). EU-Kommission (2001), S. 7.
132
Jürgen Freimann
ral ist darüber hinaus der Verweis darauf, worin das soziale Engagement sich substantiell äußern sollte, nämlich über die Einhaltung aller einschlägigen gesetzlichen Bestimmungen hinaus in Investitionen in Humankapital und Umwelt sowie in der Beziehungspflege zu den Stakeholdern. Damit beinhaltet auch dieses Begriffsverständnis das sog. Corporate Citizenship,8 aber eben nicht nur dieses, sondern eine insgesamt verantwortliche Ausübung der eigenen Geschäftstätigkeit. Mit dem inhaltlichen Bezug auf Investitionen in das Humankapital und auf Umweltbelange wird die Brücke zur Corporate Sustainability geschlagen,9 hier in der Variante des sog. Drei SäulenModells, worauf noch zu sprechen zu kommen ist. Auffällig ist zunächst, dass beide Definitionen, insbesondere aber die von Carroll, so verstanden werden können, dass sie ein Handeln einschließen, das bei genauerem Hinsehen kaum als Ausdruck sozialer Verantwortungsübernahme angesehen werden kann: die Gewinnerzielung (bei Carroll) und die Einhaltung der gesetzlichen Vorschriften, die ein Unternehmen betreffen (in beiden Fällen). Für Carroll sind und bleiben die Eigentümer damit die relevantesten Stakeholder, für die das Unternehmen Gewinne zu erzielen hat, wobei Gewinnerzielung als Pyramidensockel auch als die Basis für die Übernahme aller weiteren Aspekte sozialer Verantwortung interpretiert werden kann. Nächst bedeutsamer Stakeholder ist der Gesetzgeber, demgegenüber das Unternehmen seine soziale Verantwortung durch Einhaltung der gesetzlichen Vorschriften beweist. Fairness und Gerechtigkeit können als Prinzipien des Umgangs mit allen weiteren Anspruchsgruppen, aber damit eben auch als Ausdruck einer good corporate governance verstanden werden. Worin sie sich äußern könnten, bleibt unbestimmt. Die höchste Stufe stellt die Hergabe von Spenden und anderen freiwilligen sozialen Leistungen dar: Unternehmer/n als Finanziers für wünschenswerte, anders nicht finanzierbare gesellschaftliche Aktivitäten. Die EU-Definition wird inhaltlich konkreter: „Soziale Belange und Umweltbelange“ sollen in die Unternehmenstätigkeit und die Beziehungen zu den Anspruchsgruppen „integriert“ werden, wobei die sozialen Belange fortfolgend als „investieren in Humankapital“ konkretisiert werden, Umweltbelange jedoch keine weitere Konkretisierung erfahren. Festzuhalten bleibt an dieser Stelle, dass beide Begriffsverständnisse Dimensionen einschließen, die man durchaus auch als Ausdruck „normalen“ er-
8 9
Vgl. hierzu auch Schrader (2003) sowie die begriffliche Meta-Analyse von Garriga/Melé (2004). Siehe hierzu Dyllick/Hockerts (2002) sowie Freimann (2006).
Soziale Verantwortung von Unternehmen sichern!
133
werbswirtschaftlichen Geschäftsgebarens begreifen könnte,10 vor allem aber auf die soziale Verantwortung von Unternehmen „beyond compliance“ abstellen und darin sowohl die Geschäftstätigkeit selbst (also den Prozess der Gewinnentstehung) als auch den der Gewinnverwendung in Form von Spenden und dergleichen einbeziehen. Ideologie oder Ausdruck echten Bemühens um eine Perspektivenerweiterung für die Unternehmenspolitik? Bevor eine kritische Auseinandersetzung mit dieser Frage erfolgen kann, soll zunächst ein Rückblick auf zwei historische Vorläuferdiskurse genommen werden.
2
Zur Geschichte der Forderung nach Corporate Social Responsibility
Die Entwicklung der Sozialwissenschaften wird zwar von den Anhängern des sog. kritischen Rationalismus als Ausdruck des kontinuierlichen Bemühens um die immer bessere Erklärung der Welt idealisiert. Dem unvoreingenommenen Beobachter offenbart sich jedoch immer wieder die Tatsache, dass viele sozialwissenschaftliche Themen, oft angestoßen durch aktuelle gesellschaftliche Problemlagen, wissenschaftlich aufgegriffen und bearbeitet werden, zumeist ohne dass dabei ein (vorläufig) gesicherter Stand des Wissens erreicht wird. Dann ebbt der Diskurs ab, bis hin zum (vorübergehenden) völligen Verschwinden. Nach einer gewissen Zeit, nicht selten wieder ausgelöst durch einschlägige praktische Ereignisse, greift eine neue Generation von Forschern das Thema erneut auf. Es entwickelt sich, zumeist mit anderen Leitbegriffen oder Akzentuierungen, ein neuer Diskurs, der ebenfalls, ohne zum Konsens geführt zu haben, das Schicksal seiner Vorläufer teilt, nach einiger Zeit nicht mehr weitergeführt zu werden. Der Diskurs über die gesellschaftliche Verantwortung von Unternehme(r)n ist ein prägnantes Beispiel für genau dieses Phänomen. Mindestens drei Wellen sind hier zu beobachten, von der die jeweils spätere(n) die frühere(n) zudem nur sehr begrenzt zur Kenntnis genommen haben. Die erste Welle liegt schon lange zurück. Sie hat die Entstehungsphase der kaufmännischen Gewerbe Handel und Bankwesen begleitet. Denn beiden Gewerben haftete, vor allem bedingt durch das von der christlichen Kirche aus dem Altertum übernommene Zinsverbot der Makel der Amoralität an, im (internationalen) Handel verstärkt durch dessen Nähe zu Übervorteilung und Raub. Galt der Geschäftsinhalt des Geld-gegen-Geld-Verleihens und des Geld-fürMehrgeld-Verausgabens als unmoralisch, so konnten die Bankiers und Händler 10
Auch in der EU-Definition kann man das „nicht nur – sondern auch“ in Bezug auf Gesetzestreue und darüber hinausgehendes soziales Engagement durchaus so verstehen, dass auch Gesetzestreue Bestandteil von CSR sei.
134
Jürgen Freimann
ihre soziale „licence to operate“, wie man das im CSR-Jargon heute ausdrücken würde, nur dadurch aufbauen und sichern, dass sie einerseits die soziale Nähe zum („ehrwürdigen“) Adel suchten und angesichts dessen notorischer Finanzknappheit oft auch fanden und andererseits einen Habitus entwickelten, der ihre Gutbürgerlichkeit und Redlichkeit äußerlich in besonderer Weise versinnbildlichte. Die Kenntnis und Einübung der Rituale „ehrbarer Kaufmannschaft“ waren so bis in das 20. Jahrhundert hinein Kernbestandteile der Kaufmannsausbildung in den Handelshochschulen.11 Der Geruch der Unehrbarkeit färbte sogar noch auf die Anfänge der betriebswirtschaftlichen Wissenschaft ab, der mit dem Argument, sie sei doch nur öde Profitlehre, der Zugang zu den altehrwürdigen Universitäten zunächst verwehrt wurde.12 Die zweite Welle des Diskurses um die gesellschaftliche Verantwortung von Unternehmen wurde in den 70er Jahren des vergangenen Jahrhunderts angestoßen durch die Kritik, mit der sich das Unternehmertum von Seiten der 68er Studentenbewegung konfrontiert sah. Wer als Kapitalist und Ausbeuter tituliert wird, sieht sich in der sozialen Defensive und dadurch veranlasst, die positiven Leistungen, die Unternehmen für die Gesellschaft erbringen, in besonderer Weise herauszustellen. Diese Welle ist im deutschsprachigen Raum insbesondere durch zwei Erscheinungen charakterisiert: zum einen durch das sog. Davoser Manifest, einen auf dem 3. Europäischen Management Symposium in Davor im Februar 1973 verabschiedeten Kodex des ethischen Wohlverhaltens für die Unternehmensführung, zum anderen durch seit 1972 gehäuft von Unternehmen publizierte Sozialbilanzen, in denen in komprimierter Form der soziale Nutzen, den das bilanzierende Unternehmen stiftet, dargestellt und erläutert wird. Das Davoser Manifest bezieht sich vor allem auf das Management von Großunternehmen, das es auffordert, verschiedenen Anspruchsgruppen sowie der Gesellschaft als Ganzes und sogar zukünftigen Generationen „zu dienen und deren widerstreitende Interessen zum Ausgleich zu bringen,“ wozu „ausreichende Unternehmensgewinne erforderlich“ seien, die als „notwendiges Mittel, nicht aber Endziel der Unternehmensführung“ zu betrachten seien.13 Am Davoser Manifest setzt die Auseinandersetzung von Steinmann an, ohne dass es ihr jedoch meines Wissens gelungen wäre, hierüber im deutschsprachigen Schrifttum eine breitere Debatte anzustoßen.14 Seine kritischen Fragen: 11 12 13 14
Vgl. z.B. Löffelholz (1935), insb. S. 118 ff. Vgl. z.B. Weyermann/Schönitz (1912). Zit. nach Steinmann (1973), S. 472 f. Wohl aber nimmt er auf diverse angelsächsische Publikationen seinerseits Bezug, z.B. auf Heald (1957), Petit (1965) sowie Learned et al. (1969).
Soziale Verantwortung von Unternehmen sichern! 1.
2.
3. 4.
135
Wie verträgt sich die Auffassung von einer sozialen Unternehmensverantwortung, die implizit von einer herausgehobenen Machtstellung insbesondere großer Unternehmen ausgeht, mit der Leitidee des machtfreien, auf Freiwilligkeit basierenden wirtschaftlichen Beziehungsgefüges an Märkten, die eine der Grundideen bürgerlich-liberaler Ordnungsvorstellung darstellt? Welchen Inhalt hat unternehmerische Verantwortung, wessen Interessen sind also richtungsgebend für die Unternehmenspolitik und wie sind sie im Konfliktfall zum Ausgleich zu bringen? Wo bleibt die Kontrolle darüber, ob das Management seine soziale Verantwortung auch tatsächlich angemessen wahrnimmt? Wer hat dem Management von Unternehmen die Legitimation dazu übertragen, soziale Verantwortung wahrzunehmen, und kann sie ihm bei Nichterfüllung gegebenenfalls auch wieder entziehen?
Seine Antworten sind durchweg problematisierend: Es sei keine Verträglichkeit mit den Grundlagen der Marktdoktrin gegeben, so dass die These von der sozialen Verantwortlichkeit des Management eher als Abwehrargument gegen eine staatliche Intervention zur (Wieder)herstellung ausgeglichener Machtverhältnisse an den Märkten zu interpretieren sei. Der Inhalt der sozialen Verantwortung und Aussagen zu Modalitäten des Interessenausgleichs blieben ebenso vage wie die Nennung einiger ausgewählter Anspruchsgruppen willkürlich. Kontrollmechanismen blieben ebenso unerwähnt wie die Legitimationsfrage unbeantwortet. Daher sei „die Idee als eine pseudo-normative Leerformel zu qualifizieren“15, die in hohem Maße ideologisch geprägt sei, weil sie Machtstrukturen rechtfertige, Konsequenzen der Machtausübung verschleiere und angesichts vorhandener Machungleichgewichte gebotene Staatseingriffe für unnötig erkläre. Zur Bestätigung zitiert er die an Naivität kaum zu überbietende Aussage von Learned et al.: „Indeed, the emergence of the doctrine of social responsibility is the principal justification for leaving corporate power unchecked.”16 Auf diese Argumente wird zurückzukommen sein. Das Konzept der Sozialbilanzierung geht insofern über die bloße Proklamierung sozial verantwortlicher Unternehmensführung hinaus, als es den substantiellen Beitrag des Unternehmens zum Gemeinwohl in Form eine „Bilanz“ zu dokumentieren und öffentlich zu machen versucht. Sozialbilanzen stellen damit gleichsam ein Umsetzungsinstrument zum Nachweis der tatsächlich erfolgten sozialen Nutzenstiftung durch die Unternehmenstätigkeit dar. Die ersten Sozialbilanzen wurden von Vorreiterunternehmen Anfang der 70er Jahre vorgelegt, von anderen aufgegriffen und weiterentwickelt, in Frank15 16
Steinmann (1973), S. 470. Steinmann (1973), S. 470.
136
Jürgen Freimann
reich sogar gesetzlich vorgeschrieben, aber auch in einer breiten wissenschaftlichen Debatte kontrovers diskutiert.17 Sie können damit als Vorläufer der heutigen Umwelt- und Nachhaltigkeitsberichterstattung angesehen werden. Es ist an dieser Stelle nicht möglich, eine ausführliche Darstellung der verschiedenen Sozialbilanzierungskonzepte, ihrer Aussagemöglichkeiten und -grenzen vorzunehmen. Stattdessen soll in aller Kürze eine Würdigung des Phänomens und des darauf bezogenen Diskurses versucht werden. Aus heutiger Sicht stellen Sozialbilanzen ein Phänomen dar, das durch eine weite Kluft zwischen Theorie und Praxis gekennzeichnet ist. Weitgehend unbeeinflusst von theoretisch konzeptionellen Überlegungen schritt die Unternehmenspraxis voran und legte die ersten Sozialberichte und -bilanzen vor.18 Diese Praxis wurde später in einem Praktiker-Arbeitskreis zusammengeführt und konzeptionell einheitlich in drei Bestandteile gegliedert:19
die sog. Sozialrechnung, in der auf Grundlage von Zahlen aus der GuVRechnung Aussagen über die sozialen Wirkungen betrieblicher Prozesse in Bezug auf die wesentlichen Anspruchsgruppen (Mitarbeiter, Kapitalgeber, Staat, Öffentlichkeit, Umwelt) vorgelegt werden sollten, die sog. Wertschöpfungsrechnung, die – gegliedert in eine Entstehungs- und eine Verwendungsrechnung – Aufschluss über Höhe, Entstehung und Verteilung der Unternehmensbeiträge zur volkswirtschaftlichen Wertschöpfung geben sollte und den Sozialbericht, in dem sich verbale und illustrative Erläuterungen zu den verschiedenen Posten der Sozial- und Wertschöpfungsrechnung finden ließen.
Damit stellt diese Form der Sozialbilanz20 ein Informationsinstrument dar, das weitgehend auf finanziellen Daten basiert, die der Finanzbuchhaltung, insbesondere der Gewinn- und Verlustrechnung des berichtenden Unternehmens, entnommen sind. Die grundlegenden Daten stellen somit Aufwendungen oder Erträge und damit den finanziellen Niederschlag der Bemühungen dar, die das Unternehmen angestrengt hat und denen interpretativ ein sozialer Nutzen zugeschrieben wird, ohne dass dieser in seinen Wirkungen gemessen und beziffert 17 18 19 20
Vgl. etwa Dierkes (1974) und Dierkes (1984), Eichhorn (1974), Fischer-Winkelmann (1980), Vogelpoth (1980). So z.B. in Deutschland die Firmen Pieroth, Rank Xerox, Saarbergwerke, Steag, Shell und Rheinbraun, in der Schweiz die Migros. Vgl. hierzu diverse Beiträge in Pieroth (1978). Auf andere Formen wie z.B. den Sozialbilanzentwurf des DGB und die französischen Vorschriften zur Sozialbilanz, auf die sich der DBG-Entwurf weitgehend stützt, soll an dieser Stelle nicht eingegangen werden. Vgl. aber DGB Bundesvorstand (1979) und Vogelpoth (1980).
Soziale Verantwortung von Unternehmen sichern!
137
wird. Gezahlte Löhne sind dann z.B. soziale Leistungen des Unternehmens an seine Mitarbeiter, Steuern und Abgaben sind Leistungen an den Staat, gleichgültig ob sie auf Grund vertraglicher oder gesetzlicher Verpflichtungen geleistet werden oder auf freiwilliger Basis. Kosten für eine Filteranlage sind Leistungen für die natürliche Umwelt, wie wirksam und ökologisch sinnvoll sie auch immer sein mögen. Negative externe Effekte, wie sie seit William Kapp im Fokus der (umwelt)ökonomischen Debatte stehen,21 tauchen in diesen Sozialbilanzen ebenso wenig auf wie z.B. gesundheitliche Schädigungen der Mitarbeiter. Insofern waren Sozialbilanzen dieser Prägung vor allem Publikationen zur Imagepflege, Broschüren, die darstellen sollten „was ein Unternehmen für die Gesellschaft insgesamt Nutzbringendes leistet“.22 Sie begegnen dem sozialen Druck kritischer Anspruchsgruppen, aber sie leisten nicht wirklich, was sie vorgeben zu leisten, das Ausmaß der von Unternehmen wahrgenommenen sozialen Verantwortung objektiv im Sinne von extern nachprüfbar zu dokumentieren. Auch die Sozialbilanzierungspraxis ist mithin in großem Umfang ideologisch geprägt: die dahinter stehende Absicht, sozialer Kritik mit einer Darstellung der sozialen „Schönseite“ des Unternehmens23 zu begegnen, ist allzu durchsichtig. Die Fragen, worin sich soziale Verantwortung auszudrücken hätte, wie sie sich legitimiert, wie sie kontrolliert und bei Nichtwahrnehmung sanktioniert werden soll, werden weder gestellt noch beantwortet. Die dargestellten historischen Stationen von Versuchen, Unternehmenspolitik bzw. unternehmerisches Handeln auch als Ausdruck der Wahrnehmung sozialer Verantwortung zu charakterisieren und damit zu legitimieren, haben mehreres gemeinsam:
21 22 23
Sie entstehen durchweg zu Zeiten, in denen praktische Unternehmensführung gesellschaftlichen Moralvorstellungen zuwiderläuft und/oder verstärkter gesellschaftlicher Kritik ausgesetzt ist. Sie proklamieren soziale Verantwortung, ohne konkret auf deren Inhalte, Legitimation und Kontrollierbarkeit und ihre Vereinbarkeit mit vorherrschenden politischen Vorstellungen einzugehen. Sie verzichten vollends auf oder greifen zu unzulänglichen Instrumenten zur Umsetzung der sozialen Verantwortung im täglichen praktischen Handeln von Unternehmen.
Vgl. Kapp (1950). Faltlhauser (1978), S. 163; siehe auch Fischer-Winkelmann (1980), S. 158 ff. Budäus (1977), S. 200.
138 3
Jürgen Freimann Zum historischen Hintergrund der heutigen CSR-Debatte
Diese historischen Gemeinsamkeiten gelten auch für die aktuelle Debatte, wie im Folgenden nachzuweisen sein wird. Sie hat ihren sozialen Hintergrund im Zusammentreffen verschiedener gesellschaftlicher Ereignisse und Entwicklungen. Da ist zum einen auf der Ebene der einzelnen Unternehmen das Obsiegen eines wirtschaftlichen Handlungsmusters zu nennen, das jenseits jeglicher Beeinträchtigungen von gesellschaftlich-moralischen Schranken das Streben nach dem eigenen finanziellen Vorteil, verbrämt als Ausdruck wirtschaftlicher Rationalität, insbesondere in managergeführten Großunternehmen, zur Vorherrschaft hat gelangen lassen. Dies kann als Fleischwerdung des Homo Oeconomicus und seiner Moral missachtenden Nachfahren charakterisiert werden.24 Es äußert sich nicht nur in Fällen schierer Unersättlichkeit, was das Gewinnstreben angeht, sondern auch in zahlreichen Fällen scheinbar grenzenlosen Lohndumpings, das nicht nur in den USA immer mehr Menschen trotz Wahrnehmung eines vollen Arbeitsverhältnisses in Armut bringt. Es äußert sich auch in Bestechung und Bestechlichkeit sowie weiteren durchaus nicht im Einklang mit gesetzlichen Vorschriften stehenden Handlungen von Unternehmensverantwortlichen. Sein einzelwirtschaftliches Pendant findet dieses Handlungsmuster im – ebenfalls vermeintlich rationalen – Konsumhandeln vieler Menschen insbesondere in den Industrieländern. Wo Geiz geil ist, „ruiniert König Kunde sein Land“25. Wer möglichst viele möglichst billige Produkte kauft, nimmt – ob unbedacht oder bewusst – soziale Nebenfolgen wie z.B. das Sterben des stationären wohnortnahen Handels oder unmenschlicher Arbeitsbedingungen in indischen Sweatshops in Kauf. Auf der wirtschaftspolitischen Ebene ist nahezu weltweit ein Rückzug des Staates zu beobachten, der einerseits aus einem tatsächlichen Machtverlust der Nationalstaaten gegenüber international agierenden (Groß)unternehmen resultiert, andererseits aber auch Ausdruck des Obsiegens neoliberaler wirtschaftspolitischer Konzepte ist, wonach staatliche Regulierung mehr Fessel wirtschaftlichen Fortschritts als dessen politischer Wegbereiter und Lenker ist.26 In einer globalisierten Weltwirtschaft, in der immer mehr Unternehmen global beschaffen, produzieren und verkaufen, herrscht verschärfte Standortkonkurrenz und schwächt nationale Politik. Denn diese definiert sich verstärkt als Interessenvertretung der nationalen Wirtschaft und buchstabiert ihre Rolle oft als Aufforderung zur Deregulierung und Senkung standortbedingter Kosten anstatt als Auf24 25 26
Vgl. hierzu Freimann (2006), insb. S. 41 ff. Pötter (2006). Ob und inwieweit die aktuelle weltweite Krise diese Entwicklung aufhalten oder umkehren kann, ist aus meiner Sicht derzeit nicht auszumachen.
Soziale Verantwortung von Unternehmen sichern!
139
gabe, Innovationen und Zukunftsfähigkeit zu fördern. Die Folgen: Ein Downcycling nationaler Regulierung und in dessen Folge immer weniger durchsetzungsmächtige Nationalstaaten. Auch im nationalen Rahmen wird der Staat immer mehr zum Moderator des Diskurses mehr oder weniger mächtiger Interessengruppen, was sich nicht zuletzt darin äußert, das z.B. die EU ein unverbindliches „Grünbuch“ zur sozialen Verantwortung von Unternehmen vorlegt, statt diese in gesetzlicher Form einzufordern und zu regulieren. Demgegenüber gewinnen publizistische Medien und oft international tätige Nichtregierungsorganisationen zunehmend an Bedeutung und lenken ihre kritische Aufmerksamkeit nicht zuletzt auf skandalisierbare Phänomene im Handeln von Unternehmen. Dabei nehmen sie einerseits zumindest teilweise die Kontrollfunktionen wahr, die bisher im Aufgabenbereich des Staates lagen, indem sie das Unternehmenshandeln beobachten und kritische Befunde öffentlich machen. Andererseits verfolgen sie jedoch auch eigene Interessen wie z.B. Auflagensteigerung und Fundraising, was nicht immer der Wahrheitsfindung in Bezug auf die Objekte ihrer Aufmerksamkeit dient. Während Unternehmen also Staaten immer mehr dominieren, müssen sie gegenüber den zivilgesellschaftlichen Stakeholdern zunehmend an kooperativen oder zumindest verträglichen Beziehungen interessiert sein. CSR-Bekundungen sind Ausdruck dieses Bemühens. Über all diesen Phänomenen erhebt sich die allgemeine Problematik, dass die westlich-industrielle Produktions- und Lebensweise zwar auf dem Wege ist, die Welt zu erobern, indem sie zum Vorbild für Schwellen- und Entwicklungsländer geworden ist, dem diese allzu oft mit dem Umweg über frühkapitalistische Technik- und Sozialstrukturen nachstreben. Andererseits ist sie unter ökologischen Gesichtspunkten nicht globalisierbar, ohne dass es mehrere Welten bräuchte. Nicht nur, aber auch Unternehmen sind auch vor diesem Hintergrund gehalten, umzusteuern und zur Sicherung ihres Ressourcenzugangs und der natürlichen Lebenszusammenhänge eine Wirtschaftsweise zu entwickeln, die nachhaltig im Sinne von sozial und ökologisch globalisierbar ist.
4
Zur inhaltlichen Konkretisierung von CSR
Wie also wäre CSR vor diesem Hintergrund heute inhaltlich zu konkretisieren? Setzen wir zur Beantwortung dieser Frage noch einmal bei der CSR-Definition von Carroll an. Zunächst sei der kritische Leser daran erinnert, dass zumindest die beiden unteren Stufen der Pyramide eher als Erfüllung existentieller Handlungsbedingungen privatwirtschaftlicher Unternehmen zu begreifen sind denn als Ausdruck sozialer Verantwortungsübernahme. Immerhin besteht bei Verstößen gegen beide Gebote die Gefahr, relativ schnell vom Markt verschwinden zu
140
Jürgen Freimann
müssen, ganz gleich in welcher Weise man sonst gegenüber der Gesellschaft auftritt. Carrolls dritte Ebene bleibt dafür, dass sie die erste und eigentlich einzige Ebene ist, die sich zentral auf das Geschäftsgebaren des Unternehmens bezieht, relativ verschwommen und interpretationsbedürftig. Buchstabiert man sie in einer Weise, dass man „be ethical“ als „do no harm“ versteht, dann wird darin zwar immer noch keine konkrete Handlungsebene angesprochen, aber die Aufforderung ablesbar, im Kerngeschäft und in den Stakeholderbeziehungen Schäden zu vermeiden. Unternehmen hätten auch die Nebenfolgen ihres Tuns und ihres Leistungsangebots mit zu bedenken und im Sinne der Schadensvermeidung zu beachten, eine durchaus weit gehende Forderung. Ebene 4 dagegen mag als eine spezielle Form der Gewinnverwendung jedem Unternehmer als Privatperson gut zu Gesicht stehen, ist aber im Fall von managergeführten Unternehmen zumindest insofern nicht unproblematisch, weil im Namen des Unternehmens spendende Manager eben gerade nicht ihr eigenes Geld, sondern das der Anteilseigner vergeben, in der Regel ohne von diesen dazu ausdrücklich legitimiert worden zu sein. Tun sie es aus Marketinggründen als Bestandteil der Unternehmenswerbung, dann ist es gerade nicht Ausdruck sozialer Verantwortung, sondern wie Ebene 1 und 2 auch business as usual. So kommt in dieser Ausprägung CSR überwiegend daher als mehr oder weniger zwangsweise Befolgung existentieller Handlungsbedingungen oder als Gewinnverwendung durch den Unternehmer als Privatperson oder dazu nicht legitimierte Manager. Dort wo sie das Kerngeschäft betrifft, klingt sie anspruchsvoll, bleibt aber unbestimmt. Eine Inhaltsbestimmung dessen, worauf denn CSR auf der Ebene ethisch geprägter Unternehmensführung abheben könne oder müsse, wird ebenso wenig geführt wie nach der Legitimation, institutioneller Kontrolle und den Mechanismen des Verantwortungsentzugs bei Nichtwahrnehmung gefragt wird. Das so transportierte CSR-Verständnis kann mithin nur als erneuter ideologischer Legitimationsversuch für in Kritik geratene, weil selbst gegen Rechtsnormen und gesellschaftliche Wertvorstellungen verstoßende Unternehmensführung charakterisiert werden. Im europäischen bzw. deutschen CSR-Diskurs kommt eine etwas klarere Trennung zwischen Corporate Citizenship (CC) und CSR zum Tragen, bei der CC zumeist weitgehend mit philanthropischem Engagement identifiziert wird, allerdings ohne genauer zu prüfen, ob und in welchem Maße sowie unter Bezug auf welches Verständnis von Bürgertum die Rolle eines Unternehmens als gewinnorientierter Spieler im Wettbewerbszusammenhang vereinbar ist mit den Anforderungen an bürgerschaftliches Engagement.27 CSR dagegen wird zumeist 27
Vgl. hierzu aber Schrader (2003).
Soziale Verantwortung von Unternehmen sichern!
141
enger gefasst und stärker auf Aktivitäten im Zusammenhang mit dem Kerngeschäft bezogen. Inhaltlich finden sich in größerem Umfang Bemühungen, CSR als praktisch-instrumentellen Ausdruck einer nachhaltigen Unternehmensführung zu verstehen.28 Dabei wird allerdings, wie oben bereits angemerkt, Nachhaltigkeit nicht nur in der EU-Definition, sondern auch in weiten Teilen der Unternehmenspraxis mit dem sog. Drei-Säulen-Modell operationalisiert, nach dem die „Dimensionen Ökologie, Ökonomie und Soziales in ein (dynamisches) Gleichgewicht zu bringen sind“29. Nachhaltige Entwicklung wird so nicht mehr von der Leitidee einer intra- und intergenerationalen Gerechtigkeit her gedacht, nach der alle aktuell Lebenden und die zukünftigen Generationen das prinzipiell gleiche Recht auf angemessene Lebenschancen haben, also niemand berechtigt ist, ein Lebensmodell zu praktizieren, das nicht globalisierbar, d.h. von jedermann/frau lebbar ist. Stattdessen werden soziale und wirtschaftliche Belange mit ökologischen Belangen (denn die verfügbaren Naturvorräte und Aufnahmekapazitäten der Natur für die Abfälle menschlichen Wirtschaftens sind – zumindest für die entwickelten Länder – die eigentlichen Engpassfaktoren für die globale Umsetzung nachhaltiger Entwicklung im oben genannten Sinne) auf eine Stufe gestellt. Paech bemerkt hierzu kritisch: „Nachhaltig kann also nur sein, was im Schnittmengenbereich der drei Säulen liegt“30. „Win-win-win“ heißt die Devise. Das heißt nicht nur, dass die Bewahrung der natürlichen Lebensgrundlagen nur dann nachhaltig im Sinne des DreiSäulen-Modells ist, wenn sie zugleich ökonomischen und sozialen Belangen förderlich ist, also der Gewinnerzielung dient und auf soziale Akzeptanz stößt. Es heißt damit, dass die eigentlich bedeutsamen Konfliktfelder zwischen wirtschaftlichen und sozialen Interessen einzelner Gruppen und/oder Unternehmen aus dem Blick geraten, jedenfalls aber auf Grundlage des Modells nicht bearbeitet werden können. Für Unternehmen (wie natürlich auch für andere gesellschaftliche Akteure) wird damit das Tor zur Beliebigkeit groß aufgemacht. Letztlich ist alles Handeln, das sich irgendwie als sozialen, ökonomischen und ökologischen Belangen förderlich interpretieren lässt, ein Schritt auf dem Weg zur Nachhaltigkeit. Und umgekehrt kann niemand mehr Effizienzsteigerungen (z.B. geringere CO2Emissionen von Autos pro 100 km) deshalb als nicht nachhaltig kritisieren, weil sie durch Flottenwachstum und steigende Fahrleistungen überkompensiert werden, denn diese sind ja sozial und ökonomisch erwünscht.
28 29 30
Vgl. z.B. Loew et al. (2004). Majer (2000), S. 383. Paech (2005), S. 93.
142
Jürgen Freimann
Wollte man CSR in dem Sinne inhaltlich füllen, dass sich in ihr Nachhaltige Unternehmensführung manifestieren soll/kann, dann scheint mir der Bezug auf Win-Win-Win kontraproduktiv. Denn damit wird alles und nichts, was ein Unternehmen sozial und ökologisch bewirkt oder beeinflusst, als Beitrag zu einer nachhaltigen Entwicklung interpretierbar. Substantiell prüfbare Maßstäbe fehlen völlig.31 Zum Umgang mit Konfliktsituationen gibt es keine Hinweise. Auch in dieser Lesart erweist sich CSR damit als inhaltlich unbestimmt und ideologieverdächtig. Von zentraler Bedeutung ist jedoch die Frage, ob und in welchem Maße auf gesellschaftliche Nutzenstiftung oder Schadensvermeidung zielende Aktivitäten von Unternehme(r)n Bezüge zum unternehmerischen Kerngeschäft aufweisen. Wer sein Geld auch dazu verwendet, Anderen und der Natur Gutes zu tun, verdient Anerkennung. Wenn jedoch Volkswagen die Kasseler Documenta fördert oder Otto Geld für soziale Einrichtungen spendet, dann leisten die Unternehmen soziale Beiträge aus erzielten Gewinnen (auch wenn Spenden steuerlich als Betriebsausgaben und damit gewinnmindernd verbucht werden können).32 Wenn gar Krombacher von dem Erlös jedes Kastens Bier ein paar Cent zur Erhaltung des tropischen Regenwaldes spendet oder UHU die Wiederansiedlung des gleichnamigen Großvogels in Deutschland unterstützt, dann sind diese Spenden in Wirklichkeit nichts als Ausgaben für Unternehmens- oder Produktwerbung. Sozial verantwortbare Unternehmenspolitik hieße hier z.B. auf gesüßte Biermixgetränke zu verzichten, weil durch sie der Alkoholmissbrauch bei Jugendlichen gefördert wird oder den Klebstoff so zu verändern, dass suchtförderndes Schnüffeln nicht mehr möglich ist. Substanziell sozial verantwortliche Unternehmensführung also ist etwas anderes. Sie beweist sich im Prozess der Gewinnerzielung. Sozial verantwortlich handeln Unternehmen, die ihren MitarbeiterInnen auskömmliche Löhne zahlen, gesundheitlich beeinträchtigende Arbeitsbedingungen beseitigen oder gar nicht erst in Kauf nehmen, von Produktionsprozessen oder Produkten ausgehende Umweltrisiken vermeiden oder zumindest weitestmöglich verringern, ihren Kunden qualitativ hochwertige Produkte anbieten …, kurzum die in ihrem Ge31
32
Hier ist kein Raum dafür, alternative inhaltliche Zugänge zum Thema Nachhaltige Unternehmensführung zu diskutieren. An anderer Stelle habe ich jedoch einen Vorschlag vorgelegt, wie man Nachhaltige Unternehmensführung unter Bezug auf a) die Debatte um Kriterien der Nachhaltigen Entwicklung und b) die Merkmale einer strategisch-erfolgsorientierten Unternehmensführung operationalisieren könnte. Vgl. Freimann (2006), insb. S. 48 ff. Gesellschaftlich problematisch ist dann allenfalls, dass derartige soziale Fördermaßnahmen keinerlei demokratische Legitimation haben und damit dort, wo sie staatliche Maßnahmen ersetzen oder ergänzen, den privaten Förderern das Entscheidungsrecht überlassen wird, was sie für förderungswürdig halten, anstatt es bei den dazu durch Wahlen legitimierten Instanzen zu belassen und diese finanziell besser auszustatten.
Soziale Verantwortung von Unternehmen sichern!
143
schäftsgebaren Moral über Geschäft stellen. Soziale Verantwortung zu übernehmen heißt also, legitimes Gewinnstreben in Normen einzubetten, die gesellschaftlich akzeptiert und ethisch begründet sind.33 Wenn eine solche Norm diejenige der Nachhaltigkeit im Sinne des Übertragbarkeitskriteriums ist, dann bin ich geneigt, so verstandene CSR als unternehmenspolitischen Beitrag zur Nachhaltigen Entwicklung zu bezeichnen.
5
Zur institutionellen Verankerung von CSR
Ist damit die bereits von Horst Steinmann in Bezug auf das Davoser Manifest festgestellte inhaltliche Unbestimmtheit von CSR beseitigt, dann sind nun noch seine Fragen nach der institutionellen Legitimität und Kontrolle der sozialen Verantwortungsübernahme von Unternehmen aufzugreifen.34 Wer oder was legitimiert Unternehmensleitungen zur Wahrnehmung sozialer Verantwortung, mit welchem Mechanismus kann diese Legitimation bei Nichterfüllung entzogen werden und wie kann Kontrolle ausgestaltet werden darüber, ob, mit welchen Inhalten und mit welchen Erfolgen die Verantwortungsübernahme praktiziert wird? Nach meiner Kenntnis werden diese Fragen in der aktuellen CSR-Debatte nur teilweise und vielfach unzureichend thematisiert oder beantwortet. Es heißt nämlich, die Legitimation sei gleichsam implizit dadurch gegeben, dass nur Unternehmen, die Verantwortung übernehmen, die sog. „licence to operate“ erhielten, die ihnen andernfalls entzogen würde. Hier ist wohl eher der Wunsch Vater des Gedankens. Wer entzöge z.B. der Atomindustrie die Geschäftsgrundlage, die seit Jahrzehnten ohne Entsorgungsnachweis risikoreiche Atomreaktoren betreibt, die eine Mehrheit der Bevölkerung ablehnt? Selbst Unternehmen, die nachweislich in gravierender Weise die Gesundheit ihrer Mitarbeiter und Anlieger schädigen, stoßen zwar auf soziale Kritik, finden aber selbst im Konfliktfall nicht selten milde Richter. Und Bankinstitute, deren Handeln die bisher größte Weltwirtschaftskrise zumindest billigend in Kauf genommen hat, werden zwar in den Medien und von der Politik kritisiert, aber mit dem Hinweis auf unüberschaubare „Systemrisiken“ durch massive staatliche Hilfen vor dem Konkurs gerettet. Ein wirklicher Entzug der sozialen 33
34
Etwa nach dem von Thomas Mann kolportierten Grundsatz der Lübecker Kaufmannsfamilie Buddenbrook, der da lautet: „Mein Sohn, sey mit Lust bey den Geschäften am Tage, aber mache nur solche, daß wir bey Nacht ruhig schlafen können.“ (Buddenbrooks, 2. Teil, 1. Kapitel). Auf den von Steinmann ebenfalls problematisierten Zusammenhang zwischen soziale Verantwortung begründender Macht einerseits und marktwirtschaftlich-doktrinär als machtfrei unterstellte Wirtschaftsbeziehungen an Märkten will ich aus Platzgründen hier nicht mehr eingehen.
144
Jürgen Freimann
Akzeptanz ist mir zumindest noch nie begegnet. Und mit sozialer Kritik gehen Unternehmer und Manager nicht selten so um, dass sie ihr die fachliche Kompetenz abstreiten,35 sie also kaum je als Anstoß zum Nachdenken aufgreifen. Institutionelle Legitimierungs- und Kontrollstrukturen sind also unerlässlich. Beginnen wir mit den Kontrollmöglichkeiten. Deren Ausgestaltung kann sowohl an historische Erfahrungen im Bereich der finanzökonomischen Kontrolle auf dem Weg der verbindlichen Informationsvorschriften für die bilanzielle Rechnungslegung und Geschäftsberichterstattung anknüpfen als auch an entsprechende Erfahrungen der Sozialbilanzierung. Hier ist die Entwicklung der CSR- oder Nachhaltigkeitsberichterstattung auf einem guten Wege. Nachdem sich der von Frankreich eingeschlagene Weg einer gesetzlichen Verpflichtung zur Vorlage einer inhaltlich präzise definierten Sozialbilanz international nicht hat durchsetzen können,36 und frühe Vorschläge zur Standardisierung der betrieblichen Ökobilanzierung keine Resonanz fanden,37 ist seit Beginn der 90er Jahre eine fast schon stürmische Entwicklung auf dem Feld der freiwilligen Umwelt- und Nachhaltigkeitsberichterstattung zu beobachten.38 Zunächst wurde vereinzelte Umweltberichte von Unternehmen vorgelegt. Seit 1996 schnellte die Zahl der einschlägigen Berichte auf viele Tausend hoch, befördert durch die europäische EMAS-Verordnung, die die Veröffentlichung einer Umwelterklärung den Teilnehmern am System zwingend vorschreibt. Sie stagnierte dann aber mit den EMAS-Teilnehmerzahlen, auch weil das weltweit gültige und erheblich erfolgreichere ISO 14001-System keine entsprechenden Publikationspflichten enthält. Inzwischen aber legen nicht nur viele (große) Unternehmen freiwillige Nachhaltigkeits- oder CSR-Berichte vor, sondern es hat sich mit den GRIRichtlinien ein weltweiter Standard zur entsprechenden Berichterstattung etabliert, an dem sich immer mehr berichtende Unternehmen orientieren.39 Die Richtlinien enthalten Vorgaben zu den wichtigsten Inhalten eines Berichts, die auf freiwilliger Basis übernommen werden können, aber nur im Bericht selbst als Bezugsgrundlage erwähnt werden dürfen, wenn sie zumindest in gewissem Umfang verbindlich eingehalten wurden.40
35 36 37 38 39 40
Vgl. hierzu z.B. die aufschlussreiche Studie von Heine/Mautz (1995). Vgl. Dierkes (1984), S. 1230 f. Vgl. z.B. Freimann (1990). Vgl. hierzu Fichter/König (1999). Vgl. http://www.globalreporting.org. In jüngster Zeit mehren sich jedoch kritische Stimmen, die die GRI-Guidelines mit ihrer Fixierung auf westlich-industriell relevante Berichtsinhalte als nicht verallgemeinerbar insbesondere für Schwellen- und Entwicklungsländer mit abweichenden Kulturen und sozialen Problemen beurteilen. (z.B. Brown et al. (2009))
Soziale Verantwortung von Unternehmen sichern!
145
Kritisch anzumerken bleibt jedoch, dass die GRI Guidelines nur einen weiten Rahmen darstellen, der inhaltlich nicht vollständig ausgefüllt werden muss und daher noch immer dazu führt, dass die meisten Nachhaltigkeits- oder CSRBerichte wie seinerzeit die Sozialbilanzen als PR-Instrumente aufgezogen werden, die die Schönseite des unternehmerischen Engagements darstellen und fortbestehende Probleme und Schwächen nicht oder allenfalls am Rande erwähnen. Insofern besteht offensichtlich auch die Differenz zwischen Theorie und Praxis fort, die Fischer-Winkelmann schon 1980 für die Sozialbilanz-Diskussion konstatiert hat,41 und die darin besteht, dass Wissenschaftler mit dem sozialökologischen Reporting von Unternehmen Ansprüche einer umfassenden Rechenschaftslegung verbinden, die so von der Unternehmenspraxis nicht geteilt werden und die die Nationalstaaten in der globalisierten Welt ja nicht einmal im Bereich der finanzwirtschaftlichen Rechnungslegung verlässlich einzufordern in der Lage sind. Lediglich die kritische Öffentlichkeit und durchsetzungsmächtige marktliche Anspruchsgruppen könnten hier Ansprüche geltend machen und durchsetzen. Tatsächlich gibt es Entwicklungen in dieser Richtung: einschlägige Rankings in der Wirtschaftspresse42 sowie das verstärkte Interesse, das nachhaltigkeitsorientierte Rating-Agenturen diesen Berichten entgegenbringen, um verlässliche Grundlagen für ihre Beurteilung des nachhaltigkeitsbezogenen Engagements der Unternehmen zu bekommen, die in einschlägigen Börsenindices geführt oder in einschlägige Fonds aufgenommen werden wollen. So sind es der Kapitalmarkt und die interessierte Öffentlichkeit, die hier die Lücke zu füllen versuchen, die die zunehmend schwächere staatliche Regulierung hinterlässt. Der Kapitalmarkt hat über das Interesse einer wachsenden Zahl von Investoren an nachhaltigen Geldanlagen einen wichtigen Impuls gesetzt, um auf dem Gebiet der CSR zumindest halbwegs solide Kontrollmöglichkeiten zu etablieren. Allerdings scheint das Öko-Rating zumeist mit relativ oberflächlichen Informationen zufrieden zu sein. Den in diese Richtung berichtenden Unternehmen geht es daher oft nur um die Abwehr des Risikos erhöhter Kapitalkosten. Proaktive Nachhaltigkeitsorientierung sieht anders aus. Zudem haben die RatingAgenturen in der aktuellen Finanzmarktkrise viel Renommee verspielt, indem sie die finanziellen Risiken vieler Investments notorisch unterschätzt und so einen erheblichen Beitrag zur Verschärfung der Krise geleistet haben, anstatt vor den sich abzeichnenden Entwicklungen frühzeitig zu warnen. Kritischer und mit mehr ökologischem und sozialem Sachverstand betrachten NGOs und deren Repräsentanten die CSR- und Nachhaltigkeitsberichte von Unternehmen. Sie legen die Latte ihrer Ansprüche deutlich höher und verfügen 41 42
Vgl. Fischer-Winkelmann (1980), S. 6 ff. In Deutschland vor allem durch die Zeitschrift Capital und das Berliner IÖW.
146
Jürgen Freimann
mit dem Instrument der Skandalisierung auch über ein nicht zu unterschätzendes Durchsetzungspotential. Was sie relativ wenig einsetzen, ist das Setzen von positiven Incentives, die engagierte Unternehmen belohnen und so das Engagement und nicht nur die Risikoabwehr befördern. Eine Belohnung etwa in Form einer Auszeichnung „nachhaltiges Unternehmen“, verliehen durch ein entsprechendes Gremium von NGO-Vertretern, könnte hier viel bewirken. Solange all dies jedoch ohne jede verpflichtende Regulierung abläuft, weil Nationalstaaten zu wenig Macht haben oder sich programmatisch zurückziehen und harte supranationale Regulierung fehlt, wird abzuwarten sein, ob es eine Modeerscheinung bleibt oder ob der Prozess der weichen zivilgesellschaftlichen Selbstregulierung dazu führen wird, dass die Kontrollmöglichkeiten im Sinne der Bereitstellung valider und vergleichbarer Informationen sich weiter verfestigen und verbessern. Nicht zuletzt wird diese Frage an den Märkten selbst entschieden, die einschlägige Informationen nachfragen und ihre Sanktionsmöglichkeiten einsetzen müssen, um die Entwicklung zu befördern. Institutionelle Legitimation, Kontrolle und (positive wie negative) Sanktionierung kann jedoch meines Erachtens nicht über bloße Informationsbereitstellung erfolgen. Denn auch gut informierte externe Stakeholder haben nur sehr begrenzte Einwirkungsmöglichkeiten und Einwirkungsinteressen in Bezug auf Unternehmen.43 Nur wenn man ihre Repräsentanten zu Insidern macht und ihre Einwirkungsmöglichkeiten auf das Management institutionell verankert, können Legitimationsgrundlagen errichtet werden, die die Möglichkeit für engagierte und dauerhaft wirksame soziale Verantwortungsübernahme von Unternehmen schaffen. Auch hier gibt es Vorbilder und Anknüpfungsmöglichkeiten. Sie liegen insbesondere in Gestalt der deutschen Mitbestimmung sowie in Gestalt der diversen Stakeholderdialoge vor, die von Unternehmen zu konkreten Problemsituationen eingerichtet und durchgeführt wurden. Die deutsche Montanmitbestimmung wurde in den 50er Jahren nicht in erster Linie deshalb gesetzlich verankert, um den Arbeitnehmern Einflussmöglichkeiten auf die Gestaltung ihrer Arbeitsplätze zu geben, sondern um zu vermeiden, dass sich deutsche Unternehmen noch einmal als politische Steigbügelhalter der Nazis oder ähnlicher politischer Kräfte betätigen. Sie sollte sicherstellen, dass mitbestimmte Unternehmen im demokratischen Sinne soziale Verantwortung übernehmen. Im Verlauf des Niedergangs der deutschen Montanindustrie hat sie sich zudem als Garant des sozialen Friedens bewährt.44 Das Manko der
43 44
Vgl. hierzu auch Freimann (2000). Dass die großen deutschen Unternehmensverbände 1976 durch eine Verfassungsklage die Übertragung der Aufsichtsrats-Mitbestimmung auf die Gesamtwirtschaft verhindern wollten,
Soziale Verantwortung von Unternehmen sichern!
147
AR-Mitbestimmung ist heute ihr weitgehend basisferner Charakter, der z.B. ANVertreter der IG Metall dazu gebracht hat, im Vodafone-Fall selbst der Gewährung gerichtsnotorisch überzogener Tantiemen und Abfindungen willfähriger Manager ihre Zustimmung nicht zu verweigern. Zudem scheint es im internationalen Bereich kaum eine Chance zu geben, die institutionelle Mitbestimmung der Arbeitnehmer geographisch auszuweiten oder zu pluralisieren, indem weitere Anspruchsgruppen einbezogen werden. Stakeholderdialoge sind ein verhältnismäßig neues Instrument des Stakeholdermanagements. Institutionalisiert finden sie sich in einigen deutschen Umweltgesetzen, die die Genehmigung bestimmter Anlagen an die Öffentlichkeitsbeteiligung koppeln. Auf freiwilliger Basis gibt es sie in vielfältiger Ausprägung, nicht selten auf spezielle Projekte bezogen, für die sich Unternehmen öffentliche Akzeptanz sichern wollen. Ihr Manko ist die Beliebigkeit im Umgang mit den erzielten Konsensen. So zeigt sich am Beispiel des Bürgerbeteiligungsverfahrens für den Ausbau des Flughafens Frankfurt/Main, dass trotz im Dialog erzielter Einigkeit über Nachtflugverbote diese nun doch gerichtlich durchgesetzt werden müssen, weil sich das Management dem Kompromiss nicht verpflichtet fühlt. Ob es also in der Unternehmensordnung fest verankerte institutionalisierte Formen der demokratischen Legitimierung und Kontrolle von Unternehmenshandeln im Allgemeinen und CSR im Besonderen sind oder fallweise projektbezogene Formen, beide Spielarten bedürfen fester Regularien und einer demokratischen Rückbindung zu denen, die in ihnen von Repräsentanten vertreten werden, damit sie ihre Wirksamkeit entfalten und nicht zu ScheinLegitimationsveranstaltungen verkommen. Zu diesen gehört eine angemessene Informationsgrundlage ebenso wie die Verbindlichkeit der erzielten Ergebnisse und die Möglichkeit, im Falle von Nichterfüllung die Akteure zu sanktionieren. Natürlich ist zu fragen, wie eine derart um pluralistisch-demokratische Elemente ergänzte Unternehmensordnung auf den Weg gebracht werden könnte angesichts der notorischen und teilweise selbstverordneten Schwäche der eigentlich dazu legitimierten staatlichen Institutionen. Diese Frage möchte ich als Betriebswirt zuständigkeitshalber an die Politikwissenschaft weiterreichen. Als interessierter Laie auf diesem Gebiet meine ich aber mich zu erinnern, dass zahlreiche Politiker im Angesicht der aktuellen Finanzkrise nach einer wirksamen internationalen Regulierung gerufen haben. Derzeit scheint es so, als wären diese zum Teil vollmundigen Forderungen bereits wieder in Vergessenheit geraten.
muss als Indiz für die damals dort jedenfalls nicht sehr ausgeprägte Bereitschaft zu institutionalisierter Corporate Governance interpretiert werden.
148
Jürgen Freimann
Literatur Caroll, A.B. (1991): The Pyramid of Corporate Social Responsibility: Toward the Moral Management of Organizational Stakeholders, in: Business Horizons, July/August 1991, S. 39-48. Brown, H.S. et al. (2009): Building institutions based on information disclosure: lessons from GRI's sustainability reporting, in: Journal of cleaner production 17(6) (2009), S. 571-580. DGB Bundesvorstand (1979): Beschluss zu unternehmerischen Sozialbilanzen vom 12.6. 1979, Düsseldorf 1979. Dierkes, M. (1974): Die Sozialbilanz – Ein gesellschaftsbezogenes Informations- und Rechnungssystem, Frankfurt 1979. Dierkes, M. (1984): Gesellschaftsbezogene Berichterstattung – Was lehren uns die Experimente der letzten 10 Jahre? In: ZfB 54. Jg. (2009), S. 121-135. Dyllick, Th./Hockerts, K. (2002): Beyond the business case for corporate sustainability, Business Strategy and the Environment, 11 (2) (2002), S. 130-141. Eichhorn, P. (1974): Gesellschaftsbezogene Unternehmensrechnung, Göttingen 1974. EU-Kommission (2001): Grünbuch. Europäische Rahmenbedingungen für die soziale Verantwortung der Unternehmen, KOM (2001) 366 endgültig, Brüssel 2001. Fichter, K./König, R. (1999): Stand, Trends und Wirkungen der Umweltberichterstattung von Unternehmen, in: Freimann, J. (Hrsg.): Werkzeuge erfolgreichen Umweltmanagements, Wiesbaden 1999, S. 199-215. Fischer-Winkelmann, W. (1980): Gesellschaftsorientierte Unternehmensrechnung, München 1980. Freimann, J. (1975) sowie Freimann, J./Schoele, H. (1977): Betriebswirtschaftslehre für Sie, 2 Bände, München 1975/München 1977. Freimann, J. (1976): Emanzipatorische statt kapitalistische Rationalität? 10 Thesen über den Konflikt zwischen Entscheidungsorientierung und kritisch-emanzipativem Anspruch der Arbeitsorientierten Einzelwirtschaftslehre, in: Diskussionsergebnisse des 2. Wuppertaler Wirtschaftswissenschaftlichen Kolloquiums, Arbeitspapiere des FB Wirtschaftswissenschaft GH Wuppertal Nr. 15 (1976), S. 74-77. Freimann, J. (1990): Plädoyer für die Normierung von betrieblichen Öko-Bilanzen, in: ders. (Hrsg.): Ökologische Herausforderung der Betriebswirtschaftslehre, Wiesbaden 1990, S. 177-195. Freimann, J. (2000): Der überforderte Stakeholder – Was dürfen, können und wollen die Anspruchsgruppen der Unternehmenspolitik wissen? In: Ökologisches Wirtschaften, Heft 2, S. 17-19. Freimann, J. (2006): Nachhaltig wirtschaften! Wider die Orientierung des praktischen wirtschaftlichen Handelns am Vorbild der Homunkuli, in: Göllinger, Th. (Hrsg.): Bausteine einer nachhaltigkeitsorientierten Betriebswirtschaftslehre, Festschrift für Eberhard Seidel, Marburg 2006, S. 35-56. Garriga, E./Melé, D. (2004): Corporate social responsibility theories: Mapping the territory, Journals of Business Ethics, 53 (1-2) (2004), S. 51-71.
Soziale Verantwortung von Unternehmen sichern!
149
Habisch, A./Wegener, M. (2005): Overcoming the Heritage of Corporatism, in: Habisch, A. et al. (Hrsg.): Corporate Social Responsibility Across Europe, Berlin et. al. 2005, S. 111-123. Heald, M. (1957): Management’s Responsibility to Society: The Growth of an Idea, in: The Business History Review 31 (1957), S. 375 ff. Heine, H./Mautz, R. (1995): Die Öffnung der Wagenburg? – Antworten von Chemiemanagern auf ökologische Kritik, Frankfurt/New York 1995. Kapp, W. (1950): Social Costs of Private Enterprise, Cambridge, Mass 1950. Koubek, N. (1976): Arbeitsorientierte Rationalität und Arbeitnehmerinteressen. Zum Stand der Auseinandersetzung über die Arbeitsorientierte Einzelwirtschaftslehre (AOEWL), in: Zeitschrift für Betriebswirtschaftliche Forschung ZfbF (1976), S. 3143. Koubek, N. et al. (1982): Einzelwirtschaftliche Investitionsentscheidungen und Arbeitssysteme. Karlsruhe 1982. Learned, E.P. et al. (1969): Business Policy, Text and Cases, Homewood, Ill. 1969, S. 485 ff. Löffelholz, J. (1935): Geschichte der Betriebswirtschaft und der Betriebswirtschaftslehre, Stuttgart 1935. Loew, Th. et al. (2004): Bedeutung der internationalen CSR-Diskussion für Nachhaltigkeit und die sich daraus ergebenden Anforderungen an Unternehmen mit Fokus Berichterstattung, Endbericht an das BMU, Berlin/Münster 2004. Majer, H. (2000): Das Nachhaltige Unternehmen – Versuch einer Begriffsbestimmung, in: Beschorner, Th./Pfriem, R. (Hrsg.): Evolutorische Ökonomik und Theorie der Unternehmung, Marburg 2000, S. 377-417. Matten, D./Moon, J. (2008): „Implicit“ and „Explicit“ CSR: A Conceptual Framework for a comparative understanding of Corporate Social Responsibility, in: Academy of Management Review, 33 (2) (2008), S. 404-424. Paech, N. (2005): Nachhaltiges Wirtschaften jenseits von Innovationsorientierung und Wachstum, Marburg 2005. Petit, Th. A. (1965): Managerial Ethics and Social Responsibility, The Doctrine of Socially Responsible Management, in: Arizona Review 14, Nr. 2 (1965), S. 1 ff. Pieroth, E. (Hrsg.) (1978): Sozialbilanzen in der Bundesrepublik Deutschland, Wien/Düsseldorf 1978. Projektgruppe im WSI (1974): Grundelemente einer Arbeitsorientierten Einzelwirtschaftslehre, WSI-Studie 23, Köln 1974. Schrader, U. (2003): Corporate Citizenship – Die Unternehmung als guter Bürger? Berlin 2003. Steinmann, H. (1973): Zur Lehre von der „Gesellschaftlichen Verantwortung der Unternehmensführung“ – Zugleich eine Kritik des Davoser Manifests – in: WiSt, Heft 10/1973, S. 467-473. Vogepoth, N. (1980): Die französische Sozialbilanz, Frankfurt 1980. Weyermann, M./Schönitz, H. (1912): Grundlegung und Systematik einer wissenschaftlichen Privatwirtschaftslehre und ihre Pflege an Universitäten und Fachhochschulen, Karlsruhe 1912.
Soziale Innovationen und Social Entrepreneurship Christine K. Volkmann / Kim Oliver Tokarski
1
Innovation und soziale Innovation
Unternehmen sehen sich im Kontext der Globalisierung einem immer schnelleren Wandel hinsichtlich technischer bzw. technologischer Möglichkeiten, des verfügbaren Wissens oder aber differenzierter Ansprüche und Wünsche von Wirtschaftssubjekten konfrontiert. Ausgelöst und begleitet durch die Möglichkeiten der Informations- und Kommunikationstechnologie hat sich der weltweite Wettbewerb verschärft. Verbunden ist dies mit der Herausforderung für Unternehmen, verstärkt Ideen zu generieren und Innovationen hervorzubringen. Die Geschwindigkeit des wirtschaftlichen Wandels kann als Chance für neue Geschäftsideen bzw. Geschäftsfelder gesehen werden.1 Im EntrepreneurshipKontext wird das Erkennen und Wahrnehmen von unternehmerischen Gelegenheiten als Opportunity Recognition bzw. Opportunity Exploitation bezeichnet.2 In diesem Sinne schreibt Peter F. Drucker: „Innovation is the specific tool of entrepreneurs, the means by which they exploit change as an opportunity for a different business or a different service.“3
Erfolgreich sind diejenigen Unternehmen, die sich auf neue Situationen, z.B. den technologischen Wandel, schneller einstellen können als ihre Konkurrenten, um temporäre Wettbewerbsvorteile zu generieren, und auf diese Weise etwa die neoklassische Logik des im Gleichgewicht verschwindenden Gewinns durch die kontinuierliche Schaffung von Ungleichgewichten außer Kraft setzen. Dabei müssen diese profitablen Ungleichgewichtspunkte in Zeiten eines schnellen 1 2 3
Vgl. Stern/Jaberg (2007), S. 2 f.; Volkmann/Tokarski (2006), S. 50. Vgl. z.B. Shane/Venkataraman (2000); Sarasvathy et al. (2003); Shane (2003). Drucker (2007), S. 17.
152
Christine K. Volkmann / Kim Oliver Tokarski
Wandels und intensiven Wettbewerbs immer wieder neu geschaffen werden.4 Die schnelle Adaption ist auch das, was Charles Darwin mit survival of the fittest gemeint hat, das Überleben des Anpassungsfähigsten, und nicht wie vielfach angeführt, des Stärksten. Ein beschleunigter Wandel erfordert zum einen externe Anpassungen des Unternehmens und zum anderen auch interne Anpassungen.5 Diesen Sachverhalt verdeutlicht ein Zitat von Bill Gates, einem der Gründer von Microsoft: „Die größte Gefahr für unser Geschäft ist, dass ein Tüftler irgendetwas erfindet, was die Regeln in unserer Branche vollkommen verändert, genauso, wie Michael [Dell] und ich es getan haben.“6
Im Sprachgebrauch wird der Begriff der Innovation oftmals sehr heterogen verwendet.7 In einer kurzen, grundlegenden Definition sind Innovationen erfolgreiche Umsetzungen von Ideen am Markt. Dabei stellen Inventionen (Erfindungen und Ideen) noch keine Innovationen dar.8 Im Prozess der Innovation erfolgt eine Transformation einer Invention über unterschiedliche Schrittfolgen in eine Innovation.9 Der Zugang zum Themengebiet der Innovation kann bspw. über zentrale Unterscheidungen, wie (1) neue Produkte bzw. Technologien vs. organisatorische Innovation, (2) Invention vs. Diffusion bzw. Adoption, (3) Beantwortung von Markterwartungen vs. Kapitalisierung eigener Fähigkeiten sowie (4) individuelle vs. soziale Innovationen erfolgen.10 Joseph A. Schumpeter beschreibt in seinem Werk Theorie der wirtschaftlichen Entwicklung das Konzept Innovation und Neuartigkeit als die Durchsetzung bzw. Realisierung immer neuer Faktorkombinationen in Form neuer Produkte bzw. neuer Qualität(en) eines bekannten Gutes, neuer Produktionsmethoden, der Erschließung neuer Absatzmärkte, neuer Organisationsformen oder neuer Formen der Beschaffung.11 Insgesamt kann der Begriff der Innovation sehr weit gefasst werden und sich auf Produktinnovationen, Prozessinnovationen, Marktinnovationen, organisatorische Innovationen oder aber soziale bzw. kulturelle Innovationen bezie4 5 6 7
8 9 10 11
Vgl. de Vries (1998), S. 76. Vgl. Stern/Jaberg (2007), S. 3. Quelle: Bill Gates. Vgl. Graßhoff (2008), S. 13. Die Geschichte des Begriffes Innovation geht im Französischen bis zum 13. Jahrhundert, und für das Englische in das 16. Jahrhundert, bspw. bei Francis Bacon 1625, zurück. Siehe hierzu Weik (1998), S. 43 f. Anzumerken ist, dass die Konnotation des Begriffes Innovation zumeist positiv ist. Vgl. de Vries (1998), S. 76. Vgl. Schumpeter (1997), S. 129. Vgl. Aeschbacher (2009), S. 13. Vgl. Heideloff/Radel (1998), S. 9. Vgl. Schumpeter (1997), S. 100-101.
Soziale Innovationen und Social Entrepreneurship
153
hen.12 Im Vordergrund der Betrachtung in Wirtschaft, Politik und Wissenschaft stehen allerdings zumeist technische Entwicklungen, bspw. hinsichtlich Produkt-, Prozess- oder Marktinnovationen. In diesem Sinne weist z.B. der Bundesbericht Forschung 2006 überwiegend Förderungen in technischen, technologieintensiven bzw. hochtechnologischen Bereichen der Grundlagenforschung, aber auch der anwendungsorientierten Forschung auf.13 Als Maßzahl der Leistungsfähigkeit nationaler Innovationssysteme werden die Erfolge im Bereich der Hochtechnologien sowie die Aufwendungen für Forschung und Entwicklung gesehen. Eine nationale Innovationspolitik wird dabei zumeist anhand der staatlichen Wissenschaftsausgaben gemessen.14 Der Aspekt sozialer Innovationen tritt, sowohl in diesem konkreten Beispiel der Förderung von Forschung und Entwicklung, als auch im wirtschaftlichen und wissenschaftlichen Kontext, weniger in Erscheinung. Vielmehr werden aufbauend auf den technologischen Innovationen soziale Auswirkungen dieser impliziert bzw. intendiert.15 Dabei weisen bereits die grundlegenden Werke von Burns/Stalker (1961) sowie Lawrence/Lorsch (1967) im Themenkontext der Innovation auf eine Verbindung sozial-organisatorischer und technischer bzw. technologischer Innovationen vor dem Hintergrund der Invention und Diffusion auf.16 Auch nach Drucker (2007) ist die Hochtechnologie (high-tech) lediglich ein Bereich im Kontext von Innovationen (und Entrepreneurship).17 Nach seiner Auffassung sind soziale Innovationen zentrale Elemente einer „Entrepreneurial Society“.18 Bezogen auf ihr Entstehungsumfeld definiert Arreger (1976) eine Innovation als „eine signifikante Änderung im Status quo eines sozialen Systems, welche, gestützt auf neue Erkenntnisse, soziale Verhaltensweisen, Materialien und Maschinen, eine direkte und/oder indirekte Verbesserung innerhalb und/oder 12 13 14
15
16 17
18
Vgl. Stern/Jaberg (2007), S. 6 f. Für Bieri (2002), S. 535 sind Produkt- und Prozessinnovationen dabei das Ergebnis komplexer, interdisziplinärer Vorgänge. Siehe Bundesministerium für Bildung und Forschung (2006). Vgl. Wengenroth (2008), S. 65. Dabei ist anzumerken, dass allgemein keine eindeutige, statistische Verbindung bzw. Korrelation zwischen der High-tech-Intensität und nationalen Wachstumsraten nachgewiesen werden kann. Siehe hierzu Hirsch-Kreinsen/Hahn/Jacobson (2008), S. 6 f. Im Kontext einer Fokussierung auf technologische Problemstellungen bzw. die Technologie an sicht, stellt Ruh (2002), S. 219 die Frage, ob bestehende Probleme (der Menschheit) gelöst werden, oder ob nicht vielmehr mit Technologie Antworten auf Probleme geschaffen werden, die eigentlich nicht existieren. Vgl. Heideloff/Radel (1998), S. 9. Siehe grundlegend Burns/Stalker (1961) sowie Lawrence/Lorsch (1967). Vgl. Drucker (2007), S. 231. Viele Innovationen finden nach Ansicht von Drucker vielmehr im Bereich middle-tech, low-tech oder no-tech statt. Zum Kontext von Innovationen in low-tech Unternehmen und Industrien siehe bspw. die Ausführungen in Hirsch-Kreinsen/Jacobsen (2008). Drucker (1985), S. 257-260.
154
Christine K. Volkmann / Kim Oliver Tokarski
außerhalb des Systems zum Ziele hat.“19 Soziale Innovationen sind somit „neue Wege, Ziele zu erreichen, insbesondere neue Organisationsformen, neue Regulierungen, neue Lebensstile, die die Richtung des sozialen Wandels verändern, Probleme besser lösen als frühere Praktiken, und die es deshalb wert sind, nachgeahmt und institutionalisiert zu werden.“20 In diesem Sinne können sich soziale Innovationen nicht nur auf die erfolgreiche Umsetzung von neuen Ideen am Markt, sondern vor allem auch auf die Gesellschaft beziehen, um unberücksichtigten sozialen Bedürfnissen nachzukommen. Dabei können soziale Innovationen eine technologische Basis haben, können aber auch davon unabhängig entstehen. Somit können soziale Innovationen als die treibenden Kräfte (Driving Forces) des sozialen Wandels angesehen werden.
2
Social Entrepreneurship, Social Entrepreneur und Social Entrepreneurial Venture
2.1 Social Entrepreneurship Im Rahmen der begrifflichen Abgrenzung sind grundlegende Fragen, was unter der Bezeichnung Social Entrepreneurship verstanden werden kann und wie sich das Konzept vom generellen Entrepreneurship-Verständnis unterscheidet. Allgemein ist der Begriff „Entrepreneurship“ in Literatur und Praxis nicht einheitlich definiert.21 Beispielsweise ist für Ronstadt (1984) Entrepreneurship ein dynamischer Prozess, der auf die stufenweise Schaffung von Vermögen und Wohlstand ausgerichtet ist.22 Unter Einbeziehung von sozialen Aspekten sehen Steyaert und Hjorth Entrepreneurship als einen komplexen sozial-kreativen Prozess, der die Perspektive des Raums der Gesellschaft, in dem er sich begründet, beeinflusst, transformiert, neu überdenkt und verändert.23 Vor diesem Hintergrund kann der Begriff bzw. das Konzept Entrepreneurship dualistisch im Spannungsverhältnis zwischen ökonomischen und sozialen sowie gesellschaftlichen Auswirkungen betrachtet werden. Dabei hat sich der Entrepreneurship-Gedanke weiterentwickelt. Es besteht ein Trend mit Entrepreneurship-Theorien, nicht allein ökonomische Bereiche zu erklären, sondern 19 20 21
22 23
Arreger (1976), S. 118. Zapf (1989), S. 177. Vgl. Volkmann/Tokarski (2006), S. 2-7. Aufgrund der Komplexität und Heterogenität seien an dieser Stelle lediglich essentielle, das Thema dieser Ausarbeitung weiterbringende Aspekte kurz angeführt. Vgl. Ronstadt (1984). Vgl. Steyaert/Hjorth (2006), S. 2.
Soziale Innovationen und Social Entrepreneurship
155
darüber hinaus auch den sozialen Wandel in Gesellschaften. Aus wissenschaftlicher Sicht besteht in diesem Kontext allerdings das Problem, dass der Gedanke des Social Entrepreneurship (noch) nicht mit einer allgemeinen Theorie des Entrepreneurship verbunden ist. Die aktuelle Literatur zum Thema Social Entrepreneurship ist daher zumeist durch eher anekdotische, inspirierende Beispiele denn theoretische Erkenntnisse und analytische Leistungen gekennzeichnet.24 Somit besteht aktuell keine allgemeingültige Definition von Social Entrepreneurship vor dem Hintergrund des sozialen Wandels und der wirtschaftlichen Entwicklung.25 Im Rahmen einer differenzierten Analyse der Gedanken von Schumpeter kommt Swedberg (2006) zu der Erkenntnis, dass Social Entrepreneurship nach Schumpeterianischem Verständnis als eine Form dynamischen Verhaltens in einem nicht-ökonomischen Bereich der Gesellschaft gesehen werden kann. Durch die grundlegende Herleitung des Konzeptes des Social Entrepreneurship aus der allgemeinen Theorie des Entrepreneurship nach Schumpeter wird eine Basis für die weitergehende Differenzierung und Analyse des Konzeptes Social Entrepreneurship, im Sinne des deduktiven Analyseansatzes, geschaffen. Die folgende Abbildung 1 liefert eine potenzielle, grundlegende Klassifizierung in diesem Themenkomplex:26 Abbildung 1:
Wirtschaftlicher Wandel und Social Entrepreneurship
dynamisch bzw. entrepreneurial change statisch bzw. non-entrepreneurial change
Wirtschaft
Gesellschaft
Entwicklung
Social Entrepreneurship
Adaption
Soziale Evolution
Das zuvor aufgezeigte Konzept kann als eine mögliche Ausprägung des Konzeptes Social Entrepreneurship aufgefasst werden. Allerdings ist anzumerken, dass die Fokussierung eines dynamischen, entrepreneurial change rein bezogen auf die Gesellschaft, ohne Einbezug der Wirtschaft, nicht umfassend genug erscheint. Vielmehr ergibt sich ein wechselseitiges Verhältnis von Wirtschaft und Gesellschaft vor dem Hintergrund des Entrepreneurship mit unterschiedlichen Gewichtungen auf die Dimensionen Wirtschaft und Gesellschaft. 24 25 26
Vgl. Swedberg (2006), S. 21; z.B. hierzu grundlegend auch Bornstein (2004). Vgl. Stryjan (2006), S. 35; Burns (2007), S. 454. Vgl. Swedberg (2006), S. 32 ff.
156
Christine K. Volkmann / Kim Oliver Tokarski
Für Mair/Martí (2006) integriert das Konzept des Social Entrepreneurship ökonomische und soziale Wertschöpfung gleichermaßen. Dabei ist die gelebte Praxis von Social Entrepreneurship nicht wirklich neu, sondern hat bereits eine lange Tradition vorzuweisen, denn im historischen Kontext sind SocialEntrepreneurship-Initiativen und Social Entrepreneure elementare Bestandteile der Entwicklung der Menschheitsgeschichte.27 So kann aus heutiger Sicht etwa die Gründung des Franziskaner-Ordens als Social-Entrepreneurship-Initiative und Franz von Assisi als Social Entrepreneur gesehen werden.28 Eine wesentliche Grundlage für die Wiederentdeckung und heutige Aktualität von Social Entrepreneurship-Initiativen und Social Entrepreneuren bildet die von Bill Drayton in Indien gegründete Ashoka-Organisation.29 Freiling (2006) stellt dem Begriff des Social Entrepreneurship dem des Economic Entrepreneurship gegenüber, um die unterschiedliche Ausrichtung der beiden Konzepte zu verdeutlichen.30 Der Begriff des Economic Entrepreneurship ist in der Theorie und Praxis allerdings nicht verbreitet. Der Begriff des Economic Entrepreneurship könnte aus klassifikatorischer Sicht dann Sinn ergeben, wenn dieser zusammen mit dem Begriff des Social Entrepreneurship unter den allgemeinen Begriff des Entrepreneurship subsumiert wird. Aus sprachlicher Sicht könnte das Konzept des Entrepreneurship als Begriff verwendet werden und Differenzierungen wären lediglich im Einzelfalle nötig. Eine andere Klassifikation liefern Dees/Economy (2001). In dieser wird zwischen einer rein philanthropischen, über eine hybride hin zu einer rein kommerziellen Dimension unterschieden. Die folgende Tabelle 1 zeigt die Klassifikation.31
27 28 29
30 31
Vgl. Mair/Martí (2006), S. 36. Siehe hierzu auch Achleitner (2007). Vgl. Bornstein (2004), S. 3. Die in 1978 gegründete „Ashoka-Initiative: Innovators for the Public“ verfolgt als weltweit tätige Non-Governmental-Organisation das Ziel, Social Entrepreneure auszuwählen und im Rahmen eines Stipendiums finanziell und durch Know-how zu unterstützen sowie im Rahmen eines globalen Netzwerkes zu verbinden. Vgl. Bornstein (2004), S. 11-20. Vgl. Freiling (2006), S. 29. Vgl. Dees/Economy (2001), S. 15.
Soziale Innovationen und Social Entrepreneurship
157
Tabelle 1: Social Entrepreneurship Spektrum Dimensionen des Social Entrepreneurship Rein philanthropisch Hybrid Rein kommerziell Generelle Motive Methoden und Ziele
Zeigen von gutem Willen Missionsgetrieben Schaffung sozialer Werte
Gemischte Motive Balance zwischen Mission und Markt Schaffung sozialer und ökonomischer Werte Bedeutende Stakeholder Kostenfrei Zahlen ermäßigte Raten und/oder Vollzahler und Gesponserte Spenden Kapital zu günstigeren Konditionen Freiwillig Entlohnung unter Marktpreisen und/oder Mischung aus marktgerecht bezahltem Personal und Freiwilligen Spenden Spezial Angebote/Konditionen und/oder Mischung aus Marktpreisen und Spenden
Eigennütziges Interesse Marktgetrieben Schaffung ökonomischer Werte
Profiteure bzw. Kunden
Zahlen vollen Marktpreis
KapitalFinanzgeber
Arbeitskräfte bzw. Mitarbeiter
Zulieferer
Kapital zu Marktpreisen Marktgerechte Vergütung
Marktpreise
Auf Basis der oben dargestellten Klassifikation nach Dees/Economy erscheint ein erweitertes Begriffsverständnis sinnvoll, in dem der Bereich des Social Entrepreneurship als ein Kontinuum von rein sozial orientierten Unternehmen mit ökonomischem Anspruch bis hin zu ökonomisch orientierten Unternehmen mit sozialem Anspruch abgegrenzt wird, wobei unterschiedliche Ausprägungsformen zugelassen werden. Dieses Verhältnis verdeutlicht die folgende Abbildung 2.
158
Christine K. Volkmann / Kim Oliver Tokarski
Abbildung 2:
Dimensionen des Social Entrepreneurship Social Entrepreneurship
sozial
ökonomisch
Eng verbunden mit dem Begriff des Social Entrepreneurship ist der Social Entrepreneur als Person.
2.2 Social Entrepreneur Lattmann/Mazumder (2007) sehen das Spektrum des Entrepreneurship und auch damit der Entrepreneure als breit gefächert an. Dabei reicht die Klassifikation vom rein ökonomisch getriebenen Unternehmer über den Unternehmer, der auch soziale Verantwortung übernimmt bis hin zum reinen Social Entrepreneur. Dieser handelt gemeinnützig gemäß der inneren Haltung und den Werten und leistet damit einen Beitrag zur Lösung von sozialen, ökologischen und/oder ökonomischen Problemen.32 Nach Dees (2001) spielen Social Entrepreneure die Rolle eines Motors im Wandel des sozialen Sektors, indem sie sich zum Ziel setzen, sozialen (nicht nur privaten) Wert zu schaffen und zu erhalten; neue Gelegenheiten erkennen und diese unermüdlich nutzen, um dieses Ziel zu erreichen; sich in einen Prozess kontinuierlicher Innovation, Adaption und des Lernens begeben; mutig handeln und sich nicht durch die Ressourcen einschränken lassen, die ihnen gegenwärtig zur Verfügung stehen sowie Rechenschaftspflicht bezüglich des Erfolgs ihrer Tätigkeit und gegenüber ihren Anspruchsgruppen (Stakeholdern) zeigen.33 In diesem Kontext ist als eines von vielen Fallbeispielen der brasilianische Social Entrepreneur Rodrigo Baggio zu nennen, der in den Armenvierteln (Favelas) Brasiliens selbst verwaltete und sich wirtschaftlich selbst tragende Computerschulen (Committee for Democracy in Information Technology – CDI) aufbaute und die Bewohner zu IT-Trainern ausbildete. Der Umgang mit und das Verständnis für IT schafft für die benachteiligten Personengruppen nicht nur Berufsperspektiven, sondern verbessert auch den Zugang zu Wissen und fördert soziale Austauschprozesse.34 32 33 34
Vgl. Lattmann/Mazumder (2007), S. 41. Dees (2001), S. 4. Die Literatur bietet mittlerweile ein breites Spektrum an Fallbeispielen von Social Entrepreneuren. Vgl. z.B. Bornstein (2004) sowie die jährlichen Publikationen der Schwab Foundation for Social Entrepreneurship: „Outstanding Social Entrepreneurs“ (z.B. 2009).
Soziale Innovationen und Social Entrepreneurship
159
In einer bildhaften Sprache wird der Idealtypus des Social Entrepreneurs oftmals als eine Kombination aus Richard Branson und Mutter Theresa beschrieben.35 In diesem Sinne prägte Muhammad Yunus den Begriff des Social Business Entrepreneurs.36 Zu beobachten ist, dass einzelne sehr erfolgreiche Entrepreneure sich im Laufe der Zeit anderen Bereichen zuwenden, die nicht zu ihrem ursprünglichen Skill-Set gehören und z.B. Sozialunternehmen gründen, wie etwa Bill Gates.37 Dies kann allerdings auch für erfolgreiche (Top-)Manager festgestellt werden. Ein bekanntes Beispiel hierfür ist der ehemalige SAP-Vorstand Shai Agassi, welcher sich umfassend für das von ihm gegründete Unternehmen Better Place engagiert. Bei Better Place handelt es sich um ein Unternehmen, welches ein Netz von Ladestationen und Austauschstationen für Akkus von Elektroautos aufbauen möchte.38 Bei letzterer Variante können bei Better Place leere Akkus gegen volle getauscht werden, um bspw. eine längere Reise mit einem Elektroautomobil zu ermöglichen, was mit der Reichweite fest eingebauter Akkus nicht realisierbar wäre. Eine wichtige Voraussetzung ist daher, dass der Akku im Elektroauto austauschbar und nicht fest eingebaut ist.39 Die Vision von Better Place ist die Trennung des Eigentums am Akku von dem Eigentum am Elektroauto. Der Akku bleibt im Eigentum von Better Place, das Auto im Eigentum bzw. Besitz des Kunden. Der (innovative) Kern des Geschäftsmodells ist somit die Abonnementlösung für Akkus von Elektroautos.40 In einer Analogie ist das Geschäftsmodell von Better Place mit dem eines Mobilfunkanbieters vergleichbar. Der Kunde von Better Place schließt einen Vertrag bzw. ein Abonnement für eine bestimmte Kilometerzahl im Monat mit Better Place ab, und hat somit Anspruch auf eine definierte Anzahl an Akkus, was letztendlich den vereinbarten Kilometern entspricht. Dieses Modell ermöglicht es dem Kunden, sein Elektroauto zu einem vergünstigten Preis zu erwerben, da der fest eingebaute Akku des Autoherstellers nicht benötigt wird. Hervorzuheben ist, dass das Geschäftsmodell bereits mit der derzeitigen (Lithium-Ionen-) Akkugeneration realisierbar ist, und somit die Verbreitung von Elektroautos mit austauschbaren Akkus möglich 35 36 37 38 39
40
Vgl. Schwab Foundation for Social Entrepreneurship (2008), S. 5. Vgl. hierzu Yunus (2006), S. 39-55. Vgl. Lattmann/Mazumder (2007), S. 41. Die Unternehmensgründung Better Place kann – je nach Theorieverständnis – eher als sozial oder eher als ökonomisch orientiert betrachtet werden. Eine Standardisierung bei den Automobil- und Akkuherstellern ist in diesem Kontext vorteilhaft. Dies kann aber ggf. auch zu Abhängigkeiten der Automobil- und Akkuhersteller zum Akkuaustauschanbieter führen. Allgemein hat bspw. Renault-Nissan angekündigt, bis 2010 ein Auto mit austauschbaren Akkus zu produzieren. Der Aspekt der Ladestationen von Better Place tritt hinsichtlich der Vision des austauschbaren Akkus zumeist bei der Darstellung des Geschäftsmodells in den Hintergrund.
160
Christine K. Volkmann / Kim Oliver Tokarski
wäre.41 Durch dieses (Geschäfts-)Modell könnte eine Steigerung der Absätze von Elektroautos erfolgen, da sich deren Kosten ohne den aktuell fest eingebauten zumeist teuren Akku den Kosten von Autos mit Verbrennungsmotor annähern oder möglicherweise sogar günstiger liegen würden. Zu diesem Ergebnis kommt auch Becker (2009) im Rahmen einer Studie des Center for Entrepreneurship & Technology an der University of California, Berkeley. Becker ist der Ansicht, dass im Basisszenario bis zum Jahr 2030 rund 64 % der in den USA verkauften Autos im Bereich „U.S. light-vehicle“ (Kraftfahrzeuge mit einem Leergewicht bis je 3.856 Kilogramm) Elektroautos dieses Modells sein werden.42 Das Beispiel Better Place zeigt, dass die Abgrenzung des Social Entrepreneurship und der Social Entrepreneure gegenüber Entrepreneurship und Entrepreneuren bislang noch nicht eindeutig erfolgt ist und in diesem Sinne noch Forschungsarbeiten zur theoretischen Fundierung zu leisten sind. In theoretischer Betrachtung gibt es Ansätze und Forschungsrichtungen zum Verhalten und zu den Eigenschaften von Social Entrepreneuren wie sie in ähnlicher Form bereits aus der generellen Entrepreneurship-Forschung im Kontext der Traits Theory oder Traits School bekannt sind.43 Dabei haben sich z.B. Mort/Weerawardena/Carnegie (2003) speziell mit der Erforschung von spezifischen Charaktermerkmalen von Social Entrepreneuren befasst. Die nach diesem Forschungsansatz den Social Entrepreneuren zugeschriebenen Attributen sind in Abbildung 3 dargestellt:44 Nach Fueglistaller/Müller/Volery (2008) lässt sich ein Social Entrepreneur bei dem Aufbau eines sozialen Unternehmens, welches wie ein professionelles Wirtschaftsunternehmen geführt wird, durch einen unternehmerischen Weitblick sowie betriebswirtschaftliches Know-how kennzeichnen.45
41 42
43 44 45
Siehe zum Unternehmen und zum Geschäftsmodell http://www.betterplace.com. Siehe ausführlich Becker (2009). Im Rahmen der Studie werden drei Szenarien hinsichtlich der Verbreitung von Elektroautos angenommen, welche auf zwei unterschiedlichen Ölpreisszenarien sowie möglichen Kaufpreisanreizen für Elektroautos basieren. Vgl. z.B. McClelland (1961). Vgl. Mort/Weerawardena/Carnegie (2003), S. 76 f. Siehe in diesem Kontext auch Mair/Martí (2006). Vgl. Fueglistaller/Müller/Volery (2008), S. 480.
Soziale Innovationen und Social Entrepreneurship Abbildung 3:
161
Attribute des Social Entrepreneur(ship) Risikotoleranz Proaktivität Innovation Erkennen sozialer unternehmerischer Gelegenheiten
social entrepreneur(ship)
Beuteilungsfähigkeit
unternehmerische Tugenden (Werte und Normen)
2.3 Social Entrepreneurial Venture Unternehmen im Bereich Social Entrepreneurship können als Social Entrepreneurial Ventures (SEV) bezeichnet werden. SEV versuchen, soziale Probleme zu lösen, um so einen Mehrwert für die Gesellschaft zu generieren. Zumeist erfolgt ein Engagement über den lokalen Kontext hinaus. Die erfolgreiche Umsetzung von sozialen Innovationen erfordert unternehmerische Denk- und Handlungsweisen, welche oftmals auch weltweit weiterverfolgt und kopiert werden.46 In diesem Kontext lassen sich Social Entrepreneurial Ventures in die Ausprägungen (1) Non-Profit Social Entrepreneurial Ventures, welche durch Non-Profit- oder öffentliche Institutionen initialisiert werden und (2) For-Profit Social Entrepreneurial Ventures differenzieren. Den Zusammenhang verdeutlicht die folgende Abbildung 4:47
46 47
Vgl. Fueglistaller/Müller/Volery (2008), S. 479 f. und S. 488. Auf Basis der Analyse von 130 verschiedenen Social Entrepreneurial Ventures haben Elinkton und Hartigan eine Kategorisierung in die drei folgenden Bereiche von Geschäftsmodellen vorgenommen: Leveraged non-profit ventures, hybrid non-profit ventures und social business ventures. Vgl. Elinkton/Hartigan (2008), S. 30-54.
162
Christine K. Volkmann / Kim Oliver Tokarski
Abbildung 4:
Social Entrepreneurship und Social Entrepreneurial Venture Social Entrepreneurship
sozial
ökonomisch
Social Entrepreneurial Venture
Non-Profit Social Entrepreneurial Venture
For-Profit Social Entrepreneurial Venture
Anzumerken ist, dass sich nicht jede soziale Organisation dem Feld des Social Entrepreneurship zuordnen lässt. Gleichsam können aber auch rein gewinnorientierte Unternehmen in diesem Bereich tätig werden.48
3
Fallbeispiele: Verbindung der Konzepte soziale Innovation und Social Entrepreneurship
Die grundlegenden Ausführungen zu sozialen Innovationen (Kapitel 1) und Social Entrepreneurship (Kapitel 2) deuten bereits auf einen engen Zusammenhang zwischen beiden Konzepten hin. Im Folgenden sollen zur Illustration und Untermauerung von sozialen Innovationen im Kontext des Social Entrepreneurship drei Fallbeispiele angeführt werden. Dabei wird im vorliegenden Kontext auf eine Bewertung verzichtet, ob es sich bei den Unternehmen um mehr sozial oder mehr ökonomisch motivierte bzw. orientierte Unternehmen handelt. Bedeutsam erscheint vielmehr die Darstellung der Variabilität und Bandbreite von sozialen Innovationen im Kontext des Social Entrepreneurship. Fallbeispiel 1: Vestergaard Frandsen ist ein international agierendes Unternehmen mit Hauptsitz in Lausanne, Schweiz, das auf Notfall- und Krankheitsbekämpfungsprodukte spezialisiert ist. Nach eigenen Angaben verfügt Vestergaard Frandsen über ein humanitäres Entrepreneurship-Geschäftsmodell. Im Ansatz „Profit für eine Bestimmung“ (profit for a purpose) wurde die humanitäre Verantwortung in den Mittelpunkt der Geschäftstätigkeit des Unternehmens gestellt. Dabei unterstützt Vestergaard Frandsen die Millennium Development Goals49 48 49
Vgl. Burns (2007), S. 454; Fueglistaller/Müller/Volery (2008), S. 487. Siehe hierzu http://www.un.org/millenniumgoals.
Soziale Innovationen und Social Entrepreneurship
163
der Vereinten Nationen, und hier im Speziellen die Reduzierung der Kindersterblichkeit, die Bekämpfung von HIV/AIDS und Malaria sowie die Reduzierung der Zahl der Menschen, die keinen Zugang zu sauberem Trinkwasser haben. Dieser Ansatz unterscheidet Vestergaard Frandsen von vielen anderen Unternehmen des Gesundheitssektors. Die Innovationen des Unternehmens sind direkt und unmittelbar für Entwicklungsländer bestimmt. Die Produkte von Vestergaard Frandsen sind konzipiert, um Infektionen mit wasserbezogenen, überträgerbasierenden50 und speziellen Tropenkrankheiten beim Menschen zu verhindern. Das Unternehmen hat die an sich selbst gestellten Verpflichtungen in konkrete Handlungen umgewandelt, indem es Innovationen für die ärmsten Menschen der Erde entwickelt. Zu diesen Produkten gehören aktuell PermaNet, LifeStraw, ZeroFly sowie CarePack. PermaNet ist ein langlebiges, Insekten tötendes Netz auf der Basis zweier unterschiedlicher Stoffe und insektizider Chemikalien. Bei LifeStraw handelt es sich um einen portablen, direkt an einer Wasserstelle anwendbaren, mikrobiologischen Wasserfilter, der 100% der wasserbezogenen Bakterien (waterborne bacteria) und mehr als 98% wasserbezogener Viren (waterborne viruses) herausfiltert. Für Familien mit einem höheren Wasserverbrauch gibt es zusätzlich noch den LifeStraw Family, einen (tendenziell eher stationären) Wasserfilter, der mehr Bakterien, Viren und Parasiten herausfiltern kann, als der portable LifeStraw. ZeroFly ist eine langlebige Plastikfolie mit integrierten Insektiziden, welche den Ansprüchen an ein Schutzdach, verbunden mit dem Schutz vor Krankheiten, wie bspw. Malaria, in komplexen Notfallsituationen, entspricht. CarePack stellt ein je nach Region anpassbares Paket dar, welches HIV kranken Menschen zur Verfügung gestellt wird, um deren Lebensqualität zu verbessern, da AIDS-Patienten einem erhöhten Infektionsrisiko anderer Erreger bzw. Krankheiten ausgesetzt sind. Das CarePack besteht aus einem Insektennetz, einem Wasserfilter sowie Informationsmaterialien, die zur Vermeidung von Malaria, Diarrhöe und sexuell übertragbaren Krankheiten beitragen sollen. Das Paket ist je nach Einsatzzweck anpassbar, und kann bspw. um ein Breitbandantibiotikum erweitert werden. Die aufgeführten Produkte besitzen das Potenzial, um auf einfache Weise das Gesundheitsmanagement zu verbessern und vermeidbare Krankheiten zu bekämpfen und somit Leben in der dritten Welt zu retten.51 Fallbeispiel 2: Das Unternehmen SunNight Solar produziert solarbetriebene bzw. durch Solarzellen aufladbare Taschenlampen „BoGo Light“, welche als Ersatz für Petroleumlampen in erster Linie für Entwicklungsländer konzipiert wurden. Zunächst erscheint das Produkt einer solarbetriebenen Taschenlampe nicht besonders innovativ zu sein. Aber auch ein vermeintlich einfaches Produkt kann einen positiven sozialen bzw. gesellschaftlichen oder sogar ökonomischen 50 51
Beispielsweise Malaria über die Mücken der Gattung Anopheles. Für ausführliche Informationen siehe http://www.vestergaard-frandsen.com.
164
Christine K. Volkmann / Kim Oliver Tokarski
Beitrag leisten. In diesem Sinne steht nicht der technologische Innovationsgrad bei der BoGo Light im primären Fokus. Vielmehr liegt dieser auf der Umsetzung des Geschäftsmodells, und den positiven Auswirkungen, die mit den vielfältigen Einsatzmöglichkeiten der umweltfreundlichen Taschenlampe in den Ländern der dritten Welt verbunden sind. In diesem Sinne steht BoGo für „Buy one“ (Bo), „Give one“ (Go). Dies bedeutet, dass beim „regulären“ Kauf einer BoGo Light (in einem Industrieland), gleichermaßen eine BoGo Light einer Organisation zur Verfügung gestellt wird, welche die indirekt gespendeten Lampen Menschen in Entwicklungsländern zukommen lässt.52 Fallbeispiel 3: Das Unternehmen MAGE Water Management sieht sich selbst als einen Lösungsanbieter für dezentralisierte Wasserversorgung an Standorten, wo Salzwasser oder Brackwasser die einzigen verfügbaren Wasserressourcen darstellen. Ein Produkt des Unternehmens ist der Watercone, welcher Ende 2008 in das Produktportfolio aufgenommen wurde.53 Beim Watercone54 handelt es sich um eine portable Einpersonen-Destillationseinheit zum Einsatz in ökonomisch-ökologisch stark benachteiligten Küstenregionen der Welt. Der solarbetriebene Watercone wandelt Salzwasser oder Brackwasser innerhalb von 24 Stunden in bis zu 1,7 Liter Süßwasser um. Dies erfolgt durch die Einstrahlung der Sonne auf das Wasser, die Erhitzung des Wassers und die Kondensation des erhitzten Wassers an den Außenwänden des Watercone. Dabei läuft das kondensierte (Süß-)Wasser an den kegelförmigen Außenwänden nach unten in einen Auffangbehälter. Der Output des Watercone von 1,7 Litern Süßwasser entspricht dabei in etwa dem Tagesbedarf eines Kindes an Wasser, welcher durch die UNICEF als Richtwert angegeben wird. Die Philosophie des WaterconeKonzeptes besteht darin, dass eine Vielzahl dezentralisierter, kleiner Einheiten die Bereitstellung von Süßwasser sicherstellt, und nicht eine große, zentrale Entsalzungseinheit. Der Vorteil liegt in der Einfachheit des Watercone und in seiner Unabhängigkeit, etwa von einem Stromnetz.55 Wenn eine große Entsalzungseinheit ausfällt, kann kein Süßwasser generiert werden. Fällt jedoch eine kleine Einheit aus, arbeiten die anderen einfach weiter.56 Watercone wurde bereits mehrfach ausgezeichnet, so z.B. mit dem Energy Globe Award 2008 für ein Pilotprojekt in Jemen. Beim 5. World Water Forum in 52 53 54
55 56
Für ausführliche Informationen siehe http://www.bogolight.com. Der Watercone wurde von Stephan Augustin entwickelt und an das Unternehmen MAGE Watermanagement lizenziert. Der Watercone ist kegelförmig aus dem witterungsbeständigen, schlagfesten sowie hitze- und kältebeständigen Kunststoff Makrolon, einem Polykarbonat der Bayer MaterialScience, konzipiert. Siehe zum Material http://www.makrolon.de. Allerdings ist der Watercone auf Sonnenenergie angewiesen. In den dafür in Frage kommenden Regionen ist dies aber zumeist kein Problem. Für ausführliche Informationen siehe http://www.mage-watermanagement.com.
Soziale Innovationen und Social Entrepreneurship
165
Istanbul 2009 wurde der Watercone mit dem Kyoto World Water Grand Prize prämiert. Darüber hinaus ist Stephan Augustin, der Erfinder und Initiator des Watercone Projektes, für den World Technology Award 2009 in der Category Social Entrepreneurship nominiert. Die drei Fallbeispiele von Vestergaard Frandsen, SunNight Solar und MAGE Water Management stellen mit ihren Konzepten und Produkten in exemplarischer Weise die Heterogenität und Bandbreite der Verbindung von sozialen Innovationen mit Social Entrepreneurship dar. Dabei bilden die Social Ventures lediglich einen kleinen Ausschnitt aus einer Vielzahl von möglichen Fallbeispielen.
4
Implikationen von sozialer Innovation im Kontext von Social Entrepreneurship
In einer modernen Gesellschaft sichern technologische Innovationen sowie hoch rationalisierte Organisationen den Wohlstand und die soziale Sicherheit.57 Der Zusammenhang von Innovationen, unternehmerischer Tätigkeit und sozialen bzw. gesellschaftlichen Auswirkungen ist immanent. In Abbildung 5 ist die Verbindung des unternehmerischen und gesellschaftlichen Kontextes von Innovation dargestellt.58 Aber nicht allein die technologischen Innovationen bewirken soziale Sicherheit und gesellschaftlichen Wohlstand. Vielmehr sind es auch soziale Innovationen, die einen positiven Beitrag zum sozialen und gesellschaftlichen Wandel leisten. Nach Drucker (2007) werden soziale Innovation und unternehmerisches Denken und Handeln (Entrepreneurship) gleichermaßen in Wirtschaft und Gesellschaft sowie in öffentlich-rechtlichen Institutionen benötigt.59 In den heutigen Industrieländern kann verstärkt beobachtet werden, dass sich soziale Konflikte ausbilden, welche in ihrer Qualität und Intensität über die letzen Jahre zugenommen haben. Dabei ist in der Gesellschaft speziell die Bildung zweier Pole bzw. Gruppen, der gut qualifizierten Personen auf der einen, und der minder 57
58 59
Vgl. Kohn (2002), S. 305. Ausführungen bei Nye (2006) weisen eine absolute Bedingtheit von Technologie und dem menschlichen Wesen an sich auf. Nach Nye ist Technologie nicht vom Menschen trennbar. So merkt Seidl (2002), S. 148 ff. an, dass die Technik alle Lebensbereiche des Menschen durchdringt. Dabei stellt diese ein selbstverständliches Attribut des Lebens dar. So übernimmt die Technik zum einen immer mehr Funktionen und Aufgaben, welche individuell realisiert werden mussten. Zum anderen stellt die Technik einen bedeutenden Faktor der Volkswirtschaft, mit weitreichenden Verbindungen, wechselseitigen Bedingtheiten und Auswirkungen, dar. Vgl. Zinkl (2007), S. 18. Vgl. Drucker (2007), S. 230.
166
Christine K. Volkmann / Kim Oliver Tokarski
qualifizierten bzw. benachteiligten Personen auf der anderen Seite zu beobachten.60 Auf dem Weg zu einer unternehmerischen Gesellschaft können soziale Innovationen einen Beitrag zur Qualifizierung und Integration benachteiligter Personen leisten. Drucker führt, vor dem Hintergrund einer sich teilenden Gesellschaft, zwei Beispiele an. Zum einen sollte eine Verfahrensweise bzw. Strategie entwickelt werden, welche sich der beschäftigungslosen Arbeitskräfte annimmt. Allein in einer unternehmerischen Gesellschaft kann sich dieser Personen angenommen werden, indem sie unterschiedliche neue Geschäftsmodelle, Unternehmen und Arbeitsplätze schafft. Dabei ist im Sinne eines nachhaltigen lebenslangen Lernprozesses auf eine umfassende Ausbildung bzw. ein Training zu achten. Zum anderen ist nach Drucker die Organisation der systematischen Abschaffung einer nicht mehr zeitgemäßen Sozialpolitik sowie von veralteten öffentlichen Institutionen eine weitere bedeutende soziale Innovation. Dahinter steht die Auffassung, dass Gesetze und Institutionen durch Menschen geschaffen werden, und nicht göttlichen Ursprungs sind.61 Abbildung 5:
Innovation im unternehmerisch-gesellschaftlichen Kontext Unternehmerische Aufgabe
Unternehmerischer Erfolg
Innovation
Zukunftstechnologien
Gesellschaftlicher Wohlstand
Bis zu den 1930er Jahren waren fünfundsiebzig Jahre lang soziale Innovationen gleichermaßen produktiv und schnell in ihrer Entwicklung, wie auch technologische Innovationen. Innerhalb dieses Zeitraums vollzogen sich soziale Innovationen in der Form der Schaffung neuer öffentlicher Institutionen.62 In Anlehnung an die Historie könnte der Bereich der sozialen Innovationen zum nächsten größeren Konstrukt im Kontext von Social Entrepreneurship avancieren, welche 60 61 62
Vgl. Ibert (2003), S. 22. Vgl. Drucker (2007), S. 233 ff. Vgl. Drucker (2007), S. 169. Drucker bezieht sich in diesem Beispiel vornehmlich auf soziale Innovationen in öffentlichen Institutionen.
Soziale Innovationen und Social Entrepreneurship
167
sich aber nicht allein in öffentlichen, sondern auch in Non-GovernmentalOrganisationen sowie privatrechtlichen Institutionen widerspiegeln. Die Verbindung sozialer, unternehmerischer und innovativer Aspekte weist hier im Hinblick auf die Zukunft weltweit ein hohes Entwicklungspotenzial auf. In diesem Sinne ist bspw. die Mikrofinanzierung, die von Muhammad Yunus und der Grameen Bank entwickelt wurde, als eine bedeutende soziale Innovation in der jüngeren Geschichte anzusehen,63 bei der ein Zusammenhang mit Social Entrepreneurship und den positiven sozialen und gesellschaftlichen Auswirkungen unmittelbar sichtbar wird. Ein zentrales Merkmal von Innovationen und sozialen Innovationen im Kontext von Entrepreneurship oder Social Entrepreneurship ist die Umsetzung, d.h. die Transformation der Invention mit entsprechenden Auswirkungen auf den Markt bzw. die Gesellschaft. Den Zusammenhang von sozialer Innovation, Social Entrepreneurship sowie dem Markt bzw. der Gesellschaft verdeutlicht Abbildung 6. Abbildung 6:
Soziale Innovation im Kontext von Social Entrepreneurship, Markt und Gesellschaft
Soziale Innovation
Social Entrepreneurship
Markt-/Gesellschafts-/ Orientierung
Wie im Innovations- und Entrepreneurship-Kontext allgemein können auch im Bereich soziale Innovationen und Social Entrepreneurship unterschiedliche Risiken, wie bspw. Kreditrisiken, Marktrisiken oder auch operative Risiken bestehen. Einige dieser Risiken können vermieden, vermindert oder diversifiziert werden. Aber letztlich müssen Risiken auch einfach getragen bzw. übernommen werden. Mit den Risiken eines auf sozialen Innovationen basierenden unternehmerischen Vorhabens sind vor allem auch Chancen verbunden. Sollten dennoch 63
Vgl. Phills/Deigelmeier/Miller (2008), S. 36 und S. 40.
168
Christine K. Volkmann / Kim Oliver Tokarski
die Risiken zu einem Scheitern des Unternehmens führen, zeigt ein Zitat von Thomas Edison, dass ein Scheitern aber auch positive Aspekte besitzen kann: „I have not failed. I have merely found ten thousand ways that won’t work“.64
Literatur Achleitner, Ann-Kristin (2007): Social Entrepreneurship und Venture Philanthropy. Erste Ansätze in Deutschland, in: Hausladen (Hrsg.), S. 57-70. Acs, Zoltan J./Audretsch, David B. (Hrsg.) (2003): Handbook of entrepreneurship research. An interdisciplinary survey and introduction, Boston 2003. Aeschbacher, Roger (2009): Maximale Innovation durch „Management by Conversation“, Zürich 2009. Arreger, Kurt (1976): Innovation in sozialen Systemen 1. Einführung in die Innovationstheorie der Organisation, Bern 1976. Bieri, Stephan (2002): Zur Verständigung zwischen Ökonomie und Ingenieurwissenschaft, in: Giger et al. (2002), S. 531-547. Bornstein, David (2004): How to Change the World. Social Entrepreneurs and the Power of New Ideas, New York 2004. Bundesministerium für Bildung und Forschung (Hrsg.) (2006): Bundesbericht Forschung 2006, Berlin 2006. Burns, Paul (2007): Entrepreneurship and small business. 2nd ed, Basingstoke 2007. Burns, Tom/Stalker, George M. (1961): The management of innovation, London 1961. De Vries, Michael (1998): Die Paradoxie der Innovation, in: Heideloff/Radel (1998), S. 75–87. Dees, Gregory J. (2001): The meaning of “Social Entrepreneurship”, The Fuqua School of Business, http://www.fuqua.duke.edu/centers/case/dokuments/dees_sedef.pdf. Dees, Gregory J./Economy, Peter (2001): Social Entrepreneurship, in: Dees/Emerson/Economy (Hrsg.), S. 1-18. Dees, Gregory J./Emerson, Jed/Economy, Peter (Hrsg) (2001): Enterprising Nonprofits. A Toolkit for Social Entrepreneurs, New York 2001. Drucker, Peter F. (1985): Innovation and Entrepreneurship, New York 1985. Drucker, Peter F. (2007): Innovation and Entrepreneurship. Practice and Principles, Amsterdam 2007. Elkington, John/Hartigan, Pamela (2008): The Power of Unreasonable People. How Social Entrepreneurs Create Markets That Change the World, Boston 2008. Freiling, J. (2006): Entrepreneurship. Theoretische Grundlagen und unternehmerische Praxis, München 2006. Fueglistaller, Urs/Müller, Christoph A./Volery, Thierry (2008): Entrepreneurship. Modelle, Umsetzung, Perspektiven. 2. Aufl., Wiesbaden 2008.
64
Kelley/Littman (2005), S. 42.
Soziale Innovationen und Social Entrepreneurship
169
Gassmann, Oliver/Sutter, Philipp (2008): Praxiswissen Innovationsmanagement. Von der Idee zum Markterfolg, München 2008. Giger, Hans et al. (Hrsg.) (2002): Technologische Entwicklungen im Brennpunkt von Ethik, Fortschrittsglauben und Notwendigkeit, Bern 2002. Graßhoff, Gerd (2008): Innovation. Begriffe und Thesen, in: Graßhoff/Schwinges (2008), S. 13–31. Graßhoff, Gerd/Schwinges, Rainer C. (Hrsg.) (2008): Innovationskultur. Von der Wissenschaft zum Produkt, Zürich 2008. Hausladen, Iris (Hrsg.) (2007): Management am Puls der Zeit. Strategien, Konzepte und Methoden, München 2007. Heideloff, Frank/Radel, Tobias (1998): Innovation in Organisationen. Ein Eindruck vom Stand der Forschung, in: Heideloff/Radel (1998), S. 7-39. Heideloff, Frank/Radel, Tobias (Hrsg.) (1998): Organisation von Innovation. Strukturen, Prozesse, Interventionen, München 1998. Hirsch-Kreinsen, Hartmut/Hahn, Katrin/Jacobson, David (2008): The low-tech issue, in: Hirsch-Kreinsen/Jacobsen (2008), S. 3-22. Hirsch-Kreinsen, Hartmut/Jacobsen, David (Hrsg.) (2008): Innovation in low-tech firms and industries, Cheltenham 2008. Ibert, Oliver (2003): Innovationsorientierte Planung. Verfahren und Strategien zur Organisation von Innovation. Opladen 2003. Kelley, Tom/Littman, Jonathan (2005): The ten faces of innovation. IDEO's strategies for beating the devil's advocate & driving creativity throughout your organization. New York 2005. Kohn, Michael (2002): Zur Überwindung der Kluft zwischen Technologie und Gesellschaft, in: Giger et al. (2002), S. 303–315. Lattmann, Massimo S./Mazumder, Sita (2007): Erfolgsfaktoren innovativer Unternehmen. Entrepreneurship, Strategie, Kultur aus unternehmerischer Erfahrung, Zürich 2007. Lawrence, Paul R./Lorsch, Jay W. (1967): Organization and environment. Managing differentiation and integration, Boston 1967. Mair, Johanna/Martí, Ignasi (2006): Social Entrepreneruship research. A source of explanation, prediction, and delight, in: Journal of World Business. Vol. 41 (2006), S. 3644 McClelland, D.C. (1961): The Achieving Society, Princeton 1961. Mort, Gillian S./Weerawardena, Jay/Carnegie, Kashonia (2003): Social Entrepreneurship. Towards conceptualization, in: International Journal of Nonprofit and Voluntary Sector Marketing, Vol. 8, No. 1/2003, S. 76-88. Nicholls, Alex (Hrsg.) (2006): Social Entrepreneurship. New Models of Sustainable Social Change, New York 2006. Nye, David E. (2006): Technology matters. Questions to live with, Cambridge (MA) 2006. Phills, James A./Deigelmeier, Kriss/Miller, Dale T. (2008): Rediscovering Social Innovation, in: Stanford Social Innovation Review, Fall 2008, S. 34-43. Ronstadt, Robert (1984): Entrepreneurship. Text, cases and notes, Dover (MA) 1984. Ruh, Hans (2002): Chancen und Risiken der Technologie aus ethischer Sicht, in: Giger et al. (2002), S. 113-129.
170
Christine K. Volkmann / Kim Oliver Tokarski
Sarasvathy, Saras D. et al. (2003): Three views of entrepreneurial opportunity, in: Acs/Audretsch (2003), S. 141-160. Scholl, Wolfgang (2004): Innovation und Information. Wie in Unternehmen neues Wissen produziert wird, Göttingen 2004. Schumpeter, Joseph A. (1997): Theorie der wirtschaftlichen Entwicklung. Eine Untersuchung über Unternehmergewinn, Kapital, Kredit, Zins und den Konjunkturzyklus. 9. Aufl., unveränderter Nachdruck der 4. Aufl. von 1934, Berlin 1997. Schumpeter, Joseph Alois (2006): Theorie der wirtschaftlichen Entwicklung. Nachdruck der 1. Auflage von 1912. Berlin 2006. Schwab Foundation for Social Entrepreneurship (2008): Outstanding Social Entrepreneurs, Cologny/Genf 2008. Schwab Foundation for Social Entrepreneurship (2009): Outstanding Social Entrepreneurs, Cologny/Genf 2009. Seidl, Edit (2002): Technik und Emotionen. Plädoyer für den lustvolleren Einsatz der Technik, in: Giger et al. (2002), S. 145-159. Shane, Scott A. (2003): A general theory of entrepreneurship. The individual-opportunity nexus, Cheltenham 2003. Shane, Scott A./Venkataraman, Sankaran (2000): The promise of entrepreneurship as a field of research, in: Academy of Management Review, Vol. 25, No. 1/2000, S. 217226. Stern, Thomas/Jaberg, Helmut (2007): Erfolgreiches Innovationsmanagement. Erfolgsfaktoren – Grundmuster – Fallbeispiele, Wiesbaden 2007. Steyaert, Chris/Hjorth, Daniel (2006): Introduction. What is social in social entrepreneurship, in: Steyaert/Hjorth (2006), S. 1-18. Steyaert, Chris/Hjorth, Daniel (Hrsg.) (2006): Entrepreneurship as social change. A third movements in entrepreneurship book, Cheltenham 2006. Stryjan, Yohanan (2006): The practice of social entrepreneurship. Notes toward a resource-perspective, in: Steyaert/Hjorth (2006), S. 35-55. Swedberg, Richard (2006): Social entrepreneurship. The view of young Schumpeter, in: Steyaert/Hjorth (2006), S. 21-34. Volkmann, Christine K./Tokarski, Kim O. (2006): Entrepreneurship. Gründung und Wachstum von jungen Unternehmen, Stuttgart 2006. Weik, Elke (1998): Innovation, aber wie? Einige Gedanken zur Verwendung des Begriffes in der BWL, in: Heideloff/Radel (1998), S. 41-50. Wengenroth, Ulrich (2008): Innovationspolitik und Innovationsforschung, in: Graßhoff/Schwinges (2008), S. 61-77. Yunus, Muhammad. (2006): Social Business Entrepreneurs Are the Solution, in: Nicholls, Alex (Hrsg.), S. 39-55. Zapf, Wolfgang (1989): Über soziale Innovationen, in: Soziale Welt, Heft 1-2/1989, S. 170-183. Zinkl, Wolf (2007): Erfolg durch Innovationskraft. Ein Ratgeber für Unternehmen mit zahlreichen Beispielen aus der Praxis und konkreten Handlungsempfehlungen, Zürich 2007.
Wagnis Innovation – Zur Unsicherheitssituation junger Unternehmen Michael J. Fallgatter / Heiko Breitsohl
1
Einführung
Zu den wichtigsten Treibern einzel- und gesamtwirtschaftlicher Innovation zählen Unternehmer und die durch sie gegründeten Organisationen. So zeichnet sich Innovation aus ökonomischer Perspektive durch das unternehmerische Durchsetzen neuer Kombinationen, d.h. neuer Güter, Produktionsmethoden etc. aus.1 Umgekehrt steht im Kern unternehmerischer Tätigkeit die Entdeckung, Bewertung und Ausschöpfung von Handlungsfeldern, also neuen oder differenten Produkt-/Marktkombinationen.2 Insgesamt hinterlässt hier die Entrepreneurshipforschung jedoch einen unbefriedigenden Eindruck: eine Reproduktion wichtiger Forschungsergebnisse scheint verbreitet zu sein. Dies gilt vor allem für Studien zur Notwendigkeit einer Geschäftsplanung, zur Erfolgsfaktorenforschung und auch für Teile der äußerst traditionsreichen Forschungen zur Unternehmerperson. So münden einige Studien in weitgehend uniformen Darstellungen der als Allgemeingut einzustufenden typischen Unternehmereigenschaften.3 Dabei fällt auf, dass eine wesentliche Ursache für diese Situation methodischer Natur ist: So lässt sich bei empirischen Studien oft nicht umgehen, dass Stichproben sehr heterogen sind und hinsichtlich ihres Potenzials stark unterschiedliche Typen junger Unternehmen sich in der gleichen Untersuchung wiederfinden. Dies liegt daran, dass kaum valide Prognosen über Entwicklungen junger Unternehmen möglich sind, da Innovationen, Geschäftskonzeptionen, Branchen und Umweltbedingungen regelmäßig erst im Zeitablauf hinsichtlich 1 2 3
Vgl. Schumpeter (1934). Vgl. Fallgatter (2004a); Fallgatter (2007). Vgl. Fallgatter (2002), S. 116-126.
172
Michael J. Fallgatter / Heiko Breitsohl
ihres ökonomischen Potenzials fundiert eingeschätzt werden können. Allerdings vernachlässigen auch theoriebildende Arbeiten eine explizite Auseinandersetzung mit unterschiedlichen Typen junger Unternehmen und unterscheiden junge Unternehmen üblicherweise lediglich in formaler Hinsicht nach Gründungspersonen bzw. -institutionen oder hinsichtlich prägender Finanzierungsquellen. Der vorliegende Beitrag nimmt dies zum Ausgangspunkt und thematisiert Typen junger Unternehmen, also Unternehmen in den ersten fünf bis acht Jahren nach ihrer Gründung. Den Kern der Argumentation bilden die spezifische Unsicherheitssituation junger Unternehmen sowie etablierte Studien zur Branchenentwicklung. Der Beitrag arbeitet eine innovative Systematik heraus und ermöglicht so einen vertieften Einblick in zentrale Zusammenhänge der Entwicklung junger Unternehmen. Die Argumentation verbleibt nicht auf einer deskriptivsystematisierenden Ebene, sondern widerspricht einigen als anerkannt und bestätigt eingestuften Forschungsergebnissen. Der Beitrag setzt sich aus fünf Abschnitten zusammen. Der folgende Abschnitt stellt einen Zusammenhang zwischen jungen Unternehmen und verschiedenen Unsicherheitssituationen her. Dazu wird auf entscheidungstheoretische Überlegungen Bezug genommen. Dies führt zu drei Unsicherheitssituationen junger Unternehmen und erhebt einen grundlegenden und umfassenden Anspruch (2). Im Anschluss stellt sich die Frage nach der Entwicklung von Unsicherheitssituationen. Eine Beantwortung erfolgt unter Rückgriff auf die Legitimationsforschung. Angesprochen ist die Akzeptanz und Durchsetzbarkeit von neuen Geschäftskonzeptionen und Innovationen (3). Diese beiden Argumentationsstränge schaffen die Basis für die Differenzierung von Typen junger Unternehmen. Leitend ist dabei die Frage, wie Ressourcenaustauschprozesse in den vorgestellten Unsicherheitssituationen in Gang kommen können (4). Ausgehend von den so differenzierten Typen junger Unternehmen lassen sich einige etablierte Erkenntnisse und Überzeugungen neu bewerten (5).
2
Gründungen und Unsicherheit
2.1 Typen von Gründungen In der Entrepreneurship-Literatur finden sich verschiedene Typologien junger Unternehmen. Solche Vorschläge zur Systematisierung setzen vielfach an institutionellen Gegebenheiten, bspw. der Rechtsform, der Finanzierungsform, den Gründerpersonen oder den Gründungsunternehmen an. Den Ausgangspunkt einer umfassenden formalen Systematisierung bildet auf der einen Seite die Fra-
Wagnis Innovation – Zur Unsicherheitssituation junger Unternehmen
173
ge, ob ein Unternehmen bereits besteht.4 Die Begriffe „Strukturschaffung und -veränderung“ erfassen diesen Sachverhalt und führen zur Unterscheidung von originären und derivativen Gründungen. Auf der anderen Seite lassen sich junge Unternehmen nach den initiierenden Personen oder Institutionen unterscheiden (s. Abb. 1). Den primären Gegenstand der Entrepreneurshipforschung bilden üblicherweise die originären Gründungen. Vor allem von etablierten Unternehmen durchgeführte Projekte sowie risikokapitalfinanzierte Unternehmen erklären sich weitgehend von selbst. Demgegenüber weniger eindeutig unterscheiden sich Existenz- und Unternehmensgründungen. Diese begriffliche Differenzierung spricht erhebliche Unterschiede in den Geschäftsideen sowie dem Wachstumsund Beschäftigungspotenzial an.5 Demnach beschreiben Existenzgründungen Kleingewerbe, die bereits vielfach bewährte Geschäftskonzeptionen verfolgen und sich in einem Verdrängungswettbewerb befinden. Die prägende, extreme Ausrichtung auf die Unternehmerperson für derartige junge Unternehmen macht die Beschreibung als „Gründung einer Existenz“ deutlich. Demgegenüber lassen sich Unternehmensgründungen mit dem Innovationsbegriff belegen. Sie entwickeln eine wettbewerbsfähige Produkt/Markt-Kombination, die auch ohne omnipräsenten Unternehmer einen eigenständigen Wert darstellt. Freilich besteht das Problem, dass eine exakte Zuordnung erst ex post möglich wird und gerade die marktliche Betätigung eine Verschiebung in die jeweils andere Richtung bewirken kann. Abbildung 1:
Typen von Gründungen Ausgangspunkt:
Strukturschaffung (originäre Gründung)
Strukturveränderung (derivative Gründung)
Unternehmensgründung, Existenzgründung, ungewisses Wagnis
Übernahme, Management-Buy-Out, Management Buy-In
etabliertes Unternehmen und Unternehmer
Risikokapital finanziertes Unternehmen
Franchise-Unternehmen
etablierte(s) Unternehmen
(Groß-)Projekt
Akquisition, Fusion
Initiierung durch: Unternehmer
4 5
Vgl. Saßmannshausen (2001), S. 129; Fallgatter (2002), S. 27. Vgl. Szyperski/Nathusius (1977), S. 27-28; Fallgatter (2004a), S. 25- 27.
174
Michael J. Fallgatter / Heiko Breitsohl
Diese Systematisierung schafft eine erste Ordnung, berücksichtigt Unsicherheit jedoch nur implizit. So wird niemand bestreiten, dass risikokapitalfinanzierte junge Unternehmen schwieriger planbar sind als Großprojekte oder Existenzgründungen. Zudem ist es offensichtlich, dass die Produkt-, Markt- und Branchensituationen durch Unternehmer, Finanzierungsinstitutionen, Lieferanten und nicht zuletzt Abnehmer jeweils eine eigene Interpretation erfahren. Schon diese Andeutungen rücken Unsicherheit und die daran anknüpfenden Entscheidungen von unterschiedlichsten Ressourcengebern in das Zentrum. Die Explizierung der angedeuteten Unsicherheit erfolgt im nächsten Abschnitt und führt zur Erweiterung der vorgestellten formalen Unterscheidung von Typen junger Unternehmen.
2.2 Drei Arten von Unsicherheit im unternehmerischen Kontext Eher pragmatisch ließe sich Unsicherheit als das Fehlen von Informationen für eindeutige Voraussagen interpretieren. Für die Situation junger Unternehmen und die Entscheidungen von relevanten Ressourcengebern bietet sich eine erweiterte, handlungsorientierte Definition an: Unsicherheit bedingt ein Zweifeln, das Handlungen und Entscheidungen blockiert oder verzögert.6 Diese grundlegende Definition integriert zwei wesentliche Strömungen der Entrepreneurshipforschung, die ihrerseits Blockierungen, Aufschiebungen oder Unentschlossenheiten beim unternehmerischen Handeln verschieden bearbeiten.7 Die erste Strömung richtet sich auf den Willen von Unternehmern, Unsicherheit zu übernehmen.8 Demgegenüber analysiert die zweite Strömung Wahrnehmungen von Unsicherheit durch Unternehmer und ist damit primär kognitiv orientiert.9 Diese beiden Forschungsströmungen setzen an unsicheren Ausgangssituationen an. Sie demonstrieren eindrucksvoll die Schwierigkeiten des unternehmerischen Handelns und thematisieren einen jeweils anderen Umgang damit, sagen jedoch nur wenig über die Ausgangssituation junger Unternehmen selbst aus. Um der Intention dieses Beitrages gerecht zu werden, muss eine andere, explizit auf Unsicherheit gerichtete Basis geschaffen werden. Dies erfordert eine Klärung verschiedener Facetten der Unsicherheit. Die Unsicherheitssituationen werden im Folgenden anhand der Begriffe „Entscheidungsrisiko“, „Informationsrisiko“ und „Ungewissheit“ näher beschrieben. Es handelt sich hierbei um eine der Entscheidungstheorie entlehnte Systematik.
6 7 8 9
Vgl. Lipshitz/Strauss (1997), S. 149-150. Vgl. McMullen/Shepherd (2006), S. 123. Vgl. Knight (1921); Schumpeter (1934); Brockhaus (1980). Vgl. Kaish/Gilad (1991); Palich/Bagby (1995); Krueger (2005), S. 111-115.
Wagnis Innovation – Zur Unsicherheitssituation junger Unternehmen
175
Risiken sind immer dann wirksam, wenn Entscheidungen anstehen und Bewertungen gegenüber der Alternative „den gegenwärtigen Zustand belassen“ erfordern. „Risiken“ deuten die „kalkulierte Prognose eines Schadens“ an, da man in solchen Situationen nicht genug für eindeutige Voraussagen weiß.10 Im Einzelnen lässt sich Unsicherheit durch zwei Risikoarten und durch Ungewissheit erfassen: Ein Teil des Risikos ist regelmäßig durch Institutionen – bspw. Planungen, Verträge, Garantien oder Gesetze – kanalisierbar und damit entscheidungstheoretisch handhabbar. Entscheidungsträger wissen folglich zwar nicht genug für sichere Prognosen, sehen sich aber in der Lage, den Alternativen Eintrittswahrscheinlichkeiten bezogen auf unterschiedliche Umweltzustände zuzuweisen. Auch wenn in den meisten realen Situationen Entscheidungen nicht formalisiert und keine Eintrittswahrscheinlichkeiten benannt werden, entspricht die Struktur immer diesem Grundmodell der Entscheidungstheorie.11 Dies ist auch dann der Fall, wenn nur eine Alternative benannt wird und die künftige Entwicklung als „etwas wahrscheinlicher“ und der erwartete Nutzen als „positiv“ und damit sehr vage belassen werden. Dafür wird hier der Begriff „Entscheidungsrisiko“ verwendet. Neben diesem entscheidungstheoretisch handhabbaren Risiko – dem Risiko bei gegebenem Wissen – besteht ein Risiko über das Wissen. Man weiß nicht, wie gut die Informationen sind und was man alles nicht weiß. Dieses Informationsrisiko ist die offene Menge aller zum Planungszeitraum nicht antizipierbaren oder übersehenen künftigen Ziele, Mittel, Handlungsmöglichkeiten oder Situationen.12 Zum Informationsrisiko zählen nicht die prinzipiell planbaren Tatsachen, wie Konkurrentenreaktionen oder Veränderungen der Kundenpräferenzen, sondern Einflüsse, die das „Nicht-Wissen“ prägen. Dieser Teil des Risikos ist entsprechend nicht durch Institutionen erfassbar und somit nicht planbar. Die Beziehung zwischen Entscheidungs- und Informationsrisiko ist keineswegs statischer Natur, sondern ändert sich in Abhängigkeit von den eingesetzten oder geschaffenen Institutionen. Beispielsweise wird das Informationsrisiko durch Garantien oder Eigenkapital reduziert, das heißt der planbare Teil der Entscheidungssituation wird größer. Situationen, in denen das Informationsrisiko derart dominiert, dass keine entscheidungstheoretische Handhabung möglich ist, gelten hier als „Ungewissheit“. Umstritten ist, ob dies in der Realität tatsächlich vorkommt. Beispielsweise negieren Eisenführ und Weber (2003) die Existenz von Ungewissheit und bezeichnen die Differenzierung von Risiko und Ungewissheit als „theoretisch du-
10 11 12
Vgl. Schneider (1987), S. 2. Vgl. Laux (2005), S. 35. Vgl. Schneider (1987), S. 2-3.
176
Michael J. Fallgatter / Heiko Breitsohl
bios“.13 Sie argumentieren, es seien Wahrscheinlichkeiten zumindest grob benennbar. Demgegenüber ist es jedoch offensichtlich, dass die Situation vieler junger Unternehmen nicht entscheidungstheoretisch handhabbar ist. Gerade die Diskussionen um innovative Geschäftskonzeptionen14 sowie die extrem variierenden Zeithorizonte bis zur Etablierung unterschiedlicher Branchen15 belegen dies. Zwar können sicherlich Unternehmer immer irgendwelche Wahrscheinlichkeiten irgendwie angeben, entscheidend ist jedoch, dass diese kaum so zu begründen sind, dass sie relevanten Ressourcenbereitstellern kommunizierbar wären. Ungewissheit ist damit jene Situation, in der das Informationsrisiko dominiert und die Reduktion von Unsicherheit nicht oder nur in sehr geringem Maße durch Institutionen erfolgen kann. Zwischen diesen drei Unsicherheitssituationen werden in der Realität fließende Übergänge bestehen. Entsprechend stellt die folgende Abbildung (s. Abb. 2) ein Unsicherheitskontinuum vor, dem sich die oben formal unterschiedenen Typen junger Unternehmen zuordnen lassen. Diese unterliegen grundverschiedenen Unsicherheitssituationen, was sich in ihrem Wachstumspotenzial und ihren Ressourcenaustauschprozessen widerspiegelt. Abbildung 2:
Junge Unternehmen und Unsicherheit Unsicherheitskontinuum
massive Informationsgeringe Informationserhebliche, aber risiken; EntscheidungsUnsicherheitsrisiken und gut planbare einschätzbare Informationsrisiken kaum formuliersituation: Entscheidungsrisiken und Entscheidungsrisiken bar (Ungewissheit) Unternehmenstypus:
Existenzgründungen; Großprojekte
risikokapital-finanzierte junge Unternehmen
Unternehmensgründungen; ungewisse Wagnisse
Die zentralen Bedingungen junger Unternehmen liegen damit offen. Es ist zum einen die jeweilige Unsicherheitssituation und zum anderen die Frage, wie die Überzeugung von unterschiedlichen Ressourcengebern angesichts der jeweiligen Unsicherheitssituation gelingt. Nachfolgend wird die Entwicklung von Unsicherheitssituationen analysiert. Dies ist insofern relevant, als Unsicherheitssituationen einem fortwährenden Wandel ausgesetzt sind, der sich vor allem in der Entwicklung von Inventionen hin zu etablierten Branchen zeigt. 13 14 15
Vgl. Eisenführ/Weber (2003), S. 259-260. Vgl. Bhidé (2000). Vgl. Klepper/Graddy (1990), S. 30.
Wagnis Innovation – Zur Unsicherheitssituation junger Unternehmen 3
177
Dynamik von Unsicherheitssituationen: Die Rolle von Legitimität
3.1 Junge Unternehmen und Legitimation Der Wandel von Unsicherheitssituationen manifestiert sich in der Verschiebung der Anteile des Entscheidungs- und Informationsrisikos. Besonders deutlich ist dies für die Ungewissheit junger innovativer Branchen. Deren Etablierung kennzeichnet eine steigende Planbarkeit mit deutlich einfacheren Ressourcenaustauschbedingungen, was eine Ausdehnung des Entscheidungsrisikos bedeutet. Diese Dynamik hat vielfältige Ursachen, vor allem technologische, marktbezogene, bedürfnisbezogene und legislative Einflüsse. Gewissermaßen das Kondensat derartiger Veränderungen wird in der Legitimationsforschung analysiert.16 Entsprechend wird hier diese Forschungsrichtung für die Unterscheidung von jungen Unternehmen aufgegriffen. Leitend ist die Idee, dass Inventionen, Unternehmen, Geschäftskonzeptionen oder betriebliche Maßnahmen eine Passung zu Normen und Wertvorstellungen aufweisen müssen, damit Ressourcenaustauschprozesse in Gang kommen. „Legitimation“ wird hier in Anlehnung an Suchman (1995) wie folgt definiert: Legitimation beschreibt die Wahrnehmung relevanter Bezugsgruppen, ob prägende Merkmale von Unternehmen oder Produkten vor dem Hintergrund eines gesellschaftlich konstruierten Systems von Werten und Normen wünschenswert, angemessen oder passend sind.17 Diese Definition weist mindestens drei entscheidende Charakteristika auf: Erstens betont sie, dass nicht eine „tatsächliche“, sondern die durch die relevante Anspruchsgruppe wahrgenommene Ausprägung bestimmter Merkmale entscheidend für die Zuschreibung von Legitimation ist.18 Zweitens ist der Gegenstand der Legitimationseinschätzung nach dieser Definition weit gefächert und richtet sich auf das gesamte Unternehmen, die Geschäftskonzeption, Produkte, Dienstleistungen bis hin zu spezifischen organisatorischen Prozeduren, wie die Personalpolitik oder die Umsetzung von Umweltstandards. Drittens hängt es von der Relevanz der Anspruchsgruppen ab, welche Merkmale im Vordergrund stehen. Die Relevanz von Anspruchsgruppen richtet sich wiederum nach der Bedeutung der bereit zu stellenden Ressourcen. Für junge Unternehmen sind Ressourcen von Investoren, Lieferanten, Abnehmern und potenziellen Mitarbeitern an erster Stelle zu nennen. Eine empirische Untermauerung findet die Legitimationsforschung im Rahmen der Populationsökologie. Zahlreiche Studien stützen den vermuteten Zusammenhang zwischen Legitimation und Mortalitätsraten junger Unterneh16 17 18
Vgl. Fallgatter/Brink (2006). Vgl. Suchman (1995), S. 574. Vgl. Suchman (1995), S. 574.
178
Michael J. Fallgatter / Heiko Breitsohl
men.19 Zudem helfen diese Überlegungen, um unterschiedliche Branchenentwicklungen zu erklären. So zeigen Klepper und Graddy (1990), dass in einzelnen Branchen unterschiedliche Zeitspannen bis zur Etablierung anzutreffen sind.20 Diese reichen von zwei bis über 50 Jahre. Durch unternehmerisches Handeln, Wettbewerbstheorie oder Konsolidierungsprozesse lässt sich dies nur ansatzweise erfassen. Eine größere Rolle spielen Prozesse der Schaffung von Legitimität durch die Unternehmen der betreffenden Branche.21 Die oben benannten Unsicherheitssituationen kennzeichnen im Wesentlichen je unterschiedliche Ausgangssituationen zur Erreichung von Legitimität. Besonders deutlich ist dies für potenzialreiche junge Unternehmen, die Ungewissheit und einer sehr geringen Legitimität ausgesetzt sind. Entsprechend prägt ihre Situation ein begrenzter Zugriff auf finanzielle Ressourcen und Humankapital, fehlende Erfahrung innerhalb des Geschäftsfeldes sowie fehlende Kontakte zu Kunden und Lieferanten.22 Folglich begründet eine nur geringe Passung zu den gängigen Standards, Werten und Normen die übliche Dominanz des Informationsrisikos in innovativen Branchen. Es ist offensichtlich, dass sich eine solche begrenzte Legitimation kritisch auswirkt. Die Legitimationsforschung verbleibt nicht bei der Deskription von Ausgangssituationen. Vielmehr steht die wechselseitige Beförderung von Unternehmen bzw. Branchen und Legitimation im Vordergrund. Daran anknüpfend lässt sich die Dynamik der oben herausgearbeiteten Unsicherheitssituationen skizzieren.
3.2 Dimensionen von Legitimität Zur Frage, wie Legitimation entsteht und von Unternehmen gewonnen werden kann, finden sich verschiedene Konzepte. Um die Situation junger innovativer Unternehmen und der sich regelmäßig erst entwickelnden Branchen zu erfassen, wird hier der Argumentation von Aldrich und Fiol (1994) gefolgt. Aldrich und Fiol (1994) unterscheiden zwei Legitimationsdimensionen, die sich ausgehend von etablierten Branchen verdeutlichen lassen. Es handelt sich um die kognitive sowie um die soziopolitische Legitimation. Beispielsweise in der Automobilindustrie werden Planungsrhythmen, Produktionsprozesse, Finanzierungswege oder übergreifende Wertschöpfungsketten nicht mehr hinterfragt und gelten in der Grundstruktur als selbstverständlich. Angesprochen ist die 19 20 21 22
Vgl. Zimmerman/Zeitz (2002), S. 417; Delmar/Shane (2004), S. 408. Vgl. Klepper/Graddy (1990), S. 28-30. Vgl. Aldrich/Fiol (1994), S. 646-647. Vgl. Aldrich/Fiol (1994), S. 646.
Wagnis Innovation – Zur Unsicherheitssituation junger Unternehmen
179
kognitive Legitimation. Darüber hinaus passen die Geschäftskonzeption, die zentralen Prozeduren sowie unternehmenspolitische Entscheidungen in hohem Maße zu Normen und Wertvorstellungen. Diese Anschlussfähigkeit steht nicht in Frage und zeigt sich in seiner Extremform in der Einrichtung von automobilwirtschaftlichen Schwerpunkten an Hochschulen. Selbst zahlreiche Skandale, Standortverlagerungen oder öffentlich ausgetragene Aufsichtsratsdebatten beeinflussen die Legitimation nicht grundlegend. Angesprochen ist die soziopolitische Legitimation. Somit beschreibt kognitive Legitimität den Bewährungsgrad, die Verständlichkeit sowie die Selbstverständlichkeit eines jungen Unternehmens, einer Geschäftskonzeption oder zentraler Prozeduren. Der Bezug zu Kognitionen zeigt, dass Wahrnehmungen, Attributionen und Einschätzungen von Individuen im Mittelpunkt stehen. Kognitive Legitimität setzt sich damit aus dem Wissen der relevanten Ressourcenbereitsteller zusammen.23 Aus Sicht eines Unternehmers gehen mit hoher kognitiver Legitimation Kopien einer bewährten Geschäftskonzeption einher, anstatt mit neuen Geschäftskonzeptionen auf den Markt zu drängen. Aus der Perspektive von Verbrauchern bedeutet kognitive Legitimation, dass viele interessierte Nutzer eines Produktes oder einer Dienstleistung sowie entsprechend viele Angebote existieren.24 Soziopolitische Legitimität beschreibt das Ausmaß der Passung von Geschäftskonzeptionen bzw. von Unternehmen zu breit akzeptierten Standards, Regeln und Prinzipien. Angesprochen sind damit die prinzipielle Anschlussfähigkeit von Geschäftskonzeptionen einer neuen Branche sowie deren wirtschaftliches Potenzial.25 Damit bezieht sich soziopolitische Legitimation auf den Prozess, in dem die wichtigsten Bezugsgruppen, wie Öffentlichkeit, Meinungsführer oder staatliche Stellen, Geschäftskonzeptionen sowie nicht etablierte Branchen als angemessen akzeptieren.26 Eine solche dichotome Betrachtung ist allerdings insofern unzureichend, als nicht von einer Konstanz ausgegangen werden kann, sondern vielmehr der Prozess der Legitimationsentstehung interessant ist. Dies gilt in besonderem Maße für junge Branchen, die von sich erst entwickelnden Einschätzungen von Abnehmern und Ressourcengebern abhängen. Es wäre völlig unzureichend, lediglich zwischen legitimierten und nicht legitimierten Branchen zu unterscheiden. Legitimitätsgewinnung ist vielmehr ein Prozess, der nur schwer vorher bestimmbar ist und je nach Etablierungsgrad konkurrierender Branchen, Innovationsgrad, Ausmaß der Superiorität der neuen Produkte bzw. Dienstleistungen sowie der eingesetzten Maßnahmen unterschiedliche Zeitspannen beansprucht. 23 24 25 26
Vgl. Berger/Luckmann (1977), S. 100. Vgl. Hannan/Freeman (1986), S. 63; Aldrich/Fiol (1994), S. 648. Vgl. Aldrich/Fiol (1994), S. 646. Vgl. Aldrich/Fiol (1994), S. 648.
180
Michael J. Fallgatter / Heiko Breitsohl
3.3 Entstehung und Gewinnung von Legitimität Aldrich und Fiol (1994) beschreiben vier Ebenen, die sukzessive zur Legitimation beitragen, bis schließlich eine Branche legitimiert ist. Eine fortschreitende Legitimation erfolgt mithin unternehmensbezogen, branchenbezogen, branchenübergreifend sowie institutionell. Zusammen mit der Unterscheidung in kognitive und soziopolitische Legitimität spannt dies den Erklärungsrahmen auf. Legitimation werden drei Vorstufen zugewiesen: Vertrauen, Zuverlässigkeit und Reputation sind erforderlich, damit neue Branchen Legitimation erreichen und ohne grundlegende Hürden Ressourcenaustauschprozesse stattfinden können. Je schlechter die Informationslage und je größer die Ungewissheit ist, desto mehr Vertrauen ist erforderlich. „Vertrauen“ kann definiert werden als die positive Erwartungshaltung gegenüber Personen oder Institutionen trotz eines erheblichen Risikos der Erwartungsenttäuschung. Erst wenn Informationen zuverlässiger werden, können sich Handlungen auf Zuverlässigkeit und Reputation stützen. Entsprechend ist Vertrauen eine kritische Größe für den Erfolg junger Unternehmen. In neuen Branchen fehlt systematisch Vertrauen und somit die Voraussetzung für alle Austauschbeziehungen. Die soziopolitische Dimension kann durch auf die kognitive Dimension gerichtete Maßnahmen unterstützt werden. Als nächste Stufe von Vertrauen schließt sich Zuverlässigkeit an und geht mit bereits – zumindest einmalig – erfüllten Erwartungen einher. Eine aufgrund von Erfahrung belastbare Zuverlässigkeit führt zu Reputation, die ihrerseits die dritte Vorstufe von Legitimation ist.27 Dieser Prozess der Schaffung bzw. Erreichung von Legitimität verdeutlicht eine weitere Facette junger Unternehmen. Sie entwickeln neue Sichtweisen, die bestehende Normen verändern und den Ausgangspunkt für neue Branchen darstellen. In diesem Sinne initiieren innovative Unternehmen eine weitgreifende Auseinandersetzung und damit eine „Neuverhandlung“ bestehender Regeln, Normen, Einschätzungen oder staatlicher Unterstützung. Neue Produkte oder Dienstleistungen erhalten somit durch erfolgreiche innovative Unternehmen Legitimität. Die vier Stufen lassen sich nach der kognitiven sowie soziopolitischen Legitimität gliedern. Vertrauen ist auf Unternehmensebene angesiedelt, da es in erster Linie in einer dyadischen Geschäftsbeziehung und damit auf Unternehmensebene geschaffen wird. Zuverlässigkeit bzw. eine positive Einschätzung der Verlässlichkeit der Geschäftskonzeption entsteht nicht nur auf der Ebene des Unternehmens selbst; vielmehr spielt auch die Ausformung einer Branche eine entscheidende Rolle. Die Einschätzung von Zuverlässigkeit entsteht vor allem durch eine Repetition der neuen Geschäftskonzeption – unabhängig davon, ob die Wieder27
Vgl. Aldrich/Fiol (1994), S. 649-650.
Wagnis Innovation – Zur Unsicherheitssituation junger Unternehmen
181
holung durch eines oder mehrere junge Unternehmen bewerkstelligt wurde. Die Beförderung von Zuverlässigkeit erfolgt also auf der Branchenebene. Reputation ist in der geschilderten Strukturierung auf der Inter-Branchen-Ebene angesiedelt. Dies macht zweierlei deutlich: Zum einen ist Reputation ein relatives Konstrukt; nur wenn die neuen Produkte, Dienstleistungen und Geschäftskonzeptionen im Vergleich zu „nahen“ Branchen eine positive Bewertung erfahren, kann es zur Ausformung von Reputation kommen. Zum anderen kann Reputation durch konkurrierende Branchen behindert werden. Die institutionelle Ebene ist letztendlich für die Legitimation insofern entscheidend, als hier Normen, Prinzipien und Standards existieren und durch Innovationen entwickelt und ausgeformt werden. Auf allen vier Stufen geht es darum, eine jeweils anders gestaltete Wissensbasis zu schaffen, die den Legitimationsprozess vorantreibt. Die voran stehende Diskussion verweist auf wesentliche Hürden von Branchenentwicklungen und deren Überwindung. Anzumerken bleibt dabei, dass keineswegs alle Stufen durchlaufen werden müssen. Dies hängt vielmehr davon ab, wie überlegen neue Produkte oder Dienstleistungen sind oder wie groß ihre kognitive Legitimität per se ist. Handelt es sich um Varianten, die einen sehr offensichtlichen Kostenvorteil aufweisen, so wird kognitive Legitimität zumindest auf der Ebene der Ressourcengeber sowie vieler Abnehmer und Lieferanten geradezu automatisch erreicht. In solchen Fällen besteht das wesentliche Problem in der Überwindung der heftigen Abwehrmaßnamen durch Standesvertretungen etablierter und bedrohter Branchen. Weiterhin verdeutlicht die Diskussion die Dynamik von Unsicherheit und die äußerst komplexe Situation aller Ressourcenbereitsteller. Dies gilt vor allem dann, wenn das Informationsrisiko stark ausgeprägt ist und folglich nur eine geringe Legitimation vorhanden ist. Der folgende Abschnitt vertieft diese Diskussion vor dem Hintergrund der verschiedenen Unsicherheitssituationen.
4
Typen junger Unternehmen
4.1 Zur Belastbarkeit von Viabilitätsvermutungen Jede Aufnahme einer Ressourcenaustauschbeziehung setzt eine Einschätzung über deren Aussichten voraus. In vielen Fällen handelt es sich dabei nicht um viel mehr als eine bloße Vermutung über die Tragfähigkeit, im weiteren Verlauf als Viabilität bezeichnet. So weisen Geschäftsbeziehungen, Produkte, Verfahren oder Humankapital zwangsläufig kaum eine Bewährung auf. Damit hängt die Belastbarkeit von Viabilitätsvermutungen entscheidend von der jeweiligen Unsicherheitssituation und einer Prognose über deren Legitimationsprozess ab. Zwi-
182
Michael J. Fallgatter / Heiko Breitsohl
schen den einzelnen Typen junger Unternehmen bestehen erhebliche Unterschiede und für gut planbare Großprojekte sind die Schwierigkeiten, Austauschbeziehungen aufzunehmen, wesentlich geringer als für innovative Geschäftskonzeptionen einzelner Personen. Diese Betonung von Unsicherheit und Legitimation provoziert die Frage, wie Kunden und unterschiedliche Ressourcengeber zur Aufnahme von Geschäftsbeziehungen bewegt werden können. In den Wirtschaftswissenschaften erfolgt die Beantwortung dieser Frage durch das Risikoträgertheorem28, wie es bereits Cantillon (1931) formulierte. Dieses stuft Unternehmer als Institutionen zum Tragen von Unsicherheit ein. Es erstaunt dann nicht, wenn die Vorstellung dominiert, Unternehmer kennzeichne eine besondere Risikofreude. Das Risikoträgertheorem erklärt jedoch nur einen Teil der Situation junger Unternehmen. Das Informationsrisiko und damit jener Teil der Unsicherheit, der aus der Perspektive von Mitarbeitern, Kapitalgebern, Lieferanten und Kunden nicht reduzierbar ist, kann nicht so wie im Risikoträgertheorem suggeriert von einem risikofreudigen Unternehmen getragen werden. Das Tragen des Informationsrisikos ist weniger eine Frage des Wollens, als vielmehr eine Frage der Bereitschaft der Austauschpartner. Warum sollten Kapitalgeber, Mitarbeiter, Lieferanten und Kunden Geschäftsbeziehungen eingehen und ohne weiteres dem Unternehmer dieses Risiko zuordnen? Das Risikoträgertheorem erfasst also primär Unternehmen, bei denen das Entscheidungsrisiko dominiert und das verbleibende Informationsrisiko finanziell oder durch personenbezogene Institutionen abgedeckt werden kann. Das Risikoträgertheorem passt damit keineswegs zur Gesamtheit junger Unternehmen. Entsprechend bedarf es einer Ergänzung durch andere Begründungen, um die aus der Sicht der Ressourcenbereitsteller schwierige Aufnahme von Geschäftsbeziehungen erklären zu können.
4.2 Zum Umgang mit Unsicherheit Der Umgang mit Unsicherheit kann bei jungen Unternehmen auf prinzipiell drei Arten erfolgen. Eine Unsicherheitsunterschreibung knüpft an vertragliche Regelungen an. Dies ist dann möglich, wenn Sicherheiten vorhanden sind, die sowohl das Entscheidungs- als auch das Informationsrisiko kalkulierbar machen. Dies entspricht weitgehend dem Risikoträgertheorem. Eine Unsicherheitskompensation liegt vor, wenn durch Produkt- und Verfahrensinnovationen oder durch spezifische Dienstleistungen das Informationsrisiko an Bedeutung verliert. Eine Unsicherheitssyndizierung stellt eine Übertragung des Entscheidungs- und Informati28
Vgl. Fallgatter (2002), S. 97-101.
Wagnis Innovation – Zur Unsicherheitssituation junger Unternehmen
183
onsrisikos auf Dritte dar. Im Zusammenhang mit Innovationen handelt es sich um die häufigste Situation und ist immer dann virulent, wenn Mitarbeiter, Kapitalgeber, Lieferanten oder Kunden mehr oder weniger bewusst Unsicherheit zu einem großen Teil tragen.29 Diese Überlegungen zum Umgang mit den vorhandenen Viabilitätsvermutungen erlauben eine erweiterte Beschreibung von Typen junger Unternehmen. Es zeigt sich, dass junge Unternehmen anhand ihrer Größe sowie vor allem anhand der jeweiligen Bedeutung des Informationsrisikos unterschieden werden können. Die folgende Abbildung (s. Abb. 3) skizziert diesen Zusammenhang: Bei einem geringen Informationsrisiko liegen die Risiken weitgehend offen und sind entscheidungstheoretisch handhabbar. Die Folge ist die Unterschreibung von Unsicherheit, das heißt aufgrund von Planungen kann festgelegt werden, welcher Ressourcengeber und welcher Vertragspartner welche Risiken in welcher Höhe trägt. Existenzgründungen und Großprojekte sind hier einzuordnen. In einer „mittleren“ Situation ist das Informationsrisiko deutlich ausgeprägt. Die beteiligten Personen können sich ein Bild von dessen Ausmaß machen und gehen offensiv damit um. Risikokapitalfinanzierte junge Unternehmen passen zu dieser Unsicherheitssituation. Neben die Unsicherheitsunterschreibung tritt die -kompensation durch innovative Ideen. Die Strukturen von Risikokapitalgebern, deren bewusste Streuung von Risiken sowie die Begleitung und Genehmigung grundlegender strategischer Entscheidungen passt zu dieser durch das Informationsrisiko geprägten Situation. Bei einem gegenüber dem Entscheidungsrisiko dominanten Informationsrisiko ist eine Unterschreibung von Risiken nicht denkbar. In einer Ungewissheitssituation verbleibt nur die Unsicherheitssyndizierung. Entsprechend handelt es sich um junge Unternehmen, die keine genaue Geschäftsplanung aufstellen können und fast zwangsläufig chronisch unterfinanziert sind. Damit existiert eine Typologie junger Unternehmen, die konsequent auf der Analyse der Unsicherheitssituation sowie des Legitimationsprozesses basiert. Der folgende Abschnitt zeigt die herausfordernden Konsequenzen des gesamten Argumentationsganges für einzelne Forschungsströmungen.
29
Vgl. Bhidé (2000), S. 89.
184
Michael J. Fallgatter / Heiko Breitsohl
Abbildung 3:
Typen junger Unternehmen
Entstehung von Legitimation
Unsicherheitskontinuum
5
geringe Informationsrisiken und gut planbare Entscheidungsrisiken
erhebliche, aber einschätzbare Informationsund Entscheidungsrisiken
massive Informationsrisiken; Entscheidungsrisiken kaum formulierbar (Ungewissheit)
Vertrauen
x
x
(x)
Zuverlässigkeit
x
(x)
Reputation
x
Legitimation
x
primärer Umgang mit Unsicherheit
Unsicherheitsunterschreibung
Unsicherheitsunterschreibung und -kompensation
Unsicherheitssyndizierung
Existenzgründungen; Großprojekte
risikokapital-finanzierte junge Unternehmen
Unternehmensgründungen; ungewisse Wagnisse
Konsequenzen für die Entrepreneurshipforschung
Die Konsequenzen der vorgetragenen Analyse für die Entrepreneurshipforschung werden anhand von zwei Bereichen skizziert. Im Einzelnen geht es um Studien zur Unternehmerperson sowie zu Erfolgsfaktoren. Dies soll das weiterführende Potenzial der Typologie demonstrieren. Den Abschluss bilden Hinweise zu weiteren Forschungsnotwendigkeiten. Immer wieder werden als typische, unmittelbar handlungsprägende Eigenschaften von Unternehmern Leistungsmotivation, interne Kontrollüberzeugung, Risikoneigung sowie Ambiguitätstoleranz genannt und empirisch bestätigt.30 Vor dem oben analysierten Hintergrund kann eine Risikoneigung jedoch keine so zentrale Bedeutung besitzen. Lediglich für Existenzgründungen sowie für Projekte etablierter Unternehmen ist Risikoneigung aufgrund des ausgeprägten Entscheidungsrisikos eine hinreichende Voraussetzung. Ambiguitätstoleranz hingegen ist eine Eigenschaft, die für die beiden anderen Typen junger Unternehmen höchste Relevanz besitzt, da das Vorliegen eines starken Informationsrisikos – wie dies bei potenzialreichen jungen Unternehmen und risikokapital-finanzierten Unternehmen regelmäßig der Fall ist – mehrwertige Situationen bedingt. 30
Vgl. Fallgatter (2002), S. 122-126.
Wagnis Innovation – Zur Unsicherheitssituation junger Unternehmen
185
Die vorgestellte Typologie hilft auch zur Einordnung zentraler Ergebnisse, die sich gerade nicht auf eine umfassende Planungszentrierung richten. Bhidé (2000) analysierte die rasante Entwicklung von 100 jungen Unternehmen der Inc.500Liste rund acht Jahre nach der Gründung. Er verweist auf spezifische Handlungsweisen und persönliche Eigenschaften der erfolgreichen Unternehmer. Die jeweilige Ausgangssituation lässt sich sehr genau als Ungewissheitssituation beschreiben. Die Handlungsweise identifiziert Bhidé (2000) als „myopischen Opportunismus“ und versteht darunter eine extrem kurzfristige Ausrichtung auf jegliche gangbare Möglichkeiten zur Erreichung eines positiven Cashflows. Unter der Ungewissheit einer kaum legitimierten Branche und dem fehlenden Vertrauen von Ressourcengebern sind folglich spezifische persönliche Eigenschaften erforderlich. Zu nennen sind eine Entscheidungsfreude und Offenheit für Veränderungen und zugleich die Fähigkeit mit den resultierenden internen Konflikten umzugehen sowie ausgeprägte Attributionsfähigkeiten. Derartige Eigenschaften ermittelte Bhidé (2000) empirisch.31 Erst diese Eigenschaften erlauben es, die Ungewissheit auszuhalten und fortwährende Anpassungen umzusetzen. Damit sind bspw. Leistungsmotivation und Risikoneigung keinesfalls obsolet. Sie sind jedoch nicht die entscheidenden Eigenschaften für die identifizierte Unsicherheitssituation. Darüber hinaus folgt aus der Legitimationsdiskussion, dass zu unterschiedlichen Branchenentwicklungen jeweils unterschiedliche persönliche Eigenschaften passen. Eine weitere Konsequenz der vorgetragenen Argumentation betrifft das weite Gebiet der Erfolgsfaktorenforschung. Erfolgsfaktoren, die generelle Gültigkeit beanspruchen, können prinzipiell immer nur einem Ausschnitt junger Unternehmen gerecht werden. Meistens stehen dabei aufgrund der eingangs erwähnten methodischen Gründe Existenzgründungen im Vordergrund. Es erstaunt dann auch nicht, wenn die Fülle der ermittelten Erfolgsfaktoren kaum etwas auslässt, was spontan einfällt.32 Eine kontraintuitive Aussage lässt sich ausgehend von dem geschilderten Legitimationsprozess formulieren. So ist gerade bei innovativen Geschäftsvorhaben und erst entstehenden Branchen ein FirstMover-Advantage sowie die in der Strategielehre im Zentrum stehenden ressourcenökonomischen Anforderungen wie Einzigartigkeit, Knappheit und geringe Imitierbarkeit33 fraglich. Die Hürden einer Legitimation verlangen in weiten Teilen gerade keine Alleinstellung, sondern unternehmensübergreifende Aktivitäten, um substanzielle Beiträge zur Branchen- und damit auch zur Unternehmensentwicklung zu leisten.
31 32 33
Vgl. Bhidé (2000), S. 99-104. Vgl. Fallgatter (2004b). Vgl. Barney (2002), S. 159-160.
186
Michael J. Fallgatter / Heiko Breitsohl
Zusammenfassend deuten die hier genannten Hinweise das beachtliche Potenzial des vorgetragenen Argumentationsganges an. Künftige Studien könnten an der Typologie ansetzen und bspw. ex post-Analysen der Persönlichkeitseigenschaften durchführen. Es ist zu erwarten, dass ausgehend von der Typologie differenzierte Eigenschaften ermittelbar sind. Eine ex post-Analyse der Geschäftsplanung bietet sich ebenfalls an. So ist zu erwarten, dass erhebliche Planungsunterschiede bestehen und die jeweils ermittelbaren situativen Gegebenheiten hinsichtlich des Entscheidungs- und Informationsrisikos erheblich variieren. Dies würde zugleich zeigen, ob die übliche strenge Ausrichtung auf Geschäftsplanungen gerechtfertigt ist und ob die vielen Business Plan-Wettbewerbe ihre ambitionierten Zielsetzungen erreichen können. Derartige Arbeiten würden zugleich die vorgestellte Typologie junger Unternehmen untermauern und wichtige Beiträge für die Entrepreneurshipforschung leisten. Ohne eine solche Differenzierung von Typen junger Unternehmen werden der Entrepreneurshipforschung wichtige Erkenntnisse verschlossen bleiben.
Literatur Achleiter, Ann-Kristin/Klandt, Heinz/Koch, Lambert T. (Hrsg.) (2004): Jahrbuch für Entrepreneurship, Heidelberg 2004. Acs, Zoltán J./Audretsch, David B. (Hrsg.) (2005): Handbook of entrepreneurship research. An interdisciplinary survey and introduction, New York 2005. Aldrich, Howard E./Fiol, C. Marlene (1994): Fools rush in? The institutional context of industry creation, in: Academy of Management Review Jg. 19, Heft 4/1994, S. 645670. Barney, Jay B. (2002): Gaining and sustaining competitive advantage, 2. Aufl. Upper Saddle River 2002. Berger, Peter L./Luckmann, Thomas (1977): Die gesellschaftliche Konstruktion der Wirklichkeit. Eine Theorie der Wissenssoziologie, 5. Aufl., Frankfurt am Main 1977. Bhidé, Amar (2000): The origin and evolution of new businesses, Oxford 2000. Brockhaus, Robert H. (1980): Risk taking propensity of entrepreneurs, in: Academy of Management Journal Jg. 23, Heft 3/1980, S. 509-520. Cantillon, Richard (1931): Abhandlung über die Natur des Handels im allgemeinen. Deutsche Übersetzung nach der französischen Originalausgabe von 1755, ins Deutsche übertragen von H. Hayek, Jena 1931. Delmar, Frederick/Shane, Scott (2004): Legitimating first. Organizing activities and the survival of new ventures, in: Journal of Business Venturing Jg. 19 (2004), S. 385410. Eisenführ, Franz/Weber, Martin (2003): Rationales Entscheiden. 4., neu bearb. Aufl., Berlin/Heidelberg/New York 2003. Fallgatter, Michael J. (2002): Theorie des Entrepreneurship. Perspektiven zur Erforschung der Entstehung und Entwicklung junger Unternehmungen, Wiesbaden 2002.
Wagnis Innovation – Zur Unsicherheitssituation junger Unternehmen
187
Fallgatter, Michael J. (2004a): „Entrepreneurship“: Konturen einer jungen Disziplin, in: Schmalenbachs Zeitschrift für betriebswirtschaftliche Forschung Jg. 56, Heft 2/2004, S. 23-44. Fallgatter, Michael J. (2004b): Zur Erforschung der Erfolgsfaktoren junger Unternehmen: Determinanten oder Impulse des unternehmerischen Handelns?, in: Achleitner et. al. (2004), S. 61-76. Fallgatter, Michale J./Brink, Siegrun (2006): Zum Einfluss der Legitimation auf die Entwicklung junger Unternehmen: Das Beispiel DocMorris, Forschungsbericht des Fachbereichs Wirtschafts- und Sozialwissenschaften, Bergische Universität Wuppertal, Wuppertal 2006. Fallgatter, Michael J. (2007): Junge Unternehmen – Charakteristika, Potenziale, Dynamik, Stuttgart 2007. Hannan, Michael T./Freeman, John. H. (1986): Where do organizational forms come from?, in: Sociological Forum Jg. 1, Heft 1/1986, S. 50-72. Kaish, Stanley/Gilad, Benjamin (1991): Characteristics of opportunities search of entrepreneurs versus executives. Sources, interests, general alertnessi, in: Journal of Business Venturing Jg. 6 (1991), S. 45-61. Klepper, Steven/Graddy, Elizabeth (1990): The evolution of new industries and the determinants of market structure, in: RAND Journal of Economics Jg. 21, Heft 1/1990, S. 27-44. Knight, Frank H. (1921): Risk, Uncertainty and Profit, Boston/New York 1921. Koch, Lambert T./Zacharias, Christoph (Hrsg.) (2001): Gründungsmanagement. München/Wien 2001. Krueger, Norris F. jr. (2005): The cognitive psychology of entrepreneurship, in: Acs et. al. (2005), S. 105-140. Laux, Helmut (2005) : Entscheidungstheorie. 6., durchgeseh. Aufl., Berlin/Heidelberg/New York 2005. Lipshitz, Raanan/Strauss, Orna (1997): Coping with uncertainty. A naturalistic decisionmaking analysis, in: Organizational Behavior and Human Decision Processes Jg. 69, Heft 2/1997, S. 149-163. McMullan, Jeffrey/Shepherd, Dean A. (2006): Entrepreneurial action and the role of uncertainty in the theory of the entrepreneur, in: Academy of Management Review Jg. 32, Heft 1/2006, S. 132-152. Palich, Leslie E./Bagby, D.Ray (1995): Using cognitive theory to explain entrepreneurial risk-taking. Challenging conventional wisdom, in: Journal of Business Venturing Jg. 10 (1995), S. 425-438. Saßmannshausen, Sean P. (2001): Wesen und Wege der Selbständigkeit, in: Koch et. al. (2001), S. 121-135. Schneider, Dieter (1987): Allgemeine Betriebswirtschaftslehre, 3., neubearb. u. erw. Aufl. München/Wien 1987. Schumpeter, Joseph A. (1997): Theorie der wirtschaftlichen Entwicklung. Eine Untersuchung über Unternehmergewinn, Kapital, Kredit, Zins und den Konjunkturzyklus. unveränd. Nachdr. der 1934 ersch. 4. Aufl., Berlin 1997. Suchman, Marc C. (1995): Managing legitimacy. Strategic and institutional approaches, in: Academy of Management Review Jg. 20, Heft 3/1995, S. 571-610.
188
Michael J. Fallgatter / Heiko Breitsohl
Szyperski, Norbert/Nathusius, Klaus (1977): Probleme der Unternehmungsgründung. Eine betriebswirtschaftliche Analyse unternehmerischer Startbedingungen, Stuttgart 1977. Zimmerman, Monica A./Zeitz, Gerald J. (2002): Beyond survival: Achieving new venture growth by building legitimacy, in: Academy of Management Review Jg. 27, Heft 3/2002, S. 414- 431.
Wuppertal als Wirtschaftsstandort für Existenzgründer – Stadtsparkasse Wuppertal als aktiver Begleiter in die wirtschaftliche Selbständigkeit Peter H. Vaupel
1
Gründungsperspektiven
Das Gründungsgeschehen ist ein wichtiger Gradmesser für Dynamik und Stärke einer Volkswirtschaft. Die Gründungswilligen sind eine bedeutende Antriebsfeder, die mit Know-how und Engagement Innovationen einführen und vor allem neue Arbeitsplätze schaffen. Sie stehen daher in unserer Gesellschaft für Fortschritt und Wachstum. Der notwendige Strukturwandel hin zur Dienstleistungs-, Informations- und Wissensgesellschaft vollzieht sich stetig und wird von der Dynamik flexibler und innovativer Unternehmensgründungen getragen.1 Diese Vorhaben sind häufig mit einigen Risiken behaftet – für den Gründungswilligen selbst, aber auch für das finanzierende Kreditinstitut. Die Finanzintermediäre erfüllen aus volkswirtschaftlicher Perspektive die Funktion, das knappe Gut Kapital für die jeweils wirtschaftlich sinnvollste Verwendung bereitzustellen. Mit Hilfe professioneller betriebswirtschaftlicher Beratung können Fehlallokationen verhindert werden, neu geschaffene Arbeitsplätze gefestigt und letztendlich die von den Gründungswilligen ausgehenden Wachstumsimpulse verstärkt werden. Wegen der Wirtschafts- und Finanzkrise steigt die Arbeitslosenzahl in Deutschland in den letzten Monaten stetig an. Vor dem Hintergrund dieser wirtschaftlichen Entwicklung wird vielfach in einer selbstständigen unternehmerischen Tätigkeit ein adäquater und arbeitsmarktgerechter Weg zur Erlangung eines regelmäßigen Einkommens gesehen. 1
Vgl. Baethge/Wilkens (2001).
190
Peter H. Vaupel
Von den rund 40 Millionen Erwerbstätigen in der Bundesrepublik Deutschland ist bereits jeder Zehnte selbstständig.2 Immer mehr Arbeitsplätze in Großunternehmen fallen weg und die öffentlichen Arbeitgeber müssen angesichts ihrer Haushaltslage einen massiven Arbeitsplatzabbau betreiben. Trotz der zurzeit vorherrschenden schwierigen Rahmenbedingungen haben im Jahr 2008 rund 150.000 Menschen in Nordrhein-Westfalen und über 3.000 Menschen in Wuppertal den Schritt in die Selbstständigkeit gewagt. Und das ist gut so, denn erfolgreiche Jungunternehmer leisten ihren Beitrag zu mehr Wirtschaftswachstum. Nicht zuletzt werden durch jede Gründung durchschnittlich vier bis sieben Arbeitsplätze geschaffen.3
2
Finanzierungsprobleme von Existenzgründungen
Junge Unternehmen weisen aufgrund hoher Produktentwicklungs-, Markterschließungs- und Unternehmensaufbaukosten jedoch in der Gründungs- und Aufbauphase einen sehr hohen Kapitalbedarf auf. Dabei hängt der Finanzierungsbedarf wesentlich von der konkreten Unternehmensentwicklung und der Branche ab. Dienstleistungsunternehmen beispielsweise müssen vor der Aufnahme der Geschäftstätigkeit weitaus weniger Kapital einsetzen als Industrieoder Technologieunternehmen. Die Stärke des angestrebten Unternehmenswachstums, eine höhere Kapitalintensität der Technologien, der Neuigkeitsgrad des Leistungsangebotes, der Innovationsgrad der Geschäftsidee und die Größe der Zielmärkte können ebenfalls die Höhe des Kapitalbedarfs in den ersten Wachstumsphasen des Unternehmens beeinflussen. Da zu Beginn der Geschäftstätigkeit noch keine laufenden Erlöse erzielt werden, muss die Unternehmensgründung in der Regel vorfinanziert werden. Die Eigenmittel der Gründer reichen oftmals in der ersten Entwicklungsphase nicht aus, um den Finanzierungsbedarf vollständig zu decken. Viele Jungunternehmer schätzen außerdem nach einer Umfrage der Deutschen Ausgleichsbank ihren Kapitalbedarf nicht immer richtig ein und planen ihre Liquidität dementsprechend falsch. Es ist daher nicht verwunderlich, dass Finanzierungsprobleme die häufigste Insolvenzursache für junge Unternehmen sind.4 Um solch eine Entwicklung zu vermeiden, müssen der zukünftige Kapitalbedarf und die dazugehörigen Finanzierungsalternativen vorausschauend und mit 2 3 4
Vgl. Bundesagentur für Arbeit (2009). Vgl. http://www.ub-tmc.de/leistungen/existenz.htm. Vgl. Untersuchung der Deutschen Ausgleichsbank (1997), entnommen aus Manz/Hering (2000), S. 5.
Sparkasse Wuppertal als Begleiter in die wirtschaftliche Selbständigkeit
191
einem gewissen finanziellen Puffer geplant werden. Grundlage jeder Existenzgründung ist daher ein ausführliches Konzept, der sogenannte Businessplan. Der Businessplan sollte in jedem Fall die präzise Beschreibung von Inhalten, Zielen und Wegen enthalten. Oder anders formuliert: Der Businessplan ist die strukturierte Zusammenfassung aller Planungen, Strategien und Durchführungen der Existenzgründung. Darüber hinaus hilft er dem Existenzgründer, sich über die eigenen Stärken und Schwächen klar zu werden.5 Die gesamten Planungen rund um das Kapital machen einen großen Teil des Konzeptes aus. Das Konzept enthält auch eine ausführliche Investitionsplanung. Die Investitionsplanung zeigt auf, wofür im Einzelnen Geldmittel benötigt oder verwendet werden, wie zum Beispiel Kaufpreise für Grundstücke und Gebäude, Maschinen, Geschäfts- und Büroeinrichtungen, Fahrzeuge oder Patente.6 Aus den einzelnen Positionen ergibt sich ein Gesamtinvestitionsbedarf. Nun geht es um die Herkunft der Geldmittel und damit um die Frage, woher das benötigte Kapital kommen soll. Dass bei einer Existenzgründung auch eigenes Kapital eingebracht wird, ist obligatorisch: Daran erkennt das Kreditinstitut die Bereitschaft zur Risikoübernahme durch den Gründer. Idealerweise hat der Gründer in den vorangegangenen Jahren – neben der Alters- und Familienvorsorge – bereits Vermögen für seine geplante Selbstständigkeit aufgebaut. Beim Thema Geld sollte sich der Existenzgründer intensiv mit seiner Vermögenssituation beschäftigen. Vor allem die Möglichkeit, private Sicherheiten in die Finanzierung einzubinden, bewertet der Kreditgeber stets positiv. Neben der klassischen Hausbankfinanzierung ist es bei vielen Existenzgründern möglich und auch sinnvoll, öffentliche Fördermittel, wie zum Beispiel aus dem KfWFörderprogramm, zu beantragen. Ein weiteres wichtiges Thema im Gründungskonzept ist die Planung der Liquidität. Der Liquiditätsplan ist nichts anderes als eine Geldflussrechnung, die meistens die ersten 12 bis 24 Monate der Existenzgründung aufzeigt. Durch die Betrachtung der monatlichen Zahlen lassen sich saisonale Schwankungen und eingeräumte Zahlungsziele erkennen. Somit besteht das primäre Ziel der Liquiditäts- und Finanzplanung in der Ermittlung des Kapitalbedarfs für die Gründung und die ersten Entwicklungsphasen sowie in der Planung und laufenden Überwachung der Liquiditätsentwicklung. Der nicht gedeckte Kapitalbedarf wird in der Regel durch einen eingeräumten Kontokorrentkredit finanziert. Es bedarf also keiner zusätzlichen Kredite, um Schwankungen aufzufangen.
5 6
Vgl. http://de.wikipedia.org/wiki/Gesch%C3%A4ftsplan. Vgl. http://www.ihk-startup.de/themen-gruender/konzept/finanzplan/was-kostet-der-spassinvestitionsplanung.html.
192
Peter H. Vaupel
Der Finanzierungsplan dient auch als Verhandlungsgrundlage für Finanzierungsgespräche. Außerdem wird er als Kontrollgrundlage für die Überwachung der Liquidität und für das innerbetriebliche Rechnungswesen genutzt, wobei nicht nur die korrekte Höhe, sondern auch die richtige Fristigkeit des Kapitalbedarfs bedacht werden muss. Eine detaillierte Liquiditätsplanung und eine ständige Überwachung der Finanzmittel sind unabdingbar, um Liquiditätsschwierigkeiten rechtzeitig zu erkennen und zu verhindern.7
3
Gründerförderung in Wuppertal
In Wuppertal gibt es viele Beratungseinrichtungen für Existenzgründer. Neben dem StarterCenter Wuppertal-Solingen-Remscheid gibt es seit vielen Jahren auch die Gründungsinitiative Bizeps der Bergischen Universität. Bizeps ist ein Kompetenznetzwerk der Bergischen Region, das Studenten, Wissenschaftlern und Absolventen der Bergischen Universität Wuppertal Beratung und Service rund um die Unternehmensgründung anbietet. Die Stadt Wuppertal verfügt damit über genügend Know-how, um aus fiktiven Ideen auch wahre Unternehmen entstehen zu lassen. Doch auch die Spezialisten der Stadtsparkasse Wuppertal sind im Segment der Existenzgründungen bestens ausgebildet und geben gerade im Anfangsstadium den Gründungswilligen gerne Hilfestellungen zur Vervollständigung eines Businessplans. Letztendlich lassen sich aus Sicht eines Kreditgebers – wie hier der Stadtsparkasse Wuppertal – die Themen, die ein Businessplan beinhalten sollte, wie folgt zusammenfassen:
Geschäftsidee / Beschreibung des Vorhabens Planzahlen (Investition, Finanzierung, Rentabilität, Liquidität) Lebenslauf und persönliche Vermögenssituation Vertragsentwürfe
Das soeben beschriebene detaillierte Konzept zur Existenzgründung hilft zukünftigen Unternehmerinnen und Unternehmern, mögliche Risiken der Geschäftsidee schon im Vorfeld zu erkennen und durch entsprechende Planungen entgegenzuwirken. Der Stadtsparkasse Wuppertal ist daher eine intensive Begleitung ihrer Kunden gerade in den Anfängen sehr wichtig. Die Kunden können sich stets auf die Sparkasse als kreditgebendes Institut verlassen, denn Sparkassen gehören seit 7
Vgl. http://www.existenzgruenderinnen.de/selbstaendigkeit/gruendung_finanzieren/ know_how/00105/index.php.
Sparkasse Wuppertal als Begleiter in die wirtschaftliche Selbständigkeit
193
Jahrzehnten zu den Institutionen mit dem höchsten Gründungs-Know-how. Das zeigt allein schon die Tatsache, dass drei von vier deutschen Unternehmen Kunden der Sparkassen sind und mehr als jede zweite Existenzgründung von den Sparkassen finanziert wird. Gerade in wirtschaftlich schwierigen Zeiten braucht Deutschland junge engagierte Unternehmer mit neuen und nützlichen Ideen. Wuppertal hat viele junge und vor allem mutige Unternehmerinnen und Unternehmer, die sich den Veränderungen stellen und sehr erfolgreich sind. Dabei ist der Sprung in die Selbstständigkeit für potenzielle Jungunternehmer zunächst immer ein Wagnis. Und Wagemut und ein gewisses Maß an Risikobereitschaft sind neben Kreativität und Entschlossenheit wichtige Voraussetzungen für den unternehmerischen Erfolg. Gründer brauchen sicherlich auch ein wenig Glück und vor allem einen verlässlichen Partner – wie die Sparkassen – an ihrer Seite, die die speziellen Bedürfnisse und Entwicklungsbedingungen der Existenzgründer kennen, im regionalen Markt verankert sind und durch schnelle Entscheidungen helfen. Gerade Sparkassen sind aufgrund ihrer genauen Kenntnis von Personen, Produkten und regionalen Märkten in der Lage, die für Existenzgründungen wichtigen Faktoren fundiert beurteilen zu können. Unter dem Dach des Rheinischen Sparkassen- und Giroverbandes begleiten, fördern und unterstützen insgesamt 34 Sparkassen gemeinsam mit ihren Verbundpartnern flächendeckend in allen Regionen des Rheinlandes innovative Existenzgründer und die technologische Entwicklung bei kleinen und mittelständischen Unternehmen in vielfältigster Art und Weise. Bei der Vergabe öffentlicher Förderkredite für Existenzgründer ist die Sparkassen-Finanzgruppe im Rheinland marktführend. Die Förderung von Existenzgründungen ist – wie bereits erwähnt – vor allem eine Förderung des unternehmerischen Mittelstandes. Der Mittelstand beschäftigt die meisten Menschen in der Bundesrepublik Deutschland und er bildet die meisten jungen Menschen aus. Darum muss die mittelständische Wirtschaft auch in Zukunft ein kraftvoller und ein dynamischer Motor unserer Wirtschaft bleiben.8 Die Stadtsparkasse Wuppertal bekennt sich zu ihrer Verantwortung für die wirtschaftliche und gesellschaftliche Entwicklung in der Region. Mit einer Bilanzsumme von über 6 Milliarden Euro und rund 1.450 Mitarbeiterinnen und Mitarbeitern ist sie das größte Kreditinstitut im Bergischen Land und versteht sich seit jeher als der verlässliche Partner von Existenzgründern. Durch die starke Präsenz vor Ort ist sie auch der selbstverständliche Ausgangspunkt für Kooperationen in der Region. Gerade regionale Institute, wie die 8
Vgl. http://www.bundespraesident.de/dokumente/-,2.84184/Rede/dokument.htm.
194
Peter H. Vaupel
Sparkassen, leisten einen wichtigen Beitrag für die Funktionsfähigkeit der sozialen Marktwirtschaft. Viele Fragen bei der Beratung von mittelständischen Firmenkunden resultieren aus regionalen Märkten. Zwar haben auch viele kleine und mittlere Unternehmen heute eine zunehmend europäische und internationale Geschäftsausrichtung. Sie sind jedoch aufgrund ihrer Größe in erster Linie auf Finanzdienstleistungen von Kreditinstituten in ihrer Nähe angewiesen. Deshalb entscheidet sich die große Mehrheit aller Unternehmen in Finanzierungsfragen für die Betreuung durch die Bank und den Berater vor Ort. „Finanzkrise“, „Rezession“, „Geschäftsklima am Boden“ und „die Stimmung ist auf dem Tiefpunkt“: so oder ähnlich finden sich derzeit Schlagzeilen in Tageszeitungen. Wo man hinschaut, ist die Stimmung getrübt. Doch das Jahr 2009 ist bereits in vollem Gange und alle müssen sich nun auf die veränderten Rahmenbedingungen einstellen. Trotz dieser sicherlich schwierigen wirtschaftlichen Bedingungen hält die Stadtsparkasse Wuppertal weiter an ihrer traditionellen Politik zur Förderung von Existenzgründungen fest. Aufgrund des hohen Potenzials im Existenzgründungsbereich am Standort Wuppertal hat die Sparkasse ein Spezialistenteam von ExistenzgründungsBeratern im Firmencenter positioniert. Auch damit ist und bleibt die Stadtsparkasse Wuppertal Partner des Mittelstandes, denn Werte wie Verlässlichkeit und Vertrauen sind wesentliche Bestandteile der Unternehmensphilosophie. Die Region braucht Unternehmer, die mit neuen Ideen, neuen Produkten und vor allem mit neuen Arbeitsplätzen zur Zukunftssicherung des Standortes Wuppertal beitragen. Daher hängt die wirtschaftliche Entwicklung Wuppertals in hohem Maße von der Wirtschaftskraft der hier ansässigen Unternehmen und dem Mut der Unternehmer ab. Nicht trotz, sondern gerade wegen der räumlichen Nähe zu den Zentren des Rheinlandes lohnt es sich, in Wuppertal zu leben und zu arbeiten. Die Stadt Wuppertal und das Bergische Städtedreieck brauchen sich vor anderen Großstädten nicht zu verstecken. Wuppertal ist ein besonderer Wirtschaftsstandort mit einer jahrhundertelangen Tradition. Der Erfindergeist und das handwerkliche Geschick, gepaart mit dem notwendigen kaufmännischen Gespür der hier ansässigen Unternehmen, sorgten schon immer für Innovationen und Qualitätsprodukte, die weltweit nachgefragt werden. Doch bevor aus einer Idee auch ein markt- und verkaufsfähiges Produkt wird, muss die Finanzierung stehen. Dabei fördert auch der Staat – wie bereits erwähnt – auf vielfältige Weise die Gründung von Unternehmen. Die Existenzgründungsprofis der Stadtsparkasse Wuppertal sind neben den eigenen Angeboten auch über die verschiedenen Kreditprogramme des Staates und deren Voraussetzungen bestens informiert.
Sparkasse Wuppertal als Begleiter in die wirtschaftliche Selbständigkeit 4
195
Gründungsfinanzierung und -förderung durch die Stadtsparkasse Wuppertal
Wie eine Existenzgründungsfinanzierung bei der Stadtsparkasse Wuppertal in der Praxis ablaufen kann, wird im Folgenden geschildert. Sobald der Gründer alle notwendigen Unterlagen eingereicht hat, beginnt die Überprüfung des Businessplans durch unsere Spezialisten. Nach eingehender Konzeptüberprüfung wird der potenzielle Existenzgründer zu einem persönlichen Gespräch eingeladen. Anschließend wird das Vorhaben durch den Gründer nochmals persönlich vorgestellt und mit dem Berater konstruktiv diskutiert. Erst wenn die vielen einzelnen Puzzleteile ein vollständiges Bild über das Gründungsvorhaben ergeben, kann die Entscheidung getroffen werden, die Existenzgründung langfristig zu begleiten. Anschließend wird aus dem breiten Spektrum der verschiedenen Kreditprogramme der NRW.Bank und der Kreditanstalt für Wiederaufbau (KfW) zum Förderkreditgeschäft für Unternehmen in der Wachstumsphase oder für bereits am Markt etablierte, sowie für die Begleitung von Firmenübernahmen die jeweils optimale Finanzierungsform empfohlen. Die Vielzahl der Förder- und Einsatzmöglichkeiten sind gerade im Anfangsstadium für die meisten kaum mehr überschaubar. Als bekannteste Förderkredite, auf die im weiteren Verlauf eingegangen wird, sind hier sicherlich das „KfW-StartGeld“ oder der „NRW.Bank Mittelstandskredit“ zu nennen. Das Programm der KfW zielt auf Kleingründungen mit einem maximalen Gesamtinvestitionsbedarf von 50.000 Euro ab. In Anspruch nehmen können das neue Programm sowohl Existenzgründer als auch Jungunternehmer und Freiberufler, die weniger als drei Jahre bestehen, weniger als 50 Mitarbeiter haben und einen Jahresumsatz unter 10 Millionen Euro aufweisen. Die KfW bietet den Darlehensnehmern zwei Kreditvarianten an:
bis zu 5 Jahren Laufzeit bei höchstens einem tilgungsfreien Jahr und bis zu 10 Jahren Laufzeit bei höchstens zwei tilgungsfreien Jahren.
Die Sparkassen sehen sich gerade in der Gründungsfinanzierung besonderen Risiken gegenüber. Deshalb bietet die Kreditanstalt für Wiederaufbau den Instituten eine 80 %-ige Haftungsfreistellung, um Ihnen die Kreditentscheidung zu erleichtern. Durch die Haftungsfreistellung werden die Sparkassen zu 80 % des Kreditbetrages durch die KfW abgesichert. Das Ausfallrisiko wird somit zum größten Teil von der KfW getragen. Mit dem Darlehensbetrag von 50.000 Euro können Investitionen und Betriebsmittel (anteilig bis maximal 20.000 Euro) finanziert werden. Sofern der
196
Peter H. Vaupel
Darlehensnehmer für seine Bonitätsbeurteilung eigene Mittel in die Finanzierung einbringt, werden diese nicht auf den Finanzierungsbetrag angerechnet. Wer beispielsweise 10.000 Euro Eigenmittel hat, kann mit dem KfW-StartGeld insgesamt bis zu 60.000 Euro finanzieren.9 Neben den Fördermöglichkeiten der Kreditanstalt für Wiederaufbau steht auch die NRW.Bank mit zinsverbilligten Darlehen für mittelständische Unternehmen und freiberuflich Tätige sowie für Existenzgründer zur Verfügung. Ziel des NRW.Bank Mittelstandskredites ist die Schaffung und Sicherung von Arbeits- und Ausbildungsplätzen, insbesondere in Nordrhein-Westfalen. Gefördert werden Angehörige der freien Berufe sowie in- und ausländische mittelständische Unternehmen der gewerblichen Wirtschaft, die sich mehrheitlich in Privatbesitz befinden und deren Jahresumsatz 500 Millionen Euro nicht überschreitet. Förderfähig sind Wachstumsvorhaben, die einen nachhaltigen wirtschaftlichen Erfolg erwarten lassen und deren Gesamtfinanzierung gesichert ist. Die Förderung erfolgt in Form eines zinsgünstigen Darlehens. Die Höhe des Darlehens beträgt bis zu 100 % der förderfähigen Kosten bzw. bis maximal 5 Millionen Euro (Mindestkredit: 25.000 Euro). Die NRW.Bank bietet hierbei den Darlehensnehmern drei Kreditvarianten an:
bis zu 5 Jahren Laufzeit bei einem tilgungsfreien Jahr, bis zu 10 Jahren Laufzeit bei zwei tilgungsfreien Jahren und bis zu 20 Jahren Laufzeit bei 3 tilgungsfreien Jahren, sofern mindestens 2/3 der förderfähigen Investitionen einen langfristigen Finanzierungsbedarf haben (z. B. Grunderwerb, gewerbliche Baumaßnahmen oder Beteiligungserwerb).10
Doch auch bei größeren Investitionsvorhaben und auch insbesondere bei Unternehmensübertragungen sollen erfolgversprechende Konzepte nicht an fehlenden Eigenmitteln oder Sicherheiten scheitern. Zur Verstärkung der banküblichen Sicherheiten kann eine Ausfallbürgschaft der Bürgschaftsbank NRW in Anspruch genommen werden. Die Höhe der Bürgschaft beträgt auch hier bis zu 80 % des Darlehens, maximal jedoch 1 Million Euro.11 9 10 11
Vgl. http://www.kfw-Mittelstandsbank.de/DE_Home/Kredite/Die_Foerderprogramme_im_ Einzel nen/KfW-StartGeld_/index.jsp. Vgl. http://www.nrwbank.de/de/existenzgruendungs-und-mittelstandsportal/investition-undwachstum/Mittelstandskredit/index.html. Vgl. http://www.bb-nrw.de/cms/internet/de/Unsere_Leistungen/Foerderbeispiele/ Existenzgruendung/index.html#neugruendung.
Sparkasse Wuppertal als Begleiter in die wirtschaftliche Selbständigkeit
197
Unabhängig von einer Ausfallbürgschaft ist es der Sparkasse wichtiger, dass neben einer ausgereiften Idee auch die sogenannte „Unternehmereignung“, d. h. gerade die Qualifikation und Motivation des Existenzgründers, gegeben ist. Das lässt sich jedoch für den Kreditgeber nicht immer so eindeutig bewerten, da es sich bei dieser Form der Kreditbeurteilung um sogenannte „weiche Faktoren“ handelt, die es zuverlässig einzuschätzen gilt. Die Stadtsparkasse Wuppertal hat in den vergangenen Jahren im Durchschnitt über 300 Existenzberatungen pro Jahr durchgeführt. Besonders erfreulich ist dabei die Tatsache, dass jede dritte Beratung auch zur Finanzierung einer Unternehmensgründung durch die Sparkasse geführt hat. Ebenso erfreulich zeigt sich die Entwicklung bei den Förderkrediten. Hier stieg in den letzten Jahren die Anzahl der Beratungen stetig an. Im Jahr 2008 hat die Stadtsparkasse Wuppertal insgesamt 147 Unternehmen beraten. Die Zusagen für Förderkredite steigen auch hier Jahr für Jahr an und inzwischen führt bereits mehr als jede zweite Beratung auch zu einem positiven Votum. Doch nicht nur auf dem Gebiet der Vergabe von Gründungsfinanzierungen ist die Sparkasse ein kompetenter Partner der Wuppertaler Unternehmen. Als weitere Serviceleistungen werden für die Bergische Wirtschaft in Zusammenarbeit mit Kooperationspartnern Workshops, Schulungen und Fachvorträge durch unsere Kreditexperten durchgeführt. Darüber hinaus bietet die Stadtsparkasse Wuppertal seit vielen Jahren in einem Netzwerk mit der Bergischen Universität und der Wirtschaftsförderung der Stadt Wuppertal sowohl Existenzgründern als auch etablierten Unternehmen aus der Bergischen Region im Rahmen des Unternehmer- und Gründertages ein Forum, um sich praxisnah über alle Fragen der Unternehmensfinanzierung bis hin zur Regelung der Unternehmensnachfolge zu informieren. Ebenso finden einmal im Jahr in der Stadtsparkasse Wuppertal der gemeinsam mit den Wirtschaftsjunioren durchgeführte Unternehmerkongress und die Verleihung des Wuppertaler Wirtschaftspreises statt. Diese stets sehr gut besuchten Veranstaltungen sind ein Beleg dafür, dass die Sparkasse in einem gut funktionierenden Netzwerk mit Wuppertaler Institutionen und Vereinen erfolgreich zusammenarbeitet. Und nicht zuletzt ist die Sparkassen-Finanzgruppe seit 1997 Partner des Deutschen Gründerpreises, einer der bedeutendsten Auszeichnung für herausragende Unternehmer in Deutschland. Auch das ist ein deutliches Zeichen, dass den Sparkassen viel daran gelegen ist, ein positives Gründungsklima in Deutschland aktiv zu fördern und den Jungunternehmern Mut zur Selbstständigkeit zu geben. Selbstverständlich begleitet auch die Stadtsparkasse Wuppertal sehr intensiv den deutschen Gründerpreis. Sie unterstützt und zeichnet in Wuppertal Jahr für
198
Peter H. Vaupel
Jahr Jugendliche aus, die im Rahmen eines internetbasierten ExistenzgründerPlanspiels das überzeugendste Geschäftskonzept für ein fiktives Unternehmen entwickelt haben. Dabei sind bereits sehr vielversprechende Produktinnovationen bundesweit ausgezeichnet worden. Sparkassen leisten einen unverzichtbaren Beitrag für den technologischen Fortschritt und die wirtschaftliche Entwicklung in allen Regionen Deutschlands. Die Sparkassen garantieren auch in Zeiten der Wirtschafts- und Finanzkrise die Versorgung ihrer Kunden mit modernen Bankdienstleistungen zu fairen Preisen. Sie sind dabei auch weiterhin ein verlässlicher Partner aller Kundengruppen und des gewerblichen Mittelstandes. Sparkassen möchten auch zukünftig den gesellschaftlichen Wandel und insbesondere die Entwicklung der Region und der heimischen Wirtschaft aktiv begleiten. Der Standort Wuppertal ist für Investoren und Jungunternehmer attraktiv und soll es auch in Zukunft bleiben. Dazu wird die Stadtsparkasse Wuppertal auch weiterhin einen wichtigen Beitrag leisten.
Literatur Baethge, Martin/Wilkens, Ingrid (2001), Die große Hoffnung für das 21. Jahrhundert. Perspektiven und Strategien für die Entwicklung der Dienstleistungsbeschäftigung, Opladen 2001. Bundesagentur für Arbeit (2009), Arbeitsmarktbericht April 2009, abgerufen am 27. 05. 2009 unter: http://www.arbeitsagentur.de/nn_27030/zentraler-Content/Pressemel dungen/ 2009/Presse-09-034.html , o. O. IHK Wuppertal-Solingen-Remscheid (2009), Zahlen Existenzgründungen NRW und Wuppertal, Wuppertal 2009. Manz, Nicole/Hering, Ekbert (2000), Existenzgründung und Existenzsicherung, Heidelberg 2000. o. V., http://de.wikipedia.org/wiki/Gesch%C3%A4ftsplan, abgerufen am 25.05.2009, o. O. o. V., http://www.ub-tmc.de/leistungen/existenz.htm, abgerufen am 25.05.2009, o. O. o. V., http://www.ihk-startup.de/themen-gruender/konzept/finanzplan/was-kostet-der-spas s-investitionsplanung.html, abgerufen am 25.05.2009, o. O. o. V. http://www.existenzgruenderinnen.de/selbstaendigkeit/gruendung_finanzieren/know _how/00105/index.php, abgerufen am 25.05.2009, o. O. o. V., http://www.kfw-mittelstandsbank.de/DE_Home/Kredite Die_Foerderprogramme_i m_Einzelnen/KfW-StartGeld_/index.jsp, abgerufen am 20.05.2009, o. O. o. V., http://www.nrwbank.de/de/existenzgruendungs-und-mittelstandsportal/investitionund-wachstum/Mittelstandskredit/index.html, abgerufen am 25.05.2009, o. O. o. V., http://www.bb-nrw.de/cms/internet/de/Unsere_Leistungen/Foerderbeispiele/Existen zgruendung/index.html#neugruendung, abgerufen am 25.05.2009, o. O. o. V., http://www.existenzgruender.de/gruendungswerkstatt/finanzierung/02881/index.ph p, abgerufen am 25.05.2009, o. O.
Sparkasse Wuppertal als Begleiter in die wirtschaftliche Selbständigkeit
199
o. V., http://pressetext.de/news/090326005/neuer-trend-zur-selbstaendigkeit, abgerufen am 25.05.2009, o. O. o. V., http://www.foerderland.de/450.0.html, abgerufen am 25.05.2009, o. O. o. V., http://www.mittelstandswiki.de/Business_Plan, abgerufen am 25.05.2009, o. O. o. V., http://www.bundespraesident.de/dokumente/-,2.84184/Rede/dokument.htm, abgerufen am 25.05.2009, o. O.
Zum Bild des mittelständischen Unternehmers – Analyse des Status quo anhand einer empirischen Vollerhebung von Schulbüchern des Landes Nordrhein-Westfalen und Plädoyer für ein »aufgeklärtes« Unternehmerbild Ulrich Braukmann / Carsten Kreutz / Daniel Schneider
1
Einführende Anmerkungen zum Einfluss des mittelständischen Unternehmerbildes auf die Kultur der unternehmerischen Selbstständigkeit
Unternehmer1 haben, gerade in der mittelständischen Wirtschaft der Bundesrepublik Deutschland, bedeutsame Funktionen, wie u.a. die Schaffung und Sicherung von Arbeits- und Ausbildungsplätzen.2 So sind kleine und mittlere Betriebe verantwortlich für 60 % aller Arbeitsplätze und für 46 % der gesamten Bruttowertschöpfung in der Bundesrepublik Deutschland.3 Ebenso werden alleine im Handwerk über 480.000 Lehrlinge ausgebildet.4 Trotz dieser unbestritten hohen sozialen Leistungen ist die Wahrnehmung von Unternehmern in der Gesellschaft als ambivalent zu bezeichnen. Schließlich herrscht kein einheitliches Bild des Unternehmers in der Bevölkerung vor.
1
2
3 4
Zu Gunsten einer besseren Lesbarkeit wird im vorliegenden Artikel vornehmlich die männliche Sprachform verwendet. Selbstverständlich ist hierbei zugleich auch immer die weibliche Darstellungsform gemeint. Vgl. z.B. Koubek (1988), S. 4 der unter dem Titel „Der Unternehmer – Gestalter von Veränderungen in einer komplizierter werdenden Welt“ in der er bereits 1988 konstatierte: „Der Unternehmer ist weit mehr als früher aufgefordert und verpflichtet, dieses vielseitige Geflecht an Einflüssen von außen auf die Unternehmung und von der Unternehmung nach außen in ein fließendes und sich laufend veränderndes Gleichgewicht zu bringen.“ Vgl. ebenso exemplarisch Wegmann (2006), S. 6 zu den Leistungen inhabergeführter mittelständischer Betriebe in Bezug auf wirtschaftliche Anpassungsprozesse in den letzten Jahrzehnten. Vgl. Deutscher Bundestag/Enquete Kommission (2002). Vgl. Zentralverband des deutschen Handwerks (2008).
202
Ulrich Braukmann / Carsten Kreutz / Daniel Schneider
Das Spektrum der Außenwahrnehmung reicht bekanntermaßen und pointiert veranschaulicht von einem vorurteilsbehafteten Generalverdacht gegenüber ‚rücksichtslosen Kapitalisten‘ bzw. ‚Ausbeutern‘, die sich zu Lasten der Arbeitnehmer bereichern, bis zu einem glorifizierten ‚schöpferischen Unternehmer‘, der mittels seiner kreativen Schaffenskraft Innovationen generiert und damit den Sozialstaat sichernd das Marktgleichgewicht auf ein höheres Wohlstandsniveau katapultiert.5 Auch in einem jüngeren Beitrag von Kuckertz/Stöckmann zum „Unternehmerbild in der Gesellschaft“ wird diese ambivalente Wahrnehmung bestätigt und weiter präzisiert. Demnach werden die persönlich haftenden mittelständischen Unternehmer eher positiv wahrgenommen, wohingegen die leitenden Manager von Großunternehmen, die zwar nicht den formalen Aspekt einer beruflichen Selbstständigkeit erfüllen, jedoch gerade im Alltagsverständnis oftmals als sogenannte Managerunternehmer assoziiert werden, ein „fast vollständig“6 negatives Bild zeichnen. Dies darf auch deshalb nicht verwundern, da die in den mittelständischen Betrieben wirkenden Unternehmer in der Regel direkt oder indirekt für ihre Handlungen haften. Einem möglichen Gewinn steht somit stets das mahnende Risiko eines potenziellen Verlustes gegenüber.7 Den Eigentümern von kleinen und mittleren Unternehmen wird zudem eher ein langfristig orientiertes sowie ethisch reflektiertes Handeln unterstellt, welches sich positiv auf das ökonomische und soziale Umfeld auswirkt. Undurchsichtig erscheinende Großkonzerne und ihre Managerunternehmer stehen dagegen eher im Verdacht, primär kurzfristig zu planen, lediglich opportunistisch zu agieren sowie sich auf Kosten der Arbeitnehmer unangemessen zu bereichern.8 Falls sowohl haftende Inhaberunternehmer als auch angestellte Managerunternehmer in der gesellschaftlichen Wahrnehmung unter ein generalisiertes undifferenziertes Unternehmerbild9 subsumiert werden, kann dieses in einem un5
6 7
8
9
Dieses Spektrum der öffentlichen Meinung zur Unternehmerperson ist in Anlehnung an Werhahn (1990), S. 8-18, keineswegs ein Phänomen der jüngeren Zeitgeschichte. Vielmehr reicht es zurück bis in die Antike und in biblische Erzählungen. Kuckertz/Stöckmann (2007), S. 239. Auch für zentrale Vordenker der sozialen Markwirtschaft, wie z.B. Walter Eucken, zählten Privateigentum und die damit korrespondierende Haftungsobliegenheit zu den Ordnungsprinzipien der von ihm vertretenden ordoliberalen Auffassung von einer sozialen Wirtschaftsordnung. Vgl. exemplarisch Pätzold (1994), S. 46. Nach den (nach eigenen Angaben) wertfreien Analysen zahlreicher empirischer Befunde zum gegenwärtigen Unternehmerbild in Deutschland von Kuckertz/Stöckmann (2007), S. 239-241, bilden positive und negative Eigenschaftszuschreibungen im Fremdbild von Unternehmerpersonen in ihrer Gesamterscheinung ein in etwa ausgeglichenes Verhältnis. Auch in der Fachliteratur (vgl. z.B. Nerdinger (1999), S. 5) ist der Unternehmerbegriff oftmals nicht an einen Inhaberstatus gebunden. Bereits Schumpeter unterschied vier Gruppen von Un-
Zum Bild des mittelständischen Unternehmers
203
verhältnismäßig hohen Umfang von den negativ konnotierten Managerunternehmern geprägt sein. Von einem solchen Überstrahlungseffekt10 kann umso mehr ausgegangen werden, je ausgeprägter in der Bevölkerung das Fehlverhalten von Managern missbilligt wird. Nach der Auffassung von profilierten Vertretern von Selbstverwaltungseinrichtungen der Wirtschaft kann sogar ein mögliches Fehlverhalten von lediglich einigen wenigen Managern in Extremsituationen (wie den der Wirtschafts- und Finanzkrise im Jahre 2008) das Vertrauen in unsere gesamte Wirtschaftsordnung beeinträchtigen.11 Ein solches unangemessenes Unternehmerbild muss sich sogar perpetuieren, wenn es nicht gelingt, der nachwachsenden Generation zumindest die Chance zu geben, sich umfassend mit dem Unternehmertum auseinanderzusetzen, wie dies mittlerweile auch von der Politik eingefordert wird.12 Zumindest die bisherigen Bemühungen sind dabei wenig erfolgreich. So assoziieren noch nicht einmal 20 % der in einer repräsentativen Umfrage der Bertelsmann-Stiftung befragten Heranwachsenden den Begriff ‚Unternehmer‘ spontan mit dem Inhaber eines kleinen oder mittleren Betriebes.13 Ebenso gaben über die Hälfte der Schüler und mehr als 40 % der Lehrer im „Youth-Entrepreneurship-Barometer“ an, dass die berufliche Selbstständigkeit in der Schule als Unterrichtsthema keinerlei Bedeutung erfahre.14 Auch deshalb darf es nicht erstaunen, dass sich in der Bundesrepublik Deutschland bislang eine »Kultur der unternehmerischen Selbstständigkeit« wenig etablieren konnte, die sich u.a. in gründungsförderlichen ‚shared values‘
10
11 12
13
14
ternehmertypen. Der von Schumpeter beschriebene Unternehmertyp des „Direktors“, der sich u.a. durch eine leitende Anstellung, hervorragende Arbeitsergebnisse und ein überdurchschnittliches Gehalt auszeichnet, scheint dabei dem Typus des heutigen Managers sehr nahe zu kommen. Vgl. Schumpeter (1993), S. 125. In der Psychologie ist ein solcher Beurteilungs- bzw. Wahrnehmungsfehler, bei dem einzelne Teilbereiche den Gesamteindruck ‚überstrahlen‘ auch als Halo-Effekt bekannt. Vgl. Thorndike (1996), S. 362-363. Vgl. Schulhoff (2008), S. 4. Vgl. hierzu z.B. die Zielkategorien Gründungssensibilisiertheit und Gründungsmündigkeit im Rahmen des „Wuppertaler Appells zur Bescheidenheit in der Entrepreneurship Education“ von Braukmann (vgl. z.B. (2002) und (2003)), die Forderungen zur Förderung eines Unternehmergeistes in Unterricht und Schule in der Oslo Agenda for Entrepreneurship Education in Europe (2006) oder aktuell Fuchs (2008), S. 376-377. Dies wurde u.a. darauf zurückgeführt, dass die Medien und ihre Berichterstattungen, welchen ein großer Einfluss auf die Ansichten von Jugendlichen attestiert wurde, überproportional häufig auf Großkonzerne und die Verfehlungen ihrer Manager fokussieren. Vgl. BertelsmannStiftung (2008), S. 64-66. Vgl. Bertelmann-Stiftung (2008), S. 100. Anzumerken ist jedoch auch, dass eine breite Mehrheit von 77 % der Befragten den Wunsch äußerte, diesen Inhalten im schulischen Rahmen einen größeren Raum zu gewähren.
204
Ulrich Braukmann / Carsten Kreutz / Daniel Schneider
und unternehmerischen Persönlichkeitseigenschaften15 manifestiert. Gemäß einer Studie aus dem Jahre 2009 wird vor allem das antizipierte Risiko im Gründungsprozess in Deutschland als besonders hoch wahrgenommen. Aber auch das Vertrauen in die eigenen Fähigkeiten und der gesellschaftliche Umgang mit einem eventuellen Scheitern eines jungen Unternehmens reduzieren die Bereitschaft der Deutschen, den Schritt in die wirtschaftliche Selbstständigkeit zu wagen.16 Zugleich ist zu konstatieren: Obwohl im Vergleich zu anderen Staaten der OECD in Deutschland die wirtschaftlichen Rahmenbedingungen für Unternehmensgründungen als „gut“ bezeichnen werden dürfen, schlägt sich dieser Vorteil nicht in der Anzahl von Unternehmensgründungen nieder.17 Ebenso gilt: Obwohl somit eine effiziente und legitime Steigerung der Gründungsneigung und -bereitschaft in Deutschland auch auf die Lern-, Bildungs- und Sozialisationsprozesse und -bedingungen fokussieren sollte, stellt der Global Entrepreneurship Monitor (GEM) in seinem Länderbericht Deutschland 2008 ausgeprägte Defizite in den gründungsbezogenen Rahmenbedingungen im schulischen und außerschulischen Bildungsbereich fest. Im Vergleich zu anderen Industriestaaten erreichte die Bundesrepublik in dieser Kategorie nur den vorletzten Platz.18
15
16 17
18
Vgl. zu den unternehmerischen Persönlichkeitseigenschaften insbesondere die Beiträge Braukmann/Schneider (2007), Braukmann/Bijedic/Schneider (2008), Braukmann/Bijedic/Schneider (2009). Vgl. Jung/Unterberg/Heuer/Bendig (2009), S. 17-18. Vgl. Lahn/Hayen/Unterberg (2007), S. 17). Vielmehr offenbart sich mittlerweile insofern sogar ein (durch die demografische Entwicklung zukünftig verschärftes) Gründungsproblem, als dass bereits in den Schriften des Bonner Instituts für Mittelstandsforschung aus dem Jahre 2004 u.a. darauf verwiesen wird: In Deutschland jedes Jahr über 70.000 Mittelständler einen NachfolgerUnternehmer suchen, um ihren Betrieb und die daran gebundenen Arbeitsplätze zu erhalten (vgl. Freund (2004), S. 57-88). Auch und insbesondere führende Selbstverwaltungseinrichtungen des Handwerks (vgl. exemplarisch Handwerkskammer Düsseldorf (2008)) blicken besorgt auf den kontinuierlichen Rückgang der gründungswilligen Jungmeister. Vgl. den Länderbericht für Deutschland des Global Entrepreneurship Monitor bei Brixy/Hessels/Hundt/Sternberg/Strüber (2009), S. 19 und 23. Größere Differenzen in der Gründungsbereitschaft sind auch im Kontext einer geschlechterspezifischen Annäherung an diese Thematik zu diagnostizieren. Der sogenannte „Gendergap“ bezeichnet den stark unterrepräsentierten Frauenanteil unter den Selbstständigen, der mit 28,5 % gemäß der aktuellen Studie von Cesinger/Müller (vgl. (2009), insb. S. 6) auf mögliche Defizite bzgl. der politisch-institutionellen Rahmenbedingungen bzw. auf eine geringere Gründungssensibilisierung von Frauen verweist.
Zum Bild des mittelständischen Unternehmers 2
205
Forschungsanliegen und Vorgehen
Es ist nicht nur im Alltagsverständnis plausibel, sondern auch theoretisch deduzierbar,19 dass die mangelnde Bereitschaft der Deutschen zur Übernahme von unternehmerischer Verantwortung und die damit verbundenen gesellschaftspolitischen Implikationen in einem direkten Zusammenhang mit der öffentlichen Wahrnehmung des Unternehmerbildes (bzw. mit dem Ausprägungsgrad einer unternehmerischen Kultur) stehen.20 Um die Entwicklung einer legitimen und effizienten „Kultur der unternehmerischen Selbstständigkeit“ fördern zu können, sollten im Vordergrund des hier zu explizierenden Forschungsanliegens solche Determinanten eines Unternehmerbildes bzw. der Einstellung zum Unternehmertum stehen, auf welche die Politik zumindest in kleinen Schritten einen direkten Einfluss ausüben kann und will. Deshalb scheint der Frage, ob und ggf. wie in Schulbüchern das Bild des mittelständischen Unternehmers thematisiert wird, eine besondere Bedeutung zuzukommen. Schließlich ist das Schulbuch für die nachwachsenden Generationen eine der wichtigsten Lern- und Sozialisationsinstanzen21 überhaupt. Es wirkt zudem normativ auf den schulischen Bildungsprozess ein und ist „Träger eines spezifischen, kontrollierten, dominanten und sozial-institutionell approbierten Wissens einer nationalsprachlichen Gesellschaft“22. Zudem spiegeln Schulbücher die dominanten Haltungen und Wertvorstellungen einer Gesellschaft wider. Sobald ein einzelnes Schulbuch durch die zuständigen Ministerien und Fachkonferenzen eingeführt wurde, steht es für eine gewisse Zeit und oftmals „konkurrenzlos“ für die „Wichtigkeit“ und „Richtigkeit“ der behandelten Inhalte.23 19
20
21
22 23
Im Rückgriff auf die ‚Theorie des geplanten Verhaltens‘ von Ajzen (vgl. z.B. (1991), S. 188) kommen beispielsweise Walter/Walter (2009), S. 62, zu dem Schluss, dass eine höhere Gründungsintention bei solchen Personen zu erwarten ist, die eine Existenz- oder Unternehmensgründung positiv einschätzen und bewerten, sie als sozial erwünscht empfinden und/oder für durchführbar halten. Vgl. auch Klandt (2002), S. 201. Zu erwähnen sind hierbei auch die statistischen Erhebungen (vgl. hier exemplarisch Blum/Danz/Leibbrandt (2001), S. 127), nach denen zwischen der Herkunft aus einem Unternehmerhaushalt und der Gründung eines Unternehmens positive Korrelationen bestehen. Vgl. Scheller (1999), S. 15. Generell liegt gemäß der strukturfunktionalen Sozialisationstheorie eine wichtige Aufgabe der Schule in der Vermittlung eines kompetenten Rollenhandelns, dass den Schülerinnen und Schülern „die Bereitschaft und Fähigkeit zur erfolgreichen Erfüllung ihrer späteren Erwachsenenrolle“ ermöglicht. Vgl. hierzu teilweise wörtlich Zimmermann (2006), S. 117-118. Höhne (2003), S. 74. Vgl. teilweise wörtlich Dick (1991), S. 5.
206
Ulrich Braukmann / Carsten Kreutz / Daniel Schneider
Zunächst werden auf der Grundlage einer umfangreichen Literaturrecherche diejenigen bereits existierenden Untersuchungen identifiziert, die für die hier im Fokus stehenden Forschungsfragen von Bedeutung sein könnten. Dies impliziert, dass bei der Analyse des Status quo im dritten Kapitel 30 Jahre Schulbuchforschung rekonstruiert werden. Die in die Sekundäranalyse einbezogenen Studien geben erste Antworten auf die Frage, ob und ggf. wie in Schulbüchern das Bild des mittelständischen Unternehmers thematisiert wird. Jedoch sind sie auch durch eine große Heterogenität gekennzeichnet. Auch deshalb wird das Unternehmerbild in nordrhein-westfälischen Schulbüchern im vierten Kapitel primäranalytisch erhoben. Dabei wird untersucht, wie differenziert-objektiv oder pauschal-stereotyp Unternehmerpersönlichkeiten in diesem Leitmedium des Unterrichts dargestellt werden und ob den Schülerinnen und Schülern die Möglichkeit gegeben wird, sich konstruktiv mit der unternehmerischen Selbstständigkeit auseinanderzusetzen. Ohne hier die Ergebnisse dieser Primärstudie vorwegnehmen zu wollen, ist ein Ergebnis der empirischen Vollerhebung des Status quo in Schulbüchern des Landes Nordrhein-Westfalen im fünften Kapitel das prägende, gründungspädagogisch und -didaktisch fundierte Plädoyer für ein »aufgeklärtes« Unternehmerbild.
3
30 Jahre Schulbuchforschung – Retrospektive und Status quo
Die Frage nach dem Unternehmerbild in Schulbüchern ist keineswegs neu und wurde auch in den letzten 30 Jahren von verschiedenen Autoren aufgegriffen. Im Rahmen einer umfangreichen Literaturrecherche konnten sieben Untersuchungen identifiziert werden, deren inhaltliche Ausrichtung für die hier im Fokus stehenden Forschungsfragen von Bedeutung sind. Diese, in die folgende Sekundäranalyse einbezogenen Studien, sind jedoch keinesfalls als homogener Untersuchungsgegenstand zu bezeichnen. So unterscheiden sich die Studien vor allem in den betrachteten Grundgesamtheiten, den verschiedenen methodischen Vorgehensweisen und den sie anleitenden Forschungsfragen.24 Die früheste, hier als relevant eingestufte, Studie aus dem Jahr 1978 stammt von Michalak. Auf der Basis einer Stichprobe von 21 Schulbüchern aus der Grundgesamtheit der im gesamten Bundesgebiet durch die jeweiligen Länder zugelassenen Sozialkundebücher der Sekundarstufe I für den Unterricht an Gymnasien untersuchte er das „Unternehmerbild in Schulbüchern“.25 24
25
Kapitel 3 basiert auf den Vorarbeiten von Kreutz. Vgl. deshalb zu den folgenden Ausführungen zur Sekundäranalyse relevanter Studien auch die ausführlicheren Darstellungen in Kreutz (2009). Vgl. Michalak (1978), S. 16-17.
Zum Bild des mittelständischen Unternehmers
207
Ähnlich gestaltete Braun ihre Studie „Unternehmer und unternehmerische Wirtschaft im Schulbuch“ aus dem Jahr 1981, in der jedoch 33 Sozialkundebücher und 10 Lehrerbegleitbücher der gymnasialen Oberstufe in die Untersuchung einflossen.26 Beiden Analysen ist gemein, dass sie methodisch auf einer qualitativen Inhaltsanalyse basieren und die untersuchten Stichproben offensichtlich nicht inhaltlich begründet ausgewählt wurden. Als ein Ergebnis führen sowohl Michalak als auch Braun aus, dass die unternehmerische Wirtschaft und andere ökonomische Themen nur in wenigen Einzelfällen Einzug in die damaligen Schulbücher gehalten haben. Selbst grundlegende wirtschaftliche Begriffe, wie z.B. Unternehmer, Kapitalist oder Arbeitgeber wurden nur selten in den Unterrichtsmedien aufgegriffen.27 Darüber hinaus kritisiert Braun, dass die Beschreibung von unternehmerischer Tätigkeit durch die Darstellungen von Großunternehmen dominiert wird und es in den meisten Zusammenhängen an Beispielen und Identifikationsmöglichkeiten fehle.28 Die Ergebnisse jener frühen Schulbuchanalyse weisen interessante Parallelen zu den einleitend geschilderten ‚Unternehmerassoziationen‘ innerhalb der deutschen Bevölkerung auf. Während jedoch heute zumeist die nicht haftenden Managerunternehmer im Zentrum einer kritischen Auseinandersetzung stehen, wurden damals eher die Kapitalbesitzer in einen kritisch-negativen Bezugsrahmen gesetzt.29 Böhnkost/Oberliesen kritisierten 1997 die Arbeiten von Braun und Michalak als arbeitgebernahe „publizistische und populistische“ Kampagne und strengten daraufhin eine eigene Studie an. Anhand von 18 deutschen Schulbüchern der Sekundarstufe I für die Unterrichtsfächer Deutsch, Englisch, Erdkunde und Geschichte analysierten sie die Darstellung von Arbeit, Wirtschaft und Technik. Die über 500 Seiten starke wissenschaftliche Ausarbeitung erhebt dabei nach Aussagen der Autoren nicht den Anspruch auf Repräsentativität, da die Stichprobengröße in keinem aussagekräftigen Verhältnis zur Grundgesamtheit stehe. Der nach eigenen Angaben „produktorientierte Ansatz“ der „ideologiekritischen Inhaltsanalyse“, der die qualitative „Präsenz von Inhalten“ in „quantitative Relationen zu anderen Inhalten“ setzt, bedient sich dabei der Methoden der Frequenz-, Kontingenz-, Kontext-, Latenz- und Intensitätsanalyse. Ökonomische Inhalte werden im Versuchsaufbau in volkswirtschaftliche und betriebswirtschaftliche Objektbereiche unterschieden. Als ein wesentliches Ergebnis dieser Studie lässt sich festhalten, dass gerade betriebswirtschaftliche Aspekte in allen untersuchten Lehrwerken nur „marginal“ vorhanden sind und auf curricularer 26 27 28 29
Vgl. Braun (1981), S. 50. Vgl. Michalak (1978), S. 255-259 und Braun (1981), S. 44-45. Vgl. Braun (1981), S. 44-45. Vgl. Michalak (1978), S. 255-259.
208
Ulrich Braukmann / Carsten Kreutz / Daniel Schneider
Ebene eine stärkere interdisziplinäre Einbindung der Gegenstandsbereiche Arbeit, Wirtschaft und Technik erfolgen müsste.30 Doch auch diese Studie von Böhnkost/Oberliesen wurde vielfach kritisch betrachtet. So warf z.B. Radkau (1997) vom Georg-Eckert-Institut für internationale Schulbuchforschung der Studie vor, hinsichtlich des definierten Untersuchungsgegenstands unter Umständen „am falschen Objekt“ geforscht zu haben, da vor allem in den sozialwissenschaftlichen Unterrichtsfächern die Bereiche Arbeit, Beruf und Wirtschaft explizit mit einbezogen würden, welche jedoch in der Studie nicht berücksichtigt wurden.31 Einen wesentlichen Beitrag zur aktuellen Diskussion um die Darstellung und Präsenz von wirtschaftlichen Zusammenhängen und Unternehmertum im Schulbuch leisteten insbesondere die Studien von Theil (2008) und Merrett (2008). Diese Untersuchungen erfuhren auf der Ebene renommierter deutscher Tageszeitungen ein starkes mediales Feedback und regten zu einer intensiven öffentlichen Auseinandersetzung mit dieser Thematik an. Im Namen der Friedrich Naumann Stiftung wurde der hauptberufliche Journalist Gary Merrett 2008 beauftragt, die Darstellung der „Marktwirtschaft in Schulbüchern“ zu untersuchen. Er kommt dabei zu dem Ergebnis, dass deutsche Schulbücher vornehmlich „von marktfeindlichen Irrlehren und antikapitalistischer Rhetorik“ geprägt seien. Demnach befördert diese „systematische Hetzjagd gegen die freie Marktwirtschaft an deutschen Schulen“, auch das Interesse der Schüler an antikapitalistischen Vereinigungen, wie der Anti-Globalisierungsgruppe ‚Attac‘. Seine Thesen leitete Merrett aus der Analyse einer Stichprobe von acht, teils älteren Schulbüchern aus dem Bestand eines niedersächsischen Gymnasiums ab und unterlegte diese mit Beispielen, die vielfach nicht den Erwartungen an eine objektive und neutrale Darstellung von Marktwirtschaft und Unternehmerpersonen entsprachen. Da es überdies versäumte wurde, die Thesen in ein belegbares quantitatives Verhältnis zu einer definierten Grundgesamtheit zu setzen, genügt die Untersuchung keinesfalls den sonst üblichen wissenschaftlichen Ansprüchen an empirische Studien. Somit müssen auch die vorgestellten Ergebnisse als nicht repräsentativ eingestuft werden. In der zweiten, die aktuelle öffentliche Diskussion prägende Studie, untersuchte Stefan Theil in seiner Funktion als European Economics Editor des amerikanischen ‚Newsweek Magazins‘ Schulbücher und Lehrpläne aus Deutschland, Frankreich und den USA. Er fokussierte innerhalb seiner Analyse auf die inhaltliche Berücksichtigung und Darstellung von Unternehmertum, Markt, Globalisierung und Kapitalismus in den einzelnen Unterrichtsmedien sowie den institutionellen und curricularen Richtlinien. Aufgrund der relativ kleinen Stichproben30 31
Vgl. teilweise wörtlich Böhnkost/Oberliesen (1997), S. 37, 49, 63 und 54. Vgl. teilweise wörtlich Radkau (1997), S. 448.
Zum Bild des mittelständischen Unternehmers
209
größe von 20 betont er explizit den illustrativen Charakter seiner Studie und erhebt keinen Anspruch auf Repräsentativität. In einem Artikel der ‚Frankfurter Allgemeinen Sonntagszeitung‘ unter der Überschrift „Von Raffgier und Ausbeutung – Wie unsere Schulen Wirtschaft lehren“ kommt Theil zu dem Schluss, dass in deutschen Schulbüchern und Lehrplänen „eine extreme Gewichtung“ von kollektiven Interessen und Klassendenken dazu führt, dass ökonomisches Handeln und Denken „in das traditionelle sozialdemokratische Universum von Arbeitgebern und Arbeitnehmern“ verortet wird. Die Schüler werden an wirtschaftswissenschaftliche Inhalte eher aus der Sicht eines künftigen Arbeitnehmers herangeführt und verstärkt mit Themen, wie z.B. „staatliche Umverteilung“ und „Arbeitskampf“ konfrontiert. Der Einblick in konkrete betriebswirtschaftliche Abläufe und unternehmerisches Handeln bliebe dagegen den Lernenden in den meisten Fällen verwehrt, weil die Unternehmen oft als „black-box“ behandelt würden, „in der irgendwie Geschäfte gemacht werden“. Die Rolle des Unternehmers wird in diesem Kontext oft auf eine makroökonomische Variable im Wirtschaftkreislauf verkürzt. Auch der Blick zum europäischen Nachbarn Frankreich zeige eine ähnlich problematische Situation, in der eine institutionell vermittelte Technologie- und Kapitalismuskritik vorherrscht. Dahingegen finden die US-Amerikaner einen anderen Zugang zu wirtschaftlichen und unternehmerischen Fragestellungen. Den Schülern wird hier ein eher positives und meist an konkret handelnde Personen gebundenes Unternehmerbild vermittelt, welches auch zu einer weiterführenden Auseinandersetzung mit dieser Thematik motiviert.32 Als Reaktion auf diese teils alarmierenden Ergebnisse gab die Organisation „Initiative neue soziale Marktwirtschaft“ eine eigene Forschungsarbeit am Georg-Eckert-Institut für internationale Schulbuchforschung in Auftrag. Die unter dem Titel „Unternehmer und Staat in europäischen Schulbüchern“ veröffentlichte Analyse greift u.a. erneut die Frage auf, wie Wirtschaft und Unternehmer in deutschen Schulbüchern dargestellt werden. Im Gegensatz zu den Studien von Theil und Merrett kamen die Braunschweiger Wissenschaftler jedoch zu dem Ergebnis, dass in aktuellen deutschen Schulbüchern keine einseitige „Kapitalistenschelte“ betrieben werde, und alle untersuchten Medien sich ohne Vorbehalte und ideologische Einfärbung zur Wirtschaftsordnung der sozialen Marktwirtschaft bekennen.33 Allerdings merken die Autoren mit Blick auf die europäische Vorgabe der Integration einer modernen Entrepreneurship Education34 in den schulischen 32 33 34
Vgl. teilweise wörtlich Theil (2008). Vgl. teilweise wörtlich Lässig/Grindel (2007), S. 44. Entrepreneurship Education kann nach Braukmann (passim) verstanden werden als Aus- und Weiterbildung bzw. Entwicklung von Persönlichkeiten, die zur (innovativen) Unternehmens-
210
Ulrich Braukmann / Carsten Kreutz / Daniel Schneider
Bildungsabschnitt kritisch an, dass in diesem Kontext der personale Zugang zum Unternehmertum zu kurz komme und die untersuchten Schulbücher für die Schüler nur unzureichende Identifikationsmöglichkeiten mit unternehmerisch handelnden Persönlichkeiten böten. Dem Unternehmer werde in deutschen Schulbüchern keine besondere Bedeutung beigemessen und eine inhaltliche Auseinandersetzung mit den persönlichen Einzelleistungen wird zunehmend durch die Darstellung internationaler Konzernstrukturen und Machtcharakteristika zurückgedrängt. Die meisten Schulbücher vermitteln zudem eine Arbeitnehmerperspektive, in der eine Auseinandersetzung mit den sozialen und politischen Funktionen des unternehmerischen Handelns „eher vermieden als angestoßen“ 35 wird. Kurz vor der Braunschweiger Studie veröffentlichte Fülling (2007) ihre Forschungsergebnisse zur Darstellung der unternehmerischen Selbstständigkeit in nordrhein-westfälischen Schulbüchern. Die Analyse basiert auf einer Stichprobe von elf sozialwissenschaftlich ausgerichteten Schulbüchern der Jahrgangsstufen 9-13, denen eine besondere Bedeutung in der ökonomischen Bildung bzw. in der Berufswahl zugesprochen wird. Die Autorin verwendet überwiegend qualitative Verfahren. Diese werden ergänzt durch quantitative Methoden, um in verschiedenen Kontexten eine Gewichtung von einzelnen Themen objektiv belegen zu können. Vor dem Hintergrund des eigenen Forschungsanliegens scheint diese Arbeit in mehrfacher Hinsicht interessant. Auf der einen Seite fokussiert die Autorin auch auf Schulbücher des Landes Nordrhein-Westfalen, auf der anderen Seite bezieht sie auch die Analyse des Unternehmerbildes explizit mit ein. Sie kommt zu dem Ergebnis, dass Darstellungen der Wirtschafts- und Arbeitswelt in den Unterrichtsmedien überwiegend eine Arbeitnehmerperspektive aufweisen und der Blick auf die Welt der Arbeitgeber oft auf Großkonzerne verkürzt wird. Die Illustration von Unternehmerpersonen in den Unterrichtsmedien sei eher „farblos“36 und durch eine demotivierende Realitätsferne gekennzeichnet.37 Die Sekundäranalyse von Studien zum Unternehmerbild in Schulbüchern kommt somit zu durchaus unterschiedlichen Ergebnissen. Gerade die jüngeren Beiträge von Merrett, Theil, Lässig und Fülling kritisieren mehr oder weniger deutlich die auffällig häufig auf Großkonzerne und Arbeitnehmer fixierte Perspektive vieler Schulbuchautoren und verweisen auf die Potenziale einer didak-
35 36 37
gründung (und damit zur Ausübung eines Entrepreneurship) sowie zur Ausübung eines Mitunternehmertums (Intrapreneurship) bereit und fähig sind. Vgl. zu weiteren Verständnisakzentuierungen z.B. Halbfas (2006), S. 200-206. Lässig/Grindel (2007), S. 26. Fülling (2007), S. 16. Vgl. Fülling (2007), S. 16.
Zum Bild des mittelständischen Unternehmers
211
tisch optimierten Darstellung des Unternehmertums. Die Frage, ob in deutschen Schulbüchern ein überwiegend wirtschafts- und unternehmerfeindliches Klima herrsche, wird jedoch nicht einheitlich beantwortet. Vor allem die Ergebnisse des Georg-Eckert-Instituts für internationale Schulbuchforschung sprechen eher gegen diese These. Aus der Gegenüberstellung des bisherigen Stands der Forschung wird zudem ersichtlich, dass es methodisch unterschiedliche Möglichkeiten gibt, sich den Inhalten der Schulbücher wissenschaftlich anzunähern. In den betrachteten Analysearbeiten dominieren dabei qualitative Verfahren, die eine detaillierte Interpretation aller textlichen und grafischen Kommunikationsinhalte erlauben.38 Die meisten Untersuchungen gründen auf relativ kleinen Stichproben, was ggf. auch auf einen immensen Ressourceneinsatz zurückgeführt werden kann, der mit einer derart intensiven Forschung einhergeht. Dennoch bietet die aus den kleinen Stichprobengrößen resultierende fehlende Repräsentativität Anlass zur Kritik.
4
Das Unternehmerbild in Schulbüchern Nordrhein-Westfalens – Methodische Grundlegung und zentrale Ergebnisse der Primärstudie
Die eigene Primäranalyse des Bildes des mittelständischen Unternehmers in Schulbüchern soll sich auch methodisch von den bisher vorliegenden Studien abheben. So wurde trotz des damit verbundenen Forschungsaufwandes insofern erstmals eine Vollerhebung angestrebt, als dass alle in Nordrhein-Westfalen zugelassenen sozialwissenschaftlich orientierten Schulbücher der Sekundarstufe I sämtlicher Schulformen erfasst wurden.39 Inhaltlich wurden dabei primär die Darstellungen von unternehmerisch handelnden Menschen hinsichtlich ihres möglichen Einflusses auf das Unternehmerbild der Schüler untersucht. Anhand der so identifizierten Textpassagen wurde ferner analysiert, mit welchen Assoziationen die berufliche Selbstständigkeit als individuelle Zukunftsoption einhergeht und wie realistisch und erstrebenswert diese Möglichkeit in den einzelnen Lehrwerken dargestellt wird. Aufgrund der eingangs bereits dargestellten problematischen Verquickung von Unternehmern und Managern in der gesellschaftlichen Wahrnehmung, wurde im Kontext dieser Untersuchung explizit zwischen einem haftenden Inhaberunternehmer und einem angestellten Managerunternehmer unterschieden. Methodisch wurden in der schwerpunktmäßig quantitativen Inhaltsanalyse vorwiegend die reduktiven Auswertungstechniken der Frequenz-, Valenz- und 38 39
Vgl. Lamnek (2005), S. 501. Kapitel 4 basiert ebenfalls auf den Vorarbeiten von Kreutz. Vgl. deshalb auch hier für eine ausführliche Darstellung in Kreutz (2009).
212
Ulrich Braukmann / Carsten Kreutz / Daniel Schneider
Intensitätsanalyse verwendet. Da die Bestimmung von Valenzen bzw. die Beurteilung von Intensitäten mit der Gefahr der subjektiven Einschätzung des Betrachters verbunden ist, wurden die Begriffe und Kategorien so präzise formuliert, dass jeder Analyseschritt möglichst umfänglich intersubjektiv nachvollzogen und kontrolliert werden kann.40 Mehrdeutige Beurteilungsfälle wurden zudem einer weiterführenden Triangulation in Form einer argumentativen Validierung zugeführt. Um die Ergebnisse der quantitativen Inhaltsanalyse zu veranschaulichen, wurde sie durch eine qualitative Diskussion und exemplarische Darstellung ausgewählter Inhalte ergänzt. Der Anspruch einer Vollerhebung geht mit der Notwendigkeit einer sorgfältigen kriterienorientierten Abgrenzung der als relevant erachteten Grundgesamtheit einher. Diese soll charakterisiert sein durch eine hohe Repräsentativität bezüglich der aufgestellten Forschungsfragen, darf jedoch nicht zu viele Medien in den Analyserahmen aufnehmen, um nicht auf Stichprobenverfahren zurückgreifen zu müssen. Aus diesem Grund wurden in der Analyse nur Medien der Sekundarstufe I verwendet. Dieser längste, allgemeinbildende schulische Entwicklungsabschnitt wird von allen Schülern im Rahmen der allgemeinen Schulpflicht durchlaufen und endet für viele Heranwachsende in einer konkretisierten Berufswahlentscheidung.41 Auch die Auswahl der als relevant erachteten Unterrichtsfächer konzentrierte sich vor diesem Hintergrund auf den Fächerkanon, der eine direkte oder indirekte Auseinandersetzung mit Unternehmertum erwarten lässt.42 40 41
42
Vgl. Lamnek (2005), S. 494-495. Diese Restriktion im Versuchsaufbau soll keinesfalls den Schulbuchinhalten der Primarstufe und Sekundarstufe II einen Einfluss auf das Unternehmerbild der Lernenden absprechen, für die ebenso einige Argumente zusammengetragen werden könnten. Ausgehend von der bereinigten amtlichen Sammlung von Schulvorschriften des Landes Nordrhein-Westfalen (BASS) wurde in einer ersten Selektionsstufe den Lernbereichen der Gesellschaftslehre (Geschichte, Erdkunde, Politik) und Arbeitslehre (Technik, Wirtschaft, Hauswirtschaft) aufgrund ihrer Intentionalität und ihren Inhalten als relevant hinsichtlich des Forschungsinteresses eingestuft. In einer weiterführenden sondierenden Stichprobenerhebung von sechs Unterrichtsmedien der Fächer Geschichte und Geografie wurde jedoch festgestellt, dass sich die Schulbücher dieser Fächer gar nicht oder nur in einem sehr geringen Maße mit dem Unternehmertum, bzw. mit Unternehmerpersonen auseinandersetzen. Außerdem entziehen sich die Schulbücher des Lernbereichs Arbeitslehre, trotz eines möglichen Einflusses auf die Wahrnehmung von Unternehmertum seitens der Jugendlichen, einer systematischen Analyse im Rahmen der Primärforschung. Dies ist insbesondere damit zu begründen, dass die Lehrmittel dieses Bereiches keiner zentralen, sondern einer pauschalen Zulassung unterliegen und von den einzelnen Schulen selbst für den Unterricht ausgewählt und zugelassen werden dürfen. Die Zulassung der Schulbücher für das Unterrichtsfach Politik erfolgt dagegen unter zentraler Aufsicht im sogenannten ‚vereinfachten Verfahren‘. Dabei prüfen die Verlage in erster Linie selbst, ob die von ihnen vertriebenen Unterrichtsmedien den institutionellen Anforderungen entsprechen. Eine gutachterliche Kontrolle seitens des Schulministeriums erfolgt im vereinfachten Verfahren nur auf Stichprobenbasis bei Bedenken gegen ein konkretes Lehrwerk oder auf Wunsch des Verlages selbst (Vgl. Ministerium für Schule, Jugend und Kinder (2004),
Zum Bild des mittelständischen Unternehmers
213
Insgesamt konnten so 27 zugelassene, aktuelle und erhältliche Schulbücher identifiziert werden, die sich den Kategorien Gesellschaftslehre, Sozialwissenschaften, Politik/Wirtschaft oder Politik/Geschichte zuordnen lassen. Alle diese Medien sind im online veröffentlichten und regelmäßig aktualisierten Verzeichnis der offiziell zugelassenen Lehrmittel des Landes Nordrhein-Westfalen ausgewiesen.43 Innerhalb dieser definierten Grundgesamtheit wurden alle Themen, Einzeldarstellungen und Wertungen sowohl in textlich-verbaler als auch grafischer Form mit Bezug zu Unternehmerpersonen als Untersuchungsgegenstand bestimmt. Es zeigte sich, dass auf rund 7 % der insgesamt 6011 begutachteten Textseiten unternehmerisch tätige Menschen in Erscheinung treten. Eine weiterführende Differenzierung des Untersuchungsgegenstandes in die Kategorien „explizite Darstellung“ und „implizite Darstellung“ führte zu einer fast gleichmäßigen Verteilung der absoluten Häufigkeiten auf die beiden Subkategorien. In einer weiteren Differenzierungsstufe der Analyse in Bezug auf die unterschiedlichen Schulformen und Jahrgangsstufen zeigte sich vor allem in den für das Gymnasium konzipierten Lehrwerken eine weit unter dem Durchschnitt liegende Präsenz des Analysegegenstandes. Tabelle 1: Zum Verhältnis von Schulbuchseiten mit Unternehmerbezug zur Gesamtseitenanzahl der Lehrbücher geordnet nach Schulform Verhältnis von Schulbuchseiten mit … … … explizitem … implizitem Unternehmerbezug Unternehmerbezug Unternehmerbezug zur Gesamtseiten- zur Gesamtseiten- zur Gesamtseitenanzahl anzahl anzahl Grundgesamtheit Klasse 5/6 Klasse 7/8
7,29 % 4,56 % 7,41 %
3,76 % 2,08 % 4,49 %
3,53 % 2,51 % 2,92 %
Klasse 9/10 Gymnasium Realschule Gesamtschule
5,83 % 3,83 % 4,16 % 6,15 %
3,08 % 2,01 % 2,58 % 3,32 %
2,75 % 1,56 % 2,14 % 3,11 %
Hauptschule
7,51 %
3,60 %
4,61 %
43
S. 9). Das Unterrichtsfach Politik lässt sich in versch. Facetten u. unter verschiedenen Bezeichnungen in Schulbuchtiteln und Lehrplänen der unterschiedlichen Schulformen wiederfinden. Vgl. Ministerium für Schule und Weiterbildung des Landes Nordrhein-Westfalen (2009).
214
Ulrich Braukmann / Carsten Kreutz / Daniel Schneider
Die vorliegenden Ergebnisse der ersten Untersuchungsphase resultieren aus der bewusst zunächst weit gefassten Definition des Untersuchungsgegenstandes und relativieren sich durch die Feststellung, dass in nur 4 der 27 analysierten Medien eine eigenständige Auseinandersetzung mit dem Thema Unternehmertum erfolgt. Darüber hinaus werden in drei für den Lernbereich Geschichte/Politik konzipierten Lehrwerken die Biografien und Leistungen historischer Unternehmerpersönlichkeiten aufgegriffen. Die anderen analysierten Medien widmen dem Unternehmertum keine eigenständige inhaltliche Berücksichtigung in Form von Kapiteln, Unterkapiteln oder Abschnitten. In einem weiteren Analyseschritt gilt das Erkenntnisinteresse dem Image44 von unternehmerisch handelnden Menschen in den betrachteten Schulbüchern. Im Rahmen einer Intensitätsanalyse sowie einer weiterführenden bipolaren Differenzierung in die Kategorien „Gegenwartsbezug“ und „historischer Bezug“ wurden die entsprechenden Schulbuchpassagen in einer Kategorientabelle kriterienorientiert erfasst und quantitativ ausgewertet. Als Ergebnis zeigt sich, dass mehr als 72 % der identifizierten Bezüge zum Unternehmertum den Kategorien „positiv“ oder „eher positiv“ zugeordnet werden können. Dieses Resultat bedeutet jedoch im Umkehrschluss auch, dass über 27 % der inhaltlich geführten Auseinandersetzungen mit Unternehmerpersonen in den Schulbüchern durch „negative“ oder „eher negative“ Konnotationen getragen werden.45
44
45
Frey/Rosenstiel (2005), S. 297, präzisieren: „Unter dem ‚Image‘ eines Objektes versteht man die ganzheitliche, stabile, schematisch vereinfachte, durchaus mit Wertungen versehene Vorstellung von diesem Objekt, die von Mitgliedern einer Gruppe, eines Marktsegments, einer (Sub-) Kultur mehr oder weniger einheitlich gehalten wird. Images mit einheitlicher Ausprägung in einer Einheit sind soziale Schemata, im Falle starker Verfestigung sogenannte Stereotypen. Jedenfalls ist ein Image die subjektive Realität, die bei der Erklärung von Verhalten zu berücksichtigen ist. In der modernen Imageforschung versteht man unter Images Bilder, die man besonders von komplexen und kaum in allen wesentlichen Merkmalen zu beschreibenden Objekten hat.“ In einem sehr engen Verhältnis zum Imagebegriff steht das Konstrukt der Einstellung. Aus der von Kroeber-Riel angewendeten synonymen Verwendung dieser Begriffe, der an dieser Stelle Folge geleistet werden soll, ist bspw. unter der Berücksichtigung der „Theory of Reasoned Action“ ein Zusammenhang zwischen Image bzw. Einstellungen und Verhalten in Bezug auf soziale Einflüsse und Erwartungen der Umwelt anzunehmen. Vgl. Kroeber-Riel/Weinberg/Gröppel-Klein (2009), S. 210-212. Wird in dieser Frage weiterführend in einen historischen und gegenwärtigen Kontext unterschieden, so zeigt sich eine leichte Verschiebung der Verteilung zu Gunsten der gegenwärtigen Unternehmerdarstellungen.
Zum Bild des mittelständischen Unternehmers Abbildung 1:
215
Das vermittelte Image von Unternehmerpersonen in den analysierten Schulbuchpassagen eher negativ; 14,77% positiv; 22,27% negativ; 12,50%
eher positiv; 50,45%
Im Rahmen einer Frequenzanalyse wurde auch untersucht, wie viele Bezüge zum Unternehmertum im Segment der mittelständischen Wirtschaft identifiziert werden konnten. Diesen quantitativen Überblick ergänzte die Frage, ob auf der Ebene des einzelnen Schulbuchs eine qualifizierte Differenzierung zwischen i.d.R. persönlich haftenden Eigentümerunternehmern und angestellten Managern stattfindet. Es zeigte sich, dass obwohl die Untersuchungsgegenstände in fast 80 % der Fälle Bezüge zu mittelständischen Unternehmerpersonen aufwiesen, in nur drei der 27 Medien die unterschiedlichen Unternehmertypen differenziert wurden. Auch der Frage, ob das Unternehmertum bzw. eine selbstständige Erwerbsarbeit in den Schulbüchern eine realistische und attraktive Darstellung erfährt und den Schülern dadurch eine weitere mögliche Alternative in der individuellen Berufswahl und Zukunftsplanung eröffnet wird, wurde im Rahmen unserer Studie nachgegangen. Dazu wurden zunächst die absoluten Häufigkeiten derjenigen Schulbuchinhalte erfasst, die sich einer definierten Kategorie „attraktive und realistische Darstellung“ zuschreiben lassen. Darauf aufbauend wurden die dieser Kategorie zugeordneten Elemente hinsichtlich möglicher Identifikationsmöglichkeiten für die Heranwachsenden untersucht. Ein gründungsdidaktisch als wünschenswert einzustufender „personaler Zugang“ wäre in diesem Kontext gegeben, wenn auch am Beispiel einer oder mehrerer konkreter Unternehmerpersönlichkeiten gearbeitet wird und den Schülern so ermöglicht wird, sich in die
216
Ulrich Braukmann / Carsten Kreutz / Daniel Schneider
Rolle eines Unternehmers hineinzuversetzen. Es zeigte sich dabei auch, dass in keinem der untersuchten Schulbücher eine unternehmerische Tätigkeit einer abhängigen Beschäftigung konkret gegenübergestellt wurde. Gerade im Hinblick auf die Berufswahlorientierung der Schüler fehlt somit eine Berücksichtigung der unternehmerischen Selbstständigkeit als berufliche Perspektive. Die Attribute „realistisch“ und „attraktiv“ können nur in 49 der untersuchten 438 Fälle zugesprochen werden. Positiv ist jedoch, dass sich über 90 % dieser „attraktiven“ und „realistischen“ Darstellungen durch einen „personalen Zugang“ auszeichnen. Auf der anderen Seite fielen sieben Schulbuchinhalte auf, die eine berufliche Selbstständigkeit einseitig als eher unattraktive Zukunftsoption erscheinen lassen, bei der insbesondere die unternehmerischen Risiken und das Scheitern von Unternehmensgründungen thematisiert werden. Obwohl aus einer grundlagentheoretisch fundierten didaktischen Sicht durchaus auch Unterrichtskonstellationen vorstellbar sind, die eine solche Fallbesprechung sinnvoll erscheinen lassen, ist das ausgewählte Beispiel insofern als problematisch einzustufen, da es weder in eine ausgewogenen Gesamtdarstellung des Unternehmertums eingebettet wurde, noch die vielfältigen Gründe und ggf. komplexen ökonomischen Zusammenhänge, die zum Scheitern geführt haben, in angemessener Form aufgearbeitet werden.46 Es kann zwar im Rahmen dieser 46
Im Rahmen der durchgeführten Untersuchung konnten auch weitere Rückschlüsse über die didaktische Gestaltung von unternehmerischen Lerninhalten im Schulunterricht gewonnen werden. So ist im Hinblick auf die didaktische Gestaltung der Schulbücher zu erkennen, dass gerade Methoden einer handlungsorientierten Didaktik das Potenzial besitzen, die Schüler identifikationsstiftend an ökonomische Themen heranzuführen. Fast 45 % der zur unternehmerischen Selbstständigkeit motivierenden Darstellungen versetzen die Schüler aktiv in die Rolle von unternehmerisch handelnden Menschen im methodischen Rahmen einer Schülerfirma oder beschreiben in einem ausnahmslos positiven Kontext die Leistungen und Verdienste realer Schülerunternehmer. Die Qualitäten der bereits seit Mitte der 80er Jahre im Bereich der beruflichen Bildung zunehmend dominanten handlungsorientierten Didaktik (vgl. Braukmann (1996), S. 69-107) scheinen mehr und mehr auch für den allgemeinbildenden Bereich des öffentlichen Schulwesens entdeckt zu werden. Auf einer Kultusministerkonferenz zum Thema der wirtschaftlichen Bildung an allgemeinbildenden Schulen im Jahre 2008 wurde für die nordrhein-westfälische Sekundarstufe I in einem Länderbericht festgehalten, dass die Heranwachsenden neben grundlegenden ökonomischen Fachkompetenzen „auch eine Urteilsfähigkeit sowie eine ökonomische Entscheidungs- und Handlungskompetenz erwerben“ (Sekretariat der Ständigen Konferenz der Kultusminister der Länder in der Bundesrepublik Deutschland (2008), S. 75) sollen. Aufgrund dieser Tendenzen und der hohen Passung der handlungsorientierten Didaktik zu den Zielen einer modernen Entrepreneurship Education (vgl. Braukmann (2001), S. 83-86) wurde im Rahmen der Primärforschung auch die Frage nach der didaktischen Konzeption der untersuchten Schulbücher gestellt. Eine hochgradige Ausrichtung auf die modernen handlungsorientierten Ansätze, wie sie beispielsweise von den Schulbüchern der beruflichen Bildungsgänge seit einiger Zeit umgesetzt wird, konnte aufgrund der institutionellen Rahmenbedingungen der allgemeinen Bildungsgänge nicht erwartet werden. Dennoch konnten in 16 der 27 Medien der Grundgesamtheit bereits handlungsorientierte Elemente auf der Ebene
Zum Bild des mittelständischen Unternehmers
217
Untersuchung nicht abschließend festgestellt werden, in welcher Intensität ein solches eher abschreckendes und einseitig negatives Beispiel Einfluss auf das Unternehmerbild, bzw. auf die konkrete Zukunftsplanung der Jugendlichen nimmt, jedoch steht zu befürchten, dass eine derart ‚scharfe‘ und an existenzielle Ängste rührende Darstellung aufgrund der bereits thematisierten Überstrahlungseffekte47 stärker wahrgenommen wird, als eine eher relativierende und konstruktiv-ausgewogene Darbietung des Unternehmertums als Unterrichtsinhalt. Im Hinblick auf die erstrebenswerte identifikationsstiftende Heranführung der Schüler an die unternehmerische Selbstständigkeit als berufliche Perspektive, scheinen bereits aus didaktischen Überlegungen eher anonyme und abstrakte Zugänge auf der Ebene von Großunternehmen und Spitzenmanagern weniger geeignet als personalisierte Zugänge über den Bereich der kleinen und mittleren Unternehmen, in dem dem Handwerk eine besondere Bedeutung zukommt. Bemerkenswert ist in diesem Zusammenhang, dass nur drei Schulbuchpassagen identifiziert werden konnten, die sich auf dieses traditionelle Segment, in dem über 30 % aller Auszubildenden tätig sind, beziehen.48 Auch angesichts der guten Berufsperspektiven, die dieser Sektor den Schülern zu bieten hat, scheint eine geringe bis fehlende institutionelle Heranführung an diesen Wirtschaftsbereich den Heranwachsenden eine interessante individuelle Entwicklungsperspektive weitestgehend vorzuenthalten und den sich bereits jetzt abzeichnenden und gesamtgesellschaftlich als problematisch einzustufenden Mangel an qualifiziertem Nachwuchs im Handwerk zu begünstigen.49
47 48 49
von einzelnen Inhalten und Aufgaben identifiziert werden. In drei Schulbüchern wird die für die handlungsorientierte Didaktik konstitutive Orientierung am Erwerb von Schlüsselqualifikationen direkt oder indirekt von den Autoren aufgegriffen und einleitend thematisiert. Es zeigt sich jedoch ein uneinheitlicher Zugang zu dieser modernen didaktischen Ausrichtung des Lehrens und Lernens. Die Schulbuchautoren greifen offensichtlich auf unterschiedliche theoretische Ansätze der handlungsorientierten Didaktik zurück und erschweren insbesondere durch die fehlende Standardisierung die Transfermöglichkeiten, die Vergleichbarkeit und Effizienzbeurteilung. Vgl. FN 10. Vgl. Zentralverband des deutschen Handwerks (2009). Vgl. z.B. Welt-Online (2004) und Sievers (2007).
218
Ulrich Braukmann / Carsten Kreutz / Daniel Schneider
Abbildung 2:
50
Beispiel für die einseitige Darstellung des Unternehmertums in Schulbüchern, denen keine ergänzende positive Fallstudie gegenübersteht50
Entnommen aus Brockhausen/Peters/Smula/Wolf (2007), S. 143.
Zum Bild des mittelständischen Unternehmers Abbildung 3:
219
Anteil der unterschiedlichen Betriebskontexte, in denen die unternehmerische Selbstständigkeit als eine realistische und attraktive Alternative zu einer abhängigen Beschäftigung beschrieben wird
Großunternehmen; 11,63% mittlere Unternehmen; 4,65% Schülerfirmen; 44,19%
kleine Unternehmen/ Handwerk; 9,30% kleine Unternehmen/ Einzelhandel; kleine 4,65% Unternehmen/ Sonstige; 25,58%
5
Plädoyer für ein »aufgeklärtes« Unternehmerbild in Schulbüchern des Landes Nordrhein-Westfalen
Die Ergebnisse der im vierten Kapitel erläuterten Analysen der Leitmedien des schulischen Unterrichts zeigen, dass die Schüler der Sekundarstufe I mittels Schulbüchern nicht nachhaltig für die Auseinandersetzung mit einer unternehmerischen Selbstständigkeit sensibilisiert werden und demnach auch nicht die Bildungs- und Qualifizierungsprozesse durchlaufen, die für den Erwerb einer Gründungsmündigkeit und -kompetenz erforderlich sind. Diese Ergebnisse der eigenen empirischen Vollerhebung decken sich in vielen Bereichen mit denen anderer Studien und dürfen somit als weiterer plausibler Mosaikstein der Begründung für die als wenig ausgeprägt bewertete unternehmerische Kultur in Deutschland aufgefasst werden.
220
Ulrich Braukmann / Carsten Kreutz / Daniel Schneider
Zwar ist auch abschließend festzuhalten, dass zumindest in den Schulbüchern der Sekundarstufe I des Landes Nordrhein-Westfalens keine generell ablehnende oder übermäßig kritische Haltung im Hinblick auf die Person und das Handeln des Unternehmers in Schulbüchern aufzufinden ist. Allerdings wird zugleich auch in fast allen untersuchten schulischen Quellen auf eine direkte inhaltliche Auseinandersetzung sowohl mit dem Unternehmertum als auch mit der gesamtgesellschaftlichen Unternehmerfunktion (als zumindest bedeutsame Triebkraft unserer Volkswirtschaft) nahezu vollständig verzichtet. Zudem finden sich in den ohnehin relativ seltenen Darstellungen zum Unternehmertum auch noch stereotype Negativbilder und sogar als existenzbedrohend interpretierbare Negativ-Szenarien, deren Wirkung auf die Wahrnehmung und damit indirekt auch auf die Präferenzen der Schüler nicht unterschätzt werden sollte.51 Anstatt in dem nunmehr skizzierten Status quo der weitgehenden Ausklammerung des Unternehmerbildes zu verharren, wird hier dafür plädiert, sowohl im Interesse des Aufbaus einer Kultur der unternehmerischen Selbstständigkeit als auch aus (bildungstheoretisch induzierten) Motiven der Wahrnehmung einer pädagogischen Verantwortung für die nachwachsende Generation einen »Relaunch« des Unternehmerbildes in Schulbüchern zu initiieren. Ein solcher Neuanfang soll im Kern nicht nur eine erkennbare sowie nachhaltige Verankerung des Bildes des Unternehmers in den schulischen Curricula anstreben. Vielmehr soll er darüber hinaus zur Etablierung einer schulischen Kultur beitragen, in der die systematisch-intentionale Auseinandersetzung mit dem Bild des Unternehmers auch als (ggf. enttabuisierte) Selbstverständlichkeit praktiziert wird. Da dies jedoch die Bereitschaft und den Willen in der Schul- und Bildungspolitik impliziert, eine schulische Entrepreneurship Education in die Curricula einzubinden, bedarf es aber auch des Entwurfes einer solchen schulischen Entrepreneurship Education, die den oben explizierten kulturförderlichen und bildungstheoretischen Anforderungen bzw. Zielen entspricht und zugleich die schul- und bildungspolitische Implementierung52 des »Relauches« effektiv in Richtung curricularer Verankerung und kultureller Etablierung befördert. Deshalb darf der Neuanfang nicht als ausschließlich wirtschaftspolitisch motivierte Intervention in das Bildungs- und Erziehungssystem oder gar als Gefährdung des bewährten Schulkanons kommuniziert und missinterpretiert, son-
51 52
Vgl. Abbildung 2 sowie die dazugehörigen Ausführungen. Die effiziente Implementierung der Entrepreneurship Education im gesamten Bildungssys tem – also von der Grundschule bis zur Universität – ist für politische Entscheidungsträger generell keineswegs eine einfache Aufgabe. Vgl. hierzu auch Volkmann (2009), S. 76.
Zum Bild des mittelständischen Unternehmers
221
dern soll vielmehr als erziehungswissenschaftlich fundierte und bildungspolitisch befürwortete Bereicherung verstanden und akzeptiert werden. Vor diesem argumentativen Hintergrund wird hier zudem dafür plädiert, dass sich eine legitime und effiziente schulische Entrepreneurship Education im Zuge ihrer Positionierung im generellen Spannungsfeld von einem (in der nachfolgenden Abbildung explizierten) Instrumental- und einem Bildungsansatz sogar von einem Instrumentalansatz explizit distanziert und die konzeptionellprogrammatische Nähe zu einem auch für eine angemessene und vertretbare Auseinandersetzung mit einem Unternehmerbild erschließenden Bildungsansatz sucht. Abbildung 4:
Instrumental- und Bildungsansatz als Extrema einer grundsätzlich möglichen Ausrichtung der Entrepreneurship Education53
Grundausrichtung einer Entrepreneurship Education
Instrumentalansatz
Bildungsansatz
Entrepreneurship Education als Bestandteil eines Gesamtansatzes zur Gründungsförderung mit Zulieferfunktion
Gründung und unternehmerisches Denken und Handeln als Dauerthema in gesellschaftlichen Bildungs- und Reflexionsprozessen (u.a. Diskussion gesellschaftlicher Werte und Normen)
Ziel: Erwerb einer umfassenden Gründungskompetenz
Ziel: Sicherung einer entsprechenden Bildungsoption für möglichst viele Mitglieder der Gesellschaft
Erschließungsansatz Ziel: Gründungssensibilisierung und Gründungsmündigkeit
Unmittelbare Erhöhung der Gründungsquote
53
mögliche spätere Gründungsmündigkeit
Gesellschaftlicher Veränderungsprozess Ziel: allgemeine Gründungssensibilisierung
In Anlehnung an Halbfas (2006), S. 179. Vgl. dort auch: „Die Abbildung ist eine Weiterentwicklung einer Vorstrukturierung bei Braukmann/Halbfas (2003), Folie 2“.
222
Ulrich Braukmann / Carsten Kreutz / Daniel Schneider
Schließlich darf und soll es auch aus gründungspädagogischer und -didaktischer Perspektive hier nicht darum gehen, im Interesse einer Erhöhung der Gründungsquote das bislang in den Verfassungen geschützte Privileg und Monopol des schulischen Lehr- und Lernauftrags so zu instrumentalisieren, dass Schülerinnen und Schüler mit Hilfe eines positiv besetzten Unternehmerbildes zur späteren Unternehmensgründung ggf. sogar verleitet werden. Auch implementationstheoretisch wäre dies wenig effizient bzw. wenig erfolgversprechend. Vielmehr sollte hier der schulische Alltag durch eine Entrepreneurship Education geprägt sein, die sich im Kontrast zu einem Instrumentalansatz den Zielen und Maßstäben eines Bildungsansatzes verpflichtet fühlt. Mit dem Bildungsansatz greift die Wuppertaler Gründungspädagogik und -didaktik typische erziehungswissenschaftliche Fragen z.B. nach der bildungstheoretischen und -politischen Legitimation einer Entrepreneurship Education auf und führte sie mit dem „Wuppertaler Appell zur Bescheidenheit“54 zumindest solchen ersten Antworten zu, die auch hier bei dem »Relaunch« des Unternehmerbildes in den Schulbüchern von Bedeutung sind. Sollten demnach weiterhin insbesondere bildungstheoretische Traditionen55 zum Maßstab erklärt werden, so gelten für jüngere Adressaten in der Primarstufe und Sekundarstufe I als Postulate fungierende Grundsätze wie u.a. die des pädagogischen Bezugs, des Neutralitätsgebotes, der interesssenpolitischen Ausgewogenheit und des Kompatibilitätsgebots bzgl. Erziehungs- und Lernzielen.56 Exemplarisch erläuternd thematisiert der zuletzt aufgelistete Grundsatz „einen möglichen Zielkonflikt der im Rahmen einer Entrepreneurship Education verfolgten Lernziele mit anderen demokratisch legitimierten Erziehungs- und Bildungszielkomplexen“57 und fordert somit eine verantwortungsvolle Auslotung von wirtschaftspolitischen Zielen (z.B. nach einer letztlich ggf. angestrebten bzw. ermöglichten Erhöhung der Anzahl der Gründungen) und pädagogischer Ziele. So formuliert z.B. Grüner als einer der ersten bereits 1993:
54 55
56 57
Vgl. erstmals Braukmann (2002), S. 87-93 und (2003). Vgl. Braukmann (2002), FN 80, in der ausgeführt wird: „Auch Weber (2000), S. 4 weiß in Bezug auf Schulen eine Zielsetzung zu betonen, die ‚weniger auf die erfolgreiche ökonomische Verwertung von Ideen ausgerichtet‘ ist, sondern auf die ‚allgemeine Förderung menschlicher Fähigkeiten und Fertigkeiten im Sinne der Persönlichkeitsentwicklung sowie auf Selbstbestimmung und verantwortliche Mitgestaltung von (ökonomischen) Lebenssituationen und den sie beeinflussenden Entwicklungen‘. An anderer Stelle postuliert sie (Weber (2000), S. 3): ‚Dazu scheint es erforderlich, der Verengung auf Existenzgründungen im Sinne einer speziellen Betriebswirtschaftslehre oder aber einem unreflektierten Produzieren und Verkaufen vorzubeugen und Anschluss an Bildungsideale der Selbstbestimmung und Mitverantwortung zu finden, ohne die Potenziale der ökonomischen Bildung zu vernachlässigen‘.“ Vgl. hierzu erneut Braukmann (2002), S. 87-93 und (2003). Braukmann (2002), S. 91.
Zum Bild des mittelständischen Unternehmers
223
„Entrepreneurs sind also i.d.R. Persönlichkeiten mit einem hohen Bedürfnis nach Autonomie, Dominanz und Unabhängigkeit. (...) Die US-Forscher ziehen daraus den Schluss, dass das schulische Erziehungssystem bestenfalls nicht hilfreich ist, Entrepreneurs heranzubilden. Schlechtestenfalls unterdrückt es bei Kindern die Eigenschaften, die für Entrepreneure wichtig sind. (...) Für die schulische Erziehung mag diese Erkenntnis durchaus vorteilhaft sein, da besonders auf Primar- und Sekundarstufe eine Erziehung zu übergroßer Dominanz und Autonomie des einzelnen zulasten eines Gemeinschaftsdenkens ginge, das in dieser Altersstufe und aus Sicht der gesellschaftlichen Entwicklung von besonderer Bedeutung ist. Somit kann man den Schluss ziehen, dass die Förderung des Unternehmertums via Bildung bzw. Erziehung eher in Institutionen der Tertiär- oder Quartärstufe erfolgen soll.“58
Und 2001 greift Grüner diese auch heute noch relevante Fragestellung folgendermaßen wieder auf: „Schließlich darf die Gründungsbegeisterung nicht dazu führen, sich ohne pädagogisches Bedenken mit Entrepreneurship auseinander zu setzen. Zu diskutierende Bedenken könnten sein: Wie wirkt sich das dem Entrepreneurship zu Grunde liegende Prinzip des Wettbewerbs auf das Solidaritätsempfinden des Einzelnen aus? Wird durch Unternehmertum nicht die latente Gefahr der Fremdausbeutung in einem industriösen Modell durch die latente Gefahr der Selbstausbeutung in einem Entrepreneurship-Modell z.B. der New Economy ergänzt und/oder ersetzt? Löst unternehmerisches Denken und Handeln nicht einen Kommerzialisierungsschub in verschiedenen Lebensbereichen aus? Diese und andere Fragen zeigen, dass es auf den unterschiedlichen didaktischen Ebenen noch erheblichen Forschungsbedarf gibt.“59
Aus dieser hier gründungspädagogisch und -didaktisch begründeten Präferenz für den soeben kurz skizzierten und exemplarisch erläuterten Bildungsansatz resultiert ein weiteres Plädoyer für ein »aufgeklärtes« Unternehmerbild. Es soll durchaus insofern »aufgeklärt« sein, als dass es nicht wie im Status quo des bisherigen Schulunterrichts vornehmlich einseitig und unreflektiert auf eine abhängige Beschäftigung vorbereitet. Mit einem solchen »aufgeklärten« Unternehmerbild können und sollen die Lebenswirklichkeit und die Wirkungsbereiche einer unternehmerischen Beschäftigung zugänglich gemacht werden. Es soll zugleich helfen, einer ggf. nicht beabsichtigten »Entmündigung« bzgl. der Wahl von Berufen, einer Vorenthaltung von Lebenschancen und einer Verengung von beruflichen Entwicklungsperspektiven entgegen zu wirken. Darüber hinaus soll das hier konturierte Unternehmerbild insofern zur weiteren Versöhnung zwischen einer Berufs- und Allgemeinbildung beitragen, als dass die Auseinandersetzung mit einem »aufgeklärten« Unternehmerbild auch 58 59
Grüner (1993), S. 502. Grüner (2001), S. 293-294.
224
Ulrich Braukmann / Carsten Kreutz / Daniel Schneider
und insbesondere allgemeinbildend wirken kann. Schließlich kann ein solches Unternehmerbild medial durchaus im Sinne z.B. von Klafkis „Bildung als Befähigung zu vernünftiger Selbstbestimmung“ und „Bildung als Subjektentwicklung im Medium objektiv-allgemeiner Inhaltlichkeit“60 fungieren und ist in der Lage, so zu einer individuellen und durchaus auch kritisch hinterfragenden Meinungsund Persönlichkeitsbildung beizutragen. Ein solches Verständnis von einem in Schulbüchern zu verankernden Unternehmerbild kann so die für eine erfolgreiche schulische Implementierung dieses Relaunches wichtige Zielharmonie zwischen freier persönlicher Entwicklung auf der einen und unternehmerischer Bildung auf der anderen Seite konstituieren. Als Beitrag für eine zeitgemäße Mündigkeitsqualifizierung kann es sogar im Ansatz zur Versöhnung der unterschiedlichen schulpolitischen Lager in den einzelnen Bundesländern beitragen. Die Möglichkeiten der inhaltlichen Ausgestaltung eines »aufgeklärten« Unternehmerbildes sind vielfältig. Auch aufgrund der Erkenntnisse aus der Primärund Sekundäranalyse bietet es sich im Zuge der Erarbeitung eines ersten inhaltlich weiter auszudifferenzierenden Entwurfes eines »aufgeklärten« Unternehmerbildes an, entsprechend der nachfolgenden Abbildung zunächst auf vier Dimensionen zu fokussieren: Abbildung 5:
Beispiel einer multidimensionalen Ausprägung eines »aufgeklärten« Unternehmerbildes
Hedonismus Bereich eines
„Aufgeklärten Chancen
Unternehmerbildes“ mit Orientierung am Subjekt eines Unternehmers im Kontext von kleinen und mittleren Betrieben
Soziale Verantwortung 60
Vgl. teilweise wörtlich Klafki (1996), S.19-26.
Risiken
Zum Bild des mittelständischen Unternehmers
225
Um den Aufbau einer »aufgeklärten« „Public Opinion“61 in Bezug auf die unternehmerische Tätigkeit unterstützen zu können, sollte daher in einem Schulbuch keine einseitige, auf hedonistische und rein gewinnmaximierende Handlungsmotive reduzierte Darstellung erfolgen, sondern möglichst auch auf die sozialen Motive und Verdienste von unternehmerisch handelnden Menschen genauso eingegangen werden, wie auf die Interdependenzen zwischen dem in unserer Gesellschaft vorhandenen Wohlstand und den Leistungen von Unternehmerpersönlichkeiten.62 Auch ein unrealistisches Unternehmerbild, nach dem z.B. in berufswahlvorbereitenden Situationen sich Jungendliche zwischen einer hoch-risikoreichen und sogar möglicherweise ‚unmoralisch‘ erscheinenden Selbstständigkeit einerseits und einer risikoärmeren, ‚ethisch korrekten‘ Arbeitnehmertätigkeit ‚entscheiden‘ sollen, ist zu überdenken. Denn schließlich stehen jungen Menschen insbesondere in den freien Berufen, im Handel, im Handwerk und anderen Dienstleistungsbereichen oft vielseitige und erfolgversprechende Möglichkeiten einer bzgl. des Risikos überschaubaren unternehmerischen Selbstständigkeit offen. Bislang liegt jedoch der Grundtenor der Schulbücher in der Vorbereitung der Lernenden auf eine abhängige Beschäftigung. Obwohl die abhängige Beschäftigung schon lange nicht mehr mit einer impliziten lebenslangen Anstellungsoption oder -garantie einhergeht und darüber hinaus die jungen Menschen auch in Abhängigkeiten und Entwicklungsstillstände führen kann, erscheint sie in vielen Schulbüchern als die einzige ‚vernünftige‘ Wahl des Berufes und als Kontext einer beruflichen Karriere. Im Schulbuch verankerte Bilder des Unternehmers sollten somit thematisch und medial eine Berufswahlentscheidung intentional unterstützen, die keine Vorentscheidungen grundlegt und Wahlmöglichkeiten ausschließt, sondern zu einer konstruktiven Auseinandersetzung anregen und die Chancen und Risiken der unterschiedlichen Formen der Erwerbsarbeit einer kritischen, aber nicht einseitigen Beurteilung zuführen. Einseitige Negativ- oder auch Positivszenarien in der Darstellung eines Unternehmers würden sich daher außerhalb eines vertretbaren‚ »aufgeklärten« Unternehmerbildes bewegen und sollten in zeitgemäßen Schulbüchern keinen Einzug erhalten. Gerade Unternehmer kleiner und mittlerer Betriebe sind relativ oft in ihrer regionalen ‚Sozialgemeinschaft‘ verankert und leisten u.a. einen entscheidenden Beitrag zu deren Stabilität. Auch deshalb drängen sich »Bilder« dieser mittelständischen Unternehmer als dringend notwendig erachteter Ergänzung des bisherigen und tradiert erscheinenden Portfolios auf. Sie können als Möglichkeit der Schaffung einer ausgewogenen Darstellungsperspektive fungieren und stellen eine verantwortbare Alternative dar, um die Schüler an die unternehmerische 61 62
Koch (2003), S. 33. Vgl. auch Koch (2003), S. 33.
226
Ulrich Braukmann / Carsten Kreutz / Daniel Schneider
Wirtschaft und Selbstständigkeit heranzuführen. Anzumerken ist zudem: Eine solche Anknüpfung von Schulbuchinhalten an mittelständische Unternehmer offeriert die Option der Nutzung einer personifizierten Darstellungsweise, mit der mehr didaktisch begrüßenswerte Anschaulichkeit aus den bekannten regionalen Gemeinschaften einher gehen kann. Neben der qualitativen Dimension der Darstellung von Unternehmern in Schulbüchern stellt sich ferner die Frage nach ihrer notwendigen und angemessenen quantitativen Integration in die bestehenden Lehrpläne und Schulstufen. Im Kontext der untersuchten Schulbücher der nordrhein-westfälischen Sekundarstufe I bietet sich zunächst eine stärkere Berücksichtigung unternehmerischer und ökonomischer Fragestellungen in den sozialwissenschaftlich orientierten Unterrichtsfächern an. Als eine weitere Option erscheint eine zunehmende horizontale Integration, beispielsweise in den Unterrichtsfächern Deutsch, Erdkunde und Geschichte, die auch mit Rücksicht auf die primäre Intention dieser Fachbereiche sowie im Sinne einer Lernfeldorientierung relativ unschwer realisierbar wäre. Hier sollte zudem nicht unerwähnt bleiben, dass die Einführung eines Unterrichtsfaches ‚Wirtschaft‘ im allgemeinbildenden Schulbereich für die hier thematisierte curriculare Implementierung eines »aufgeklärten« Unternehmerbild immer dann förderlich wäre, wenn der Themenkomplex Wirtschaft didaktisch so aufbereitet wird, dass er auch und insbesondere als allgemeinbildend aufbereitet und anerkannt wird. Hierbei eignet sich ein »aufgeklärtes« Unternehmerbild im Besonderen als Leit- bzw. Zielkomplex für eine handlungsorientierte Gestaltung von Lehr-/Lernsituationen, da diese Form der Unterrichtsgestaltung einen weiterführenden ganzheitlichen Kompetenzerwerb ermöglicht und möglichen Ressentiments gegenüber ökonomischen Inhalten in den allgemeinbildenden Phasen des Schulunterrichts weiteren Boden entzieht.
Literatur Ajzen, Icek (1991): The Theory of Planned Behavior, in: Organizational Behavior and Human Decision Processes, Vol. 50, S. 179-211. Bertelsmann-Stiftung (2008): Heute Schüler, morgen Unternehmer? Das Youth-Entrepreneurship-Barometer, Gütersloh 2008. Bertelsmann-Stiftung (2009): Unternehmergeist fördern! Youth Entrepreneurship Policy im internationalen Vergleich, Gütersloh 2009. Blum, Ulrich/Danz, Burkhard/Leibbrandt, Frank (2001): Entrepreneurship und Unternehmertum: Denkstrukturen für eine neue Zeit, Wiesbaden 2001. Bönkost, Klaus J./Oberliesen, Rolf (1997): Arbeit, Wirtschaft und Technik in Schulbüchern der Sekundarstufe I, Bremen 1997.
Zum Bild des mittelständischen Unternehmers
227
Braukmann, Ulrich (1996): Zur handlungsorientierten Didaktik als theoretischer Kontext einer ‚Kooperativen Selbstqualifikation‘, in: Heidack, Clemens (Hrsg.), Kooperative Selbstqualifikation – Schule und Wirtschaft: Dokumentation und Zukunftsperspektiven der Kompetenzentwicklung, Düsseldorf 1996, S. 69-107. Braukmann, Ulrich (2001): Hochschuldidaktische Förderung der Handlungskompetenz von Gründerinnen und Gründern, in: Koch, Lambert T./Zacharias, Christoph (Hrsg.), Gründungsmanagement – mit Aufgaben und Lösungen, München/Wien/Oldenburg 2001, S. 79-94. Braukmann, Ulrich (2002): »Entrepreneurship Education« an Hochschulen – Der Wuppertaler Ansatz einer wirtschaftspädagogisch fundierten Förderung der Unternehmensgründung aus Hochschulen, in: Weber, Birgit (Hrsg.), Kultur der Selbständigkeit in der Lehrerausbildung, Bergisch Gladbach 2002, S. 47-98. Braukmann, Ulrich (2003): Zur Gründungsmündigkeit als einer zentralen Zielkategorie der Didaktik der Unternehmensgründung an Hochschulen und Schulen, in: Walterscheid, Klaus (Hrsg.), Entrepreneurship in Forschung und Lehre. Festschrift für Klaus Anderseck, Frankfurt am Main 2003, S. 187-204. Braukmann, Ulrich/Bijedic, Teita/Schneider, Daniel (2008): „Unternehmerische Persönlichkeit“ – eine theoretische Rekonstruktion und nominaldefinitorische Konturierung, Wuppertal 2008. Braukmann, Ulrich/Bijedic, Teita/Schneider, Daniel (2009): Von der Mikro- zur Makrodidaktik in der Entrepreneurship Education – Zum Paradigmawechsel der Förderung unternehmerischen Denkens und Handelns in der Aus- und Weiterbildung, in: Bertelsmann Stiftung (Hrsg.), Generation Unternehmer? Youth Entrepreneurship Education in Deutschland, Gütersloh 2009, S. 231-268. Braukmann, Ulrich/Schneider, Daniel (2007): Didaktische Zielklassen der Entwicklung unternehmerischer Kompetenz, in: Bader, Reinhard/Keiser, Gerd/Unger, Tim (Hrsg.), Entwicklung unternehmerischer Kompetenz in der Berufsbildung. Hintergründe, Ziele und Prozesse berufspädagogischen Handelns, Bielefeld 2007, S. 157180. Braukmann, Ulrich/Schneider, Daniel (2008): Implikationen der Gründungspädagogik und -didaktik für das Controlling ambitionierter Entwicklungsmaßnahmen, in: Pütz, Markus/Böth, Thorsten/Arendt, Volker (Hrsg.), Controllingbeiträge im Spannungsfeld offener Problemstrukturen und betrieblicher Herausforderungen – Festschrift für Winfried Matthes, Lohmar/Köln 2008, S. 197-262. Braun, Hanne (1981): Unternehmer und unternehmerische Wirtschaft im Schulbuch. Eine Untersuchung der Sozialkundebücher für die gymnasiale Oberstufe, Köln 1981. Brixy, Udo/Hessels, Jolanda/Hundt, Christian/Sternberg, Rolf/Strüber, Heiko (2009): Global Entrepreneurship Monitor, Unternehmensgründungen im weltweiten Vergleich, Länderbericht Deutschland 2008, Hannover/Nürnberg 2009. Brockhausen, Alfons/Peters, Jelko/Smula, Hans-Jürgens/Wolf, Heinz-Ulrich (2007): Demokratie heute 9-10, Politik Nordrhein-Westfalen, Braunschweig 2007. Cesinger, Beate/Müller, Christoph (2009): Genderspezifische Lehre an deutschen Entrepreneurshiplehrstühlen – eine Notwendigkeit? Ergebnisse einer Studie des Center of Entrepreneurship (COE) an der Universität Hohenheim, Hohenheim 2009.
228
Ulrich Braukmann / Carsten Kreutz / Daniel Schneider
Dick, Anneliese (1991): Rollenbilder von Männern und Frauen, Jungen und Mädchen in Schulbüchern, Anregungen zu ihrer Behandlung im Unterricht der Primarstufe und Sekundarstufe I, Wiesbaden 1991. Euler, Dieter/Hahn, Angela (2007): Wirtschaftsdidaktik, 2. Aufl., Bern/Stuttgart/Wien 2007. Freund, Werner (2004): Unternehmensnachfolgen in Deutschland, in: Institut für Mittelstandsforschung Bonn (Hrsg.), Jahrbuch zur Mittelstandsforschung 1/2004, Schriften zur Mittelstandsforschung Nr. 106 NF, Wiesbaden 2004, S. 57-88. Frey, Dieter/Rosenstiel, Lutz von/Graf Hoyos, Carl (Hrsg.) (2005): Wirtschaftspsychologie – Handbuch, Göttingen 2005. Fuchs, Kathrin/Werner, Arndt/Wallau, Frank (2008): Entrepreneurship Education in Germany and Sweden: What Role Do Different School Systems Play, in: Journal of Small Business and Enterprise Development, Bd. 15/2008, S. 365-381. Grüner, Herbert (1993): Entrepreneurial Learning – Ist eine Ausbildung zum Unternehmertum möglich? In: Zeitschrift für Berufs- und Wirtschaftspädagogik, Heft 5/1993, S. 485-509. Grüner, Herbert (2001): Entrepreneurship als neue Zielgröße in der beruflichen Bildung, in: Die berufsbildende Schule, Heft 10/2001, S. 290-294. Halbfas, Brigitte G. (2006): Entrepreneurship Education an Hochschulen. Eine wirtschaftspädagogische und -didaktische Analyse, Paderborn 2006. Höhne, Thomas (2003): Schulbuchwissen. Umrisse einer Wissens- und Medientheorie des Schulbuches, Frankfurt a. M. 2003. Jung, Martin/Unterberg, Michael/Heuer, Kerstin/Bendig, Mirko (2009): Neue Handlungspotenziale zur Erhöhung von Zahl und Qualität nachhaltiger Unternehmensgründungen in Deutschland. Untersuchung im Auftrag des Bundesministeriums für Wirtschaft und Technologie, Berlin 2009. Klandt, Heinz/Brüning, Erdme (2002): Das Internationale Gründungsklima. Neun Länder im Vergleich ihrer Rahmenbedingungen für Existenz- und Unternehmensgründer, Berlin 2002. Klafki, Wolfgang (1996): Neue Studien zur Bildungstheorie und Didaktik, Zeitgemäße Allgemeinbildung und kritisch-konstruktive Didaktik, Weinheim/Basel/Beltz 1996. Koch, Lambert T. (2003): Unternehmerausbildung an Hochschulen, in: Zeitschrift für Betriebswirtschaft (ZfB), Ergänzungsheft 2/2003, S. 25-46. Koubek, Norbert (1988): Der Unternehmer – Gestalter von Veränderungen in einer komplizierter werdenden Welt, in: Wirtschafts-Sonderausgabe des Remscheider General-Anzeiger – Berufswunsch: Unternehmer, 27. Januar 1988, S. 4. Kreutz, Carsten (2009): Das Bild des mittelständischen Unternehmers in Schulbüchern des Landes Nordrhein-Westfalen. Unveröffentlichte Examensarbeit, Wuppertal 2009. Kroeber-Riel, Werner/Weinberg, Peter/Groeppel-Klein, Andrea (2009): Konsumentenverhalten, München 2009. Kuckertz, Andreas/Stöckmann, Christoph (2007): Innovatoren, Arbeitsplatzgeneratoren und Hoffnungsträger – Das Unternehmerbild in der Gesellschaft, in: Fink, Matthias (Hrsg.), Sozialwissenschaftliche Aspekte des Gründungsmanagements. Die Entste-
Zum Bild des mittelständischen Unternehmers
229
hung und Entwicklung junger Unternehmen im gesellschaftlichen Kontext, Stuttgart 2007, S. 224-248. Lahn, Stefanie/Hayen, Dagmar/Unterberg, Michael (2007): Foster Gender Equality. Meeting the Entrepreneurship and Microfinance Challenge, Hamburg 2007. Lamnek, Siegfried (2005): Qualitative Sozialforschung, 4. Aufl., Weinheim/Basel 2005. Lässig, Simone (2008): Statement im Rahmen der Pressekonferenz zur Vorstellung der länderübergreifenden Schulbuchstudie, Berlin 2008. Lässig, Simone/Grindel, Susanne (2007): Unternehmer und Staat in europäischen Schulbüchern. Deutschland, England und Schweden im Vergleich, Braunschweig 2007. Merrett, Gary (2008): Marktwirtschaft in Schulbüchern, Potsdam/Berlin 2008. Michalak, Hanne (1978): Das Unternehmerbild in Schulbüchern. Eine Untersuchung der Sozialkunde-Lehrbücher für die Sekundarstufe I, Köln 1978. Ministeriums für Schule, Jugend und Kinder (2004): Zulassung von Lernmitteln. RdErl. des Ministeriums für Schule, Jugend und Kinder vom 3. 12. 2003, in: ABl. NRW 2004, S. 9. Nerdinger, Friedemann (1999): Perspektiven der Erforschung des Unternehmertums, in: Rosenstiel, Lutz/Lang von Wins, Thomas (Hrsg.), Existenzgründung und Unternehmertum. Themen, Trends und Perspektiven, Stuttgart 1999, S. 3-22. Pätzold, Jürgen (1994): Soziale Marktwirtschaft. Konzeption – Entwicklung – Zukunftsaufgaben, 6. Aufl., Ludwigsburg/Berlin 1994. Radkau, Verena (1997): Wie berechtigt ist die Schulbuchschelte des Bundesbildungsministers? Zu den Ergebnissen einer Studie der Bremer Universität über die Darstellung von Arbeit, Wirtschaft und Technik in Schulbüchern, in: Internationale Schulbuchforschung, 19 (1997) 4, S. 445-448. Scheller, Roland: Sozialisation durch Printmedien, Berlin 1999. Schulhoff, Wolfgang (2008): Das Unternehmerbild in der sozialen Marktwirtschaft. Eröffnungsrede zum gleichnamigen Symposium, Düsseldorf 2008. Schumpeter, Joseph A. (1993): Theorie der wirtschaftlichen Entwicklung. Eine Untersuchung über Unternehmergewinn, Kapital, Kredit, Zins und den Konjunkturzyklus, 8. Aufl., Berlin 1993. Sekretariat der Ständigen Konferenz der Kultusminister der Länder in der Bundesrepublik Deutschland (2008): Wirtschaftliche Bildung an allgemein bildenden Schulen. Bericht der Kultusministerkonferenz vom 19.10.2001 i.d.F. vom 27.06.2008, Bonn 2008. Thorndike, Robert M. (1996): Measurement and Evaluation in Psychology and Education, New York 1996. Volkmann, Christine (2009): Entrepreneurship in Higher Education, in: Volkmann, Christine/Wilson, Karen E./Mariotti, Steve/Rabuzzi, Daniel/Vyakarnam, Shailendra/Sepulveda, Ana (Hrsg.), Educating the Next Wave of Entrepreneurs, Unlocking Entrepreneurial Capabilities to Meet the Global Challenges of the 21st Century. A Report of the Global Education Initiative, 2009 World Economic Forum White Paper on Entrepreneurship Education, Genf 2009, S. 42-79. Walter, Sascha G./Walter, Achim (2009): Personenbezogene Determinanten von Unternehmensgründungen: Stand der Forschung und Perspektiven des Fortschritts, in:
230
Ulrich Braukmann / Carsten Kreutz / Daniel Schneider
Schmalenbachs Zeitschrift für betriebswirtschaftliche Forschung (zfbf), 1/2009, S. 57-89. Wegmann, Jürgen (2006): Betriebswirtschaftslehre mittelständischer Unternehmen, Oldenburg 2006. Werhahn, Peter (1990): Der Unternehmer – Seine ökonomische Funktion und gesellschaftspolitische Verantwortung, Trier 1990. Zimmermann, Peter (2006): Grundwissen Sozialisation, Einführung zur Sozialisation im Kindes- und Jugendalter, Wiesbaden 2006.
Internetquellen Deutscher Bundestag (2002): Die Bedeutung von KMU für die nationale und internationale Wirtschaftstätigkeit. Schlussbericht der Enquete Kommission, http://www.bun destag.de/gremien/welt/glob_end/, abgerufen am 16. September 2008. Handwerkskammer Düsseldorf (2008): Das Handwerk im Regierungsbezirk Düsseldorf – Die wichtigsten Zahlen, Fakten und Dokumentationen, http://www.handwerks kammer-düsseldorf.de/zahlenfakten/, abgerufen am 11. Oktober 2008. Oslo Agenda for Entrepreneurship Education in Europe (2006): Ergebnisse der Konferenz für ‘Entrepreneurship Education in Europe: Fostering Entrepreneurial Mindsets through Education and Learning’ (Oslo, 26.-27. Oktober 2006), http://ec.euro pa.eu/enterprise/entrepreneurship/support_measures/training_education/doc/oslo_agenda_final.pdf, abgerufen am 2. Dezember 2008. Ministerium für Schule und Weiterbildung des Landes Nordrhein-Westfalen (2009): Verzeichnis der zugelassenen Lernmittel http://www.schulministerium.nrw.de/BP/ Unterricht/Lernmittel/index.html, abgerufen am 11. November 2009. Theil, Stefan (2008): Wie unsere Schulen Wirtschaft lehren. Von Raffgier und Ausbeutung, http://www.faz.net/IN/INtemplates/faznet/default.asp?tpl=common/zwischen seite.asp&dox={04E4565B-79F8-795F5A61-A6A8FE6CA8C}&rub={0E9EEF84AC1E-4A38-9A8D-C6C23161FE44}, abgerufen am 18. September 2008. Zentralverband des deutschen Handwerks (2008): Lehrlingsstatistik 2007, http://www. zdh.de/daten-und-fakten/ausbildung-bildung/lehrlingsbestand/lehrlingsstatistik-besta nd-detailauswertung-2007.html, abgerufen am 11. September 2008. Zentralverband des deutschen Handwerks (2009): Wirtschaftlicher Stellenwert des Handwerks, http://www.zdh.de/daten-und-fakten/das-handwerk/wirtschaftlicher-stellenwe rt-des-handwerks.html, abgerufen am 2. Dezember 2008.
Wandel als Chance – Innovationsimpulse und institutionelles Unternehmertum Lambert T. Koch / Marc Grünhagen*
1
Einleitung
Wenn es in der Wirtschaft um Innovationen geht, kommt Entrepreneuren als Unternehmern, die Neuerungen auf dem Markt etablieren, eine wesentliche Motorfunktion zu. Und auch im Bereich der Unternehmensinternationalisierung spielen innovative Gründungsunternehmen, die rasch in eine weltweite Präsenz hineinwachsen, als Born Globals eine wesentliche Rolle.1 Die Phänomene des Wandels, die sie dabei einerseits nutzen und andererseits selbst anstoßen, bedingen, dass sich die Wirtschafts-Welt ständig in einem „Unruhezustand“ befindet. Wer es als traditioneller Ökonom gewohnt ist, in Gleichgewichtskategorien zu denken, müsste insofern zur Einsicht gelangen, dass moderne Marktwirtschaften sich – wenn überhaupt – als „Ungleichgewichtsökonomien“ kategorisieren lassen. Anpassungen an veränderte Umweltbedingungen avancieren von der gelegentlichen Notwendigkeit zur Routineaufgabe auf allen ökonomischen Handlungsebenen, was sich seit dem Jahr 2008 beispielsweise in fortwährenden Bemühungen um einen neuen Regulierungsrahmen in Zuge der weltweiten Finanzkrise zeigt.2 Entsprechend geraten organisationale und managementliche Qualitätskriterien, wie Anpassungsflexibilität, Beschleunigungsbewältigung und Wandlungskultur mehr und mehr ins Rampenlicht des wissenschaftlichen und praktischen Interesses. Der vorliegende Beitrag setzt an diesen Alltagsbeobach*
Für wertvolle Hinweise aus juristischer Sicht danken wir Claus Ahrens, Bernhard Losch und Christian Schimansky.
1 2
Vgl. Holtbrügge und Wessely (2007). Vgl. Jaques (2008).
232
Lambert T. Koch / Marc Grünhagen
tungen an und versucht, aus einer evolutorischen Perspektive die Implikationen von solchermaßen skizzierbaren „Ungleichgewichtsökonomien“ speziell für dynamisches Unternehmertum auszuloten. Während im neoklassischen Denken Anpassungsprozesse als Folge von Störungen gleichgewichtiger Zustände eine allenfalls untergeordnete Rolle spielen, soll im Folgenden der Anpassungsprozess an sich als ubiquitäres marktwirtschaftliches Funktionsmerkmal im Mittelpunkt stehen. Anpassung meint dabei jegliche sozioökonomische Reaktionen auf wahrgenommene Veränderungen, weshalb später auch eine systematische Unterscheidung von Ebenen der Anpassung vorzunehmen ist. Zentrale Schlussfolgerung wird sein, dass sich neben den betriebs- und volkswirtschaftlichen Kosten von entsprechenden Adjustierungen spezifische Chancen für dynamische Unternehmer ergeben. D.h. es werden gründungs- und innovationslogische Argumente zu diskutieren sein, die der Prozessdauer und qualität – entgegen dem neoklassischen Ideal der unendlichen schnellen Anpassung – einen Wert an sich zubilligen. Hier erhält ein Zeitfenster der Verzögerung, innerhalb dessen unternehmerische Akteure durch ihre Lösungsangebote Variation erzeugen, einen Wert, weil ex ante eben keine einzelne, objektiv beste Lösung angegeben werden kann. Dabei steht die staatliche Wirtschaftspolitik einem Dilemma gegenüber, das David treffend als „blind giants quandary“ bezeichnet hat.3 Im Kern verweist das Dilemma darauf, dass auch zentralisiertes Wissen – etwa im Kontext staatlicher Wirtschaftspolitik – im Vorhinein keine sicheren Festlegungen hinsichtlich gesellschaftlich bester Lösungen machen kann und damit Zeitfenster zur dezentralen Erprobung neuer Produkte und Dienstleistungen im Markt sinnvoll erscheinen. So expliziert, ergeben sich u.a. bedeutsame wirtschaftspolitische Implikationen, die in – namentlich institutionellen – Maßnahmen zur Zulassung und Stützung solcher unternehmerischer Variation liegen. Für Ersteres bedeutet dies beispielsweise, formale Regelungen in neuen Technologiefeldern nicht vorschnell zu implementieren. Letzteres meint, dass durch eine entsprechende ordnungspolitische Ausgestaltung des rechtlich-bürokratischen Rahmens Gründungs- und Innovationsaktivitäten leichter umsetzbar werden.4 Die beiden wesentlichen Akteure zur Zulassung und Nutzung solcher Zeitfenster sind damit: a) institutionelle Innovatoren und Unternehmer (im Sinne des „institutional entrepreneurship“)5, die „neuartige Problemlösungen“ in Form neuer Produkte und Dienstleistungen auf den Markt bringen und dabei oftmals 3 4
5
Siehe David (1986). Vgl. Ho/Wong (2005), die insbesondere auf mögliche Barrieren für unternehmerische Aktivitäten durch übermäßige Regulierungs- und Bürokratiekosten in verschiedenen Ländern hinweisen. Z. B. Zimmerman und Zeitz (2002) oder Maguire et al. (2004).
Wandel als Chance – Innovationsimpulse u. institutionelles Unternehmertum 233 neuen gesellschaftlichen Regelungsbedarf evozieren, und b) politische Entscheidungsträger, die unternehmerische (und andere) Innovationsaktivitäten in der Gesellschaft in zweierlei Weise kanalisieren; zum einen durch zentrale rechtliche Regelungen (z.B. in Verwaltung und Umweltschutz), zum anderen durch branchen-spezifische Regulierungen, die jeweils festlegen, welche Neuerungen und Innovationswirkungen gesellschaftlich zugelassen werden sollen (etwa Regelungen zu Gen-Lebensmitteln oder Finanzderivaten). Dabei helfen Entrepreneure, neue Problemlösungen zu erkunden, und liefern so wertvolle Informationen für sinnvolle institutionelle Rahmensetzungen und Anpassungen im Nachhinein. Im Ergebnis werden sich bietende Zeitfenster im Vorfeld öffentlicher Rahmensetzungen von Unternehmern als Chance zu innovativen, individuell gestalteten Marktangeboten wahrgenommen. Die hierbei implizierten Entwicklungs- und Anpassungsprozesse führen zur evolutorischen Ökonomik, deren konstitutiver Gegenstand ökonomischer Wandel ist. Dieser lässt sich als fortwährende Abfolge von Veränderung, innovativer Anpassung und hierdurch induzierten Folgeänderungen erfassen.6 So wird als zentraler Mehrwert des vorliegenden Beitrags angestrebt, wichtige Argumente der älteren, neuen und neuesten Entrepreneurship-Forschung in einen allgemeinen evolutionsökonomischen Modellrahmen einzubringen und so eine synergetische Sicht auf den Kern der Logik des Entrepreneurship als Ursache und Folge sozioökonomischen Wandels zu ermöglichen. Von daher werden im Folgekapitel zunächst einige grundlegende Aspekte der evolutorischen Ökonomik dargelegt. Sie sollen eine systematische Diskussion der späteren Kernargumentation zum Wert von Anpassungsprozessen im dritten und vierten Kapitel befördern. Hierbei wird vor allem gezeigt, welche zentrale Bedeutung Institutionen als Spiegel des jeweiligen gesellschaftlichen Wissens- bzw. Erkenntnisstandes sowie dem Faktor Zeit als Ermöglichungsgrund innovatorischen Handelns zukommt. Zum Ende des vierten Kapitels werden die Kernargumente in einigen Thesen verdichtet, die insbesondere für die Ausgestaltung wirtschaftspolitischer Rahmenbedingungen innovationsgetriebenen Strukturwandels bedeutsam sind. Im fünften Kapitel möge dann ein Fallbeispiel den gedanklichen Transfer der theoretischen Überlegungen in die empirische Wirklichkeit erleichtern helfen. Abschließend folgt ein Resümee, verbunden mit einem kurzen Ausblick.
6
Vgl. unter anderem Koch (1996).
234 2
Lambert T. Koch / Marc Grünhagen Zum evolutorischen Referenzmodell
Um möglichen Vorurteilen gegenüber bestimmten Richtungen der evolutorischen Ökonomik vorzubeugen, erscheint es notwendig, zur Einleitung in dieses Kapitel zumindest kurz auf das Selbstverständnis der hier zugrunde gelegten paradigmatischen Variante einzugehen. Nach dieser Auffassung kann eine universelle Evolutionstheorie, verstanden als meta-theoretische Synthese, interdisziplinäre Verlinkungen ermöglichen, die gerade für die Analyse von Gegenständen wie dem hier gewählten unerlässlich sind. Unterstellt man, wie z.B. Witt, eine ontologische, evolutionäre Kontinuität und somit den domänenübergreifenden Charakter von Evolution, dann lässt sich auch wirtschaftlicher Wandel nicht aus einer umfassenderen, kulturellen und biologischen Erklärungslogik auskoppeln und wird damit theoriefähig.7 Hodgson präzisiert dies folgendermaßen: „In short, Darwinism provides a compelling ontology, it is a universal metatheory in which specific theories must be nested“.8 Versteht man Evolution in diesem Sinne, so lässt sie sich sinnvoll im Rahmen eines hierarchischen „multilayered feedback systems“ begreifen.9 Die Modellierung eines solchen Systems, in dem multiple simultane MehrEbenen-BVSR-Prozesse10 erfassbar sind, kann man in seiner Grundstruktur gemäß der folgenden Abbildung skizzieren (in Anlehnung an ein Modell von Koch)11: Abbildung 1:
(a-c): Mehr-Ebenen-BVSR-Grundmodell
X
RX
R
biologische Evolution (Ebene 1)
kulturelle Evolution (Ebene 2) 'X 't
7 8 9 10 11
RX
Evolution von Märkten (Ebene 3) 'X 't
'X 't
Siehe Witt (2004). Hodgson (2002), S. 278. Bergh und Gowdy (2003), S. 79; vgl. auch Hodgson und Knudsen (2004). Die in der evolutorischen Ökonomik gängige Abkürzung „BVSR“ steht für „blinde Variation, Selektion und Retention“. Koch (1996).
Wandel als Chance – Innovationsimpulse u. institutionelles Unternehmertum 235 Die Achsenbezeichnung 'x/'t steht für die Variabilität oder relative Zeitstabilität evolutionsbeeinflussender Variablen bzw. Restriktionen X in der Zeit; Rx symbolisiert ihre räumliche Reichweite bzw. Wirkungsgültigkeit. Da die Zeitstabilität von links nach rechts abnimmt, wären über die Entwicklungsgeschichte weitgehend invariante Restriktionen der belebten und unbelebten Natur eher links anzusiedeln, wobei mit ihrer Zeitstabilität in vielen Fällen auch ein steigendes Rx einhergeht. Inwiefern sie sich im Rahmen evolutionärer Prozesse tatsächlich als Invarianten erweisen, hängt freilich stets vom Analysehorizont ab. Letzteres mögen die Abbildungen 1b und 1c andeuten. 1b zeigt, wie langfristige biologische Prozesse gleichsam zu einem Rahmensystem erstarren, wenn kürzerfristige Phänomene etwa im „kulturellen Raum“ betrachtet werden, zu dem vereinfachend auch politische Regelsetzungen gezählt werden sollen. Diese können dann selbst wieder zum Rahmensystem werden, wenn es gilt, noch kürzerfristige Zusammenhänge, wie z.B. die Gründung eines Unternehmens, zu erklären. So befasst sich schon Veblen mit der Frage, wie informelle und formelle Institutionen ökonomische Entwicklungen kanalisieren können, wobei sie selbst wieder als Resultat noch längerfristiger Kontexte temporär „erstarrt“ sind (dies entspricht Veblens Idee der „cumulative causation“).12 Wesentlich für das Kernargument dieses Beitrags ist dabei, dass rechtlich-soziale Rahmensetzungen durch die Gesellschaft auf Ebene 2 für den einzelnen Unternehmer invariante Restriktionen darstellen, die von Marktakteuren als inter-personelle Regeln einzukalkulieren sind.13 In diesem Sinne legt die Restriktionshierarchie in Abbildung 1 nahe, dass politische Regulierung durch den Staat (Ebene 2) grundsätzlich den zugelassenen Spielraum für innovative Unternehmer eingrenzt; dies ist besonders bedeutsam, wenn man bedenkt, dass politische Regulierungsmaßnahmen üblicherweise in einem langsameren Tempo evolvieren als Innovationsaktivitäten der Marktakteure auf Ebene 3.14 Zusammenfassend ist damit die Art und Weise, in der Regulierungs-Regime entworfen, eingeführt und verändert werden, von essentieller Bedeutung für die Handlungsspielräume innovativer Entrepreneure. Im folgenden Kapitel soll nun gezeigt werden, wie entsprechende Anpassungsprozesse als komplexe Reaktionsbeziehungen zwischen unterschiedlichen Variablenebenen unternehmerische Gelegenheiten entstehen lassen. Die bisherigen Überlegungen sollten dafür lediglich ein analytisches Grundverständnis schaffen.
12 13
14
Vgl. Hodgson (2002), S. 277. Budzinski (2003); vgl. auch Stevenson/Gumpert (1985), die feststellen, dass neue und kleine Unternehmen wenig Einfluss auf etablierte gesellschaftliche Anforderungen und bestehende Rahmensetzungen hätten. Rizzello (2000), S. 147.
236 3
Lambert T. Koch / Marc Grünhagen Entrepreneurship als Ursache und Wirkung ständiger Regelanpassungen
Zu den Grundeinsichten der evolutorischen Ökonomik gehört, wie schon erwähnt, die Ubiquität von innovationsgetriebenem Wandel. Dabei stellen sich die Ursachen für diesen Wandel vielschichtig dar: Zentrale Wirkungen entfaltet vor allem die Konkurrenz im Rahmen der Produktion und Konsumption von Gütern, die sich einerseits auf existenten und andererseits auf aus diesem Wettbewerb neu entstehenden Märkten abspielt. Dabei schafft der forschungs- und erfahrungsgetriebene Wissenswandel fortwährend neue Handlungsoptionen auf der Angebots- und veränderte Präferenzen auf der Nachfrageseite. Betrachtet man Güter und Dienstleistungen als Bündel von Eigenschaften,15 so spielen an dieser Stelle zwei Aspekte eine wesentliche Rolle: Zum einen ist es die Umbewertung von Eigenschaften innerhalb marktbekannter Eigenschaftsbündel, die ökonomisch neue Risiken und Chancen zu Tage fördert und damit das angebotene und nachgefragte Produkt- und Dienstleistungsspektrum ändert; z.B. weil die schädliche Wirkung – als Eigenschaft i eines etablierten Produkts – erst später im Zuge wissenschaftlicher Forschung entdeckt wird (Beispiel: Asbest), oder weil der Wandel gesellschaftlicher Wertvorstellungen bestimmte Eigenschaften entwertet (Beispiel: Nerzmantel). Zum anderen ist es die Umkombination von Eigenschaften zu neuen Eigenschaftsbündeln – zusammen mit der Vermarktung neu entdeckter zusätzlicher Eigenschaften oder unter alleiniger Betonung der Innovation durch (Re-)Kombination (Beispiel: Handy incl. Fotoapparat, ggf. zzgl. neuer und schnellerer Übertragungstechnik, Optik, Form, Akustik etc.). Die Impulse für den ständigen Wandel des Güterraums können mithin von unterschiedlichsten Restriktionsebenen im obigen Sinne ausgehen. Nennbar sind, neben den schon genannten Faktoren, auch neu entdeckte oder neu bewertete Zusammenhänge der belebten und unbelebten Natur (z.B. „Klonen“, „Ozonloch“) oder – ggf. als Folge solcher (wissenschaftlichen) Ergebnisse – veränderte gesellschaftliche Wertvorstellungen, Präferenzen und politische Regelsetzungen. Gerade der Einfluss der politischen bzw. rechtlichen Ebene wird in diesem Zusammenhang immer wieder unterschätzt. Denn versteht man Marktbeziehungen als geregelte Rivalität um die individuelle Verfügung über knappe Ressourcen, die mit erlaubten Handlungsoptionen ausgetragen wird, so fällt der Blick in besonderer Weise auf diese handlungsrechtliche Regelung technologischer und
15
Lancaster (1979).
Wandel als Chance – Innovationsimpulse u. institutionelles Unternehmertum 237 anderer Inventionen sowie ihrer ökonomischen Verwertung:16 Entscheidend ist in diesem Zusammenhang insbesondere die Einsicht, dass jede vormarktliche und marktliche Interaktion stets positive und negative (Neben-)Wirkungen für Dritte zeitigt, die daher einer handlungsrechtlichen Gestaltung bedürfen. Die Tatsache, dass viele dieser Externalitäten erst im Zuge der Wissensevolution bekannt bzw. als Folge technischen Wandels relevant werden (etwa das Herunterladen von Musikkopien aus dem Internet, das ggf. die nicht-kompensierten Produzenten der Originale benachteiligt), lässt den korrespondierenden gesellschaftlichen Regelzusammenhang in der „Innovationsphase“ notwendigerweise als unvollkommen erscheinen. Gespiegelt an neoklassischen Definitionskategorien wäre insofern von innovationsinduzierten „Marktunvollkommenheiten“ zu sprechen, wobei es sich evolutionsökonomisch um ein systemimmanentes Phänomen handelt. Vor dem Hintergrund dieser Überlegungen wird anschaulich, weshalb Märkte – inkl. derer, die im Zuge des Auftretens neuer Güter im Entstehen begriffen sind – bisweilen auch als Ort des Hypothesentests für Entrepreneure verstanden werden:17 Ausschlaggebend hierfür ist, dass das systematisch fehlende sichere Wissen über erfolgsentscheidende ökonomische, gesellschaftliche und politische Entwicklungen der oben skizzierten Art jede ökonomische Neuerung zu einem Experiment werden lässt. Dabei fasst die Entrepreneurship-Forschung bereits die Gründung eines Unternehmens per se als „testing of entrepreneurial conjectures“ auf, bei dem die Geschäftsgelegenheit sich hinsichtlich verschiedener Kriterien „beweisen“ muss.18 Offenbar existiert ein Spannungsfeld zwischen subjektiver Marktgelegenheit und der Notwendigkeit, externe Ressourcengeber, z.B. Banken, Investoren und Lieferanten, zu überzeugen,19 was Shane so auf den Punkt bringt: “The information dispersion and uncertainty that give rise to the existence and discovery of entrepreneurial opportunities make it difficult for entrepreneurs to acquire the resources they need to pursue them”.20 Dies veranschaulicht zugleich den oben geltend gemachten Topos des Hypothesentests: So entsteht unternehmerische Variation eben gerade dadurch, dass Akteure unterschiedliche subjektive Zukunftserwartungen und Erfahrungen haben, die zu unterschiedlichen Problemlösungsvorschlägen führen. Beispielsweise lässt sich zeigen, dass aus ein und derselben technologischen Invention heraus subjektiv-erfahrungsabhängig unterschiedliche unternehmerische Pro16
17 18 19 20
Vgl. hierzu Hesse und Koch (1997), die in diesem Zusammenhang auch von Gütern als „Bündeln von Handlungsrechten“ sprechen. D.h. wechseln c.p. die mit einem Gut verbundenen Handlungsrechte, ändert sich auch dessen ökonomischer Wert. Vgl. Kerber (1997). Vgl. Grichnik und Immerthal (2005) sowie Bünstorf (2007). Vgl. unter anderem Lounsbury und Glynn (2001). Shane (2003), S. 161.
238
Lambert T. Koch / Marc Grünhagen
dukt- und Geschäftsideen entdeckt und umgesetzt werden.21 Freilich sind hierbei nicht nur die Wahrnehmungen, Bedürfnisse und Erwartungshaltungen von Entrepreneuren und Ressourcengebern heterogen, sondern auch die der potentiellen Konsumenten. D.h. die Frage, wie und mit welchen Spezifikationen ein neues Produkt von der potenziellen Zielgruppe angenommen wird, verlangt gleichermaßen nach „Arbeitshypothesen“, in denen Wirklichkeitsdeutungen konkurrieren, die dann ggf. mit der Zeit ausselektiert werden. Ex ante ist grundsätzlich keine „beste Produktspezifikation“ ableitbar, welche die im Durchschnitt beste Konsumentenzufriedenheit generieren würde. Neben der unmittelbaren Befriedigung von Konsumentenbedürfnissen haben diesbezügliche Hypothesen aber auch Bedeutung für die Frage, welche möglichen Haftungsfälle22 hinsichtlich bestimmter Produkteigenschaften, Produktionsgegebenheiten usw. auftreten könnten; gleiches gilt hinsichtlich der Ungewissheit darüber, wie rasch Imitatoren nachziehen und welche Vorkehrungen entsprechend zu treffen sind. D.h. eine gute Aufnahme von Innovationen im Markt, geringe Haftungskosten und c.p. hohe Vorsprungsgewinne über einen möglichst langen Zeitraum sind Indizien dafür, dass sich aufgestellte „Hypothesen“ bewähren.23 Dies führt zu der zentralen Frage, welche Rolle grundsätzlich die Dauer solcher Prozesse für den einzel- und gesamtwirtschaftlichen Erfolg von „entrepreneurial activities“ spielt. Herauszuarbeiten ist somit im Folgenden, inwiefern der Faktor Zeit aus evolutionsökonomischer Perspektive zum konstitutiven Systemkennzeichen funktionierender Marktwirtschaften mit dem Kernmerkmal dynamischen Unternehmertums avanciert.
4
Die Bedeutung des Faktors Zeit für „Entrepreneurial Activity“
Im Vorherigen sollte erkennbar geworden sein, welcher Wert den Phasen vor und nach der Einführung von Innovationen durch „findige Unternehmer“24 bzw. „unternehmerische Pioniere“25, die zur Evolution des institutionellen Rahmens 21 22
23 24 25
Shane (2000). Vgl. zur Gesetzesgrundlage: Produkthaftungsgesetz (ProdHG) vom 15.12.1989 (BGBl. I S. 2674), zuletzt geändert 19.07.2002 (BGBl. I S. 2674); Kommentare: Welser/Rabl (2003) sowie Palandt (2005); die Produkthaftung nach Produkthaftungsgesetz wird im Übrigen ergänzt durch eine zusätzliche Haftung nach allgemeinem Deliktsrecht (§§ 823 ff. BGB). Ferner ist auch die Produkthaftung vertraglicher Art etwa im Rahmen des Gewährleistungsrechts zu beachten (etwa des Verkäufers, § 437 Nr. 3 BGB). Vgl. weiterführend in diesem Kontext Welser/Rabl (2003) und Palandt (2005). Vgl. z.B. Kirzner (1988). Vgl. Schumpeter (1934).
Wandel als Chance – Innovationsimpulse u. institutionelles Unternehmertum 239 beitragen, zukommt. Jede markante Änderung von Preisen, Präferenzen, gesellschaftlichem Wissen, sozialen Bewertungen und politischen Programmen ist in Anknüpfung an oben Gesagtes eine „Hoch-Zeit“ für Entrepreneure. Denn derartige Änderungen rufen in besonderer Weise Anpassungsnotwendigkeiten hervor, deren gesellschaftliche Bewusstmachung mehr oder weniger „experimentell“ und ergebnisoffen verläuft. Dabei werden solche Anpassungsprozesse ganz wesentlich von Unternehmern getragen, die ihren geschäftlichen Erfolg darin suchen, Innovationen in Markt und Gesellschaft zu etablieren. Als geeignetes Beispiel erscheint hier die anhaltende Diffusion der InternetTechnologie in einen immer breiteren gesellschaftlichen Nutzungszusammenhang. Dabei wird insbesondere der Aspekt der Risikoübernahme deutlich, bedenkt man, dass viele E-commerce-Unternehmen mit ihrem Marktangebot nicht erfolgreich waren (vgl. etwa das Platzen der New Economy Blase in 2001)26; denn innovative Unternehmer, die im gesellschaftlichen Wandel die „PfadfinderRolle“ übernehmen, laufen stets Gefahr, in der Übernahme dieser Funktion an der Herausforderung evolutorischer Ergebnisoffenheit zu scheitern. D.h. bisweilen werden Geschäftsideen in der Marktentwicklung ausselektiert, womit nichtsdestotrotz ein Beitrag zur gesamtwirtschaftlichen Anpassungsleistung resultiert. Selbst aus dem ökonomischen Misserfolg einzelner Pioniere entstehen für das Gesamtbild verwertbare Informationen, werden Chancen und Risiken allmählich klarer bestimmbar, lassen sich Strategien mit partiell angebbaren Erfolgswahrscheinlichkeiten ableiten. Je länger solche „Experimentierphasen“ dauern, desto höher ist die Erfolgswahrscheinlichkeit für diejenigen, die gerade an vorderster Front sind und „Problemlösungen“ in Form von Gütern und Dienstleistungen anbieten. Die für erfolgreiche Innovatoren winkenden Vorsprungsgewinne stellen dabei eine Art nachträgliches Entgelt für die Übernahme des ex ante nicht bestimmbaren Innovationsrisikos dar. Die Höhe vergangener Risikobelohnungen korreliert hier häufig positiv mit der künftigen Bereitschaft zur Risikoübernahme.27 Grundsätzlich besteht die Bedeutung der Länge der beschriebenen Zeitfenster darin, dass die operative Umsetzung wie auch die Marktetablierung von Innovationen einen Planungs- und Handlungsprozess nach dem Trial- und Errorprinzip implizieren und nicht schlagartig entstehen resp. Gewinne abwerfen.28 Daher muss notwendigerweise die Zeit-Kategorie mitgedacht werden, wobei die Subkategorien der Zukunftsoffenheit, Pfadabhängigkeit, Irreversibilität und Kontextgebundenheit historischer Zeitverläufe komplexitätserhöhend wirken.29 Die 26 27 28 29
Beschrieben z.B. in Rovenpor (2004). Zu diesem „Erfahrungs-Erwartungs-Zusammenhang“ siehe bereits Luhmann (1984). Vgl. Hesse/Koch (1997) sowie O’Driscoll/Rizzo (1985). Vgl. Hejl (2000) und zum Konnex zw. Zeit und Unsicherheit bereits Shackle (1958).
240
Lambert T. Koch / Marc Grünhagen
Reflektion der zeitlichen Vergänglichkeit unternehmerischer Gewinnchancen hat in der Entrepreneurship-Theorie bereits beizeiten Berücksichtigung gefunden: Dass unternehmerische Chancen als temporär begrenzte Gelegenheiten entstehen, wird insbesondere in der Konzeption Kirzners offenbar, in der findige Unternehmer ein temporäres Marktungleichgewicht zur Arbitrageerzielung nutzen.30 Die o.g. Fehlbarkeit von Marktwissen und dessen asymmetrische Verteilung sind dabei gerade die Grundlage der von Kirzner identifizierten Möglichkeiten zur Erzielung eines „reinen Gewinns“, der dann allerdings mit der Zeit vom Markt eliminiert wird.31 Das vom einzelnen Akteur wahrgenommene Zeitfenster für solche Gewinnaussichten wird mithin sowohl durch Wettbewerbsreaktionen als auch durch mögliche Anpassungen des marktlichen Ordnungsrahmens definiert. Inwieweit dieses Zeitfenster von einzelnen Akteuren als ausreichend aufgefasst wird, um tatsächliche Gründungsabsichten hervorzubringen, hängt gemäß der Entrepreneurship-Theorie von der wahrgenommenen „Wünschenswertigkeit“ (desirability) und „Machbarkeit“ (feasibility) ab.32 Sofern durch mutmaßlich zu enge Regulierungs-Zeitfenster und umfangreiche bürokratische Auflagen eine sinnvolle wirtschaftliche Verwertung einer Geschäftsidee als zu schwer umsetzbar und wenig attraktiv erscheint, bleiben innovative Gründungsaktivitäten möglicherweise aus. Wie rasch sich das für die Höhe der Risikobelohnung sowie für die grundsätzliche wirtschaftliche Umsetzbarkeit relevante „window of opportunity“ wieder schließt, wird somit von vielen Einzelfaktoren bestimmt, welche die vom Entrepreneur wahrgenommene Chancen-Risiko-Einschätzung beeinflussen: Dazu zählen zunächst die Marktstruktur, der Grad der Marktvermachtung, Markteintrittsbarrieren für Nachfolger, die Informationsverteilung zwischen tatsächlichen und potenziellen Wettbewerbern, aber auch rechtlich-politische Relationen, Interessen und Regelungen, wie Innovationshilfen und gewerbliche Schutzrechte. Prinzipiell ergibt sich das skizzierte Zeitfenster für unternehmerische Variation gerade aus der Annahme, dass marktliche Einzelakteure mit ihren Eigenschaften, Zielen und Präferenzen (Ebene 3 im obigen Modell) einerseits sowie Organisationen und Institutionen (Ebene 2) andererseits unterschiedlich träge bei der Generierung von Problemlösungen sind. Ähnlich dieser evolutorischen Grundkonzeption in Abbildung 1 argumentiert Rizzello33, dass individuelle Akteure, wie insbesondere Entrepreneure, schneller Lösungsvorschläge her-
30 31 32 33
Vgl. Kirzner (1988). Vgl. ebenfalls schon Schumpeter (1934). Vgl. Krueger (2000) sowie Guerrero et al. (2008) und Linan (2008). Siehe Rizello (2000).
Wandel als Chance – Innovationsimpulse u. institutionelles Unternehmertum 241 vorbringen als größere Einheiten wie Organisationen, die selbst wiederum weniger träge sind, als sie umgebende gesellschaftliche Institutionen.34 Gerade in diesem vermuteten „Time Lag“ liegt das Potenzial der wirtschaftspolitischen Grundidee, dezentral agierende unternehmerische Marktakteure verschiedene Möglichkeiten ausprobieren zu lassen, bevor eine (ex-post) Lösung, etwa durch eine zentrale, politisch initiierte Regelung favorisiert und letztlich fixiert wird. Würde demgegenüber Letzteres schon im Vorhinein versucht, wäre bereits mit Röpke35 und v. Hayek36 kritisch zu fragen, inwieweit ein zentraler staatlicher Akteur überhaupt das nötige Mehr an Wissen im Vergleich zu den dezentralen Marktakteuren haben kann, welches eine Vorab-Einengung des Variationspools rechtfertigen würde. Mehr noch, wäre im Sinne des Obigen zu unterstreichen, dass es häufig gerade die einzelnen gesellschaftlichen Akteure sind, die institutionelle – insbesondere politisch gesetzte – Rahmenbedingungen kritisch validieren und letztlich Bewahrungs- und Anpassungsvorschläge selbst erzeugen, die dann wiederum im gesellschaftlichen Spannungsfeld selektiv bewahrt werden.37 Daher muss die Gesetzgebung sich des grundsätzlich vorläufigen Charakters jedes institutionellen Rahmens bewusst sein; denn auch Regeln des positiven Rechts können nie mehr sein als Speicher falliblen Wissens über vergangene Ursache-Wirkungs-Zusammenhänge und Vermutungen über künftige Regelnotwendigkeiten; d.h. sie laufen ihrem Regelungsgegenstand prinzipiell hinterher. Letzteres schließt nicht aus, dass gerade bestimmte Metaregeln, wie z.B. Verfassungsregeln oder Verfahrensregeln, für die Regelsetzung selbst, aus Gründen des Vertrauensschutzes für das Bürgerdasein allgemein und das Wirtschaften im Speziellen,38 eine höhere Wandlungsträgheit aufweisen müssen. Denn sie bewahren basale und über Generationen tradierte ethisch-moralische wie auch sozial-gesellschaftliche Grundüberzeugungen, die als invariante Institutionen das Handlungsfeld begrenzen (etwa im Bereich der kommerziellen Nutzung der Stammzellen-Forschung). Dabei werden innovative unternehmerische Problemdeutungen und darauf bezogene Angebote von der Gesellschaft nicht beliebig zugelassen, sondern müssen eben sozial tragfähig und akzeptabel sein und aus Sicht relevanter Anspruchsgruppen Legitimität aufweisen.39 34
35 36 37 38 39
Vgl. zu letzterem auch Witt (2002); dass Entrepreneure sich dabei ggf. mangels ausreichender Ressourcenverfügbarkeit der Hilfe größerer Organisationen bedienen (z.B. in den Formen des Corporate Venturing), widerspricht dem keinesfalls. Röpke (1949). Hayek (1967). Vgl. z.B. Scott (2001). Vgl. bereits Eucken (1960). Vgl. z.B. Suchman (1995) oder Aldrich (2000) sowie für das Beispiel der Etablierung der Gentechnologie im Lebensmittelbereich Bender/Westgren (2001).
242
Lambert T. Koch / Marc Grünhagen
Damit wird offenbar, dass wirtschaftspolitische Akteure bei der Begleitung der Entstehung neuer Märkte immer auch vor einem Abwägungsproblem stehen, das hier als „innovationspolitische Kontradiktorik“ bezeichnet werden soll: Einerseits tragen institutionelle Regelungen dazu bei, Geschäftsbeziehungen zwischen den Wirtschaftssubjekten zu ermöglichen, indem etwa verlässliche Schutz-, Haftungs- und Verfahrensregelungen etabliert werden.40 Andererseits gilt es, das Experimentierfeld für unternehmerische Vorhaben sowie die Befriedigung neuer Konsumentenbedürfnisse und gesellschaftlicher Anliegen nicht durch ungeeignete Regelungen zu ersticken. Diese ständige Balance kann nur gelingen, wenn bedacht wird, dass Regelungen, wie die eben genannten, stets nur auf vorläufigem Wissen beruhen und daher hinreichend flexibel zu halten sind. Hierzu gehört etwa, neue gesetzliche Regelungen von vornherein mit einer begrenzten Laufzeit zu versehen und dahingehend zu überprüfen, ob sie noch „zeitgemäß“ sind. Bei solchen Überprüfungen bedarf es einer permanenten Orientierung an den neuen Gestaltungsoptionen, die dezentral agierende Unternehmen und Konsumenten im Marktprozess ständig neu hervorbringen. Zusätzlich kann eine solche Überprüfung auch von einer Stärkung der Judikative begleitet werden, welche die Entwicklung eines geeigneten Rechtsrahmens in die marktseitige Experimentierungsphase hinein verlagert. Die bisherigen Überlegungen aufnehmend, sollen nun zusammenfassend einige zentrale Thesen zum „Wert der Verzögerung“ im Zuge des mit „entrepreneurial activity“ einhergehenden sozioökonomischen Wandels formuliert werden: These 1: Die Tatsache, dass veränderungsinduzierte Anpassungsprozesse auf Märkten (Wirtschaft) und auf der handlungsrechtlichen Ebene (Politik) „dauern“, motiviert dynamisches Unternehmertum. Die Aussicht auf einen länger anhaltenden gesellschaftlichen Klärungsprozess zu möglichen Lösungen als drängend empfundener Probleme und Defizite (z.B. im Umweltbereich) lässt es ökonomisch lohnend erscheinen, in alternative Pfade der Entwicklung innovativer Angebote Zeit, Kreativität und Kapital zu investieren. Oder anders gesagt, ist von der Öffnungsdauer des „windows of opportunity“ sowohl die letztendliche Höhe in Aussicht stehender „first mover-Renditen“ als auch das vorherige Zustandekommen unternehmerischer Gründungsabsichten und deren Wünschenswertigkeit und Umsetzbarkeit abhängig. These 2: Die Dauer von Anpassungsprozessen im obigen Sinne ist damit nicht als Markt- oder Politikunvollkommenheit – abgeleitet vom Referenzmodell des vollkommenen Marktes – zu interpretieren. Sie muss viel mehr als zentrales Merkmal funktionierender Marktwirtschaften gesehen werden. Der vorschnelle 40
Vgl. Sjöstrand (1995), der Institutionen als „infrastructures of human interaction“ auffasst.
Wandel als Chance – Innovationsimpulse u. institutionelles Unternehmertum 243 Abbruch von Anpassungsprozessen über politische Willkürakte oder das Ausschalten innovatorischen Wettbewerbs läuft der schon von v. Hayek herausgearbeiteten Wissenssammelfunktion über marktlichen Wettbewerb zuwider. Zu rasche ex ante „Standardisierungen“ verringern die Selektionsbasis und reduzieren damit die Wahrscheinlichkeit des Auftretens „überlegener“ Lösungen im evolutorischen Sinne; außerdem bevorzugen sie große, meist trägere Player zu Ungunsten kreativer Entrants. These 3: Auch Überregulierungen berauben den Markt seiner Experimentierungschancen. Nach der Devise „im Zweifel für den Innovator“ erscheint es volkswirtschaftlich vorteilhaft, Innovatoren (Entrepreneur und Intrapreneur) mittels „großzügiger“ Handhabung neu auftretender Haftungsfragen – z.B. über eine Sozialisierung von Schadenskosten – zu motivieren. In Weiterführung Coasscher Gedanken lässt sich zeigen, dass ohne Effizienzverlust alternative Haftungsregime formuliert werden können. Dass dabei ein übertriebener genereller Verbraucherschutz die weniger innovationsgenerierende Tendenz darstellt, leitet sich unmittelbar aus dem Gesagten ab. Damit verlagert sich aber die Regelungszuständigkeit notwendigerweise von der Legislative stärker zur Judikative. Statt einer Beschränkung des Ausprobierens geeigneter Lösungen im Vorhinein, ermöglicht ein solches Vorgehen eine gesellschaftliche Willensbildung und Kompensation während des variierenden Erprobungsprozesses selbst, ohne das Experimentierfeld zu beschränken. These 4: Schließlich erscheint auch die eingangs schon angedeutete Beschleunigung des globalen technologischen Wandels aus der hier vertretenen Perspektive als Chance für Entrepreneure und Intrapreneure – vorausgesetzt, die Politik erkennt dies und hält den institutionellen Rahmen in der zuvor dargestellten Weise flexibel. Dabei kommt es insbesondere auf die folgende Balance an: Zum einen benötigen neue Märkte institutionelle Unterstützung durch die Schaffung von Transaktionsvertrauen für die Marktakteure (z.B. Kapitalmarktregeln) und Legitimierungspotential für innovative Unternehmen, die dadurch institutionelle Konformität signalisieren können. Zum anderen geht es darum, zu vermeiden, dass institutionelle Rahmensetzungen das Zeitfenster zum Experimentieren mit neuen Lösungen unnötig reduzieren. Hieraus resultiert für die Wirtschaftsund insbesondere die Innovationspolitik ein erhöhter Überprüfungs- sowie ggf. Anpassungsbedarf. Hiervon wenig tangiert bleiben hingegen hierarchisch höher stehende ethisch-moralische Regeln der gesellschaftlichen Verfasstheit.
244 5
Lambert T. Koch / Marc Grünhagen Empirisches Exemplum
Kommen wir nun zu einem empirischen Beispiel, das den zeitlichen Kontext staatlicher Regulierungsmaßnahmen in einem innovativen Teilbereich des deutschen Gesundheitsmarktes analysiert. Dabei soll exploriert werden, wie institutionelle Maßnahmen das Handlungsfeld innovationsorientierter Unternehmer beeinflussen. Betrachtet werden staatliche Interventionen, die auf zentrale Wettbewerbsparameter, wie etwa die Produkt- und Preisgestaltung, abzielen und insofern für die wirtschaftliche Tragfähigkeit innovativer Geschäftsideen von jungen Unternehmen wesentlich sein können. Im Mittelpunkt steht die Frage, wie mögliche Zeitfenster im Vorfeld solcher Eingriffe das Entstehen und Ausnutzen unternehmerischer Gelegenheiten begünstigen bzw. einschränken. Dabei wird an die zuletzt formulierten Thesen als Extrakt der vorherigen Überlegungen angeknüpft. Die Entrepreneurship-Literatur liefert zahlreiche theoretische und empirische Beiträge zum allgemeinen Erkennen und Ausnutzen von Geschäftsgelegenheiten,41 jedoch nicht zum spezifischen Aspekt „institutioneller Zeitfenster“ im unternehmerischen Prozess. Für einen ersten empirischen Zugang wird daher ein qualitativer Fallstudienansatz verwendet, der für eine explorative Analyse unternehmerischen Akteursverhaltens und der Unternehmensumwelt allgemein als geeignet anzusehen ist.42
5.1 Untersuchungsfall und Methode Als Beispielfall wird der Teilmarkt für das Angebot neuer Disease Management Programme (DMP) in Deutschland im Zeitraum von 2000 bis Ende 2003 gewählt. Diese Wahl ergibt sich aus folgenden Überlegungen: Der Fokus auf das Öffnen und Schließen innovationsbegünstigender „windows of opportunity“ macht eine Betrachtung bereits abgeschlossener Fälle notwendig. Nur so nämlich ist neben der Alternative der Nutzung von Geschäftsgelegenheiten auch ein späteres Abbrechen oder Anpassen innovativer Unternehmensprojekte zu erfassen, wenn Reaktionen der staatlichen Seite als zu einengend empfunden wurden. Dabei wird für die Analyse junger Unternehmen in neu entstehenden Märkten der Datenzugang allgemein als schwierig angesehen43; dies betrifft insbesondere die Erfassung abgebrochener Unternehmensprojekte.
41 42 43
Vgl. überblicksweise Shane (2003). Vgl. Hartley (1994). Vgl. z.B. Aldrich (1999).
Wandel als Chance – Innovationsimpulse u. institutionelles Unternehmertum 245 Für das damals erst im Entstehen begriffene Disease Management Segment im deutschen Gesundheitsmarkt konnte jedoch der Zugang zu zwei kommerziellen Pionierunternehmen hergestellt werden, die zu den wenigen zur Jahrtausendwende im Markt aktiven Mehrkomponenten-Anbietern gehörten. In dieser frühen Phase gab es allgemein nur sehr wenige kommerzielle Anbieter, von denen wiederum viele nur technologieorientierte DMP-Einzelkomponenten abdeckten.44 Die zwei betrachteten Fallunternehmen hatten demgegenüber bereits auch medizinische Elemente, wie z.B. Patienten-Schulungen und Ferndiagnostik mit Arztpraxen, in ihr Angebot integriert. Wesentlich ist zudem, dass eines dieser Unternehmen von den Eigentümern aufgegeben wurde, womit auch ein Abbruchfall untersucht werden kann.45 Im Folgenden wird zunächst kurz Disease Management im deutschen Gesundheitsmarkt vorgestellt. Danach wird das methodische Vorgehen näher erläutert, bevor schließlich die Falldiskussion in Bezug auf die obigen Thesen erfolgt. „Disease Management ist ein (...) Ansatz zur Förderung einer kontinuierlichen, evidenzbasierten Versorgung von Patienten mit chronischen Erkrankungen über alle Krankheitsstadien und Aspekte der Versorgung hinweg“.46 DMP gibt es in Deutschland mittlerweile für verschiedene chronische Indikationen wie etwa Asthma, Diabetes oder Herzinsuffizienz, für die bereits Programm-Zulassungen erteilt wurden, bzw. Beantragungen laufen.47 Im Kern sind DMP Intermediäre zwischen Krankenkassen, verschiedenen medizinischen Leistungserbringern (z.B. Ärzten und Krankenhäusern) sowie chronisch erkrankten Patienten.48 An diesen Schnittstellen treten innovationsorientierte kommerzielle Unternehmen vor allem im Sekundärmarkt in den Bereichen Electronic Health (z.B. Webportale oder Ferndiagnoseinstrumente), Patientenbetreuung (z.B. Informations- und Erinnerungssysteme über Call-Center-Lösungen ergänzend zur ärztlichen Regelversorgung) und Datenmanagement auf.49 Die Angebote, die entweder Einzelkomponenten oder mehrere integrierte Teile eines DMP einbeziehen, richten sich an gesetzliche und private Krankenversicherer (GKV und PKV). Diese bieten Disease Management im Primärmarkt ihren chronisch erkrankten Versicherten an, um Versorgungsverbesserungen und Kosteneinsparungen zu realisieren.50 Die Rechtslage für das Angebot von DMP sowie die Zusammenarbeit zwischen gesetzlichen Krankenkassen und einzelnen Leistungserbringern hat sich zwischen 2000 (Gesundheitsreformgesetz) und 2003 (Gesetz zur Reform des Risiko44 45 46 47 48 49 50
U.a. Adomeit et al. (2001). Zur Begründung der Wahl eines sog. „revelatory case“ siehe Yin (2003). Lauterbach (2001), S. 23. BVA (2006). Vgl. Adomeit et al. (2001). Vgl. Szathmary (1999), Lenz et al. (2001) und Adomeit et al. (2001). Siehe Lauterbach (2001).
246
Lambert T. Koch / Marc Grünhagen
strukturausgleichs in der Gesetzlichen Krankenversicherung; Risikostrukturausgleichsverordnung (RSAV)) wesentlich verändert. Daher wurde diese Spanne als Betrachtungszeitraum für die Fallstudie definiert. Die Änderungen der rechtlichen Rahmenbedingungen sind Gegenstand der Fallanalyse und werden weiter unten in Verbindung mit den Thesen 1 und 2 eingehender thematisiert.51 Der Untersuchungsfall Disease Management wurde methodisch als so genanntes eingebundenes Einzelfall-Design konzipiert,52 wobei die beiden befragten Unternehmen als Analyseeinheiten im Kontext des deutschen Disease Management Marktes angesehen werden. Die zwei Firmen wurden bewusst als Kontrastfalleinheiten gewählt, um unterschiedliche Wirkaspekte des Regulierungszeitfensters erkunden zu können.53 Unternehmen A wurde Ende der 1990er Jahre von einem niedergelassenen Arzt aus einem, ebenfalls vom Gründer initiierten, lokalen Ärztenetzwerk heraus gegründet.54 Nach Angaben des Gründers bietet das Unternehmen Krankenkassen seit 2000 hauptsächlich Call-Centerunterstützte DMP an. Das Unternehmen hatte in 2004 etwa 25 Krankenversicherungskunden und wurde, über das unten näher beschriebene gesetzliche Regelungszeitfenster hinaus, bis heute fortgeführt. Unternehmen B entstand ebenfalls Ende der 1990er Jahre und wurde von zwei Unternehmern gegründet, die zu diesem Zeitpunkt bereits ein Vertriebsunternehmen für medizinische Verbrauchsartikel führten. Unternehmen B bot ca. seit dem Jahr 2000 ein DMP für Diabetes an, eine Krankheit, an der einer der Gründer selbst leidet. Das Programm wurde in 2003 als Angebot an Krankenkassen eingestellt. Das Informations- und Datenmaterial zum deutschen Disease-ManagementMarkt und seiner rechtlichen Ausgestaltung durch den Gesetzgeber besteht aus mehreren Quellen (z.B. gesundheitsökonomische Gutachten, Verbandsstellungnahmen und Gesetzesveröffentlichungen). Das Material wurde um ein Experteninterview mit einem Disease-Management-Verantwortlichen eines großen gesetzlichen Krankenversicherers ergänzt, um Auswirkungen der sich verändernden Rechtslage auf den Markt aus einer über die Unternehmensfälle hinaus gehenden Quelle zu erfassen. Die Unternehmensdaten wurden in zwei teilstrukturierten Interviews mit den jeweiligen Unternehmensgründern erhoben. Die Interviews konzentrierten sich auf das Erkennen und Ausnutzen von Geschäftsgele51 52 53
54
Ein Überblick zur Entwicklung der Rechtslage für DMP findet sich ferner in Lauterbach (2001) und BVA (2006). In Anlehung an Yin (2003). Zur theorieorientiert bewussten Fallauswahl vgl. allgemein Miles und Huberman (1994) und Lamnek (2005); hinsichtlich der Wahl von Kontrastfällen vgl. Brannen (1992). Bei unserer Auswahl besteht der Kontrast insbesondere darin, dass das Unternehmen B im Zeitfenster abgebrochen wurde, während Unternehmen A bis heute existiert. Um die Vertraulichkeit der Unternehmensangaben zur wahren, wird die Darstellung anonymisiert.
Wandel als Chance – Innovationsimpulse u. institutionelles Unternehmertum 247 genheiten im deutschen Disease-Management-Markt. Insbesondere wurden Auswirkungen der rechtlichen Rahmenbedingungen für kommerzielle DMP im Zeitablauf aus Unternehmersicht besprochen. Das Experten- und die Unternehmensinterviews dauerten jeweils zwischen einer und zwei Stunden.55 Ein Unternehmensinterview wurde als Telefoninterview durchgeführt, die anderen waren Face-to-Face-Gespräche. Die Interviews wurden gemeinsam mit einem verwandten Forschungsprojekt56 bereits im Frühjahr 2004 zeitnah im Anschluss an den Betrachtungszeitraum der Fallstudie geführt. Eine solche retrospektive Befragung unmittelbar beteiligter Akteure ist freilich der Gefahr von Verzerrungen ausgesetzt.57 Um die Validität des Designs zu erhöhen, wurden in den Interviews sowohl direkte als auch indirekte Fragen gestellt und weitere Dokumentquellen, wie beispielsweise Businesspläne und Presseinformationen der Unternehmen, einbezogen.58 Die Datenauswertung erfolgte über sog. „table shells“.59 Hierbei wurden aus den Daten gebildete Aussagenkategorien zum Wahrnehmen und Weiterführen der DMP-Geschäftsgelegenheit mit rechtlichen und anderen Umweltaspekten (etwa der Akzeptanz bei Krankenkassen und Kapitalgebern) im Zeitablauf verbunden.60 5.2 Fallergebnisse Zu These 1: Im Mittelpunkt der ersten obigen These steht die Wahrnehmung von Geschäftsgelegenheiten durch innovative Unternehmer auf Basis der Annahme, dass die Phase der öffentlichen Willensbildung zur Setzung eines detaillierten Rechtsrahmens für neu entstehende Produkt- und Dienstleistungsangebote hinreichend lange dauert. Nun ist das hier exemplarisch betrachtete deutsche Gesundheitswesen traditionell von Elementen staatlicher Regulierung zentraler Wettbewerbsparameter, vor allem im Bereich der gesetzlichen Krankenversicherung, geprägt.61 Insofern war der Staat in diesem Fall auch bereits in die Entstehung der Möglichkeit zur kommerziellen Vermarktung von Disease-Management-Dienstleis55 56 57 58 59 60 61
Die Interviews wurden auf Wunsch eines Interviewpartners nicht auf Tonband aufgezeichnet; die Analyse erfolgte daher auf Basis von Gesprächsnotizen des Interviewers. Siehe dazu Grünhagen (2004). Vgl. hierzu ähnlich Hisrich und Jankowicz (1990). Zur Validitätssicherung durch solche Maßnahmen siehe z.B. Yin (2003) oder Pauwels/Matthyssens (2004). Vgl. Miles/Huberman (1994). Insgesamt erfolgte die neuerliche Auswertung für das hier präsentierte Forschungsprojekt in Anlehnung an Pasanen (2005). Vgl. Daumann und Oberender (1997).
248
Lambert T. Koch / Marc Grünhagen
tungen in 2000 involviert. Der zentrale Entstehungsimpuls ergab sich seinerzeit aus dem Gesundheitsreformgesetz 2000, das im Rahmen von Modellvorhaben nach §§ 63 bis 65 SGB V Direktverträge der GKV mit einzelnen Vertragsärzten ermöglichte und damit wichtige Vertragsgrundlagen für DMP bereitete.62 Als weitere Basis für DMP sollte in dieser Gesundheitsreform die integrierte Versorgung als Regelversorgung vorbereitet werden.63 Die vom Gesetzgeber zu dieser Zeit geschaffene Rechtsgrundlage für Verträge von Leistungserbringern mit Krankenkassen sah jedoch noch keine differenzierten Regelungen zur Zulassung und inhaltlichen Gestaltung von DMP vor. Aus Sicht der befragten Fallunternehmen stellte sich die Situation von daher wie folgt dar. Für Unternehmer A waren für die Entstehung und Umsetzung der DMPGeschäftsidee zwei Aspekte wesentlich. Erstens wurde das DMP-Angebot der Firma aus seinen medizinischen Erfahrungen mit DMP in den USA aufgebaut. Zweitens wollte der Gründer mit seinem Angebot frühzeitig am Markt sein, um den ständigen Bedarf nach mehr Kosteneffizienz bei gleichzeitig hoher Versorgungsqualität im deutschen Gesundheitswesen zu adressieren. Dieses Angebot von DMP wurde aus seiner Sicht mit der Verbreitung von Ärztenetzen und der Vertragsgrundlage des § 140 SGB V64 auf breiter Basis möglich. Dabei gibt der Befragte an, dass die damaligen Rahmenbedingungen die Gelegenheit boten, ein hochwertiges DMP nach den Kompetenzen resp. einschlägigen medizinischen Erfahrungen des Gründers aufzubauen und den Kassen anzubieten; diese Chance habe man ergriffen. Die Qualität des DMP-Konzepts von Unternehmen A lag dabei insbesondere in der Integration der behandelnden Arztpraxen. Dabei nahm das Unternehmen am Anfang an, dass man – schon damals vermutete – spätere öffentliche Vorgaben über die Ausgestaltung von DMP bedienen könne, wenn man bereits ein qualitativ hochwertiges Angebot „am Markt“ hätte. Auch Unternehmen B berichtete von einer hohen Qualität des eigenen DMP-Angebots für Diabetiker, die sich insbesondere aus der großen Erfahrung der Gründer mit der betreuten Patientengruppe ergab. Beispielsweise hatten die Gründer von B mit ihrem Unternehmen für Diabetesbedarf schon vorher Kompetenzen im Bereich Patientenführungssysteme aufgebaut. Zentraler Impuls für die Gründung von Unternehmen B war es, ein patientenzentriertes DMP so zu konzipieren, wie man es aus den eigenen Erfahrungen mit der Diabetes-Krankheit für richtig hielt. Dies sollte frühzeitig geschehen, wobei man u.a. seitens des 62 63
64
Lauterbach (2001). Vgl. Maag (2001) in Bezug auf § 140 SGB V. Die Gesetzesgrundlage hierzu wurde bereits mit dem 1. und 2. GKV-Neuordnungsgesetz in 1997 geschaffen und findet sich in §§ 140 ff. SGB V. Auf diese Chance auf Basis der obigen Rechtsgrundlage geht auch der schriftliche Geschäftsplan des Unternehmens aus dem Jahr 2000 ein.
Wandel als Chance – Innovationsimpulse u. institutionelles Unternehmertum 249 Unternehmens damals davon ausging, dass die öffentliche Positionierung zur Gestaltung von DMP noch sehr lange brauchen werde. Insgesamt wird deutlich, dass bei den Fallunternehmen zu Beginn die Chance, ein eigenes, als wettbewerbsfähig empfundenes DMP zu entwickeln und am Markt kommerziell anzubieten, zentral war. Dabei stand die relative Gestaltungsfreiheit ohne engere gesundheitsrechtliche Vorgaben im Mittelpunkt. Spätere Regulierungen durch den Gesetzgeber wurden zwar von Beginn an vermutet, jedoch als unproblematisch (Fall A) bzw. erst in fernerer Zukunft relevant (Fall B) eingestuft. D.h. die zeitlich verzögerte Rechtsetzung und das somit temporäre institutionelle Vakuum mögen an dieser Stelle vielleicht nicht alleinig konstitutiv für die von den Unternehmern wahrgenommene „opportunity“ gewesen sein. Beides hat jedoch zweifelsfrei mit dazu beigetragen, dass die Gelegenheit, ein unternehmensspezifisches DMP wettbewerbsfähig vermarkten zu können, zum damaligen Zeitpunkt als lohnend wahrgenommen und genutzt wurde. Für den Gesamtmarkt diagnostiziert Lauterbach dann auch, dass sich bereits sehr frühzeitig kommerzielle und teil-kommerzielle Anbieter technologischer und medizinischer Komponenten von DMP im Markt positioniert hatten, noch bevor genauere rechtliche Regelungen zur Gestaltung von DMP und deren Integration in den Risikostrukturausgleich der GKV gefasst wurden.65
Zu These 2: Die zweite These stellt auf die Wirkung vorschneller institutioneller Einschränkungen unternehmerischer Freiheit bei der „Erprobung“ konkurrierender innovativer Problemlösungen auf relevanten Märkten ab. Die rechtliche Situation für das Angebot von DMP hat sich nach der zu These 1 beschriebenen Pionierphase bis 2003 deutlich verändert. Die vom Gesetzgeber initiierten Steuerungsmaßnahmen zur Qualitätssicherung wurden mit dem Gesetz zur Reform des Risikostrukturausgleichs in der Gesetzlichen Krankenversicherung entwickelt und umgesetzt.66 Nach einem mehrjährigen Entwurfs- und Entwicklungsprozess, in dem ein vom Gesetzgeber beauftragter Koordinierungsausschuss aus Spitzenverbänden der Krankenkassen, Kassenärzten, Krankenhäusern und der allgemeinen Ärzteschaft geeignete chronische Krankheiten empfahl (vgl. § 137f SGB V), wurden in 2003 rechtsverbindliche Programmanforderungen und Bewertungskriterien für DMP kodifiziert.67 Ordnungspolitisches Ziel war es dabei von Anfang 65 66 67
In Lauterbach (2001). Vgl. BVA (2006) und, für die vorherige gesetzliche Entwicklung, Lauterbach (2001). Die gesetzliche Bekanntgabe erfolgte mit der 4. Verordnung zur Änderung der Verordnung über das Verfahren zum Risikostrukturausgleich in der GKV (Risikostrukturausgleichsverord-
250
Lambert T. Koch / Marc Grünhagen
an, das Angebot von DMP zukünftig eng mit dem Risikostrukturausgleich zwischen den gesetzlichen Krankenversichern zu verbinden.68 Mit diesen gesetzlichen Regelungen geht eine erhebliche Standardisierung des DMP-Angebots einher, da der Gesetzgeber hierin genaue Zulassungs- und Evaluationsregeln für DMP festgesetzt hat. Auf das obige Modell (siehe Abbildung 1) bezogen, handelt es sich mithin um institutionelle Festsetzungen auf Ebene 2, die für die einzelnen Marktakteure bei der Gestaltung von Ebene-3Parametern als invariante Restriktionen hinzunehmen sind – von der Möglichkeit künftiger Gesetzesanpassungen in Folge teurer und langwieriger Lobbyarbeit einmal abgesehen. Bei den Regelungen handelt es sich sowohl um medizinische wie auch ökonomische Aspekte, etwa für strukturierte Behandlungsprogramme bei Diabetes.69 Konkret betreffen sie u.a. medizinische Qualitätsstandards, Patientenaufnahme, Schulungsmaßnahmen, Behandlungsrichtlinien, Dokumentationen sowie den Datenschutz. Neben der laufenden Programmevaluation haben die entsprechenden Maßstäbe auch für die Akkreditierung von DMP Bedeutung, wobei die Zulassungsentscheidung in Deutschland seit 2003 dem Bundesversicherungsamt (BVA) obliegt. Diese rechtliche Situation wurde von den Fallunternehmen wie folgt aufgenommen. Aus Sicht von Unternehmer A müssen kommerzielle DMP-Angebote an Kassen mit der Anpassung der RSAV unbedingt kompatibel zur neuen Rechtsituation sein, da für die Kassenkunden als Kostenträger nur so ein Budgetausgleich für Kosten des DMP möglich wird. Das eigene DMP-Angebot von Unternehmen A habe einerseits die Kriterien des BVA zum Teil erfüllt, andererseits seien Anpassungsmaßnahmen erforderlich gewesen. Dies wurde von Unternehmer A als notwendige strategische Anpassung an sich veränderte Umweltbedingungen aufgefasst. Es sei für sein Unternehmen zum Glück einigermaßen zu bewältigen gewesen, da das DMP-Angebot von Anfang an medizinisch solide gestaltet war. Andere Anbieter hätten hier vielleicht mehr Probleme gehabt, da die staatliche Regulierung weitergehend ausgefallen wäre, als zu Anfang (d.h. bei Geschäftsaufnahme in 2000) vermutet. Insgesamt schätzt Unternehmer A die in der Änderung der RSAV sehr differenziert regulierte Koppelung von DMP an
68
69
nung) (BVA (2006)). Diese Verordnung betraf die DMP Brustkrebs und Diabetes Typ II. Weitere DMP wurden in weiteren Verordnungen einbezogen (vgl. VdAK/AEV (2003) sowie BVA (2006)). Vgl. bereits Lauterbach (2001). Die damit einhergehende Umstellung des RSA von der Abgeltung demographischer Versichertenrisiken (insb. Alter und Geschlecht) auf tatsächliche Morbiditätsrisiken (insb. chronische Krankheitsbilder von Versicherten in DMP) war dabei für 2007 vorgesehen. Die Finanzgestaltung von DMP erfolgte daher bislang über zwei schon existierende Instrumente, den Risikopool und über die strukturierten Behandlungsprogramme nach § 137 f und g SGB V selbst (BVA (2006)). Vgl. BVA (2005) für den Kriterienkatalog Diabetes.
Wandel als Chance – Innovationsimpulse u. institutionelles Unternehmertum 251 den RSA als „hochformalistisch“ ein und rechnet sogar mit einer späteren Rückführung der starren Zulassungs- und Evaluationsregelungen. Unternehmen B hatte sein DMP-Angebot sehr aufwendig und patientenzentriert gestaltet. Angabegemäß erfüllte es jedoch nicht die Akkreditierungsvoraussetzungen des Gesetzgebers. Eine Anpassung des eigenen Angebots kam für Unternehmen B nicht in Frage („ (...) da machen wir nicht mit“). Die Kriterienvorgaben für Diabetes-DMP wurden als unpassend und nicht patientengerecht empfunden. Auch die Preisvorgaben, die aus Sicht des Unternehmers indirekt über die RSA-Budgetierung entstünden, seien weder ökonomisch noch medizinisch tragbar, um eine hochwertige privatwirtschaftliche Diabetikerbetreuung realisieren zu können. Unter anderem da man sich nicht an den neuen RSAVKriterienkatalog anpassen wollte, wurde das unternehmerische Angebot von DMP-Dienstleistungen an Krankenkassen und die Akquisition von Krankenkassenkunden in 2003 eingestellt. Im Kontext dieser rechtlichen Einwirkungen spielte für das Unternehmen hier nicht nur das ökonomische Problem, das Angebot des Unternehmens kostenaufwendig ändern zu müssen, eine Rolle, sondern auch das persönliche Motiv, sein DMP nicht mehr so wie gewünscht betreiben zu können. Zu bemerken ist allerdings, dass bei dieser Abbruchentscheidung, über die Wirkungen der veränderten rechtlichen Situationen hinaus, auch die Schwierigkeit, mit dem bisherigen DMP Kassenkunden zu gewinnen sowie die Möglichkeit, sich wieder auf das Versandunternehmen zu konzentrieren, Bedeutung hatten.70 Für den Gesamtmarkt wurde aus Sicht des Krankenkassen-Experten mit der engeren Regulierung eine deutliche Marktbereinigung sichtbar. Insgesamt werden hier eher die Unternehmen im Markt bleiben, die eine gewisse Größe gewonnen haben, neben technischen auch medizinische Komponenten integrieren und sich mit ihrem Angebot sehr eng an den Kassen und den gesetzlichen Regulierungsmaßnahmen orientieren. Eine solche Konsolidierung, Standardisierung und Reduzierung des Marktangebots mit Wettbewerbsverlusten wurde ebenfalls bereits von Lauterbach vermutet.71 Ingesamt erscheint die Veränderung der Marktsituation von DMP zwischen 2000 und 2003 von einer deutlichen staatlichen Regulierung der Marktzulassung und des Anbieterwettbewerbs geprägt. Mit dem Gesetz zur Änderung des Risikostrukturausgleichs der GKV/ RSAV wurden zentrale Wettbewerbsparameter im Sekundärmarkt reguliert. Dies betrifft vor allem die Produkt- und Preisgestaltung von Komponenten-Angeboten für DMP
70
71
Dies korrespondiert mit allgemeinen Ergebnissen der Erforschung selbständiger Unternehmer, die oft Abbruch-Konstellationen mit entsprechenden Beweggründen (u.a. berufliche Alternativen) vorfindet (vgl. allgemein Storey (1994)). Vgl. Lauterbach (2001).
252
Lambert T. Koch / Marc Grünhagen
über die vereinbarten Zulassungs-, Evaluations- und Finanzierungsrichtlinien.72 Auf der Seite anbietender Unternehmen äußert sich diese Rahmensetzung Schritt für Schritt in einer Anpassung des eigenen Angebots an diese Vorgaben oder gar in einer Einstellung des Marktangebotes und Schließung des Unternehmens respektive von Unternehmensteilen. Dies bestätigt sich auch für die Fallunternehmen: Mit dem Abbruch von Unternehmen B und der Anpassung des Angebots von Unternehmen A wurden unternehmerische Einzelerfahrungen aus vorherigen Projekten zur Diabetikerführung (Unternehmen B) bzw. aus medizinischen Forschungsaufenthalten in den USA (Unternehmen A) zumindest teilweise aus dem Wissen generierenden unternehmerischen Wettbewerb um DMP eliminiert. Ob hierbei in normativer Hinsicht eine zu frühe Schließung des Zeitfensters zum ökonomischen wie medizinischen Hypothesentest neuartiger DMP-Angebote erfolgte, ist damit zunächst noch nicht gesagt. Interessant ist an dieser Stelle jedoch zweierlei. Erstens deutet die Rhetorik des Gesetzgebers, der in den Gesetzesgrundlagen von 2000 und davor von der Erprobung neuer Versorgungsformen spricht, an, dass zunächst ein Ausprobieren verschiedener allgemeiner Versorgungs- und DMP-Lösungen sogar ausdrücklich intendiert war.73 Zweitens entbrannten im Gesetzgebungsverfahren zur Änderung der RSAV in 2003 noch erhebliche Diskussionen über die geeignete Ausgestaltung und kriteriengebundene Zulassung von DMP. Diese Debatten betrafen die Unsicherheit über die medizinische Wirksamkeit und ökonomische Effizienz von DMP74, die geeignete Anreizsetzung für Leistungserbringer und Krankenkassen als Kostenträger75, den wissenschaftlichen Gehalt der Bewertungskriterien76 sowie den Umgang mit Datenschutzaspekten77. D.h. die gesetzgeberische Festsetzung der Gestaltung von DMP trat zumindest bereits zu einem Zeitpunkt ein, der anerkanntermaßen noch von erheblicher Unsicherheit hinsichtlich der „richtigen“ Lösungen geprägt war. Mit der RSAV hat man sich dennoch entschieden, die weitere Erprobung der Gestaltung medizinisch effektiver und ökonomisch effizienter DMP nicht länger im weiten Wettbewerb der anbietenden Leistungserbringer um Krankenkassen und deren Versicherte, sondern aus einer staatlich regulierteren medizini72 73 74
75 76 77
Zu ähnlichen Fällen staatlicher Wettbewerbsregulierung im deutschen Gesundheits- und Arzneimittelmarkt siehe Daumann/Oberender (1997). Vgl. Maag (2001) oder Adomeit et al. (2001), die hier von einem Testfall Deutschland sprechen, in dem DMP marktbreit erprobt werden. Z.B. Adomeit et al. (2002) oder Raspe et al. (2004). Die Wirksamkeit von DMP war in diesem Zeitraum im Übrigen auch nach längerer Erprobung in den USA strittig (vgl. z.B. Sidorov (2002)). IGES (2003). Vgl. IGES (2003). Z.B. Dammert (2003).
Wandel als Chance – Innovationsimpulse u. institutionelles Unternehmertum 253 schen Standardisierung heraus weiterzuführen. Es wurde bewusst das Potenzial dezentraler Wissenskollektion über den Markt, bzw. die beteiligten Unternehmen und Nachfrager, zu Gunsten einer zentralisierten Ex-ante-Harmonisierung unausgeschöpft gelassen, was als politische Herangehensweise im Gegensatz zur US-amerikanischen Praxis steht. Lauterbach (2001) etwa erläutert, wie dort die Etablierung von DMP deutlich stärker der Eigendynamik des Wettbewerbs überlassen wurde und wird. Hierbei beinhaltet im Übrigen der Wettbewerb selbst durchaus auch Kontrollmechanismen, die schlechte DMP-Angebote ausselektieren, wenn sich aus Kundensicht keine Kosteneinsparungen und Versorgungsverbesserungen erzielen lassen.78 Wirkungen des in Deutschland eingeschlagenen Standardisierungsweges werden auch mit Blick auf die getroffenen Verbraucherschutzregelungen (in diesem Fall: Patientenschutz) deutlich. Dies soll an den in der obigen Debatte zuletzt erwähnten Datenschutzfragen ersichtlich werden. Hier, wie auch bei den medizinischen Qualitätskriterien von DMP, muss der Gesetzgeber zwischen der Eingrenzung des Experimentierfeldes einerseits sowie der unterstützenden Etablierungsfunktion solcher Absicherungen andererseits abwägen.
Zu These 3 und 4: These 3 argumentiert, dass auch Überregulierungen übergeordneter Rechtsbereiche dem Markt Experimentierungschancen nehmen. Für den Betrieb von DMP ist hier insbesondere die rechtliche Gestaltung des Zugangs zu und der Nutzung von Patientendaten im Rahmen des allgemeinen Datenschutzes kritisch. Zu erinnern ist an die Debatte um den „gläsernen Patienten“, die im Vorfeld und Nachgang der Gesetzesänderungen in 2003 aufkam.79 Die Einigung der Kassen- und Ärzteverbände sowie der Politik über die Regelung des Datenflusses in DMP mündete in einen Minimalkonsens, der nur die eben notwendigen Daten zur DMP-Steuerung für die Krankenkassen beinhaltet.80 Aus Sicht von Unternehmer A fällt man mit dieser engen Datenschutzregelung hinter das zurück, was ein DMP sowohl in der Patientenversorgung als auch in der Integration der Leistungserbringer und Krankenkassen technisch und operativ, etwa in der Dateneffizienz und im medizinischen Compliance Management, leisten könnte. Neben dieser Einschränkung des technologisch Möglichen haben Datenschutzregeln aus Sicht von Unternehmen A und auch Unternehmen B gleichwohl 78 79 80
Vgl. allgemein Daumann/Oberender (1997). Vgl. z.B. ULD (2004). Vgl. Dammert (2003). Dies betrifft beispielsweise Behandlungs- und Medikationsdaten zur Gestaltung von Erinnerungssystemen.
254
Lambert T. Koch / Marc Grünhagen
auch unterstützende Bedeutung. Diese liegt insbesondere im Vertrauenspotenzial für Patienten, die vermutlich eher an DMP teilnähmen, wenn der Schutz sensibler Sozial- und Gesundheitsdaten gesichert wäre und kommerzielle Anbieter von DMP staatlicher Akkreditierung und allgemeinen Qualitätsstandards unterlägen.81 Hierzu bemerkt Unternehmer A, dass – so formalistisch die Bewertungskriterien des BVA auch seien – diese zugleich ein Vermarktungsargument für das eigene DMP böten. Da das Angebot des Unternehmens die hohen gesetzlichen Anforderungen erfülle, entstünden Vorteile für die Akquisition von Krankenkassenkunden, teilnehmenden Arztpraxen und Patienten. Insgesamt geht auch für Lauterbach mit einer medizinischen und operativen Standardisierung von DMP eine Zunahme an Transparenz in dem, wie oben angedeutet, vor 2003 eher heterogenen und unübersichtlichen Sekundärmarkt einher.82 Allerdings bildet diese Heterogenität aus evolutionsökonomischer Sicht gerade das in These 1 und 2 beschriebene Experimentierungs- und Variationspotential. Genau in den letzten beiden Gedanken liegt die in These 4 angedeutete Balance, die der Gesetzgeber halten muss. Wenn man denn für den sensiblen Gesundheitsmarkt im Allgemeinen, und für die Behandlung chronisch Kranker in DMP im Besonderen, den Weg einer stärkeren staatlichen Intervention einschlägt, liegt die Balance gerade darin, sich an mit ethisch-moralischen Regeln konforme, medizinische und ökonomische Mindeststandards83 zu halten und gleichzeitig ein Experimentieren oberhalb dieser Untergrenze zuzulassen.84 Zusätzlich könnten im Gesetz zu Grunde gelegte Kriterien zur Qualitätssicherung flexibel gehalten werden, sollten der Betrieb von DMP im Markt oder die medizinische Forschung hier neue Erkenntnisse liefern. Dies ist mit einer beabsichtigten regelmäßigen Aktualisierung der Bewertungskriterien von DMP in Deutschland auch vorgesehen.85
6
Ausblick
Für eine Zusammenfassung sind nochmals die wesentlichen Aussagen, die zuletzt auch durch die gewählte Fallstudie veranschaulicht werden sollten, zu rekapitulieren. Im Mittelpunkt stand die Überlegung, dass mit der Dauer verände81 82 83 84
85
Vgl. hierzu auch Zaumseil et al. (2002). Lauterbach (2001). Etwa für Behandlungsstandards und den angesprochenen Schutz persönlicher Daten. Eine Alternative zur politischen Regulierung besteht in der Auslagerung von Kontroll- und Überprüfungspflichten für DMP-Angebote im Sekundärmarkt auf die Marktakteure selbst, wo zumindest die Krankenkassen über genügend Bewertungskompetenz verfügen sollten (vgl. zu dieser Möglichkeit allgemein Benkert (1999)). Vgl. Gemeinsamer Bundesausschuss (2005).
Wandel als Chance – Innovationsimpulse u. institutionelles Unternehmertum 255 rungsinduzierter Anpassungsprozesse auf Märkten und nachfolgend auf handlungsrechtlicher Ebene auch die auf Entrepreneure ausgehende Motivation variiert, lässt doch die Aussicht auf länger anhaltende gesellschaftliche Klärungsprozesse zu möglichen Problemlösungen es als ökonomisch lohnend erscheinen, in alternative Pfade der Entwicklung innovativer Angebote zu investieren. Die Tatsache, dass solche Anpassungsprozesse „dauern“ und so „windows of opportunity“ darstellen, ist aus der hier gewählten evolutorischen Sicht mithin nicht als Markt- oder Politikunvollkommenheit zu interpretieren, sondern als zentrales Merkmal funktionierender Marktwirtschaften. So erscheint auch die Beschleunigung des globalen technologischen Wandels als Chance für Entrepreneure und Intrapreneure – vorausgesetzt, die Politik erkennt dies und hält den institutionellen Rahmen in der zuvor dargestellten Weise flexibel, um innovatorische und unternehmerische Handlungsabsichten zu befördern. Dabei kommt es allerdings aus institutionentheoretischer Perspektive auf einen sensiblen Ausgleich zwischen notwendigem Experimentierungsspielraum und vertrauenschaffender Regelbindung an. Hieraus resultiert für die Wirtschafts- und insbesondere die Innovationspolitik ein ständiger Überprüfungssowie ggf. Justierungsbedarf. Dies zielt insbesondere auf jene Veränderungsaktivitäten, die von „Institutional Entrepreneurs“ selbst angestoßen werden, indem sie neue Regelungsbedarfe erzeugen (z.B. bei neuen medizinischen Dienstleistungen) und die Regelungseinführung aktiv mit gestalten. Ähnlich wie der globalisierungsbedingte Anpassungsbedarf mit seinen resultierenden „windows of opportunity“ aus unternehmerischer Sicht mehr Chancen denn Risiken bietet und insofern wirtschaftpolitischer Globalisierungspessimismus unangebracht erscheint, sollten im Übrigen auch konjunkturelle Schwankungen nicht zu vorschnellen politischen Egalisierungsbemühungen unter dem Stichwort „Konjunkturpolitik“ verleiten. Auch wenn dieser Gedanke hier nur ausblicksartig angefügt sei, ist doch zumindest auf eine gewisse Übertragbarkeit oben formulierter Schlussfolgerungen hinzuweisen. So kommt auch konjunkturellen Friktionen aus der hier vertretenen Sicht eine wichtige Katalysewirkung zu, denn sie indizieren einen breiten Problemlösungsbedarf über Märkte hinweg. Dabei erhöht sich der pathologische Druck in Volkswirtschaften, und die Bereitschaft zu radikaleren Änderungen mit entsprechenden Effizienzgewinnen wächst. Damit sind solche Phasen wiederum für Entrepreneure (und Intrapreneure) lukrativ – nicht zuletzt auch mit Blick auf die Faktormärkte, da reichlich Arbeitskräfte und billiges Kapital zur Realisierung neuer Problemlösungsangebote bereitstehen.86 Gleichermaßen gilt auch hier, dass in derartigen Situationen der Staat keine vorschnelle „Abbruchpolitik“, in diesem Falle gerne 86
Vgl. zu Letzterem Goodwin (1967) sowie Schohl (1999).
256
Lambert T. Koch / Marc Grünhagen
als Konjunkturpolitik apostrophiert, betreiben darf, da die relevanten Katalyseprozesse Zeit benötigen. Wenn zur Veranschaulichung des Zusammenhangs zwischen ökonomischem Wandel, sei er allgemein-wirtschaftlich, konjunkturell oder globalisierungsinduziert, im letzten Teil des Aufsatzes ein exploratives Design gewählt wurde, so mag dies auch auf klare Desiderata verweisen: Die in der MainstreamÖkonomik aus dogmengeschichtlicher Sicht vergleichsweise lang dominierende Verengung auf eine modelltheoretische Ausblendung endogener Anpassungsprozesse und ihrer Logik bedingt auch auf empirischer Seite einen gehörigen Nachholbedarf. Fallstudiendesigns können hier nur Vorreiter für breit angelegte quantifizierende Studien sein, die den systematischen Wert von ökonomischen Anpassungsprozessen und ihrer politisch-institutionellen Gewährung fokussieren. Literatur Adomeit, Alin et al. (2001): A new model for disease management, The McKinsey Quarterly 4/2001, S. 92-101. Adomeit, Alin et al. (2002): Disease Management – ein Milliardengrab, McKinsey Health, 2/2002, S. 16-23. Aldrich, Howard. E. (1999): Organizations Evolving. Thousand Oaks et al. 1999. Aldrich, Howard. E. (2000): Entrepreneurial Strategies in New Organizational Populations, in: Swedberg (Hrsg.) (2000), S. 211-228. Bender, Karen L./Westgren, Randall E. (2001): Social Construction of the Market(s) for Genetically Modified and Nonmodified Crops, The American Behavioral Scientist 44 (2001), S. 1350-1370. Benkert, Wolfgang (1999): Ein Plädoyer für staatliche Zurückhaltung bei der Regulierung von Umweltnutzungskonflikten, in: Bizer et al. (Hrsg.) (1999), S. 151-168. Bergh, Jeroen C. J. M. van den/Gowdy, John M. (2003): The Microfoundations of Macroeconomics. An Evolutionary Perspective, Cambridge Journal of Economics 27 (2003), S. 65-84. Bizer, Kilian et al. (Hrsg.) (1999): Staatshandeln im Umweltschutz, Berlin 1999. Brannen, Julia (1992): Combining qualitative and quantitative approaches. An overview, in: Brannen (Hrsg.) (1992), S. 3-38. Brannen, Julia (Hrsg.) (1992): Mixing Methods. Qualitative and quantitative research. Aldershot et al. 1992. Budzinski, Oliver (2003): Cognitive Rules, Institutions, and Competition, Constitutional and Political Economy 4/2003, S. 213-233. Bünstorf, Guido (2007): Creation and Pursuit of Entrepreneurial Opportunities. An Evolutionary Economics Perspective, Small Business Economics 28 (2007), S. 323-337. BVA (2005): Kriterien des Bundesversicherungsamtes zur Evaluation strukturierter Behandlungsprogramme bei Diabetes mellitus Typ 2, Berlin 2005.
Wandel als Chance – Innovationsimpulse u. institutionelles Unternehmertum 257 BVA (2006): Zulassung der Disease Management Programme (DMP) durch das Bundesversicherungsamt (BVA), www.bva.de, eingesehen am 19. Sept. 2006 Cassell, Catherine/Symon, Gillian (Hrsg.) (1994): Qualitative Methods in Organizational Research. Practical Guide, Thousand Oaks et al. 1994. Dammert, Matthias (2003): Disease Management Programme in Deutschland. Welche Daten werden zur Steuerung und Evaluation benötigt? Berlin 2003. Daumann, Frank/Oberender, Peter (1997): Der Arzneimittelmarkt im Spannungsfeld seiner institutionellen Umgebung, in: Delhaes/Fehl (Hrsg.) (1997), S. 235-285. David, Paul A. (1986): Narrow windows, blind giants, and angry orphans. The dynamics of systems rivalries and dilemmas of technology policy. CEPR Paper 10/1986. Stanford University. Delhaes, Karl von/Fehl, Ulrich (Hrsg.) (1997): Dimensionen des Wettbewerbs. Seine Rolle in der Entstehung und Ausgestaltung von Wirtschaftsordnungen. Stuttgart 1997. Eucken, Walter (1960): Grundsätze der Wirtschaftspolitik. Zürich 1960. Feinstein, Charles H. (Hrsg.) (1967): Socialism, Capitalism and Growth. London 1967. Gemeinsamer Bundesaussschuss (2005): Newsletter Nr. 6 / Juni 2005, Berlin. Goodwin, Richard M. (1967): A Growth Cycle, in: Feinstein (Hrsg.) (1967), S. 54-58. Grichnik, Dietmar/Immerthal, Lars (2005): Rationalität und Risiko der Gründungsentscheidung, Die Betriebswirtschaft 6/2005, S. 563-583. Groenewegen, John et al. (Hrsg.) (1995): Economic Institutions. Theory and Applications. Aldershot 1995. Grünhagen, Marc (2004): Managing Organizational Legitimacy in the Financing Process of New Firms. Cases from the German Disease Management Industry. Konferenzbeitrag. 24rd BKERC 2004. Babson, Mass., USA. Guerrero, Maribel et al. (2008): The impact of desirability and feasibility on entrepreneurial intentions. A structural equation model, International Entrepreneurship Management Journal 4/2008, S. 35-50. Hartley, Jean F. (1994): Case Studies in Organizational Research, in: Cassell/Symon (1994), S. 208-230. Hayek, Friedrich A. von (1967): Freiburger Studien, Tübingen 1967. Hejl, Peter M. (2000): Das Ende der Eindeutigkeit. Eine Einladung zum erkenntnistheoretischen Konstruktivismus, in: Stahl/Hejl (Hrsg.) (2000), S. 33-64. Hesse, Günther/Koch, Lambert T. (1997): Volkswirtschaftliche Theorie wirtschaftlichen Wandels, in: Walter (Hrsg.) (1997), S. 499-536. Hisrich, Robert D./Jankowicz, Andrew D. (1990): Intuition in Venture Capital Decisions. An Exploratory Study Using a New Technique, Journal of Business Venturing 5/1990, S. 49-62. Ho, Yuen Ping/Wong, Poh Kam (2005): Availability of financing, regulatory business costs and national entrepreneurial propensity. Arbeitspapier. Singapore: National University of Singapore 2005. Hodgson, Geoffrey M. (2002): Darwinism in Economics. From Analogy to Ontology, Journal of Evolutionary Economics 12/2002, S. 259-281.
258
Lambert T. Koch / Marc Grünhagen
Hodgson, Geoffrey M./Knudsen, Thorbjørn (2004): The firm as an interactor. Firms as vehicles for habits and routines, Journal of Evolutionary Economics 14 (2002), S. 281-307. Holtbrügge, Dirk/Wessely, Birgit (2007): Initialkräfte und Erfolgsfaktoren von Born Global Firms, in: Oesterle (Hrsg.) (2007), S. 169-205. IGES (2003): Voraussetzungen für ein effektives und effizientes Disease Management für Typ-II-Diabetiker und seine adäquate Finanzierung im Rahmen der gesetzlichen Krankenversicherung. Berlin 2003. Jacques, Kevin T. (2008): Capital shocks, bank asset allocation, and the revised Basel Accord, Review of Financial Economics 17 (2008), S. 79–91. Kerber, Wolfgang (1997): Wettbewerb als Hypothesentest. Eine evolutorische Konzeption wissenschaffenden Wettbewerbs, in: Delhaes/Fehl (Hrsg.) (1997), S. 29-78. Kirzner, Israel M. (1988): Unternehmer und Marktdynamik. München/Wien 1988. Koch, Lambert T. (1996): Evolutorische Wirtschaftspolitik. Tübingen 1996. Krueger, Norris F. (2000): The cognitive infrastructure of opportunity emergence, Entrepreneurship: Theory & Practice 4/2000, S. 5-23. Lamnek, Siegfried (2005): Qualitative Sozialforschung. Weinheim 2005. Lancaster, Kelvin J. (1979): Variety, Equiety and Efficiency. Product Variety in an Industrial Society. New York 1979. Lauterbach, Karl W. (2001): Disease Management in Deutschland. Voraussetzungen, Rahmenbedingungen, Faktoren zur Entwicklung, Implementierung und Evaluation. Gutachten VdAK u. AEV. Köln 2001. Lenz, Christian F. W. et al. (2001): Disease Management Online, Deutsches Ärzteblatt 98 (2001), S. 2240-2244. Liñan, Francisco M. (2008): Skill and value perceptions. How do they affect entrepreneurial intentions?, International Entrepreneurship Management Journal 4/2008, S. 257272. Lounsbury, Michael/Glynn, Mary A. (2001): Cultural Entrepreneurship. Stories, Legitimacy, and the Acquisition of Ressources, Strategic Management Journal 22 (2001), S. 545-564. Luhmann, Niklas (1984): Soziologische Aspekte des Entscheidungsverhaltens, Die Betriebswirtschaft 44 (1984), S. 591-603. Maag, Gisela (2001): Netzwerke, Gesundheitsmanagement und die Pharma-Industrie. Sinn und Zweck neuer Kooperationen, Pharma-Marketing Journal 3/2001, S. 101106. Maguire, Steve et al. (2004): Institutional entrepreneurship in emerging fields. HIV/AIDS treatment advocacy in Canada, Academy of Management Journal 47 (2004), S. 657679. Marschan-Piekkari, Rebecca/Welch, Catherine (Hrsg.) (2004): Handbook of Qualitative Research Methods for International Business. Cheltenham/Northampton 2004. Miles, Matthew B./Huberman, Michael A. (1994): Qualitative Data Analysis. Thousand Oaks et al. 1994. O’Driscoll, Gerald P./Rizzo, Mario J. (1985): The Economics of Time and Ignorance, Oxford 1985.
Wandel als Chance – Innovationsimpulse u. institutionelles Unternehmertum 259 Oesterle, Michael-Jörg (Hrsg.) (2007): Internationales Management im Umbruch. Globalisierungsbedingte Einwirkungen auf Theorie und Praxis internationaler Unternehmensführung, Wiesbaden 2007. Palandt, Otto (2005): BGB. Kommentar, München 2005. Pasanen, Mika (2005): Tracking Small Business Failure Factors and Trajectories, in: Welter (Hrsg.) (2005), S. 93-113. Pauwels, Pieter/Matthyssens, Paul (2004): The Architecture of Multiple Case Study Research in International Business, in: Marschan-Piekkari/Welch (Hrsg.) (2004), S. 125-143. Raspe, Heiner et al. (2004): Sind vorliegende Disease-Management-Progamme für Diabetes wirklich unnötig?, GGW 2/2004, S. 23-30. Rizzello, Salvatore (2000): Economic Change, Subjective Perceptions and Institutional Evolution, Metroeconomica 51 (2000), S. 127-150. Röpke Wilhelm (1949): Civitas Humana. Grundfragen der Gesellschafts- und Wirtschaftsreform, Zürich 1949. Rovenpor, Janet (2004): Explaining the e-commerce shakeout: why did so many internetbased businesses fail?, E-service Journal 3/2004, S. 53-76. Schohl, Frank (1999): Die markttheoretische Erklärung der Konjunktur, Tübingen 1999. Schumpeter, Joseph A. (1934): The Theory of Economic Development, Cambridge, Mass. 1934. Scott, W. Richard. (2001): Institutions and Organizations, Thousand Oaks et al. 2001. Shackle, Georg L. S. (1958): Time in Economics, Amsterdam 1958. Shane, Scott (2000): Prior Knowledge and the Discovery of Entrepreneurial Opportunities, Organization Science 11/2000, S. 448-469. Shane, Scott (2003): A General Theory of Entrepreneurship. The Individual-Opportunity Nexus, Cheltenham/Northampton 2003. Sidorov, Jaan (2002): Does Diabetes Disease Management Save Money and Improve Outcomes?, Diabetes Care 25 (2002), S. 684-689. Sjöstrand, Svem-Eric (1995): Towards a theory of institutional change, in: Groenewegen et al. (Hrsg.) (1995), S. 19-44. Stahl, Heinz K./Hejl, Peter M. (Hrsg.) (2000): Management und Wirklichkeit. Das Konstruieren von Unternehmen, Märkten und Zukünften. Heidelberg 2000. Stevenson, Howard H./Gumpert, David E. (1985): The heart of entrepreneurship, Harvard Business Review March / April 1985, S. 85-94. Storey, David J. (1994): Understanding the Small Business Sector. London 1994. Suchman, Marc C. (1995): Managing Legitimacy: Strategic and Institutional Approaches, Academy of Management Review 20 (1995), S. 571-610. Swedberg, Richard (Hrsg.) (2000): Entrepreneurship: The Social Science View, Oxford et al. 2000. Szathmary, Balazs (1999): Neue Versorgungskonzepte im deutschen Gesundheitswesen. Diesease Management und Case Management, Neuwied 1999. ULD (2004): ULD antwortet Bundesversicherungsamt. Sozialdatenschutz ist bei DMP in Gefahr. Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein. www.datenschutzzentrum.de, eingesehen am 19. Sept. 2006.
260
Lambert T. Koch / Marc Grünhagen
VdAK/AEV (2003): Risikostrukturausgleich. Zahlen, Fakten, Hintergründe 2001/ 2002, Siegburg 2003. Walter, Rolf (Hrsg.) (1997): Wirtschaftswissenschaften. Eine Einführung, Paderborn et al. 1997. Welser, Rudolf/Rabl, Christian (2004): Produkthaftungsgesetz. Kommentar, Wien 2004. Welter, Friederike (Hrsg.) (2005): Challenges in Entrepreneurship and SME Research. 2nd Inter-RENT Online Publication. European Council of Small Business and Entrepreneurship (ECSB), Turku 2005. Witt, Ulrich (2002): Organizational Development and the Theory of the Firm. What Does an Evolutionary Perspective Imply? Arbeitspapier. Arbeitskreis Evolutorische Ökonomik im Verein für Socialpolitik 2002. Marburg. Witt, Ulrich (2004): Beharrung und Wandel. Ist wirtschaftliche Evolution theoriefähig?, in: Erwägen – Wissen – Ethik 15 (2004), S. 33-45. Yin, Robert K. (2003): Case Study Research, Thousand Oaks et al. 2003. Zaumseil, Manfred et al. (2002): Gestaltung von Disease-Management-Programmen (DMP) aus gemeindepsychologischer und gesundheitswissenschaftlicher Perspektive. AGP Expertise. Berlin 2002. Zimmerman, Monica/Zeitz, Gerald J. (2002): Beyond survival. Achieving new venture growth by building legitimacy, Academy of Management Review 27 (2002), S. 414432.
Internationale Märkte und Innovationen. Wie innovativ sind die Chemieunternehmen in Europa? Thomas Cleff
Abstract Es gibt viele Beispiele für technologisch ausgereifte Innovationen, die sich auf internationalen Märkten nicht durchsetzen konnten. Der Grund hierfür liegt nicht selten darin, dass Unternehmen den Nutzen von Innovationen ausschließlich über deren technologische Effizienz definieren und erst später bemerken, dass die Innovation die Bedürfnisse der internationalen Kundschaft weniger erfüllt, als eine vergleichbare Konkurrenzinnovation. Im folgenden Beitrag wird untersucht, inwieweit die Marktstruktur der Länder der EU-25 die Innovationsfähigkeit seiner jeweils nationalen Chemieunternehmen beeinflusst. Mit Hilfe des Lead Market Ansatzes werden fünf entscheidende Lead Market Faktoren herausgearbeitet, durch internationale Statistiken operationalisiert und die Herstellerländer identifiziert, deren Marktstrukturen besonders gut dafür geeignet sind, die künftigen Weltstandards bei Innovationen in der Chemischen Industrie zu setzen. Before being adopted internationally, successful innovation designs tend to have been preferred in one particular country or region. These countries or regions can subsequently be labelled as Lead Markets. This paper employs a Lead Market approach to assess for each of the 25 European Union member states (EU-25) its likelihood that locally preferred innovation designs in the Chemical Industry become successful in other countries. A system of five particular demand- and country-specific attributes – the so called Lead Market factors – is regarded as critical for the probability of the market becoming a Lead Market: price advantage, demand advantage, export advantage, transfer advantage and market structure advantage. The aim of this paper is to identify and operationalise indicators
262
Thomas Cleff
to measure and compare the Lead Market properties at international level. Based on the Lead Market analysis, implications for innovation strategy are outlined.
1
Nachfrage als Innovationstreiber
Im Innovationsmanagement ist die Kenntnis über die eigene und die Innovationsfähigkeit der Wettbewerber eine wichtige strategische Aufgabe. Lange Jahre konzentrierte man sich dabei auf die angebotsseitige Bewertung der Innovationsfähigkeit: Patentanmeldungen, Ausgaben für F&E, Ausgaben für den Bildungssektor, etc. sind selbstverständlich wichtige Inputfaktoren für die Entstehung und Verbreitung von Innovationen. In Anlehnung an das Say’sche Theorem wird aber vorausgesetzt, dass das durch „technology push“ erzeugte Innovationsangebot auch durch den Markt nachgefragt wird. Man muss sicherlich nicht die extreme Meinung einiger Wissenschaftler teilen, dass der „Friedhof der nicht abgeholten Innovationen zum Platzen voll sei“1. Unbestritten ist wohl aber, dass viele Branchen – darunter auch die Chemische Industrie – eher technologiegestützt als technologiegetrieben arbeiten und neue Technologien nicht unwichtig sind, aber bei der Entwicklung neuer Märkte häufig „ins zweite Glied rücken“.2 Unternehmerische Innovationsstrategien, die den Zusatznutzen ausschließlich über den technologischen Nutzen der Produkte definieren, riskieren es, am Markt vorbei zu produzieren. Auch die Ergebnisse des dritten europäischen Community Innovation Survey (CIS-3) bestätigen die herausragende Rolle der Kunden als Impulsgeber im Innovationsprozess: Insgesamt 26 Prozent der Innovatoren bewerten deren Rolle als Quelle ihrer Innovationen mit „sehr wichtig“. Nur 12 Prozent der Unternehmen geben ihren Wettbewerber oder Unternehmen aus der gleichen Branche, rund 20 Prozent Zulieferer und rund 14 Prozent Messen als „sehr wichtigen“ Impulsgeber an. Nicht einmal vier Prozent der Innovatoren erhalten ihren wichtigsten Innovationsimpuls aus dem Bereich der Universitäten oder Forschungsinstituten. Die Notwendigkeit einer intensiven Kundeneinbindung in den Innovationsprozess ist dabei branchenabhängig. Die Chemische Industrie liegt mit 38 Prozent der Innovatoren in der Spitzengruppe der Branchen, die bei Innovationen überdurchschnittlich häufig auf Kundenwünsche zurückgreifen müssen. Nur in einigen Branchen, wie z.B. die des Maschinenbaus (40 Prozent), der F&EDienstleister (45 Prozent) und der Medizinischen/Optischen Instrumente (49 Prozent), ist die Bedeutung des Kunden noch größer. Wie gelingt es nun aber den unterschiedlichen Branchen, den Kunden jeweils derart einzubinden, dass 1 2
Real (1990), S. 26. Wengenroth (2002), S. 49.
Innovative Märkte und Innovationen. Chemieunternehmen in Europa.
263
die hieraus entstehende Innovation nicht nur auf dem heimischen, sondern auch auf dem internationalen Markt erfolgreich wird? Wenn kundengetriebene Innovationen überdurchschnittliche Exporteinnahmen erbringen, so spricht dies für ein global erfolgreiches Innovationsdesign. Den in Abbildung 1 im rechten oberen Quadranten dargestellten Branchen – und hierzu zählt auch die Chemische Industrie – gelingt dies besonders gut. Aufgrund steigender Produktentwicklungskosten und des zunehmenden Bedarfs an Standardisierung und Schnittstellenkompatibilität sind nationalen oder z. T. auch kundenspezifischen Lösungen ökonomische und praktische Grenzen gesetzt. Ein Kunde wird allerdings erst dann von einer kundenspezifischen Innovation absehen, wenn die durch Standardisierung und Netzwerkeffekte entstehenden Kostenvorteile eines neuen Innovationsdesigns das Verlassen des bisherigen technologischen Entwicklungspfades rechtfertigen. Wo aber – also auf welchen Märkten und bei welchem Kunden – entstehen zukünftig die neuen und „erfolgreichen“ Innovationsdesigns, die sich zunächst national und danach weltweit erfolgreich kommerzialisieren lassen und mittelfristig andere Innovationsdesigns verdrängen und zum weltweiten Standard werden? Abbildung 1:
Kundennachfrage und Exporterfolg von Innovatoren
Quelle: CIS-3, ungewichtet. Eigene Berechnungen.
Die Beantwortung dieser Frage klärt letztlich auch die Frage, auf welchen Kunden ein Unternehmen bei seiner Entwicklungsarbeit zukünftig zu setzen hat, nämlich auf den Kunden mit engen Beziehungen zum sogenannten Lead Market.
264
Thomas Cleff
Hierbei handelt es sich um regionale Märkte/Länder, die ein bestimmtes Innovationsdesign in der Regel früher als andere Länder nutzen und über spezifische Eigenschaften (Lead Market Faktoren) verfügen, die die Wahrscheinlichkeit erhöhen, dass in anderen Ländern das gleiche Innovationsdesign ebenfalls breit adoptiert wird. Lead Markets kennzeichnet, dass die dort adoptierten Innovationsdesigns einen Vorteil im internationalen Wettbewerb gegenüber anderen länderspezifischen Innovationsdesigns im Kampf um den internationalen Standard besitzen. Dieser Vorteil bringt die Konsumenten anderer Länder dazu, dem Lead Market zu folgen und statt eines vorher präferierten Designs das von den Anwendern im Lead Market präferierte Design zu übernehmen.3 Nachfrageseitig angestoßene Innovationen, die auf eine Anwendung im eigenen Land beschränkt bleiben und somit nicht exportwirksam sind, führen zu einem idiosynkratischen Markt. Die Nachfrage präferiert dann Innovationsdesigns, die über keinen Wettbewerbsvorteil in anderen Ländermärkten verfügen. Ausgangspunkte für eine idiosynkratische Nachfrage können z.B. spezifische natürliche Umweltbedingungen sein, durch nationale Gesetzgebung geschaffen werden oder mit dem Beharren auf individuellen nationalen Standards großer Kunden erklärt werden. Sie können aber auch in eigenwilligen Präferenzen der Konsumenten oder Industriekunden liegen, die stark von denen in anderen Ländern abweichen. Unter welchen Marktbedingungen nationale Nachfrageeigenschaften in der Chemischen Industrie dazu geeignet sind, die technologischen Innovationen zu adoptieren, die sich zukünftig international durchsetzen und den weltweit bevorzugten technologischen Pfad vorgeben werden, ist der Kern der folgenden Lead Market Analyse.
2
Lead Market Analyse für die Chemische Industrie
Das Lead Market Konstrukt ist in der Literatur bereits in den 80er Jahren von Porter (1986) und Bartlett/Ghoshal (1990) diskutiert worden und hat seither nichts an Aktualität verloren. Besonders am Zentrum für Europäische Wirtschaftsforschung Mannheim (ZEW) sind zu diesem Thema eine Reihe von internationalen Forschungsprojekten mit detaillierten Fallstudien durchgeführt worden.4 Die Autoren identifizieren fünf sogenannte Lead Market Faktoren, welche die Wahrscheinlichkeit erhöhen, dass sich aus einer länderspezifischen Technologielösung ein global dominantes Design entwickelt: Der Nachfragevorteil, der Preisvorteil, der Exportvorteil, der Transfervorteil und der Marktstrukturvorteil. 3 4
Commission of the European Communities (2006). Commission of the European Communities (2006), Beise (2001), Beise/Cleff (2003), Cleff/Grimpe/Rammer (2007).
Innovative Märkte und Innovationen. Chemieunternehmen in Europa.
265
Im Folgenden soll überprüft werden, welche der EU-25-Länder in der Chemischen Industrie (Nace 24) besondere Lead Market Eigenschaften besitzen. Es sei angemerkt, dass das auf Branchenebene aggregierte Lead Market Potenzial evaluiert wird. Innerhalb einer Branche können sich diese Potenziale zwischen einzelnen Produkten unterscheiden. Dennoch ist die aggregierte Branchenbetrachtung der Lead Market Potenziale von großem Interesse, denn hieraus lassen sich innovationspolitische und innovationsstrategische Ziele und Maßnahmen ableiten.
2.1 Der Nachfragevorteil Ein Markt besitzt einen sogenannten Nachfragevorteil, wenn die dort herrschenden Umfeldbedingungen ein Innovationsdesign hervorbringen, welches die Kundenpräferenzen in anderen Märkten implizit antizipiert. Erklärt werden kann diese Antizipationsfähigkeit durch globale Trends, die die Nachfrage nach bestimmten Innovationsdesigns im Laufe der Zeit ansteigen lässt. Die verschiedenen Ländermärkte unterscheiden sich somit nicht in der Entwicklungsrichtung sondern lediglich in der Entwicklungsgeschwindigkeit auf einem globalen Trend, wobei das Innovationsdesign des Lead Markets einen „Zeitvorsprung“ aufweist. Der Zeitvorsprung kann auch durch den rascheren Aufbau der durch die Innovation benötigten Infrastruktur von Komplementärgütern zustande kommen. So steigt der Nutzen von Verbundproduktionen in der Chemischen Industrie mit der Dichte potenzieller Zulieferer in der näheren Umgebung. Innovationsdesigns aus den Märkten, die sich in der Trendentwicklung bereits heute dort befinden, wo andere Märkte erst morgen sein werden, geben bereits heute Antworten auf Fragen und Probleme, die in anderen Märkten erst morgen auftreten werden. Ausdruck dieser unterschiedlichen Anpassungsgeschwindigkeiten entlang des internationalen Trends sind – in Anlehnung an Linder (1961) und Vernon (1966) – Nachfragevorteile eines Marktes, die durch Pro-Kopf-Ausgaben für bestimmte Produkte oder den Anteil der Branche am Gesamtkonsum eines Landes zu berechnen sind. Dahinter steht die Überlegung, dass auf bestimmten Ländermärkten unterschiedliche Schwerpunkte bei der Gesamtnachfrage bestehen und sich dies auf die branchenspezifische Innovationsleistung der heimischen Unternehmen auswirkt. Je größer der branchenspezifische Anteil an der Gesamtnachfrage, desto größer ist der Einsatz der Unternehmen, neue Produkte in diesem Segment zu entwickeln und zu verbessern. Porter formuliert dies treffend durch „The more significant role of segment structure at home is in shaping the
266
Thomas Cleff
attention and priorities of a nation’s firms. The relatively large segments in a nation receive the greatest attention by the nation’s firms”.5 Ein direkter Vergleich der branchenspezifischen Nachfragespezialisierung verschiedener Länder kann über die Differenz des Anteils der Nachfrage eines Landes und dem entsprechenden gewichteten Anteil über alle EU-25 Länder durchgeführt werden. Ist der Anteil der Nachfrage nach den Produkten der Chemischen Industrie in einem Land geringer als der entsprechende Anteilsdurchschnitt aller anderen EU-25 Länder, besteht dort eine geringe Nachfragespezialisierung für Chemieprodukte. Der Spezialisierungsindex ergibt in diesem Fall negative Werte. Positive Spezialisierungsmaße ergeben sich bei einer überdurchschnittlich hohen Nachfrageneigung der Marktteilnehmer. Die für die Berechnung der Nachfragespezialisierung in der Chemischen Industrie einzelner Länder nötige Struktur der volkswirtschaftlichen Endnachfrage kann mit Hilfe der Purchasing Power Parities (PPP)-Statistik von Eurostat berechnet werden. Diese Statistik fasst die volkswirtschaftliche Endnachfrage mit Hilfe von 282 Gütergruppen zusammen, die sich zunächst nicht direkt auf eine Wirtschaftszweigsystematik beziehen. Erst durch eine Zuordnung der Produkte auf die zweistellige NACE Branchenklassifikation lässt sich die Bedeutung bestimmter Branchen bezüglich der nationalen Nachfrage einschätzen. An dieser Stelle sei allerdings angemerkt, dass diese Zuordnungen nicht immer eindeutig sein können, weshalb die Produktmengen von Herstellern von Primär- oder Zwischenprodukten im Vergleich zu Endproduktherstellern unterrepräsentiert sein dürften. Für einen internationalen Vergleich innerhalb einer Brache – wie z. B. innerhalb der Chemischen Industrie – eignet sich diese Vorgehensweise dennoch. Eine im Vergleich zur EU-25 sehr überdurchschnittliche Nachfrageneigung in der Chemischen Industrie besitzen Litauen, Polen und Portugal mit jeweils einem Prozentpunkt über den entsprechenden Nachfrageanteilen aller EU-25 Länder. Signifikant unterdurchschnittliche Nachfrageanteile finden sich in den Niederlanden, Griechenland, Schweden, Finnland und Belgien.
5
Porter (1990), S. 87.
Innovative Märkte und Innovationen. Chemieunternehmen in Europa. Abbildung 2:
Nachfragespezialisierungen in der Chemischen Industrie im Vergleich zum gewichteten EU-25 Durchschnitt [2000-2004]
Litauen (***) Polen (***) Portugal (**) Ungarn (**) Frankreich (**) Slowenien (*) Italien (**) Slowakei Estland Deutschland Malta Luxemburg Lettland Vereinigtes Königreich Spanien Österreich (**) Tschechien (**) Zypern (***) Irland (**) Dänemark Belgien (***) Finnland (***) Schweden (***) Griechenland (***) Niederlande (***) -2,0%
-1,0%
0,0%
1,0%
2,0%
Nachfrage Spezialisierung
Anmerkung: (***), (**) und (*) stehen für die Signifikanzniveaus 1%, 5% bzw. 10%. Quelle: Eurostat/OECD PPP-Statistics for 2000 to 2004. Eigene Berechnungen.
267
268
Thomas Cleff
2.2 Der Preisvorteil Nach Levitt (1983) bewirkt – im Rahmen der Internationalisierung von Innovationen – ein niedriger relativer Preis eines Innovationsdesigns in einem Lead Market die Verdrängung bestehender – aber relativ teurerer – Innovationsdesigns auf anderen ausländischen Märkten. Dieser Preismechanismus wirkt umso stärker, je größer die relativen Preisunterschiede bereits zu Beginn des Innovationswettbewerbes sind und je dynamischer sich die relative Preisentwicklung zugunsten des Innovationsdesigns im Lead Market entwickelt. Nur wenn der relative Preisunterschied zugunsten der Lead Market Innovation so groß ist, dass die durch Wechsel des Innovationsdesigns zum Lead Market Design entstehenden Transaktionskosten kompensiert werden können, werden auch die Kunden in anderen ausländischen Märkten zum Lead Market Design überwechseln. Grenzen der Preisreduktion liegen dabei im derzeitigen und zukünftigen Reduktionspotenzial der Produktions- und Faktorkosten. Es ist daher sinnvoll zu untersuchen, welche Länder bereits langfristig Preisvorteile in der Chemischen Industrie besitzen. Analog zu den Daten zur Nachfragespezialisierung liegen Preisdaten in Form von Währungsschwankungen unabhängigen und um Qualitätsunterschiede kontrollierten Purchaising Power Parities (PPP) vor,6 die – gewichtet mit der Nachfragemenge – auf die Wirtschaftszweigsystematik zugeordnet werden. Auf dieser Basis erfolgt die Berechnung relativer Preise innerhalb eines Landes, indem die branchenspezifischen PPP in Relation zur durchschnittlichen PPP aller Branchen der jeweiligen Volkswirtschaft gesetzt werden. Beim so ermittelten relativem PPP-Niveau wird somit um unterschiedliche Pro-Kopf-Einkommensniveaus und daraus resultierende Unterschiede im Preisniveau der einzelnen Länder kontrolliert. Durch den negativen logarithmierten Quotient aus relativem PPP-Niveau der Branche eines Landes und dem entsprechenden Preisniveau der jeweiligen Volkswirtschaft, werden branchenspezifische Preisdifferenzen zwischen Ländern unmittelbar sichtbar. Die Analyse ergibt (siehe Abbildung 3), dass die relativen Preise der Chemischen Industrie in den osteuropäischen Ländern, in Finnland, Italien, Belgien, dem Vereinigten Königreich und Portugal höher als in den restlichen Ländern Westeuropas liegen. Vergleichsweise niedrige Preise finden sich in Frankreich, Schweden und den Niederlanden. Man sollte sich vergegenwärtigen, dass das Preisniveau allein kein aussagekräftiger Indikator für einen Preisvorteil ist, da es stark von strategischen Ausrichtungen der Unternehmen und den Wettbewerbsverhältnissen beeinflusst ist. Allerdings kann ein niedriges Preisniveau bei 6
OECD/Eurostat (2006).
Innovative Märkte und Innovationen. Chemieunternehmen in Europa.
269
gleichzeitig hoher Konsumneigung auf einen preisbedingten Nachfragevorteil hinweisen: Dann nämlich ist die Preiselastizität sehr hoch und die Nachfrage reagiert auf ein niedriges Preisniveau mit einer überdurchschnittlichen Ausweitung der Nachfrage nach diesem Produkt. Ein Lead Market Vorteil eines niedrigen Preisniveaus ist somit dann besonders ausgeprägt, wenn ein niedriges Preisniveau mit einer besonders hohen Nachfragespezialisierung einhergeht. In Abbildung 3 ist deshalb für alle Länder das relative PPP-Niveau einerseits der Nachfragespezialisierung andererseits gegenübergestellt. Interessant sind jene Länder, die im rechten oberen Bereich liegen. Hier geht ein niedriges relatives Preisniveau mit einer hohen Konsumneigung einher. Zu diesen Ländern zählen Frankreich und Luxemburg. Hier stellt das Preisniveau einen Lead Market Vorteil dar. Die Nachfrager reagieren auf Preissenkungen mit einer starken Ausweitung der Nachfrage. Innovationsdesigns, die diese Preiselastizität nutzen, können rasch diffundieren und damit ihre preisliche Wettbewerbsfähigkeit über die Nutzung von Marktgrößenvorteilen ausweiten. Diese Markteigenschaft sollte die Anbieter von Innovationen von Anfang an zu einer Preissenkungsstrategie veranlassen. Die unter diesem Anreizsystem hervorgebrachten Innovationsdesigns sollten gegenüber alternativen Innovationsdesigns einen preisbedingten Vermarktungsvorteil haben. Abbildung 3:
Preisvorteile und Nachfragespezialisierung unterschiedlicher Chemiemärkte für 2004 [geglättet für die Jahre 2000 bis 2004]
Quelle: Eurostat/OECD PPP-Statistics for 2000 to 2004. Eigene Berechnungen.
Lead Market Vorteile können aber auch dort bestehen, wo ein niedriges Preisniveau mit einer durchschnittlichen oder leicht unterdurchschnittlichen Konsumneigung einhergeht. Denn auch in diesem Fall ist die Mengennachfrage über-
270
Thomas Cleff
durchschnittlich, wenngleich die an der monetären Nachfrage gemessene Nachfragespezialisierung aufgrund des niedrigen Preisniveaus nicht signifikant positiv ist. Dies gilt für das Vereinigte Königreich und Spanien. In einigen Ländern führt selbst ein relativ niedriges Preisniveau nur zu einer unterdurchschnittlichen Konsumneigung, d.h. die relativ niedrigen Preise werden nicht in eine höhere Nachfrage umgesetzt. Dies ist insbesondere in Griechenland, den Niederlanden, Schweden, Dänemark und Irland der Fall. Im umgekehrten Fall eines hohen Preisniveaus und einer hohen Nachfragespezialisierung liegen Hinweise für einen preisunelastischen Markt vor. Der hohe Anteil dieser Gütergruppen an der Gesamtnachfrage rührt wesentlich aus den hohen Preisen bei einer vergleichsweise niedrigen Konsumneigung. Typische Beispiele sind die Länder Osteuropas (ausgenommen Tschechien), Deutschland, Portugal und die baltischen Staaten. Diese Märkte sind für Innovatoren eher unvorteilhaft. Schließlich können noch Länder identifiziert werden, die bei einem relativ hohen Preisniveau eine unterdurchschnittliche Nachfragespezialisierung aufweisen, da das hohe Preisniveau zu einer - im internationalen Vergleich - überproportionalen Zurückhaltung der Nachfrage führt. Das hohe Preisniveau ist für exportorientierte Innovatoren jedoch ein Nachteil, da es die Entstehung von preisgünstigeren Innovationsdesigns behindert. Insbesondere Finnland, Belgien, Tschechien, Zypern und Österreich haben mit diesem Problem zu kämpfen.
2.3 Der Exportvorteil Das wesentlichste Merkmal eines Lead Markets ist die Tatsache, dass eine Innovation nicht national oder regional beschränkt bleibt, sondern gut exportierbar ist. Vernon (1979) und vor allem Dekimpe et al. (1998) stellen fest, dass die Exportierbarkeit von Innovationen mit kultureller und sozio-ökonomischer Ähnlichkeit des exportierenden und importierenden Marktes zunimmt. Der Nutzenverlust eines Kunden beim Wechsel zu einem „ausländischen“ Innovationsdesigns ist in einem solchen Fall gering und die Verringerung der Anzahl länderspezifischer Innovationsdesigns kann sich vergleichsweise schnell vollziehen. Die Exportierbarkeit muss aber nicht allein von der Ähnlichkeit der Märkte abhängen. Auch die „Anpassungsfähigkeit“ der Innovation an unterschiedliche Marktumgebungen bestimmt die Potenziale einer internationalen Vermarktung. Eine internationale Vermarktung gestaltet sich nämlich unkomplizierter, wenn im Innovationsdesign von vornherein Eigenschaften berücksichtigt werden, die den Einsatz in unterschiedlichen Umfeldern ohne größere Anpassungsmaßnahmen erlauben.
Innovative Märkte und Innovationen. Chemieunternehmen in Europa. Abbildung 4:
Anteil der Chemie-Produkte mit überdurchschnittlichen Exporterfolgen im Handel mit der EU 25
Quelle: ZEW: Global Sourcing Management Tool, 2007. Eigene Berechnungen.
271
272
Thomas Cleff
Der Lead Market Ansatz geht nicht nur von der traditionellen Vorstellung aus, dass Exporterfolge eine Kennziffer der technologischen Wettbewerbsfähigkeit eines Landes darstellen. Vielmehr ist eine ausgeprägte Exporttätigkeit auch als Inputfaktor für den Innovationserfolg anzusehen. Eine starke Exportposition in der Vergangenheit kann durch die Orientierung auf die Eignung von Innovationen für internationale Märkte die Hervorbringung von Innovationsdesigns fördern, die zum Exporterfolg werden. Je mehr es einem Land im bilateralen Handel gelingt, innerhalb einer Gruppe homogener Produkte einen Exportüberschuss zu erarbeiten, umso besser wird die Wettbewerbsfähigkeit eingeschätzt. Zur Feststellung von länderspezifischen Wettbewerbsvorteilen auf Produktebene kann also das Verhältnis von Exportüberschüssen zum gesamten produktbezogenen Handelsvolumen innerhalb einer gegebenen Produktgruppe verwendet werden. 7 In Abbildung 4 ist dargestellt, in wie vielen Produktgruppen der Außenhandelsstatistik die Chemische Industrie der einzelnen EU-25 Länder signifikant überdurchschnittliche Exporterfolge aufweisen. Als Referenzwert des Exporterfolges dient der durchschnittliche Exporterfolg aller in Länder der EU 25. Liegen die Exportüberschüsse eines Landes signifikant über dem durchschnittlichen Referenzwert der letzten zehn Jahre, gilt es als überdurchschnittlich exportintensiv. Die Chemiestandorte Deutschland, Vereinigtes Königreich, Frankreich, Italien, die Niederlande, Belgien und Österreich weisen mit einem Anteil von mehr als 50 Prozent exporterfolgreichen Produkten besonders hohe Exportvorteile auf. Gefolgt werden diese Länder von Spanien, Dänemark und Schweden. Es ist anzunehmen, dass ein Lead Market immer dann vorliegt, wenn die Nachfrage eines Landes ein quantitativ bedeutender Innovationsimpuls für innovierende Unternehmen ist und diese gleichzeitig einen hohen Anteil ihres Umsatzes im Ausland erzielen. Gehen also die in Anteilen mit überdurchschnittlichen gemessenen Exporterfolge eines Landes gleichzeitig auf eine überdurchschnittlich hohe Kundennachfrage zurück, deutet dies auf eine besondere Lead Market Eigenschaft des Marktes hin. Denn gerade eine in Exporterfolge umgemünzte inländische Nachfrage ist ein typisches Merkmal eines Lead Markets. Demgegenüber liegt ein Indiz für einen idiosynkratischen Markt vor, wenn Unternehmen zwar Innovationen hervorbringen, die auf Kundenwünsche des Landes zurückgehen, aber nur eine niedrige Exportquote erzielen. In diesem Fall präferieren einheimische Kunden offenbar Produktlösungen, die nicht international vermarktbar sind. In Abbildung 5 sind der Nachfragevorteil und der Exportvorteil für die einzelnen EU-25 Länder grafisch als Portfolio dargestellt. Der rechte obere Quad7
Cleff (2006).
Innovative Märkte und Innovationen. Chemieunternehmen in Europa.
273
rant des Portfolios enthält die Länder, die Nachfrage getriebene Technologien entwickeln und dabei die Lead Market Eigenschaften der einheimischen Nachfrage für Exporterfolge nutzen. Für die Länder Deutschland, Frankreich und Italien bietet der einheimische Absatzmarkt günstige Bedingungen, um neue Produkte hervorzubringen und zu testen, um später das im Heimatmarkt erprobte Innovationsdesign auch in anderen Ländern erfolgreich zu vermarkten. Abbildung 5:
Lead-Market-Matrix in der Chemischen Industrie: Klassifikation nach Exportorientierung und Nutzung der einheimischen Nachfrage
Quelle: ZEW: Global Sourcing Management Tool, 2007 und Eurostat/OECD PPPStatistics for 2000 to 2004. Eigene Berechnungen.
Exportfähige Innovationen können natürlich auch auf nicht-heimatmarktseitigen Quellen basieren. Innovierende Unternehmen, die zwar eine hohe Exportorientierung aufweisen, für die jedoch die einheimische Nachfrage keine maßgebliche Innovationsquelle ist, umfassen drei unterschiedliche Typen von Innovatoren. Erstens kann der Impuls für weltmarktfähige Innovationen wesentlich aus der eigenen FuE oder aus extern bezogenem technologischen Wissen (z.B. von Technologielieferanten oder aus der Wissenschaft) kommen. Zweitens können neue Produkte aber auch auf der Imitation von Innovationen der ausländischen Konkurrenz basieren. Drittens können die Innovationsimpulse von Nachfragern aus dem Ausland kommen. Dies wäre ein Hinweis auf einen erfolgreichen einheimischen Lag Market: Einheimische Unternehmen wären in diesem Fall nicht führend in der Hervorbringung international durchsetzungsfähiger Produktinnovationen, verstehen es aber, von außen kommende neue Entwicklungen rasch aufzugreifen und in Exporterfolge umzusetzen. Alle
274
Thomas Cleff
diese Effekte sollen als „exportwirksame Technik-Impulse“ bezeichnet werden. Der linke obere Quadrant in Abbildung 5 beinhaltet die Länder Belgien, die Niederlande, Schweden, Dänemark, Spanien und Österreich, die vorrangig Technik getriebene Innovationen hervorbringen und diese in Exporterfolge ummünzen. Ist schließlich der Exporterfolg von Produktinnovatoren niedrig und spielt die einheimische Nachfrage als Innovationsquelle keine bedeutende Rolle, liegt eine Fokussierung auf heimatmarktspezifische Technik vor. In diesem Fall konzentrieren sich Innovatoren auf Produktinnovationen auf der Grundlage eigener FuE oder durch Nutzung externer Wissensquellen, die nicht exportierbare Lösungen darstellen. Hier kann von idiosynkratischer Technik gesprochen werden. In Abbildung 5 gehören vor allem die Länder des linken unteren Quadranten in die Gruppe dieser Märkte. Das aus innovationsstrategischer Sicht wohl problematischste Feld ist der rechte untere Quadrant. Hier treffen Länder, die in ihren Innovationsaktivitäten wesentlich von Nachfrageanstößen abhängen, auf eine idiosynkratische Heimmarktnachfrage. Der einheimische Absatzmarkt stellt eine Hürde für die Exporttätigkeit dar, denn die Ausrichtung auf einheimische Kundenwünsche bringt Produktinnovationen mit sich, die in anderen Ländern nur schwer abgesetzt werden können. Insbesondere die osteuropäischen Länder, Portugal, Luxemburg, Malta, Litauen und Estland gehören in diese Ländergruppe.
2.4 Der Transfervorteil Die Entscheidung für die Adoption eines Innovationsdesigns in einem Land ist häufig von der im Lead Market bereits getroffenen Adoptionsentscheidung und den daraus entstandenen Erfahrungen im Einsatz der Technologie abhängig. Der Demonstrationseffekt der Adoption einer Innovation erhöht den Anreiz für Nutzer in anderen Ländern, das gleiche Innovationsdesign zu adoptieren, zum einen durch die Informationen über die Innovation und deren Nutzen, zum anderen durch die Reduzierung der Unsicherheit, dass das neue Produkt oder der neue Prozess auch zuverlässig ist. Ein Ländermarkt besitzt also einen Transfervorteil, wenn er nicht nur den wahrgenommenen Nutzen der Kunden auf dem eigenen Markt, sondern ebenfalls den wahrgenommenen Nutzen der Kunden auf anderen Märkten erhöht.8 Bereits in anderen innovationsprojektbezogenen Analysen hat sich der Transfervorteil als schwer quantifizierbar erwiesen.9 Da Länderunterschiede auf 8 9
Beise et al. (2002). Beise/Cleff (2003).
Innovative Märkte und Innovationen. Chemieunternehmen in Europa.
275
Branchenebene geringer als für einzelne Produktfelder ausfallen, lassen sich für den Transfervorteil kaum allgemeine Indikatoren auf Branchenebene finden. Der Autor selbst verwendet als Hilfskonstrukt für die Potenziale internationaler Ausstrahlung von Innovationen den Direktinvestitionsbestand eines Landes.10 Unternehmen der Chemischen Industrie können über ihre ausländischen Tochterunternehmen nicht nur über die Besonderheiten der Nachfragebedingungen in Kenntnis gesetzt werden. Sie haben aufgrund von Skaleneffekten den Vorteil, die gleichen Innovationsdesigns international einzusetzen, selbst wenn ein Innovationsdesign nicht optimal an die lokalen Bedingungen angepasst ist. Da angenommen wird, dass in der Regel Innovationen zuerst bei der Konzernmutter angewendet werden oder dort über die Innovationsdesigns entschieden wird, verfügen Länder mit einem hohen Direktinvestitionsbestand im Ausland über einen Transfervorteil. Abbildung 6:
Spezialisierung des Direktinvestitionsbestandes der Chemischen Industrie
Dänemark [2001-2003] Vereinigtes Königreich [2001-2002] Polen [2000] Deutschland [2001-2003] Finnland [2001-2002] Österreich [2001-2002] Frankreich [2001-2003] Portugal [2000] Schweden [2001-2003] Tschechien [2000] -1
-0,8
-0,6
-0,4
-0,2
0
0,2
0,4
0,6
0,8
1
Quelle: United Nations Conference on Trade and Development (UNCTAD) 2007.
Leider liegen bei der „United Nations Conference in Trade and Development (UNCTAD)“ bzw. bei Eurostat nur für zehn der EU-25 Länder Angaben über Direktinvestitionsbestände der Chemischen Industrie vor. Vergleicht man nicht die Anzahl sondern den wertmäßigen Direktinvestitionsbestand der Branchen mit Hilfe eines Spezialisierungsmaßes, so ergeben sich die in Abbildung 6 dargestellten Ergebnisse. Dänemark und das Vereinigte Königreich weisen dabei eine überdurchschnittliche Spezialisierung ihrer Direktinvestitionen auf.
10
Cleff (2006).
276
Thomas Cleff
2.5 Der Marktstrukturvorteil Zwar ist die Erkenntnis, dass der internationale Innovationserfolg mit dem Grad des Wettbewerbs auf den Heimatmärkten korreliert, schon seit langem bekannt,11 aber erst Porter (1990) führt dies konzeptionell darauf zurück, dass in stark umkämpften Märkten die Kunden „wählerischer“ sein können, als in Oligopol- oder Monopolmärkten. Die Innovatoren sind im Wettbewerb stärker dazu gezwungen, auf technologische Entwicklungen zu reagieren und sie rasch den Kunden zugänglich zu machen.12 Der so entstehende Innovationswettbewerb zwischen verschiedenen Innovationsdesigns führt nicht selten zur Herausbildung einer Innovation, die den Kundennutzen am besten erfüllt. Dieses, aus dem nationalen Wettbewerb bezüglich des Kundennutzens maximierte, Innovationsdesign besitzt auch im internationalen Wettbewerb beste Chancen der Durchsetzbarkeit. Der Wettbewerb versteht sich also als Prozess dezentraler Koordination, in dem alle teilnehmenden Akteure versuchen, ein jeweils besseres Innovationsdesign zu erreichen, das die potenzielle Durchsetzbarkeit des heimischen Innovationsdesigns auch auf internationalen Märkten verbessert. Eine Reihe von Messkonzepten steht zur Bestimmung der Wettbewerbsintensität zur Verfügung. Eine operationale Umsetzung scheitert allerdings häufig an der Verfügbarkeit international vergleichender Zahlen. An dieser Stelle soll die Gründungsdynamik als möglicher Indikator für die Wettbewerbsintensität innerhalb einer Branche untersucht werden. Eine geringe Wettbewerbsintensität ist nicht selten auf hohe Markteintrittsbarrieren zurückzuführen. “Especially for upcoming technologies and when new product markets develop, divergent innovation designs compete with each other. Start-ups are likely to bring in new solutions and challenge established companies that enter these new markets, too”.13 So drückt der logarithmierte Quotient aus der länderspezifischen Gründungsrate in der Chemischen Industrie im Vergleich zur jeweiligen Gründungsrate in der EU indirekt die Wettbewerbssituation aus. Ein negativer (positiver) Logarithmus für ein Land entsteht somit dann, wenn die Gründungsrate bzw. der Wettbewerb in der Chemischen Industrie im Vergleich zu allen EU-Staaten unterdurchschnittlich (überdurchschnittlich) ist. Ein geringer Wettbewerb findet sich v.a. in Slowenien, Luxemburg und Schweden. Hohe Gründungsraten bzw. hohe Wettbewerbsintensitäten lassen sich für Lettland, die Slowakei, Estland und das Vereinigte Königreich feststellen.
11 12 13
Posner (1961), Dosi et al. (1990). Mansfield (1968), S. 144. Rammer (2006).
Innovative Märkte und Innovationen. Chemieunternehmen in Europa. Abbildung 7:
277
Standardisierte Gründungsrate in der Chemischen Industrie
Quelle: Eurostat und ZEW Gründungspanel.
3
Innovationsstrategische Folgerungen
In den vorangehenden Abschnitten wurden Ansätze zur Integration der marktseitigen Nachfrage für die Innovations- und Wettbewerbsfähigkeit in der Chemischen Industrie der Länder der EU-25 untersucht. Obwohl die Nachfrageseite für die Entwicklung von Innovationen mit entscheidend ist, ist sie bislang nur wenig in forschungs- und technologiepolitische Analysen integriert. Mit dem Lead Market Ansatz wird die Rolle der Marktnachfrage in die Diskussion eingebracht, sodass Innovation nicht mehr nur als angebotsorientiert und vorwettbewerblich angesehen werden kann. Um die Rolle von Nachfrage und Marktstrukturen für die Herausbildung international durchsetzungsfähiger Innovationen zu bewerten, wurden länderspezifische Eigenschaften – die sogenannten Lead Market Faktoren – abgeleitet, die
278
Thomas Cleff
die Lead Market Fähigkeit eines Landes innerhalb einer Branche erklären können. Eine besonders vorteilhafte Ausprägung dieser Lead Market Faktoren innerhalb einer Branche kann letztlich die Wahrscheinlichkeit dafür erhöhen, dass Innovationen, die vom inländischen Markt vorgezogen werden, auch international hohe Nachfragepotenziale besitzen. Kenntnisse über die Lead Market Potenziale der verschiedenen Märkte müssen zwangsläufig in die innovationsstrategischen Überlegungen der Unternehmen einfließen. Mehr noch, können diese Kenntnisse selbst auch Ausgangspunkt bei der Aufstellung unternehmerischer Innovationsstrategien sein. Auf Basis quantitativer Indikatoren wurde deshalb versucht, die Lead Market Potenziale der Länder der EU-25 in der Chemischen Industrie festzustellen. Tabelle 1 fasst die Ergebnisse nochmals zusammen. Insgesamt lässt sich mit der Lead Market Methode kein eindeutiger Lead Market identifizieren. Diese Ergebnisse stehen im Gegensatz zu Untersuchungen anderer Branchen.14 Der Grund könnte darin liegen, dass die Chemische Industrie häufig nicht als Produzent von Endprodukten sondern als Produzent von Zwischenprodukten auftritt. Ein Teil der verwendeten Indikatoren (z. B. zur Messung des Preis- und des Nachfragevorteils) beziehen sich aber im Wesentlichen auf die Endnachfrage. Nimmt man – bei aller Vorsicht – diese Ergebnisse dennoch als Grundlage für eine Lead Market Innovationsstrategie, so weisen Frankreich und das vereinigte Königreich bei drei der fünf Faktoren einen Vorteil auf, gefolgt von den großen EU Ländern Deutschland, Italien, Spanien und Schweden. Kleine EU Länder (z.B. Zypern) besitzen fast ausschließlich Lead Market Nachteile. Ein an den Lead Market Ansatz angelehnte Innovationsstrategie stellt nun die Marktforschung im Lead Market – und somit nicht mehr zwangsläufig im Heimatmarkt – in den Mittelpunkt der Entwicklungsphase von Produktinnovationen. Produktinnovationen in den Ländern, die nicht über ausreichend Lead Market Vorteile verfügen, sollten an den Präferenzen der Nutzer in potenziellen Lead Markets orientiert werden. Dabei müssen die Fragen der Höhe und der Entwicklung der Faktorpreise und der Kosten der genutzten Infrastruktur beantwortet werden. Hier weisen die traditionellen Chemiestandorte in Deutschland und Frankreich zumindest in der Verbundproduktion der Grundchemie Vorteile auf. Die Marktbeobachtung des Lead Markets kann dabei unterschiedliche Intensitäten besitzen, die von der einfachen Nutzung von Marktbeobachtungsbüros im Lead Market bis hin zur Nutzung des Lead Markets als Test- bzw. Ersteinführungsmarkt reichen. Häufig gehen solche Aktivitäten über das Leistungsvermögen eines Unternehmens hinaus. In einem solchen Fall bestehen aber weitere Strategien zur angemessenen Berücksichtigung des Lead Markets: 14
Vgl. hierzu Cleff/Grimpe/Rammer (2007), Cleff/Grimpe/Rammer (2008), Cleff (2008).
Innovative Märkte und Innovationen. Chemieunternehmen in Europa.
279
Entwicklung einer Innovation im Heimatland unter Berücksichtigung der Informationen über die Besonderheiten des Lead Markets. Entwicklung von dual-use Innovationen, die sowohl der Nachfrage im Heimatmarkt, als auch auf dem Lead Market gerecht werden. Entwicklung einer Innovation für den Heimatmarkt unter Vermeidung technologischer Designs, die im Lead Market als atypisch gelten würden.
Kooperationen mit Unternehmen in potenziellen Lead Markets bieten im Vergleich zum Aufbau einer eigenen Niederlassung den Vorteil, dass bereits bestehende Unternehmen aufgrund der langen Hersteller-Kundenbindung einen guten Überblick über die Bedingungen des Lead Markets besitzen. Zudem verursachen Kooperationen weniger Kosten als der Aufbau eigener Niederlassungen und stellen daher ein geringeres unternehmerisches Risiko dar.
280
Thomas Cleff
Tabelle 1: Lead Market Potentiale der EU-25 Länder in der Chemischen Industrie Preisvorteil
Nachfragevorteil
Exportvorteil
Transfervorteil
Marktstrukturvorteil
Belgien Dänemark
-
-
+ +
NV +
NV NV
Deutschland Estland
-
+ +
+ -
NV
+
Finnland Frankreich
+
+
+
-
+ -
Griechenland
+
-
-
NV
NV
Irland Italien Lettland Litauen Luxemburg Malta Niederlande
+ + +
+ + + + -
+ +
NV NV NV NV NV NV NV
NV + + + +
Österreich Polen
-
+
+ -
-
NV NV
Portugal Schweden
+
+ -
+
-
-
Slowakei
-
+
-
NV
+
Slowenien Spanien
+
+ -
+
NV NV
-
Tschechien Ungarn
-
+
-
NV
+
Ver. Königreich Zypern
-
-
+ -
+ NV
+ NV
Land
Bemerkung: +: überdurchschnittlich; -: unterdurchschnittlich; NV: Nicht verfügbar.
Innovative Märkte und Innovationen. Chemieunternehmen in Europa.
281
Literatur Bartlett, C.A./Ghoshal, S. (1990): Managing innovation in the transnational corporation, in: Bartlett, C./Doz, Y./Hedlund, G. (Hrsg.), Managing the global firm, London 1990, S. 215-255. Beise, M. (2001): Lead Markets: Country specific Success Factors of the Global Diffusion of Innovations, ZEW Economic Studies, Vol. 14, Heidelberg 2001. Beise, M./Cleff, T./Heneric, O./Rammer, C. (2002): Lead Market Deutschland. Zur Position Deutschlands als führender Absatzmarkt für Innovationen – Endbericht – ZEWDokumentation Nr. 02-02. Beise, M./Cleff, T. (2003): Assessing the Lead Market Potential of Countries for Innovation Projects, Discussion Paper Series No. 142, Research Institute for Economics and Business Administration, Kobe University 2003. Cleff, T. (2006): Using International Trade Data for evaluating the Product Specific Competitiveness and Supplied Product Quality of Countries: A Successful Example of Applied Theory’, Gadjah Mada International Journal of Business, Vol. 8, No. 2 (May-August 2006), S. 229-246. Cleff, T. (2008): French Oysters and German Cabbage – Demand- and Country-Specific Drivers and Barriers for Innovation in the European (EU-25) Food and Drink Industry, in: Barkovic, D./Runzheimer, B.: Interdisciplinary Management Research IV, Osijek 2008, S. 389-426. Cleff, T./Grimpe, C./Rammer, C. (2007): The Role of Demand in Innovation - A Lead Market Analysis for Hightech Industries in the EU-25, ZEW Dokumentation Nr. 0702, Mannheim 2007. Cleff, T./Grimpe, C./Rammer, C. (2008): Die Rolle des Kunden bei Innovationen in der europäischen Automobilindustrie. Ergebnisse einer industrieökonomischen Analyse, in: Zeitschrift für die gesamte Wertschöpfungskette Automobilwirtschaft (ZfAW), 11. Jahrgang, Heft 3/2008, S. 28-39. Commission of the European Communities (2006): European Competitiveness Report 2006: Economic reforms and competitiveness: key messages from the European Competitiveness Report 2006 COM(2006) 697 final. Dekimpe, M.G./Parker, P.M./Sarvary, M. (1998): Globalisation: Modeling Technology adoption Timing across Countries, INSEAD working paper No. 98/69/MKT. Dosi, G./Pavitt, K./Soete, L. (1990): The Economics of Technical Change and International Trade, New York 1990. Levitt, T. (1983): The Globalisation of Markets, in: Harvard Business Review 61 (3) (1983), S. 92-102. Linder, S. (1961): An Essay on Trade and Transformation, Uppsala 1961. Mansfield, E. (1968): Industrial Research and Technological Innovation: An Econometric Analysis, New York 1968. OECD/Eurostat (2006): Methodological Manual on PPPs, 2006. Porter, M.E. (1986): Changing Patterns of International Competition, in: California Management Review 28 (2) (1986), S. 9-40. Porter, M.E. (1990): The Competitive Advantage of Nations, New York 1990.
282
Thomas Cleff
Posner, M.V. (1961): International Trade and Technical Change, in: Oxford Economic Papers 30 (1961), 323-341. Rammer, C. (2006): Technology-based Start-ups, in Schmoch, U./Rammer, C./Legler, H. (Hrsg.), National Systems of Innovation in Comparison. Structure and Performance Indicators for Knowledge Societies, Dordrecht 2006. Real, B. (1990): Le puce et le chômage. Essai sur la relation entre le progrès technique, la croissance et l’emploi, Paris 1990. Vernon, R. (1966): International Investment and International Trade in the Product Cycle, in: Quarterly Review of Economics 88, May 1966, S. 190-207. Vernon, R. (1979): The Product Cycle Hypothesis in a New International Environment, in: Oxford Bulletin of Economics and Statistics Jg. 41, Heft 4/1979, S. 255-267. Wengenroth, U. (2002): Vom Innovationssystem zur Innovationskultur. Perspektivwechsel in der Innovationsforschung, in BMWi (Hrsg.), Die innovative Gesellschaft. Nachfrage für die Lead Märkte von morgen. Ergebnisse der Fachtagung am 19. April 2002 in Berlin, Berlin 2002.
Effective Management Tools from Indian ethos: A paradigm of innovation for International Companies (INCS) Gogineni R. Krishnamurthy
Abstract The world is in the process of a great transformation form a highly regulated and controlled economy to a liberal deregulated globally open economy. Due to this transformation, the change in the organisations, whether business corporations or non-profit institutions, is going to be quite sweeping if not tumultuous. In fact, the overwhelming change is bound to be in the fields such as (1) technology, (2) organisation structure, (3) power hierarchy, (4) decisionmaking, (5) training practices and (6) communication methods. The change may overpower some of the organisations by seizing them unawares. To manage this unprecedented change and to cope up with the tremendous stress that it is likely to generate, a modern/futuristic executive needs a totally novel and different mindset and ethos. It is in this context, the Indian ethos offers some precious insights and tools for an executive life and job in INCS (International Companies). This paper focuses on presenting some important insights and effective tools from Indian ethos. Analysis and Concepts The Indian ethos, is nothing but the collective wisdom (very precious) accumulated by all the generations which have inhabited the lands of the vast subcontinent of India. Such wisdom has been codified in the Indian classics, architecture and other works of art. Examples abound in the Vedas, Puranas, Vedanta teachings (Upanishads) and other classics such as Manu Dharma Shastra, Kautilya’s Arthashastra and Bhratrihari’s Vakyapadiya. In addition to these works,
284
Gogineni R. Krishnamurthy
Buddhist and Jain texts also throw precious light on the various aspects of oganisational reality and also on the methods of coping with change and managing such change. The teachings of Bhagavad Gita and those of Shanthi Parva (in the Mahabharat) in particular will prove to be of immense help as well as practical use to the executives in job management in the post-modern organisations. In the same way holy books like Guru Granth Sahib, Quran and Bible also give some precious insights into the subject. In essence, the Indian ethos is characterized by the following features:
Ego sublimation and humility Synthesising and synergizing approach Emphasis on Duty/Dharma Self control (control from within) Total understanding of life than mere job understanding Adjustment and adoptability than dominating Emphasis on the flexibility / change Focus on the team approach Harmonious living with nature Highest value accord to sacrifice
On the other, American and European ethos, in short, western ethos, based on the Greek-Roman ethos and values is characterised by ego-exaggeration, Reductionist approach to things, over emphasis on rights, dominating on the nature, outside control, over emphasis on money incentives. Unrealistic emphasis on the so called stability and imbalanced emphasis on individual achievements than on the team/community consideration. Thus, western management science and thought suffered from the narrow confinement to Taylorism, so called human-relations approach (the result of hawthorne experiments) and need gratification based motivation studies. Many management concepts like six-sigma, 360 degree appraisal, MBO, Kaisen, Just-in-time, customer delight, etc are already becoming clichés in management thought and practices. In this context, Indian ethos offers some refreshing insights which could be converted as effective tools for modern management. These are:
“That the reality/nature/life/organisation is always changing”. Indian Upanishads including Bhagavad Gita proclaim. Gita says that “Man is the most ignorant and foolish who does not realize this truth of flux and change, so as to face the reality bravely and naturally”. As modern organization is bound
Effective Management Tools from Indian ethos
285
to change, sometimes even abruptly and sweepingly, this insight from Indian ethos could be a great strength to today’s executives. “Do not expect so called stability, be ready for a change at any time” is the message. By developing a mind set which welcomes the change as a requisite an executive becomes highly effective in managing it. An executive must have a yogic perception: perception into himself, his likes and dislikes, and his emotions. Indian ethos makes “self awareness” as a basic requisite for any great performance including the job performance. “Know yourself before you know others”. For this one, must have ‘sathvik pravritti, samyami and samadhrishti’. Having developed this quality, an executive performs his actions detached from their results/fruits. Thus Gita teaches ‘nishkamakarma’ as a modes-operendi for high achievers. This mind set makes a manager, a high success, nay a rare success. Self-perception and self awareness as advocated by the Indian ethos are the most effective tools for one’s “Emotions-management”. In other words, “choiceless awarness” of the organisational reality is the most effective way for stress-coping and stress management. Nature of Learning: Indian ethos lays stress on continuous and constant learning throughout life. But it emphasises on open mind and humility as requisites for learning. “Let noble thoughts come from all sides” proclaims the Veda. Then only an executive can avoid “Tunnel-view” approach in understanding. Indian ethos emphasises on trainee-centered-learning than trainer-centered-learning/ exercise. CEO as a Trustee: Indian worldview and Indian thought advocates that every Entrepreneur/Industrialist/Executive must act as a Trustee/Custodian /Guardian of the interests of all the stakeholders: Employees,Customers,Consumers,Share- holders and community at large. An executive is a ‘Kartha’. He has to build the culture of Trust in an oraganisation which is characterised by the following: o o o o o
Participation climate Delegation-strategy Two-way communication Bi-lateral evaluation Creative and continuous Training
All successful companies as well as executives practice this culture of trust (which is highly emphasised by the Indian ethos). Even in the west companies like GE in Colombia and Volvo in Sweeden, Nissan in Tennessee, DEC in connecticut adopt the culture of Trust. In Indian context,
286
Gogineni R. Krishnamurthy
TATA steel and Infosys are some of the best examples practicing the culture of trust. In short, present day managers, and organisations could crystallize the above insights (from Indian ethos) into the following tools and strategies. These in turn could be used as the most effective tools and techniques in today’s organisation:
Forming self managing teams in the organisation Collective goal setting Informal verification of the facts and files Creation of learning climate for each to learn at his own pace in the organisations. Ego sublimation by “you centered approach”. Environment friendly and ecology conscious approach/paradigm to development.
In short, the Indian ethos enables one to clearly understand the nature of the reality, as a constant change and flux. It empowers the managers and organisations for facing over- whelming changes. In doing this, the ethos enables the executive to have self perception and ‘stithaprjnatha’. Thus Indian ethos, provides some effective tools and techniques for modern executives in managing today’s complex organisations.
References Rigvedasamhita. Maharishimaheshyogi, MIU press, Seelisberg, Switzerland 1985. Vedas. Sacred Books of East, Max Muller, Gorakpur press, Gorakpur, India 1920. The Ten Upanishads, Sitanathtattvabhushan, Brahmomission press, Calcutta 1925. Bhagavad Gita, Dr. S. Radhakrishnan, George Allen & Unwin Ltd., London 1949. Dhammapada, Sramana Sumedha Vimalaksha, the Buddha study Association, Hindupur, India 1957. Manu Smiriti. Sacred Books of East, Buhlar, Vol. 25, Clarendon Press, London 1886. Kautilya’s Arthashastra. Translation by R. Shamashastri. Oriental Research Institute, Mysore 1915. Bhratrihari’s Vakyapadiya. Translation by K.A. Subramania Iyer, Deccan College, Pune 1965. Freedom from the known, J. Krishnamurthy, Victor Gollancz Ltd, London 1969. Ancient Sources of Indian Psychology. B. Kuppuswamy, Asia publishing house, New Delhi 1964.
Innovationen in Finanzmärkten
Innovationsbasierte Performancestrategien Michael Nelles / Marie Luise Meyer / Mareike Hermann / Martin Užík / Markus Pütz
1
Einleitung
Der Begriff der Innovation kann allgemein als eine Idee bzw. Erfindung definiert werden, die im Markt angewendet, zu Erfolgen führt. In der Literatur der Wirtschaftswissenschaft wird Innovation stets im Zusammenhang mit Joseph A. Schumpeter1 genannt, der diesen Begriff in Bezug auf die Produktionsfunktion einführte. Aber auch in der modernen Portfoliotheorie ist der Innovationsbegriff stark verankert. Dabei ist von der klassischen Sichtweise der Produkt- und Prozessinnovation zu abstrahieren. Vielmehr steht die normative Dimension der Innovation in ihrer positiven Ausprägung im Fokus. Dieser Sachverhalt wird durch die Theorie der Kapitalmarkteffizienz bedingt, da die Nachahmung erfolgreicher innovativer Portfoliostrategien zur Preiserhöhung der im Portfolio zusammengefassten Vermögenswerte und somit zu einer Renditeverringerung dieser Vermögenswerte führt. Insofern muss ein Portfoliomanager stets bestrebt sein, neue und vor allem innovative Anlagestrategien zu entwickeln. Mit dem vorliegenden Beitrag soll die Bedeutung von Innovationen im Bereich des Portfoliomanagements dargelegt werden. Für einen Gesamteindruck werden zwei verschiedene Ansatzpunkte gewählt, um die einzelnen Aspekte zu verdeutlichen. Zunächst beschäftigt sich das nachfolgende Kapitel mit Anlagestrategien, dem aktiven Handeln der Akteure. Portfoliostrategien müssen, wie schon zuvor erwähnt, immer wieder neu erfunden werden und innovativ sein, um entsprechende Renditen verbuchen zu können. Dies geschieht beispielhaft durch die Vorstellung der Rollierenden Momentum-Strategie. Daran anschließend wird die Reaktion des Kapitalmarktes auf Innovationen in Form von Preisbildung thematisiert. Dabei werden zum einen Börsenmultiples innovativer Unternehmen betrachtet. Zum anderen wird die Performance eines innovativen Portfolios im Vergleich zu einer Benchmark überprüft. Der Beitrag schließt mit einem kurzen Fazit. 1
Vgl. Schumpeter (2008).
290 2
M. Nelles / M. L. Meyer / M. Hermann / M. Užík / M. Pütz Innovative Portfoliostrategien am Beispiel der Rollierenden Momentum-Strategie
Die Momentum-Strategie, eine prozyklische Anlagestrategie2, beruht auf der zentralen Annahme, dass sich die Gewinneraktien der Vergangenheit auch höchstwahrscheinlich in der nahen Zukunft in die gleiche Richtung entwickeln werden. Ähnliches wird auch für die Performance der Verliereraktien unterstellt. Die Grundlage für diese Annahme liefern die technischen Handelsregeln der relativen Stärke nach Levy.3 Im Hinblick auf diese Anlagestrategie kann durch die Veränderung der Zeitkongruenz zwischen der Formations- und Halteperiode eine neue Anlagevorgehensweise befolgt werden.4 In den vorliegenden Untersuchungen wurde, abweichend von bisherigen empirischen Vorgehensweisen5, eine monatlich rollierende Momentum-Strategie getestet. Dafür wurden für den Zeitraum Juni 1999 bis Juli 2006 auf Basis von Aktienperformances6 monatlich aus dem Anlageuniversum des CDAX78 periodisch eine bestimmte Anzahl Aktien als Gewinner bzw. Verlierer identifiziert. Dazu wurden die diskreten Renditen der einzelnen Aktien über die 6-monatigen Formationsperioden gemessen und entsprechend ihrer Renditehöhe in eine Rangfolge gebracht. Die besten 10% bildeten gleichgewichtet das Gewinnerportfolio. Analog wurden die schlechtesten 10% im Verliererportfolio zusammengefasst. In der anschließenden 6-monatigen Halteperiode wurde das Gewinnerportfolio gekauft und das Verliererportfolio (leer) verkauft.9 Der CDAX wurde als Benchmark ausgewählt.10 Bei der monatlichen Wiederanlage wird unterstellt, dass jederzeit ein Sechstel des ursprünglichen Anlagebetrages reinvestiert wird.11 Bei der Berechnung 2 3 4 5 6 7 8
9
10 11
Im Gegensatz zu einer prozyklischen Anlagestrategie werden bei einer antizyklischen Anlagestrategie (Contrarian-Strategie) Siegeraktien verkauft und Verliereraktien gekauft. Vgl. Levy (1967), S. 595-610. Vgl. Nelles/Užík/Holtfort (2007), S. 444. Bisherige Untersuchungen setzen erst nach dem Ende der Halteperiode wieder neu an. Datenlieferant der gesamten Untersuchung: Bloomberg. Der CDAX ist eine eingetragene Marke der Deutsche Börse AG. Auf die Kennzeichnung wird fortan zu Gunsten einer besseren Lesbarkeit verzichtet. Der CDAX enthält alle inländischen Unternehmen aus den Marktsegmenten Prime Standard und General Standard. Der Index repräsentiert die gesamte Breite des deutschen Aktienmarktes, d.h. alle an der FWB gelisteten Unternehmen. Der Veräußerungserlös aus den Leerverkäufen könnte verzinslich angelegt werden. Auf eine Einbeziehung der Zinsen wird ebenso verzichtet wie auf die Berücksichtigung der Leihgebühren leerverkaufter Aktien. Vgl. Nelles/Užík/Holtfort (2007), S. 445. Die Methodik eines über alle Perioden konstanten Kapitaleinsatzes hat zur Folge, dass der Zinseszinseffekt bei positiver Wertentwicklung nicht ausgenutzt wird. Nicht wieder angelegte Beträge werden bis zum Ende der Untersuchungsperiode unverzinst gehalten und führen somit
Innovationsbasierte Performancestrategien
291
der Renditen wird somit eine konstante Basis berücksichtigt, so dass die einfache Addition der einzelnen 6-Monatsrenditen möglich ist. Bei den Renditen ist zu beachten, dass sich diese auf lediglich ein Sechstel des ursprünglichen Anlagebetrages beziehen. Sie sind jedoch in Bezug zur ursprünglichen Anlagesumme zu setzen und deshalb durch den Faktor Sechs zu teilen.12 Für jede 6-monatige Halteperiode i wurde die Überrendite (Abnormal Return) ARGewinner,i des Gewinnerportfolios gegenüber dem Marktportfolio, repräsentiert durch den CDAX, sowie die Überrendite ARVerlierer,i des (leer)verkauften Verliererportfolios gegenüber dem CDAX ermittelt:
ARGewinner , i ARVerlierer , i
1 ( RG , i RM , i ) 6 1 ( RV , i RM , i ) 6
für i = 1,2, … ,73
RM,i
Rendite CDAX in der Periode i
RG,i RV, i
Rendite Gewinnerportfolios in der Periode i Rendite Verliererportfolios in der Periode i
Des Weiteren interessiert der Gesamterfolg ARBWSL–S,i der kombinierten BuyingWinner-Selling-Loser-Strategie13 in jeder Periode: 1 A R B W SL S , i A R G ew inner , i A RV erlierer , i R G , i RV , i 6 Zur Bestimmung des Anlageerfolgs über die gesamte Untersuchungsperiode wird eine additive Verknüpfung der einzelnen abnormalen Renditen (Überrenditen) über die 73 Perioden vorgenommen.
12 13
zur Bildung einer „Barreserve“. Eine negative Wertentwicklung führt zur Verringerung der „Barreserve“ bzw. zu der Notwenigkeit, dass Kapital in Form einer Kreditaufnahme nachgeschossen werden muss. Es wird unterstellt, dass notwendige Kreditaufnahmen zinslos erfolgen. Aufgrund der nachhaltig positiven Entwicklung der Rollierenden Momentum-Strategie, die in der folgenden Analyse verdeutlicht wird, spielt die Problematik einer Kreditaufnahme keine Rolle. Vielmehr kommt es zu einer nachhaltig wachsenden Barreserve. Da der Zinseszinseffekt nicht berücksichtigt wird, können die nachfolgenden Ergebnisse als ein „vorsichtiges Szenario“ gewertet werden. Vgl. Nelles/Užík/Holtfort (2007), S. 446. Im Folgenden wird diese Strategie durch die Abkürzung BWSL-S dargestellt.
292
M. Nelles / M. L. Meyer / M. Hermann / M. Užík / M. Pütz
Für die Buying-Winner-Selling-Loser-Strategie ergibt sich die kumulierte Rendite (CAR) aus: 73
C A R BW SL S
¦
A R B W S L S ,i
i 1
Tabelle 1: Übersicht der Renditen Outperfor- Outperformance der mance der Performance Gewinner Verlierer BWSLPerformance Performance Strategie der 10% der 10% Performance ggü. CDAX ggü. CDAX 14 CDAX Gewinner Verlierer ARGewinner ARVerlierer ARBWSL-S Kumulierte Rendite Mittlere Rendite Standabweichung
123,01%
-10,83%
3,17%
119,84%
13,99%
133,83%
1,69%
-0,148%
0,043%
1,642%
0,192%
1,833%
4,69%
6,59%
2,91%
2,88%
4,65%
3,50%
Max. Rendite
14,63%
19,39%
6,12%
10,64%
8,08%
8,45%
Min. Rendite
-7,30%
-10,18%
-7,36%
-3,15%
-13,66%
-7,89%
Rendite p.a.
13,13%
-1,75%
0,48%
12,88%
2,04%
13,96%
Die gewonnenen Ergebnisse (siehe Tabelle 1) zeigen, dass mit einer monatlich rollierenden Buying-Winner-Selling-Loser-Strategie über den ausgewählten Sechseinhalb-Jahreszeitraum eine Gesamtperformance in Höhe von 133,83% erzielt wurde. Dies entspricht einer annualisierten Rendite von annähernd 14%. Demgegenüber konnte der CDAX als Benchmark bei identischer Anlagemethodik lediglich eine Gesamtperformance von 3,17% erreichen.15 Die Outperformance (Überrendite) der Gewinner-Portfolios gegenüber dem CDAX betrug 119,84% und steuerte damit den wesentlichen Anteil zum Erfolg der Gesamtstrategie bei. Die Verliererportfolios konnten den CDAX nur um etwa 14% übertreffen. Im Vergleich zu den in der Literatur festgestellten Ergebnissen ermöglicht diese innovative Anlagestrategie eine höhere Performance als klassische Momentum-Strategien.
14 15
Kauf des CDAX zu Beginn jeder Halteperiode und Erfolgsrealisierung zum Ende der Periode. Wiederanlage jeweils in Höhe eines Sechstels des ursprünglichen Anlagebetrages. Eine Buy-and-Hold-Strategie des CDAX, mit Kauf zum Dezemberultimo 1999 bei einem Indexstand von 564,44 Punkten und dem Verkauf zum 30.06.2006 bei einem Stand von 510,40 Punkten, hätte einen Verlust von 9,6% zur Folge gehabt. Demgegenüber schneidet die BWSLStrategie noch besser ab.
Innovationsbasierte Performancestrategien Abbildung 1:
293
Entwicklung der CAR im Zeitablauf
Die Darstellung der kumulierten abnormalen Renditen (CAR) in Abbildung 1 verdeutlicht, dass die Verliererstrategie lediglich während der ausgeprägten Baisse in der ersten Hälfte der Untersuchungsperiode einen positiven Beitrag zur Gesamtperformance liefern kann. Die kumulierten abnormalen Renditen erreichen einen Wert von annähernd 100%, werden jedoch aufgrund der Aktienhausse bis zum Ende des Untersuchungszeitraums fast vollständig aufgezehrt. Gut erkennen lässt sich der gegensätzliche Verlauf der kumulierten Renditen der Gewinner- und Verliererportfolios. Während der Baisse erweisen sich diejenigen Aktien, die eine hohe relative Stärke aufweisen, als gute Anlagemöglichkeit, denn die kumulierten Renditen der Gewinnerportfolios bewegen sich in dieser Phase seitwärts, während der Verlauf der kumulierten Renditen des CDAX einen negativen Trend aufweist.
3
Analyse der Kaufpreise bei M&A-Transaktionen
Ein weiterer interessanter Aspekt im Zusammenhang mit Investitionen und Innovationen ist die Analyse der gezahlten Kaufpreise bei M&A-Transaktionen. Diese Analyse basiert auf der Annahme, dass ein Unternehmen bereit ist, Inno-
294
M. Nelles / M. L. Meyer / M. Hermann / M. Užík / M. Pütz
vationen entgeltlich zu erwerben. Eine weitere Prämisse im Rahmen dieser Analyse unterstellt, dass je höher der festgestellte Deal-Multiple ist, desto höher der Wert der Innovation bei dem übernommenen Unternehmen ist. Bei der Analyse werden innovative Branchen mit klassischen Branchen verglichen. Die zu prüfende Hypothese lautet: Deal-Multiples in innovativen Branchen fallen im Durchschnitt höher aus als in nicht-innovativen Branchen.16 In den Untersuchungszeiträumen von 1990 bis 1999 und von 2000 bis 2006 werden nachfolgend die weltweiten M&A-Transaktionen branchenbezogen ausgewertet.17 Insgesamt handelt es sich um 19.907 Transaktionen. Sofern bei einer Unternehmenstransaktion der Kaufpreis aufgeführt wurde, wurde dieser Kaufpreis in die Analysen mit einbezogen. Ausgewertet wurden die Umsatz-, die EBITDA-, die EK-Buchwert- und die Free Cashflow (FCF)-Deal-Multiples. Abbildung 2:
16 17
Umsatz-Deal-Multiples ausgewählter Branchen
Vgl. Uzik (2009). Datenlieferant der gesamten Untersuchung: Bloomberg.
Innovationsbasierte Performancestrategien Abbildung 3:
295
EBITDA-Deal-Multiples ausgewählter Branchen
Bei den Umsatz-Deal-Multiples ist zunächst die Branche Basic Materials auffällig. Bei näherer Betrachtung kann der hohe Umsatz-Deal-Multiple durch die Tatsache erklärt werden, dass diese Branche u.a. Unternehmen aus der Chemiebranche umfasst. Unternehmen der Chemiesparte können als F&E-intensiv bezeichnet werden, womit sich ein hoher Umsatz-Deal-Multiple erklären lässt. Die nähere Betrachtung von Deal-Multiples auf EBITDA-, FCF- und EKBuchwert-Basis (vgl. Abb. 3-5) zeigt, dass vornehmlich Technologie- und Kommunikationsunternehmen zu höheren Preisen eingekauft werden. Dies könnte ein Signal des Marktes in Bezug auf die zukünftige Performance der Unternehmen dieser „innovativen“ Branchen sein. Eine Auswahl von Subbranchen der innovativen Branchen könnte eine weitere Signalwirkung liefern, falls die Multiples in dieser Zusatzuntersuchung im Durchschnitt höher ausfallen als in den vorgestellten Branchen.
296 Abbildung 4:
M. Nelles / M. L. Meyer / M. Hermann / M. Užík / M. Pütz EK-Buchwert-Deal-Multiples ausgewählter Branchen
Als innovative Branchen werden die Software-, Internet- und Financial Venture Capital-Subbranche identifiziert. Letztere wurde ausgewählt, da in jüngster Zeit Unternehmen aus dem Finanzdienstleistungssektor innovative Finanzierungsinstrumente für den Kapitalmarkt entwickelten, wodurch neue Kapitalströme und neue Umsatzquellen kreiert wurden. Als klassische Branchen werden alle Branchen exklusive Communication, Technology und Financial definiert. Die „innovativen“ Branchen sind per Definition als Subbranchen den Wirtschaftszweigen Communication, Technology und Financial zugeordnet. Untersucht wurden die M&A-Transaktionen in den ausgewählten Branchen der Jahre 2000 bis 2006.
Innovationsbasierte Performancestrategien Abbildung 5:
297
FCF-Deal-Multiples ausgewählter Branchen
Tabelle 2: Deal-Multiples 2000 bis 2006 klassischer Branchen
Basic Materials Consumer, Cyclical Consumer, Non-cyclical Diversified Energy Industrial Utilities Mittelwert
Umsatz
EBITDA
23,39 2,19 17,07 7,05 18,71 2,19 3,96 10,65
19,7 14,32 22,66 40,59 14,42 15,73 8,45 19,41
Buchwert des Eigenkapitals 3,29 5,78 7,86 2,38 5,61 4,11 2,74 4,54
Free Cashflow 49,18 57,29 106,27 131,14 83,68 89,89 49,37 80,97
298
M. Nelles / M. L. Meyer / M. Hermann / M. Užík / M. Pütz
Tabelle 3: Deal-Multiples 2000 bis 2006 „innovativer“ Branchen Umsatz EBITDA Financial Venture Capital Internet Software Mittelwert
9,44 32,05 7,04 16,18
10,29 114,68 39,48 54,82
Buchwert des Eigenkapitals 2,79 8,89 9,37 7,02
Free Cashflow 236,48 116,54 108,46 153,83
Bei einem Vergleich der Ergebnisse der Tabelle 2 mit denen der Tabelle 3 wird ersichtlich, dass die Unternehmen innovativer Branchen im Untersuchungszeitraum auf Basis jeder Multiple-Kennzahl im Durchschnitt zu höheren Preisen gekauft wurden als Unternehmen anderer Branchen. Teilweise wurden deutlich höhere Kaufpreise gezahlt. Die Antwort auf die Bereitschaft der Käufer zur Aufbringung höherer Kaufpreise kann als ein Signal auf die implizite Berücksichtigung der in den gekauften Unternehmen enthaltenen Innovationen interpretiert werden.
4
Performance Innovativer Portfolios
Bei der Analyse der Performance innovativer Portfolios werden Unternehmen identifiziert, die maßgebliche Innovationen entwickelt haben und diese mit Erfolg auf dem Markt positionieren konnten. Tabelle 4: Übersicht der Unternehmen mit ihren jeweiligen Innovationen Company Name International Business Machines Corp Sony Corp Diamond Multimedia Systems Inc Apple Inc Apple Inc Sony Corp Nintendo Co Ltd Audi AG Microsoft Corp Daimler AG Pfizer Inc Atari SA Motorola Inc Honda Motor Co Ltd
Event 4-Bit-Prozessor Walkman MP3-Player iPod Apple II-PC OLED-Fernseher Gameboy Permanenter Allradantrieb MS-DOS Airbag Viagra Spielekonsole Kommerzielles Mobiltelefon Navigationsgerät
Innovationsbasierte Performancestrategien Forts. Company Name Hewlett-Packard Co Mattel Inc Toyota Motor Corp KUKA AG Schering-Plough Corp Google Inc Cisco Systems Inc Bandai Co Ltd Bayer AG Bayer AG 3M Co 3M Co SAP AG Mirosoft Corp Mirosoft Corp Mirosoft Corp Honda Motor Co Ltd Research In Motion Ltd Glaxo Smith Kline
299
Forts. Event Programmierbarer Taschenrechner Barbie Benzin-Elektro-Hybridantrieb Industrieroboter Betaferon Suchdienst via Internet Multiprotokoll-Router Tamagotchi Glucometer Clinitek Post-it Overhead-Projektor Abwicklungssoftware Internet Explorer Office 1 für Macintosh Office 3.0 Motorrad-Airbag Blackberry Gardasil
In der oben stehenden Tabelle 4 sind derartige Unternehmen mit ihren jeweiligen Innovationen aufgeführt. Bei der Analyse wurde untersucht, ob die jeweiligen Innovationen einen Einfluss auf den Verlauf der Aktien dieser Unternehmen nehmen und, wenn dies der Fall ist, welche Ausprägung dieser Einfluss (positiver oder negativer Rendite-Effekt) hat. Für die Untersuchung18 kann, nach der Bereinigung um fehlende Daten, ein Innovatives Portfolio aus 18 Unternehmen mit Innovations-Events aufgestellt werden. Dabei wird der Zeitpunkt der Markteinführung der Innovation als das Event-Datum angesehen. Die Aktien des jeweiligen Unternehmens werden für die Zeitspanne von zwölf Monaten vor und nach diesem Event-Datum mit in das Innovative Portfolio aufgenommen. Zwecks Vergleichs wird ein preisgewichtetes Portfolio gebildet. Als Benchmark wurde der MSCI World Index19 ausgewählt, indem zu jeder Aktie des Innovativen Portfolios eine Aktie des MSCI World Index aufgenommen wird, und zwar zum jeweiligen Anlagezeitraum der Aktien im Innovativen Portfolio.
18 19
Datenlieferant der gesamten Untersuchung: Bloomberg. Der MSCI World Index ist einer der wichtigsten Aktienindizes der Welt und spiegelt die Entwicklung der weltweiten Aktien wider. Der Index beinhaltet Aktien aus 24 Ländern und wird seit dem 31. Dezember 1969 berechnet.
300
M. Nelles / M. L. Meyer / M. Hermann / M. Užík / M. Pütz
Abbildung 6:
Performancevergleich
Aus der Performancedarstellung (siehe Abb. 6) über eine Zeitspanne von zwei Jahren ist zu entnehmen, dass das Innovative Portfolio, welches zunächst starken Schwankungen ausgesetzt war, mit dem Zeitpunkt der Markteinführung der Innovationen ein stetiges Wachstum zu verzeichnen hatte und den MSCI World Index zu jeder Zeit schlug. Zum Ende der Laufzeit beträgt der Total Return20 der Investition in das Innovative Portfolio 27,46% im Vergleich zu 9,27%, die der MSCI World Index bot. Dieses Ergebnis lässt zum einen die Vermutung zu, dass die Kapitalmärkte auf Innovationen reagieren und zum anderen, dass sie diese sogar honorieren.
5
Fazit
Wie gezeigt werden konnte, sind im Bereich des Portfoliomanagements Innovationen von essentieller Bedeutung. Zum einen wird das aktive Handeln der 20
Beim Total Return handelt es sich um eine Investment-Strategie, deren Ziel es ist, eine möglichst absolut positive Rendite zu erwirtschaften und selbst im ungünstigsten Fall mindestens das investierte Kapital zu erhalten. Der wesentliche Unterschied zu anderen Strategien ist, dass nicht nur die Benchmark in der Wertentwicklung geschlagen werden soll.
Innovationsbasierte Performancestrategien
301
Marktakteure in Form von innovativen Ideen in neue Anlagestrategien mit einer entsprechenden Rendite belohnt, wie das Beispiel der Rollierenden MomentumStrategie belegt. Auf Grundlage der rollierenden Buying-Winner-Selling-LoserStrategie wurde eine Jahresrendite von 14%, erwirtschaftet im Vergleich zum CDAX, der bei 3,17% lag. Zum anderen zeigt auch der Kapitalmarkt selbst Reaktionen auf Innovationen. So werden Unternehmen innovativer Branchen auf Basis jeder untersuchten Multiple-Kennzahl im Durchschnitt zu höheren Preisen gekauft als Unternehmen anderer Branchen, was den Schluss nahe legt, dass die in den gekauften Unternehmen enthaltenen Innovationen von den Käufern implizit berücksichtigt werden. Und auch die Performance des Innovativen Portfolios mit einem Total Return der Investition von 27,46%, im Vergleich zum MSCI World Index mit 9,27%, stützt diese Aussage.
Literatur August, R./Schiereck, D./Weber, M. (2000): Momentumstrategien am deutschen Aktienmarkt: Neue empirische Evidenz zur Erklärung des Erfolgs, in: Kredit und Kapital, Heft 2/2000, S. 198-234. Jegadeesh, N./Titman, S. (1993): Returns to buying winners and selling losers: implications for stock market efficiency, in: Journal of Finance, Heft 48 Issue 1, S. 65-91. Levy, R. A. (1967): Relative Strength as a criterion for investment selection, in: Journal of Finance, Vol. 22 Issue 4, S. 595 - 610. Nelles, M./Užík, M./Holtfort, T. (2007): Rollierende Momentum-Strategien am deutschen Aktienmarkt, in: Finanz Betrieb 9. Jg., Heft 7-8/2007, S. 444-449. Rouwenhorst, K. Geert (1998), International Momentum Strategies, Journal of Finance, Vol. 53, Issue 1, S. 267-284. Schumpeter, Joseph A. (2008): Konjunkturzyklen. Eine theoretische, historische und statistische Analyse des kapitalistischen Prozesses, Neuausgabe, Göttingen 2008. Uzik, M. (2009): Immaterielles Kapital – Bewertung und Steuerung, Habilitationsschrift, erscheint in Kürze, Bergische Universität Wuppertal 2009.
Finanzinnovationen, Wachstum und transatlantische Bankenkrise Paul J. J. Welfens1
1
Bankenkrise und Wirtschaftswachstum
Die transatlantische Bankenkrise 2007/08, die von der US-Subprime-Krise – beginnend im Sommer 2007 – ausging, hat nachfolgend zu einer Weltrezession geführt. Dabei sind bis Mitte 2009 Abschreibungen von Banken, Versicherungen und Fonds von rund 1500 Mrd. $ entstanden. Die Rekapitalisierungen erreichten dabei bis Juni 2009 nur etwa 1250 Mrd. $, womit 250 Mrd. $ bei Banken und anderen Finanzdiensteanbietern rechnerisch fehlen – hier könnte ein wegen der Schrumpfung von Eigenkapital der Banken ausgelöster Bremsprozess bei Krediten zum Expansionshemmnis für den mittelfristigen Wirtschaftsaufschwung werden. Da bei einer Mindesteigenkapitalquote von 8% der Banken rechnerisch bis zu etwa 3000 Mrd. $ an Kreditvolumen in OECD-Ländern fehlen, ist die potenzielle Kreditlücke durchaus erheblich, zumal auf Basis der Angaben des IMF im Financial Stability Report 2009 mit Abschreibungen insgesamt in einer Größenordnung von 4000 Mrd. $ zu rechnen ist, wovon der größte Teil auf Banken entfällt. Dutzende von Großbanken in den USA, Großbritannien und Deutschland sowie einigen anderen OECD-Ländern wurden mit Hilfe von Staatskapitalbeteiligungen und großen Staatsgarantien bei Kapitalmarktplatzierungen von Bankschuldverschreibungen stabilisiert. Die Bankenaufsicht in vielen Ländern wurde verschärft, aber in Sachen Ursachenforschung ist relativ wenig geschehen und an adäquaten Reformen mangelte es auch Mitte 2009 weiterhin.
1
Meinen Mitarbeitern Martin Keim, Jens Perret und Christian Schröder (EIIW) danke ich für technische Unterstützung.
304
Paul J. J. Welfens
Mit hohen Kosten für die Steuerzahler bzw. erhöhten staatlichen Schuldenquoten als Folge von Bankenkrise und Weltrezession ist zu rechnen. Dabei bleibt zunächst unklar, ob die Weltwirtschaft zu den hohen Wachstumsraten bzw. zum alten Wachstumspfad der Dekade 1995-2005 zurückfinden wird, der durch das Zusammenspiel von hoher Innovationsdynamik im Sektor der Informations- und Kommunikationstechnologie (IKT) einerseits und starker Innovationsdynamik im Banken- bzw. Finanzsektor andererseits geprägt war. Diese SchumpeterDynamik war eingebettet in eine wirtschaftliche Globalisierung, wobei die Finanzmarktglobalisierung2 ein wesentliches Element war. Sinkende internationale Transaktionskosten dank IKT-Expansion, Kapitalverkehrsliberalisierungen und Finanzmarktinnovationen haben zur Finanzmarktglobalisierung beigetragen, wodurch die Realzinssätze zeitweise sanken, was wiederum zu hohen Investitionsquoten in OECD- und Schwellenländern beigetragen hat. Dabei haben zeitweise unnormal niedrige Risikoprämien – vor allem im Zeitraum 2003-06 in den USA3 – zu einer Art künstlichen Wachstumsbeschleunigung in OECD-Ländern geführt. Man stellt sich von daher die dreifache Frage,
wie die Bankenkrise zustande kam und welche Rolle Finanzinnovationen hierbei spielen; welche Reformen für die Überwindung der Bankenkrise bzw. nachhaltiges Wirtschaftswachstum in der Weltwirtschaft notwendig sind; welche Globalisierungsperspektiven sich angesichts der tatsächlichen Reformen mittelfristig abzeichnen.
Für die ökonomische Analyse ist die internationale Bankenkrise eine große Herausforderung, denn der Grad an Komplexizität der Krisendynamik scheint auf den ersten Blick sehr hoch zu sein. Wie im weiteren zu zeigen sein wird, ist die Ursachenanalyse jedoch recht kompakt und die Schlussfolgerungen in Sachen Reformpolitik sind eindeutig. Es wird dabei auch argumentiert werden, dass eine Umsetzung seitens der Wirtschaftspolitik nicht ohne weiteres zu erwarten sein wird. Die Kosten der Bankenrettungen sind erheblich, nach Angaben der Europäischen Zentralbank haben die Fülle der staatlichen Kapitalbeteiligungen bei Banken und andere Belastungen aus der Bankenkrise die staatliche Schuldenquote im Euroraum bis Mitte 2009 um 3,3 Prozentpunkte nach oben getrieben.4 Man kann hinzufügen, dass die Defizitquoten in 2008/09 durch die Bankenrettungsmaßnahmen und die einsetzende Weltrezession massiv nach oben getrieben 2 3 4
Vgl. Deutsche Bundesbank (2008). Vgl. Goodhart (2007). Vgl. hierzu und zu Länder-Details den Anhang 4.
Finanzinnovationen, Wachstum und transatlantische Bankenkrise
305
wurden und ausgerechnet schlecht gemanagte Großbanken – gewissermaßen die schlechtere Hälfte der Großbanken im OECD-Raum – haben in Gestalt der Platzierung von zusätzlichen Staatsanleihen nun auch noch eine leichte Gewinnquelle. Es ist nicht anreizkompatibel, wenn Hauptverursacher der Bankenkrise quasi am Ende noch eine leicht verdienbare Belohnung vom Staat erhalten. Der Staat wäre gut beraten, sinnvolle Kriterien für die Platzierung von Staatsanleihen festzulegen, wozu eben auch nachhaltig stabile Bankengeschäfte – gemessen an bestimmten Indikatoren – gehören. Sofern die Erhöhung der Schuldenquote bei Investoren zu höheren erwarteten Einkommenssteuersätzen führt, dürfte dies die langfristige reale Wirtschaftsentwicklung negativ beeinflussen. Zudem besteht die Gefahr, dass die Bankenkrise trotz gewaltiger Bankenrettungspakete in den USA und der EU weiter schwärt und das weltwirtschaftliche Wachstum mittelfristig absinkt.
2
Entstehen der Transatlantischen Bankenkrise
Grundsätzlich spielen Banken als Finanzintermediäre seit Jahrhunderten in Marktwirtschaften eine wichtige Rolle: Dank effizienter Finanzintermediation, die viele kleine Sparbeträge unterschiedlicher Fristigkeit im wesentlichen finanzierungsmäßig in langfristige Investitions- bzw. Innovationsprojekte der Realwirtschaft leitet, hat sich ein enormer wirtschaftlicher Aufschwung im England der Industrialisierung und nachfolgend in Kontinentaleuropa und den USA sowie Teilen Asiens ergeben. Losgrößen-, Fristen- und Risikotransformation gehören zu den Standardelementen der Finanzintermediation, wobei in den USA und Großbritannien seit dem Beginn des 20. Jahrhunderts eine starke Expansion der Kapitalmärkte bzw. Aktienbörsen hinzutrat. Die US-Finanzmärkte hinkten im späten 19. Jahrhundert noch hinter Großbritannien hinterher und die USA traten zeitweilig als Kapitalexporteur auf, die Hauptexportländer von Kapital hießen allerdings Großbritannien, Deutschland und Frankreich. Das internationale System funktionierte auf Basis des Goldstandards weitgehend zufriedenstellend, die Zinssätze in Europa waren niedrig – bei geringen Zinsunterschieden zwischen westeuropäischen Ländern. Große Probleme entstanden dann in der Zwischenkriegszeit bzw. in den 30er Jahren, wobei die USA 1935 nicht nur eine Einlagensicherung einführten, sondern auch die Securities Exchange Commission gründeten – zwecks Regulierung von Börsengeschäften.5 Dies ist gerade jene Institution, die bei der Finanzaufsicht über die US-Investmentbanken (Banken ohne normales Einlagengeschäft) zu Beginn des 21. Jahrhunderts versagt hat. 5
Vgl. Tilly (2003), S. 182.
306
Paul J. J. Welfens
Die USA sind seit Jahrzehnten für ihre hochentwickelten Finanzmärkte bekannt und hatten über lange Jahre – abgesehen vom Sonderfall Schweiz – den niedrigsten realen Kapitalmarktzins. Zudem konnten Firmen eine große Palette an differenzierten Finanzangeboten nutzen, inklusive leistungsfähiger spezialisierter Venture-Capital-Angebote, die mittelfristig der realwirtschaftlichen Innovationsdynamik und dem Wachstum der USA zugute kamen. Es gibt für die USA und die EU empirische Evidenz, die darauf hinweist, dass Venture-capital-Ausgaben im Vergleich zu staatlichen F&E-Ausgaben einen relativ hohen Wachstumseffekt haben.6 Jedoch ergaben sich seit den späten 90er Jahren zunehmend Verwerfungen auf den Finanzmärkten bzw. im Bankenmarkt, der u.a. im Zuge einer zunehmenden Too-big-to-fail-Problematik weniger wettbewerbsintensiv wurde. Allerdings zeigte sich durchaus eine starke Finanzmarktinnovationsdynamik, die teilweise der Konkurrenz durch Hedge Fonds mit ihren hohen Renditen, teilweise auch der Niedrigzinspolitik unter Notenbank-Chef Greenspan zuzuschreiben war. Jedenfalls lässt sich argumentieren, dass ausgeprägte Niedrigzinsphasen zu einer Unzufriedenheit von Finanzanlegern mit den erzielen realen Renditen führen, worauf Banken bzw. Finanzdiensteanbieter mit der Entwicklung höher rentierlicher und das heißt in der Regel auch riskantere Anlagen – im Sinne der Varianz der Rendite – reagieren. In der ökonomischen Analyse hat man, von wenigen Ausnahmen abgesehen7 Fragen der Finanzinnovationen lange Zeit relativ wenig Interesse entgegengebracht. Nicht ohne weiteres ist nachzuvollziehen, dass die Entwicklung zu mehr Finanzinnovationen für eine Reihe von Großbanken in den USA zum Problem wurde. Allerdings hat in den USA wachsende Konkurrenz der Hedge Fonds die Großbanken Ende der 90er Jahre sichtbar unter Druck gesetzt und zunächst einmal stiegen die Anspruchsrenditen bei den Banken. Wenn man davon ausgeht, dass damit auch die Risiken für die Banken sich erhöhten, fragt man sich, ob es denn auch einen parallelen Ausbau der Risikomanagementsysteme gegeben hat. Hier sind erhebliche Zweifel angebracht8 und die Institutionen, die sich um diese Frage in den USA (und auch in der EU) hätten kümmern sollen, nämlich die Wirtschaftsprüfer – sie sollen ja u.a. die Überlebensaussicht von Banken/Unternehmen fürs nächste Jahr und die Integrität des Risikomanagementsystems prüfen – und die Bankenaufsicht haben zu wesentlichen Teilen versagt. Wenn man sich fragt, ob die Finanzmärkte in den USA ein Innovationssystem im Sinn der üblichen – tendenziell eher realwirtschaftlichen – Innovationsliteratur9 6 7 8 9
Vgl. Kortum/Lerner (1998); Schröder (2009). Siehe etwa Ramser/Stadler (1995) und die dort zitierte Literatur. Vgl. BIS (2000). Vgl. z.B. Grupp (1997); Welfens (2008).
Finanzinnovationen, Wachstum und transatlantische Bankenkrise
307
herausgebildet haben, so kann man diese Frage weitgehend verneinen; und ähnliches gilt für die EU (und vermutlich auch für die Schweiz). Ein leistungsfähiges Innovationssystem ist eine effiziente Vernetzung von im Innovationsprozess involvierten komplementären Akteuren, die eine hohe Intensität der Innovationsdynamik und eine hohe Qualität der Innovationsprozesse hervorbringen. Vermutlich haben die USA bis in die 80er Jahre noch ein halbwegs funktionsfähiges Finanzinnovationssystem gehabt, aber mit zunehmender Internationalisierung der Bankenmärkte bzw. den von sinkenden Kommunikationskosten getriebenen Direktinvestitionen von Banken10 entstanden zunehmend internationalisierte Finanzdienstleistungen, die jedoch zu einem erheblichen Teil im Ausland via Zweigniederlassungen und Tochtergesellschaften erbracht wurden – mit wohl geringer Rückkopplung zum US-Bankensystem bzw. zur USFinanzmarktaufsicht. Schon in den 80er Jahren ergaben sich starke Tendenzen zur Verbriefung von Krediten, und zwar Krediten an Staaten in Entwicklungsund Schwellenländern, wobei die US-Banken stark negativ von der Mexikobzw. Lateinamerikakrise betroffen waren. Mitte der 80er Jahre veröffentlichte die Bank für Internationalen Zahlungsausgleich11 einen analytischen Bericht mit dem Titel „Recent Innovations in International Banking“, wobei bereits Fragen der Verbriefung von Krediten – damals mit dem Focus auf staatlichen Krediten bzw. Auslandskrediten – kritisch reflektiert wurden. Die zunehmende Verbriefung inländischer Kredite in den USA in den 90er Jahren bezog sich wesentlich auch auf Immobilienkredite, inklusive der bonitätsmäßig schwachen Kategorien Subprime und Alt-A, die jedoch jeweils nur etwa 720 Mrd. $ in 2007 ausmachten: Zusammen entsprach dies etwa 10% des nominalen US-Bruttoinlandsproduktes. Es ist von dieser Größenordnung her eigentlich erstaunlich, dass die Subprime-Krise, die mit dem absoluten und relativen (siehe Abbildung 1) Preisverfall der US-Immobilienkrise in 2007 einsetzte, das ganze US-Bankensystem in Überlebensprobleme geraten ließ – und die USA sowie nachfolgend die Weltwirtschaft in die schärfste Rezession seit der Weltwirtschaftskrise stürzte. Das US-Bankensystem war eben strukturell geschwächt, wobei natürlich der absolute Verfall der Immobilienpreise offenbar für viele Marktakteure unerwartet kam: naiv hatte man adaptive, also vergangenheitsorientierte Erwartungen gebildet.
10 11
Vgl. Wieland (1995). Vgl. BIS (1986).
308
Paul J. J. Welfens
Abbildung 1:
Relativer US-Immobilienpreisindex (Hauspreisindex/BIPDeflator; 1991Q1=100) OFHEO Real House Price Index in the U.S.
(M, Q, Y)
1,60 1,50 1,40 1,30 1,20 1,10 1,00
2009Q1
2008Q1
2007Q1
2006Q1
2005Q1
2004Q1
2003Q1
2002Q1
2001Q1
2000Q1
1999Q1
1998Q1
1997Q1
1996Q1
1995Q1
1994Q1
1993Q1
1992Q1
1991Q1
0,90
Data Source: Federal Housing Finance Agency
Viele Banken in den USA und der EU betrieben seit den späten 90er Jahren – auf der Jagd nach neuen Top-Eigenkapitalrenditen – zunehmend außerbilanzielle Geschäfte, für die die Eigenkapitalvorschriften von Basel I/II nicht galten. Dabei wurden letztlich mit großen Kredithebeln über eigene Zweckgesellschaften verbriefte Kapitalmarktprodukte angekauft, darunter eben auch Subprime-Papiere, und dann begann mit der Subprime-Krise eine Abwärtsspirale:
Da die Zweckgesellschaften (Special Purpose Vehicles) sich angesichts der im Sommer 2007 massiv einsetzenden Zweifel an der Werthaltigkeit von MBS-Papieren (durch Immobilienkredite gesicherte Papiere) – und weitergehend von ABS-Papieren insgesamt – nicht mehr wie bis dahin üblich über kurzfristige Kredite (commercial papers) am Kapitalmarkt refinanzieren konnten, mussten die Banken als Muttergesellschaften einspringen und nahmen liquiditätsmäßig schwache Papiere von Zweckgesellschaften schrittweise in die eigene Bilanz auf. Die effektiv bei vielen Banken schlechte Qualität der Asset Backed Securities/MBS erklärt sich auch aus dem Anreizproblem, dass Bank-Manager bei der Kreditvergabe mit Blick auf die Elemente Risiko und Liquidität wenig Anreiz zu einem kritischen Blick auf die vergebenen Kredite hatten, da sie eben fast blind darauf setz-
Finanzinnovationen, Wachstum und transatlantische Bankenkrise
309
ten, via die Finanzinnovation Verbriefung die Kredite gebündelt (CDO) in den Kapitalmarkt weiterreichen zu können; eine wichtige Innovation war das Tranchieren der Kredite bzw. der Verbriefungen, da man Kredite nach Risikoklassen quasi vertikal tranchierte und insgesamt Kredite tendenziell so in Paketen mischte, dass ein verbessertes Rating für die Kredittranchen oberhalb der voll im Risiko stehenden Equity Tranche zustande kam. Die Rating-Agenturen vergaben hier freigiebig Top-Ratings. Zur Jahreswende 2007/08 erwiesen sich aber immer mehr top geratete Papiere als relativ illiquide und große Abschreibungen bzw. Verluste bedrohten viele Großbanken in den USA und der EU (Ausnahmen waren Spanien und Italien, wo die Zentralbanken der Expansion außerbilanzieller Geschäfte regulatorisch z.T. erhebliche Riegel vorgeschoben hatten). Bankmanager und Händler von Banken zeigten vor allem zu Beginn des 21. Jahrhunderts einen starken Hang zu kurzfristigen Entscheidungshorizonten und zum Eingehen hoher Risiken bei der Jagd nach Top-Renditen, wobei entsprechende BonusSysteme entsprechende Anreize gaben. Damit aber breitete sich nun eine Misstrauensspirale bei den Großbanken dahingehend aus, als immer schärfer die Frage gestellt wurde, wie viele toxische Papiere aus Zweckgesellschaften diverse Großbanken denn noch in die eigene Bilanz zu stellen hatten. Die Intransparenz der außerbilanziellen Aktivitäten in den Zweckgesellschaften hatte – aus theoretischer Sicht – zu einem Market-for-lemons-Problem geführt: Großbanken hatten selbst den Interbankenmarkt durch ihre Geschäfts- bzw. Bilanz- und Informationspolitik zerstört: Akerlof (1970) hatte allgemein auf ein mögliches Marktversagensproblem bei asymmetrischen Informationen bzw. Informationsunsicherheit und negativer Qualitätsvermutung aus theoretischer Sicht hingewiesen („Zitronenmarktproblem“). Die Informationsqualität von Bilanzen wurde in der Bankenkrise zunehmend angezweifelt; damit aber wuchs das Misstrauen im Interbankenmarkt und dieser kollabierte Ende 2007 und dann im Verlauf 2008 sowohl in den USA als auch in der EU. Damit aber wurden die Zentralbanken quasi gezwungen, in riesigem Umfang Extra-Liquidität zur Sicherung des Bankensystems bereitzustellen, wobei man anfänglich von vorübergehenden Notmaßnahmen sprach, jedoch dann in eine mehrjährige Sondersituation geriet – dabei wurden noch die Notenbankzinssätze bis Anfang 2009 auf historische Rekordniveaus abgesenkt und die normalen Instrumente der Geldpolitik waren völlig stumpf geworden. Unkonventionelle Maßnahmen, etwa der direkte notenbankseitige Ankauf von staatlichen Wertpapieren oder Bankschuldverschreibungen, wurden in den USA, Großbritannien und der Eurozone diskutiert und ansatzweise praktiziert. Im Übrigen hatte der ideologisch motivierte US-Konkursfall Lehman Brothers im
310
Paul J. J. Welfens September 2008 das bestehende Restvertrauen auf den Interbankenmärkten weltweit zerstört. Hier beging die Bush-Administration einen gravierenden Politikfehler, der zudem Politikinkonsistenz zeigte, da man die kleinere Bear Stearn Investment Bank in der frühen Phase der US-Bankenkrise noch im März gerettet hatte. Allerdings gibt es in den USA und der EU in der Tat ein Too-big-to-fail-Problem: dass nämlich Großbanken übermäßig Risiken eingehen und dabei darauf setzen, dass sie nicht in Konkurs gehen können bzw. der Staat die Bank im Zweifelsfall retten wird. Es ist im Übrigen keinesfalls so, dass die größten US-Banken auch die höchsten Kapitalrenditen erzielen, sondern eher mittelgroße Banken (siehe Anhang 1). Eine weitere Finanzinnovation, die grundsätzlich nützlich sein könnte, aber denkbar schlecht in den OECD-Finanzmärkten organisiert war, betraf Credit Default Swaps (CDS), die eine Kreditversicherung darstellten. Banken konnten sich gegen Kreditrisiken damit offenbar absichern, die CDSPapiere wurden häufig im Markt weiterverkauft – z.T. gemischt als intransparentes Produkt mit ABS-Papieren. Die Finanzmarktaufseher versagten in den OECD-Ländern insoweit, als sie keine zentrale Clearing-Stelle (eine Art digitale globale Signierstelle) verlangten, sondern zusahen, wie der CDS-Markt als völlig intransparenter Over-the-counter-Markt mit gigantischen Summen expandierte; 2007 erreichte das Marktvolumen die Höhe des Weltnationaleinkommens. Als dann einzelne Banken in den USA und der EU in 2007/08 in Konkurs gingen, musste man nach den betroffenden CDSHaltern erst mühsam suchen und oftmals stellte man fest, dass wackelige Hedge Fonds, mit großen Kredithebeln finanziert, CDS-Halter waren – je größer aber das Counter-party-risk, desto stärker mussten die vermeintlich abgesicherten Kreditportfolio-Positionen bei bestimmten Banken abgeschrieben werden oder eben als schwer zu bewerten bzw. toxisch gelten (die EU verfügte erst in 2009 die Einrichtung einer CDS-Clearing-Stelle). Ein besonderes Problem stellte der US-Versicherer AIG dar, der ohne solide Strategie massiv im CDS-Markt expandiert war und im September 2008 – nach dem Konkurs von Lehman Brothers – teilverstaatlicht wurde. Mit dem Absturz beim Aktienkurs von Großbanken in 2008 in den USA, Großbritannien, Schweiz und Frankreich, Benelux-Länder plus Deutschland – Banken mussten riesige Abschreibungen bzw. Verluste hinnehmen – begann der allgemeine Absturz wichtiger Aktienbörsen in den USA und Europa bzw. weltweit. Damit wiederum verschlechterten sich die Finanzierungsbedingungen von börsenotierten Großunternehmen und zudem drohte die Konsumnachfrage wegen Vermögensverlusten des privaten Sektors zurückzugehen. Da regulatorisch von den Basel-I/II-Regeln 8% Eigenkapitalquote als Minimum für die Banken vorgeschrieben war, bedeuteten Verluste bei
Finanzinnovationen, Wachstum und transatlantische Bankenkrise
311
Banken ein Sinken des Eigenkapitals im Bankensektor und mithin verschlechterte Aussichten für eine Kreditvergabe an Unternehmen und private Haushalte: Ein negativer Multiplikator- und Akzeleratorprozess drohte, der die Realwirtschaft deutlich negativ beeinflussen musste. Auch ohne akute Kreditklemme gingen die Investitionen in vielen OECD-Ländern in 2008/09 zurück, denn die Furcht vor einer drohenden Kreditklemme und das grundlegende Überlebensmotiv der Unternehmen in einer hochgradig nervösen Finanzwelt sorgte für reduzierte Investitionen in vielen Industrie- und Schwellenländern: mit besonders negativem Effekt für die deutsche Wirtschaft (Schrumpfungsrate 2009 etwa -6%), in der der Maschinenbausektor in Produktion und Export gewichtig ist. Es stellt sich damit die Frage, wie man die Bankenkrise überwinden und künftigen globalen Fehlentwicklungen vorbeugen kann.
3
Reformoptionen zur Überwindung der Bankenkrise
Die internationale Bankenkrise kann nur überwunden werden, wenn man ursachenadäquate Reformmaßnahmen ergreift und institutionell auch für klare Verantwortlichkeiten sorgt. Hier ist Deutschland ein Negativ-Beispiel, da nicht nur die Banken- bzw. Finanzmarktaufsicht BaFin sichtbar bei den Fällen IKB Deutsche Industriebank und bei der SachsenLB versagte, sondern dessen Präsident Sanio nicht einmal abberufen wurde – trotz seines sonderbaren Vorwortes im BaFin-Jahresbericht 2008, in dem er Schwarz auf Weiß erklärte, dass seine Behörde von den Entwicklungen in den US-Finanzmärkten überrascht worden sei. Wie man Bankenaufsicht in Deutschland betreiben will, ohne von allgemein seit Ende 2005 bekannten Fehlentwicklungen im größten Kapitalmarkt der Welt zu wissen, bleibt ein Geheimnis der BaFin, die bezeichnenderweise ohne wissenschaftlichen Beirat arbeitet. Auf dem Londoner G20-Gipfel ist am 2.4.2009 der Konsens für einen Katalog von Reformen verabschiedet worden, wobei es unter Einbeziehung des Washingtoner G20-Gipfels vom November 2008 um fast 50 Einzelmaßnahmen geht. Dabei wird allgemein die Sicht vertreten, dass eine Regulierung aller Finanzprodukte und Finanzakteure notwendig sei. Mit Blick auf die finanzmarkttypischen Probleme asymmetrische Information und Moral Hazard kann man zwar für eine allgemeine Banken- bzw. Finanzmarktregulierung eintreten, jedoch kann bei funktionierendem Wettbewerb jenseits einer konsistenten Rahmenordnung auf Regulierung weitgehend verzichtet werden. Allerdings, der Wettbewerb funktioniert in großen Teilen des Bankensystems der USA, Großbritanniens und
312
Paul J. J. Welfens
der Eurozone nicht. Hier wäre im Interesse einer nachhaltigen Wiederherstellung des Wettbewerbs zunächst an Entflechtungen von Großbanken zu denken, wobei der Staat nach den erfolgten Teilverstaatlichungen in den USA, Großbritannien und einigen EU-Ländern hierzu auch die Möglichkeit hat. Faktisch wird hiervon aber kaum Gebrauch gemacht, nur die Europäische Kommission erzwingt letztlich über die Beihilfen-Aufsicht, dass EU-Großbanken, die staatliches Rettungskapital bzw. Staatsgarantien akzeptieren, immerhin eine Reduzierung der Bilanzsumme vornehmen müssen. Die Herausbildung eines vernünftigen Innovationssystems im Banken- bzw. Finanzsektor ist eine wirtschaftspolitisch wichtige Herausforderung, der man sich bislang in den OECD-Ländern kaum gestellt hat. Wenn Großbanker auch zu Beginn des 21. Jahrhunderts gern von Financial Engineering sprachen, so ist in diesem Kontext dennoch auffällig, dass Banken und Kreditversicherer weder transparente Standardisierungsverfahren noch nachvollziehbare Testverfahren für Finanzprodukte entwickelt haben. Hier ist offenbar der Staat gefordert bzw. eine Zusammenarbeit von OECD-Ländern (und darüber hinaus). Die Neigung der Politik, diese Thematik anzugehen, ist allerdings erkennbar schwach. Absolut inakzeptabel ist es, dass IMF-Länder sich dem Financial Sector Assessment Program (FSAP) mehrjährig entziehen können: Das bis Jahresmitte 2009 seit Jahren für die USA überfällige FSAP zeigt, wie wenig Transparenz hier letztlich mit einem vom IMF doch im Anschluss an die Asien-Krise selbst geschaffenen Instrumentarium aufgebaut worden ist; die Bush-Administration konnte durchsetzen, dass FSAP für die USA erst nach dem Ende der Amtszeit von Präsident Bush veröffentlicht werden sollte. Der IMF nimmt daher sein statutenmäßig gefordertes Monitoring der Wirtschaftspolitik der Mitgliedsländer nicht wirklich ernst. Eine Reihe von notwendigen Reformmaßnahmen ist in der Literatur vorgeschlagen worden.12 Zu den wichtigen Reformmaßnahmen zählen insbesondere:13
Entflechtung von Großbanken einerseits und staatlich geförderte Neugründung von Banken andererseits; letzteres ist bislang in den OECD-Ländern zu wenig als Politikoption betrachtet worden bzw. zu viel Staatsgelder sind in marode Banken eingeschossen worden. Einführung zweistufiger Bankenaufsichtssysteme in der EU, wobei man dem Beispiel der Telekomregulierung institutionell folgen könnte: Bei Großbanken – für die ein Too big to fail-Problem gilt – ist eine konsistente länderübergreifende Regulierung unerlässlich. Die Arbeit der Ratingagenturen sollte künftig global nur noch zweistufig erfolgen bzw. Rating sollte als
12 13
Siehe u.a. De Larosière et al. (2008); Welfens (2009); Welfens (2009a). Vgl. Welfens (2009a).
Finanzinnovationen, Wachstum und transatlantische Bankenkrise
313
öffentliches Gut organisiert sein, wobei alle Wertpapieremittenten nach Marktanteil in einen Finanzierungspool einzahlen; aus diesem wird dann via Ausschreibungsverfahren das Rating für einzelne Emissionen ermittelt, wobei Rating-Agenturen hohen Standards genügen müssen. Durch dieses zweistufige Bezahlverfahren für Ratings wird der bisherige Interessenkonflikt vermieden, wonach das an Wertpapieremissionen interessierte Unternehmen indirekt einen Druck in Richtung zu gute Ratings ausübt. Wirtschaftsprüfungsgesellschaften müssten in Größe und nachgewiesener Qualität den Kunden entsprechen – einen Betrugsfall Madoffs (wie in New York, wo der Betrüger Madoffs sich von einer korrupten 3-Personen Wirtschaftsprüfungsfirma kontrollieren ließ) wird es dann kaum noch geben können. Überzogene kurzfristige Anspruchsrenditen von Banken sind unakzeptabel, zumal wenn hohen Eigenkapitalrenditen hohe „Verlustrenditen“ folgen. Anreize für Nachhaltigkeit im Bankensektor bzw. eine stärker längerfristige Orientierung der Bankmanager ist erstrebenswert; und zwar durch Einführung einer Volatilitätssteuer bei der Eigenkapitalrendite von Banken (und anderen Finanzmarktanbietern): Eine „natürliche EigenkapitalrenditeSchwankung“ kann steuerfrei bleiben, ansonsten sollte eine hohe RenditeSchwankung mit einer Zusatzbesteuerung einhergehen. Banken werden also nicht nur nach dem Gewinn, sondern auch nach der Renditevolatilität (Volatilität) besteuert, was Anreize gibt, über erzielbare realistische längerfristige Eigenkapitalrenditen nachzudenken. Reduzierte Varianz der – dann im Zeitablauf stabileren – Eigenkapitalrendite der Banken insgesamt bedeutet, dass der Bankensektor und damit auch die Volkswirtschaft insgesamt in der Wirtschaftsentwicklung dann stabiler ist. Die vorgeschlagene Varianzsteuer – technisch sollte sie an einer mehrjährigen Varianz ansetzen, um längerfristige Orientierung gewissermaßen doppelt zu fördern – reduziert die Wahrscheinlichkeit, dass einzelne Banken auf der Jagd nach kurzfristig hohen Renditen übermäßige Risiken eingehen und damit auch das Bankensystem destabilisieren; also negative externe Effekte erzeugen. Möglicherweise kann im Interesse der Verhinderung einer prozyklischen Steuerwirkung in Rezessionsphasen die Volatilitätssteuer für maximal zwei Jahre ausgesetzt werden. Für das deutsche Steuersystem ist eine Volatilitätssteuer eine Innovation, der sich die Traditionalisten im Politikbetrieb wohl widersetzen werden. Es ist durchaus vorstellbar, dass eine Volatilitätssteuer in anderen OECD-Ländern eingeführt wird, denn sie setzt sinnvolle Anreize und erlaubt zugleich, auf staatliche effizienz- bzw. innovationsfeindliche Mikrointerventionen – etwa in Gehaltsstrukturen bei Banken – zu verzichten.
314
Paul J. J. Welfens
Eine Besteuerung der Varianz der Eigenkapitalrentabilität der Banken ist keineswegs notwendig mit einer größeren Steuerlast des Bankensektors verbunden, denn eine Anrechnung der Volatilitätssteuer bei der eigentlichen Gewinnbesteuerung ist denkbar. Im Übrigen wird der Bankensektor selbst von einem induzierten Mehr an Stabilität des Bankensektors und der langfristigen Wirtschaftsentwicklung profitieren. Wenn man die folgende Tabelle mit Zahlen für die drei Säulen des deutschen Bankensystems betrachtet, dann fällt zunächst auf, dass die Varianz der Eigenkapitalrendite bei den Privatbanken am größten ist. Hier kann man vermuten, dass in einigen Jahren auf der Jagd nach hohen Renditen ein Übermaß an Risiken eingegangen wurde, die zu einer JoJo-Entwicklung bzw. hoher Varianz der Renditen geführt haben. Tabelle 1: Eigenkapitalrentabilität (1) nach wichtigen Bankengruppen in Deutschland (2) Kreditbanken (3) darunter Zeitraum
insgesamt
1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 1994- 1999 2000- 2006 Varianz
10,93 10,31 10,77 9,68 27,36 9,69 8,19 4,74 0,97 -6,24 -0,42 21,82 11,24 13,12 5,76 76,66
Großbanken
I Säule 12,48 10,18 11,79 7,38 39,51 6,23 6,34 4,96 -3,14 -12,85 -3,97 31,72 14,01 14,6 5,3 192,97
Regionalbanken und sonstige Kreditbanken
10,08 10,68 10,15 11,52 16,75 16,51 11,58 4,13 8,99 4,53 5,66 8,63 7,01 12,61 7,22 15,60
Landesbanken Sparkassen
II Säule 7,84 8,87 8,66 10,9 11,69 10,61 8,14 4,78 2,8 -4,25 1,07 6,44 11,4 9,76 4,34 21,85
Genossenschaftliche Zentralbanken
Kreditgenossenschaften
III Säule 19,21 22,58 21,38 19,37 17,82 15,18 13,39 9,16 8,15 10,89 9,72 10,45 8,95 19,25 10,1 26,90
15,16 12,98 14,8 12 28,57 5,74 12,95 4,43 4,56 0,66 2,91 5,25 4,49 14,88 5,04 56,91
17,38 19,48 17,72 14,94 12,84 10,7 8,59 7,46 9,68 10,64 10,32 13,79 10,93 15,51 10,2 14,15
1) Jahresüberschuss vor Steuern in vH des durchschnittlichen bilanziellen Eigenkapitals (einschließlich Fonds für allgemeine Bankrisiken, jedoch ohne Genussrechtskapital).– 2) Alle berichtenden Kreditinstitute, die unter die MFI-Definition der EZB fallen und Universalbanken sind.– 3) Großbanken, Regionalbanken und sonstige Kreditbanken sowie Zweigstellen ausländischer Banken.
Quelle: SVR (2008), S. 104, eigene Berechnungen zur Varianz
Die aufgeführten Varianzen (V) bzw. Ist-Varianzen wären natürlich im Fall einer Varianzbesteuerung tendenziell geringer, so dass man nachfolgend V‘ als steuerbedingt verminderte Varianz betrachte kann, wobei eine Elastizität von minus 1 (Erhöhung des Steuersatzes um ein Prozent, führt zu einem Rückgang der Varianz um ein Prozent) und alternativ ein Volatilitätssteuersatz von 20% (b) bzw. 40% (a) unterstellt wurde; zudem wird hier eine „natürliche“, normale Varianz Vnat unbesteuert gelassen, was (mit T für Steuerschuld, Körperschaftssteuer-
Finanzinnovationen, Wachstum und transatlantische Bankenkrise
315
satz, für Gewinn, V für Varianzsteuersatz, V“:= V‘-Vnat) zu der folgenden Steuerformel für eine Bank j (der Index j wird nachfolgend unterdrückt) führt: T = + V [V“ln]; Grenzsteuersatz dT/d geht gegen für .
(1)
Wenn eine Bank eine normale Volatilität realisiert, also V“=0, dann ist nur die übliche Körperschaftssteuerbelastung fällig; aus technischen Gründen beginnt die Varianzbesteuerung erst ab einem Gewinn von einer Währungseinheit (hypothetische Tab. zu V, V‘: Anhang 5). Politisch brisant kann die Definition von V“ sein, da Lobbying dazu führten dürfte, dass die Banken letztlich eine unangemessen hohe natürliche Varianz bzw. Volatilität in die Gesetzesformulierung einfließen zu lassen. Indirekt ist auch der Gewinn über ln ein Anknüpfungspunkt der Varianzsteuer, denn einerseits soll ein aus unerwünscht hoher Varianz herrührender Übergewinn teilweise wegbesteuert werden, andererseits ist die Varianz als dimensionslose Größe nicht direkt als Steuerbasis geeignet. Da hier der natürliche Logarithmus in der Steuerformel verwendet wurde, wird dem Expansionsstreben der Banken keine unbillige Begrenzung auferlegt. Es ist nicht zu übersehen, dass die strukturellen Ungleichgewichte in der Weltwirtschaft problematisch sind, wobei große Leistungsbilanzungleichgewichte – etwa das Defizit der USA und auch der Überschuss Chinas und Japans – eine Rolle spielen. Was die Anpassungsmechanismen angeht, so kann man von Veränderungen des realen Wechselkurses kaum einen wirksamen Impuls erwarten, zumal in einer Weltwirtschaft mit Direktinvestitionen aus theoretischer Sicht eine modifizierte Marshall-Lerner-Bedingung relevant ist, die deutlich über die Erfordernisse dieser Bedingung hinausgeht.14 Eine gewisse Anpassung des USLeistungsbilanzdefizites ergibt sich wohl mittelfristig im Zuge einer erhöhten Sparquote; hier wirkt das Sinken des Nettorealvermögens des privaten Sektors in 2008/09, aber auch der Druck des US-Bankensystems, das Kreditkarten einseitig gekündigt hat und insgesamt weniger Kredite – relativ zum Bruttoinlandsprodukt – nach der Krise vergibt. Eine wichtige Frage ist auch, inwieweit sich in der Weltwirtschaft ein temporärer Deflationsdruck ausgeht (siehe hierzu den Anhang), wobei mittelfristig tatsächlich mit Deflationsproblemen in den OECDLändern zu rechnen ist; erst langfristig drohen Inflationsprobleme, vor allem wohl in den USA wegen massiv erhöhter Staatsschuldenquote. Für eine Reihe von Jahren ist mit einer gebremsten Globalisierungsdynamik zu rechnen. Nicht nur die Finanzglobalisierung ist abgebremst bzw. wird faktisch zurückgeführt, da im Zuge der Überlebensstrategien vieler Banken Auslandsfilialen geschlossen worden sind. Zudem ist die Weltrezession mit erheblichem 14
Vgl. Welfens (2009b).
316
Paul J. J. Welfens
Protektionismusdruck verbunden, wie die WTO bereits Mitte 2009 festgestellt hat. Es könnte auch zu einer verminderten internationalen realwirtschaftlichen Konvergenz kommen, wozu die Aufweichung des Freihandels ebenso beitragen dürfte wie einige andere Mechanismen – im Kontext der Finanzkrise ist hierbei zu erwarten, dass armen Ländern der Zugang zu Krediten zunehmend erschwert wird bzw. dass die Risikoprämien bei Entwicklungs- und Schwellenländern überproportional stark steigen werden. Führt man das Heckscher-Ohlin-Modell mit einem neoklassischen Wachstumsmodell zusammen, so ergeben sich im Übrigen weitere Fragen aus analytischer Sicht (siehe Anhang 2). Hier besteht erheblicher Forschungsbedarf. Dies gilt auch im Blick auf die Rolle der Finanzmarktintegration in Osteuropa.15 Hier wird es im Kontext der Bankenkrise auch um Fragen wie die Umsetzbarkeit des Stabilitäts- und Wachstumspaktes sowie Störimpulse beim ökonomischen Konvergenzprozess gehen: Dabei sind die Baltischen Länder in besondere Probleme geraten, die ohne massive Währungsabwertungen kaum zu überwinden sein werden. Die Bankenkrise unterminiert die politische, ökonomische und soziale Stabilität in vielen Ländern. Der Preis für internationales ordnungspolitisches Versagen ist hoch. Eine nachhaltige Finanzglobalisierung bzw. überhaupt wohlstandssteigernde Globalisierung ist ohne die vorgeschlagenen Reformmaßnahmen in Deutschland bzw. der EU und den USA nicht zu erwarten. Jenseits aller globalen Reformdiskussionen hat jedes Land es in der Steuerpolitik selbst in der Hand, Reformen durchzuführen, insbesondere eben eine Volatilitätssteuer bei der Eigenkapitalrendite von Banken umzusetzen, die zu mehr langfristiger Orientierung des Bankenmanagements und damit zu mehr Stabilität des Finanzsektors und der Gesamtwirtschaft beitragen kann. Soziale Marktwirtschaft bleibt trotz der Bankenkrise ordnungspolitisch eine überlegene Institution, aber Reformen sind unerlässlich. Hierzu gehört auch die national und international regulatorisch verstärkte Erfassung der bisherigen außerbilanziellen Schattenbankaktivitäten.
Zusammenfassung Die US-amerikanische bzw. transatlantische Bankenkrise hat zu einer nachfolgenden Weltrezession und erheblich erhöhten Schuldenquoten in vielen OECDLändern und darüber hinaus geführt. Dabei werden analytisch zunächst einige Fragen zur Innovationsdynamik der Finanzmärkte kritisch reflektiert. In der vorgelegten Analyse der Bankenkrise werden zudem die Hauptursachen der Bankenkrise identifiziert und zugleich werden Vorschläge entwickelt, wie man 15
Vgl. Keim (2009); Kutlina (2009).
Finanzinnovationen, Wachstum und transatlantische Bankenkrise
317
seitens der Wirtschaftspolitik mit sinnvollen Reformen auf diese Krise reagieren sollte; hierbei sind wenige wichtige Hauptreformelemente präsentiert worden, wobei eine neuartige Besteuerung der Varianz der Eigenkapitalrendite von Banken auf nationaler Ebene als Priorität eingestuft wird – keineswegs ist dabei notwendig eine höhere Steuerlast für den Bankensektor insgesamt vorgesehen. Durch eine solche institutionelle Innovation werden Anreize für mehr Nachhaltigkeit bzw. eine induzierte längerfristigere Orientierung im Bankensektor einerseits und für mehr Stabilität in diesem Sektor und in der gesamten Wirtschaft andererseits geschaffen. Eine verantwortungsbewusste Regierung, die Interesse an mehr Stabilität und letztlich auch an einer Begrenzung der Schuldenquote hat, wird die vorgeschlagene Innovation in der Steuerpolitik – hier mit Blick auf Deutschland auch auf Faktenbasis skizziert – alsbald aufgreifen.
Summary The US banking crisis and the transatlantic banking crisis, respectively, have caused a global recession and thus raised the debt-GDP ratio in many OECD countries and worldwide. In the analysis presented at first some critical points about financial market innovations are raised. Moreover, the main drivers of the banking crisis have been identified and at the same time a short list of key proposals for reforms are presented; a major element for national policymakers here is the introduction of a new tax system which taxes the variance of the rate of return on equity capital – the main impact is not necessarily to raise the overall tax burden for the banking sector but rather to give incentives for sustainable banking: Bankers should face incentives to take a more long term view and to thereby contribute to systemic stability in the banking sector and in the overall economy. Governments which consider responsible economic policy reforms as a key priority on the way to more stability and also as a means for limiting the debt-GDP ratio will pick up the proposed innovation in tax policy. Some of the relevant potential key features based on German data are sketched in the analysis presented.
Anhang 1: Weltpreisniveau PW = P(eP*)(1- ) mit ]0, 1[ Das Weltpreisniveau PW definiert sich als ein Index bestehend aus dem Preisniveau P von Land 1 (Inland) und Land 2 (Ausland: *); ist das dem Preisniveau
318
Paul J. J. Welfens
von Land 1 zugeordnete Gewicht. Das Preisniveau jedes Landes setzt sich zusammen aus Subniveaus für den Sektor der handelbaren Güter (Tradables: T) und den Sektor der nicht-handelbaren Güter und Dienstleistungen (N) mit den Gewichten ’ und ’* für die Sektoren der handelbaren Güter und Dienstleistungen. Angenommen, das Law of one price sei für den Sektor der handelbaren Güter und Dienstleistungen erfüllt, so gilt (mit e für Wechselkurs) PT = ePT*. Seien PT und PN die Preisniveaus der handelbaren bzw. nicht-handelbaren Güter und Dienstleistungen; e der nominale Wechselkurs und P das aggregierte Preisniveau – wir betrachten das Ausland und das Inland.
Es gilt:
P
*
=
P P PT P N D '*
T*
N*
1D '
D'
P P
T
D
P
=
e P
=
§ T D ' N 1D ' · ¸ ¨P P ¹ ©
=
eP
T*
=
=
*
1D '*
1D
=
=
P
T D'
P
N
N D '
P D
D
(1)
D
§ T D '· ¨ P N §¨ P ·¸ ¸ ¨ ¨© P N ¸¹ ¸ © ¹
e P
N * 1D '*
T * D '*
P 1D
§ T * D '*· ¨ e P N *§¨ P ·¸ ¸ ¨ N* ¸ ¸ ¨ ©P ¹ ¹ ©
1D
(2)
Finanzinnovationen, Wachstum und transatlantische Bankenkrise
319
Dem entsprechend ergibt sich das Weltpreisniveau als PW mit: W
P
=
§ § PT ·D ' · ¨ P N¨ N ¸ ¸ ¨ ©P ¹ ¸ © ¹
D
1D
T * D '*· § ¨ e P N *§¨ P ·¸ ¸ ¨ N* ¸ ¸ ¨ ©P ¹ ¹ ©
(3)
Definieren wir die Relativpreise
:= PT/PN und *:= PT*/PN* So ergibt sich: W
P
= =
P I P I D e P I N D'
N
D
D
D '*
eP N *I * '
D
N*
1D
1D
D '*1D
*
(4)
D
=
§ P N · D D *D ¨ eP ¨ N * ¸¸ M M © eP ¹ N*
'
'*1D
Ein Sinken des Weltpreisniveaus und in diesem Sinn eine Weltdeflation kann entstehen, wenn (bei gegebenem Wechselkurs e) das absolute Preisniveau im Ausland bzw. in Land 2 stärker sinkt als es im Inland steigt oder wenn das Preisniveau in beiden Ländern sinkt. Gemäß Gleichung (3) sinkt bei gegebenem e das Weltpreisniveau, wenn durch Angebotsüberschüsse im Weltmarkt der handelsfähigen Güter der Relativpreis PT/PN bzw. PT*/PN* sinkt und wenn zugleich kurzfristig das absolute Preisniveau der nichthandelsfähigen Güter im In- und Ausland als Folge einer schweren Weltrezession bzw. von Angebotsüberschüssen im Sektor der handelsfähigen Güter im In- und Ausland sinkt. Das entspricht gerade der Lage in 2009/2010. In langfristiger Betrachtung ist zu bedenken, dass gemäß BalassaSamuelson-Effekt eine negative Funktion vom Pro-Kopf-Einkommen y:= Y/L (Y steht für Realeinkommen, L für Bevölkerung) ist. Alternativ ist eine angebotsseitige Sicht, die auf die Bedeutung der relativen Arbeitsproduktivitäten abstellt, wobei intersektorale Arbeitskräftemobilität und daher ein einheitlicher Nominallohnsatz gelten soll. Wenn im T-Sektor und im N-Sektor die Produktion jeweils gemäß einer Cobb-Douglas-Produktionsfunktion stattfindet – mit ß‘ und
320
Paul J. J. Welfens
ß“ für die Outputelastizität der Arbeit im T-Sektor bzw. im N-Sektor im Inland dann gilt bei Entlohnung der Produktionsfaktoren nach ihrem Grenzprodukt, dass W = PTß’QT/LT und W=PNß“QN/LN (mit W für Nominallohnsatz sowie QN bzw. QT für N-Produktion bzw. T-Produktion) PT/PN = [ß“QN/LN]/[ß’QT/LT] = ß“‘q“/q‘. Dabei ist ß“‘:=ß“/ß‘, q“:= QN/LN und q‘:=QT/LT definiert. Der relative Güterpreis der Tradables ist umgekehrt proportional zur Relation der Arbeitsproduktivitäten in den beiden Sektoren: Eine Erhöhung der relativen TArbeitsproduktivität reduziert den Relativpreis der tradables. Berücksichtigt wird nachfolgend noch ein Portfolio-Modell, das eine Modifikation des Branson-Modells ist und dabei Welfens (2008) folgt, wobei als Aktiva inländische Aktien (Realkapitalbestand K, wobei K mit der Zahl der Aktien identisch ist, Aktienkurs P‘), Auslandsbonds (F*) in ausländischer Währung denominiert und die inländische Geldmenge M betrachtet werden; die reale Nachfrage nach den drei Aktiva-Arten ist proportional zum Realvermögen A‘ des privaten Sektors, wobei A‘= M/P + QK + eF*/P ist (mit Q:= P‘/P). Die gewünschten Anteile für Realkapitalbestand, Realkasse und Auslandsbonds (in realer Rechnung) werden mit h(…), n(…) und f(…) bezeichnet. Die reale Vermögensnachfrage der drei Aktiva ist daher h(…)A‘ bzw. n(…)A‘ bzw. f(…)A‘. Die Gleichgewichtsbedingung für den Geldmarkt lautet M/P = n(i,i*‘,z)A‘ und daher kann man schreiben [M/P][1-n(…)] = n(…)[eF*/P + QK]; i ist der Nominalzins, z das exogene erwartete Kapitalgrenzprodukt und i*‘:=i*+a‘, wobei a‘ die exogene erwarte Abwertungsrate der inländischen Währung ist. Hier ist n eine negative Funktion von i und i*‘ sowie z. Daraus ergibt sich unter Beachtung von P:= PN [ ]‘ ein kompakter Ausdruck für PN: PN = M[1-n(…)]/{n(…)[eF*/P + QK] [ ]‘}
(5)
Demnach ist das Preisniveau im Sektor der nichthandelsfähigen Güter im Inland eine positive Funktion von M und eine negative Funktion des realen Aktienwertes und des Realwertes an ausländischen Bonds sowie eine negative Funktion von PT/PN (eine ähnliche Gleichung kann naturgemäß auch für das Ausland formuliert werden, wobei im Ausland ggf. nur die drei Aktiva Geld, inländische Bonds und inländische Aktien betrachtet werden – internationaler Kapitalverkehr ist dann asymmetrischer Portfoliokapitalverkehr, wobei sich die in- und ausländischen Anteile bei F* zu 1 ergänzen müssen). Außerdem ist wegen des Ausdrucks [1-n(…)]/n(…) das Teilpreisniveau PN eine positive Funktion von i, i*‘ und z. F*/P* wird hier als proportional zum ausländischen Bruttoinlandsprodukt angenommen, da der Staat im Ausland annahmegemäß eine feste Relation von Staatsschulden zu Bruttoinlandsprodukt Y* anstrebt (man beachte hier, dass eF*/P geschrieben werden kann als e[P*/P]F*/P*). Im Übrigen ist hier offen-
Finanzinnovationen, Wachstum und transatlantische Bankenkrise
321
sichtlich über die gesamtwirtschaftliche Produktionsfunktion Y=KßL1-ß die Variable K auf Y und L zurückführbar. Die Gleichgewichtsbedingung für den Markt für ausländische Bonds lautet [eF*/P][1-f(…)]=f(…)[M/P + QK], wobei der Anteil der Auslandsbonds ist, die im Inland (in Land I) gehalten werden. Daraus lässt sich der nominale Gleichgewichtswechselkurs berechnen, denn e = f(…)[M/P + QK]/{[1-f(…)][F*/P]}.
(6)
Eine Erhöhung der inländischen realen Geldmenge und eine Erhöhung des realen Aktienkurses Q bzw. von K führt zu einer Abwertung der inländischen Währung; auch Leistungsbilanzüberschüsse – zu einem Anstieg von F* führend – bedeuten eine nominale (und reale) Abwertung. Damit kann die obige Gleichung für das Weltpreisniveau komplett endogenisiert bzw. auf Bestandsgrößen zurückgeführt werden.
Anhang 2: Heckscher-Ohlin-Modell und neoklassische Wachstumstheorie: Neue Einsichten Betrachten wir zwei Länder, die „ähnlich“ in ihrer Größe sind – gleiche Bevölkerungszahlen L bzw. L* haben - und miteinander Handel treiben, wobei als Produktionsfaktoren in beiden Ländern Kapital K und Arbeit L (* für Ausland bzw. Land 2: dort eben K*, L*) genutzt werden. Bei Wettbewerb werden in beiden Volkswirtschaften zwei Güter hergestellt, zudem herrscht Freihandel. Es gebe keinen internationalen Kapitalverkehr. Die beiden Länder haben jeweils eine bestimmte Ausstattung mit Realkapital K bzw. K*. Wenn Land 2 relativ arbeitsreich ist bzw. einen kleineren Kapitalbestand K als Land 1 (Kapitalintensität K*/L*0 sowie dy/dk*=r/w. Im Übrigen gilt für die sektoralen Kapitalintensitäten bei Gewinnmaximierung, dass diese vom Reallohn-Realzins-Verhältnis positiv abhängen. Wenn nun aber die Relation w/r im In- bzw. Ausland ansteigt, dann wird auch k bzw. k* weiter ansteigen, was auf einen Widerspruch führt. Denn nur eine ganz bestimmte Kapitalintensität ist ja vereinbar mit w/r=w*/r*. Im Kontext der Bankenkrise ist die Frage nach der Rolle länderspezifischer (oder auch sektorspezifischer) Risikoprämien zu stellen.
Finanzinnovationen, Wachstum und transatlantische Bankenkrise
323
Anhang 3: Rolle der Bankengröße für die Kapitalrentabilität in den USA
324
Paul J. J. Welfens
Anhang 4: Staatliche Interventionen (kumuliert) und ihre fiskalische Wirkung in den Ländern des Euro-Währungsgebietes
Finanzinnovationen, Wachstum und transatlantische Bankenkrise
325
Anhang 5: Eigenkapitalrenditen (1) des Bankensektors in Deutschland (2) – Gleitende Vierjahresvarianz V und hypothetische Varianz V’ (angenommener Steuersatz ist 40%), Elastizität V in Bezug auf V = -1
326
Paul J. J. Welfens
Literatur Akerlof, G.A. (1970): The Market for „Lemons“: Quality Uncertainty and the Market Mechanisms, in: The Quarterly Journal of Economics 84, Heft 3/1970, S. 488-500. BIS (1986): Recent Innovations in International Banking. Bank für Internationalen Zahlungsausgleich (Hrsg.), Basel 1986. BIS (2000): Stress Testing by Large Financial Institutions: Current Practice and Aggregation Tests. Bank für Internationalen Zahlungsausgleich (Hrsg.), Basel 2000. De Larosière, J. et al. (2009): The High-Level-Group on Financial Supervision in the EU. Europäische Kommission (Hrsg.), Brüssel 2009. Deutsche Bundesbank (2008): Neuere Entwicklungen im internationalen Finanzsystem, Monatsbericht Juli 2008, Frankfurt/Main 2008, S. 15-31. Goodhart, C.A.E. (2007): The background to the 2007 financial crisis, in: International Economics and Economic Policy 4, S. 331-339. Grupp, H. (1997): Messung und Erklärung des Technischen Wandels: Grundzüge einer empirischen Innovationsökonomik, Heidelberg 1997. Keim, M. (2009): Finanzmarktintegration in Europa: Implikationen für Stabilität und Wachstum in Sozialen Marktwirtschaften. Schriftenreihe „Europäische Integration und Digitale Weltwirtschaft“, Band 3, Stuttgart 2009. Kortum, S./Lerner, J. (1998): Does Venture Capital Spur Innovation? Working Papers – Yale School of Management’s Economics Research Network (serial online). Januar 1998, erhältlich unter: Business Source Premier. Ipswich, MA Kutlina, Z. (2009): Finanzmarktentwicklung und Wirtschaftswachstum in den mittel- und osteuropäischen EU-Mitgliedsstaaten, Essen 2009. Ramser, H.-J./Stadler, M. (1995): Kreditmärkte und Innovationsaktivität, in: Ifo Studien: Industrieökonomik und Finanzmärkte, S. 187-204 . Schröder, C. (2009): Financial System and Innovations – Determinants of Early Stage Venture Capital in Europe. Schumpeter Discussion Paper 2009-004, Bergische Universität Wuppertal 2009. SVR (2008): Das deutsche Finanzsystem: Effizienz steigern – Stabilität erhöhen. Expertise des Sachverständigenrats zur Begutachtung der gesamtwirtschaftlichen Entwicklung, veröffentlicht am 17.06.2008, Bundestagsdrucksache. Tilly, R. (2003): Geld und Kredit in der Wirtschaftsgeschichte, Stuttgart 2003. Welfens, P.J.J. (2008): Innovations in Macroeconomics, 2. Auflage, Heidelberg 2008. Welfens, P.J.J. (2009): Transatlantische Bankenkrise. Schriftenreihe „Europäische Integration und Digitale Weltwirtschaft“, Band 1, Stuttgart 2009. Welfens, P.J.J. (2009a): The Transatlantic Banking Crisis: Lessons, EU Reforms and G20 Issues. Paper presented at the European Commission (DG II) am 16.06.2009 in Brüssel. Welfens, P.J.J. (2009b): Marshall-Learner-Condition and Economic Globalization. EIIW Diskussionspapier 168 (http://eiiw.eu/No-168.3431.0.html). Europäisches Institut für Internationale Wirtschaftsbeziehungen an der Universität Wuppertal 2009. Wieland, B.W. (1995): Kommunikationskosten und die Multinationalisierung des Bankwesens, in: Ifo Studien: Industrieökonomik und Finanzmärkte, S. 135-152.
Europäische Integration und Globalisierung
Kapitalintensität und europäische Wettbewerbsfähigkeit Erich Hödl
1
Einführung und Zusammenfassung
Im Gegensatz zur vorherrschenden Sicht, dass eine Erhöhung von Wirtschaftswachstum und Beschäftigung vor allem durch Lohnsenkungen erreicht werden kann, wird im Folgenden argumentiert, dass die gestiegene Kapitalintensität das Haupthemmnis für einen Wirtschaftsaufschwung ist. Ausgehend von der enormen Steigerung der Arbeitsproduktivität, dessen Kehrseite die hohe Kapitalintensität bzw. niedrige Kapitalproduktivität ist, haben sich die Faktorpreise weitgehend von den physischen Faktorproduktivitäten abgelöst, weil der zunehmende Kapitalstock zur Aufrechterhaltung einer ausreichenden Gewinnrate eine wachsende Gewinnsumme erfordert und dadurch die Lohnsumme und die Endnachfrage entsprechend verringert werden. In Europa ist daher der Kapitalstock für die Endnachfrage zu groß, für eine hohe Beschäftigung zu klein und eine Annäherung an ein Gleichgewicht lässt sich nur durch eine Verringerung der Kapitalintensität verwirklichen. Wird dagegen die Kapitalintensität weiter erhöht, dann verstärken sich die bisherigen Tendenzen zur Umverteilung zu den Gewinnen, einer Erhöhung der Staatsverschuldung und eines außenwirtschaftlichen Ungleichgewichts. Wird umgekehrt die Kapitalintensität verringert, dann steigen die Endnachfrage und die Beschäftigung und verringern sich die Neuverschuldung, die notwendigen Exportüberschüsse und die Direkt- und Finanzinvestitionen. Eine Reduktion der Kapitalintensität stabilisiert die Gewinnrate des produktiv veranlagten Kapitals in Europa, erhöht den am Konsumniveau gemessenen ökonomischen Wohlstand und steigert aufgrund der anteilig verringerten Kapitalkosten die globale Wettbewerbsfähigkeit.
330 2
Erich Hödl Produktion, Verteilung und ökonomischer Wohlstand
Das reale Produktionsniveau in einer gegebenen Periode ergibt sich aus der Kombination der physischen Mengen der eingesetzten Produktionsfaktoren Arbeit A, Realkapital KR und dem verwendeten Naturkapital KN (Y = f(A, KR, KN)). Die längerfristige empirische Entwicklung zeigt, dass die physische Produktivität der Arbeit (Y/A) enorm gesteigert wurde, die Naturproduktivität (Y/KN) deutlich weniger und die Produktivität des Realkapitals (Y/KR) sogar gesunken ist. Versteht man unter Realkapital die Realinvestitionen der laufenden Periode und den aus den Vorperioden verbliebenen und physisch noch nutzbaren Kapitalbestand – der vielleicht schon ökonomisch abgeschrieben ist – und führt ihn mit dem eingesetzten Naturkapital in dieser Periode zusammen (K = KR+KN), so ergibt sich Y = f(A,K). Wegen der oben genannten empirischen Entwicklung der Faktorproduktivitäten liegt die Wachstumsrate der Arbeitsproduktivität deutlich über der Wachstumsrate der Kapitalproduktivität, was zur Folge hat, dass die physische Kapitalintensität (K/A) steigt und einerseits die Beschäftigung im Wachstumsprozess anteilig abnimmt und andererseits nicht nur der anteilige Kapitaleinsatz zunimmt, sondern unter der Voraussetzung einer produktivitätsorientierten Entlohnung in einer geschlossenen Wirtschaft die Gewinnrate (r = G/K) abnimmt. Dies gilt unter der neoklassischen Annahme einer vollständigen Preissubstitution1 und in allen neoklassischen und keynesianischen Varianten der Wachstumstheorie.2 Im Verlauf eines kapitalintensivierenden Wachstums lässt sich daher die Gewinnrate nur aufrecht erhalten, wenn (a) die fehlende Binnennachfrage teils durch Exportüberschüsse kompensiert wird, (b) durch steigende Direktinvestitionen und Finanzanlagen die Neubildung von europäischem Realkapital zurück geht, (c) das Volumen der Staatsschuld zunimmt und (d) die Entlohnung der Produktionsfaktoren sich von den physischen Produktivitäten ablöst und zugunsten der Gewinne verschiebt. Die empirischen Entwicklungen in diesen vier Bereichen weisen eine – wenngleich nicht strenge – Korrelation mit der Zunahme der Kapitalintensität auf, so dass ein kapitalsparender technischer Fortschritt zum Abbau von Spannungen im gesamten Verteilungsgefüge beiträgt, in deren Mittelpunkt die Lohn-GewinnVerteilung steht. Bekanntlich hat die Zunahme der preislichen Faktorentlohnungen nicht mit dem Wachstum der physischen Faktorproduktivitäten Schritt gehalten und diese Entkoppelung ergibt sich aus der autonomen Setzung der Investitionen. Es ist aus makroökonomisch – neoklassischer und keynesianischen Sicht unstrittig,
1 2
Vgl. Ott (1968), S. 256 ff. Vgl. Hödl et. al. (1986).
Kapitalintensität und europäische Wettbewerbsfähigkeit
331
dass sich autonome Investitionen (I) entweder über Preisanpassungen3 oder über den Verteilungsmultiplikator (G = 1/sp.I)4 refinanzieren und dadurch die Einkommensverteilung (Y-1/sp.I = L = A.l) bestimmt wird. Die Lohnsumme kann dann alternativ für eine Veränderung der Beschäftigung A und/oder für eine Variation des Lohnsatzes (l = L/A) verwendet werden. Im Falle einer zunehmenden Kapitalintensität, die einer hohen Investitionsquote entspricht, wird eine steigende Gewinnsumme zur Absicherung der Gewinnrate erforderlich – die aufgrund der Preis- bzw. Multiplikatorwirkungen eben möglich ist – und die Faktorpreise haben dann kaum noch eine Verbindung zu den physischen Faktorproduktivitäten. Wird die Gewinnrate auf dem anteilig steigenden Kapitaleinsatz abgesichert (G = K.r), dann wird aufgrund der lohnbedingt gesunkenen europäischen Binnennachfrage ein Exportüberschuss notwendig und infolge der Unterbeschäftigung steigt die Staatsverschuldung. Wird die Kapitalintensität durch erhöhte Direktinvestitionen und Finanzanlagen, hinter denen keine Produktionstätigkeit steht, erhöht, so gehen natürlich das europäische Produktionspotential und das Volkseinkommen zurück. Wenngleich der ökonomische Wohlstand vom Preissystem ganz wesentlich beeinflusst wird, so ergibt er sich letztlich aus den physischen Mengen der zur Bedürfnisbefriedigung geeigneten materiellen und immateriellen Güter und Dienstleistungen (Gebrauchswert / Nützlichkeit). Die Europäische Union misst daher den ökonomischen Wohlstand am Produkt der eingesetzten Arbeitsstunden und der Stundenproduktivität der Arbeit (Y = Y/A.A).5 Grundsätzlich kann der ökonomische Wohlstand – trotz der statistischen Erhebungsprobleme – aber auch vom Kapital ausgehend aus dem Produkt der eingesetzten Kapitalmenge und der Kapitalproduktivität (Y = Y/K.K) errechnet werden. Da Y/A.A = Y/K.K ist, ergibt sich unmittelbar, dass eine stärkere Zunahme der Arbeitsproduktivität als der Kapitalproduktivität die Kapitalintensität erhöht und umgekehrt (K/A = (Y/A):(Y/K)). Indem die Europäische Union eine Erhöhung des ökonomischen Wohlstands fast ausschließlich mit einer Steigerung der Arbeitsproduktivität anstrebt, forciert sie die Kapitalintensivierung, deren Auswirkungen auf die Verteilung und die Nachfrage sie auch in der Forschungs- und Innovationspolitik kaum eine Beachtung schenkt. Insbesondere wird angenommen, dass die Verlängerung der Produktionsumwege den ökonomischen Wohlstand der gesamten Bevölkerung ständig steigere. Mit der Einführung des gesamtwirtschaftlichen Rechnungswesens hat sich die Vorstellung eingebürgert, dass der ökonomische Wohlstand am gesamten Produktionsvolumen (Y=C+I) zu messen sei und gleichgültig, ob die Investiti3 4 5
Vgl. Weiszäcker (1999), S. 59 ff. Vgl. Kaldor (1955/56). Vgl. Commission (2003), S. 6 ff.
332
Erich Hödl
ons- oder die Konsumquote steigt, der Wohlstand steige. Stellt man sich auf den klassischen Standpunkt, bei dem die Produktion und die Investitionen ein Mittel zur Bedürfnisbefriedigung sind, dann ist für den ökonomischen Wohlstand in erster Linie das Konsumniveau ausschlaggebend. Für die Herstellung aller Konsumgüter stehen in einer Periode der überkommene Kapitalgüterbestand und die Neuinvestitionen zur Verfügung und ein kapitalintensivierendes Wirtschaftswachstum verlängert die Produktionsumwege, so dass der Konsum zur Restgröße (Y-I=C) wird, die periodenbezogene Konsumquote (C/Y) sinkt und das Verhältnis zwischen dem gesamten, auch historisch gebildeten Kapitalstock (K) und dem Konsum (K/C) steigt. Bildet man den Kehrwert dieser Relation (C/K) so kann auf der Mengenebene von einer sinkenden „Konsumproduktivität des Kapitals“ gesprochen werden, die der noch gängigen Annahme der Produktivitätserhöhung durch verlängerte Produktionsumwege6 widerspricht.
3
Kapitalbildung und Gewinnrate
Im Grundmodell des neoklassischen Gleichgewichtes entsprechen die Preise den physischen Mengen, die sich aus der Produktionsfunktion ergeben und der Wettbewerb sorgt für die Übereinstimmung der Grenzraten der Substitution und Transformation. Obwohl über die Annahme fallender Grenzerträge die teils aus den Vorperioden übernommenen Kapitalbestände implizit berücksichtigt sind, spielen sie beim Ausgleich der Grenzraten nur diese mittelbare Rolle, so dass sich bei jeder beliebigen Verteilung des Kapitalbestandes und Vermögens ein Marktgleichgewicht einstellt. Am kohärentesten wird dies in der Allgemeinen Gleichgewichtstheorie formuliert, wonach jeder Marktteilnehmer gemäß seinen Präferenzen seine Anfangsausstattungen anbietet, die im geschlossenen System auch nachgefragt werden, so dass bei unveränderten physischen Mengen der Gesamtnutzen erhöht wird und sich ohne expliziten Bezug zur Vermögensverteilung ein Pareto-Optimum einstellt. Kommt es zu einer exogenen Verschiebung der Produktionsfunktionen und Preise, dann werden sich Mengen und Preise temporär entkoppeln, um unter den neuen Bedingungen wieder deckungsgleich zu sein. Im neoklassischen makroökonomischen Modell gilt – trotz verschiedener kapitaltheoretischer Probleme – für Y = K.r + A.l dann K/A = l/r, d.h. bei einem isolierten Anstieg des Lohnsatzes nimmt die Kapitalintensität zu und bei einem isolierten Anstieg der Gewinnrate muss die Kapitalintensität abnehmen. Aufgrund der funktionalen Interdependenz lässt sich nicht sagen, ob die Preise die Mengen bestimmen oder umgekehrt, was in der keynesianischen Theorie 6
Vgl. Böhm-Bawerk (1909), S.364 ff.
Kapitalintensität und europäische Wettbewerbsfähigkeit
333
deshalb möglich ist, weil die Investitionen die Mengen steuern, und daraus abgeleitet – und über den Finanzsektor vermittelt – erst die Preise resultieren. Im keynesianischen Gleichgewicht ergibt eine autonome Setzung der Investitionen einen Reallohnsatz, der dem Grenzprodukt der Arbeit entspricht. Außerdem wird der Konsum der Lohn- und Gewinnbezieher in einer aggregierten Konsumfunktion (dC/dYY/G) die Löhne und Gewinne natürlich unterschiedlich treffen, aber die Verteilungsrelationen (L’/G’=L/G) nicht berühren. Ein Schuldenabbau ist selbst bei marginalen Zielsetzungen ein hoch komplizierter und vielfältiger Prozess, dessen Wirkungen auf die Einkommens- und Vermögensverteilung – wie die Erfahrungen aus den Extremfällen der 20er und 40er Jahre zeigen – vor allem die Erhaltung und Förderung der privaten Investitionstätigkeit und erst in zweiter Linie den Konsum beachten muss. Wird die Staatsschuld bei einem vorhandenen Produktionsniveau Y um St reduziert, dann ist zur Absicherung der Gewinnrate 11
Vgl. Sinn (2003), S. 89 ff.
338
Erich Hödl
wiederum eine entsprechende Gewinnsumme erforderlich und im Extremfall wird der gesamte Schuldenabbau zu Lasten der Löhne gehen (Y-K.r = L = L’+ St) und ein fortgesetzt kapitalintensivierendes Wirtschaftswachstum reduziert bei gleichem Umfang des Schuldenabbaus (St) die verbleibende Lohnsumme zusätzlich. Wenngleich die aus den Verhandlungsprozessen resultierende faktische Umverteilung durch neue Lastenverteilungen zwischen den Gebietskörperschaften, den Beschäftigten und innerhalb der Wirtschaft recht unterschiedlich ausfallen wird, bleibt die klare Tendenz zur Kürzung der Löhne und des Konsums. Angesichts der ohnedies chronischen Nachfrageschwäche werden daher – abgesehen von der politischen Durchsetzbarkeit – vermehrt theoretische Bedenken gegen ambitionierte Reduktionen der Staatsschulden vorgetragen. Daher liegen die Erfolgschancen eines Schuldenabbaus zwar auch in den kostensparenden und effizienzerhöhenden Verwaltungsreformen, aber noch mehr in einem kapitalsparenden technischen Fortschritt in der Wirtschaft. Die Entstehung der akkumulierten Staatsschulden wird in der Hauptsache den gesellschaftlichen Reformkosten und konjunkturellen Aufschwungsausgaben – die dann eine hohe Remanenz aufweisen – und auf die Sozialausgaben, bedingt durch den Generationenvertrag und andere teils stark steigende öffentliche Leistungen (Gesundheit, Migration usw.) zurückgeführt. Zur Kostenkontrolle wird auf Selbstbehalte, private Altersvorsorge usw. zurückgegriffen, die z. T. eine Aktivierung des Vermögensbestandes der privaten Haushalte erfordern. Bei einem niedrigen Wirtschaftswachstum stehen den erhöhten Staatsausgaben verringerte Lohn- und Gewinnsteuern gegenüber und bei einem erhöhten Wachstum reduzieren sich – wenngleich nicht symmetrisch – die Ausgabenbelastungen und die Staatseinkommen aus Lohn- und Gewinnsteuern steigen. Da die Lohnquote (L/Y) höher ist als die Gewinnquote (G/Y) und wenn die Steuerquote auf die Löhne (TL/L) ebenso höher ist als auf die Gewinne (TG/G) bringt ein Wirtschaftswachstum mit einer steigenden Kapitalintensität entsprechend höhere Steuereinnahmen aus Löhnen. Bekanntlich leistet die verringerte Gewinnbesteuerung, gemeinsam mit den staatlichen Unternehmensförderungen einen geringen Nettobeitrag zum Staatsbudget, so dass zuweilen vorgeschlagen wird, anstelle der Gewinnsteuern nur noch Konsumsteuern zu erheben, die dann von erheblichen Abgaben- und Gebührenerhöhungen begleitet, die öffentlichen Budgets entlasten sollen. Das Wirtschaftswachstum wird als Problemlöser aber unwirksamer, wenn es aufgrund einer steigenden Kapitalintensität geringe Beschäftigungseffekte hat und das Verhältnis zwischen Lohn- und Gewinnsteuern weiter steigt. Geringes und kapitalintensives Wirtschaftswachstum sowie die immer stärkere Verschiebung der Steuern und Abgaben auf die Lohneinkommen stehen jedoch im Einklang mit der neoklassischen Theorie der gesamtwirtschaftlichen Steuerwälzung, nach der – sicherlich nur in der reinen Lehre – vorhandene Ge-
Kapitalintensität und europäische Wettbewerbsfähigkeit
339
winnsteuern zur Gänze über die Preise an die Konsumenten bzw. Lohnbezieher weiter gegeben werden können.12 Im Rahmen globalisierter Märkte stelle sich ein globaler Wettbewerbslohn ein, der in Ländern mit hoher Kapitalintensität aufgrund der damit verbundenen hohen Arbeitsproduktivität zwar höher sei als in anderen Ländern, doch nicht überschritten werden dürfe. Dieser Wettbewerbslohn ist gleichzeitig jener, der eine ausreichende Gewinnrate absichert und eine dann mögliche Vollbeschäftigung ergäbe. Stelle die Bevölkerung gesellschaftliche Anforderungen, so könne dies nicht zu Lasten der Gewinne gehen, sondern jede Leistung müsse zur Wahrung der globalen Wettbewerbsfähigkeit aus den Löhnen finanziert werden, gleichgültig, ob diese über den Staat oder neue Märkte organisiert würden. Will die Bevölkerung vermehrte Sozialleistungen oder einen besseren Umweltschutz, so sei es ihr freigestellt, deren Finanzierung aus den Lohneinkommen vorzunehmen. Der Vorzug einer solchen Zuspitzung liegt wohl darin, dass damit jede Kapitalintensität, die sich im Zeitverlauf ergeben hat, als sakrosankt erklärt wird, alle neuen gesellschaftlichen Aufgaben zur Finanzierung an die Lohnbezieher delegiert werden und jeder Gedanke an eine wirtschaftspolitische Beeinflussung der Kapitalintensität ausbleibt. Tritt dagegen der Staat als Mediator für einen dauerhaft kapitalsparenden technischen Fortschritt auf, dann kann er seine Verschuldungsdynamik abmildern. Die Mitgliedsstaaten und vor allem die Europäische Union haben in den letzten Jahren ihre Innovationssysteme zwar organisatorisch gut konzipiert und ausgebaut,13 aber den makroökonomischen Selbstfinanzierungseffekt, der sich aus kapitalsparenden Innovationsausgaben ergibt, nicht berücksichtigt.
6
Globalisierung und Außenwirtschaft
Die Globalisierung ergibt sich aus der empirischen Tatsache, dass in Europa für die vorhandene Endnachfrage zuviel Realkapital vorhanden ist, aber für eine Vollbeschäftigung zu wenig. Eine Annäherung an eine Vollbeschäftigung in Europa lässt sich daher nur durch eine Reduktion der Kapitalintensität erreichen, durch die für einen gewünschten ökonomischen Wohlstand der Kapitalbedarf zugunsten des Arbeitseinssatzes verringert wird, dadurch die Endnachfrage stärker abgesichert und die Staatsverschuldung in Grenzen gehalten werden kann. Soweit eine verringerte Kapitalintensität den europäischen Sparüberschuss erhöht, kann er (a) zur produktiven Veranlagung zugunsten eines erhöhten europäischen Wohlstandes oder (b) für steigende Kapitalexporte in andere Industrielän12 13
Vgl. Weizsäcker (1999), S. 57 ff. Vgl. Hödl (2007).
340
Erich Hödl
der und in die Dritte Welt verwendet werden, wobei angesichts der globalen Arbeitsmarkt- und Umweltprobleme kapital- und natursparende Technologien die größten Vorteile bringen. Sie schaffen in den Importländern nicht nur mehr Beschäftigung und verringern den Naturverbrauch, sondern haben auch einen günstigen Einfluss auf das Verhältnis zwischen der Gewinnrate und dem Geldzins (r - i). In Abhängigkeit vom erwünschten europäischen Wohlstand kann es zu erhöhten Kapitalexporten kommen, die bisher wegen der hohen Geldzinsen zu einem erheblichen Teil in globale Finanzinvestitionen ohne reale Mengeneffekte fließen. Eine Steigerung der Kapitalproduktivität behindert also nicht die globalen Bewegungen des Realkapitals, sondern unterstützt – im Gegensatz zur vorauseilenden Finanzmarktglobalisierung – aufgrund der positiven Auswirkungen auf die Gewinnraten eine stärkere Synchronisierung zwischen der finanzund realwirtschaftlichen Globalisierung. Die Auswirkungen unterschiedlicher Kapitalintensitäten zwischen Handelspartnern lassen sich vereinfacht an einem Zwei-Länder-Modell veranschaulichen. Liegt im Land A eine höhere Kapitalintensität als im Land B vor und soll in beiden Ländern eine gleiche Gewinnrate bei der Produktion eines gleich hohen Sozialproduktes realisiert werden, dann ergibt sich erwartungsgemäß im Land A ein höherer Lohnsatz, aber eine geringere Beschäftigung und insgesamt eine niedrigere Lohnquote als im Land B. Denn im Land A bringt die hohe Kapitalintensität zwar eine hohe Arbeitsproduktivität, aber die Entlohnung des Faktors Arbeit erfolgt aus der Lohnsumme, die nach der Absicherung der Gewinnrate auf den hohen Kapitaleinsatz als Restgröße auf die Beschäftigungsmenge und den Lohnsatz verteilbar ist (Y-KA.r = AA.lA). Analoges gilt für das Land B mit dem Unterschied, dass der Kapitaleinsatz niedriger (Y-KB.r = AB.lB) und somit die Beschäftigung im Land B höher ist als im Land A. Im Gegenzug ist der Lohnsatz im Land A höher als im Land B, was den empirischen Einsichten entspricht, dass der Lohnsatz in reichen Ländern höher ist als in ärmeren Ländern. Allerdings ist die Lohnsumme im Land A um den Betrag geringer, der bei gegebener Gewinnrate der Differenz in der Kapitalausstattung zuzurechnen ist ((KAKB).r). In einer geschlossenen Wirtschaft wird bei gegebenen Sparneigungen die Konsumnachfrage im Land A defizitär, die durch deficit spending und Geldmengenausweitungen eine zeitlang über Inflationstendenzen wenig sichtbar bleibt, was aber mit zunehmender Kapitalintensität Warenexportüberschüsse erzwingt. Die Globalisierung des Warenverkehrs ist jedoch nur in zweiter Linie eine Folge des innereuropäischen Nachfragedefizits, sondern primär ein Resultat des Gewinnratendruckes infolge der Kapitalintensivierung. Wird die Höhe der Gewinnrate wegen der ansonsten rückläufigen Investitionstätigkeit (I = f (r)) nicht in Frage gestellt, dann lässt sich der am Konsumniveau zu messende öko-
Kapitalintensität und europäische Wettbewerbsfähigkeit
341
nomische Wohlstand in Europa nur durch eine Verringerung der Kapitalintensität erhöhen. Die Europäische Union verfolgt mit der einseitigen Forcierung der Arbeitsproduktivität via Kapitalintensivierung eine gegenteilige Strategie, die das innereuropäische Nachfragedefizit akzeptiert und zunächst auf Exportüberschüsse setzt, die später zwangsläufig zu erhöhten Realkapitalexporten führen. Bereits seit Beginn der Lissabon-Strategie hat die globale Wettbewerbsfähigkeit oberste Priorität, dem die Anwendung der Informationstechnologien, das europäische Gesellschaftsmodell und der makroökonomische Policy-Mix untergeordnet werden. Bei der Ausgestaltung des Binnenmarktes sind der Deregulierung keine ReRegulierungen gefolgt, die eine Balance zwischen der globalen Wettbewerbsfähigkeit und einem höheren europäischen Wohlstand zum Ziel haben. Und die Handhabung der Währungsunion beabsichtigt eine Stärkung des Euro und der europäischen Finanzmärkte in der Erwartung, dass dadurch auch mehr Realkapital in Europa veranlagt wird. Da einerseits die Finanzmärkte einen erheblichen Anteil an potenziellem Realkapital absorbieren und andererseits eine hohe Kapitalintensität der laufenden Produktion eine hohe Gewinnquote erfordert, ergibt sich eine innereuropäische Austeritätspolitik zugunsten der globalen Wettbewerbsfähigkeit. Sie setzt sich gegenwärtig deshalb durch, weil die Steigerung der Arbeitsproduktivität via Kapitalintensivierung die globale Wettbewerbsfähigkeit tatsächlich erhöht. Denn mit einer gegenüber den Handelspartnern höheren Kapitalintensität werden zwar in statischer Betrachtung lediglich die höheren Kapitalkosten ((KA-KB).r) durch verringerte Lohnkosten (AB.lB-AA.lA) ersetzt, aber im kapitalintensivierenden Wachstumsprozess nimmt die Beschäftigung (AA) ab, was durch eventuell steigende Lohnsätze (lA) noch verstärkt werden kann. Die Produktionskosten können im einfachsten Fall unverändert sein, aber der ökonomische Wohlstand im Land A geht auch dann zurück, wenn die Exporterlöse zu heimischen Investitionen verwendet werden. Denn bei einer Kapitalintensivierung erhöht sich das inländische Kapitalvermögen, dem keine proportionale Ausweitung des Konsums folgt, d.h. die Konsumproduktivität abnimmt. Da im Partnerland B eine höhere Konsumquote vorhanden ist, werden die Warenexporte dort eher untergebracht werden können, aber viel wichtiger ist, dass der steigende Gewinnratendruck im Land A zu Realkapitalexporten anregt. Die zunehmende Kapitalintensivierung wird zur Verlagerung des Produktionskapitals in das Land B führen. Eine dauerhafte Anziehungskraft für ausländisches Realkapital im Land B ergibt sich, wenn die Kapitalintensivierung in Grenzen gehalten wird, was natürlich grundsätzliche Entwicklungsfragen berührt. Wenn die Europäische Union das kapitalintensivierende Entwicklungsmodell in die neuen Mitgliedsländer und die Dritte Welt exportiert, schafft sie in allen betroffenen Ländern anteilig wenig Arbeitsplätze und der Gewinnratendruck infolge der hohen
342
Erich Hödl
Kapitalintensität vermehrt die unproduktiven Finanzinvestitionen. Eine Senkung der Kapitalintensität erhöht dagegen den am Konsumniveau gemessenen ökonomischen Wohlstand und aufgrund der Senkung der Kapitalkosten die europäische Wettbewerbsfähigkeit.
Literatur Bleischwitz, Raimund/Welfens, Paul J.J./Zhang, Zhang Xiang (Hrsg.) (2009): Sustainable Growth and Resource Productivity: Economic and Global Policy Issues, Sheffield 2009. Böhm-Bawerk, Eugen von (1909): Positive Theorie des Kapitales. Zweiter Halbband. Fünfter Anhang, Innsbruck 1909. European Commission (2003): European Competitiveness Report 2003. SEC (2003) 1299, Brüssel 12.11.2003. Helmstädter, Helmut (1969): Der Kapitalkoeffizient, Stuttgart 1969. Hödl, Erich/Lierenfeld, Heinz/Reinartz, Jürgen (1986): Nicht-neutrale technische Fortschritte und Profitratenentwicklung in Wachstumsmodellen. Arbeitspapiere des Fachbereiches Wirtschaftswissenschaft Nr. 99 der Bergischen Universität Wuppertal, Wuppertal 1986. Hödl, Erich (2007): Die Europäische Union als Wissensgesellschaft, in: Wirtschaft und Gesellschaft Jg. 33, Heft 4/2007, S. 529-551. Hödl, Erich (2009): Socio-ecological market economy in Europe. Interrelations between resource, labour and capital productivity, in: Bleischwitz et. al (2009), S. 141-148. Kaldor, Nicholas (1955/56): Alternative Theories of Distribution, in: Review of Economic Studies 23 (1955/56), S. 83-100. Keynes, John M. (1936): Allgemeine Theorie der Beschäftigung, des Zinses und des Geldes, Berlin 1936. König, Heinz (Hrsg.) (1968): Wachstum und Entwicklung der Wirtschaft, Köln 1968. Ott, Alfred E. (1968): Produktionsfunktion, technischer Fortschritt und Wirtschaftswachstum, in: König (1968), S. 251-274. Picot, Arnold/Reichwald, Ralf/Wigand, Rolf T. (2001): Die grenzenlose Unternehmung, Wiesbaden 2001. Sinn, Hans W. (2003): Ist Deutschland noch zu retten?, München 2003. Weizsäcker, Carl Christian (1999): Logik der Globalisierung, Göttingen 1999.
Standortwettbewerb und Globalisierung – Grenzenlose Innovation als Chance für Europa? Thorsten Posselt / Falk Kunadt
1
Einführung
Die Europäische Union ist bemüht, Europa zum wettbewerbsfähigsten, wissensbasierten Wirtschaftsraum der Welt1 zu machen und hat zu diesem Zweck zahlreiche Instrumente geschaffen. Regelmäßige Berichte zeigen jedoch, dass die Zielstellungen dieser Agenda überarbeitet werden müssen, dass Europa in diesem Bereich kaum gegenüber den USA und Japan aufholen konnte und dass neue, ernst zu nehmende Konkurrenten im innovativen wissensbasierten Wirtschaftsbereich in Schwellenländern zu sehen sind.2 Die Gründe hierfür können zum einen in einer stark wachsenden wissensbasierten Wirtschaft in Schwellenländern gesehen werden aber auch nach wie vor in Kostenvorteilen bei der Produktion. Zum anderen scheint die Zusammenarbeit entlang der Wertschöpfungskette innerhalb Europas aus verschiedensten Gründen nur eingeschränkt zu funktionieren. Dabei ist die aktuelle Wirtschaftskrise ein Anstoß, mehr auf intensives Wachstum und damit auf die Förderung von Unternehmertum, Wissensgesellschaft und marktorientierter Verwertung von innovativen Ideen im eigenen Land – und falls dies nicht möglich ist – mit Partnern aus anderen Ländern zu setzen. Für Europa ergeben sich Herausforderungen bei der Standortpolitik. Es muss wie andere klassische Industrieregionen eine Bestandsaufnahme machen, welche expliziten Vorteile es Investoren bieten kann. Hierbei kommen Standortfaktoren ins Spiel, die eng mit der Qualität von Produkten und Dienstleistungen verbunden sind: Forschung und Entwicklung, Grundlagenforschung, angewandte Forschung sowie die Infrastruktur universitärer und außeruniversitärer Bildung 1 2
Vgl. Lissabon-Agenda (Europäische Kommission (2000)). Vgl. Kok (2004), S. 14 f. sowie Europäische Kommission (2007).
344
Thorsten Posselt / Falk Kunadt
und Forschung. Traditionell finden sich in Deutschland und Europa exzellente Bedingungen in diesen Bereichen, was sich auch in einer breiten Palette an Hochtechnologieerzeugnissen niederschlägt. Der vorliegende Beitrag konzentriert sich daher auf Forschung und Entwicklung (im Folgenden: FuE) als ein zentrales nachhaltiges Element von Wachstumsstrategien.3 Unter Berücksichtigung aktueller struktureller Herausforderung wie der demografischen Entwicklung und der Wettbewerbsfähigkeit europäischer Firmen im Vergleich zu ihren globalen Konkurrenten beschäftigt sich der Beitrag mit dem Wirtschaftsstandort Europa und den Herausforderungen sowie Chancen, die Europa im wissensintensiven, innovativen Bereich in Zeiten der Globalisierung hat. Dabei kann nicht mehr zwischen Westeuropa und Osteuropa pauschal unterschieden werden. Wie zu zeigen ist, wirkt sich die aktuelle Wirtschaftskrise in den Volkswirtschaften Europas ganz unterschiedlich aus. Sie kann als Anstoß verstärkter grenzüberschreitender Kooperationen gesehen werden, um Europas innovatives Potential entlang der wirtschaftlichen Wertschöpfungskette zu stärken.
2
Europa in der globalisierten Wirtschaft – aktuelle Herausforderungen
Die letzten zehn Jahre und darüber hinaus waren die aufstrebenden Volkswirtschafte und Schwellenländer durch konstant hohe Wachstumsraten, sinkende Arbeitslosenzahlen sowie wachsenden Wohlstand, Kaufkraft und ungesättigte Märkte geprägt. Ein Blick auf die Entwicklung des BIP seit 2000 bis 2008 zeigt deutlich, welches Aufholpotenzial es in den Ländern gegeben hat (vgl. Abb. 1).
3
Vgl. Pleschak (2003), S. 44 ff.
Standortwettbewerb und Globalisierung: Innovation als Chance?
Quelle: Eurostat.
345
346
Thorsten Posselt / Falk Kunadt
Ein Kontrast dabei ist die Entwicklung von traditionellen Industriestaaten wie Frankreich, Deutschland, Großbritannien, den USA oder Japan, deren Wachstum im Vergleich zu Ländern Mittelosteuropas oder aber Indien und China geringer ausfällt. In diesem Kontext könnten u.a. Lohnkosten einen Ausschlag für diese Entwicklung geben (vgl. Abb. 2).
Quellen: Deutsche Bundesbank; Eurostat; nationale Quellen; IW-Trends – Vierteljahresschrift zur empirischen Wirtschaftsforschung aus dem Institut der deutschen Wirtschaft Köln, 34. Jahrgang, Heft 4/2007.
Standortwettbewerb und Globalisierung: Innovation als Chance?
347
Bei der Ansiedlung ausländischer Unternehmer bzw. der Verlagerung von Produktion ins Ausland können geringere Arbeits- und Produktionskosten in einer Region als Standortvorteil gesehen werden. Wie Abb. 2 zeigt, ergeben sich bei diesem Faktor Nachteile bei klassischen Industrienationen. Allgemein scheinen die Wirtschaftsstandorte Westeuropa und Nordamerika für Unternehmer an Attraktivität verloren zu haben, und dies auf längere Sicht. So weist bspw. eine aktuelle Umfrage von Ernst & Young (2009), in deren jährlichen Panel internationale Manager nach der Attraktivität des Standortes Deutschland im Vergleich zu anderen Standorten gefragt wurden, zwar nach 2008 wieder einen Anstieg für Westeuropa, die USA und Kanada aus. Allerdings belegt China (2009: 33%) wie 2008 (47%) vor den USA (21%/18%) und Indien (20%/30%) den ersten Platz als attraktivster Investitionsstandort weltweit.4 Auch der Ausblick auf die kommenden drei Jahre eröffnet China den ersten Platz (52%) gefolgt von Mittel- und Osteuropa (52%) sowie Indien (48%). Ebenso im Hinblick auf die prognostizierten BIP-Wachstumsraten kann davon ausgegangen werden, dass sich der Standortwettbewerb weltweit noch verstärken wird (vgl. Abb. 3).
Quelle: Internationaler Währungsfonds, World Economic Outlook, April 2009.
Damit wird der Druck auf traditionelle Industrienationen insgesamt steigen. Für Europa bedeutete dieser Standortwettbewerb eine Auseinandersetzung auf mehreren Ebenen. So registrieren die Volkswirtschaften der Europäischen Union innerhalb ihrer Staatsgrenzen Standortwettbewerbe regional und subregional, sehen sich aber gleichzeitig anderen Standorten in anderen Ländern und gleichzeitig der globalen Konkurrenz gegenüber. An dieser Stelle muss also die Frage 4
Vgl. Ernst & Young (2009), S. 10.
348
Thorsten Posselt / Falk Kunadt
gestellt werden, ob die Europäische Union als Wirtschaftsraum mit dem insgesamt größten BIP (15,46 Billionen EUR vor den USA mit 14,26 Billionen EUR sowie China mit 7,96 Billionen Euro und Japan mit 4,35 Billionen EUR)5 mehr an einem Strang ziehen sollte. Mit anderen Worten, eine strukturiertere Zusammenarbeit und Nutzung der Vorteile eines gemeinsamen Binnenmarktes für Produkte, Beschäftigte sowie Wissen kann im Hinblick auf die aktuellen Entwicklungen der Weltwirtschaft und die bereits aufgezählten Daten durchaus sinnvoll sein. Hierfür sprechen weitere Indizien. Europa muss sich – und das im deutlichen Gegensatz zu China, Indien oder weiteren Schwellenländern – mit einer alternden Bevölkerung auseinandersetzen, also einem demografischen Problem, bei dem sich bereits jetzt abzeichnet, dass vakante Arbeitspositionen nicht ausreichend besetzt werden können. So hat u.a. Deutschland Probleme, hoch qualifizierte Stellen zu besetzen. Während hoch ausgebildete Arbeitskräfte aus Mittelund Osteuropa ihre Heimat verlassen, um in Westeuropa oder den USA zu arbeiten, werben Schwellenländer ihre im Westen ausgebildeten Landsleute zurück. Unter Berücksichtigung aktueller Zahlen kann vermutet werden, dass sich diese Entwicklung noch verschärfen wird, sodass Schwellenländer immer attraktiver und konkurrenzfähiger werden (vgl. Abb. 4). Die Situation in den mittelosteuropäischen Ländern ist hier allerdings recht unterschiedlich, was auch auf eine heterogene wirtschaftliche Entwicklung dieser Länder zurückzuführen ist.
Quelle: Eurostat.
5
International Monetary Fund (2007).
Standortwettbewerb und Globalisierung: Innovation als Chance?
349
Die aktuelle Wirtschaftskrise zeigt, dass die europäischen Volkswirtschaften ganz unterschiedlich von den Auswirkungen der Krise betroffen sind – und dies unabhängig ob in West-, Nord-, Süd- oder Osteuropa. Demzufolge zeigen sich beispielsweise bei den EU-Beitrittsländern von 2004 enorme Gefälle, die auf unterschiedliche langfristige Wachstumsstrategien zurückzuführen sind. Nach einer anhaltenden Wachstumsphase, die auch zu steigendem Selbstbewusstsein der Wirtschaftsakteure bei Investitionen sowie der privaten Akteure im Konsumbereich geführt hat, offenbart die aktuelle Entwicklung strukturelle Divergenzen. So sind etwa Ungarn, Rumänien, Bulgarien (und in diesem Atemzug auch Russland sowie die Ukraine) oder die baltischen Staaten durch exzessive Kreditfinanzierung sowie die Konzentration auf weniger nachhaltige Branchen wie der Bauwirtschaft geprägt, während sich Staaten wie die Tschechische Republik, die Slowakei oder Slowenien auf eher intensive Förderung nachhaltiger Branchen und zurückhaltende externe Finanzierung konzentrieren.6 Abb. 1 zur Entwicklung des BIP macht neben zahlreichen anderen Kennzahlen (Leistungsbilanz, Außenhandelsbilanz, Industrieprodukten, Arbeitslosenquote und Erwerbstätigkeit, private Konsumausgaben, u.v.m.)7 deutlich, dass für die Mitgliedsstaaten der europäischen Union derzeit ganz unterschiedliche Voraussetzungen, Rahmenbedingungen und Umgangsweisen mit der aktuellen wirtschaftlichen Situation herrschen. Dabei ist es das erklärte Ziel der Lissabon-Agenda, durch transnationale Zusammenarbeit zwischen den EU-Mitgliedern, europäischen Wirtschaftsraum und darüber hinaus mit Beitrittskandidaten sowie assoziierten und Drittstaaten die Wettbewerbsfähigkeit der europäischen Wirtschaft zu erhöhen. Es bleibt also festzuhalten: Die aktuelle Wirtschaftskrise beeinflusst die Ökonomien weltweit negativ. Derzeit ist eine zuverlässige Prognose zu den tatsächlichen länderspezifischen Auswirkungen schwierig. Dennoch lässt sich im Hinblick auf die demografische Entwicklung und die ersten Prognosen zur Entwicklung der europäischen Wirtschaft im Vergleich zu Schwellenländern wie China oder Indien ein zunehmender Wettbewerbsvorteil zugunsten der Schwellenländer vermuten. Zudem zeigt die aktuelle Wirtschaftskrise am Beispiel zahlreicher mittelosteuropäischer Staaten, dass eine langfristig angelegte Wachstumsstrategie mit starkem Fokus auf zukunftsfähige Branchen generell zu mehr Nachhaltigkeit und Krisenresistenz führt. Daher soll im nächsten Teil auf Innovationen und FuE als zentrales nachhaltiges Element von Wachstumsstrategien eingegangen werden und ein Vergleich der Situation zwischen Europa und den Schwellenländern gezogen wer6 7
Vgl. Böttcher/Deuber (2009), S.1 f. Vgl. hierzu Eurostat: Ausgewählte wichtigste europäische Wirtschaftsindikatoren (letzte Aktualisierung 25.06.2009), unter http://epp.eurostat.ec.europa.eu/portal/page/portal/euroindicators/ peeis (26.06.2009).
350
Thorsten Posselt / Falk Kunadt
den. Im Mittelpunkt stehen anschließend die Potentiale, die sich den Staaten durch die Europäische Integration und einhergehende Maßnahmen bieten.
3
Forschung und Entwicklung – Vorteil für Europa?
In internationalen Vergleichen lassen sich zahlreiche Beispiele anführen, wie rasch Regionen im FuE-Bereich den Anschluss an die Weltspitze finden können. Exemplarisch soll hier auf das Beispiel Südkorea eingegangen werden. Noch in den 1950er Jahren war Südkorea – auch in Folge des Koreakrieges – eine durch Landwirtschaft geprägte Wirtschaft, die sich jedoch innerhalb von 40 Jahren zu einem der führenden Hochtechnologieproduzenten weltweit entwickelte.8Ausgangspunkt dabei war eine Industrialisierungskampagne der koreanischen Regierung, die Mitte der 60er Jahre zur Einstellung von mehreren Tausend Ingenieuren bei Firmen und Forschungsinstitutionen führte. Zu diesem Zeitpunkt war Korea stark abhängig von ausländischem Kapital. Koreanische Firmen waren vor allem als Original Equipment Manufacturer über Lizenzierungsabkommen tätig, die durch niedrige Lohnkosten und relativ gut ausgebildetes Humankapital Aufträge ins Land holten. Firmen, die Teile ihrer Produktion in Südkorea fertigen ließen, mussten sicher gehen, dass die entsprechenden Fabrikate den Qualitätsstandards entsprachen. Dadurch erfolgte ein jahrzehntelanger Austausch von Wissen, den koreanische Firmen schrittweise für eigene Produkte nutzten. Diese Entwicklung führte dazu, dass westliche Firmen Anfang der 80er Jahre begannen, in Südkorea einen ernsthaften Konkurrenten zu sehen. Dem folgenden widerwilligen Innovationstransfer westlicher Unternehmen versuchte die südkoreanische Regierung durch ein breit angelegtes Förderprogramm privatwirtschaftlicher FuE-Aktivitäten zu erwidern. Die staatlichen FuE-Ausgaben stiegen von 0,81% des BIP 1981 auf 2,43% des BIP 1996 und hatte 2007 mit 3,22% den vierthöchsten Anteil an FuE-Ausgaben weltweit nach Schweden, Finnland und Japan.9 Die Förderung privatwirtschaftlicher FuE-Anstrengungen führte zu einer immensen Steigerung in diesem Bereich. Heute werden 75% aller FuE-Aktivitäten in Südkorea von Unternehmen betrieben. Dadurch konnten FuE-Ausgaben verstärkt in Bildung und Ausbildung investiert werden, was dazu führte, dass Korea die Asiatische Finanzkrise 1997 vergleichsweise glimpflich überstand. Heute zählt der kleine Staat zu den wichtigsten Hightech-Produzenten OECD- und weltweit. Dass diese Entwicklung auch auf der Mikro-Ebene übertragbar ist, zeigt das Beispiel ACER. Das ursprünglich durch staatliche Start-Up-Förderung gegründe8 9
Vgl. Chung (2007). OECD.Stat: Staatliche FuE-Ausgaben in Prozent des BIP, Stand: 26.06.2009.
Standortwettbewerb und Globalisierung: Innovation als Chance?
351
te taiwanesische Halbleiterunternehmen gehört heute zu den führenden Herstellern von PC-Hardware mit einem Jahresumsatz von rund 3 Mrd. Dollar. Dieser Erfolg basierte auf Kostenvorteilen und auf dem Humankapital, das zumeist in den USA studiert oder gearbeitet hatte. Durch eine zusätzliche starke staatliche Unterstützung im FuE-Bereich in der Anfangsphase konnte sich ACER vom Original Equipment Manufacturer zum Original Brand und Design Manufacturer etablieren.10 Die Entwicklung in Südkorea oder ACER in Taiwan zeigen, dass eine schnelle Anpassung an andere Standortfaktoren wie Hightech, Innovation und Qualität möglich ist. Sie kommt vor allem dann zustande, wenn Staaten den Wissenstransfer umzusetzen wissen und gleichzeitig Innovationen und Weiterentwicklung sowie die Ausbildung und Anwerbung geeigneter Fachkräfte durch Förderung unterstützen. Demzufolge kann eine ähnliche Entwicklung momentaner Schwellenländer nicht ausgeschlossen werden. Im Gegenteil: Ein Blick auf die aktuellen Daten zu FuE-Ausgaben zeigt, dass die entsprechenden Länder hier seit Jahren Anschluss suchen (vgl. Abb. 5). Demzufolge liegt Indien vor Polen und Griechenland. China rangiert im Mittelfeld und hat in den letzten fünf Jahren seine Ausgaben in diesem Bereich nahezu verdoppelt (in Prozent des BIP). In absoluten Zahlen bedeutet dies sogar eine Steigerung von rund 10,4 Mrd. EUR (2001) auf 24,5 Mrd. EUR (2005). Auch beim im FuE-Bereich beschäftigten Personal und Hochschulabschlüssen im ingenieurwissenschaftlich-technischen Bereich sind deutliche Wachstumsraten zu erkennen. Die Zahl des im FuE-Bereich beschäftigten Personals ist von 95,7 von 10.000 Personen (2001) auf 136,5 von 10.000 Personen (2005) gestiegen. Darunter waren 74,3 von 10.000 Personen (2001) mit ingenieurwissenschaftlich-technischem Hochschulabschluss und im Jahre 2005 111,9 von 10.000 Personen.11 Viele Schwellenländer haben das Potenzial eigener FuE-Aktivitäten erkannt, sie bieten immer bessere Voraussetzungen bei Humankapital und haben – wie der Fall Korea zeigt – die gezielte Förderung eigener Unternehmen als Instrument der Innovationsprofilierung erkannt. Mit anderen Worten: Je mehr sich die Schwellenländer bei bisher nachgelagerten Standortfaktoren anpassen (hoch und höher qualifizierte Arbeitskräfte, verstärkte FuE-Aktivitäten, Agglomeration nationaler und multinationaler Unternehmen etc.), der Kostenfaktor aber weiterhin deutlich unter dem deutschen, nordamerikanischen und europäischen Durchschnitt bleibt, desto schwieriger wird sich der Wettbewerb für deutsche und westliche Unternehmen gestalten.
10 11
Vgl. Khan (2002). Vgl. National Bureau of Statistics of China (http://www.stats.gov.cn/english/, 26.06.2009).
352
Quelle: OECD.Stat.
Thorsten Posselt / Falk Kunadt
Standortwettbewerb und Globalisierung: Innovation als Chance?
353
An dieser Stelle sei auch noch einmal auf zwei Unternehmensbefragungen verwiesen. Zum einen die bereits erwähnte Panel-Studie von Ernst & Young, die 2008 auch nach den innovativsten Ländern der Welt fragte (vgl. Abb. 6).12
Quelle: Ernst & Young (2008), S. 36.
Bei bis zu drei möglichen Antworten hat China (34%) als innovatives Land Deutschland (31%) überholt und lässt an zweiter Stelle auch Japan (29%) hinter sich. Interessant ist zudem, dass Indien (26%) noch vor Großbritannien (11%), Frankreich (10%), Finnland (6%) und Schweden (4%) genannt wird. Verglichen mit staatlichen Investitionen und auch Rahmenbedingungen für HightechUnternehmen, bei denen die skandinavischen Länder und westeuropäischen Länder traditionell auf den vorderen Rängen stehen, scheint die langfristige Entwicklung dieser Standorte in FuE-intensiven Bereichen weniger reizvoll. Auch im Hinblick auf die vorhandene Standortkonkurrenz der USA (50%) und auch
12
Ernst & Young (2008), S. 36.
354
Thorsten Posselt / Falk Kunadt
Japan (29%) sehen sich die europäischen Staaten einer Herausforderung ausgesetzt. Auch eine bereits ältere Studie der Unternehmensberatung McKinsey von 2005 zur Wettbewerbsfähigkeit europäischer Hightech-Branchen im globalen Vergleich spricht von einer unterdurchschnittlichen Performance der europäischen Hightech-Industrie (vgl. Abb. 7).13
Quelle: G-2.000-Datenbank, Global Insight, McKinsey.
Europa steht neben traditionellen Konkurrenten wie den USA und Japan zunehmend dem Wettbewerb mit weiteren asiatischen Regionen gegenüber. Die McKinsey-Studie betrachtet auch Cluster als wichtiges Element der Steigerung der Wettbewerbsfähigkeit von Regionen. Demzufolge sind europäische Cluster kleiner und weniger dynamischer (im Sinne von Venture Capital Investitionen und 13
McKinsey & Company (2005).
Standortwettbewerb und Globalisierung: Innovation als Chance?
355
der Neugründung von Hightech-Unternehmen). Die Studie kommt zum Schluss, dass Europa ein insgesamt großes Potential im FuE-Bereich sowie bei der Schaffung von Arbeitsplätzen hat, dies aber noch nicht ausreichend nutzt.14 In Betrachtung der FuE-Ausgaben sowie des europäischen Potentials muss daher gefragt werden, warum sich die Volkswirtschaften im FuE-Bereich so unterschiedlich entwickeln. Dazu bietet Europa bereits politisch und strukturell Rahmenbedingungen, um auf einem gemeinsamen Binnenmarkt und Binnenraum im Bereich Bildung, FuE-Kooperationen die Position im globalen Wettbewerb zu stärken. Auch mit Blick auf die demografische Entwicklung und Prognosen und den unmittelbaren Folgen für zur Verfügung stehendes Humankapital und Wissen, muss daher gefragt werden, warum die Entwicklung im FuEBereich (im Hinblick auf die verstärkte Nutzung von Standortfaktoren im Bereich Innovation) in den EU-Mitgliedstaaten und weiteren europäischen Ländern so unterschiedlich verläuft. Nicht nur die räumliche Nähe spricht hier für eine stärkere Nutzung der Ressourcen durch Transfer von Innovationen und Wissen.
4
Grenzenlose Innovation – grenzüberschreitende Zusammenarbeit als Chance
Die Lissabon-Agenda hat FuE in den Mittelpunkt gestellt, um die Wettbewerbsfähigkeit europäischer Unternehmen im internationalen Vergleich auszubauen. So beschlossen die Staats- und Regierungschefs der EU-Mitgliedsstaaten, die Investitionen im FuE-Bereich von 1,9% auf 3% des EU-BIP bis 2010 zu erhöhen. Für die Umsetzung politischer Initiativen zur Stärkung des FuE-Bereichs entlang der Wertschöpfungskette sind nicht nur die nationalen Regierungen entscheidend. In zunehmendem Maße spielt die subnationale Ebene, also Regionen samt ihrer öffentlichen und privatwirtschaftlichen Akteure eine wichtige Rolle. In Abhängigkeit von Stärken einer Region – etwa durch traditionelle Wirtschaftszweige, Niederlassungsgründungen von Unternehmen (zum Beispiel in Ostdeutschland und Mittelosteuropa) oder Initiativen von Akteuren im Forschungsbereich – formulieren Regionen ihre eigenen Innovationsstrategien sowie davon ausgehenden Maßnahmen, Förderungen und Partnerschaften, um die Wettbewerbsfähigkeit zu steigern. In diesem Zusammenhang konkurrieren Regi-
14
Am Beispiel Skandinavien wurden die Auswirkungen auf Gesamteuropa hochgerechnet. So kommen die Autoren (2005) zum Schluss, dass in Europa im Hightech-Bereich die Schaffung von bis zu 4 Millionen Arbeitsplätzen möglich sei.
356
Thorsten Posselt / Falk Kunadt
onen zunächst. Dennoch sind Regionen bestrebt, ihre Erfahrungen mit Politikmaßnahmen und Politikförderung auszutauschen.15 Insgesamt ist eine steigende Tendenz der überregionalen Zusammenarbeit zu beobachten. Auch die Europäische Union unterstreicht mit ihrem politischen Konzept Europa der Regionen die Stärkung des Subsidiaritätsprinzips und sieht die transnationale Zusammenarbeit europäischer Akteure als strukturelles Kernmerkmal europäischer Förderprogramme. Neben dem 7. Forschungsrahmenprogramm, das sich sehr stark dem Hochtechnologiebereich widmet (Bereich Kooperation), den Austausch von Forschungspersonal forciert (Bereich Menschen) und einer Fragmentierung von FuE-Politik- sowie Unterstützungsmaßnahmen entgegen wirken will (Bereich Kapazitäten), wird versucht, angewandte Forschung stärker zu fördern – das heißt Forschungsergebnisse profitabel gegenüber der Konkurrenz durch einen Wissensvorsprung zu vermarkten. Hier werden insbesondere Kleine und Mittlere Unternehmen (KMU)16 ermuntert, sich in gemeinsamen Projekten mit Forschungseinrichtungen und anderen Unternehmen zu engagieren und eigene Forschungsaktivitäten auszubauen. Abb. 8 zeigt den Anteil der KMU, die keine Umsätze aus Innovationen bekommen. Auch hier ergibt sich kein geografischer Trend in Europa. Der Großteil europäischer Unternehmen wird durch KMU gestellt. Allein aufgrund von Sprach- und Kulturunterschieden ergeben sich in Europa – anders als in den USA oder Japan – vor allem im KMU-Bereich größere Hemmschwellen im grenzüberschreitenden Austausch von Know-how und neuen Forschungserkenntnissen. Dies hat vor allem für kleinere Länder Auswirkungen, bringt im globalen Wettbewerb aber auch Nachteile für größere Staaten. Dabei bringt Europa für innereuropäischen Innovationstransfer gute Voraussetzungen mit sich. An erster Stelle steht hier die räumliche Nähe, die die Staaten verbindet. Vor allem in der Europäischen Union sind die Staaten durch den gemeinsamen Binnenmarkt und Binnenräume auch institutionell und strukturell näher beieinander als etwa Asien. Trotz der bisher nur teilweise erreichten Vorgaben der Lissabon-Agenda bietet die Europäische Union (und darüber hinaus auch durch Europäischen Wirtschaftsraum, Europäische Freihandelszone und durch Assoziierungs- und Partnerschaftsabkommen) hervorragende Rahmenbedingungen zur Bündelung aufwändiger FuE-Aktivitäten. So wurde im April 2009 durch den Small Business Act initiiert, u.a. das Erasmus-Programm auf junge Unternehmer auszuweiten. Dadurch bietet sich nicht nur Studierenden oder Forschenden die Möglichkeit, im Ausland sich weiter zu entwickeln, auch 15 16
Vgl. Mitschke (2009). KMU-Definition der EU: index_de.htm (26.06.2009).
http://ec.europa.eu/enterprise/enterprise_policy/sme_definition/
Standortwettbewerb und Globalisierung: Innovation als Chance?
357
junge Unternehmer können so Erfahrungen bei erfolgreichen Unternehmern im Ausland sammeln und austauschen.
Quelle: Europäische Kommission (2007), S. 23.
358
Thorsten Posselt / Falk Kunadt
Auch im KMU-Bereich bemüht sich die Union zur Schaffung von mehr grenzüberschreitenden Kooperationen zwischen Unternehmen, Forschungseinrichtungen und öffentlichen Trägern und damit zur Verbesserung der Forschungsaktivitäten zielgerichtet und vor Ort. Zu nennen ist hier das von der Europäischen Union koordinierte Rahmenprogramm für Wettbewerbsfähigkeit und Innovation (CIP), das sowohl FuE-Projekte mit Industriefokus in den Branchen Informations- und Kommunikationstechnologie, erneuerbare Energien sowie umweltfreundliche Innovationen in Unternehmen mit Projektförderung unterstützt, aber auch die Finanzierung von KMU in der Gründungs- und Aufbauphase durch Bürgschaften fördert und durch Schaffung eines Beratungsnetzwerkes in ganz Europa (Enterprise Europe Network) beigetragen hat. Auch das Forschungsrahmenprogramm bietet forschungsintensiven KMU die Möglichkeit, Forschungsprojekte mit weiteren Partnern durchzuführen und hat durch das Sub-Programm Forschung für KMU die Möglichkeit geschaffen, dass KMU Forschungsdienstleistungen bei Instituten gefördert in Auftrag geben können. Bei diesen Programmen gilt das Prinzip, dass Projekte durch Konsortien von mindestens drei unabhängigen Partnern aus mindestens drei teilnehmenden Staaten durchgeführt werden müssen. Ein ähnliches Prinzip gilt auch bei Eureka und Eurostars. Das Eureka-Netzwerk wurde auf Initiative mehrerer europäischer Staaten gegründet, um die Entwicklung innovativer Produkte, Verfahren und Dienstleistungen sowie die Netzwerkbildung zwischen europäischen Unternehmen und Forschungsakteuren zu unterstützen. Dabei wird mehrmals jährlich für ausgewählte Projekte das Eureka-Label vergeben. Durch Eurostars wird zudem die Möglichkeit gegeben, derartige Projekte auch durch finanzielle Unterstützung voranzubringen. Die genannten Maßnahmen haben u.a. das Ziel, die Umsetzung innovativer Ideen in marktfähige, profitable Produkte sowie deren Weiterentwicklung zu forcieren. Allerdings wurde hier vielfach die Praktikabilität dieser Förderprogramme bemängelt. So wird häufig kritisiert, dass der Aufwand bei der Antragstellung für Unternehmen ohne erfahrene Partner aus der Forschung, die bereits Anträge koordiniert haben, extrem hoch ist. Auch ist die Erfolgsquote recht gering, die sich vor allem bei einstufigen Evaluierungen restriktiv auf die Antragstellung auswirken kann. Für kleinere Unternehmen ist die Koordinierung von Konsortialprojekten zumeist aus Ressourcengründen kaum realisierbar.17 Um bei den genannten Fördermaßnahmen erfolgreiche Anträge einreichen zu können, sind also erfahrene Partner wichtig, die zudem während der Antragsphase entsprechende Ressourcen freistellen können. Die Planung mit Partnern in Konsortien sowie gemeinsame Vorüberlegungen sollten schon weit vor Verfassen eines Projektantrages feststehen. Damit beziehen sich die Förderprogramme vor allem 17
Vgl. Rammer/Geyer (2005), S. 37 f. sowie Europäische Kommission (2009), S. 14 f.
Standortwettbewerb und Globalisierung: Innovation als Chance?
359
auf langfristige strategische Produkt- und Produktweiterentwicklungsplanung. Zweifelsohne ist der grenzüberschreitende Ansatz der Förderung ein richtiges Instrument, um die europäische Wirtschaftsgemeinschaft wettbewerbsfähiger zu gestalten. Hier können aber Verbesserungen bei Administration und Planung von Programmen für die zukünftigen Maßnahmen zu mehr Effizienz und Nutzerfreundlichkeit beitragen. Dies vor allem auch vor dem Hintergrund weiterer Vorteile, die Europa im Vergleich mit anderen Standorten bietet. Internationale Kooperationen scheinen durch Ressentiments geprägt zu sein und einem vermeintlichen Mehraufwand, den Kooperationen bieten. Dabei können gemeinsame (FuE)-Projekte v.a. auch neue Märkte und Partner für die strategische wie geografische Expansion von Unternehmern bieten.18 Denn die EU-Mitglieder sind sich nicht nur räumlich sondern auch kulturell nah. Sie verfügen über ähnlich entwickelte Innovationsund Bildungssysteme, die sich auch von Strukturen in den USA und Japan unterscheiden. Besonders hervorzuheben sind dabei Zentren für Grundlagen- und angewandte Forschung, wie in Deutschland etwa die Max-Planck-Gesellschaft oder die Fraunhofer-Gesellschaft. Ähnliche Strukturen gibt es auch in anderen Mitgliedstaaten. Auch EU-Neumitglieder haben deren Wichtigkeit erkannt – überall dort, wo diese Infrastruktur noch nicht existiert, sollte der Ausbau derartiger Institutionen als Brücke zwischen Wissenschaft und Wirtschaft, vor allem aber auch als Bindeglied unter internationalen Akteuren vorangebracht werden.19 Derartige Strukturen tragen dazu bei, dass sich regional wie überregional wirtschaftliche, öffentliche und wissenschaftliche sowie weitere Querschnittsakteure in strukturellen Einheiten zusammenschließen (Cluster/Umbrella), um regional branchen- und themenbezogen zu mehr Wettbewerbsfähigkeit beizutragen.20 Sowohl Unternehmen als auch lokale Politiker haben die Wichtigkeit erkannt, auf regionaler und interregionaler Ebene Kompetenzen und Kapazitäten zu bündeln, um besser auf globale Wettbewerbsbedingungen reagieren zu können. Die Regional- und KMU-Förderung der Europäischen Union verfolgt diese Clusterbildung als ein wichtiges Ziel. Einen weiteren Vorteil bietet hoch qualifiziertes Personal, das dank ähnlicher Bildungssysteme in ganz Europa zur Verfügung steht. Dennoch zeichnet sich hier eine Kehrtwende ab. So hat Deutschland Probleme, Arbeitspositionen vor allem im ingenieurwissenschaftlich-technischen Bereich zu besetzen, und sucht händeringend nach Personal. OECD-Studien berichten von Qualitätsver18 19
20
Vgl. Rammer/Geyer (2005), S. 30 f. Als Beispiele können Technologietransferinstitutionen wie Technology Centre a.s. (Tschechische Republik), Lithuanian Innovation Centre (Litauen) oder das EIT+ (Polen) genannt werden. Vgl. Mitschke (2009).
360
Thorsten Posselt / Falk Kunadt
lusten bei Bildung- und Hochschulbildung und ein Anwachsen an hoch qualifizierten Arbeitnehmern in Schwellenländern.21 Den boomenden Volkswirtschaften Mittel- und Osteuropas gehen gleichzeitig die Fachkräfte aus, die durch höhere Löhne nach Westeuropa migrieren. Trotz bester Voraussetzungen findet Wettbewerb um Arbeitskräfte innerhalb Europas statt, anstatt die vorhandenen Ressourcen besser zu nutzen. Der gezielte Austausch von Wissen – grenzenlose Innovationen – kann dazu beitragen, den Standort Europa in dieser Hinsicht zu stärken. In diesem Zusammenhang erscheint die Angst vor Imitationen, die durch Innovationstransfer in Europa ausgelöst werden können, unberechtigt. Statistiken der EU-Zollbehörde weisen Patentverletzungen, Duplikate und Fälschungen vor allem mit Herkunft China aus.22 Jede Produktionsauslagerung dorthin erhöht die Gefahr von Imitationen. Durch steigende FuE-Aktivitäten in den Schwellenländern steigt so auch die Möglichkeit, Produkte innovativ weiter zu entwickeln und dadurch als ernsthafte Konkurrenten der ursprünglichen Produkte auf den Markt zu bringen. Eine Harmonisierung von Wissen unter verbesserten Rahmenbedingungen bringt einen Mehrnutzen gegenüber der Konkurrenz. Dieser Mehrnutzen sollte als Vorteil im globalen Standortwettbewerb als grenzenlose Innovation in Europa verstanden werden.
5
Fazit
Derzeit lassen sich nur wenig zuverlässige Aussagen über die Folgen der Wirtschaftskrise machen. Neben einer Marktbereinigung, die es für Unternehmen zu durchstehen gilt, zeigt die Krise aber auch, dass intensive, nachhaltige Wachstumsstrategien mittels innovativer Wertschöpfung und einer einhergehenden Stärkung der Bereiche Bildung und Forschung, Stärkung der FuE-Kapazitäten von Unternehmen sowie der profitablen Umsetzung in Produkte zu Krisenresistenz beitragen. Derzeit zeigen die europäischen Volkswirtschaften – unabhängig ihres Beitrittstermins zur Europäischen Union – unterschiedliche Symptome, die auf unterschiedliche Wachstumsstrategien der letzen Jahre zurückzuführen sind. Dennoch verdeutlichen Erhebungen, dass Europa trotz ehrgeiziger Ziele, wie in der Lissabon-Agenda formuliert, noch immer nicht zum weltweit wettbewerbsfähigsten wissensbasierten Standort geworden ist. Stattdessen sieht es sich wachsender Konkurrenz durch hoch dynamische Wachstumsstandorte in Asien gegenüber, die sich in punkto FuE, Weiterentwicklung von Produkten und Qualität enorm entwickeln und auch durch andere Standortvorteile wie Lohnkosten 21 22
Z.B. Pisa-Studien Vgl. Europäische Kommission (2008).
Standortwettbewerb und Globalisierung: Innovation als Chance?
361
attraktiv sind. Wie gezeigt wurde, nutzt Europa nach wie vor noch nicht alle Chancen, um im innovativen bzw. Hightech-Bereich durch Humankapital, Bildung, Ausgaben im FuE-Bereich sowie die Förderung innovativer Unternehmen, die traditionell zu den Stärken des Standorts Europa gehören, profitabel und marktnah umzusetzen Demzufolge sollten durch steigenden globalen Wettbewerb im innovativen Bereich Kooperationen zum Austausch von Wissen aufgebaut werden. Derartige Kooperationen machen innereuropäisch größeren Sinn durch räumliche Nähe, weniger Barrieren eines gemeinsamen Binnenraumes, hoch ausgebildetes Humankapital, kulturelle Nähe und gemeinsame Fördermöglichkeiten. Ein nicht unwesentlicher Fakt ist, dass in den neuen EU-Mitgliedsländern FuE-Aktivitäten insgesamt im Vergleich zu anderen EU-Mitgliedern bei gleichzeitig hoch ausgebildetem Humankapital kostengünstiger sind. Hier fehlen aber Kapazitäten, deren Aufbau Innovationstätigkeiten und -potenzial europaweit stärken kann. Genau an dieser Stelle kann EU-Förderung einen wichtigen Beitrag leisten. Insgesamt verfügt die Europäische Union damit über enormes Potenzial im grenzüberschreitenden Bereich. Die aktuelle Wirtschaftskrise geht derzeit auch nicht spurlos an den dynamischen Wachstumsmärkten Asiens vorbei. Sie kann daher als Chance genutzt werden, um Innovationen wieder hier und nicht woanders profitabel umzusetzen. Hierzu muss sowohl auf Politik- wie auf Unternehmerseite ein Umdenken zu mehr überregionaler Kooperation, vor allem auch im wissensintensiven Bereich ansetzen. Dabei muss ein noch stärkerer Fokus auf eine marktgerechte Umsetzung von Innovationen gesetzt werden. Damit ist die Europäische Union wie die Politik in den Mitgliedsländern in der Pflicht, kohärente Maßnahmen weiter auszubauen und zu harmonisieren. Gleichzeitig ist zu hoffen, dass die aktuelle wirtschaftliche Situation den Standort Europa stärker in der Unternehmensmentalität verankert.
Literatur Böttcher, B./Deuber, G. (2009): As time goes by. Gemischte Bilanz nach fünf Jahren EUOsterweiterung, Frankfurt a.M. 2009. Chung, S. (2007): Excelsior. The Korean Innovation Story, in: Issues in Science and Technology, Fall/2007. Ernst & Young (Hrsg.) (2008): Standort Deutschland 2008. Deutschland und Europa im Urteil internationaler Manager, Essen 2008. Ernst & Young (Hrsg.) (2009): Standort Deutschland 2009. Deutschland und Europa im Urteil internationaler Manager, Essen 2009. Europäische Kommission (Hrsg.) (2000): Schlussfolgerungen des Vorsitzes – Europäischer Rat von Lissabon, Brüssel 2000.
362
Thorsten Posselt / Falk Kunadt
Europäische Kommission (Hrsg.) (2007): Vorschlag für ein Lissabon-Programm der Gemeinschaft 2008-2010, Mitteilung der Kommission an das Europäische Parlament, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen, Brüssel 2007. Europäische Kommission (Hrsg.) (2008): Report on EU Custom Enforcement of Intellectual Property Rights – Results at the European Border, Brüssel 2008. Europäische Kommission (Hrsg.) (2009): Evaluation of the Sixth Framework Program for Research and technological Development 2002-2006. Report of the Expert Group. Brüssel 2009. International Monetary Fund (Hrsg.) (2007): World Economic Outlook 2007, Washington 2007. International Organization for Migration (Hrsg.) (2008): World Migration 2008. Managing Labour Mobility in the evolving global Economy, IOM World Migration Report Series, Vol. 4, Genf 2008. Khan, H.A. (2002): Innovation and Growth: A Schumpeterian Model of Innovation. University of Denver/CIRJE/The University of Tokyo. Discussion Paper, 2002. Kok, W. (2004): Facing the Challenge. The Lisabon Strategy for Growth and Employment, Brüssel 2004. McKinsey & Company (Hrsg.) (2005): Hightech in Europa - Eine Zukunftsbranche in Bedrängnis, Frankfurt a.M. 2005. Mitschke, C. (2009): Zur internationalen Wettbewerbsfähigkeit von Regionen. Strukturpolitische Analyse und wirtschaftpolitischer Handlungsbedarf, Hamburg 2009. Pleschak F. (Hrsg.) (2003): Wachstum durch Innovation: Strategien, Probleme und Erfahrungen FuE-intensiver Unternehmen, Wiesbaden 2003. Rammer, A./Geyer, A. (2005): Erfahrungen deutscher KMU mit europäischen FuEKooperationen am Beispiel der EU-Forschungsrahmenprogramme und EUREKA. Studie im Auftrag des DLR. Wien 2005.
Internetquellen Europäische Kommission: KMU-Definition der EU. Unter: http://ec.europa.eu/enterprise/enterprise_policy/sme_definition/index_de.htm. Stand: 26.06.2009. Eurostat: Ausgewählte wichtigste europäische Wirtschaftsindikatoren. Unter: http://epp.eurostat.ec.europa.eu/portal/page/portal/euroindicators/peeis. Stand: 25.06.2009. International Monetary Fund: World Economic Outlook Database. Unter: http://www.imf.org/external/pubs/ft/weo/2009/01/weodata/index.aspx. Stand: April 2009. National Bureau of Statistics of China: Unter: http://www.stats.gov.cn/english/. Stand: 26.06.2009. OECD. Stat: Staatliche FuE-Ausgaben in Prozent des BIP. Unter: http://stats.oecd.org/Index.aspx. Stand: 26.06.2009.
Die „Méthode Monnet“ der europäischen Integration: Mythos und Realität Franz Knipping
1
Die Fragestellung
Jean Monnet ist am 16. März 1979 nach einem erfüllten 91-jährigen Leben verstorben. Schon zu Lebzeiten galt er als der Architekt des europäischen Integrationsprozesses, von Time Magazine schon in den 50er Jahren als „Mister Europe“ geadelt, von den Staats- und Regierungschefs in seinem „Aktionskomitee für die Vereinigten Staaten von Europa“ hofiert und 1976 von ihnen mit dem eigens für ihn geschaffenen Titel „Ehrenbürger Europas“ ausgezeichnet. Nach seinem Ableben ist sein Nimbus als Vater Europas, neben dem andere wie Adenauer, Spaak, Schuman und De Gasperi gewissermaßen in eine andere Kategorie rücken, weiter gestiegen und fast ins Mythische entrückt. Zentrale Programme und Institutionen der Europäischen Union sind mit seinem Namen belegt. Selbst kritisch rückblickende Betrachter sehen Monnet längst als den „Erzheiligen“, den Inventor, Inspirator, Kommunikator und, für die ersten Jahre, auch den Realisator des europäischen Einigungsprozesses.1 Vor allem wird die erfolgreiche Ingangsetzung und Verstetigung des europäischen Einigungsprozesses seit 1950 mit der Art und Weise in Zusammenhang gebracht, mit der Jean Monnet die Aufgabe, „ein neuartiges Verhältnis zwischen den europäischen Staaten zu schaffen“2, angegangen ist. Immer, wenn Sand ins Getriebe des Integrationsprozesses gerät, gar eine europäische Krise entsteht, werden Stimmen laut, dass man sich, um wieder flott zu werden, auf die „Methode Monnets“ besinnen müsse. In den schwierigen Phasen des MaastrichtVertrages und der Folgeverträge von Amsterdam und Nizza war dies so, in den 1 2
Vgl. Milward (1992), S. 318 ff.; Wessels (2001), S. 2. Monnet (1980), S. 663.
364
Franz Knipping
Debatten über die Osterweiterung und natürlich nach dem Scheitern des Verfassungsvertrages aufgrund des französischen und niederländischen Vetos im Jahre 2005. Der Rückgriff auf die Methode Monnets erscheint in solcher Betrachtung als Erfolgsgarantie für das weitere Zusammenwachsen Europas. Aber was für eine Methode ist das? Gibt es sie überhaupt? Der Begriff ist inzwischen allgemein geläufig, aber er bewegt sich zwischen disparaten Perzeptionen. Einerseits meint John Gillingham, dass „über die Jahre, der Begriff Methode Monnets zu verschiedenen Zeiten für unterschiedliche Dinge verwendet worden ist, von den verschiedenen Praktikern, Kommentatoren und Experten aller Art“3. Andererseits gibt es die Europarechtler, die klipp und klar formulieren: „Die Methode Jean Monnets ist die supranationale Methode“ 4, d.h. die Errichtung supranationaler Institutionen in einer internationalen Organisation. Damit hat der Jurist allerdings nur scheinbar begrifflich ausgesorgt. Denn supranationale Institutionen sind auch in den vielen Verfassungsentwürfen vorgesehen, die das europäische Einigungsprojekt über die Jahrzehnte begleitet haben.5 Und der Historiker, der das vielschichtige Wirken Monnets untersucht, stößt rasch auf den Teilbefund, dass Monnet eines jedenfalls nicht für realistisch hielt und daher als Methode ausschloss: die Schaffung Europas durch einen Urknall, durch den „big bang“ einer dem Einigungsprozess verordneten fertigen Verfassung. Es wäre hilfreich festzustellen, wann der Begriff „Methode Monnets“ erstmals benutzt wurde. Dazu gibt es bisher kein hinreichendes Ergebnis der Forschung. Eine Unmenge von Texten müsste systematisch durchkämmt werden. Es erscheint naheliegend, dass der Begriff sich in der Entgegensetzung zu anderen Methoden, den europäischen Einigungsprozess zu gestalten und voranzubringen, herausgebildet hat, also etwa zu Bestrebungen, Europa als Konföderation oder bloße Freihandelszone zu konzipieren und zu gestalten. Und dass in solchen Momenten das mit dem Namen Monnets verknüpfte Vorgehen als etwas bereits Etabliertes und Wirkungsvolles einen Referenzpunkt darstellte. Zu denken ist etwa an die Auseinandersetzungen der 60er Jahre, als der französische Staatspräsident de Gaulle die Rolle der Mitgliedstaaten der Gemeinschaft und insbesondere Frankreichs auf Kosten der europäischen Institutionen neu zu befestigen suchte. Oder an die Spannungen, die das britische Beitrittsgesuch in den 60er und frühen 70er Jahren auslöste.6 Vielleicht handelt es sich auch um eine posthume Begriffsbildung.
3 4 5 6
Gillingham (2007), S. 1. Griller (2007), S. 1. Vgl. Lipgens (1986); Loth (2002). Vgl. Knipping (2004), S. 128 ff., S.135 ff.
Die „Méthode Monnet“ der europäischen Integration: Mythos und Realität
365
Eine systematischere Untersuchung muss vom Methodenbegriff ausgehen. Indem unter „Methode“ allgemein ein planmäßiges Verfahren verstanden wird, mit dessen Hilfe ein bestimmtes Ziel erreicht werden soll, sind für unsere Fragestellung also zwei Sachverhalte zu klären: das europäische Ziel, dass Monnet verfolgte, und die Art und Weise, mit der er glaubte, es am besten erreichen zu können. Welches war das europäische Ziel Jean Monnets? Eine Frage, die heute aktueller erscheint als je zuvor in der europäischen Einigungsgeschichte. Der allgemeine Ausgangspunkt war für ihn die Erkenntnis, dass Frankreich und die europäischen Staaten allesamt nach zwei Weltkriegen, und sehr konkret nach dem Zweiten Weltkrieg, keine Alternative zu einem ökonomischen und darüber hinaus politischen Zusammenschluss hatten. Nach den katastrophalen Erfahrungen mit der Versailler Nachkriegsordnung war europäischer Zusammenschluss zudem ein notwendiges Friedensprojekt. In welche Form er zu realisieren war, war grundsätzlich offen. Monnet stand, schon nach dem Wortlaut des von ihm konzipierten Schumanplans, eine „europäische Föderation“ vor Augen.7 Das naheliegende Leitbild war für ihn, der in den Zentren der Washingtoner Administration ein- und ausging, das der Vereinigten Staaten von Amerika. In der Tat verknüpften ja die Washingtoner Administration und der Kongress seit 1947 die Europapolitik ausdrücklich mit der Erwartung einer Beförderung der „Vereinigten Staaten von Europa“8. Monnet wusste natürlich, dass der Vergleich zwischen den realen USA und den potentiellen USE neben Analogien auch Divergenzen offenbarte. In Europa ging es immerhin, anders als in den USA, um den Zusammenschluss von über Jahrhunderten gewachsenen Nationalstaaten mit ausgeprägten Traditionen, Sprachen und Interessen. Aber warum sollte es deshalb nicht möglich sein, die in zwei Weltkriegen ruinierten Länder Europas, und zunächst Westeuropas, zu einer engen Föderation sui generis zusammenzuschließen? Der Name des 1955 von Monnet gegründeten „Aktionskomitees für die Vereinigten Staaten von Europa“ war zweifellos Programm. Ein ehrgeiziges. 1950, bei der Ankündigung des Schuman-Plans, brauchte er sich allerdings auf ein Endziel der von einer Zusammenlegung der Kohle- und Stahlindustrien erwarteten Synergien noch nicht konkret festzulegen; vielmehr erschien die Montanunion im Erfolgsfalle als Anfang eines längeren Weges, der irgendwie über wirtschaftliche zu politischen Strukturen eines sich vereinigenden Europas führen konnte. Wenige Monate später hat Monnet als Autor auch des PlevenPlanes exakt dieselbe Überzeugung zu Papier gebracht, wenn er dabei vorübergehend wohl auch der Verführung einer Abkürzung des Weges über das EVG-/ EPG-Projekt erlegen ist. In Erkenntnis dieser Fehleinschätzung hat er dieses 7 8
Vgl. Schwarz (1980), S. 107 f. Melandri (1980), S. 67 ff.
366
Franz Knipping
Projekt nach seinem Scheitern wie eine heiße Kartoffel fallen lassen, als ein „mauvais projet“9. Die Lehre war, dass man nicht zu ambitiös werden und Etappen überspringen durfte. Unverändert offen blieb aber weiter die Möglichkeit einer schrittweisen Entwicklung zu einer politischen Gemeinschaft, die nach außen mit einer Stimme sprechen und nach innen europäische Identität stiften konnte. Die Föderation, die Monnet langfristig realisieren wollte, war vermutlich nicht so klar präformiert wie der europäische Bundesstaat, den Walter Hallstein 1969 als „noch unvollendet“ beschrieb.10 Monnets Mitarbeiter Francois Duchêne qualifiziert sie als „molekularen Föderalismus“ – „to a point open-minded and empirical“11. Aber Monnet hielt während seines ganzen Lebens unnachgiebig an dieser Zielsetzung fest. Den Weg dahin konnte man sich natürlich auf unterschiedliche Weisen vorstellen. Wie sich Jean Monnets Vorstellung des Weges zur langfristig zu realisierenden Föderation Europas darstellte und entwickelte, soll im folgenden durch die Betrachtung der drei chronologisch aufeinander folgenden Phasen seines Wirkens und seiner Wirkung erörtert werden. Es handelt sich dabei um (1) die Jahre des Protagonisten der Montanunion von 1950 bis 1955, (2) die Zeit des auf eigene Rechnung handelnden Impulsgebers von 1955 bis zu seinem Tode 1979, und (3) schließlich die des in der Erinnerung weiterlebenden „Vaters Europas“ seit 1979.
2
Der Protagonist, 1950-1955
Die Vorgeschichte des von Monnet konzipierten Schuman-Plans öffnet den Blick auf fundamentale Denk- und Handlungsstrukturen in der Persönlichkeit Jean Monnets. Als Erbe eines weltweit agierenden Spirituosen-Unternehmens, als in den höchsten Regierungskreisen in Washington, London und nicht zuletzt Paris respektierter Organisator interallierter Nachschub- und Versorgungsprogramme in beiden Weltkriegen, als Stellvertretender Generalsekretär des Völkerbunds in den frühen 20er Jahren, verfügte er über reiche Erfahrungen mit der internationalen Koordinierung einzelstaatlicher Verwaltungen. Sie lehrten und befähigten ihn, bei der Behandlung komplexer internationaler Fragestellungen souverän und systematisch vorzugehen: eine Problemlage zutreffend zu analysieren, eine angemessene Lösungsstrategie zu entwerfen, sich auf das Entscheidende zu konzentrieren, das als richtig Erkannte mit großer Entschlossenheit umzu-
9 10 11
Duchêne (1994), S. 258. Vgl. Hallstein (1969). Duchêne (1994), S. 367.
Die „Méthode Monnet“ der europäischen Integration: Mythos und Realität
367
setzen und dabei auch unkonventionelle Wege zu gehen, und vor allem: eine Atmosphäre des Vertrauens gegenüber allen Beteiligten herzustellen.12 Am konkreten Anfang stand nicht der europäische Traum von Jahrhunderten, sondern harter politischer Interessenausgleich in der internationalen Situation des Winters 1949/50. Monnet, seit 1946 Generalkommissar für den französischen Wirtschaftsplan, ging bei der Lageanalyse davon aus, dass die Prosperität Frankreichs wesentlich von der wirtschaftlichen Entwicklung Europas abhing und dass es diese zu organisieren gelte; dass nach der ersten Explosion einer russischen Atombombe im September 1949 der Ost-West-Konflikt sich weiter verschärfen und in einen militärischen Konflikt münden könnte; dass die alles überwölbende Logik des Kalten Krieges nicht unbedingt die deutschlandpolitischen Interessen Frankreichs berücksichtigte; dass diese letzteren vielmehr verlangten, dass die Entwicklung der Bundesrepublik und ihre Angliederung an den Westen auf eine Weise vor sich ging, die der Furcht Frankreichs vor einem neuerlich unkontrollierten und wieder mächtiger werdenden Deutschland Rechnung trug. Als Schlüssel zur befriedigenden Klärung der Situation sah er – nach unfruchtbaren Sondierungen in London – eine deutsch-französische Annäherung, die zum Kern eines westeuropäischen Zusammenschlusses werden konnte. Naheliegend war eine Initiative auf wirtschaftlichem Gebiet, wobei eine volle Verzahnung der Gesamtwirtschaften wegen der Unterschiedlichkeit der Produktionsbedingungen, der Preise, der Löhne, der Steuer- und Sozialsysteme in Deutschland und Frankreich vorerst nicht möglich schien. Eine Ansatzmöglichkeit bot die Zusammenführung des schwerindustriellen Sektors, mit der Frankreich dauerhaft Zugang zur Ruhrkohle behielte und das Risiko einer einseitigen deutschen Aufrüstung überschaubar wurde.13 Dies waren zu dieser Zeit Gedankengänge nicht nur Jean Monnets allein. Namentlich die Zusammenlegung der Kohle- und Stahlindustrien wurde 1949/50 auch anderenorts erörtert, nicht zuletzt in Westdeutschland, wo Bundeskanzler Adenauer und andere führende Politiker, darunter vor allem der nordrheinwestfälische Ministerpräsident Karl Arnold, die Ausweitung der Kontrollen, unter denen das Ruhrgebiet stand, auch auf die Schwerindustrien in Frankreich, Belgien und Luxemburg verlangten.14 Monnets Verdienst war es, den Schritt von der Idee zur Tat zu initiieren und dabei den Schatten zu überspringen, dass Frankreich als Gewinner des Krieges sich mit dem freiwilligen Verzicht auf volle Souveränität im zentralen Bereich der Schwerindustrie auf das Niveau des Kriegsverlierers begab. Vermutlich hätte, wenn nicht Monnet im Frühjahr 1950 die Initiative ergriffen hätte, niemand dies getan. Wäre dann die Integration Eu12 13 14
Vgl. Duchêne (1994); Roussel (1996). Vgl. Monnet (1980), S. 367. Vgl. Düwell (2007).
368
Franz Knipping
ropas überhaupt auf den Weg gekommen? Monnet war zweifellos der richtige Mann zur richtigen Zeit am richtigen Platz. Für den obersten französischen Wirtschaftsplaner Jean Monnet lag es auf der Hand, dass auch auf europäischer Ebene ein erhebliches Maß an Dirigismus erforderlich war. In diesem Sinne entwarf er, mit Hilfe des jungen Professors für Internationales Recht an der Universität Aix-en-Provence Paul Reuter, die Formel für eine supranationale europäische Exekutive, die von regierungsunabhängigen Persönlichkeiten gebildet werden sollte, und die er „Haute Autorité“ (Hohe Behörde) nannte.15 Weitere Elemente der Ingangsetzung eines europäischen Integrationsprozesses ergaben sich in den von Monnet selbst geleiteten Verhandlungen über den Schuman-Plan, an deren Ende die Unterzeichnung des Montanunion-Vertrages durch die Gründerstaaten Deutschland, Frankreich Italien und Benelux stand. Vor Beginn der Verhandlungen setzte Monnet gegen den Willen seines Außenministers Schuman den Ausschluss Großbritanniens durch, da die Labour-Regierung unter Attlee und Bevin nicht bereit war, vorab das supranationale Prinzip zu akzeptieren – ein Zeichen von Kompromisslosigkeit.16 Während der Verhandlungen wurde die Hohe Behörde organisatorisch als starkes exekutives Entscheidungsorgan von neun Mitgliedern ausgestaltet, die für sechs Jahre ernannt wurden; sie wurde aber um eine parlamentarische Versammlung und einen Gerichtshof ergänzt, und etwas unwillig verstand sich Monnet auch zur Austarierung der starken Stellung der Hohen Behörde durch das intergouvernementale Organ des Ministerrats – ein Zeichen von Pragmatismus. Ebenfalls beförderte Monnet die Vereinbarung, dass ungeachtet ihres respektiven wirtschaftlichen und politischen Gewichts Deutschland und Frankreich grundsätzlich auf allen Ebenen europäischer Administration stets nach dem Prinzip der Gleichheit vertreten sein sollten.17 Nach dem Inkrafttreten des EGKS-Vertrages konnte Jean Monnet dann selbst als erster Präsident der Hohen Behörde die Lebensfähigkeit einer supranational strukturierten europäischen Gemeinschaft in actu beweisen; sie vermochte tatsächlich, einen gemeinsamen Markt für die Produkte der Schwerindustrie zu organisieren, die geordnete Versorgung und den gleichen Zugang der Mitgliedstaaten zur Produktion sicherzustellen und dazu die Bildung niedriger Preise, die Modernisierung der Produktionsstätten, den geregelten Wettbewerb, die Entwicklung des zwischenstaatlichen Austausches und die Sicherung der Lebensverhältnisse der Arbeitnehmer zu gewährleisten. Indem die Montanunion auch Völkerrechtssubjekt wurde, konnte die Hohe Behörde internationale Kontakte,
15 16 17
Vgl. Monnet (1980), S. 379. Vgl. Monnet (1980), S. 389 ff. Vgl. Duchêne (1994), S. 207 ff.; Roussel (1996), S. 553 ff.
Die „Méthode Monnet“ der europäischen Integration: Mythos und Realität
369
so zu den USA, Großbritannien und den Internationalen Organisationen, aufbauen, auch internationalen Kredit aufnehmen.18 In dieser Gründungsphase der Europäischen Gemeinschaft zeigten sich alle wichtigen Elemente einer „Methode Monnets“, die der Namensgeber nicht theoretisch, sondern durch die praktische Arbeit begründete. In der Integrationstheorie wird sie längst als neo-funktionalistische Auslösung von „Dynamik in kleinen Schritten von nachhaltiger Bedeutung“ beschrieben: die Betonung der deutschfranzösischen Versöhnung, durchaus unter latenter französischer Kontrolle, als Voraussetzung für ein europäisches Friedensprojekt; Rückversicherung dafür in den USA; die Schaffung supranationaler Institutionen mit realen Kompetenzen, die der Souveränität der Mitgliedstaaten entstammten und eine Solidarität der Tat in einer Partnerschaft unter Gleichen ermöglichten; eine Schritt-für-SchrittStrategie, die in stetigem Werben alle Beteiligten „mitzunehmen“ und Überforderungen zu vermeiden suchte, und die insgesamt eine Atmosphäre des Vertrauens schuf und wahrte; der Beginn der wirtschaftlichen Integration in einem begrenzten, aber zentralen Sektor, geknüpft an die Vermutung einer Logik der Fakten, welche Integration in einem Sektor der Wirtschaft in benachbarte Sektoren ausstrahlen und überspringen ließ, das berühmte „spill-over“; am Ende würde dieses Prinzip, wenn alles gut ging, zunehmend an Dynamik gewinnen und schließlich von der wirtschaftlichen zur eigentlichen politischen Integration führen. Man könnte auch von einem ganzheitlich organischen Wachstumsexperiment sprechen.19 Von der Gründungsphase an fällt auch der besondere Arbeitsstil Monnets ins Auge. Er pflegte sich mit einer kleinen Gruppe effizienter Mitarbeiter zu umgeben, die ihm in einer partnerschaftlichen Weise zuarbeiteten. Erst wenn ein Konzept ausgereift schien, sucht er dessen Weg in die politische Arena. Von den Mitarbeitern erwartete er, neben Brillanz und Kongenialität, vor allem den „Sinn für das allgemeine europäische Interesse“ und volles Engagement und schenkte ihnen, wenn dies gesichert schien, blindes Vertrauen. Zu dieser verschworenen Gemeinschaft gehörten zum Beispiel Pierre Uri, Etienne Hirsch, Max Kohnstamm, Jacques-René Rabier. Es war mithin eine Handvoll, nicht mehr als 10 „wissender“ Personen, die, als „brain trust“ agierend, das Jahrhundertprojekt in einer gewissen Intransparenz auf den Weg brachten, als ein Projekt der europäischer Eliten, „von oben“, nicht „from the grassroots“.20 Es war wohl nicht anders möglich, und darum ist es müßig, darüber zu streiten, ob in der Art dieser Anfänge vielleicht unwillentlich bereits ein Hauptgrund für das „demokratische Defizit“ der EU angelegt wurde. 18 19 20
Vgl. Roussel (1996), S. 621 ff. Vgl. Wessels (2001); Schwabe (1999), S. 235. Vgl. Monnet (1980), S. 379; Duchêne (1994), S. 229.
370
Franz Knipping
Die Zeit als erster Präsident der Hohen Behörde der Montanunion, 1952-1955, führte Jean Monnet auf einen ersten Höhepunkt seiner europäischen Karriere. Er konnte zeigen, dass er nicht nur Inspirator war, sondern dass sein Modell der sektoralen Integration in der Praxis funktionierte. Er wurde zum weltweit angesehenen Akteur, der eine europäische Vision mit der Realität in eins brachte. Von Kreisen der politischen Rechten in Frankreich abgesehen, war er auf den europäischen Führungsetagen als Vormann Europas anerkannt. Die Regierungen der Mitgliedstaaten mussten seinen Vorstellungen nicht folgen, aber sie taten es. Jean Monnet mutierte zum „ersten Beweger“.
3
Der Impulsgeber, 1955-1979
Diese glückliche Zeit brach unversehens ab, als im Gefolge des Scheiterns der EVG die rechtsgerichtete französische Regierung unter Edgar Faure die – nach einigem Zögern – von Monnet angestrebte Verlängerung seiner Luxemburger Präsidentschaft über 1955 hinaus verweigerte. Mit einem Schlag war er damit von den Hebeln amtlicher Macht ausgeschlossen und schien seine Einflussmöglichkeiten zu verlieren. Mit inzwischen bereits 66 Jahren kehrte er als „elder statesman“ ins Privatleben zurück. Allerdings zeigte sich nun rasch, dass sein Nimbus genügend groß war, um ihm eine weitere Mitwirkung an der politischen Seitenlinie zu ermöglichen. Er blieb in europäischen Angelegenheiten ein gefragter Mann und vermochte, sich mit dem „Aktionskomitee für die Vereinigten Staaten von Europa“ ein halboffizielles Forum zu schaffen, das endgültig seinen Rang als Hauptakteur der europäischen Einigung sicherstellte.21 Die Leitidee des Aktionskomitees war die verstärkte Beförderung der europäischen Integrationsidee nach der Erfahrung mit dem Scheitern der EVG: Für die Zukunft galt es auszuschließen, dass ein zwischen den Regierungen ausgehandeltes Europa-Projekt von einem nationalen Parlament zum Scheitern gebracht wurde. Um dies sicherzustellen, suchte Monnet die maßgebenden Kräfte in den Parlamenten grundsätzlich und unabhängig von Wahlergebnissen auf die Integration Europas einzuschwören: die großen Parteien in Regierung und Opposition, und die Gewerkschaften. Um deren Führer und die hinter ihnen stehenden Organisationen für die europäische Idee zu gewinnen, entfaltete er im Sommer 1955 eine rege Reise- und Korrespondenztätigkeit in den sechs EGKS-Staaten. In allen Hauptstädten fand er Zustimmung, nicht zuletzt in Bonn bei der SPD Ollenhauers und Wehners. Am 13. Oktober 1955 wurde das „Aktionskomitee“ öffentlich konstituiert. Es bestand aus rund 30 Personen, den Vorsitzenden von 21
Vgl. Monnet (1980), S. 513 ff.
Die „Méthode Monnet“ der europäischen Integration: Mythos und Realität
371
mehr als 20 großen Parteien, die 70 Prozent der Wähler in den sechs Mitgliedsländern repräsentierten, und den Führern der großen Gewerkschaften, die 14 Millionen Arbeitnehmer vertraten. Nur die Person des Privatmannes Monnet führte und hielt sie zusammen. Nicht beteiligt waren die europakritischen kommunistischen und nationalistischen Parteien einschließlich der Gaullisten, auch nicht die Arbeitgeberverbände.22 Im Januar 1956 verabschiedete das Monnet-Komitee eine erste Resolution, die zur raschen Verwirklichung einer europäischen Gemeinschaft für die friedliche Nutzung der Atomenergie aufrief; sie wurde den Parlamenten in den sechs EGKS-Staaten zur Billigung zugeleitet und zwischen März und Juli 1956 stimmten alle mit großen Mehrheiten zu. Das war ein Durchbruch: das Prinzip des Aktionskomitees, als „moralische Autorität jenseits der in jedem Land etablierten Macht“ massiven europäischen Druck zu erzeugen, funktionierte tatsächlich. Von einem Zwei-Zimmer-Appartement in der Pariser Avenue Foch aus konnte Monnet fortan – bis 1975! – mit Hilfe des Komitees vor und hinter den Kulissen stetig seinen Einfluss auf den europäischen Willensbildungsprozess zur Geltung bringen, unterstützt von seinen bewährten Mitarbeitern, insbesondere dem Niederländer Max Kohnstamm.23 Gleichwohl wurden seit 1955 die harten Entscheidungen der europäischen Integration von anderen getroffen. Monnet hatte keine Wahl als zu versuchen, mittels des Aktionskomitees seine Ideen in den Bereich der Politik zu bringen, und wenn dies nicht gelang, jedenfalls Anschluss an die Regierenden zu halten. Das bedeutete Anpassung an neue Entwicklungen, Flexibilität gegenüber den eigenen Überzeugungen, Kompromisse. Dies wurde nun für die folgenden 20 Jahre deutlicher als zuvor zum zusätzlichen Erkennungszeichen der „Methode Monnets“: Flexibilität in den Mitteln, aber Unbedingtheit der Zielsetzung. Unter den neuen Rahmenbedingungen wurde der Visionär vom Ideengeber mehr zum Pragmatiker. Dass es sich um eine echte Fortschreibung der Methode handelte, wird deutlich bei einem Vergleich mit den Vorstellungen des späteren Hallstein, dem der Spagat zwischen Idee und Wirklichkeit weniger gut gelang.24 Monnets Rolle in der Geschichte der Römischen Verträge ist ein Beleg dafür. Er engagierte sich für die Gründung einer europäischen Atomgemeinschaft als weiterer sektoraler Integration nach dem Muster der Montanunion; aber er war, gewarnt durch das Scheitern der EVG, in den Jahren 1955-57 kein Anhänger der sogenannten „horizontalen Integration“, der ehrgeizigeren Vergemeinschaftung der gesamten Ökonomien der Mitgliedstaaten zu einer Europäischen Wirtschaftsgemeinschaft. Als Verfechter des Modells einer vorsichtig additiven 22 23 24
Vgl. Fontaine (1974). Vgl. Monnet (1980), S. 528 ff. Vgl. Schönwald (1999), S. 269 ff.
372
Franz Knipping
sektoralen Integration blieb er gegenüber dem EWG-Projekt distanziert. Zur Unterzeichnung der Römischen Verträge wurde er möglicherweise deshalb auch nicht eingeladen, somit ist der „Vater Europas“ jedenfalls nicht der Vater des Gemeinsamen Marktes. Und die gesamte Entwicklung zur Zollunion der sechs Gründerstaaten mit einer Gemeinsamen Landwirtschaftspolitik ist damit ebenfalls kein Ausweis der „Methode Monnet“. Die Gründerväter der EWG tragen vielmehr Namen wie Beyen, Spaak, Adenauer.25 Nachdem jedoch die EWG gegründet war und alles übertraf, was Monnet erwartet hatte, drehte er entschlossen bei. Im Oktober 1958 brachte er die neu geöffnete Perspektive in einer Erklärung seines Aktionskomitees auf den Punkt: „Die politische Einheit von morgen hängt ab vom effektiven Eintreten der wirtschaftlichen Einheit in den Bereichen industrieller, landwirtschaftlicher und administrativer Aktivität im täglichen Ablauf. In dem Maße, in dem das Handeln der Gemeinschaften sicherer wird, verstärken und erweitern sich die Bindungen zwischen den Menschen und auch die Solidarität, die sich bereits abzeichnet. Dann werden die Realitäten selbst möglich machen, die politische Union zu schaffen, die das Ziel der Gemeinschaft ist, nämlich die Errichtung der Vereinigten Staaten von Europa“. Dies sollte nicht bedeuten, sich auf eine quasi automatische Evolution zu verlassen: Vielmehr werde das politische Europa „im gegebenen Moment, ausgehend von den Realitäten, durch Menschen geschaffen werden“. Zur gleichen Zeit brachte Monnet die Schaffung einer gemeinsamen europäischen Währung ins Gespräch.26 Die neue pragmatische Grundhaltung Monnets zeigte sich klar in seiner Bewertung des seit 1959 von Staatspräsident de Gaulle vorgeschlagenen Projekts einer Politischen Union auf konföderaler Grundlage, unter Relativierung der bestehenden supranationalen Institutionen (sog. Fouchet-Pläne). Zur Überraschung des Präsidenten der EWG-Kommission Hallstein ließ er zunächst verlauten, man dürfe die Initiative des Generals nicht einfach abtun. Ein konstruktives Aufgreifen seiner Ideen könnte vielleicht in die europäische Entwicklung neuen Schwung bringen. Intergouvernementale Zusammenarbeit auf den vorgeschlagenen Gebieten der Außen-, Sicherheits- und Kulturpolitik könnte die Gemeinschaftsstrukturen durchaus ergänzen, dürfte allerdings nicht an ihre Stelle treten und eine im Kern supranationale Fortentwicklung blockieren. Die doppelspurige Verschränkung supranationaler und intergouvernementaler Strukturen erschien ihm vielversprechend. Aus der amerikanischen und schweizerischen Geschichte könne man lernen, dass konföderale Zwischenschritte am Ende doch in eine Föderation münden könnten. Als Monnet indessen klar wurde, dass de Gaulles Vorschläge nicht auf eine Ergänzung, sondern auf die Zerstörung der supranatio25 26
Vgl. Duchêne (1994), S. 292 ff.; Küsters (1982). Vgl. Monnet (1980), S. 547 ff.
Die „Méthode Monnet“ der europäischen Integration: Mythos und Realität
373
nalen Institutionen abzielten, ging er schleunigst auf Distanz. Das Aktionskomitee veröffentlichte eine grundsätzliche Erklärung über die historische Bedeutung der „föderalen Methode“ und die Vorteile des evolutionären Fortschreitens von der wirtschaftlichen zur politischen Integration.27 Andererseits ging er später im Frühjahr 1965 auf Abstand zu Hallstein, als dieser versuchte, dem Europäischen Parlament neue Budget-Kompetenzen zu verschaffen, was bekanntlich mit der von Frankreich ausgelösten, auch von Monnet heftig kritisierten „Krise des leeren Stuhls“ endete.28 Die Diskussionen der 1960er und frühen 1970er Jahre um den Beitritt Großbritanniens – zusammen mit drei weiteren nordeuropäischen Ländern – belegen ebenfalls die pragmatische Anpassungsbereitschaft Monnets. Er war zunächst ein Gegner, dann ein Befürworter des britischen Beitritts. Das erste Bemühen des britischen Premierministers Macmillan um Mitgliedschaft löste Anfang 1961 bei Monnet Zurückhaltung aus. Im Juni 1950 war Monnet selbst es ja gewesen, der wegen der Unwilligkeit Londons, vorab der Schaffung einer supranationalen Hohen Behörde zuzustimmen, England aus den SchumanplanVerhandlungen herausgehalten hatte. Auch im Februar 1961 befand er, die Briten müssten erst einmal ihre Hausaufgaben in Sachen Supranationalität machen. Vier Monate später trat sein Aktionskomitee dann jedoch für den Beitritt Großbritanniens ein. Offenbar hoffte Monnet zu dieser Zeit, dass Großbritannien als Mitglied der Gemeinschaften ein Gegengewicht gegen die Europapolitik de Gaulles bilden könnte. Dementsprechend war er enttäuscht, als der französische Staatspräsident im Januar 1963 das erste und dann im November 1967 auch das zweite britische Beitrittsgesuch torpedierte. Im Laufe der 60er Jahre wurde für Monnet der grundsätzliche Gesichtspunkt immer wichtiger, dass ein so großes Land wie Großbritannien auf keinen Fall von dem europäischen Einigungswerk ausgeschlossen bleiben dürfe, und dass darüberhinaus sein Beitritt vielleicht geeignet sei, dem Einigungsprozess neuen Schwung zu verleihen. Es war indessen ein eher kühles als begeistertes Kalkül, das darauf setzte, dass London Vorleistungen honorieren werde.29 Aber folgerichtig wurde er nach dem Rücktritt de Gaulles im Frühjahr 1969 aktiv, um die neu ins Amt gekommenen politischen Führer Frankreichs und Deutschlands, Pompidou und Brandt, für den Beitritt der Engländer zu motivieren. Brandt war ohnehin dafür, Pompidou konnte mit dem Argument der britischen Integrationsscheu gewonnen werden. Mit Edward Heath tauchte dann im Juni 1970 an der Spitze der Londoner Regierung ein besonders europafreundlicher Politiker auf, unter dessen Führung schließlich am 22. Januar 1972 der Beitrittsvertrag unterzeichnet werden konnte und Großbritannien, zu27 28 29
Vgl. Knipping (2004), S. 128 ff. Vgl. Knipping (2004), S. 135 ff. Roussel (1996), S. 750 ff.
374
Franz Knipping
sammen mit Irland und Dänemark, am 1. Januar 1973 Mitglied von EWG, Euratom und Montanunion wurde. Bei alldem hegte Monnet die Hoffnung, dass sich die bekannte britische Scheu vor der Integration in die supranationalen Strukturen nach dem Beitritt legen werde. Wiederholt äußerte er, die Engländer seien an eine Club-Kultur gewöhnt; nach dem Beitritt wüssten sie, dass sie die Clubregeln respektieren müssten; das „fair play“ des britischen Teamgeistes werde dafür sorgen, dass die Engländer sich schließlich in die gewachsenen Strukturen der EG konstruktiv einfügten.30 Um dem nachzuhelfen, versuchte er sich überdies vor der Aufnahme Großbritanniens in Überzeugungsarbeit. In einer Unterredung mit Heath am 6. Mai 1970 musste er indes registrieren, dass auch eine europafreundliche britische Führung eigene Vorstellungen von den europäischen Institutionen und ihrer Fortentwicklung hatte. Heath sah offenbar den Reiz europäischer Institutionen darin, dass sie Großbritannien erlaubten, in der Welt und besonders gegenüber den USA stärker aufzutreten. „Ich habe ihm ausführlich erklärt“, hielt Monnet nach dem Gespräch fest, „dass es nicht darum gehe, glaubwürdig mit einer nationalen Stimme zu sprechen, sondern eine dauerhafte europäische Institution zu schaffen und zum Sprechen zu bringen. Man könne diskutieren, aber es müsse konkret die Schaffung einer Wirtschafts- und Währungsunion vorbereitet werden, die dann die Bildung einer politischen Exekutive unerlässlich und notwendig mache. Ich habe Heath erklärt, wie wir von Anfang an vorgegangen sind, Schritt für Schritt, und dass die Institutionen sukzessive den Gemeinsamen Markt und das gegenwärtige Europa geschaffen haben, und dass ich überzeugt sei, dass wir auf dieselbe Weise weitermachen müssten“.31 Sechs Wochen später, am 24. Juni 1970, sprach Monnet mit dem neuen britischen Außenminister Sir Alec Douglas Home. Der Außenminister berichtete, im gerade beendeten britischen Wahlkampf habe er auf Fragen über die Zukunft der nationalen Souveränität nach einem britischen Beitritt dem Publikum stets geantwortet, es handele sich nicht darum, die Souveränität insgesamt zu übertragen, sondern nur in bestimmten Punkten. Monnet korrigierte ihn: es sei besser, anstelle des Wortes Übertragung von Souveränität das Wort Fusion zu benutzen; die Mitgliedstaaten der Gemeinschaft suchten Integration durch die Fusion, nicht durch den Transfer ihrer Souveränität.32 Bei anderen Gelegenheiten brachte er seine Sorge über britische Vorstellungen eines Europa der verschiedenen Geschwindigkeiten zum Ausdruck. Dadurch würden, so meinte er, die Grundlagen der Gemeinschaft zerstört und einer 30 31 32
Vgl. Roussel (1996), S. 874. Vgl. Roussel (1996), S. 873. Vgl. Roussel (1996), S. 874.
Die „Méthode Monnet“ der europäischen Integration: Mythos und Realität
375
globalen Freihandelszone vorgearbeitet, die schließlich von den USA und der Sowjetunion dominiert würde.33 All dies zeigt, dass Monnet sich im Zusammenhang mit der britischen Beitrittsfrage des Risikos einer vermehrten Infragestellung des supranationalen Integrationskonzepts, auch der Zurückstellung der Vertiefung hinter die Erweiterung, bewusst war, dass er aber wegen der Wichtigkeit der Einbindung Großbritanniens in den europäischen Einigungsprozess, anders als 1950, notfalls zu Kompromissen an der „reinen Lehre“ der Gründerzeit bereit war. Spätestens 1973 machte Monnet endgültig seinen Frieden mit dem intergouvernementalen Ansatz der europäischen Einigung. Während einerseits seit der Haager Konferenz von Ende 1969 die Regierungschefs einer neuen Politikergeneration keinen Zweifel daran ließen, dass sie selbst sich, und nicht die „Bürokraten“ in Brüssel, als die eigentlichen europäischen Akteure betrachteten, und andererseits die Umsetzung der Haager Beschlüsse stockte, kam er offenbar zu der Einsicht, dass die Arbeit supranationaler Institutionen in zentralen Souveränitätsbereichen der Mitgliedstaaten auf eine schwer, wenn überhaupt zu überwindende Grenze stieß. Nur die Regierungen selbst, als die Inhaber der wirklichen Macht, konnten die Kraft mobilisieren, um den europäischen Zug zu seiner föderalen Endstation weiter voranzubringen. Die supranationale und die intergouvernementale Methode mussten nach dieser Einsicht zwingend zusammengeführt werden. Im Spätsommer 1973 schlug Monnet Pompidou, Brandt und Heath vor, dass sich die Staats- und Regierungschefs der Mitgliedstaaten vorübergehend als „provisorische europäische Regierung“ konstituieren sollten. Sie sollten regelmäßig – wenigstens dreimal jährlich – zusammentreten, um ihren Fachministern im Rate Weisungen zu erteilen, und um vor allem das Projekt einer „Politischen Union“ mit „endgültiger“ europäischer Regierung und direkt gewähltem Parlament zu präzisieren und zu beschließen.34 Die wenige Monate später ins Amt kommenden Regierungschefs Giscard d´Estaing und Helmut Schmidt, beide Mitglied des Aktionskomitees, machten sich den Vorschlag Monnets zu eigen und überzeugten die Partner, auf einem Gipfeltreffen in Paris im Dezember 1974 formell den Europäischen Rat zu gründen, als fortan höchstes Organ der Gemeinschaft, das die weitere Entwicklung steuern würde. Es muß Monnet etwas enttäuscht haben, dass das neue Organ von Anfang an keine Absicht bekundete, nur eine „provisorische“ europäische Regierung zu sein. Aber seine Gründung bot ihm ausreichenden Anlaß, nunmehr sein Aktionskomitee aufzulösen, da es als Impulsgeber nicht mehr benötigt wurde.35
33 34 35
Vgl. Roussel (1996), S. 875. Vgl. Knipping (2004), S. 204. Vgl. Knipping (2004), S. 205 ff.
376 4
Franz Knipping Die Erinnerung, 1979-2010
Nach der vorangehenden Analyse ist also die Methode Monnets nicht eine statische, sondern eine dynamische. Sie besteht nicht nur aus einem Kanon fester Elemente, die sich aus der Gründungsphase der europäischen Integration ableiten lassen, sondern darüber hinaus aus einem neu hinzutretenden hohen Maß an Flexibilität, der grundsätzlichen Bereitschaft zur Anpassung an neue Problemstellungen und politische Konstellationen. Schon in den SchumanplanVerhandlungen 1950/51 schien Kompromissbereitschaft zur Relativierung der Befugnisse der Hohen Behörde auf, das EVG/EPG-Projekt ließ Monnet sein vorsichtiges step-by-step vorübergehend vergessen, nach dessen Scheitern allerdings rasch wieder finden, wie sein ebenso vorübergehendes Verhalten gegenüber dem EWG-Projekt zeigte. Mit dem Beweis der Lebensfähigkeit der EWG hat dann offenbar seine Bereitschaft, sich für alle Verfahrensweisen zu öffnen, die auf dem Weg zur europäischen Föderation voran führen konnten, wieder zugenommen, und mit ihr die Neigung, die Methoden der Gründerzeit fortzuentwickeln. Kennzeichnend für den späten Monnet ist seine Offenheit für die „gemischte Methode“ der bestmöglichen Kombination von supranationaler, intergouvernementaler und auch innovativer Vorgehensweise. Nur seine Auffassung, dass ein „big bang“ in Form eines Verfassungsoktroi die europäischen Bürger überfordern würde, hat er offenbar bis zu seinem Ableben 1979 nicht verändert. Das Hauptergebnis der vorstehenden Darlegungen lautet mithin, dass die Frage nach der „Methode Monnet“ zu historisieren ist. Welche Rolle und Funktion hat die „Methode Monnet“ seit dem Ableben des Namensgebers im Jahre 1979? Die Betrachtung und Reflexion der Entwicklungen der europäischen Integration in den letzten drei Jahrzehnten könnte drei Befunde nahe legen. Zum einen ist die „Methode Monnet“, wie eingangs bereits angesprochen, zu einer Art erfolgverheißendem Fluchtpunkt in kritischen und gefährdeten Momenten der europäischen Entwicklung geworden. Die Besinnung auf die „Methode Monnet“ wird als Rezept beschworen, um einer Blockierung oder Zerfaserung der Einigung entgegenzuwirken. Die Nostalgie gilt dabei den frühen Jahren des Wirkens des Inspirators und Realisators der Montanunion, einer nun auch zur „Gemeinschaftsmethode“ (community method, méthode communautaire) ausgeweiteten Vorgehensweise, die auf weitestmöglich supranationalen Prinzipien beruht. Die Fortentwicklung des Monnetschen Instrumentariums in den späteren Jahren wird dabei allerdings kaum berücksichtigt. Solche Art der Rückbesinnung ist umso verführerischer, als sie einer viel komplexer gewordenen Struktur und Größe des europäischen Projekts die einfachen und reinen Regeln der Gründerzeit gegenüberstellt. In diesem Sinne ist wohl Jacques Delors zu
Die „Méthode Monnet“ der europäischen Integration: Mythos und Realität
377
verstehen, wenn er 1997, zu Zeiten des Vertrages von Amsterdam, beklagte, dass Mitte der 80er Jahre, mit der Einheitlichen Europäischen Akte, die Europäische Kommission ein letztes Mal die „Schlacht gegen die Säulen“ (des MaastrichtVertrages) gewonnen habe, supranationale gegen intergouvernementale Lösungen habe durchbringen können; danach sei das seit der Montanunion gepflegte Prinzip der Integration stetig zugunsten der souveränen Entscheidungsmacht der Regierungen zurückgedrängt worden.36 In erweitertem Sinne ist, zweitens, die „Methode Monnet“ zu einem identitätsstiftenden Teil der kollektiven europäischen Erinnerung geworden. Sie gehört zu einem wirkungsmächtigen Deutungsmuster, das bei vielen offiziellen Anlässen der EU mehr oder weniger rituellen Ausdruck findet. Die Meistererzählung handelt von einem Europa, das nach zwei Weltkriegen in Chaos und Selbstzerstörung zu versinken drohte. Wenige weitsichtige Männer, die „Väter Europas“, begaben sich damals auf den Weg der Versöhnung und legten die Fundamente für ein neues Europa, das auf den „Grundsätzen der Freiheit, der Demokratie und der Achtung der Menschenrechte und Grundfreiheiten und der Rechtsstaatlichkeit“ beruhte, „die Solidarität zwischen ihren Völkern unter Achtung ihrer Geschichte, ihrer Kultur und ihrer Traditionen“ stärkte und deren „wirtschaftlichen und sozialen Fortschritt“ förderte.37 Diese Narration hat längst die Bedeutung eines vereinfachenden Mythos erlangt, in dem der „Methode Monnets“ eine zentrale Rolle und Funktion zugemessen wird: sie ist Teil der „Seele“ des sich nach den jahrhundertelangen Wirrungen und Sehnsüchten endlich einigenden Europas.38 Man kann, drittens, in Ansehung der Flexibilität, die Monnet als Haupt des Aktionskomitees in den 60er und 70er Jahren entwickelt hat, aber auch zu dem Befund gelangen, dass die „Methode Monnet“ nicht nur mythische, sondern aufreizend aktuelle Qualitäten besitzt. Monnet hätte nämlich wohl nur weniges anders gemacht, oder machen können, als die Staatenlenker, die nach seinem Ableben 1979 als „provisorische Regierung“ die Fortentwicklung steuerten. Die durchaus divergierenden Interessen der Mitgliedstaaten, die noch immer die Herren des Einigungsprozesses sind, erlaubten einfach nichts anderes als die „gemischte Methode“ eines kombinierten supranationalen und intergouvernementalen Vorgehens. In dieser Gemengelage hätte Monnet zweifellos der Einheitlichen Europäische Akte, der Schaffung des Binnenmarktes, der Währungsunion emphatisch zugestimmt. Dasselbe dürfte für den etwas überstürzten Prozess der Großerweiterung von 2004/2007 gelten, die eindeutig nicht der Methode der kleinen Schritte folgte. Der pragmatische Monnet hätte die Erwägung, dass 36 37 38
Vgl. Tindemans et al. (1999), S. 208. Präambel des Vertrags von Maastricht. Vgl. Wirsching (2003), S. 270 ff.
378
Franz Knipping
die Geschichte das Zeitfenster für den Beitritt der osteuropäischen Staaten vielleicht nur kurze Zeit offen hielt, geteilt, zumal er stets eine spätere Mitwirkung Osteuropas erhofft hat. Dass es nicht gelang, vor der Großerweiterung die Institutionen der EU hinreichend zu befestigen, war zwar bedauerlich, dies wird jedoch weitgehend geheilt durch den Lissabonner Vertrag als Vollstrecker des gescheiterten Verfassungsvertrages. Anders als von vielen erwartet, ermöglichte im Zuge der Osterweiterung nicht die Vertiefung die Erweiterung, sondern umgekehrt erzwang die Erweiterung die Vertiefung. Solcher Umweg zum Ziel war für Monnet schon immer hinnehmbar gewesen; und die Fortentwicklung der EU zu einem staatsähnlichen Organismus mit weiter offener Zukunftsperspektive wäre von ihm zweifellos mit größter Befriedigung aufgenommen worden. Im Grunde können sich die nachlebenden Entscheidungsträger, die sich an den Zwängen und Komplikationen einer auf 27 Staaten angewachsenen Union abarbeiten müssen, ohne Weiteres auf die „Methode Monnet“ mit ihrer Flexibilität berufen. Insofern ist die „Methode Monnet“ keineswegs überholt, wie der deutsche Außenminister Fischer im Mai 2000 in einer Rede in der Berliner Humboldt-Universität suggerierte.39 Vielmehr lebt sie, mit all ihrer verändernden Kraft, wie sie durch den Anstoß Monnets 1950 und die von ihm moderierte Ingangsetzung des Integrationsprozesses freigesetzt wurde. Nun ist entscheidend, dass die Bewegung nicht angehalten wird.
Literatur Bossuat, Gérard/Wilkens, Andreas (Hrsg.) (1999): Jean Monnet, l´Europe et les chemins de la paix. Paris 1999. Buchstab, Günter/Kleinmann, Hans-Otto (Hrsg.) (2003): Historisch-Politische Mitteilungen. Archiv für Christlich-Demokratische Politik, Köln 2003. Delors, Jacques (2004): Mémoires, Paris 2004. Duchêne, Francois (1994): Jean Monnet. The First Statesman of Interdependence, New York/London 1994. Düwell, Kurt (2007): «Vater der Montanunion»?: Gedanken an Rhein und Ruhr zur europäischen Wirtschaftsintegration (1948-1953), in: Rasch (Hrsg.) (2007): S. 79-12 Fontaine, Francois (1983): Plus loin avec Jean Monnet, Lausanne 1983. Fontaine, Pascal (1974): Le Comité d´action pour les Etats-Unis d´Europe de Jean Monnet, Lausanne 1974. Fontaine, Pascal (1998): Jean Monnet, l´inspirateur, Paris 1998. Gillingham, John (2003): European Integration 1950-2003. Superstate or New Market Economy?, Cambridge 2003. Gillingham, John (2007): The Monnet Method Then and Now. Unveröfftl. Ms. 39
Vgl. Wessels et al. (2007), S. 370 ff.
Die „Méthode Monnet“ der europäischen Integration: Mythos und Realität
379
Griller, Stefan (2007): International Public Law and the Methode Monnet. Unveröfftl. Ms. Hallstein, Walter (1969): Der unvollendete Bundesstaat, Düsseldorf/Wien 1969. Lipgens, Walter (Hrsg.) (1986): 45 Jahre Ringen um die Europäische Verfassung. Dokumente 1939-1984, Bonn 1986. Loth, Wilfried (2002): Entwürfe einer europäischen Verfassung. Eine historische Bilanz, Bonn 2002. Knipping, Franz (2004): Rom, 25. März 1957. Die Einigung Europas, München 2004. Kohnstamm, Max (1981): Jean Monnet. Le pouvoir de l´imagination, Florence 1981. Küsters, Hanns Jürgen (1982): Die Gründung der Europäischen Wirtschaftsgemeinschaft, Baden-Baden 1982. Marjolin, Robert (1986): Le travail d´une vie. Mémoires 1911-1986, Paris 1986. Melandri, Pierre (1980): Les Etats-Unis face à l´unification de l´Europe 1945-1954, Paris 1980. Milward, Alan S. (2000): The European Rescue of the Nation State, London/New York 2000. Monnet, Jean (1980): Erinnerungen eines Europäers, München 1980. Monnet, Jean (1996): Repères pour une méthode. Propos sur l´Europe à faire, Paris 1996. Rabier, Jacques-René (1988): Le «Secret» de Jean Monnet. Unveröfftl. Ms. Rasch, Manfred (2007): Anfänge und Auswirkungen der Montanunion auf Europa. Die Stahlindustrie in Politik und Wirtschaft, Essen 2007. Roussel, Eric (1996): Jean Monnet 1888-1979, Paris 1996. Schönwald, Matthias (1999): „The same – should I say – antenna“. Gemeinsamkeiten und Unterschiede im europapolitischen Denken von Jean Monnet und Walter Hallstein (1958-1963), in: Wilkens (Hrsg.) (1999): S. 269-297. Schwabe, Klaus (1999): Jean Monnet, die Vereinigten Staaten und die Rolle Europas in der Atlantischen Völkergemeinschaft, in: Wilkens (Hrsg.) (1999): S. 225-252. Schwarz, Jürgen (Hrsg.) (1980): Der Aufbau Europas. Pläne und Dokumente 1945-1980, Bonn 1980. Uri, Pierre (1991): Penser pour l´action. Un fondateur de l´Europe, Paris 1991. Tindemans, Leo/Lastenouse, Jacqueline (Hrsg.) (1999): 40 ans des Traités de Rome, ou la capacité des Traités d´assurer les avancées de la construction européenne, Bruxelles 1999. Wessels, Wolfgang (2001): Jean Monnet – Mensch und Methode. Überschätzt und überholt?, Wien 2001. Wessels, Wolfgang/Faber, Anne: Vom Verfassungskonvent zurück zur `Methode Monnet`? Die Entstehung der `Road map` zum EU-Reformvertrag unter deutscher Ratspräsidentschaft, in: integration 4/2007, S. 370-381. Wilkens, Andreas (Hrsg.) (1999): Interessen verbinden. Jean Monnet und die europäische Integration der Bundesrepublik Deutschland, Bonn 1999. Wirsching, Andreas (2003): Stationen auf dem Weg nach Maastricht, in: Buchstab et al. (Hrsg.) (2003), S. 261-273.
Aggregate Productivity and Spatial Distribution: Evidence from the US Economy Werner Bönte / Zuoquan Zhao
1
Introduction
Empirical evidence suggests that spatial agglomeration of economic activity is an important source of regional economic growth. Ciccone and Hall (1996), for instance, report that over half of the variance of output per worker across US states can be explained by differences in the density of economic activity. Other empirical studies found positive effects of population size and industry size on the productivity of cities or regions.1 Thus, the results of empirical studies point to the relevance of agglomeration for regional productivity growth. What do positive productivity effects of agglomeration at the regional level mean for productivity growth at the national level? One might argue, for instance, that an increase in population size in all regions would lead ceteris paribus to an increase in regional productivity levels and consequently to an increase in aggregate productivity at the country level.2 Therefore, one would expect at the country level a positive relationship between the level of economic activity and the level of productivity. This does not take into account, however, the potential effects of a change in the spatial distribution of economic activities. For instance, economic activity may be initially concentrated in a few places and may disperse over a number of locations during a period of time.3 Kuznets4 ob1 2 3 4
Sveikauskas (1975), Segal (1976), Moomaw (1981). Given that the geographical areas of the regions are constant, an increase in economic activity implies an increase in local density in each region. Stylistic facts show that economic growth in a country is often a process of spatial expansion (Williamson (1965), Alonso (1980), Wheaton/Shishido (1981), Henderson (2003a)). Kuznets (1966).
382
Werner Bönte / Zuoquan Zhao
served that “it is difficult to conceive of the growth of the United States without the extension of its economy across the North American continent.” However, an increase in geographic distance between locations may lead to a decrease in interregional effects, e.g. interregional spillovers may occur across neighboring regions rather than across distant ones.5 Consequently, dispersion of economic activity might have a negative impact on aggregate productivity. This paper investigates the relevance of economy-wide agglomeration effects by investigating the relationship between spatial intensity and productivity for the U.S. economy. We calculate an index of spatial intensity using data on metropolitan employment for the period from 1969 to 2000. The index used in this paper has been developed by Zhao6 and takes into account changes in the overall spatial distribution over time, i.e. the size, location and geographical range of economic activity. Secondly, we analyze the relationship between this index and a measure of U.S. private business multifactor productivity. In contrast to empirical studies based on regional cross-sectional data, we make use of cross-metropolitan time series data in order to analyze the relevance of changes in spatial intensity for the growth of aggregate productivity. To the best of our knowledge this link has not been analyzed so far. Our results show that the extent of spatial intensity has increased during that observation period. Overall, employment in metropolitan areas increased while at the same time there was a tendency of dispersion of economic activity. However, the latter effect was overcompensated by the former leading to an increase in spatial intensity. The results of an econometric analysis suggest that there is a long-run, co-integration relationship between spatial intensity and productivity and that long-run causality runs from spatial intensity to productivity. This chapter discusses these issues. In the following section, we discuss briefly the related literature. Section 3 introduces the spatial intensity index, linking the measurement of agglomeration to geographical range. Section 4 shows the development of this index for the US economy between 1969 and 2000. Section 5 presents our econometric model linking productivity directly with the extent of spatial intensity of employment at the economy-wide level. Results are reported and interpreted in Section 6. Section 7 concludes.
5 6
Smith (1999). Zhao (2008), (2006).
Aggregate Productivity and Spatial Distribution: Evidence from the US 2
383
Related Literature
In recent years, agglomeration effects have gained increased interest due to the emergence of new economic geography.7 It is argued that agglomeration of economic activity is likely to promote Marshallian externalities, like knowledge spillovers, labor market pooling and specialized markets of intermediate inputs for industries and cities.8 Moreover, agglomeration may lower firms’ transaction and transport costs.9 The productivity effects of agglomeration have been widely documented for smaller geographical scales, e.g. cities, states, and regions of the US economy.10 However, it is unclear whether regional agglomeration effects contribute to aggregate productivity growth if regional concentration erodes or disappears with the territory-wide expansion of economic activity.11 In theoretical studies which deal with the relationship between growth and agglomeration, it is assumed that spatial dispersion leads to a decline in agglomeration effects.12 Several empirical studies report for the US economy, for example, that the extent of agglomeration has not increased but decreased during the past decades.13 Previous studies on productivity effects of agglomeration are based on cross-sectional data and make use of measures of spatial agglomeration which do not really take geographical scope into account. These measures include the Gini coefficient,14 urban primacy,15 the Ellison-Glaeser index,16 and the HirschmanHerfindahl index.17 They evaluate the magnitude of unevenness or disparity across a group of regional units, e.g. counties and cities.18 They are not related, however, to concrete locations and geographical range of economic activity across space.19 Consequently, indices, like the Gini coefficient and the Ellison-
7
8 9 10 11 12 13 14 15 16 17 18 19
Fujita et al. (2001). However, the relevance of geography for economic activity was already recognized in early 19th century by the German economist Heinrich von Thünen (Samuelson (1983), Kellerman (1983)). Henderson (2003b), Fujita/Thisse (2000), Rosenthal/Strange (2004). Coase (1937). Sveikauskas (1975), Segal (1976), Fogarty/Carofalo (1988), Rauch (1993), Gerking (1994), Ciccone/Hall (1996), Rigby/Essletzbichler (2002). Kim (1995), Davis/Weinstein (2002). Fujita/Thisse (2003), Martin/Ottaviano (2003). Glaeser/Kahn (2001), (2004); Rappaport/Sachs (2003), Glaeser/Kohlhase (2004), Burchfield et al. (2006). Krugman (1991), Audretsch/Feldman (1996). Ades/Glaeser (1995), Henderson (2003a). Ellison/Glaeser (1997). Wheaton/Shishido (1981). Duranton/Overman (2005). Arbia (2001).
384
Werner Bönte / Zuoquan Zhao
Glaeser index, cannot accurately measure the extent of spatial compactness.20 Moreover, unlike local agglomeration proxies, e.g. population of cities21 and density22, these aggregate agglomeration indices are not directly linked to the scale of economic activity. Therefore, it is likely that they do not reflect scaledependent agglomeration economies.
3
Index of Spatial Intensity
In this section we present a measure of aggregate spatial density developed by Zhao23 which is linked to both the scale and geographical range of economic activity. It is called the index of spatial intensity because the extent of spatial intensity refers to how compactly or densely economic activity is distributed at a certain geographical range. It increases with the amount of economic activity but decreases with increasing geographical range of economic activity. In Figure 1 we give an illustrative example for the basic idea of the index of spatial intensity. The total amount of economic activity W is distributed across a number of locations (i=1, … , n) in the plane with amount wi at location i. Denote C the center of gravity of W and Di the distance between location i and the center of gravity C. The black points of different sizes reflect the differences in the amount of economic activity. A measure of spatial intensity should take into account both, the total amount as well as geographical range of economic activity. For instance, the value of spatial intensity index should be relatively lower if the economic activity is mainly concentrated at two opposite points on the outmost concentric circle since this corresponds to a larger range. In contrast, the value of the measure should be higher if the economic activity is mainly located on an inner circle since this corresponds to a smaller range. The magnitude of spatial intensity should reach its maximum when the range is (or close to) zero, implying that all economic activity is located at point C. However, the spatial intensity index may be identical although the distribution of economic activity differs. For instance, in a first case economic activity may be concentrated in four points on the same concentric circle, where each location’s amount of economic activity and the distances between the neighboring locations are identical. In the second case the total amount of economic activity is the same as in the first case but economic activity is now concentrated in two opposite points on the same concentric circle. In both cases the spatial intensity index may be identical 20 21 22 23
Krugman (1991), Sweeney/Feser (2004). Sveikauskas (1975), Segal (1976). Ciccone/Hall (1996), Chatterjee/Carlino (2001), Davis/Weinstein (2002). Zhao (2008), (2006).
Aggregate Productivity and Spatial Distribution: Evidence from the US
385
if an increase in intraregional effects (within locations) is exactly outweighed by a decrease in interregional effects (between locations). Figure 1:
Spatial distribution of economic activity
Note: wi is the amount of the economic activity at location i; C is the the center of gravity of economic activity and Di is the distance of location i to C.
In order to measure the gross geographical range of economic activity, we use the mean distance the distance of each location to the center of gravity of economic activity, weighted by the amount of economic activity at each location. The weighted mean distance D is given by n
¦wD i
D=
i 1
W
i
,
(1)
The center of gravity C is identified by a pair of coordinates,
I=
¦w I ; O = ¦w O i i
W
i i
W
,
(2)
where Ii and Oi are the coordinates of location i. We then use the ratio of the total amount of economic activity to the area of its geographical range to measure the magnitude of spatial intensity. The spatial intensity index (simply the index, I) is defined,
386
Werner Bönte / Zuoquan Zhao
I=
W , SD 2
(3)
where D is the weighted mean distance in plane coordinate systems. In other words we divide the total amount of economic activity by a circular area, which is determined by the geographical distribution of economic activity. I increases with W if D is constant, and decreases with D if W is constant. If the total amount of economic activity in a given economic region, e.g. the area of a country, increases but the range of economic activity remains constant, there is an increase in spatial intensity, indicating more economic activity per square kilometre. If the total amount of economic activity remains constant but the range of economic activity decreases, spatial intensity will increase, too. Here we use the area (or power) of D rather than D itself because D is 2dimensional and its changes suggesting 2-dimensional expansion of economic activity. We could use D instead if the geographical space of interest were close to a straight line. A global extension of the intensity index would also take into account the effect of spherical curvature of geographical area. In contrast to other agglomeration indices, this spatial intensity index (I) allows for measuring agglomeration by controlling geographic scope over continuous space. It is sensitive to changes in location, geographical range or overall spatial distribution of economic activity. Thus it can be used to identify the extent of agglomeration for a spatial distribution regardless of its discreteness and heterogeneity. Unlike the distance-based approaches, e.g. K functions that are employed to identify the spatial range of economic activity with multiple unspecified reference points,24 the spatial intensity index used in this study calibrates the aggregate geographic range of the economic activity with regard to the center of gravity in space.
4
Agglomeration Rising with Geographical Range
In the following, we use US metropolitan employment (1969-2000) to show how the extent of spatial agglomeration changes with geographical range. The data are obtained from the Bureau of Economic Analysis’ regional economic accounts. The dataset is discussed in details in the Appendix. The data on county land are obtained from the U.S. Census Gazetteer Files – “counties” (1990).25 We have calculated the spatial intensity index in the 2-dimensional as well as to
24 25
Marcon/Puech (2003), Duranton/Overman (2005). US Census Bureau (1990).
Aggregate Productivity and Spatial Distribution: Evidence from the US
387
the global context. The effect of global curvature is, however, negligible in our case and in the following we discuss the results in the 2-D context. The results demonstrate that workers are peripherally or coastally agglomerated over the continent of the lower 48 states. Their mean distance is over 1220 Km, larger than that of the continent (1177.28 km). Figures 2 and 3 illustrate the spatial distribution dynamics of US economy between 1969 and 2000. As can be seen from these figures, the index of spatial intensity increased, although the mean geographical distance increased, too. It increases by 52.09 percent, from 19.39 workers per square kilometre in 1969 to 29.49 workers per square kilometre in 2000. Figure 2:
Changes in spatial intensity and mean distance of US employment: 1969-2000
As Figure 3 shows, the spatial distribution dynamics of employment is characterized by more “vertical” accumulation than outward expansion. The spatial accumulation appears strongly between the geographic ranges 500 and 900 km, and between 2300 and 2400 km, while the expansion happens primarily between the geographic ranges 1300 and 1800 km. Nevertheless, the expansion is counterbalanced by inward contraction between 2300 and 2800 km and fast accumulation between ranges 500 and 900 km. Notably, the increasing intensity is also related to the westward movement of the employment center that moves closer relatively to Los Angeles and the rest of the west but away from Chicago and New York as well as the rest of the northeast.
388
Werner Bönte / Zuoquan Zhao
Figure 3:
Spatial ring distribution of U. S. workers
14 1969
2000
12
Workers (Millions)
10
8
6
4
2
3000
2900
2800
2700
2600
2500
2400
2300
2200
2100
2000
1900
1800
1700
1600
1500
1400
1300
1200
1100
900
1000
800
700
600
500
400
300
200
0
100
0
Distance from the Center of Gravity (Km)
(This curve is based on a spatial ring statistic framework where the center of gravity of US employment is set as the center of the concentric rings with each ring 100 km apart from the other. This center moves to southern Missouri in 2000 from southern Illinois in 1969.)
5
Econometric Model
In order to analyze the relationship between aggregate multifactor productivity and aggregate spatial intensity measure we make use of a simple model: (4) yt K xt ut , where y is the logarithm of multifactor productivity and x is the logarithm of the spatial intensity index. Parameter is the elasticity of multifactor productivity with respect to spatial intensity and u is an error term. So far, we have argued that spatial intensity may cause a change in productivity. However, we cannot rule out a priori the possibility of reverse causality: causality may run from multifactor productivity growth to spatial intensity or in both directions. For instance, higher productivity may lead to an increase in real wages which may cause immigration of workers from other countries, like Mex-
Aggregate Productivity and Spatial Distribution: Evidence from the US
389
ico, which in turn may lead to an increase in the employment in metropolitan areas. In order to analyze the causality between the two variables we employ the concept of Granger causality. A variable x is said to Granger cause the variable y if the past values of the variable x have a statistically significant impact on the current value of the variable y after controlling for the impact of past values of variable y. In a two variable model three outcomes of a test for Granger causality are possible: 1. 2. 3.
there is no Granger causality at all, i.e. coefficients of lagged variables are jointly insignificant, there is unidirectional Granger causality, i.e. x causes y or y causes x, there is bidirectional Granger causality, i.e. x causes y and y causes x.
For a standard Granger causality test variables of interest are typically measured in levels. However, many macroeconomic time-series contain unit roots, i.e. their levels are non-stationary.26 Granger and Newbold27 have shown that hypotheses tests based on regressions involving non-stationary time-series data do often lead to a rejection of the null hypothesis although it is true. Thus one may find “spurious” Granger causality between two variables even if such a relationship does not exist. In order to guard oneself against such spurious results one can use first differences of the variables for the test. If the variables of interest are integrated of order one, I(1), they can be made stationary, I(0), through first differencing. Then, the Granger causality test can be based on the following regression:
'yt
p
p
i 1
i 1
D ¦ E i 'xt i ¦ G i 'yt i H i ,
(5)
where is the first-difference operator and is the error term. Since all variables in Equation (1) are stationary usual test statistics are valid. If the elements of coefficient vector are jointly significant, the null hypothesis that x does not Granger cause y can be rejected. Obviously, if the dependent variable is x instead of y the null hypothesis that y does not Granger cause x can be tested, too. One disadvantage of regressions like the one described in Equation (5) is that they emphasize short-run relationships between variables. There may exist, however, a long-run equilibrium relationship among variables. If a long-run relationship among non-stationary variables exists they are said to be cointegrated. Such a co-integration among variables is completely neglected by the 26 27
See Nelson/Plosser (1982). Granger/Newbold (1974).
390
Werner Bönte / Zuoquan Zhao
regression model in Equation (5) and since important level terms are omitted it may be misspecified.28 However, as pointed out by Granger29 there must be Granger causality among variables at least in one direction if these variables are co-integrated. Granger30 and Engle and Granger31 have proposed a causality test which allows for detecting long-run causality between variables. It is based on the following error correction model (ECM):
'yt
p
p
i 1
i 1
D ¦ E i 'xt i ¦ G i 'yt i O ut 1 H i ,
(6)
where ut-1 is the lagged error term from the static equation (4). Again, the null hypothesis that y Granger does not cause x can be tested if the dependent variable of the ECM is x instead of y and the lagged error term is obtained from a static equation where x is the dependent variable. As can be seen from equations (5) and (6) the difference between both is the inclusion of ut-1. If variables x and y are integrated of order one, I(1), and also cointegrated, the first-differenced variables and the term ut-1 in equation (6) are all stationary. We say that the variable x Granger causes a variable y if the null hypothesis that the elements of coefficient vector are jointly insignificant can be rejected and/or the coefficient of the error term is statistically significant (different from zero). Now, the null hypothesis of no Granger causality can be rejected even if the coefficients on lagged first differences in x are not jointly significant. The coefficient vector captures the short-run effects while a statistically significant estimate of the parameter indicates long-run causality. In order to test for Granger causality we will therefore first perform unit roots test to investigate the order of integration of the measure of multifactor productivity and the index of spatial intensity. The next step is a test of cointegration. Then, we will conduct a test for Granger causality.
6
Estimation Results
Our empirical analysis is based on annual data of multifactor productivity for the US and of spatial intensity for the contiguous US. The observation periods are the years from 1969 to 2000.32 28 29 30 31 32
Engle/Granger (1987). Granger (1988). Granger (1986). Engle/Granger (1987). See Appendix for a detailed description of the data.
Aggregate Productivity and Spatial Distribution: Evidence from the US
391
Table 1 contains the results of two well-known unit root tests: the AugmentedDickey-Fuller (ADF) test and the Phillips-Perron test.33 The null hypothesis of both tests is that there is a unit root in the respective time series. For the variables measured in levels the null hypothesis cannot be rejected whereas it can be rejected for the first differences of variables at the one percent significance level. Thus, we conclude that the variables of interest are integrated of order one, I(1). Table 1:
Unit root tests ADF Test
Phillips-Perron Test
Levels
1st-Differences
Levels
1st-Differences
Multifactor Productivity
-3.243 (0.076)
-4.246 (0.000)
-2.888 (0.167)
-5.321 (0.000)
Spatial intensity
-1.150 (0.920)
-3.626 (0.005)
-1.863 (0.674)
-4.023 (0.001)
Note: Numbers in parentheses are the McKinnon approximate p-values. Tests based on levels contain a constant and a trend term and tests based on differenced data contain a constant term. Number of lags is 2.
It has now to be tested whether a long-run equilibrium relationship among the variables exists. Following Johansen34 and Johansen and Juselius35 we apply the maximum likelihood method to estimate a two-dimensional vector autoregressive model. Table 2 presents the results from Johansen’s Trace Test for cointegration. The results suggest that the null hypothesis that there is no cointegration can be rejected at the five percent level. Table 2:
Results from Johansen’s Trace Test for Cointegration Trace Test H0: r=0 H1: r=1
Lag 2 17.22* 2.27
Lag 3 15.76* 3.47
Note: * denotes significance at the 5% level. Tests contain a trend term.
33 34 35
Phillips-Perron (1988). Johansen (1988). Johansen/Juselius (1990).
392
Werner Bönte / Zuoquan Zhao
Columns (1) and (2) of Table 3 report the F-statistics for the standard Granger causality tests of whether past changes in spatial intensity cause current changes in multifactor productivity or vice versa. First differences of data are used, because unit roots tests suggest that levels are not stationary. Results point to a bidirectional causality between productivity and spatial intensity. Columns (3) to (6) of Table 3 report the results of causality tests based on error-correction models. Tests are performed with the lagged residuals of the static regressions which are reported in Table 4. The F-statistics for the first differences confirm the above result that a short-run bi-directional causality exists. As can be seen from columns (4) and (6) of Table 3, the estimated coefficient of the error-correction term is statistically significant for the multifactor productivity regression but not for the spatial intensity regression. This result indicates a long-run causality running from spatial intensity to multifactor productivity, i.e. an increase in spatial intensity leads to an increase in productivity. Table 3:
Test Statistics for Causality between Multifactor Productivity and Spatial Intensity Standard Granger Causality
Multifactor Productivity Spatial Intensity
(1) Diffe rences (Lag2) 3.67 (0.041) 5.25 (0.013)
(2) Diffe rences (Lag3) 2.98 (0.055) 4.34 (0.016)
Error Correction Model (3) Diffe rences (Lag2) 4.64 (0.020) 5.33 (0.013)
(4) EC (Lag2) -2.381 (0.026) 0.71 (0.485)
(5) Diffe rences (Lag3) 3.34 (0.040) 4.40 (0.016)
(6) EC (Lag3) -1.70 (0.105) 0.75 (0.463)
Note: Numbers in parentheses are p-values. The F-statistics for differences measure the joint significance of lagged differences of the other variable and the significance of the coefficient of the error correction (EC) term is measured by the t-statistic.
Table 4:
Static Regressions of Multifactor Productivity and Spatial Intensity
Multifactor Productivity Spatial Intensity
Constant
Spatial Intensity
Multifactor Productivity
R2
DW
0.002
0.559
–
0.95
0.76
-0.175
–
1.692
0.95
0.71
Note: DW: Durbin-Watson Statistic.
Aggregate Productivity and Spatial Distribution: Evidence from the US
393
The estimated coefficient of the static regression implies that a one percent increase in spatial intensity leads an increase in aggregate productivity by 0.56 percent which would imply that the impact is substantial. However, the estimation results should be interpreted with some caution since our simple model has some limitations: Firstly, omitted variables may lead to an upward-bias of the estimated coefficient if they are positively correlated with our measure of spatial intensity. Secondly, we cannot differentiate the various sources of agglomeration effects, e.g. knowledge spillovers or external scale economies.36
7
Conclusion
This paper investigated the change of spatial intensity of economic activity in the United States as well as the relationship between spatial intensity and aggregate multifactor productivity. The results suggest that the spatial intensity of the U.S. economy increased during the period from 1969 to 2000. There was a tendency of geographical expansion, i.e. the mean distance to the center of gravity increased, but the increase in overall economic activity was strong enough to counterbalance the former effect. Moreover, results of an econometric analysis indicate a short-run bi-directional Granger causality between productivity and spatial intensity and a long-run causality from spatial intensity to multifactor productivity. There are several directions for future research. One could analyze the change in spatial intensity and its relationship with productivity for specific sectors of the economy. Manufacturing industries, for instance, have experienced a dramatic change during the past decades. Geographical expansion of economic activity is likely to be more prevalent in the manufacturing sector than in other sectors. One could also focus on a specific type of employment, like high-skilled labor. Moreover, one could analyze the factors that may influence geographical expansion of economic activity. In particular, it could be investigated whether the increase in the mean distance to the center of gravity – the indicator for expansion used in this paper – can be explained by a decline in transport costs or the emergence of the internet.
36
Anas et al. (1998), Henderson (2003b).
394
Werner Bönte / Zuoquan Zhao
Appendix I: Data US data on productivity, metropolitan employment, and place location are used. The productivity measure is taken from the Bureau of Labor Statistics (BLS). It is the multifactor productivity index of the private nonfarm business sector (Series ID: MPU750023 (K)) which is normalized to one in the year 2000. The data on metropolitan employment are collected from the Bureau of Economic Analysis’ regional economic accounts “Detailed county annual tables of income and employment by SIC industry 1969–2000 (CA05 and CA25).” The data on the location of places, e.g. metropolitan statistical areas (MSAs) and central cities, which are involved in our spatial analysis, are collected from the same Census file “places”. Here there are 316 MSAs across the US continent. The definition of MSAs and central cities is adopted from “Metropolitan Areas and Components (June 30, 1999)” and “1999 Metropolitan Areas Page Sized Maps” by the Census Bureau. The center of gravity of workers in a MSA, which needs to be identified accurately for analyzing the spatial distribution of workers across the US continent, is determined by the locality of central cities in the MSA. This assertion is reasonable because of the economic dominance of central cities in a MSA as defined by the Census and of the relative stability of central cities across the MSAs in the US (Glaeser and Kahn 2004). Here we have three types of MSAs: monocentral, multi-central, and non-central. For an MSA with a single central city, we use the location of the central city as the center of gravity of workers in the MSA; For an MSA with one more central cities, we compute the center of gravity of workers by weighting the location (coordinates) of the central cities in the MSA. The weight is city employment (1969-2000) if a central city is independent one as in Virginia (employment data are available for independent cities), county employment (1969-2000) if a county hosts a single central city, or city population (2000) if multiple central cities are located within a single county. The data on county (or city) employment are from the same regional economic account as the data on metropolitan employment, and the data on residential population are obtained from the Census’ Gazetteer “places” (2000). For an MSA without a central city, we specified one for it by comparing cities in terms of of their relative location and dominance within the MSA. Thus five cities are selected for five MSAs without central cities. They are Lake Jackson for Brazoria (TX), Hempstead for Nassau-Suffolk (NY), Paterson for Bergen-Passaic (NJ), Edison for Middlesex-Somerset-Hunterdon (NJ), and Toms River for Monmouth-Ocean (NJ). The results show that 78 of the 316 MSAs have their centers of gravity of workers varying over time, and the other 238 MSAs (185 are mono-centric) are
Aggregate Productivity and Spatial Distribution: Evidence from the US
395
assumed to have stable centers of gravity between 1969 to 2000. Notably, the 78 MSAs include most of the largest MSAs, e.g. New York, Los Angeles-Long Beach, Chicago, Boston-Worcester-Lawrence-Lowell-Brockton, WashingtonBaltimore, Philadelphia, Dallas, Houston, and San Antonio.
References Ades, A. F./Glaeser, E. L. (1995): Trade and circuses: Explaining urban giants. Quarterly Journal of Economics, 110, p. 195-227. Alonso, W. (1980): Five bell shapes in development. Papers, the Regional Science Association, 45, p. 5-16. Anas, A./Arnott, R./Small, K. A. (1998): Urban spatial structure. Journal of Economic Literature, 36, p. 1426-1464. Arbia, G. (2001): The role of spatial effects in the empirical analysis of regional concentration. Journal of Geographical Systems, 3, p. 271-281. Audretsch, D. B./Feldman, M. P. (1996): R&D spillovers and the geography of innovation and production. American Economic Review, 86, p. 630-640. Burchfield, M./Overman, H. G./Puga, D./Turner, M. A. (2006): Causes of sprawl: A portrait from space. Quarterly Journal of Economics, 121, p. 587-633. Chatterjee, S./Carlino, G. (2001): Aggregate metropolitan employment growth and deconcentration of metropolitan employment. Journal of Monetary Economics, 48, p. 549-583. Ciccone, A./Hall, R. E. (1996): Productivity and the density of economic activity. American Economic Review, 86, p. 54-70. Coase, R. H. (1937): The nature of the firm. Economica, 4, p. 386-405. Davis, D. R./Weinstein, D. E. (2002): Bones, bombs, and break points: The geography of economic activity. American Economic Review, 92, p. 1269-1289. Duranton, G./Overman, H. G. (2005): Testing for localization using micro-geographic data. Review of Economic Studies, 72, p. 1077-1106. Engle, R. F./Granger, C. W. J. (1987): Co-integration and error-correction: Representation, estimation and testing. Econometrica, 55, p. 251-276. Ellison, G./Glaeser, E. L. (1997): Geographic concentration in U.S. manufacturing industries: A dartboard approach. Journal of Political Economy, 105, p. 889-927. Fogarty, M. S./Carofalo, G. (1988): Urban spatial structure and productivity growth in the manufacturing sector of cities. Journal of Urban Economics, 23, p. 60-70. Fujita, M./Krugman, P.R./Venables, A. (2001): The Spatial Economy: Cities, Regions, and International Trade, Cambridge, Mass. 2001. Fujita, M./Thisse, J.-F. (2000): The formation of economic agglomerations: Old problems and new perspectives, in: Hurriot, J.-M./Thisse, J.-F. (ed.): Economics of Cities: Theoretical Perspectives, Cambridge 2000. Fujita, M./Thisse, J.-F. (2003): Does geographical agglomeration foster economic growth? And who gains and loses from it? Japanese Economic Review, 54, p. 121145.
396
Werner Bönte / Zuoquan Zhao
Gerking, S. (1994): Measuring productivity growth in U.S. regions: A survey. International Regional Science Review, 16, p. 155-185. Glaeser, E. L./Kahn, M. E. (2001): Decentralized employment and the transformation of the American city. Brookings-Wharton Papers on Urban Affairs, 2, p. 1-63. Glaeser, E. L./Kahn, M. E. (2004): Sprawl and urban growth, in: Henderson, V./Thisse, J. (ed.): The Handbook of Regional and Urban Economics (Vol. 4), Amsterdam 2004. Glaeser, E. L./Kohlhase., J. E. (2004): Cities, regions and the decline of transport costs. Papers in Regional Science, 83, p. 197-228. Granger, C. W. J./Newbold, P. (1974): Spurious regressions in econometrics. Journal of Econometrics, 2, p. 111-120. Granger, C. W. J. (1986): Developments in the study of cointegrated economic variables. Oxford Bulletin of Economics and Statistics, 48, p. 213-28. Granger, C. W. J. (1988): Some comments on econometric methodology. The Economic Record, 64, p. 327. Harris, J. W./Stocker, H. (1998): Handbook of Mathematics and Computational Science, New York 1998. Henderson, V. (2003a): The urbanization process and economic growth: The so-what question. Journal of Economic Growth, 8, p. 47-71. Henderson, V. (2003b): Marshall’s scale economies. Journal of Urban Economics, 53, p. 1-28. Jaffe, A./Trajtenberg, M./Henderson, R. (1993): Geographic localization of knowledge spillovers as evidenced by patent citations. Quarterly Journal of Economics, 108, p. 577-598. Johansen, S. (1988): Statistical analysis of cointegration vectors. Journal of Economic Dynamics and Control, 12, p. 231-254. Johansen, S./Juselius, K. (1990): Maximum likelihood estimation and inference on cointegration with application to the demand for money. Oxford Bulletin of Economics and Statistics, 52, p. 169-210. Kellerman, A. (1983): Economic and spatial aspects of von Thünen’s factor intensity theory. Environment and Planning A, 15, p. 1521-1530. Kim, S. (1995): Expansion of markets and the geographic distribution of economic activities: The trends in U.S. regional manufacturing structure, 1860-1987. Quarterly Journal of Economics, 110, p. 881-908. Krugman, P. (1991): Geography and Trade, Cambridge, MA 1991. Kuznets, S. (1966): Modern Economic Growth: Rate, Structure, and Spread. New Haven/London 1966. Marcon, E./Puech F. (2003): Evaluating the geographic concentration of industries using distance-based methods. Journal of Economic Geography, 3, p. 409-428. Martin, P./Ottaviano, G. I. P. (2001): Growth and agglomeration. International Economic Review, 42, p. 947-968. Martin, R./Sunley, P. (2003): Deconstructing clusters: Chaotic concept or policy panacea? Journal of EconomicGeography, 3, p. 5-35. Moomaw, R. L. (1981): Productivity and city size: a critique of the evidence. Quarterly Journal of Economics, 116, p. 675-689.
Aggregate Productivity and Spatial Distribution: Evidence from the US
397
Nelson, C./Plosser, C. (1982): Trends and random walks in macroeconomics time series: Some evidence and implications. Journal of Monetary Economics, 10, p. 139-162. Phillips, P. C. B./Perron, P. (1988): Testing for a unit root in a time series regression. Biometrika, 75, p. 335-346. Rappaport, J./Sachs, J. D. (2003): The United States as a coastal nation. Journal of Economic Growth, 8, p. 5-46. Rauch, J. E. (1996): Productivity gains from geographic concentration of human capital: evidence from the cities. Journal of Urban Economics, 34, p. 380-400. Rigby, D. L./Essletzbichler, J. (2002): Agglomeration economies and productivity differences in US cities. Journal of Economic Geography, 2, p. 407-432. Rosenthal, S. S./Strange, W. C. (2004): Evidence on the nature and sources of agglomeration economies, in: Henderson, J.V./Thisse, J.-F. (ed.): Handbook of Urban and Regional Economics (Vol. 4), Amsterdam 2004. Samuelson, P. A. (1983): Thünen at two hundreds. Journal of Economic Literature, 21, p. 1468-1688. Segal, D. (1976): Are there returns to scale in city size? Review of Economics and Statistics, 58, p. 339-350. Smith, P. J. (1999): Do knowledge spillovers contribute to U.S. state output and growth? Journal of Urban Economics, 45, p. 331-353. Sveikauskas, L. (1975): The productivity of cities. Quarterly Journal of Economics, 89, p. 393-413. Sweeney, S. H./Feser, E. J. (2004): Business location and spatial externalities: Tieing concepts and measures, in: Goodchild, M. F./Jenelle, D.G. (ed.): Spatially Integrated Social Science, Oxford University 2004. U.S. Census Bureau. (2001): Centers of Population Computation for 1950, 1960, 1970, 1980, 1990 and 2000. Washington, D.C 2001. Wheaton, W. C./Shishido, H. (1981): Urban concentration, agglomeration economies, and the level of economic development. Economic Development and Cultural Change, 30, p. 17-30. Williamson, J. G. (1965): Regional inequality and the process of national development: A description of the patterns. Economic Development and Cultural Change, 13, p. 184. Zhao, Z. (2008): Spatial Distribution and Economic Growth: The US Economy 19692000, Saarbrücken 2008. Zhao, Z. (2006): A spatial model of growth: Taking technology seriously. Discussion Papers on Entrepreneurship Growth and Public Policy # 1206, Max Planck Institute of Economics, Jena 2006.
Krisenmanagement am Beispiel Brasilien Heinz Schmersal
1
Andere Länder, andere Probleme: Was zählt, ist die richtige Lösung
Die Präsenz an verschiedenen internationalen Standorten stellt einen global agierenden Firmenverbund wie die Wuppertaler Schmersal-Gruppe immer wieder vor neue Herausforderungen. Denn die Bedingungen, mit denen es die einzelnen Produktionsstätten zu tun haben, differieren von Land zu Land oft erheblich. So können etwa widrige, äußere Umstände die Unternehmensentwicklung negativ beeinflussen und den Geschäftserfolg akut gefährden. Doch die Ursachen für solche Turbulenzen kommen nicht in jedem Fall von außen. Häufig sind die Probleme auch hausgemacht.
2
Kompetenzstark in der Nische
Voraussetzung für eine befriedigende Problembewältigung ist eine fundamentale Strategie, nach der sich das ganze Denken und Handeln des 1945 gegründeten Unternehmens ausrichtet. „Wir wollen ein selbstständiges Familienunternehmen bleiben mit kundenorientierten Lösungen in Klein- und Mittelserien“, lautet die Vorgabe. Mit rund 25.000 sicherheitstechnischen Produkten für Maschinen und Anlagen hat Schmersal die gewählte Nische optimal besetzt. Organisatorisch ist die Gruppe in verschiedene Kompetenzcenter aufgeteilt, wobei technologisch alle Fäden in Wuppertal zusammenlaufen. Was hier geplant und entwickelt wird, gilt für alle. Zugleich dient der bergische Standort als Maßstab für ein profitables Management. Die Übertragung von Arbeitsweisen und strategischen Konzepten auf andere Niederlassungen - individuell auf die jeweiligen Gegebenheiten abgestimmt - hat sich daher nachweislich bewährt.
400 Abbildung 1:
Heinz Schmersal Strategische Ausrichtung von Schmersal
Krisenmanagement am Beispiel Brasilien 3
401
Krisenanalyse für Brasilien
Für die ACE Schmersal Eletroeletrônica Industrial Ltda. im brasilianischen Boituva (Sao Paulo), gegründet 1969, brachte das gezielte Krisenmanagement den Ausweg aus einer ziemlich prekären Situation. In dem südamerikanischen Land hat die Wirtschaft vor allem mit drei entscheidenden exogenen Faktoren zu kämpfen: wenig Rechtssicherheit, instabile politische Verhältnisse und eine Inflationsquote, die in Hochzeiten bei 1.476% lag. Abbildung 2:
Inflationsrate Brasilien zwischen 1939 und 2008 Inflationsrate in % 1939-2008
1600,00 1400,00 1200,00 1000,00 800,00 600,00 400,00 200,00 0,00 1939 1947 1953 1957 1973 1984 1990 1994 2000 2004 2007
Quelle: Geschäftsführung Schmersal Brasilien.
Andauernde Kursschwankungen sowie zahlreiche ‚Weichwährungen‘ in den Nachbarländern machten dem Schmersal-Unternehmen eine Vorfinanzierung unmöglich. Während auf der Pro-Seite der exogenen Faktoren Wirtschaftsgröße, offene Marktwirtschaft, Schutz des Industrieeigentums, Außenhandelspolitik, Patentschutz, Handelsabkommen sowie Lohn- und Lohnnebenkosten (3 €/Stunde) stehen, kann man auf der auf der Contra-Seite hohe Steuerbelastung, schwierige Kontrolle der öffentlichen Ausgaben [„Custo Brasil“ (Schmiergeld)], Komplexität der Gesetzgebung, staatliche Intervention im Markt, Sicherheit, Arbeitslosigkeit, Ausbildung, schlechte Verwaltung und Logistik/Entfernungen vermerken.
402
Heinz Schmersal
Abbildung 3:
Exogene und endogene Krisen am Beispiel des Unternehmens ACE, Brasilien Krisenbereiche und -symptome
• Finanzwirtschaftliche Risiken
• Management
- Kapitalbeschaffung •
- Falsche Strategie/Ziele •
Kapitalanlagen - Renditeunsicherheit
•
- Fehlendes Mitarbeiter Knowhow
Liquidität •
- Liquiditätsengpässe
•
Währungen - Schwankende Wechselkurse - Devisenabhängigkeiten
Informationstechnologie - Systemunsicherheit
- Zahlungsstromschwankungen •
F & E Innovationskraft
Politik und Gesetzgebung - Änderung der allg. Gesetzgebung / Rechtsprechung - Änderungen in der Politik / Subventionierung
Zu den exogenen Faktoren zählen aber auch die unterschiedlichen Währungen in den einzelnen Mitgliedstaaten im MERCOSUR (Gemeinsamer Markt Südamerikas).
Tabelle 1: Die fünf MERCOSUR-Mitgliedsstaaten Land Argentinien Brasilien Paraguay Uruguay Venezuela insgesamt
Einwohner in Mio. 39 186 6 4 25 260
Währung Argentinischer Peso Real Guaraní Uruguayischer Peso Bolívar
Krisenmanagement am Beispiel Brasilien
403
Tabelle 2: Die fünf assoziierten Staaten des MERCOSUR Land Chile Bolivien Peru Kolumbien Ecuador insgesamt
Einwohner in Mio. 16 9 28 46 13 112
Währung Chilenischer Peso Boliviano (umgangsspr. Peso) Nuevo Sol Peso Ecuador Sucre
Tabelle 3: Ein Brasilianischer Real entspricht im Einkauf: Land Argentinien Paraguay Uruguay Venezuela Chile Bolivien Peru Kolumbien Ecuador
Gegenwert in Landeswährung 1,41 Argentinischer Peso 2,62 Guaraní 11,50 Uruguayischer Peso 990,64 Bolívar 259,32 Chilenischer Peso 3,80 Boliviano (umgangsspr. Peso) 1,55 Nuevo Sol 1,15 Peso 11,53 Ecuador Sucre
Berechnungsgrundlage: 1 Brasilianischer Real = 0,36 €, 1 € = 2,74 Brasilianische Real (Stand 2006)
Diese Vielfalt an Währungen und die unterschiedlichen Inflationsraten verdeutlichen die Problematik, die der brasilianische Markt mit sich bringt. Vor der Marktöffnung 1990 durch Präsident Coller handelte es sich um einen fast geschlossenen Markt. Der einzig mögliche Zugang war die Freihandelszone Manaos am Amazonas. Die Nachteile waren:
hohe Zollbarrieren, hohe Inlandspreise, wenig Wettbewerb; Das Ergebnis wurde durch die Inflation oft negativ.
404
Heinz Schmersal
In den 90er Jahren:
Zum Teil wurden alle zwei Wochen neue Preislisten aufgrund der Inflation gedruckt. Schmersal hatte eine eigene kleine Druckerei hauptsächlich für Preislisten.
Heute:
offener Markt, Invasion von importierten Produkten, harter Wettbewerb.
4
Ertragsproblematik und Erfolgsrezepte in Hochinflationsländern
1. Fall: Beschaffung in ‚Hartwährung‘ Verkauf in ‚Weichwährung‘ führt zu steigenden Preisen oder DB-Verlusten. 2. Fall: Zahlungsziele im Import zu lang lange Zahlungsziele führen aufgrund des Wechselkurses zu Währungsverlusten am Tag der Zahlung (Rechnungsbetrag = Zahlungsbetrag). Lösungen: 1. Aufbau des Exportgeschäftes 2. Schaffung von Kompetenzcentern mit weltweit gleicher Ausstattung und Zertifizierung 3. Identische Ausstattung wie Stammhaus an Maschinen und Anlagen 4. Festlegung des Materialflusses 5. Arbeitsplatzgestaltung 6. Einführung von Prämienlohn mit einhergehendem Personalabbau 7. Einführung von SAP 8. Gemeinsamer Einkauf 9. Pro-Kopf-Umsatz auf 110 TEUR steigern. 10. Schrumpfung der Mitarbeiterzahl von 289 in 2005 auf 210 Ende 2007 11. Import- und Exportvolumen sind gleich Hedging – Ausgleich der Devisenbilanz
Krisenmanagement am Beispiel Brasilien
405
Ein im Gruppenvergleich miserabler Pro-Kopf-Umsatz, mangelhafte Führungsqualitäten auf der Chefetage und fehlende Investitionen in zukunftsweisende Produkte, mit denen sich die brasilianische Tochter hätte profilieren können, machten die Lage nicht einfacher. Die Strategie aus dieser Bredouille war komplex: Umstellung auf neue Maschinen und Software, die mit dem Equipment im Stammhaus identisch sind, Ablösung der alten Führungsriege sowie eine konsequente Fokussierung auf den US-Markt, um eine Hartwährung zu erhalten. Gleichzeitig wurden die Personalkosten und der zu hohe Wareneinsatz gesenkt. Eine Programmbereinigung sorgte zudem für wachsende Verkaufszahlen. Mit diesem Maßnahmenpaket konnte die Produktivität um 35% gesteigert werden.
5
Einführung eines Prämienlohnsystems
Mit den größten Effekt brachte die Einführung eines Prämienlohnsystems, hier im weiteren Verlauf dargestellt. Bei der Prämienlohneinführung werden die Stör- und Stillstandszeiten analysiert und durch präventive Maßnahmen (Verbesserungen bei Arbeitsplatzgestaltung, Ergonomie, Materialbereitstellung und -fluss) weitgehend eliminiert, d. h. eine Produktivitätssteigerung von zunächst 10% ohne zusätzliche Personalkosten geplant (siehe Abbildung 4). Es fehlen nun noch 10%-Punkte, um 100% Normalleistung zu erreichen. 5% Mehrleistung akzeptierten die Mitarbeiter ohne Lohnausgleich, 5% als Gegenleistung steuerte das Unternehmen bei. Also wurden zusätzlich noch einmal 5% ohne Personalkostensteigerung (insgesamt also 15%) vorgesehen. Da nun seit Einführung der Prämie, die in allen Gewerken weltweit gilt, ein Leistungsanreiz gegeben ist, wurde ein Prämienzuschnitt von 18-20 %, d.h. eine Produktivitätserhöhung pro Mitarbeiter von 15% + 18-20% # 35% erreicht.
406 Abbildung 4:
Heinz Schmersal Das Prämienlohnsystem als Anreizmotor
Entwicklung Prämienlohn
Leistungsgrad in %
Deckelung 130 %
120 %
110 %
100 % 1
2
95 %
90 % S+S 80 % Quelle: Eigene Darstellung.
100 % ist die Normalleistung. Beim Zeitlohn wird die Normalleistung, die per Zeitmessungen ermittelt wurde, bei etwa 90 % liegen, da keine Leistungsnachprüfung erfolgt. Hinzu kommen bis dahin nicht ermittelte Störund Stillstandszeiten (S + S), die im Schnitt bei 10 % liegen.
3 €
Krisenmanagement am Beispiel Brasilien
407
Das Ergebnis war nach der Einführung des Prämienlohnsystems eindeutig. Durch die Grundvoraussetzungen, weltweit alle Maschinen, Anlagen, Vorrichtungen und Arbeitsplätze gleichzusetzen, machten sich nun die geringeren Lohnund Lohnnebenkosten drastisch bemerkbar. Inzwischen wurde ein Pro-KopfUmsatz von ca. 100 TEUR/MA/Jahr erreicht, mit dem Ergebnis:
Das Eigenkapital stieg auf >50 %. Es gab keine Fremdfinanzierungen mehr. Das EBIT-Wachstum lag im zweistelligen Bereich. Der stark gestiegene Umsatz konnte ohne Neueinstellungen bei schleichendem Personalabbau erledigt werden.
6
Fazit und Ausblick
Betriebswirtschaftliche Kennzahlen, Controlling sowie Umsetzung der Technik nach unseren Maßstäben können zu einem guten, positiven Ergebnis führen, wie am Beispiel ACE Brasilien dargestellt.
Damit bieten sich – allerdings bei hohen Investitionen, finanziert durch Eigenmittel – Chancen für Gewinne und positive Vermögensentwicklungen.
Marketing in the process of transformation. A Polish case. Roman Gowacki / Grzegorz Karasiewicz
1
Some characteristics of economy before transformation
The beginning of the transformation process in Poland in 1989 produced many challenges. There were many serious threats (barriers). First of all the existing command management system with its organizational structure was not fitted in any way to market economy requirements. That management system in 1989 left its market structure totally monopolized before. Table 1:
Total concentration on the level of product group
Product market Automatic washing machines Typewrites Vacuum cleaners Motorcycles Motor scooters Buses Telephones Tractors Truck
Number of producers 1 1 1 1 1 1 1 1 1
Market share, Percent 100 100 100 100 100 100 100 100 100
Source: S. Jakubowicz, “Monopol a struktura”, Przegld organizacji, 1983.
Total concentration on the level of a product group allows the producer in a setting of administrative monopoly to shape the structure of the product offering
410
Roman Gowacki / Grzegorz Karasiewicz
within the particular group exclusively in accordance with its own interests. Product diversity in such a case is more fictitious than authentic. In addition to total concentration on the level of a product group, other arrangements also occurred. Frequently, there occurs a situation where several producers are active in a product market but one of them holds a dominant position. Such a situation existed in the following product markets: console radio receivers, stereophonic radio receivers, plug-in black and white TV sets, portable TV sets, knitted women’s and girl’s dresses, hosiery, and others. Another barrier has been people’s mentality inherited from the socialistic system. The socialistic system may characterize a system where people can believe that one is doing something while the state pays as though they work. As a consequence of such thinking there was very low productivity. Workers were not interested in increasing productivity, because more productive work was not properly remunerated. Low productivity was also caused by the socialistic principle that everybody has to be employed. So a number of workers was usually larger than it was objectively needed for performing particular tasks. This situation had a significant impact on so called hidden unemployment, caused by an oversupply of the work force. The specific mentality also has been revealed through attitudes toward property. The collective property was recognized by people as a property belonging to nobody (property without an owner) so people did not consider to be responsible to take care of it. The next serious barrier was lack of market economy knowledge. Market economics was not taught in higher education. Almost all students, even those studying medicine, pharmacy, art and so on, were instead obliged to take socialistic and capitalistic economy courses. Despite the name “capitalistic”, the course consisted only of Marxist views on the capitalistic economy. There were no explanations concerning micro- and macroeconomics in a real market economy. With such a state of affairs it was not easy to change the economic system. The number of Polish scholars equipped with market economy knowledge was very small. However thanks to a Harvard Business School initiative, especially senior associate dean Professor Thomas Piper, the main organizer of the Central and Eastern European Teachers Program a large number of teachers from Poland and other countries of the region could upgrade their knowledge. Last but not least, the Polish economy was in debt. The socialistic government took huge loans from western banks which were mostly used for consumption. In this way the government liked to upgrade living standards and prove the superiority of the socialistic system.
Marketing in the process of transformation. A Polish case.
411
Due to the several barriers the state of Polish economy on the beginning of the transformation process was not satisfactory. According to the OECD Factbook the Polish Gross Domestic Product in 1990, amounted to 227 billions US dollars, was circa 40% of GDP of Spain in 1991. Table 2: Country Spain Greece Portugal Poland
Gross Domestic Product in selected countries in 1990 year GDP per capita in US-dollars 13.014,00 11.073,00 10.806,00 6.038,00
Source: OECD Factbook of 2005.
This shows, that GDP in total volume terms as well as per capita was in 1990 lower even in the comparison with less developed countries of European Union. The next important economic indicator was the volume of export of Polish goods in 1990. Table 3: Country Poland Greece Portugal Spain
Export of goods per capita in US-dollars in 1990 per capita in US-dollars 375,10 743,80 1.670,50 1.428,50
Source: OECD Factbook of 2005.
2
The main directions of the transformation process
One of first steps of the post-communist government in Poland was the introduction of free prices and interest rates. Main undertakings were concentrated on diminishing the inflation rate through credit restrictions, regulation of money supply and interest rates as well as on the privatisation of enterprises in the industry, trade, and services. It was easier to privatise the commercial and services sectors, because these were comprised mostly of smaller size companies. Due to that there were less social barriers (e.g. created by the trade unions) in the distribution than in the
412
Roman Gowacki / Grzegorz Karasiewicz
manufacturing sector. In addition, the share of public sector in wholesaling and in retailing amounted to 36% in comparison to 92.2% in manufacturing. It is necessary also to emphasize that the sequence of changes undertaken in the Polish transformation process was specific. To distinguish that one can compare it with the process of economic and marketing changes in the USA and other Western countries after the second world war. During the fifties of the former century the main emphasis was placed on the development the concept of mass production. According to its requirements it was necessary to increase significantly the production volume to facilitate people’s access to the products. However, the implementation of this concept revealed some of its weaknesses. The production sector was not synchronized with the distribution system. The latter was based mostly on the traditional retailing system (small space shops with sales force). Such a system was not efficient. It could not cope with new requirements connected with distribution of larger volume of products. Therefore to overcome difficulties, it was necessary to implement additional measures, i.e. to introduce the mass distribution concept, operating with large space stores (super and hypermarkets, discount stores) using mostly a self-service form of sale. This sequence of changes could not be applied in the realities of the Polish economy due to a few reasons. First of all – due to the existence of a seller market with the shortages of many products – there was over demand. Secondly, the production sector was centralized and mostly based on public ownership. It was impossible to change such a situation quickly. The privatisation of the production sector, state owned, just started and its results were slight, especially in the first stage of the transformation. Additionally, there was tremendous lack of financial capital. This situation was used by new entrants to the Polish market, the huge companies operating on the basis of great scale of operation (e.g. Auchan, Carrefour, Metro, Tesco, Lidl and few others). These giants do not use only new distribution technology but also financial capital. They have been playing role of one of main forces in the process of rationalisation and modernisation of the marketing system. They make changes not only in the distribution sector but also in manufacturing. First of all there have been actions aimed at upgrading quality standards of products delivered by Polish producers to these big distributors. It is interesting also to point out that one of their specifics is treatment of distributor’s brand names. The Polish producers, especially smaller ones, strive for the sale of their products with distributor’s brand names: thus the situation is totally different from that in the Western marketing system. So far it is the result of a weaker market position, especially of smaller size producers.
Marketing in the process of transformation. A Polish case. 3
413
The previous results of the transformation process
In fifteen years the GDP increased twice, from 227.5 billions of US dollars in 1990 to 471.1 in 2005. Also, there was a significant increase GDP per capita, from 6.038 US dollars in 1990 to 12.514,2 in 2005, achieving the level of Greece and Portugal in 1996. The Polish economy during the discussed period of time was developing more dynamically in comparison to another OECD countries, as it is presented in Table 4. Table 4:
Dynamics of Gross Domestic Products in selected EU-countries (1990=100)
Years
OECD
Poland
Spain
Portugal
Greece
1990 1995 2000 2005
100.0 125.1 159.6 185.1
100.0 126.3 172.7 209.7
100.0 122.3 160.0 199.7
100.0 123.5 163.5 181.9
100.0 120.7 153.0 203.5
Czech Republic 100.0 108.1 119.8 158.1
Source: OECD Factbook 2005.
Taking in consideration the dynamics of GDP in terms of its volume and per capita as the key indicators in the development of an economy, one may say that the transformation process in Poland brought positive results. The high inflation rate in 1990 amounting to 717.8% in comparison to 1989 was gradually diminished, as shown in Table 5. Other positive changes concerned the export of goods and foreign direct investment. During the fifteen years, it is from 1990 to 2005, the total volume of export increased from 14,3 billions US dollars to 82,7 billions (almost 6 times). Foreign Direct Investment increased from 88 million US dollars in 1990 to 422,5 million US dollars in 2003, it is circa five times. There were few other structural changes in the distribution system and services. All of them were aimed at increasing the role of the private sector in the Polish economy and its competitiveness. The entrance of Poland to EU structures in 2004 speed further growth of the economy.
414
Roman Gowacki / Grzegorz Karasiewicz
Table 5:
Price indices of goods and services in Poland
Years 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003
Previous year = 100 717.8 171.1 142.4 134.6 130.7 126.8 119.4 114.8 111.6 110.4 105.5 101.8 101.1 104.3
Source: Rocznik Statystyczny Rzeczpospolitej 1994, 2004, 2005.
4
Summary and result
In the first version of this essay we presented considerations based on some available figures and views of authors. It was predicted that total volume of GDP in billions of US dollars amounting 488,9 in 2005 year will increase significantly in 2015 up to 812,7 billions of US dollars, which means circa 70 percent. In the same period of time individual consumption expenditures will increase by 64 percent. However, due to the financial crisis and its negative impact these and other predicted figures seem to be questionable. So we resigned of their presentation in this text.
Bibliography / References Gowacki, R. (1991). “State of the Market Structure and Its Implications”, International Studies of Management and Organization (1991), Vol.12, No.2, p. 39-58. Gowacki, R./Karasiewicz, G. (2007). „Transformacja systemowa jako stymulator dynamicznego rozwoju marketingu w Polsce”, in: Zarzdzanie i rozwój, Wydawnictwo Naukowe Wydziau Zarzdzanie Uniwersytet Warszawski (2007), Warszawa, p. 7994.
Marketing in the process of transformation. A Polish case.
415
Jakubowicz, S. (1983). „Monopol a struktura”, Przegld Organizacji, No. 1, p. 3-8. Jdrzejczak, G. (2005). “Dekada transformacji. W poszukiwaniu interpretacji”, in: Nowak, A. (ed.), Fenomen transformacji. Próba analizy, Wydawnictwo Naukowe Wydziau Zarzdzania Uniwersytetu Warszawskiego, Warszawa, p. 19-42. May Rocznik Statystyczny (1994), Gówny Urzd Statystyczny, Warszawa 1994. May Rocznik Statystyczny (1997), Gówny Urzd Statystyczny, Warszawa 1997. May Rocznik Statystyczny (2001), Gówny Urzd Statystyczny, Warszawa 2001. May Rocznik Statystyczny (2008), Gówny Urzd Statystyczny, Warszawa 2008. OECD Factbook 2005 (www.oedc.org). OECD Factbook 2007 (www.oedc.org). Sachs, J. (1992). “The Economic Transformation of Eastern Europe: The Case of Poland”, The American Economist, Vol. 36, No.2 (Fall), p. 3-11. Sachs, J./Lipton D. (1990). ”Poland’s Economic Reform”, Foreign Affairs, Vol. 69, No. 3, p. 47-67. Zajicek, E./Heisler, J. (1995). “The Economic Transformation of Eastern Europe: The Case of Poland – Comment”, The American Economist, Vol. 39, No. 1, p. 84-88.
Steuerliche, öffentlich- und privatrechtliche Entwicklungen
Europarecht und Wirtschaftsvölkerrecht als Innovationsaccelerator, Steuerungsmedium und Motor globalen Fortschritts Winfried Bausback / Franziska Schuierer
Zur Interdependenz zwischen innovativer Entwicklung und rechtlicher Rahmengestaltung Norbert Koubek hat seit 1994 den Lehrstuhl für Betriebswirtschaftslehre, insbesondere Innovationsmanagement und internationales Management an der Bergischen Universität Wuppertal inne. Dies weist klar auf seine Ausrichtung in Forschung und Lehre hin. Fragen des Innovationsmanagements auf der einen Seite und der seit Jahrzehnten zunehmenden internationalen Vernetzung haben immer sein besonderes Interesse gefunden.1 Der Begriff der Innovation ist auch der rechtswissenschaftlichen Diskussion nicht fremd. Innovation als Phänomen der Lebenswirklichkeit stellt sich in der wissenschaftlichen Betrachtung der Rechtswissenschaft komplexer dar als in der Wirtschaftswissenschaft; zusätzlich zur Erfassung des Prozesses der Neuerungen durch technischen, sozialen und wirtschaftlichen Wandel hat die Rechtswissenschaft auch die normativen Maßstäbe und deren Dynamik zu erfassen, die Innovationen den Rahmen geben.2 Europäisierung und Internationalisierung prägen die wissenschaftliche Befassung mit Recht seit Jahrzehnten mindestens genauso, wie dies in den wirtschaftswissenschaftlichen Disziplinen der Fall ist. Was liegt also näher, als zu Ehren des Jubilars die Frage nach der Wirkung von Normen des Europarechts und des Internationalen Wirtschaftsrechts auf 1
2
Auch Veröffentlichungen des Jubilars weisen auf die Befassung mit den Fragestellungen der Innovation hin, vgl. insb. Koubek (1989), S. 199-208; ferner Koubek/Ostermann/Skalec (1991). Vgl. Hoffmann-Riem (1998), S. 19.
420
Winfried Bausback / Franziska Schuierer
Innovation einer Betrachtung zu unterziehen. Gerade die Banken- und Wirtschaftskrise, die Ende vergangenen Jahres ihren Ausgangspunkt nahm, lässt die Frage drängend werden, ob das europäische und internationale Recht nicht in der Vergangenheit zu wenig steuernde Wirkung hatte und deshalb eine innovationsfeindliche Situation entstanden ist.
1
Begrifflichkeit
1.1 Definition von Innovation in der Wirtschaftswissenschaft In den Wirtschaftswissenschaften bezeichnet Innovation zunächst die mit dem technischen, sozialen und wirtschaftlichen Wandel einhergehenden Neuerungen; der Begriff enthält die Neuerung eines Objekts oder einer sozialen Handlungsweise sowie die dadurch bedingte Veränderung.3 Im engsten Sinne bedeutet Innovation die erstmalige Einführung eines neuen Produktes oder eines neuen Produktionsprozesses, genauer die Ideen und deren Umsetzung in neue Produkte, Produktionsverfahren und Organisationsformen.4 Im Bereich der Betriebswirtschaftslehre benennt Innovation auch eine Leitvorstellung in der Unternehmensoder Produktpolitik und ein strategisches Konzept für das Bestehen im Wettbewerb.5 Die Innovationsfähigkeit ist für den Erfolg eines Unternehmens entscheidend, was zur Notwendigkeit eines Innovationsmanagements anhand von Marktanalysen und Entwicklungsprognosen führt.6
1.2 Definition von Innovation im Kontext der Rechtswissenschaft Im rechtswissenschaftlichen Zusammenhang wird mit Innovation allgemein eine Neuerung verbunden, die in der Art der Lösung eines bekannten Problems, in der Neuerung von Verfahren, Strukturen oder Institutionen oder in der Beeinflussung sozialer Verhaltensweisen liegen kann, wobei das besondere Augenmerk auf solchen Neuerungen liegt, die durch Recht beeinflusst werden.7 Der Begriff Innovation geht über Invention hinaus, da er zusätzlich zum Entwurf etwas Neuen den Schritt zur Realisierung des Neuen beinhaltet.8 Materiell können Innova3 4 5 6 7 8
Vgl. Alisch/Arentzen/Winter (Hrsg.) (2004), S. 1496. Vgl. Brockhoff (1993), S. 994; Rittershofer (2005), S. 534. Vgl. Alisch/Arentzen/Winter (Hrsg.) (2004), S. 1496. Vgl. Rittershofer (2005), S. 534. Vgl. Hoffmann-Riem (1998), S. 12. Vgl. Hoffmann-Riem (1998), S. 13.
Europa- und Wirtschaftsvölkerrecht als Motor globalen Fortschritts
421
tionen u.a. technische, naturwissenschaftliche, wirtschaftliche, ökologische oder rechtliche Inhalte haben; formal enthält Innovation Veränderlichkeit und Anpassungsbereitschaft und steht so in einem Spannungsverhältnis zur dauerhaft gedachten Verbindlichkeit des Rechts und zur Routine der Verwaltung.9 In der rechtswissenschaftlichen Innovationsforschung wird Recht als Mittel und als Grenze von Innovationen angesehen; sie befasst sich mit innovationserheblichem Recht, d.h. mit all denjenigen Innovationen, für deren Entstehung oder Verbreitung Recht von Bedeutung ist.10
2
Recht als Steuerungsinstrument in der Wirtschaft und Außenwirtschaftspolitik
Rechtsnormen stellen Steuerungsinstrumente dar – auch und gerade im Bereich wirtschaftlichen Handelns. Dies gilt für den nationalen genauso wie für den inter- und supranationalen Bereich. Betrachtet man Merkantilismus bzw. Protektionismus auf der einen und Liberalismus bzw. Freihandel auf der anderen Seite, so zeigt sich, dass keine dieser Grundpositionen ohne entsprechende steuernde Rechtsnormen auskommt.
2.1 „Internationales Wirtschaftsrecht“ als geschichtliches Phänomen Das Phänomen, die wirtschaftlichen Beziehungen zwischen Staaten und ihren Vorläufern zum Gegenstand von rechtlichen Regeln zu machen, reicht erstaunlich weit in die Geschichte zurück: Dies mögen die folgenden drei Beispiele verdeutlichen: Thukydides (455 – 395 v. Chr.), einer der Begründer der politischen Geschichtsschreibung, belegt, dass schon in der Antike „zwischenstaatlicher“ wirtschaftlicher Verkehr als Rechtsfrage und Gegenstand von Normen begriffen wurde: In seinem Werk über den Peloponnesischen Krieg berichtet er über den Beschluss („psephisma“) der Athener gegen die Nachbarstadt Megara, wonach die Megarer von den attischen Häfen ausgeschlossen sein sollten,11 ein Vorgang der in Ausfuhrverboten der Außenwirtschaftsgesetze moderner Staaten eine Entsprechung findet. Da die Megarer ihre Agrarprodukte auf dem athenischen Markt absetzten, wurde ihre Stadt durch den Beschluss in ihrer Existenzgrundlage getroffen. Die Spartaner, so berichtet es Thukydides, sahen darin eine Rechts9 10 11
Vgl. Schulze-Fielitz (1998), S. 292 f. Vgl. Hoffmann-Riem (1998), S. 14. Vgl. Thukydides (1991), Kap. 67, 139, 144.
422
Winfried Bausback / Franziska Schuierer
verletzung, nämlich die Verletzung eines Friedensvertrages durch die Athener, der somit in welcher Form auch immer den Handel zwischen den beiden Vertragspartnern garantierte und somit einen Inhalt aufweist, der in Handelsabkommen moderner Staaten zu finden ist.12 Der Athener Politiker Perikles auf der Gegenseite verweist nach Darstellung des Historikers hingegen auf einen Schiedsvertrag zwischen beiden Mächten, gegen den Sparta verstoßen habe, weil es hinsichtlich seiner Beschwerden gegen die Embargoentscheidung kein Schiedsverfahren eingeleitet habe13 – eine frühe Form schiedsrechtlicher Regelung internationaler Streitigkeiten. Andere Beispiele späterer Jahrhunderte und Jahrtausende sind vielfältig. So erließ England im Jahre 1651 eine Navigationsakte, um seine Dominanz gegenüber der Konkurrenz des holländischen Handels wiederherzustellen. Waren amerikanischen oder afrikanischen Ursprungs durften danach nur auf englischen Schiffen nach England eingeführt werden. Waren aus europäischen Ländern durften nur auf englischen Schiffen oder auf Schiffen des Ausfuhrlandes transportiert werden. Auch wurde bestimmt, dass Waren für England nur direkt aus dem Ursprungsland kommen durften.14 Sowohl in England wie in den Kolonien des amerikanischen Kontinents gab es im 18. Jahrhunderts Handelsverbote zur Abwendung von Hungersnöten.15 Ähnliche Maßnahmen gab es zum Beispiel im 18. Jahrhundert in der britischen Kolonie Connecticut, wie eine Proklamation des Gouverneurs Jonathan Trumbull aus dem Jahr 1772 belegt.16 Napoleon Bonaparte, um ein letztes Beispiel zu benennen, erklärt durch das Berliner Dekret vom 21. November 1806 die britischen Inseln für blockiert und ordnete zur Durchsetzung eine Kontinentalsperre für Europa an. Die im Berliner Dekret insoweit beschlossenen Maßnahmen wurden im Mailänder Dekret vom 17. Dezember 1807 nochmals verschärft.17 Die ausgewählten Beispiele lassen unschwer unterschiedliche Motivationen – von der Sicherung der Versorgungslage im Land bis hin zur Ausübung außenpolitischen Zwangs – erkennen. Immer war dabei beabsichtigt, das jeweilige Ziel über eine Verhaltensbeeinflussung der Marktteilnehmer zu erreichen. 12 13 14
15
16
17
Vgl. Thukydides (1991), Kap. 66. Vgl. Thukydides (1991), Kap. 140. Text der ersten englischen Navigationsakte vom 9. Oktober 1651 bei Grewe (1988), S. 591 ff. Diese Maßnahmen wurden in der Zweiten Navigationsakte vom 1. Dezember 1960 (abgedruckt ebenda, S. 592 ff.) weiter verschärft. Lindemeyer (1975), S. 214 führt insoweit eine Order in Council aus dem Jahre 1766 an, die wegen einer damals in England herrschenden Hungersnot jegliche Ausfuhr von Getreide und Mehl verbot. By the Honorable Jonathan Trumbull, Esq. Governor of the English Colony of Connecticut, in New-England, in America; A Proclamation, New London, Printed by T. Green, 1772, Broadside, zitiert nach dem verfilmten Original. Vgl. jeweils den vollständigen Text bei Grewe (1988), S. 698 ff. und S. 705 ff.
Europa- und Wirtschaftsvölkerrecht als Motor globalen Fortschritts
423
2.2 Wirtschaftspolitische Grundpositionen in der Außenwirtschaft Auch die sich in der Neuzeit ausbildenden wirtschaftspolitischen Grundausrichtungen sind letztlich auf Normen angewiesen, um ihr jeweiliges System zu verwirklichen.
2.2.1 Merkantilismus Um seine Ziele zu erreichen, war der Merkantilismus auf eine Reihe von tarifären und nicht-tarifären Handelshemmnissen angewiesen, z.B. Import-, Exportverbote, Kontingentierungen, Subventionen oder Monopolverleihungen.18 Der Merkantilismus bezeichnet dabei ein volkswirtschaftliches System, das vom 16. bis zum 18. Jh. vor allem von absolutistischen Staaten angewandt wurde.19 Das System sollte die Vergrößerung der politischen und militärischen Macht ermöglichen, indem die Wirtschaftskraft des eigenen Landes auf Kosten des Wachstums in den anderen Ländern fortentwickelt werden sollte.20 Nach der merkantilistischen Geldlehre muss Geld immer im Umlauf gehalten werden; das Volumen der Handelstätigkeit steigt, wenn sich die in einem Land vorhandene Geldmenge vergrößert.21 Das ins Inland einströmende Geld sollte die Staatsmacht stärken, daher war es ein zentrales Ziel des Merkantilismus, die Handelsbilanz zu aktivieren.22 Empfohlen wurde deshalb eine Außenwirtschaftspolitik, die die Einfuhr von Fertigwaren verhinderte, da diese die Geldmenge verringerten; vielmehr sollten Rohstoffe eingeführt, Fertigwaren ausgeführt, und Dienstleistungen von inländischen Unternehmen erbracht werden.23
2.2.2 Liberalismus Auch der Gegenentwurf des Liberalismus kommt nicht ohne rechtliche Normen aus. Es müssen Abwehrrechte gegen staatliche Eingriffe konstituiert werden, um das Prinzip der Nichtintervention abzusichern. Oberstes Ziel des Liberalismus ist dabei die Verwirklichung menschlicher Freiheit in der Gesellschaft.24 Lag der Schwerpunkt dabei zunächst auf der politischen Freiheit, entwickelte sich der 18 19 20 21 22 23 24
Vgl. Göttsche (2005), § 4 Rn. 9. Vgl. Rittershofer (2005), S. 697; Krüsselberg (1993a), S. 1446. Vgl. Blaich (1980), S. 240. Vgl. Blaich (1980), S. 241. Vgl. Krüsselberg (1993a), S. 1447; Göttsche (2005), § 4 Rn. 7. Vgl. Blaich (1980), S. 240 f.; Göttsche (2005), § 4 Rn. 9. Vgl. Krüsselberg (1993b), S. 1317.
424
Winfried Bausback / Franziska Schuierer
Liberalismus bald auch zu einem Gestaltungsprinzip für die Wirtschaftsordnung; die Verwirklichung der politischen Freiheit ist danach nur möglich, wenn auch die Freiheit der wirtschaftlichen Betätigung besteht.25 Der Liberalismus fordert eine freie Marktwirtschaft: Die freie Ordnung aller Lebensbereiche soll alleine durch Marktmechanismen zustande kommen, die menschliche Freiheit wird durch die reale Ordnung der Tauschinteressen gewährleistet.26 Der wirtschaftliche Liberalismus entstand Ende des 18. Jh. in England als Gegenstück zum protektionistischen Merkantilsystem; Adam Smith, David Ricardo und John Stuart Mill sind die bedeutendsten Vertreter der klassischen Theorie.27 Durch Adam Smith wurden die industrialistische Wertbetonung und die individualistische Preis- und Marktlehre für die liberale Wirtschaftsauffassung zentral; das Prinzip des wirtschaftlichen Egoismus und das Erwerbsstreben führen zur „natürlichen Freiheit“, da nur durch Erwerb, Arbeit und Gewinn Fortschritt und Wohlstand möglich werden.28 Da das Selbstinteresse nach Smith von der „invisible hand“ einer gütigen Gottheit bewegt wird und so das Allgemeinwohl gesichert und die Harmonie in der Wirtschaftsgesellschaft hergestellt wird, ist es ein naturgesetzliches Gebot, die „natürliche Ordnung“ herzustellen, in der völlige Freiheit der Tauschbeziehungen herrscht.29 Nur so kann es zu einem Gleichgewicht der Wirtschaft, zu einer arbeitsteiligen Volkswirtschaft und schließlich zur Steigerung der Produktivität kommen; Liberalismus bedeutet Wettbewerbsgesellschaft.30 Der sog. Laissez-faire-Liberalismus, der im 19. Jh. praktiziert wurde, geht noch weiter als die klassische Theorie und verzichtet gänzlich auf eine staatliche Ordnungsfunktion im Wirtschaftsprozess; der Staat wird zum „Nachtwächterstaat“, der auch bei einer Marktvermachtung durch Monopole nicht einschreitet.31 Der fehlende Schutz vor wirtschaftlicher Übermacht mündete jedoch in sozialen Härten; Liberalismus wurde zunehmend gleichgesetzt mit einer individualistisch-kapitalistischen Ordnung, in der höhere Gesamtinteressen aus egoistischen Gründen unbeachtet blieben.32 Deshalb führen wirtschaftspolitische Neuerungen seit Ende des 19. Jh. in der Regel in die Richtung einer langsamen Abkehr von der klassisch-liberalen Konkurrenzideologie.33 Das Laissez-faire zerstörte den Wettbewerb durch eine Tendenz zur Vermachtung der Märkte, der nun aufstrebende Neoliberalismus nimmt den Staat zu Hilfe, um den Wettbewerb 25 26 27 28 29 30 31 32 33
Vgl. Arentzen/Brockmann (Hrsg.) (1996), S. 673. Vgl. Arentzen/Brockmann (Hrsg.) (1996), S. 673; Krüsselberg (1993b), S. 1317. Vgl. Boelcke (1980), S. 32, S. 41. Vgl. Boelcke (1980), S. 32, S. 41. Vgl. Boelcke (1980), S. 32, S. 41. Vgl. Boelcke (1980), S. 32, S. 41. Vgl. Arentzen/Brockmann (Hrsg.) (1996), S. 673. Vgl. Krüsselberg (1993b), S. 1318. Vgl. Boelcke (1980), S. 32, S. 44.
Europa- und Wirtschaftsvölkerrecht als Motor globalen Fortschritts
425
wiederherzustellen.34 Im Neoliberalismus werden die Ordnungsabhängigkeit des Wirtschaftens und die Bedeutung privatwirtschaftlicher Initiative betont, der Staat soll den freien Wettbewerb aber vor Marktvermachtung schützen.35
2.2.3 Protektionismus und Freihandel Protektionismus und Freihandel spiegeln im Bereich des internationalen Handels die beiden gerade angesprochenen Grundpositionen wider. Genauso wie Merkantilismus und Liberalismus bedürfen Protektionismus und Freihandel Normen, die ihre Prinzipien in der Lebenswirklichkeit umsetzen. Unter Protektionismus versteht man allgemein eine Außenhandelspolitik, die staatliche Lenkungseingriffe wie Schutzzölle, Kontingente oder Ausgleichsprämien nutzt, um die inländische Wirtschaft gegen die ausländische Konkurrenz zu schützen.36 Oft wird durch den Schutz die Erhaltung nicht mehr konkurrenzfähiger Wirtschaftszweige oder der Aufbau noch nicht wettbewerbsfähiger Industrien bezweckt; sowohl tarifäre (z.B. Zölle) als auch nicht-tarifäre Handelshemmnisse (z.B. Subventionen, Kontingente) können einer protektionistischen Politik dienen.37 Der Gegensatz zu Protektionismus liegt im Freihandel, in dessen Reinform keinerlei staatliche Eingriffe stattfänden, durch die die internationalen Handelsströme zugunsten binnenwirtschaftlicher Ziele verzerrt würden.38 Der Freihandel hat seinen Ursprung in der klassisch-liberalen Wirtschaftstheorie und wurde als Gegenstück zu den merkantilistischen Regulierungen zunächst in bilateralen Verträgen verwirklicht, die bereits das Prinzip der Inländergleichbehandlung und Meistbegünstigungsklauseln enthielten.39 Das wichtigste Ziel der Freihandelslehre ist zudem nicht der Reichtum der Nationalstaaten, sondern das Wohl der Bürger: Je freier der Handel ist, desto besser können die Bürger ihren Wohlstand vermehren, desto reicher wird auch das Gemeinwesen.40 Adam Smith ging im Bereich des Außenhandels von der Annahme absoluter Kostenvorteile aus, wonach sich eine Volkswirtschaft auf die Produktion desjenigen Gutes spezialisieren muss, bei dem im Vergleich zu einem anderen Staat ein absoluter Kostenvorteil besteht.41 Smith bewies damit modellhaft die Vorteile der internationalen 34 35 36 37 38 39 40 41
Vgl. Boelcke (1980), S. 32, S. 44. Vgl. Arentzen/Brockmann (Hrsg.) (1996), S. 673 f. Vgl. Rittershofer (2005), S. 807 f.; Ohr (1993), S. 1744. Vgl. Ohr (1993), S. 1744. Vgl. Bender (1993), S. 162. Vgl. Göttsche (2005), § 4 Rn. 10, Rn. 12. Vgl. Göttsche (2005), § 4 Rn. 12. Vgl. Oeter (2005), § 2 Rn. 3.
426
Winfried Bausback / Franziska Schuierer
Arbeitsteilung, da so beide Staaten weniger Aufwand betreiben müssen als bei der Herstellung beider Güter für den eigenen Markt, was zu Wohlstandsgewinnen führt.42 Weitere Erkenntnisse für den grenzüberschreitenden Handel brachte die Kategorie der komparativen Kostenvorteile von David Ricardo. Danach ist die Spezialisierung einer Volkswirtschaft auch dann richtig, wenn sie hinsichtlich der Produktion beider Güter weniger effizient ist als das andere Land, solange sie sich auf die Produktion desjenigen Gutes verlegt, für das der Effizienzvorsprung des anderen Landes kleiner ist.43 Der Welthandel funktioniert dann am besten, wenn jede Volkswirtschaft die Waren erzeugt, für die die relativen Vorteile am größten sind, also eine Produktionsmaximierung unter optimaler Ressourcenallokation anstrebt.44 In der modernen Praxis haben sich vielfältige Zwischenformen etabliert. So bieten etwa Integrationsabkommen (Freihandelszone, Zollunion) einen Mittelweg zwischen Protektionismus und Freihandel, indem die Mitgliedstaaten einen Freihandelsraum schaffen, den Protektionismus gegenüber Drittstaaten jedoch nicht aufgeben müssen.45 Bestimmend für die Systeme sind die rechtlichen Regeln.
2.2.4 Recht der WTO Von besonderer Bedeutung ist heute das Recht der WTO. Nach der Präambel des WTO-Übereinkommens sind die Handels- und Wirtschaftsbeziehungen der Mitgliedstaaten „auf die Erhöhung des Lebensstandards, auf die Sicherung der Vollbeschäftigung und eines hohen und ständig steigenden Umfangs des Realeinkommens und der wirksamen Nachfrage sowie auf die Ausweitung der Produktion und des Handels mit Waren und Dienstleistungen gerichtet“46. Diese Ziele basieren auf der Erkenntnis, dass Wohlfahrtssteigerungen durch Handelsliberalisierung erreicht werden; deshalb stützt sich die WTO-Rechtsordnung zunächst auf die Freihandelstheorie.47 Obwohl eine liberale Handelspolitik nach dieser Theorie im Interesse aller Staaten liegen müsste, kommt es in der Praxis doch häufig zu protektionistischen Maßnahmen, die u.a. damit begründet werden, dass heimische Produkte geschützt oder gleiche Wettbewerbsbedingungen hergestellt werden müssten oder 42 43 44 45 46 47
Vgl. Oeter (2005), § 2 Rn. 3. Vgl. Oeter (2005), § 2 Rn. 3.; Göttsche (2005), § 4 Rn. 19. Vgl. Tietje (2003), Teil A II, Rn. 9. Vgl. Bender (1993), S. 162. Vgl. bei Tietje (2003), Teil A II, Rn. 8; der Text des WTO-Übereinkommens ist verfügbar unter http://www.wto.org/english/docs_e/legal_e/04-wto.pdf . Vgl. Tietje (2003), Teil A II, Rn. 8.
Europa- und Wirtschaftsvölkerrecht als Motor globalen Fortschritts
427
dass die Maßnahme durch eine ebenso protektionistische Handelspolitik eines anderen Staates hervorgerufen wurde.48 Oft sind protektionistische Maßnahmen das Ergebnis innenpolitischen Handlungsdrucks aufgrund individueller Wohlstandsverluste.49 Es entsteht daher ein Konflikt zwischen der Handelsliberalisierung und durch den Freihandel trotzdem verursachten individuellen Wohlstandseinbußen. Dies soll durch die Ordnungsfunktion des WTO-Rechts gelöst werden.50 Die WTO-Rechtsordnung soll solche Bedingungen schaffen, unter denen die spontane Ordnung des internationalen Handels entstehen kann; sie soll für Rechtssicherheit sorgen, da nur so wirtschaftspolitische Entscheidungen möglich werden, die nicht durch partikulare Einzelinteressen beeinflusst werden.51 Auch das Verhalten privater Wirtschaftssubjekte soll durch die WTO-Rechtsordnung gelenkt werden, da diese auf der Grundlage der durch das Regelwerk geschaffenen Rechtssicherheit ressourcenoptimal handeln können.52
3
Innovationssteuerung durch das Recht
Die außenwirtschaftlichen Regelungen wirken sich – genauso wie europarechtliche und völkerrechtliche Regelungen – auf die Möglichkeit von Innovationen aus. Wegen der wirtschaftlichen Interdependenz der Staaten ist eine klare Trennung von innerstaatlichem und internationalem Wirtschaftsrecht dabei kaum möglich; viele Vorschriften der WTO-Rechtsordnung beeinflussen den innerstaatlichen Bereich unmittelbar.53 Diesen Steuerungsverlust haben die Staaten bewusst zugunsten einer Deregulierung des Welthandels herbeigeführt.54 Jedoch hat das nationale Verfassungsrecht der Mitgliedstaaten immer noch entscheidende Bedeutung für die Entwicklung des Welthandelsrechts, da die nationalen Verfassungen die Bedingungen für völkerrechtliche Verpflichtungen festlegen. Die verfassungsrechtlichen Strukturen der Mitgliedstaaten beeinflussen die Ausgestaltung der internationalen Handelsordnung, während diese wiederum die nationalen Rechtsordnungen bindet; das durch diese Wechselwirkungen geschaffene Handelsrecht vereint völkerrechtliche und innerstaatliche Elemente.55 Verfassungsrechtliche Vorgaben spielen gerade bei der Innovationssteuerung eine große Rolle. Die Verpflichtung eines Staatswesens auf Demokratie, 48 49 50 51 52 53 54 55
Vgl. Tietje (2003), Teil A II Rn. 10; Oeter (2005), § 2 Rn. 32. Vgl. Tietje (2003), Teil A II Rn. 11. Vgl. Tietje (2003), Teil A II Rn. 13. Vgl. Tietje (2003), Teil A II Rn. 16 f. Vgl. Tietje (2003), Teil A II Rn. 20. Vgl. Tietje (2003), Teil A II Rn. 30 f. Vgl. Hörmann (2005), § 3 Rn. 1. Vgl. Hörmann (2005), § 3 Rn. 59.
428
Winfried Bausback / Franziska Schuierer
Rechts- und Sozialstaatlichkeit bewirkt, dass Innovation untrennbar mit Verantwortung verbunden ist.56 Das Innovationskonzept der Rechtswissenschaft ist schon vom Ansatz her komplexer als das der Wirtschaftswissenschaft. Die Rechtswissenschaft muss zusätzlich zur Erfassung des Prozesses der Neuerungen durch technischen, sozialen und wirtschaftlichen Wandel nach den normativen Maßstäben fragen und gleichzeitig deren Dynamik berücksichtigen.57 Rechtswissenschaftliche Innovationsforschung beinhaltet die Forschung zur Steuerungskraft des Rechts im Bereich von Innovationen; untersucht wird die Rolle des Rechts bei der Schaffung erwünschter Innovationen und bei der Beschränkung unerwünschter Innovationsfolgen.58 Die Innovationssteuerung ist damit sowohl verfahrens- als auch ergebnisorientiert, da sie die sozialen Folgen der Rechtsanwendung beachtet, d.h. die Folgen für das Verhalten einzelner, die Beherrschung von Risiken sowie die Vermeidung unerwünschter Nebenwirkungen. Innovationssteuerung impliziert die Annahme, dass sich Innovationen durch Recht, insbesondere durch öffentliches Recht steuern lassen. Die hoheitliche Anordnung von Innovationen führt jedoch selten zum Erfolg; innovative Lösungen entstehen vielmehr im Rahmen von Selbstorganisation und Entscheidungsspielräumen der Steuerungsadressaten.59 Innovationssteuerung soll daher die Suchprozesse nach Innovationen und ihre Implementierung ermöglichen sowie entstehende Nachteile beschränken; sie schafft einerseits (positiv) Rahmenbedingungen für Innovationen, andererseits dient sie (negativ) der Verarbeitung und Begrenzung belastender Folgen.60 Im öffentlichen Recht können alle Arten von Normen als Instrumente der Innovationssteuerung dienen: Internationales Wirtschaftsrecht, Europarecht, Grundgesetz, parlamentarische Gesetze, Verordnungen, Satzungen, Verwaltungsvorschriften und Verwaltungspraxis.61 Alle drei Staatsgewalten können beteiligt sein. So kann die Gesetzgebung z.B. durch steuerliche Vergünstigungen innovationsträchtige Bereiche indirekt subventionieren, Aufgaben bestimmen, die die Verwaltungspraxis zur Durchführung von Innovationen zwingt, oder sog. experimentelle Gesetze erlassen, d.h. solche Gesetze, die für die Gesetzesverwirklichung nur einen Rahmen vorschreiben und den Rest der Innovationsfähigkeit der Praxis überlassen.62 Bei der Verwaltung ist die Förderung von Forschungs- und Entwicklungsmaßnahmen durch Subventionen aus öffentlichen 56 57 58 59 60 61 62
Vgl. Hoffmann-Riem (1998), S. 17. Vgl. Hoffmann-Riem (1998), S. 19. Vgl. Hoffmann-Riem (1998), S. 20. Vgl. Schulze-Fielitz (1998), S. 291, S. 294. Vgl. Schulze-Fielitz (1998), S. 294 f. Vgl. Schulze-Fielitz (1998), S. 295. Vgl. Schulze-Fielitz (1998), S. 296 ff.
Europa- und Wirtschaftsvölkerrecht als Motor globalen Fortschritts
429
Haushalten das klassische Instrument der Innovationsförderung; auch bei der Ausgestaltung von Verwaltungsverträgen, bei Nebenbestimmungen zu Verwaltungsakten, bei der Ermessensausübung im Einzelfall und bei den Organisationsstrukturen der Verwaltung können innovationsfördernde Gesichtspunkte umgesetzt werden.63 Das europäische Gemeinschaftsrecht kann als maßgeblich für Innovation im europäischen Rechtsraum angesehen werden: Unter Innovationssteuerung im Europarecht versteht man „die rechtlich geordnete Lenkung der Modernisierung bestimmter Sachbereiche im Recht der einzelnen Mitgliedstaaten durch das Steuerungsmedium des Europarechts“64. Die Innovativfunktion des Europarechts hat ihren Ursprung in der Aufgabe der Binnenmarktverwirklichung, und – damit verbunden – in der Rechtsangleichung und Rechtsvereinheitlichung; da die Realisierung des europäischen Binnenmarktes Veränderungen in allen mitgliedstaatlichen Rechtssystemen erfordert, enthält schon der Gedanke der Europäisierung an sich einen innovativen Kern.65 Auch das Wirtschaftsvölkerrecht ist für Innovationen bedeutsam, hier besonders das Übereinkommen über handelsbezogene Aspekte der Rechte am geistigen Eigentum (TRIPS-Abkommen). Eines der Ziele des TRIPS ist die weltweite Verstärkung und Harmonisierung des Schutzes des geistigen Eigentums; durch den Schutz von Immaterialgüterrechten werden wirtschaftliche Anreize für Innovationen geschaffen, was den technologischen und kulturellen Fortschritt begünstigt und so der Allgemeinheit zugutekommt.66 Nach Art. 7 TRIPS soll durch den Schutz von geistigen Eigentumsrechten gleichzeitig die technische Innovation und die Verbreitung von Technologien gefördert werden. Hieran könnte jedoch problematisch sein, dass ein Patent zwar zur Innovation anreizt, die Fortentwicklung und breite Nutzung der Idee zunächst aber verhindert, was zu höheren Kosten und zum Verlust möglicher Wohlfahrtsgewinne führen kann.67
4
Regelungsdefizite und Innovation am Beispiel der Finanz- und Wirtschaftskrise
Wie sich fehlende Regelungsdichte im internationalen Bereich innovationshemmenden auswirken kann, macht die aktuelle Finanz- und Wirtschaftskrise deut63 64 65 66 67
Vgl. Schulze-Fielitz (1998), S. 299 ff. Brenner (1998), S. 351, S. 353, S. 356 f. Vgl. Brenner (1998), S. 358. Michaelis/Bender (2005), § 24 Rn. 4, Rn. 15. Vgl. Michaelis/Bender (2005), § 24 Rn. 4, Rn. 15.
430
Winfried Bausback / Franziska Schuierer
lich. Im Nachgang der Krise wird heftig diskutiert, warum das System von Basel II diese letztlich nicht verhindern konnte.
4.1 Rechtliche Qualität von Basel II Letztlich handelt es sich bei Basel II nicht um völkerrechtliches „hard law“, also nicht Normen mit bindendem Charakter im eigentlichen Sinne. Ausgearbeitet wurden die Vorgaben vom Baseler Ausschuss für Bankenaufsicht. Der Baseler Ausschuss für Bankenaufsicht ist bei der Bank für internationalen Zahlungsausgleich (BIZ) angesiedelt. Die BIZ ist eine Aktiengesellschaft schweizerischen Rechts mit Sitz in Basel; trotz ihres damit privatrechtlichen Charakters ist sie mit besonderem völkerrechtlichem Status (Sitzabkommen in der Schweiz) ausgestattet. Sie wird von den Zentralbanken vieler Länder getragen. Der Baseler Ausschuss für Bankenaufsicht ist ein informelles Zusammenwirken der Zentralbankgouverneure und der Präsidenten der Bankaufsichtsbehörden der G-10 sowie von Luxemburg und Spanien.68 Zur G-10 gehören Belgien, Deutschland, Frankreich, Großbritannien, Italien, Japan, Kanada, die Niederlande, Schweden, die USA und (als später hinzugekommenes 11. Mitglied) die Schweiz.69 Der Ausschuss verfasst Empfehlungen für internationale bankenaufsichtsrechtliche Standards. Die Beschlüsse werden einstimmig gefasst. Solche Empfehlungen sind grundsätzlich rechtlich unverbindlich, sog. „soft law“. Trotzdem werden sie weitgehend umgesetzt und eingehalten; sie wurden sogar von fast 100 weiteren Staaten übernommen, die nicht an den Beratungen teilgenommen hatten.70 Der Baseler Ausschuss für Bankenaufsicht hat zwei Vereinbarungen zur Kreditvergabe durch Banken ausgearbeitet, die Baseler Eigenkapitalvereinbarung von 1988 (Basel I) und die Baseler Eigenkapitalvereinbarung vom Juni 2004 (Basel II). Auch diese Vereinbarungen sind völkerrechtlich nicht bindend. Sie haben aber unmittelbaren Einfluss auf die Gesetzgebung der meisten Staaten und wurden in Richtlinien der EG übernommen. Basel II wurde durch die Bankenrichtlinie 2006/48/EG und die Kapitaladäquanzrichtlinie 2006/49/EG übernommen.71 In den USA wurde es nicht mit dem gleichen Nachdruck umgesetzt: Die für 2007 geplante Umsetzung wurde auf 2009 verschoben.72
68 69 70 71 72
Vgl. Herdegen (2008), § 13 Rn. 27 f. Vgl. Herdegen (2008), § 3 Rn. 51. Vgl. Jungmichel (2003), S. 1201. Vgl. Herdegen (2008), § 13 Rn 29 f. Vgl. Zeitler (2009), S. 24.
Europa- und Wirtschaftsvölkerrecht als Motor globalen Fortschritts
431
4.2 Zentrale Inhalte von Basel II Basel II beabsichtigt eine stärker risikoorientierte Eigenkapitalunterlegung und eine Verbesserung der Systeme und Prozesse in einem Kreditinstitut. Folgende Formel bestimmt danach die Risikobegrenzung durch Eigenkapitalunterlegung: [aufsichtsrechtliches Eigenkapital ÷ (gewichtete Risikoaktiva aus Kreditrisiken + 12,5 × (Marktrisikopositionen + operationelles Risiko))] 8% .73 Basel II sollte die Stabilität des internationalen Finanzsystems stärken und das Risiko von Gefährdungen des Systems minimieren.74 Es besteht aus drei Regelungsbereichen75: Die erste Säule stellen Mindestkapitalanforderungen dar. Maßgebend sind die individuelle Bonität und das Ausfallrisiko des Schuldners.76 Die Kreditinstitute müssen (wie schon unter Basel I) 8% der Risikoaktiva mit Eigenkapital unterlegen. Das Ausfallrisiko der vergebenen Kredite wird aber unter Basel II stärker berücksichtigt. Zuvor hatten Kreditnehmer grundsätzlich die gleiche Bonitätsgewichtung erhalten, egal wie hoch das Ausfallrisiko im konkreten Fall war. Die bonitätsstarken Schuldner haben daher die Kreditzinsen der bonitätsschwachen quersubventioniert. Unter Basel II wird jedem Kreditnehmer eine risikoadäquate und individuelle Bonität zugeordnet, was sich auf die Zinshöhe des Kredites auswirkt.77 Bei der Berechnung der Risikoaktiva für die Eigenkapitalunterlegung werden drei Risikoarten berücksichtigt: Kredit-, Markt- und operationelle Risiken. Kreditrisiken sind Risiken, dass der Kreditnehmer seine Zinsbzw. Tilgungsleistungen nicht erbringt; Marktrisiken sind solche, die aus Änderungen der Marktpreise resultieren; operationelle Risiken sind solche, die aus der Unangemessenheit oder dem Versagen von internen Prozessen oder von Personen resultieren.78 Die Bonität und das Ausfallrisiko eines Schuldners wird durch sog. Ratings bestimmt, die die Wahrscheinlichkeit der zeitgerechten und vollständigen Bezahlung von Zins- und Tilgungsverpflichtungen durch den Schuldner festlegen. Basel II stellt den Banken hierfür verschiedene Berechnungsansätze zur Auswahl.79 Säule 2 enthält Regeln für den bankaufsichtlicher Überprüfungsprozess. Sie beinhaltet interne und behördenaufsichtsrechtliche Verfahren zur Bestimmung der angemessenen Eigenkapitalausstattung. Durch Bankenaufsicht soll die Qualität der in den Kreditinstituten verwendeten Risikomessverfahren gesichert wer-
73 74 75 76 77 78 79
Vgl. Volkenner/Walter (2004), S. 1399. Vgl. Jungmichel (2003), S. 1201. Vgl. Volkenner/Walter (2004), S. 1400. Vgl. Herdegen (2008), § 13 Rn. 30. Vgl. Jungmichel (2003), S. 1202. Vgl. Volkenner/Walter (2004), S.1400. Vgl. Jungmichel (2003), S. 1202.
432
Winfried Bausback / Franziska Schuierer
den (qualitative Aufsicht).80 Für das aufsichtsrechtliche Überprüfungsverfahren werden vier Grundsätze aufgestellt:
Die Banken sollen geeignete Verfahren zur Bestimmung der angemessenen Eigenkapitalausstattung im Verhältnis zu ihren Risikoprofil und eine Strategie für den Erhalt ihres Eigenkapitalniveaus aufweisen. Diese bankinternen Maßnahmen werden von der Aufsicht überprüft und bewertet. Es soll gewährleistet sein, dass Banken immer eine höhere Eigenkapitalausstattung als das aufsichtsrechtlich geforderte Mindestkapital vorweisen; in den einzelnen Ländern kann auch eine höhere Eigenkapitalquote vorgeschrieben werden. Die Aufsicht muss frühzeitig eingreifen, um ein Absinken des Eigenkapitals unter die geforderte Mindestausstattung zu verhindern. 81
Dritte und letzte Säule ist eine erweiterte Offenlegung von Eigenkapitalstrukturen und eingegangenen Risiken. Die Veröffentlichung von diesbezüglichen Angaben soll Marktdisziplin schaffen und die Transparenz im Kreditgeschäft erhöhen. Die Markteilnehmer sollen die wirtschaftliche Situation durch die Offenlegung qualitativer und quantitativer Informationen zum Eigenkapital besser beurteilen können. Die relevanten Informationen werden der breiten Öffentlichkeit und damit auch den anderen Marktteilnehmern zugänglich gemacht. Folgende Angaben sind zu machen:
80 81 82
Die Bereiche von Basel II, die in dem Kreditinstitut Anwendung finden; Angaben zur Eigenkapitalstruktur, z.B. Zusammensetzung des Kernkapitals, Höhe des Ergänzungskapitals, angewendete Rechnungslegungsgrundsätze; Informationen zu eingegangenen Risiken, Kreditnehmerarten, Risikoklassen, internen Systemen; Angaben zur Eigenkapitalausstattung mit einer Aufschlüsselung in Eigenkapitalquoten und die Eigenkapitalunterlegung der verschiedenen Risikoarten.82
Vgl. Herdegen (2008),§ 13 Rn. 30; Volkenner/Walter (2004), S. 1400. Vgl. Jungmichel (2003), S. 1207. Vgl. Jungmichel (2003), S. 1207 f.
Europa- und Wirtschaftsvölkerrecht als Motor globalen Fortschritts
433
4.3 Umsetzungsmechanismen und prozyklische Wirkung Aufgrund der oben festgestellten rechtlichen Qualität von Basel II erfolgt die Umsetzung durch freiwillige Selbstverpflichtung. Soweit die Inhalte in EGRichtlinien umgesetzt wurden, sind die EG-Mitgliedstaaten daran gebunden. Schon bei Entstehung von Basel II wurde die Kritik vorgetragen, dass es prozyklische Auswirkungen habe, also die Konjunkturzyklen des Auf- und Abwärtstrends verstärke: In einer Wirtschaftskrise werden die Ratings von Unternehmen schlechter. Die Banken müssen die Kredite dann mit mehr Eigenkapital unterlegen, was die Kreditvergabekapazität im Bankensystem vermindert. Zusätzlich müssen die ohnehin geschwächten Unternehmen höhere Kreditzinsen bezahlen. Der Konjunkturabschwung kann so noch verstärkt werden.83 Das wegen Basel II obligatorische Rating-System kann dazu führen, dass kleinen und mittleren Unternehmen Kredite verweigert werden, weil das Risiko bei solchen Unternehmen als zu hoch eingestuft wird. So kam es, dass mittelständische Unternehmen nach akribischer Prüfung als nicht kreditwürdig eingeschätzt wurden, während bei milliardenschweren ausländischen Investment-Geschäften (die sich als „faul“ herausstellten) keine so genaue Risikoprüfung vorgenommen werden musste.84
4.4 Gründe für das Scheitern der Krisenprävention In der Nachbetrachtung der Wirtschaftskrise werden durchweg Regelungs- und Umsetzungsdefizite der Basel II-Bestimmungen als Gründe für das Scheitern der Krisenprävention genannt. Soweit ersichtlich, vertritt kein ernstzunehmender Beitrag die Ansicht, ohne Regelung hätte die Krise und damit auch die Innovationshemmung im Nachgang in der Wirtschaft vermieden werden können. Vielmehr stellen die Betrachtungen auf Defizite entweder der Durchsetzungsmechanismen oder der Inhalte ab. So wird teilweise argumentiert, eine frühere Umsetzung von Basel II in allen Jurisdiktionen hätte die Krise abgemildert. Basel II sei in Deutschland faktisch erst Anfang 2008 in Kraft getreten, in den USA gelten die Bedingungen bis heute nicht. Japan hat Basel II ein Jahr früher als Deutschland umgesetzt und habe damit gute Erfahrungen gemacht.85 Andere vertreten die Ansicht, Basel II sei im Hinblick auf die inhaltliche Ausgestaltung nicht ausreichend gewesen. Die Regulierung der Eigenkapitalaus83 84 85
Vgl. Jungmichel (2003), S. 1208; Volkenner/Walter (2004), S. 1404. Vgl. http://www.it-business.de/news/management/finanzierung/rating/articles/90802/ . Vgl. Zeitler (2009), S. 24.
434
Winfried Bausback / Franziska Schuierer
stattung alleine könne eine solche Krise nicht verhindern. Basel II schreibe nämlich ein Risikomanagementmodell vor, dessen Grundüberlegung davon ausgehe, dass eine gewisse Eigenkapitalausstattung im Verhältnis zu den Risiken ausreicht, um den Ausfall eines Instituts zu verhindern. Das Risiko verringere sich, je besser die Eigenmittelausstattung sei. Die jüngsten Krisen und Ausfälle von Banken lassen Zweifel aufkommen, wie weit Eigenkapitalanteile ein verlässliches Konzept gegen die Krise darstellen.86 Bei der Bewertung von Banken und Finanzinstituten bestehen nämlich zwei Besonderheiten: Es besteht zum einen ein starker Fokus auf dem Buchwert, der auch für das aufsichtsrechtliche System der Eigenkapitalausstattung eine zentrale Rolle spielt. Dabei ist die Ermittlung des Buchwerts aber problematisch: Der „klassische“ Buchwert wird mithilfe eines statistischen Ansatzes berechnet, stellt abgegrenzte, historische Anschaffungskosten dar, ist also auf die Vergangenheit gerichtet. Da dies oft nicht den wahren Wert widerspiegelt, wird die Bewertung des Buchwerts anhand dynamischer Kennzahlen und der Gewinn- und Verlustrechnung vorgenommen. So wird die Zukunft in die Bewertungen integriert; letztendlich sind die Buchwerte aber nur Erwartungen, es bestehen nicht mehr die Vorteile von Objektivität und Unabhängigkeit von Erwartungen und Annahmen. Ein großer Teil der Aktiva von Banken wird anhand letzterer Methode berechnet. In jüngster Zeit sind gerade diejenigen Banken, bei denen diese Bewertung einen besonderen Stellenwert eingenommen hat, besonders stark in die Krise geraten.87 Zum anderen haben Banken einen strukturell geringen Eigenkapitalanteil. Fehlbewertungen der Aktiva und Passiva wirken sich so wesentlich entscheidender im Eigenkapital aus als bei Unternehmen mit höheren Eigenkapitalanteilen.88 Nach einer weiteren Ansicht haben sich die Basel II Richtlinien als unzureichend herausgestellt, um die Banken vor der Bilanzkrise zu schützen. Danach wäre es ein besserer Ansatz, wenn Banken in wirtschaftlich erfolgreichen Zeiten Kapitalpolster ansammeln, die sie während der Krise verbrauchen könnten. Auch von dieser Seite wird deshalb eine Überarbeitung der Basel II Richtlinien gefordert.89
4.5 Innovationsschädliche Auswirkungen der Finanzkrise Nicht bestreitbar ist, dass die Finanz- und die in ihrem Zuge einsetzende Wirtschaftskrise innovationshemmende Auswirkungen hat. Eine Vielzahl von Unter86 87 88 89
Vgl. Wolfgring (2008), S. 846. Vgl. Wolfgring (2008), S. 846 f. Vgl. Wolfgring (2008), S. 847. Vgl. Altman (2009), S. 14; ähnlich: Bayne (2008), S. 11.
Europa- und Wirtschaftsvölkerrecht als Motor globalen Fortschritts
435
nehmen in Deutschland haben im Rahmen einer krisenbedingten radikalen Sparwelle ihr Entwicklungsausgaben drastisch reduziert. Somit wird aber die Finanzkrise auch zum Beleg dafür, dass mangelnde Regelungen im internationalen Wirtschafts- und Finanzrecht zu massiven Innovationshindernissen führen können. In der Reaktion sind Überlegungen zur Ergänzung des Systems der Bankenaufsicht notwendig, das im Hinblick auf die internationalen Strukturen sinnvoll nur als Mehrebenensystem ausgestaltet sein kann. Die Voraussetzungen für die Niederlassung von Banken und die Zulassung von Bankgeschäften sind in den Staaten unterschiedlich streng geregelt. Auf internationaler Ebene besteht ein Koordinierungsbedarf.90 Da das Bankgeschäft sowohl im Kapital- und Firmenkundengeschäft als auch im Privatkundengeschäft immer globaler wird, muss die Aufsicht dem Markt in dieser Hinsicht folgen.91 In der Europäischen Gemeinschaft wurde schon in der Vergangenheit eine weitgehende, aber nicht vollständige Harmonisierung des Rechts der Bankenaufsicht erreicht. Die Bankenrichtlinie 2006/48/EG ist zentral für die Verwirklichung von Niederlassungs- und Dienstleistungsfreiheit. Danach besteht das Erfordernis einer einmaligen Zulassung von Kreditinstituten durch die Aufsichtsbehörden desjenigen Mitgliedstaates, in dem das Kreditinstitut seinen Sitz hat (Art. 6 ff. der Richtlinie). Kreditinstitute, die in einem Mitgliedstaat zugelassen sind, können in jedem anderen Mitgliedstaat Bankgeschäfte durchführen (Art. 23 ff.). Grundsätzlich werden alle Bankgeschäfte des Instituts in der gesamten Gemeinschaft durch den Sitzstaat kontrolliert (Art. 40). Auch die finanzielle Solidität wird von den Aufsichtsbehörden des Herkunftslandes überwacht. Den Behörden des Aufnahmemitgliedstaates verbleiben bestimmte konkurrierende Aufsichtsbefugnisse.92 In anderen Bereichen sind jedoch auch innerhalb der EU unterschiedliche Vorschriften zu beachten; so z.B. im Liquiditätsrisikomanagement. Auch in harmonisierten Rechtsgebieten, wie z.B. der Eigenkapitalunterlegung, kann die Auslegung und Anwendung des Gemeinschaftsrechts zwischen den Mitgliedstaaten auseinanderlaufen, was für die Betroffenen Mehrkosten verursacht.93 Um den durch abweichende Vorschriften verursachten Mehraufwand zu vermeiden, müsste die Harmonisierung des Bankaufsichtsrechts europaweit und international vorangetrieben werden und die Aufsichtsbehörden müssten intensiver miteinander kooperieren.94 90 91 92 93 94
Vgl. Herdegen (2008), § 13 Rn. 26. Vgl. Weber (2009), S. 36. Vgl. Herdegen (2008), § 13 Rn. 32. Vgl. Weber (2009), S. 36. Vgl. Weber (2009), S. 36.
436
Winfried Bausback / Franziska Schuierer
Mit dem Committee of European Banking Supervisors (CEBS) besteht bereits ein Forum für die Verbesserung der Zusammenarbeit von Aufsichtsbehörden.95 Ein wegweisendes Modell ist das des „Lead Supervisor“, das die Aufsicht von der Solo- auf die Gruppenebene verlagert und das Prinzip der Heimatlandkontrolle auf rechtlich selbstständige Tochtergesellschaften im Ausland anwendet.96 Diese Richtung wird auch von der verabschiedeten, noch nicht veröffentlichten, Richtlinie zur Änderung der Richtlinien 2006/48/EG und 2006/49/EG eingeschlagen. Danach werden die Befugnisse der Aufsichtsbehörden gestärkt und sog. Aufsichtskollegien (Colleges of Supervisors) eingerichtet, die die Beaufsichtigung grenzübergreifender Bankengruppen wirksamer machen sollen.97 Hieraus sollte sich schließlich ein europäisches System der Aufsichtsbehörden entwickeln, einschließlich einer paneuropäischen Aufsichtsbehörde, die die europaweit tätigen Bankengruppen beaufsichtigen würde. Eine von der EUKommission eingesetzte Expertengruppe (Larosière-Gruppe) befasst sich mit den notwendigen Schritten zur Verbesserung der europäischen Aufsichtsstruktur.98 Auf nationaler deutscher Ebene sind die Zuständigkeiten für die Bankaufsicht auf die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) und die Deutsche Bundesbank verteilt. Es ist umstritten, ob wegen dieser Zweigleisigkeit zu spät in den Finanzmarkt eingegriffen wurde. Kritiker der Zweigleisigkeit fordern eine Bankaufsicht aus einer Hand, allein durch die BaFin, durch die Bundesbank oder durch eine neue Behörde.99
5
Zusammenfassung
Letztlich zeigt gerade das Beispiel der Finanzkrise, wie bedeutsam für Innovation der rechtliche Rahmen auf allen Ebenen vom nationalen Recht über das Europarecht bis hin zum Internationalen Wirtschaftsrecht ist. Klar ist, dass Rechtsnormen allein keine Innovationen in der Wirtschaft herbeiführen können; dazu ist immer die wirtschaftliche Initiative der am Wettbewerb Beteiligten erforderlich. Rechtliche Regelungen können – wenn sie entsprechend gestaltet sind – 95 96 97
98 99
Vgl. Weber (2009), S. 36. Vgl. Weber (2009), S. 37. Vgl. den Vorschlag der Kommission für die Richtlinie zur Änderung der Richtlinien 2006/48/EG und 2006/49/EG hinsichtlich Zentralorganisationen zugeordneter Banken, bestimmter Eigenmittelbestandteile, Großkredite, Aufsichtsregelungen und Krisenmanagement, S. 10, verfügbar unter http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=COM:2008: 0602:FIN:DE:PDF . Vgl. Weber (2009), S. 37. Vgl. Häde (2009), S. 64.
Europa- und Wirtschaftsvölkerrecht als Motor globalen Fortschritts
437
aber Innovationen entscheidend fördern. Und: Fehlende Regelungen oder Überregulierungen andererseits können Innovationsprozesse schwächen und im schlimmsten Fall zerstören. Dieser Bedeutung der rechtlichen Regelungen müssen sich die Normgeber auf allen Ebenen bewusst sein. Die Untersuchung der Normstrukturen auf ihre Innovationswirkung hin ist dabei eine Aufgabe, der sich die rechtswissenschaftliche Forschung verstärkt annehmen sollte.
Literatur Albers, Willi/u.a. (Hrsg.) (1980): Handwörterbuch der Wirtschaftswissenschaft, 5. Band, Stuttgart 1980. Alisch, Katrin/Arentzen, Ute/Winter, Eggert (Hrsg.) (2004): Gabler Wirtschaftslexikon, 16. Auflage, Wiesbaden 2004. Altman, Roger C. (2009): The Great Crash, 2008, A Geopolitical Setback for the West, in: Foreign Affairs, January/February 2009, S. 2 ff. Arentzen, Ute/Brockmann, Heiner (Hrsg.) (1996): Gabler Volkswirtschaftslexikon, Band 2, Wiesbaden 1996. Bayne, Nicholas (2008): Financial Diplomacy and the Credit Crunch: The Rise of Central Banks, in: Journal of International Affairs, Fall/Winter 2008, S. 1 ff. Bender, Dieter (1993): Außenhandelspolitik, in: Dichtl/Issing (Hrsg.) (1993a), S. 162. Blaich, Fritz (1980): Merkantilismus, in: Albers/u.a. (Hrsg.) (1980), S. 240-251. Boelcke, Willi Alfred (1980): Liberalismus, in: Albers/u.a. (Hrsg.) (1980), S. 32-47. Brenner, Michael (1998): Innovationssteuerung im Europarecht, in: Hoffmann-Riem/ Schneider (Hrsg.) (1998), S. 351-386. Brockhoff, Klaus (1993): Innovation, in: Dichtl/Issing (Hrsg.) (1993a), S. 994. Dichtl, Erwin/Issing, Otmar (Hrsg.) (1993a): Vahlens Großes Wirtschaftslexikon, Band 1, 2. Auflage, München 1993. Dichtl, Erwin/Issing, Otmar (Hrsg.) (1993b): Vahlens Großes Wirtschaftslexikon, Band 2, 2. Auflage, München 1993. Göttsche, Götz (2005): § 4. Historische Entwicklung, in: Hilf/Oeter (2005), S. 59-76. Grewe, Wilhelm (Hrsg.) (1988): Fontes Historiae Iuris Gentium. Band 2 (1493 - 1815), Berlin, New York 1988. Häde, Ulrich (2009): Bankenaufsicht aus einer Hand? – Rechtsfragen einer Neuordnung, in: Zeitschrift für das gesamte Kreditwesen, Heft 2/2009, S. 64 ff. Herdegen, Michael (2008): Internationales Wirtschaftsrecht, 7. Auflage, München 2008. Hilf, Meinhard/Oeter, Stefan (Hrsg.) (2005): WTO-Recht. Rechtsordnung des Welthandels, Baden-Baden 2005. Hörmann, Saskia (2005): § 3. Verfassungsrechtliche Grundlagen des internationalen Handelsrechts, in: Hilf/Oeter (2005), S. 37-58. Hoffmann-Riem, Wolfgang/Schneider, Jens-Peter (Hrsg.) (1998): Rechtswissenschaftliche Innovationsforschung. Grundlagen, Forschungsansätze, Forschungsfelder, Baden-Baden 1998.
438
Winfried Bausback / Franziska Schuierer
Hoffmann-Riem, Wolfgang (1998): Vorüberlegungen zur rechtswissenschaftlichen Innovationsforschung, in: Hoffmann-Riem/Schneider (Hrsg.) (1998), S. 11-39. Jungmichel, Tim (2003), Basel II und die möglichen Folgen, in: WM 2003, S. 1201 ff. Koubek, Norbert (1989): Die Veränderung der Unternehmenspolitik bei Innovationen, in: Arbeitspapier Nr. 100 des FB Wirtschaftswissenschaft, Wuppertal 1989, S. 199-208. Koubek, Norbert/Ostermann, Rainer/Skalec, Peter (1991): Langfristige Innovationsstrategien und Mitbestimmung in Unternehmen bei neuen Werkstoffen, Frankfurt a.M. u.a. 1991. Krüsselberg, Hans Günter (1993a): Merkantilismus, in: Dichtl/Issing (Hrsg.) (1993b), S. 1446-1447. Krüsselberg, Hans Günter (1993b): Liberalismus, in: Dichtl/Issing (Hrsg.) (1993b), S. 1317-1318. Lindenmeyer, Bernd (1975): Schiffsembargo und Handelsembargo, Baden-Baden 1975. Michaelis, Martin/Bender, Dieter (2005): § 24. Handelsrelevante Aspekte des geistigen Eigentum (TRIPS), in: Hilf/Oeter (2005), S. 435-466. Prieß, Hans-Joachim/Berrisch, Georg M. (Hrsg.) (2003): WTO-Handbuch, München 2003. Oeter, Stefan (2005): § 2. Ökonomische Grundlagen des Weltwirtschaftsrechts, in: Hilf/Oeter (2005), S. 21-35. Ohr, Renate (1993): Protektionismus, in: Dichtl/Issing (Hrsg.) (1993b), S. 1744-1745. Rittershofer, Werner (2005): Wirtschafts-Lexikon, 3. Auflage, München 2005. Schulze-Fielitz, Helmuth (1998): Instrumente der Innovationssteuerung durch Öffentliches Recht – insbesondere Umweltrecht, in: Hoffmann-Riem/Schneider (Hrsg.) (1998), S. 291-329. Thukydides (1991): Geschichte des Peleponesischen Krieges. Buch I: In einer Übersetzung von Landmann, Georg Peter (1991), München 1991. Tietje, Christian (2003): Grundlagen und Perspektiven der WTO-Rechtsordnung, in: Prieß/Berrisch (Hrsg.) (2003), S. 17-37. Volkenner, Thomas/Walter, Karl-Friedrich (2004): Die Endfassung der Neuen Baseler Eigenkapitalvereinbarung (Basel II), in: DStR 2004, S. 1399 ff. Weber, Manfred (2009): Lehren der Finanzmarktkrise: Die Aufsicht internationalisieren und stärken, in: Zeitschrift für das gesamte Kreditwesen (2009), S. 36 ff. Wolfgring, Alexander (2008): Was ist Eigenkapital der Banken in der Krise eigentlich wert?, in: Zeitschrift für das gesamte Bank- und Börsenwesen (2008), S. 846 ff. Zeitler, Franz-Christoph (2009): Eigenkapitalforderungen an deutsche Banken – Worauf kann die Aufsicht achten?, in: Zeitschrift für das gesamte Kreditwesen (2009), S. 23 ff.
Die „Trihotel“-Entscheidung des BGH – Eröffnung neuer Haftungsstatute bei Fällen mit Auslandsbezug? Claus Ahrens
1
Überlegungen zur Durchgriffshaftung
Seit Entstehung von Gesellschaften, welche gleichsam schutzschirmartig ihre Gesellschafter vor ihren eigenen Verbindlichkeiten schützen, wie dies bei juristischen Personen der Fall ist,1 konnten Fragen nicht ausbleiben, ob bzw. wann dieses Prinzip an seine Grenzen stößt.2 Gefragt wurde also nach Fällen, in welchen ungeachtet etwa eines „GmbH-Haftungsschirms“ ausnahmsweise doch einmal auch eine Gesellschafterhaftung selbst in Frage käme. Dem könnte so sein, wenn die Gesellschaft von den Gesellschaftern schuldhaft geschädigt wird3 oder wenn die Gesellschaft dermaßen unterkapitalisiert ist, dass sie ihren gesellschaftsspezifischen Zweck, namentlich den Unternehmensbetrieb, vielleicht sogar von vornherein gar nicht in der Lage ist, überhaupt zu erfüllen.4 Wie im1
2 3
4
Vgl. zu der Funktion der juristischen Person als Institut des Ausschlusses der Haftung ihrer Teilhaber Ahrens (2008), Rdn. 208 mit Fußn. 3; zu der juristischen Person an sich s. Schmidt (2002), § 8.II.; vgl. auch BGH NJW 1970, 2015: BGH NZG 2008, 672 – Kolpingwerk; insoweit anders noch die Vorinstanz OLG Dresden NJOZ 2006, 1425; s. dazu v. Hippel (2006), S. 537 ff. S.a. den Überblick bei Heidinger, A. (2005), S. 97 ff. (dort freilich noch mit Darstellungen vor „Trihotel“). Es sind dies die Fälle, welche nachfolgend die zentrale Rolle spielen werden. Zu der hier der Vollständigkeit halber erwähnten Fallgruppe der Vermögensvermengung s. BGHZ 68, 315; BGHZ 125, 368; BGHZ 165, 85. Sie haben mit den hier interessierenden Fallvarianten gemein, dass durch die nicht hinreichende Trennung des Vermögens der juristischen Person und ihrer Teilhaber erstere letztlich ebenfalls negiert wird. S. dazu nun auch OLG Düsseldorf NZG 2007, 388; hiergegen jedoch schlussendlich BGH NJW 2008, 2437 – Gamma, dazu Veil (2008), S. 3264 ff.; umfassend dazu auch Schmidt (2002), § 9.IV.; s.a. Zimmer (2005), S. 3588; s. aber auch noch BGH NJW 1970, 2015.
440
Claus Ahrens
mer dem auch sei, diese Schutzwürdigkeitsüberlegungen stoßen schnell an Grenzen. Das Trennungsprinzip, welches die Juristische Person statuiert,5 steht dem weitgehend entgegen. Vor allem eine Unterkapitalisierung der Gesellschaft an sich kann angesichts des ohnehin äußerst begrenzten Stammkapitalaufbringungsgebots (§ 5 Abs. 1 GmbHG, s. für die Kapitalerhaltung §§ 30 f. GmbHG, s.a. § 43 Abs. 2 GmbHG) als solche ohnehin keine daneben herlaufende Gesellschafterhaftung begründen.6 Die seit Inkrafttreten des MoMiG (Gesetz zur Modernisierung des GmbH-Rechts und zur Bekämpfung von Missbräuchen, seit 1.11.2008)7 bestehende Option einer haftungsbeschränkten Unternehmergesellschaft (§ 5 a GmbHG) verstärkt diese Argumentation nur noch.
2
Die Entwicklung der Existenzvernichtungshaftung – Konzernhaftung – gesellschafterliche Außenhaftung – deliktische Innenhaftung
Missbrauchsfälle haftungsbegründender Art sind also selten, weil sie häufig an den gesellschaftsrechtlichen Grundstrukturen scheitern. Sie mussten also eine besondere Qualität aufweisen, welche sie im Einzelfall über alle anderen „üblichen“ Missbrauchsfälle erhebt. Zunächst wurden Lösungsansätze im Konzernrecht (vgl. § 18 AktG) gefunden – dies in Gestalt des sog. qualifiziert faktischen Konzerns,8 welcher dann vorliegt, wenn eine konzernzugehörige Gesellschaft von dem Konzernmutterunternehmen bzw. dessen Träger faktisch als unselbständige Betriebsabteilung geführt wird. Wurde anlässlich dieser völligen Unselbständigkeit diese Gesellschaft derart nachhaltig und permanent geschädigt, dass es nicht mehr um einzelne und individualisierbare Schäden geht, lag ein solcher Konzern vor. Um dies an einem Beispiel zu verdeutlichen: widerrechtliche Entnahmen von Kapital als solche führen zu bezifferbaren Rückforderungsansprüchen, Auslagerungen höchst riskanter Derivatgeschäfte auf eine Konzerngesellschaft, welche von Anfang an auf das „Verluste-Machen“ angelegt ist, nicht. In diesem letzten Fall ging man lange von einem qualifiziert faktischen Konzern vor, dessen Rechtswirkungen sich darin äußerten, dass der beherrschende Konzernunternehmer selbst persönlich und unabhängig für die Schulden der beherrschten Gesellschaft 5 6 7 8
Fußn. 1. Schwarz/Schöpflin, in: Bamberger/Roth, § 21 Rdn. 23. Dazu auch BT-Drucks. 16/6140; s.a. Hirte (2008), S. 761 ff. S. dazu umfassend Hüffer (2008), § 1 Rdn. 22 ff. m.w.N.; s.a. Noack (2007), 240726; vgl. ferner LG Köln vom 7.1.2008 – II ZR 314/05, BeckRS 07 19688 sub. 2.2.1.; aus der höchstrichterlichen Rechtsprechung BGHZ 95, 330 – Autokran, BGHZ 107, 17 – Tiefbau; BGHZ 115, 187 – Video; BGHZ 122, 123 – TBB, s. hierzu auch den Überblick bei Goette (2002), S. 1066.
Eröffnung neuer Haftungsstatute bei Fällen mit Auslandsbezug?
441
haftete. Rückblickend verwundert dieses konzernrechtliche Lösungsmodell eigentlich nicht, denn es enthebt doch von der Auseinandersetzung mit gesellschaftsrechtlich-dogmatischen Hürden. Dem stehen jedoch erhebliche Unschärfen hinsichtlich der Tatbestandserfüllung gegenüber. Genau genommen lief nämlich jede einigermaßen ausgebaute Gesellschaftsbeteiligung Gefahr, in einen Konzern zu münden (s. nur § 16 AktG). Damit war zugleich die Gefahr, einen qualifiziert faktischen Konzern zu begründen, erheblich größer als man es unter üblichen Konzernvorstellungen annehmen konnte. So nahm es nicht wunder, dass für nachhaltige Missbrauchsfälle von der Rechtsprechung letztlich doch wieder eine Umkehr zu gesellschaftsrechtlichen Lösungsmodellen erfolgte. Dies äußerte sich in der sog. Existenzvernichtungshaftung, 9 welche darin bestand, dass eine Haftung der Gesellschafter für ihre Gesellschaft für nachhaltige Schädigungen derselben Art doch wieder angenommen wurde. Die einleitend genannten dogmatischen Probleme versuchte der BGH dadurch zu umgehen, dass er diese Außenhaftung dem gesetzlichen Stammkapitalschutz (§ 30 GmbHG) gegenüber für nachrangig erklärte. Wo letzterer ausreichte, kam die Existenzvernichtungshaftung nicht in Betracht. Nach wie vor umstritten war die dogmatische Begründung, welche wohl am ehesten in gesellschaftsstrukturellen Modellen zu finden gewesen wäre (etwa, dass eine juristische Person als Schutzschirm gegen Gesellschaftsgläubiger dann nicht mehr funktionieren kann, wenn diese von ihren Anteilsinhabern selbst wirtschaftlich vernichtet wird, dem verwandt der Missbrauchseinwand nach § 242 BGB, auch § 826 BGB unter dem Gesichtspunkt der Gläubigerbenachteiligung, also mit einem deliktischen Schutz Dritter – hiermit hätte man das gesellschaftsrechtlich-dogmatische System zumindest vordergründig gar nicht berührt). Es war das Begründungsproblem, welches den BGH in der im Titel genannten „Trihotel“-Entscheidung zu einer neuerlichen Kehrtwende bemüßigte.10 Man kehrte gleichsam zu den Wurzeln des Zivilrechts zurück und stützte die Haftung nun voll und ganz auf § 826 BGB. Das führte nun zu einer Haftung der Gesellschafter nicht mehr gegenüber den Gesellschaftsgläubigern, sondern gegenüber 9
10
BGHZ 149, 10 – Bremer Vulkan; BGHZ 150, 61; BGHZ 151, 181 – KBV; BGH NJW 2002, 1803 – Kosmetik Vertriebs GmbH; BGH NJW-RR 2005, 335 – Autovertragshändler; BGH NZG 2005, 314 – Handelsvertreter; zu dem Streit, ob damit der qualifiziert faktische Konzern endgültig Geschichte ist, s. aber auch Altmeppen (2002), S. 321 ff. gegen Schmidt (2001), S. 3577 ff.; dafür auch Hoffmann (2002), S. 68 ff. BGH NJW 2007, 2689; fortgeführt in BGH NZG 2009, 545 – Sanitary (für Liquidationsgesellschaften); vgl. auch BGH NZG 2008, 597 sowie BGH DStR 2008, 887; s. zu „Trihotel“ auch Altmeppen (2007), S. 2657 ff.; Veil (2008), S. 3266 f.; Schanze (2007), S. 681 ff.; Kleindieck (2008), S. 687; Noack BOLMK 2007, 240726; Weller ZIP 2007, 1681 ff. sowie (2007a), S. 1166 ff.; Vetter (2007), S. 1965 ff.; Theiselmann (2007), S. 904; Heitsch (2007), S. 961; Gloger/Goette/van Huet (2008), S. 1141 ff.; s.a. die Zusammenfassung bei Kölbl (2009), S. 1194 ff.
442
Claus Ahrens
der Gesellschaft, dies ansonsten nach wie vor unbeschränkt und persönlich. Aufgegeben wurde die Nachrangigkeit, die Subsidiarität gegenüber den Stammkapitalerhaltungsregeln. Die sittenwidrige Schädigung i.S.v. § 826 BGB war letztlich dieselbe wie ehedem, sie bestand in der nachhaltigen Gesellschaftsschädigung derart, dass die Gesellschaft auf lange Sicht nicht in der Lage sein konnte, ihre Verbindlichkeiten gegenüber Gläubigern zu tilgen. Dies muss laut § 826 BGB vorsätzlich geschehen, so dass dieses subjektive Willens- und Wollenelement (wozu auch das billigende Inkaufnehmen gehört – dolus eventualis) auch den Schaden der Gesellschaft umfassen muss. Spätestens damit wird verhindert, dass nicht jeder Missbrauchsfall zu einer Existenzvernichtungshaftung (nun im Innenverhältnis) führt. Endgültig ad acta gelegt ist der qualifiziert faktische Konzern, jedenfalls für Fälle gesellschaftsvernichtender Verlustzuweisungen wie vor allem übermäßiger Vermögensentnahmen. Spätestens im Insolvenzfall würden Ansprüche auch der Gesellschaft gegenüber dem Gesellschafter realisiert werden können (und müssen, will der Insolvenzverwalter nicht selbst einen Haftungsfall auslösen). Bis dahin droht immerhin dem Grunde nach die Gefahr der Pfändung und Überweisung derartiger Haftungsansprüche an Gesellschaftsgläubiger anlässlich einer Singularvollstreckung. Die Situation ist derjenigen einer KG nicht unähnlich (vgl. nur § 171 Abs. 2 HGB).
3
Internationale Optionen? – Zugleich ein Überblick über die europäische Rechtsentwicklung
Haftungsrisiken stehen also im Raum. Das verleitet zu Alternativen, welche gegebenenfalls günstiger erscheinen. Neue Wege könnten sich anbieten, um nicht gar zu sagen: innovative. Die nationale Rechtsordnung gibt dazu nichts her, also sollten Gesellschaften fremder Rechte in Betracht gezogen werden. Hier könnte das Haftungsregime unter Umständen einfacher sein. Das ist der internationale Aspekt. Spätestens jetzt finden die in dem Titel der Festschrift genannten Schlagworte zusammen. Die zugrunde liegenden Sachverhalte weisen zwingend einen grenzüberschreitenden Aspekt auf und damit einen Bezug zu dem Recht wenigstens eines anderen Staates. Wer zur Vermeidung einer GmbH-Existenzvernichtungshaftung eine fremdländische Gesellschaftsform wählt, um ein Unternehmen zu betreiben, legt es darauf an, den Gründungsstaat und den Sitzstaat (d.h. den Staat, in welchem die Gesellschaft ihr Unternehmen betreibt) auseinanderfallen zu lassen. Bei derartigen Sachverhalten ist nach dem anwendbaren Recht zu fragen. Gilt für eine Gesellschaft wie eben beschrieben überhaupt noch deren Heimat-
Eröffnung neuer Haftungsstatute bei Fällen mit Auslandsbezug?
443
recht? Diese Frage beantwortet das sog. Internationale Privatrecht, dessen Terminologie übrigens falscher nicht sein kann:11 Erstens geht es nicht um internationales Recht, sondern nationales Recht – oder mittlerweile auch europäisches, dann aber supranationales Recht und kein internationales -, zweitens geht es nicht um Privatrecht, sondern darum, welches Privatrecht auf den fraglichen Sachverhalt Anwendung (nur dieser ist international) findet. Die Unterdisziplin hierzu ist u.a. das Internationale Gesellschaftsrecht. Hierzu existieren weitgehend ungeschriebene Grundsätze, welche sich in der Sitztheorie und der Gründungstheorie grundsätzlich manifestiert haben.12 Beide stellen sog. Sachnormverweise dar,13 d.h. hat man nach ihnen das anwendbare Recht ermittelt, so ist dieses sogleich das einschlägige Gesellschaftsstatut, ohne dass die gefundene Rechtsordnung eine nach ihren Statuten geltende international-privatrechtliche Prüfung (u.U. mit Rück- oder sonstigen Verweisungen) verlangt. Streng und globalisierungsfeindlich ist die Sitztheorie.14 Sie unterwirft die Gesellschaft dem Recht des Staates, in welchem die Gesellschaft ihren effektiven Sitz hat. Damit ist die Gesellschaft regelmäßig auf ihr Staatsgebiet reduziert. Die Gesellschaftsstatute unterscheiden sich von Staat zu Staat, so dass eine Gesellschaft nach einem Recht nach demjenigen eines anderen Staates kaum fortbestehen könnte. Die Folgen sind verheerend und reichen vom Verlust der Rechtsfähigkeit über unbeschränkte Haftungen bis konsequent dahin, dass eine Gesellschaft nach fremdem Recht keinerlei eigene Rechte mehr geltend machen kann. An sich systemwidrig lässt sie sich oftmals noch selbst verklagen (für Deutschland vgl. insoweit § 50 Abs. 2 ZPO analog), d.h. sie kann nicht Gläubiger, aber Schuldner sein. Die strategische Schlussfolgerung kann nur sein, dass die auf ihren Bestand in ihrer originären Gestalt bedachte Gesellschaft ihren effektiven Sitz in dem Staat hält, welchem sie ihre Entstehung verlangt. Zweigniederlassungen, Tochtergesellschaften und Konzernstrategien bieten sich alternativ an. An dem beschränkenden Charakter der Sitztheorie ändert das nichts. Man kommt nicht umhin, in den Alternativstrategien bloße Behelfskonstruktionen zu erblicken. Dem steht die Gründungstheorie gegenüber, welche einen gänzlich anderen Geist atmet. Sie unterwirft die Gesellschaft einzig und allein ihrem Gründungsrecht. Auf den Sitz kommt es überhaupt nicht an. Somit können hier Gründungsund Sitzort auseinanderfallen, ohne dass die Gesellschaft hiervon betroffen wird. 11 12 13 14
Ahrens (2008), Rdn. 5. S.a. den Überblick bei Ahrens (2008), Rdn. 211 ff. Schwarz (2000), Rdn. 157 ff. S. dazu vor allem die seinerzeitige Rechtsprechung, BGH DB 2000, 967 ff.; BGHZ 53, 183; BGH ZIP 1991, 1582; s.a. Ahrens (2003), S. 32.
444
Claus Ahrens
Die Rechtslage in Europa ist derzeit zwiegespalten. Grundsätzlich gilt, soweit die Niederlassungsfreiheit reicht (Art. 48, 43 EGV bzw. nach Lissabonner Fassung Art. 54, 49 AEUV), die Gründungstheorie.15 Das liegt nahe, denn die Sitztheorie mit ihren Beschränkungen kann vor dieser Grundfreiheit nicht standhalten. Allerdings soll das nach EuGH nicht für Wegzugsfälle für den Wegzugsstaat gelten,16 d.h. für solche, in denen es darum geht, ob der Staat, in welchem das Unternehmen belegen ist, dessen Verlagerung akzeptieren muss oder ob er die Gesellschaft beschränken oder in diesem Fall sogar der Sitztheorie unterwerfen und sie damit aus seiner Sicht zum Erlöschen bringen kann17 – der Zuzugsstaat hat die Gesellschaft hingegen stets so zu akzeptieren, wie sie im Gründungsstaat bis zum Wegzug bestand (und weiter fortbesteht, Mängel erzeugt durch den Wegzug ausgenommen). Die Niederlassungsfreiheit wird einschränkend als Diskriminierungsverbot Fremder verstanden, nicht aber als Garantie für „eigene“ Unternehmer.18 Das ist bedauerlich und abzulehnen – die Art. 48, 43 EGV (Art. 54, 49 AEUV) verlangen eine solche Einschränkung nicht –, aber zurzeit hinzunehmen. Immerhin ist kein EU-Staat verpflichtet, die Sitztheorie in Wegzugsfällen auf seine eigenen Gesellschaften anzuwenden. Ansonsten bieten sich auch hier wiederum Alternativen an wie eine grenzüberschreitende Verschmelzung auf eine Gesellschaft fremden Rechts19 oder die Inanspruchnahme einer europäi15
16
17
18 19
EuGH NJW 2002,3641 – Überseering; zur Überseering-Entscheidung s. aus dem reichhaltigen Schrifttum (damals noch mit unterschiedlichen Interpretationen) Leible (2002), S. 927 ff.; Leible/Hoffmann (2003), S. 925 ff.; Kallmeyer (2002), S. 2521 ff.; Schulz/Sester (2002), S. 545 ff.; Ebke (2003), 927 ff.; Kindler (2003), S. 1073 ff.; Ahrens (2003), S. 35 ff.; Lutter (2003), S. 7 ff.; Geyrhalter/Gänßler (2003), S. 409 ff.; aus der Wende in der deutschen Rspr. s. zunächst noch BGH BB 2002, 2031 f., dazu etwa Wertenbruch (2003), S. 618 f.; Henze (2003), S. 2164 ff.; dann aber BGH ZIP 2003, 718; s. weiterhin EuGH NJW 1999, 2027 – Centros; EuGH NJW 2003, 3331 – Inspire Art. Dazu schon EuGH NJW 1989, 2186 – Daily Mail; nun fortgeführt in EuGH NJW 2009, 569 – Cartesio; anders der Generalanwalt in seinem Schlussantrag, NZG 2008, 498; dazu auch Behme/Nohlen (2008), S. 496; Grohmann/Gruschinske (2008), S. 463; zu der Entscheidung des EuGH s. etwa Frobenius (2009), S. 481; Sethe/Winzer (2009), S. 536; Paefgen (2009), S. 529; Hoffmann/Leible (2009), S. 58; s.a. letztlich gegen diese Entscheidung (damals noch auf Daily Mail bezogen) Ahrens (2008), Rdn. 241. Verpflichtend ist das freilich nicht. In diesem Zusammenhang sei auf Art. 10 eines Referentenentwurfs für ein Gesetz zum Internationalen Privatrecht der Gesellschaften, Vereine und Juristischen Personen des Bundesjustizministeriums hingewiesen, wonach Gesellschaften grundsätzlich vollumfänglich nach dem Recht ihres Registrierungsorts zu behandeln sind, hilfsweise nach dem Recht ihres Organisationsstatuts. Dies soll sogar für alle Gesellschaften, also über den EU-Rahmen (Art. 48 EGV, Art. 54 AEUV) hinaus, gelten (s.a. Regierungsentwurf, S. 9). S. hierzu umfassend Bröhmer, in: Callies/Ruffert (2007), Art. 43 Rdn. 20 ff.; vgl. auch von der Groeben/Schwarze (2003), Art. 43 Rdn. 67. Dazu nun auch die Richtlinie 2005/56/EG des Europäischen Parlaments und des Rates vom 26.10.2005 über die Verschmelzung von Kapitalgesellschaften aus verschiedenen Mitgliedstaaten, ABl. L 278, S. 47, umgesetzt in §§ 122 a ff. UmwG, hierzu auch Nagel (2006), S. 97; s.a.
Eröffnung neuer Haftungsstatute bei Fällen mit Auslandsbezug?
445
schen Gesellschaftsform wie der SE (Europäische Aktiengesellschaft, Societas Europaea,20 für Kooperationen auch die EWIV,21 Europäische Wirtschaftliche Interessenvereinigung, geplant für 2010 ist sogar eine Europäische GmbH – SPE, Societas Privata Europaea, in Deutschland auch EPG genannt – Europäische Privatgesellschaft).22 Trotz der Beschränkungsmöglichkeiten von Wegzugsfällen besteht also die Möglichkeit der Wahl einer ausländischen Gesellschaftsform zum inländischen Betrieb eines Unternehmens.23 Hierzulande muss die Gesellschaft in jedem Fall anerkannt werden. Das gebietet für die EU die Niederlassungsfreiheit. Anders kann es für Gesellschaftsformen von Drittstaaten sein,24 soweit mit diesen keine eigenen internationalen Abkommen bestehen (Für Deutschland und die USA ist vor allem der Handels-, Schifffahrts- und Freundschaftsvertrag aus dem Jahre 1954 zu nennen.)25. Zusätzliche Beschränkungen für die genannten privilegierten Gesellschaften eben auf gesellschaftsrechtlicher Ebene sind grundsätzlich untersagt.26 Nun könnte man dies auch auf Haftungsregelungen erstrecken. Somit könnte es sein, dass die Existenzvernichtungshaftung nach deutschem Recht etwa auf eine PLC (Private Limited Company) britischen Rechts mit Inlandssitz
20 21 22 23
24
25
26
schon EuGH BB 2006, 11 – Sevic, dazu Bungert (2006), S. 53; Oechsler (2006), S. 812; Siems (2006), S. 135; Spahlinger/Wegen (2006), S. 721 ff.; Geyrhalter/Weber (2006), S. 146. S. dazu etwa Thoma/Leuering (2002), S. 1449 ff.; Oechsler (2005), S. 697 ff.; Nagel (2004), S. 833 ff. S. dazu etwa Abmeier (1986), S. 2987 ff.; Müller-Guggenberger (1989), S. 1449 ff.; Schlüter (2002), S. 589 ff. Zu dem Entwurf s. KOM (2008) 936 endg.; s. dazu auch Djemek (2001), S. 878 ff.; Steinberger (2006), S. 27 ff. S. vor allem auch für die Gründung einer Auslandsgesellschaft, welche von Anfang an ihr Unternehmen im Inland betreibt (Auseinanderfallen von Gründungsort und Sitzort) EuGH NJW 1999, 2027 – Centros; EuGH NJW 2003, 3331 – Inspire Arts. Die Rechtsprechung neigt unter Anwendung einer modifizierten Sitztheorie dazu, diese anzuerkennen, ihnen aber den Status einer inländischen nationalen Gesellschaftsform zuzuweisen. Dies kann letztlich nur derjenige einer Personengesellschaft sein. Die Rechtsfähigkeit der Gesellschaft bliebe somit erhalten, s. § 124 Abs. 1 HGB bzw. für die Gesellschaft bürgerlichen Rechts grundlegend BGH NJW 2002, 1056, aber die Haftung wäre nunmehr eine unbeschränkte und persönliche (vgl. § 128 HGB), s. OLG Hamburg RNotZ 2007, 419; s.a. Schöner/Stöber (2008), Rdn. 3010. Grundlegend dazu BGH BB 2002, 2031 (dort auch noch als Reaktion auf die „Überseering“-Entscheidung des EuGH und auf Gesellschaften i.S.v. Art. 48 EGV, Art. 54 AEUV, bezogen. Hiervon ist der BGH kurze Zeit später selbst im Sinne der Gründungstheorie abgerückt, s. ZIP 2003, 718). Dort. XXV, BGBl. 1956 II, S. 488, sowie BGH ZIP 2003, 720; BGH NZG 2005,4 4; BGH NZG 2004, 1001; BGH NJW-RR 2002, 1359, dazu auch Bungert (2003), S. 1045; s. dazu aber auch Drouven/Mödl (2007), S. 7 ff. Ausgenommen sind für gesellschaftsrechtliche Konstellationen die Wegzugsfälle in jedem Fall für Gesellschaften nach dem Recht des Wegzugsstaats (s.o. Fußn. 16 sowie Zimmer (2005), S. 3591). Diese können im Laufe der folgenden Betrachtung jedoch vernachlässigt werden.
446
Claus Ahrens
unanwendbar ist. Tatsächlich wird dies in der Fachwelt weitgehend auch so gesehen. Dabei ist dieser Standpunkt seit „Trihotel“ gar nicht mehr so gesichert. Zeitlich lag die Diskussion des Nebeneinanders von deutschem Haftungsregime und Gesellschaftsformen fremden Rechts weitgehend gleichauf mit dem damals vom BGH favorisierten Modells der Außenhaftung wegen Existenzvernichtung. Die Begründung war gesellschaftsrechtlicher Natur. Mit dem Trend, jeweils allein das Gründungsstatut auf eine Gesellschaft anzuwenden, stand dies folglich im Widerspruch. Nur ein Gesellschaftsstatut bedeutet, dass gesellschaftsrechtliche Haftungskonzepte deutscher Prägung etwa auf britische Gesellschaften nicht anwendbar sein konnten. Nun haben sich die Begründungsstränge geändert. Man hat die Haftung aus dem Gesellschaftsrecht herausgelöst und dem allgemeinen Deliktsrecht (§ 826 BGB) zugewiesen (mit der Konsequenz einer Innenhaftung Gesellschafter – Gesellschaft). Das Deliktsrecht wird durch das Gesellschaftsstatut nicht verdrängt. Nichts liegt näher zu vermuten, als dass die neue Haftungskonzeption seit „Trihotel“ damit rechtsformunabhängig anwendbar ist (wobei sie in personengesellschaftsrechtlichen Fällen, von der kapitalistischen Personengesellschaften wie der GmbH & Co. KG abgesehen, keine praktische Relevanz entfalten wird, denn hier hilft bereits die Komplementärshaftung, § 128 HGB27). Rechtsformunabhängigkeit bedeutet auch eine Unabhängigkeit von Gesellschaftsformen fremden Rechts. Damit spricht offenbar nichts dagegen, § 826 BGB in der „Trihotel“Konzeption auch auf eine PLC z.B. mit Inlandssitz anzuwenden.
4
Qualifikationsfragen
Rechtstechnisch hat man es mit der Frage der sog. Qualifikation zu tun.28 Ausgangspunkt ist wieder die Frage des anwendbaren Rechts auf grenzüberschreitende Fälle. Hierzu muss man den Fall einer privatrechtlichen Disziplin zuordnen. Ist ein Fall haftungsrechtlicher Art, stellt sich die Frage, worin die Haftungsgrundlage wurzelt. Dies kann im Gesellschaftsrecht sein (vgl. für die Haftung von Vertretungsorganen §§ 93 AktG, 43 GmbHG, für Aufsichtsräte § 116 AktG, für die Zurechnung zur Gesellschaft § 31 BGB analog). So war es im Fall der Existenzvernichtungs-Außenhaftung vor „Trihotel“. Nach Gründungsstatut konnten diese Grundlagen die PLC etwa nicht betreffen, denn sie waren vornehmlich auf Kapitalgesellschaften deutschen Rechts zugeschnitten. Haftungs27 28
Was nicht daran hindert, auch aus hier bestehenden Haftungsfragen Argumentationsstränge zu entnehmen, vgl. im Anschluss Fußn. 41. Dazu Münchener Kommentar/Sonnenberger (2006), Einleitung Rdn. 493 ff.
Eröffnung neuer Haftungsstatute bei Fällen mit Auslandsbezug?
447
konzepte können aber auch außerhalb des Gesellschaftsrechts auf allgemeinem Deliktsrecht beruhen, wie es an sich jetzt der Fall ist (§ 826 BGB, welcher nach besonderen Gesellschaftsformen nicht fragt). Rechtsordnungen können verschiedene Modelle entwickeln, und je nachdem, welcher Rechtsmaterie diese zugewiesen werden, entnimmt man hieraus die Anknüpfung für das international anwendbare Recht. Hinsichtlich der Existenzvernichtungshaftung hat man einen Wechsel vollzogen, weg vom Gesellschaftsstatut und hin zum Deliktsstatut. Letzteres kann an sich auch die PLC betreffen. Nach herrschender Auffassung richtet sich die Qualifikation nach der lex fori.29 Das bedeutet, dass am Gerichtsort entschieden wird, wie die Qualifikation zu verlaufen hat. Hiernach könnte jedes deutsche Gericht den hier beschriebenen Weg einschlagen und die exemplarisch herangezogene PLC auch der deutschen Existenzvernichtungshaftung unterwerfen (sofern das deutsche Deliktsrecht einschlägig wäre, was nach der Qualifikation als Deliktsrecht nun eigenständige zu prüfen wäre). Sofern deutsches Deliktsrecht anwendbar und einschlägig wäre, würde dieses das britische Gesellschafts-Haftungssystem gleichsam überlappen können. 30 Allerdings ist die Frage der Qualifikation alles andere als eindeutig. Allein die Verortung eines Haftungstatbestandes im allgemeinen Zivilrecht (§ 826 BGB) zwingt nicht zu einer allgemein deliktsrechtlichen Qualifikation. Tatsächlich steht dem die allgemeine Auffassung ablehnend gegenüber. Alternativ wird eine gesellschaftsrechtliche Qualifikation vorgetragen.31 Das mag deswegen nahe liegen, weil in der Tat die Schließung einer Schutzlücke, welche das gesellschaftsrechtliche System besehen lässt, beabsichtigt ist.32 Es liegt durchaus nahe, ein einheitlich gesellschaftsrechts-dogmatisches System anzunehmen. Das würde zu dem Gesellschaftsstatut überleiten – mit der Konsequenz, dass die Existenzvernichtungshaftung grundsätzlich nicht auf Gesellschaften fremden Rechts anwendbar wäre.33 Sie wäre reserviert für Gesell29 30 31
32
33
Vgl. BGH NJW 1965, 2053 f.; BGH NJW 1977, 1177; Münchener Kommentar/Sonnenberger, Einleitung Rdn. 509; Kindler (2003a), S. 1090; Kegel/Schurig (2004), § 7.III. So Gloger/Goette/van Huet (2008a), S. 1195 f.; s.a. Kindler (2003a), S. 1090. Ulmer (2004), S. 1208; Schumann (2004), S. 748. Zu berücksichtigen ist, dass derartige Vorschläge großenteils aus einer Zeit stammen, in welcher noch eine unbeschränkte Außenhaftung angenommen wurde. So in der Tat die Formulierungen in der Trihotel-Entscheidung des BGH NJW 2007, 2689; insoweit vermittelnd Weller (2007), S. 1688, wenn deliktsrechtlich angeknüpft wird, als Vorfrage (zu diesem Begriff ebd. Fußn. 107) zu dieser Qualifikation ein unzureichender gesellschaftsrechtlicher Kapital- bzw. Gläubigerschutz verlangt wird. Eine scheinbare Bestätigung würde sich in Art. 10 Abs. 2 des BMJ-Entwurfes zum Internationalen Gesellschaftsrecht (Fußn. 17) finden, wonach das Gesellschaftsstatut auch die Folgen der Verletzung von Gesellschafterpflichten betrifft. Abgesehen davon, dass diese Regelung nur als Gesetzentwurf vorhanden ist, beinhaltet sich auch keine qualifikationsrechtliche Vorgabe.
448
Claus Ahrens
schaftsformen rein deutschen Rechts. Man könnte durch societas shopping diesem Haftungsregime durchaus entgehen. Dem steht die Befürwortung einer insolvenzrechtlichen Qualifikation gegenüber.34 Das ließe sich damit begründen, dass die nachhaltige Schädigung zugleich einen Insolvenztatbestand indiziert.35 Maßgeblich wäre innerhalb der EU (Dänemark ausgenommen) das Recht des wirtschaftlichen Interessenschwerpunkts oder der Niederlassung des Insolvenzschuldners (Art. 3 der Verordnung über Insolvenzverfahren36, ansonsten weitgehend nach lex fori (§§ 335 ff. InsO, vor allem die Ausnahme für Grundstücke – lex rei sitae und Arbeitsverhältnisse das Arbeitsvertragsstatut, Art. 30 EGBGB, s.a. Art. 6 EVÜ, ab 18.12.2009 Art. 8 Rom-I-VO).37 Das deckt sich mit den Insolvenzantragspflichten nach §§ 15, 15 a InsO, welche von jeher (also auch unter der Ägide der §§ 64 GmbHG, AktG a.F., d.h. bis zum MoMiG, 1.11.2008) dem Insolvenzstatut unterworfen wurden. Die Verortung dieser rechtsformunabhängigen Pflichten im Insolvenzgesetz liefert eine eindrucksvolle Bestätigung dieser damaligen Auffassung. Für die insolvenzrechtliche Qualifikation der „Trihotel“-Haftung mag sprechen, dass man mit ihr auch die bloße Binnenhaftung gegenüber der Gesellschaft, nicht aber gegenüber den Gesellschaftsgläubigern, gut begründen kann. Damit erscheint ein Entgehen dem Haftungsregime nach „Trihotel“ kaum beeinflussbar. Die berühmte PLC mit Inlandssitz wäre ihm zwingend unterworfen.
5
Die deliktsrechtliche Qualifikation
Vor allem die deliktsrechtliche Qualifikation steht gegenüber den eben genannten stark unter Argumentationszwang. Man beruft sich darauf, dass das Deliktsrecht allgemeine, d.h. jedermann obliegende, Handlungspflichten statuiert, um welche es bei der nachhaltigen Gesellschaftsschädigung aber nicht gehe.38 Die Existenzvernichtungshaftung steht demnach für spezielle Fallkonstellationen,
34
35
36 37 38
S. Zimmer (2005), 3089; s.a. Schanze (2007), S. 684, wobei BGH NZG 2009, 545 – Sanitary (betreffend Liquidationsgesellschaften) auf Insolvenzfälle nicht (mehr) abgestellt hat, s. Kölbl (2009), S. 1196. Vgl. insoweit auch die Tatbestände des wrongful oder fraudulent trading (213, 214 des britischen Insolvency Act). Das MoMiG hat für Auszahlungen an Gesellschafter entsprechende Grundsätze in § 64 Abs. 1 Satz 3 GmbHG übernommen. Davon jedoch unabhängig besteht die Haftung aus § 826 BGB (also auch hier: Anspruchskonkurrenz), s. insoweit auch BT-Drucks. 16/6140, S. 46. Teilweise wird die Eigenschaft des Insolvency Act als Schutzgesetz i.S.v. § 823 Abs. 2 BGB vertreten, so Schumann (2004), S. 748. ABl. EG Nr. L 160/1, zu dieser Verordnung s.a. Paulus (2005), S. 336. S. dazu Liersch (2003), S. 303. So Schanze (2007), S. 684; Ulmer (2004), S. 1207.
Eröffnung neuer Haftungsstatute bei Fällen mit Auslandsbezug?
449
wie sie entweder nur im Gesellschaftsrecht oder im Insolvenzfall (oder beidem39) vorkommen können. Das kann durchaus im Zusammenhang damit gesehen werden, dass § 826 BGB der Existenzvernichtungshaftung früherer Prägung als weitgehend subsidiär erachtet wurde (dies unter der Voraussetzung, dass man ohnehin auch schon damals keinen „originären“ Fall des § 826 BGB angenommen hat).40 Diesen Ansatz gilt es zu hinterfragen. Das Gesellschaftsrecht neigt wie jede Spezialmaterie dazu, den Blick auf allgemeine Fragestellungen zu verdecken. Reduziert man die haftungsauslösenden Fälle auf rechtsformunabhängige Allgemeinstrukturen, so gelangt man zu der Variante, dass das Vermögen des Geschädigten durch den Schädiger nachhaltig langfristig bis mindestens zum Insolvenzrisiko beeinträchtigt wird. Das spezifisch gesellschaftsrechtliche – in der eben angestrengten Betrachtung eliminierte – Element besteht darin, dass der Schädiger an dem Geschädigten beteiligt ist. Geht man hingegen auf die allgemeine Betrachtung zurück, dass unterschiedliche Rechtssubjekte beteiligt sind, kommt es auf Beteiligungsverhältnisse gar nicht an. Man nehme den Fall, dass etwa ein Prokurist oder ein Treuhänder nachhaltig langfristig das Vermögen eines Einzelunternehmers schädigt. Ohne Zweifel ist man geneigt, diesen Fall (neben der Pflichtverletzung aus dem Vertragsverhältnis, § 280 Abs. 1 BGB) ebenfalls § 826 BGB zu unterwerfen. Ähnlich wäre es bei einer entsprechenden Schädigung einer Personengesellschaft durch ihre Gesellschafter (was meistens nicht ins Blickfeld der Untersuchung gelangt, weil die Komplementärshaftung nach § 128 HGB das praktische Bedürfnis dazu extrem reduziert).41 Solche Fälle werden auch unter dem Aspekt der Gläubigergefährdung gesehen,42 aber das ist von den hier interessierenden Fallkonstellationen der Schädigung der Gesellschaft (oder eines anderen Unternehmensträgers, wenn man wie hier den Fall rechtsformunabhängig sieht) selbst zu unterscheiden. Die Innenhaftung jedenfalls rechtfertigt sich dadurch, dass der Geschädigte (die Gesellschaft bzw. das 39
40
41
42
S. für eine Doppelqualifikation Zimmer (2005), S. 3588; Kindler (2003a), S. 1090, sowie in Münchener Kommentar, Internationales Handels- und Gesellschaftsrecht (2006), § 15 Rdn. 617. S. den Hinweis bei Altmeppen (2004), S. 101; vgl. ähnlich etwa heute noch für den Fall der Insolvenzverschleppung Schaub, in: Prütting/Wegen/Weinreich (2009), § 826 Rdn. 34 (anders freilich nun für die Existenzvernichtungshaftung, ebd. Rdn. 35). Vgl. dazu BGH NJW 1996, 658 (dort auf den Schutz eines Komplementärs einer vermögenslosen KG bezogen. Das lässt sich infolge der weitreichenden Akzessorietät der Komplementärshaftung zur Gesellschaftsschuld durchaus dahingehend verallgemeinern, dass es bei solchen Fallkonstellationen auch um den mittelbaren Schutz der Gesellschaft an sich ging – er war hier letztlich praktisch vor allem deswegen uninteressant, da die KG vermögenslos war). S. dazu Schaub, in: Prütting/Wegen/Weinreich (2009), § 826 Rdn. 31 ff. (so letztlich auch die vor „Trihotel“ vertretenen Konzepte der Außenhaftung von Gesellschaftern gegenüber Gesellschaftsgläubigern).
450
Claus Ahrens
sonstige Rechtssubjekt) näher an der Einbuße ist als die Gläubiger. Eine andere Sichtweise würde den eigenen Personenstatus bzw. sonstigen Statut als rechtsfähig nicht hinreichend berücksichtigen. Bezogen auf die Kapitalgesellschaft zeigt sich, dass die „Trihotel“-Haftung Ausdruck eines allgemeinen Prinzips aus § 826 BGB darstellt, wie man es in vergleichbaren Fällen anderen Rechtssubjekten jederzeit zugestehen würde. Damit geht es eben doch um eine allgemeine Handlungspflicht (bzw. deren Verletzung), welche einer deliktsrechtlichen Qualifikation sehr wohl zugänglich ist. Warum sollte man dieses allgemeine Prinzip durch Sonderqualifikationen verlassen? Besinnt man sich auf die Kapitalgesellschaft als eine eigenständige Person, woran Beteiligungsverhältnisse auch nichts ändern können, wird das allgemeine deliktsrechtliche Prinzip klar. Zugleich fügt sich dieses in das bestehende gesellschaftsrechtliche Haftungssystem, welches in der Tat einer Durchgriffshaftung nur ausnahmsweise das Wort reden kann, ein.
6
Konsequenzen
Eine deliktsrechtliche Qualifikation führt zu einer rechtsformunabhängigen Haftung. Sie betrifft damit auch Gesellschaften fremden Rechts und damit vor allem hierzulande tätige PLCs. Einschlägig wäre insoweit (seit 1.11.2009) grundsätzlich Rom-II-VO, wonach das anwendbare Recht (Sachnormverweis, Art. 24 Rom-II-VO) dort zu finden ist, wo der Schaden eingetreten ist (Art. 4., vgl. grundsätzlich anders noch Art. 40 EGBGB).43 Art. 1 lit. d) Rom-II-VO,44 wonach die Haftung aus Gesellschaftsverhältnissen nicht in den Regelungsbereich der Verordnung fällt, steht dem nicht entgegen, denn es geht hier vertretener Auffassung zufolge nicht um eine solche, sondern um eine Haftung aus einem allgemeinen45 deliktisch abgesicherten Vermögensschutzprinzip.
43 44
45
Ein Überblick über die Rom-II-Verordnung findet sich bei Junker (2007), S. 3675; zu den Art. 40 ff. EGBGB s. Spickhoff (1999), S. 2209. Vergleichbares findet sich in Art. 1 lit. e) EVÜ, entsprechend Art. 37 Nr. 3 EGBGB, sowie ab 18.12.2009 Art. 1 lit. f) Rom-I-VO, aber dort kann es naturgemäß allein um die Haftung aus der gesellschaftsrechtlichen Sonderbeziehung (s. §§ 43 GmbHG, 93 AktG, 116 AktG, allgemein § 280 Abs. 1 BGB) gehen. Mit der Haftung außerhalb dieser kann es durchaus Anspruchskonkurrenzen geben. Natürlich nur, sofern § 826 BGB oder § 823 Abs. 2 BGB mit Schutzgesetz eingreift, denn ansonsten ist dem deutschen Recht ein allgemeiner Vermögensschutz bekanntlich fremd.
Eröffnung neuer Haftungsstatute bei Fällen mit Auslandsbezug? 7
451
Die europäische Niederlassungsfreiheit
Grundsätzlich sind die nationalen Rechtssysteme voneinander unabhängig, autark.46 Damit hat jeder Staat eine eigene „Qualifikations-Kompetenz“. Daran ändert auch nicht, dass das Internationale Privatrecht zunehmend durch das Europarecht (namentlich die Rom-Verordnungen) geregelt wird. Es haben diese Regelungen keine Aussagen für die Qualifikation parat. Vor allem die Rom-IIVerordnung besagt lediglich, dass sie für gesellschaftsspezifische Anknüpfungen keine Regelungen bereit stellt. Dass Fälle im Zusammenhang mit einer Gesellschaftsschädigung per se keine deliktsrechtliche Qualifikation erfahren dürfen, ist damit nicht gesagt. Qualifikationsspezifische Probleme treten nicht auf. Ebenso wie die nationale Rechtsprechung das Haftungsmodell verändern konnte und durfte, kann sie auch die Qualifikation umstellen.47 Im Geltungsbereich der Niederlassungsfreiheit könnte dies jedoch anders sein.48 Die Qualifikation eines Haftungsfalls, welcher sowohl gesellschaftsrechtlich als auch deliktsrechtlich zu lösen wäre, im letzteren Sinne würde zu der genannten Überlappung führen. Diese würde ein zusätzliches Haftungsregime erzeugen, was ohne Zweifel beschränkend auf die Niederlassungswahl wirken könnte. Man könnte versucht sein, den Bereich der deutschen Iudikatur für eine PLC zu meiden, um einer qualifikationsrelevanten lex fori auszuweichen. Dass Haftungsverschärfungen niederlassungsbeschränkend und damit europarechtswidrig sein können, ist dem Grunde nach durchaus anerkannt. Es ging dabei jedoch regelmäßig um einheitliche gesellschaftsrechtliche Qualifikationen. Das wäre hier anders. Gleichwohl stellt sich die Frage, ob das Verbot der Beschränkungen von Niederlassungsfreiheiten bereits auf Qualifikationsebene auftaucht. Anders gewendet, ist zu fragen, ob eine Qualifikation eines Haftungsregimes als nicht-gesellschaftsrechtlich sich nicht ebenfalls den Art. 43, 48 EGV (Art. 49, 54 AEUV – Lissabonner Fassung) zu stellen hat. Wenn dem so ist, kann eine deliktsrechtliche Qualifikation und anschließende Einschlägigkeit deutschen Rechts an sich noch keine rechtsformunabhängige Haftung begründen, denn sie könnte ihrerseits immer noch gegen die Niederlassungsfreiheit verstoßen. § 826 46 47
48
Vgl. Kindler (2003a), S. 1089. Eine konzernrechtliche Qualifikation, wie sie der seinerzeitige qualifiziert faktische Konzern nahe legte, hätte zu einer Anknüpfung nach dem Sitz der geschädigten Gesellschaft (als hauptbetroffene Gesellschaft bezeichnet) geführt und wäre insoweit ebenso von dem Gesellschaftsstatut nach Gründungstheorie abgewichen, s. dazu, vgl. auch Ahrens (2008), Rdn. 280. S. insoweit für die andererseits fehlende Bindung des EuGH an die nationalen Qualifikationen Noack (2007), 240726; vgl. auch Ulmer (2004), S. 1208 f.; vgl. ferner für die grundsätzliche Geltung allein des Gründungsstaats-Gesellschaftsrechts hinsichtlich der Kapitalausstattung Schumann (2004), S. 743 ff. (auch nicht über den ordre public, Art. 6 EGBGB, abänderbar); vgl. auch Schumann (2004), S. 749 ff.
452
Claus Ahrens
BGB in Gestalt der Existenzvernichtungshaftung könnte dann auf Gesellschaften fremden Rechts unanwendbar sein.49 Dieses Szenario ist hingegen nicht obligatorisch. Die Rechtsprechung hat auf der Linie der sog. Cassis-Rechtsprechung50 für Missbrauchsfälle51 Einschränkungen der Niederlassungsfreiheit gerade für societas shopping zugelassen. Wogegen er sich wandte, war in dem societas shopping selbst schon einen Missbrauch zu sehen.52 Die „Trihotel“-Haftung hält sich in diesem Rahmen. § 826 BGB mit seinem Erfordernis von Sittenwidrigkeit und Vorsatz wendet sich dezidiert gegen extreme Missbrauchsfälle. Außerdem ist auch ansonsten grundsätzlich anerkannt, dass spezifische Haftungskonstellationen nicht niederlassungsbeschränkend im Sinne einer Europarechtswidrigkeit sind. So wird die Insolvenzantragspflicht der §§ 15 f. InsO auch in ihren Haftungskonsequenzen53 für Gesellschaften fremden Rechts euoparechtlich nicht beanstandet. Sie betrifft einen zulässigen Sonderfall – so letztlich auch „Trihotel“. Schließlich bleibt zu berücksichtigen, dass der EuGH durch seine „Cartesio“-Rechtsprechung von dem Konzept eines einheitlichen Gesellschaftsstatuts selbst abgerückt ist.54 Auch wenn dieser Schluss noch gewagt erscheinen mag, so lässt sich dem doch entnehmen, dass spezifische Inlandsbezüge rechtliche Sondersituationen nach nationalem Recht zulassen.55 Damit schließt sich argumentativ ein Kreis, denn besagte Sonderfälle sind hier die extremen Missbrauchsfälle, welchen „Trihotel“ nun beikommen will.
8
Ergebnis
Als Fazit bleibt festzuhalten, dass das „Trihotel“-Haftungsregime auch für Gesellschaften fremden Rechts zulässig ist. Das betrifft solche mit Inlandssitz wie auch solche ohne einen solchen. Bei letzteren gilt es zu beachten, dass Art. 4 Rom-II-VO auf den Erfolgseintritt (Schadenseintritt) abstellt und nicht auf den 49 50
51
52 53 54 55
Ebenso auch Gloger/Goette/van Huet (2008a), S. 1196; Altmeppen (2004), S. 101 f. Grundlegend EuGH GRUR Int. 1976, 468 – Cassis de Dijon. Die dortigen zunächst allein auf die Warenverkehrsfreiheit gemünzten Prinzipien wurden für die übrigen Grundfreiheiten übernommen (sog. Konvergenz der Grundfreiheiten; vgl. insoweit auch Epiney (2004), S. 1075). Was etwas dazu führt, dass die Anknüpfung an das Bilanzrecht, weil dieses per se nicht Missbrauchsausdruck sein kann, sich immer noch nach Gesellschaftsstatut richtet (aber str.), Heinz (2006), § 15. EuGH NJW 1999, 2027 – Centros; EuGH NJW 2003, 3331 – Inspire Art; vgl. auch Schanze/Jüttner (2003), S. 32. S. dazu BGH NJW 1998, 2667; BGH NZG 2007, 466. S.o. Fußn. 16. So auch für die Rechtsscheinshaftung wegen irreführender Gesellschaftszusätze (bzw. entsprechender Unterlassungen) BGH DStR 2007, 863 (Auswirkungsprinzip).
Eröffnung neuer Haftungsstatute bei Fällen mit Auslandsbezug?
453
Sitz. Es spielt auch keine Rolle, ob die Gesellschaften die EGNiederlassungsfreiheit oder Rechte aus einem internationalen Abkommen56 für sich in Anspruch nehmen können. Auch europäische Gesellschaftstypen (SE, SCE, EWIV, demnächst wohl auch SPE) würden sitzunabhängig der „Trihotel“Haftung unterliegen können. Missbrauchsfälle zu verhindern, reicht als Legitimation und damit als Schranke für Niederlassungsfreiheiten aus. Eine weitere Schlussfolgerung besteht darin, dass die Haftungskonstellationen nicht zwingend an Insolvenzfällen ansetzen, auch wenn solche sicherlich den praktischen Hauptanwendungsfall ausmachen werden. In jedem Fall liefert der rein deliktische Ansatz57 hinreichendes Potential, echten Missbräuchen entgegenzuwirken. Die engen Schranken des § 826 BGB (Vorsatz mit Erstreckung auf den Vermögensschaden, Sittenwidrigkeit) sorgen dafür, dass das Pendel nicht übermäßig in die andere Richtung ausschlägt. Schlussendlich kehrt man zu den Aspekten der Festschrift „Innovation und Internationalisierung“ zurück: Internationalisierung bedeutet nicht, dass die nationalen Rechtsordnungen Missbräuchen nicht entgegentreten dürfen. Dies ist zugleich innovationsfördernd, denn wahre Innovation kann und darf auf Missbrauchsoptionen nicht aufbauen. Wohl haben vor allem europäische Impulse zu erheblichen Liberalisierungen geführt, welche durch nationale Missbrauchsbekämpfungen daran gehindert werden, in ihr negatives Gegenteil auszuufern. Dass die Missbrauchsbekämpfung ihrerseits auf Ausnahmefälle beschränkt wird, sorgt für den Bestand der gewünschten Liberalisierung auch vor den nationalen Rechtsordnungen. Es bleibt eine ewige Herausforderung, hier das adäquate Maß zu finden.
56 57
S.o. Fußn. 25. Abschließend sei auf die Abgrenzung der Haftung der Gesellschafter aus ihrer Gesellschafterstellung selbst für Pflichtverletzungen (letztlich auf § 280 Abs. 1 BGB zurückzuführen) hingewiesen. Diese richtet sich allein nach Gesellschaftsstatut. Insoweit ergibt sich der Sinn der Ausschlüsse gesellschaftsrechtlicher Fragen in den jeweiligen Rom-Verordnungen, Art. 37 Nr. 3 EGBGB, und dem EVÜ sowie letztlich dem einschlägigen BMJ-Entwurf. Die „Trihotel“Existenzvernichtungshaftung kann ergänzend wirken, etwa indem sie für Fälle auf den Plan tritt, in denen eine individualisierbare Pflichtverletzung gar nicht mehr ermittelbar ist. Eben für diese Fälle war sie wie ihre Vorläufer ja auch gedacht (s.o. II., dort vor allem zur Definition des qualifiziert faktischen Konzerns). Dieser Ergänzungscharakter ist der in dem Text ermittelte Missbrauchsschutz.
454
Claus Ahrens
Literatur Abmeier, Klaus (1986), Die Europäische Wirtschaftliche Interessenvereinigung und nationales Recht, Neue Juristische Wochenschrift (NJW), Heft 48/1996, S. 2987. Ahrens, Claus (2008), Europäisches und Internationales Wirtschaftsprivatrecht, Stuttgart 2008. Ahrens, Claus (2003), Quo vadis societas? Das Internationale Gesellschaftsrecht auf dem Prüfstand der EG-Niederlassungsfreiheit, Rheinische Notars-Zeitschrift, Heft 1 – 2 /2003, S. 32. Altmeppen, Holger (2007), Abschied vom „Durchgriff“ im Kapitalgesellschaftsrecht, Neue Juristische Wochenschrift (NJW), Heft 37/2007, S. 2657. Altmeppen, Holger (2004), Schutz vor „europäischen“ Kapitalgesellschaften, Neue Juristische Wochenschrift (NJW), Heft 3/2007, S. 97. Altmeppen, Holger (2002), Gesellschafterhaftung und „Konzernhaftung“ bei der GmbH, Neue Juristische Wochenschrift, Heft 5/2002, S. 321. Bamberger, Heinz-Georg/Roth, Herbert (2009), BGB, Stand: 1.1.2009, München 2009. Behme, Caspar/Nohlen, Nicolas (2008), Zur Wegzugsfreiheit von Gesellschaften – Der Schlussantrag von General Maduro in der Rechtssache Cartesio (C 210/06), Neue Zeitschrift für Gesellschaftsrecht (NZG), Heft 13/2008, S. 496. Bungert, Hartwig (2006), Grenzüberschreitende Verschmelzungsmobilität – Anmerkung zur Sevic-Entscheidung des EuGH, Betriebs-Berater (BB), Heft 2, S. 53. Bungert, Hartwig (2003), Sitzanknüpfung für Rechtsfähigkeit von Gesellschaften gilt auch nicht mehr im Verhältnis zu USA – Anmerkung zu BGH vom 29.1.2003 – VIII ZR 155/02, DB 2003, S. 818, Der Betrieb, Heft 19/2003, S. 1043. Callies, Christian/Ruffert, Matthias (2007), EUV/EGV, 3. Auflage, München 2007. Djemek, Paulina (2001), Das künftige Europa und die Europäische Privatgesellschaft, Neue Zeitschrift für Gesellschaftsrecht (NZG), Heft 19/2001, S. 878. Drouven, Ralph/Mödl, Robert (2007), US-Gesellschaften mit Hauptverwaltungssitz in Deutschland im deutschen Recht, Neue Zeitschrift für Gesellschaftsrecht (NZG), Heft 1/2007, S. 7. Ebke, Werner (2003), Überseering: Die wahre Liberalität ist Anerkennung, Juristenzeitung (JZ) (2003), S. 927. Epiney, Astrid (2004), Neuere Rechtsprechung des EuGH in den Bereichen institutionelles Recht, allgemeines Verwaltungsrecht, Grundfreiheiten, Umwelt- und Gleichstellungsrecht, Neue Zeitschrift für Verwaltungsrecht (NVwZ) (2004), S. 1067. Fleischer, Holger (2004), Konzernuntreue zwischen Straf- und Gesellschaftsrecht: Das Bremer Vulkan-Urteil, Neue Juristische Wochenschrift (NJW), Heft 40/2004, S. 2867. Frobenius, Tilmann (2009), „Cartesio“: Partielle Wegzugsfreiheit für Gesellschaften in Europa, Deutsches Steuerrecht (DStR), Heft 10/2009, S. 487. Geyrhalter, Volker/Gänßler, Peggy (2003), Perspektiven nach Überseering – wie geht es weiter?, Neue Zeitschrift für Gesellschaftsrecht (NZG), Heft 9/2003, S. 409.
Eröffnung neuer Haftungsstatute bei Fällen mit Auslandsbezug?
455
Gloger, Christian/Goette, Constantin/van Huet, Fabienne (2008), Die neue Rechtsprechung zur Existenzvernichtungshaftung mit Ausblick in das englische Recht (Teil I), Deutsches Steuerrecht (DStR), Heft 24/2008, S. 1141. Gloger, Christian/Goette, Constantin/van Huet, Fabienne (2008a), Die neue Rechtsprechung zur Existenzvernichtungshaftung mit Ausblick in das englische Recht (Teil II), Deutsches Steuerrecht (DStR), Heft 25/2008, S. 1194. Goette, Wulf (2000), Anmerkung zu BGH DStR 2000, 1066, Deutsches Steuerrecht (DStR), Heft 25/2000, S. 1066. Grohmann, Uwe/Gruschinske, Nancy (2008), Beschränkungen des Wegzugs von Gesellschaften innerhalb der EU – die Rechtssache Cartesio, Europäische Zeitschrift für Wirtschaftsrecht, Heft 15/2008, S. 463. Heidinger, Andreas (2005), Der Kapitalschutz der GmbH auf dem Prüfstand, Deutsche Notarszeitschrift (DNotZ), Heft 2/2005, S. 97. Heinz, Volker G. (2006), Die englische Limited, 2. Auflage, Baden-Baden 2006. Heitsch, Joachim (2007), Zur Bedeutung des Urt. des BGH v. 16.7.2007 – II ZR 3/04 (Trihotel) für die Organhaftung unter Einbeziehung der britischen Ltd., Zeitschrift für das gesamte Insolvenzrecht (ZinsO), Heft 18/2007, S. 961. Henze, Hartwig (2003), Europäisches Gesellschaftsrecht in der Rechtsprechung des Europäischen Gerichtshofs, Der Betrieb (DB), Heft 40/2003, S. 2159. Hirte, Heribert (2008), Die große GmbH-Reform – ein Überblick über das Gesetz zur Modernisierung des GmbH-Rechts und zur Bekämpfung von Missbräuchen, Neue Zeitschrift für Gesellschaftsrecht (NZG), Heft 20/2008, S. 761. Hippel, von, Thomas (2006), Durchgriffshaftung der Vereinsmitglieder bei Verstößen gegen das Nebenzweckprivileg? Neue Zeitschrift für Gesellschaftsrecht (NZG), Heft 14/2006, S. 537. Hoffmann, Jochen (2002), Das GmbH-Konzernrecht nach dem „Bremer Vulkan“-Urteil, Neue Zeitschrift für Gesellschaftsrecht (NZG), Heft 2/2002, S. 68. Hommelhoff, Peter/Teichmann, Christoph (2008), Auf dem Weg zur Europäischen Privatgesellschaft (SPE), Deutsches Steuerrecht, Heft 19/2008, S. 925. Hüffer, Uwe (2008), Aktiengesetz, 8. Auflage, München 2008. Junker, Abbo (2007), Die Rom II-Verordnung: Neues Internationales Deliktsrecht auf europäischer Grundlage, Neue Juristische Wochenschrift (NJW), Heft 51/2007, S. 3675. Kegel, Gerhard/Schurig, Klaus (2004), Internationales Privatrecht, 9. Auflage, München 2004. Kindler, Peter (2003), Auf dem Weg zur Europäischen Briefkastengesellschaft? Die „Überseering“-Entscheidung des Europäischen Gerichtshofs und das Internationale Gesellschaftsrecht, Neue Juristische Wochenschrift (NJW), Heft 15/2003, S. 1073. Kindler, Peter (2003a), „Inspire Arts“ – Aus Luxemburg nichts Neues zum Internationalen Gesellschaftsrecht, Neue Zeitschrift für Gesellschaftsrecht (NZG), Heft 23/2003, S. 1086. Kleindieck, Detlev (2008), Materielle Unterkapitalisierung, Existenzvernichtung und Deliktshaftung, Neue Zeitschrift für Gesellschaftsrecht (NZG), Heft 18/2008, S. 686.
456
Claus Ahrens
Kölbl, Angelika (2009), Die Haftung wegen existenzvernichtenden Eingriffs: gesicherte Erkenntnisse und Entwicklungen seit Trihotel, Betrieb-Berater (BB), Heft 23/2009, S. 1194. Hoffmann, Jochen/Leible, Stefan (2009), Cartesio – fortgeltende Sitztheorie, grenzüberschreitender Formwechsel und Verbot materieller Wegzugsbeschränkungen, Betriebs-Berater (BB), Heft 3/2009, S. 58. Kallmeyer, Harald (2002), Tragweite des Überseering-Urteils des EuGH vom 5.11.2002 zur grenzüberschreitenden Sitzverlegung, Der Betrieb (DB), Heft 48/2002, S. 2521. Leible, Stefan (2002), Überseering und das (vermeintliche) Ende der Sitztheorie – Anmerkung zu EuGH vom 5.12.2002 – Rs. C-208/00, RIW 2002, 945 - Überseering, Recht der Internationalen Wirtschaft (RIW) (2002), S. 927. Leible, Stefan/Hoffmann, Jochen (2003), „Überseering“ und das deutsche Gesellschaftskollisionsrecht, BGH Urt. vom 13-3-2003 – VII ZR 370/ZIP 2003, 718, Zeitschrift für Wirtschaftsrecht (ZIP), Heft 21/2003, S. 925. Liersch, Oliver (2003), Deutsches Internationales Insolvenzrecht, Neue Zeitschrift für Insolvenzrecht (NZI), Heft 6/2003, S. 302. Lutter, Marcus (2003), Überseering und die Folgen, Betriebs-Berater (BB), Heft 1/2003, S. 7. Müller-Guggenberger, Christian (1989), EWIV- Die neue europäische Gesellschaftsform? Neue Juristische Wochenschrift (NJW), Heft 23/1989, S. 1449. Münchener Kommentar zum BGB, Internationales Handels- und Gesellschaftsrecht (2006), 4. Auflage, München 2006. Nagel, Bernhard (2006), Die Richtlinie zur grenzüberschreitenden Verschmelzung, Neue Zeitschrift für Gesellschaftsrecht (NZG), Heft 3/2006, S. 97. Nagel, Bernhard (2004), Die Europäische Aktiengesellschaft (SE) in Deutschland – der Regierungsentwurf zum SE-Einführungsgesetz, Neue Zeitschrift für Gesellschaftsrecht (NZG), Heft 18/2004, S. 833. Noack, Ulrich (2007), BGH: Neue Konzeption der Existenzvernichtungshaftung – „Trihotel“, Anmerkung, Lindenmaier-Möhring (LMK) (2007), 240726. Oechsler, Jürgen (2006), Die Zulässigkeit grenzüberschreitender Verschmelzungen – die Sevic-Entscheidung des EuGH, Neue Juristische Wochenschrift (NJW), Heft 12/2006, S. 135. Oechsler, Jürgen (2005), Der praktische Weg zur Societas Europaea (SE) – Gestaltungsspielraum und Typenzwang, Neue Zeitschrift für Gesellschaftsrecht (NZG), Heft 17/2005, S. 697. Paefgen, Walter G. (2009), „Cartesio“: Niederlassungsfreiheit minderer Güte – Zum Urteil des EuGH vom 16.12.2008 („Cartesio“), Wertpapier-Mitteilungen (WM), Heft 12/2009, S. 529. Paulus, Christoph G. (2005), Grundlagen des neuen Insolvenzrechts, Internationales Insolvenzrecht, Deutsches Steuerrecht (DStR) (2005), S. 334. Prütting, Hanns/Weber, Gerd/Weinreich, Gerhard (2009), BGB Kommentar, 6. Auflage, Köln 2009. Schanze, Erich (2007), Gesellschafterhaftung für unlautere Einflussnahme nach § 826 BGB: Die Trihotel-Doktrin des BGH, Neue Zeitschrift für Gesellschaftsrecht (NZG), Heft 18/2007, S. 681.
Eröffnung neuer Haftungsstatute bei Fällen mit Auslandsbezug?
457
Schanze, Erich/Jüttner, Andreas (2003), Anerkennung und Kontrolle ausländischer Gesellschaften – Rechtslage und Perspektiven nach der Überseering-Entscheidung des EuGH, Die Aktiengesellschaft, Heft 1/2003, S. 30. Schlüter (2002), Andreas, Die EWIV: Modellfall für europäisches Gesellschaftsrecht? Zeitschrift für Europäisches Wirtschaftsrecht (EuZW), Heft 19/2002, S. 589. Schmidt, Karsten (2001), Gesellschafterhaftung und „Konzernhaftung“ bei der GmbH – Bemerkungen zum „Bremer Vulkan“-Urteil des BGH vom 17.9.2001, Neue Juristische Wochenschrift, Heft 49/2001, S. 3577. Schmidt, Karsten (2002), Gesellschaftsrecht, 4. Auflage, Köln Berlin Bonn München 2002. Schöner, Hartmut/Stöber, Kurt (2008), Grundbuchrecht, 14. Auflage, München 2008. Schulz, Martin/Sester, Peter (2002), Höchstrichterliche Harmonisierung der Kollisionsregeln im europäischen Gesellschaftsrecht: Durchbruch der Gründungstheorie nach „Überseering“, Europäisches Wirtschafts- und Steuerrecht (EWS) (2002), S. 545. Schumann, Alexander, Die englische Limited mit Verwaltungssitz in Deutschland: Kapitalaufbringung, Kapitalerhaltung und Haftung bei Insolvenz, Der Betrieb (2004), S. 743. Schwarz, Günter Christian (2000), Internationales Gesellschaftsrecht – ein Handbuch für Wissenschaft und Praxis, Baden-Baden 2000. Sethe, Rolf/Winzer, Katharina (2009), Der Umzug von Gesellschaften in Europa nach dem Cartesio-Urteil, Wertpapier-Mitteilungen, Heft 12/2009, S. 536. Siems, Mathias (2006), SEVIC: Der letzte Mosaikstein im Internationalen Gesellschaftsrecht der EU? Europäische Zeitschrift für Wirtschaftsrecht (EuZW), Heft 5/2006, S. 235. Spahlinger, Andreas/Wegen, Gerhard (2006), Deutsche Gesellschaften in grenzüberschreitenden Umwandlungen nach „SEVIC“ und der Verschmelzungsrichtlinie in der Praxis, Neue Zeitschrift für Gesellschaftsrecht (NZG), Heft 19/2006, S. 721. Spickhoff, Andreas (1999), Die Restkodifikation des Internationalen Vertragsrechts: Außervertragliches Schuld- und Sachenrecht, Neue Juristische Wochenschrift, Heft 31/1999, S. 2209. Steinberger, Christian (2006), Die Europäische Privatgesellschaft – Schaffung einer europaweiten Gesellschaftsform für kleinere und mittlere Unternehmen im Binnenmarkt, Beilage zu Betriebs-Berater (BB) Heft 37/2006, S. 27. Theiselmann, Rüdiger (2007), Die Existenzvernichtung im Wandel – Das Trihotel-Urteil des BGH vom 16.7.2007 II ZR 3/04 und seine Praxisfolgen, GmbH-Rundschau (GmbHR), Heft 17/2007, S. 904. Thoma Georg F./Leuering, Dieter (2002), Die Europäische Aktiengesellschaft – Societas Europaea, Neue Juristische Wochenschrift, Heft 20/2002, S. 1449. Ulmer, Peter (2004), Gläubigerschutz bei Scheinauslandsgesellschaften – zum Verhältnis zwischen gläubigerschützendem nationalen Gesellschafts-, Delikts- und Insolvenzrecht und der EG-Niederlassungsfreiheit, Neue Juristische Wochenschrift (NJW) (2004), S. 1201. Veil, Rüdiger (2008), Gesellschafterhaftung wegen existenzvernichtenden Eingriffs und materieller Unterkapitalisierung, Neue Juristische Wochenschrift (NJW), Heft 45/2008, S. 3264.
458
Claus Ahrens
Vetter, Jochen (2007), Die neue dogmatische Grundlage des BGH zur Existenzvernichtungshaftung, Betriebs-Berater (BB), Heft 37/2007, S. 1965. Von der Groeben, Peter/Schwarze, Jürgen (2003), Kommentar zum Vertrag über die Europäische Union und zur Gründung der Europäischen Gemeinschaft, 6. Auflage, Baden-Baden 2003. Weller, Marc-Philippe (2007), Die Neuausrichtung der Existenzvernichtungshaftung durch den BGH und ihre Implikation durch die Praxis – zugleich Besprechung BGH 16-7-2007 II ZR 3/04, ZIP 2007, 1552 („Trihotel“), Zeitschrift für Wirtschaftsrecht (ZIP), Heft 36/2007, S. 1681. Weller, Marc-Philippe (2007a), Die Existenzvernichtungshaftung im modernisierten GmbH-Recht – eine Außenhaftung für Forderungsvereitelung (§ 826 BGB), Deutsches Steuerrecht (DStR), Heft 27/2007, S. 1166. Wertenbruch, Johannes (2003), Der Abschluss des Überseering-Verfahrens durch den BGH – Folgerungen, Neue Zeitschrift für Gesellschaftsrecht, Heft 13/2003, S. 618. Zimmer, Daniel (2003), Nach „Inspire Art“: Grenzenlose Gestaltungsfreiheit für deutsche Unternehmen? Neue Juristische Wochenschrift (NJW), Heft 50/2003, S. 3585.
Unternehmensstiftungen * – Stiftungen als Unternehmensträger – Wolfgang Baumann
1
Historischer Aufriss und Einleitung
Stiftungen waren in der Tradition1 des deutschen Rechts über Jahrhunderte nicht als Privatrechtsubjekte, sondern zunächst als kirchliche2 und seit dem 15. Jahrhundert als staatlich privilegierte Sondervermögen verfasst. Das aus diesen historischen Ursprüngen erklärbare Erfordernis „frommer Zwecke“ („piae causae“ des Römischen Rechts)3 der Stiftungen wandelte sich unter den Einflüssen wach*
1
2
3
Themenwahl und Widmung meines Beitrags erschließen sich aus den Funktionen Norbert Koubeks als erstem Vorstandsvorsitzenden und – neben anderen Ideengebern – dem spiritus rector unserer Schumpeter School Stiftung (ehemals USI-Stiftung). Meiner engen, juristisch bei den jeweiligen Gründungen (hilfsweise) beratenden und immer freundschaftlich respektvollen Gremien-Zusammenarbeit mit Norbert Koubek im Vorstand dieser Stiftung und im Vorstand und Beirat des ebenfalls von Norbert Koubek gegründeten und später als Gründungsvorsitzenden geführten WTALumni e.V. – jetzt Schumpeter School Alumni e.V. – verdanke ich zahlreiche Impulse und Inspirationen. Mit beiden Verbänden hat Norbert Koubek für die Schumpeter School of Business and Economics nachhaltig wirkende Institutionen etabliert, die den kreativen Schöpfer und uns Mitglieder des Fachbereichs um viele Generationen überleben werden. Mein Beitrag als Autor und Mitherausgeber dieser Festschrift ist Zeichen meiner Anerkennung für Norbert Koubeks Einsatz und Leistungen und zugleich Ausdruck meines persönlich geschuldeten Dankes für seine kollegiale Kooperation. Es gibt – über die Stiftungsaufsichtsbehörden der Länder abrufbar – etwa 250 deutsche Stiftungen, die älter als 500 Jahre sind und heute noch ihre Stiftungszwecke erfüllen. Die älteste, die Bürgerspitalstiftung in Wemding/Bayern, stammt aus dem Jahr 917. Das kanonische Kirchenrecht regelte die Gründung und den Betrieb von Stiften, klösterlichen Gründungen oder Kollegien aus Klerikern, denen Stiftungskapital für bestimmte Aufgaben, etwa den Betrieb einer Stiftskirche, zur Verfügung gestellt war. Zum Ursprung der „piae causae“ im römischen Recht der Spätantike vgl. Mayer-Maly (1999), S. 35; Kaser (1975), S. 158.
460
Wolfgang Baumann
sender Säkularisierung in den Jahrhunderten nach der Reformation zu „gemeinnützigen Zwecken“. Die im 19. Jahrhundert in der Rechtswissenschaft sich fortentwickelnde Dogmatik führte mit Inkrafttreten des BGB zum 1. 1. 1900 trägerlose Zweckvermögen (Stiftungen) als juristische Personen in unsere Rechtsordnung ein, beließ aber – entgegen der von den Verfassern unseres Bürgerlichen Gesetzbuches bevorzugten Privatautonomie – ein öffentlich-rechtliches Stiftungswesen. Für ein von solchen Rechtstraditionen geprägtes Rechtsdenken waren Stiftungen in der Rolle eines Unternehmers als wettbewerbsorientierte Teilnehmer am Wirtschaftsverkehr kein normatives Leitbild. Den Vorstellungen des historischen Gesetzgebers war es fremd, dem Gemeinwohl verpflichtete Stiftungen4 als Rechtssubjekte am Wettbewerb des Marktes teilnehmen zu lassen, obwohl mit der Carl-Zeiss Stiftung schon vor Inkrafttreten des BGB im Deutschen Reich eine Unternehmensträgerstiftung errichtet worden war, welche ihren Stiftungszweck allerdings weniger wettbewerbs- als gemeinwohlorientiert definierte.5 Ein Paradigmenwechsel in der deutschen Rechtsdoktrin wurde 1962 auf dem 44. Deutschen Juristentag von Ernst-Joachim Mestmäcker angestoßen, der durch US-amerikanische Rechtsentwicklungen inspiriert eine Erweiterung der Stiftungszwecke forderte, was über die dogmatische Diskussion der folgenden Jahrzehnte in der Novellierung des Stiftungsrechts im Jahre 2002 mündete. Der nachfolgende Beitrag plädiert – mit für einen Praktiker gebotener Zurückhaltung – für eine schrittweise Fortentwicklung unserer Rechtsordnung, wonach künftig inhaberlose juristische Personen alle gesetzlich erlaubten Zwecke verfolgen, insbesondere unbeschränkt unternehmerisch tätig sein dürfen, auch als sogenannte Selbstzweckstiftungen und der Stifter die Stiftungsorgane einer Unternehmensträgerstiftung ermächtigen darf, den Stiftungszweck der Unternehmensträgerstiftung frei zu bestimmen bzw. den jeweiligen Marktverhältnissen anzupassen.
2
Begriffliche Abgrenzung der Unternehmensstiftung
Dem Wort „Unternehmensstiftung“ werden unterschiedliche Bedeutungsinhalte beigelegt. Teilweise werden darunter solche Stiftungen verstanden, die aus ei4 5
Vgl. den Wortlaut des § 80 Abs. 2 BGB: hier zeigt sich mit der Gemeinwohlbezogenheit die säkularisierte Form der „pia causa“ als rudimentäres Relikt. In der Gründungsurkunde der Carl-Zeiss Stiftung von 1889 regelte der Stifter Ernst Abbe die Stiftungszwecke, in deren Mittelpunkt die Verwendung der Unternehmenserträge zur Förderung der Wissenschaft stand. Nach § 1 des Stiftungsstatuts von 1896 ging es Ernst Abbe neben der Sicherung des Stiftungsunternehmers darum, aus den Erträgen die soziale Sicherung der Arbeitnehmer dauerhaft zu gewährleisten.
Unternehmensstiftungen – Stiftungen als Unternehmensträger –
461
nem Unternehmen heraus gegründet worden sind und die wegen des Primärziels der Verfolgung gemeinnütziger Zwecke als Reflex auch der Imageförderung dieses Unternehmens dienen. Überwiegend werden als Unternehmensstiftungen solche bezeichnet, die selbst unmittelbar als Unternehmensträger oder mittelbar über Beteiligungen an einer Personen- oder Kapitalgesellschaft ein Unternehmen betreiben (sog. Unternehmensbeteiligungsträgerstiftung).6 Der nachfolgende Beitrag behandelt nur diejenigen Stiftungen, die selbst unmittelbar als Unternehmensträger unternehmerisch am Markt tätig sind (Unternehmensträgerstiftung).
3
Stiftungen als Unternehmensträger
Die Sinnhaftigkeit der von Karsten Schmidt vertiefend herausgearbeiteten juristisch-dogmatischen Unterscheidung zwischen Unternehmen und Unternehmensträger erschließt sich bei unternehmerischen Stiftungen leichter als bei anderen juristisch verfassten Unternehmensträgern. Sogar in juristischen Publikationen werden bisweilen z.B. die Daimler AG, die Volkswagen AG, die Bayer AG oder die Barmenia Allgemeine Versicherungs-AG als Unternehmen bezeichnet und als solche verstanden. Rechtlich handelt es sich bei den Genannten nicht um Unternehmen, sondern um Unternehmensträger, die z.B. durch einen asset-deal von ihren jeweiligen Unternehmen getrennt werden könnten,7 ohne ihre Identität als juristische Personen (Unternehmensträger) zu verlieren. Die Trennung zwischen Unternehmen und Unternehmensträgern tritt bei Stiftungen für den juristischen Laien leichter nachvollziehbar zu Tage als bei Handelsgesellschaften, hinter denen auf der letzten Stufe immer natürliche Personen als Beteiligungsträger stehen.8 Eine Stiftung – selbst eine, die als Stiftungszweck nur den Unternehmenszweck hätte (dies wäre nach herkömmlichen Verständnis eine [nach h.M. unzulässige] sog. „Selbstzweckstiftung“) – kann mit einem Unternehmen nicht identisch sein, da sie als trägerlose juristische Person nur Rechtsinhaberin und Eigentümerin der einzelnen Unternehmensgegenstände 6
7 8
Dieser Stiftungsform ist u.a. wegen des größeren Gestaltungsfreiraums und der Abkoppelung des Unternehmenszwecks vom Stiftungszwecks de lege data als Unternehmensstiftung der Vorzug zu geben. Dazu und zu den verschiedenen Konstruktionsöglichkeiten Muscheler (2008), S. 134 ff.; Ihle (2009), S. 625 ff.; Schauhoff (2009), S. 1341; Schiffer (2009), S. 1358; Baumann, Handbuch (2009), S. 430 ff. Auch aus der Carl Zeiss Stiftung (Unternehmensträgerstiftung) wurde inzwischen eine Unternehmensbeteiligungsträgerstiftung. Vgl. dazu Baumann (2008), S. 441 f. Bei Beteiligungen der öffentlichen Hand an Handelsgesellschaften stehen auf der letzten Beteiligungsstufe nur mittelbar natürliche Personen, nämlich die Mitglieder der jeweiligen öffentlich-rechtlichen Körperschaft, z.B. die Bürger des Landes NRW.
462
Wolfgang Baumann
ist. Die Unternehmensgegenstände machen in organisatorisch sinnvoller Anordnung durch von Menschen koordinierte Handlungsabläufe das Unternehmen als rechtliche Sachgesamtheit aus. Im Unterschied zu Handelsgesellschaften9 steht hinter einem Unternehmensträger „Stiftung“ kein weiterer vermögenstragender Inhaber. Inhaber des Unternehmens ist die Stiftung als trägerlose juristische Person. Die Rechtsinhaberschaft des Rechtssubjekts Stiftung verdeutlicht ihre Trennung vom Rechtsobjekt Unternehmen. Bei der Unternehmensträgerstiftung bestehen zwei Einheiten, die reine Sachvermögen sind, nämlich das Unternehmen – als nicht rechtsfähige Organisationsform – und die (inhaberlose) Stiftung als rechtsfähige Organisationsform. Einerseits fällt die Trennung zwischen dem Unternehmen und dem Unternehmensträger „Stiftung“ leichter, andererseits liegt der Gedanke nahe, dass jedenfalls bei einer Selbstzweckstiftung zwischen Stiftung und Unternehmen – jeweils als trägerlosem Sachvermögen – Identität besteht.10
4
Unternehmerziele und Stifterziele
Jeder Unternehmer strebt mit seinem Unternehmen mindestens zwei große unternehmerische Ziele an. Das erste große Ziel ist rein materialistisch und auf seinen Lebensunterhalt, seinen eigenen Wohlstand und die Mehrung sowie Erhaltung privaten Vermögens gerichtet, da jedes florierende Unternehmen entnahmefähige Gewinne abwirft. Diese privatnützigen Zwecke können zugleich unternehmerischer Anreiz und Motivation sein. Sie werden von der Rechtsordnung im Rahmen der Wertungen des Art. 14 GG als legale Nutzung des Eigentums anerkannt und als Grundrechtsausübung mit sozialpflichtiger Gebundenheit gestützt.11 Dieses rein materialistische erste Ziel kann mit zunehmendem Alter des Unternehmers an Bedeutung verlieren, wenn seine private Existenz und die seiner 9
10
11
Die rechtliche Terminologie des Handelsrechts (HGB von 1897) ist von der Rechtsentwicklung überholt. Von den heutigen Handelsgesellschaften werden nicht nur Handels-, sondern auch Produktions- und Dienstleistungsunternehmen betrieben. Statt vom Handelsrecht (bzw. Handelsgesetzbuch) könnte mit gleicher Berechtigung von einem Produktions- oder Dienstleistungsrecht gesprochen werden. Das geltende Handelsgesetzbuch sollte durch ein Unternehmens-, Handels- und Dienstleitungsgesetzbuch ersetzt werden. Zu dogmatischen Überlegungen, die Unternehmen selbst mit eigener Rechtsfähigkeit auszustatten, vgl. Schmidt (1999), S. 70 ff. und die Ansätze etwa im Mitbestimmungsrecht. Die unternehmerisch tätige Selbstzweckstiftung könnte insoweit als „rechtsfähiges Unternehmen“ bezeichnet werden. Aus Gründen ökonomischer Effizienz eines Wettbewerbssystems muss unternehmerisches Vermögens als risikobehaftetes Privateigentum in einer offenen Gesellschaft anerkannt werden.
Unternehmensstiftungen – Stiftungen als Unternehmensträger –
463
nächsten Angehörigen gesichert ist oder wenn in seiner Familie ein geeigneter Unternehmensnachfolger fehlt. Mit der Nachfolgefrage stellt sich dem Unternehmer die Sinnfrage über sein Lebenswerk „Unternehmen“ verbunden mit der Verantwortung für die Menschen, die ihn unternehmensverbunden begleitet haben. Damit gewinnen andere Ziele Vorrang, insbesondere das zweite große Ziel jedes Unternehmers. Das zweite große Unternehmensziel ist ein ideelles, weil es – trotz wettbewerbsorientierter, unternehmerischer Zielsetzung – auf das allgemeine Wohl unserer Gesellschaft gerichtet ist – wenn auch nicht nach dem geltenden, verengten, weil auf kurzfristige Staatseinnahmen angelegten Gemeinnützigkeitsbegriff des Steuerrechts. Dieses zweite, dem Gemeinwohl dienende unternehmerische Ziel ist auf Wachstum und auf dauerhafte Kontinuität des Unternehmens als im System des Marktes lebender – vom Unternehmer getrennter – mit Eigenkräften wirkender Organismus gerichtet und wird von sozialen, gesellschaftlichen Motiven des Unternehmers geprägt sowie von seinen unternehmerischen Idealen bestimmt, wie dem Schutz und der Förderung seiner Arbeitnehmer. Dieses zweite Ziel dient objektiv dem Gemeinwohl, weil jedes gut florierende Unternehmen die Schaffung von Arbeitsplätzen und die Schöpfung von Wertzuwächsen zur Fortentwicklung12 unserer Gesellschaft fördert. Das zweite Unternehmerziel könnte sich mit einer Unternehmensträgerstiftung verwirklichen lassen. Die rechtliche Idee der Stiftung beruht auf einer Verknüpfung der vom Unternehmer erwirtschafteten materiellen Vermögenswerte mit einem ideellen Zweck. Mit einer Unternehmens-Stiftung versucht der Unternehmer als Stifter, seinen ideellen Zielen einen von der zeitlichen Befristung menschlichen Lebens abgelösten „Ewigkeitscharakter“ zu verleihen, indem er das Unternehmen mit einem ideellen – von der Begrenztheit menschlichen Lebens abgekoppelten – Zweck verknüpft und das Unternehmen mit seiner künftigen Entwicklung am Markt dem „Zweckträger“ anvertraut. 12
Aus dieser Betrachtung werden kultur-skeptische Ansätze ausgeklammert. Zwar dient nicht jedes wirtschaftliche Wachstum eines Unternehmens der gesellschaftlichen Fortentwicklung. Der einer offenen Gesellschaft inhärente Wissens- und Erkenntnisfortschritt ist mit der Folge verbunden, dass für die Gesellschaft sinnlose oder gar schädliche Produkte sich nicht dauerhaft am Markt halten können, sondern dem Selektionsdruck eines ökonomischen Evolutionsprozesses weichen müssen. Zweifel an einer positiven evolutiven Entwicklung wecken z.B. Medienprogramme, soweit sie einen negativen Selektionsdruck im menschlichen Erkenntnis- und Wissensfortschritt fördern. Aus dieser Beobachtung könnte eine Beschränkung der Stiftungszwecke gefordert werden. Trotz der Vorteile, die mit präventiven Systemen verbunden sind, erscheint es im Bereich der Lenkung der Zweckbestimmung juristischer Personen angemessen, dass der Gesetzgeber nachträglich Korrekturmöglichkeiten vornimmt, wenn sich Stiftungszwecke negativ auswirken, statt durch Reglementierung die Stiftungszwecke in einer unbekannten Zukunft gezielt zu lenken. Dort, wo Stiftungszwecke gegen unsere geltende Rechtsordnung verstoßen, greifen die Präventionswirkungen des Rechts.
464 5
Wolfgang Baumann Stiftungen als Garanten der Unternehmenskontinuität?
Unternehmerische Stiftungen können wegen der beschriebenen Verknüpfung mit seinem ideellen, dauerhaften Zweck und der Übertragung auf den „Zweckträger“ leichtfertig als entpersönlichte Ideallösung einer dauerhaften Unternehmensnachfolge empfohlen werden. Die lange Tradition deutscher Stiftungen scheint eine Generationen überdauernde Unternehmenskontinuität zu belegen. Solche Gestaltungsempfehlungen weisen jedoch nicht darauf hin, dass es sich bei den ältesten deutschen Unternehmen um Familienunternehmen handelt, während alle historischen deutschen Stiftungen nachhaltigen gemeinnützigen Zwecken dienen und nicht unternehmerisch am Markt tätig sind. Die Geeignetheit von Stiftungen als dauerhaften Unternehmensträgern ist bisher empirisch nicht belegt, kann allerdings wegen der erst kurzlebigen Erfahrungswerte über unternehmerische Stiftungen – trotz der nachfolgend beschriebenen Vorbehalte, die sich gegen das geltende Recht richten – nicht als widerlegt bezeichnet werden. Mit der Übertragung des Unternehmens auf eine Stiftung können die aus der Unternehmenskapitalbindung folgenden Rechtsprobleme (wie Streitigkeiten unter Miterben oder Liquiditätsbelastungen durch Abfindungsansprüche von Pflichtteilsberechtigten oder durch Zugewinnausgleichsansprüche von Ehegatten usw.) – teilweise – gelöst werden. Das Hauptproblem einer geordneten Unternehmensnachfolge und damit einer Sicherung der Unternehmenskontinuität ist jedoch weniger die Wahl der geeigneten Rechtsform des Unternehmensträgers oder des Eigners unternehmerischen Kapitals; das Hauptproblem jeder Unternehmensnachfolge – und bei Fehlentscheidungen die häufigste Ursache von Unternehmensinsolvenzen – ist die richtige Auswahl des künftigen unternehmerisch verantwortlichen Entscheidungsträgers, des innovativen Impulsgebers, derjenigen (Unternehmer-)Persönlichkeit, die Triebfeder jedes unternehmerischen Handelns ist, des kreativen Zerstörers und dynamisch neu Entwickelnden und Aufbauenden im Sinne Joseph Schumpeters. Dieses Problem der Unternehmernachfolge zur Wahrung der Unternehmenskontinuität kann durch eine Stiftung nicht gelöst werden, sondern wird eher verschärft, weil die Stiftung als Unternehmensträger bloßer Kapitaleigner ist, nach geltendem Recht aber weder der Stiftungszweck noch das Stiftungsmanagement dahingehend gestaltet werden kann, unternehmerischer Impulsgeber zu sein. Da der Stiftungszweck vom Stifter festgelegt wird, ist jede Unternehmensträgerstiftung hinsichtlich ihrer Zweckverfolgung nicht auf dynamische Marktveränderungen eingestellt und ausgerichtet. Damit ist ein zweiter Nachteil – sogar eine Gefahr – verbunden.
Unternehmensstiftungen – Stiftungen als Unternehmensträger –
465
Unternehmerische Führungsimpulse müssten bei der Unternehmensträgerstiftung von den Stiftungsorganen ausgehen. Stiftungsorgane können aufgrund rechtlicher Vorgaben des Stiftungsrechts in ihren Organfunktionen weder unternehmerische Risiken oder Wagnisse eingehen noch werden die Organträger (Vorstands- oder Kuratoriumsmitglieder) durch eigene wirtschaftliche Anreize zum unternehmerischen Erfolg getrieben. In ihren Funktionen, ihren Beteiligungsmöglichkeiten und ihren Leistungsanreizen unterscheiden sich Stiftungsorgane von Organträgern einer Handelsgesellschaft. Stiftungen können sich den ökonomischen Herausforderungen der aufgrund technologischer Innovationen permanent verändernden Marktsituationen in ihren gegenwärtigen rechtlichen Strukturen, insbesondere wegen des nur eingeschränkt und schwer abänderbaren Stiftungszweckes, nur unzulänglich stellen. Stiftungen sind nach geltendem Recht – jedenfalls als Unternehmensträgerstiftungen – keine Ideallösung13 für eine Unternehmenskontinuität bei marktorientierten Unternehmen. Aufgrund dieses Befundes scheiden Unternehmensträgerstiftungen nicht per se als Organisationsform eines Unternehmens aus. Insbesondere bei wirtschaftlichen Gemeinschaftsaufgaben mit dauerhaften, nachhaltigen Zielsetzungen (z.B. Erforschung des Weltraums, Schutz der Atmosphäre, Klimaschutz usw.) könnten Unternehmensträgerstiftungen als geeignete Rechtsform eines dauerhaft erfolgreichen Unternehmensträgers erwogen werden.
6
Offener Unternehmenszweck und starrer Stiftungszweck
Ziele und Zwecke eines am Markt tätigen Unternehmens sollten nicht für alle Zukunft an den historisch bedingt festgelegten Stifterwillen gebunden werden. Ein Unternehmer als Stifter, der mit dem Stiftungs-Zweck einer Unternehmensträgerstiftung die Zukunft des Unternehmens dauerhaft festlegt, hat unternehmerisch versagt oder ist schlecht beraten worden. Die von technologischen Innovationen abhängige Evolution eines Unternehmens, seine dynamisch prozessualen Veränderungen, sind mit einem statisch fixierten Zweck einer Stiftung auf Dauer nicht vereinbar. Diese Erkenntnis wirft die Frage auf, in welchem Umfang der Stifter den Stiftungsorganen die Freiheit einräumen darf, den Stiftungsweck einer Unternehmensträgerstiftung zu verändern. Obwohl der vom Stifter festgelegte Stiftungszweck als wichtigster Bestandteil des Stiftungsgeschäfts und der Satzung angesehen wird,14 soll es dem Stifter nach dem Willen des Gesetzgebers unbe13 14
Auch Familienunternehmen als Verantwortungsverband bilden nur solange eine Ideallösung, wie aus dem Kreis der Familie geeignete Unternehmer nachwachsen. Palandt/Ellenberger (2010), § 81 BGB, Rz. 7.
466
Wolfgang Baumann
nommen bleiben, selbst Festlegungen für künftige Änderungen des Stiftungszweckes zu treffen.15 Für die notwendige permanente Anpassung des Unternehmerzwecks an die dynamischen Veränderungen des Marktes sind solche Festlegungen des Stifters unzureichend. Grundlegende Satzungsänderungen sind nach § 86 S. 1 i.V.m. §§ 27, 665 BGB zwar dann möglich, wenn die Sachlage von den Annahmen des Stifters, die den Anordnungen der Stiftungsverfassung zugrunde liegen, abweicht und die Verfolgung des Stiftungszweck nicht interessengerecht ist,16 nach § 87 Abs. 1 BGB kann aber der Stiftungszweck nur geändert werden, wenn seine Erfüllung unmöglich geworden ist oder das Gemeinwohl gefährdet. Bis zur Unmöglichkeit der Zweckerfüllung kann bei einer marktnotwendigen Änderung des Unternehmenszwecks nicht gewartet werden. Das geltende Recht gewährt dem Stifter nicht die Freiheit, Dritten die Zweckbestimmungen der Stiftung zu überlassen. Damit verstößt unsere Rechtsordnung nach Ansicht des Verfassers gegen die durch Art. 2 Abs. 1 GG verfassungsrechtlich geschützte allgemeine Handlungsfreiheit des Stifters.17 Diese gewährt jedem Eigentümer von Vermögensgegenständen die Freiheit, über sein Eigentum – in den Grenzen der Sozialpflichtigkeit des Art. 14 Abs. 2 GG – frei zu verfügen, sogar die Freiheit, sich im Wege der Eigentumsaufgabe gem. §§ 928, 959 BGB von seinem Eigentum zu befreien. Wenn unsere Rechtsordnung die Derelikton ermöglicht und jedem Rechtsinhaber die Freiheit gewährt, auf seine Ansprüche und Rechte zu verzichten, warum soll dann einem Eigentümer und Rechtsinhaber die Freiheit verschlossen bleiben, sich von seinem Vermögen in der Weise zu trennen, dass er einem Dritten überlässt, die Zwecke eines von ihm gestifteten künftig inhaberlosen Vermögens in Zukunft neu festzulegen und den gesellschaftlichen und ökonomischen Anforderungen anzupassen? In einem auf Privatautonomie beruhenden Stiftungsrecht hätte allein der Stifter die Grenzen künftiger Veränderungsmöglichkeiten zu setzen. Der Stifter könnte in einem von ihm geschlossenen Rahmen oder nur in bestimmten Richtungen oder gänzlich geöffnet festlegen, welche Unternehmenszwecke die Stiftung verfolgen bzw. nicht verfolgen darf. Gegen einen vom Stifter „geöffneten Stiftungszweck“ spricht nicht § 2065 Abs. 2 BGB. Das dort geregelte Verbot der Drittbestimmung des Erben schränkt die Veränderung der Zweckbestimmung des Stifters deshalb nicht ein, weil der 15 16 17
BT-Drucks. 14/8277 zu § 81, S. 8. Burgard (2006), S. 341, S. 348. Burgard (2006), S. 332, hat diese Frage in seiner Habilitationsschrift umfassend untersucht, kommt aber trotz seiner Kritik an der h.M. zum Ergebnis, dass der Stiftungszweck nur unter dem vom Gesetz bestimmten oder in engen Grenzen vom Stifter justiziabel benannten Voraussetzungen zulässig ist.
Unternehmensstiftungen – Stiftungen als Unternehmensträger –
467
Erblasser (= Stifter) bei einem offenen Stiftungszweck den Erben (die Stiftung) selbst bestimmt und diesem nur die Freiheit belässt, über das Vermögen wie jeder Erbe frei zu verfügen.
7
Die Selbstzweckstiftung als Unternehmensstiftung
Nach h.M. sind Selbstzweckstiftungen deshalb rechtlich unzulässig,18 weil sie den allein auf die Verfolgung der eigenen Perpetuierung, der Sammlung oder der Thesaurierung des eigenen Vermögen gerichtet sind. Stiftungen müssen nach dieser h.M. einem außerhalb der Stiftung festgelegten Zweck gewidmet sein. Dementsprechend sollen Unternehmensträgerstiftungen als Unternehmensselbstzweckstiftungen rechtlich unzulässig sein, wenn der Stiftungszweck mit dem Unternehmenszweck identisch ist.19 Gestützt wird diese Rechtsansicht überwiegend auf den Regelungsinhalt der §§ 80, 81 BGB, wonach der Stifter das Vermögen hingeben muss, um es einem von ihm vorgegebenen Zweck zu widmen. Dieser Zweck müsse außerhalb der Thesaurierung liegen.20 Diese Auffassung, die wohl de lege lata anzuerkennen ist, wird durch historische Stiftungen in Frage gestellt, die sich in der Unterhaltung des Betriebs eines Stiftes, einer Stiftskirche oder eines Spitals in einem Selbstzweck erschöpften bzw. bis zum heutigen Tage erschöpfen.21 Als zweites Argument wird angeführt, die Erhaltung und Thesaurierung des Stiftungsvermögens um seiner selbst willen sei ohne Sinn.22 Offenkundig wäre es sinnlos, wenn eine Stiftung Vermögensgegenstände von der Öffentlichkeit abgeschottet horten würde, wobei sogar in solchen Fällen ein von unserer Gesellschaft zu beachtender und vom Staat zu schützender Sinn der dauerhaften Erhaltung eines Kulturgutes anzuerkennen wäre. Da laufende „Hortungs-“ und „Verwaltungskosten“ anfielen, würde selbst großes Vermögen durch bloßes Thesaurieren schnell verbraucht und könnte den Vermögenserhalt der Stiftung nicht gewährleisten, geschweige denn eine Vermögensmehrung. Die „Sinnlosigkeit“ des Entzugs von Vermögensgegenständen aus dem Wirtschaftskreislauf wird zwar nachhaltig zum Zerfall des Vermögens führen, kann aber nach geltenden Recht kaum rechtfertigen, einen solchen Willen des Stifters als rechtswidrig zu verbieten. Jede Person, auch der Stifter hat die durch Art. 2 Abs. 1, 14 GG 18 19 20 21 22
Werner in: Werner/Saenger (2008), Rz. 18.; Bamberger/Roth/Schwarz (2003), Vor § 80 BGB, Rz. 5. Muscheler (2008), S. 175. Werner in: Werner/Saenger (2008), Rz. 18. Die Säkularisierung des Stiftungswesens könnte Ursache sein, dass außerhalb der Stiftung liegende Zwecke benannt werden mussten. Werner in: Werner/Saenger (2008), Rz. 18.
468
Wolfgang Baumann
geschützte Freiheit, Eigentum sinnlos einzusetzen. Der individualisierte Stifterwille hat demnach Vorrang vor den kollektiven Interessen der Gemeinschaft, solange sein Individualinteresse das Gemeinwohl nicht schädigt.23 So wie der Stifter selbst die durch Art. 2 Abs. 1 GG geschützte Handlungsfreiheit hat, sich mit seinen Vermögensgegenständen aus der Zivilisation zurückzuziehen, kann er diese Handlungsfreiheit auch auf seine Vermögensgegenstände (soweit dies tatbestandlich möglich ist – z.B. nicht bei Grundbesitz) reduzieren, solange unsere Rechtsordnung ihn wegen der Sozialpflichtigkeit des Eigentums nicht daran hindert (z.B. wenn er wichtige Kulturgüter zerstört). Das von der h.M. angenommene Verbot der Selbstzweckstiftung verletzt die allgemeine Handlungsfreiheit des Stifters aus Art. 2 Abs. 1 GG, solange er mit seiner Selbstzweckstiftung die Rechte Dritter nicht verletzt. Legt die Stiftung das Vermögen z.B. durch Darlehen an Banken oder anderweitig in den Wirtschaftskreislauf, findet eine sinnlose „Hortung“ nicht statt. Die Stiftung stellt vielmehr – wie eine Bank – Kapital für andere Zwecke des allgemeinen Wirtschaftskreislaufs zur Verfügung. Die Argumentation, ein Stiftungszweck der eigenen Vermögensmehrung der Stiftung sei ohne Sinn,24 ist – jedenfalls in allen Fällen, in denen die Stiftung als Unternehmen am Wirtschaftskreislauf teilnimmt – ökonomisch fehlerhaft und juristisch nicht begründbar. Eine Unternehmensträgerstiftung, die sich aus dem Wirtschaftsleben zurückzieht, wird es kaum geben. Sollte eine solche Stiftung errichtet werden – die laufenden Betriebskosten würden zu einem Vermögensverlust führen – dann sollte dies durch Art. 2 GG, der auch die Handlungsfreiheit der Stiftungen und des Stifters schützt, der solche Anordnungen trifft, gedeckt sein. Bei einer „Unternehmensselbstzweckstiftung“ ist das aus juristischer Dogmatik abgeleitete Verbot der Selbstzweckstiftung aus ökonomischer Sicht verfehlt. Ökonomisch ist nicht nachvollziehbar, warum ein zweckgebundenes Vermögen nicht ausschließlich diesen Zwecken selbst dienen soll. Das gegen Selbstzweckstiftungen vorgetragene „Hortungsargument“ ist im Vergleich zum Handeln natürlicher Personen verfehlt. Familienunternehmer verzichten oftmals auf Privatentnahmen, leben – am Erfolg des Unternehmens gemessen – relativ bescheiden als „vom Unternehmen bezahlte Arbeitskraft“ und thesaurieren – nach den genannten Maßstäben sinnlos – ihr wachsendes Vermögen im Unternehmen, betreiben also nach der Logik des Verbots der Selbstzweckfindung ein sinnloses „Selbstzweckunternehmen“. Ein Unternehmer, der diese Thesaurierungsdynamik
23 24
Seine gesellschaftliche Rechtfertigung findet diese atomisierte Individualisierung in der Summe der zusammentreffenden Individualinteressen, die das Gemeinwohl ausmachen. Werner in: Werner/Saenger (2008), Rz. 18; Andrick/Suerbaum (2001), § 2, Rz. 8.
Unternehmensstiftungen – Stiftungen als Unternehmensträger –
469
einer Stiftung auferlegt, die sein Unternehmen als Unternehmensträger fortsetzen soll, hätte sein Leben an sinnlosen Zwecken ausgerichtet. Letztlich ist einzuwenden, dass ein Unternehmen, welches Vermögensgegenstände nur hortet, am realen Markt nicht existiert. Dynamische Unternehmensprozesse mit der notwendigen Marktteilnahme stehen im offenen Widerspruch zur unproduktiven Vermögenshortung. Die Teilnahme jedes Unternehmens am Wirtschaftsverkehr baut nach außen im horizontalen (Konkurrenten), wie vertikalen (Zulieferer, Kunden) Bereich und innerbetrieblich durch Organisationsstrukturen bestimmte Rechtsbeziehungen auf, führt zu Wertschöpfungen durch Schaffung von Produkten und Dienstleistungen, erhöht das allgemeine Steueraufkommen, sichert und schafft Arbeitsplätze,25 so dass die herrschende Meinung in der juristischen Dogmatik, eine Stiftung, deren Zweck sich in dem Betrieb eines Unternehmens erschöpfe, sei als Selbstzweckstiftung unzulässig, bei tieferer Betrachtung nur belegt, dass ökonomische Folgen in die Rechtsbetrachtung nicht einbezogen sind.
8
Ergebnisse nach geltendem Recht
Ein Unternehmer, der vom Willen beseelt ist, sein Lebenswerk dauerhaft zu erhalten, kann leichtfertig der Versuchung verfallen, den Ewigkeitstraum seines Unternehmens mit einer Stiftung zu verbinden. Stiftungen sind als inhaberlose Vermögensmassen jedoch kein Garant für ewigen Fortbestand, weil jedes Unternehmen nur vom unternehmerischen Impulsgeber und Innovator im Sinne Joseph Schumpeters voran getrieben wird und nur während der Dauer seiner innovatorischen Kraft (sofern der Staat nicht eingreift) als Marktteilnehmer fortbesteht. Die Essentialia moderner Stiftungen liegen nicht in der Verstetigung des Stifterwillens begründet, auch wenn sich Relikte dieses Ewigkeitsmythos noch in der schwer veränderbaren Zwecksetzung einer Stiftung wiederfinden. Von anderen juristischen Personen unterscheidet sich die Stiftung primär durch das inhaberlos gebundene Vermögen. Unsere Rechtsordnung verlangt keine ewige Zweckbindung dieses Vermögens, was die Stiftung auf Zeit ebenso belegt wie die in unserer Rechtsordnung gewährte Freiheit über Eigentum und Rechte bis zur Grenze der Gesetzes- und Sittenwidrigkeit nach Belieben zu verfügen. Darf der Stifter Stiftungen auf Zeit errichten, so muss ihm als Minus von unserer Rechtsordnung auch die Möglichkeit eingeräumt werden, bei einer auf Dauer angelegten Stiftung nur den Stiftungszweck auf Zeit festzulegen und danach die Festlegung des Stiftungszwecks in das Belieben von ihm benannter Dritter (Stif25
Vgl. dazu auch Hof in Seifart/von Campenhausen (2009), § 7, Rz. 59.
470
Wolfgang Baumann
tungsorgane) zu stellen.26 Der Stifter hat die verfassungsrechtlich garantierte Freiheit, die Dauer der Zweckbindung seines Vermögens (seiner Stiftung) festzulegen. Bei Unternehmensträgerstiftungen kann er durch kurzfristige Zwecksetzungen (Stiftung auf Zeit) dem Unternehmensträger Stiftung die Freiheit zur Anpassung und Fortentwicklung des Unternehmenszwecks eröffnen. Je mehr Freiheiten den Organen des inhaberlos zweckgebundenen, zur juristischen Person verfassten Vermögens eingeräumt werden, desto mehr eignen sich Stiftungen als Unternehmensträger.27 Beispiel: Die Belegschaft des Unternehmens soll die Unternehmensziele künftig bestimmen können. Ob durch den Unternehmer festgelegte demokratische Strukturen geeignet sind, Unternehmen dauerhaft erfolgreich zu führen, ist bisher weder belegt noch widerlegt. Allerdings könnte das fehlende Eigenkapitalinteresse der beteiligten Handelnden bei einem inhaberlosen Unternehmensträger gegen einen auf Dauer angelegten unternehmerischen Erfolg sprechen, ebenso wie die schwerfälligen Entscheidungsprozesse einer innerbetrieblichen „demokratischen“ Willensbildung. Solche strukturellen Schwächen der Willensbildung von Personengesamtheiten könnte der Stifter durch zwingend vorgegebene Organisationsstrukturen (Entscheidungsträger auf Zeit, die nach „demokratischen“ Prinzipien ernannt werden) vorgeben. Stiftungszweck und Unternehmenszweck stehen in einem rechtlichen Spannungsverhältnis, wenn sie nicht identisch sind. Dieses Spannungsverhältnis wirkt sich aus beim Kapitaleinsatz: einerseits auf die Pflicht zur Erhaltung des Stiftungskapitals, andererseits auf die Pflicht des Unternehmensträgers (Stiftung), das Unternehmen mit unternehmerischem Wagniskapital auszustatten. Stiftungsmanagement und Unternehmensmanagement sind unterschiedlichen Zwecksetzungen verpflichtet. Daraus folgt: Kapital und Management zwischen Stiftung und Unternehmen sollten auch bei Unternehmensträgerstiftungen getrennt werden, es sei denn, unsere Rechtsordnung würde eine Unternehmensselbstzweckstiftung anerkennen, in welcher der Stiftungs- und der Unternehmenszweck identisch sind.
9
Ausblick de lege ferenda
Unsere Rechtsordnung sollte die Rechtsform der Stiftung nicht durch zu enge Vorgaben an der Zwecksetzung in der Wahrnehmung unternehmerischer Aufga26 27
Dass eine vom Stifter geöffnete Zweckbestimmung in Einzelfällen negative steuerliche Wirkungen entfalten kann, ist nicht Thema dieses Beitrags. Gefahren könnten bei sehr großen Vermögensagglomerationen drohen, die zu Freiheitsbeschränkungen einzelner führen.
Unternehmensstiftungen – Stiftungen als Unternehmensträger –
471
ben behindern. Dem Stifter sollte im Privatrecht die Freiheit zustehen, die Stiftungszwecke nach eigenem Gutdünken offen zu halten und ihre Bestimmung – insbesondere nach seinem Tod – durch Dritte den sich ändernden gesellschaftlichen Verhältnissen anpassen zu lassen. Stiftungen können sowohl individuelle, egoistisch begründete Ziele des Stifters als auch Ziele mit hoher Verantwortung für die Zukunft unserer Gesellschaft erfüllen. Möglichen Missbräuchen offener Zwecke eines gebundenen Vermögens können Grenzen gesetzt werden, indem bei freizugebenden Zwecksetzungen einer Stiftung die Mittelverwendung zugunsten Dritter eingeschränkt wird. Die Unternehmensstiftung könnte als „Selbstzweckstiftung“ ein Eigenleben als dynamisches Unternehmen entwickeln. Die bisher von der h.M. abgelehnte Selbstzweckstiftung würde sich damit künftig als taugliche Gestaltungsoption einer Unternehmensträgerstiftung anbieten und könnte sich zugleich als rechtliche Einheit zwischen Unternehmensträger und Unternehmen erweisen. Die Identität zwischen Unternehmen und Unternehmensträger könnte aber nur bei Selbstzweckstiftungen gelten, weil alle anderen Unternehmensträgerstiftungen einen vom Unternehmenszweck verschiedenen Stiftungszweck verfolgen und damit andere Interessen (z.B. Förderung der Familie, Gemeinnützigkeit) als das Unternehmen. Der von Schumpeter mit dem Merkmal der Kraft zerstörerischer Innovation skizzierte Unternehmer muss nach Markteintritt seine Unternehmensziele den sich erweiternden naturwissenschaftlichen Erkenntnissen, den daraus resultierenden technologischen Innovationen und den damit verbundenen Veränderungen der Märkte anpassen. Aufgrund technologischer Innovationen veränderte Produkte und Dienstleistungen eröffnen neue Märkte und schließen andere. Diesen dynamischen Entwicklungen kann ein in der Stiftungssatzung inkorporierter, an dauerhaften Zielsetzungen ausgerichteter, versteinerter Stiftungszweck nicht genügen. Als Diskussionsgrundlage für Reformvorschläge des Stiftungsrechts ist an den Gesetzgeber heranzutragen:
Stiftungen können als gebundene inhaberlose Vermögen allen rechtlich zulässigen Zwecken dienen und nicht – wie nach dem Gesetzeswortlaut nur solchen, die das Gemeinwohl nicht gefährden. Dabei ist schon fraglich, ob ein nach dem Gesetz zulässiger Zweck, der nicht gegen §§ 134, 138 BGB verstößt, geeignet sein könnte, das Gemeinwohl zu gefährden. Die Doktrin des Verbots der Selbstzweckstiftung ist aufzugeben. Selbstzweckstiftungen als Unternehmensträger können als Zweckverband mit dem Unternehmen gleichgesetzt werden und können als Stiftungszweck den Unternehmenszweck verfolgen. Die fehlende Regelungsdichte bei Unternehmensstiftungen, wie z.B. die Nichtanwendbarkeit des Mitbestim-
472
Wolfgang Baumann mungsgesetzes, könnte ihren dauerhaften Rechtfertigungsgrund darin finden, dass die Stiftung selbst das Unternehmen verkörpert. Sinnvoll erscheint – aus heutiger Sicht – eine trägerlose rechtliche Verselbständigung des Unternehmens bei Monopolbetrieben. Sogar bei Monopolbetrieben sollte den Stiftungsorganen ein hohes Maß an Freiheit zur Änderung der Zweckbestimmung eingeräumt werden, um Anpassungen der Unternehmensstrukturen an die Erfordernisse des Marktes wahrnehmen zu können.
Stiftungen stecken als Unternehmensträger noch in den Kinderschuhen der Rechtsentwicklung. Der Gesetzgeber sollte Stiftungen als trägerlose juristische Personen, soweit sie unternehmerisch tätig sind, beobachten und wegen der ausschließlich sachorientierten Zwecksetzungen im Interesse des Gemeinwohls fördern. Ein künftiges Recht sollte eine stärkere Differenzierung zwischen Familienstiftungen, gemeinnützigen Stiftungen, sogenannten Selbstzweckstiftungen und den verschiedenen Arten der Unternehmensstiftungen regeln.
Literatur Andrick, Bernd/Suerbaum, Joachim (2001): Stiftung und Aufsicht. DogmatikStiftungspraxis-Reformbestrebungen, München 2001. Bamberger, Heinz Georg/Roth, Herbert (Hrsg.) (2003): Kommentar zum Bürgerlichen Gesetzbuch, München 2003. Baumann, Wolfgang (2008): Das Unternehmen als Rechtsbegriff – Sammelsurium, Rechtsobjekt oder Rechtssubjekt –, in: Pütz, Markus/Böth, Thorsten/Arendt, Volker (Hrsg.), Controllingbeiträge im Spannungsfeld offener Problemstrukturen und betriebspolitischer Herausforderungen. Festschrift für Winfried Matthes, Lohmar – Köln 2008, S. 440-460. Burgard, Ulrich (2006): Gestaltungsfreiheit im Stiftungsrecht, Köln 2006. Esch, Günter/Baumann, Wolfgang/Schulze zur Wiesche, Dieter (2009) [Baumann, Handbuch]: Handbuch der Vermögensnachfolge, 7. Aufl., Berlin 2009. Ihle, Jörg (2009): Stiftungen als Instrument der Unternehmensnachfolge, Rheinische Notarzeitschrift (RNotZ) 2009, S. 557 ff. u. S. 621 ff. Kaser, Max (1975): Das Römische Privatrecht: Die nachklassischen Entwicklungen, München 1975. Mayer-Maly, Theo (1999): Römisches Recht, 2. Aufl., Wien/New York 1999. Mestmäcker, Ernst-Joachim (1962): Soll das Stiftungsrecht bundesgesetzlich vereinheitlicht und reformiert werden, gegebenenfalls mit welchen Grundzügen? In: Verhandlungen des 44. Deutschen Juristentages, Bd. II, Teil G, München 1962. Meyn, Christian/Richter, Andreas/Koss, Claus (2009): Die Stiftung, 2. Aufl., Freiburg/München/Berlin 2009.
Unternehmensstiftungen – Stiftungen als Unternehmensträger –
473
Muscheler, Karlheinz (2008): Die Unternehmensstiftung, besser: Die unternehmensverbundene Stiftung, Zeitschrift für die gesamte Erbrechtspraxis (ErbR) 2008, S. 134143 u. S. 174-181. Palandt, Otto (2010) [Palandt/Bearbeiter]: Bürgerliches Gesetzbuch, 69. Aufl., München 2010. Schauhoff, Stephan (2009): Unternehmensnachfolge mit Stiftungen, in: Festschrift f. Sebastian Spiegelberger, Bonn 2009, S. 1341-1350. Schiffer, Jan (2009): Stiftungen und Familie: Anmerkungen zu „Familienstiftungen“, in: Festschrift f. Sebastian Spiegelberger, Bonn 2009, S. 1358-1369. Schmidt, Karsten (1999): Handelsrecht, 5. Aufl., Köln 1999. Seifart, Werner/von Campenhausen, Axel (Hrsg.) (2009): Stiftungsrechts-Handbuch, 3. Aufl., München 2009. Werner, Olaf/Saenger, Ingo (Hrsg.) (2008): Die Stiftung, Berlin 2008.
Innovation im Steuerrecht: Wie kann die Thesaurierungsbegünstigung eine annähernd belastungsneutrale Besteuerung von Personen- und Kapitalgesellschaften gewährleisten? Kerstin Schneider / Claudia Wesselbaum-Neugebauer
1
Einleitung
Die Steuergesetzgebung in Deutschland ist zwar für eine nicht unerhebliche Kreativität bekannt, als Innovation im Sinne von Weiterentwicklung und Fortschritt lassen sich Steuerreformen der Vergangenheit jedoch nur selten charakterisieren. Dennoch kommt dem Staat durch die Setzung institutioneller Rahmenbedingungen eine entscheidende Aufgabe für die wirtschaftliche Entwicklung eines Landes zu: Wirtschaftspolitik sollte die Innovationsfähigkeit der Unternehmen und die Entwicklung zukunftsträchtiger Märkte stützen oder wenigstens nicht behindern. Diese Forderung lässt sich auch auf die Steuergesetzgebung übertragen. Ein effizientes Steuersystem ermöglicht Wirtschaftswachstum und verleitet Unternehmen nicht dazu, ökonomisch ineffiziente aber eventuell steuersparende Entscheidungen zu treffen. Ein Kriterium für ein effizientes Steuersystems ist die Rechtsformneutralität der Besteuerung. Rechtsformneutralität bedeutet, dass die Steuerbelastung eines Unternehmens und seiner Anteilseigner nicht von der gewählten Rechtsform des Unternehmens abhängt. In der Unternehmensteuerreform 2008 wurde auch das Ziel verfolgt, Rechtsformneutralität in der Unternehmensbesteuerung umzusetzen. In diesem Beitrag wenden wir uns einem Element der Unternehmensteuerreform 2008 zu: dem § 34a EStG, der vereinfachend als „Thesaurierungsbegünstigung“ bezeichnet wird. Die Idee hinter der Thesaurierungsbegünstigung ist, ein längst erkanntes Defizit in der Unternehmensbesteuerung, nämlich die steuer-
476
Kerstin Schneider / Claudia Wesselbaum-Neugebauer
liche Ungleichbehandlung von Gewinneinkünften von Einzelunternehmern und Mitunternehmern auf der einen und Einkommen aus Kapitalgesellschaften auf der anderen Seite, aufzuheben.1 In der konkreten Umsetzung hat § 34a EStG nicht die Zustimmung der Steuerwissenschaftler gewinnen können und verschiedene Autoren2 gelangen zu dem Ergebnis, dass die vom Gesetzgeber erhofften Resultate mit dieser Gesetzesänderung nur partiell bzw. gar nicht erreicht werden können. Dieses Schicksal teilt § 34a EStG mit vielen anderen „innovativen“ Steuergesetzen in der Vergangenheit, die von den Experten nicht selten mit Verwunderung zur Kenntnis genommen werden. Im Fall der Thesaurierungsbegünstigung geht die Ablehnung der Wissenschaftler sogar so weit, dass nicht einmal über mögliche Korrekturen nachgedacht wird, sondern Knirsch/Maiterth/Hundsdoerfer3 mit Zustimmung von 34 Fachkollegen „zur Abschaffung der misslungenen Thesaurierungsbegünstigung“ aufrufen. Im Folgenden wird nun geprüft, ob die Thesaurierungsbegünstigung erfolgreich reformiert und § 34a EStG nicht doch gerettet werden kann. Dabei stellt sich heraus, dass die Idee, die hinter der Thesaurierungsbegünstigung steckt, nicht konsequent genug umgesetzt wurde. Durch die Thesaurierungsbegünstigung wird eine Trennung zwischen Gesellschaft und Gesellschafter eingeführt, die so für Personengesellschaften bislang nicht existent war. In diesem Beitrag wird gezeigt, dass allein die virtuelle und umfassende Trennung zwischen den Ebenen eine weitestgehende Angleichung der steuerlichen Belastung erreicht, wie sie der Gesetzgeber intendiert hatte. Nach der Einleitung werden im 2. Abschnitt zunächst die in Deutschland angewandten Besteuerungskonzepte dargestellt und ihre Wirkung auf die Gesamtsteuerbelastung von Unternehmen und Gesellschafter aufgezeigt. Nachfolgend wird im 3. Abschnitt die Begünstigung nicht entnommener Gewinne erläutert und im 4. Abschnitt analysiert, welche Reformen erforderlich sind, um die gesetzten Ziele realisieren zu können. Abschnitt 5 fasst die Resultate abschließend zusammen.
1 2
3
BR-Drs. 220/07, S. 101. Vgl. u.a. Bachmann/Schultze (2008), S. 9; Broer/Dwenger (2008), S. 17; Drüen (2008), S. 393; Hey (2007), S. 925; Homburg (2007), S. 688; Homburg /Houben/ Maiterth (2008), S. 29; Houben/Maiterth (2008); Knirsch/Schanz (2008); Maiterth/Müller (2007), S. 49; Müller/Houben (2008), S. 237; Patek (2007), S. 461; Schreiber/Overesch (2008), S. 813; Schreiber/Ruf (2007), S. 1099; Siegel (2008), S. 561; Spengel/Reister (2006), S. 1741; Winkeljohann/Fuhrmann (2007), S. 480. Vgl. Knirsch/Maiterth/Hundsdoerfer (2008), S. 1405.
Innovation im Steuerrecht: Die Thesaurierungsbegünstigung. 2
477
Vergleichbare Besteuerung von Personen- und Kapitalgesellschaften
Die Zielsetzung, Einzelunternehmer und die Gesellschafter von Personengesellschaften in vergleichbarer Weise wie Kapitalgesellschaften tariflich zu belasten, wird häufig als Forderung nach rechtsformneutraler Besteuerung beschrieben. Dahinter verbirgt sich der Anspruch nach einer Besteuerung, die auf die Rechtsformwahl keinen Einfluss nimmt.4 Bei rechtsformneutraler Besteuerung erfolgt die Entscheidung über die optimale Rechtsform ausschließlich anhand zivilrechtsowie betriebswirtschaftlicher Merkmale. In Deutschland erfolgt die Besteuerung von natürlichen Personen und Kapitalgesellschaften seit den reichseinheitlichen Gesetzen des Jahres 1920 getrennt.5 Das Steuerrecht folgt insoweit der Wertung des Zivilrechts und behandelt die Kapitalgesellschaft und ihre Gesellschafter als eigenständige Rechts- und Vermögenssubjekte. Dabei ist natürlich auch die Kapitalgesellschaft aus ökonomischer Sicht nur ein Instrument der Unternehmenseigner zur Einkommenserzielung. Die Besteuerung fingiert dennoch eine eigenständige Leistungsfähigkeit des Unternehmens. Aus dieser Vorgehensweise folgt, dass die zwischen den selbständigen Steuersubjekten vereinbarten schuldrechtlichen Leistungsbeziehungen steuerlich grundsätzlich anzuerkennen sind. Die vertraglichen Leistungen an den Gesellschafter unterliegen bei ihm als natürlicher Person der progressiven Einkommensteuer.6 Auf Ebene der Kapitalgesellschaft stellen diese Zahlungen Betriebsausgaben dar, die den der proportionalen Körperschaft- sowie der Gewerbesteuer unterliegenden Unternehmensgewinn mindern. Dieses Besteuerungskonzept wird als Trennungsprinzip bezeichnet. Bei Personengesellschaften handelt es sich zivilrechtlich nicht um eigenständige Rechts- und Vermögenssubjekte. Die Personengesellschaft stellt daher einkommensteuerrechtlich kein Steuersubjekt dar. Steuersubjekte sind allein die Gesellschafter. Da es auf Grund des Selbstkontrahierungsverbots gem. § 181 BGB nicht möglich ist, die Unternehmensebene von der des Gesellschafters zu trennen,7 werden, anders als bei Kapitalgesellschaften, schuldrechtliche Leistungsbeziehungen steuerlich nicht anerkannt. Die Ergebnisse der gemeinschaftlichen Tätigkeit werden technisch auf Ebene der Gesellschaft festgestellt und anschließend dem einzelnen Gesellschafter anteilig als originäre Einkunft 4 5 6
7
Vgl. Drüen (2008), S. 393; Homburg (2007a), S. 256; Jansen (2006), S. 755; Musil/Leibohm (2008), S. 810 ff.; Schreiber/Spengel (2006), S. 280 ff.; Wagner (2006), S. 105 ff. Vgl. Drüen (2008), S. 393. Die Kirchensteuer wird bei der Berechnung der effektiven Ertragsteuersätze nicht berücksichtigt, da sie nur erhoben wird, falls der Steuerpflichtige einer religiösen Gemeinschaft angehört. Darüber hinaus variiert ihre Erhebung in Abhängigkeit von der Ansässigkeit in einem Bundesland sowie der Frage, ob ein Kirchgeld erhoben wird oder nicht. Vgl. Hey (2008), S. 418.
478
Kerstin Schneider / Claudia Wesselbaum-Neugebauer
zugerechnet. Bei dem Mitunternehmer unterliegt der Gewinn der progressiven Einkommensteuer und zwar unabhängig davon, inwieweit dieser im Unternehmen verblieben oder aber an den Gesellschafter weitergeleitet worden ist. Dieses Besteuerungskonzept wird als Transparenzprinzip bezeichnet, das in Deutschland bis 2008 konsequent umgesetzt wurde. Bevor in Abschnitt 3 das geltende Steuerrecht seit der Unternehmenssteuerreform 2008 dargestellt wird, wird in 2.1 und 2.2 zunächst die steuerliche Belastung von Personengesellschaften und Kapitalgesellschaften nach dem bis 2008 geltenden Recht beschrieben und dabei insbesondere die Abhängigkeit der Steuerlast von dem zivil- und gesellschaftsrechtlichen Status des am Markt agierenden Unternehmens aufgezeigt.
2.1 Steuerbelastung bei Anwendung des Trennungsprinzips Bei Anwendung des Trennungsprinzips bei Kapitalgesellschaften muss für die Kalkulation der effektiven Gesamtsteuerbelastung neben der Belastung der Kapitalgesellschaft auch die der dahinterstehenden natürlichen Person berücksichtigt werden. Der Gewinn des Unternehmens unterliegt dabei zunächst der proportionalen Körperschaftsteuer sowie der Gewerbesteuer. Der an den Kapitaleigner in Form von Gesellschafter-Vergütungen weitergeleitete Gewinn unterliegt bei ihm der progressiven Einkommensteuer. Thesaurierungen unterliegen im Falle einer Weiterleitung an den Anteilseigner sowohl auf Ebene der Kapitalgesellschaft als auch des Kapitaleigners der Besteuerung. Um die hieraus resultierende doppelte Besteuerung abzumildern, werden Ausschüttungen auf Antrag des Kapitaleigners entweder zu 60 % in das der progressiven Einkommensteuer unterliegende zu versteuernde Einkommen einbezogen (Teileinkünfteverfahren) oder der proportionalen Abgeltungsteuer für Einkünfte aus Kapitalvermögen unterworfen. Thesaurierungen führen also lediglich zu einer Steuerstundung. Für die Tarifbelastung von Kapitalgesellschaft, Gesellschafter-Geschäftsführer und AnteilsK eigner T gilt daher:8 T
K
ESt G GG W KSt 1 soli G GG mh G 1 soli G W
Ertragsteuerbelastung der Gesellschafter Geschäftsführervergütung
Ertragsteuerbelastung der Kapitalgesellschaft
(1)
1 soli º , 1 soli ; D W ¼
min » D 0,6 W
ESt
abgelt
Ertragsteuerbelastung der Dividendenausschüttung
8
Hinzurechnungen werden zur Vereinfachung nicht berücksichtigt, da sie auch für die Argumentation nicht von Bedeutung sind.
Innovation im Steuerrecht: Die Thesaurierungsbegünstigung.
479
wobei G für den Gewinn der Kapitalgesellschaft vor Abzug von GesellschafterVergütungen steht. GG ist die angemessene Gesellschafter-Vergütung. Unter Vernachlässigung von Hinzurechnungen ist dann der Gewerbeertrag G GG . ist der tarifliche Körperschaftsteuersatz in Höhe von 15 %, und W ESt steht für den progressiven Einkommensteuersatz. Die Gewerbesteuermesszahl in Höhe von 3,5 % wird mit m bezeichnet und h ist der kommunal variierende Gewerbesteuerhebesatz. Schließlich steht soli für den Solidaritätszuschlag9 in Höhe von 5,5 %, W abgelt für den Abgeltungsteuersatz in Höhe von 25 % und D für die empfangene Dividende. Für Thesaurierungen GR steht der Kapitalgesellschaft maximal der BeW
KSt
trag zur Verfügung, der nach Abzug der Gesellschafter-Geschäftsführer-Vergütung sowie der Unternehmensteuer verbleibt, d.h. GR
G G 1 W 1 soli mh . KSt
G
(2)
2.2 Steuerbelastung bei Anwendung des Transparenzprinzips Aus der Anwendung des Transparenzprinzips bei Personengesellschaften resultieren abweichende Steuerwirkungen. Bei dem Gesellschafter einer Personengesellschaft unterliegt generell der gesamte erwirtschaftete Gewinn der progressiven Einkommensteuer. Die bei ihm zu erfassenden Einkünfte beinhalten, anders als bei Kapitalgesellschaften, u.a. Vergütungen für Geschäftsführertätigkeiten, getätigte Entnahmen sowie den Anteil am Gewinn, der im Unternehmen verbleibt. Das Transparenzprinzip gilt auch für die Ermittlung der Gewerbesteuer. Daher unterliegen die Vergütungen an den Gesellschafter zusätzlich der kommunalen Steuer. Um die daraus resultierende kumulative Belastung mit Einkommen- und Gewerbesteuer zu vermindern, wird die Kommunalsteuer gem. § 35 EStG auf die tarifliche Einkommensteuer angerechnet, obwohl die Personengesellschaft gem. § 5 Abs. 1 S. 3 GewStG Steuerschuldner der Gewerbesteuer10 ist. Die gewerbesteuerliche Anrechnung ist beschränkt und entspricht maxi9
10
Die Erhebung des Solidaritätszuschlages als Ergänzungsabgabe soll an sich nur zeitlich befristet erfolgen. Bislang ist vollkommen offen, wann diese Ergänzungsabgabe entfallen wird. Das Bundesverfassungsgericht hat eine hierzu vorgelegte Verfassungsbeschwerde (2 BvR 1708/06) nicht zur Entscheidung angenommen. Inzwischen ist eine neue Klage vor dem FG Niedersachsen (7 K 143/08) anhängig. Aus Vereinfachungsgründen bleibt der bei natürlichen Personen gem. § 11 Abs. 1 Nr. 1 GewStG zu gewährende Freibetrag in Höhe von 24.500 € unberücksichtigt.
480
Kerstin Schneider / Claudia Wesselbaum-Neugebauer
mal der tariflichen Einkommensteuer, soweit sie anteilig auf im zu versteuernden Einkommen enthaltene gewerbliche Einkünfte entfällt. Ein nach Abzug verbleibender Anrechnungsüberhang verfällt.11 In Folge der Gewerbesteueranrechnung, verringert sich gem. § 3 Abs. 2 SolZG die Bemessungsgrundlage für den Solidaritätszuschlag. Für die Berechnung der effektiven Tarifbelastung des Gesellschafters einer Personengesellschaft T P gilt somit: T
P
Gmh ,
Gewerbesteuer
1 soli min >Gmf ; Gmh @ 1 soli ,
GW
ESt
(3)
progressive Einkommensteuer nach Gewerbesteuer anrechnung zuzüglich Solidaritätszuschlag
wobei f für den Anrechnungsfaktor in Höhe von 3,8 steht.
2.3 Rechtsformneutrale Besteuerung bei Anwendung divergierender Besteuerungskonzepte Eine rechtsformneutrale Besteuerung ist dann gegeben, wenn die effektive Gesamtsteuerbelastung bei Anwendung des Trennungsprinzips identisch ist mit der bei Anwendung des Transparenzprinzips, d.h. wenn gilt: T
K
P
T .
(4)
Unter Beibehaltung der bisherigen Besteuerungskonzepte kann eine annähernd rechtsformneutrale Besteuerung nur realisiert werden, wenn auf Ebene der Kapitalgesellschaft und deren Eigner ausschließlich der progressive Einkommensteuersatz zur Anwendung gelangt. Dies ist dann der Fall, wenn die GesellschafterVergütung identisch ist mit dem Gewinn der Kapitalgesellschaft vor Abzug dieser Leistungen, d.h. wenn gilt: G
GG .
(5)
Außerdem muss bei der Personengesellschaft die Gewerbsteuer in voller Höhe auf die progressive Einkommensteuer anrechenbar sein. Trotzdem kommt es durch die Verringerung der Bemessungsgrundlage für den Solidaritätszuschlag generell zu einer divergierenden Gesamtsteuerbelastung. Denn selbst bei Auszahlung aller Gewinne an den Gesellschafter der Kapitalgesellschaft und bei 11
Dies ist laut ständiger Rechtsprechung des Bundesfinanzhofs verfassungskonform, so dass eine Möglichkeit des Rück- oder Vortrages nicht erforderlich ist. Vgl. BFH-Urt. v. 29.1.2009 - VI R 44/08, DStR 2009, S. 681; v. 11.11.2008 - X R 55/06, www.bundesfinanzhof.de; v. 23.4.2008 X R 32/06, BStBl. 2009 II, S. 7. Gegen diese Rechtsprechung wurde vor dem BVerfG Revision eingelegt (2 BvR 2523/08).
Innovation im Steuerrecht: Die Thesaurierungsbegünstigung.
481
einer vollständigen Anrechnung der Gewerbesteuer auf die Einkommensteuer gilt: W 1 soli z mh W mh 1 soli T
T
K
ESt
ESt
Kapitalgesellschaft und Kapitaleigner
P
(6)
.
Personengesellschaft und Gesellschafter
Aber selbst (6) kann kaum erreicht werden, denn die Bedingung, dass der gesamte Unternehmensgewinn an den Gesellschafter in Form von Vergütungen weitergeleitet wird, kollidiert mit dem geltenden Steuerrecht. Aus steuerlichen Gründen, muss die Gesellschafter-Vergütung auf ihre Angemessenheit hin überprüft werden. Beurteilungskriterien hierfür sind, neben Art und Umfang der Tätigkeit, das Verhältnis des Geschäftsführergehaltes zum Gesamtgewinn und zur verbleibenden Eigenkapitalverzinsung.12 Die Feststellung der Unangemessenheit der Gesamtvergütung hat zur Folge, dass ein Teil der geleisteten Zahlungen in verdeckte Gewinnausschüttungen umqualifiziert wird und somit der Unternehmensteuer unterliegt. Wie Gesellschaftervergütungen und die unternehmensspezifische Dividenden- bzw. Thesaurierungspolitik die effektive Gesamtsteuerbelastung von Kapitalgesellschaften und deren Anteilseigner beeinflussen und wie die Gesamtsteuerbelastung dagegen in Personengesellschaften aussieht, ergibt sich aus (1) und (3) und ist in Tabelle 1 dargestellt. Tabelle 1: Effektive Gesamtsteuerbelastung in Abhängigkeit von Rechtsform sowie Vergütungs- und Ausschüttungsverhalten progressiver Einkommensteuersatz plus Solidaritätszuschlag 15,825 % 400 %
26,375 %
490 %
400 %
490 %
36,925 % 400 %
47,475 %
490 %
400 %
490 %
40,04 %
47,44 %
50,59 %
Personengesellschaft (Transparenzprinzip) 15,79 %
17,15 %
25,61 %
29,49 %
36,89 %
Kapitalgesellschaft (Trennungsprinzip)
12
αͳͲͲΨ αͲΨ
15,83 %
15,83 %
26,38 %
26,38 %
36,93 %
36,93 %
47,48 %
47,48 %
αͷͲΨ αͲΨ
22,83 %
24,40 %
28,10 %
29,68 %
33,38 %
34,95 %
38,65 %
40,23 %
αͲΨ αͲΨ
29,83 %
32,98 %
29,83 %
32,98 %
29,83 %
32,98 %
29,83 %
32,98 %
αͲΨ αͳͲͲΨ
36,49 %
39,34 %
40,93 %
43,48 %
45,37 %
47,82 %
49,81 %
52,07 %
Vgl. Bundesministerium der Finanzen (2002), S. 3f. mit weiteren Erläuterungen.
482
Kerstin Schneider / Claudia Wesselbaum-Neugebauer
Die Gesellschafter-Vergütung wurde als Prozentsatz des Gewinns der Kapitalgesellschaft vor Abzug der Vergütung bemessen.13 Der nach Abzug der Vergütung verbleibende Gewinn wurde entweder der Unternehmensteuer unterworfen und an den Anteilseigner ausgeschüttet oder aber in voller Höhe thesauriert. Für die progressive Einkommensteuer wurde alternativ ein Satz von 15 %, 25 %, 35 % bzw. 45 % zuzüglich Solidaritätszuschlag angenommen. Als exemplarische Gewerbesteuerhebesätze wurden 400 % bzw. 490 % unterstellt. Unter diesen Annahmen variiert die tarifliche Gesamtsteuerbelastung einer Kapitalgesellschaft und ihres Eigners zwischen 15,83 % und 52,07 % bei Anwendung des Teileinkünfteverfahrens. Optiert der Anteilseigner zur Anwendung der Abgeltungsteuer, ist die effektive Gesamtsteuerbelastung konstant und liegt unabhängig vom progressiven Einkommensteuersatz bei 48,33 %. Demgegenüber beläuft sich die Tarifbelastung für eine Personengesellschaft und dessen Gesellschafter auf mindestens 15,79 % und maximal 50,59 %. Aus dem Zusammenwirken von Unternehmen- und Einkommen- bzw. Abgeltungsteuer resultiert somit nicht generell eine höhere Steuerbelastung von Kapitalgesellschaft und Anteilseignern. Nur wenn der progressive Einkommensteuersatz plus Solidaritätszuschlag unter dem Körperschaftsteuersatz zuzüglich Gewerbesteuer und Solidaritätszuschlag liegt, hat die Rechtsform der Personengesellschaft eine geringere tarifliche Gesamtsteuerbelastung. Die volle Thesaurierung des Gewinns und dessen Weiterleitung an den Anteilseigner in Form von Dividendenzahlung bewirkt generell eine höhere Tarifbelastung von Kapitalgesellschaft und -eigner gegenüber der Personengesellschaft. Überschreitet der individuelle Einkommensteuersatz unter Anrechnung der Gewerbesteuer den Unternehmensteuersatz, bewirkt die Rechtsform der Kapitalgesellschaft eine niedrigere Tarifbelastung. Der steuerliche Vorteil ist im Vergleich zur Personengesellschaft umso größer, je höher der Thesaurierungsbetrag auf Ebene der Kapitalgesellschaft sowie der anzuwendende progressive Einkommensteuersatz des Anteilseigners sind. Denn im Gegensatz zur Kapitalgesellschaft, hat die Gewinnverwendungspolitik auf die tarifliche Belastung des Gesellschafters einer Personengesellschaft beim reinen Transparenzprinzip keinen Einfluss. Die Rechtsform der Personengesellschaft bietet sich demnach für ertragsschwache Unternehmen an, bei denen ein progressiver Steuersatz zur Anwendung gelangt, der unter dem Unternehmensteuersatz für Kapitalgesellschaften liegt. Die personenbezogene Kapitalgesellschaft ist somit von ertragsstarken Unternehmen zu bevorzugen, die einen Großteil des Gewinns thesaurieren können. Insgesamt ist, das haben die Ausführungen gezeigt, eine rechtsform13
Die Angemessenheit des Geschäftsführergehalts kann so nicht beurteilt werden, da es an den dafür erforderlichen gesicherten Vergleichsdaten fehlt. Vgl. BFH-Urt. v. 11.12.1991 - I R 152/90, BStBl. 1992 II, S. 690.
Innovation im Steuerrecht: Die Thesaurierungsbegünstigung.
483
neutrale Besteuerung von natürlichen und juristischen Personen wegen des Nebeneinanders von Trennungs- und Transparenzprinzip derzeit nicht realisierbar. Die Besteuerung von thesaurierten Gewinnen ist der wichtigste Ansatzpunkt, wenn Belastungsneutralität erreicht werden soll. Dem Staat steht somit nur ein begrenzter Maßnahmenkatalog zur Verfügung, um das Ziel realisieren zu können. Eine generelle Übertragung der für Kapitalgesellschaften geltenden Besteuerungsprinzipien auf Einzelunternehmen und Personengesellschaften hätte eine höhere Belastung für all jene Gesellschafter zur Konsequenz, bei denen der anzuwendende Einkommensteuersatz nach Gewerbesteueranrechnung unter dem Unternehmensteuersatz liegt. Eine rechtsformneutrale Besteuerung würde für diesen Personenkreis eine Verschlechterung darstellen, deren Verfassungskonformität zudem zweifelhaft wäre. Demgegenüber könnten ertragsstarke Personengesellschaften von der Möglichkeit profitieren, den im Unternehmen belassenen Gewinn zu einem unter dem progressiven Einkommensteuersatz liegenden Satz besteuern zu können. Die mit der Unternehmensteuerreform 2008 vollzogene Einführung einer Thesaurierungsbeteuerung, die sich an ertragsstarke Personengesellschaften richtet, ist somit vom Grundsatz her sinnvoll, um das gesetzte Ziel umsetzen zu können. Inwieweit mit der durch § 34a EStG in das Steuerrecht eingeführten Option zur Begünstigung nicht entnommener Gewinne eine Annäherung an die tarifliche Belastung einer Kapitalgesellschaft erfolgreich realisiert worden ist, wird im Folgenden analysiert. Bei diesen Ausführungen muss beachtet werden, dass das Ziel der annähernd gleichen Belastung kein Synonym für eine rechtsformneutrale Besteuerung ist.
3
Option zur Begünstigung nicht entnommener Gewinne
Der im Zuge der Unternehmensteuerreform 2008 eingeführte ermäßigte Einkommensteuersatz für nicht thesaurierte Gewinne bewirkt eine virtuelle Trennung von Personengesellschaft und Gesellschafter, die, wie im Folgenden argumentiert wird, aber nicht konsequent umgesetzt wurde. Auf Antrag wird auf den in der Personengesellschaft verbleibenden Gewinn der ermäßigte Steuersatz von 28,25 % zuzüglich des Solidaritätszuschlags angewendet. Rechnerisch setzt sich dieser Satz aus dem Körperschaftsteuersatz von 15 % und der durchschnittlichen Gewerbesteuerbelastung zusammen.14 Anders als bei Kapitalgesellschaften, stellen jedoch die Vergütungen des Gesellschafters auch beim Antrag auf begünstigte Besteuerung weiterhin keine Betriebsausgabe dar. Welche Konse14
Vgl. BT-Drs. 16/4841, S. 63.
484
Kerstin Schneider / Claudia Wesselbaum-Neugebauer
quenzen sich hieraus ergeben, soll im Folgenden zunächst für den Zeitpunkt der Inanspruchnahme der begünstigten Besteuerung betrachtet werden.
3.1 Steuerbelastung bei Inanspruchnahme der begünstigten Besteuerung Der Antrag auf Begünstigung kann nur für den nicht entnommenen Gewinn einer Personengesellschaft gestellt werden. Sind in dem ausgewiesenen Gewinn steuerfreie Anteile enthalten, gilt diese Steuerfreiheit auch für die Tarifbegünstigung. Bei der Ermittlung des nicht entnommenen Gewinns bleiben sie deshalb unberücksichtigt.15 Soweit in dem steuerpflichtigen Gewinn nicht abzugsfähige Betriebsausgaben enthalten sind, z.B. Gewerbesteuerzahlungen,16 kann keine Tarifbegünstigung in Anspruch genommen werden, da diese Beträge dem Unternehmen nicht mehr zur Verfügung stehen. Dies hat zur Konsequenz, dass neben den Leistungen, die der Steuerpflichtige dem Unternehmen zur Finanzierung seines Lebensunterhalts im Laufe des Jahres entnommen hat, auch die Gewerbesteuer sowie die ermäßigte Steuer unter den Begriff der Entnahme subsumiert werden.17 Dies ist der kritische Punkt bei der derzeitigen Regelung: die in § 4 Abs. 1 S. 2 EStG definierten Entnahmen weichen von der für die Kalkulation der Bemessungsgrundlage, auf den der ermäßigte Steuersatz angewendet wird, verwendeten Definition ab. Der Begriff „nicht entnommen“ wird vom Gesetzgeber demnach als Synonym für den nicht ausgezahlten und damit im Unternehmen nach Abzug der Steuerleistung tatsächlich verbleibenden Gewinn interpretiert. Für die Berechnung der tariflichen Steuerbelastung einer Personengesellschaft und ihres Gesellschafters gilt somit bei Option zur ermäßigten Besteuerung T P , erm zum Zeitpunkt der Gewinnentstehung:
T
P,erm
§ · ¨ ¸ ESt erm Gmh ¨ E W G E Gmh@ W min> Gmf ;Gmh@ ¸ 1 soli , (7) , , >
Gewerbesteuer ¨ progressive ermäßigte Gewerbesteueranrechnung ¸ © Einkommensteuer ¹ Besteuerung
dabei steht W erm für den ermäßigten Steuersatz und E für jenen Anteil am Gewinn, der nicht in der Personengesellschaft verbleibt. Der nicht entnommene
15 16 17
Vgl. Bundesministerium der Finanzen (2008), S. 840. Für die Berechnung des steuerpflichtigen Gewinns werden sie außerbilanziell hinzugerechnet. Vgl. Bundesministerium der Finanzen (2008), S. 840. Vgl. u.a. Hey (2007), S. 928; Ley/Brandenberg (2007), S. 1092; Siegel (2008), S. 598; BR-Drs. 220/07, S. 102 f.
Innovation im Steuerrecht: Die Thesaurierungsbegünstigung.
485
Gewinn, B, auf den der ermäßigte Steuersatz angewendet werden kann, ist demnach: ª º « » (8) B G « Gmh 1 soli B G B W 1 soli min> Gmf ;GmH @ 1 soli » . , W
«Gewerbesteuer begünstigte Besteuerung des » Einkommensteuer auf den entnommenen Gewinn nicht entnommenen Gewinns ¬ ¼ erm
ESt
Die Erfassung der Kapitalgesellschaft als eigenständiges Steuersubjekt bewirkt hingegen, dass weder die Körperschaft- noch die Gewerbesteuerzahlung als Einkommen auf Ebene des Kapitaleigners erfasst und damit zusätzlich der progressiven Einkommensteuer unterworfen wird. Die beim Personengesellschafter zu erfassenden Entnahmen können in Folge dessen nicht mit der GesellschafterVergütung des Anteilseigners einer Kapitalgesellschaft gleich gesetzt werden. Somit kann keine Belastungsgleichheit erreicht werden. Möchte ein Unternehmer einen möglichst hohen Gewinnanteil thesaurieren, berechnet sich die Mindestentnahme, die erforderlich ist, um die Steuern einer Personengesellschaft zu zahlen, als: E
G > mh min > mf ; mh @@ 1 soli
Gewerbesteuer nach Anrechnung
G E W 1 soli erm
begünstigte Besteuerung des nicht entnommenen Gewinns
1 soli . (9)
E W
ESt
Einkommensteuer auf den entnommenen Gewinn
Bei dieser Vorgehensweise vermischt der Gesetzgeber Komponenten des Trennungs- mit denen des Transparenzprinzips. Einerseits erlaubt er der Personengesellschaft, von der transparenten Besteuerung abzuweichen und den nicht entnommenen Betrag einen vom Normalsteuersatz abweichenden Steuersatz zu unterwerfen. Andererseits verbleibt er auch beim Antrag auf begünstigte Besteuerung dabei, dass die Personengesellschaft selbst nicht zum Steuersubjekt wird. Dementsprechend stellt die ermäßigte Steuer keine Unternehmensteuer dar, sondern eine Entnahme des Gesellschafters. Die inkonsequente Umsetzung einer virtuellen Trennung von Gesellschafter und Personengesellschaft bewirkt, dass die betrieblich veranlassten, aber steuerlich nicht zu berücksichtigenden Minderungen des rücklagefähigen Betrags auf Ebene der Personengesellschaft weiterhin dem progressiven Einkommensteuersatz unterliegen, während diese Zahlungen bei Kapitalgesellschaften lediglich mit dem Unternehmensteuersatz belastet werden. Dies hat zur Folge, dass selbst im Falle einer vollen Thesaurierung des Gewinns eine dem Normalsteuersatz unterliegende Entnahme des Gesellschafters in Höhe der Gewerbesteuer sowie des ermäßigten Steuerbetrages erforderlich wird. Für die Berechnung der „Mindestentnahme“ im Falle der Vollthesaurierung E vth erhält man durch Auslösung von (9) nach E :
486
Kerstin Schneider / Claudia Wesselbaum-Neugebauer
E
vth
G
mh min > mf ; mh @ 1 soli W
1 W
ESt ,erm
W
ESt
ESt ,erm
1 soli
1 soli
.
(10)
Aus (10) folgt, dass 26,1 % des Gewinns bei einem Gewerbesteuerhebesatz von 400 % sowie einem tariflichen Einkommensteuersatz von 15 % als entnommen gelten, ohne dass der Gesellschafter Mittel für seinen persönlichen Lebensunterhalt entnommen hätte. Diese „Mindestentnahme“ erhöht sich auf 36,17 % des Gewinns, wenn der Spitzensteuersatz von 45 % erreicht wird. Bezogen auf den Gewinn vor Steuern, entspricht dies dem effektiven Steuersatz für nicht entnommene Gewinne.18 Aus der Darstellung in Abbildung 1 wird deutlich, dass durch die begünstigte Besteuerung die aus der Anwendung des Trennungs- und Transparenzprinzips resultierenden Verzerrungen nicht beseitigt werden können. Belastungsneutralität ist nicht erreicht. Die Option zur ermäßigten Besteuerung ist irrelevant, wenn der effektive Steuersatz des Gesellschafters einer Personengesellschaft unter dem einer Kapitalgesellschaft liegt. Übersteigt der progressive Einkommensteuersatz zuzüglich des Solidaritätszuschlages die Unternehmensteuerbelastung, verringert sich die Belastung des Gesellschafters zwar im Vergleich zur progressiven Einkommensbesteuerung, übersteigt allerdings auch weiterhin die steuerliche Belastung thesaurierter Gewinne einer Kapitalgesellschaft. Zum Zeitpunkt der Inanspruchnahme der begünstigten Besteuerung nicht entnommener Gewinne hat der Gesetzgeber das Ziel, Personengesellschaften, deren Steuerlast über der Thesaurierungsbelastung bei Kapitalgesellschaften liegt, geringer zu belasten, realisiert. Der Umfang der Entlastung thesaurierender Personengesellschaften ist dabei umso größer, je höher der progressive Einkommensteuersatz des Gesellschafters ist. Von Belastungsneutralität kann jedoch nicht gesprochen werden, wie Abbildung 1 deutlich zeigt. Zum Zeitpunkt der Auflösung des Thesaurierungsbetrages erfolgt bei dem Gesellschafter eines Personenunternehmens eine Nachversteuerung. Dies ist erforderlich, um eine analoge Besteuerung wie bei der Kapitalgesellschaft realisieren zu können. Welche Konsequenzen dies hat, soll im Folgenden analysiert werden.
18
Vgl. Sachverständigenrat (2007), S. 274.
Innovation im Steuerrecht: Die Thesaurierungsbegünstigung. Abbildung 1:
487
Effektive Gesamtsteuerbelastung bei Vollthesaurierung unter Berücksichtigung der Rechtsform sowie der Inanspruchnahme der begünstigten Besteuerung
effektive Gesamtsteuerbelastung
50% 45% 40% 35% 30% 25% Transparenzprinzip begünstigte Besteuerung Trennungsprinzip
20% 15% 15%
20%
25%
30%
35%
40%
45%
Einkommensteuersatz
3.2 Gesamtsteuerbelastung bei Auflösung des Begünstigungsbetrages Für die Durchführung der Nachversteuerung ist bei Option zur begünstigten Besteuerung kein Gesellschafterbeschluss erforderlich. Das Gesetz unterscheidet daher mehrere Vorgänge, die eine Nachversteuerung auslösen können.19 Im Gegensatz zur Kapitalgesellschaft, schließen sich bei einer Personengesellschaft systembedingt die Nachversteuerung sowie die begünstigte Besteuerung nicht entnommener Gewinne aus.20 Der Einkommensteuersatz auf den Nachversteuerungsbetrag W nach ist gem. § 34a Abs. 4 S. 2 EStG identisch mit dem pauschalen Abgeltungsteuersatz für Kapitaleinkünfte, d.h. 25 %. Die Nachversteuerung wird im Rahmen der Einkommensteuerveranlagung durchgeführt. Damit erhöht sich simultan die Bemessungsgrundlage für die Zuschlagsteuern, so dass es hier kei-
19 20
Hierauf soll im Rahmen dieser Ausarbeitung nicht näher eingegangen werden. Vgl. Winkeljohann/Fuhrmann (2007), S. 469.
488
Kerstin Schneider / Claudia Wesselbaum-Neugebauer
ner speziellen Regelung bedarf. Der nachversteuerungspflichtige Betrag N des Personenunternehmens wird je Veranlagungszeitraum aus dem Begünstigungsbetrag abzüglich der auf ihn entfallenden Steuerbelastung ermittelt, d.h.
B 1 W
N
erm
1 soli .
(11)
Für die Ertragsteuerbelastung des Gesellschafters einer Personengesellschaft gilt zum Zeitpunkt der Nachversteuerung T ESt , nach : T
ESt ,nach
B 1 W
erm
1 soli W 1 soli . nach
(12)
Bei der Kalkulation des nachversteuerungspflichtigen Betrags wird wiederum die Inkonsequenz des Gesetzgebers hinsichtlich der Abgrenzung der einzelnen Vermögenssphären deutlich. Zum Zeitpunkt der Gewinnentstehung stellt die Steuerbelastung auf den begünstigten Gewinn eine Entnahme des Gesellschafters dar, die den thesaurierungsfähigen Betrag verringert. Erfolgt nun die Nachversteuerung beim Gesellschafter, verringert sich der bei ihm zu erfassende Betrag jedoch um die Steuerbelastung auf den nicht entnommenen Gewinn. So konnte die Personengesellschaft bei einem Einkommensteuersatz des Gesellschafters von 45 % und einem Hebesatz von 400 % lediglich 63,84 % ihres Gewinns thesaurieren, während der Kapitalgesellschaft 70,2 % verblieben. Zum Zeitpunkt der Ausschüttung verringert sich aber, anders als beim Anteileigner der Kapitalgesellschaft, der beim Gesellschafter eines Personenunternehmens zu versteuernde Betrag um 29,8 %. Durch diese Vorgehensweise wird der Nachsteuersatz bei einer Personengesellschaft auf eine niedrigere Bemessungsgrundlage angewendet als im Fall der Abgeltungsteuer bzw. dem individuellen Einkommensteuersatz bei Anwendung des Teileinkünfteverfahrens. So resultiert insgesamt eine geringere Tarifbelastung des Mitunternehmers einer Personengesellschaft im Vergleich zum Anteilseigner einer Kapitalgesellschaft zum Nachversteuerungszeitpunkt, wie aus Abbildung 2 ersichtlich ist. Die abnehmende Nachsteuerbelastung bei steigendem Einkommensteuersatz basiert darauf, dass der nicht entnommene Betrag umso niedriger ist, je höher die individuelle Steuerlast des Gesellschafters ausfällt. Demgemäß unterliegt dem Nachsteuersatz ein niedrigerer Begünstigungsbetrag. Welche effektive Gesamtsteuerbelastung sich in Abhängigkeit von der Unternehmensrechtsform ergibt, illustriert Abbildung 3.
Innovation im Steuerrecht: Die Thesaurierungsbegünstigung. Abbildung 2:
489
Effektive Nachsteuerbelastung bezogen auf den beim Anteilseigner bzw. Gesellschafter zu versteuernden Betrag
25%
effektive Nachsteuerbelastung
20%
15%
10%
5% begünstigte Besteuerung Trennungsprinzip Abgeltungsteuer Trennungsprinzip Teileinkünfteverfahren
0% 15%
20%
25%
30%
35%
40%
45%
Einkommensteuersatz
Wie aus Abbildung 3 zu erkennen ist, verbleibt dem Anteilseigner einer Kapitalgesellschaft eine geringere Rendite nach Steuern verglichen mit dem Gesellschafter eines Personenunternehmens. Das mit der Unternehmensteuerreform 2008 gesetzte Ziel einer Annäherung der Belastung für jene Personengesellschaften, bei denen die Thesaurierungsbelastung bei Kapitalgesellschaften überschritten ist, ist erreicht worden. Eine analoge Besteuerung der Personengesellschaften mit ihren Gewinneinkünften wie das Einkommen einer Kapitalgesellschaft, eröffnet dem Gesellschafter demnach lediglich die Möglichkeit, im Zeitpunkt der Thesaurierung eine Steuerentlastung zu bewirken. Hierbei handelt es sich nur um eine Steuerstundung, die zum Zeitpunkt der späteren Ausschüttung eine Belastung nach sich zieht, die, wie aus der Literatur bekannt,21 die Belastung nach dem Transparenzprinzip sogar deutlich übersteigen kann. Dies ist jedoch keine Konsequenz der begünstigten Besteuerung nicht entnommener Gewinne, sondern notwendige Folge des gesetzten Ziels, Personengesellschaften in vergleichbarer Weise tariflich zu belasten wie Kapitalgesellschaften. Der im 21
Vgl. Blum (2008), S. 323; Diller (2008), S. 675; Haase/Hinterdobler (2006), S.1195; Hey (2007), S. 926; Homburg/Houben/Maiterth (2008), S. 29; Houben/Maiterth (2008), S. 9 f.; Kessler/Ortmann-Babel/Zipfel (2007), S. 526 f.
490
Kerstin Schneider / Claudia Wesselbaum-Neugebauer
Vergleich zur Situation ohne Option existierende Nachversteuerungsnachteil des Gesellschafters einer Personengesellschaft kann ggf. durch die Thesaurierungsdauer neutralisiert werden.22 Abbildung 3:
Effektive Gesamtsteuerbelastung bei einer Vollausschüttung zuvor thesaurierter Gewinne
60%
effektive Gesamtsteuerbelastung
50%
40%
30%
20% Transparenzprinzip begünstigte Besteuerung Trennungsprinzip Abgeltungsteuer Trennungsprinzip Teileinkünfteverfahren
10%
0% 15%
20%
25%
30%
35%
40%
45%
Einkommensteuersatz
Im Vergleich zum Anteilseigner einer Kapitalgesellschaft, kann der Gesellschafter einer Personengesellschaft durch die Option zur begünstigten Besteuerung nicht entnommener Gewinne einen Steuervorteil realisieren, solange sein individueller Einkommensteuersatz über ca. 30 % liegt. Die begünstigte Besteuerung nicht entnommener Gewinne führt im Vergleich zur direkten Besteuerung bei Anwendung des Transparenzprinzips insgesamt zu einer höheren Steuerbelastung. Die obigen Ausführungen verdeutlichen, dass der Gesetzgeber mit der Einführung der steuerlichen Begünstigung einbehaltener Gewinne bei Personengesellschaften einen wesentlichen Beitrag zur annähernden tariflichen Gleichbe22
Vgl. Blum (2008), S. 322; Homburg/Houben/Maiterth (2008), S. 43 f.; Houben/Maiterth (2008), S. 9 f.; Knirsch/Schanz (2008), S. 9; Patek (2007), S. 460 f.; Schreiber/Ruf (2007), S. 1103; Winkeljohann/Fuhrmann (2007), S. 472. Auf diesen Gesichtspunkt soll im Rahmen der vorliegenden Ausarbeitung nicht näher eingegangen werden.
Innovation im Steuerrecht: Die Thesaurierungsbegünstigung.
491
lastung von Personen- und Kapitalgesellschaft geleistet hat. Allerdings bedarf es einiger weiterer Schritte, damit diese Innovation erfolgreich umgesetzt werden kann. Dabei kann nur begrenzt auf die bereits vorliegenden Entwürfe zur Reform der Einkommens- und Unternehmensbesteuerung zurückgegriffen werden. So beinhaltet die vom Sachverständigenrat vorgeschlagene Einführung einer Dualen Einkommensteuer keine eigenständige Unternehmensteuer. Ohne diese kann das Ziel einer rechtsformneutralen Besteuerung nicht umgesetzt werden. Darüber hinaus wurde dieser Vorschlag von der Bundesregierung verworfen, „da er mit einer Vielzahl von Implementierungsproblemen verbunden gewesen wäre und die geschätzten Mindereinnahmen im zweistelligen Milliardenbereich gelegen hätten“23. Ebenso wurde das von der Stiftung Marktwirtschaft24 vorgeschlagene Konzept zur Einführung einer Unternehmensteuer vom Gesetzgeber nicht aufgegriffen, obwohl hierbei eine rechtsformunabhängige Besteuerung aller Unternehmen erfolgen sollte. Argumente gegen diesen Vorschlag waren zum einen die notwendige Umstrukturierung der Gewerbesteuer in ein Kommunalsystem mit Hebesatzrecht und zum anderen die Anrechnung der auf Unternehmensebene bereits geleisteten Ertragsteuer auf die Einkommensteuer des Anteilseigners.25 Die Option zur Besteuerung des Personenunternehmens wie eine Kapitalgesellschaft26 stellt ebenfalls keine Alternative dar. Nach Ausübung des Wahlrechts würde das Unternehmen nur für steuerliche Zwecke in eine Kapitalgesellschaft umgewandelt und in materiell-rechtlicher Hinsicht als solche behandelt. Gesellschaftsrechtlich verbliebe es bei der Rechtsform der Personengesellschaft. Schuldrechtliche Leistungsbeziehungen zwischen der fiktiven Kapitalgesellschaft und dem Betriebsinhaber würden zwar mit steuerlicher Wirkung anerkannt.27 Dies hätte jedoch zur Konsequenz, dass die Problematik der verdeckten Gewinnausschüttung gleichfalls auf Personenunternehmen übertragen würde. Dass mit der Option zur Körperschaftsteuer eine belastungsneutrale Besteuerung nicht realisierbar ist, wurde bereits ausführlich analysiert und diskutiert,28 als mit dem StSenkG29 dieses Recht eingeführt werden sollte. Aus diesem Grunde wird auf die genannten Vorschläge nicht näher eingegangen und im Folgenden das Konzept des virtuellen Trennungsprinzips vorgestellt, welches auf der begonnenen Reform der Einführung einer begünstigten Besteuerung basiert.
23 24 25 26 27 28 29
BT-Drs. 16/4841, S. 2. Vgl. Stiftung Marktwirtschaft (2006). Vgl. Sachverständigenrat (2005), S. 275. Vgl. Hey (2007), S. 931; BT-Drs. 14/2683, S. 97 ff. Vgl. BT-Drs. 14/2683, S. 97. Vgl. u.a. Lang (2000), S. 461; Mentel/Schulz (2000), S. 494; Prinz (2000), S. 544 m.w.H. BT-Drs. 14/2683.
492 4
Kerstin Schneider / Claudia Wesselbaum-Neugebauer Das virtuelle Trennungsprinzip
Damit das Ziel einer annähernden tariflichen Gleichbelastung von Personen- und Kapitalgesellschaft realisiert werden kann, genügt es nicht, einen ermäßigten Steuersatz auf einbehaltene Gewinne in das Transparenzprinzip einzuführen. Wie die Stiftung Marktwirtschaft dies bereits im Modell der Unternehmensteuer vorgesehen hat,30 muss eine konsequente Unterscheidung von Unternehmensund Gesellschaftersphäre in das Konzept der Personengesellschaftsbesteuerung implementiert werden, um das System der Besteuerung einer Kapitalgesellschaft zu simulieren. Da dieses nicht aus dem Gesellschaftsrecht abgeleitet werden kann, muss eine virtuelle Trennung eingeführt werden. Hierfür ist es zunächst erforderlich, die Leistungsfähigkeit von Personengesellschaft und Gesellschafter gegeneinander abzugrenzen, wie dies bei einer Kapitalgesellschaft der Fall ist. Mit der Implementierung des Begriffs des „nicht entnommenen Gewinns“ wurde vom Gesetzgeber ein erster Versuch unternommen, eine dem Trennungsprinzip vergleichbare Bemessungsgrundlage einzuführen, ohne simultan eine virtuelle Kapitalgesellschaft im gesellschaftsrechtlichen Kleid eines Personenunternehmens31 entstehen zu lassen. Durch diesen Schritt kann zwar vermieden werden, dass die Probleme der verdeckten Gewinnausschüttung auf Personenunternehmen übertragen werden, jedoch reicht diese Maßnahme alleine nicht aus, um eine Belastungsneutralität zu erreichen. Im Folgenden wird nun gezeigt, dass sich das vom Gesetzgeber avisierte Ziel dennoch realisieren lässt. In der Analyse wird, wie zuvor, die Besteuerung auf der Unternehmensebene bei Thesaurierung von der Besteuerung bei Ausschüttung getrennt.
4.1 Steuerbelastung bei Inanspruchnahme der begünstigten Besteuerung Zunächst wird der Zeitpunkt der Thesaurierung betrachtet. Ursache für die divergierende Besteuerung von Personen- und Kapitalgesellschaft ist die fehlende Trennung der beiden Vermögensebenen. Dieses Manko wird beseitigt, indem wir das geltende Steuerrecht modifizieren und mit Inanspruchnahme der begünstigten Besteuerung das Vermögen der Personengesellschaft virtuell von dem des Gesellschafters trennen. Grundlage für die Abgrenzung beider Vermögenssphären ist die Bilanz. Der Umfang der bisherigen Steuerbilanz bleibt erhalten, so dass Ergänzungs- sowie Sonderbilanzen in die Unternehmensebene eingehen. Der nicht entnommene Gewinn wird definiert als Differenz zwischen dem steu30 31
Vgl. Stiftung Marktwirtschaft (2006), S. 16. Vgl. Prinz (2000), S. 544.
Innovation im Steuerrecht: Die Thesaurierungsbegünstigung.
493
erpflichtigen Gewinn und den getätigten Entnahmen gem. § 4 Abs. 1 S. 2 EStG. Die gezahlte Gewerbesteuer sowie die nicht abzugsfähigen Betriebsausgaben werden nicht unter den Begriff der Entnahme subsumiert, auch wenn sie den thesaurierungsfähigen Gewinn verringern. Steuerfreie Erträge mindern den steuerpflichtigen Gewinn. Auf den im Unternehmen belassenen Betrag, einschließlich der außerbilanziell vorzunehmenden Hinzurechnungen, wird der Körperschaftsteuersatz zuzüglich Solidaritätszuschlag und Gewerbesteuer angewendet. Jegliche Entnahmen des Gesellschafters unterliegen bei ihm der progressiven Einkommensteuer zuzüglich Solidaritätszuschlag, jedoch nicht der Gewerbesteuer. Die bisherige ertragsteuerliche Doppelbelastung mit Gewerbeund progressiver Einkommensteuer entfällt somit; eine Anrechnung der Gewerbesteuer auf die Einkommensteuer des Gesellschafters erübrigt sich insoweit. Für die Berechnung der Tarifbelastung von Personengesellschaft und GesellvT schafter nach dem virtuellen Trennungsprinzip, T , gilt: T
vT
G G mH W 1 soli G W 1 soli . KSt
P
ESt
P
(13)
G P steht für die getätigten Entnahmen, die auch die Leistungen umfassen, die der
Gesellschafter für seine Tätigkeit im Dienst der Gesellschaft erhalten hat. Insoweit erfolgt eine analoge Besteuerung wie im Falle der Gesellschafter-Geschäftsführer-Vergütung bei der Kapitalgesellschaft. Wird das Wahlrecht nicht ausgeübt, verbleibt es beim bisherigen Besteuerungssystem. Auch bei Anwendung des virtuellen Trennungsprinzips gilt daher, dass es hauptsächlich für Gesellschafter von Personengesellschaften Vorteile bietet, bei denen der individuelle Ertragsteuersatz über dem Unternehmensteuersatz liegt. Dies gilt unabhängig davon, ob sie den Gewinn thesaurieren oder entnehmen. Durch das virtuelle Trennungsprinzip wird somit lediglich die tarifliche Belastung von Personen- und Kapitalgesellschaften angenähert, jedoch nicht eine ertragsunabhängige, rechtsformneutrale Besteuerung realisiert, wie aus Abbildung 4 zu ersehen ist. Die tarifliche Gesamtsteuerbelastung variiert weiterhin in Abhängigkeit vom Thesaurierungsbetrag. Wird der Gewinn in voller Höhe entnommen, d.h. erfolgt keine Thesaurierung, ergibt sich die übliche Belastung bei Anwendung der transparenten Besteuerung. Je höher der thesaurierte Gewinn ist, desto größer ist der erzielbare Steuerstundungseffekt – wie schon im bestehenden Steuer recht – im Vergleich zur Anwendung des Transparenzprinzips. Da bei Anwendung des virtuellen Trennungsprinzips die Steuer auf den nicht entnommenen Gewinn nunmehr keine Entnahme des Gesellschafters darstellt, entfällt jedoch die sich daraus ergebende Verzerrung. Dem Ziel einer annähernd gleichen tariflichen Belastung von Personen- und Kapitalgesellschaft ist man mit dieser Re-
494
Kerstin Schneider / Claudia Wesselbaum-Neugebauer
formierung zum Zeitpunkt der Gewinnentstehung deutlich näher gekommen. Die identische Situation ergibt sich, wenn nicht der gesamte Gewinn, sondern lediglich ein Teil thesauriert wird, wie aus Abbildung 5 ersichtlich ist. Abbildung 4:
Effektive Gesamtsteuerbelastung zum Thesaurierungszeitpunkt unter Berücksichtigung der Rechtsform sowie des virtuellen Trennungsprinzips
effektive Gesamtsteuerbelastung
50% 45% 40% 35% 30% 25% 20%
Transparenzprinzip Vollthesaurierung Trennungsprinzip = virtuelles Trennungsprinzip
15% 15%
20%
25%
30%
35%
40%
45%
Einkommensteuersatz
Wie schon bei der jetzigen Besteuerung, stellt sich beim virtuellen Trennungsprinzip ebenfalls die Frage, wie die spätere Auskehrung des zuvor im Unternehmen belassenen Gewinns steuerlich zu erfassen ist. Diese Problemstellung kann nicht losgelöst von der ertragsteuerlichen Erfassung ausgeschütteter Dividenden sowie den Wirkungen der Abgeltungsteuer bearbeitet werden, weshalb diese in die folgende Analyse einbezogen werden.
Innovation im Steuerrecht: Die Thesaurierungsbegünstigung. Abbildung 5:
495
Effektive Gesamtsteuerbelastung zum Thesaurierungszeitpunkt unter Berücksichtigung der Rechtsform sowie des virtuellen Trennungsprinzips bei variierendem Thesaurierungsverhalten
50%
effektive Gesamtsteuerbelastung
45%
40%
35%
30%
25%
20%
15% 15%
20%
25%
30%
35%
40%
45%
Einkommensteuersatz Transparenzprinzip
Vollthesaurierung
Teilthesaurierung 50 - 50
Teilthesaurierung 20 - 80
Teilthesaurierung 80 - 20
4.2 Auskehrung an den Gesellschafter im Rahmen des virtuellen Trennungsprinzips Im Modell des virtuellen Trennungsprinzips knüpfen Körperschaft-, Gewerbesteuer sowie Solidaritätszuschlag an eine identische Bemessungsgrundlage an. Dies bewirkt, dass unabhängig von der Rechtsform die deckungsgleichen Beträge thesauriert werden können, wenn die Thesaurierungsbegünstigung für den nicht entnommenen Gewinn in Anspruch genommen wird. Der bei einer Auskehrung an den Gesellschafter zu erfassende Betrag ist deshalb kongruent mit der Dividendenzahlung im Falle einer Ausschüttung durch die Kapitalgesellschaft. Dennoch können die für den Anteilseigner einer Kapitalgesellschaft geltenden Bestimmungen nicht ungeprüft auf den Gesellschafter eines Personenunternehmens übertragen werden, denn auch im Rahmen des virtuellen Trennungsprinzips werden die zivilrechtlichen Rechtsformen generell anerkannt.
496
Kerstin Schneider / Claudia Wesselbaum-Neugebauer
Ertragsteuerlich hat dies zur Konsequenz, dass Ausgaben im Zusammenhang mit der Beteiligung beim Anteilseigner einer Kapitalgesellschaft im Rahmen der Abgeltungsbesteuerung mit dem Sparer-Pauschbetrag abgegolten werden bzw. bei Option zur progressiven Besteuerung lediglich zu 60 % abzugsfähig sind. Beim Gesellschafter einer Personengesellschaft sind diese Ausgaben im Rahmen des Sonderbetriebsvermögens zu erfassen und mit seinen Entnahmen unbegrenzt zu verrechnen. Um eine annähernde Belastungsneutralität gewährleisten zu können, müssten demgemäß die im Zusammenhang mit der Beteiligung an einer Kapitalgesellschaft stehenden Werbungskosten unbegrenzt mit den Dividendeneinnahmen verrechnet werden können. Diese Vorgehensweise sieht das derzeitige Steuerrecht nicht vor. Damit im Rahmen des virtuellen Trennungsprinzips eine Differenzierung zwischen normal zu versteuernden Entnahmen und der Nachsteuer unterliegenden Auskehrungen zuvor begünstigt besteuerter Gewinne vorgenommen werden kann, bedarf es einer zeitnahen Dokumentation über durchgeführte Gewinnausschüttungen, z.B. in Form eines schriftlich zu fixierenden Beschlusses sowie vTH einer zeitnahen Auszahlung dieser Beträge. Für die Ausschüttung D steht nur der nach Abzug der Unternehmensteuer sowie bereits vorher versteuerter Entnahmen verbleibende Betrag zur Verfügung, d.h. G
D vTH
G G mH W P
KSt
1 soli .
(14)
Um Belastungsneutralität realisieren zu können, müssen diese Auskehrungen dem gesonderten Steuertarif für Einkünfte aus Kapitalvermögen gem. § 32d EStG zugeordnet werden. Ohne Berücksichtigung von Werbungskosten gilt für die Berechnung der effektiven Gesamtsteuerbelastung zum Zeitpunkt der Gewinnausschüttung: T
vTA
D
vTH
min ª¬W
abgelt
1 soli ;0,6W 1 soli º¼ , ESt
(15)
wobei W abgelt für den Abgeltungsteuersatz in Höhe von 25 % steht. Aus (15) resultiert die in Abbildung 6 dargestellte effektive Gesamtsteuerbelastung.
Innovation im Steuerrecht: Die Thesaurierungsbegünstigung. Abbildung 6:
497
Effektive Gesamtsteuerbelastung bei Ausschüttung
60%
effektive Gesamtsteuerbelastung
50%
40%
30%
20%
10%
Transparenzprinzip Trennungsprinzip Abgeltungsteuer Trennungsprinzip Teileinkünfteverfahren
0% 15%
20%
25%
30%
35%
40%
45%
Einkommensteuersatz
Die Anwendung des virtuellen Trennungsprinzips bewirkt eine identische effektive Gesamtsteuerbelastung für Kapitaleigner sowie Gesellschafter, sobald der progressive Einkommensteuersatz den Unternehmensteuersatz übersteigt. Das virtuelle Trennungsprinzip bewirkt keine rechtsformneutrale Besteuerung, sondern nur eine Angleichung bei der vom Gesetzgeber genannten Zielgruppe.
5
Fazit
Mit der Unternehmensteuerreform 2008 wurde für ertragsstarke und im internationalen Wettbewerb stehende Einzelunternehmen und Personengesellschaften die Option eingeführt, den nicht entnommen Gewinn begünstigt zu besteuern. Das Ziel dieser Innovation im Steuerrecht war nicht die rechtsformneutrale Besteuerung, wie einige Autoren vermutet haben, sondern größere Belastungsneutralität. Diese Begrenzung des Anwendungsbereichs der begünstigten Besteuerung ist nicht Ausdruck einer Diskriminierung ertragsschwacher Personengesellschaften. Ertragsschwache Personengesellschaften profitieren vielmehr vom progressiven Einkommensteuertarif, der zu einer – verglichen mit einer Kapitalgesellschaft – geringeren Tarifbelastung führt. Unter Beachtung des historisch gewachsenen Steuersystems und ohne dessen vollständige Reformierung sollte
498
Kerstin Schneider / Claudia Wesselbaum-Neugebauer
durch die Steuerreform 2008 dennoch eine annähernd tarifliche Belastung wie bei einer Kapitalgesellschaft erreicht werden. Die Rechtsform der Kapitalgesellschaft ist vor allem für ertragsstarke Unternehmen steuerlich günstig, deren Kapitaleigner langfristig auf Dividendenausschüttungen verzichten können. Ertragsstarke Personengesellschaften sollten eine ähnliche steuerliche Belastung auf Unternehmensebene erfahren. Für ertragsschwache Personengesellschaften bietet hingegen die transparente Besteuerung Vorteile. Das im Gesetz umgesetzte Konzept der begünstigten Besteuerung einbehaltener Gewinne weist jedoch einige Mängel auf. Diese sind allerdings nicht so gravierend, als das sie nicht durch eine Reform beseitigt werden könnten. Hierzu ist es zunächst erforderlich, bei Personengesellschaften eine virtuelle Trennung von Gesellschafts- und Gesellschafterebene unter Beibehaltung der zivilrechtlichen Gesellschaftsform durchzuführen. Dem individuellen Ertragsteuersatz des Gesellschafters unterliegen in diesem Fall die gem. § 4 Abs. 1 S. 2 EStG definierten Entnahmen. Der danach verbleibende Gewinn unterliegt jener tariflichen Belastung, die für Kapitalgesellschaften gilt. Die spätere Rückführung des nicht entnommenen Gewinns unterliegt der Abgeltungsteuer. Der Beitrag hat gezeigt, dass durch eine vergleichsweise unproblematische Reform der begünstigten Besteuerung nicht entnommener Gewinne bei Personengesellschaften ein weiterer signifikanter Schritt in Richtung belastungsneutraler Besteuerung gemacht werden kann. Folgt man dem hier vorgestellten „virtuellen Trennungsprinzip“, lässt sich das Ziel des Gesetzgebers realisieren, insbesondere ertragsstarke Personengesellschaften in annähernd vergleichbarer Weise wie Kapitalgesellschaften zu besteuern. Das weiterführende Ziel einer rechtsformneutralen Besteuerung kann mit diesem Besteuerungskonzept hingegen nicht umgesetzt werden. Literatur Bachmann, Carmen/Schultze, Wolfgang (2008): Unternehmensteuerreform 2008 und Unternehmensbewertung. Auswirkungen auf den Steuervorteil der Fremdfinanzierung von Kapitalgesellschaften, in: Die Betriebswirtschaft Jg. 68, Heft 1/2008, S. 934. Blum, Andreas (2008): Wann lohnt sich die Thesaurierungsbesteuerung für Personengesellschaften nach der Unternehmensteuerreform 2008?,in: Betriebs-Berater Jg. 63, Heft 7/2008, S.. 322-326. Broer, Michael/Dwenger, Nadja (2008): Die kurzfristigen Steuereffekte der „Thesaurierungsbegünstigung“ für Personenunternehmen. Discussion Papers Nr. 765, Deutsches Institut für Wirtschaftsforschung, Berlin 2008.
Innovation im Steuerrecht: Die Thesaurierungsbegünstigung.
499
Bundesministerium der Finanzen (2008): Anwendungsschreiben zur Begünstigung der nicht entnommenen Gewinne (§ 34a EStG) vom 11.8.2008. IV C 6- S 2290a/07/0001, 2008/0431405. BStBl. I 2008, S. 838. Bundesministerium der Finanzen (2002): Angemessenheit der Gesamtbezüge eines Gesellschafter-Geschäftsführers. IV A 2-S 2742-62/02. In: BStBl. I. 2002, S. 972. Deutscher Bundestag (2007): Entwurf eines Unternehmensteuerreformgesetzes 2008. 27.03.2007. BT-Drs. 16/4841. Deutscher Bundestag (2000): Entwurf eines Gesetzes zur Senkung der Steuersätze und zur Reform der Unternehmensbesteuerung (Steuersenkungsgesetz - StSenkG). 15.02.2000. BT-Drs. 14/2683. Deutscher Bundesrat (2007): Entwurf eines Unternehmensteuerreformgesetzes 2008. 30.03.2007. BR-Drs. 220/07. Diller, Markus (2008): Steuerplanung bei Personenunternehmen unter Berücksichtigung der Thesaurierungsbegünstigung, in: Wissenschaftliches Studium Jg. 37, Heft 12/2008, S. 674-677. Drüen, Klaus-Dieter (2008): Rechtsformneutralität der Unternehmensbesteuerung als verfassungsrechtlicher Imperativ?, in: GmbH-Rundschau Jg. 99, Heft 8/2008, S. 393-403. Haase, Klaus Dittmar/Hinterdobler, Toni (2006): Besteuerung nicht entnommener Gewinne von Personenunternehmen - Ein Modell zur kurzfristigen Verbesserung der Eigenkapitalbildung, in: Betriebs-Berater Jg.61, Heft 22/2006, S. 1191-1197. Hey, Johanna (2008): § 11 Körperschaftsteuer, in: Tipke, Klaus/Lang, Joachim (Hrsg.) (2008), S. 417-458 Hey, Johanna (2007): Unternehmensteuerreform: das Konzept der Sondertarifierung des § 34a EStG-E - Was will der Gesetzgeber und was hat er geregelt?, in: Deutsches Steuerrecht Jg. 45, Heft 22/2007, S. 925-931. Homburg, Stefan (2007a): Allgemeine Steuerlehre. 5. Auflage, München 2007. Homburg, Stefan (2007): Die Abgeltungsteuer als Instrument der Unternehmensfinanzierung, in: Deutsches Steuerrecht Jg. 45, Heft 15/2007, S. 686-690. Homburg, Stefan/Houben, Henriette/Maiterth, Ralf (2008): Optimale Eigenfinanzierung der Personenunternehmen nach der Unternehmensteuerreform 2008/2009, in: Schmalenbachs Zeitschrift für betriebswirtschaftliche Forschung 60. Februar 2008, S. 29-47. Houben, Henriette/Maiterth, Ralf (2008): Zur Diskussion der Thesaurierungsbegünstigung nach § 34a EStG. Diskussionsbeitrag Nr. 42. arqus Diskussionsbeiträge zur Quantitativen Steuerlehre, März 2008. Jansen, Harald (2006): Rechtsformunabhängige Besteuerung - Stärkung der Eigenkapitalbasis oder Anreiz zur Steuerplanung?, in: Finanz Betrieb Jg. 8, Heft 12/2006, S. 753-760. Kessler, Wolfgang/Ortmann-Babel, Martina/Zipfel, Lars (2007): Unternehmensteuerreform 2008: Die geplanten Änderungen im Überblick, in: Betriebs-Berater Jg. 62, Heft 10/2007, S. 523-534. Knirsch, Deborah/Maiterth, Ralf/Hundsdoerfer, Jochen (2008): Aufruf zur Abschaffung der misslungenen Thesaurierungsbegünstigung!, in: Der Betrieb Jg. 61, Heft 26/2008, S. 1405-1407.
500
Kerstin Schneider / Claudia Wesselbaum-Neugebauer
Knirsch, Deborah/Schanz, Sebastian (2008): Steuerreformen durch Tarif- oder Zeiteffekt? Eine Analyse am Beispiel der Thesaurierungsbegünstigung für Personengesellschaften. Diskussionsbeitrag Nr. 37. arqus Diskussionsbeiträge zur Quantitativen Steuerlehre, Januar 2008. Lang, Joachim (2000): Die Unternehmensteuerreform - eine Reform pro GmbH, in: GmbH-Rundschau Jg. 91, Heft 10/2000, S. 453-462. Ley, Ursula/Brandenberg, Hermann Bernwart (2007): Unternehmensteuerreform 2008: Thesaurierung und Nachversteuerung bei Personenunternehmen, in: Finanz-Rundschau Jg. 89, Heft 23/2007, S. 1085-1132. Lüking, Niels/Schanz, Sebastian/Knirsch, Deborah (2008): Die Abgeltungsteuer 2009 Benachteiligung mittlerer Einkommensbezieher, in: Finanz Betrieb Jg. 10, Heft 6/2008, S. 448-451. Maiterth, Ralf/Müller, Heiko (2007): Unternehmensteuerreform 2008 - Mogelpackung statt großer Wurf, in: Vierteljahreshefte zur Wirtschaftsforschung des DIW Jg. 76, Heft 2/2007, S. 49-73. Mentel, Thomas/Schulz, Andreas (2000): Diskussionsforum Unternehmenssteuerreform: Option von Personengesellschaften und Einzelunternehmen zur Körperschaftsteuer steuerliche Auswirkungen und handelsrechtliche Aspekte, in: Deutsches Steuerrecht Jg. 38, Heft 12/2000, S. 489-498. Müller, Heiko/Houben, Henriette (2008): Zum steuerlichen Nachteil der Fremdfinanzierung von Beteiligungen an Kapitalgesellschaften nach dem Unternehmensteuerreformgesetz 2008, in: Finanz Betrieb Jg. 10, Heft 4/2008, S. 237-247. Musil, Andreas/Leibohm, Thomas (2008): Die Forderung nach Entscheidungsneutralität der Besteuerung als Rechtsproblem, in: Finanz-Rundschau Jg. 90, Heft 17/2008, S. 807-814. Patek, Guido (2007): Auswirkung der Unternehmensteuerreform 2008 auf ausgewählte Entscheidungsfelder der betrieblichen Steuerpolitik, in: Betriebswirtschaftliche Forschung und Praxis Jg. 59, Heft 5/2007, S. 443-463. Prinz, Ulrich (2000): Ertragsteuerfragen moderner Konzepte der Unternehmensorganisation, in: Finanz-Rundschau Jg. 82, Heft 10/2000, S. 537-545. Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung (2007): Jahresgutachten 2007/2008. Das Erreichte nicht verspielen, Wiesbaden 2007. Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung (2005): Jahresgutachten 2005/2006. Die Chance nutzen - Reformen mutig voranbringen, Wiesbaden 2005. Schreiber, Ulrich/Overesch, Michael (2008): Reform der Unternehmensbesteuerung Eine ökonomische Analyse aus Sicht der internationalen Besteuerung, in: Der Betrieb Jg. 61, Heft 15/2008, S. 813-820. Schreiber, Ulrich/Ruf, Martin (2007): Reform der Unternehmensbesteuerung: ökonomische Auswirkungen bei Unternehmen mit inländischer Geschäftstätigkeit, in: Betriebs-Berater Jg. 62, Heft 20/2007, S. 1099-1105. Schreiber, Ulrich/Spengel, Christoph (2006): Allgemeine Unternehmenssteuer und Duale Einkommensteuer, in: Betriebswirtschaftliche Forschung und Praxis Jg. 58, Heft 3/2006, S. 275-288.
Innovation im Steuerrecht: Die Thesaurierungsbegünstigung.
501
Siegel, Theodor (2008): Zu Diagnose und Therapie bei § 34a EStG, in: Finanz-Rundschau Jg. 90, Heft 14/2008, S. 557-561. Spengel, Christoph/Reister, Timo (2006). Die Pläne zur Unternehmenssteuerreform 2008 drohen ihre Ziele zu verfehlen, in: Der Betrieb Jg. 59, Heft 33/2006, S. 1741-1747. Stiftung Marktwirtschaft (2006): Kommission „Steuergesetzbuch“. Steuerpolitisches Programm. Einfacher, gerechter, sozialer: Eine umfassende Ertragsteuerreform für mehr Wachstum und Beschäftigung, Berlin 2006. Tipke, Klaus/Lang, Joachim (2008): Steuerrecht. Begründet von Klaus Tipke, fortgeführt von Joachim Lang, 19. Auflage, Köln 2008. Wagner, Franz W. (2006): Was bedeutet und wozu dient die Rechtsformneutralität der Unternehmensbesteuerung?, in: Steuer und Wirtschaft Jg. 83, Heft 2/2006, S. 105114. Winkeljohann, Norbert/Fuhrmann, Sven (2007): Renaissance der Personengesellschaften in der betriebswirtschaftlichen Rechtsformwahl?, in: Betriebswirtschaftliche Forschung und Praxis Jg. 59, Heft 5/2007, S. 464-480.
Informationen und Medien
Zur Ökonomie digitaler Medien Jochen Koubek
Eine Festschrift ist auch eine Gelegenheit, um den gemeinsamen Weg mit dem Jubilar nachzuzeichnen oder ihm für langjährige Zusammenarbeit zu danken. In meinem Fall wäre das eine zu lange und zu persönliche Geschichte, für die mir eine Publikation nicht als der geeignete Ort erscheint. Vielleicht nur soviel: Die stetige geistige Offenheit meines Vaters, deren Symbol und Vorbild für mich immer die häusliche Bibliothek war, die in ihrer Themenfülle nur von der örtlichen Bücherei übertroffen wurde, dieses Klima in unserem Haus hatte vermutlich einen bedeutsameren Einfluss auf mich als ich das je zuzugeben bereit wäre. Es mag ein biografischer Zufall sein, dass meine Berufung so dicht mit der Festschrift und seiner Emeritierung zusammen fällt. Weniger zufällig aber ist mein Weg, der von ihm zwar nicht gewählt, aber vorgelebt wurde, und der mir zum Verwirklichen einer grundsätzlichen Neugier der Welt gegenüber auch dann als lohnenswert erschien, als der sicheren Anstellung noch die Alternative des habilitierten Taxifahrers gegenüber stand. Jeder Mann ist auch der Sohn seines Vaters, den man sich ja nicht aussuchen kann. In meinem Fall möchte ich sagen: ich habe großes Glück gehabt. Der folgende Essay bewegt sich auf einem Gebiet, das von seinem und meinem Bezugsfach überdeckt wird, ich verstehe ihn als Beitrag sowohl zum innerfamiliären als auch zum transdisziplinären Dialog.
1
Die Ökonomie des Materiellen
Die klassische Ökonomie behandelt in ihrem Selbstverständnis das Versorgungsproblem mit knappen Gütern. Dieses Problem resultiert aus der Trägheit von Atomen, ihrer räumlichen Lokalisierbarkeit, ihrer Unduplizierbarkeit. Überall auf der Welt werden Waren produziert, indem Rohstoffe bearbeitet, Molekül-
506
Jochen Koubek
ketten transformiert und zu neuen Kombinationen zusammen gefügt werden. Ob portugiesischer Wein oder englische Wolle, immer gilt es, Produktionsfaktoren so einzusetzen, dass die veredelten Atomansammlungen für Abnehmer interessanter sind als die reinen Rohstoffe. Die Waren aber müssen zum Kunden transportiert werden, was mit zunehmender Entfernung aufwändiger wird. Die Transport- und Versorgungsnetze sind inzwischen zwar dicht geknüpft, problematisch bleiben aber die erste und die letzte Meile, der Weg der Ware ins Netz und der Weg der Ware aus dem Netz. Eine Lösung sind lokale Zentren: Lager, Speicher, Archive und Magazine, in denen die Waren gelagert werden, bis sie ins Transportnetz eingespeist werden können; Geschäfte, Läden und Märkte, in denen sie aus dem Netz entnommen werden und auf den Kunden warten. Beschaffungs-, Produktions-, Transport- und Lagerkosten sorgen dafür, dass auf Atomen basierende Waren immer knapp sind. Sie haben für Menschen einen Wert und damit auch einen Preis. Diese Eigenschaften stecken in der Definition von ökonomischen Gütern: Waren sind handelbar und dafür müssen sie einen Preis erzielen, der sich aus der Nachfrage bei gleichzeitig knappem Angebot ergibt. Was es im Überfluss gibt, erzielt keinen Preis, selbst wenn es einen Wert hat. Eskimos kann man keinen Schnee verkaufen, Beduinen keinen Sand. Die Knappheit liegt bereits im Wesen der Materie, Atome lassen sich nicht verdoppeln, eine Flasche Porto kann man selber trinken oder verkaufen und zwei Liter Porto benötigen doppelt so viele Atome wie einer. Natürlich kostet die Produktion von zwei Litern nicht doppelt soviel wie die von einem Liter. Die Grenzkosten sinken bei höherer Stückzahl und nähern sich laut Pareto durch wechselseitige Spezialisierungen einem Gleichgewicht. Auch wenn sich die zu berücksichtigen Paramter seit Pareto stark ausgeweitet haben, auf Dienstleistungen als Ergänzung zu materiellern Gütern, auf die Mobilität von Arbeit und nicht nur die der Güter, auf Wechselkurse und Zölle, immer geht es der Ökonomie um Waren, die im internationalen Handelsverkehr ausgetauscht werden und auf Märkten ihren Preis erzielen. Das Knappheits- und Versorgungsproblem ist die Grundlage des wirtschaftlichen Handelns mit materiellen Gütern und damit Ausgangspunkt der Betrachtungen und Überlegungen der Ökonomie.
Zur Ökonomie digitaler Medien 2
507
Die Ökonomie des Digitalen
Nahezu alle der genannten Voraussetzungen über den Charakter von Waren ändern sich in der digitalen Welt.1 Digitale Medien sind billig, einfach, oft, automatisch und verlustfrei kopier- und umcodierbar. Ein digitales Gut kann man behalten und weggeben. Jede Kopie ist Vorlage für weitere Kopien. Es gibt keine digitalen Originale und dies in einem noch viel direkteren Sinn als es für den Verlust materieller Originale bei Industrieprodukten der Fall ist. Denn jede Digitaldatei kann unmittelbare Vorlage für eine beliebige Anzahl weiterer Kopien sein. Während Kopien materieller Güter nur mittels spezialisierter Produktionsmaschinen möglich sind, genügt bei digitalen Gütern ein Mausklick auf der Universalmaschine Computer. In ökonomischen Begriffen2 ist ein solches Gut: Handelbar: Digitale Medien können auf internationalen Märkten angeboten und verkauft werden. Das unterscheidet sie von nicht-handelbaren Gütern wie lokalen Dienstleistungen, Verwaltungsaufgaben oder kommunalen Versorgungstätigkeiten, die überregionalen Märkten entzogen sind. Im Gegensatz zu materiellen Gütern fallen beim Handel mit digitalen Medien keine nennenswerten Transport- oder Lagerkosten an. Schon aus diesem Grund klingt es absurd, wenn der Buchhandel seine Vorstellung betont, dass der Preis von elektronischen Büchern dem von Papierpublikationen entsprechen muss.3 Immateriell: Auch digitale Informationen sind an einen materiellen Träger gebunden, sei es eine Lochkarte, eine ferromagnetische oder eine optische Platte, ein Flashspeicher oder ein holografischer Würfel. Und die Beschädigung des Trägers löscht die auf ihm gespeicherten Informationen. Dies beeinträchtigt aber nicht das wesentliche Merkmal des digitalen Guts, dass es zwischen verschiedenen Trägern ohne Informationsverlust kopiert werden kann, wodurch es unabhängig von seiner jeweiligen Materialisierung wird, mithin immateriell ist. Unbegrenzt kopierbar: Analoge Medien haben teilweise erhebliche materielle Einschränkungen bei ihrer Kopierbarkeit. Der Druckstock für einen Holzschnitt wird nach mehreren Druckvorgängen durch Farbe und Quetschkräfte der Druckerpresse unbrauchbar. Ein Filmnegativ kann zwar in hoher Auflage zur Belich-
1 2 3
Vgl. Negroponte (1996). Vgl. Koubek (2008). Vgl. Justus (2009).
508
Jochen Koubek
tung benutzt werden, dabei kann aber von einem gegebenen Negativ zu jedem Zeitpunkt nur ein einzelner Abzug erstellt werden. Die materielle Abnutzung der Originale spielen bei Analogkopien eine deutlich größere Rolle als bei digitalen Kopien. Dies nicht erst seit computerbasierten Medien. Bereits der Buchdruck mit beweglichen Lettern kann unbegrenzt kopiert werden, weil nach Abnutzung eines Druckstocks ein neuer gesetzt werden kann, der vom ersten nicht zu unterscheiden ist. Das Besondere an elektronischen digitalen Medien ist weniger ihre Kopierbarkeit als ihre Vermehrbarkeit. Unbegrenzt vermehrbar: Diese Grundeigenschaft digitaler Medien bedeutet nicht nur, dass von einem Original beliebig viele Kopien gezogen, sondern dass die Kopien ihrerseits als Vorlage für weitere Kopien dienen können, ohne dass ein merklicher Qualitätsverlust eintritt. Analoge Kopierketten enden nach der ersten oder zweiten Generation. Digitale Kopierketten können exponentiell ansteigen, aus einer Datei können in kurzer Zeit beliebig viele Kopien entstehen, an vielen Orten. (Nicht) ausschließend: Die Exkludierbarkeit digitaler Medien beruht auf der Notwendigkeit, Hard- und Software zur Rezeption zu besitzen und bedienen zu können. Hierfür sind digitaler Medienkompetenz in je nach Gerät unterschiedlicher Ausprägung erforderlich. Die Komplexität eines Videorekorders gilt seit Jahrzehnten als Musterbeispiel für die fehlgeleitete Produktpolitik von Medienherstellern bei der Einschätzung ihrer Kunden. Das Ziel bleibt aber, jedem Willigen die Bedienung der Geräte zu vereinfachen. Jenseits dieser infrastrukturellen Hürde ist eine einzelne Datei nicht ausschließend. Jeder, der materiell und kognitiv in der Lage ist, einen Computer zu bedienen, kann sie nutzen. Nicht knapp: Dies folgt unmittelbar aus den vorangehenden Eigenschaften. An Gütern, die unbegrenzt vermehrbar, immateriell transportierbar und nicht exkludierend sind, herrscht kein Mangel. Dieser Umstand hat weit reichende Auswirkungen auf die ökonomische Verwertung, die im nächsten Abschnitt diskutiert werden. Unteilbar: Wie bei analogen Medien bietet auch ein halber Digitalfilm, ein halber PDF-Krimi oder ein halber WAV-Opernmitschnitt einen beschränkten Genuss, wodurch die Mehrheit der digitalen Medien als unteilbar gelten kann. Bedingt substituierbar: Ein Medium wird vom Rezipienten gezielt ausgewählt und kann nicht bzw. nur sehr eingeschränkt durch ein ähnliches ersetzt werden.
Zur Ökonomie digitaler Medien
509
Nicht rival: Im Gegensatz zu materiellen Waren schränkt der Konsum eines digitalen Guts andere Nutzer nicht ein. Sie können einfach auf eine weitere Kopie zurück greifen. Digitale Güter stehen jederzeit allen zur Verfügung. (Nicht) staugefährdet: Prinzipiell sind digitale Medien durch ihre beliebige Vervielfältigbarkeit auch nicht von dem Umstand betroffen, dass viele Konsumenten gleichzeitig auf sie zugreifen. Faktisch kommt es bei hohem Interesse immer wieder zu Überlastungen von Servern oder von Funkzellen. Dies ist ein Zeichen für die materielle Gebundenheit digitaler Medien. Mit dem Ausbau der IT-Infrastruktur sinkt die Staugefährdung auch bei den begehrtesten Digitalmedien. Dauerhaft nutzbar: Digitale Medien nutzen sich nicht ab, im Gegensatz zu ihren materiellen Trägern. Empfindliche Träger, ausgestorbene Dateiformate und fehlende Lesegeräte stehen einer Langzeitarchivierung digitaler Güter im Weg. Diesem Alterungsprozess kann aber durch regelmäßiges Umkopieren auf andere Datenträger und in aktuelle Formate erfolgreich begegnet werden.
Digitale Medien sind nicht knapp und nicht ausschließend, beliebig kopierbar und dauerhaft nutzbar. Darin unterscheiden sie sich von analogen Waren, sehr zum Leidwesen der Produzenten und Händler. Nicht nur ist von derartigen Gütern wenig Umsatz zu erwarten, die Betriebs- und Vertriebsstrukturen sind in keiner Weise darauf vorbereitet, immaterielle Güter anzubieten, wo bislang materielle Ton- und Bildträger vermarktet wurden. Hier bieten sich zwei Anpassungsstrategien an, die hier in Anlehnung an Piaget als Assimilation und Akkomodation bezeichnet werden: 1. Die zu vermarktenden Güter werden an die Betriebsstrukturen adaptiert (Assimilation) oder 2. Der Betrieb passt sich den neuen Gütereigenschaften an (Akkomodation). Wenig überraschend wurde in den vergangenen 15 Jahren durchweg die erste Strategie gewählt. Technische, ökonomische und vor allem juristische Maßnahmen wurden unter dem Oberbegriff Digital Rights Management (DRM) ergriffen, um digitale Medien wieder in knappe und exkludierende Güter zu transformieren.
3
Assimilation: Aufstieg und Niedergang der Digital-RightsManagement-Systeme
Aus technischer Sicht ist DRM eine kryptografische Hülle, die um Mediendateien gelegt wird und die nur von ausgewählten Programmen geöffnet werden
510
Jochen Koubek
kann. Eine in DRM eingeschlossene Datei bleibt solange unlesbar, bis sie mit einem korrekten Schlüssel entsperrt wird. Damit steht die Datei für vertraglich festgelegte Nutzungsform zur Verfügung. Je nach bezahltem Betrag kann dies bedeuten, dass sie nicht kopierbar ist, dass sie nur zweimal abgespielt werden darf oder dass dies nur in USA, nicht aber in Europa funktioniert. Die zuverlässige Funktion eines DRM-Systems setzt die vollständige Kontrolle des Händlers über den Schlüssel voraus, was wiederum bedeutet, dass nur ausgewählte Software die Rechte verwalten kann, sei es in Form von Computerprogrammen oder als Firmware, die in Abspielgeräte implementiert ist. Die Verwertungskette erweitert sich vom Vertrieb der Mediendateien zu der Verwaltung von DRM-Software. Bei jeder Rezeptionsanfrage von Seiten des Nutzers muss das DRM-Programm prüfen, ob die nötigen Rechte erworben wurden, ehe es das Medium für die ausgewählte Nutzungsform mit dem gespeicherten Schlüssel frei gibt. Das wiederum erfordert eine zentral verwaltete Datenbank, in der die Rechte gespeichert sind und worauf die DRMSoftware Zugriff hat. Aus ökonomischer Sicht bedeutet DRM, dass digitale Medien in exkludierbare, nicht-kopierbare, eingeschränkt nutzbare und damit knappe Güter verwandelt werden. Handelsware ist nicht mehr die Datei, in der die Medieninformationen gespeichert sind, sondern vielmehr der Zugang zu ihr.4 Während die Medien in Form digitaler Dateien weiterhin frei kopierbar und damit nicht knapp sind, können die Zugangsrechte individuell gehandelt werden. Die Ökonomie des Digitalen wandelt sich in diesem Szenario von einer Ökonomie des Mangels zur einer Ökonomie der Wissensrechte. Aus juristischer Sicht wurden massive Anstrengungen unternommen, die ökonomisch-technische Strategie der künstlichen Verknappung digitaler Medien gesetzlich abzusichern. Die verschiedenen Reformen des Urheberrecht der vergangenen Jahre zielten primär darauf ab, DRM-Systeme, der Gesetzgeber spricht von „wirksamen technischen Maßnahmen“, zu stützen. Nach § 95a UrhG dürfen wirksame technische Maßnahmen nicht ohne Erlaubnis des Rechteinhabers umgangen werden. Produkte, die dies tun dürfen nicht hergestellt, verbreitet, verkauft oder sonst wie zugänglich gemacht werden. Nicht einmal die Verlinkung zu einem entsprechenden ausländischen Anbieter ist noch zulässig. Damit wird aus juristischer Logik erreicht, was aus technischer Sicht bislang unmöglich war: eine Technologie zu entwickeln, mit der Handlungen, die vom Rechteinhaber nicht genehmigt sind, wirksam verhindert oder eingeschränkt werden können. Aus technischer Sicht ist ein Kopierschutz wirksam, wenn er das tut, was er verspricht, nämlich das Kopieren zu verhindern. Aus juristischer Sicht ist er es, 4
Vgl. Rifkin (2000).
Zur Ökonomie digitaler Medien
511
wenn die Vervielfältigungshandlung vom Rechteinhaber irgendwie unter Kontrolle gehalten wird (§ 95a Abs. 2 UrhG). Faktisch läuft es auf eine Verplombung der Dateien hinaus, ein Schutz, der wie Bleibänder vor Strom- und Wasserzählern zwar von jedem mit einem geeigneten Werkzeug entfernt werden kann, gesetzlich aber verboten ist. Die Vision von DRM ist eine Ökonomie des Digitalen, die im Prinzip genauso funktioniert wie die Ökonomie des Materiellen. Aus Firmensicht hat sie den unschätzbaren Vorteil, dass Vertriebs- und Vergütungsstrukturen lediglich marginal angepasst werden müssen. Aus verschiedenen Gründen jedoch kann diese Strategie als gescheitert betrachtet werden: Der Unterschied zwischen technisch wirksam aus juristischer und aus technischer Sicht führt dazu, dass die Entfernung technischer Maßnahmen zwar verboten ist, dieses Verbot aber weder kontrollier- noch durchsetzbar ist. Wie die DRM-Gegner es programmatisch formulierten: Sie müssen jede Datei immer schützen, wir müssen eine nur einmal öffnen. Der zentrale Schlüssel des Content Scrambling-Systems (CSS), mit dem DVDs geschützt werden sollten, wurde 1999 von dem 15-jährigen Norweger Jon Lech Johansen gefunden, der einen DVD-Player für Linux entwickeln wollte. Der als DeCSS getaufte und von US-amerikanischem Recht bereits 1999 verbotene Algorithmus wurde in der Folge immer weiter vereinfacht, bis er u.a. als 472-Byte-langes Perl-Skript vorliegt.5 Phil Carmody fand 2001 eine Primzahl, deren digitale Repräsentation ein Programm ergibt, das DeCSS ausführt. Nach geltendem Recht handelt es sich dabei also um eine illegale Primzahl.6 CSS gilt inzwischen als vollständig wirkungslos, wenngleich nur die wenigsten Menschen den Verschlüsselungs- wie Entschlüsselungsalgorithmus verstehen dürften. Für die Bedienung der DVD-Ripper-Software mit grafischen Benutzeroberflächen ist dies allerdings gar nicht notwendig. Derartige Programme lassen sich unter Missachtung des §95a UrhG kostenlos und unkontrollierbar von nicht-deutschen Webseiten laden. Damit ist der Paragraph nicht nur in Hinblick auf CSS faktisch wirkungslos denn für jede DRM-Hülle stehen derartige Programme zur Verfügung. Kopien brauchen Originale, lautet eine Gegen-Kampagne der Rechteinhaber und tatsächlich werden die Kopier-Programme (Ripper) auch beworben als Möglichkeit, eine Kopie der eigenen Medien anlegen zu können, um dem Verlust oder der Beschädigung des gekauften Datenträgers vorzubeugen. Das Recht kennt zwar den Anspruch auf Sicherheitskopie von Software (§ 69d Abs. 2 UrhG), dieser erstreckt sich jedoch nicht auf andere 5 6
Vgl. Touretzky (2000). Vgl. Carmody (2001).
512
7
Jochen Koubek Medien. Dennoch werden derartige Kopien auch von den Rechteinhabern mehr oder weniger explizit geduldet. Problematisch wird es bei der Weitergabe der Kopien an Dritte und Vierte und Fünfte, von DRM entkernte Mediendateien sind erneut beliebig kopier- und vervielfältigbar. Und diese bieten Kopien regelmäßig mehr Nutzungskomfort als die Originale. Neben CSS sind DVDs mit Regioncodes, Macrovision und User Operation Prohibitions (UOP) angereichert. Region Codes teilen die Welt in 8 Zonen auf und sollen verhindern, dass Filme, die in USA (Region 1) verkauft werden, auf europäischen Geräten (Region 2) abgespielt werden können. Macrovision verhindert die Kopie auf analoge Videorekorder. UOPs schränken Nutzeraktionen ein, darunter Wiedergabe beenden, Kapitel überspringen oder Menü auswählen. Die Idee ist es, dass Benutzer in jedem Fall die Lizenzbestimmungen, die Vorfilme und den Raubkopierer-sind-Verbrecher-Spots sehen müssen, ehe sie im Hauptmenü ihren Film auswählen können. Das mag informativ gemeint sein, wird aber im Allgemeinen als störend empfunden. Gerippte Filme sind regelmäßig frei von Regioncodes, Macrovision und UOPs, sie können beliebig kopiert, auf beliebigen Playern gespielt und beliebig bedient werden. Der Kopierer erhält damit ein besseres Produkt als der Käufer, was vielfach zur Entscheidung führt, gänzlich auf das eingeschränkte Original zu verzichten. „Das Schöne an Standards ist, dass es so viele gibt, aus denen man wählen kann“7. Dieses Techniker-Bonmot gilt auch für die Vielzahl an DRMSystemen, jeder größere Hersteller entwickelt sein eigenes. Während das DVD-Konsortium sich noch auf einen einheitlichen Standard einigen konnte, gibt es für Musikdateien verschiedene Industriestandards. Eine bei Apples iTunes gekauftes und mit FairPlay geschütztes Musikstück kann nur auf Abspielgeräten von Apple gehört werden. Ein entschütztes Stück hingegen ist beliebig portierbar. Hier stellen sich vertragsrechtliche Fragen, ob ein erworbenes Produkt im Gebrauch derart drastisch beschränkt werden darf. Die Probleme eskalierten 2008 bei der Ankündigung von Anbietern wie Microsoft, Wal-Mart oder Sony, ihre DRM-Server abzuschalten, was dazu führen würde, dass der DRM-Software keinen Überprüfung der Lizenzen mehr möglich ist und die gekaufte Musik nicht mehr abspielbar würde. Auch der Wechsel von Hardware-Komponenten, der Verlust der Festplatte oder die Löschung der Lizenzen kann dazu führen, dass DRM-Software die Dateien nicht mehr dem rechtmäßigen Besitzer zugeordnet werden können. Weitere Bedenken stellt sich von persönlichkeitsrechtlicher Seite. DRM erfordert die regelmäßige Überprüfung der Lizenzen, im Extremfall bei jeTanenbaum (1996).
Zur Ökonomie digitaler Medien
513
der Rezeptionsanfrage. Die Software nimmt Verbindung mit der zentralen Datenbank des Rechteinhabers auf und fragt, ob die gewünschte Nutzung des gewählten Werks zum ausgewiesenen Zeitpunkt für die fragende Person zulässig ist. Hierbei entstehen detaillierte Mediennutzungsprofile, die von zumeist nicht-deutschen Unternehmen erhoben, gespeichert und verarbeitet werden. Diese Praxis steht in einem zumindest fragwürdigen Verhältnis zu deutschen Datenschutzgesetzen, dass staatlichen wie nicht-staatlichen Stellen Auflagen macht und nach Prinzipien wie Verhältnismäßigkeit, Einwilligungspflicht, Gesetzesvorbehalt, Zweckbestimmung und Transparenz ausgerichtet ist. Aus Sicht der Öffentlichkeit ist die Archivierung digitaler Medien in ihrer Eigenschaft als Kulturgut eine erhebliche Herausforderung. Der rasche Wechsel von Abspielgeräten, Trägermedien und Dateiformaten führt dazu, dass digitale Medienträger nach wenigen Jahren entweder nicht mehr lesbar, oder aber nicht mehr decodierbar sind. DRM erschwert die Archivierung zusätzlich, nicht nur weil ihre Umgehung illegal ist, sondern weil in wenigen Jahren die Software zur Öffnung der kryptografischen Hüllen nicht mehr funktionieren dürfte, z.B. weil der Bezugsserver abgeschaltet wurde.
DRM kann als gescheitertes Experiment angesehen werden, die Marktmodelle der materiellen Ökonomie auf die digitale Ökonomie zu übertragen. Technische, organisatorische, ökonomische und rechtliche Hindernisse, nicht zuletzt aber die Alltagspraxis des uneingeschränkten Kopierens digitaler Medien haben DRM als am Markt nicht durchsetzbar erwiesen. Dennoch ist es mehr als eine Fußnote der Mediengeschichte des frühen 21. Jahrhunderts. Denn während das Scheitern von DRM für Audiomedien auch von Seiten der Industrie anerkannt wird, ist für Filme ein Anstieg der DRM-Systeme zu verzeichnen. Der Bitkom bezeichnet DRM noch 2008 als Kerntechnologie der digitalen Wirtschaft.8 Auch der mit dem Aufkommen der Lesegeräte für Elektronisches Papier sich entwickelnde Markt der digitalen Bücher steht vor den gleichen Herausforderungen wie die Audioindustrie im vergangenen Jahrzehnt. Anstatt aber aus deren Fehlern und Sackgassen zu lernen, wird derzeit die gleiche Strategie geplant, die bereits gescheitert ist: Mittels proprietärer Dateiformate, die mit verschiedenen, untereinander inkompatiblen DRM-Verfahren geschützt sind, werden selektive Angebote für auswählte Lesegeräte gemacht, während in einschlägigen Foren bereits kopierschutzfreie PDFs oder RTFs der aktuellen Beststeller kursieren. Der zentrale Grund des Scheitern der DRM-Strategie liegt in der Annahme, dass digitale Gütern Handelswaren wie materielle Güter sind, dass eine digitale 8
Vgl. Bitkom (2008).
514
Jochen Koubek
Ökonomie des Überflusses nach den gleichen Regeln aufgebaut werden kann wie die materielle Ökonomie des Mangels. Wenn ein System seine Umwelt nicht mehr assimilieren kann, muss es sich bei Strafe des Untergangs an diese Umwelt anpassen.
4
Akkomodation: Die Umwelt der Digitalen Medien
In Peer-to-Peer-Netzen wie Bittorrent lässt sich die Hilflosigkeit des Gedankens der Mangelökonomie im digitalen Raum live mitverfolgen. Aus der Beobachtung der Praktiken der Digitale Natives ergeben sich einige Schlussfolgerungen für die Zukunft einer digitalen Medienökonomie: Mediensammlungen wachsen mit dem ihr zur Verfügung stehenden Speichervolumen. Doch wo vor wenigen Jahren noch mit einer 20 GB-Festplatte gehaushaltet wurde, CDs auf CD-Rs kopiert und archiviert wurden, muss auf heutigen Terabyte-Platten weniger Ordnung gehalten werden. Das gilt sowohl für die eigenen Sammlung digitaler Fotos, bei denen Doubletten oder missratene zwar im Prinzip gelöscht werden können, in der Regel aber einfach mitgespeichert werden, weil eine erneute Durchsicht zu aufwändig ist. Das gilt auch für getauschte Medien, bei denen weniger selektiv kopiert wird, sondern ganze Sammlungen zur späteren Durchsicht dem eigenen Bestand einverleibt werden. Ein Sättigungsgrad ist nicht auszumachen. Ebenso wachsen die kopierten Medien-Cluster. Wo früher noch einzelne Alben oder Filme kopiert wurden, stehen heute ganze Lebenswerke von Künstlern als gezippte Datei zur Verfügung. Noch weiter geht dies auf HarddiskParties, bei denen komplette Festplatten gespiegelt werden,9 womit Musiksammlungen ausgetauscht werden, für deren Aufbau zu Analogzeiten noch Jahre oder Jahrzehnte mühevoller Recherche in Archiven und Antiquariaten notwendig waren. Nach dem Kleine-Welt-Prinzip kennt jeder Mensch jeden anderen über maximal 6 Zwischenstufen.10 Das ist der durchschnittliche Exponent, wie oft eine Datei kopiert werden muss, um von einer Festplatte auf einer beliebigen anderen zu landen. Daraus folgt, dass Mediensammlungen zunehmend homogener werden. Vergleichbar dem Grundsatz der Thermodynamik, wonach die Energieverteilung immer einem Gleichgewicht zustrebt, bei dem an jedem Punkt die gleichen Energiemenge vorliegt, lässt sich bei digitalen Medien die Tendenz ausmachen, dass Mediensammlungen sich in Umfang und Inhalt aneinander annähern. Gen-
9 10
Vgl. Lüdecke (2008). Vgl. Milgram (1967).
Zur Ökonomie digitaler Medien
515
res, für die früher kein Platz war, werden einfach mit kopiert und in einem Subordner verortet. Fluchtpunkt dieser Entwicklung ist ein tragbarer Speicherkristall, auf dem alle digitalen Musikstücke, Filme, Bilder und Bücher gespeichert sind, die je produziert wurden. Die gesamte digitalisierte Kulturgeschichte der Menschheit in jedermanns Hosentasche. In der Zeichentrickserie Futurama wurde bereits 1999 die Marsbibliothek vorgestellt, die den größten Bestand des Universums an fiktionaler und nicht-fiktionaler Literatur beherbergt: Abbildung 1:
Mars University. Futurama Staffel 1, Episode 11 (1999)
Angesichts dieser Vision wird die Schlussfolgerung verständlich, dass von dem Verkauf digitaler Medien in Form von Dateien auf lange Sicht kein Geld mehr zu erwarten ist. Die Grenzkosten eines Bits gehen gegen Null. Was wir derzeit erleben, ist das offensive Rückzugsgefecht einer sterbenden Industrie, die sich an Geschäftsmodelle einer Ökonomie klammert, die nach Regeln des Austauschs von Atomen funktioniert. Die aufgefahrene Rhetorik mit Metaphern wie geistiger Diebstahl, Raubkopierer, Medienpiraten etc., die aus Sicht dieser Ökonomie
516
Jochen Koubek
völlig gerechtfertigt sind, ändern nichts an den Wesenzügen digitaler Güter, die sich fundamental von materiellen Waren unterscheiden. Paradoxerweise wird der Niedergang durch die Aggressivität des Auftretens noch beschleunigt. Als Napster im Jahr 2001 nach großem juristischen Druck geschlossen wurde, führte das nicht etwa zum erwarteten Ausbleiben der Kopieraktivitäten, sondern zur Entwicklung dezentraler Netze wie Gnutella, eDonkey und Bittorrent, deren Verfügbarkeit das eines zentralen Systems bei weitem übersteigt. Als Konsequenz werden in den letzten Jahren zunehmend Individuen verfolgt und die öffentliche Vernichtung bürgerlicher Existenzen mit aberwitzigen Strafzahlungen inszeniert. Im Juli 2009 wurde in Minnesota von einem USSchwurgericht das Urteil gegen Jammie Thomas-Rasset bestätigt, worin sie wegen des Anbietens von 24 Musikstücken im Kazaa-Netz zu einer Zahlung von 1,9 Mio. US$ verurteilt wurde. Frankreich versucht sich mit den HADOPIGesetz mit der lückenlosen Überwachung der Internetaktivitäten durch die Provider nebst Sperrung des Zugangs bei Urheberrechtsdelikten, im übrigen Europa wird weiterhin der Rechtsweg von Seiten der Rechteinhaber beschritten. Was aber ist die Konsequenz dieser Strategie, bei der die mediale Praxis von schätzungsweise 44%11 der Bevölkerung kriminalisiert wird? Erklärtes Ziel ist es, durch Abschreckung die Menschen an die Regale der Medienkaufhäuser zurück zu treiben. Tatsächlicher Effekt ist aber der Aufbau von privaten Netzen, sogenannten Darknets, die einer Beobachtung von außen nicht mehr zugänglich sind.12 Die offline-Variante sind die bereits erwähnten Harddrive-Parties, bei der im Freundeskreis ganze Fesplattensammlungen gespiegelt werden. Das Zurückdrängen der Nutzer vom Internet ins Turnschuhnetz (Sneakernet) wird die Entropie der Mediensammlungen weiter vergrößern. Dieses halbanaloge Datennetz, bei dem die Datenträger von einem Ort zum anderen getragen werden, wird im Allgemeinen unterschätzt. Es hat eine hohe Latenz aber weit größere Datenübertragungsrate als jeder ADSL-Zugang mit seinen maximal 10-20 MBit/s. Die derzeit gängigen USB 2.0-Schnittstellen der transportierten Festplatten kommen auf maximale 480 Mbit/s, also gut die 24-fache Menge. Eine Stunde Harddisk-Sharing entspricht damit einem bis zwei Tagen Filesharing. Und im Gegensatz zu öffentlichen elektronischen Netzen kann das Turnschuhnetz juristisch nicht geschlossen werden. Die bisherige Argumentation bezieht sich nicht auf Immaterialgüter im Allgemeinen. Die der kulturhistorisch gewachsenen Vorstellung eines Eigentumsanspruchs auf geistige Werke entgegenstehende Praxis der vergütungsfreien Vervielfältigung kann wirkungsvoll eingeschränkt werden, sobald die Kopien oder auf ihnen basierenden Güter zum Verkauf angeboten werden. Patent-, Ge11 12
Vgl. Huygen et al (2009), S. 67. Vgl. Biddle et al. (2002).
Zur Ökonomie digitaler Medien
517
schmacks-, Gebrauchsmuster- und Markenrecht kontrollieren die widerrechtliche Materialisierung und die Monetarisierung geistiger Werke, weil Atome an Orte gebunden sind und hinter Bankkonten ladungsfähige Anschriften stehen. Das internationale Problem der sog. Produktpiraterie basiert vor allem auf dem Umstand, dass einige Länder die Durchsetzung internationaler Verträge nicht ausreichend kontrollieren. Möglich ist die Kontrolle, solange die Kopierer ihre Waren auf einem Markt anbieten und für die Bezahlung identifizierbar sind. Der auf persönliche Bereicherung zielende Handel mit materialisiertem fremdem geistigem Eigentum unterliegt den Regeln einer materiellen Ökonomie. Die Ökonomie digitaler Medien funktioniert anders, spätestens sobald mit der fehlenden Knappheit auch das Gewinninteresse schwindet. Das gesamte Immaterialgüterrecht basiert derzeit noch auf der Gleichsetzung geistiger und materieller Güter und auf der Annahme, dass jede unautorisierte Kopie mit einem Aufwand verbunden ist, der zwangsläufig einen Ausgleich sucht und sich daher als Profitstreben äußert, das individualisierbar und damit kontrollierbar ist. Der blinde Fleck dieser Annahme ist die Weitergabe von Informationen ohne Eigeninteresse, das erlahmt, wenn die Kopie keine nennenswerten Kosten verursacht und keine knappen Güter verbraucht. Die Ökonomie des Digitalen ist keine Tauschökonomie, weil Tauschen bedeutet, etwas zu geben, um etwas anderes zu bekommen, sei es eine Ware oder eine Dienstleistung. Der Begriff des Tauschens ist tief verwurzelt in der materiellen Praxis des do ut des, des Gebens um gegeben zu bekommen. Trotz des irreführenden Namens ist File- oder Harddisk-Sharing kein Tausch in diesem Sinn, sondern eine Wissenspraxis, bei der eine oder beide Seiten Informationen weggeben und gleichzeitig behalten, woraus nicht nur mehr Bits in die Welt kommen, sondern Emergenzen möglich sind, wie sie für Bildungsbewegungen üblich sind. Das Verteilen von Daten kann zu einer Steigerung von Wissen führen. Der gegenwärtige Fokus auf die unstrittigen finanziellen Interessen der Unterhaltungsindustrie, die unter dieser Form der Informationsweitergabe deutlich und lautstark leidet, verschleiert den Blick auf die historischen Möglichkeiten, die darin bestehen, das kulturelle Kapital einer Gesellschaft jedem Interessenten frei zugänglich zu machen.13 Kulturelle Produktionen haben immer schon aus dem Fundus des Vergangenen geschöpft. Der auf Bernhard von Chartres zurückgehende Satz, dass Zwerge weiter sehen können als Riesen, wenn sie nur auf ihren Schultern sitzen, bedeutet auch, dass das Neue eine minimale Variation, Kompilation und Anreicherung des Alten ist. Und vielleicht bedeutet es, dass auch die Riesen bei näherer Betrachtung nur übereinander stehende Zwerge sind. Rechtlich sieht es inzwischen allerdings anders aus, oder, wie Lawrence Lessig es 13
Vgl. Lessig (2004).
518
Jochen Koubek
pointiert formuliert hat: „No one can do to the Disney Corporation what Walt Disney did to the Brothers Grimm“14. Die Ökonomie des Digitalen bedeutet eine radikale Abkehr von der klassischen Ökonomie des Materiellen, weil dem Güterstrom kein Geldstrom mehr entgegen fließt. Nicht der Tauschwert auf reellen oder virtuellen Märkten steht im Mittelpunkt, sondern die Frage des Zugangs und des Haushaltens. Oikos und nomos, dies muss sich nicht auf die Frage beschränken, wie die notorisch knappen Atome zu verteilen sind, um den notorisch unbeschränkten menschlichen Bedarf zu decken. Vielmehr ist die Frage zu stellen, wie eine unbeschränkter Vorrat an Bits zu organisieren ist, um dem Informationsbedarf des Augenblicks effizient zu begegnen. Welche Organisationsform ist dazu notwendig, von der Beschaffung über die Katalogisierung bis zur Distributionsinfrastruktur? Eine solche Ökonomie sucht ihre Hilfe weniger bei der Jurisprudenz, um die organisierten Lagerstätten zu verteidigen, sondern bei den Kulturwissenschaften, beim Bibliothekswesen oder bei der Informatik, wenn es um die Produktion, Verwaltung und Verteilung der Informationen geht. Freilich löst die digitale Ökonomie dabei die materielle Ökonomie nicht im Sinne eines revolutionären Umsturzes ab. Der Mensch hat zutiefst analoge Bedürfnisse, die nur mit materiellen Waren befriedigt werden können. Der Handel mit digitalen Gütern wird in seiner Bedeutung zunehmen, aber keineswegs zu einer kompletten Übernahme führen. Es geht nicht um entweder-oder, sondern um sowohl-als-auch.
5
Alternative Vergütungsformen
Mit digitalen Medien als Produkt ist langfristig kein Geld mehr zu machen. Das bestehende und mit allen Mitteln verteidigte Vergütungssystem beruht im Grunde nur noch auf Spendenbasis.15 Man kann für digitale Medien bezahlen, muss es aber nicht und angesichts des Qualitätsvergleichs der gekauften und der kopierten Produkte ist vielen Rezipienten auch nicht einsichtig, wieso sie es tun sollten. Ein Bit kostet nicht mehr als sein Speicherort, unabhängig vom codierten Inhalt der Bitstring, dessen Teil es ist. Das heißt aber nicht, dass mit digitalen Medien generell kein Geld mehr zu verdienen ist. Natürlich steht den Urhebern, den Künstlern und Autoren eine Vergütung für ihre Leistung zu. Lediglich der Charakter von Informationen und Medien als Wirtschaftsgut steht in Frage, wenn zu seiner Abrechung essentiell Knappheit und Exkludierbarkeit notwendig ist. Digitale Medien sind beides 14 15
Lessig (2002). Vgl. Rapp (2008).
Zur Ökonomie digitaler Medien
519
nicht. Was man nicht verknappen und nicht schützen kann, muss man als Allgemeingut frei geben und pauschal vergüten. Es ist Aufgabe des Staates, die Allgemeingüter zu verwalten und die auf sie erhobenen Abgaben gerecht zu verteilen. Eine Pauschalvergütung erscheint unter diesem Licht als einzige Alternative zum absterbenden Pay-per-file-Modell. Die rechtlich wirksamen technischen Maßnahmen scheitern daran, dass sie technisch nicht wirksam sind, um die Vervielfältigungshandlungen zu beschränken. Die juristische Verfolgung urheberrechtswidriger Handlungen in öffentlichen Netzen führt zu einer Verdrängung dieser Handlungen in private Netze, ganz davon abgesehen, dass damit ein halbe Generation von Internetnutzern kriminalisiert wird. Bliebe als letzter Hoffnungsträger der Erfolg des Marketings, wonach das Kopieren von geistigem Eigentum als Diebstahl moralisch tabuisiert wird. Der Erfolg dieser Kampagnen (z.B. „Raubkopierer sind Verbrecher“, „Kopien brauchen Originale“) ist bislang allerdings kaum messbar und inhaltlich mehr als zweifelhaft. Die Kulturflatrate ist eine Pauschalvergütung, die zusammen mit dem Internetzugang bezahlt wird und die über einen Schlüssel an die Autoren ausgeschüttet wird, deren Werke kopiert werden. Peer-to-Peer-Netze bilden dabei den idealen Beobachtungsmarkt, mit (nahezu) vollständigem Angebot und einer Nachfrage ohne monetäre Einschränkungen. Wie oft ein Werk hier verteilt wird, bildet die Grundlage für seinen wirtschaftlichen Wert. Derartige Pauschalvergütungen sind in der Geschichte des Urheberrechts kein Novum. Seit den 60er Jahren werden Leerkassetten, später auch Fotokopierer und CD-Rohlinge, seit 2008 zusätzlich Festplatten, USB-Sticks und Speicherkarten, mithin alle Leermedien und Vervielfältigungsgeräten mit Abgaben belegt, um Einkommensverluste durch Privatkopien auszugleichen. Eine P2PPauschale würde freilich eine neue Größenordnung darstellen, weil damit alle digitalen Medien aus dem Kreislauf der geschlossenen Ökonomie entfernt und in die offene Ökonomie des Digitalen überführt würden. Es würde aber bedeuten, dass Künstler für die P2P-kopierten Werke wieder einen monetären Ausgleich erhalten und nicht, wie bisher, leer ausgehen. Und das Argument, hier würden alle für den Medienkonsum einiger bezahlen, lässt sich mit Blick auf andere Gemeinschaftsabgaben historisch relativieren. Auch wer niemals bei Nacht auf die Straße geht, zahlt für ihre Beleuchtung, auch wer keine Kinder hat, zahlt für Schulen und auch Pazifisten zahlen für die Einsätze der Bundeswehr. Und über Warenpreise für Markenartikel bezahlen alle die Werbungen, mit denen private Radio- und Fernsehsender Musik- und Filmrechte erwerben, die lediglich von einigen rezipiert werden. Die vollständige, ubiquitäre und legale Verfügbarkeit digitaler Medien würde das Internet in eine große Mediathek verwandeln. Gegen einen monatlichen Beitrag wären jederzeit alle Werke zugänglich, sie müssten gar nicht mehr lokal
520
Jochen Koubek
kopiert, gesammelt, archiviert und vergessen werden. Je stärker sich mobile Medienplayer mit Netzzugang verbreiten, desto geringer würde die Notwendigkeit einer eigenen Mediensammlung.
6
Digitale Ökonomie als Forschungsparadigma
Die Diskussion um Für und Wider der Kulturflatrate kann und soll an dieser Stelle nicht detailliert werden, nicht zuletzt, weil sie nahezu durchgängig mit einer Mischung aus Konzepten der materiellen und der digitalen Ökonomie geführt wird.16 Mit dem Hereinbrechen des Digitalen besteht aber auch auf Seiten der Eigentumsfragen erheblicher Bedarf an konzeptioneller Orientierung und theoretischer Neuausrichtung. Eine Pauschalvergütung kann nicht bedeuten, eine für digitale Medien nicht durchsetzbare Vorstellung von Eigentum zu stabilisieren, sondern sie führt zu einer Umgestaltung des gesellschaftlichen und kulturellen Verständnisses von Wissensgütern, die bislang bestenfalls schemenhaft erkennbar ist. Genau hier ist eine offene Ökonomie des Digitalen gefragt, die den Umgang mit frei flottierenden digitalen Medien konzeptionell und theoretisch begleitet. Fragen, die sich in diesem Zusammenhang ergeben, sind beispielsweise:
Wie werden digitale Güter erzeugt? Welche Produktionsfaktoren sind hierfür erforderlich? Welche Veredelungsprozesse gibt es und wie müssen sie organisiert werden? Welche Distributionswege stehen zur Verfügung? Welche Vergütungsmodelle sind praktikabel und persönlichkeits- sowie vertragsrechtlich umsetzbar? Welche materiellen Güter können digitale Medien als Mehrwert flankieren? Mit welchen Marketingstrategien werden digitale Medien beworben, um aus der zur Verfügung stehenden Masse unterscheidbar zu werden? Welche Rolle spielen bisherige und zukünftige Akteure? Welche Verträge sind zwischen den Akteuren zu schließen?
Dies sind spannende Fragen, die seit einigen Jahren bereits vereinzelt diskutiert werden. Digitale Medien stellen die Ökonomie vor neue Herausforderungen. Wie kann eine Welt aussehen, in denen Daten, Informationen und Wissen nicht als Handelsware betrachtet werden, sondern als Allgemeingut, als gemeinsamer 16
Siehe z.B. Netzpolitik (2009).
Zur Ökonomie digitaler Medien
521
Reichtum, den es zu teilen und zu bereichern gilt? Aber, wie David Bollier es anmerkt: „So long as the market paradigm is the only framework for thinking about the future legal environment for information and creativity, such questions will not even be asked. Talking about the commons, however, helps us initiate a new kind of dialogue. It helps us see that the intellectual categories provided by copyright law and market economics are too narrow.”17.
Literatur Internetquellen sind unterstrichen markiert. Die URLs können über eine Suchmaschine leicht gefunden werden. Alle wurden im Februar 2010 mit Google überprüft. Biddle, Peter et al. (2002): The Darknet and the Future of Content Distribution, o.O. 2002. Bitkom (Hrsg.) (2008): Digitales Rechtemanagement. Kerntechnologie der digitalen Wirtschaft, Berlin 2008. Bollier, David (2004): Reclaiming the American Commons. Sirsi Super Conference, o.O. 18.04.2004. Carmody, Phil (2001): The world's first illegal prime number?, o.O. 2001. Huygen, Annelies et al. (2009): Economic and cultural effects of file sharing on music, film and games, o.O. 2009. Justus, Michael (2009): Fischer-Verlag rechnet nicht mit niedrigeren Preisen bei E-Books, o.O. 2009. Koubek, Jochen (2008): Digitale Medien, in: Transparenz durch Kontrolle – Kontrolle durch Transparenz, Berlin 2008. Lessig, Lawrence (2002): Free Culture. Lawrence Lessig Keynote from OSCON 2002, o.O. 2002. Lessig, Lawrence (2004): Free Culture: How Big Media Uses Technology and the Law to Lock Down Culture and Control Creativity, o.O. 2004. Lüdecke, Matthias (2008): Millionenspiel bei Bier und Wein, o.O. 2008. Milgram, Stanley (1967): The Small World Problem, in: Psychology Today (1967), S. 60–67. Negroponte, Nicholas (1996): Being Digital, New York 1996. Netzpolitik (Hrsg.) (2009): Diskussion zum Podcast 075: Die Kulturflatrate. Online (Juli 2009): http://netzpolitik.org/2009/netzpolitik-podcast-075-die-kulturflatrate/ . Rapp, Tobias (2008): Einfallslose Musikindustrie. in: taz 2008. Rifkin, Jeremy (2000): The Age of Access, New York 2000. Tanenbaum, Andrew (1996): Computer-Netzwerke, 2. Aufl., Heidelberg 1996. Touretzky, D. S. (2000): Gallery of CSS Descramblers, o.O. 2000.
17
Bollier (2004).
Informationstransparenz auf dem deutschen Elektrizitätshandelsmarkt – Eine Analyse des Erklärungsgehaltes ausgewählter schumpeterianischer Aussagen für empirisch beobachtbare Phänomene Christian W. Kunze
Der Fachbereich Wirtschaftswissenschaft der Bergischen Universität Wuppertal hat zum Wintersemester 2008/2009 seinen Namen um den Zusatz „Schumpeter School of Business and Economics“ erweitert. Der Prozess, der zu dieser Entscheidung führte, wurde durch den mit dieser Festschrift Geehrten konsequent unterstützt und voran getrieben. Dies nicht zuletzt deshalb, weil wesentliche Teile seines wissenschaftlichen Wirkens auf die Themen Innovation, unternehmerische Dynamik und deren Beeinflussung durch Internationalisierungsstrategien und informationstechnologische Weiterentwicklungen gerichtet waren und sind.1 Als Schüler des Geehrten ist es sehr positiv zu bewerten, dass die integrative Vermittlung von Betriebs- und Volkswirtschaftslehre mit Gründung der Schumpeter School of Business and Economics nun für alle Studierenden quasi institutionalisiert worden ist. Daneben regt die Erweiterung des Namens zur Auseinandersetzung mit der Frage an, ob ausgewählte Aspekte des Schumpeterschen Gedankenguts zur Analyse empirisch beobachtbarer Phänome der Entwicklung des europäischen Großhandelsmarktes für Elektrizität anwendbar erscheinen. Die Auswahl des genannten Branchensegmentes ist auf den beruflichen Schwerpunkt der Tätigkeiten des Autors zurückzuführen. 1
Vgl. Koubek (2009); Koubek/Trumann/Weinert (2007); Koubek/Kunze (2000); Koubek/Böckly (2000); Hödl/Koubek (2000); Koubek/Cleff/Pierotti/Schafmeister (1996); Koubek/Kunze (1994).
524 1
Christian W. Kunze Die Rolle der Information in der Schumpeterschen Schule
Grundsätzlich scheint es geboten, die zuvor aufgezeigte Fragestellung kritisch zu hinterfragen. Schließlich ist allgemein bekannt, dass sowohl im Aktien-, Devisen- oder Commodity-Handel die Zielsetzung darin besteht, überlegene Informationen zu erlangen, um auf deren Basis die Unternehmensrendite maximierende Handelsentscheidungen zu treffen. Dementsprechend erscheint eine gewisse „Findigkeit“ notwendig, um handelsrelevante Informationen zeitnäher als andere Marktteilnehmer zu entdecken bzw. aus der Analyse und Interpretation verschiedener Daten zu generieren. Setzt sich Schumpeter mit der zuvor skizzierten Thematik überhaupt auseinander? Grundsätzlich wäre dies zu erwarten. Schließlich kritisiert Schumpeter am neo-klassischen Modell insbesondere die Annahme des perfekten Wettbewerbs als nicht realitätskonform, da hierbei Aspekte wie unvollständige Information, dynamische Anpassungsprozesse sowie Entscheidungen unter Unsicherheit ausgeblendet werden. Die Marktteilnehmer entscheiden sich mechanistisch gemäß gleichgewichtiger Preis-Mengen-Kombinationen. Damit bleibt kein Raum für innovative Aktivitäten oder Entrepreneurship, weil die Marktteilnehmer lediglich mechanistisch gemäß der gleichgewichtigen Kombination aus Preis und Menge entscheiden und kreativer Spielraum per Definition ausgeschlossen wird. Und gerade an diesem Punkt setzt bekanntermaßen Schumpeter mit seinem Bild des dynamischen Unternehmers an, der in einem kreativen Prozess Innovationen kreiert, vorhandene Marktstrukturen zerstört, den Markt in ein Ungleichgewicht versetzt und dieses gewinnbringend für sich nutzt. Bereits durch die von Schumpeter getroffene Annahme, dass der einfache Landmann sein Vieh genauso clever verkaufe wie ein Börsenhändler seine Finanzprodukte,2 wird trotz der Einschränkung dieser Aussage auf Situationen, in denen ein entsprechendes Verhalten über Generationen hinweg durch Landwirte erlernt werden konnte, eine wenig tiefgehende Auseinandersetzung mit dem Problem der Informationsbeschaffung und –analyse offensichtlich. Anders als bei Autoren wie bspw. Kirzner3 steht bei Schumpeter nicht das Lernen und die Findigkeit im Vordergrund, sondern die Rolle des Innovators, der nicht nach dem Aufdecken ungenutzter Gelegenheiten im Sinne von Informationsvorsprüngen trachtet, sondern vielmehr gänzlich Neues von für bestehende Marktstrukturen zerstörerischer Wirkung generiert. Es ist demnach festzustellen, dass Schumpeter nicht näher auf die Möglichkeit der Preisarbitrage eingeht, während dies bspw. bei Kirzner einen zentralen Aspekt der Unternehmerrolle repräsentiert. Auch die Fähigkeit zum Entdecken 2 3
Vgl. Schumpeter (1959), S. 80. Kirzner (1979).
Informationstransparenz auf dem deutschen Elektrizitätshandelsmarkt
525
kleinerer, bislang unausgenutzter Chancen oder Möglichkeiten gewinnt bei Kirzner Bedeutung, bleibt bei Schumpeter jedoch ausgeblendet.4 Vor diesem Hintergrund ist zu konstatieren, dass auf einer operativen Ebene Prozesse erklärt werden müssen, die zu neuen Marktstrukturen führen können, die von Schumpeter aus seiner abstrakten, in weiten Teilen nationalökonomisch orientierten Perspektive nicht thematisiert worden sind. Einen für dieses Vorhaben nach Meinung des Autors sinnvollen Ansatz bietet die Forschungslinie der Information Economics.
2
Information Economics
Um das Jahr 1970 entstand zunächst in den Vereinigten Staaten von Amerika eine Forschungsrichtung, die fortan unter dem Oberbegriff „Information Economics“ zusammengefasst wurde. Die zu untersuchende Kernfragestellung besteht darin, zu analysieren, auf welche Art und Weise Märkte und Institutionen Informationen verarbeiten und weitergeben. Hintergrund dieser Analyse ist die Vermutung, dass viele Marktprobleme und Marktstrukturen auf hohe Informationskosten zurückzuführen sind.5 Hierdurch wird eben genau der Informationsverarbeitungs- und -transferprozess thematisiert, der von Schumpeter ausgeblendet wird. Vor dem Hintergrund der vorangegangenen Annahme sollte nach perfekter Information6 gestrebt werden, durch die vermeintlich eine zentrale unterstützende Wirkung für die Herstellung von Effizienz, Vollbeschäftigung und identischen Marktpreisen herbeigeführt werden könne. Während der vorgenannte Vollbeschäftigungsaspekt für die folgenden Betrachtungen von untergeordneter Bedeutung ist, erscheint es relevant, auf die informationsbezogenen Aspekte von Effizienz und einheitlichen Preisen einzugehen. Der Effizienzgedanke geht bereits auf Adam Smith zurück, der das bekannte Bild einer „unsichtbaren Hand“ entwickelt hat, die dadurch entsteht, dass Unternehmen ihre eigenen Interessen verfolgen und die in ihren Effekten für einen Staat wohlfahrtsstiftend ist. Demnach wird durch Wettbewerb auf Märkten grundsätzlich eine effiziente Ressourcenallokation hervorgerufen. In den 1980er Jahren konnte zusätzlich ökonomisch belegt werden, dass dies lediglich unter der Voraussetzung vollkommener Information gilt und in Situationen unvollkomme4 5 6
Vgl. Kirzner (1979), S. 3 ff. Vgl. Stiglitz (2008). Unter dem Zustand „perfekter Information“ wird hier verstanden, dass alle Sachverhalte, die Einfluss auf Kauf- bzw. Verkaufsentscheidungen nehmen können, bekannt und verstanden sind.
526
Christian W. Kunze
ner Information staatliche Eingriffe in Märkte hingegen durchaus wohlfahrtserhöhend wirken können.7 Und auch eine weitere zentrale Annahme der ökonomischen Theorie ist eng mit der Prämisse vollkommener Information verbunden. Nach Jevons Gesetz von der Unterschiedslosigkeit der Preise kann für ein Gut nur dann ein einheitlicher Preis gelten, wenn räumliche, zeitliche, sachliche und persönliche Differenzierungen entfallen sowie vollkommene Information herrscht.8 Das Zustandekommen dieses einheitlichen Preises wird damit begründet, dass in einem vollkommenen Markt Preisdifferenzen rasch als ArbitrageMöglichkeiten erkannt und von Marktteilnehmern ausgenutzt werden. Auch hier gilt jedoch: „The standard theorems that underlie the presumption that markets are efficient are no longer valid once we take into account the fact that information is costly and imperfect.”9. Somit verweisen bereits zentrale ökonomische Theorien auf die hohe Relevanz, die (frei) verfügbarer Information für die Entwicklung von Märkten beizumessen ist. Diese Auffassung wird von Schumpeter nicht gänzlich geteilt. Er ist der Auffassung gewesen, dass beispielsweise ein „intelligentes Monopol“ – so wie dasjenige des amerikanischen Fernmeldeunternehmen Bell Telephone System – sehr vieles für sich habe. Es könne es sich leisten, langfristig zu denken, und brauche sich nicht aufgrund jeweils kurzfristig gegebener Rentabilität von Transaktion zu Transaktion zwingen zu lassen.10 Können unter Nutzung des Schumpeterschen Gedankenguts dennoch empirisch beobachtbare Aspekte der mit der Marktliberalisierung einhergehenden „informationellen Liberalisierung“ des deutschen Großhandelsmarktes für Elektrizität erklärt werden? Im Rahmen der Auseinandersetzung mit dieser Fragestellung wird der ökonomischen Annahme gefolgt, dass im Rahmen der Marktentwicklung ein Lebenszyklus nachvollziehbar ist, der im Folgenden zwecks Strukturierung der Ausführungen zugrunde gelegt wird.11
3
Marktentwicklungsphasen
3.1 Die Experimentierphase Mit Beginn der Liberalisierung des deutschen Elektrizitätsmarktes wurde, unter Verwendung der Schumpeterschen Terminologie, der Zustand einer „stationären 7 8 9 10 11
Vgl. Stiglitz (2008). Vgl. Jevons (1871). Stiglitz (2008). Vgl. Drucker (2007), S. 1. Vgl. Heuß (1965) sowie Erlei (1998).
Informationstransparenz auf dem deutschen Elektrizitätshandelsmarkt
527
Wirtschaft“ aufgegeben, in der die Anreize für unternehmerisches Handeln reduziert sind. Das Wirtschaftsleben, welches nach Aussage von Schumpeter unter dem Gesichtspunkt eines “Kreislaufs” zu betrachten ist, der in jahraus jahrein wesentlich gleichen Bahnen verläuft – vergleichbar dem Blutkreislauf des tierischen Organismus – hat plötzlich seine Bahn verändert.12 Die sich daran anschließende Frage lautet: Welche wirtschaftlichen Erscheinungen lösen diese Veränderungen aus?13 Die dafür ursächlichen Veränderungen nennt Schumpeter „Durchsetzung neuer Kombinationen” und seine Aufzählung der diesbezüglichen Arten neuer Kombinationen beinhaltet unter anderem auch den für die Veränderung der europäischen Elektrizitätswirtschaft zentralen Aspekt: „Durchführen einer Neuorganisation, wie Schaffung einer Monopolstellung (z.B. durch Vertrustung) oder Durchbrechen eines Monopols.”14 So ist also eine auch Schumpeter bereits bekannte „Neuorganisation“ dafür verantwortlich, dass sich im Rahmen einer Experimentierphase der bisher im deutschen Markt unbekannte Prozess „Energiehandel“ entwickelt. Damit geht einher, dass Handelsprodukte definiert werden, denen das Potential zum Erzielen einer hohen Handelsliquidität zugeschrieben wird. In dieser Marktphase herrscht üblicherweise ein hoher Grad an Informationsasymmetrie und auf Basis überlegener Marktinformation ist es einfacher als in späteren Marktphasen möglich, Arbitrage-Gewinne zu realisieren. Und wie von Schumpeter beschrieben, sind es einige Unternehmer, die eine aktivere Rolle als andere am Wirtschaftsprozess Beteiligte spielen, wenn es darum geht, die „Durchsetzung neuer Kombinationen“ voranzutreiben.15 Dies bedeutete im Rahmen der Liberalisierung des deutschen und europäischen Elektrizitätshandelsmarktes, dass die aktiven Unternehmen Competitive Intelligence Einheiten aufbauten, um von den neuen marktlichen Realitäten zu profitieren.16 So wütete im Jahr 1999 der Weihnachtssturm „Lothar“ vor allem in Frankreich und in Süddeutschland und mit ein wenig Ausdauer und Fingerspitzengefühl war es bereits zu diesem Zeitpunkt möglich, via Mobiltelefon Projektingenieure und Leitungsbauer telefonisch zu kontaktieren, die dazu in der Lage waren, ein genaues Schadensbild zu liefern und zu kommunizieren, welche atomaren Kraftwerke in Frankreich für welche Zeitdauer nicht in das Hochspannungsnetz Elektrizität werden einspeisen können. Auf Basis dieser Informationen wurden umge12 13 14 15 16
Vgl. Schumpeter (1931), S. 93. Vgl. Schumpeter (1931), S. 94. Schumpeter (1931), S. 101. Vgl. Schumpeter (1931), S. 111. Competitive Intelligence beschreibt einen amerikanischen Ansatz der Wettbewerbsanalyse, der mittels des Einsatzes umfassender und kreativer Informationsrecherchetechniken aus Rohdaten entscheidungsrelevante Informationsgrundlagen generiert; vgl. Kunze (2000).
528
Christian W. Kunze
hend „Long-Positionen“ gebildet und einen Tag später erklomm der damals populäre CEPI („Central European Power Index“) ungeahnte Höhen, da die bedrohliche Versorgungslage massive Zukäufe auf dem deutschen Großhandelsmarkt für Elektrizität aus Frankreich auslöste. Dieser Zustand hielt mehrere Tage an und damit rechtfertigte sich die Beschäftigung einer wettbewerbsanalytischen Gruppe von Mitarbeitern, die für das Erlangen exakt dieser Handelsvorteile generierenden Informationen beschäftigt wurde. Auch die Revisionszeiträume von Kraftwerken waren ein gut gehütetes Geheimnis der marktbeherrschenden Verbundunternehmen. Groß war die Angst, durch die Publikation der Revisionstermine, vor allem von Kernkraftwerken, den Mitbewerbern Indikatoren für tendenziell höhere Preise auf dem Großhandelsmarkt für Elektrizität, die durch die temporäre Nicht-Verfügbarkeit günstiger Erzeugungsquellen ausgelöst werden, zu liefern. Dabei war das In-ErfahrungBringen der entsprechenden Revisionszeiträume durch Mitbewerber kein „Hexenwerk“: schnell sprachen sich in Branchenkreisen die beim Revisionspersonal beliebten Pensionen und Hotels in Kraftwerksnähe herum und durch dortige Anrufe und das Abfragen der Reservierungslage bzw. der reservierenden, revisionsspezifischen Unternehmen war es relativ einfach möglich, sich ein Bild des energiewirtschaftlichen Revisionskalenders zu verschaffen.
3.2 Expansionsphase Mitte des Jahres 2000 setzte eine Expansionsphase ein, während derer vor allem Energiehandelsunternehmen nordamerikanischen Ursprungs in London europäische Handelsniederlassungen eröffneten, um ihr in Nordamerika erworbenes Handelswissen gewinnbringend in Europa zu verwerten. Auch in diesem Kontext wird die Zeitlosigkeit der Schumpeterschen Theorie sehr anschaulich. Banken müssen üblicherweise für derartige Expansionen Kapital zur Verfügung stellen, damit sich Investitionsmöglichkeiten durch eine Veränderung des Ressourceneinsatzes realisieren lassen. Durch die erwarteten Innovationsgewinne soll es dann möglich werden, die notwendigen Zinszahlungen zu leisten.17 Genau dies gelang entsprechend empirisch nachvollziehbarer Beobachtungen jedoch lediglich für eine kurze Zeitspanne, da mit der Einstellung der Elektrizitätslieferungen durch den in eine finanzielle Schieflage geratenen Handelsgiganten Enron im November 2001 der europäische Großhandelsmarkt für Elektrizität einen deutlichen Liquiditätsrückgang erlebte.18 Dieser wurde durch den bis November 2002 zu verzeichnenden Rückzug der Handels17 18
Vgl. Schumpeter (1931), S. 138. Vgl. Booz-Allen-Hamilton (2003), Folie 5.
Informationstransparenz auf dem deutschen Elektrizitätshandelsmarkt
529
unternehmen Aquila, Williams, AEP, Dynegy, TXU sowie El Paso Electric noch verschärft.19 Trotz der individuellen Probleme, die durch die Insolvenzen hervorgerufen wurden, handelt es sich aus abstrakter Perspektive auch in diesem Kontext um nichts anderes als eine andere Facette des von Schumpeter beschriebenen Prozesses der schöpferischen Zerstörung, der unaufhörlich die alte Struktur zerstört und unaufhörlich eine neue schafft. Es ist das für den Kapitalismus wesentliche Faktum. Darin besteht der Kapitalismus und darin muss auch jedes kapitalistische Gebilde leben.20 Dennoch bauten während des genannten Zeitraums viele in Europa aktive Energieversorger ihre wettbewerbsanalytischen Einheiten für den Handelsbereich gezielt aus, um das Portfolio handelsrelevanter Informationen zu erweitern und dadurch treffsicherere Preisprognosen zu entwickeln. Ein schwieriges Unterfangen, denn – um erneut mit Schumpeter zu sprechen – „ … es fehlen dem Wirtschaftssubjekt außerhalb der gewohnten Bahnen die ihm innerhalb derselben meistens sehr genau bekannten Daten für seine Entschlüsse und Regeln für sein Handeln“21. Dementsprechend entsteht ein zunehmender Druck auf die Verbundunternehmen zur Schaffung von Markttransparenz. Lange Zeit wurden diese Forderungen ignoriert, was nach Schumpeter keineswegs überraschend ist. Vielmehr zeigt sich „ … in dem Gegendruck, mit dem die soziale Umwelt jedem begegnet, der überhaupt oder speziell wirtschaftlich etwas Neues tun will“22 ein zu erwartendes Verhaltensmuster. Und letztlich zeigte der öffentliche Druck dann auch Wirkung: in einem nach damaliger Meinung von Marktkommentatoren das „Ende der Informationsasymmetrie“ einleitenden Schritt wurde „in Deutschland eine neue Zeitrechnung begonnen“23, da die Verbundnetzbetreiber zum 1. Januar 2003 damit begannen, ihre vertikale Netzlast im Rahmen eines freiwilligen Beitrages zur Markttransparenz täglich zu veröffentlichen.24 Dennoch konstatiert die Bundesanstalt für Finanzdienstleistungsaufsicht, dass ihrer Meinung nach durchaus Insider-Handel auf dem Elektrizitätsmarkt aufgrund ungleich verteilter Informationen vorliegen könne: „InsiderInformation im Handel von Derivaten auf elektrische Energie könnten bspw. das Wissen über Kraftwerksausfälle, die Wartung und Revision von Kraftwerken 19 20 21 22 23 24
Vgl. Booz-Allen-Hamilton (2003), Folie 5. Vgl. Schumpeter (1931), S. 137 f. Schumpeter (1931), S. 124. Schumpeter (1931), S. 125 f. Federico (2003), S. 14. Die vertikale Netzlast ist definiert als die Summe aller Einspeisungen und Abgaben des Übertragungsnetzes über direkt angeschlossene Transformatoren und Leitungen an angeschlossene Verteilungsnetze oder Endverbraucher.
530
Christian W. Kunze
sowie Informationen über die verfügbaren Übertragungskapazitäten sein.“25 Unter Rückgriff auf die einleitenden, wohlfahrtsökonomischen Aussagen ist für das Jahr 2004 damit zu konstatieren, dass der begründete Verdacht besteht, dass dadurch ein gesamtgesellschaftlicher Wohlfahrtsverlust eingetreten ist, dass ein im Verhältnis zu vollständig ausgeprägten Wettbewerbsbedingungen überhöhter Preis zustande gekommen ist. Daneben ist davon auszugehen, dass hohe Informationskosten die Ausbildung eines effizienten Marktes verhindern.
3.3 Ausreifungsphase Für den Zeitraum ab dem Jahr 2005 kann von einer Reifephase gesprochen werden, die auf marktlicher Ebene vor allem dadurch gekennzeichnet ist, dass der deutsche Forward-Markt eine hohe Liquidität erreicht hat und nun zunehmend auch institutionelle Investoren Positionen im deutschen Elektrizitätsmarkt aufbauen. Auch dies ein aus der Perspektive des Schumpeterschen Gedankenguts einfach zu erklärender Prozess. Es sind weiterhin dynamische Unternehmer zu beobachten, die ihren Unternehmergewinn steigern, der „an der Neuschaffung, an der Realisation der Entwicklungswerte, des Wertsystems der Zukunft [haftet; CK]. Er ist zugleich Kind und Opfer der Entwicklung. Ohne Entwicklung kein Unternehmergewinn, ohne Unternehmergewinn keine Entwicklung .26 Banken werden zunehmend zum Treiber der Marktentwicklung, bringen Dynamik in die Energiewirtschaft, entwerfen neue und vermeintlich besser an die Marktgegebenheiten angepasste Produkte. Und die zu Beginn der Marktliberalisierung entwicklungsforcierenden Unternehmen werden nun teilweise zu den von Schumpeter beschriebenen „statischen Unternehmern.“ Diese ahmen zwar „lediglich“ nach, machen dadurch aber wiederum die „neuen Kombinationen“ des dynamischen Unternehmers zum Standard und nivellieren so dessen vorübergehendes Quasi-Monopol. Und gleichzeitig wird im Rahmen eines Wissenstransfers aus der Bankenindustrie in die Energiewirtschaft wiederum ein Ansatz zum Durchbrechen bestehender Muster geschaffen. Plötzlich sind es die Energieversorger, die ihrerseits wiederum innovative Produkte anbieten. Hierzu zählen bspw. die sog. Virtual Power Plant Auktionen der Unternehmen RWE und E.On, bei denen Erzeugungskapazität auf Basis eines „virtuellen Kraftwerkes“ an Industrieunternehmen, regionale Energieversorger, Stadtwerke und Händler vergeben wurde. Gleichsam sind in dieser Marktphase branchenübergreifend sog. „Anbieter Shake-Out Phänomene“ zu beobachten: Unternehmen ohne solide 25 26
Bundesanstalt für Finanzdienstleistungsaufsicht (2005). Schumpeter (1931), S. 235 f.
Informationstransparenz auf dem deutschen Elektrizitätshandelsmarkt
531
finanzielle Strukturen scheitern im Fall von Erschütterungen der Finanzmärkte. Eine, wie bereits zuvor beschrieben, auch aus Schumpeter’scher Perspektive durchaus übliche Entwicklung. Aus informationeller Perspektive haben nun auch EU-weit geltende und vielfach auch umgesetzte Rechtsnormen für Übertragungsnetzbetreiber zur Publikation diverser Netzkennzahlen, für das Management und die Vergabe verfügbarer Übertragungsnetzkapazitäten auf Verbindungsleitungen zwischen nationalen Netzen relevante Daten (2006/770/EG), Prognosedaten über die dem Markt zur Verfügung stehende Übertragungskapazität sowie Angaben zu aggregierten kommerziellen und physischen Lastflüssen geführt. Daneben hat sich der zuvor beschriebene öffentliche Druck hinsichtlich der Weitergabe von Erzeugungsdaten weiter verstärkt und so veröffentlichen die größten deutschen Energieerzeugungsunternehmen über die Internet-Plattform der European Energy Exchange (EEX) auf freiwilliger Basis seit April 2006 aggregierte Angaben zur Erzeugung und zur erwarteten Verfügbarkeit ihrer Kraftwerke.27 Durch das koordinierte Vorgehen der deutschen Verbundunternehmen sahen sich die wichtigsten Erzeuger Belgiens, der Niederlande und Frankreichs zum Handeln aufgefordert und lancierten ihrerseits die nach Erzeugungsart gegliederte Publikation von Kraftwerksdaten.28
3.4 Stagnations- und Rückbildungsphase Derzeit sind die Folgen der Finanzkrise noch nicht absehbar – und dementsprechend wird sich voraussichtlich im kommenden Jahr erweisen, ob die für das ja 2009 erstmals seit dem Enron Zusammenbruch zu erwartenden Rückgänge des Großhandelsvolumens für Elektrizität lediglich temporär zu verzeichnen sind oder einen langfristigen Trend einleiten.29 Dementsprechend ist zum derzeitigen Zeitpunkt unklar, ob von einer Fortsetzung der Ausreifungsphase oder von einer Stagnations- bzw. Rückbildungsphase des europäischen Großhandelsmarktes für Elektrizität ausgegangen werden muss. Hinsichtlich der Informationstransparenz ist positiv zu würdigen, dass sich das Bundesministerium für Wirtschaft seit Januar 2008 einer weiteren Erhöhung der Markttransparenz auf dem deutschen Elektrizitätsmarkt verschrieben hat. Unter Beteiligung zentraler Marktteilnehmer wurde an einem Veröffentlichungskatalog für Erzeugungs- und Verbrauchsdaten gearbeitet. Damit wurde angestrebt, eine gegenüber dem Status Quo weitreichendere Transparenz durch 27 28 29
Vgl. http://www.eex.de . Vgl. hierzu bspw. http://www.tennet.nl , http://www.elia.be , http://www.rte-france.com . Vgl. Paulsson (2009).
532
Christian W. Kunze einheitliche, zentrale Veröffentlichung der Kraftwerksdaten, Ausweitung der zu veröffentlichenden Daten, Ausweitung des Kreises der veröffentlichenden Unternehmen, Beschleunigte Veröffentlichung der Daten
zu erreichen.30 Positiv zu beurteilen ist die Tatsache, dass gemäß der neuen Informationsanforderungen am Vortag (D-1) bis 18.00 Uhr eine nach Regelzonen und Brennstoff aggregierte Erzeugungsprognose für den Folgetag (D+1) abgegeben werden muss. Hiermit wird ein neuer Transparenzstandard gesetzt, da derartige Daten selbst im sehr transparenten NordPool-Marktgebiet nicht veröffentlicht werden. Auch in Frankreich, dem zweiten hier für Vergleichszwecke herangezogenen Referenzmarkt, erfolgt die Publikation der entsprechenden Datensätze für die brennstoffaggregierte Erzeugung der nationalen Regelzone erst am Folgetag (D+1). Kritisch anzumerken ist jedoch, dass eine Veröffentlichung der Prognose um 18.00 Uhr für keinen im deutschen Spotmarkt-Handel involvierten Händler unmittelbar verwertbar erscheint, da die Gebotsabgabe für Day-Ahead Transaktionen sechs Stunden zuvor endet. Daneben wird eine deutliche „Ausblendung“ der bereits existierenden Markttransparenz dadurch deutlich, dass hinsichtlich der Veröffentlichung kraftwerksspezifischer Erzeugungsdaten keine Vorgaben entwickelt werden. So wird die diesbezüglich vorbildliche Transparenzinitiative der RWE Power AG, mittels derer die Stromeinspeisung der RWE Kraftwerke minutenaktuell im Internet publiziert wird, unverständlicherweise nicht zum Marktstandard erhoben. Und auch eine seit Jahren kontrovers geführte Diskussion über die Beseitigung potentieller Möglichkeiten eines „Insider Trading“ wird durch die Umsetzung des Maßnahmenkatalogs nicht beendet werden. Die Regelungen zur Publikation ungeplanter Kraftwerksausfälle sehen vor, dass diese spätestens zwei Stunden nach Ereigniseintritt gemeldet werden. Dies ist einerseits die doppelte Zeitdauer im Vergleich zu den heute bereits geltenden Regeln der NordPool und würde potentielle Möglichkeiten zum Aufbau von Long-Positionen bis zum Zeitpunkt der Information des Marktes bieten. Und auch unter Bezugnahme auf die kraftwerksbezogenen Meldepflichten ist kritisch zu hinterfragen, innerhalb welchen Zeitraums eine in der Zukunft zu erwartende Nicht-Verfügbarkeit dem Markt bekannt zu geben ist, um dem Postulat einer „unverzüglichen“ Meldung nachzukommen. Vor dem Hintergrund dieser „weichen“ Vorgaben stellt sich die Frage, warum ein den Meldepflichten an der NordPool adäquates System in der 30
Vgl. Bundesministerium für Wirtschaft und Technologie (2008).
Informationstransparenz auf dem deutschen Elektrizitätshandelsmarkt
533
deutschen Energiewirtschaft nicht konsensfähig erscheint. In Skandinavien besteht nicht nur die Pflicht, ungeplante Ausfälle und geplante Revisionen innerhalb von 60 Minuten zu melden.31 Vielmehr gilt hinsichtlich der vorgenannten Informationen: „It is not allowed to take such information into account until the information has been published.”32 Personen, die gegen diese Vorgabe verstoßen und bspw. in Kenntnis des Ausfalls eines Kernkraftwerks vor Veröffentlichung der entsprechenden Information Long-Positionen aufbauen, machen sich des strafbaren Insider-Trading schuldig. Diese Regelung sollte zum Zweck des Aufbaus von Marktvertrauen und fairer Wettbewerbsbedingungen zwingend europaweit implementiert werden.
4
Informationsüberfluss auf dem deutschen Großhandelsmarkt für Elektrizität?
Trotz der zuvor dargelegten Kritikpunkte begegnet man heutzutage einem gegenüber der Frühphase der Marktliberalisierung neuen Phänomen. Die beschriebenen gesetzlichen Veröffentlichungsvorschriften ebenso wie freiwillige Initiativen haben dazu geführt, dass der Status-Quo der Verfügbarkeit preisrelevanter Handelsdaten an ein bekanntes Zitat des Trendforschers Naisbitt erinnert: „Wir ertrinken in Daten, aber wir dürsten nach Informationen.“33 Alleine das in Deutschland verfügbare Informationsangebot hinsichtlich Netzkennzahlen, (Echtzeit-)Erzeugungsdaten, Revisionszeiträumen, klimatischen und hydrologischen Informationen ist vielfältig, unübersichtlich und liegt auf unterschiedlichsten Informationsträgern in unterschiedlichsten, teilweise wechselnden Formaten vor. In vielen Fällen ist daher nicht mehr die Frage „ob“, sondern die Frage „wo, in welchem Format und zu welchem Zeitpunkt aktualisiert“ eine handelsrelevante Information vorliegt zu beantworten. So geben bspw. die Netzgesellschaften der Verbundunternehmen ihre Netzkennzahlen in untereinander abweichenden Datenformaten und zu unterschiedlichen Zeitpunkten heraus. Dementsprechend ist es nicht überraschend, dass sich nun ein Markt für Content-Aggregatoren entwickelt, in dem sich bspw. die Gruppe Deutsche Börse mit ihrem Produkt „Energy Facts“ positionieren möchte, durch das handelsrelevante Fundamentaldaten aus verschiedensten Quellen heruntergeladen und den Nutzern in einem einheitlichen Format zur Verfügung gestellt werden.34 Dies könnte ein wichtiger Indikator dafür sein, dass der europäische Großhandelsmarkt für Elektrizität im 31 32 33 34
Vgl. NordPool (2008), S. 2. NordPool (2008), S. 3. Naisbitt (1982). Vgl. http://www.deutsche-boerse.com .
534
Christian W. Kunze
Anschluss an eine kurze Stagnationsphase wieder in ein Wachstum eintritt, das durch professionelle Player aus der Finanzwirtschaft gestützt werden wird, die ihre Handelsteilnahme auf Commodity-Märkten vom Vorliegen transparenter Marktdaten abhängig machen, die in unternehmensintern bereits existenten Systemen einfach weiterverarbeitet werden können.
5
Fazit
Die vorangegangenen Darstellungen haben verdeutlicht, dass seit der Marktliberalisierung vor 10 Jahren auf dem deutschen Großhandelsmarkt für Elektrizität teils durch staatliche Intervention, teils durch private Initiativen eine fortgeschrittene Informationstransparenz entstanden ist. Sicherlich nimmt Deutschland noch nicht die von Repräsentanten der Verbundunternehmen oftmals herausgestellte Vorreiterrolle in Europa ein.35 Die umgesetzten Transparenzinitiativen können jedoch in Kombination mit der Übernahme im Ausland üblicher Informationsveröffentlichungspflichten die Basis für einen EU-weit durchzusetzenden Standard bilden. Auf Basis der heutigen Informationstransparenz auf dem deutschen Elektrizitätsmarkt besteht die Voraussetzungen dafür, in die Wettbewerbsform eines „Competing on Cognition“ einzutreten. Es steht eine breite, teilweise widersprüchliche Informationsbasis für Handelsentscheidungen zur Verfügung und Händler sowie Analysten sind gefordert, diejenigen Daten und Informationen zu selektieren, durch deren sinnvolle Interpretation ein Handelsgewinn realisiert werden kann.36 Das den branchenführenden Unternehmen vielfach unterstellte Abschöpfen von Monopolgewinnen auf Basis überlegener Information wird zunehmend zu Gunsten der Herstellung wettbewerblicher Informationsstrukturen durchbrochen. Wie demonstriert werden konnte, sind viele operativ im europäischen Energiehandel beobachtbare Phänomene sehr einfach zu erklären und teilweise sogar zu prognostizieren, wenn sie vor dem Hintergrund der Schumpeterschen Kernaussagen diskutiert werden. Auch mehr als siebzig Jahre nach deren ErstVeröffentlichung haben die Aussagen Schumpeters wenig von ihrer Aktualität verloren. Ausgeblendet wurden von Schumpeter in seinen Schriften in wesentlichen Teilen die Fragen des Lernens und der Findigkeit des dynamischen Unternehmers beim Beschaffen und Ausnutzen bislang ungenutzter Gelegenheiten und Arbitrage-Möglichkeiten, die nicht zu umfassenden Innovationen führen. Der 35 36
Vgl. Terium (2008), S. 1. Vgl. Strohmeier (2007), S. 28.
Informationstransparenz auf dem deutschen Elektrizitätshandelsmarkt
535
Ansatz der Information Economics erscheint nach Meinung des Autors geeignet, um im Rahmen tiefergehender Arbeiten eine Integration der Schumpeterschen Erkenntnisse in ein das den betriebs- und volkswirtschaftlichen Erkenntnisstand reflektierendes Konzept zu ermöglichen. Vielleicht kann dieser Beitrag einen Auslöser dafür bieten, dass der genannten Fragestellung an der „Schumpeter School of Business and Economics“ vertiefend nachgegangen wird.
Literatur Booz-Allen-Hamilton (2003): Energiehandel im Umbruch, Präsentation der Umfrageergebnisse, München 18. Juli 2003. Bundesanstalt für Finanzdienstleistungsaufsicht (2005): Emittentenleitfaden der Bundesanstalt für Finanzdienstleistungsaufsicht, Stand 15. Juli 2005. Bundesministerium für Wirtschaft und Technologie (2008): Transparenzinitiative: Veröffentlichung von Kraftwerksdaten, Berlin 2008. Drucker, Peter (2007): „Propheten für unser Zeitalter: Schumpeter und Keynes?“, http://www.peterdrucker.at/de/texts/p_drucker_proph.pdf, Seite 1. Erlei, Mathias (1998): Institutionen, Märkte und Marktphasen, Tübingen 1998. Federico, Tobias (2003): Das Ende der Informationasymmetrie?, in: Marktplatz Energie, Ausgabe 1/2003, Seite 14. Heuß, Ernst (1965): Allgemeine Markttheorie, Zürich/Tübingen 1965. Hödl, E./Koubek, N. (2000): Strukturanalyse und Entwicklungspotentiale der Unternehmen für den Wirtschaftsstandort Remscheid, Wuppertal 2000. Jevons, William Stanley (1871): The Theory of Political Economy, London 1871. Kirzner, Israel (1979): Perception, Opportunity, and Profit, Chicago: University of Chicago Press 1979. Koubek, N. (2009): Offshoring strategies of multinational companies in different regions of Asia, in: Welfens, P. J. J./Ryan, C./Chirathivat, S./Knipping, F. (Hrsg.): The EU and ASEAN Facing Economic Globalization, Heidelberg/New York 2009, S. 205222. Koubek, N./Böckly, W./Gester, H. (Hrsg.) (2000): Wissensmanagement und personalwirtschaftliche Standardsoftware in internationalen Unternehmen, München 2000. Koubek, N./Cleff, T./Pierotti, C./Schafmeister, S. (1996): Unternehmensstrategien in der Triade, Baden-Baden 1996. Koubek, N./Kunze, C. (2000): Die globale Unternehmensstrategie der BASF und ihre Einflußfaktoren, Düsseldorf 2000. Koubek, N./Kunze, C. (1994): Langfristige Strategien der BASF im Rahmen der Veränderungen auf dem Weltchemiemarkt, Düsseldorf 1994. Koubek, N./Trumann, M./Weinert, S. (2007): Globale Vernetzung, Verlagerung von Unternehmensaktivitäten und positiv/neutrale Rechtfertigungswirkung im Inland, Wuppertal 2007. Kunze, Christian (2000): Competitive Intelligence – Ein ressourcenbasierender Ansatz strategischer Frühaufklärung, Aachen 2000.
536
Christian W. Kunze
Naisbitt, John (1982): Megatrends, New York 1982. NordPool (2008): Exchange Information No.46/2008: Market Conduct Rules revised with effect from 17 July 2008, Lysaker 03. Juli 2008. Paulsson, Lars (2009): German Power Market to Shrink; First Time Since Enron (Update 2), Bloomberg News 26.03.2009. Schumpeter, Joseph A. (1959): The Theory of Economic Development. Cambridge, MA 1959. Schumpeter, Joseph (1931): Theorie der wirtschaftlichen Entwicklung, München 1931. Stiglitz, Joseph E. (2008): Information, in: Library of Economics and Liberty, New York 2008. Strohmeier, Georg (2007): Ganzheitliches Risikomanagement in Industriebetrieben – Grundlagen, Gestaltungsmodell und praktische Anwendung, Berlin 2007. Terium, Peter (2008): EU-Standards nötig, in: Energie&Handel, Vierteljährliche Beilage zu Energie&Markt, Nr. 3, 26. September 2008, Seite 1.
Critical Incidents im internationalen Projektmanagement erfordern hybrid skills Harald Meier
1
Strategien im Internationalen Management
Seit den frühen 60er Jahren ist auch in Deutschland ein stetiger Anstieg von Auslandsinvestitionen und internationalen Unternehmensaktivitäten zu verzeichnen, ebenso wie deutsche Unternehmen im Ausland investieren und aktiv sind. Heute finden sich täglich Meldungen über internationale Unternehmenszusammenschlüsse sowohl von deutschen Firmen im Ausland – et vice versa. Und in Folge finden lokale oder globale Anpassungen wie z.B. Re-Organisationen statt, die Anpassung technischer Standards an Produkte und Produktion ebenso wie die Anpassung von Managementstandards wie z.B. internationale Rechnungslegung oder einheitliche Unternehmens-Software sowie ein einheitliches globales oder ein differenziertes lokales Marketing. Hierbei wird i.d.R. eine interkulturell besetzte Projektgruppe mit der Problembearbeitung eingesetzt. Unternehmen als auch Produkte sind ohne internationale Aktivitäten, Produktkomponenten oder Märkte kaum noch denkbar. Die großen Handelsunternehmen (wie z.B. Aldi oder Lidl) arbeiten inzwischen weltweit nur noch mit Zulieferern zusammen, die international liefern können. Gleiches gilt für die produzierenden Unternehmen, deren Produkte oft ganz oder deren Komponenten aus dem Ausland stammen. Viele Autos (z.B. von Volkswagen) bestehen schon heute zum größten Teil aus Komponenten ausländischer Zulieferer. Und betrachtet man die führenden deutschen DAX-Unternehmen, zeigt sich, dass diese überwiegend ihre Umsätze im Ausland machen und auch die Zahl der Mitarbeiter überwiegend im Ausland beschäftigt ist. So beträgt z.B. der Anteil der Auslandsmitarbeiter bei Fresenius Medical Care 93,5%, Adidas-Salomon 82%, Henkel 78,9%, Deutsche Post 66,1%, Linde 65%, Siemens 64,1% usw. (Stand
538
Harald Meier
01.01.2006).1 Ebenso meldet z.B. das Magazin Focus aktuell: „Jede zweite Aktie der deutschen Elite-Konzerne gehört inzwischen ausländischen Investoren (…)“2 und führt u.a. weiter aus, dass Dax-Konzerne wie Henkel mit 86%, Bayer 80,3%, Commerzbank zu 75% oder Siemens zu 58,5% im Besitz ausländischer Aktionäre sind (Stand 2008).3 Abbildung 1:
Die Welthandelsströme4
Der internationale Elektronikkonzern Phillips ist als einer der weltgrößten Elektronikkonzerne in über 60 Ländern vertreten. Typische internationale Projekte bei Philips sind z.B. in der Forschung und Entwicklung die Entwicklung von weltweit einsetzbaren Print-Systemen, in der Unternehmensorganisation die ReOrganisation Vertrieb Europa durch neue EU-Länder, Serviceprojekte wie die Entwicklung kulturübergreifender Marken- und Marktauftritte, oder im Bereich Qualitätssicherung die Reduzierung der Ausfallrate von Workstation, wo in einem Projekt Mitarbeiter aus acht Ländern zusammen arbeiten.
1 2 3 4
Handelsblatt v. 17.11.2007, entn. Meier (2009), S. 19. Focus 08/2009, S. 106. Vgl. Focus 08/2009, S. 106. Quelle: LeMonde Diplomatique (2006), Seite 91.
Internationales Projektmanagement Abbildung 2:
539
Produktionsstandorte von Phillips N.V. weltweit5
Internationale Strategiekonzepte Im Vergleich zum Management im Heimatland mit einem bekannten gesellschaftspolitischen und ökonomischen Umfeld finden internationale Managemententscheidungen in einem hochkomplexeren und relativ unbekannten und unsicheren gesellschaftlichen und ökonomischen Umfeld statt, teilweise bei multinationalen Projekten mit oft gegensätzlichen Entwicklungen in und zwischen den verschiedenen Ländern und Kulturen. So sind in einem internationalen europäischen Projekt die Arbeitsstile zwischen Franzosen und Niederländern
5
Entn. Blom/Meier (2004), S. 7, in Anlehnung an Daft (2006), S. 252.
540
Harald Meier
durch ihren kulturellen Hintergrund grundverschieden und selbst in Belgien zeigt sich innerhalb eines Landes dieser Unterschied. Typische klassische Ansätze der Internationalen Strategie eines Unternehmens werden heute z.B. immer noch nach Perlmutter unterschieden:6
Die ethnozentrisch orientierte Strategie (home country orientation) versucht, die traditionelle, im Stammland des Unternehmens erfolgreiche Unternehmenspolitik, in den Auslandsmarkt zu übertragen. Eine polyzentrisch orientierte Strategie passt sich im Gegensatz dazu so weit als möglich den im Ausland herrschenden regionalen bzw. lokalen Bedingungen an (host country orientation). Und der geozentrische Ansatz versucht, die Unternehmensstrategie konzernweit weit möglichst global zu vereinheitlichen, ggfs. mit lokalen Anpassungen (z.B. Produktnamen, Geschmack, Design, Farben).
Beim ethnozentrischen Internationalisierungsansatz werden Projektleiterfunktionen meist von Mitarbeitern des Stammhauses besetzt und der Einsatz und Umgang mit Projektmanagementtechniken (z.B. Zeitpläne) orientiert sich an den Usancen des Heimatlandes. Dies hat zwar für die Projektleitung den Vorteil, dass sie mit bekannten Instrumenten arbeitet, bringt aber ebenso viele Nachteile bzw. Probleme mit sich. Neben den grundsätzlichen Problemen des ethnozentrischen Ansatzes kommen im Internationalen Projektmanagement die kulturell unterschiedliche Auffassung bzw. Einstellung zu den verschiedenen Projektmanagementtechniken hinzu (z.B. wirtschaftliche Planungs- und Steuerungsinstrumente, Mitarbeiterführung, Moderationstechniken etc.). Ebenso werden diese Probleme durch die dem Projektmanagement immanenten Merkmale verstärkt, wie z.B. die begrenzte Zeit, die Neuigkeit oder Einmaligkeit der Aufgaben (mit der kaum jemand Erfahrung hat) sowie der kulturellen Vielfalt der Beteiligten. Auch ist im internationalen Projektmanagement zu bedenken, dass gerade der internationale Auftrag des Projektes eine vielfältige kulturelle Mischung von Erfahrungen benötigt.7
2
Globalisierung und Projektmanagement
Diese Globalisierung erzeugt naturgemäß viele Projekte in Unternehmen, denn Projektmanagement zielt auf ein zeitlich befristetes, zielorientiertes, einmaliges oder neuartiges und komplexes Arbeitsvorhaben, das die Zusammenarbeit ver6 7
Vgl. Perlmutter (1995), S. 95; Macharzina/Rief (2004), Sp. 1585. Vgl. Meier (2004a), S. 61.
Internationales Projektmanagement
541
schiedener Bereiche im Unternehmen erfordert.8 Projektmanagement ist als Managementansatz im 19. Jahrhundert durch die fortschreitende Industrialisierung mit den Charakteristika von handwerklicher Einzelfertigung zur arbeitsteiligen Serien- bzw. Massenfertigung und der raschen Zunahme von technologischem Wissen und Methoden entstanden. Immer mehr Spezialisierung in Produkten und Arbeit ist bis heute stetig erfolgt, wo die sich immer schneller wandelnden Bedingungen unternehmerischen Handelns die Unternehmen und Abteilungen zwingen, schnell völlig neue Probleme oder zeitlich begrenzte oder einmalige Aufgaben bei hochkomplexen Produkten und Produktionstechnologien (resp. Dienstleistungen) zu bearbeiten. Und dies kann im globalen Markt nur mit Funktionen, Abteilungen, Unternehmen und länderübergreifender Zusammenarbeit von Experten und Managern erfolgreich umgesetzt werden. Bei Hewlett Packard wird z.B. ein Projekt durch folgende Charakteristika gekennzeichnet:9
Zielorientierung: Ein Projekt hat ein klar definiertes Ziel und festgelegte Ergebnisse. Begrenzter Rahmen: Ein Projekt ist in der Zeit begrenzt, d.h. es hat einen definierten Start- und Endtermin. Einmaligkeit: Ein Projekt ist einmalige und oft neuartige Arbeit. Eigene Organisation: Ein Projekt hat eine eigenständige Organisation, die neben der Linienorganisation besteht. Sehr häufig werden in der Projektorganisation Abteilungs-, Hierarchie- oder sogar Firmengrenzen überschritten. Die Projektorganisation ist immer nur auf Zeit angelegt. Mindestumfang: Ein Projekt hat einen Umfang, der es rechtfertigt, das Vorhaben eigenständig zu planen und durchzuführen. Dies kann z.B. ein Aufwand von mind. 20 Personentagen sein oder Kosten, die 20.000 Euro übersteigen.
Internationale Projekte Internationale Projekte sind häufig im Groß- und Anlagenbau (Kraftwerke), Infrastruktur (Verkehrsanlagen), Industrieanlagen zur Rohstoffgewinnung/ -verarbeitung (Öl- und Gasfelder), Luft- und Raumfahrt, Gründung von Institutionen (UN-Abteilungen), internationale Dienstleistungen (Entwicklungszusammenarbeit) oder Produktentwicklung und Markterschließung zu finden. Von einem Internationalen Projekt wird gesprochen, wenn neben den o.g. Kriterien 8 9
Vgl. Meier (2004a), S. 43. Vgl. Hewlett Packard (o.J.).
542
Harald Meier
(zeitlich befristet, neuartig oder einmalig, komplex…) zusätzlich eines der folgenden Merkmale zutrifft:10
die Projektauftraggeber sind international (z.B. Entwicklung eines Flugzeugtyps für Nutzer aus verschiedenen Ländern), und/oder die Projektleitung oder Projektgruppe ist international zusammengesetzt (z.B. Projektgesellschaft mit Gesellschaftern verschiedener Länder), und/oder wesentliche Projektleistungen (z.B. Planung, Errichtung, Finanzierung eines Produktionsbetriebs) werden im Ausland erbracht.
In der internationalen einschlägigen Literatur wird die Definition häufig noch weiter gefasst im Sinne „(...) as a process of practicing management techniques within an international environment ... this means that the international manager practices standard management roles within cross-cultural situations“11. Typische internationale Projekte bei HP Deutschland sind z.B. Entwicklungsprojekte (z.B. Entwicklung eines neuen Druckersystems), Forschungsprojekte (z.B. Umweltbelastungsvergleich Druckerpatronen), Verbesserungsprojekte (z.B. Reduzierung Ausfallrate Workstations), Organisationsprojekte (z.B. Re-Organisation Vertrieb Europa), Dienstleistungsprojekte (z.B. Markteinführung einer neuen Druckerserie) und spezielle Projekte (z.B. Bau eines eigenen Blockheizkraftwerkes).
3
Besonderheiten Internationaler Projekte
Internationale Projekte haben nicht nur eine volkswirtschaftliche wichtige ökonomische und politische Rolle, da sie dem internationalen Know-how-Transfer dienen (z.B. technische oder soziale Standards), Kulturen näher bringen und neue Marktpotentiale erschließen. Sie sind aus betriebswirtschaftlicher Sicht meist auch die erste Form der operativen Organisation und Zusammenarbeit nach einer unternehmensstrategischen Entscheidung für eine internationale Aktivität. Damit kommt ihnen auch wiederum eine unternehmensstrategische Bedeutung zu, weil sie damit quasi „der erste Testlauf“ in der Zusammenarbeit zwischen den Kulturen sind. Dies hat z.B. auch dazu geführt, dass viele Industrieländer eigene national geförderte Projektmanagement-Gesellschaften haben (in Deutschland z.B. die Deutsche Gesellschaft für Technische Zusammenarbeit, GTZ). Ob ein Staudamm in Lesotho, ein Fußballstadion in Arizona oder der 10 11
Vgl. Grün (1989), Sp. 1738 f. Mead (2000), S. 11 f.
Internationales Projektmanagement
543
Aufbau eines Telekommunikationsnetzes in Afrika, Industrieländer wie Deutschland exportieren neben Produkten immer mehr auch Projekte. Es werden neue Märkte in Osteuropa erschlossen, Joint Ventures mit Lieferanten in Asien gebildet, Forschungsstandorte in den Wissenszentren der USA aufgebaut oder ausländische Experten aus Asien nach Deutschland eingeladen und hier Projektteams zugeordnet.12 Projektteams werden per se als funktions- und bereichsübergreifend – und oft auch unternehmensübergreifend – zusammenarbeitenden Gruppen viele Vorteile unterstellt, wie z.B. Ideenreichtum, Perspektivenvielfalt bei der Entscheidungsfindung, flexible Problembearbeitung, vielen Synergieeffekten durch vernetztes, bereichsübergreifendes Denken, und dadurch auch qualitativ hochwertigen Sachergebnissen bzw. Kunden- und Marktnähe bei der Produktentwicklung.13 Neben diesem allgemein anerkannten Nutzen können im Laufe eines Projektes aber auch viele Probleme auftreten, i.d.R. bezüglich:
Projektaufgabe (z.B. unklares Projektziel, ungenaue, widersprüchliche oder oft auch unrealistische Ziele), Projektmanagementmethoden (z.B. Methodendefizite, Priorität mechanistischer Methoden wie z.B. Überbetonung der Softwaresteuerung, die Kreativität behindert), Projektorganisation (z.B. unzureichende Ressourcen, unklare Kompetenzen, unzureichende Koordination, Nichtbeachtung informaler Bedingungen, unzureichende Kommunikation/Information), sowie Einstellung und Verhalten (z.B. zu wenig Kommunikation, EinzelkämpferMentalität statt Teamarbeit, Abteilungsegoismen = fehlende ganzheitliche Sicht, wenig Akzeptanz zwischen Abteilungen oder der Projektleitung, wenig Eigenverantwortung, unkontrollierte Gruppendynamik).
Die häufigsten Ursachen für Projektmisserfolge und -störungen liegen mit bis zu 80% in internen politischen Störungen und im zwischenmenschlichen Bereich.14 Methodendefizite (z.B. das kurzfristige Erlernen einer spezifischen Projektmanagement-Software) können einfacher geändert werden als die Einstellungen der Beteiligten. Sie sind nur langsam und sehr aufwendig zu verbessern, da dies mentale Einstellungsänderungen oft über Jahrzehnte gelernten und erfolgreich in der eigenen Kultur angewendeten Verhaltens ist. Entsprechend ist die soziale Dimension des Projektmanagements mindestens ebenso wichtig, wie sachliche Faktoren. Die Mehrzahl der einschlägigen Managementliteratur hat dies bislang 12 13 14
Vgl. Steeger (2002), S. 2. Vgl. Dowling/Kühlmann (2004), Sp. 932 f. Vgl. Meier (2004a), S. 53.
544
Harald Meier
allerdings zu wenig aufgegriffen. Erst in den letzten Jahren haben z.B. die Gruppendynamik, Projektmoderation und Mitarbeiterführung langsam Eingang in die entsprechende Fachliteratur und Ausbildung gefunden. Der Markt für Projektmanagement wächst in Deutschland jährlich im zweistelligen Bereich. Missverständnisse, uneinheitliche Prozesse, chaotische Organisationsformen und kulturelle Schwierigkeiten führen dazu, dass internationale Projekte scheitern. Unter der Überschrift 70% der internationalen Projekte scheitern führt der Geschäftsführer der Münchner Managementberatung TIBA, die Projektleiter schult, aus:15 „Etwa 70% internationaler Fusionen gehen schief, weil das Projektmanagement nicht funktioniert. Wir kennen Unternehmen, die haben 300 Mio. Euro Investitionsvolumen vor den Karren gefahren und viel zu spät erkannt, dass es offenbar nicht reicht, nur die Software zu geben.“ Und für die Aktualität des Themas macht er als Volkswirt zwei Gründe aus: „Die Anzahl der Projekte ist gestiegen, und deren Komplexität hat zugenommen. Investiert man in ein Werk, kann das auch ein Werk in Asien sein. Außerdem wird auf der Managementebene stärker registriert, dass Projekte in den Sand gesetzt werden. Und das kann sich keiner mehr leisten.“ Internationale Projekte haben zunächst die gleichen typischen Probleme wie rein inländische Projekte. So sind oft die Projektziele unklar, Projektleitung und Projektteilnehmer haben oft wenig Erfahrungen, es fehlt an spezifischen fachlichen oder methodischen Kenntnissen, die Ressourcen reichen nicht und die Organisation und Kompetenzen sind unklar. Auch ein beruflich funktional geprägter unterschiedlicher Arbeitstil (z.B. zwischen Ingenieuren und Managern) sowie unterschiedliche persönliche Motive bzw. Interessen im Projekt mitzuarbeiten führen häufig zu Problemen. Hinzu kommen besonders in internationalen Projekten die spezifischen interkulturellen Besonderheiten, die zumeist entscheidend für den Projekterfolg sind. So haben die Teilnehmer aus den verschiedenen Ländern kulturell bedingt sehr unterschiedliche Einstellungen bzw. ein unterschiedliches Verhalten bzgl. Sprache und Raumkonzept, Führung und Vertrauen, Verhandlungen und Zeitkonzept, Distanzen und Kommunikationsmedien sowie Arbeitsstandards und Projektethik.16 Binder führt als Dimensionen der Herausforderungen im Management internationaler Projekte an:17
15 16 17
„Number of distant locations – the geographical distances can be barriers to relationship building (…)”; „Number of different organisations – team members working for different organisations can have competing interests and hidden agendas (…)”; Frankfurter Allgemeine Zeitung, 05.05.2003. Meier (2004a), S. 59 f. Binder (2007), S. 44.
Internationales Projektmanagement
545
„Country cultures – people coming from different countries can have various sources of motivation, diverse priorities and dissimilar values and ethics (…)”; „Different languages – team members with different native languages may not understand or may have imprecise interpretations of sentences in foreign languages (…)”; „Time zones – the development of motivation and relationship building without a ‘shared time’ can be extremely difficult and frustrating for project managers. The team members may tend to ignore the asynchronous communication or keep it as low priority. Few people will feel motivated or inspired by someone they rarely meet (…)”.
Abstrakter und unter Einbeziehung externer Umfelddimensionen wird im PMBOK (A Guide to the Project Management Body of Knowlegde), herausgegeben vom US-amerikanischen Project Management Institute, formuliert: „The primary factors in cross-cultural settings that call for special attention and an ‘international approach’ are: functional redundancy, political factors, the expatriate way of life, language and culture, additional risk factors (Anm.: z.B. örtliche Kriminalität), supply difficulties, and local laws and legislation.” 18 Das folgende Beispiel (mit Abb. 3) zeigt exemplarisch die typische Zusammensetzung und interkulturellen Unterschiede in einem internationalen Projekt. „A software development project – the project team members are working in four companies in different locations (the software company in London, England; one development team in Curitiba, Brazil; two development teams in Bangalore and Mumbai, India) with team members speaking four different native languages (English, Brazilian Portuguese, Kannada and Tamil), all with different levels of fluency English. There are three different country cultures, and the total difference in time zones is 8:30 in summer (GMT-3 for Brazil and GMT+5 for India). In addition to the team members, there are stakeholders from another three locations (three pilot customers in the USA, South Africa and Australia), elevating the number of country differences to six, and the time zone difference to 17 hours (GMT-8 for San Francisco, USA to GMT+10 for Sidney, Australia).”19
18 19
Dinsmore/Benitez Codaz (2006), S. 400 f. Binder (2007), S. 3.
546
Harald Meier
Abbildung 3:
A software development global project20
Cleland/Gareis sehen ähnliche Felder wie o.g. (differences in languages, time zones, organizational and personal cultures, policies, regulations, business processes, and political climate) und führen als Fazit aus: „These complexities call for specialized work processes, new concepts of technology and knowledge transfer, and more sophisticated management skills and project leadership.”21
4
Kritische Erfolgsfaktoren im Internationalen Projektmanagement
In der internationalen Zusammenarbeit im Projekt herrscht zunächst die interkulturelle Kommunikation vor, egal ob Informationen per Brief, E-mail oder VideoKonferenz ausgetauscht werden, Namen zur Begrüßung ausgesprochen werden, zusammen oder mit Kunden verhandelt wird, die Projektmitarbeiter geführt werden oder Präsentationen im Unternehmen oder beim Auftraggeber gemacht werden, über Werbung entscheiden wird oder ein Small Talk bei einem Projektmee-
20 21
Quelle: Binder (2007), S. 4. Cleland/Gareis (2006), S. 5-4.
Internationales Projektmanagement
547
ting geschieht – frei nach Henry Mintzberg: Management ist zu 80% Kommunikation. In dem Standardwerk The AMA Handbook of Project Management (hrsg. von der American Management Association) wird als Beispiel für kulturelle Einflüsse beschrieben: „There are two conditions with which the project manager should be familiar in approaching another culture: the self-reference criterion, and culture shock. These two conditions must be thoroughly understood and constantly guarded against. As a consequence of the self-reference criterion, the individual has a tendency to evaluate the values of people from other countries and cultures in terms of his or her own value system. People are led to judge the actions of foreigners in terms of what is right or wrong. Project managers who fall prey to this condition are setting up barriers that hinder communication and cause conflict to increase, thereby making it impossible for the managers to negotiate effectively with people from other countries. An example is the attitude that often develops relative to food. The project manager who criticizes and refuses to partake of the food of a foreign country may offend the people of that nation and thereby set up a barrier to understanding and communication. A closely related condition is what is commonly known as culture shock. This condition occurs because the individual is away from the known and familiar and is faced with differing customs and ways of doing things. Project managers should be concerned with getting the job done, rather than with trying to teach people how to do the job their way. There is always more than one way to do a job. Understanding these two conditions should enable project managers to develop an awareness of the need to understand cultural differences and to permit the charting of a safe course through unknown waters.” 22 Jede Kultur hat ihre eigenen Standards, moralischen Werte, Gefühle, die bewusst und unbewusst unser Verhalten und unsere Entscheidungen beeinflussen. Bisher geübte, erfolgreiche Arbeitsweisen, Einstellungen und Verhaltensweisen sind aber zumeist im internationalen Arbeitsumfeld erfolglos und in einer interkulturell gemischten Projektgruppe zudem auch oft kontraproduktiv. Im Folgenden werden typische erfolgskritische Dimensionen internationaler Projekte betrachtet:
Sprache und Raum, Führung und Vertrauen, Verhandlungen und Zeit, Distanzen und Medien, Arbeitsstandards und Projektethik.
22
Dinsmore/Benitez Codas (2006), S. 399 f.
548
Harald Meier
4.1 Sprache und Raum Die Raumnutzung (z.B. Körperdistanz) ist für Menschen, die aus unterschiedlichen Kulturen zusammentreffen, häufig eine erste kritische Situation. So sind z.B. Menschen aus kollektivistischen Kulturen eine deutlich geringere Körperdistanz gewöhnt als Menschen aus sogenannten individualistisch geprägten Kulturen. Unter Raumnutzung zählen ebenso Kommunikationsdimensionen wie verbale Sprache (direkt oder indirekte Problembenennung, Lautstärke und Stimmintonation) und non-verbale Sprache (wie z.B. Blickkontakt, Körperhaltung, Kleidung).23 Als ein sehr praktisches Beispiel können die Seven dos&donts in a Project Meeting dienen, die als typische kritische Situationen in der interkulturellen Kommunikation im Projektmeeting in Form des situativen Kommunikationsprozesses von der Begrüßung an typischerweise auftreten: 1. greeting people, 2. problem solving, 3. small talk (politics, religion, jokes), 4. negotiating, 5. critizising, 6. body language, 7. gift giving. Diese „Fettnäpfchen” in der Projektsitzung entstammen einem spontanen gruppendynamischen Erfahrungsaustausch in einem mehrjährigen internationalen Projekt mit Beteiligten aus acht EU-Ländern. Nach zwei Jahren kam immer mehr Unzufriedenheit in der Projektgruppe auf und das Bedürfnis, über die eigene Umgangsweise zu sprechen, wurde zum Thema gemacht. Einige Teilnehmer beklagten sich über die schleppende Kommunikation, andere über die Ergebnislosigkeit und wieder andere über fehlende Ernsthaftigkeit von Teilnehmern im Projekt, wirklich ergebnisorientiert mitzuarbeiten. So ist z.B. das Kritisieren ein sehr heikles Thema in einer Projektsitzung, wo man zudem i.d.R. unter Zeitdruck und Ergebnisverantwortung steht. In vielen Kulturen Asiens gilt der Gesichtsverlust als ein religiöses Problem, zurückzuführen u.a. auf die Lehren im Konfuzianismus und im Buddhismus, die einen Großteil asiatische Religion und damit Erziehungssysteme ausmacht. Danach ist jeder Mensch unabhängig von Rang und Namen eine hoch geachtete Persönlichkeit und kann bei fehlerfreiem Leben Buddha-Status erlangen. Entsprechend ist Vorsicht geboten, Projektmitarbeiter aus dem asiatischen Raum offen vor anderen zu kritisieren und auch nicht „unter vier Augen“ direkt kritisch anzusprechen. Gleiches gilt für Körpersprache und Raumkonzept: Der zwischen Deutschen und US-Amerikanern übliche feste Händedruck bei der Begrüßung – in beiden Kulturen üblich – wirkt nicht nur bei Asiaten sondern auch in Europa z.B. bei Niederländern oder Ungarn befremdlich. Gleiches gilt umgekehrt für die freundliche kurze Umarmung oder den brüderlichen Wangenkuss, der in Latein23
Vgl. Blom/Meier (2004), S. 85 ff.
Internationales Projektmanagement
549
amerika eher ein Muss und auch in Europa in vielen Ländern schon Gewohnheit ist. In den USA ist dies aber in vielen Bundesstaaten ein territorial impact, selbst ein kurzes freundschaftliches Schulterklopfen oder an den Arm fassen ist hochgradig sensibel.24 Das bedeutet für internationale Projektmanager und -mitarbeiter z.B. bei der Begrüßung oder Verabschiedung oder beim Small-talk in der Pause eine hochsensible Situation. Insbesondere wenn man die Persönlichkeit der Teilnehmer noch nicht kennt, ist hier eher zunächst Zurückhaltung die Regel. Abbildung 4:
Gemeinsame Problemlösung
English – the borderless tool Englisch ist as lingua franca the borderless tool nicht nur die Sprache der internationalen Politik, die Sprache des Internets, Standardsprache für akademische Publikationen ebenso wie für technische Instruktionen und letztlich auch im internationalen Geschäftsleben – und damit auch im internationalen Projektmanagement – die Standardsprache. Auch wenn Englisch durch die Globalisierung 24
Vgl. Parker (2004), S. 251 ff.
550
Harald Meier
und weiter vereinheitlichte Studiensysteme (z.B. Bologna Prozess) zunehmen wird, trügt die Verallgemeinerung, denn es gibt viele offizielle englische Sprachversionen (Britisches Queens English, AE als American English usw.). Unternehmen wie z.B. LandsEnd oder Yahoo haben viele Probleme bei Produktnamen und -bedeutungen erfahren, als sie einfach ihr gewohntes American English in ihren Produktkatalogen, Firmenanweisungen und Projektbeschreibungen nach Europa übertragen haben.25 Ähnliches berichtet Parker aus einem internationalen Projekt mit 15 Teilnehmern aus acht europäischen Ländern:26 „(…) that it is difficult to write an international e-mail in English. The choice of words is very important (…) many misunderstandings can stem from inappropriate language use …for the lack of non-verbal communication especially as e-mail speak has a tendency to be very direct and to appear in abbreviations – one may be able to do this in one`s own language but when writing in a foreign language an extra effort needs to be made. The language factor is a fundamentally difficult issue to solve (…)”. Er beschreibt weiter, dass eine der größten Herausforderungen die englische Sprachfertigkeit ist, die zudem auch enormen Einfluss auf das konzeptionelle Verstehen des Projektauftrages und Projektfortgangs hat, und damit letztlich auf die Ergebnisqualität.27
4.2 Führung und Vertrauen Die Besonderheit der Führungssituation im Projekt ergibt sich zum einen aus den sehr heterogenen fachlichen Arbeitshintergründen und Persönlichkeiten der Projektteilnehmer, und im internationalen Projekt ihre sehr unterschiedlichen persönlichen Ziele und kulturell bedingten Verhaltensweisen. Hinzu kommen oft die international sehr unterschiedlichen Vertragsbedingungen (Gehaltsniveau, Kaufkraft, Arbeitszeit, Budgets) und teilweise der befristeten Verträge. So wird allein schon für die unterschiedliche Kaufkraft der Teilnehmer empfohlen, direkt zu Projektbeginn Standards (Hotels, Restaurants etc.) festzulegen, die von allen Teilnehmern getragen werden können „ohne in reich und arm“ aufzuteilen. Bei den internationalen Projekttreffen oder auch der virtuellen Zusammenarbeit kommen erschwerend noch besondere Rahmenbedingungen wie wechselnde Orte, lange Wege und unterschiedliche Zeitzonen hinzu (siehe auch Kap. 4.4).
25 26 27
Vgl. Deresky (2008), Video 1-4. Parker (2004), S. 253. Vgl. Parker (2004), S. 258.
Internationales Projektmanagement
551
Intercultural Teambuilding Die Herausforderungen in der Entwicklung und Führung internationaler Projektteams „(…) boils down to creating a convergence of peoples differing personal inputs toward a set of common final outputs. This means developing a process that facilitates communication and understanding between people of different national cultures. Making this process happen signifies the difference between success and failure on international projects. (…) The secret is to transform the way people do things at the beginning of the project into more effective behavior as the project moves along. This transformation initially involves identifying the intercultural differences among the parties.”28 Dinsmore/Benitez Codas nennen hierzu als Beispiel die technische Abwicklung im Anlagenbau, die hier zentral den Geschäfterfolg beeinflusst: 29
„The European Model: (…) highly structured, formal, and centralized national systems for generating and disseminating technical knowledge. Responsibilities are clearly defined, with specific national organizations charged with generating research, while other organizations take care of transferring the results to industry … National systems in Europe are often jointly financed by government and industry.” „The North American Model: (…) is less formal than in Europe. There is (…) little coordination in the construction research effort (…) In contrast to the European model, advanced construction knowledge is mainly generated at the university level. The dissemination to industry is largely performed by broad-based engineering or trade associations, such as the American Society of Civil Engineers and the Construction Industry Institute. The technical work is carried out in these associations partially by committees made up of volunteers.” „The Japanese Model: (…) research is concentrated in a handful of integrated companies that dominate Japanese construction, where technology development is considered a significant competitive tool. Therefore, as much as $ 100 million is invested annually by those companies, which is considered proprietary and subject to commercial confidentiality. Companies invest in research to attain competitive advantage.”
Dieses Beispiel aus dem Anlagenbau zeigt die Wichtigkeit der Organisationsund Teamentwicklung in Strategischen Allianzen oder Joint Ventures als internationalen Großprojekten – wie z.B. Airbus oder gemeinschaftlichen F&E28 29
Dinsmore/Benitez Codas (2006), S. 402. Dinsmore/Benitez Codas (2006), S. 403.
552
Harald Meier
Projekten der EU. Das unterschiedliche staatliche Vorgehen und Verständnis von Forschungsförderung und Technologietransfer führt auch bei industrieller Beteiligung sowie bei den Projektbeteiligten bzw. Projektmitarbeitern zu unterschiedlichen Arbeitsweisen bzw. Einstellungen bzgl. Wissensgenerierung und -transfer innerhalb des Projektes. Führungsstil Die unterschiedlichen Führungs- und Kommunikationskulturen führen zu einer differenzierten Anwendung von Führungsstilen in anderen Kulturen bzw. in der Zusammenarbeit mit Mitarbeitern aus unterschiedlichen Kulturen. Die wissenschaftliche Literatur ist sich auch international meist einig, dass die Motivation der Mitarbeiter stark kulturabhängig ist und dass sich nationales Managementwissen nicht auf andere Länder bzw. Kulturen übertragen lässt.30 Aber es sind auch viele Übereinstimmungen festzustellen, dass z.B. die bekannten Motivationsmodelle (u.a. die Bedürfnispyramide nach Maslow) interkulturell durch unterschiedliche Wertedimensionen und Wertesysteme in den Kulturen sowie den immensen Werteveränderungen in vielen Kulturen weltweit in den letzen 30 Jahren nicht einfach übertragbar sind.31 Die Analyse von rd. 200 Kultur vergleichenden Untersuchungen (siehe Abb. 4) über die Zusammenhänge zwischen Kultur und Kommunikation bzw. Motivation kommen zum Ergebnis, dass es eine kulturabhängige Effizienz von Führungsstilen gibt. Die Effizienz des Führungsstiles ist demnach stark abhängig von den kulturell geprägten Partizipationserwartungen der Mitarbeiter an Führungsentscheidungen. Steigt z.B. die subjektiv empfundene Diskrepanz zwischen den Erwartungen der Mitarbeiter bzgl. Partizipation und dem wirklichen Führungsverhalten des Vorgesetzten, nimmt die Mitarbeiterzufriedenheit ab. Entsprechend kommt es bei der Mitarbeiterführung zwischen Mitarbeitern aus Kulturen mit stark unterschiedlichen Partizipationserwartungen signifikant häufiger zu Konflikten.32 So kommt man u.a. zu dem Ergebnis, dass Mitarbeiter in westlichen Industrieländern aus der eher im Protestantismus geprägten Tradition der Betonung der menschlichen Individualität und individuellen Selbstverwirklichung) höhere Partizipationserwartungen haben als in traditionell katholischen Kulturen (persönliches Dasein als Schicksal), wo eher noch autoritäre Führungsstilpräferenzen existieren und akzeptiert werden. Gerade in internationalen Projektgruppen treffen vielfältige ethnische Erziehungen und Vorurteile, religiöse Unterschiede (z.B. protestantische Arbeitsethik), unterschiedliche Management30 31 32
Dowling/Kühlmann (2004), Sp. 933 f.; Festing (2004), Sp. 971 f. Meier (2004a), S. 186 f. Vgl. Keller (1987), Sp. 1287; Meier (2004a), S. 187; Blom/Meier (2004), S. 221 ff.
Internationales Projektmanagement
553
modelle, unterschiedliche Bedeutung von Status (z.B. Titel) und unterschiedliche Bezahlung (z.B. hoch bezahlte expatriate Manager und lokale Angestellte) zusammen, was häufig zu einer latenten Unsicherheit und Unzufriedenheit in der Teamarbeit und damit in der Arbeitsmotivation führt.33 Eine Untersuchung kommt im Vergleich zwischen deutschen und US-Managern bezüglich patterns of interaction zu Aussagen wie „German leaders: stress goals, become somewhat impatient, demonstrate urgency, focus on tasks only, may even attack or discount problem solving competency of workflow. US-leaders: motivate and coach, demonstrate concern for moral of team, show patience and persistence, openly show dependence on problem solving competency of workforce.” 34
Abbildung 5:
33 34 35
Kulturspezifische Führungsstile35
Vgl. Meier (2004a), S. 185 ff.; Blom/Meier (2004), S. 226 ff. Hofielen/Broome (2000), S. 60 f. Entn. Blom/Meier (2004), S. 229, in Anlehnung an Keller (1987), Sp. 1287.
554
Harald Meier
Vertrauen bilden „Trust is at the heart of global team management.”36 Die meisten Bücher und wissenschaftlichen Untersuchungen bezeichnen Vertrauen als Schlüssel effektiver kulturübergreifender Kommunikation und Führung. In vielen Kulturen – insbesondere den so genannten kollektivistischen Kulturen wie z.B. überwiegend in Asien, Lateinamerika, Südeuropa oder Afrika – überwiege sogar die persönliche Beziehung vor dem Projektziel oder der Unternehmensidentität. Das bedeutet für internationale Projektmanager, dass die persönliche Vertrauensbildung mit und zwischen den Projektteilnehmern und -mitarbeitern noch vor der Planung und Arbeit am eigentlichen Projekt steht. Denn damit wird die Implementierung gemeinsamer Prozesse, Instrumente und Projektmanagementtechniken vereinfacht, über die kulturell bedingen unterschiedlichen Auffassungen und Erfahrungen hinweg. Vertrauensbildung geht am einfachsten über persönliche face-toface Meetings und an neutralen Orten, wo für alle Beteiligten die Bedingungen gleich sind. Hinzu kommen Regeln wie z.B. das Vermeiden der Übernahme von Seilschaften aus anderen bzw. alten Projekten und das bewusste Planen von Teamentwicklungs-Maßnahmen, statt direkt mit der eigentlichen Projektarbeit zu starten.37 Dies bestätigt sich auch durch die vielen bekannten Untersuchungen zu kulturellen Unterschieden, die sich in den so genannten Kulturtheorien zeigen (wie z.B. von Hofstede, Hall, Trompenaars).38 Die räumliche Verteiltheit der Teammitglieder, die Heterogenität ihres Umfeldes und dadurch auch ihre relative Autonomie macht es bei der grenzüberschreitenden und temporären Zusammenarbeit schwierig, soziale Beziehungen und in Folge Vertrauen aufzubauen. Vertrauensaufbau braucht Zeit, gemeinsame Erfahrung und einen gemeinsamen Kontext.
4.3 Verhandlungen und Zeit Bei Terminvereinbarungen zwischen Menschen unterschiedlicher Kulturen zeigen sich die kulturell bedingten Unterschiede oft sehr schnell und offensichtlich. So bedeutet ein Termin um zehn Uhr vormittags für einen deutschen Manager oder Kunden auch exakt zehn Uhr (und ggfs. ein paar Minuten Verspätung bei einer Anreise). Hingegen bedeutet dies für einen südeuropäischen oder lateinamerikanischen Mitarbeiter oder Kunden eher eine Richtzeit, die ohne weiteres flexibel zu sehen ist, auch nach einer Stunde Wartezeit wäre man nicht beleidigt. 36 37 38
Binder (2007), S. 51. Vgl. Binder (2007), S. 54 ff. Vgl. Blom/Meier (2004), S. 35 ff.
Internationales Projektmanagement
555
Gleiches gilt z.B. für das Halten an Tagesordnungen, Liefervereinbarungen oder Projektzeitplänen. So ist z.B. in den USA und in vielen westlichen Industrieländern Zeit eine wichtige Ressource (time is money = kalkulierbarer Kostenfaktor) und wird linear als Prozess Vergangenheit-Gegenwart-Zukunft gesehen. Entsprechend sind Pünktlichkeit bzw. klare Zeitpläne ein Wert an sich, der eine Vertrauensbasis bildet. Hingegen haben viele Kulturen in Asien, Afrika, Lateinamerika und auch in Südeuropa einen zirkulären Zeitbegriff. Vergangenheit ist ebenso wichtig wie Gegenwart und Zukunft, was zählt ist das Zusammensein – und entsprechend werden Verspätungen, abweichender Smalltalk von der Tagesordnung, eine überzogene Mittagspause nicht als Problem, sondern als Zusammensein und Vertrauensbildung gesehen. So machen viele deutsche Projektmanager im Ausland schnell die Erfahrung, dass sie eher nach erfolgreicher Arbeit bzw. Verhandlung zum Diner einladen würden, Franzosen, Italiener und Spanier hingegen das Diner eher als Bestandteil der gemeinsamen Arbeit betrachteten. Ein typisches Beispiel gibt Parker:39 „The plenary meeting is a real challenge; again it is taken for granted that you have drawn up a clear agenda which is discussed on the e-mail prior to the meeting itself – this is a time saver and makes the process more democratic: Of course, you won`t follow the agenda really because discussions always seem to take longer than intended – unless the meeting is really dull (…) a key point is the management of the time slots; anyone who has learned to speak a foreign language will know that it is very tiring to work in it. Breaks need to be regular (…) The coordinator`s notion of time must not be the only one present; it appears that it should be that which takes into account the differences between, say the Dutch and the Spaniards who really do work on different timescales! This must be catered for and a relaxed attitude to ‘lateness’ is essential with Latin cultures. This can be, however, be very frustrating for those who are time bound and culturally insensitive.” Kommunikationskultur In den einschlägigen westlichen Kulturtheorien wird z.B. zwischen einer so genannten monochronen und einer polychronen Kommunikationskultur unterschieden:
So sind stark monochron ausgerichtete Kulturen (zu denen u.a. Industrieländer wie die USA, Kanada oder auch Deutschland und Skandinavien gehören) bei komplexen Aufgaben auf klare Gliederungen und Ziele fixiert, sie arbeiten entsprechend strukturiert mit Gesprächsgliederungen bei Mee-
39
Parker (2004), S. 256 f.
556
Harald Meier tings, um die Arbeitsziele in einer geplanten Zeit zu erreichen – frei nach dem Motto come to the point. Kommuniziert wird vorzugsweise direkt und mit klar expliziter Ausdrucksweise. Hingegen gelten in starken polychronen Kulturen (z.B. in Lateinamerika, Afrika oder Asien, in Südeuropa aber z.B. auch Großbritannien) andere Regeln der Kommunikation. Hier werden komplexe Strukturen eher akzeptiert, Ziele können am Anfang auch unklar bleiben und Pläne werden flexibel gesehen. Der Entscheidungsprozeß wirkt oft unklar und unsystematisch in der Gruppe, weil Kommunikation oft indirekt ist. Auch spielen das soziale Umfeld (Small talk und gemeinsame private Unternehmungen sind wichtig) und Körpersprache eine wichtige Rolle.
Entsprechend gelten monochrone Kulturen als extrem pünktlich, während in polychronen Kulturen Zeit eine eher zirkuläre Rolle spielt. Für den internationalen Projektmanager bedeutet dies ganz einfach, deutlich mehr Pufferzeiten in Tagesabläufen und Projektplänen zu berücksichtigen, gemeinsame Pausen und den Small talk als Werte an sich zu sehen und Zeitabweichungen zu akzeptieren.
4.4 Distanzen und Medien In dem Beispiel eines typischen internationalen Projektes in der SoftwareEntwicklung (siehe Kap. 3) betragen die Zeitunterschiede 8 ½ Stunden zwischen den Projektmitarbeitern in England, Brasilien und Indien und mit den einbezogenen Stakeholdern aus Südafrika, USA und Australien insgesamt 17 Stunden.40 Im Zeitalter der Internet-Kommunikation hat sich die Hoffnung nach entfallenden Reisezeiten und Reisekosten sowie einer effektiven und effizienten Kommunikation im Projektmanagement nicht erfüllt. Nach wie vor brauchen Projekte, und insbesondere internationale Projekte, die sogenannte face to face Kommunikation. Die ist nicht nur durch die vorwiegend polychronen Kommunikationskulturen in vielen südeuropäischen Ländern, Asien, Lateinamerika und Afrika bestimmt (vgl. hierzu auch Kap. 4.3), sondern sie ergibt sich auch aus den systemimmanenten Problemen elektronischer Kommunikation. Internationale Projektmeetings zeichnen sich i.d.R. durch eine relativ kurze Dauer mit im Verhältnis oft langen Anreisezeiten aus. So sitzen Projektmitarbeiter aus verschiedenen Zeitzonen zumeist ohne entsprechende Akklimatisierung zusammen und haben so schon rein physisch mit Jetlags, Klimaanpassungen und kurzfristigen Ernährungsumstellungen „zu kämpfen“. Müdigkeit, Schwitzen, 40
Binder (2007), Seite 3.
Internationales Projektmanagement
557
Erkältungen, Kreislauf- und Magen- und Darmbeschwerden lassen Projektmitarbeiter dann oft als unkonzentriert, nervös oder uninteressiert erscheinen. Dies wiederum wird vom Gegenüber, der diese Belastungen nicht hat, als Unaufmerksamkeit, Desinteresse oder fehlende Qualifikation interpretiert und führt zu Vorurteilen über den Projektteilnehmer und schlimmstenfalls über seine ganze Kultur.41 Abbildung 6:
Internationale Zeitzonen42
Elektronische Kommunikation Im Rahmen der heute meist elektronischen Kommunikation ist es ebenso schwierig, gemeinsame Zeitfenster für die direkte Kommunikation (z.B. via Internetkonferenz oder BTV) zu finden. Und innerhalb eines solchen virtuellen Meetings befinden sich die Teilnehmer dann – ähnlich wie o.g. bei persönlichen Meetings – in unterschiedlichen Tages- und Nachtrhythmen, was Auswirkungen auf ihre Konzentrationsfähigkeit hat. „Die effektive und effiziente Zusammenarbeit in verteilten Teams, Kooperationsnetzwerken und virtuellen Organisationen erfordert den massiven Einsatz von Telekooperations-Technologien. Diese reichen vom ‚guten alten‘ Telefon über neuere Kommunikationsmedien wie E-mail oder Videokonferenz-Systeme bis hin zu Groupware als spezielle Lösungen für die Unterstützung von Teamarbeit. Allein die Verfügbarkeit und der Einsatz 41 42
Blom/Meier (2004), S. 197 ff. In Anlehnung an: www.zeit-online.de/zeitzonen.php.
558
Harald Meier
solcher Technologien garantieren allerdings noch keinen Erfolg.“43 Ähnlich sehen es Cleland/Gareis:44 „On the positive side, advances in colaborative and enabling technology, such as groupware and general telecommunications, have made geographically dispersed work groups more feasible and effective, arguing that today people can work together as virtual teams from anywhere in the world. Wether an organization has 100,000 employees or just 10 people, it is interconnected with the rest of the world and can work with any person from any enterprise in any place at any time. This opens up great opportunities and flexibilities of conducting business, including codevelopments, partnering, joint ventures, strategic alliances, and outsourcing, as well as customer and supplier relations management. However, even the best technology cannot solve all problems. Nor can it by itself ensure unified teamwork, cooperation, decision making, and task integration.” E-mail nimmt durch Schnelligkeit der Übermittlung den Charakter eines Zwiegespräches an, doch ist eine unmittelbare Reaktion während der Mitteilung – z.B. durch Gesichtsausdruck – nicht möglich. Auch wirkt die Konzentration auf die reine Nachricht und meist ohne Small talk zwar kurzfristig effizient, langfristig ist sie aber eher kontraproduktiv. Groupware-Systeme – z.B. die Kombination von Kommunikation (E-mail, Chat, Diskussionsforen) über gemeinsame Planung (elektronischer Kalender, Workflow-ManagementFunktionen) bis zur Kooperation (gemeinsame Adressbücher, Dateiablage, Dokumenteneditierung) und awareness-Funktionen (Anzeige, wer gerade vom Team online ist) – führen i.d.R. zu einer ungewohnten Transparenz. Diese erfordert ein hohes Maß an Nebenabreden, wie man mit den jetzt für alle oft sehr persönlichen Daten umgeht. Neben dem geplanten Effizienzgewinn kommt es durch die Formalisierung von Routinen zu Workflows zu erheblichen gruppendynamischen Problemen. Scheinbare Umwege der Kommunikation, redundante Kommunikation usw., die das persönliche face-to-face Gespräch ausmachen, sind unerlässlich. Video-Konferenzen eignen sich nur zum Informationsaustausch und nicht für persönliches Kennenlernen oder Verhandlungen und Konfliktbearbeitung. Fehlender realer Blickkontakt und Gestenverzögerung durch die elektronisch bedingte Viertelsekunde Zeitverzögerung sowie die Zeitzonen mit entsprechend unterschiedlichen Biorhythmen der Teilnehmer führen zu Trägheit der Besprechung und zu reduzierten Beteiligungschancen einzelner Beteiligter, und damit zu einer kaum zu steuernden Interaktionsdynamik.45
43 44 45
Herrmann/Meier (2001), S. 12 ff. Cleland/Gareis (2006), S. 5-3 f. Vgl. Herrmann/Meier (2001), S. 12 ff.
Internationales Projektmanagement
559
Ein Beispiel aus dem in Kap. 4.1 und 4.3 angesprochenen Projekt mit 15 Teilnehmern aus acht Ländern gibt Parker: 46 „Once the centralised meetings were over, each workshop group disbanded geographically to work on-line under the guidance of the leader but the limits of e-mail communication soon became apparent. It showed to be an excellent tool for communicating information and at times for correcting materials but it does not seem to enable creativity or discussion (…)” und weiter: „It is interesting to note that the distance factor generally demobilised group members immediately after each meeting except for the most highly committed, even if the meeting was very successful and it was an on-going difficulty to secure concrete results.” Nach der Media-Richness-Theorie werden Kommunikationsmedien entsprechend der Aufgabenkomplexität ausgewählt. Schlecht strukturierte bzw. unsichere Aufgaben (= hohe Komplexität), deren Verständnis viel Wissen und Kontext benötigt, brauchen Medien mit Möglichkeiten eines unmittelbaren Feedbacks, einem breiten Spektrum an Ausdrucksmöglichkeiten und hohen Personalisierungsgrad (face-to-face Kommunikation). Neben der Aufgabenkomplexität stellen aber auch persönliche Präferenzen für Medien sowie die Bedienerkompetenz die Medienwahl (Theorie der subjektiven Medienakzeptanz) Kriterien dar. In der Praxis bestimmt auch das soziale Umfeld und die Unternehmenskultur die Wahl der Kommunikationsmedien (SocialInfluence-Ansatz).47
4.5 Arbeitsstandards und Projektethik Auch das Arbeiten mit formalisierten Arbeitstechniken – ProjektmanagementInstrumente, wie Arbeitsdiagramme, Zeitplänen wie z.B. ein Gantt-Chart oder Belastungsdiagramme wie Histogramme, Projekt-Planungstechniken, z.B. Netzplantechniken wie CPM oder PERT, das Setzen von Project Milestones, oder der Simultaneous Engineering-Ansatz, Projekt Reporting oder der Einsatz spezieller Projektmanagement-Software, z.B. MS Project – wird in Kulturen unterschiedlich intensiv genutzt und in seiner Anwendung gewertet bzw. interpretiert. So findet man z.B. in Deutschland oder Skandinavien eine relativ starke Orientierung an schriftlichen Plänen und systematischen und standardisierten Projektmanagement-Techniken. In Großbritannien und den USA findet sich eine mittlere Orientierung, d.h. der Einsatz ist durchaus üblich, wird aber eher als Diskussionsbasis genutzt, ohne sich unbedingt starr daran orientieren zu müssen. In Südeuropa ist es zwar üblich, diese Instrumente einzusetzen – meist in der Phase der Projektplanung – später im weiteren Projektverlauf verzichtet man aber eher auf 46 47
Parker (2004), S. 253 f. Vgl. Leitner/Tuppinger (2004), S. 247 ff.
560
Harald Meier
diese standardisierten Instrumente, wenn es auch ohne sie geht. Ebenso ist das Interpretieren von quantitativen Daten (z.B. in Statistiken oder Kennzahlen) oder qualitativen Darstellungen (z.B. Bilder) kulturabhängig. Abbildung 7:
Netzplan-Technik48
Der Ansatz des Simultaneous Engeneering ist in den westlichen Industriestaaten ein normaler Managementansatz, Fach- und Führungskräfte sind es gewohnt, verschiedene Aufgaben parallel zu bearbeiten bzw. parallel auch verschiedene Verantwortungen zu übernehmen (siehe insb. auch Kap. 5). Schon in der Erziehung lernt man früh, gleichzeitig mehrere Dinge zu tun, z.B. Musik hören und Hausaufgaben machen, Autofahren und Hamburger essen. Dies wird in anderen Kulturen wie z.B. in Asien eher als Schwäche bzw. als unhöflich empfunden, weil dort gelernt wird, sich möglichst auf eine Sache zu konzentrieren – dies wird in Westeuropa wiederum oft als Langsamkeit interpretiert. Wissenschaftliche Studien (u.a. University of Texas, Stanford University und auch MIT) berichten:49 „Culture can affect not just language and custom, but how people experience the world at stunningly basic levels – what they see when they look at a city street, for example, or even how they perceive a simple line in a square. Western culture, they have found, conditions people to think of them48 49
Entn. Mende/Bieta (1997), S. 136. Goldberg (2008), S. 11.
Internationales Projektmanagement
561
selves as highly independent entities. And when looking at scenes, Westerners tend to focus on central objects more than on their surroundings. In contrast, East Asian cultures stress interdependence. When Easterners take in a scene, they tend to focus more on the context as well as the object: the whole block, say, rather than the BMW parked in the foreground. To use a camera analogy: the Americans are more zoom and the East Asians are more panoramic.” (D. Park, Center for Brain Health, University of Texas), oder: „ (…) everyone sees the same thing, but may filter it differently. Culture is not changing how you see the world, but rather how you think and interpret.” (J. Gabrieli, Stanford University). Parker berichtet aus dem von ihm viele Jahre geleiteten internationalen Projekt (siehe auch Kap. 4.1, 4.3 und 4.4) mit 15 Teilnehmern aus acht EULändern:50 „In the early stages of the project, there was a very clear tendency to transfer existing national ideas/practices to the international arena and a number of participants were surprised to realise that what was good practice in, say, Finland, was by no means transferable to, say, Italy for structural or legal reasons. This phase of discovering the major differences in the way straightforward ideas are, or can be, implemented in different countries put participants on a very steep learning curve thus reducing their so-called nationally-derived competence to intercultural incompetence (…) the other area of competence has been in the subject areas (…) the combination of language competency, (…) management knowledge and intercultural competence in any one person has obviously been in short supply so the necessity for complementary competence is paramount. The choice of participants, therefore, needs a rational, competencebased approach and not an arbitrary, opportunistic one. Timescales, distance and job descriptions, however, play against this. (…) Group competence would appear to be a function of the sum of the individual competences factored by positive synergy (…) that suggests that diversity in optimally-sized groups will be creative (…) (up to the phrase) ‘a camel is a horse designed by a committee’ aptly sums up this group product, consequently, the outcome needs to be assessed from a multi-cultural perspective.” Ein sehr einfaches Beispiel für unterschiedliche Arbeitstandards – das immer wieder für viele Missverständnisse z.B. zwischen US-Amerikanern und Europäern sorgt – ist die Darstellung und Interpretation von Zahlen, z.B. im Dezimalsystem oder der sogenannten Tausender-Trennung. In den USA wird der Punkt (.) als Dezimaltrennung und das Komma (,) als Tausender-Trennung genommen. In Deutschland und fast allen europäischen Ländern ist dies genau umgekehrt. Obwohl diese Fehlerquelle z.B. beim Lesen und Interpretieren von 50
Parker (2004), S. 258 f.; die Bedeutung von „Englisch als Projektsprache” ist als besonderes Problem in Kap. 4.1 angesprochen.
562
Harald Meier
Projektplänen, Projektstatistiken und -kennzahlen offensichtlich und bekannt ist, führt es gerade im Projektalltag immer wieder zu Flüchtigkeitsfehlern bei Bestellungen, Kalkulationen, Zahlenrundungen usw. Das in Kap. 1 gezeigte weltweite Netzwerk der Produktion des Elektronikkonzerns Phillips in mehr als 60 Ländern führt naturgemäß zu einer unübersichtlichen Vielfalt von Gesetzen und Standards, sowie den gleichzeitig in jeder Kultur herrschenden informellen Regeln – im Extremfall bis hin zu Fragen der Korruption im Verhältnis der eigenen sogenannten Corporate Responsibility. Im internationalen Projektmanagement kommt zu der Vielzahl politischer Risiken das Phänomen der relativ kurzfristigen Einbindung in die jeweilige Landeskultur – respektive auch regionale und lokale kulturelle und politische Rahmenbedingungen hinzu. Gerade die typischen internationalen Projekte im Groß- und Anlagenbau, Industrieanlagen, Infrastruktur usw. (siehe Kap. 2) führen internationale Projekte immer wieder in politischen Risiken und ethische Zielkonflikte. „The construction of a new dam and power generator increases the service and viability of a regional supplier of electrical power, it decreases the emissions of greenhouse gas through a reduced need for power generated by fossil fuel, and it generates local employment and revenues not easily available otherwise. However, it also disrupts the scenic environment and changes the habitats for humans and other beings in a rural river valley and it will most likely be followed by other projects to come.”51 Nicht zuletzt hat die Westdeutsche Landesbank, die in der Finanzierung z.B. für Öl- und Gasfelder, Pipelines oder Staudämme in der Internationalen Projektfinanzierung eine führende Rolle einnimmt, auf langjährigen auch internationalen politischen Druck von Nichtregierungsorganisationen (NROs) Geschäftsgrundsätze zusammen mit Vertretern verschiedener NROs verabschiedet zu Querschnittsthemen wie Corporate Governance, Transparenz und Korruption, Menschenrechte, Schadstoffe/Grenzwerte, Besondere Schutzgebiete, Biodiversität, Klimaschutz, … und besonderen Sektoren u.a. wie Staudämme, Waffen und militärische Ausrüstung, Rohstoffindustrie, Forstwirtschaft, Biomasse oder gentechnisch veränderte Organismen.52 „A project manager, particularly in the public sector, may easily become embroiled in the ethics concerning such issues as pollution, public safety, industrial plant locations, the use of public lands and so on.”53 Als erstes hat sich das Project Management Institute (PMI, the world`s leading non-for-profit professional association for project management)54 systematisch mit einer eigenen Projektmanagement-Ethik auseinander gesetzt. Bereits 1982 wurde in diesem Zu51 52 53 54
Mengel (2006), S. 227. Vgl. Westdeutsche Landesbank (2008). Meredith/Mantel (2003), S. 109. Vgl. Mengel (2006), S. 229.
Internationales Projektmanagement
563
sammenhang die erste Fassung des Code of Ethics for the Project Management Profession entwickelt (Auszüge):55 „Preamble: Project Management Professionals, in the pursuit of the profession, affect the quality of life for all people in our society. Therefore, it is vital that Project Management Professionals conduct their work in an ethical manner to earn and maintain the confidence of team members, colleagues, employees, employers, clients and the public.
5
Obey the laws of the country in which work is being performed (article I, g.). Neither give nor accept, directly or indirectly, any gift, payment or service of more than nominal value to or from those having business relationships with their employers or clients (article III, d.). Project the safety, health and well fare of the public and speak out against abuses in these areas affecting the public interest (article IV, a.).”
Hybrides Anforderungsprofil für Internationale Projektmanager
5.1 Entwicklung der Unternehmensorganisationen Seit den 80er Jahren werden Organisationen immer dynamischer, der Wandel vollzog sich sehr schnell von den traditionell nach Funktionen organisierten vielstufigen Abteilungshierarchien über so genannte flache und integrierte Hierarchien bis jetzt hin zu dynamischen Organisationen, die sich ständig neuen Aufgaben anpassen (siehe Abb. 8). Projektmanagement ist damit qua Definition eine ständige Organisationsform geworden, sei es innerhalb der bestehenden Organisation (z.B. als befristete Teilorganisation zur Produkt- oder Marktentwicklung), als dominierende Organisationsform (z.B. Softwareentwicklung oder Beratungsgesellschaften) oder als Schnittstelle zu und in unternehmensübergreifenden Netzwerken, temporären strategischen Allianzen oder virtuellen Organisationen.
55
Meredith/Mantel (2003), S. 143 ff.
564
Harald Meier
Abbildung 8:
Veränderungen der Unternehmensorganisation56
5.2 Parallele Experten- und Managementrollen Die weiter stark steigende Zahl internationaler Projekte durch die Globalisierung, die kürzeren Produktlebenszyklen und Technologieanpassungen oder permanent sich verändernden Unternehmensorganisationen führen einerseits zu sich oft verändernden Anforderungsprofilen für die Fach- und Führungskräfte, sowie auch zu immer mehr parallelen Rollen mit oft unterschiedlichen Anforderungsprofilen. Beispiele:57
56 57
Herr W. ist als Ingenieur Produktionsleiter in einem mittelständischen Industrieunternehmen für Feinpapier. Gleichzeitig leitet er ein betriebliches Projekt, bei dem 14-tägig an einem Tag die Einführung von Gruppenarbeit in der Produktion geplant wird. Darüber hinaus ist er einmal monatlich für zwei Tage in Helsinki beim finnischen Mutterkonzern als Mitglied im Projekt Global Quality der deutsche Fachvertreter. Daneben hat er die Spezialistenfunktion des betrieblichen Sicherheitsbeauftragten, und er ist zudem noch ehrenamtlich in der Weiterbildung der IHK als Prüfer tätig. Frau Dr. S. ist Laborleiterin in einem internationalen Chemieunternehmen, sie wirkt parallel als Fachspezialistin in den USA in einem Forschungsprojekt der US-Muttergesellschaft für drei Tage alle zwei Monate (und parallel In Anlehnung an Sattelberger (1997), S. 704, entn. Meier (2006a), S. 104. Vgl. Meier (2006b), S. 13 f.; Meier (2004b), S. 35.
Internationales Projektmanagement
565
via Intranet-Kommunikation) mit, und sie ist zur Zeit für zwei Jahre Leiterin des zentralen betrieblichen Projektlenkungsausschusses. Herr B. ist Projektleiter einer IT-Beratungsgesellschaft für SAPAnwendungen. Nachdem er gerade zwei parallele Projekte in Süddeutschland erfolgreich zu Ende führt, ist er jetzt bereits als deutscher Vertreter Mitglied in einer internationalen Projektgruppe, die im Rahmen einer Projekt-Machbarkeitsstudie für eine internationale Bankfusion deren ITOrganisationen virtuell zusammenführt. Später soll er die Leitung der deutschen Teilprojektgruppe in diesem Fusionsprozess übernehmen.
Neben den klassischen Projektmanagern haben auch zunehmend immer mehr hochqualifizierte Fach- und Führungskräfte neben ihrer herkömmlichen Fachoder Führungsrolle auch parallel anders gewichtete Funktionen als Führungskräfte auf Zeit, Fachreferenten, Projektmitarbeiter und Projektleiter inne. Und auch für mittelqualifizierte Mitarbeiter gilt entsprechendes, wenn sie z.B. Projektaufgaben neben Sachbearbeiter- oder Facharbeitertätigkeit haben oder in zwei Projekten gleichzeitig tätig sind.
5.3 Hybride Anforderungsprofile Mit dem Aufstieg in der Unternehmenshierarchie erhöht sich der Anteil der geforderten Sozialkompetenzen in Relation zu den Fachkompetenzen (siehe Abb. 9). Durch parallele oder sich laufend wechselnde Aufgaben (z.B. durch Mitarbeit im Projekt parallel zur Linienaufgabe, Projektleitung, Arbeit im internationalen Projekt mit unterschiedlichen Kulturen usw.) müssen immer mehr Fach- und Führungskräfte schnell wechselnde oder parallel unterschiedliche Anforderungen erfüllen – bis hin zu teilweise gegensätzlichen Kommunikationsanforderungen je nach kultureller Erwartung.58 „This constant change in the capability of a manager to fulfill the requirements in his changing roles within the company’s organization successfully can be described as hybrid skills. That can extend from a several year long adjustment process to a new function in a constantly changing organizational structure within the company, up to the capability of constant changes between functional and extra-functional requirements, each role in different functions within one working day, for example:59
‚From a leadership role (in the morning as department head in dialog with co-workers, operational instructions etc.) to an expert role (for example be-
58 59
Meier (2004a), S. 217 f. Meier/Loewenbein (2003), S. 93.
566
Harald Meier fore lunch as a participant in a project group) and a moderator’s role ( for example in the afternoon as a leader of a workshop) and again back to a leadership role (for example in the evening an employee review discussion), or within a role, through different expectations, a change within requirement dimensions, for example a leader of an international project, who in a team working with different cultures has to adjust his communication style to culture-specific peculiarities: In an extreme case for example from a more introverted north-European to a more extroverted south-European culture, or from a more Calvinistic influenced hierarchy-free communications- and team structure in the Netherlands to a more Catholic influenced Spanish structure, where hierarchies are strongly emphasized.’”
Abbildung 9:
Anforderungen im internationalen Projektmanagement
Diese und ähnliche Beispiele wurden in Interviews mit Managern unter anderem von ABB, BMW, Bayer, IBM, KPMG, Siemens, Deutsche Telekom, UPM Kymene und WestLB in 2003 ermittelt. Dadurch müssen immer mehr Fach- und Führungskräfte heute gleichzeitig mehrere Funktionen und Projekte – oft im täglichen Wechsel – wahrnehmen, oft mit einem unterschiedlich gewichteten Anforderungsprofil im Verhältnis von Fach- zu Sozialkompetenzen). Unter der Überschrift How to be a good Director berichtet das Wall Street Journal: „Directors now are expected to play such a multiplicity of roles (…) says Robert Felton, a director of McKinsey&Co. in Seattle (…) No one has thought enough about how doable this is, especially for directors who have several big jobs and responsibilities.”60 Oder als reine Projektmanager müssen Sie in überfachlichen Zusammenhängen die jeweiligen verschiedenen Interessen der involvierten Un60
The Wall Street Journal, 27.11.2003.
Internationales Projektmanagement
567
ternehmensbereiche, Projektzulieferer und Projektkunden einbeziehen. Und im internationalen Projektmanagement zeigt sich diese hybride Dynamik im Anforderungsprofil ganz deutlich bis hin zu permanent situativ wechselnden Anforderungen: In der Begrüßung muss der Projektmanager von einer eher monochron orientierten direkten Kommunikation mit einem US-Amerikaner im nächsten Moment auf eine eher zurückhaltende und polychron orientierte Kommunikation mit einem Vietnamesen umschalten können. Gleiches gilt im längerfristigen Wechsel für internationale Fach- und Führungskräfte, z.B. die als Projektmitarbeiter oder Projektmanager für zwei bis drei Jahr als sogenannte Expatriates im Ausland leben. Sie müssen regelmäßig in eine andere Kultur eintauchen und in den interkulturellen Teams kommunizieren – oder wie es umgangssprachlich so schön heißt: Ein internationaler Projektmanager ist der Jack of all trades.
Literatur Binder, J. (2007): Global Project Management. Burlinghton 2007. Blom, H./Meier, H. (2004): Interkulturelles Management, 2. Aufl., Berlin 2004. Cleland, D.I./Gareis, R. (2006): Global Project Management Handbook. 2nd ed., New York 2006. Daft, R.L. (2006): Organization Theory and Design. 9th ed., Florence 2006. Deresky, H. (2008): Managing Across Borders and Cultures. Text and Cases. International Management, Video 1-5. 6th ed., Upper Saddle River 2008. Dinsmore, P.C./Benitez Codas, M.M. (2006): Cultural Challenges in Managing International Projects, in: Dinsmore, P.C./Cabanis-Brewin, J. (Hrsg.): AMA Handbook of Project Management, 2nd ed., New York 2006. Dowling, P./Kühlmann, T.M. (2004): Interkulturelles Personalmanagement, in: Gaugler, E./Oechsler, W.A./Weber, W. (Hrsg.): Handwörterbuch des Personalwesens HWP, 3. Aufl., Stuttgart 2004. Festing, M. Internationales Personalmanagement (2004), in: Gaugler, E./Oechsler, W.A./Weber, W. (Hrsg.): Handwörterbuch des Personalwesens HWP, 3. Aufl., Stuttgart 2004. Goldberg, C. (2008): East and West: Seeing the world through different lenses, in: International Herald Tribune, 06.03.2008. Grün, O. (1989): Projektmanagement, internationales, in: Macharzina, K./Welge, M.K. (Hrsg.): Handwörterbuch Export und internationale Unternehmung, Stuttgart 1989. Herrmann, D./Meier, C. (2001): Teamarbeit auf Distanz, in: Organisationsentwicklung, Heft 02/2001, S. 13-23. Hewlett Packard Deutschland (Hrsg.) (o.J.): Trainingsbroschur Projektmanagement, Böblingen o.J. Hofielen, G./Broome, J. (2000): Leading International Teams: A new Discipline?, in: Organisationsentwicklung, Heft 03/2000, S. 60-65.
568
Harald Meier
Keller, E. (1987): Kulturabhängigkeit von Führung, in: Kieser, A./Reber, G./Wunderer, R. (Hrsg.): Handwörterbuch der Führung, Stuttgart 1987. Leitner, W./Tuppinger, J. (2004): Wissenstransfer bei der virtuellen Teamarbeit, in: Engelhardt, C./Hall, K./Ortner, J. (Hrsg.): Prozeßwissen als Erfolgsfaktor, Wiesbaden 2004. LeMonde Diplomatique (Hrsg.) (2006): Atlas der Globalisierung, Paris 2006. Macharzina, K./Rief, A. (2004): Personalmanagement in multinationalen (internationalen) Unternehmen, in: Gaugler, E./Oechsler, W.A./Weber, W. (Hrsg.): Handwörterbuch des Personalwesens. 3. Aufl., Stuttgart 2004. Mead, R. (2000): Cases and Projects in International Management. Cross-cultural Dimensions, Oxford 2000. Meier, H./Loewenbein, O. (2003): Changing Roles in the Organization of Companies: Demographics and Project Management Demand Hybrid Sills, in: Organizaciju Vadyba Vol. 28, Litauen, S. 88-94. Meier, H. (2004a): Internationales Projektmanagement, Berlin 2004. Meier, H. (2004b): Führungskraft mit hybriden Anforderungsprofil gesucht, in: Personalwirtschaft, Heft 05/2004, S. 34-36. Meier, H. (2006a): Unternehmensführung, 3. Aufl., Berlin 2006. Meier, H. (2006b): In: REFA Nachrichten Zeitschrift für Industrial Engineering, Heft 01/2006, Seite 12-14. Meier, H. (2009): Internationales Business verstehen, Düsseldorf 2009. Mende, W./Bieta, V. (1997) Projektmanagement – Praktischer Leitfaden, München 1997. Mengel, T. (2006): Project Management Ethics: Responsibility, Values, and Ethics in Project Environment, in: Dinsmore, P.C./Cabanis-Brewin, J. (Hrsg.): The AMA Handbook of Project Management. 2nd ed., New York 2006. Meredith, J.R./Mantel jr., S.J. (2000): Project Management, 4th ed., New York 2000. Parker, M. (2004): Managing a multi-cultural project, in: Meier, H. (2004): Internationales Projektmanagement, Berlin 2004. Perlmutter, H.V. (1995): The tortuous evolution of the multinational corporation, in: Bartlett, C.A./Goshal, S. (eds.): Transnational Management. 2nd ed., Chicago 1995. Sattelberger, T. (1997): Vom Quantensprung zum Paradigmenwechsel, in: Personalführung, Heft 08/1997, S. 700-706. Steeger, O. (2002): Internationale Projektarbeit – noch kein Thema für die deutschen Projektmanager?, in: Projektmanagement, Heft 01/2002, S. 2. Westdeutsche Landesbank (Hrsg.) (2008): WestLB Geschäftsgrundsätze für Umwelt und Soziales. Fassung 2.3, Düsseldorf 08.08.2008.
Konsumentenverhalten und Vertriebspolitik
Das adaptive Entscheidungsverhalten der Konsumenten - nicht rational, aber zweckmäßig Gerold Behrens
1
Einleitung
Seit dem Altertum dominiert die Auffassung, dass der Mensch sich bei seinen Entscheidungen und Handlungen von Verstand und Vernunft leiten lassen solle. Emotionen, so wurde und wird vermutet, würden das vernünftige Denken stören. Häufig wird sogar ein Gegensatz zwischen Rationalität und Emotionalität hergestellt. Daher hat man sich bemüht, Entscheidungen rational zu gestalten und Entscheidungsmodelle entwickelt, in denen rationales Verhalten idealtypisch umgesetzt wird. Inzwischen ist aber deutlich geworden, dass diese Modelle als Muster für das Vorgehen bei Entscheidungen nicht gut geeignet sind. Zuerst waren es einzelne Kritiker, die auf die Diskrepanz zwischen der rationalen Entscheidungstheorie und dem realen Entscheidungsverhalten hingewiesen haben. Ab den 1950er Jahren wurde diese Beziehung systematisch untersucht und es wurde gezeigt, dass die Abweichungen vom rationalen Ideal nicht auf behebbare Störungen zurückzuführen sind, sondern einen zweckmäßigen Hintergrund haben. Herbert Simon hat deutlich gemacht, dass die menschliche Rationalität begrenzt ist (bounded rationality) und Menschen daher insbesondere bei komplexen Entscheidungen nicht im Sinne der rationalen Entscheidungstheorie arbeiten können. Kahneman und Tversky haben die Kritik vertieft und in zahlreichen Untersuchungen nachgewiesen, dass Entscheidungen durch Wahrnehmungsverzerrungen beeinflusst werden.1 Heute werden in der Entscheidungstheorie neue Wege beschritten, die von einem realistischeren Menschenbild ausgehen. Allerdings ist die Neuorientierung 1
Vgl. Kahneman (2003); vgl. Tetlock/Mellers (2002).
572
Gerold Behrens
nicht so radikal, wie häufig behauptet wird. Es werden zwar Grenzen der Rationalität berücksichtigt, aber der Einfluss der Emotionen wird noch immer unterschätzt und unbewusste Prozesse werden praktisch nicht beachtet. Dabei zeigt schon ein flüchtiger Blick auf die Evolution, dass der Mensch in erster Linie ein emotionales Wesen ist. Rationalität ist in der letzten Entwicklungsstufe entstanden. Die Kapazität der rationalen Informationsverarbeitung ist sehr gering und die damit verbundenen Prozesse sind unvollkommen. Der größte Teil der menschlichen Informationsverarbeitung läuft außerhalb des Bewusstseins ab und alle wahrgenommenen Informationen werden, bevor sie das Bewusstsein und die rationalen Denkprozesse erreichen, emotional eingefärbt. Dies wird im Alltagsverhalten der Konsumenten deutlich. Wer sich damit beschäftigt, verliert schnell den Glauben an der Rationalität der Konsumenten. Er beobachtet, wie sie mit Begeisterung kaufen, was nicht benötigt wird. Kleidung wird, wenn man den Gebrauchsnutzen betrachtet, meistens zu überhöhten Preisen gekauft. Bei solchen Abweichungen vom rationalen Verhalten handelt es sich meistens nicht um Nachlässigkeiten, sondern häufig um notwendige Vereinfachungen. Um das zu verstehen, muss man sich vergegenwärtigen, dass Kaufentscheidungen äußerst komplex sind, weil sie auf einer sehr unsicheren und unübersichtlichen Datenbasis beruhen. Der Käufer hat beispielsweise meistens zahlreiche Alternativen, die aber nicht direkt vergleichbar sind. Außerdem sind die Produktinformationen unvollständig und unsicher. Es ist weiterhin zu beachten, dass es nicht nur auf die objektiven Produktinformationen ankommt, sondern auch auf die subjektiven, z.B. auf persönliche Wertschätzungen und Anmutungsqualitäten. Diese Eigenschaften müssen bei Kaufentscheidungen nicht nur mit persönlichen Bedürfnissen und Budgetrestriktionen abgestimmt werden, sondern auch mit Reaktionen der sozialen Umwelt. Fehlende Informationen können zwar ergänzt werden - neben den traditionellen Informationsquellen ist das Internet eine nahezu unerschöpfliche Fundgrube -, aber die Informationssuche ist zeitaufwendig und es ist nicht ungewöhnlich, wenn die Verwirrung dadurch vergrößert wird. Mit Rationalität allein ist diese Komplexität nicht zu bewältigen. An Kaufentscheidungen ist daher neben der rationalen auch die emotionale Informationsverarbeitung beteiligt. In der Konsumentenforschung reduziert man die Komplexität der Kaufentscheidung durch Typologien. Katona2 hat schon Anfang der 1950er Jahre zwischen echten Kaufentscheidungen, die Überlegungen notwendig machen, und gewohnheitsmäßigen (habitualisierten) Kaufentscheidungen unterschieden. Die echten Kaufentscheidungen sind von Howard/Sheth3 weiter in extensive und limitierte Kaufentscheidungen unterteilt worden. Für extensive Kaufentschei2 3
Katona (1960). Howard/Sheth (1969).
Das adaptive Entscheidungsverhalten der Konsumenten
573
dungen ist ein weitgehend rationales Vorgehen kennzeichnend. Es werden Informationen gesucht und verglichen. Der kognitive Aufwand ist erheblich. Bei limitierten Kaufentscheidungen wird der kognitive Aufwand durch Heuristiken begrenzt. Weinberg4 hat diese Dreiteilung (extensive, limitierte und habitualisierte Kaufentscheidungen) durch die impulsiven Kaufentscheidungen ergänzt. Diese Einteilung ist bis heute ein Standard in den Lehrbüchern zum Konsumentenverhalten. Solche Typologien ordnen Kaufentscheidungen, beschreiben und erklären sie aber nicht. Dafür sind spezielle Untersuchungen notwendig, aber kaum vorhanden. Es überrascht auf den ersten Blick, dass man sich in der Konsumentenforschung mit einem so wichtigen Thema so wenig beschäftigt. Ein Grund dafür liegt in der falschen Fragestellung und Vorgehensweise. Die individuelle Kaufentscheidung lässt sich nicht auf einige Typen und schon gar nicht auf ein Modell reduzieren, weil sie adaptiv und situationsabhängig ist. Was bedeutet das und warum ist das so? Die Evolution hat den Menschen zu einem äußerst anpassungsfähigen Wesen gemacht. Komplexe determinierte Abläufe, wie wir sie bei Tieren noch haben, z.B. beim Kampf- und Suchverhalten, sind beim Menschen im Laufe der Evolution flexibilisiert worden. Mechanistische Bewegungsabläufe, die gleich aussehen, wie z.B. der Weitsprung eines gut trainierten Leichtathleten, sind nicht gleich. Jede Bewegung wird auf der Basis eines Schemas neu konstruiert und dabei an die Rahmenbedingungen der Situation angepasst, z.B. beim Weitspringer an die Windverhältnisse und die Beschaffenheit der Anlaufbahn. Entsprechendes gilt für Kaufentscheidungen. Sie werden flexibel an die jeweiligen Rahmenbedingungen angepasst, d.h., aus einem Reservoir mit stabilen Entscheidungsbausteinen (z.B. Regeln, Schemata, Handlungsabläufen, Indikatoren) wird jede einzelne Kaufentscheidung konstruiert und dabei an die gegebene Situation angepasst. In diesem Sinne ist jede Kaufentscheidung einzigartig. Daher wird hier von situationsabhängigen, adaptiven Kaufentscheidungen gesprochen. Das Ziel des vorliegenden Beitrages ist es, den Ansatz der adaptiven Kaufentscheidung zu erläutern und zu begründen. Es soll gezeigt werden, wie aus Entscheidungsbausteinen Kaufentscheidungen gebildet werden, die an die Rahmenbedingungen der Situation angepasst sind. Die Kaufentscheidung wird dabei nicht wie in der Entscheidungstheorie auf einer allgemeinen Ebene optimiert, sondern in Bezug auf die individuelle Kaufentscheidungssituation.
4
Weinberg (1981).
574 2
Gerold Behrens Theoretische Grundlagen
Die Grenzen der Rationalität sind erkannt worden, ihre Dominanz ist damit aber nicht gebrochen, weil die rationale Vorgehensweise weiterhin als eine überlegene Methode angesehen wird. Es wird auf die Erfolge verwiesen, die dadurch erzielt worden sind, z.B. bei der Gewinnung wissenschaftlicher Erkenntnisse und der Erlangung geistiger Freiheit. Jedoch folgt aus der Fähigkeiten zu rationalem Verhalten nicht, dass menschliches Verhalten tatsächlich rational ausgerichtet ist. Aus verhaltenswissenschaftlicher Sicht ist der Mensch eher ein emotionales als ein rationales Wesen. Auch Entscheidungen haben immer eine emotionale Basis. Das wird deutlich, wenn man Entscheidungen aus evolutionärer Sicht betrachtet und feststellt, dass Bewertungen die Hauptfunktion der Emotionen sind und Bewertungen ihre Wurzeln in einfachen Entscheidungen haben, die auch Tiere treffen und für die keine Rationalität notwendig ist, z.B. Entscheidungen darüber, ob eine Frucht verträglich ist oder giftig, eine Situation gefährlich ist oder nicht. Aus diesen einfachen Bewertungen hat sich zusammen mit der Emotionalität im Laufe der Evolution ein System der emotionalen Informationsverarbeitung entwickelt, das emotionale Bewertungen durchführt. Daher kommt es, dass die Entscheidung darüber, ob eine Situation gefährlich werden kann, beim Menschen meistens mit Emotionen verbunden ist, also eine emotionale Entscheidung ist. Viele Entscheidungen haben eine emotionale Komponente, aber die damit verbundenen Emotionen werden häufig nicht bewusst. Neben dieser emotionalen Bewertung im Rahmen der emotionalen Informationsverarbeitung gibt es noch ein weiteres Bewertungssystem für Entscheidungen: die kognitive Informationsverarbeitung, in deren Mittelpunkt das Bewusstsein mit der Rationalität steht. Welchen Beitrag leisten diese beiden Systeme der Informationsverarbeitung bei der Lösung von Entscheidungsproblemen? Zuerst werden sie getrennt beschrieben und dann ihr Zusammenwirken. Das System der emotionalen Informationsverarbeitung ist aus evolutionärer Sicht älter als das System der kognitiven Informationsverarbeitung. Es ist im limbischen System verankert (vgl. Abb. 1) und kann wahrgenommene Informationen außerhalb des Bewusstseins schnell bewerten. Kapazitätsprobleme gibt es praktisch nicht, Verzögerungen auch nicht. Noch eine andere Eigenschaft ist wichtig, die sich aus der evolutionären Entwicklung ergibt: Alle Informationen durchlaufen in einer frühen Phase der Wahrnehmung dieses System und werden bewertet. Das Grundprinzip der Bewertung ist einfach: Positive Werte werden für brauchbare Objekte und erfolgreiche Verhaltensweisen vergeben, negative für gefährliche Situationen und Verhaltensweisen, die Schaden angerichtet haben. Diese Bewertungen werden mit den Wahrnehmungsinhalten gespeichert. So
Das adaptive Entscheidungsverhalten der Konsumenten
575
wird im Laufe des Lebens ein großer Erfahrungsschatz in einem emotionalen Erfahrungsgedächtnis angesammelt. Bei Entscheidungen werden diese emotionalen Erfahrungen außerhalb des Bewusstseins ausgewertet. Es wird geprüft, ob es zu Vorstellungen, Bildern und Begriffen, die im Zusammenhang mit der Entscheidung angeregt werden, emotionale Erfahrungen gibt. Dominieren negative emotionale Erfahrungen, wird ein Warnsignal gegeben. Damasio5 spricht von einem somatischen Marker. Man kann auch von emotionaler Intelligenz sprechen. Es entsteht ohne eine rationale Begründung bei insgesamt negativen emotionalen Bewertungen von relevanten Erfahrungen spontan das Gefühl: Vorsicht, mach das nicht! Das Gefühl kann bewusst als Unbehagen wahrgenommen werden, aber auch verdeckt bleiben. Diese intuitiven Entscheidungen sind manchmal besser als rationale Entscheidungen, weil sie auf umfassenden Erfahrungen basieren, die ganzheitlich ausgewertet werden. Rationale Entscheidungen sind dagegen auf einen wohl definierten Bereich eingegrenzt und werden analytisch aufbereitet. Dabei können Zusammenhänge verloren gehen. Abbildung 1:
5
Bereiche der kognitiven und emotionalen Informationsverarbeitung
Damasio (1996).
576
Gerold Behrens
Das System der kognitiven Informationsverarbeitung mit dem Bewusstsein und der Rationalität ist aus evolutionärer Sicht jung. Träger ist der Cortex (Großhirnrinde) (vgl. Abb. 1). Während Bewertungen der emotionalen Informationsverarbeitung auf Erfahrungen beruhen, ist die kognitive Informationsverarbeitung mit den rationalen Denkprozessen in der Lage, vollkommen neue Situationen systematisch zu bewerten. Das beansprucht in der Regel viel Zeit und große Anteile der knappen Kapazität des Arbeitsgedächtnisses. Rationalität ist daher von der Natur für spezielle Entscheidungen vorgesehen, insbesondere für wichtige neue Entscheidungen und Entscheidungen mit vielen unbekannten Elementen. Einfache Entscheidungen werden normalerweise im Rahmen der emotionalen Informationsverarbeitung herbeigeführt. Es sind also zwei Systeme der Informationsverarbeitung mit unterschiedlichen, sich ergänzenden Leistungsprofilen an Entscheidungen beteiligt. Daraus ergibt sich die Frage, welches System wann entscheidet und wie das geregelt wird. Die Rationalität, also die kognitive Informationsverarbeitung, wird häufig willentlich eingesetzt, z.B. wenn ein Autokauf gründlich vorbereitet wird. Normalerweise wird aber unbewusst geregelt, ob rational oder emotional oder in einer Mischform zu entscheiden ist. Dabei wird berücksichtigt, dass sich im Laufe der Evolution eine Arbeitsteilung zwischen der emotionalen und der kognitiven Informationsverarbeitung entwickelt hat (vgl. das folgende Kapitel und Abb. 2). Meistens werden die Systeme nicht alternativ eingesetzt, sondern in einer Mischform. Einfache Probleme werden vorwiegend emotional entschieden, z.B. nach Präferenzen, bei komplizierten Problemen wird mit mehr Überlegungen gearbeitet, also mit größeren kognitiven Anteilen. Die Koordination der rationalen und emotionalen Prozesse zur Entscheidungsfindung erfolgt im lateral präfrontalen und orbitofrontalen Cortex (vgl. Abb. 1). Dieser Bereich ist dafür besonders geeignet, weil hier Signale aus allen Bereichen des Gehirns eingehen, also Informationen aus der Innen- und Außenwelt. Nach der Verarbeitung der Informationen können Signale zu den Organen weitergeleitet werden und dort bestimmte Reaktionen auslösen. Im oberen Bereich vom frontalen Cortex, dem lateralen präfrontalen Cortex, ist das Arbeitsgedächtnis, das in der Lage ist, Informationen für Entscheidungen rational zu verarbeiten, im unteren Bereich, dem orbitofrontalen Cortex, werden außerhalb des Bewusstseins emotionale Informationen für Entscheidungen aufbereitet. Im folgenden Kapitel soll näher erläutert werden, wie die Arbeitsteilung zwischen der rationalen und emotionalen Informationsverarbeitung bei Entscheidungen erfolgt und welche Probleme dabei entstehen.
Das adaptive Entscheidungsverhalten der Konsumenten 3
577
Adaptive Kaufentscheidungen
3.1 Prozesse der kognitiven Entlastung von Entscheidungen Die Arbeitsteilung zwischen der emotionalen und kognitiven Informationsverarbeitung ergibt sich aus einer Eigenschaft der evolutionären Entwicklung: Kennzeichnend dafür ist, dass alte Systeme nicht einfach ersetzt, sondern durch neue Systeme ergänzt werden. Der Cortex mit der kognitiven Informationsverarbeitung hat daher die ältere emotive Informationsverarbeitung nicht ersetzt, sondern ergänzt, also ein eigenständiges Leistungsprofil entwickelt (vgl. Abb. 2). Jedes Informationsverarbeitungssystem löst die Aufgaben, die es am besten lösen kann. Das ist vernünftig, aber die Arbeitsteilung wird nicht durch Vernunft geregelt, sondern unbewusst. Wie kann man sich das vorstellen? Wenn man sich die Leistungsprofile und Arbeitsschwerpunkte anschaut, wird deutlich, dass zunächst eine Tendenz zur Verwendung der kognitiven Informationsverarbeitung bei Entscheidungen besteht, denn die meisten Entscheidungen sind unsicher, weil die notwendigen Informationen nicht vorhanden oder problematisch sind. Das führt zu einem Kapazitätsproblem, denn im Gegensatz zur emotionalen Informationsverarbeitung ist die Kapazität der kognitiven Informationsverarbeitung klein. Daher gibt es für die bewussten Denkprozesse der kognitiven Informationsverarbeitung einen Überlastungsschutz. Bei Überlastung, aber auch bei einfachen und nicht so wichtigen Aufgaben, wird die emotionale Informationsverarbeitung automatisch zugeschaltet oder eingeschaltet. Der Überlastungsschutz muss so angelegt sein, dass bei einer Überlastung vorrangig die wichtigen und neuen Aufgaben mit bewussten Überlegungen bearbeitet werden. In Laufe der Evolution haben sich Mechanismen entwickelt, die dies zwar nicht perfekt, aber mit einer bemerkenswerten Effektivität regeln. Am einfachsten lässt sich die bewusste kognitive Informationsverarbeitung vor Überlastungen schützen, wenn der Zugang zur begrenzten Kapazität kontrolliert wird. Dies wird durch die Aufmerksamkeit erreicht, die eine wichtige inhaltliche Selektionsfunktion erfüllt. Sie kann durch den Willen gesteuert werden, z.B. können für Kaufentscheidungen gezielt Produktinformationen gesucht werden. Auf diese Weise gelangen ausgewählte Informationen in das Bewusstsein und werden dort bearbeitet. Einige Informationen gelangen aber unwillkürlich, also quasi automatisch in das Bewusstsein. Das sind vor allem Hinweise auf neue, unerwartete und besonders komplexe Gegebenheiten,6 die näher untersucht werde müssen. Diese Auswahl von Informationen, die automatisch ins Bewusstsein gelangen, ist sinnvoll, denn dadurch erhält das System der kognitiven In6
Vgl. Roth (2008), S. 77.
578
Gerold Behrens
formationsverarbeitung solche Aufgaben, die es besonders gut lösen kann, z.B. neue Entscheidungen und Entscheidungen mit einer schlechten Informationsbasis. Solche biologischen Schutzmechanismen werden intuitiv durch Praktiker und systematisch durch Verhaltensforscher instrumentalisiert. Die Werbung arbeitet beispielsweise bevorzugt mit Kreativität, Überraschungen und Abweichungen von der Norm, also mit Informationen, die unwillkürlich in das Bewusstsein gelangen. So werden Werbebotschaften in das Bewusstsein geschleust. Abbildung 2:
Kennzeichnungen der emotionalen und kognitiven Informationsverarbeitung Leistungsprofil Emotionale Informationsverarbeitung x qualifizierende Bewertung x ganzheitliche Bewertung x Bewertung einfach und meistens schnell
Kognitive Informationsverarbeitung x quantifizierende Bewertung x analysierend x Bewertung differenziert, aber meistens langsam
Arbeitsteilung Emotionale Informationsverarbeitung
Kognitive Informationsverarbeitung
x Entscheidungen unter Zeitdruck und Stress x Entscheidung in Situationen der Orientierungslosigkeit x Entscheidungen, die unproblematisch und nicht so wichtig sind
x Bewältigung von Situationen, die neu oder subjektiv wichtig sind x Unsichere Entscheidungen mit Risiken und vielen unbestimmten Elementen, die aber eine gewisse Bedeutung haben
Das Bewusstsein wird auch entlastet, weil der Mensch auf den aktuellen Augenblick fixiert ist. Er bevorzugt, was er gerade hat und sieht, möchte den schnellen Genuss und wird daher besonders stark durch die zuletzt gehörten Argumente
Das adaptive Entscheidungsverhalten der Konsumenten
579
und Ereignisse beeinflusst.7 Diese durch zeitliche Eingrenzung erzielte inhaltliche Selektion ist aus der Sicht früher evolutionärer Entwicklungsphasen sinnvoll, denn in der Regel haben aktuelle Probleme und Informationen eine vorrangige Bedeutung. Im heutigen Wirtschaftsleben, also aus der Sicht einer späten evolutionären Entwicklungsphase, ist diese zeitliche Eingrenzung aber problematisch. Hierzu zwei Beispiele:
In Experimenten zum Umgang mit Geld wurde gezeigt, dass – bei spontaner Beurteilung – irrationale Abschläge akzeptiert werden, wenn Geld sofort ausgezahlt wird und nicht erst zu einem späteren Zeitpunkt. Beim Kauf werden später anfallende Kosten teilweise ausgeblendet. Der billige Drucker wird gekauft und es wird dabei nicht beachtet, dass er über die gesamte Nutzungszeit durch die Folgekosten (Druckerpatronen) teurer ist als der Drucker mit dem höheren Anschaffungspreis, der aber niedrigere Folgekosten hat.
Eine besonders wirkungsvolle Entlastung des Bewusstseins wird erreicht, weil bewusste Entscheidungen und Handlungen bei Wiederholungen von der bewussten in die unbewusste Informationsverarbeitung verlagert werden. Diesen Prozess kennen wir von Übungen. Autofahren ist für Anfänger beispielsweise eine geistig anstrengende Angelegenheit, die eine hohe Aufmerksamkeit erfordert und das Bewusstsein stark beansprucht. Durch häufiges Fahren verringert sich die Anstrengung. Das Bewusstsein wird entlastet, weil immer größere Teile der Informationsverarbeitung, die für das Steuern eines Autos notwendig sind, vom Bewusstsein in die unbewusste Informationsverarbeitung verlagert werden. Daher empfinden viele erfahrene Autofahrer das Autofahren nicht als anstrengend, sondern als eine Entspannung. Das Bewusstsein wird bei ihnen nur in Ausnahmefällen stark beansprucht, vor allem in neuen und unübersichtlichen Situationen.
3.2 Entscheidungsbausteine Die verbreitete Typologie der Kaufentscheidungen (extensive, limitierte und habitualisierte Kaufentscheidungen) ist unabhängig von den neurowissenschaftlichen Erkenntnissen über kognitive Entlastungen entwickelt worden, aber sie steht damit in Einklang und erhält dadurch eine theoretische Fundierung. Kaufentscheidungstypen unterscheiden sich durch Ausmaß und Form der kognitiven 7
Vgl. Heuser (2008), S.134.
580
Gerold Behrens
Entlastung. Habitualisierte Kaufentscheidungen werden durch Verlagerungen kognitiv entlastet, d.h. durch Wiederholungskäufe wird die bewusste Kaufentscheidungen automatisch in den Bereich der unbewussten Informationsverarbeitung verlagert und so zu einem habitualisierten Kauf. Die extensive Kaufentscheidung verwirklicht im Idealfall hohe Ansprüche an die Rationalität, arbeitet also mit einer hohen kognitiven Belastung. Limitierte Kaufentscheidungen werden durch emotionale Bewertungen und Vereinfachungen bei kognitiven Prozessen entlastet. Der Begriff „limitiert“ zeigt an, dass für die Kaufentscheidung nur begrenzte Ressourcen für Denkprozesse genutzt werden. In den letzten Jahren wird anstelle von „limitierte Kaufentscheidung“ häufig der Begriff „heuristische Kaufentscheidung“ verwendet. Die Kennzeichnung „heuristisch“ verweist auf vereinfachende Verfahren, bei denen kleine Ungenauigkeiten toleriert werden. Aus wissenschaftlicher Sicht hören sich diese Hinweise auf Begrenzungen, Ungenauigkeiten und Vereinfachungen bei Kaufentscheidungen nicht gut an. Diese negative Wahrnehmung führt aber in die Irre. Es wird übersehen, dass heuristische bzw. limitierte Kaufentscheidungen eine breitere Informationsbasis haben und mehr Prozesse der Informationsverarbeitung umfassen als extensive Kaufentscheidungen, denn sie greifen sowohl auf rationale Prozesse zurück, die Informationen besonders präzise und systematisch verarbeiten, als auch auf die emotionale Informationsverarbeitung, die ganzheitlich-intuitiv ist und komplexe Zusammenhänge sehr schnell bewertet. Das breite Leistungsspektrum der kognitiven und emotionalen Informationsverarbeitung liefert Lösungen für alle möglichen Kaufentscheidungsprobleme. Die Lösungen müssen nicht jedes Mal vollkommen neu entwickelt werden. Es gibt Entscheidungsbausteine für extensive und heuristische Kaufentscheidungen, die sich durch Erfahrungen gebildet haben, vor allem durch implizites Lernen. Diese Bausteine werden bei Kaufentscheidungen einzeln oder in Zusammensetzungen verwendet. Auf diese Weise entstehen zahlreiche Kaufentscheidungsformen, die hier in drei Klassen eingeteilt werden.
3.2.1 Kaufentscheidungen auf der Basis von Einzelwerten Häufig bestimmen einzelne Kriterien die Kaufentscheidung. Das können präzise, aber auch vage Kriterien sein. Der Kaufpreis ist ein präzises Kriterium, das oft als Entscheidungskriterium genommen wird, z.B. bei Produkten mit homogener Qualität. In diesem Fall ist die Auswahl nach dem Preis auch aus rationalen Gründen angebracht, aber nicht nur in diesem Fall. Ganz generell hat in vielen Produktkategorien die Tendenz zu Niedrigpreisprodukten einen rationalen Hin-
Das adaptive Entscheidungsverhalten der Konsumenten
581
tergrund, denn durch den Wettbewerb sind viele Produkte qualitativ austauschbar geworden. Das spricht für Produkte mit einem niedrigen Preis. Diese Tendenz zur Verwendung des Preises als Entscheidungskriterium wird durch die intensive Preiswerbung gefördert. Im Gegensatz zum Preis ist das Bauchgefühl ein vages Kriterium. Die Entscheidung nach dem Bauchgefühl wird auch intuitive Entscheidung genannt. Es ist eine emotionale Entscheidung, die sich in bewussten Gefühlen äußern kann („Kribbeln im Bauch“), aber nicht muss. Sie basiert auf emotionalen Erfahrungen, ist also durchaus fundiert. (Vgl. hierzu die Ausführungen in Kap. 2 über die emotionale Informationsverarbeitung.) Eine solche Entscheidung ist typisch für Spontankäufe. Der Konsument sieht ein Produkt und es gefällt ihm augenblicklich. Dies kann zu einem Spontankauf führen. Bauchentscheidungen können aber auch am Ende intensiver Überlegungen erfolgen. Nicht selten führen ausführliche Recherchen über Produktalternativen zu einer Indifferenz: Einige geeignete Produkte unterscheiden sich zwar, aber kein Produkt hebt sich beim Abwägen von Vor- und Nachteilen deutlich ab. In einer solchen Situation gibt dann häufig das Bauchgefühl den Ausschlag und es spricht viel dafür, dass dies eine durchaus gute Entscheidung ist. Ein anderes Entscheidungskriterium ist die Wiedererkennungsstärke. Wenn mehrere Produkte zur Auswahl stehen, wird häufig dasjenige genommen, das am schnellsten und besten wiedererkannt wird. In Untersuchungen ist gezeigt worden,8 dass dies eine gute Entscheidung ist, wenn sich die Wiedererkennungsstärken der Alternativen deutlich unterscheiden, denn schnelles Wiedererkennen entsteht durch wiederholte Kontakte und es sind vor allem die wichtigen und bevorzugten Objekte, mit denen man sich wiederholt beschäftigt. Wiedererkennen ist eine lebenswichtige Funktion, die daher im Laufe der Evolution besonders gut ausgebildet worden ist. Das äußert sich darin, dass wir beim Wiedererkennen von Bildern, Gesichtern, Objekten, Stimmen usw. äußerst leistungsfähig sind und das Wiedererkennungsgedächtnis besonders gut geschützt ist. Es ist häufig noch intakt, wenn andere Gedächtnisarten schon beeinträchtigt sind.
3.2.2 Kaufentscheidungen auf der Basis von heuristischen Strategien Schon in den 1970er und 1980er Jahren hat man sich in der Konsumentenforschung intensiv mit heuristischen Strategien bei Kaufentscheidungen beschäftigt (z. B. Bettman, Bleicker, Schulte-Frankenfeld)9. In den 1990er Jahren ist dieses Thema unter einer umfassenderen und positiveren Perspektive wieder aufgegrif8 9
Vgl. Gigerenzer (2007), S. 119 ff. Vgl. Bettman (1979), S. 176 ff.; vgl. Bleicker (1983); vgl. Schulte-Frankenfeld (1985).
582
Gerold Behrens
fen worden (z.B. Kurz-Milke/Gigerenzer und Todd)10. In den neueren Untersuchungen geht es nicht nur um Kaufentscheidungen, sondern ganz allgemein um heuristische Entscheidungen. Dabei werden die Prozesse der emotionalen Informationsverarbeitung systematisch berücksichtigt und gewinnen an Bedeutung. Heuristiken enthalten Lösungen mit begrenztem Gültigkeitsbereich für Aufgabenstellungen, keine Universallösungen. Das hat Vorteile. Die Ausgangsdaten können bei der Entwicklung von Heuristiken reduziert und die Lösungswege ohne Qualitätsverlust verkürzt werden. Bei heuristischen Kaufentscheidungen kommt hinzu, dass es nicht um konstruierte Heuristiken geht, sondern um Problemlösungen, die sich beim Konsumenten vor allem durch implizites Lernen entwickelt haben. Sie beziehen sich nicht auf die reale Umwelt mit dem unüberschaubaren Produktangebot, sondern auf die vereinfachte subjektive Realität der Konsumenten mit einer eng begrenzten Anzahl von relevanten Marken („Consideration Set“ genannt)11. In diesen Heuristiken wird auch das persönliche Anspruchsniveau berücksichtigt und persönliche Erfahrungen, z.B. das Wissen, dass die objektiven Unterschiede zwischen den Produkten nicht sehr groß sind. Es sind zahlreiche Kaufentscheidungs-Heuristiken identifiziert worden. Das Prinzip soll am Beispiel der lexikografischen Regel erläutert werden: Entscheidungskriterium sind in dieser Regel Produkteigenschaften. Der Konsument geht von der für ihn wichtigsten Produkteigenschaft aus und vergleicht Marken, die infrage kommen und verfügbar sind, auf dieser Dimension. Das kann beispielsweise der Preis sein, aber auch das Aussehen oder ein Leistungsmerkmal. Hebt sich eine Marke ab, wird sie ausgewählt und das Entscheidungsverfahren ist nach kurzer Zeit abgeschlossen. Sind mehrere Marken auf der wichtigsten Dimension so gut wie gleichwertig, werden sie auf der zweitwichtigsten Eigenschaftsdimension verglichen. Dieser Vergleichsprozess wird fortgesetzt, bis eine Marke übrig bleibt. Das können theoretisch viele Vergleiche sein, aber praktisch ist das Verfahren meistens nach höchstens drei Vergleichen beendet. Dieses Auswahlverfahren wird in der Regel nicht streng bewusst kontrolliert, sondern läuft eher beiläufig ohne große Belastung der kognitiven Informationsverarbeitung ab. Es wird durch emotionale Werte beeinflusst, z.B. bei der Eingrenzung der relevanten Produkte und der Bestimmung der wichtigsten Produkteigenschaften, greift aber auch auf kognitive Prozesse zurück, beispielsweise bei den Vergleichen.
10 11
Vgl. Kurz-Milke/Gigerenzer (2007); vgl. Todd (1999). Vgl. Trommsdorff (2002), S. 96.
Das adaptive Entscheidungsverhalten der Konsumenten
583
3.2.3 Kaufentscheidungen auf der Basis von Entscheidungsfolgen Subjektiv wichtige, vor allem kostspielige Kaufentscheidungen, die nicht unter Zeitdruck stehen, erfolgen meistens in mehreren Phasen, die sich teilweise überlappen. In der Regel beginnt der Konsument mit einer Informationssuche. Er wird seine Produktkenntnisse auf den neuesten Stand bringen und nachsehen, ob es zu den bekannten Alternativen weitere gibt, die relevant sein könnten. Diese Phase geht in die Entscheidungsphasen über, ist damit aber nicht beendet. Parallel zur Auswahlentscheidung können weitere Informationen eingeholt und ausgewertet werden. Die Entscheidung erfolgt meistens nicht durch eine, sondern durch verschiedene Entscheidungsheuristiken in mehreren Phasen. Möglicherweise wird die Anzahl der Alternativen zunächst durch eine grobe Heuristik eingegrenzt. Häufig werden alle Produkte eliminiert, die bestimmte Mindestwerte nicht einhalten, beispielsweise zu teuer sind oder bestimmte Leistungsdaten nicht erreichen. Dieses Vorgehen wird „konjunktive Heuristik“ genannt. In der zweiten Entscheidungsphase kann dann nach der lexikografischen Regel ein Produkt ausgewählt werden (vgl. hierzu die vorhergehenden Ausführungen über heuristische Strategien). Wenn dann - was nur selten vorkommt keine Entscheidung möglich ist, werden in der nächsten Phase Entscheidungsheuristiken herangezogen, die stärker differenzieren. Das sind Bewertungsansätze mit hohen kognitiven Anteilen. Beispielsweise könnten die wichtigsten Eigenschaften der Produkte systematisch verglichen und durch Punkte bewertet werden. Auf dieser Basis wird dann eine Rangfolge aufgestellt, die eine eindeutige Entscheidung ermöglicht.
3.3 Situative Anpassung von Entscheidungen Aus den Entscheidungsbausteinen wird im Gehirn eine Kaufentscheidungsform entwickelt, die gut an die Bedingungen der jeweiligen Situation angepasst ist. Diese Entwicklung und Anpassung vollzieht sich weitgehend automatisch außerhalb des Bewusstseins. Es ist nicht genau bekannt, wie sie abläuft und durch welche Faktoren sie gesteuert wird, aber erste Vorstellungen sind vorhanden. Man weiß beispielsweise, dass in Stresssituationen Entscheidungen verstärkt unbewusst und emotional erfolgen. Das ist zweckmäßig, weil es unter diesen Rahmenbedingungen häufig keine Zeit für abwägende Überlegungen gibt. Die Zeit gehört daher sicherlich zu den Faktoren, die Einfluss darauf haben, welche Kaufentscheidungsform für die jeweiligen Kaufsituation im Gehirn aus den Entscheidungsbausteinen entwickelt wird. Neben diesem Umweltfaktor müssen aber auch Eigenschaften der Person berücksichtigt werden, die kauft und deren Ent-
584
Gerold Behrens
scheidungsverhalten an die Kaufsituation angepasst wird, denn Personen mit vielen Erfahrungen und Involvement entscheiden anders als uninteressierte Personen mit geringen Produktkenntnissen. Diese drei Faktoren (Zeit, Erfahrung und Involvement), die die Entwicklung von Kaufentscheidungsformen beeinflussen und die Anpassung an die jeweilige Situation steuern, sollen jetzt näher erläutert werden. Zeit: Der Zeitdruck hat – wie schon erwähnt – einen erheblichen Einfluss auf das Entscheidungsverhalten. Ohne Zeitdruck kann sorgfältig überlegt werden, mit Zeitdruck ist eine schnelle Entscheidung notwendig. Er kann objektiv sein, z.B. durch Termine entstehen. Zeitdruck kann aber auch eine bloße subjektive Wahrnehmung sein. Dies äußert sich beispielsweise darin, dass sich Konsumenten gehetzt und unter Zeitdruck fühlen, obgleich es dafür keine objektiven Gründe gibt. Aus neurowissenschaftlicher Sicht ist die subjektiv wahrgenommene Zeitnot eine Überlastung des Gehirns, vor allem des präfrontalen Cortex, der den Arbeitsspeicher enthält. Die Überlastung entsteht durch ein erhöhtes Informations- und Unterhaltungsangebot. Dies führt zu dem Gefühl, ständig unter Druck zu stehen, obgleich durch kürzere Arbeitszeiten, arbeitssparende Maschinen und eine längere Lebenszeit mehr Zeit zur Verfügung steht. Erfahrungen: Erfahrungen sind eine Ansammlung von Kenntnissen und Verhaltensweisen, die unmittelbar durch die tägliche Umweltwahrnehmung und Kommunikation über die Sinne erworben werden. Sie werden gelernt; es ist aber nicht das absichtliche (explizite) Lernen, das aus der Schule bekannt ist, sondern ein beiläufiges (implizites) Lernen. Im Gegensatz zu dem in Schule und Studium gelernten Wissen sind Erfahrungen emotional durchsetzt, d.h., sie sind mit Erfolgen und Belohnungen, aber auch mit Fehlschlägen und Sanktionen assoziativ verbunden. Inhaltlich geht es bei den Erfahrungen weniger um Fakten (vgl. Stephan 2006), sondern mehr um Werte, Regeln und Verhaltensweisen, die einen weitreichenden Einfluss auf das gewöhnliche Verhalten und Denken im Alltag haben. Erfahrungen in der Konsumwelt schlagen sich vor allem in impliziten Bewertungen und Heuristiken nieder. Involvement: Dieses Konstrukt kann auf mehrere psychische Funktionen bezogen werden, die in ihren Wirkungen miteinander korrelieren, z.B. Aktivierung, Motivation, Aufmerksamkeit und Interesse. Es beschreibt die Gesamtheit der inneren Beziehungen eines Individuums zu einem Objekt, z.B. zu einem Produkt, einer Person oder zu Medien. Einerseits kann diese Beziehung auf einem hohen Interesse mit aufmerksamer Wahrnehmung und innerer Beteiligung beruhen, andererseits aber auch auf teilnahmsloser Gleichgültigkeit. Das eine Extrem wird in der Fachsprache „High-Involvement“ genannt, das andere „LowInvolvement“. Die Vernetzung mit verschiedenen psychischen Funktionen macht das Involvement zu einem komplexen Konstrukt mit zahlreichen Einflussfakto-
Das adaptive Entscheidungsverhalten der Konsumenten
585
ren und Wirkungen. Es hängt von persönlichen Eigenschaften (Interessen, Kenntnissen, Werten usw.) ab, aber auch von Eigenschaften der Objekte, zu denen eine Beziehung hergestellt wird. Fernsehen ist beispielsweise ein LowInvolvement-Medium, Zeitschriften werden mit höherem Involvement gelesen. Durch Involvement werden praktisch alle psychischen Wirkungsbereiche beeinflusst. Hohes Involvement regt beispielsweise die Informationssuche an (kognitive Prozesse), kann aber auch emotionalisieren und Bewegungsabläufe beeinflussen. Diese drei Faktoren (Zeit, Erfahrung und Involvement) beeinflussen die Entwicklung von Kaufentscheidungsformen aus Entscheidungsbausteinen im Gehirn so, dass eine gute Anpassung an die Rahmenbedingungen der jeweiligen Kaufentscheidungssituation erfolgt. Dies sind nicht die einzigen Einflussfaktoren, aber sie genügen, um die Beziehungen zwischen adaptiven Kaufentscheidungsformen und Kaufsituationen zu verdeutlichen. In Abb. 3 werden Kaufsituationen durch die beschriebenen drei Faktoren mit jeweils zwei Ausprägungen differenziert. Es entstehen acht Kaufsituationen mit angepassten Kaufentscheidungsformen. Hierzu kurze Erläuterungen. Abbildung 3:
Adaptive Kaufentscheidungsformen
Viel Erfahrung Zeitdruck
High 1 Involvement wissensbasiert Low 2 Involvement Gewohnheit
Kein Zeitdruck
Wenig Erfahrung Zeitdruck
Kein Zeitdruck
3
5
7
extensiv
heuristisch
extensiv
4
6
8
Gewohnheit
heuristisch
heuristisch
Der Zeitdruck hat einen stark prägenden Einfluss auf das Entscheidungsverhalten. Wenn wenig Zeit zur Verfügung steht, können Konsumenten nur wenig überlegen und Informationen suchen. Extensive Kaufentscheidungen sind unter diesen Rahmenbedingungen nicht möglich. Bei Entscheidungen unter Zeitdruck muss unterschieden werden, ob Erfahrungen vorliegen oder nicht. Wenn der Konsument Erfahrungen mit der Produktart hat, ist der Zeitdruck kein großes Problem, denn er weiß dann, was er will und kauft das Produkt, mit dem er gute Erfahrungen gemacht hat. Falls es nicht verfügbar ist, kennt er geeignete Alternativen. Insbesondere wenn es um wichtige Produkte geht (High-InvolvementEntscheidung, Typ 1) weicht der erfahrene Käufer nicht so schnell von seinen präferierten Produkten ab. Wenn es um Produkte geht, die nicht so wichtig sind
586
Gerold Behrens
(Low-Involvement-Entscheidung, Typ 2), wird der Gewohnheit gefolgt. Ist das normalerweise gekaufte Produkt nicht verfügbar, wird unter diesen Rahmenbedingungen häufig ein anderes Produkt gekauft, das durch Aussehen und gute Eigenschaften auffällt. Schwieriger ist es, wenn unter Zeitdruck Produkte gekauft werden sollen, mit denen Käufer nur wenig Erfahrung haben. Geht es dabei um nicht so wichtige Produkte (Low-Involvement-Entscheidung, Typ 6), werden einfache Entscheidungsheuristiken eingesetzt, z.B. wird das Produkt gewählt, das spontan am besten gefällt (Bauchentscheidung). Wenn es um wichtige Produkte geht (HightInvolvement-Entscheidung, Typ 5), wird die zur Verfügung stehende Zeit für eine möglichst sorgfältige Entscheidung genutzt. Bei hohem Zeitdruck sind die Käufer jedoch gezwungen, einfache Entscheidungsheuristiken zu verwenden, z.B. die Produktbekanntheit. Wenn etwas mehr Zeit zur Verfügung steht, kann auch die lexikografische Heuristik in einer eingeschränkter Form eingesetzt werden; beispielsweise indem zwei relevante Produkte, die gerade verfügbar sind, auf den beiden wichtigsten Eigenschaftsdimensionen verglichen werden. Wenn kein Zeitdruck vorhanden ist, sind verschiedene Formen extensiver Kaufentscheidungen möglich. Das wird aber nur bei Produkten gemacht, die subjektive Bedeutung haben (Hich-Involvement-Entscheidung, Typ 3 und 7). Bei nicht so wichtigen Entscheidungen (Low-Involvement-Entscheidungen, Typ 4 und 8) wird gewohnheitsmäßig gekauft oder es werden einfache Heuristiken eingesetzt, z.B. eine Entscheidung nach dem Preis oder es wird eine bekannte Marke ausgewählt. Allerdings sind unter diesen Rahmenbedingungen auch Änderungen von Gewohnheiten möglich. Wenn Anstöße von außen (z.B. eine attraktive Neuerung) oder von innen (z.B. der Wunsch, einmal etwas anderes zu probieren) kommen, kann die zur Verfügung stehende Zeit genutzt werden, alternative Produkte anzusehen und bei Gefallen auszuprobieren. Die Ausführungen zeigen, dass in dem vorgestellten Raster den verschiedenen Kaufentscheidungssituationen keine eindeutige Kaufentscheidungsform zugeordnet werden kann. Diese Unbestimmtheit wird verringert, wenn weitere Differenzierungsfaktoren eingeführt werden, z.B. Persönlichkeitsfaktoren. Vollkommene Bestimmtheit wird aber auch bei sehr feiner Differenzierung nicht erreicht, denn der Mensch ist in seinen Entscheidungen nicht vollkommen berechenbar.
4
Die übersehene Erklärungsvariable: Anpassung
„Vergessen Sie also, was Sie über Ökonomie zu wissen glaubten. Denn die Ökonomen vergessen gerade, was sie über Sie zu wissen glaubten. Beziehungsweise
Das adaptive Entscheidungsverhalten der Konsumenten
587
über ihr ureigenes Beobachtungsobjekt, den Menschen. Ein Jahrhundert lang war das Bild vom rationalen Menschen das Fundament ihres Denkens. Nun reißen die Forscher dieses glatte Fundament ein und bauen sich ein neues.“12 Es ist geradezu eine Mode geworden, die Überbetonung der Rationalität zu kritisieren. Das muss nicht so euphorisch sein wie bei dem zitierten Wirtschaftsjournalisten. Es gibt viele distanziertere Beurteilungen und mehrere Sachbücher von renommierten Wissenschaftlern13 mit gut fundierten Untersuchungen zu Abweichungen des realen Konsumentenverhaltens von den Verhaltensaussagen rationaler Modelle zum Konsumentenverhalten. Ein wichtiger Grund für diese Abweichungen wird in der Wissenschaft selten thematisiert: Im Streben nach allgemeinen, zeitunabhängigen Gesetzmäßigkeiten wird nicht beachtet, dass es nur wenige Konstante im menschlichen Leben und Verhalten gibt. Der Mensch ist auf Anpassungen an Rahmenbedingungen ausgerichtet. Sein Verhalten ist eine Variable der Zeit. Dies gilt sowohl für große als auch für kleine Zeitfenster. Aus der Perspektive langfristiger Entwicklungen haben sowohl die Evolution als auch gesellschaftliche, technische und kulturelle Umbrüche das Konsumentenverhalten durch Anpassungsprozesse an die Umwelt geprägt. Kurzfristig führen sozioökonomische Veränderungen, z.B. Konjunktureinbrüche, zu Verhaltensanpassungen. Die Nichtbeachtung solcher Anpassungen führt zu irreführenden Interpretationen von Verhaltensweisen. In den Wirtschaftszeitschriften findet man beispielsweise häufig Artikel über neue Ausrichtungen des Konsumentenverhaltens. Da gibt es Zeiten, in denen die Schnäppchenjäger auffallen. Das wird dann gern als Wende zum preisbewussten Verhalten interpretiert. Zur Zeit liest man im Zusammenhang mit der Finanzkrise: „Die Krise verändert das Konsumentenverhalten fundamental.“[...]„Statt immer weiter in Richtung Selbstverwirklichung, Hedonismus und Abkopplung von traditionellen Bindungen bewegen sich die Deutschen derzeit eher wieder in die entgegensetzte Richtung – zurück zu traditionellen Einstellungen, Lebensweisen und Konsumwünschen. Verlässlichkeit und Sicherheit stehen wieder hoch im Kurs.“14 Es soll nicht bezweifelt werden, dass empirische Untersuchungen solche Auswirkungen der Finanzkrise auf das Konsumentenverhalten belegen. Aber empirische Erhebungen zu grundlegenden Werten im Konsumentenverhalten, die heute richtig sind, können in zwei Jahren falsch sein. Dafür gibt es eine einfache Erklärung: Der Konsument passt sich den jeweiligen sozioökonomischen Rahmenbedingungen an. In Zeiten mit realen Einkommensverlusten erhöht sich beispielsweise die Preissensibilität, in Krisenzeiten gewinnen solide Produkte 12 13 14
Heuser (2008), S. 9. Z. B. Ariely (2008), Gigerenzer (2007). Rickens (2009), S. 94.
588
Gerold Behrens
und traditionelle Werte an Bedeutung. Das sind Anpassungen, keine allgemeinen Aussagen über das Konsumentenverhalten, mit denen langfristig gearbeitet werden kann. Das Marketing ist schlecht beraten, wenn es solche kurzfristigen Anpassungen für langfristige Strategien nimmt. Es muss darauf auch adaptiv reagieren.
Literatur Bettman, J.R. (1979): An Information Processing Theory of Consumer Choice. Reading, MA 1979. Bleicker, U. (1983): Produktbeurteilung der Konsumenten, Würzburg 1983. Damasio, A.R. (1996): Descartes’ Irrtum. Fühlen, Denken und das menschliche Gehirn, München 1996. (Originalausgabe: Descartes’ Error. Emotion, Reason and the Human Brain, New York 1994.) Gigerenzer, G. (2007): Bauchentscheidungen. Die Intelligenz des Unbewussten und die Macht der Intuition, München 2007. Heuser, U.J. (2008): Humanomics. Die Entdeckung des Menschen in der Wirtschaft, Frankfurt 2008. Howard, J.A./Sheth, J.N. (1969): The Theory of Buyer Behavior, New York 1969. Kahneman, D. (2003): A perspective on judgment and choice. Mapping bounded rationality, in: American Psychologist Jg. 58 (2003), S. 697 – 720. Katona, G. (1960): Das Verhalten der Verbraucher und Unternehmer, Tübingen 1960. (Originalausgabe: Psychological Analysis of Economic Behavior, New York 1951.) Kurz-Milke, E./Gigerenzer, G. (2007): Heuristic Decision Making, in: Marketing JRM 1/2007, S. 48 – 60. Rickens, C. (2009): Was jetzt noch Wert hat, in: manager magazin, Heft 39/2009, S. 94 – 99. Roth, G. (2008): Persönlichkeit, Entscheidung und Verhalten, Stuttgart 2008. Schulte-Frankenfeld, H. (1985): Vereinfachte Kaufentscheidungen von Konsumenten, Frankfurt/M 1985. Stephan, E. (2006): Das implizite Gedächtnis als Gegenstand marktpsychologischer Forschung: Bedeutung, Messung, Anwendungsmöglichkeiten, in: Jahrbuch der Absatzund Verbrauchsforschung Jg. 52, Heft 1/2006, S. 4 – 18. Tetlock, P.E./Mellers, B.A. (2002): The great rationality debate, in: Psychological Science Jg. 13 (2002), S. 94 – 99. Todd, P.M. (1999): Simple Inference Heuristics versus Complex Decisions Machines, in: Mind and Machines, Volume 9, Issue 4 (Nov. 1999), S. 461 – 477. Trommsdorff, V. (2002): Konsumentenverhalten, 4. Aufl., Stuttgart 2002. Weinberg, P. (1981): Das Entscheidungsverhalten der Konsumenten, Paderborn 1981.
Markenliebe: Vom Wesen der intensivsten aller Markenbeziehungen Tobias Langner / Jochen Kühn
„The essential difference between emotion and reason is that emotion leads to action while reason leads to conclusions.“ Donald B. Calne (1999)
1
Erosion der Markenbindungen als Herausforderung der Markenführung
Der Aufbau stabiler Markenbeziehungen wird für Unternehmen zunehmend schwieriger. Die Gründe hierfür sind vielfältig: Die Marketingbudgets vieler Marken sind nicht erst seit der aktuellen Wirtschaftskrise rückläufig, der Wettbewerbsdruck zwischen den Anbietern nimmt immer noch zu und die Zielgruppen sind aufgrund der herrschenden Informationsüberlastung immer schwieriger durch die Markenkommunikation zu erreichen. Diese und weitere Entwicklungen haben zu einer gefährlichen Erosion der First Choice Buyer geführt, der Kunden, die das ökonomische Rückgrat einer Marke bilden. Laut einer Studie der GfK (2008) wenden sich 43 % der Stammkunden innerhalb von drei Jahren von ihrer einst meist präferierten Marke ab. Dies ist dramatisch, da der Anteil der First Choice Buyer am Gesamtumsatz einer Marke durchschnittlich 71,3 % beträgt.1 Diesem permanenten Kundenabfluss versuchen viele Unternehmen durch eine verstärkte Neukundengewinnung zu begegnen. Die Akquisition neuer Kunden ist teuer und kaschiert das Problem der abnehmenden Kundenbindung lediglich, trägt aber nicht zu dessen Lösung bei. Wie bei einem löchrigen Eimer wird permanent neues Wasser hinzu gegossen, der Abfluss des Wassers aber nicht 1
Vgl. GfK (2008), S. 29.
590
Tobias Langner / Jochen Kühn
verhindert.2 Eine wirkungsvollere und zudem kostengünstigere Alternative wäre es, die Probleme rückläufiger Markenbindungen an den Wurzeln anzugehen und die Abwanderung der First Choice Buyer von vorneherein zu vermeiden. Starke Marken wie Apple, Mini, McDonalds, Milka oder Harley Davidson schaffen es trotz der sich verschärfenden Rahmenbedingungen immer noch, außerordentlich starke Bindungen zu ihren Zielgruppen aufzubauen. Bei vielen Kunden dieser Marken geht die Bindungsintensität sogar soweit, dass sie die Form einer Liebesbeziehung annimmt. Die Marke wird dann zu einem geliebten Objekt, auf das der Konsument nicht mehr verzichten möchte. Er ist bereit, für solche Marken mehr zu bezahlen, setzt sich aktiv für sie ein und widmet ihnen oftmals sogar Teile seiner Freizeit. Geliebte Marken werden zu einem integralen Bestandteil des Lebens. Aufgrund seiner besonderen Relevanz für den Markenerfolg ist das Konzept der Markenliebe in den letzten Jahren zunehmend in den Blickpunkt der Marketingpraxis gerückt.3 Die Zahl der Marken, die den Aufbau von Markenliebe anstreben, ist schier explodiert. Unzählige Markenslogans, die explizit auf Liebe rekurrieren, zeugen von dieser Entwicklung: „Ich liebe es“ (McDonalds), „Love at first touch“ (Apple), „Is it love?“ (Mini). Trotz der enormen praktischen Bedeutung des Themas steckt die Forschung zur Markenliebe, der intensivsten aller Markenbindungen, noch in den Kinderschuhen. Zwar wurde mit der Studie Susan Fourniers (1998) der Grundstein zur Erforschung der Konsument-Marke-Beziehung gelegt, im Fokus der Forschung standen allerdings bisher vor allem andere beziehungsorientierte Konstrukte, wie beispielsweise das ‚brand-commitment‘ oder das ,brand-attachment‘. In der Folge blieben zahlreiche Fragen zum Konstrukt der Markenliebe unbeantwortet. Bisher ist nur sehr wenig über die Grundlagen und die konkreten Wirkungen der Markenliebe bekannt.4 So existiert weder eine allgemein anerkannte Operationalisierung des Konstrukts, noch sind die Gründe für die Entstehung von Markenliebe umfassend erforscht. Die gerade in jüngerer Zeit steigende Anzahl an Publikationen im Bereich der Markenliebe zeigt allerdings das zunehmende Interesse der Forschung an diesem Thema.5 Im Folgenden werden zunächst die möglichen Auswirkungen der Markenliebe auf den Konsumenten näher betrachtet. Anschließend folgt in Kapitel 3 aufgrund der vielen Parallelen zwischen der interpersonellen und der objektbe2 3 4 5
Vgl. GfK (2008), S. 46. Vgl. Roberts (2006). Vgl. Albert/Merunka/Valette-Florence (2008), S. 1062. Vgl. Albert/Merunka/Valette-Florence (2009); Ahuvia/Batra/Bagozzi (2008); Albert/Merunka/Valette-Florence (2008); Yim/Tse/Chan (2008); Keh/Pang/Peng (2007); Carroll/Ahuvia (2006); Pawle/Cooper (2006); Ahuvia (2005); Yeung/Wyer Jr. (2005); Whang/Allen/Sahoury/Zhang (2004); Shimp/Madden (1988).
Markenliebe: Vom Wesen der intensivsten aller Markenbeziehungen
591
zogenen Liebe eine Betrachtung der zwischenmenschlichen Liebe. Hierauf aufbauend wird in Kapitel 4 die Markenliebe von verwandten Konstrukten abgegrenzt und eine Definition der Markenliebe abgeleitet. Abschließend werden erste Handlungsempfehlungen zum Aufbau von Markenliebe vorgestellt.
2
Wirkungen der Markenliebe
Wie von der interpersonellen Liebe gehen auch von der Markenliebe zahlreiche positive Wirkungen aus. Marken, die es schaffen, diese intensivste Form der Markenbindung aufzubauen, nehmen im Leben ihrer Zielgruppen häufig eine zentrale Rolle ein. Zentrale Zielgrößen wie die Einstellung, die Markenidentifikation, die Kaufwahrscheinlichkeit, die Zahlungsbereitschaft, die Markenloyalität oder die Weiterempfehlungsabsicht werden durch den Aufbau von Markenliebe positiv beeinflusst (vgl. Abbildung 1).6 Markenliebe wirkt sich damit auch direkt auf den wirtschaftlichen Erfolg einer Marke aus. Die aus Markensicht wichtigste und in der Forschung bisher am meisten beachtete Wirkung der Markenliebe ist die größere Loyalität bzw. Kaufabsicht.7 Vor allem vor dem Hintergrund der aktuellen Rahmenbedingungen, der gesättigten Märkte und der immer noch steigenden Erlebnisorientierung der Konsumenten, ist die Loyalität der Kunden immer schwieriger zu erreichen. Bedeutend für die Markenführung ist hier, dass durch die Markenliebe der oft negative Zusammenhang zwischen hedonistischen Produkten und der Markenloyalität überkompensiert werden kann. Dieser negative Zusammenhang beruht auf dem Verhalten des ,Variety Seeking‘, d.h. der permanenten Suche vieler Konsumenten nach Abwechslung im Konsum.8 Konsumenten identifizieren sich stark mit ihren geliebten Marken. Dies hat zur Folge, dass geliebten Marken Fehler leichter verziehen werden als nicht geliebten Marken.9 Die erhöhte Identifikation führt auch dazu, dass Kunden sich häufig aktiv für ihre geliebten Marken einsetzen, sie werden zu Botschaftern der Marke. Konsumenten, die eine Marke lieben, sprechen häufiger und positiver über die Marke (‚Word-of-Mouth‘) und empfehlen die Marke häufiger anderen
6 7
8 9
Vgl. Ahuvia/Batra/Bagozzi (2009); Albert/Merunka/Valette-Florence (2009), S. 306; Bauer/Heinrich/Martin (2007); Carroll/Ahuvia (2006), S. 86; Langner/Fischer/Kürten (2009). Vgl. Langner/Fischer/Kürten (2009), S. 5; Whang/Allen/Sahoury/Zhang (2004), S. 324 ff.; Carroll/Ahuvia (2006), S. 85 f.; Keh/Pang/Peng (2007), S. 86; Bauer/Heinrich/Mühl (2008), S. 104; Yim/Tse/Chan (2008), S. 750 f.; Kim/Kim/Jolly/Fairhurst (2008), S. 512 f.; Ahuvia/Batra/Bagozzi (2008), S. 178; Albert/Merunka/Valette-Florence (2009), S. 306. Vgl. Carroll/Ahuvia (2006), S. 82. Vgl. Bauer/Heinrich/Mühl (2008), S. 100.
592
Tobias Langner / Jochen Kühn
Konsumenten als Kunden, die eine Marke ‚nur‘ mögen.10 Im Extrem kann das Weiterempfehlungsverhalten die Form einer regelrechten Bekehrungstätigkeit annehmen.11 Dieses Verhalten geht über eine reine Mund-zu-Mund-Propaganda hinaus und beinhaltet ein aktives, engagiertes Überreden bzw. Überzeugen von anderen Konsumenten, die die Marke noch nicht nutzen bzw. kennen.12 Vor dem Hintergrund schrumpfender Marketingbudgets und einer zunehmenden Vernetzung der Konsumenten über das Internet kommt dem Weiterempfehlungsverhalten sowie der Mund-zu-Mund-Propaganda eine immer bedeutendere Rolle zu. Die eigenen Kunden als Markenbotschafter zu gewinnen, verschafft einer Marke die Möglichkeit, kostenlose Werbung in Form von positiver Mund-zu-MundPropaganda zu erhalten. Der Aufbau von Markenliebe ist allerdings oftmals mit nicht unbeträchtlichen marketingtechnischen Investitionen verbunden. Denn: Die Schaffung von Markenliebe erfordert neben einzigartigen Angebotseigenschaften oftmals auch den Aufbau einer interaktiven emotionalen Markenkommunikation. Von besonderem Interesse ist deshalb die Frage, welcher zusätzliche Nutzen von einer emotionalen Intensivierung einer Markenbeziehung ausgeht, oder ob nicht schon im Hinblick auf die zentralen Kenngrößen der Markenführung die wesentlich kostengünstigere Etablierung eines einfachen Mögens (‚Liking‘) einer Marke ähnliche Effekte wie die Liebe zu einer Marke erzielt. Die explorative Studie von Langner, Fischer und Kürten (2009) zum Vergleich der Verhaltenswirkungen von geliebten und besonders gemochten Marken liefert hier erste Antworten. Hinsichtlich aller zentralen abhängigen Variablen zeigten sich deutliche Unterschiede zwischen dem Mögen einer Marke und der Liebe zu einer Marke (vgl. Abbildung 1): Geliebte Marken generieren beispielsweise signifikant bessere Einstellungen als gemochte Marken, werden häufiger weiterempfohlen und verfügen über loyalere Kunden, die deutlich mehr bereit sind, für die Marke zu bezahlen. Diese und andere Studienergebnisse belegen den bedeutenden Verhaltenseffekt, der von der Markenliebe ausgeht. Markenliebe führt demnach zu Verhaltenswirkungen, die in ihrem Ausmaß beträchtlich über die Wirkungen gemochter Marken hinausgehen. Dies zeigt, dass sich der kostenintensive Aufbau der Markenliebe für ein Unternehmen auszahlen kann.
10 11 12
Vgl. Langner/Fischer/Kürten (2009), S. 5; Carroll/Ahuvia (2006), S. 85 f.; Bauer/Heinrich/ Martin (2007) S. 2193 f.; Albert/Merunka/Valette-Florence (2009), S. 306. Vgl. Bauer/Heinrich/Mühl (2008), S. 101. Vgl. Matzler/Pichler/Hemetsberger (2007).
Markenliebe: Vom Wesen der intensivsten aller Markenbeziehungen Abbildung 1:
593
Wirkungen von Markenliebe und Brand Liking13
Markenmögen
Markenliebe
2,63b
Markeneinstellung
3,43b
1,4c Markenidentifikation 2,3c 1,04b
Weiterempfehlung
2,15b
0,41a
Markenloyalität
2,22a
0,40a Zahlungsbereitschaft 2,37a
Word of Mouth
-0,10b 4
3
Signifikanz:
3
2 a=
1
0 b
-1
1,03b -1
0
1
2
3
4
c
p < 0.001; = p < 0.01; = p < 0.05
Liebe in interpersonellen Beziehungen
3.1 Theoretische Zugänge zur Erforschung der interpersonellen Liebe Die Liebe stellt eine der stärksten Motivationen des menschlichen Handelns dar. Sie wird schon seit jeher in der Literatur, der Kunst sowie in der Musik als eine der inspirierendsten Erscheinungsformen menschlichen Verhaltens angesehen.14 Erste wissenschaftliche Auseinandersetzungen mit dem Phänomen der Liebe finden sich bereits in der antiken Philosophie.15 Sowohl in der Gesellschaft als auch in der Wissenschaft herrschte jedoch lange die Meinung, dass Liebe unbestimmt bleiben muss, um nicht dehumanisiert zu werden.16 Diese Tabuisierung der Liebe als Untersuchungsobjekt sowie die Komplexität des Konstruktes hemmten lange Zeit die empirische Psychologie bei der Erforschung des Themas Liebe.17 Die theoretische Grundlage zur Erforschung der Markenliebe findet sich in den Ansätzen der Sozialpsychologie sowie der neuronalen Erforschung der interpersonellen Liebe, da von einigen Parallelen zwischen der interpersonellen 13 14 15 16 17
In Anlehnung an Langner/Fischer/Kürten (2009), S. 5. Vgl. Bartels/Zeki (2004), S. 1155. Vgl. Hendrick/Hendrick (1992), S. 45. Vgl. Cortsen (1993), S. 12; Jodl (2005), S. 15. Vgl. Jodl (2005), S. 17.
594
Tobias Langner / Jochen Kühn
und der objektbezogenen Liebe auszugehen ist. Nachfolgend wird deshalb zunächst auf die bedeutendsten sozialpsychologischen Erkenntnisse und anschließend auf die Ergebnisse der neuronalen Liebesforschung eingegangen.
3.2 Psychologische Erforschung der interpersonellen Liebe In der psychologischen Forschung wurden zahlreiche Zugänge zur Operationalisierung der interpersonellen Liebe entwickelt. In den meisten der neueren Ansätze wird Liebe als mehrdimensionales Konstrukt verstanden. Liebe existiert demnach in einer Vielzahl unterschiedlicher Erscheinungsformen, die über die konkrete Ausprägung der jeweiligen Beziehungsdimensionen definiert werden. Im Folgenden werden die beiden Operationalisierungsansätze vorgestellt, die inzwischen die größte Verbreitung in Forschung und Praxis erlangt haben.18 Die Theorie der Farben der Liebe von Lee Lees (1977, 1988) Verständnis von Liebe ist von Vielfalt geprägt und nicht von der Reduktion des Konstrukts auf wenige Grundformen, wie dies beispielsweise bei Hatfield (1988) der Fall ist. Ursprung seiner Typologie ist die Analyse einer Vielzahl von Beschreibungen des Konstrukts der Liebe in der Weltliteratur und einer anschließend durchgeführten Faktorenanalyse. Lee leitet primäre (Eros, Ludus, Storge) und sekundäre (Mania, Agape, Pragma) Liebesstile ab, die sich ähnlich einem Farbspektrum zu weiteren Kombinationen mischen lassen (vgl. Abbildung 2). Primärstile: Eros bezeichnet die leidenschaftliche, nicht Besitz ergreifende Liebe, die von physiologischer Erregung und sexueller Anziehung geprägt ist. Ludus ist eine eher oberflächliche, wenig gefühlsintensive Beziehung, bei der die Liebe als unverbindliches Spiel gesehen wird. Storge bezeichnet schließlich eine Form der kameradschaftlichen Liebe, bei der das äußere Erscheinungsbild des Partners sowie die Sexualität nicht im Vordergrund der Beziehung stehen. Für den ,Storgic Lover‘ sind die gemeinsamen Interessen wichtig; er sucht nach einer lang andauernden, sicheren und vertrauenswürdigen Beziehung. Sekundärstile: Die Sekundärstile entstehen durch eine Mischung der Primärstile. Mania, die verzweifelte Liebe, stellt eine Kombination von Eros und Ludus dar. Es handelt sich hier um einen zwanghaften, eifersüchtigen und stark emotionalen Liebesstil. Agape, die altruistische Form der Liebe, ergibt sich aus den Primärstilen Storge und Eros. Der ,Agapic Lover‘ liebt selbstlos und ist nicht 18
Ein umfassender Überblick über weitere eindimensionale und mehrdimensionale Ansätze findet sich bei Jodl (2005).
Markenliebe: Vom Wesen der intensivsten aller Markenbeziehungen
595
fordernd. Pragma, eine Mischung aus Ludus und Storge, beschreibt schließlich eine pragmatische und rationale Partnerwahl. Sie ist bestimmt von dem Streben nach Zufriedenheit, gegenseitiger Rücksichtnahme und Respekt. Analog zu den Primärstilen können die Sekundärstile beliebig zu weiteren Stilformen kombiniert werden. Abbildung 2:
Die Farben der Liebe nach Lee19
Storge
Agape
Eros
Pragma
Mania
Ludus
Kritische Würdigung: Der Zugang von Lee hat sowohl in populärwissenschaftlichen, wie auch in wissenschaftlichen Arbeiten eine große Verbreitung gefunden. Ein Grund hierfür liegt sicherlich in der Multidimensionalität des Ansatzes, die es erlaubt auch eine Vielzahl anderer Zugänge einzuordnen. Beispielsweise kann die kameradschaftliche Liebe von Hatfield (1988) als Liebesstil ,Storge‘, die Austauschtheorie von Kelly und Thibaut (1978) als Grundlage für ,Pragma‘ und die ,Communal‘ Beziehung von Clark und Mills (1979) als ,Agape‘ interpretiert werden.20 In der Vielfalt der Theorie von Lee liegt aber gleichzeitig auch eine ihrer zentralen Schwächen. Die Mannigfaltigkeit der Stilformen, die sich durch eine weitere Mischung von Primär- und Sekundärstilen ergibt, wirkt teilweise beliebig. Außerdem stellt sich die Frage nach der Umfassendheit der Primärstile, 19 20
Vgl. Lee (1988). Vgl. Amelang (1991), S. 176.
596
Tobias Langner / Jochen Kühn
oder ob möglicherweise noch weitere grundlegende Stile existieren. Kritisch zu hinterfragen ist auch, warum Ludus als Liebesstil betrachtet wird, da diese Beziehungsart im Grunde keine Merkmale einer klassischen Liebesbeziehung trägt. Die Dreieckstheorie der Liebe von Sternberg Die von Robert Sternberg (1986, 1988, 2006) entwickelte Dreieckstheorie ist die am weitesten verbreitete Operationalisierung des Konstrukts der interpersonellen Liebe. Ähnlich wie Lee geht auch Sternberg davon aus, dass sich die unterschiedlichen Erscheinungsformen der Liebe durch eine Kombination von drei Faktoren abbilden lassen. Im Unterschied zu Lee, dessen Primärstile komplex und mehrdimensional sind, verwendet Sternberg drei eindimensionale Faktoren.21 Die drei Basisfaktoren ‚Intimacy‘, ‚Passion‘ und ‚Decision/Commitment‘ werden als Eckpunkte eines Dreiecks abgebildet. Sie operationalisieren die emotionale, motivationale und kognitive Facette der Liebe. Der Faktor ,Intimacy‘ umfasst jene Gefühle, die Verbundenheit und Nähe in einer Beziehung hervorbringen. ‚Intimacy‘ bildet in der Dreieckstheorie die emotionale Komponente der Liebe. Konstituierend für diesen Faktor sind Verhaltensweisen wie die Förderung des Wohlergehens der geliebten Person, die Achtung des Partners, Verlässlichkeit und auch die intime Kommunikation zwischen den Partnern. Der Faktor ‚Intimacy‘ ist für viele emotionale Beziehungen konstituierend, wie beispielsweise der Liebe zu einem Geschwisterteil oder dem besten Freund. Der Faktor ,Passion‘ bezieht sich auf das Gefühl der Leidenschaft, des intensiven Begehrens nach Vereinigung mit dem Anderen, die jedoch nicht auf die körperliche Liebe zu reduzieren ist. Der Faktor ,Decision/Commitment‘ wird als Resultat eines kognitiven Prozesses beschrieben. Kurzfristig bezieht sich diese Komponente auf die Entscheidung (,Decision‘) eines Menschen, einen Anderen zu lieben. Langfristig beschreibt die Komponente das Engagement (,Commitment‘), diese Liebe aufrecht zu erhalten. Sternberg zufolge müssen die beiden Facetten nicht unbedingt gemeinsam auftreten. Man kann sich beispielsweise entscheiden eine andere Person zu lieben, ohne sich jedoch langfristig dieser Liebe verpflichtet zu fühlen. Auch kann eine Person sich einer Beziehung verpflichtet fühlen, ohne verliebt zu sein. Je nach Ausprägung und Kombination der Faktoren ergeben sich unterschiedliche Formen von Liebesbeziehungen. Sternberg stellt diese durch unterschiedliche Dreiecksformen dar. Je stärker die einzelnen Faktoren in einer Beziehung ausgeprägt sind, desto größer ist das sich ergebende Liebesdreieck und desto stärker ist die vorliegende Liebe. Anhand der konkreten Ausprägung der 21
Vgl. Jodl (2005).
Markenliebe: Vom Wesen der intensivsten aller Markenbeziehungen
597
Basisfaktoren lassen sich Rückschlüsse auf die Qualität der jeweiligen Liebesbeziehung schließen. Insgesamt werden acht Liebesarten unterschieden, die von ,Non-Love‘, also der Abwesenheit aller drei Komponenten bis hin zur ,Consummate-Love‘ reichen, welche die vollkommene Liebe mit einer starken Ausprägung aller drei Komponenten beschreibt (vgl. Abbildung 3). Abbildung 3:
Sternbergs Dreieckstheorie der Liebe22
Liking (Intimacy alone)
Romantic Love (Intimacy + Passion)
Consummate Love
Companionate Love (Intimacy + Commitment)
(Intimacy+ Passion+ Commitment)
Infatuation (Passion alone)
Fatuous Love (Passion + Commitment)
Empty Love (Decision/Commitment alone)
Kritische Würdigung: Sternberg hat mit seiner Dreieckstheorie eine wichtige Basis für die empirische Erforschung des Konstrukts der Liebe geschaffen. Seine Operationalisierung wirkt präziser und geschlossener als der Ansatz von Lee. Eine abschließende Bestätigung der Faktoren und damit ein Beleg für die Gültigkeit der Theorie steht allerdings noch aus. Hendrick und Hendrick (1989) fanden beispielsweise starke Korrelationen zwischen den drei Faktoren der Dreieckstheorie, was Fragen hinsichtlich ihrer Unabhängigkeit aufwirft.23 Auch ist fraglich, ob wirklich alle von Sternberg abgeleiteten Beziehungsformen dem Muster der Liebe folgen. Liking beispielsweise umfasst nicht die zentralen Merkmale, die gemeinhin einer Liebesbeziehung zugeschrieben werden. 22 23
Vgl. Sternberg (1988), S. 122. Vgl. Hendrick/Hendrick (1989); Jodl (2005), S. 35.
598
Tobias Langner / Jochen Kühn
Zusammenfassend lässt sich festhalten, dass die dargestellten Theorien viel Beachtung in der wissenschaftlichen Literatur erhalten haben, ein endgültiger empirischer Beleg ihrer Gültigkeit allerdings nach wie vor aussteht.
3.3 Neuronale Erforschung der interpersonellen Liebe Eine Möglichkeit der neuronalen Erforschung der zwischenmenschlichen Liebe, die in jüngerer Zeit verstärkt genutzt wird, bietet das Verfahren der funktionalen Magnetresonanztomographie (fMRT). Vereinfacht ausgedrückt, werden durch die Messung des Sauerstoffgehaltes im Blut der Probanden die Aktivitäten des Gehirns sichtbar gemacht.24 Experimente, die die fMRT als Erhebungsmethode verwenden, haben in den letzten Jahren nicht nur im Bereich der Neuropsychologie und des Neuromarketings stark zugenommen.25 Bartels und Zeki (2000) untersuchten mithilfe der fMRT die Hirnaktivitäten verliebter Menschen. Die Ergebnisse zeigen, dass eine bestimmte Gruppe miteinander verbundener Regionen im Gehirn aktiviert wird, wenn Menschen mit einer von ihnen geliebten Person in Kontakt kommen. Diese aktivierten Regionen unterscheiden sich von solchen, die beim Kontakt mit gemochten Menschen befeuert werden. Dieses Ergebnis kann als Beleg dafür verstanden werden, dass es sich bei Mögen und Lieben um grundsätzlich verschiedene Emotionen handelt. Das besondere an dem durch Liebe ausgelösten Aktivierungsmuster ist, dass es laut Bartels und Zeki (2004) den Charakter eines Push-Pull Mechanismus hat. Liebe führt demnach zu einer Aktivierung des menschlichen Belohnungszentrums, das für das Auslösen positiver Emotionen verantwortlich ist. Dies erfolgt in Hirnregionen, die sonst nur durch Nahrung, monetäre Belohnung, den Konsum von Kokain oder durch sexuelle Erregung aktiviert werden. Zusätzlich hierzu erfolgt eine Deaktivierung von Gehirnregionen, die verantwortlich sind für die Entstehung kritischer sozialer Einschätzungen und negativer Emotionen.26 Verliebte Menschen empfinden folglich sehr positive Emotionen (Aktivierung des Belohungszentrums), gleichzeitig werden sie der geliebten Person gegenüber unkritisch. Mit anderen Worten: Liebe macht blind! Helen Fisher (2005) leitet in ihrer Studie mit verliebten Probanden drei Formen der Paarbindung ab. Sie unterscheidet Lust, romantische Liebe und die lang andauernde Bindung. Die Ergebnisse deuten daraufhin, dass diese Bindungsarten relativ unabhängig voneinander sind, da sie unterschiedliche Aktivierungsmuster im Gehirn auslösen. Laut Fisher (2005) erfüllt jeder dieser Bindungstypen einen 24 25 26
Vgl. Vasek (2004), S. 42 f.. Vgl. Jodl (2005), S. 31; Esch/Möll (2009); Stoll/Baecke/Kenning (2008). Vgl. Bartels/Zeki (2004), S. 1162.
Markenliebe: Vom Wesen der intensivsten aller Markenbeziehungen
599
aus evolutionärer Sicht besonderen reproduktiven Zweck: Ermöglichen von Geschlechtsverkehr (Lust), Paarbindung (romantische Liebe) und letztlich die Aufzucht von Kindern (lang andauernde Bindung).27 Aron und Kollegen (2005) bestätigten diesen Befund, in dem sie zeigen, dass Unterschiede in den Aktivierungsmustern zwischen Probanden existieren, die frisch verliebt sind und solchen, die sich schon länger in einer Beziehung befinden.28 Demnach sollte die Dauer einer Beziehung einen Einfluss auf die Art des Erlebens einer Liebe haben. Die Qualität einer Liebesbeziehung ändert sich demgemäß im Zeitablauf.
3.4 Implikationen für die Erforschung der Markenliebe Die bisherigen Betrachtungen machen die Komplexität des Konstrukts der Liebe deutlich. Auch wenn viele Forschungsfragen noch offen bzw. noch nicht endgültig beantwortet sind, lassen sich aus den vorliegenden Forschungsarbeiten dennoch erste (wenn auch vorsichtige) Folgerungen für die Erforschung der Markenliebe ableiten. Markenliebe als mehrdimensionales Konstrukt: Wenngleich eine abschließende empirische Validierung der Dimensionen noch aussteht, setzt sich in der Forschung zunehmend die Auffassung durch, dass interpersonelle Liebe ein mehrdimensionales Konstrukt darstellt. Es spricht einiges dafür, dass Gleiches auch für die Markenliebe gilt. Allerdings sollten hier nicht die Operationalisierungen der zwischenmenschlichen Liebe unreflektiert übernommen werden. Trotz vieler Gemeinsamkeiten ergeben sich aus der Natur der Objektliebe zwangsläufig auch zahlreiche Unterschiede zur interpersonellen Liebe. Alleine die Abwesenheit von Sexualität begründet bereits die Notwendigkeit einer eigenständigen Faktorenoperationalisierung für das Konstrukt der Markenliebe. Differenzierung von Brand Liking und Markenliebe: Die vorliegenden neurowissenschaftlichen Erkenntnisse unterstützen die Annahme, dass es sich bei Liebe und Mögen um unterschiedliche Emotionen handelt. Liebe sollte demnach nicht als eine extreme Ausprägung des Mögens verstanden werden. Die größten Unterschiede zwischen Liebe und Mögen liegen, nach Sternberg (interpersonelle Liebe) und Langner, Fischer und Kürten (Markenliebe), in der Ausprägung der Passion sowie der Decision/Commitment Komponente. Demnach schließt die Markenliebe das Mögen einer Marke mit ein und stellt nicht einfach eine besonders intensive Form des Mögens dar. Vielmehr grenzt sich die Markenliebe durch das Vorhandensein weiterer Komponenten vom reinen Mögen einer Marke
27 28
Vgl. Fisher (2005), S. 97 ff. Vgl. Aron/Fisher/Mashek/Strong/Li/Brown (2005).
600
Tobias Langner / Jochen Kühn
ab.29 Die beiden Konstrukte unterscheiden sich außerdem auch hinsichtlich der Bedeutung, die das Selbstkonzept einer Person für ihr Zustandekommen spielt. Eine gemochte Marke wird anders als eine geliebte Marke nicht in das Selbstkonzept des Konsumenten integriert.30 Schließlich unterscheiden sich die Konstrukte auch hinsichtlich ihrer Valenz.31 Brand Liking kann Ausprägungen von Mögen bis nicht mögen annehmen und lässt somit auch negative Emotionen zu. Markenliebe hingegen reicht in ihren Ausprägungen von keiner Liebe bis Liebe und schließt somit negative Emotionen für eine Marke aus. Die Unterschiedlichkeit von Markenliebe und Brand Liking, die allerdings durch weitere Studien untermauert werden sollte, hat auch Auswirkungen auf die Erklärung der Entstehung von Liebe. Demnach würde es nicht ausreichen, ein immer größeres Liking aufzubauen und darauf zu hoffen, dass aus der Beziehung irgendwann eine Liebesbeziehung wird. Dynamik der Markenliebe: Liebesbeziehungen unterliegen wohl fast zwangsläufig zeitlichen Veränderungen. In frühen Phasen der interpersonellen Liebe sind beispielsweise leidenschaftsbezogene Emotionen stark ausgeprägt, in späteren Entwicklungsstadien spielen dagegen Vertrauen, Zuverlässigkeit und Nähe eine größere Rolle. Aufbauend auf den Ergebnissen Fourniers (1998) ist davon auszugehen, dass Markenliebesbeziehungen ebenfalls einer zeitlichen Dynamik unterliegen.
4
Abgrenzung des Konstrukts der Markenliebe von verwandten Konstrukten
4.1 Grundlegendes zur Konstruktabgrenzung Im Zuge der Auseinandersetzung mit dem Konstrukt der Markenliebe drängt sich zwangsläufig die Frage auf, ob Markenliebe als Zielgröße des Marketings tatsächlich notwendig ist, oder ob nicht vielleicht andere existente Konstrukte das Phänomen der Markenliebe bereits hinreichend abbilden können. Die verhaltenswissenschaftliche Marketingforschung bietet eine Vielzahl an etablierten Konstrukten, die, wie die Liebe zu Marken, als Indikatoren für eine emotionale Beziehung zwischen Konsument und Marke herangezogen werden können. Diese Konstrukte unterscheiden sich aber konzeptionell von der Liebe zu Marken.
29 30 31
Vgl. Sternberg (1986), S. 123; Carroll/Ahuvia (2006), S. 81; Langner/Fischer/Kürten (2009), S. 9. Vgl. Carroll/Ahuvia (2006), S. 81; Ahuvia /Batra/Bagozzi (2008). Vgl. Carroll/Ahuvia (2006), S. 81.
Markenliebe: Vom Wesen der intensivsten aller Markenbeziehungen
601
Ziel dieses Kapitels ist die Abgrenzung der Markenliebe von verwandten Konstrukten und die Ableitung einer Definition der Markenliebe.
4.2 Markenliebe und Brand Attachment Das Konstrukt des ,Brand Attachment‘ basiert auf den sozialpsychologischen Erkenntnissen der Bindungstheorie und ist eine der Variablen des Marketings, die zweifelsohne die größte Überschneidung mit der Markenliebe aufweist. Begriff und Theorie des ‚Attachment‘ gehen auf den britischen Kinderpsychiater John Bowlby (1969, 1973, 1980) und auf die Arbeiten von Mary Ainsworth und Kollegen (1978, 1979) zurück. ‚Attachment‘ bezieht sich ursprünglich auf das Verhalten von Kindern gegenüber einer Bindungsperson.32 Der AttachmentBegriff wurde in die Konsumentenforschung eingeführt, um Bindungen an eine Marke zu erklären.33 So wie die Bindung eines Kindes an seine Mutter lässt sich auch das Attachment gegenüber Marken und Objekten durch bestimmte Verhaltensweisen beschreiben. Brand Attachment manifestiert sich durch die Aufrechterhaltung der Nähe zur Marke (‚proximity maintenance‘), was zu einer emotionalen Sicherheit führen kann (‚emotional security‘) sowie die Suche nach Sicherheit und Schutz durch eine Marke (‚safe haven‘) und das Leiden unter echter oder angedrohter Trennung von einer Marke (‚separation distress‘).34 Thomson, MacInnis und Park (2005) operationalisieren Brand Attachment über die drei Faktoren Leidenschaft (‚passion‘) sowie emotionale (‚affection‘) und kognitive Verbundenheit (‚connection‘). Abgrenzung von Markenliebe und Brand Attachment: Aufgrund ihrer starken Emotionalität verfügen die Konstrukte Markenliebe und Brand Attachment über einige Gemeinsamkeiten. Carroll und Ahuvia (2006) betrachten Markenliebe deshalb auch als eine Form des Brand Attachments, bei der die Bindung an eine Marke stark durch Emotionen und Leidenschaft geprägt ist. Ähnlich ist das Verständnis von Bellman und Rossiter (2009), die das Gefühl der Markenliebe als die stärkste Form des emotionalen Brand Attachment betrachten.35 Der zentrale Unterschied zwischen den Konstrukten besteht allerdings darin, dass Brand Attachment nicht zwingend emotionaler Natur sein muss und auch keine Festlegung hinsichtlich der Wertigkeit der Bindung erfolgt.36 Markenliebe beruht hin32 33 34 35 36
Vgl. Grossmann/Grossmann (2003); Bowlby (1969), (1973), (1980); Ainsworth (1979); Ainsworth/Blehar/Waters/Wall (1978). Vgl. Thomson/MacInnis/Park (2005). Vgl. Thomson/MacInnis/Park (2005), S. 81. Vgl. Bellman/Rossiter (2009), S. 15 f. Vgl. Diehl (2009), S. 113.
602
Tobias Langner / Jochen Kühn
gegen immer auf einer positiv-affektiven Verbindung zwischen Konsument und Marke.
4.3 Markenliebe und Brand Commitment Der Begriff Commitment stammt ursprünglich aus der Sozialpsychologie. Eine weite Verbreitung hat das Konstrukt später im Rahmen der Organisationspsychologie zur Beschreibung des Bindungsverhaltens von Personen gegenüber einer Organisation erfahren.37 Die bekannteste Operationalisierung des organisationalen Commitment stammt von Meyer und Allen (1984, 1991, 1997). Sie verstehen organisationales Commitment als einen psychologischen Zustand, der das Verhältnis zwischen dem Mitarbeiter und seinem Unternehmen charakterisiert und einen Einfluss auf die Entscheidung ausübt, in dem Unternehmen zu verbleiben. Commitment wird hier in ein affektives, ein fortsetzungsbezogenes (rationales) und ein normatives Commitment unterschieden.38 Die Verwendung des Begriffs Brand Commitment erfolgt sehr uneinheitlich. Einige Autoren definieren und operationalisieren das Konstrukt in Anlehnung an das organisationspsychologische Begriffsverständnis als die Bindung eines Mitarbeiters an die Marke, für die er arbeitet.39 Andere wiederum verstehen Brand Commitment als die emotionale Bindung eines Konsumenten an eine Marke, die dazu führt, dass der Konsument die Beziehung zur Marke fortführen möchte.40 Die letztere Definition weist eine große Ähnlichkeit zum Konstrukt des Brand Attachment auf, verfügt in ihrer Anwendung allerdings meist über eine geringere Präzision: Items zur Messung von Commitment (z.B. „I am committed to …“), Loyalität (z.B. „I consider myself to be loyal to …“) und Zahlungsbereitschaft (z.B. „I would be willing to pay a higher price for …“) werden beispielsweise oftmals zu einem Overall-Commitment zusammengefasst. Abgrenzung von Markenliebe und Brand Commitment: Das mitarbeiterbezogene Verständnis von Brand Commitment unterscheidet sich zweifellos deutlich vom Konstrukt der Markenliebe. Zum einen bezieht es sich auf Mitarbeiter und nicht auf Konsumenten, zum anderen zeugt auch die organisationspsychologische Operationalisierung des Commitment von einer anderen Natur des Konstrukts. Das Verständnis des Brand Commitment als Attachment weist dagegen grundsätzlich eine größere Nähe zur Markenliebe auf. Betrachtet man allerdings die gängigen Operationalisierungen, zeigt sich eine deutliche Unterschiedlichkeit 37 38 39 40
Vgl. van Knippenberg/Sleebos (2006), S. 572 ff. Vgl. Allen/Meyer (1990), S. 3 f.; Meyer/Allen (1991), S. 67. Vgl. z.B. Burmann/Zeplin (2005); Esch (2009), S. 128. Vgl. z.B. Ahluwalia/Burnkrant/Unnava (2000); Desai/Raju (2007).
Markenliebe: Vom Wesen der intensivsten aller Markenbeziehungen
603
der Konstrukte. Markenliebe beruht immer auf einer positiven Beziehung zwischen Konsument und Marke, was zumindest bei den geläufigen Operationalisierungen des Brand Commitment als Attachment nicht immer gegeben sein muss.41
4.4 Markenliebe und Markeneinstellung Das Konstrukt der Einstellung hat sich seit der Einführung durch Thurstone (1928) zu einem der zentralen Konstrukte in den Sozialwissenschaften entwickelt. Die hohe Relevanz ist bis heute ungebrochen. Einstellung wird gemeinhin verstanden als eine zusammenfassende Bewertung eines Objekts, die positiv als auch negativ sein kann.42 Einstellungen werden dabei meist als relativ dauerhafte, intern gespeicherte Beurteilungen betrachtet, die häufig über eine kognitive („Die Marke verfügt über eine hohe Produktqualität“) und affektive („Ich mag die Marke“) Komponente operationalisiert werden. Abgrenzung von Markenliebe und Einstellung: Das Konstrukt der Markenliebe geht über den Begriff der Einstellung hinaus. Konsumenten können gegenüber einer Vielzahl von Marken sehr gute Einstellungen besitzen, werden jedoch nur wenige dieser Marken wirklich lieben.43 Gegenüber ihren geliebten Marken besitzen Kunden allerdings immer auch eine positive Einstellung. Es wird deutlich, dass Markenliebe mehr beinhaltet als das Konstrukt der Einstellung erfasst. Wesentlicher Unterschied ist, dass geliebte Marken als einzigartig und nicht bzw. schwierig ersetzbar empfunden werden. Konsumenten empfinden deshalb gegenüber geliebten Marken eine Art Verlustangst,44 die die Markenliebe konstituiert, jedoch im Konstrukt der Einstellung keine Berücksichtung findet. Weiterhin wird eine Marke in der Einstellungstheorie als Objekt behandelt, gegenüber dem ein Konsument eine zusammenfassende Bewertung besitzt.45 Dagegen werden geliebte Marken vom Konsumenten in der Regel als Beziehungspartner wahrgenommen, mit dem der Kunde interagiert, was über eine reine Objektsicht hinausgeht.46 Schließlich ergeben sich Unterschiede zwischen den Konstrukten durch die Integration der Marke in das Selbstkonzept des Konsumenten, die lediglich bei geliebten Marken stattfindet, nicht aber bei allen Marken, zu denen positive Einstellungen existieren.47 Diese Integration entwickelt sich in der Regel 41 42 43 44 45 46 47
Vgl. Diehl (2009), S. 121. Vgl. Nayakankuppam/Priester (2007), S. 33. Vgl. Thomson/MacInnis/Park (2005), S. 78; Pichler/Hemetsberger (2007), S. 196. Vgl. Bellman/Rossiter (2009), S. 16. Vgl. Ajzen/Fishbein (2000), S. 490. Vgl. Fournier (1998); Keh/Pang/Peng (2007), S. 85. Vgl. Ahuvia/Batra/Bagozzi (2008); Carroll/Ahuvia (2006), S. 81.
604
Tobias Langner / Jochen Kühn
über einen längeren Zeitraum und mehrere Interaktionen hinweg (Ausnahme: Liebe auf den ersten Blick), wohingegen Einstellungen sofort und auch ohne Kontakte zu einem Objekt gebildet werden können.48
4.5 Implikationen für die Erforschung der Markenliebe Die vorangegangenen Ausführungen belegen die Eigenständigkeit und damit die Notwendigkeit des Konstrukts der Markenliebe. Anders als bei der Einstellungsforschung handelt es sich bei der Markenliebe um einen recht jungen Forschungsbereich. Allgemein akzeptierte Definitionen und Operationalisierungen existieren noch nicht.49 Ausgehend von den Erkenntnissen zur interpersonellen Liebe und den bisherigen Arbeiten zur Markenliebe lassen sich drei konstituierende Charakteristika des Konstrukts ableiten:50 Emotionalität (‚affect‘): Einigkeit herrscht hinsichtlich der großen Emotionalität des Konstrukts. Die Forschungsarbeiten zur Markenliebe zeigen, dass die Beziehung eines Konsumenten zu seiner geliebten Marke auf starken Emotionen basiert und von einer ausgeprägten Leidenschaft für die Marke geprägt ist. Reziprozität (‚reciprocity‘): Die große Emotionalität der Beziehung zu einer geliebten Marke führt dazu, dass Konsumenten bereit sind, sich aktiv für die Marke einzusetzen. Dies zeigt sich beispielsweise in ihrer Weiterempfehlungsbereitschaft, die sich bis hin zu einem Bekehrungsstreben entwickeln kann und in ihrer Bereitschaft, der Marke zu helfen, wenn sie in einer Krise steckt. Verlustangst (‚regret‘): Wie für die interpersonelle Liebe ist auch für die Markenliebe konstituierend, dass Menschen die geliebte Marke nur schwer substituieren können und deshalb ein großes Verlustbedauern bis hin zur Verlustangst bei dem Gedanken empfinden, dass die Marke nicht mehr am Markt verfügbar wäre. Aus den bisherigen Ausführungen ergibt sich folgende Arbeitsdefinition: Markenliebe beschreibt eine andauernde Beziehung zwischen einem Konsumenten und einer Marke, die durch starke und positive Emotionen für die Marke geprägt ist und die mit einem ausgeprägten Bedauern bei einem potenziellen Verlust der Marke einhergeht.
48 49
50
Vgl. auch Thomson/MacInnis/Park (2005). Definitionen der Markenliebe finden sich in Bauer/Heinrich/Mühl (2008), S. 96; Carroll/Ahuvia (2006), S. 81; Jodl (2005), S. 51; Keh/Pang/Peng (2007), S. 84; Bellman/Rossiter (2009), S. 16. Vgl. Bellman/Rossiter; Langner/Rossiter/Fischer/Kürten (2010).
Markenliebe: Vom Wesen der intensivsten aller Markenbeziehungen 5
605
Erste Handlungsempfehlungen zum Aufbau von Markenliebe
Für das Markenmanagement stellt sich die Frage, wie man die zahlreichen positiven Effekte der Markenliebe nutzbar machen kann. Es geht darum, zu beantworten, wie der Aufbau von Markenliebe gezielt gefördert werden kann. Wenngleich viele Forschungsfragen noch unbeantwortet sind, lassen sich aufbauend auf den vorliegenden Erkenntnissen dennoch bereits erste grundlegende Handlungsempfehlungen zur Förderung von Markenliebe ableiten (vgl. Abbildung 4). Analyse der Ausgangssituation: Zunächst ist die Ausgangssituation einer Marke zu analysieren. Es gilt, die grundsätzliche Frage zu beantworten, ob die betreffende Marke überhaupt dazu geeignet ist, beim Konsumenten Markenliebe zu etablieren. Nicht jede Produktkategorie und Marke bietet das Potenzial zur Schaffung von Markenliebe. Zur Beantwortung dieser Frage muss die Konsummotivation der Zielgruppe analysiert werden. Eine Kategorie eignet sich grundsätzlich dann zur Etablierung von Markenliebe, wenn Konsumenten die betreffenden Produkte mit einem erhöhten emotionalen Involvement erwerben. Dies liegt vor allem dann vor, wenn mit dem Konsum positive Erlebnisse einhergehen, es also Freude bereitet, die Produkte zu nutzen bzw. zu besitzen.51 Darüber hinaus muss eine Ausrichtung auf eine ‚Markenliebe-Strategie‘ zur Positionierung der Marke passen. Schließlich gilt es zu analysieren, wie die Wettbewerber auftreten, um die Eigenständigkeit bei der späteren Realisation der Marketingmaßnahmen sicherzustellen. Ableitung eines Markenerlebnisses: Ist die Entscheidung gefallen, Markenliebe als Ziel der Markenführung anzustreben, gilt es, das zentrale Konsumerlebnis der Marke abzuleiten. Zentrale Voraussetzung für den Aufbau von Markenliebe ist die Einzigartigkeit der betreffenden Marke. Das Erlebnis sollte folglich so gewählt werden, dass es für die Zielgruppen relevant ist und die Marke von der Konkurrenz differenziert. Das gewählte Erlebnis muss dann durch konkrete rationale und affektive Produkteigenschaften erlebbar gemacht werden. Interessant ist hier, dass es offensichtlich nicht nur auf die Optimierung affektiver Ei-
51
Vgl. Esch (2009), S. 309 ff.; Kroeber-Riel/Weinberg/Gröppel-Klein (2009), S. 138 ff. Grundsätzlich ist es auch denkbar, dass Konsumenten Markenliebe in einer informationalen Kategorie aufbauen, also Liebe zu einer Marke entwickeln, deren Konsum nicht mit einem positiven emotionalen Erlebnis einhergeht. Beispielhaft wäre hier die Marke Aspirin zu nennen, die zu einzelnen Zielgruppenmitgliedern starke emotionale Bindungen aufgebaut hat. Dies stellt allerdings eher eine Seltenheit dar. In der Studie von Langner, Fischer und Kürten (2009) hatten beispielsweise nur wenige Probanden Liebe zu einer Marke aus einer informationalen Kategorie entwickelt. Vgl. zum Begriff informationaler Kaufmotivationen: Rossiter/Percy/Donovan (1991), S. 13.
606
Tobias Langner / Jochen Kühn
genschaften ankommt, sondern dass bei der Markenliebe auch rationale Objekteigenschaften von besonderer Bedeutung sind.52 Integrierte Vermittlung des Markenerlebnisses: Das Markenerlebnis sollte dann integriert über alle Kontaktpunkte und möglichst multisensual vermittelt werden.53 Untersuchungen zur Aktivität von Nervenzellen im Gehirn belegen eine signifikant stärkere Feuerungsrate, wenn die vermittelten Eindrücke über mehrere Sinne mit gleicher Bedeutung angesprochen werden.54 Dies führt dazu, dass multisensuale Erlebnisse sich wirksamer in den Köpfen der Konsumenten verankern.55 Reziprozität ermöglichen: Konsumenten entwickeln oft ein besonderes Engagement gegenüber den Marken, die sie lieben. Geliebte Marken werden häufig zu einem Beziehungspartner, mit dem die Zielgruppe aktiv interagieren möchte. Marken, die Markenliebe etablieren möchten, sollten ihren Zielgruppen deshalb Möglichkeiten zur Interaktion bieten. Dies trägt auch zum ‚CommunityBuilding‘ bei, was sich wiederum beziehungsintensivierend auswirkt. Harley Davidson fördert diese Interaktion beispielsweise gezielt über die Harley’s Owner Group. Gemeinsame Veranstaltungen, organisierte Ausfahrten, der persönliche Austausch oder die Interaktion über das Internet werden gezielt von Harley Davidson zum Bindungsaufbau eingesetzt. BMW, Audi oder Dell verfahren analog hierzu. Förderung Liebe auslösender Ereignisse: Es spricht einiges dafür, dass Markenliebe nicht das Ergebnis einer stetigen Verbesserung der Markeneinstellung ist. Vielmehr geht die Entstehung von Markenliebe meist mit besonderen Ereignissen einher, die zu einer besonderen Emotionalisierung der Markenbeziehung führen. Das Markenmanagement kann sich solche Ereignisse zu nutze machen, in dem es sie durch die konkrete Gestaltung von Marketingmaßnahmen herbeiführt. Langner, Fischer und Kürten (2009) identifizieren in ihrer qualitativen Studie fünf typische Startpunkte der Markenliebe sowie die dazu korrespondierenden Ereignisse. Die ‚erste Liebe‘ entspringt frühen emotionalen Erlebnissen der Konsumenten, die sie mit einer Marke verbinden. Hierunter fallen beispielsweise das erste Auto oder Marken, welche die Konsumenten an ihre Kindheit erinnern. Bei der ‚Liebe auf den ersten Blick‘ spielt die Einzigartigkeit der Marke eine bedeutende Rolle. Ein einzigartiger Geschmack oder ein besonderes Design können beispielsweise zu einer Liebe auf den ersten Blick führen. Bei der ‚gewachsenen Liebe‘ entwickelt sich die Liebe dagegen langsamer, über einen längeren Zeitraum hinweg. Bei der ‚arrangierten Liebe‘ wählen Konsumenten 52 53 54 55
Vgl. Langner/Fischer/Kürten (2009), S. 4. Vgl. Esch (2009), S. 309 ff. Vgl. Salzmann (2007), S. 93. Vgl. Kroeber-Riel/Weinberg/Gröppel-Klein (2009), S. 147.
Markenliebe: Vom Wesen der intensivsten aller Markenbeziehungen
607
die Marke bei ihrem ersten Kontakt nicht freiwillig aus, sondern bekommen sie geschenkt oder von anderen Konsumenten empfohlen. Diese Art der Liebe basiert zu Beginn auf kognitiven Überlegungen, die später allerdings einer deutlichen Emotionalität weicht. Bei der ‚vererbten Liebe‘ bilden schließlich die Liebesbeziehungen anderer Konsumenten die Grundlage, die zur Entstehung der Markenliebe führt. Beispielsweise dienen Eltern, Geschwister oder gute Freunde als Impulsgeber, die ihre Liebesbeziehung zu einer bestimmten Marke weitergeben. Die Automarke des Vaters oder die Uhrenmarke des Großvaters sind Beispiele für eine vererbte Liebe. Abbildung 4:
Vorgehen zur Etablierung von Markenliebe
Analyse der Konsummotivation
Analyse der Wettbewerber
Analyse der eigenen Marke
Konzeption von Markenerlebnissen
Gestaltung emotionaler Angebotseigenschaften
Reziprozität: Schaffung von Interaktionsforen
Kontrollebene
Kontrolle der Wirkung
liebesgenerierende Ereignisse
Erlebnismarketing: Integrierte und multisensuale Vermittlung der Angebotseigenschaften
Umsetzungsebene
Gestaltung rationaler Angebotseigenschaften
Strategische Ebene
Markenpositionierung
Kontrolle der Maßnahmen: Schließlich gilt es, die Effektivität und Effizienz der eingeleiteten Maßnahmen zu analysieren. Hierdurch soll gewährleistet werden, dass die abgeleiteten Maßnahmen auch tatsächlich zur Etablierung von Markenliebe beitragen. Auch sollte immer sichergestellt werden, dass alle ergriffenen Maßnahmen positionierungskonform sind und zur Marke passen.
608 6
Tobias Langner / Jochen Kühn Ausblick: Vom schillernden Konzept zur Zielgröße des Marketings
Die Zeiten, in denen Markenliebe als schillerndes Konzept der Marketingpraxis belächelt wurde, sind vorbei. Markenliebe ist inzwischen zu einer bedeutenden Zielgröße für das Management vieler Marken geworden. Die von Konsumenten gegenüber geliebten Marken empfundene Verlustangst ist beispielsweise als Regret-Frage in die Werbetrackings vieler Marktforschungsunternehmen eingeflossen. Speziell für Marken, deren Konsum mit besonderen Erlebnissen einhergeht, bietet sich der Aufbau von Markenliebe an. Marken wie Apple, Mini oder Harley Davidson richten ihre Marketingmaßnahmen folgerichtig gezielt am Aufbau von Markenliebe aus. Trotz ihrer großen Relevanz in der Marketingpraxis wurde das Thema der Markenliebe lange Zeit in der Forschung vernachlässigt. Viele grundsätzliche Fragen, wie die der Operationalisierung und Entstehung von Markenliebe, bleiben deshalb bis heute unbeantwortet. Der gerade in jüngerer Zeit zu beobachtende sprunghafte Anstieg von Publikationen zum Thema Markenliebe gibt allerdings Grund zu der Hoffnung, dass viele der ungelösten Forschungsfragen in Zukunft beantwortet werden.
Literatur Ahluwalia, Rohini/Burnkrant, Robert E./Unnava, H. Rao (2000): Consumer Response to Negative Publicity: The Moderating Role of Commitment, Journal of Marketing Research, Vol. XXXVII. May, S. 203-214. Ahuvia, Aaron C. (2005): Beyond the Extended Self: Loved Objects and Consumers’ Identity Narratives, Journal of Consumer Research, Vol. 32, June, S. 171-184. Ahuvia, Aron C./Batra, Rajeev/Bagozzi, Richard P. (2008): Brand Love: Towards an Integrative Model, in: Lee, Angela Y./Soman, Dilip (2008), S. 176-180. Ahuvia, Aron C./Batra, Rajeev/Bagozzi, Richard P. (2009): Love, Desire & Identity: A Conditional Integration Theory of the Love of Things, in: MacInnis, Deborah J./Park, C. Whan/Priester, Joseph W. (2009), S. 342-357. Ainsworth, Mary D. Salter (1979): Infant-Mother Attachment, in: American Psychologist, Vol. 34(10), S. 932-937. Ainsworth, Mary D. Salter/Blehar, Mary C./Waters, Everett/Wall, Sally (1978): Patterns of Attachment: A Psychological Study of the Strange Situation, Hillsdale 1978. Ajzen, Icek/Fishbein, Martin (2000): Attitudes and the Attitude-Behavior Relation: Reasoned and Automatic Processes, in: Stroebe, Wolfgang/Hewstone, Miles (2000), S. 1-33. Albert, Noel/Merunka, Dwight/Valette-Florence, Pierre (2008): When Consumers Love their Brands: Exploring the Concept and its Dimensions, Journal of Business Research, Vol. 61, S. 1062-1075.
Markenliebe: Vom Wesen der intensivsten aller Markenbeziehungen
609
Albert, Noel/Merunka, Dwight/Valette-Florence, Pierre (2009): The Feeling of Love Toward a Brand: Concept and Measurement, in: McGill, Ann L./Shavitt, Sharon (2009), S. 300-307. Allen, Natalie J./Meyer, John P. (1990): The measurement and antecedents of affective, continuance and normative commitment to the organization, Journal of Occupational Psychology, Vol. 63, S. 1-18. Amelang, Manfred (1991) Einstellungen zu Liebe und Partnerschaft: Konzepte, Skalen und Korrelate, in: Amelang, Manfred/Ahrens, Hans-Joachim/Bierhoff, Hans W. (1991), S. 153-196. Amelang, Manfred/Ahrens, Hans-Joachim/Bierhoff, Hans W. (Hrsg.) (1991): Attraktion und Liebe, Göttingen 1991. Aron, Arthur/Fisher, Helen/Mashek, Debra J./Strong, Greg/Li, Haifang/Brown, Lucy L. (2005): Reward, Motivation, and Emotion Systems Associated With Early-Stage Intense Romantic Love, Journal of Neurophysiology, Vol. 94, July, S. 327-337. Bartels, Andreas/Zeki, Semir (2000): The neural basis of romantic love, NeuroReport, Vol. 17(11), S. 3829-3834. Bartels, Andreas/Zeki, Semir (2004): The neural correlates of maternal and romantic love, NeuroImage, Vol. 21(3), S. 1155-1166. Bauer, Hans H./Bryant, Melchior D./Dirks, Thorsten (Hrsg.) (2008): Erfolgsfaktoren des Mobile Marketing, Berlin/Heidelberg 2008. Bauer, Hans H./Heinrich, Daniel/Mühl J. C. M (2008): Emotionale Kundenbindung im Mobilfunkmarkt, in: Bauer, Hans H./Bryant, Melchior D./Dirks, Thorsten (2008), S. 91-108. Bauer, Hans H./Heinrich, Daniel/Martin, Isabel (2007): How to Create High Emotional Consumer-Brand Relationships? The Causalities of Brand Passion, in: Proceedings of the 2007 Australian & New Zealand Marketing Academy Conference, S. 21892198. Beatty, Sharon E./Kahle, Lynn R./Homer, Pamela (1988): The Involvement-Commitment Model: Theory and Implications, Journal of Business Research Vol. 16(2), S. 149167. Bellman, Steven/Rossiter, John R. (2009): A New Conceptualization and Validation of Consumers’ Emotional Attachment to Brands. Working Paper, o.O. 2009. Berkowitz, Leonard (Hrsg.) (1987): Advances in Experimental Social Psychology, Vol. 2, New York 1987. Bowlby, John (1969): Attachment and loss: Attachment, New York 1969. Bowlby, John (1973): Attachment and loss: Separation, anxiety and anger, New York 1973. Bowlby, John (1980): Attachment and loss: Sadness and depression, New York 1980. Burmann, Christoph/Zeplin, Sabrina (2005): Building brand commitment: A behavioural approach to internal brand management, Journal of Brand Management, Vol. 12(4), S. 279-300. Calne, Donald B. (1999): Within Reason: Rationality and Human Behavior, New York 1999. Carroll, Barbara A./Ahuvia, Aaron C. (2006): Some Antecedents and Outcomes of Brand Love, Marketing Letters, Vol. 17, S. 79-89.
610
Tobias Langner / Jochen Kühn
Clark, Margaret S./Mills, Judson (1979): Interpersonal Attraction in Exchange and Communal Relationships, Journal of Personality and Social Psychology, Vol. 37, S. 1224. Cortsen, Michael (1993): Das Ich und die Liebe – Subjektivität, Intimität, Vergesellschaftung, Opladen 1993. Desai, Kalpesh K./Raju, Sekar (2007): Adverse Influence of Brand Commitment on Consideration of and Preference for Competing Brands, Psychology & Marketing, Vol. 24(7), July, S. 595-614. Diehl, Saskia (2009): Brand Attachment – Determinanten erfolgreicher Markenbeziehungen, Wiesbaden 2009. Esch, Franz-Rudolf (2009): Strategie und Technik der Markenführung, 5. Auflage, München 2009. Esch, Franz-Rudolf/Möll, Thorsten (2009): Ich fühle, also bin ich – Markenemotionen machen den Unterschied, Marketing Review St. Gallen, Heft 4/2009, S. 22-26. Fisher, Helen (2005): Warum wir lieben – Die Chemie der Leidenschaft, Düsseldorf/Zürich 2005. Fournier, Susan (1998): Consumers and Their Brands: Developing Relationship Theory in Consumer Research, Journal of Consumer Research, Vol. 24 (March), S. 343-373. GfK (2008): Lebenslange Markenbindung Realität oder Illusion, in: 27. Unternehmergespräch, Kronberg 2008. Grossmann, Klaus E./Grossmann, Karin (2003): Bindung und menschliche Entwicklung, John Bowlby, Mary Ainsworth und die Grundlagen der Bindungstheorie, Stuttgart 2003. Hatfield, Elaine (1988): Passionate and Companionate Love, in: Sternberg, Robert J./Barnes, Michael L. (1988), S. 191-217. Hendrick, Clyde/Hendrick, Susan S. (1989): Research on love: Does it measure up? Journal of Personality and Social Psychology, Vol. 56(5), May, S. 784-794. Hendrick, Clyde/Hendrick, Susan S. (1992): Romantic Love, Thousand Oaks 1992. Houston, Michael J. (Hrsg.) (1988): Advances in Consumer Research, 15, Provo, UT 1988. Jodl, Florian (2005): Liebe als Beziehungsform zwischen Konsumenten und Marken, Arbeitspapier Band 163, München 2005. Kahn, Barbara E./Luce, Mary F. (Hrsg.) (2004): Advances in Consumer Research, Vol. 31, Valdosta, GA 2004. Keh, Tat Hean/Pang, Juan/Peng, Siqing (2007): Understanding and Measuring Brand Love, in: Priester, Joseph R./MacInnis, Deborah J./Park, C. Whan (2007), S. 84-88. Kelley, Harold H./Thibaut, John W. (1978): Interpersonal relations: a theory of interdependence, New York u.a. 1978. Kim, Hye-Young/Kim, Youn-Kyung/Jolly, Laura/Fairhurst, Ann (2008): Satisfied Customers’ Love toward Retailers: A Cross-Product Exploration, Advances in Consumer Research, Vol. 35, S. 507-515. Kroeber-Riel, Werner/Weinberg, Peter/Gröppel-Klein, Andrea (2009): Konsumentenverhalten, 9. Auflage, München 2009.
Markenliebe: Vom Wesen der intensivsten aller Markenbeziehungen
611
Langner, Tobias/Fischer, Alexander/Kürten, Dennis (2009): The nature of brand love: Results from two exploratory studies, in: Terlutter, Ralf/Diehl, Sandra/Karmasin, Matthias/Smit, Edith (2009), S. 1-10. Langner, Tobias/Rossiter, John R./Fischer, Alexander/Kürten, Dennis (2010): The behavioral consequences of “loving” versus “liking” a brand and a typology of the origins of “brand love”, Manuskript in Bearbeitung. Lee, Angela Y./Soman, Dilip (Hrsg.) (2008): Advances in Consumer Research, 35, Duluth, MN 2008. Lee, John A. (1977): A typology of styles of Loving, Personality and Social Psychology Bulletin, Vol. 3, S. 173-182. Lee, John A. (1988): Love Styles, in: Sternberg, Robert J./Barnes, Michael L. (1988), S. 39-67. McGill, Ann L./Shavitt, Sharon (Hrsg.) (2009): Advances in Consumer Research, Vol. 36, Duluth, MN 2008. MacInnis, Deborah J./Park, C. Whan/Priester, Joseph W. (Hrsg.) (2009): The Handbook of Brand Relationships, Armonk/New York 2009. Matzler, Kurt/Pichler, Elisabeth A./Hemetsberger Andrea (2007): Who is Spreading the Word? The Positive Influence of Extraversion on Consumer Passion and Evangelism, in: 2007 AMA Winter Educators’ Conference Proceedings, S. 25-32. Meyer, John P./Allen, Natalie J. (1984): Testing the “Side-Bet Theory” of Organizational Commitment: Some Methodological Considerations, Journal of Applied Psychology, Vol. 69(3), S. 372-378. Meyer, John P./Allen, Natalie J. (1991): A Three-Component Conceptualization of Organizational Commitment, Human Resource Management Review, Vol. 1(1), S. 6189. Meyer, John P./Allen, Natalie J. (1997): Commitment in the Workplace – Theory, Research and Application, Thousand Oaks 1997. Nayakankuppam, Dhananjay/Priester, Joseph R. (2007): Attitude Formation Processes: Exploring When and Why Attitudes are Retrieved Rather than Constructed, in: Priester, Joseph R./MacInnis, Deborah J./Park, C.Whan (2007), S. 33. Pawle, John/Cooper, Peter (2006): Measuring Emotion-Lovemarks, the Future Beyond Brands, Journal of Advertising Research, March 2006, S. 38. Priester, Joseph R./MacInnis, Deborah J., Park/C.Whan (Hrsg.) (2007): New Frontiers in Branding: Attitudes, Attachments, and Relationships, Santa Monica, CA 2007. Roberts, Kevin (2006): The Lovemarks Effect: Winning in the Consumer Revolution, New York 2006. Robertson, Thomas S./Kassarjian, Harold H. (Hrsg.) (1991): Handbook of Consumer Behavior, New Jersey 1991. Rossiter, John R./Percy, Larry/Donovan, Robert J. (1991): A Better Advertising Planning Grid, Journal of Advertising Research, 31(5), S. 11-21. Salzmann, Ralph (2007): Multimodale Erlebnisvermittlung am Point of Sale, 1. Auflage, Wiesbaden 2007. Shimp, Terence A./Madden, Thomas J. (1988): Consumer-Object Relations: A Conceptual Framework Based Analogously on Sternberg’s Triangular Theory of Love. in: Houston, M. J. (1988): Advances in Consumer Research, S. 163-168.
612
Tobias Langner / Jochen Kühn
Sternberg, Robert J. (1986): A Triangular Theory of Love, Psychological Review, Vol. 93(2), S. 119-135. Sternberg, Robert J. (1988): Triangulating Love, in: Sternberg, Robert J./Barnes, Michael L. (1988), S. 119-139. Sternberg, Robert J. (2006): A Duplex Theory of Love, in: Sternberg, Robert J./Weis, Karin (2006), S. 184-199. Sternberg, Robert J./Barnes, Michael L. (Hrsg.) (1988): The Psychology of Love, New Haven 1988. Sternberg, Robert J./Weis, Karin (Hrsg.) (2006): The New Psychology of Love, New Haven 2006. Stoll, Marco/Baecke, Sebastian/Kenning, Peter (2008): What they see is what they get? An fMRI-study on neural correlates of attractive packaging, Journal of Consumer Behaviour, Vol. 7, July/October, S. 342-359. Stroebe, W./Hewstone, M. (Hrsg.) (2000): European Review of Social Psychology. Terlutter, Ralf/Diehl, Sandra/Karmasin, Matthias/Smit, Edith (Hrsg.) (2009): Proceedings of the 8th ICORIA, Vol. 8, Klagenfurt, Austria 2009. Thomson, Matthew/MacInnis, Deborah J./Park, C. Whan (2005): The Ties that Bind: Measuring the Strength of Consumers’ Emotional Attachment to Brands, Journal of Consumer Psychology, Vol. 15(1), S. 77-91. Thurstone, Louis L. (1928): Attitudes Can Be Measured, American Journal of Sociology, Vol. 33, S. 529-554. Van Knippenberg, Daan/Sleebos, Ed (2006): Organizational Identification versus Organizational Commitment: Self-definition, Social Exchange and Job Attitudes, Journal of Organizational Behavior, Vol. 27(5), S. 571-584. Vasek, Thomas (2004): Direkt ins Gehirn, Technology Review, Heft 10/2004, S. 223-248. Whang, Yun-Oh/Allen, Jeff/Sahoury, Niquelle/Zhang, Haitao (2004): Falling in Love with a Product: The Structure of a Romantic Consumer-Product Relationship, in: Kahn, Barbara E./Luce, Mary F. (2004), S. 320-327. Yeung, Catherine W. M./Wyer Jr., Robert S. (2005): Does Loving a Brand Mean Loving its Products? The Role of Brand-Elicited Affect in Brand Extension Evaluations, Journal of Marketing Research, Vol. 42(4), S. 495-506. Yim, Chi K. B./Tse, David/Chan, Kimmy W. (2008): Strengthening Customer Loyalty Through Intimacy and Passion: Roles of Customer-Firm Affection and CustomerStaff Relationship in Services, Journal of Marketing Research, Vol. XLV (December 2008), S. 741-756.
Das Versicherungsprodukt der Zukunft – Unter besonderer Berücksichtigung der Privaten Krankenversicherung Josef Beutelmann
Dieser Beitrag setzt sich mit der Fragestellung auseinander, wie ein Versicherungsprodukt der Zukunft ausgestaltet sein kann. Im ersten Kapitel wird das Versicherungsprodukt aus wissenschaftlicher Sicht umschrieben. Im zweiten Kapitel erfolgen dann eine Betrachtung der vorherrschenden Rahmenbedingungen und die Identifizierung von künftigen Marktpotenzialen in der Versicherungswirtschaft. Im abschließenden dritten Kapitel wird eine modellhafte Skizzierung eines möglichen Versicherungsproduktes der Zukunft vorgenommen.
1
Das Versicherungsprodukt in der wissenschaftlichen Literatur
Was ist eigentlich eine Versicherung? Auf diese scheinbar triviale Frage bietet die wissenschaftliche Literatur eine Vielzahl an Definitionen. Im Folgenden werden einige exemplarisch genannt. „Versicherung ist gegenseitige Deckung zufälligen schätzbaren Geldbedarfs zahlreicher gleichartig bedrohter Wirtschaften.“1 „Versicherung ist Deckung eines im Einzelnen ungewissen, insgesamt aber schätzbaren Geldbedarfs auf der Grundlage eines durch Zusammenführung einer genügend großen Anzahl von Einzelwirtschaften herbeigeführten Risikoausgleichs.“2 „Versicherung ist planmäßige und entgeltliche Deckung eines risikobedingten Eventualbedarfs.“3 1 2
Manes (1930), Sp. 290. Hax (1964), S. 22.
614
Josef Beutelmann „Versicherung ist die Deckung eines im Einzelnen ungewissen, insgesamt geschätzten Mittelbedarfs auf der Grundlage des Risikoausgleichs im Kollektiv und in der Zeit.“4 „Versicherung ist die Verknüpfung eines Kapital-, Risiko- und Informationstransfers. Der Kapitalbedarf löst eine bedingte Forderung aus, die beim Versicherungsnehmer risikomindernd wirkt. Im Versicherungsvertrag verpflichtet sich der Versicherte, dem Versicherer bestimmte Informationen zu überlassen.“5
Schon aus diesen wenigen Definitionen wird deutlich, dass keine eindeutige Versicherungsdefinition existiert. Grund hierfür dürfte neben den unterschiedlichen Sichtweisen der Autoren, auch die Vielfältigkeit der beteiligten Wissenschaften zur Erfassung des Sachverhalts Versicherung sein. So führt Farny an: „Versicherung ist eine Synthese aus vielen verschiedenartigen Elementen. Die Untersuchung der Versicherung mit wissenschaftlichen Methoden ist deshalb durch interdisziplinäre Ansätze gekennzeichnet.“6
Alle angeführten Definitionen haben aber gemein, dass ein Risikotransfer vom Versicherten auf den Versicherer erfolgt. 1.1 Versicherungstheorie7 Die methodische Beschreibung der Versicherungsbetriebslehre erfolgt sowohl deduktiv durch Ableitungen aus der Allgemeinen Betriebswirtschaftslehre als auch induktiv durch Gewinnung von Aussagen aus der Beobachtung der Realität. Im Folgenden werden die wichtigsten Konzeptionen der Versicherungsbetriebslehre nach Farny beschrieben.
1.1.1 Unternehmensbezogene Versicherungsbetriebslehre Die unternehmensbezogene Versicherungsbetriebslehre betrachtet den gesamten institutionellen Rahmen eines Versicherungsunternehmens (VU). Neben seiner wirtschaftlichen und rechtlichen Struktur werden auch die wirtschaftlichen Pro-
3 4 5 6 7
Braeß (1960), S. 14. Farny (2006), S. 8. Schulenburg (2005), S. 36. Farny (2006), S. 15. Vgl. Farny (2006), S. 2 ff.
Das Versicherungsprodukt der Zukunft
615
zesse innerhalb des VU und seine Beziehungen zur Umwelt beobachtet. Hieraus lassen sich folgende Ansätze ableiten.
1.1.1.1 Entscheidungsorientierter Ansatz Der entscheidungsorientierte Ansatz konzentriert sich auf die Summe der Entscheidungen innerhalb eines VU, d. h. die Summe der Entscheidungen über die Unternehmensziele sowie der Einsatz der dafür erforderlichen Mittel. Neben der Auswahl der Struktur des Unternehmens und den Programmen für die Aktivitäten fallen hierunter die betrieblichen Prozesse. Anhand dieses Ansatzes lassen sich die vielfältigen Anforderungen an einen Entscheidungsprozess erklären.
1.1.1.2 Güterwirtschaftlicher Ansatz Beim güter- oder produktionstechnischen Ansatz steht die VersicherungsschutzProduktion im Fokus. Mit dem geringsten Mitteleinsatz soll ein bestimmtes Produktionsergebnis bzw. mit gegebenen Mitteln ein möglichst großes Ergebnis erzielt werden (ökonomisches Prinzip). Bei der Anwendung stehen die InputOutput-Beziehungen im Risiko- und Dienstleistungsgeschäft im Vordergrund. Dieser aus der Produktion von materiellen Wirtschaftsgütern bekannte Ansatz wird auf das immaterielle Wirtschaftsgut Versicherung angewendet.
1.1.1.3
Funktionaler Ansatz
Der funktionale Ansatz ist vorzugsweise mit dem organisatorischen Aufbau eines VU zu erklären. Kernpunkte der Organisationslehre sind die Struktur und die Abläufe (wie zum Beispiel Beschaffung, Leistungserstellung und Absatz). Die Organisation bezieht sich somit einerseits auf die Struktur des Unternehmens (Aufbauorganisation) als auch auf die Prozesse im Unternehmen (Ablauforganisation).
1.1.1.4 Weitere Ansätze Neben den obigen drei Konzeptionen lassen sich noch weitere Theorien ergänzen. Sie sind dadurch gekennzeichnet, dass sie jeweils keine vollständigen Erklärungsansätze darstellen und nur Teilbereiche abbilden. Der genetische oder sach-
616
Josef Beutelmann
verhaltsbezogene Ansatz konzentriert sich auf einzelne wichtige Sachverhalte im Unternehmenszyklus. Der systemtheoretische Ansatz erklärt ein VU als System von durch organisatorische Regelungen untereinander verknüpften Elementen. Der sozial- bzw. verhaltenswissenschaftliche Ansatz wiederum untersucht die mit dem VU in Beziehung stehenden Menschen und die Ausprägung ihrer Bedürfnisbefriedigung.
1.1.2 Marktbezogene Versicherungsbetriebslehre Die marktbezogene Versicherungsbetriebslehre bildet die Herstellung des Produktes und den Absatz an den Kunden ab. Sie ist die wirtschaftliche Theorie des Versicherungsmarktes. Diese Theorie ist im Zusammenhang mit der produktbezogenen Versicherungsbetriebslehre zu sehen, da sich beide mit der Produktion beschäftigen.
1.1.3 Finanzierungs- und kapitalmarktbezogene Versicherungsbetriebslehre Diese Versicherungstheorie beschäftigt sich mit der Abbildung von versicherungswirtschaftlichen Problemstellungen in finanzierungs- und kapitalmarkttheoretischen Modellen. Im Vordergrund steht weniger das Wirtschaften des VU als vielmehr die Geschäftsbeziehungen zwischen VU und Versicherten sowie dem Finanzmarkt. Das VU tritt als Finanzintermediär auf. Das Versicherungsgeschäft stellt hierbei einen Tausch von gegenwärtigen deterministischen Zahlungen und zukünftigen wahrscheinlichkeitsverteilten Zahlungen dar.
1.1.4 Produktbezogene Versicherungsbetriebslehre Dieser Ansatz bezieht sich auf das Versicherungsgeschäft an sich. Die Merkmale des Versicherungsproduktes stehen im Vordergrund. Auf Grund der vielfältigen realen und wissenschaftlichen Hintergründe einer Versicherung ist es schwierig, eine einheitliche Zusammenfassung der Merkmale und Begriffe einer Versicherung vorzunehmen. Im Folgenden werden die gängigen und mitunter unterschiedlichen Ansätze vorgestellt.
Das Versicherungsprodukt der Zukunft
617
1.1.4.1 Versicherungsschutzkonzept nach Farny Kern des Versicherungsproduktes ist der Versicherungsschutz. Der Versicherungsschutz umfasst ein abstraktes Dauerschutzversprechen, das nach Eintritt exakt definierter Versicherungsfälle eingelöst wird. Im Sinne der Risikotransfertheorie erfolgt hierbei die Risikoübertragung vom Versicherungsnehmer (VN) auf den Versicherer gegen Zahlung einer Prämie. 1.1.4.2 Drei-Ebenen-Konzept nach Haller8 Haller bildet Versicherungsprodukte auf drei Ebenen ab. Auf der ersten Ebene steht das Kernprodukt Versicherungsschutz. Auf der zweiten Ebene werden die mit dem Kernprodukt unmittelbar verbundenen Dienstleistungen abgebildet. Auf einer dritten, weitgehend offenen Ebene werden all die Dienstleistungen abgebildet, welche als Problemlöser beim Kunden dienen. 1.1.4.3 Informationskonzept nach Müller9 Dieser Ansatz berücksichtigt die Tatsache, dass VN durch die Versicherung die Möglichkeit haben, die mit Entscheidungen verbundenen Risiken zu reduzieren. Das VU überlässt dem VN Informationen über zuverlässige Zustände des versicherten Gegenstandes und verringert so sein Informationsdefizit. Dadurch verringert sich das Prognoserisiko des VN und es findet ein Risikotransfer statt. 1.1.4.4 Optionskonzept nach Maneth10 Diesem Konzept liegt die Überlegung zugrunde, dass Versicherungsgeschäfte Optionsgeschäften gleichen, da bei beiden Geschäften gegenwärtige gewisse Geldzahlungen gegen künftige ungewisse Geldzahlungen getauscht werden. Das Optionsmodell kann insofern mit dem Risikotransfervorgang verglichen werden. Erschwert wird dies aber durch den Umstand, dass Basiswerte – wie im Fall von Optionsgeschäften notwendig – bei Versicherungsgeschäften nur schwer ermittelbar sind.
8 9 10
Vgl. Gericke (2001), S. 3 ff. Vgl. Müller (1981), S. 165 ff. Vgl. Köhne (2008), S. 19 ff.
618
Josef Beutelmann
1.2 Geschäftstypen in der Versicherung 1.2.1 Das Versicherungsgeschäft11 Das Versicherungsgeschäft kann sowohl aus Sicht des VU als auch Sicht des VN erklärt werden. Das VU produziert Versicherungsschutz und übernimmt das Risiko. Der VN verwendet diesen Versicherungsschutz nutzenstiftend und bezahlt dafür eine Risikoprämie. Der Versicherungsschutz stellt ein immaterielles Wirtschaftsgut dar. Der Produzent nimmt dieses als komplexes Leistungsbündel wahr. Aus Sicht des VN handelt es sich um ein komplexes Nutzenbündel. Das Versicherungsgeschäft kann in die Bestandteile Risikogeschäft, Spar- und Entspargeschäft und Dienstleistungsgeschäft zerlegt werden, welche im Folgenden näher erläutert werden.
1.2.1.1 Risikogeschäft Kennzeichen des Versicherungsgeschäftes ist das Risikogeschäft. Durch die Abgabe des Versicherungsschutzversprechens und die Erbringung der Versicherungsleistungen beim tatsächlichen Eintritt von Versicherungsfällen erfolgt die Risikodeckung. Ein Ausgleich der Risiken erfolgt dabei im Kollektiv und in der Zeit. Die Wahrscheinlichkeitsverteilungen von Schäden können als reine oder spekulative Risiken bezeichnet werden. Bei reinen Risiken kann es nur zu ungünstigen Abweichungen kommen. Bei spekulativen Risiken kann es auch zu günstigen Abweichungen von den Erwartungswerten kommen. Günstige Abweichungen werden dabei als Chance betrachtet. Ein Risiko muss erkannt und bewertet werden, bevor es korrekt versichert werden kann. Dies erfolgt mit Hilfe von Risikomerkmalen. Risikomerkmale sind Eigenschaften der versicherten Risiken, die die Schadensverteilung beeinflussen. Unter Berücksichtigung der Risikomerkmale werden einzelne – möglichst homogene – Risikoklassen gebildet. Für diese Risikoklassen wird dann eine Risikoprämie ermittelt. Nachdem die Risikoprämie ermittelt wurde, kann der Risikotransfer zu Stande kommen. Voraussetzung hierfür ist, dass beide Parteien das Geschäft als nützlich beurteilen. Für den VN muss also der Missnutzen aus der Zahlung der Risikoprämie kleiner als der Nutzen aus der Risikoabgabe sein. Grundsätzlich muss der VN risikoavers sein, da die Bruttoprämie den Schadenerwartungswert übersteigt. Der 11
Vgl. Farny (2006), S. 21 ff.
Das Versicherungsprodukt der Zukunft
619
Versicherer wiederum ist zum Risikotransfer dann bereit, wenn der Nutzen aus der Prämienzahlung den Missnutzen aus der Übernahme der Schadenverteilung – nämlich der Tragung der zu erwartenden Versicherungsleistung und der damit verbundenen Streuung (versicherungstechnisches Risiko) – übersteigt. Wie zuvor erwähnt, erfolgt ein Ausgleich der Risiken im Kollektiv und in der Zeit. Diese Ausgleichprozesse werden im Folgenden näher erläutert. Das VU übernimmt eine große Zahl von Schadenverteilungen und bildet hieraus ein Risikokollektiv. Die Über- und Unterschäden der Einzelrisiken gleichen sich in dem Risikokollektiv teilweise oder ganz aus. Hierbei gilt regelmäßig, dass wenige große Überschäden durch viele kleine Unterschäden ausgeglichen werden. Das VU strebt also danach, relevante statistische Gesetzmäßigkeiten festzustellen, um ein Kollektiv aus den Einzelrisiken zu bilden, die sich in der Gesamtheit möglichst gut ausgleichen. Je größer dabei das Kollektiv ist, desto besser können die Schadenmerkmale prognostiziert werden, da der Variationskoeefizient entsprechend kleiner wird (Gesetz der großen Zahl). Das Modell des Risikoausgleichs im Kollektiv beschränkt sich auf eine bestimmte Zeitperiode. Dies ist in der Praxis regelmäßig ein Kalenderjahr. Zugleich bestehen Versicherungsverhältnisse in der Realität aber über einen längeren Zeitraum. Das bedeutet, dass individuelle und kollektive Über- und Unterschäden zwar innerhalb einer einzigen Zeitperiode auftreten können, aber diese auch durchaus überschreiten. Der Risikoausgleich in der Zeit kann als Abfolge mehrerer einperiodischer Risikoausgleiche im Kollektiv verstanden werden. Aus den einzelnen Perioden entstehen entsprechend Über- und Unterschäden. Über die Zeit gleichen sich diese Schwankungen dann ganz oder teilweise aus. Für den Risikoausgleich in der Zeit gelten jedoch einschränkende Voraussetzungen, die in der Praxis regelmäßig nicht eingehalten werden. So sollten sich die Eigenschaften der Einzelrisiken und das Gesamtrisikokollektiv im Zeitablauf nicht verändern. Zudem sollten die Realisationen der Schäden im Zeitablauf voneinander unabhängig sein. Von großer Bedeutung ist der Risikoausgleich in der Zeit insbesondere bei Risiken mit geringen Schadeneintrittswahrscheinlichkeiten und hohen möglichen Schäden.12
12
Als Beispiel ist an dieser Stelle die Absicherung gegen Naturkatastrophenschäden zu nennen, die ein sehr hohes Potenzial bzgl. des Schadenumfangs innehaben. Die Eintrittswahrscheinlichkeiten sind wiederum vergleichsweise gering. Solche Schäden werden als Jahrhundertbzw. Jahrtausend-Schäden beschrieben. Neben der Tragung in den eigenen Büchern erfolgt regelmäßig eine Risikoteilung über Mit- und Rückversicherung.
620
Josef Beutelmann
1.2.1.2 Spar- und Entspargeschäft13 „In einigen Versicherungszweigen ist das Risikogeschäft rechtlich oder faktisch mit Spar- und Entspargeschäften verbunden.“14
Bei einem Spargeschäft zahlt der VN an das VU einmalig oder laufend Sparbeiträge. Das VU verpflichtet sich, diese zu verzinsen. Zu bestimmten Zeiten oder bei Eintritt vorab definierter Voraussetzungen wird das verzinste Kapital an den VN gezahlt. Diese Zahlung kann in Form eines Einmalbetrages oder als laufende Rente erfolgen. Spargeschäfte kommen hauptsächlich in den Versicherungszweigen Lebensversicherung, Krankenversicherung nach Art der Lebensversicherung und in der Unfallversicherung mit Prämienrückgewähr vor. Bei einem Entspargeschäft überlässt der VN dem VU Kapital, das planmäßig in Form von Rentenzahlungen während eines bestimmten oder unbestimmten Zeitraums ausgezahlt wird.
1.2.1.3 Dienstleistungsgeschäft Erst durch viele notwendige Dienstleistungen werden Risiko-, Spar- und Entspargeschäfte zu einem fungiblen Wirtschaftsgut. Diese Dienstleistungen werden unter anderem in Beratungs- und Abwicklungsleistungen unterteilt. Sie erfolgt sowohl vor als auch während der Vertragslaufzeit. Abwicklungsleistungen beziehen sich auf die Bearbeitung des Risiko-, Spar- und Entspargeschäftes. Dienstleistungsgeschäfte können weiterhin in interne (innerbetriebliche) und externe (kundenbezogene) Leistungen gegliedert werden. Interne Leistungen, wie beispielsweise die Informations- und Datenvorbereitung sind für den Kunden nicht unmittelbar wahrnehmbar, sind aber zugleich Voraussetzung für die externe Beratung. Bei externen Leistungen handelt es sich wiederum um den unmittelbaren Kommunikationsprozess zwischen Versicherer und VN.
13 14
Das Spar- und Entspargeschäft ist in Abgrenzung zu reinen Bankgeschäften grundsätzlich durch das Vorliegen von Risikotransfer gekennzeichnet. Farny (2006), S. 54.
Das Versicherungsprodukt der Zukunft
621
1.2.2 Weitere Geschäftstypen15 1.2.2.1 Kapitalanlagegeschäft Kapitalanlagegeschäfte sind ein weiterer Gegenstand des Wirtschaftens im VU. Hierbei handelt es sich vorrangig um die Überlassung von Kapital- und Mietüberlassungen an Dritte. Die Zahlungsmittelbestände gelangen in Form von Prämienvorauszahlungen, vorrätigen Sicherheitsmitteln und auf Grund von Sparund Entspargeschäften in das VU.
1.2.2.2 Sonstige Geschäfte In der Praxis haben sonstige Geschäfte neben dem Versicherungs- und dem Kapitalanlagegeschäft an Bedeutung gewonnen. Hierbei handelt es sich regelmäßig um Dienstleistungen für Dritte. Zu den bedeutenden Geschäftsfeldern gehören unter anderem Finanzdienstleistungen, Management- und Betriebsführungsdienstleistungen und Assistanceleistungen.
1.2.2.3 Assistanceleistungen Im Folgenden wird die Thematik „Assistanceleistungen“ näher betrachtet, da der Assistance – wie unter „3.2 Assistance- und Serviceleistungen als Missing-Link“ angeführt – in der Produktkonzeption eine immer wichtigere Stellung zu Teil wird. „Assistance-Geschäfte sind Hilfs-, Beistands-, Notfall-, Problemlösungs-, Serviceoder ähnliche Leistungen in bestimmten Situationen.“16
Assistance-Geschäfte können nach dem Grad der Betreibung unterschieden werden. Die Ausprägungen reichen von der bloßen Abgabe von Informationen über die Vermittlung der Assistanceleistungen bis hin zur Übernahme der Kosten für die Assistanceleistungen (zum Beispiel Schutzbriefversicherung). AssistanceGeschäfte werden regelmäßig von mehreren Beteiligten betrieben. Beteiligt sind das Assistanceunternehmen, das dienst- und werkleistende Unternehmen und das (unter Umständen kostenübernehmende) VU.
15 16
Vgl. Farny (2006), S. 93 ff. und S. 365 ff. Farny (2006), S. 365.
622
Josef Beutelmann
Es gilt hierbei zu berücksichtigen, dass VU gemäß § 7 Absatz 2 Versicherungsaufsichtsgesetz nur solche Geschäfte neben dem Versicherungsgeschäft betreiben dürfen, die in unmittelbaren Zusammenhang mit dem Versicherungsgeschäft stehen. Als Beispiel sind alle Leistungen zu erwähnen, die im Zusammenhang mit der Schadenbearbeitung stehen. Nicht im unmittelbaren Zusammenhang mit dem Versicherungsgeschäft stehende Assistance-Geschäfte kann das VU über selbstständige Unternehmen im Konzern erbringen oder über Kooperation mit externen Assistance-Unternehmen beziehen. Das VU profitiert mehrfach vom Angebot von Assistance-Geschäften. Je nach erbrachter Assistance-Leistung erhält das VU vom VN eine Vergütung. Wesentlich wichtiger als dies ist aber die Anreicherung des Nutzens von Versicherungsgeschäften und damit verbunden die Verbesserung der Kundenbeziehungen. Das VU verlässt hierbei seine „klassische“ Rolle des „Zahlers“ und wird für den VN zum „Problemlöser“. Farny beschreibt den Assistance-Gedanken folgerichtig als Fortentwicklung des Servicegedankens. Assistance ermöglicht es dem VU, die Kundenbindung im ansonsten überaus abstrakten Versicherungsgeschäft zu erhöhen. Er nimmt eine Art „Kümmerer“-Funktion ein und emotionalisiert dadurch die Kundenbeziehung nachhaltig positiv. Zahlreiche Studien belegen, dass der Geschäftsbereich „Assistance“ für die Assekuranz das Thema der Zukunft ist. Diesen Studien bieten ebenfalls einen Überblick über die Vielfalt der in der Versicherungswirtschaft zum Einsatz kommenden Assistance-Leistungen.17 1.3 Versicherungsprodukt18 Das Versicherungsprodukt ist immateriell und nicht lagerbar. Das Fehlen der physischen Substanz eröffnet eine Vielzahl an Freiheitsgraden in der Produktgestaltung, welche aber durch den Umstand beschränkt wird, dass das Produkt für den Kunden verständlich bleiben muss. Eng mit dem Versicherungsprodukt verbunden ist somit ein ausgeprägter Erläuterungsbedarf.
1.4 Konsequenz für das Versicherungsprodukt der Zukunft An dieser Stelle soll die kurze Einführung in die wissenschaftliche Umschreibung des Versicherungsproduktes und der dahinter stehenden Versicherungsbetriebslehre genügen und ein erstes Zwischenfazit gezogen werden. 17 18
Vgl. Krah (2009) S. 16 ff. Vgl. Farny (2006), S. 380 ff.
Das Versicherungsprodukt der Zukunft
623
Die weiteren Überlegungen bei der Ausgestaltung eines „Versicherungsproduktes der Zukunft“ orientieren sich naheliegenderweise an der produktbezogenen Versicherungsbetriebslehre. Dabei sind die diesem Ansatz zugeordneten Konzepte nach ihrer Verwendungsfähigkeit bei der Produktentwicklung zu unterscheiden. Das Versicherungsschutzkonzept von Farny und das Drei-EbenenKonzept von Haller stellen die Grundlage für diesen Beitrag dar. Diese ganzheitlichen Konzepte decken alle Aspekte der Produktion von Versicherungsschutz ab, während andere Konzepte (beispielsweise Informations- und Optionskonzept) eher Teilaspekte in den Vordergrund stellen. In Abbildung 1 wird die zuvor vorgestellte Gliederung des Versicherungsgeschäfts in die Bestandteile Risikogeschäft, Spar-/Entspargeschäft und Dienstleistungsgeschäft um den Bestandteil „Assistance-Geschäft“ erweitert, um den künftigen Wachstums- und Zukunftschancen des Assistance-Geschäftes die entsprechende Berücksichtigung zu geben. Abbildung 1:
Zerlegung des Versicherungsproduktes in vier Ebenen19
Vier-Ebenen-Konzept
Assistance-Ebene Dienstleistungs-Ebene Spar-/Entspar-Ebene Risiko-Ebene
In Anlehnung an Haller erfolgt eine Darstellung auf Ebenen, wobei jede höhere Ebene die unteren Ebenen beinhaltet. Im Gegensatz zum Drei-Ebenen-Konzept nach Haller wird sowohl das Spar-/Entspargeschäft als auch das Assistancegeschäft als eigene Ebene abgebildet. Das Assistance-Geschäft tritt hierbei an die Stelle der durch Haller als „nach oben offen“ definierten dritten Ebene. Die nach Haller als Kernprodukt „Versicherungsschutz“ definierte erste Ebene wird in 19
Quelle: Eigene Darstellung in Anlehnung an: Gericke (2001), S. 3 ff.; Farny (2006), S. 21 ff.
624
Josef Beutelmann
zwei Ebenen zergliedert. Das Vier-Ebenen-Konzept wird als Ableitung der Konzepte von Haller und Farny verstanden, um einem im Wandel befindlichen Kundenverhalten entsprechende Berücksichtigung zu Teil kommen zu lassen. Das Risikogeschäft bleibt dabei Kern des Versicherungsproduktes, verliert aber zu Lasten anderer Bestandteil an Bedeutung. Im folgenden Kapitel „Marktbedingungen im Wandel und künftige Marktpotenziale“ wird der Fokus auf die Beschreibung veränderter Rahmenbedingungen für die Versicherungswirtschaft und die Identifizierung künftiger Marktpotenziale gelegt.
2
Marktbedingungen im Wandel und künftige Marktpotenziale
Das Jahr 1994 kann sicherlich als Jahr der Revolution für die Assekuranz umschrieben werden. Im Sommer des besagten Jahres erfasste der Europäische Binnenmarkt erstmalig auch die Versicherungswirtschaft. Seitdem dürfen in Deutschland Versicherungspolicen aus EU-Ländern verkauft werden und auch deutsche Verträge sind zum Verkauf im europäischen Ausland freigegeben. Weiterhin entfiel mit der Einführung des einheitlichen EU-Marktes auch die Vorabprüfung und -freigabe von Produkten und Tarifen durch die Versicherungsaufsicht. Dies sollte die Initialzündung für einen Wandel des Versicherungsmarktes darstellen. Im Rückblick hat die Deregulierung eine Vielzahl an Produktvariationen und -innovationen zu Tage gebracht. Der hohe Differenzierungsgrad der entstandenen Versicherungsprodukte und die damit verbundene Komplexität der Bedingungswerke sind für den VN mitunter nur noch schwer zu durchschauen. Es bleibt aber unbestritten, dass der Verbraucher besonders auf Grund der schnell sinkenden Preise als Profiteur der Deregulierung hervorging. Der einsetzende Preis-, Produkt- und Bedingungswettbewerb führte aber nicht nur zu einer Veränderung auf der Verbraucherseite, sondern zwang auch die VU zu einem Kurswechsel. Vorbei waren die Zeiten, in denen die Versicherungswirtschaft auskömmliche Deckungsbeiträge mit einer über den Markt hinweg homogenen Produktpalette generieren konnte. Der Wettbewerb verschärfte sich relativ zügig. Der nächste große Einschnitt für die Assekuranz war der Terroranschlag auf das World Trade Center am 11.09.2001. Neben dem damit verbundenen versicherungstechnischen Schaden setzten der starke Einbruch an den Kapitalmärkten die Assekuranz unter Druck. Konsolidierung, verstärkte Aufsichtsvorschriften und ein erneutes Umdenken in der Unternehmenssteuerung waren die Folge. Mit
Das Versicherungsprodukt der Zukunft
625
der im Jahre 2003 einsetzenden Erholung der Kapitalmärkte und nach diversen Marktreinigungsprozessen erholte sich die Assekuranz zügig. Der Ausbruch der Subprimekrise im Frühjahr 2007 stürzte die Welt in eine Weltwirtschaftskrise, welcher sich auch die Assekuranz nicht entziehen konnte. Auch wenn man aus den Jahren 2001/2002 seine Lehren gezogen hat und entsprechend vorsichtiges Kapitalanlage-Management betreibt, sind Wertverluste unvermeidlich. All diese historischen Einschnitte blieben nicht ohne Einfluss sowohl auf die Produktion, als auch auf die Produkte der Versicherungswirtschaft. Solche exogenen Einflüsse sind nicht vorhersehbar und müssen folglich für die Betrachtung des Versicherungsproduktes der Zukunft ausgeblendet werden. Die weiteren Beobachtungen konzentrieren sich auf die Identifizierung der Versicherungssparten, in denen künftig ein hohes Marktpotenzial zu erwarten ist und auf die sich bei der Konzeption neuer Produkte konzentriert werden sollte.
2.1 Marktsättigung in der Versicherungswirtschaft? Aus Abbildung 2 ist gut zu erkennen, dass die Personenversicherungssparten Leben und Kranken im Betrachtungszeitraum ein durchschnittlich höheres Beitragswachstum als die Sachversicherungen generiert haben. Wird unterstellt, dass sich diese vergangenheitsorientierte Entwicklung auch künftig fortsetzt, so ist dies ein erstes Indiz, sich bei der Produktentwicklung auf die Personenversicherungssparten zu konzentrieren. Die in Abbildung 3 dargestellte Marktdurchdringung bestätigt die zuvor getroffene Annahme, dass in der Personenversicherung das höchste Wachstumspotenzial zu vermuten ist. Speziell die private Krankenversicherung ist mit einer Marktdurchdringung von knapp über 12 Prozent auf den ersten Blick ein potenzielles Betätigungsfeld. Hierbei ist aber zu berücksichtigen, dass ein großer Anteil in der privaten Krankenversicherung auf die substitutive Krankheitskostenvollversicherung entfällt, welche diversen Zugangsbeschränkungen unterliegt, die an dieser Stelle nicht weiter vertieft werden sollen. Aus diesem Grund wird in Abbildung 4 eine separate Auswertung der Marktdurchdringung in der Kranken- und Pflegeergänzungsversicherung vorgenommen. Hierbei wird zum einen das darin steckende enorme Marktpotenzial deutlich, zugleich ist aber auch hier ein stark ausgeprägtes Gefälle erkennbar. Exakte Erklärungen für dieses Gefälle sind nicht bekannt, aber es lassen sich durchaus einleuchtende Gründe dafür finden. Die vergleichsweise hohe Durchdringung bei den Zahnergänzungsversicherungen von 16,8% dürfte aus dem Umstand resultieren, dass diese Art von Versicherung vergleichsweise
626
Josef Beutelmann
preiswert ist und die aus einem möglichen Behandlungsfall resultierenden Behandlungskosten nicht erst im hohen Alter, sondern schon in jungen Jahren gehäuft auftreten können. Für den VN ist das Risiko also zeitlich nah und damit wesentlich bedrohlicher, was häufiger zur Absicherung über eine Krankenergänzungsversicherung führt. Weiterhin zahlen die gesetzlichen Krankenkassen seit dem Jahr 2005 lediglich einen festen Zuschuss zur sogenannten ZahnersatzRegelversorgung, die sich am jeweiligen Zahnbefund orientiert. Dieser Festzuschuss beträgt zwischen 50 und 65 Prozent der Kosten für die jeweilige Regelversorgung. Dem Versicherten verbleibt also ein Eigenanteil von 35 bis 50 Prozent. Wenn Versicherte darüber hinaus einen über die Regelversorgung hinausgehenden Zahnersatz wählen, erhalten sie den Festzuschuss und müssen die Mehrkosten in voller Höhe selber tragen. Eine Absicherung des Eigenanteils und der Mehrkosten erfolgt vermehrt über private Krankenergänzungsversicherungen. Abbildung 2:
Beitragssteigerungen in der Versicherungswirtschaft (Stand 07/2009)20 Beitragssteigerungen de r V ersicherungsw irtschaft Ges am t
LV
2 003
2 004
KV
SV
200 5
2 00 6
8,0 % 7,0 % 6,0 % 5,0 % 4,0 % 3,0 % 2,0 % 1,0 % 0,0 % -1,0 % -2,0 %
20 00
20
200 1
2 00 2
2 007
2008
20 09
Quelle: Eigene Darstellung in Anlehnung an: Datengrundlage Gesamtverband der Deutschen Versicherungswirtschaft; Statistische Rundschreiben.
Das Versicherungsprodukt der Zukunft
627
Marktdurchdringung einzelner Versicherungssparten21
Abbildung 3:
Versicherungsschutz der Haushalte 2007 | 2008 Prozent angaben repräsentativ Befragter über das Vorhandens ein einzelner Vers ic herungen im Haushalt 90 76,5
80 70,8 70 60 50 41,0 40 30 20
41, 6
35,1 23,7
25,5
12,2
10
er bs u
rw
B
er uf sun d
E
Pr iv
at e
K
ra nk en ve rs nf ic äh he ig ru ke ng its Pr ve iv at rs e ic R he en ru te ng nv er Vo si ch llk er as un ko g ve P riv rs ic at he e U ru nf ng a R l l v ec e rs ht ich ss ch er Pr un ut iva zv g er te si H ch af er tp un fli ch g tv er si ch Ha er us un ra g tv er si ch er un g
0
Die geringere Marktdurchdringung von 8,7 % bei ambulanten Krankenergänzungsversicherungen ist höchstwahrscheinlich dem Umstand geschuldet, dass die mit dieser Versicherung abzusichernden Risiken für den VN unter Umständen weniger relevant und die verbleibende Lücke an Behandlungen, die trotz des Abschlusses einer privaten Versicherung zum gesetzlichen Krankenversicherungsschutz bestehen, größer ist als dies bei Zahnergänzungsversicherungen der Fall ist.
21
Quelle: Eigene Darstellung in Anlehnung an: Gesamtverband der Deutschen Versicherungswirtschaft (2008), S. 49.
628
Josef Beutelmann
Abbildung 4:
Marktdurchdringung in der Kranken- und Pflegeergänzungsversicherung22 23
P ote nzia l Ergä nz ungs v ersich erung en z um GK V -S chu tz M arktd urchd ring ung in Pr oz ent (St an d: 01 /20 09) 18
1 6,8
16 14 12 10
8, 7 7, 6
8 6 4
1, 6
2 0 Zah n
am bu lant
st at ionä r
P fle ge
Bei der stationären Krankenergänzungsversicherung spricht der im Vergleich zur Zahnergänzungsversicherung höhere Beitrag und der Umstand, dass vorrangig Komfortleistungen (Unterbringung im Ein- und Zweibettzimmer, Chefarztbehandlung) abgesichert werden, für die im Vergleich zur Zahnergänzungsversicherung niedrigere Marktdurchdringung von 7,6 %. Zur Erklärung der extrem niedrigen Marktdurchdringung von 1,6 % bei der Pflegeergänzungsversicherung scheidet die Beitragshöhe wohl eher aus, ist sie im Durchschnitt doch vergleichsweise niedrig. Da die Pflegebedürftigkeit regelmäßig erst im hohen Alter auftritt, ist das Risiko im Durchschnitt für den Einzelnen zeitlich fern und damit scheinbar nicht bedrohlich. Dies bedeutet nicht, dass kein Bewusstsein für die Notwendigkeit der Absicherung besteht, es fehlt allein an der zeitlichen Dringlichkeit. Weiterhin ist zu berücksichtigen, dass die Marktdurchdringung auf die Gesamtbevölkerung bezogen ist. Dies trägt dem Umstand 22 23
Mehrfachzählung möglich; GKV-Wahltarife nicht berücksichtigt; Pflegeergänzung bezieht sich auf die Gesamtbevölkerung. Quelle: Eigene Darstellung: Datengrundlage Verband der privaten Krankenversicherung (2009), S. 18 ff.; Bundesministerium für Gesundheit (2009), S. 35; Statistisches Bundesamt (2009), S. 1.
Das Versicherungsprodukt der Zukunft
629
Rechnung, dass auch zur privaten Pflegepflichtversicherung Pflegeergänzungsversicherungen abgeschlossen werden können. Fasst man die vorgestellten Ergänzungsversicherungen zusammen, wird deutlich, dass hier ein lohnendes Betätigungsfeld vorliegt. Bisher wurden nur Vergangenheit und Gegenwart betrachtet. Unter „2.2 Demographische Entwicklung“ wird eine prospektive Betrachtung vorgenommen, die das bisher unterstellte Marktpotenzial für Kranken- und Pflegeergänzungsversicherung noch verstärkt.
2.2 Demographische Entwicklung Der demographische Wandel hat Deutschland bereits voll erfasst. Seit Jahrzehnten können Folgegenerationen die Elterngenerationen wegen nicht mehr ausreichender Geburtenzahlen nicht mehr ersetzen. In der Summe übersteigen die Todesfälle die Geburten. Dass die Bevölkerung bisher nicht rapide schrumpft, ist einzig der Zuwanderung aus dem Ausland zu verdanken. Der positive Saldo der Wanderungen ist aber in den letzten Jahren rückläufig und vermag es nicht mehr, den Überschuss der Sterbefälle über die Geburten auszugleichen. Dies hat zur Folge, dass die Bevölkerungsanzahl seit 2003 kontinuierlich rückläufig ist. Der Bevölkerungsrückgang wird künftig weiter zunehmen. Ein Ausgleich über eine Erhöhung der Zuwanderung ist überaus unwahrscheinlich. Neben dem Bevölkerungsrückgang wird zudem eine Alterung der Bevölkerung festzustellen sein. Dies resultiert aus den fehlenden jungen Jahrgängen und aus der stets zunehmenden Lebenserwartung.24 Was aber bedeutet gerade der Aspekt der zunehmenden Lebenserwartung für die Finanzierung des deutschen Gesundheitswesens? In der Wissenschaft lässt sich diese Frage nicht ohne weiteres beantworten. Hier stehen sich zwei widersprechende Thesen gegenüber. Der Medikalisierungsthese folgend steigen mit der steigenden Lebenserwartung auch die Gesundheitskosten, weil die zusätzliche Lebenszeit zusätzliche Gesundheitsleistungen zur Folge haben muss. Die Kompressionsthese wiederum geht davon aus, dass mit steigender Lebensdauer mehr Jahre „in Gesundheit“ verbracht werden und die „teurere letzte Lebensphase“ lediglich ins höhere Alter verschoben wird.25 Sinnvollerweise muss bei der Frage nach der Existenz von Kompression oder Medikalisierung zwischen dem Bereich der Lebensqualität und dem monetären Bereich unterschieden werden. Vielen Studien zufolge verbringen die Menschen immer mehr Zeit in relativer Gesundheit. Es ist festzustellen, dass auf der 24 25
Vgl. Statistische Ämter des Bundes und der Länder (2007), S. 6. Vgl. Niehaus (2006), S. 3.
630
Josef Beutelmann
Lebensqualitätsebene mehr Jahre „in Gesundheit“ wahrgenommen werden. Für die Finanzierung des Gesundheitswesens lässt sich dies nach jüngeren Studien aber nicht übertragen.26 Es ist zu erwarten, dass der Bedarf nach Absicherung über Kranken- und Pflegeergänzungsversicherungen künftig zunehmen wird, um eine finanzielle Entlastung im Alter zu erreichen. Dabei trifft der Bevölkerungsrückgang zwar auch die private Kranken- und Pflegeversicherung in Form einer rückläufigen Anzahl an versicherten Personen. Dies trifft aber wiederum auf alle Versicherungssparten zu und ist somit eine systemimmanente Entwicklung, die bei der Suche nach künftigen Betätigungsfeldern innerhalb der Versicherungswirtschaft irrelevant ist. Sowohl die Vergangenheitsbetrachtung (Beitragsentwicklung), die Gegenwartsbetrachtung (Marktdurchdringung) als auch die Zukunftsbetrachtung (Demographie) bestätigen der Kranken- und Pflegeergänzungsversicherung ein hohes Marktpotenzial. Im folgenden Kapitel soll nun die Frage behandelt werden, wie die Ausgestaltung eines „Versicherungsproduktes der Zukunft“ am Beispiel der Kranken- und Pflegeergänzungsversicherung aussehen kann.
3
Einfluss auf das Produktverständnis
Im vorhergehenden Kapital wurden eindrucksvolle Argumente angeführt, warum gerade in der Personenversicherung und speziell in der Kranken- und Pflegeergänzungsversicherung hohe Marktpotenziale stecken. Diese getroffene Schlussfolgerung ist dabei sicherlich keine Erkenntnis jüngeren Datums. Dies wirft die berechtigte Frage auf, warum bisher nur eine niedrige Marktdurchdringung vorliegt. Im Folgenden wird der Frage nachgegangen, ob sich die jetzigen Produkte ausreichend am Bedarf der potenziellen VN – die bisher keine Versicherungsvertrag abgeschlossenen haben – orientieren. Im Anschluss erfolgt dann eine kurze Auseinandersetzung mit der Frage, inwieweit Assistance- und Serviceleistungen für ein erfolgreiches Produkt notwendig sind bzw. dessen Attraktivität beim Kunden erhöhen können. Zum Schluss erfolgt die Erstellung eines möglichen Modells, das die zuvor erarbeiteten Erkenntnisse in ein denkbares Versicherungsprodukt einfließen lässt.
26
Vgl. Niehaus (2006), S. 143 ff.
Das Versicherungsprodukt der Zukunft
631
3.1 Bedarfsorientierte Produktgestaltung Die Produktentwicklung muss sich immer am Bedarf des Verbrauchers orientieren. Wie schon beim Thema Marktdurchdringung erwähnt, kann sich bei Personenversicherungen die Besonderheit ergeben, dass der Zeitpunkt des erstmaligen Produkterwerbs und der erwartete Eintritt des Versicherungsfalls zeitlich weit auseinander liegen. Für die weiteren Überlegungen wird unterstellt, dass der Kunde regelmäßig eine zeitliche Nähe zwischen Leistung und Gegenleistung anstrebt. Aus dieser simplen Annahme folgt beispielsweise, dass der Abschluss einer Pflegeergänzungsversicherung erst im höheren Alter interessant wird. Bedarfsgerecht wäre also ein Versicherungsprodukt, das – je nach Lebensphase – ausschließlich akut drohende Risiken abdeckt. Versicherungstechnisch handelt es sich hierbei um die Krankenversicherung nach Art der Schadenversicherung. Das Versicherungsprodukt setzt sich nur aus den Bestandteilen Risiko- und Dienstleistungsgeschäft zusammen. Ein Spar- und Entsparprozess findet nicht statt. Dies hat zur Folge, dass stets risikoäquivalente Beiträge zu entrichten sind. Am Beispiel der Pflegeergänzungsversicherung bedeutet dies, dass die Beiträge in jungen Jahren sehr niedrig sind, da der Eintritt des Risikos Pflege unwahrscheinlich ist. Im Alter steigen die Beiträge wiederum stark an, da der Eintritt des Risikos sehr wahrscheinlich wird. Je nach Versicherung können die Kosten im Alter dabei so stark ansteigen, dass das Produkt für einen Großteil der Bevölkerung unbezahlbar wird. Das Gegenstück zur Krankenversicherung nach Art der Schadenversicherung ist die Krankenversicherung nach Art der Lebensversicherung, die aus den drei Bestandteilen Risiko-, Spar- und Dienstleistungsgeschäft besteht. Einfach ausgedrückt, zahlt der VN in jüngeren Jahren höhere Beiträge als aktuell benötigt. Der Überschuss wird dann einer sog. Alterungsrückstellung zugeführt. Der im Alter zu niedrige Beitrag wird durch die Auflösung der Alterungsrückstellung erhöht. Der stattfindende Spar- und Entsparprozess sorgt dafür, dass sich der Beitrag nicht auf Grund steigenden Alters erhöht, sondern über die Zeit konstant gehalten wird. Umso jünger der VN ist, desto niedriger fällt der Beitrag aus, da zu Beginn mehr angespart werden kann. Die damit verbundene langfristige Bindung des VN an das VU kann durchaus Fragen aufwerfen. Der erwartete Eintritt der abgesicherten Risiken ist noch zeitlich fern und der VN kann schnell zu dem Schluss kommen, dass seinen gezahlten Beiträgen keine Leistungen seitens des VU gegenüber stehen. Ob ein Verweis auf das abgegebene abstrakte Dauerschutzversprechen (Versicherungsschutzkonzept nach Farny) dem Großteil der (potenziellen) Kunden verständlich ist, kann an dieser Stelle nicht beantwortet werden; es muss aber kritisch hinterfragt werden.
632
Josef Beutelmann
Im Hinblick auf die bedarfsorientierte Produktgestaltung sind beide Vorgehensweisen mit Vor- und Nachteilen behaftet. Im Kapitel Lebensphasenversicherung wird versucht, die Vorteile zu verbinden und die Nachteile zu reduzieren. 3.2 Assistance- und Serviceleistungen als Missing-Link27 Bereits im ersten Kapitel wurde erwähnt, dass der Versicherungsschutz ein immaterielles Gut ist, welches für den VN ein komplexes Nutzenbündel darstellt. Das Fehlen der physischen Substanz und die im Versicherungsprodukt enthaltene Komplexität führen zu einem ausgeprägten Erläuterungsbedarf. Weiterhin ist ein Versicherungsprodukt regelmäßig kein Gut, dass beim Konsumenten zwingend mit positiven Attributen verbunden ist. Häufig wird es wohl eher als das notwendige Übel erachtet, um sich vor monetären Bedrohungen zu schützen. Die Attraktivität des Versicherungsprodukts lässt sich insbesondere durch Assistance- und Serviceleistungen aufwerten. So ist einer Studie der University of Applied Sciences Wiesbaden zu entnehmen, dass sich im Gesundheitsbereich 71 % der im Rahmen der Studie befragten Personen GesundheitsAssistanceleistungen vorstellen können und 58 % der Befragten sich Produktund Serviceideen in der Seniorenassistance wünschen. Auch die befragten Unternehmen der Versicherungswirtschaft weisen Assistanceleistungen einen hohen Stellenwert zu. Mit einer Zustimmung von 100 % werden in der Seniorenassistance größte Wachstums- und Zukunftschancen unter anderem in den Servicekonzepten
„Beratung und Unterstützung bei beginnender Hilfebedürftigkeit“, „Pflegefallhilfe und Pflegeberatung“, und „Stellung eines Pflegefallmanagers“ gesehen.
Auch dem Bereich Gesundheit werden hohe bis sehr hohe Entwicklungschancen zugesprochen. Beispiele für Servicekonzepte sind wie folgt:
Angebot eines Gesundheitsvorsorgeprogramms (92 % Zustimmung), Angebot eines persönlichen Gesundheitsmanagements (89 % Zustimmung), Beratung, Hilfe und Begleitung bei Erkrankungen (99 % Zustimmung).
Assistanceleistungen decken dabei konkreten Zusatznutzen ab, der als Alleinstellungsmerkmal das Kernprodukt Versicherung umhüllt. Durch das Angebot von 27
Vgl. Müller-Reichart (2009), S. 326 ff. und 368 ff.
Das Versicherungsprodukt der Zukunft
633
Assistanceleistungen wird das VU zum partnerschaftlichen Problemlöser und verlässt seine klassische Rolle des „Zahlers“. An dieser Stelle bleibt festzuhalten, dass Assistance- und Serviceleistungen künftig eine immer wichtigere Rolle spielen dürften und daher bei der Entwicklung innovativer Produkte ein fester Bestandteil sein sollten.
3.3 Lebensphasenversicherung Dieses letzte Kapitel beschäftigt sich mit der Modellierung eines möglichen Kranken- und Pflegeergänzungsversicherungsproduktes, welches die bisherigen Erkenntnisse vereint. Das Produkt setzt sich aus den folgenden vier Bestandteilen zusammen:
Risikogeschäft, Spargeschäft, Dienstleistungsgeschäft, Assistance-Geschäft.
Risiko- und Assistance-Geschäft werden im angedachten Modell nach Lebensphasen differenziert in sog. Phasen-Bausteinen ausgestaltet. Die Phasenbausteine werden wiederum zweistufig aufgebaut. Im Phasenbaustein „Versicherung“ tritt neben einen sog. Sockelversicherungsschutz ein Aufbauversicherungsschutz. Der Sockelversicherungsschutz deckt Risiken ab, die sich im Zeitablauf nicht merklich verändern. Er entspricht prinzipiell den schon bisher vorhandenen Kranken- und Pflegeergänzungsversicherungen. Der Aufbauversicherungsschutz wird wiederum je nach Lebensphase unterschiedlich ausgestaltet. So ist es beispielsweise denkbar, dass stationäre Leistungen wie die Unterbringung im Einund Zweibettzimmer erst ab einem bestimmten Alter versichert sind. Ähnlich kann mit der Absicherung im Pflegefall vorgegangen werden. Entweder beginnt dieser Versicherungsschutz erst ab einem bestimmten Alter oder er wird bis zu einem bestimmten Alter in einer abgespeckten Version gewährt. Auch der Phasenbaustein „Assistance“ wird entsprechend zweistufig ausgestaltet. Der Service einer medizinischen Hotline ist beispielsweise in allen Lebensphasen für den Versicherten interessant. Das Angebot einer Pflegeberatung könnte wiederum erst in einem späteren Lebensabschnitt nachgefragt werden. Das Spargeschäft wird im Modell als „Beitragsentlastung im Alter“ bezeichnet. Es trägt dem Umstand Rechnung, dass auch in einem Lebensphasenmodell die höchsten Kosten im fortgeschrittenen Alter entstehen. Über die Bil-
634
Josef Beutelmann
dung und Auflösung von Alterungsrückstellungen wird der zu zahlende Beitrag über die Laufzeit geglättet und der VN vor einer alterungsbedingten Kostensteigerung geschützt. Abbildung 5:
Modell einer Lebensphasenversicherung in der Kranken- und Pflegeergänzungsversicherung28
Modell einer Lebensphasenversicherung PhasenBaustein Assistance 0 – 25 Jahre
PhasenBaustein Assistance 26 – 65 Jahre
PhasenBaustein Assistance ab 66 Jahre
PhasenBaustein Versicherung 0 – 25 Jahre
PhasenBaustein Versicherung 2 6 – 65 Jahre
PhasenBau stein Versicherung ab 66 Jahre
Beitragsentlastung im Alter Grundsicherung über GKV Alter
In Abbildung 5 sind die einzelnen Bestandteile einer Lebensphasenversicherung skizziert. Ausgangsbasis ist dabei die Grundsicherung in der GKV. Die Beitragsentlastung im Alter wird als durchgängiger Baustein dargestellt, da der Spar- und Entsparprozess sinnvollerweise über die Gesamtlaufzeit vorgenommen wird. Die Phasen-Bausteine sind je nach Altersabschnitt dargestellt. Das Modell in Abbildung 5 zeigt eine Differenzierung in drei verschiedene Lebensphasen. Mit dem skizzierten Modell erhält der VN je nach Lebensphase den entsprechend bedarfsorientierten Versicherungsschutz. Dieses Modell kann natürlich vielseitig modifiziert werden. Die Phasenbausteine „Versicherung“ und „Assistance“ können in verschiedene Segmente (zum Beispiel Zahn, ambulant, stationär) auf-
28
Quelle: Eigene Darstellung.
Das Versicherungsprodukt der Zukunft
635
gebrochen werden. Dies erhöht beim VN die Freiheitsgrade bei der Wahl der individuell gewünschten Absicherung. Mit dem Lebensphasenmodell ist es möglich, die Nachteile der nach Art der Lebens- bzw. Schadenversicherung kalkulierten Kranken- und Pflegeergänzungsversicherung zu reduzieren und die Stärken der beiden Konzepte zu verbinden. Die integrative Einbindung von Assistanceleistungen erhöht zudem die Attraktivität und Qualität für den Kunden. In der praktischen Umsetzung stellt ein derartiges Modell zugleich hohe Anforderungen an die Produktentwicklung im VU. Es ist hierbei die unternehmerische Aufgabe der Versicherungswirtschaft, solche Modelle auf Praxistauglichkeit zu prüfen.
Literatur Braeß, Paul (1960): Versicherung und Risiko, Wiesbaden 1960. Bundesministerium für Gesundheit (2009): Ergebnisse der GKV-Statistik KM1, Monatswerte Januar-Dezember 2008, o.O. 2009. Farny, Dieter (2006): Versicherungsbetriebslehre, Karlsruhe 2006. Gericke, Sven (2001): Customer-relationship-Management in der Assekuranz unter besonderer Berücksichtigung neuer Verfahren und moderner Informationstechnologie, Karlsruhe 2001. Gesamtverband der deutschen Versicherungswirtschaft (2008) (Hrsg.): Jahrbuch 2008. Die Deutsche Versicherungswirtschaft, Karlsruhe 2008. Gesamtverband der deutschen Versicherungswirtschaft: Statistische Rundschreiben. Hax, Karl (1964): Grundlagen des Versicherungswesens, Wiesbaden 1964. Köhne, Thomas et. al. (Hrsg.) (2008): Produktinnovationen in der deutschen Versicherungswirtschaft - Theoretische Analyse aktueller Praxisentwicklungen, Karlsruhe 2008. Krah, Eva-Susanne (2009): Markt der Zukunft, Versicherungsmagazin 2/2009, S. 16-20. Manes, Alfred (1930): Versicherungslexikon, Berlin 1930. Müller, Wolfgang (1981): Das Produkt der Versicherung, in: Geld und Versicherung, Festgabe für Wilhelm Seuß, S. 155-171. Karlsruhe 1981. Müller-Reichart, Matthias et. al. (2009): „Kümmererfunktion“ als Geschäftsmodell der Finanzdienstleistung (1), Zeitschrift für Versicherungswesen 10/2009, Seite 326329. Müller-Reichart, Matthias et. al. (2009): „Kümmererfunktion“ als Geschäftsmodell der Finanzdienstleistung (2), Zeitschrift für Versicherungswesen 11/2009, Seite 367370. Niehaus, Frank (2006): Alter und steigende Lebenserwartung. Eine Analyse der Auswirkungen auf die Gesundheitsausgaben, Köln 2006. Schulenburg, Johann-Matthias von der (2005): Versicherungsökonomik, Karlsruhe 2005.
636
Josef Beutelmann
Statistische Ämter des Bundes und der Länder (2007): Demographischer Wandel in Deutschland. Heft 1 Bevölkerungs- und Haushaltsentwicklung im Bund und in den Ländern, Statistisches Bundesamt (Hrsg.), Wiesbaden 2007. Statistisches Bundesamt (2009): Pressemitteilung Nr. 005 vom 07.01.2009. „Weitere Bevölkerungsabnahme für 2008 erwartet“. Verband der privaten Krankenversicherung (2009): Rechenschaftsbericht der privaten Krankenversicherung 2008, o.O. 2009.
Planung und Steuerung
Neue Institutionenökonomik – Einige Überlegungen zur Bedeutung, Funktionsweise und Entstehung von Institutionen Hans Frambach
1
Institutionen und Gesellschaft
Institutionen sind das wichtigste Element des theoretischen Rüstzeugs innerhalb der Sozialwissenschaften, so die Aussage von M. Granovetter in einem Aufsatz aus dem Jahre 1992.1 Von außerordentlicher Wichtigkeit sind Institutionen für die Ökonomie und die ökonomische Theorie, denn ihr Kern, Tauschprozesse und ihre Ergebnisse (die resultierenden Allokationen), sind von der Gestaltung institutioneller Regelungen abhängig. Dies wird etwa anhand gesellschaftlicher Transformationsprozesse deutlich, wie wir sie in Form der deutschen Wiedervereinigung oder im osteuropäischen Raum eindrucksvoll erlebt haben, oder an der Beeinflussung von technischem Fortschritt und Innovationen durch institutionellen Wandel.2 Institutionen treten in der Alltagswelt als selbstverständlich und unveränderlich auf, sind wissenschaftlich jedoch keineswegs als statische Gegebenheiten aufzufassen. Institutionen sind vielmehr einem ständigen Prozess der Institutionalisierung und Entinstitutionalisierung unterworfen. Institutionalisierung bzw. Entinstitutionalisierung bedeutet die Entstehung und Veränderung von Institutionen bzw. deren gesamte oder teilweise Auflösung. Dieser Wandel ist abhängig von dem sich ständig verändernden Verflechtungsgrad der gesellschaftlichen Beziehungen, von dem innerhalb der Gesellschaften sich vollziehenden Werte1 2
Vgl. Granovetter (1992). Vgl. Broß (2002), S. 42 ff.; Day (2008), S. 316 f.; Richter/Furubotn (1999), S. 26-28; Schnellenbach (2002), S. 386-407; Schiller (2002), 188 f.
640
Hans Frambach
und Bewusstseinswandel, von der Umformung der Legitimationsvorstellungen und von der unterschiedlichen Verfügbarkeit positiver und negativer Sanktionen. Damit ist unweigerlich der gesellschaftstheoretische Bezug von Institutionen angesprochen. Unbestritten sind Institutionen im weitesten Sinne elementare Einheiten von geordnetem sozialem Leben überhaupt und damit grundlegender Bestandteil einer Definition von Gesellschaft.3 Deshalb darf der gesellschaftliche Aspekt bei der Institutionendiskussion nicht vernachlässigt werden. Dieser gesellschaftliche Aspekt ist naturgemäß Gegenstand der Soziologie; sie (die Soziologie) – so H. Albert einst – ist zuständig für das Institutionenproblem, welches die ökonomische Theorie ihrerseits in den „Datenkranz“ verwiesen hat. Konkret warf Albert der ökonomischen Theorie vor, die von ihr behandelten Marktphänomene für die ökonomische Deutung aus ihrer sozialen Einbettung bewusst herausgelöst und als isolierte Wirkungssysteme behandelt zu haben, deren Erklärung im Wesentlichen ohne Rückgriff auf sozialstrukturelle Faktoren möglich sei.4 Und tatsächlich ist die Relevanz von Institutionen in der neoklassischen Theorie alles andere als offensichtlich. Ein einfaches Beispiel macht dies deutlich: Die Bildung von Preisen wird in der neoklassischen Theorie scheinbar institutionenfrei erklärt, und dies innerhalb der Spannweite von Märkten der vollkommenen Konkurrenz bis hin zu Monopolen. Soll aber bspw. die Erklärung eines Angebotsmonopols einigermaßen umfassend vorgenommen werden, so kann es nicht ausbleiben, auch auf Faktoren (Institutionen) wie bspw. das Patentrecht zurückzugreifen: Wird ein Patent für eine bestimmte Erfindung erteilt, so ist dem Erfinder das ausschließliche Nutzungsrecht an der Erfindung zugesichert. Bereits dieses einfache Beispiel führt die Relevanz institutioneller Hintergründe im Rahmen wirtschaftlicher Aktivitäten vor Augen, und zwar in Gestalt der Institutionen des Privateigentums, des Staates sowie des Marktes bzw. Tausches. Aufgrund ihres gesellschaftlichen Inhalts verknüpften einige Soziologen die Definition der Soziologie an den Institutionenbegriff. So verband E. Durkheim die Eigenständigkeit der Soziologie mit der Abgrenzung eines „spezifisch soziologischen Realitätsbereichs“ und definierte in diesem Sinne Soziologie als „Wissenschaft von den Institutionen“. Ohne den Sinn des Begriffs der Institution zu entstellen, kann man laut Durkheim alle Glaubensvorstellungen und durch die Gesellschaft festgelegte Verhaltensweisen Institutionen nennen; die Soziologie kann so definiert werden als die Wissenschaft von den Institutionen, deren Entstehung und Wirkungsart.5 Auch T. Parsons hat mit gleicher Intention die Soziologie als die Wissenschaft von den Institutionen bezeichnet und auf die hierdurch 3 4 5
Bspw. Eisenstadt (1968), S. 410. Vgl. Albert (1967), S. 403. Vgl. Durkheim (1965), S. 100.
Neue Institutionenökonomik
641
eröffnete Möglichkeit einer klaren Trennung von Soziologie und Psychologie sowie Soziologie und Ökonomik hingewiesen.6 Allerdings gibt es in der Soziologie auch andere Stimmen, die dieser „dezidistischen Auffassung“ entgegenstehen. Etwa G. Homans mit seiner „austausch- und verhaltenstheoretischen Soziologie“. Hiernach können alle sozialen Phänomene einschließlich Institutionen als Ergebnisse des individuellen Handelns erklärt werden (individualistische Soziologie).7 Der Ökonom B. S. Frey sieht hier die Parallele zur „modernen ökonomischen Theorie der Institutionen“,8 denn ebenso wie sie greift auch die individualistische Soziologie auf mikroökonomische Zusammenhänge zur Erklärung sozialer Phänomene zurück. Der Begriff Institution wurde erstmals von dem Engländer Herbert Spencer in seinen Principles of Sociology eingeführt; dort unterscheidet er häusliche, zeremonielle, politische, kirchliche, berufliche und wirtschaftliche (industrial) Institutionen.9 In Amerika wurde zu Beginn des zwanzigsten Jahrhunderts der Begriff Institution von C. H. Cooley und W. K. Sumner beeinflusst.10 Sumner sah eine Institution in dem Zusammenwirken, das sich auf vorgeschriebenen Wegen in festen, den Menschen bewussten Formen vollzieht. Für Cooley sind Institutionen soziale Gebilde, die spezialisiert in vergleichsweise strengen Formen bestehen.11 Sehr knapp und treffend definierte R. M. MacIver Institutionen als alles das, was sozial eingerichtet (established) sei, wodurch das Bleibende der Institution im Gegensatz zum Vorübergehenden und Gelegentlichen zum Ausdruck gebracht wird.12 W. H. Hamilton spricht in seinem Artikel in der Encyclopædia of the Social Sciences von Institution als einem Wortsymbol, „das aus Mangel eines Besseren ein Konglomerat von sozialen Übungen beschreibe“.13 Fruchtbarer als die Vielzahl der Definitionsversuche bezeichnet L. v. Wiese die Darstellung der Entwicklung von Institutionen. In diese Richtung sind Versuche einzuordnen, die zeigen, „wie das kollektive Verhalten ohne strenge Formen und Ämter beginnt, aber unter dem Einfluss sozialer Bedürfnisse Regeln und Techniken erwachsen, die
6 7 8
9 10 11 12 13
Vgl. Parsons (1964), S. 61 f. Vgl. Homans (1958), S. 598. So bezeichnet Frey diejenigen Zweige der ökonomischen Theorie, die versuchen, Institutionen in das ökonomische Kalkül zu integrieren. Als Beispiel kann die Property Rights Theorie angeführt werden; Frey (1977), S. 120. Vgl. v. Wiese (1956), S. 297. Vgl. Cooley (1909); Sumner (1906). Vgl. v. Wiese (1956), S. 297. Vgl. MacIver (1939). Hamilton (1932), hier zit. nach v. Wiese (1956), S. 297.
642
Hans Frambach
zu Institutionen zusammenwachsen“; nachteilig wirkt sich hier aus, dass die geschaffenen Institutionen dabei außer acht bleiben.14 Bekannte Definitionsversuche stammen von F. H. Hankins bzw. gehen auf ihn zurück: „Eine Institution kann als jedes Mittel (means) und jeder Tätigkeitsbereich (agency) definiert werden, die von einer Mehrschaft (association) geschaffen (set up) und bewusst von ihr anerkannt wird.“15 In Anlehnung an Hankins kann eine Institution als „jedes vergleichsweise kleinere Sozialgebilde“ definiert werden, „das von einem größerem als ihm teilweise dienstbar angesehen wird“; die einfachste Vereinigung besitzt dabei mehrere Institutionen.16 Bekannter sind die Definitionsbemühungen der amerikanischen Institutionalisten, die in ihren Arbeiten Institutionen eine allgemeine und fundamentale Rolle zuwiesen. Für T. Veblen, den bekanntesten, radikalsten und chronologisch ersten amerikanischen Institutionalisten, waren Institutionen, so W. Mitchell, „Denkgewohnheiten, die sich in einer gegebenen Periode durchsetzen“.17 Veblen umschrieb eine Institution als eine Art Gepflogenheit oder Brauch, die per Gewohnheit und Akzeptanz axiomatisch und unerlässlich geworden ist.18 Eine ähnliche Definition findet sich im Übrigen bei M. Weber: Institutionen sind Brauch, Sitte und interessenbedingtes soziales Handeln.19 Sitte etwa beruht auf lange „eingelebter“, spontaner und freiwilliger Anpassung an eine Regel. Überträgt man diesen Gedanken z. B. auf die Preisbildung in einem Wettbewerbsmarkt, so kann festgestellt werden, dass die beteiligten Akteure aufgrund der Verfolgung ihrer privaten Interessen ihr Verhalten wechselseitig konsistent machen, sodass eine Ordnung entsteht, die aussieht, als ob sie auf der Orientierung an einer als geltend vorgestellten Regel beruhte.20 Akzeptiert man die Bedeutung von Institutionen in diesem Sinne, so akzeptiert man gleichzeitig etwas über das Zustandekommen von ökonomischen Entscheidungen unter besonderer Betrachtung von Gewohnheiten und Sitte, und dies impliziert eine radikale Kritik an der ökonomischen Theorie. Für Veblen bestand gerade die Aufgabe der Ökonomen in der Untersuchung solcher Sitten, Gewohnheiten, Denkweisen oder „Institutionen“ und ihrer Evolution im Hinblick darauf, wie ökonomische Entscheidungen und Aktionen einschließlich ihrer Stellung in Zeit und Raum erklärt werden können.21 14 15 16 17 18 19 20 21
Vgl. v. Wiese (1956), S. 297. Hankins (1928): An Introduction to the Study of Sociology, New York, hier zit. nach v. Wiese (1956), S. 298. Vgl. ebenda. Mitchell (1949), II, S. 221. Vgl. Veblen (1919), S. 225; hier nach Hutchison (1984), S. 20. Vgl. Weber (1972), S. 14 ff. Vgl. Voss (1985), S. 3. Vgl. Hutchison (1984), S. 20.
Neue Institutionenökonomik
643
Commons bezeichnet eine Institution allgemein als going concern,22 einschließlich der sie in Funktion bzw. Bewegung setzenden Mechanismen, angefangen bei der Familie, über Korporationen, Gewerkschaften, Gesellschaften, bis hin zum Staat selbst.23 Institutionen sind also das, „was die Dinge in Bewegung oder am Leben erhält“. Die Schwierigkeit, das Feld der sogenannten Institutionenökonomik zu definieren, besteht für Commons in der Unsicherheit im Umgang mit der Bedeutung des Begriffs Institution: Manchmal sei mit Institution ein Gebäude, manchmal eine Art Rahmenwerk von Gesetzen und Regeln gemeint, innerhalb dessen die Individuen agieren; manchmal scheint es, als sei das Verhalten der Subjekte selbst gemeint. Weiter erscheinen Institutionen als dynamisch im Gegensatz zu statisch, als Prozess anstelle von Gütern, als Aktivitäten anstelle von laissez-faire.24 Als Wissenschaft des ökonomischen Verhaltens müsse die Institutionenökonomik jedoch (unter Berücksichtigung der Erkenntnisse der „klassischen Pioniere“ und der ökonomischen Psychologie) zu einem allgemeinen Prinzip gelangen, das sozusagen jeglichem als institutionell beschriebenem Verhalten gemein ist.25 In Anlehnung an ein solches Universalprinzip definiert Commons eine Institution als „kollektive Handlung unter der Kontrolle individueller Aktionen“.26 Einer in der modernen Soziologie weithin verbreiteten Definition zufolge handelt es sich bei einer Institution um einen Komplex gesamtgesellschaftlich zentraler Handlungs- und Beziehungsmuster, der vor allem durch die Bindung der zentralen Ordnungswerte in der Antriebsstruktur der Gesellschaftsmitglieder gekennzeichnet ist.27 Gemeint ist, dass Ordnungswerte, die Traditionsbestände, Werte aus affektuellem oder wertrationalem Glauben usw. widerspiegeln, fest mit der Antriebsstruktur der Individuen, also ihren Trieb-, Drang-, Sucht-, Strebungs- oder Willenserlebnissen verbunden sind. Das heißt, Ordnungswerte haben ihren Ursprung im Ausgangspunkt des menschlichen Handelns, seiner Antriebsstruktur; auf gesellschaftlicher Ebene bestimmen sie die Handlungs- und Beziehungsgeflechte und definieren so Institutionen. Charakteristisch ist, dass solche Handlungs- und Beziehungsmuster zwar deutlich sichtbar, aber kaum einem planenden Eingriff zu unterziehen sind. Unwillkürlich sind hier verschiedene Kennzeichen von Institutionen angesprochen: Institutionen sind komplex, 22 23
24 25 26 27
Vgl. Commons (1961), I, S. 69, Fn. 102. Vgl. Commons (1961), I, S. 69, Fn. 102; die going concerns sind konkret die Erscheinungsform des Zusammenwirkens dreier Typen von Transaktionen in der ökonomischen Gesamtbetrachtung, nämlich bargaining transactions, managerial transactions und rationing transactions; Commons (1961), I, S. 59-69. Vgl. Commons, (1961), I, S. 69. Vgl. Commons, (1961), I, S. 69. Vgl. Commons, (1961), I, S. 69. Vgl. Bühl (1988), S. 345.
644
Hans Frambach
nicht deutlich sichtbar, in ihrer Wirkung nicht immer eindeutig zurechenbar, sie sind kaum organisierbar. Ein weiteres Charakterisierungsmerkmal von Institutionen, und gleichsam Grund für die mangelnde institutionelle Organisierbarkeit, ist die Überdeterminiertheit, die sich in der Unübersichtlichkeit und dem hohen Komplexitätsgrad der Institutionen ausdrückt. Auch dies ist offensichtlich, führt man sich das komplizierte Handlungs- und Verhaltensgeflecht selbst „kleiner Institution“ wie der Ehe oder der Elternschaft vor Augen.
2
Institutionen und Ökonomie
Nunmehr wird die Frage der Definition von Institutionen aufgegriffen und anhand einiger ausgewählter Positionen versucht, einen Einblick in das Verständnis von Institutionen aus der Perspektive der Neuen Institutionenökonomik zu geben. Konkret wird thematisiert, was die Neue Institutionenökonomik überhaupt unter einer Institution versteht und wie Institutionen in der Neuen Institutionenökonomik behandelt werden. Man könnte zur Auffassung gelangen, die letzte der beiden Fragen sei überflüssig, zumal im ersten Abschnitt auf den „Institutionenmangel“ in der traditionellen ökonomischen Theorie und die gesellschaftliche Relevanz von Institutionen bereits deutlich hingewiesen wurde. Und in der Tat würde sich das Problem nicht stellen, wenn wir beide Fragen nicht im Rahmen der Neuen, sondern der Älteren Institutionenökonomik stellten. Das Problem liegt im Erkenntnisgegenstand beider Richtungen. Während die Ältere Institutionenökonomik Institutionen per se auf ihre gesellschaftstheoretischen und gesellschaftspolitischen Wirkungen untersuchte, interessiert den Neuen Institutionenökonomen in erster Linie der Zusammenhang von Ökonomie und Institutionen, sei es hinsichtlich der Entstehungsfrage oder auch der Wirkung von Institutionen. Diese „strenge“ ökonomische Sicht hängt mit dem methodologischen Standpunkt zusammen, der in der Neuen Institutionenökonomik eingenommen wird. Verstand sich die Ältere Institutionenökonomik methodisch wie erkenntnistheoretisch als Kritik an oder auch als Alternative zur klassischen und neoklassischen Ökonomik, hat sich die Neue Institutionenökonomik methodisch auf den Boden der modernen (neoklassischen) ökonomischen Theorie gestellt (methodologischer Individualismus, Zweckrationalität, Vorstellung vom allgemeinen Gleichgewicht). Darüber hinaus versteht sich die Neue Institutionenökonomik als „Vervollständiger“ der Neoklassik, insofern sie diese nämlich um die (bis dahin vernachlässigte) institutionentheoretische Analyse bereichert. Die angesprochenen Probleme legen einige klärende Ausführungen zum Verhältnis von Neoklassik und Neuer Institutionenökonomik nahe. Seit ihrem
Neue Institutionenökonomik
645
Bestehen hat die Neoklassik Institutionen aus ihrem Gegenstandsbereich ausgeschlossen. Das Ergebnis ist ein Optimierungsmodell für verschiedenste Anwendungsbereiche der ökonomischen Theorie, in welchem Institutionen allenfalls in Form einer Minimalausstattung, wie der Annahme der Existenz einer Geldordnung, einer Verfassung, eines Vertragsrechts usw., auftauchen (Minimalausstattung an institutionellen Voraussetzungen). Die Optimierungsvorschrift lautet: Maximiere die Zielfunktion unter den gegebenen Nebenbedingungen; implizit ist jedoch ein funktionierendes System von Eigentums- und Vertragsrechten vorausgesetzt. Eine solche für das Funktionieren von Tausch notwendige „Minimalausstattung“ setzt ihrerseits sowohl eine vollständige Aufteilung von Eigentumsrechten an Gütern und Dienstleistungen als auch eine vollständige Zuweisung von Eigentumsrechten an die Wirtschaftssubjekte voraus, wobei die Ausschließlichkeit des Privateigentumsstatus enthalten ist.28 Dieser institutionelle Rahmen schien für die Neoklassik der einzige zu sein, der die Ausgangsbedingungen axiomatisch so stellte und ihre Komplexität derart reduzierte, dass das Erkenntnisinteresse und insbesondere die Bestimmung allgemeiner Gleichgewichte realisiert werden konnte.29 Insofern scheint die institutionelle Voraussetzung dem Ziel der Bestimmung exakter Wettbewerbsgleichgewichte untergeordnet worden zu sein.30 Es handelt sich somit um in institutioneller Hinsicht spezielle Annahmen, die in der Absicht getroffen werden, ökonomische Modelle „geschlossen“ zu machen.31 Verkürzt können die unterschiedlichen Positionen vielleicht folgendermaßen zusammengefasst werden: In der „klassischen Soziologie“ und der Älteren Institutionenökonomik sind Institutionen der Ausgangspunkt institutionalistischer Analyse; in der Neoklassik und der Neuen Institutionenökonomik sind es die Motive der Wirtschaftssubjekte. Die „erste Gruppe“ geht sogar davon aus, dass einmal entstandene Institutionen konkrete Präferenzen prägen (Anpassung der konkreten Präferenzen an die tatsächlichen Handlungen, hier: Institutionen), und nicht umgekehrt, dass Institutionen der direkte Ausdruck individueller Präferenzen sind. Die „zweite Gruppe“ führt Institutionen weitgehend auf (z. T. unbewusste) individuelle Präferenzen zurück; zwar wird der Einfluss von Institutionen auf die individuellen Präferenzen nicht geleugnet, aber auch nicht behandelt. Leiten wir schließlich unsere Ausführungen zum Institutionenbegriff in der Neuen Institutionenökonomik mit einigen Bemerkungen darüber ein, was Ökonomen schlechthin unter Institutionen verstehen. Sprechen Ökonomen von Insti28 29 30 31
Vgl. Blaas (1982), S. 287 f. Vgl. Schotter (1981), S. 151; Myrdal (1977), S. 4 f.; Elsner (1986), S. 290. Vgl. Schotter (1981), S. 151. Vgl. Schotter (1981), S. 151 f.
646
Hans Frambach
tutionen, so werden meist konkrete „Gebilde“ wie Privateigentum, Staat, Markt, Zentralbank, Bürokratien, Verbände, verschiedene Unternehmensordnungen einschließlich Genossenschaften, Mitbestimmung, Leasing, Franchising usw. genannt.32 Für einige dieser Beispiele wäre jedoch der Begriff der Organisation der treffendere, versteht man unter Organisation die Ordnung von arbeitsteilig und zielgerichtet miteinander arbeitenden Personen und Gruppen. Organisationen umfassen neben den Verbänden und Vereinigungen alle Institutionen, Gruppen und sozialen Gebilde, die bewusst auf ein Ziel hinarbeiten, dabei geplant arbeitsteilig gegliedert sind und ihre Aktivitäten auf Dauer eingerichtet haben.33 Auf eine genauere Abgrenzung der Begriffe von Institution und Organisation soll hier nicht weiter eingegangen werden. Fest steht jedoch, dass die häufig unklare Abgrenzung beider Begriffe von Ökonomenseite letztlich nur darauf verweist, dass innerhalb der ökonomischen Theorie bis heute noch kein einheitlicher und unumstrittener Institutionenbegriff existiert. Vielmehr wird der Institutionenbegriff von Ökonomen und anderen Sozialwissenschaftlern sehr unterschiedlich und uneinheitlich verwendet.34 Dies gilt selbst für den enger gefassten Kreis der gegenwärtigen Institutionenökonomen. So versteht der Repräsentant der Theorie des institutionellen Wandels, Douglass C. North, unter Institutionen ganz allgemein die „Spielregeln einer Gesellschaft“, oder auch einfach den „Rahmen für menschliche Interaktion“.35 Es muss jedoch immer klar sein, dass es den Institutionenbegriff, den Institutionenökonomen oder die Institutionenökonomik (noch) nicht gibt. Institutionenökonomen sind eine lose und gemischte Zusammenfindung von Ökonomen und Institutionalismus als Bestandteil der Ökonomik ist ein verschwommener und undurchsichtiger Begriff.36 Zwei unterschiedliche Definitionen aus dem Bereich der Neuen Institutionenökonomik sollen vorgestellt werden. K.-E. Schenk begreift Institutionen als Rechtskonstruktionen.37 Institutionen (als Rechtskonstruktionen) werden von Schenk als nachgefragte und knappe Güter aufgefasst, weil sie „Gegenstände der Bedürfnisbefriedigung sind und damit im Zusammenhang zum Wirtschaftsverkehr stehen“.38 Zum Gegenstand des Rechts werden die Güter bzw. die Rechte an ihnen deshalb, weil sie knapp sind und von mehr als einem Individuum begehrt werden; aus dieser Tatsache ergibt sich die Notwendigkeit des Schutzes vor den Handlungsoptionen anderer. Recht und Rechtskonstruktionen stellen so
32 33 34 35 36 37 38
Aufzählung nach Biervert/Held (1989), S. 8. Vgl. Fuchs (1988), S. 548. Vgl. Voss (1985), S. 2; Vanberg (1983); Stolz (1983), S. 50; Hartfiel/Hillmann (1972), S. 301. North (1992), S. 3 f. Vgl. Hutchison (1984), S. 20. Vgl. Schenk (1992), S. 341 f. Vgl. Schenk (1992), S. 342.
Neue Institutionenökonomik
647
eine notwendige Bedingung individueller Zielverfolgung bei der Koordination von Aktivitäten mit anderen Individuen dar.39 Die Entstehung und Wirkung von Institutionen wird nach Ansicht Schenks auf das geschriebene und ungeschriebene Recht (Tradition, Sitte, Moral) zurückgeführt, wobei die Subjekte durch das Recht mit Handlungsmöglichkeiten ausstattet sind; gleichzeitig jedoch begrenzen die Institutionen die Handlungsmöglichkeiten. Das heißt, Institutionen schränken die Wahl von Handlungsmöglichkeiten der Akteure ein (oder legen sie im Extremfall sogar fest) und sichern sie durch entsprechende Ansätze (Sanktionen) ab.40 Institutionen, als Rechtskonstruktionen aufgefasst, üben folgende Funktionen aus:41 1. 2. 3.
4.
Institutionen verleihen Handlungsmöglichkeiten und begrenzen sie zugleich. Institutionen ordnen den Subjekten Sachen oder knappe Ressourcen zu ihrer Verfügung zu (Zuordnungsfunktion). Institutionen regeln zwischen Subjekten die Anerkennung der Zuordnung der Sachen und Ressourcen im Sinne möglichst großer Eindeutigkeit (Anerkennungsfunktion). Institutionen unterstützen die Funktionen 2. und 3. durch Anreize bzw. Sanktionen für den Fall der Nichtanerkennung der Zuordnung (Anreiz-/ Sanktionsfunktion).
Die zweite von W. Elsner in Anlehnung an A. Schotter und G. Schwödiauer42 vorgetragene Definition besticht durch ihren hohen Allgemeinheitsgrad und ihre entscheidungstheoretische Terminologie. Mit dieser Definition werden auch die weiteren Überlegungen fortgesetzt: „Eine Institution ist eine Regel für das Entscheiden von Individuen in sich wiederholenden mehrpersonellen Entscheidungssituationen, die soweit allgemeine Anerkennung erlangt hat, dass die Individuen bestimmte wechselseitige Verhaltenserwartungen besitzen.“43
39
40 41 42 43
Gleichzeitig können Institutionen auch als freie Güter aufgefasst werden, da ihr Einsatz bei der Koordination als stets kostenlos verfügbar (Preis von Null) betrachtet wird. Diesen Widerspruch (gleichzeitig ein knappes und ein freies Gut zu sein) bezeichnet Schenk als neoklassische Paradoxie; Schenk (1992), S. 342. Vgl. Schenk (1992), S. 340 f. Vgl. Schenk (1992), S. 340 f. Schotter (1981) und Schwödiauer (1980). Elsner (1987), S. 5, Hervorhebungen im Original.
648
Hans Frambach „Unter ‚Institution‘ ist mithin eine Regel (Norm) für rekurrente Entscheidungssituationen zu verstehen, welche insoweit allgemeine Gültigkeit erlangt (sei es durch freiwillige Anerkennung oder durch Sanktionsandrohung), dass relativ stabile reziproke Verhaltenserwartungen entstehen, durch welche bestimmte Konsequenzen individueller Entscheidungen und Handlungen spezifiziert und damit Unsicherheit in bzw. Komplexität von Entscheidungssituationen reduziert werden.“44
Mit A. Schotter kann zusammenfassend festgehalten werden: Eine Institution ist eine (zuverlässige) Regel, ein Individuum weiß also, wie sich andere Individuen verhalten werden, wenn es selbst in einer bestimmten Weise agiert. Somit schaffen Institutionen Erwartungssicherheit, sie geben dem individuellen Verhalten Sicherheit. Zwischen den Individuen müssen somit stabile reziproke, auf gegenseitigem Vertrauen – besser: auf dem Prinzip der Gegenseitigkeit – beruhende Verhaltenserwartungen etabliert sein.45 Nunmehr sei gefragt, welche Gründe aus Sicht der Neuen Institutionenökonomik dafür sprechen, sich außerhalb des Arguments der „Erweiterung der Neoklassik“ mit Institutionen zu beschäftigen. Die Überwindung von gesellschaftlichen Problemsituationen erfordert den instrumentellen Einsatz von Institutionen; somit können Institutionen als Instrumente zur Lösung gesellschaftlicher Probleme aufgefasst werden. Wie wirken die Institutionen problemlösend? Da eine Institution eine Regel zur Erreichung eines bestimmten Zieles ist, erspart sie die für das Ergebnis erforderlichen Aufwendungen, die notwendig wären, wenn die Institution nicht Platz greifen würde. Institutionen sind somit transaktionskosteneinsparend. Auch ohne das (Opportunitäts-) Kostenkalkül können Sinn und Zweck einer Institution einfach mit der durch die Institution entstehenden Handlungserleichterung begründet werden. Institutionen helfen, Entscheidungen leichter zu treffen und vereinfachen somit das Handeln und die Handlungsfähigkeit, indem auf eine Vielzahl von Informationen, Kenntnisse, Fertigkeiten usw. verzichtet werden kann. Institutionen reduzieren demnach Komplexität. Die Reduktion von Komplexität steht normalerweise mit der allgemeinen Bildung von Strukturen in Verbindung. Strukturen sollen die komplexe Umwelt ordnen helfen, um sie besser verstehen zu können und um sich besser in ihr zurechtzufinden. Diese Funktionen werden von Institutionen auch wahrgenommen, da Institutionen selbst als Struktur aufgefasst werden können. Unter einer Struktur werden die Elemente verstanden, aus denen ein Gegenstand (System) aufgebaut ist, sowie die Art und Weise, in der die Elemente zusammenhängen. Wesentlich für den Strukturbegriff ist eine bestimmte Ordnung der Elemente, durch
44 45
Elsner (1986), S. 200. Vgl. Schotter (1981), S. 109 ff.
Neue Institutionenökonomik
649
welche Systeme als identisch charakterisiert werden können46 (damit wird der Nachweis erbracht, dass ein bestimmtes System auch als solches identifiziert werden kann); das bloße Vorhandensein oder eine beliebige Anordnung der Elemente reicht für die Definition von Struktur nicht aus. In Analogie zur Sprache kann die Struktur auch als Syntax verstanden werden, entsprechend der die Elemente geordnet auftreten. Eine Struktur impliziert keine vollständige Abbildung der Realität, sondern nur das zur Stabilität und Konstanz des Gegenstands relevante Beziehungsnetz bestimmter Elemente.47 Auch das Faktum, dass eine Struktur kein vollständiges Bild der Realität abzugeben vermag, deckt sich mit der Aussage, dass eine Institution nur partielle Gültigkeit besitzen kann, d. h. nur jeweils für die Lösung bestimmter Arten von Problemen instrumentelle Bedeutung besitzt.48 Institutionen besitzen also strukturelle Eigenschaften, die zum „Ordnen von Welt“ notwendig sind. Der bisher angesprochene struktur- und ordnungsbildende, komplexitätsreduzierende und transaktionskosteneinsparende Charakter von Institutionen gibt dem handelnden Subjekt also Sicherheit. Voraussetzung ist natürlich die Verlässlichkeit des Eintritts der Wirkung einer Institution, d. h. ein Individuum oder eine gesellschaftliche Gruppe muss mit einiger Sicherheit von der Wirkung einer Institution in jeweils bestimmten Situationen ausgehen können. Hier ist zum einen die Notwendigkeit angesprochen, dass sich in ähnlichen oder wiederholenden Situationen immer das gleiche Resultat einstellen muss (für den Fall, dass man Handeln und Verhalten auf Entscheidungen filtriert, spricht man auch von rekurrenten Entscheidungssituationen49); zum anderen ist die Wirkung oder Durchsetzbarkeit der Institution von einer breiten gesellschaftlichen Akzeptanz (natürlich nur in dem für eine bestimmte Institution relevanten gesellschaftlichen Umfeld) abhängig. Der letzte Punkt ist einfach zu begründen: Da Institutionen von irgendeiner Form gesellschaftlicher Akzeptanz getragen sein müssen, führt fehlende Akzeptanz zum Verschwinden der Institution. Die (gesellschaftliche) Akzeptanz besitzt für die Institution demnach konstitutiven Charakter. Akzeptanz bedeutet, etwas in einer ganz bestimmten Weise zuzulassen. Somit ist für das Dasein von Institutionen eine in Bezug auf Entscheidungsund Verhaltensmöglichkeiten einschränkende und regulierende Wirkung notwendig. Um die Durchsetzbarkeit von Institutionen zu gewährleisten, kann die Gesellschaft jedoch nicht nur auf das „einsichtsvolle zustimmende oder hinnehmende Moment“ ihrer Mitglieder setzen. Vielmehr müssen die Institutionen mit Sanktionsmöglichkeiten ausgestattet sein; Abweichungen von der Regel müssen 46 47 48 49
Vgl. Lüdtke (1988), S. 753. Vgl. Lüdtke (1988), S. 753. Vgl. Eisenstadt (1968), S. 412; Schwödiauer (1980), S. 158. Vgl. Elsner (1987), S. 5.
650
Hans Frambach
(zuverlässig) sanktioniert werden können. G. Schwödiauer spricht in diesem Zusammenhang von der Ausstattung einer Institution mit einer latenten Sanktionsmöglichkeit.50 Individuen müssen generell in der Lage sein, das (sie betreffende) Handeln anderer zu sanktionieren. Ein Individuum darf sein eigenes Handeln nicht nur von sich selbst, sondern auch von anderen abhängig machen. Die Individuen müssen tatsächlich über Möglichkeiten der Reaktion (der Sanktion) auf andere verfügen; dies setzt rekurrente Handlungs- und Entscheidungssituationen voraus.
3
Die drei großen Fragen der Institutionentheorie
Wie bereits mehrfach festgestellt, sind Institutionen Regeln, die sich im Laufe des gesellschaftlichen Entwicklungsprozesses bilden bzw. durch das Handeln und das Beziehungsgeflecht der Gesellschaftsmitglieder und sozialen Gruppen entstehen. Die erste der drei großen Fragen der Institutionentheorie, die Entstehungsfrage von Institutionen oder das Emergenzproblem, ist unmittelbar betroffen. Nach der Entstehungsfrage werden dann kurz die anderen beiden Fragen, die des Institutionenwandels und des Institutionenvergleichs, thematisiert. Institutionen entstehen oftmals nicht-intendiert, vielfach als Ergebnis unbewusster Prozesse, d. h. sie sind gesellschaftlich nicht geplant. Mit anderen Worten, dem Prozess der Institutionenemergenz liegen in der Regel keine bewusst kollektiven Entscheidungen zugrunde, die genau die Entstehung der faktisch existierenden Institutionen zum Ziel haben. Institutionen entstehen somit eher willkürlich, als zufälliges Ergebnis individueller und kollektiver Entscheidungen, Handlungen und Beziehungen, die ihrerseits (in kaum vorhersagbarer Weise) gesellschaftliche Prozesse und Zustände generieren. Internalisiert werden Institutionen durch Sozialisation und wirken dann durch inneren Zwang. Deshalb wird in der Regel kein zusätzlicher Erklärungsmechanismus für den Zusammenhang einer Institution und einer ihr zugerechneten beobachteten Handlung benötigt. Vielmehr wird angenommen, dass der Begriff Institution selbst bereits den Zwang, sie zu befolgen, beinhaltet. Bezogen auf die für ein Individuum und eine Generation kaum erfahrbare und mehr oder weniger unbewusst sich vollziehende Institutionenentstehung trifft Carl Mengers Begriff des „unreflectirten Socialgebildes“ als Umschreibung für den Terminus Institution relativ genau.51 Menger verstand unter „unreflectirten Socialgebilden“ jene „Socialerscheinungen, wel-
50 51
Vgl. Schwödiauer (1980), S. 156 f. Vgl. Menger (1969), S. 153.
Neue Institutionenökonomik
651
che kein Product der Uebereinkunft, bezw. der positiven Gesetzgebung, sondern unreflectirte Ergebnisse geschichtlicher Entwicklung sind.“52 Veranschaulichen wir den Prozess der Institutionenentstehung am Beispiel der Institution des Geldes. R. Nozick gibt die Logik der Entstehung des Geldes, wie sie etwa bei Smith oder Menger auftaucht, wie folgt wieder: „In einem Gütertauschsystem ist es sehr unbequem und aufwendig, jemanden zu suchen, der hat, was man braucht, und braucht, was man hat, selbst auf einem Marktplatz, der übrigens nicht dadurch zu einem solchen zu werden braucht, dass jeder ausdrücklich erklärt, er wolle dort Handel treiben. Die Menschen werden ihre Güter gegen etwas tauschen, für das ihres Wissens ein allgemeinerer Bedarf besteht als für das, was sie haben. Denn jenes werden sie eher gegen das eintauschen können, was sie haben möchten. Aus den gleichen Gründen werden andere eher bereit sein, diesen allgemeiner erwünschten Gegenstand in Tausch zu nehmen. Die Menschen werden sich also beim Tausch auf die marktgängigeren Güter konzentrieren und sie gegen ihre Güter eintauschen; je eher sie dazu bereit sind, desto eher kennen sie andere, die es auch sind, und das verstärkt sich gegenseitig. (Diese Entwicklung wird verstärkt und beschleunigt durch Mittelsmänner, die aus der Erleichterung des Austauschs Gewinn zu schlagen versuchen und es ihrerseits oft am günstigsten finden, marktgängigere Güter zum Tausch anzubieten.) Aus naheliegenden Gründen werden die Güter, auf die sich die Einzelentscheidungen immer mehr konzentrieren, bestimmte Eigenschaften haben: einen unabhängigen Anfangswert (sonst könnten sie zunächst nicht als marktgängiger gelten), materielle Dauerhaftigkeit, Teilbarkeit, Transportierbarkeit usw. Es ist keine ausdrückliche Vereinbarung und kein Gesellschaftsvertrag zur Festlegung eines Tauschmittels nötig.“53
T. Voss spricht hier von der Entstehung des Tauschmediums Geld als „quasifunktionalistisch“, da Geld durch die Funktion der Senkung bestimmter Transaktionskosten und die Möglichkeit einer Ausweitung von Tauschbeziehungen erklärt wird; auch ist von einem Mechanismus die Rede, durch den die Herausbildung und Anerkennung eines in bestimmter Hinsicht gut geeigneten Gegenstandes erreicht wird.54 Bei der zweiten großen Frage, dem institutionellen Wandel, geht es darum, wie sich Institutionen im Zeitablauf verändern bzw. bestehende von neuen Institutionen abgelöst werden. So bedeutet institutioneller Wandel immer die Überlagerung und schließlich die Veränderung institutioneller Prozesse. Zu dieser Frage haben sich Ökonomen und vor allem Soziologen in den ersten Dekaden des 20. Jahrhunderts ausführlich geäußert, insbesondere im Rahmen der Diskussion 52 53 54
Vgl. Menger (1969), S. 153. Nozick (1976), S. 31; Nozick hat diese, wie er es nennt, „Geschichte“ angelehnt an v. Mises (1953), S. 30-34. Vgl. Voss (1985), S. 72 f.
652
Hans Frambach
um die Entwicklung des modernen Industriekapitalismus. Heute ist das „Standardwerk“ zur Frage des institutionellen Wandels zweifelsfrei D. C. Norths Theorie des institutionellen Wandels. Im Gegensatz zu Vertretern des Älteren Institutionalismus einschließlich einiger führender Köpfe der deutschen und englischen Historischen Schule argumentiert North im typisch neoklassischen Argumentationsmuster, indem er den methodologischen Individualismus, das Konzept der Paretooptimalität sowie eine komparativ-statische Analyse von Gleichgewichten verwendet. Letztlich integriert North die Institutionentheorie in die neoklassische Analyse: „Führe in ein Gleichgewicht eine exogene Veränderung ein, die eine Gewinnmaximierung zum gegebenen institutionellen Arrangements unmöglich macht, so wird die Ökonomie die Institutionen derart umgestalten, dass wieder ein Profitmaximum in einem anderen Gleichgewicht erreicht wird.“ North appliziert sein Konzept auf die Erklärung des ökonomischen Wandels im historischen Prozess. Seine Argumentation basiert auf der Eigentumsrechtsanalyse: Ökonomisches Wachstum (Fortschritt) liegt immer dann vor, wenn Gewinne aus Innovationen privat angeeignet werden können (Anreizfunktion des Eigentums). Die Entwicklung der Institution des Privateigentums erklärt die Entwicklung von der neolithischen Revolution, über Tauschgesellschaften, den Feudalismus bis hin zum Kapitalismus. Movens dieser Entwicklung ist der Wandel der relativen Knappheiten der Produktionsfaktoren. North ist in der Lage, die Entstehung der Marktökonomie besser als die „traditionelle“ ökonomische Theorie zu erklären, da er, zusätzlich zu deren „institutioneller Grundannahme“ des sich selbststeuernden Marktes, den Einfluss von Institutionen und ihrer Veränderungen in Form einer as-if-Hypothese berücksichtigt. Im direkten Zusammenhang mit dem institutionellen Wandel (bzw. diesem direkt vorgeschaltet) steht die dritte große Frage der Institutionenökonomik, die des Institutionenvergleichs. Beim Institutionenvergleich geht es ebenso wie beim Institutionenwandel um die einzelnen Wirkungen der verschiedenen Institutionen. Institutioneller Wandel ist auch immer die bewusste oder unbewusste Folge eines Institutionenvergleichs. Die Wirkung von Institutionen innerhalb bestimmter Situationen entscheidet über die Beibehaltung, Veränderung oder Ablösung, also den Wandel von Institutionen. Ergibt sich, dass aufgrund veränderter gesellschaftlicher Werte oder Bedingungen eine Institution zunehmend weniger als eine andere geeignet ist, ein bestimmtes Ziel zu erreichen, wird ein Institutionenwandel eintreten. Diesen über das Nutzen-Kosten-Kalkül zu erklären, ist genau das Anliegen von North. Die in der ökonomischen Theorie bekannteste Analyse des Institutionenvergleichs ist O. E. Williamsons Gegenüberstellung von Märkten und Unternehmen
Neue Institutionenökonomik
653
als alternative Modi der Ausübung ökonomischer Transaktionen.55 Ein Unternehmen gilt als Institution, die alternativ zum Markt dessen Funktionen substitutiv oder ergänzend zu erfüllen vermag. Das heißt, ein Unternehmen kann unter bestimmten Bedingungen manche Allokations- und Verteilungsfunktionen besser ausführen als der Markt selbst. Ausgehend von der Vorstellung einer allgemeinen Überlegenheit des Marktes gegenüber jeglichen Formen von Organisationen und Institutionen wird hinsichtlich der Lösung ökonomischer Problemstellungen die „alte“ Coase’sche Frage aufgeworfen, warum es überhaupt Organisations- bzw. institutionelle Strukturen (wie z. B. Unternehmen) geben kann, wenn doch durch den Markt „alle Probleme“ gelöst werden. Oder anders ausgedrückt: Wozu werden Unternehmen eigentlich benötigt, wenn der Markt für alle ökonomischen Probleme ohnehin die bessere Alternative darstellt? Das Kernargument der Antwort auf diese Frage liegt in der Einsicht, dass Märkte nicht kostenlos zur Verfügung stehen, also auch die „Nutzung des Marktes“ selbst hat ihren Preis. Gemeinhin wird dies mit der Existenz von Transaktionskosten gleichgesetzt. Werden nun die Transaktionskosten (die Kosten der Nutzung des Marktmechanismus) in einem Nutzen-Kosten-Kalkül hypothetisch erfasst, so erscheint es vorteilhaft, eine zum Markt alternative Institution dann zuzulassen, wenn die Nutzen-Kosten-Relation dieser Institution günstiger ausfällt als die des Marktes. Williamson lässt nicht nur Transaktionskosten zu, er erweitert die Theorie der Firma gegenüber der Neoklassik auch um Aspekte etwa der Bounded rationality, des Opportunismus und die Berücksichtigung von Unsicherheiten. Außerdem werden Faktoren wie Glaub- und Vertrauenswürdigkeit als transaktionskosteneinsparende Faktoren ebenso berücksichtigt wie „produktionsfördernde“ Gesichtspunkte, bspw. in Form des Identifikationsgefühls von Mitarbeitern mit dem Unternehmen, das sie beschäftigt. Da in der Neuen Institutionenökonomik Unternehmen sich aus verschiedensten Beziehungen zusammensetzen, die in Vertragssystemen abgebildet werden, fasst man die Unternehmen auch als Netze relationaler Verträge auf, die – entgegen manch reiner Theorieauffassung – oftmals nur eingeschränkt justiziabel sind. Der Institutionenwandel im Sinne der Wirkungsanalyse von Institutionen stellt somit den Versuch dar, Institutionen bewusst oder unbewusst als gesellschafts- und wirtschaftspolitisches Steuerungsinstrument zu nutzen, indem alternative institutionelle Arrangements diskutiert und etabliert werden. Da aber bereits die Definition von Institutionen die Problematik der Planung und Organisierbarkeit der Institutionen nahelegt, kann man sich die Schwierigkeiten vorstellen, institutionellen Wandel bewusst und steuerbar zu implementieren. In der Realität kann die bewusste Durchsetzung des institutionellen Wandels immer nur 55
Vgl. Williamson (1983).
654
Hans Frambach
ein schrittweises Vorgehen insoweit bedeuten, als dass bspw. nach und nach bestimmte institutionelle Rahmenbedingungen verändert bzw. angepasst werden. Die sich an den Institutionenvergleich anschließende Metafrage ist die, ob die „erforderlichen institutionellen Anpassungsprozesse“ sich selbst (dem Markt, dem freien Spiel der Kräfte, Selbstorganisation) oder bewussten gesellschaftlichen/hoheitlichen Instanzen überlassen werden sollten? (Frage nach der institutionellen Einbettung der Evolution der Institutionen).
4
Die wichtigsten Kennzeichen von Institutionen im Überblick
Abschließend sind noch einmal stichpunktartig die wichtigsten Eigenschaften und Funktionen von Institutionen zusammengetragen. Institutionen transzendieren den Bereich des individuellen Akteurs.56 Individuen beeinflussen die Gestalt und Funktionsweise von Institutionen und umgekehrt wirken institutionelle Gebilde auf individuelles Verhalten. 3. Institutionen haben ihren Platz in einer „social exchange economy“ und machen in einer „Robinson Crusoe Ökonomie“ wenig Sinn. 4. Wichtiges Merkmal der Institutionen ist die Dauerhaftigkeit (Aufstellung dauerhafter Regeln), dies trägt zur Bildung von Erwartungssicherheit bei. 5. Institutionen sind wirksam, wenn sie durch Sanktionen gestützt sind,57 vor allem aber auch, wenn die Akteure den Sinn der Institutionen einsehen. Die Wirkung und Durchsetzbarkeit von Institutionen muss hierbei von einem breiten gesellschaftlichen Konsens getragen werden. 6. Institutionen werden durch Sozialisation internalisiert und wirken wesentlich durch inneren Zwang. 7. Institutionen eröffnen Handlungsoptionen und schränken sie ein. 8. Der Prozess der Institutionenentstehung und des Institutionenwandels vollzieht sich meist unbewusst. Institutionen entstehen eher willkürlich und zufällig als geplant. Sie sind das mehr oder weniger zufällige Resultat individueller und kollektiver Entscheidungen, Handlungen und Beziehungen, die ihrerseits gesellschaftliche Prozesse und Zustände generieren. 9. Die Wirkung von Institutionen ist nicht immer eindeutig absehbar. 10. Institutionen erleichtern menschliches Handeln, sind komplexitätsreduzierend und senken damit die Transaktionskosten. 1. 2.
56 57
Vgl. Stolz (1983), S. 50 f. Siehe auch Popitz (1980), S. 10 ff.
Neue Institutionenökonomik
655
Literatur Albert, Hans (1967): Markt und Organisation: Der Marktmechanismus im sozialen Kräftefeld, in: Ders. (1967), S. 392-417. Albert, Hans (Hrsg.) (1967): Marktsoziologie und Entscheidungslogik. Ökonomische Probleme und soziologische Perspektive, Neuwied, Berlin 1967. Axelrod, Robert (1987): Die Evolution der Kooperation, München 1987. Biervert, Bernd/Held, Martin (1989): Zur Einführung: Eigentum, Verträge, Institutionen – Ihre normativ-ethischen Grundlagen in der Theoriebildung, in: Dies. (1989), S. 7-14. Biervert, Bernd/Held, Martin (Hrsg.) (1989): Ethische Grundlagen der ökonomischen Theorie: Eigentum, Verträge, Institutionen, Frankfurt am Main, New York 1989. Biervert, Bernd/Held, Martin (Hrsg.) (1991): Das Menschenbild der ökonomischen Theorie. Zur Natur des Menschen, Frankfurt am Main, New York 1991. Blaas, Wolfgang (1982): Zur Rolle der Institutionen in der ökonomischen Theorie, in: Leipert (1982): S. 263-292. Boettcher, Erik/Herder-Dorneich, Philipp/Schenk, Karl-Ernst (Hrsg.) (1983): Jahrbuch für Neue Politische Ökonomie, Band 2, Tübingen 1983. Boettcher, Erik (1983): Der Neue Institutionalismus als Teil der Lehre von der Neuen Politischen Ökonomie, in: Boettcher/Herder-Dorneich/Schenk (1983), S. 1-15. Bühl, Walter L. (1988): Institution, in: Fuchs et al. (1988), S. 345-346. Broß, Ulrike (2002): Innovationsnetzwerke in Transformationsländern: Die Bedeutung von Routinen und Institutionen für das Innovations- und Kooperationsverhalten, in: Lehmann-Waffenschmidt (2002), S. 39-71. Campbell, Tom D. (1971): Adam Smiths Science of Morals, 1. ed. 1956. London 1971. Coase, Ronald H.: The Nature of the Firm, in: Economica, Heft 4/1937, S. 386-405. Coleman, James (1986): Social Structure and the Emergence of Norms among Rational Actors, in: Diekmann et al. (1986.), S. 55-83. Commons, John R. (1961): Institutional Economics. It’s Place in Political Economy. 1. Aufl. 1934, Madison 1961. Cooley, Charles H. (1909): Social Organization: A Study of The Larger Mind, New York 1909. Day, Richard H. (2008): The Technology Evolving Culture: Character and Consequence, in: Journal of Evolutionary Economics Jg. 18, Hefte 3-4/2008, S. 313-322. Diekmann, Andreas/Mitter, Peter (Hrsg.) (1986): Paradoxical Effects of Social Behaviour, Heidelberg, Wien 1986. Durkheim, Emile (1965): Die Regeln der soziologischen Methode. 1. Aufl. 1895, Neuwied, Berlin 1965. Eckstein, Walther (1985): Einleitung zu Smith, Adam (1985): Die Theorie … , in: Smith (1985), S. XI-LXXI. Eisenstadt, Shmuel N. (1968): Social Institutions. The Concept, in: International Encyclopedia of the Social Sciences Jg. 14 (1968), S. 409-421. Elsner, Wolfram (1986): Ökonomische Institutionenanalyse: Paradigmatische Entwicklung der ökonomischen Theorie und der Sinn eines Rückgriffs auf die ökonomische Klassik am Beispiel der Institutionenanalyse ("Property Rights"), Berlin 1986.
656
Hans Frambach
Elsner, Wolfram (1987): Institutionen und ökonomische Institutionentheorie. Begriffe, Fragestellung, theoriegeschichtliche Ansätze, in: WiSt. 1. Jan. 1987, S. 5-14. Frey, Bruno S. (1977): Moderne Politische Ökonomie. Die Beziehungen zwischen Wirtschaft und Politik, München 1977. Fuchs, Werner (1988): Organisation, in: Fuchs et al. (1988): S. 548. Fuchs, Werner/Lautmann, Rüdiger/Rammstedt, Otthein/Wienold, Hans (Hrsg.) (1988): Lexikon zur Soziologie, 2. Aufl., Opladen 1988. Furubotn, Eirik G./Pejovich, Svetozar (1972): Property Rights and Economic Theory: A Survey of Recent Literature, in: Journal of Economic Literature Jg. 10 (1972), S. 1137-1162. Granovetter, Mark (1992): Economic Institutions as Social Constructions: A Framework for Analysis, in: Acta Sociologica Jg. 35 (1992), S. 3-11. Hamilton, William H. (1932): Institution, in: Encyclopædia of the Social Sciences, S. 8489. Hartfiel, Günter/Hillmann, Karl-Heinz (1972): Wörterbuch der Soziologie, 3. Aufl., Stuttgart 1972. v. Hayek, Friedrich A. (1945): The Use of Knowledge in Society, in: American Economic Review Jg. 35 (1945), S. 519-530. Homans, George C. (1958): Social Behaviour as Exchange, in: The American Journal of Sociology. LXII (1958), S. 597-606. Hutchison, Terence W. (1984): Institutionalist Economics Old and New, in: Zeitschrift für die gesamte Staatswissenschaft 140 (1984), S. 20-29. Jodl, Friedrich (1965): Geschichte der Ethik als philosophische Wissenschaft, 5. Aufl., Darmstadt 1965. Knight, Frank H. (1921): Risk, Uncertainty and Profit, Boston, New York 1921. Lehmann-Waffenschmidt, Marco (Hrsg.) (2002): Perspektiven des Wandels. Evolutorische Ökonomik in der Anwendung, Marburg 2002. Leipert, Christian (Hrsg.) (1982): Konzepte einer humanen Wirtschaftslehre. Beiträge zur institutionellen Ökonomie und zur Integration der Sozialwissenschaften, Frankfurt am Main 1982. Lindgren, Ralph (1973): The Social Philosophy of Adam Smith. Den Haag 1973. Lüdtke, Hartmut (1988): Struktur, in: Fuchs et al. (1988.), S. 753. MacIver, Robert M. (1939): Society. A Textbook of Sociology, New York 1939. Marshall, Alfred (1961): Principles of Economics. 1. Aufl. 1890, London 1961. Menger, Carl (1963): Problems of Economics and Sociology. 1. dt. Aufl. 1883, Urbana 1963. Menger, Carl (1969): Untersuchungen über die Methode der Socialwissenschaften und der Politischen Ökonomie insbesondere. 1. Aufl. 1883, Tübingen 1969. Meyer, Fritz W. (1983): Entwicklung und Bedeutung des Property Rights Ansatzes in der Nationalökonomie, in: Schüller (1983), S. 1-44. v. Mises, Ludwig (1953): The Theory of Money and Credit. 1. dt. Aufl. 1912, New Haven 1953. Mitchell, Wesley C. (1949): Lecture Notes on Types of Economic Theory, New York 1949.
Neue Institutionenökonomik
657
Myrdal, Gunnar (1977): The Meaning and Validity of Institutional Economics, in: Steppbacher (1977), S. 3-10. Nozick, Robert (1976): Anarchie, Staat, Utopia. 1. Aufl. 1974, München 1974. Parsons, Talcott (1964): Beiträge zur soziologischen Theorie, Neuwied, Berlin 1964. Popitz, Heinrich (1980): Die normative Konstruktion von Gesellschaft, Tübingen 1980. Richter, Rudolf/Furubotn, Erik G. (1999): Neue Institutionenökonomik. Eine Einführung und kritische Würdigung, Tübingen 1999. Schenk, Karl-Ernst (1992): Die neue Institutionenökonomik. Ein Überblick über wichtige Elemente und Probleme der Weiterentwicklung, in: Zeitschrift für Wirtschafts- und Sozialwissenschaften 112 (1992), S. 337-378. Schiller, Johannes (2002): Technical Change and the Environment: An Approach towards Modelling Long-Term Behaviour of Productions Systems, in: LehmannWaffenschmidt (2002), S. 171-210. Schnellenbach, Jan (2002): Institutioneller Wandel in der EU: Der Fall der Osterweiterung aus kognitiv-evolutionärer Perspektive, in: Lehmann-Waffenschmidt (2002), S. 373-413. Schotter, Andrew (1981): The Economic Theory of Social Institutions, Cambridge 1981. Schüller, Alfred (Hrsg.) (1983): Property Rights und ökonomische Theorie, München 1983. Schüßler, Rudolf (1991): Unterminiert der Markt seine normative Basis?, in: Biervert et al. (1991), S. 94-110. Schwödiauer, Gerhard (1980): Zur Stabilität und Evolution marktwirtschaftlicher Systeme aus klassischer Sicht, Korreferat zu J. Röpke, in: Streißler et al. (1980), S. 155-159. Smith, Adam (1985): Theorie der ethischen Gefühle. 1. Aufl. 1759, Hamburg 1985. Steppbacher, Rolf/Zogg-Walz, Brigitte/Hatzfeld, Hermann (Hrsg.) (1977): Economics in Institutional Perspective: Memorial Essays in Honor of K. William Kapp, Lexington, Toronto 1977. Stolz, Peter (1983): Das wiedererwachte Interesse der Ökonomie an rechtlichen und politischen Institutionen, in: Schweizerische Zeitschrift für Volkswirtschaft und Statistik, Heft 1/1983, S. 49-67. Streißler, Erich/Watrin, Christian (Hrsg.) (1980): Zur Theorie marktwirtschaftlicher Ordnungen, Tübingen 1980. Sumner, William Graham (1906): Folkways: A Study of The Sociological Importance of Usages,Manners, Customs, Mores, and Morals. Boston 1906. Vanberg, Viktor (1983): Der individualistische Ansatz zu einer Theorie der Entstehung und Entwicklung von Institutionen, in: Boettcher et al. (1983), S. 50-69. Veblen, Thorstein B. (1919): The Place of Science in Civilization, New York 1919. Veblen, Thorstein B. (1970): The Theory of the Leisure Class. An Economic Study of Institutions. 1. Aufl. 1899, London 1970. Voss, Thomas (1985): Rationale Akteure und soziale Institutionen. Beitrag zu einer endogenen Theorie des sozialen Tauschs, München 1985. Weber, Max (1972): Wirtschaft und Gesellschaft. 1. Aufl. 1922, Tübingen1972. v. Wiese, Leopold (1956): Institutionen, in: Handwörterbuch der Sozialwissenschaften, o. O. 1956, S. 297-299.
658
Hans Frambach
Williamson, Oliver E. (1983): Markets and Hierachies: Analysis and Antitrust Implications. A Study in the Economics of Internal Organisation. 1. Aufl. 1975, New York 1983.
Quantitatives Controlling von OffshoringEntscheidungen Stefan Bock / Thorsten Böth
1
Einleitung
Offshoring kann allgemein als eine Form der geografischen Verlagerung von Unternehmensprozessen verstanden werden, wobei häufig eine Verlagerung ins Ausland gemeint ist.1 Im Zusammenhang mit dem Begriff Offshoring werden verschiedene, teilweise sich überschneidende Ausprägungen diskutiert, wie beispielsweise:2
1 2
Onshoring: Prozessverlagerung innerhalb des Inlandes; Nearshoring: Prozessverlagerung in ein geografisch nahe gelegenes Land, das meist im selben Kulturkreis liegt; Captive Offshoring: Prozessverlagerung in ein verbundenes Unternehmen im Ausland, beispielsweise in ein Tochterunternehmen oder im Rahmen eines Joint Ventures oder innerhalb einer strategischen Allianz; Offshore Outsourcing: Prozessverlagerung in ein fremdes, externes Unternehmen im Ausland; Outsourcing: Prozessverlagerung in ein fremdes Unternehmen. Dabei erfolgt diese Bezeichnung unabhängig vom Standort des fremden Unternehmens; Onshore Outsourcing: Prozessverlagerung in ein fremdes Unternehmen im Inland;
Vgl. Römer (2007), S. 8. Vgl. Klingebiel (2009), S. 223; Koubek/Weinert/Meyer (2009), S. 205-207.
660
Stefan Bock / Thorsten Böth Internes Outsourcing bzw. Inhouse-Outsourcing: Prozessverlagerung in kapitalmäßig verflochtene Unternehmen, wie beispielsweise Tochterunternehmen oder Beteiligungs- und Gemeinschaftsunternehmen.
In diesem Beitrag wird aufgrund der hohen praktischen und wissenschaftlichen Relevanz die Prozessverlagerung in ein verbundenes Unternehmen in einem Niedriglohnland im Mittelpunkt der Betrachtung stehen. Daher wird im Folgenden unter dem Begriff Offshoring ausschließlich die Prozessverlagerung auf ein konzerneigenes Tochterunternehmen im Ausland im Sinne eines Captive Offshoring verstanden. Als wesentliches Ziel des Offshorings wird meist die Kosteneinsparung angeführt, wobei auch zunehmend weitere Zielsetzungen, wie beispielsweise Innovation, Qualitätsverbesserung, Flexibilität und wettbewerbsbezogene Überlegungen an Bedeutung gewinnen.3
2
Ausgewählte Parameter für Offshoring-Entscheidungen
Als grundlegendes Hilfsmittel zur Unterstützung bei Offshoring-Entscheidungen ist zunächst ein Ländervergleich heranzuziehen, der im Hinblick auf die verfolgten Zielkriterien verwendbare Kennzahlen liefert. Als ein Beispiel für eine derartige länderübergreifende Erhebung sei der Offshoringindex von A.T. Kearney genannt, der seit 2004 regelmäßig zur Länderanalyse im Bereich Offshoring, insbesondere hinsichtlich des Offshorings von IT-Services, Kontaktzentren und der Backoffice-Unterstützung erstellt wird.4 Der aktuelle Global Services Location Index 2009 beinhaltet 50 Länder, die mit 43 Messwerten innerhalb dreier Hauptkategorien durch die Anwendung von Stufenwertzahlverfahren5 ermittelt wurden. Dabei wurde die Datenbasis mit Hilfe eigener und fremder Unternehmensbefragungen und Erkenntnissen aus längerfristigen (d.h. über fünf Jahre bestehenden) Kundenbeziehungen erstellt. Die dabei zur Verdichtung eingesetzten Gewichtungen der ermittelten Kriterien wurden hinsichtlich ihrer Bedeutung für die Standortwahl festgelegt. Die so verdichteten Hauptkategorien sind
die finanzielle Attraktivität (Financial attractiveness) mit einer Gewichtung von 40%,
3
Vgl. Klingebiel (2009), S. 225; Klingebiel (2008), S. 88 f.; Lewin/Peeters (2006), S. 18; Kolisch/Veghes-Ruff (2005), S. 918. Vgl. A.T. Kearney (2009). Vgl. für eine Anwendung des Stufenwertzahlverfahrens als spezielles Scoring-Verfahren zur Arbeitsbewertung Domschke/Scholl (2005), S. 370 f.
4 5
Quantitatives Controlling von Offshoring-Entscheidungen
661
die Mitarbeiterbefähigung und Verfügbarkeit von Arbeitskräften (People skills and availability) mit einer Gewichtung von 30% und die geschäftlichen Rahmenbedingungen (Business environment) mit einer Gewichtung von 30%.6
Die Tabelle 1 zeigt exemplarisch den Offshoring Index aus dem Jahre 2009 und eine sich daraus ergebene Rangfolge, wobei als Vergleichswert auch der jeweilige Rang aus dem Jahre 2007 mit angegeben wird.7 Die Länder Indien, China, Malaysia und Thailand besetzten wie auch in der letzten Untersuchung 2007 weiterhin die vorderen Plätze. Die dort im Zeitvergleich erkennbare Verschlechterung der Rangfolge der Länder Polen, Tschechien, Ungarn und der Slowakei ist insbesondere durch Lohnkosteninflationen und Währungsabwertungen gegenüber dem US-Dollar bedingt.8 Parallel hat sich der Nahe Osten und Nordafrika mit Ländern wie Ägypten, Jordanien, Tunesien, den Vereinigten Arabischen Emiraten und Marokko aufgrund von verbesserten Bildungsstandards und der Qualifikation und Verfügbarkeit von Arbeitskräften gegenüber dem Jahr 2007 in der Rangfolge verbessert.9
6 7
8 9
Vgl. A.T. Kearney (2009), S. 18. Vgl. A.T. Kearney (2009), S. 2; A.T. Kearney (2007), S. 2. Ferner findet sich in diesem Offshoring-Index auch die Möglichkeit der Auslagerung innerhalb des Inlandes im Sinne eines Onshoring wieder, sofern entsprechende Niedriglohngebiete, wie bspw. in den USA (San Antonio), Großbritannien (Belfast), Deutschland (Leipzig), Frankreich (Marseilles), vorhanden sind. Vgl. A.T. Kearney (2009), S. 1 sowie S. 11-13. Vgl. A.T. Kearney (2009), S. 13.
662
Stefan Bock / Thorsten Böth
Tabelle 1: Global Services Location Index 200910 Rang 2009 2007 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50.
10
1. 2. 3. 4. 6. 13. 8. 7. 14. 19. 10. 5. 9. 21. 27. 29. 26. 15. 33. 30. 28. 17. 34. 32. 25. 39. 23. 35. 20. 36. 42. 16. 37. 40. 11. 22. 24. 18. 31. 12. 48. 47. 41. 49. 43. 44. 45. 50. 38. 46.
Land
Finanzielle Attraktivität 2009
Skills u. Verfügbarkeit 2009
Geschäftliche Rahmenbedingungen 2009
GesamtBewertungspunkte 2009
Indien China Malaysia Thailand Indonesien Ägypten Philippinen Chile Jordanien Vietnam Mexico Brasilien Bulgarien USA Ghana Sri Lanka Tunesien Estland Rumänien Pakistan Litauen Lettland Costa Rica Jamaika Mauritius Senegal Argentinien Kanada Vereinigte Arabische Emirate Marokko Großbritannien Tschechien Russland Deutschland Singapur Uruguay Ungarn Polen Südafrika Slowakei Frankreich Ukraine Panama Türkei Spanien Neuseeland Australien Irland Israel Portugal
3,13 2,59 2,76 3,05 3,23 3,07 3,19 2,41 2,99 3,21 2,48 2,18 2,83 0,47 3,26 3,13 2,86 2,06 2,63 3,12 2,31 2,28 2,67 2,77 2,32 3,06 2,47 0,54 2,10 2,62 0,43 1,74 2,39 0,42 0,72 2,46 1,95 1,82 2,28 2,05 0,40 2,63 2,48 2,01 0,57 1,12 0,42 0,27 0,85 1,00
2,48 2,33 1,24 1,30 1,47 1,20 1,17 1,20 0,91 1,02 1,50 1,83 0,89 2,71 0,70 0,95 0,91 0,93 0,91 1,08 0,81 0,86 0,89 0,79 0,95 0,88 1,34 2,10 0,84 0,93 2,13 1,14 1,45 2,10 1,55 1,00 1,01 1,22 1,02 0,94 2,03 0,97 0,70 1,23 1,90 1,18 1,62 1,56 1,39 1,00
1,30 1,37 1,97 1,41 0,99 1,37 1,24 1,89 1,59 1,24 1,45 1,37 1,62 2,15 1,36 1,17 1,45 2,20 1,58 0,91 1,99 1,96 1,50 1,49 1,77 1,08 1,21 2,38 2,04 1,42 2,39 2,07 1,08 2,40 2,62 1,43 1,92 1,73 1,44 1,75 2,29 0,99 1,40 1,29 2,00 2,15 2,22 2,26 1,78 1,97
6,91 6,29 5,98 5,77 5,69 5,64 5,60 5,50 5,49 5,47 5,43 5,39 5,34 5,33 5,32 5,25 5,22 5,19 5,12 5,11 5,11 5,10 5,07 5,06 5,04 5,03 5,02 5,02 4,98 4,97 4,94 4,94 4,92 4,91 4,90 4,89 4,88 4,77 4,74 4,73 4,72 4,58 4,58 4,54 4,47 4,45 4,26 4,09 4,02 3,98
Quelle: A.T. Kearney (2009), S. 2; A.T. Kearney (2007), S. 2.
Quantitatives Controlling von Offshoring-Entscheidungen 3
663
Controlling von Offshoring-Entscheidungen
Aus Sicht der Unternehmensführung sind Entscheidungen zur Verlagerung von Tätigkeiten hinsichtlich möglicher Chancen und Risiken ex ante zu bewerten.11 Die Offshoring-Entscheidung vollzieht sich dabei nicht als ein einmaliger spontaner Entschluss, sondern als das Ergebnis eines entscheidungsorientierten Problemlösungsprozesses. Dieser Ablauf wird im Folgenden anhand von Beispielen aus einem Anwendungsfall und mit Bezug zu dem in Abbildung 1 dargestellten Managementprozess bzw. Managementzyklus skizziert. Die Phasenstruktur des Managementprozesses lässt sich grob in die Stufen
der Planung und Entscheidung12, der Durchsetzung13 und der Kontrolle14 einteilen.15
11
12 13 14 15
Hierzu hat das Controlling im Rahmen der Führungsunterstützung und zum Zwecke der Steuerung (i. w. S.) von Unternehmensaufgaben adäquate Informationen bereitzustellen (vgl. Küpper (2005), S. 27 u. S. 32; Matthes (2001), S. 321; Pütz (2004), S. 39). Zum hier verwendeten Begriff der Steuerung i. w. S. sei angemerkt, dass die steuernde Vorwärtskopplung (Steuerung i. e. S.) und die regelnde Rückwärtskopplung als einfache kybernetische Lenkung bezeichnet werden können (vgl. hierzu etwa Küpper (2005), S. 27 u. S. 32; Matthes (2001), S. 321; Pütz (2004), S. 39). Aufgrund der vielfältigen Einflüsse einer dynamischen Umwelt und der Veränderung technologischer, kultureller, rechtlicher, gesellschaftlicher und wettbewerbsspezifischer Rahmenbedingungen ist die Sicherung der Zielerreichung im Führungssystem jedoch nicht immer ausreichend gewährleistet (vgl. Jenner (2001), S. 110 f.; Matthes (2001), S. 322 f.; Pütz (2004), S. 43). Somit ist die hier skizzierte einfache kybernetische Lenkung um ein proaktives, antizipatives, adaptives bzw. innovatives Steuerungsverhalten zu ergänzen, das auch als Steuerung i. w. S. bezeichnet werden kann (vgl. Pütz (2004), S. 44; Böth (2008), S. 320). Damit sind beispielsweise auch SOLL-WIRD-Vergleiche im Sinne einer Planfortschrittskontrolle möglich, bei denen die angestrebten Sollgrößen und die für sie prognostizierten WIRD-Werte (im Sinne simulierter zukünftiger IST-Werte) gegenübergestellt werden können (vgl. Küpper (2005), S. 191-193; Matthes (1986), S. 286; Becker (1990), S. 303). Vgl. hierzu in Abb. 1 den oberen Bereich „A. Willensbildung/Willensneu- oder -umbildung“. Mit der Entscheidung ist der Prozess der Willensbildung abgeschlossen. Vgl. hierzu in Abb. 1 den Bereich „B. Willensdurchsetzung: Sicherung und Ausführung der Entscheidung“. Vgl. hierzu in Abb. 1 den Bereich „C. Willensüberwachung und -anpassung“. Vgl. Wild (1982), S. 37; Matthes (1986), S. 286. Es sei angemerkt, dass der hier skizzierte Grundablauf nicht nur als einfache Abfolge einzelner Schritte zu sehen ist, sondern als ein Zyklus, der auch durch Vor- und Rückkopplungen gekennzeichnet ist.
664
Stefan Bock / Thorsten Böth
Abbildung 1:
Der Managementzyklus16 A. Willensbildung/Willensneu- oder -umbildung
Informationssuche: Führungsvorgaben, Rahmenprognosen als Entwicklungs- und Störungsprognosen: =“WIRD“
Zielbildung
Problemerkenntnis
feed-forward Vorkopplung: =Vergleich SOLL:WIRD
Alternativensuche PrognoseAbweichungsanalyse zwecks Plananpassung
WirkungsPrognose
Alternativenbewertung und –auswahl (Entscheidung: „SOLL“/Plan) B. Willensdurchsetzung: Sicherung und Ausführung der Entscheidung
Beeinflussung/Gestaltung eines Prozesses im Basisoder Metasystem = Realisation: „IST“
C. Willensüberwachung und –anpassung Entwicklungs- und Störungsbeobachtung Messung der Ausführung: „IST“ feed-back/Rückkopplung: = Vergleich SOLL : IST Plan-Abweichungsanalyse zwecks Plan- und Prozessanpassung
16
Quelle: Matthes (1986), S. 286.
Quantitatives Controlling von Offshoring-Entscheidungen
665
So ist innerhalb der Phase der Planung und Entscheidung zunächst der Prozess der Zielbildung durchzuführen.17 Im hier betrachteten Anwendungsbeispiel eines im Bereich der kundenindividuellen Massenproduktion tätigen deutschen Unternehmens kann dies z.B. der langfristige Erhalt der internationalen Wettbewerbsfähigkeit sein. Daran anknüpfend gilt es, in der Phase der Problemerkenntnis eine ausführliche Problemanalyse und Lageprognose durchzuführen.18 Bezogen auf den Anwendungsfall könnte das Ergebnis dieser Ist-Analyse zu der Erkenntnis führen, dass die mit der Produktion einhergehenden Kosten im Vergleich zum internationalen Wettbewerb zu hoch liegen und mittlerweile aufgrund der zunehmenden, auch qualitativ guten, ausländischen Konkurrenz ein zukünftiger Auftragsverlust droht. Aus Sicht des Controllings wird hier dem Management insbesondere die Reduktion der Produktionskosten empfohlen. Das Management ordnet daraufhin einer zeitnahen Produktionskostenreduktion die höchste Prioriät zu, wobei die Qualität der Produkte dadurch nicht verschlechtert werden soll. Im Rahmen der Alternativensuche gilt es nun Handlungsmöglichkeiten zu identifizieren, die im Hinblick auf die definierten Zielsetzungen dienlich sind. So ist im betrachteten Anwendungsfall zu untersuchen, wie sich die als zu hoch eingeschätzten Produktionskosten reduzieren lassen.19 Die Entwicklung von Alternativen gestaltet sich häufig als schwierig. Dabei können Alternativen aus Maßnahmen bestehen, die gleichzeitig und gemeinsam als konjunktive Verknüpfung verschiedener Teilmaßnahmen zu realisieren sind.20 Andererseits können sie auch als alternativ realisierbare disjunktive Verknüpfungen auftreten und somit auch zu komplexen Alternativhierachien führen. Ferner können Alternativen auch vom Eintritt bestimmter Bedingungen oder von Ereignissen abhängig sein und sich im Zeitablauf ändern (Dynamik).21 Auf den konkreten Anwendungsfall bezogen können als mögliche Wege zur Produktionskostenreduktion
die Optimierung der bestehenden Inhousekosten oder eine Verlagerung von Prozessen der Wertschöpfungskette ins Ausland (Offshoring) identifiziert werden.
17 18 19 20 21
Vgl. zu den Anforderungen und zum Prozess der Zielbildung Wild (1982), S. 52-65; Küpper (2005), S. 82. Vgl. zu den Schritten der Problemanalyse Wild (1982), S. 65-69; Küpper (2005), S. 83. Vgl. zum Prozess der Alternativensuche Wild (1982), S. 70-87. Vgl. Wild (1982), S. 71 f. Vgl. Wild (1982), S. 72. Vgl. hinsichtlich der hier skizzierten Schwierigkeiten bei der Aufstellung von Alternativen auch die Ausführungen zu den komplexen, zumeist offenen bzw. nicht wohl-strukturierten Planungs-, Entscheidungs- und Kontrollproblemen der Unternehmung bei Matthes (2002), S. 134-141 und Matthes/Böth/Pütz (2003), S. 101 f.
666
Stefan Bock / Thorsten Böth
Bezogen auf das Fallbeispiel sind im Rahmen der Wirkungsprognose für jede der beiden Optionen – Optimierung der Istkosten am bisherigen Standort oder Verlagerung ins Ausland, z.B. nach Indien – die zukünftige Wirkung einer gewählten Handlungsalternative zu ermitteln.22 Ergebnis einer solchen, auch mit Rückgriff auf den in Tabelle 1 aufgeführten Index zum Offshoring, durchgeführten Prognose der Wirkungen der Handlungsalternativen könnte ein länderspezifisches Layout des Produktionssystems sein. Diese standortbezogene Layoutplanung des betrachteten Produktionssystems berücksichtigt dann beispielsweise das örtliche Lohnniveau und die Fähigkeiten der Arbeiter als wichtige Einflussgrößen. In der Phase der Alternativenbewertung und -auswahl sind die Handlungsalternativen hinsichtlich ihrer Zielwirksamkeit zu analysieren, um eine abschließende Entscheidung treffen zu können.23 Auf das Anwendungsbeispiel bezogen ist anzumerken, dass bei der Planung der geografischen Verlagerung eines Produktionssystems nicht nur die vertraglich im Voraus direkt erkennbaren Kosten, wie beispielsweise Löhne und Gehälter, sondern auch alle weiteren zusätzlichen indirekten Kosten berücksichtigt werden müssen. Letztere werden – wegen ihrer schwierigeren Abschätzbarkeit – auch häufig als unsichtbare Kosten (Hidden Costs) bezeichnet. Diese ergeben zusammen mit den sichtbaren Kosten sodann die Gesamtkosten des Offshorings (Total Cost of Offshoring) und sollten im Hinblick auf die Realisierung der Offshoring-Aktivität einen realen Kostenvorteil gegenüber den optimierten Inhousekosten erbringen.24 Jedoch können z.B. kulturelle Unterschiede, infrastrukturelle Defizite, ein erhöhter Administrationsund Kommunikationsaufwand, Fluktuation oder ein unerwartet schlechter Zugriff auf gut qualifizierte Fachkräfte vor Ort einen signifikanten Einfluss auf die Vorteilhaftigkeit einer zu treffenden Offshoring-Entscheidung haben.25 Ein aktueller Ansatz aus dem Bereich des Operations Management, der das länderspezifische Layout des Produktionssystems bei Veränderung der Inputdaten, wie z.B. die unterstellte Mitarbeiterqualifikation und -fluktuation, analysiert und somit zur Alternativenbewertung und -auswahl – und damit zur abschließenden Entscheidung – beitragen kann, wird hierzu exemplarisch in Abschnitt 4 näher vorgestellt.26 22 23 24 25 26
Vgl. zum Prognoseprozess Wild (1982), S. 87-100. Vgl. zum Prozess der Bewertung Wild (1982), S. 100-116. Vgl. Klingebiel (2006); Klingebiel (2009), S. 227. Vgl. Klingebiel (2006), S. 718-720 und hinsichtlich der kulturellen Unterschiede insbesondere Winkler/Dibbern/Heinzl (2007), S. 97 f.; Hoffjan/Nevries/Wömpener (2005). Vgl. Bock (2008). In diesem Ansatz werden ein mathematisches Optimierungsmodell und ein spezielles Lösungsverfahren zur Berechnung länderspezifischer Linienlayouts eingesetzt. Zu den verschiedenen modellanalytischen Vorgehensweisen in der Betriebswirtschaftslehre vgl. bspw. Homburg (2000), S. 31-49.
Quantitatives Controlling von Offshoring-Entscheidungen
667
Die Phase der Durchsetzung beinhaltet die Sicherung und Ausführung der Entscheidung und gewährleistet damit den Vollzug der ausgewählten Alternative.27 Sie erfordert zum einen als sachliche Voraussetzung die Bereitstellung von Potenzialfaktoren und Verfahren zur Durchführung des Lösungskonzeptes und zum anderen als personale Voraussetzung die Akzeptanz der Entscheidung und die entsprechende Befähigung bei den Ausführenden.28 Die Phase der Kontrolle dient dem Soll-Ist-Vergleich, wodurch im Rahmen der Rückkopplung (feed-back) Lern- und Anpassungsprozesse veranlasst werden, die durch die Modifikation der Entscheidungsgrundlagen, -alternativen und Bewertungen verstärkt werden.29
4
Ein spezieller Ansatz zur Entscheidungsunterstützung
Im Folgenden wird ein spezieller Ansatz zur OffshoringEntscheidungsunterstützung skizziert, der im Rahmen der Alternativenbewertung und -auswahl zur Anwendung kommen kann.30 Dabei wird zum systematischen Alternativenvergleich das Layout des betrachteten Produktionssystems sowohl am Heimatstandort als auch im betrachteten Niedriglohnland detailliert geplant. Hierzu ist unter Beachtung der eruierten länderspezifischen Gegebenheiten der Aufbau des Produktionssystems festzulegen. Dabei wird als Zielsetzung die Minimierung der abzuschätzenden variablen Produktionsstückkosten verfolgt, die sowohl von den zu zahlenden Arbeitslöhnen als auch von den verfügbaren Qualifikationen der einsetzbaren Arbeitskräfte abhängen. Der Planungsprozess fußt auf einem kombinatorischen Optimierungsmodell, das im Folgenden kurz skizziert wird. Im Rahmen der Definition des Modells werden die folgenden Parameter verwendet: 27 28 29 30
N: Anzahl der auszuführenden Arbeitsgänge am Fließband. O: Anzahl der Variantenoptionen im Produktionsprogramm. P: Zahl der Produkteinheiten, die im Planungszeitraum zu fertigen sind. C: Taktzeit der Linie. Hierdurch wird die Outputrate des Produktionssystems determiniert. M: Obergrenze für die Stationszahl. Vgl. Wild (1982), S. 42-44; Matthes (1986), S. 288 f. Vgl. Matthes (1986), S. 288 f. Vgl. Matthes (1986), S. 289. Eine detaillierte Beschreibung des Ansatzes (Problemmodell und Lösungsverfahren) findet sich in Bock (2008).
668
Stefan Bock / Thorsten Böth MW: Obergrenze für die Anzahl von Werkern, die gleichzeitig an einer Station tätig sein können. OVo: Anzahl möglicher Werte für die Variantenoption o. Fo,v: Angenommene Häufigkeit, mit der die Alternative v für die Variantenoption o im Planungszeitraum zu fertigen ist. ROi: Option, deren Wahl für die Ausführung des Arbeitsgangs i relevant ist. Gibt es hiervon mehrere, sind diese entsprechend zu einer Option zu vereinigen. ti,v,w: Ausführungszeit des Arbeitsgangs i falls insgesamt w Werker die Alternative v für die Variantenoption ROi installieren. Dieser Parameter ist länderspezifisch festzulegen. i: Menge der Nachfolger von Arbeitsgang i im Vorranggraphen. WW: Gehalt pro Periode für einen Werker am Band. WF: Gehalt pro Zeiteinheit für einen Springer. WOF(<WF): Gehalt pro Zeiteinheit, die für (nicht zeitkritische) Arbeit abseits des Bandes gezahlt wird und der die Springer bei Nichtbeschäftigung am Band nachgehen. Springer erhalten – unabhängig von ihrer konkreten Arbeit – das volle Gehalt WOF.
Um das Layout des Fließbandes festlegen zu können, werden die folgenden Variablen verwendet:
si,m: Zuordnung von Arbeitsgängen zu Stationen. D.h. si,m erhält den Wert Eins genau dann, wenn Arbeitsgang i zu Station m zugeordnet wird. wm: Anzahl von Werkern, die direkt der Station m zugeordnet werden. fm: Anzahl von Springern, die für einen Einsatz an Station m bereitgehalten werden. Zur Bestimmung dieser Größe wird von einem „worst case“ Szenario ausgegangen, bei dem die komplexeste Variantenkombination in dieser Station gefertigt wird. Damit ergibt sich die Gesamtzahl von Springern F durch: F
M
¦f
m
.
m 1
Im Rahmen der folgenden Definitionen wird die binäre Funktion GT(x,y), die das Größenverhältnis zweier natürlicher Zahlen x und y beschreibt, verwendet. Es gilt: GT x, y ® 1 falls x ! y . sonst ¯0 Die Komplexität des zu produzierenden Variantenprogramms wird anhand der
O
Gesamtzahl der theoretisch möglichen Varianten V = OVo . und durch o 1
Quantitatives Controlling von Offshoring-Entscheidungen
669
die
durchschnittliche Varianz der Prozesszeiten OVROi OVROi § · N 1 ¦ ti,v,1 ti,1 ¸ , mit i ^1,..., N ` : t ¦ v 1 ti,v,1 ¨¦ v 1 U i ,1 ¸ N ¨i1 OVROi t i ,1 OVROi © ¹ gemessen.
Die länderspezifischen Fähigkeiten der einsetzbaren Arbeitskräfte werden durch die folgenden Kategorien erfasst:
Produktivität der Werker in Prozent: 0100. Hiermit wird die Ausführungszeit der Arbeitsgänge beeinflusst. Es gilt: 100 ti ,v ,1 . i ^1,..., N ` : v 1,..., OVROi : tiZ,v ,1 Z Flexibilität der Werker in Prozent: 0100. Dieser Parameter misst die Fähigkeit der Werker, mit überdurchschnittlich komplexen Varianten umzugehen. Es gilt: 100 tiZ,v ,1 Z i ^1,..., N ` : v 1,..., OVROi : tiZ,v,\,1 GT (tiZ,v ,1 , t i ,v ,1 ) \
Z
^
`
^
`
Z
1 GT tiZ,v ,1 , t i ,v ,1 tiZ,v ,1 , mit t i ,v ,1 =
¦
OVROi Z i , v ,1 v =1
t
OVROi
Verfügbarkeit von Springern am Standort: =1 bedeutet in diesem Zusammenhang, dass an dem betrachteten Standort derart höher qualifizierte und flexible Arbeitskräfte rekrutiert werden können. Teamfähigkeit der Werker in Prozent: 0 100. Dieser Parameter misst, inwieweit im Team Leistungssteigerungen erzielt werden, wenn weitere Werker hinzutreten. Damit gilt: i ^1,..., N ` : v 1,..., OVROi : tiZ,v,\,1 , F tiZ,v,\,1
^ ` i ^1,..., N ` : v ^1,..., OV ` : w ^2,..., MW ` : ROi
100 § ti ,v , w1 ti ,v , w · Z ,\ , F ¨1 ¸ ti ,v , w1 F ¨© ti ,v ,w1 ¸¹ Arbeitssorgfalt der Werker: Diese wird in korrekt gefertigten „parts per million“ (ppm) gemessen, wenn w Werker gemeinsam den Arbeitsgang i ausführen, um die Alternative v der relevanten Variantenoption ROi zu installieren. Damit gilt 0ai,v,w1.000.000. tiZ,v,\,1 , F
670
Stefan Bock / Thorsten Böth Offensichtlich hängt die Arbeitssorgfalt beim Einsatz von mehr als einem Werker (und der damit verbundenen gegenseitigen Unterstützung) auch mit der Teamfähigkeit zusammen. Daher wird vereinfachend angenommen, dass gilt: i ^1,..., N ` : v 1,..., OVROi : aiF,v ,1 ai ,v ,1
^ ` i ^1,..., N ` : v ^1,..., OV ` : w ^1,..., MW ` : ROi
aiF,v , w
ai ,v , w1
F ai ,v , w ai ,v , w1
100 Eine Belegung der Lösungsvariablen L ist zulässig und definiert somit ein Layout des Produktionssystems, wenn gilt:
Einhaltung der Wertebereiche der Lösungsvariablen i ^1,..., N ` : m ^1,..., M ` : si ,m ^0,1` wm ^0,..., MW ` f m ^0,..., MW ` wm f m ^0,..., MW ` f m d I MW Jeder Arbeitsgang wird eindeutig einer Station zugeordnet. M
i ^1,..., N ` : ¦ si ,m
1
m 1
Arbeitskräfte- und Arbeitsgangzuordnungen korrespondieren, d.h., es werden nie mehr als MW Werker einer Station zugeordnet und falls eine Station Arbeitsgänge erhält, muss es dort Arbeitskräfte geben. N § N · m ^1,.., M ` : ¦ si ,m d GT wm , 0 N wm d GT ¨ ¦ si ,m ¸ MW i 1 ©i1 ¹ Die Vorrangbeziehungen werden eingehalten. M
M
m 1
m 1
m ^1,.., N ` : j *i : ¦ m si ,m d ¦ m s j ,m
31
Leere Stationen sind ausschließlich am Ende platziert. § N · § N · m ^1,..., M 1` : GT ¨ ¦ si ,m 1, 0 ¸ d GT ¨ ¦ si , m 0 ¸ ©i1 ¹ ©i1 ¹ Die Taktzeit wird eingehalten. Hierfür muss zumindest die Zahl der bereitgestellten Springer fm zuzüglich der zugeteilten Werker wm ausreichen, um alle Variantenkonstellationen in der gegebenen Taktzeit auszuführen.31
Eine mathematische Herleitung findet sich in Bock (2008), S. 497.
Quantitatives Controlling von Offshoring-Entscheidungen
671
Zur Messung der Flexibilität der Fließlinie werden weitere Parameter verwendet:
0 100: Definiert den Anteil am maximalen Springerpool F, der aufgrund der Flexibilität innerhalb der Linie voraussichtlich gebraucht wird. 0100: Definiert den Anteil der errechneten maximalen Springereinsatzzeiten FTimes(L), der bei Berücksichtigung der Flexibilität innerhalb der Linie voraussichtlich auftreten wird.
Diese genannten Flexibilitätsparameter sind allerdings auch abhängig von der Flexibilität der eingesetzten Arbeitskräfte. Daher werden die folgenden landesspezifischen Parameter verwendet: E \ 100 E J \ 100 J .
\
\
Als Zielsetzung wird eine Minimierung der erwarteten variablen Stückkosten im Planungszeitraum verfolgt. Diese lassen sich wie folgt berechnen. AC ( L) WOF FTimes ( L) J \ (WF WOF ) P C E \ F §M · WW ¨ ¦ wm ¸ OFFL NO _ OFFL _ PROD ( L) ©m 1 ¹ Dabei werden die folgenden Bestandteile verwendet:32
32
FTIMES(L): Erwartete Gesamteinsatzzeit der Springer am Fließband. Diese ergibt sich in jeder Station individuell aus den Varianten, die nicht mehr durch die fest zugeteilten Werker innerhalb der Taktzeit gefertigt werden können. NO_OFFL_PROD(L): Erwartete Zahl von nicht korrekt gefertigten Produkteinheiten. Diese Zahl ergibt sich aus der Wahrscheinlichkeit einer nicht korrekt gefertigten Produkteinheit multipliziert mit der Gesamtzahl anzufertigenden Einheiten. OFFL: Erwartete Kosten für Nacharbeit. Hierbei wird angenommen, dass jede defekte Produkteinheit noch einmal aufgelegt werden muss und sich somit eine zusätzliche Takteinheit ergibt. Dabei wird im Durchschnitt die Hälfte aller inkorrekt ausgeführten Arbeitsschritte wiederholt, weshalb die Hälfte der durchschnittlich anfallenden Springereinsatzkosten anzusetzen ist.
Siehe für eine detaillierte mathematische Definition der verwendeten Bezeichner Bock (2008), S. 497 f.
672
Stefan Bock / Thorsten Böth
Das dargestellte Optimierungsmodell ist für gegebene Länderkonfigurationen entsprechend zu definieren und unter Nutzung eines geeigneten Optimierungsverfahrens zu lösen.33 Das entwickelte Layout erlaubt durch die Erfassung der Folgewirkungen der veränderten Arbeitskräftequalifikationen eine genauere Abschätzung der entstehenden voraussichtlichen variablen Stückkosten. Der vorliegende Ansatz zur Entscheidungsunterstützung lässt sich auch allgemein nutzen, um auf der Basis von ausgewählten Länderkonstellationen allgemeine Implikationen für das Management abzuleiten. Dazu wurden die folgenden Länderkonfigurationen erzeugt. Tabelle 2: Länderkonfigurationen Land HWC A1 A2 B1 B2
Lohnniveau (in Prozent) 100 50 50 25 25
ai,v,1
100 90 90 80 80
100 90 80 70 70
100 90 90 80 80
1.000.000 998.500 998.000 997.000 997.000
Ja Ja Ja Ja Nein
Des Weiteren wurden die folgenden Variantenprogramme simuliert. Tabelle 3: Variantenprogramm Gruppe Small Complexity (SC) Medium Complexity (MC) Normal Complexity (NC) High Complexity (HC) Extreme Complexity (EC)
Parameterkonstellationen Anzahl Varianten Variation der Arbeitsinhalte 8 – 108 9,346 – 11,229 50 – 9,3312 . 104 8,525 – 15,101 12,37 – 18,104 192 – 6,77376 . 106 15,196 – 20,921 4,928 . 107 – 8,037 . 1013 20,438 – 24,758 7,776 . 108 – 5,0346 . 1017
Hinsichtlich der Flexibilität der Linie wurde jeweils ein Szenario ohne Reduktion der Springereinsatzkosten, mit 50-prozentiger Reduktion der Springereinsatzkosten und schließlich mit 75 Prozent Reduktion der Springereinsatzkosten getestet.
33
Für eine ausführliche Beschreibung eines geeigneten Optimierungsverfahrens wird an dieser Stelle auf Bock (2008), S. 498-501 verwiesen.
Quantitatives Controlling von Offshoring-Entscheidungen
673
Mit Hilfe dieser verschiedenen Testkonfigurationen wurde untersucht, inwieweit die Vorteilhaftigkeit von Offshoring-Entscheidungen durch
die Komplexität des Variantenprogramms und durch die Flexibilität der genutzten Fließlinie
in unterschiedlichen Länderkonfigurationen beeinflusst wird. Die erzielten Ergebnisse (gemessen in der erzielten prozentualen Reduktion der variablen Stückkosten) sind schematisch in den folgenden Abbildungen dargestellt. Aus den erzielten Ergebnissen (siehe hierzu Abbildung 2 bis Abbildung 5) wird deutlich, dass insbesondere die vorliegende Komplexität des zu produzierenden Variantenprogramms einen signifikanten Einfluss auf die Vorteilhaftigkeit einer Offshoring-Entscheidung hat. Dies lässt sich bei Betrachtung der erzielten Ergebnisse für alle potenziellen Offshoring Länderkonfigurationen erkennen. So fällt die Reduktion der variablen Stückkosten im Fall des Landes A1 und höchster Flexibilität der Linie von über 28 Prozent für eine geringe Komplexität des Variantenprogramms (SC) auf 24,56 Prozent bei extremer Komplexität (EC). Abbildung 2: Reduktion der variablen Kosten
Ergebnisse für die Länderkonfiguration A1 0,35
0,3
0,25
0,2
0,15
0,1
0,05
1.0
0 SC
0.5
MC
Komplexität des Variantenprogramms
NC HC EC
Adaptivität der Steuerung
0.25
Im Falle des Landes A2 verringert sich die Reduktion der variablen Kosten von der Konstellation SC zu EC sogar um über 7 Prozent.
674
Stefan Bock / Thorsten Böth
Abbildung 3: Reduktion der variablen Kosten
Ergebnisse für die Länderkonfiguration A2 0,25
0,2
0,15
0,1
0,05
1.0
0 SC
0.5
MC NC HC
Komplexität des Variantenprogramms
Abbildung 4: Reduktion der variablen Kosten
EC
0.25
Adaptivität der Steuerung
Ergebnisse für die Länderkonfiguration B1 0,45
0,4
0,35
0,3
0,25
0,2
0,15
0,1
0,05 1.0
0 SC
0.5
MC NC
Komplexität des Variantenprogramms
HC EC
0.25
Adaptivität der Steuerung
Quantitatives Controlling von Offshoring-Entscheidungen Abbildung 5: Reduktion der variablen Kosten
675
Ergebnisse für die Länderkonfiguration B2 0,35
0,3
0,25
0,2
0,15
0,1
0,05
0 1.0
-0,05 SC
0.5
MC NC
Komplexität des Variantenprogramms
HC EC
0.25
Adaptivität der Steuerung
Noch deutlicher wird dieser Unterschied bei der Betrachtung der erzielten Ergebnisse für die B-Länder. Diese weisen ein gegenüber den A-Ländern noch einmal halbiertes Lohnniveau auf und sind durch weiter reduzierte Arbeitskräftequalifikationen gekennzeichnet. Liegt hier wiederum eine hohe Linienflexibilität (mit 75 Prozent Reduktion der Springereinsatzkosten) vor, reduziert sich beispielsweise bei einem B1-Land die Kosteneinsparung von 33,66 Prozent bei geringer Komplexität (SC) auf 20,01 Prozent bei extremer Komplexität (EC). Insgesamt lässt sich somit feststellen, dass der Einfluss der vorliegenden Komplexität des Variantenprogramms auf die Vorteilhaftigkeit einer Standortverlagerung dann besonders ausgeprägt ist, je geringer die Qualifikation der Arbeitskräfte im Niedriglohnland ist und je flexibler die Linie ist. In diesen Situationen gilt,
dass einer sehr überdurchschnittlichen Kostenreduktion bei einer geringen Komplexität ein sehr unterdurchschnittliches Ergebnis bei einer hohen Komplexität gegenübersteht.
676
Stefan Bock / Thorsten Böth
Insgesamt wird aus diesen Ergebnissen deutlich, dass insbesondere Unternehmen, die
über leistungsfähige Produktionsprozesse verfügen und eine Verlagerung in ein Niedriglohnland mit signifikant geringeren Qualifikationen der Arbeitskräfte erwägen,
gehalten sind,
die Komplexität ihres Variantenprogramms und seine Beherrschung am neuen Standort genau zu untersuchen und von deutlichen – der Komplexität geschuldeten – Aufschlägen in den Produktionskosten auszugehen.
Dies bedeutet, dass gerade in derartigen Fällen dem Management anzuraten ist, im Rahmen der Alternativenbewertung und -auswahl leistungsfähige Entscheidungsunterstützungssysteme einzusetzen.
5
Ausblick
Aus Sicht des Managements kann eine Offshoring-Entscheidung bei einer komplexen, dynamischen und in Teilen nur schwer zu kontrollierenden Unternehmung und ihrer Umwelt nicht nur auf einer einfachen linearen Abfolge von Planung, Entscheidung, Durchsetzung und Kontrolle basieren.34 Vielmehr sind die einzelnen Phasen im Sinne eines Managementzyklus durch regelnde Rückwärtskopplungen und steuernde Vorwärtskopplungen gekennzeichnet, die aus Sicht des Controllings idealerweise durch ein proaktives Steuerungsverhalten (Steuerung i.w.S.) zu ergänzen sind.35 In diesem Zusammenhang kann der aufgezeigte Ansatz zur Entscheidungsunterstützung helfen, die voraussichtlichen Auswirkungen von Handlungsalternativen hinsichtlich ihrer Zielwirksamkeit laufend zu analysieren und zu vergleichen. Hierbei ist auch eine dynamische Anwendung des Ansatzes mit über den Zeitablauf sich verändernden Input-Parametern möglich. Die skizzierten Ergebnisse zeigen, dass durch das verwendete mathematische Optimierungsmodell und das spezielle Lösungsverfahren zur Berechnung länderspezifischer Linienlayouts
34 35
Vgl. Böth (2008), S. 315. Vgl. Pütz (2004), S. 37-46.
Quantitatives Controlling von Offshoring-Entscheidungen
677
adäquate Ergebnisse zur Entscheidungsunterstützung generiert und entsprechend in den Managementzyklus einfließen können.36 Ein sich aus diesen Ergebnissen ergebender möglicher zukünftiger Forschungsbereich liegt in einer Dynamisierung des skizzierten Entscheidungsunterstützungsansatzes. Hierbei könnte auf der Basis von erwarteten Erfahrungskurveneffekten für einen betrachteten Entscheidungshorizont berücksichtigt werden, wie sich die Rahmenbedingungen in den jeweiligen Niedriglohnländern voraussichtlich entwickeln werden. Zudem könnte auch eine dynamische Layoutgenerierung und -anpassung integriert werden. Zur korrekten Bewertung des zeitlichen Anfalls der Auszahlungen und möglicher alternativer Verwendungen ist die Zielfunktion in diesem Fall zu einer rein auf Auszahlungen basierenden Kapitalwertformel zu erweitern.37 Neben einer gezielteren Entscheidungsunterstützung könnte die rollierende Anwendung des so erweiterten Ansatzes zudem im Rahmen der Plan-Abweichungsanalyse beziehungsweise der Prognose-Abweichungsanalyse mögliche Fehleinschätzungen und Fehlentwicklungen frühzeitig aufzeigen.38
Literatur A.T. Kearney (2007): Offshoring for Long-Term Advantage. The 2007 A.T. Kearney Global Services Location IndexTM, http://www.atkearney.com/ images/global/pdf/GSLI_2007.pdf, Zugriff am 09.08.2009. A.T. Kearney (2009): The Shifting Geography of Offshoring. The 2009 A.T. Kearney http://www.atkearney.com/ Global Services Location IndexTM, images/global/pdf/Global_Services_Location_Index_2009.pdf, Zugriff am 09.08.2009. Becker, Wolfgang (1990): Funktionsprinzipien des Controlling. In: ZfB, 60 Jg., Heft 3/1990, S. 295-331. Bock, Stefan (2000): Modelle und verteilte Algorithmen zur Planung getakteter Fließlinien. Ansätze zur Unterstützung eines effizienten Mass Customization, Wiesbaden 2000. Bock, Stefan (2008): Supporting Offshoring and Nearshoring Decisions for Mass Customization Manufacturing Processes, in: European Journal of Operational Research (2008), Vol. 184, S. 490-508. Böth, Thorsten (2008): Anmerkungen zu Managementprozessen und ihren Phasen im Kontext offener Problemstrukturen aus der Perspektive des Entwicklungscontrollings, in: Pütz/Böth/Arendt (Hrsg.), S. 313-334. 36 37 38
Vgl. Bock (2008), S. 506 f.; Matthes (1986), S. 285-290. Vgl. Bock (2000), S. 97 und S. 122-125. Vgl. Matthes (1986), S. 289.
678
Stefan Bock / Thorsten Böth
Domschke, Wolfgang/Scholl, Armin (2005): Grundlagen der Betriebswirtschaftslehre. Eine Einführung aus entscheidungsorientierter Sicht, 3. verb. Aufl., Berlin/Heidelberg 2005. Hoffjan, Andreas/Nevries, Pascal/Wömpener, Andreas (2005): Andere Länder – andere Sitten. Kulturelle Einflüsse auf das internationale Controlling, in: Zeitschrift für Controlling & Management (ZfCM), Heft 4/2005, S. 290-295. Homburg, Christian (2000): Quantitative Betriebswirtschaftslehre: Entscheidungsunterstützung durch Modelle; mit Beispielen, Übungsaufgaben und Lösungen, 3. Aufl., Wiesbaden 2000. Jenner, Thomas (2001): Zum Einfluss der Gestaltung von Planungsprozessen auf den Erfolg strategischer Geschäftsfelder, in: ZfbF 53. Jg., Heft März/2001, S. 107-126. Klingebiel, Norbert (2006): Total Cost of Offshoring: Vollständig Kostenvergleiche bei Verlagerungen in Niedriglohnländer, in: Der Schweizer Treuhänder 80. Jg., Heft 11/2006, S. 717-722. Klingebiel, Norbert (2008): Kostencontrolling & Wettbewerbseffekte bei OffshoringProjekten, in: ControllerMagazin Juli/August 2008, S. 87-92. Klingebiel, Norbert (2009): Bewertungskriterien für Offshoring-Projekte, in: WISU 38. Jg. (2009), S. 223-228. Koch, Lambert T./Zacharias, Christoph (Hrsg.) (2001): Gründungsmanagement: mit Aufgaben und Lösungen, München et.al. 2001. Kolisch, Rainer/Veghes-Ruff, Oana Alina (2005): Offshore-Software-Projekte, in: WISU 34. Jg. (2005), S. 917-923. Koubek, Norbert/Weinert, Stephan/Meyer, Kirsten (2009): Outsourcing and offshoring strategies of multinational companies in Asia, in: Welfens/Ryan/Chirathivat/Knipping (Hrsg.) (2009), S. 205-222. Küpper, Hans-Ulrich (2005): Controlling: Konzeption, Aufgaben, Instrumente. 4. Aufl., Stuttgart 2005. Lewin, Arie Y./Peeters, Carine (2006): Offshoring als Wachstumsmotor, in: Harvard Business Manager 28. Jg., Nr. 5/2006, S. 18-19. Matthes, Winfried (1986): Phasen des Managementprozesses, in: WISU, Heft 6/1986, S. 283-290. Matthes, Winfried (2001): Gründungscontrolling zur Sicherung des Unternehmenserfolgs. in: Koch/Zacharias (Hrsg.) (2001), S. 321-339. Matthes, Winfried (2002): Zur Axiomatik des Controlling, in: Weber/Hirsch (Hrsg.) (2002), S. 131-143. Matthes, Winfried/Böth, Thorsten/Pütz, Markus (2003): Empirische Analysen zum Controlling, in: Weber/Hirsch (Hrsg.) (2003); S. 99-116. Pütz, Markus (2004): Operativ-gestütztes strategisches Controlling flexibel automatisierter Produktionssysteme. 2 Halbbände, Dissertation, Bergische Universität Wuppertal, unter dem Titel: Simulation flexibel automatisierter Produktionssysteme - Eine Basiskonzeption zur Unterstützung ihres operativ-gestützten strategischen Controlling. Lohmar/Köln 2004. Pütz, Markus/Böth, Thorsten/Arendt, Volker (Hrsg.) (2008): Controllingbeiträge im Spannungsfeld offener Problemstrukturen und betriebspolitischer Herausforderungen. Köln/Lohmar 2008.
Quantitatives Controlling von Offshoring-Entscheidungen
679
Römer, Christof (2007): Offshoring – Wie viele Jobs gehen ins Ausland? Auslandsinvestitionen, Produktionsverlagerungen und Arbeitsplatzeffekte, Hrsg. vom Institut der Deutschen Wirtschaft Köln, Köln 2007. Weber, Jürgen/Hirsch, Bernard (Hrsg.) (2002): Controlling als akademische Disziplin Eine Bestandsaufnahme, Wiesbaden 2002. Weber, Jürgen/Hirsch, Bernard (Hrsg.) (2003): Zur Zukunft der Controllingforschung, Wiesbaden 2003. Welfens, Paul J. J./Ryan, Cillian/Chirathivat, Suthiphand/Knipping, Franz (Hrsg.) (2009): EU - ASEAN: facing economic globalisation, Berlin/Heidelberg 2009. Wild, Jürgen (1982): Grundlagen der Unternehmensplanung, 4. Aufl., Opladen 1982. Winkler, Jessica/Dibbern, Jens/Heinzl, Armin (2007): Der Einfluss kultureller Unterschiede beim IT-Offshoring - Ergebnisse aus Fallstudien zu deutsch-indischen Anwendungsentwicklungsprojekten, in: Wirtschaftsinformatik, Heft 2/2007, S. 95-103.
Der Einfluss internationaler Rechnungslegungsvorschriften auf die Bilanzierung von Entwicklungsausgaben nach deutschem Bilanzrecht Frank M. Hülsberg / Stefan Thiele
1
Einleitung
Ein wesentlicher Bestandteil der Forschung und Lehre von Norbert Koubek ist das Innovationsmanagement.1 Insofern liegt es nahe, in der ihm gewidmeten Festschrift ein Thema aufzugreifen, das einen Bezug zu seinem wissenschaftlichen Werk besitzt und überdies von hoher Relevanz für die Berichterstattung vieler Unternehmen ist. Das Innovationsmanagement erstreckt sich von der Grundlagenforschung bis zur Markteinführung eines neuen Produkts oder einer neuen Dienstleistung und betrifft sämtliche Wertschöpfungsprozesse einschließlich der unterstützenden Aktivitäten im Controlling und Rechnungswesen.2 Innovationen werden realisiert, wenn bestehende Produktionsfaktoren auf eine neue Art und Weise so miteinander kombiniert werden, dass hieraus neue oder verbesserte Produkte und Produktionsverfahren entstehen. Dieser Prozess der „schöpferischen Zerstörung“3 findet regelmäßig im Bereich des immateriellen Vermögens eines Unternehmens statt. Hierbei ist etwa an einen Automobilzulieferer zu denken, der ein spezielles Produktionsverfahren für Außenspiegel um einen Arbeitsgang erweitert. Dadurch können zusätzliche Blinkerleuchten in die Spiegelgehäuse integriert werden. Die Modifikation erhöht nicht nur die Sicherheit im Straßenverkehr, sondern beeinflusst auch das Fahrzeugdesign in positiver Weise. Letztlich 1 2 3
Vgl. beispielsweise Koubek/Ostermann/Skalec (1991); Koubek/Ostermann (1990), S. 3-15; Koubek (1989), S. 199-208. Vgl. Macharzina/Wolf (2005), S. 735 f. Schumpeter (1950), S. 138.
682
Frank M. Hülsberg / Stefan Thiele
wird ein Wettbewerbsvorteil gegenüber der Konkurrenz begründet. Die strategische Steuerung von Forschungs- und Entwicklungstätigkeiten eines Unternehmens ist ein Teilbereich des Innovationsmanagements. Durch den Wandel von der Industrie- zur Dienstleistungs- und Hochtechnologiegesellschaft gewinnen immaterielle Güter zunehmend an Bedeutung für den Wertschöpfungsprozess vieler Unternehmen. Die entscheidenden Werttreiber sind heute oft nicht mehr Grundstücke, Gebäude, Produktionsanlagen und ähnliche (materielle) Güter, sondern vielmehr physisch nicht greifbare Vorteile wie Rechte, Humankapital oder Know-how.4 Daher ist eine aussagefähige Berichterstattung über die immateriellen Güter eines Unternehmens im Hinblick auf die Informationsbedürfnisse der Jahresabschlussadressaten von großer Bedeutung.5 Besondere Probleme ergeben sich – anders als bei entgeltlich erworbenen immateriellen Gütern – im Zusammenhang mit selbst geschaffenen immateriellen Gütern, da diesen aufgrund ihrer Unkörperlichkeit, der schwierigen Zurechenbarkeit der Herstellungskosten sowie der hohen Unsicherheit hinsichtlich ihrer künftigen Nutzungsdauer kaum ein objektivierter Wert zugewiesen werden kann. Deshalb werden diese auch als die „ewigen Sorgenkinder des Bilanzrechts“6 bezeichnet. Ziel des vorliegenden Beitrags ist die Darstellung der bilanziellen Abbildungsvorschriften für immaterielle Güter nach den IFRS und eine vergleichende Gegenüberstellung einiger ausgewählter Unterschiede zum deutschen Handelsrecht. Dabei werden vornehmlich die Fragen der Definition, des Ansatzes und der Zugangsbewertung immateriellen Vermögens beleuchtet. Die Folgebewertung immaterieller Güter gestaltet sich i.d.R. unproblematisch und ist deshalb nicht Gegenstand dieses Beitrags.
2
Bilanzierung immaterieller Güter nach IFRS
2.1 Definition immaterieller Vermögenswerte Die Bilanzierung immaterieller Güter wird in IAS 38 geregelt, soweit deren Bilanzierung nicht durch andere IAS/IFRS-Standards geregelt ist. Letzteres gilt beispielsweise für immaterielle Vermögenswerte, die zur Veräußerung im gewöhnlichen Geschäftsprozess gehalten werden und daher unter die Anwendungsbereiche von IAS 2 oder IAS 11 fallen. 4 5 6
Vgl. Arbeitskreis „Immaterielle Werte im Rechnungswesen“ der Schmalenbach-Gesellschaft für Betriebswirtschaft e.V. (2001), S. 989. Vgl. Haller (1998), S. 563. Moxter (1979), S. 1102.
Bilanzierung von Entwicklungsausgaben
683
IAS 38.8 definiert einen immateriellen Vermögenswert als einen identifizierbaren, nicht monetären Vermögenswert ohne physische Substanz. Aus dieser Definition ergeben sich zur Abgrenzung eines immateriellen Vermögenswertes von einem materiellen Vermögenswert die folgenden Anforderungen:
Der Sachverhalt muss der Definition eines Vermögenswertes genügen. Der Sachverhalt muss identifizierbar sein. Es darf sich nicht um einen monetären Vermögenswert handeln. Bei dem Sachverhalt muss es sich um einen Wert handeln, der ohne wesentliche physische Substanz ist.
In Übereinstimmung mit der Regelung des Framework F.49 (a) wird ein Vermögenswert in IAS 38.8 als eine Ressource definiert, die aufgrund vergangener Ereignisse von einem Unternehmen beherrscht wird und von der erwartet wird, dass dem Unternehmen ein künftiger wirtschaftlicher Nutzen zufließen wird. Vermögenswerte resultieren aus vergangenen Geschäftsvorfällen oder sonstigen vergangenen Ereignissen. Beabsichtigte oder erwartete Geschäftsvorfälle reichen nicht aus, um einen Vermögenswert zu begründen. Auf welche Weise ein Unternehmen das Gut erlangt hat, ist dabei unerheblich. Der Erwerb muss nicht zwingend mit der Erbringung einer Gegenleistung einhergehen. Ein Gut kann also nicht nur durch Kauf oder Tausch, sondern auch durch Schenkung oder durch eigene Herstellung in das Vermögen des Unternehmens übergehen.7 Entscheidend ist, dass das Unternehmen über den mit dem Gut verbundenen Nutzen verfügen kann. Die Beherrschung immaterieller Vermögenswerte ist bei juristisch durchsetzbaren Ansprüchen regelmäßig gegeben. Allerdings ist das Kriterium der juristischen Durchsetzbarkeit unter Beachtung des Grundsatzes der wirtschaftlichen Betrachtungsweise eine hinreichende, aber keine notwendige Bedingung. Vielmehr wird eine Ressource auch dann von einem Unternehmen beherrscht, wenn es über den mit der Ressource verbundenen Nutzenzufluss verfügen und Dritte von dem Nutzentzufluss faktisch ausschließen kann (IAS 38.13). Ein Beispiel wird in IAS 38.14 genannt, wonach eigene Entwicklungen nicht immer durch Patente geschützt sind und das mit der Entwicklung verbundene technische Wissen somit juristisch nicht durchsetzbar ist. Eine hinreichende Beherrschung kann sich indes ergeben, wenn die Mitarbeiter zur Geheimhaltung verpflichtet sind, so dass Dritte von der Nutzung des Wissens ausgeschlossen werden können. IAS 38.15 f. stellt indes klar, dass ein Unternehmen das Know-how seiner Mitarbeiter und deren Fortbildung sowie Geschäftsbeziehungen zu Kunden 7
Vgl. Thiele/Kühle (2008), Rn. 146.
684
Frank M. Hülsberg / Stefan Thiele
grundsätzlich nicht beherrschen kann. Die Qualifikation der Mitarbeiter ist in der Regel nicht derart durch Rechtsansprüche gedeckt, dass sich hieraus eine Beherrschung im geforderten Sinne ergibt. Obwohl das Unternehmen Dritte – durch die Gestaltung von Arbeitsverträgen – vom Nutzenzufluss ausschließen kann, hat der Mitarbeiter dennoch die Möglichkeit, aus dem Unternehmen auszuscheiden, so dass das Unternehmen den künftigen Nutzenzufluss nicht vollständig beherrschen kann.8 Kundenbeziehungen können nur dann immaterielle Vermögenswerte im Sinne des IAS 38 sein, wenn das Unternehmen entweder über gesicherte Rechtsansprüche zum Schutz dieser Kundenbeziehungen verfügt oder wenn das Unternehmen in der Lage ist, die entsprechenden Kundenbeziehungen an einen Dritten abzutreten. Ein weiteres Kriterium eines Vermögenswertes ist die Erwartung eines künftigen wirtschaftlichen Nutzenzuflusses. Was unter dem künftigen wirtschaftlichen Nutzen zu verstehen ist, ergibt sich explizit weder aus IAS 38 noch aus dem IFRS-Framework noch aus einem anderen Standard. IAS 38.17 liefert lediglich einen Hinweis auf die Auslegung dieses Kriteriums. Danach kann der künftige wirtschaftliche Nutzen beispielsweise auf dem Verkaufserlös von Produkten, der Erbringung von Dienstleistungen oder aus Kosteneinsparungen resultieren. Bei einem immateriellen Vermögenswert darf es sich nicht um einen monetären Vermögenswert handeln. Unter monetären Vermögenswerten sind Geldmittel und solche Vermögenswerte zu verstehen, für die das Unternehmen einen festen oder bestimmbaren Geldbetrag erhält (IAS 38.8). Ferner muss es sich bei einem immateriellen Vermögenswert um ein substanzloses Gut handeln. Dieses Merkmal dient der Abgrenzung immaterieller Güter von den körperlich greifbaren Gütern. Schwierigkeiten bei der Abgrenzung ergeben sich, wenn die Vermögenswerte sowohl aus immateriellen als auch aus materiellen Bestandteilen zusammengesetzt sind, wie bei einem elektronischen Datenträger. In diesem Fall ist entscheidend, welcher Bestandteil den wesentlichen Wert des Vermögenswertes ausmacht. Bei elektronischen Datenträgern ist in der Regel der Wert des „körperlichen“ Datenträgers, zum Beispiel der CD, im Vergleich zu den hierauf gespeicherten Daten unwesentlich, so dass es sich regelmäßig um einen immateriellen Vermögenswert handelt. Aufgrund ihrer Unkörperlichkeit ist es bei immateriellen Gütern oftmals schwierig, diese zu identifizieren. Sie werden daher in identifizierbare und in nicht identifizierbare immaterielle Vermögenswerte unterschieden. Ansatzfähig sind nur die identifizierbaren immateriellen Vermögenswerte.9
8 9
Vgl. Thiele/Kühle (2008), Rn. 151. Vgl. Schruff/Haaker (2009), Rn. 5.
Bilanzierung von Entwicklungsausgaben
685
Ein Vermögenswert gilt gemäß IAS 38.12 als identifizierbar, wenn er separierbar ist oder auf einem vertraglichen oder gesetzlichen Recht beruht. Separierbarkeit bedeutet, dass ein Vermögenswert unabhängig vom Unternehmen verkauft, übertragen, lizenziert, vermietet oder getauscht werden kann. Das Kriterium der Separierbarkeit entspricht damit im Wesentlichen der handelsrechtlichen Vermögensgegenstandeigenschaft der selbständigen Verwertbarkeit.10 In Ausnahmefällen sind immaterielle Güter, beispielsweise öffentliche Konzessionen oder Rechte aus Lizenzverträgen, deren Übertragung ausgeschlossen ist, nicht separierbar.11 Allerdings sind solche immateriellen Güter dennoch identifizierbar, da sie aus einem gesetzlichen Recht bzw. aus einem Vertrag abgeleitet werden können. Im Ergebnis führt das Kriterium der Separierbarkeit dazu, dass sich die Weite des Vermögenswertbegriffs auf die Aktivierungsfähigkeit immaterieller Güter nicht auswirkt, sondern dass diese einen mit dem HGB vergleichbares Niveau annimmt. Das Kriterium der Identifizierbarkeit dient der Abgrenzung vom Geschäftsoder Firmenwert (IAS 38.11). Demzufolge ist der Geschäfts- oder Firmenwert kein immaterieller Vermögenswert im Sinne des IAS 38. Nach IAS 38.9 fallen unter die Definition eines immateriellen Vermögenswertes beispielsweise Computersoftware, Patente, Urheberrechte, Filmmaterial, Kundenlisten, Fischereilizenzen, Importquoten, Franchiserechte, Kundenloyalität, Marktanteile und Absatzrechte. Technische und organisatorische Verbesserungen innerhalb eines Unternehmens sind indes keine immateriellen Vermögenswerte, da sie nicht identifizierbar sind.12
2.2 Der Ansatz selbst geschaffener immateriellerVermögenswerte 2.2.1 Ansatzkonzeption für selbst geschaffene immaterielle Vermögenswerte Der Ansatz von immateriellen Vermögenswerten nach IAS 38 folgt einem zweistufigen Konzept. Auf der ersten Stufe ist zu beurteilen, ob der Sachverhalt die Definitionskriterien13 eines immateriellen Vermögenswertes erfüllt. Auf der zweiten Stufe bestimmen konkrete Ansatzkriterien, ob der immaterielle Vermö-
10 11 12 13
Zur Vermögensgegenstandeigenschaft vgl. ausführlich Baetge/Kirsch/Thiele (2009), S. 155162. Vgl. Baetge/von Keitz (2006), Rn. 18. Vgl. Hoffmann (2009), Rn. 24. Vgl. hierzu Abschnitt 1.
686
Frank M. Hülsberg / Stefan Thiele
genswert in der IFRS-Bilanz anzusetzen ist oder nicht. Ein immaterieller Vermögenswert ist in der IFRS-Bilanz anzusetzen, wenn
der mit einem Vermögenswert verbundene Nutzen dem Unternehmen wahrscheinlich zufließen wird und die Anschaffungs- oder Herstellungskosten des Vermögenswertes verlässlich messbar sind (IAS 38.21).
Die Wahrscheinlichkeit des Zu- oder Abflusses wirtschaftlichen Nutzens ist zum Zeitpunkt der Aufstellung des IFRS-Abschlusses zu bestimmen (F.85). Weder in IAS 38 noch im Framework sind quantitative Angaben über den erforderlichen Grad der Wahrscheinlichkeit enthalten.14 Nach überwiegender Ansicht wird im Schrifttum – in Anlehnung an die Vorschriften des IAS 37 – eine Wahrscheinlichkeit von mindestens 50 % (more likely than not) als erforderlich angesehen. Wie die Wahrscheinlichkeit des Nutzenzuflusses zu schätzen ist, liegt grundsätzlich im Ermessen des Unternehmens. Gemäß IAS 38.23 sind alle zum Zeitpunkt des erstmaligen Ansatzes zur Verfügung stehenden substanziellen Hinweise zur Schätzung heranzuziehen, wobei externen Hinweisen ein größeres Gewicht beizumessen ist als unternehmensinternen Hinweisen. In den Fällen, in denen ein immaterieller Vermögenswert gesondert oder durch einen Unternehmenszusammenschluss erworben wird, unterstellt IAS 38, dass der gezahlte Kaufpreis die Wahrscheinlichkeit des Nutzenzuflusses widerspiegelt. In diesen Fällen ist also davon auszugehen, dass ein erwarteter Nutzenzufluss wahrscheinlich ist. Für selbst geschaffene immaterielle Vermögenswerte ist die Wahrscheinlichkeit des Nutzenzuflusses vom Unternehmen nachzuweisen. Neben dem Kriterium eines wahrscheinlichen Nutzenzuflusses aus dem immateriellen Vermögenswert, fordert IAS 38.21, dass dessen Anschaffungsoder Herstellungskosten verlässlich ermittelt werden können. Eine verlässliche Ermittlung der Anschaffungs- oder Herstellungskosten schließt indes nicht aus, dass die Werte unter Umständen geschätzt werden müssen.15 Bei erworbenen immateriellen Vermögenswerten ist es in der Regel unproblematisch, die Anschaffungskosten zu bestimmen. Im Gegensatz dazu ist es bei selbst geschaffenen immateriellen Vermögenswerten oftmals schwieriger, deren Herstellungskosten zu ermitteln. Die bei der Erstellung eines immateriellen Vermögenswertes anfallenden Herstellungskosten sind nicht immer zweifelsfrei von den Ausgaben abgrenzbar, die zur Erhaltung oder Erhöhung eines selbst geschaffenen Geschäfts- oder Firmenwerts notwendig sind und für den gemäß IAS 38.48 ein Ansatzverbot besteht. Beispielsweise erhöhen Ausgaben für eine Werbekampag14 15
Vgl. Pellens/Fülbier/Gassen/Sellhorn (2008), S. 124; Wagenhofer (2005), S. 135. Vgl. von Keitz (1999), S. 185.
Bilanzierung von Entwicklungsausgaben
687
ne nicht nur den Wert der beworbenen Marke, sondern regelmäßig auch den Wert des gesamten Unternehmens und damit auch des originären Geschäfts- oder Firmenwerts. Damit das Unternehmen feststellen kann, ob die allgemeinen Ansatzkriterien erfüllt sind, werden die für alle immateriellen Vermögenswerte geltenden Ansatzkriterien des IAS 38.21 für selbst geschaffene immaterielle Vermögenswerte in den Regelungen des IAS 38.51-67 konkretisiert. Gemäß IAS 38.52 ist der Erstellungsprozess eines selbst geschaffenen immateriellen Vermögenswertes in eine Forschungs- und eine Entwicklungsphase zu unterteilen.
2.2.2 Abgrenzung von Forschung und Entwicklung Obwohl Forschung und Entwicklung im allgemeinen Sprachgebrauch häufig synonym verwendet werden, umfassen sie verschiedene Arten von Tätigkeiten.16 Ein aus der Forschung entstehender immaterieller Vermögenswert darf nicht angesetzt werden. Ausgaben für Forschungstätigkeiten sind gemäß IAS 38.54 im Zeitpunkt ihres Auftretens als Aufwand zu berücksichtigen. Sofern es nicht möglich ist, Forschung und Entwicklung verlässlich voneinander abzugrenzen, sind die angefallenen Ausgaben im Zweifelsfall der Forschung zuzurechnen und somit erfolgswirksam im Zeitpunkt ihres Anfalls zu erfassen (IAS 38.53). IAS 38.8 definiert Forschung als „die eigenständige und planmäßige Suche mit der Absicht, zu neuen wissenschaftlichen oder technischen Erkenntnissen zu gelangen.“ Diese allgemeine Definition wird in IAS 38.57 anhand von exemplarischen Tätigkeiten näher konkretisiert:
Aktivitäten mit dem Ziel, neues Wissen zu erlangen, die Suche, Beurteilung und endgültige Auswahl von konkreten Anwendungsgebieten für die Forschungsergebnisse, die Suche nach Alternativen für neue und verbesserte Materialien, Vorrichtungen, Produkte, Verfahren, Systeme oder Dienstleistungen und die Formulierung, der Entwurf sowie die Abschätzung und endgültige Auswahl der möglichen Alternativen.
Demnach sind Forschungsaktivitäten erkenntnisorientiert und haben keinen Anwendungsbezug.17 Die reine Erkenntnisorientierung führt nicht umgehend zu einem ansatzfähigen immateriellen Vermögenswert in Form eines verwendbaren Ergebnisses, wie einer Konstruktionszeichnung, einem Prototypen oder ähnli16 17
Vgl. Brockhoff (1999), S. 50. Vgl. Thiele/Kühle (2008), Rn. 270.
688
Frank M. Hülsberg / Stefan Thiele
ches. Indes können aber nur verwendbare Ergebnisse einen wahrscheinlichen künftigen Nutzenzufluss erwarten lassen. Somit erfüllen die bei der Forschung anfallenden Ausgaben auch nicht die Ansatzkriterien des IAS 38.21, so dass Forschungsausgaben in der Periode ihres Entstehens als Aufwand zu erfassen sind. Entwicklung ist gemäß IAS 38.8 „die Anwendung von Forschungsergebnissen oder von anderem Wissen auf einen Plan oder Entwurf für die Produktion von neuen oder beträchtlich verbesserten Materialien, Vorrichtungen, Produkten, Verfahren, Systemen oder Dienstleistungen. Die Entwicklung findet dabei vor Beginn der kommerziellen Produktion oder Nutzung statt.“ In IAS 38.59 werden Beispiele für Entwicklungstätigkeiten genannt:
Der Entwurf, die Konstruktion und der Test von Prototypen und Modellen vor Aufnahme der eigentlichen Produktion oder Nutzung, der Entwurf von Werkzeugen, Spannvorrichtungen, Prägestempeln und Gussformen unter Verwendung neuer Technologien, der Entwurf, die Konstruktion und der Betrieb einer Pilotanlage, die für die kommerziellen Nutzung ungeeignet ist sowie der Entwurf, die Konstruktion und der Test einer ausgewählten Alternative für neue oder verbesserte Materialien, Vorrichtungen, Produkte, Verfahren, Systeme oder Dienstleistungen.
Aus der Definition und den genannten Beispielen ist ableitbar, dass Entwicklung als ein anwendungsorientiertes Vorgehen zu verstehen ist, das nicht nur zu einer Mehrung des Wissenstands führt.18 Vielmehr führt Entwicklung zu einem betriebsbereiten immateriellen Vermögenswert. Im Gegensatz zur Forschung ist ein sich in der Entwicklung befindliches Projekt weiter fortgeschritten, so dass ein immaterieller Vermögenswert identifiziert und ein mit ihm verbundener wahrscheinlicher künftiger Nutzenzufluss nachgewiesen werden kann. Entwicklung endet, sobald der immaterielle Vermögenswert seinen betriebsbereiten Zustand erreicht hat.19 Aus der Definition von Forschung und Entwicklung könnte geschlossen werden, dass sich die Entwicklung stets der Forschung anschließt. Indes wird man realiter vielmehr den Fall eines zeitlich überlappenden Verlaufs vorfinden.20 Ausgaben, die bei der Entwicklung eines immateriellen Vermögenswertes anfallen, sind in der IFRS-Bilanz anzusetzen, sofern folgende Kriterien kumulativ erfüllt sind und vom Bilanzierenden nachgewiesen werden können: 18 19 20
Vgl. Thiele/Kühle (2008), Rn. 275. Vgl. Küting/Dawo (2003), S. 408. Vgl. Burger/Ulbrich/Knoblauch (2006), S. 732.
Bilanzierung von Entwicklungsausgaben
689
Das Projekt ist technisch umsetzbar. Das Unternehmen beabsichtigt, einen Nutzen aus dem Projekt zu ziehen. Das Unternehmen ist in der Lage, einen Nutzen aus dem Projekt zu ziehen. Das Unternehmen hat einen Plan, wie ein Nutzen aus dem Projekt gezogen werden kann. Die finanziellen und organisatorischen Rahmenbedingungen zur Beendigung des Projekts sind gegeben. Das Unternehmen ist in der Lage, die Herstellungskosten des immateriellen Vermögenswertes verlässlich zu bestimmen.
Diese in IAS 38.57 genannten Kriterien konkretisieren die allgemeinen Ansatzkriterien des IAS 38.21. Sollte ein Kriterium zeitweise nicht erfüllt sein oder vom Unternehmen nicht nachgewiesen werden können, dürfen die bis dahin entstandenen Ausgaben nicht aktiviert werden, und der Vermögenswert ist vollständig im Wert zu mindern. Ansatzfähige Herstellungskosten des immateriellen Vermögenswertes entstehen erst wieder ab dem Zeitpunkt, in dem alle Kriterien erfüllt sind und nachgewiesen werden können.21 Die konkretisierenden Ansatzkriterien für selbst geschaffene immaterielle Vermögenswerte sind restriktiver als für entgeltlich erworbene immaterielle Vermögenswerte, da es gemäß IAS 38.57 nicht ausreichend ist, dass der Nutzen wahrscheinlich zufließt. Vielmehr muss die Wahrscheinlichkeit des Nutzenzuflusses vom Unternehmen nachgewiesen werden. Bei entgeltlich erworbenen immateriellen Vermögenswerten wird die Wahrscheinlichkeit des Nutzenzuflusses bereits durch die Erwerbstransaktion objektiviert.22 Ob die in IAS 38.57 genannten Kriterien kumulativ als erfüllt anzunehmen sind und ob dies nachgewiesen werden kann, liegt zu einem nicht unerheblichen Grad im Ermessen des Unternehmens. Aufgrund dieses Ermessensspielraums kann das Unternehmen angefallene Ausgaben entweder der Forschung oder der Entwicklung zuordnen. Die Ansatzkonzeption für selbst geschaffene immaterielle Vermögenswerte wird im Schrifttum zum Teil sogar als faktisches Ansatzwahlrecht verstanden, das dem Bilanzierenden erhebliche bilanzpolitische Gestaltungsmöglichkeiten eröffne.23
21 22 23
Vgl. Thiele/Kühle (2008), Rn. 276 f. Vgl. Baetge/von Keitz (2006), Rn. 61. Vgl. Burger/Ulbrich/Knoblauch (2006), S. 732.
690
Frank M. Hülsberg / Stefan Thiele
2.2.3 Ansatzverbot für bestimmte selbst geschaffene immaterielle Vermögenswerte Von der allgemeinen Aktivierungspflicht für selbst geschaffene immaterielle Vermögenswerte sind gemäß IAS 38.63 einige immaterielle Güter ausgenommen. Ausgaben für selbst geschaffene Markennamen, Drucktitel, Verlagsrechte, Kundenlisten sowie dem Wesen nach ähnliche Sachverhalte dürfen in der IFRSBilanz nicht angesetzt werden und sind stets als Aufwand zu berücksichtigen. Ausgaben für diese Güter können nicht immer eindeutig von den Ausgaben abgegrenzt werden, die für die Entwicklung des Unternehmens in seiner Gesamtheit notwendig sind und damit dem originären Geschäfts- oder Firmenwert zuzurechnen wären. Das Ansatzverbot für die in IAS 38.63 genannten immateriellen Güter ist indes nicht nur rein klarstellender Natur. Vielmehr erweitert das Ansatzverbot die allgemeine Ansatzkonzeption, da es den Ansatz eines immateriellen Gutes auch dann verbietet, wenn die Definitions- und Ansatzkriterien des IAS 38 erfüllt sind.24 Beispielsweise kann ein Kundenname zusammen mit der Kundenadresse und bestimmten Informationen, die auf das Konsumverhalten des Kunden schließen lassen, durchaus veräußerbar, somit im Einzelfall separierbar und daher auch identifizierbar sein. Ferner ließen sich die Entwicklungskosten einer Kundenliste über eine Projektkostenrechnung verlässlich ermitteln. Obwohl damit die Definitions- und Ansatzkriterien des IAS 38 erfüllt sind, verbietet IAS 38.63 dennoch den Ansatz der Kundenliste.25 Durch diese Vorschrift sollen Missverständnisse beziehungsweise Meinungsverschiedenheiten bezüglich der Ansatzfähigkeit der in IAS 38.63 genannten Güter vermieden werden (IAS 38.BCZ45).
2.3 Die Bewertung selbst geschaffener immaterieller Vermögenswerte 2.3.1 Zugangsbewertung zu Herstellungskosten Selbst geschaffene immaterielle Vermögenswerte sind gemäß IAS 38.24 bei Zugang mit ihren Herstellungskosten zu bewerten. Die Herstellungskosten eines selbst geschaffenen immateriellen Vermögenswertes umfassen alle direkt zurechenbaren Entwicklungsausgaben, die ab der Erfüllung der konkretisierenden Ansatzkriterien anfallen (IAS 38.66 in Verbindung mit IAS 38.54). Direkt zurechenbar sind nicht nur die bei der Entwicklung anfallenden Einzelkosten, sondern auch die Kosten, die mit Hilfe eines Schlüssels den entsprechenden immate24 25
Vgl. Thiele/Kühle (2008), Rn. 294. Vgl. Schruff/Haaker (2009), Rn. 43.
Bilanzierung von Entwicklungsausgaben
691
riellen Vermögenswerten direkt zugerechnet werden können (unechte Gemeinkosten).26 Die Herstellungskosten eines selbst geschaffenen immateriellen Vermögenswertes umfassen z.B.:
Kosten für Materialien und Dienstleistungen, Ausgaben für Leistungen an Arbeitnehmer, Gebühren und Abschreibungen auf Vermögenswerte, die bei der Erstellung des immateriellen Vermögenswertes genutzt wurden.27
Kein Bestandteil der Herstellungskosten und damit in der Periode ihres Entstehens als Aufwand zu erfassen sind unter anderem:
Vertriebskosten, Allgemeine Verwaltungskosten, identifizierte Kosten für Ineffizienzen, betriebliche Anlaufverluste und Ausgaben für Mitarbeiterschulungen.
Ausgaben für einen immateriellen Vermögenswert nach dessen Fertigstellung sind gemäß IAS 38.20 nur dann als nachträgliche Herstellungskosten zu aktivieren, wenn ein künftiger zusätzlicher Nutzenzufluss wahrscheinlich ist, die angefallenen Ausgaben verlässlich ermittelt und dem immateriellen Vermögenswert eindeutig zugeordnet werden können. Indes kann davon ausgegangen werden, dass diese Voraussetzungen regelmäßig nicht erfüllt sein werden. Nachträglich anfallende Ausgaben tragen vielmehr dazu bei, das wirtschaftliche Nutzenpotenzial eines bestehenden immateriellen Vermögenswertes zu erhalten als dessen Wert zu steigern. Die nach der Fertigstellung anfallenden Ausgaben sind regelmäßig aufwandswirksam zu erfassen.28 Bereits als Aufwand erfasste Ausgaben dürfen gemäß IAS 38.71 nachträglich nicht mehr aktiviert werden. Auch wenn ein Ansatz nach den Vorschriften des IAS 38 zu einem späteren Zeitpunkt geboten ist, dürfen Ausgaben, die bereits vor der Ansatzfähigkeit als Aufwand erfasst wurden, nicht mehr zu einem späteren Zeitpunkt angesetzt werden.
26 27 28
Vgl. Baetge/von Keitz. (2006), Rn. 91; Hoffmann(2009), Rn. 58; Thiele/Kühle (2008), Rn. 297 f. Vgl. Schruff/Haaker (2009), Rn. 47. Vgl. Schruff/Haaker (2009), Rn. 81.
692 3
Frank M. Hülsberg / Stefan Thiele Ausgewählte Unterschiede bei der Bilanzierung immaterieller Güter nach dem BilMoG
3.1 Der Ansatz selbst geschaffener immaterieller Vermögensgegenstände des Anlagevermögens 3.1.1 Ansatzkonzeption Nach § 248 Abs. 2 HGB a. F. war die Aktivierung nicht entgeltlich erworbener immaterieller Vermögensgegenstände des Anlagevermögens ausgeschlossen. Als Ausprägung eines weit verstandenen Vorsichtsprinzips sollte mit diesem Aktivierungsverbot zu Gunsten der Unternehmensgläubiger verhindert werden, dass risikobehaftete, schwer objektivierbare Werte, Eingang in die Bilanz fanden.29 Mit Inkrafttreten des BilMoG wurde die bilanzielle Abbildung selbst geschaffener immaterieller Vermögensgegenstände des Anlagevermögens neu geregelt. Das bisherige Aktivierungsverbot wurde durch ein Aktivierungswahlrecht für selbst geschaffene immaterielle Vermögensgegenstände des Anlagevermögens ersetzt (§ 248 Abs. 2 Satz 1 HGB n. F.). Der Gesetzgeber verfolgt mit dieser Änderung das Ziel, das Informationsniveau des handelsrechtlichen Jahresabschlusses erheblich anzuheben und damit eine Rechnungslegung zu ermöglichen, die näher an den IFRS liegt.30 Gleichzeitig sollen die Eckpfeiler der handelsrechtlichen Rechnungslegung und das System der Grundsätze ordnungsmäßiger Buchführung (GoB) bestehen bleiben.31 Das in § 246 Abs. 1 HGB normierte Vollständigkeitsgebot verlangt, dass sämtliche Vermögensgegenstände in die Bilanz aufzunehmen sind, soweit gesetzlich nichts anderes bestimmt ist. Ob ein Vermögensgegenstand vorliegt, richtet sich nach dem handelsrechtlichen Aktivierungsgrundsatz, welcher zu den nicht kodifizierten GoB gehört. Der Aktivierungsgrundsatz differenziert zwischen der abstrakten Aktivierungsfähigkeit und der konkreten Aktivierungsfähigkeit. Die abstrakte Aktivierungsfähigkeit beantwortet die Frage, ob ein Gut den definitorischen Anforderungen an einen Vermögensgegenstand entspricht. Da eine Legaldefinition des Vermögensgegenstandsbegriffs nicht existiert, kann dieser Begriffs inhaltlich nur anhand der Zwecke des Jahresabschlusses, der anderen GoB sowie der übrigen Rechnungslegungsvorschriften konkretisiert werden.32 Nach der im Schrifttum überwiegend vertretenen Auffassung liegt ein abstrakt aktivierungsfähiger Vermögensgegenstand vor, wenn ein Gut selbstän29 30 31 32
Vgl. Kuhner (2007), Rn. 197. Vgl. BT-Drucksache 16/10067, S. 34 f. Vgl. BT-Drucksache 16/10067, S. 32. Vgl. Thiele (2002), Rn. 31.
Bilanzierung von Entwicklungsausgaben
693
dig verwertbar ist. Ein Gut ist selbständig verwertbar, wenn es auf irgendeine Weise gegenüber Dritten verwertet werden kann, sei es durch Veräußerung, entgeltliche Nutzungsüberlassung, bedingten Verzicht oder im Wege der Zwangsvollstreckung.33 Die konkrete Aktivierungsfähigkeit bedingt eine einzelfallbezogene Überprüfung, ob spezielle gesetzliche Normen existieren, welche die abstrakte Regelung verdrängen und zu einem Aktivierungsverbot, Aktivierungswahlrecht oder einem Aktivierungsgebot führen. Die handelsrechtliche Abgrenzung materieller Vermögensgegenstände von immateriellen Vermögensgegenständen entspricht den Regelungen der IFRS. Für die nach IAS 38 zu bilanzierenden immateriellen Vermögenswerte ist es unerheblich, ob diese dem Anlage- oder dem Umlaufvermögen zugeordnet werden. Das neue handelsrechtliche Aktivierungswahlrecht bezieht sich indes ausschließlich auf selbst geschaffene immaterielle Vermögensgegenstände des Anlagevermögens. Für solche Vermögensgegenstände des Umlaufvermögens gilt weiterhin das Vollständigkeitsgebot des § 246 Abs. 1 HGB. Gemäß § 247 Abs. 2 HGB sind dem Anlagevermögen solche Gegenstände zuzurechnen, die dazu bestimmt sind, dauernd dem Geschäftsbetrieb zu dienen. Dabei ist i. d. R. ein Zeitraum von mindestens einem Jahr zugrunde zu legen, während dessen ein Gegenstand dem Unternehmen einen dauerhaften oder zumindest in regelmäßigen Abständen auftretenden Nutzen stiftet.34 Eine Besonderheit im deutschen Handelsrecht ist die in § 268 Abs. 8 Satz 1 HGB n. F. kodifizierte Ausschüttungssperre. Danach dürfen Kapitalgesellschaften und diesen gleich gestellte Personenhandelsgesellschaften Beträge aus der Aktivierung selbst geschaffener immaterieller Vermögensgegenstände des Anlagevermögens nur dann ausschütten, wenn die nach der Ausschüttung frei verfügbaren Rücklagen zuzüglich eines Gewinnvortrags und abzüglich eines Verlustvortrags mindestens den insgesamt angesetzten Beträgen abzüglich der hierfür gebildeten passiven latenten Steuern entsprechen. Die Höhe der ausschüttungsgesperrten Beträge ist gemäß § 285 Nr. 28 HGB n. F. im Anhang anzugeben. Letztlich ist die Ausschüttungssperre eine Kompromisslösung, da der Gesetzgeber mit dem BilMoG die Ziele verfolgt, einerseits das Informationsniveau des handelsrechtlichen Jahresabschlusses anzuheben, ohne dabei andererseits den Gedanken des Gläubigerschutzes zu unterlaufen.35
33 34 35
Vgl. Baetge/Kirsch/Thiele (2009), S. 159. Vgl. Federmann (2000), S. 271 f. Vgl. BT-Drucksache 16/10067, S. 32.
694
Frank M. Hülsberg / Stefan Thiele
3.1.2 Abgrenzung von Forschung und Entwicklung Da die Herstellungskosten eines selbst geschaffenen immateriellen Vermögensgegenstands des Anlagevermögens ausschließlich Aufwendungen umfassen dürfen, die bei der Entwicklung des immateriellen Vermögensgegenstands angefallen sind, ist zwischen Forschung und Entwicklung zu unterscheiden (§ 255 Abs. 2 Satz 4 HGB). Ungeachtet seines Titels „Bewertungsmaßstäbe“ hat § 255 HGB n. F. eine zentrale Bedeutung für den Ansatz selbst erstellter immaterielle Vermögensgegenstände des Anlagevermögens. Dort definiert der Gesetzgeber die Begriffe „Forschung“ und „Entwicklung“ und führt damit Erläuterungen in das Gesetz ein, die in ihrem Detailierungsgrad für das HGB unüblich sind.36 Gemäß § 255 Abs. 2a Satz 3 HGB n. F. ist unter Forschung die „eigenständige und planmäßige Suche nach neuen wissenschaftlichen oder technischen Erkenntnissen oder Erfahrungen allgemeiner Art, über deren technische Verwertbarkeit und wirtschaftliche Erfolgsaussichten grundsätzlich keine Aussagen gemacht werden können“, zu verstehen. Die Entwicklung eines Vermögensgegenstands ist gekennzeichnet durch die „Anwendung von Forschungsergebnissen oder von anderem Wissen für die Neuentwicklung von Gütern oder Verfahren oder die Weiterentwicklung von Gütern oder Verfahren mittels wesentlicher Änderungen“. Die Legaldefinitionen lassen erkennen, dass Forschung und Entwicklung nach dem deutschen Handelsrecht in ähnlicher Weise wie nach IAS 38 abzugrenzen sind. Die Frage nach dem Zeitpunkt der erstmaligen Aktivierung von Entwicklungskosten ist handelsrechtlich indes abweichend zu beantworten. IAS 38.57 enthält einen Katalog von Kriterien, deren kumulative Erfüllung letztlich den konkreten Zeitpunkt der erstmaligen Aktivierung eines immateriellen Vermögenswertes bestimmt.37 Gemäß § 255 Abs. 2a Satz 1 HGB n. F. sind bei der Ermittlung der Herstellungskosten eines selbst geschaffenen immateriellen Vermögensgegenstands des Anlagevermögens lediglich die bei dessen Entwicklung angefallenen Aufwendungen einzubeziehen. Wann genau der Übergang von der Forschung zur Entwicklung vollzogen wird, wird vom Gesetz nicht genau bestimmt. Auch die Gesetzesbegründung zum BilMoG ist diesbezüglich wenig aufschlussreich, geht aus dieser doch lediglich hervor, dass der Übergang von Forschung zu Entwicklung in jedem Einzelfall gesondert zu prüfen ist. Dabei ist auf den Zeitpunkt abzustellen, ab dem das bilanzierende Unternehmen den Prozess des systematischen Suchens nach neuen Erkenntnissen oder Fertigkeiten abschließt und dazu übergeht, die gewonnenen Resultate zu auf die Neuentwick-
36 37
Vgl. Dobler/Kurz (2008), S. 486. Vgl. hierzu Abschnitt 2.2.2.
Bilanzierung von Entwicklungsausgaben
695
lung oder Weiterentwicklung von Gütern oder Verfahren anzuwenden.38 Implizit unterstellt der Gesetzgeber folglich einen sequentiellen Verlauf von Forschung und Entwicklung. Wie zu verfahren ist, wenn Forschung und Entwicklung nicht sequentiell, sondern alternierend erfolgen, bleibt offen. Sofern sich Forschung und Entwicklung nicht verlässlich voneinander abgrenzen lassen, ist eine Aktivierung von Entwicklungskosten gemäß § 255 Abs. 2a Satz 4 HGB n. F. ausgeschlossen. Die nicht aktivierungsfähigen Kosten sind in der Periode ihres Entstehens aufwandswirksam zu erfassen. In Bezug auf die Frage nach dem Zeitpunkt der erstmaligen Aktivierung von Entwicklungskosten folgt aus dem handelsrechtlichen Aktivierungsgrundsatz in Verbindung mit dem Wortlaut des § 255 Abs. 2a HGB n. F., dass ein immaterielles Gut die Vermögensgegenstandseigenschaft erfüllen, mithin also selbständig verwertbar sein muss. Manche Güter können zwar bereits selbständig verwertbar sein, bevor die Forschungstätigkeiten abgeschlossen sind, allerdings dürfen Ausgaben nach § 255 Abs. 2a Satz 2 HGB nur dann aktiviert werden, wenn sie für Entwicklungstätigkeiten angefallen sind. Das Aktivierungsverbot des § 255 Abs. 2a Satz 4 HGB n. F. bezieht sich auf Fälle, in denen ein immaterieller Vermögensgegenstand bereits entstanden ist, aber eine Differenzierung, ob die durchgeführten Aktivitäten zur Forschung oder zur Entwicklung gehören, nicht möglich ist. Entsprechendes gilt, wenn das interne Rechnungswesen Kosten nicht zweifelsfrei einer der beiden Tätigkeiten zuzuordnen vermag.39
3.1.3 Ansatzverbot für bestimmte selbst geschaffene immaterielle Vermögensgegenstände des Anlagevermögens Nach § 248 Abs. 2 Satz 2 HGB n. F. dürfen selbst geschaffene Marken, Drucktitel, Verlagsrechte, Kundenlisten oder vergleichbare immaterielle Vermögensgegenstände des Anlagevermögens nicht als Aktivposten in die Bilanz aufgenommen werden, obwohl diese Güter in vielen Fällen selbständig verwertbar und damit abstrakt aktivierungsfähig sind.40 Dieser Katalog von nicht aktivierungsfähigen immateriellen Vermögensgegenständen entspricht im Wesentlichen der Aufzählung immaterieller Vermögenswerte in IAS 38.63, welche nicht in einer nach den IFRS aufgestellten Bilanz angesetzt werden dürfen. Der Gesetzgeber begründet das Aktivierungsverbot mit der schwierigen Abgrenzbarkeit der aktivierungsfähigen Entwicklungskosten von den Herstellungskosten des originären 38 39 40
Vgl. BT-Drucksache 16/10067, S. 61. Vgl. Baetge/Kirsch/Thiele (2009), S. 246. Vgl. Baetge/Kirsch/Thiele (2009), S. 163.
696
Frank M. Hülsberg / Stefan Thiele
Geschäfts- oder Firmenwerts, die grundsätzlich nicht aktiviert werden dürfen und somit aufwandswirksam zu erfassen sind.41 Eine willkürliche Zuordnung von Aufwendungen zu selbst geschaffenen Marken, Drucktiteln, Verlagsrechten, Kundenlisten und vergleichbaren immateriellen Vermögensgegenständen des Anlagevermögens oder dem originären Geschäfts- oder Firmenwert soll damit verhindert und der bilanzpolitische Ermessensspielraum des bilanzierenden Unternehmens eingeschränkt werden.
3.2 Zugangsbewertung zu Herstellungskosten Wenn ein Sachverhalt die Voraussetzungen, die an einen selbst geschaffenen immateriellen Vermögensgegenstand des Anlagevermögens geknüpft sind, erfüllt, stellt sich die Frage, mit welchem Wert der immaterielle Vermögensgegenstand in der Bilanz anzusetzen ist. Wie auch nach den IFRS, bilden die Herstellungskosten den relevanten Wertmaßstab. Gemäß § 255 Abs. 2a Satz 1 in Verbindung mit § 255 Abs. 2 Satz 1 HGB n. F. sind die Herstellungskosten eines selbst geschaffenen immateriellen Vermögensgegenstands des Anlagevermögens diejenigen Ausgaben, „die durch den Verbrauch von Gütern und die Inanspruchnahme von Diensten für die Herstellung eines Vermögensgegenstands, seine Erweiterung oder für eine über seinen ursprünglichen Zustand hinausgehende wesentliche Verbesserung entstehen“, soweit die Ausgaben für die Entwicklung des immateriellen Vermögensgegenstands angefallen sind. Zu beachten ist, dass der handelsrechtliche Herstellungskostenbegriff mit dem BilMoG an den steuerrechtlichen Herstellungskostenbegriff angepasst worden ist. Entsprechend sind handelsrechtlich nun gemäß § 255 Abs. 2 Satz 2 HGB n. F. die Materialkosten, die Fertigungskosten und die Sonderkosten der Fertigung sowie angemessene Teile der Kosten der Materialgemeinkosten, der Fertigungsgemeinkosten und des Werteverzehrs des Anlagevermögens, soweit dieser durch die Fertigung verursacht ist, als Bestandteile der Herstellungskosten zu berücksichtigen. Forschungs- und Vertriebskosten unterliegen einem Einbeziehungsverbot (§ 255 Abs. 2 Satz 4 HGB n. F.). Neben der originären Erstellung ist unter der Entwicklung auch die Weiterentwicklung eines immateriellen Vermögensgegenstands zu verstehen. Insofern müssen nachträgliche Herstellungskosten, die von den Aufwendungen für reine Instandhaltungsmaßnahmen zu trennen sind, auch bei selbst erstellten immateriellen Vermögensgegenständen des Anlagevermögens aktiviert werden. Nachträgliche Herstellungskosten liegen immer dann vor, wenn ein Vermögensgegenstand erweitert oder wesentlich verbessert wurde. Nachträgli41
Vgl. BT-Drucksache 16/10067, S. 50.
Bilanzierung von Entwicklungsausgaben
697
che Herstellungskosten dürfen nur aktiviert werden, wenn sie für Entwicklungstätigkeiten im Sinne des § 255 Abs. 2a Satz 2 HGB n. F. angefallen sind.
4
Zusammenfassung
Norbert Koubek widmete sich in Forschung und Lehre nicht zuletzt den Fragen des Managements von Innovationen. Ein Teilbereich des Innovationsmanagements bezieht sich auf die Steuerung der Forschungs- und Entwicklungstätigkeiten und damit auf das selbst geschaffene immaterielle Vermögen von Unternehmen. Durch die zunehmende Bedeutung immaterieller Güter für den Wertschöpfungsprozess vieler Unternehmen erscheint die Information der Jahresabschlussadressaten über die im Verfügungsbereich der Unternehmen befindlichen immateriellen Güter von großer Bedeutung. Ziel des vorliegenden Beitrags war es, die bilanziellen Abbildungsvorschriften für selbst geschaffene immaterielle Güter nach den IFRS darzustellen und einige ausgewählte Unterschiede zum deutschen Handelsrecht zu beleuchten. Die obigen Ausführungen haben gezeigt, dass nach IFRS bilanzierende Unternehmen detaillierte Vorschriften für selbst geschaffene immaterielle Güter zu beachten haben. Selbst geschaffene immaterielle Güter immer dann in der Bilanz anzusetzen, wenn diese die Definitionskriterien in IAS 38.8 und die konkretisierenden Ansatzkriterien in IAS 38.57 erfüllen. Die Zugangsbewertung erfolgt zu Herstellungskosten, welche sämtliche Ausgaben umfassen, die ab dem Zeitpunkt der kumulativen Erfüllung der Kriterien in IAS 38.57 für Entwicklungstätigkeiten angefallen sind. Ausgaben für Forschungsaktivitäten sind grundsätzlich aufwandswirksam zu erfassen. Voraussetzung für die Aktivierung ist, dass das Unternehmen den Nachweis erbringen kann, dass alle in IAS 38.57 genannten Kriterien tatsächlich erfüllt sind. Kann ein Unternehmen den geforderten Dokumentationspflichten nicht nachkommen, so ist die Aktivierung eines selbst geschaffenen immateriellen Vermögenswertes untersagt. Entsprechendes gilt, wenn Forschung und Entwicklung nicht verlässlich unterschieden werden können. Diese Vorschriften eröffnen den Bilanzierenden einen erheblichen bilanzpolitischen Spielraum, der dazu führt, dass die Ansatzkonzeption für selbst geschaffene immaterielle Vermögenswerte nach IFRS zum Teil als faktisches Aktivierungswahlrecht aufgefasst wird. Das deutsche Handelsrecht verzichtet – in der Tradition kontinentaleuropäischer Rechtssysteme – auf detaillierte Einzelvorschriften. Gemäß § 248 Abs. 2 HGB n. F besteht ein explizites Ansatzwahlrecht für selbst geschaffene immaterielle Vermögensgegenstände des Anlagevermögens. Voraussetzung für eine Aktivierung ist, dass ein Gut das Kriterium der selbständigen Verwertbar-
698
Frank M. Hülsberg / Stefan Thiele
keit erfüllt und folglich einen Vermögensgegenstand darstellt. Die Herstellungskosten eines selbst geschaffenen immateriellen Vermögensgegenstands des Anlagevermögens sind die für Entwicklungstätigkeiten angefallenen Aufwendungen im Sinne des § 255 Abs. 2 Satz 1 HGB n. F. Unklar ist, ab welchem Zeitpunkt der Übergang von Forschung zu Entwicklung als vollzogen anzusehen ist. Weder das Gesetz selbst noch die Gesetzesbegründung enthalten konkrete Hinweise zur Beantwortung dieser Frage. Der Gesetzgeber fordert lediglich, dass der Übergang von Forschung zu Entwicklung in jedem Einzelfall gesondert festzustellen ist. Sind Forschung und Entwicklung nicht trennscharf differenzierbar, sind sämtliche Herstellungskosten aufwandswirksam zu erfassen. Gleichsam dürfen Forschungskosten gemäß § 255 Abs. 2 Satz 4 HGB n. F. nicht in die Berechnung der Herstellungskosten einbezogen werden. Abschließend bleibt festzuhalten, dass sowohl nach den IFRS als auch nach den handelsrechtlichen Vorschriften lediglich ein Teil der selbst geschaffenen immateriellen Güter eines Unternehmens bilanziell erfasst wird. Der überwiegende Teil der immateriellen Güter wird als Bestandteil des originären Geschäfts- oder Firmenwerts bilanziell ausgeblendet oder geht bestenfalls undifferenziert im derivativen Geschäfts- oder Firmenwert auf. Trotz Differenzen im Detail unterscheiden sich IFRS und HGB in dieser eingeschränkten Bilanzierung immaterieller Güter nicht.
Literatur Arbeitskreis „Immaterielle Werte im Rechnungswesen“ der Schmalenbach-Gesellschaft für Betriebswirtschaft e.V. (2001): Kategorisierung und bilanzielle Erfassung immaterieller Werte, Der Betrieb, Heft 19 (2001), S. 989-995. Baetge, Jörg/Wollmert, Peter/Kirsch, Hans-Jürgen/Oser, Peter/Bischof, Stefan (Hrsg.) (2002 ff.): Rechnungslegung nach IFRS. Kommentar auf der Grundlage des deutschen Bilanzrechts, 2. Aufl., Stuttgart 2002 ff. Baetge, Jörg/Kirsch, Hans-Jürgen/Thiele, Stefan (Hrsg.) (2002 ff.): Bilanzrecht, Bonn 2002 ff. Baetge, Jörg/Kirsch, Hans-Jürgen/Thiele, Stefan (2009): Bilanzen, 10. Aufl., Düsseldorf 2009. Baetge, Jörg/von Keitz, Isabel (2006): IAS 38, Immaterielle Vermögenswerte (Intangible Assets), in: Baetge et al. (2002 ff.). Ballwieser, Wolfgang/Beine, Frank/Hayn, Sven/Peemöller, Volker H./Schruff, Lothar/Weber, Claus-Peter (Hrsg.) (2009): Wiley-Kommentar zur internationalen Rechnungslegung, 5. Aufl., Weinheim 2009. Brockhoff, Klaus (1999): Forschung und Entwicklung: Planung und Kontrolle, 5. Aufl. , München 1999.
Bilanzierung von Entwicklungsausgaben
699
BT-Drucksache 16/10067 vom 30.07.2008: Gesetzesentwurf der Bundesregierung, Entwurf eines Gesetzes zur Modernisierung des Bilanzrechts (Bilanzrechtsmodernisierungsgesetz – BilMoG). Burger, Anton/Ulbrich, Philipp/Knoblauch, Jens (2006): Zur Reform der Bilanzierung von Forschungs- und Entwicklungsaufwendungen nach IAS 38, Zeitschrift für internationale und kapitalmarktorientierte Rechnungslegung, Heft 12 (2006), S. 729-737. Dobler, Michael/Kurz, Gerhard: Aktivierungspflicht für immaterielle Vermögensgegenstände in der Entstehung nach dem RegE eines BilMoG, Zeitschrift für internationale und kapitalmarktorientierte Rechnungslegung, Heft 7/8 (2008), S. 485-493. Federmann, Rudolf (2000): Bilanzierung nach Handelsrecht und Steuerrecht, 11. Aufl., Berlin 2000. Haller, Axel (1998): Immaterielle Vermögenswerte – Wesentliche Herausforderung für die Zukunft der Unternehmensrechnung, in: Möller/Schmidt (1998), S. 561-596. Hoffmann, Wolf-Dieter. (2009): Immaterielle Vermögensgegenstände des Anlagevermögens, in: Lüdenbach/Hoffmann (2009). Jungbluth, Adolf/Lück, Grazyna/Schweres, Manfred (Hrsg.) (1990): Arbeitswirtschaft. Aufgabe innovativer Unternehmenspolitik, Wiesbaden 1990. Koubek, Norbert/Ostermann, Rainer/Skalec, Peter (1991): Langfristige Innovationsstrategien und Mitbestimmung in Unternehmen bei neuen Werkstoffen, Frankfurt 1991. Koubek, Norbert/Ostermann, Rainer (1990): Arbeitswirtschaft als Bestandteil innovativer Unternehmenspolitik, in: Jungbluth/Lück/Schweres (1990), S. 3-15. Koubek, Norbert (1989): Die Veränderung der Unternehmenspolitik bei Innovationen, in: Arbeitspapier Nr. 100 des FB Wirtschaftswissenschaft, S. 199-208. Kuhner, Christoph (2007): Die immateriellen Vermögensgegenstände und -werte des Anlagevermögens, in: Von Wysocki et al. (1984 ff.). Küting, Karlheinz/Dawo, Sascha: Die Bilanzierung immaterieller Vermögenswerte nach IAS 38 – gegenwärtige Regelungen und geplante Änderungen: Ein Beispiel für die Polarität von Vollständigkeitsprinzip und Objektivierungsprinzip, Betriebswirtschaftliche Forschung und Praxis, Heft 4/2003, S. 397-416. Lüdenbach, Norbert/Hoffmann, Wolf-Dieter (Hrsg.) (2009): Haufe IFRS-Kommentar, Freiburg 2009. Macharzina, Klaus/Wolf, Joachim (2005): Unternehmensführung. Das internationale Managementwissen: Konzepte – Methoden – Praxis, Wiesbaden 2005. Mindermann, Torsten: Zur Aktivierung selbst erstellter immaterieller Vermögensgegenstände nach dem Entwurf eines Bilanzrechtsmodernisierungsgesetzes (BilMoG), Die Wirtschaftsprüfung, Heft 7/2008, S. 273-278. Möller, Hans Peter/Schmidt, Franz (Hrsg.) (1998): Rechnungswesen als Instrument für Führungsentscheidungen. Festschrift für Professor Dr. Dr. h.c. Adolf G. Coenenberg, Stuttgart 1998. Moxter, Adolf (1979): Immaterielle Anlagewerte im neuen Bilanzrecht, Betriebs Berater, Heft 22/1979, S. 1102-1109. Pellens, Bernhard/Fülbier, Rolf Uwe/Gassen, Joachim/Sellhorn, Thorsten (2008): Internationale Rechnungslegung, Stuttgart 2008. Schumpeter, Joseph Alois (1950): Kapitalismus, Sozialismus und Demokratie, Bern 1950.
700
Frank M. Hülsberg / Stefan Thiele
Schruff, Lothar/Haaker, Andreas (2009): Immaterielle Vermögenswerte, in: Ballwieser et al. (2009): Abschnitt 9, S. 441-487. Thiele, Stefan (2002): § 246 HGB, in: Baetge et al. (2002 ff.). Thiele, Stefan/von Keitz, Isabel/Brücks, Michael (Hrsg.) (2008 ff.): Internationales Bilanzrecht, Bonn 2008. Thiele, Stefan/Kühle, Ulf (2008): IAS 38, Immaterielle Vermögenswerte, in: Thiele/von Keitz/Brücks (2008 ff.). Von Keitz, Isabel (1999): Immaterielle Güter in der internationalen Rechnungslegung, Düsseldorf 1999. Von Wysocki, Klaus/Schulze-Osterloh, Joachim/Hennrichs, Joachim/Kuhner, Christoph (Hrsg.) (1984 ff.): Handbuch des Jahresabschlusses, Köln 1984. Wagenhofer, Alfred (2005): Internationale Rechnungslegungsstandards, Frankfurt 2005.
Fair Value – Controllers Traum oder Albtraum? Nils Crasselt
1
Einleitung
Werden die Begriffe „Internationalisierung“ und „Innovation“ im Kontext des Rechnungswesens zusammengebracht, führt dies heute fast zwangsläufig zum Begriff des „Fair Value“ bzw. beizulegenden Zeitwerts. Im Regelwerk der seit 2005 von allen kapitalmarktorientierten europäischen Mutterunternehmen anzuwendenden International Financial Reporting Standards (IFRS)1 stellt die in vielen Einzelregeln verankerte Fair-Value-Bilanzierung die wohl wichtigste Neuerung gegenüber den nationalen, auf der vierten und der siebten EU-Richtlinie basierenden Rechnungslegungsvorschriften dar. Idee der Fair-Value-Bilanzierung ist die Bewertung von Vermögenswerten und Schulden zu demjenigen Wert, den unabhängige und sachkundige Dritte ihnen in einer Markttransaktion beimessen würden.2 Idealerweise ist der Fair Value durch einen Marktpreis eindeutig bestimmt. Liegt ein solcher nicht vor, ist der Fair Value aus Vergleichsdaten oder mit üblichen Bewertungsmethoden, typischerweise kapitalmarktorientierten Barwertmethoden, zu schätzen. Auf den ersten Blick mag es so erscheinen, als sei diese Entwicklung ohne große Bedeutung für Controller. Schließlich steht in ihrem Betätigungsfeld das interne, gesetzlich nicht regulierte Rechnungswesen im Mittelpunkt. Jedoch nutzen heute viele Unternehmen ein integriertes Rechnungswesen, in dem die 1
2
Die Anwendung der IFRS im Konzernabschluss ist seit Anfang 2005 verpflichtend für alle Mutterunternehmen, die Aktien oder Anleihen an einem öffentlichen Kapitalmarkt platziert haben. Darüber hinaus wenden zahlreiche Unternehmen die IFRS auch freiwillig an. Zum institutionellen Rahmen der IFRS und deren Anerkennung innerhalb der EU vgl. Pellens/Fülbier/Gassen/Sellhorn (2008), S. 79 ff. Vgl. z.B. Hitz (2006), S. 109; für umfassende Würdigungen der Fair-Value-Bilanzierung vgl. Bieker (2006); Hitz (2005).
702
Nils Crasselt
interne Ergebnisrechnung auf die Daten der IFRS-Rechnungslegung zurückgreift.3 Controller kommen folglich nicht umhin, sich mit den IFRS – und somit auch mit der Fair-Value-Bilanzierung – auseinanderzusetzen und deren Wirkung auf interne Planungs-, Steuerungs- und Kontrollprozesse zu analysieren. Im Controlling ist die hinter der Fair-Value-Bilanzierung stehende Bewertungskonzeption keineswegs unbekannt. So gehört die auf Barwertberechnungen beruhende Investitionsbeurteilung mit der Kapitalwertmethode zum Standardrepertoire des Controllings. Gleiches gilt für Kostenkalkulationen auf Basis von Wiederbeschaffungskosten, die aus Marktpreisen abgeleitet werden. Auch das schon seit Jahrzehnten als theoretische Idealform der periodischen Ergebnisrechnung diskutierte Konzept des Ökonomischen Gewinns basiert auf dem gleichen Grundgedanken wie die Fair-Value-Bilanzierung.4 In der Unternehmenspraxis hat diese Form der Ergebnisrechnung indes bislang kaum Verbreitung gefunden.5 Selbst moderne, unternehmenswertorientierte Systeme der Performancemessung basieren in aller Regel auf fortgeschriebenen Anschaffungs- oder Herstellungskosten, auch wenn Bezeichnungen wie Economic Value Added (EVA) auf den ersten Blick etwas anderes suggerieren mögen.6 Ziel dieses Beitrags ist es, das durch die Fortentwicklung der IFRS bedingte Vordringen des Fair Value in der Ergebnisrechnung aus Sicht des Controllings zu würdigen. Hierzu wird im zweiten Kapitel zunächst erörtert, inwiefern die Fair-Value-Bilanzierung nach IFRS eine Annäherung an das Idealkonzept des Ökonomischen Gewinns darstellt. Trotz des gemeinsamen Grundgedankens zeigen sich dabei wichtige Unterschiede. Im dritten Kapitel wird untersucht, welche Schwierigkeiten mit der Fair-Value-Bilanzierung verbunden sind, wenn auf ihrer Grundlage ermittelte Periodenergebnisse direkt oder indirekt finanzielle Konsequenzen, z.B. im Rahmen von Budgetfestlegungen oder bei der variablen Managementvergütung, auslösen. Im abschließenden Fazit wird diskutiert, wie Controller durch einen umsichtigen Umgang mit der Fair-Value-Bilanzierung und die geschickte Weiterentwicklung bestehender Systeme dafür Sorge tragen können, dass sich der Traum einer idealen Performancemessung unter praktischen Bedingungen nicht zum Albtraum verkehrt.
3 4 5 6
Zur Integration des Rechnungswesens und der Rolle der IFRS in diesem Kontext vgl. z.B. Weißenberger (2007), insb. S. 80-146. Einführend zum ökonomischen Gewinnkonzept vgl. Crasselt (2003), S. 47 ff.; Laux (2005), S. 92 ff., jeweils mit weiteren Nachweisen. Zu den Möglichkeiten und Grenzen der praktischen Anwendung des ökonomischen Gewinnkonzepts vgl. z.B. Hax (1964, 1989); Münstermann (1966). Umfassend zum Economic Value Added vgl. Stewart (1991).
Fair Value – Controllers Traum oder Albtraum? 2
703
Fair-Value-Bilanzierung und ökonomischer Gewinn
Eine konsequent am Fair Value ausgerichtete Ergebnisrechnung entspricht dem kapitaltheoretischen, auf Arbeiten von Böhm-Bawerk, Fisher, Lindahl und Hicks zurückzuführenden Konzept des ökonomischen Gewinns.7 Hiernach wird das Reinvermögen eines Unternehmens, verstanden als Differenz aus Vermögen und Schulden, zu Beginn und am Ende einer Periode mit dem Barwert der erwarteten zukünftigen Zahlungen an die Eigenkapitalgeber bewertet. Unter den Annahmen der neoklassischen Kapitalmarkttheorie entspricht dieser Wert genau dem Marktpreis, zu dem der erwartete Zahlungsstrom am Kapitalmarkt veräußert werden könnte. Folglich kann er als Fair Vale des gesamten Unternehmens verstanden werden. Das ökonomische Gewinnkonzept löst sich durch diese Bewertung vom zentralen Maßstab des traditionellen kaufmännischen Rechnungswesens, den Anschaffungs- oder Herstellungskosten.8 Der Unterschied zwischen dem ökonomischen und dem traditionellen kaufmännischen Gewinnkonzept soll hier anhand eines Zahlenbeispiels verdeutlicht werden. Dazu sei ein einzelnes, vollständig eigenfinanziertes Investitionsprojekt mit einer Nutzungsdauer von drei Jahren, einer anfänglichen Investitionsauszahlung zum Zeitpunkt t0 von 900 € sowie den in Tab. 1 aufgeführten erwarteten, jeweils zum Jahresende anfallenden Zahlungsrückflüssen angenommen. Darüber hinaus soll der relevante Kalkulationszinsfuß 10 % betragen. Tabelle 1: Zahlungsrückflüsse und Barwertberechnung Zahlungszeitpunkt Operativer Cashflow Barwert (bezogen auf t0)
t1 350,00 € 318,18 €
t2 450,00 € 371,90 €
t3 400,00 € 300,53 €
Summe 1.200,00 € 990,61 €
Der Marktwert des Investitionsobjekts zum Investitionszeitpunkt ergibt sich als Summe der durch Diskontierung mit dem Kalkulationszinsfuß ermittelten Barwerte, die ebenfalls in Tab. 1 ausgewiesen sind. Der anfängliche Marktwert beträgt hier also 990,61 €. Wird dieser Marktwert der Investitionsauszahlung gegenüber gestellt, ergibt sich ein positiver Kapitalwert von 90,61 €, der eine lohnende Investitionsgelegenheit signalisiert.
7 8
Vgl. Böhm-Bawerk (1902); Fisher (1906); Lindahl (1933); Hicks (1939), S. 171 ff. Zur Gegenüberstellung von ökonomischem und kaufmännischem Gewinn vgl. Laux (2005), S. 92 ff. Im Folgenden wird zur sprachlichen Vereinfachung nur noch von Anschaffungskosten gesprochen.
704
Nils Crasselt
Bei der traditionellen kaufmännischen Ergebnisermittlung wird zum Zeitpunkt der Investition der Zahlungsabfluss durch die Aktivierung des erworbenen Vermögenswertes gerade ausgeglichen. Es wird also zunächst weder ein Gewinn noch ein Verlust ausgewiesen. Während der Nutzungsdauer werden die Anschaffungskosten unter Berücksichtigung von Abschreibungen fortgeschrieben. Wird im Beispiel unterstellt, dass die Investitionsauszahlung von 900 € in voller Höhe aktivierungsfähig ist und über drei Jahre linear abgeschrieben werden soll, ergibt sich eine jährliche Abschreibung von 300 €. Wird weiterhin angenommen, dass es neben den Abschreibungen keine weiteren nicht zahlungswirksamen Ergebnisbestandteile gibt, folgt hieraus die in Tab. 2 ausgewiesene Gewinnreihe. Tabelle 2: Kaufmännischer Gewinn Zahlungszeitpunkt Operativer Cashflow Abschreibung Kaufmännischer Gewinn
t1 350,00 € 300,00 € 50,00 €
t2 450,00 € 300,00 € 150,00 €
t3 400,00 € 300,00 € 100,00 €
Summe 1.200,00 € 900,00 € 300,00 €
Um den ökonomischen Gewinn zu ermitteln, ist das Vermögen zu jedem Zeitpunkt mit dem Marktwert zu bewerten. In Tab. 3 ist dessen Berechnung für die drei relevanten Zeitpunkte unter Rückgriff auf die jeweils noch ausstehenden Zahlungsüberschüsse zusammengefasst. Tabelle 3: Ermittlung der Marktwerte Zahlungszeitpunkt Barwert (bezogen auf t0) Barwert (bezogen auf t1) Barwert (bezogen auf t2)
t1 318,18 € -
t2 371,90 € 409,09 € -
t3 300,53 € 330,58 € 363,64 €
Summe 990,61 € 739,67 € 363,64 €
Die Differenz zwischen den Marktwerten ist als Abschreibung zu verstehen. Dementsprechend ergibt sich die in Tab. 4 ausgewiesene Reihe ökonomischer Gewinne. Soweit keine Erwartungsänderungen eintreten, entspricht der ökonomische Gewinn einer jeden Periode genau einer mit dem Kalkulationszinsfuß von 10 % berechneten kalkulatorischen Verzinsung auf den Marktwert zu Periodenbeginn.
Fair Value – Controllers Traum oder Albtraum?
705
Tabelle 4: Ökonomischer Gewinn Zahlungszeitpunkt Operativer Cashflow Abschreibung Ökonomischer Gewinn
t1 350,00 € 250,94 € 99,06 €
t2 450,00 € 376,03 € 73,97 €
t3 400,00 € 363,64 € 36,36 €
Summe 1.200,00 € 990,61 € 209,39 €
Ein Vergleich der beiden Gewinnreihen zeigt zum einen eine unterschiedliche zeitliche Verteilung. Zum anderen fällt auf, dass die Summe der kaufmännischen Gewinne die Summe der ökonomischen Gewinne genau um den Kapitalwert des Investitionsprojekts übersteigt. Dies liegt an der höheren Bewertung des Vermögenswerts zum Investitionszeitpunkt. Durch die Neubewertung des Vermögens entsteht bereits mit Projektbeginn ein Gewinn in Höhe des Kapitalwerts. Dieser stellt aber im Sinne der klassischen Kapitaltheorie keinen Kapitalertrag (income), sondern eine einmalige Wertanpassung (windfall profit) dar. Wird auch diese Wertanpassung zum Investitionszeitpunkt in die Summe der Gewinne einbezogen, entspricht diese wieder – genauso wie die Summe der kaufmännischen Gewinne – der Summe der mit dem Investitionsprojekt verbundenen Zahlungen in Höhe von (1.200 – 900 =) 300 €. Im ökonomischen Gewinnkonzept wird die erwartete Wertsteigerung neuer Projekte also bereits zum Entscheidungszeitpunkt ausgewiesen. Hierbei spielt es prinzipiell keine Rolle, ob es sich um neue Investitionsprojekte oder andere Wertsteigerungsmaßnahmen handelt. Der ökonomische Gewinn erfüllt damit vollständig das von Hax formulierte Prinzip der Entscheidungsverbundenheit. Gleichzeitig besteht aber die Gefahr, dass der so ausgewiesene Gewinn auf versehentlichen oder sogar bewussten Fehlprognosen beruht.9 Gerade diese geringe Robustheit des ökonomischen Gewinns gegenüber Manipulationen dürfte der Grund dafür sein, warum sich die in den IFRS verankerte Fair-Value-Bilanzierung in einigen Punkten deutlich vom ökonomischen Gewinnkonzept unterscheidet.10 Ein zentraler Unterschied liegt bereits darin, dass das ökonomische Gewinnkonzept auf einer Gesamtbewertung des Unternehmens beruht, die FairValue-Bilanzierung nach IFRS hingegen weitgehend der bilanziell üblichen Einzelbewertung von Vermögenswerten und Schulden folgt. Komponenten des Unternehmenswerts, die erst aus dem kombinierten Einsatz verschiedener Vermögenswerte entstehen und somit einzeln nicht zurechenbar sind, bleiben auf 9
10
Zu den Prinzipien der Entscheidungsverbundenheit und der Manipulationsfreiheit vgl. Hax (1989), S. 162 ff. Im Kontext der Fair-Value-Bilanzierung vgl. hierzu auch Velthuis/Wesner/Schabel (2006), S. 461 ff. Vgl. Pellens/Crasselt/Sellhorn (2009), S. 107.
706
Nils Crasselt
diese Weise unberücksichtigt. Prinzipiell ließe sich die entstehende Lücke durch den Ansatz des originären, vom Unternehmen selbst geschaffenen Goodwills schließen.11 Für diesen besteht aber auch nach IFRS ein generelles Aktivierungsverbot. Eine Ausnahme von der Einzelbewertung stellt die Bewertung von ganzen Unternehmenseinheiten im Kontext des Goodwill-Werthaltigkeitstest nach IAS 36 dar. Unternehmenseinheiten, denen nach einer Akquisition ein Goodwill zugewiesen wurde, sind regelmäßig mit investitionstheoretischen Verfahren zu bewerten, um die Werthaltigkeit des – einzeln ausgewiesenen – Goodwills zu überprüfen. Die Wertermittlung soll dabei auf der Ebene der kleinsten Einheit, für die unter Beachtung von Verbundeffekten eine separate Cashflow-Planung möglich ist, erfolgen. Solche Bewertungen auf Segment- oder Business-UnitEbene ermöglichen prinzipiell die Ermittlung des ökonomischen Gewinns für die jeweils betrachtete Einheit.12 Allerdings ist die Bewertung nach IAS 36 aus Objektivierungsgründen an bestimmte Vorgaben gebunden, wie z.B. die Vernachlässigung von geplanten Erweiterungsinvestitionen und Restrukturierungsmaßnahmen, durch welche die Eignung für die Performancebeurteilung eingeschränkt wird. Zudem stellt sich auch hier das Problem, dass die Summe der für die einzelnen Unternehmensteile ermittelten Werte nicht zwingend dem Unternehmensgesamtwert entspricht. Ein weiterer wichtiger Unterschied zwischen dem ökonomischen Gewinnkonzept und der aktuell geltenden IFRS-Rechnungslegung ist, dass die FairValue-Bewertung unter Vernachlässigung der Anschaffungskosten bzw. des Rückzahlungsbetrags als Höchst- bzw. Untergrenze trotz der seit Mitte der 1990er Jahre deutlich gestiegenen Bedeutung auch heute längst nicht durchgängig für alle Bilanzpositionen vorgesehen ist.13 Praktische Bedeutung hat sie aufgrund zwingender Vorschriften oder zumindest aufgrund häufig genutzter Wahlrechte vor allem für Wertpapiere (IAS 39 bzw. IFRS 9), Renditeimmobilien (IAS 40) und biologische Vermögenswerte (IAS 41). In der Praxis kaum genutzt werden demgegenüber die in IAS 16 bzw. IAS 38 vorgesehenen Wahlrechte zur Anwendung des Fair Value bei der Bewertung von Sachanlagen und immateriellen Anlagevermögenswerten. Die eben angesprochene Fair-Value-Bewertung ganzer Unternehmensteile nach IAS 36 führt nur dann zum Ansatz des Fair Value in der Bilanz, wenn die11 12
13
Vgl. Pellens/Crasselt/Schmidt/Sellhorn (2008), S. 281; Pellens/Fülbier/Gassen/Sellhorn (2008), S. 951 ff. Zu diesem Vorschlag vgl. insbesondere Haaker (2005) sowie ausführlich Haaker (2008), S. 431 ff. Kritisch zur Eignung der nach IAS 36 ermittelten Bewertungen im Controlling demgegenüber Schumann (2008), S. 195 ff. Mit Blick auf die entsprechenden Regelungen nach US-GAAP vgl. bereits Pellens/Crasselt/Sellhorn (2002), S. 147 f. Vgl. Pellens/Fülbier/Gassen/Sellhorn (2008), S. 953.
Fair Value – Controllers Traum oder Albtraum?
707
ser unter den Buchwert der in der bewerteten Einheit zusammengefassten Vermögenswerte, inklusive dem zugeordneten Goodwill, gefallen ist und deshalb eine außerplanmäßige Abschreibung notwendig wird. Zuschreibungen auf über den Anschaffungskosten liegende Werte sind nach IAS 36 nicht vorgesehen. Ähnliches gilt für Vorräte, für deren Bewertung der Fair Value – mit wenigen Ausnahmen – nur dann relevant ist, wenn er unter den Anschaffungskosten liegt. Somit fällt der nicht bilanzierungsfähige originäre Goodwill tatsächlich noch höher aus als bei einer durchgängigen Bewertung aller Bilanzpositionen zum Fair Value. Ähnliches gilt für Bewertungen auf der Passivseite der Bilanz. Zwar besteht auch hier für wichtige Positionen, wie z.B. Zahlungsverpflichtungen aufgrund von Pensionszusagen (IAS 19) oder der Gewährung „virtueller“ Aktienoptionen (IFRS 2), eine Verpflichtung oder zumindest das Wahlrecht zur fortlaufenden, ergebniswirksamen Fair-Value-Bewertung. Jedoch gilt für finanzielle Verbindlichkeiten mit wenigen Ausnahmen, dass eine Bewertung unter dem Rückzahlungsbetrag nicht erlaubt ist. Auch dies führt in der Tendenz zu einem Anstieg des nicht bilanziell ausgewiesenen Teils des Unternehmenswerts. Der möglicherweise wichtigste Unterschied zum ökonomischen Gewinnkonzept liegt in der Annahme begründet, dass die Anschaffungskosten – mit wenigen Ausnahmen – dem Fair Value zum Anschaffungszeitpunkt entsprechen.14 Das bedeutet, dass es nach IFRS selbst bei einem Einzelprojekt, für das die Fair-Value-Bilanzierung zulässig ist, nicht zu einer unmittelbaren Wertanpassung bei Projektbeginn kommt. Damit wird zunächst die angeführte Manipulationsgefahr zu Lasten des Prinzips der Entscheidungsverbundenheit entschärft. Allerdings können im weiteren Verlauf ähnliche Probleme auftreten.15 Dies ist immer dann von Bedeutung, wenn Größen aus dem IFRS-Abschluss nicht nur zu Informationszwecken genutzt werden, sondern auch direkte oder indirekte Zahlungskonsequenzen daraus abgeleitet werden. Ein Unterschied liegt schließlich auch darin, dass Aufwendungen und Erträge aus Fair-Value-Änderungen nach IFRS nicht generell das Jahresergebnis (net income) beeinflussen, sondern vielfach gesondert davon als sonstiger Periodenerfolg (other comprehensive income) auszuweisen sind. Allerdings hat das IASB die Bedeutung des Periodengesamterfolgs (comprehensive income), der 14
15
Vgl. Pellens/Fülbier/Gassen/Sellhorn (2008), S.540 ff. mit Blick auf die noch bis Ende 2012 gültigen Regeln in IAS 39. Ein Gewinn oder Verlust zum Zeitpunkt der Erstbewertung kann nur dann auftreten, wenn an einem aktiven Markt gehandelte finanzielle Vermögenswerte oder Schuldpositionen zu einem vom Marktpreis abweichenden Preis erworben oder eingegangen wurden. Für nicht an einem aktiven Markt gehandelte Wertpapiere gelten die Anschaffungskosten als Fair Value zum Transaktionszeitpunkt. Im Hinblick auf nach IAS 40 zum beizulegenden Zeitwert bewertbare Immobilienprojekte vgl. Velthuis/Wesner/Schabel (2006), S. 466.
708
Nils Crasselt
Jahresergebnis und sonstigen Periodenerfolg umfasst, mit der Neufassung von IAS 1 gestärkt.16 Folglich ist für die Zukunft davon auszugehen, dass die Zuordnung von Ergebniskomponenten an Bedeutung verliert. Von dem zwischenzeitlichen geplanten separaten Ausweis von Aufwendungen und Erträgen aus der Neubewertung von Bilanzpositionen, der konzeptionell der kapitaltheoretischen Einteilung in Einkommen (income) und Wertanpassungen (windfall profits/losses) entsprochen hätte, ist das IASB allerdings mittlerweile wieder abgerückt.17
3
Problembereiche der Fair-Value-Bilanzierung
3.1 Zuverlässigkeit der Bewertung Ein zentrales Problem der Fair-Value-Bilanzierung ist die Zuverlässigkeit der Bewertung. Dieses ist umso größer, je stärker der Einfluss nicht objektivierbarer Schätzungen auf die Fair-Value-Ermittlung ist. Hierbei gilt im Allgemeinen eine dreistufige Bewertungshierarchie:18 Auf der ersten Stufe stehen Marktpreise. Auf der zweiten Stufe stehen aus Marktpreisen vergleichbarer Vermögenswerte oder Schulden abgeleitete Bewertungen. Und auf der dritten Stufe stehen mit anerkannten Bewertungsmethoden ermittelte Marktwerte. Gerade außerhalb des Finanzbereichs dürfte gelten, dass die Fair-Value-Ermittlung auf der dritten Stufe den Regelfall darstellt. Wird der Fair Value mit anerkannten Bewertungsmethoden ermittelt, ist er letztlich durch die zugrunde gelegten Annahmen und Eingabeparameter getrieben. Erfolgt die Bewertung mit einem Barwertkalkül, sind dies insbesondere die erwarteten Zahlungsüberschüsse, die Nutzungsdauer und der Kalkulationszinsfuß. Alle drei erlauben einen großen Spielraum für unbeabsichtigte und beabsichtigte Fehleinschätzungen. Dies gilt insbesondere bei langen Zeithorizonten. Hier werden nicht nur die Cashflow-Prognosen immer unsicherer, auch die Wirkung von Zinsänderungen verstärkt sich zusehends. So führt die Reduktion des Zinsfußes von 10 % auf 8 % bei der Diskontierung einer in zwanzig Jahren fälligen Zahlung zu einem Anstieg des Barwerts von 44,34 %. Ist die Zahlung hinge-
16 17
18
Vgl. den neuen Vorschriften für eine Gesamterfolgsrechnung vgl. z.B. Pellens/Fülbier/Gassen/Sellhorn (2008), S. 168 ff. Zur Diskussion dieses Vorschlags im Hinblick auf die Steuerung von Geschäftsbereichen vgl. Pellens/Basche/Crasselt (2004). Zur Frage der Ergebnisspaltung im Kontext der heute geltenden IFRS vgl. Pellens/Crasselt/Schmidt/Sellhorn (2008). Vgl. z.B. Hitz (2006), S. 109.
Fair Value – Controllers Traum oder Albtraum?
709
gen schon in fünf Jahren fällig, führt die gleiche Zinsänderung „nur“ zu einer Barwerterhöhung um 9,61 %. Angesichts solcher Auswirkungen wird das Controlling durch Fair-ValueBewertungen auf der dritten Hierarchiestufe vor erhebliche Herausforderungen gestellt. Hierbei gilt es, nicht nur verstärkt Plausibilitätsprüfungen der Annahmen durchzuführen, sondern auch durch die geschickte Gestaltung von Planungs-, Steuerungs- und Kontrollsystemen eine opportunistische Informationspolitik des Managements möglichst zu unterbinden und negativen Konsequenzen von Fehlbewertungen entgegen zu wirken. So kann auf nachgelagerten Ebenen, z.B. bei der Berechnung variabler Vergütungen, das in der Ergebnisrechnung durch die Fair-Value-Bilanzierung ausgehebelte Realisationsprinzip wieder eingesetzt werden. Analog zur Idee von Ausschüttungssperren für noch nicht durch den Verkauf eines Vermögenswertes verifizierte Gewinne, könnten Gehaltszahlungen zurückgehalten werden, wenn die zugrunde liegende Fair-Value-Bewertung nicht als hinreichend zuverlässig erachtet wird. Selbst bei einer Bewertung auf der ersten und zweiten Hierarchieebene, also bei Vorliegen von Marktpreisen bzw. marktbasierten Vergleichsdaten, ist nicht generell von einer zuverlässigen Bewertung auszugehen. Gerade die Turbulenzen der globalen Finanzkrise haben gezeigt, dass selbst an hochentwickelten Kapitalmärkten beobachtbare Wertpapierpreise Spielball irrationaler, in der neoklassischen Kapitalmarkttheorie nicht beachteter Kräfte sein können.19 Zwar besteht bei der Verwendung von Marktpreisen kaum eine Gefahr bewusster Manipulationen, jedoch können gerade bei großen Schwankungen der Marktpreise weitere Probleme entstehen, die im Folgenden diskutiert werden sollen.
3.2 „Nebenwirkungen“ durch erhöhte Volatilität Eine wichtige Eigenschaft der Fair-Value-Bilanzierung ist der damit verbundene Anstieg der Ergebnisvolatilität. Ursächlich hierfür ist zuerst, dass der glättende Einfluss z.B. von planmäßigen Abschreibungen durch die Fair-Value-Bilanzierung verloren geht. An die Stelle der planmäßigen Verteilung der Anschaffungskosten treten fallweise zu verrechnende Ab- und Zuschreibungen. Dieser Effekt wird noch dadurch verstärkt, dass bei der Fair-Value-Bilanzierung die Anschaffungskosten nicht mehr die Obergrenze für die Vermögensbewertung definieren. Deshalb können bei positivem Verlauf zusätzliche Ergebnissteigerungen ausgewiesen werden, die sich anschließend in Form von zusätzlichen Ergebnisschmälerungen umkehren können. Abb. 1 veranschaulicht diesen Effekt für einen nicht 19
Zu den Problemen der Fair-Value-Bilanzierung von Wertpapieren während der Finanzkrise vgl. André et al. (2009).
710
Nils Crasselt
planmäßig abschreibbaren Vermögenswert wie z.B. ein Wertpapier. Dabei werden die Entwicklung des Buchwerts und die korrespondierenden Erträge und Aufwendungen über vier Zeitabschnitte dargestellt. Abbildung 1:
Höhere Volatilität durch Fair-Value-Bilanzierung
Bewertung zu fortgeführten Anschaffungs- oder Herstellungskosten
Bewertung zum Fair Value
Buchwert
Buchwert
Ertrag
Ertrag
Aufwand
Aufwand
Gelten die Anschaffungskosten als Obergrenze für die Vermögensbewertung, bleibt ein Anstieg des Fair Value darüber hinaus ohne unmittelbare Ergebniskonsequenz (Zeitabschnitte 1 und 2). Fällt der Fair Value hingegen unter die Anschaffungskosten, ist nach dem im Niederstwertprinzip zum Ausdruck kommenden, auch in den IFRS verankerten Vorsichtsgedanken eine Abschreibung vorzunehmen (Zeitabschnitt 3). Spätere Werterholungen sind als Zuschreibung zu verbuchen, solange die Bewertungsobergrenze nicht überschritten wird (Zeitabschnitt 4). Bei einer generellen Bewertung zum Fair Value kann der Wert des Vermögenswerts demgegenüber die Anschaffungskosten übersteigen (Zeitabschnitte 1
Fair Value – Controllers Traum oder Albtraum?
711
und 2). Fällt der Fair Value später wieder unter die Anschaffungskosten, ist auch hier auf den niedrigeren beizulegenden Zeitwert abzuschreiben. Allerdings fällt die Abschreibung aufgrund des höheren Ausgangswerts höher aus (dritter Zeitabschnitt). Die anschließende Zuschreibung ist hier gleich hoch wie bei Beachtung der Anschaffungskosten als Obergrenze, da diese hier nicht überschritten wird (Zeitabschnitt 4). Soweit der bilanziell ausgewiesene Fair Value den aktuellen Wert der betroffenen Bilanzpositionen zutreffend beschreibt, sind die beobachteten Schwankungen lediglich Ausdruck deren unsicherer Wertentwicklung. Die Bewertung zum Fair Value trägt dann dazu bei, dass der Vermögensausweis möglichst informativ mit Blick auf die Vermögenssituation ist. Hier sei nur darauf hingewiesen, wie wenig informativ die Anschaffungskosten eines Wertpapierportfolios sind, wenn die aktuellen Marktpreise mittlerweile deutlich darüber liegen. Jeder Bankkunde, der in seinem Depotauszug lediglich die Anschaffungskosten finden würde, wäre wohl höchst unzufrieden. Auch Ergebnisse der empirischen Rechnungslegungsforschung legen nahe, dass die Bewertung zum Fair Value gerade bei zuverlässig bewertbaren Vermögenswerten, insbesondere bei Wertpapieren, den Informationsnutzen der Rechnungslegung steigert.20 Nichtsdestotrotz gibt es gute Gründe, der Fair-Value-Bilanzierung kritisch gegenüber zu stehen. So besteht die Gefahr, dass die Entwicklung nachhaltiger Ergebniskomponenten von fallweise auftretenden Fair-Value-Änderungen überlagert wird. Dies stellt nicht nur Finanzanalysten bei der Unternehmensbewertung mit Multiplikatoren wie dem Kurs-Gewinn-Verhältnis vor Schwierigkeiten, sondern kann auch im Controlling Anpassungen notwendig machen. Dienen beispielsweise Ist-Ergebnisse als Grundlage der Kapitalzuteilung im Budgetierungsprozess, erscheint eine Konzentration auf nachhaltige, regelmäßig wiederkehrende Komponenten geboten. Als problematisch kann sich die Ergebnisvolatilität auch dann erweisen, wenn IFRS-Daten direkt oder indirekt eine Zahlungsbemessungsfunktion haben. Besonders prägnant sind solche „Nebenwirkungen“ über die Informationsfunktion hinaus bei der Verwendung von IFRS-Ergebnissen als Bemessungsgrundlage für die variable Vorstands- und Managementvergütung.21 Hierbei ist zumeist eine Verlustbeteiligung ausgeschlossen. Auch wenn die Summe aus Gewinnen und Verlusten sich durch die Fair-Value-Bilanzierung nicht verändert, kann es doch durch die Volatilitätszunahme – wie auch in Abb. 1 zu erkennen – zu einem deutlichen Anstieg bei der Summe der positiven Einzelergebnisse kommen. 20 21
Vgl. z.B. Barth/Beaver/Landsman (1996); Barth/Clinch (1998); Danbolt/Rees (2008); Khurana/Kim (2003). Für eine Reihe weiterer Beispiele solcher Nebenwirkungen vgl. Pellens/Crasselt/Sellhorn (2009), S. 109 f.
712
Nils Crasselt
Diesem Anstieg steht zwar ein gleich hoher Anstieg der negativen Einzelergebnisse gegenüber, dieser bleibt aber ohne Verlustbeteiligung folgenlos. Somit kann die Summe der realisierten variablen Vergütung durch die höhere Ergebnisvolatilität ansteigen. Allerdings kann auch der umgekehrte Effekt eintreten, wenn eine Gewinnbeteiligung nur bis zu einer bestimmten Höchstgrenze erfolgt. In diesem Fall bleiben auch durch die Fair-Value-Bewertung erzeugte Ergebnisspitzen folgenlos. Der Gesamteffekt hängt dann von der konkreten Ergebnisentwicklung ab. Diese Effekte fallen tendenziell umso höher aus, je stärker der Fair Value selbst schwankt. Dabei spielt es grundsätzlich keine Rolle, ob die Schwankungen ein zutreffendes Abbild der unsicheren Wertentwicklung des Vermögenswerts sind, durch Fehlbewertungen am Markt hervorgerufen werden oder durch im Zeitablauf veränderte Bewertungsannahmen bedingt sind. Jedoch ist zu bedenken, dass das Management durch die Kumulierung von Verlusten in einzelnen Perioden, z.B. durch die Veränderung subjektiver Prognosen, und die Vermeidung von nicht berücksichtigten Ergebnisspitzen die eigene Vergütung im Zeitablauf steigern kann. Gerade bei Bewertungen, die nicht auf Marktpreisen beruhen, ist deshalb zu befürchten, dass Ermessensspielräume im eigenen Interesse des Managements bilanzpolitisch genutzt werden.
4
Fazit
Es zeigt sich also, dass die hohe und in den letzten Jahren deutlich gestiegene Bedeutung der Fair-Value-Bilanzierung im Regelwerk der IFRS aus Sicht des Controllings differenziert zu bewerten ist. Zum einen ist mit ihr die Chance verbunden, dem seit Jahrzehnten immer wieder als Idealform der Ergebnisrechnung beschriebenen Konzept des ökonomischen Gewinns stärkere Beachtung zukommen zu lassen. Zum anderen stellen sich aber – zumindest für die Praxis – auch neue Probleme, die insbesondere in der oftmals geringen Objektivierbarkeit der Fair-Value-Ermittlung und der hohen Ergebnisvolatilität liegen. Vor diesem Hintergrund besteht die Gefahr, dass durch den unbedachten Umgang mit der Fair-Value-Bilanzierung in einem integrierten Rechnungswesen die gewünschten Informationswirkungen nicht erreicht werden und gleichzeitig unerwünschte Auswirkungen bei Steuerung und Kontrolle von Geschäftseinheiten und deren Management auftreten. Ansatzpunkt für eine Umsetzung des ökonomischen Gewinnkonzepts bei der Geschäftsbereichssteuerung könnten die nach IAS 36 regelmäßig zu ermittelnden Werte sogenannter zahlungsmittelgenerierender Einheiten sein, da hierbei der sonst auch für die Fair-Value-Bilanzierung geltende Einzelbewertungs-
Fair Value – Controllers Traum oder Albtraum?
713
grundsatz aufgehoben wird. Anders als nach IAS 36 müssten die ermittelten Fair Values aber nicht nur Grundlage von außerplanmäßigen Abschreibungen des Goodwills und anderer Anlagevermögenswerte sein, sondern auch über die Anschaffungskostengrenze hinaus Eingang in Bilanz und Ergebnisrechnung finden. Aufgabe des Controllings müsste hierbei zunächst sein, die nach den IFRSVorschriften ermittelten Werte soweit anzupassen, dass sie für die beabsichtigte „Zweitverwertung“ auch wirklich geeignet sind. Hierbei gilt es vor allem, auch strategische Überlegungen im Sinne geplanter Erweiterungsinvestitionen und Umstrukturierungen zu berücksichtigen und eine im Hinblick auf die Kapitalkosten- und Cashflow-Definitionen zum sonstigen internen Steuerungsinstrumentarium konsistente Datenbasis sicherzustellen. Eine weitere, noch wichtigere Aufgabe des Controllings müsste in diesem Zusammenhang die Plausibilisierung der Bewertungsannahmen und -ergebnisse sein. Solche zusätzlichen Überprüfungen erscheinen angesichts des hohen Potenzials für unbewusst oder sogar bewusst falsche Prognosen unerlässlich. Die letztgenannte Aufgabe erscheint bereits selbst dann schon unerlässlich, wenn auf eine Weiterentwicklung hin zum ökonomischen Gewinnkonzept verzichtet wird und Fair Values nur im bisher nach IFRS vorgesehen Rahmen zum Einsatz kommen. Dabei sind bestimmte Branchen stärker betroffen als andere. Beispielsweise besteht in der Immobilienbranche, in der die Anwendung von Bewertungsmodellen zur Fair-Value-Ermittlung von Renditeimmobilien weitgehend üblich ist, ein deutlich größerer Bedarf für solche Überprüfungen als in der Finanzbranche, in der Fair Values oft über Marktpreise eindeutig definiert sind. Erheblicher Handlungsbedarf kann sich auch bei der Abstimmung anderer Führungsteilsysteme mit dem Rechnungswesen als Teil des betrieblichen Informationssystems ergeben. Hierbei ist insbesondere dafür Sorge zu tragen, dass keine unerwünschten „Nebenwirkungen“ durch die mit der Fair-ValueBilanzierung einhergehende Ergebnisvolatilität auftreten. Beispielsweise ist zu überlegen, ob die durchaus zutreffende Information über gestiegene Wertpapierpreise bereits vor der Realisierung des Gewinns durch Verkauf der Wertpapiere zu Gewinnbeteiligungen des Managements führen sollte. Dies gilt umso mehr, wenn die Fair-Value-Bewertung auf Berechnungen des Managements selbst und nicht auf Marktpreisen beruht. Ansatzpunkte für Weiterentwicklungen der Vergütungssysteme bieten so genannten Bonusbank-Konzepte, die eine über mehrere Jahre gestreckte Auszahlung von Gewinnbeteiligungen vorsehen und dabei für noch nicht ausgezahlte Bonusanteile auch eine Verlustverrechnung vorsehen.22 Die sonst bereits bei der Ergebnisermittlung vorgenommene Periodisierung wird durch solche Mecha22
Einführend zu Bonusbank-Konzepten vgl. Günther/Plaschke (2004); Witzemann/Currle (2004).
714
Nils Crasselt
nismen auf einer nachgelagerten Ebene vollzogen. Dabei kann es aber nicht das Ziel sein, einfach die Auswirkungen der Fair-Value-Bilanzierung rückgängig zu machen. Vielmehr sind – auch unter Beachtung der Regelungen des im Sommer 2009 verabschiedeten Gesetzes zur Angemessenheit der Vorstandsvergütung (VorstAG)23 und den Vorgaben des Deutschen Corporte Governance Kodex – Lösungen zu suchen, die den zusätzlichen Informationsgehalt der Fair-ValueBilanzierung nutzen und gleichzeitig Fehlanreize, z.B. zu übermäßig riskantem Investitionsverhalten, vermeiden.
Literatur André, Paul/Cazavan-Jeny, Anne/Dick, Wolfgang/Richard, Chrystelle/Walton, Peter (2009): Fair value accounting and the banking crisis in 2008: Shooting the messenger, in: Accounting in Europe, Vol. 6 (2009), S. 3-24. Barth, Mary E./Beaver, William H./Landsman, Wayne R. (1996): Value-relevance of banks’ fair value disclosures under SFAS no. 107, in: The Accounting Review, Vol. 71 (1996), S. 513-537. Barth, Mary E./Clinch, Greg (1998): Revalued financial, tangible, and intangible assets: Associations with share prices and non-market-based value estimates, in: Journal of Accounting Research, Vol. 36 (1998), S. 199-233. Bieker, Marcus (2006): Ökonomische Analyse des Fair Value Accounting, Frankfurt/M. u.a. 2006. Böhm-Bawerk, Eugen von (1902): Capital und Capitalzins. Band 2 : Positive Theorie des Capitals, 2. Aufl., Innsbruck 1902. Crasselt, Nils (2003): Wertorientierte Managemententlohnung, Unternehmensrechnung und Investitionssteuerung. Analyse unter Berücksichtigung von Realoptionen, Frankfurt/M. u.a. 2003. Danbolt, Jo/Rees, William (2008): An experiment in fair value accounting: UK investment vehicles, in: European Accounting Review, Vol. 17 (2008), S. 1-33. Fisher, Irving (1906): The Nature of Capital and Income, New York 1906. Günther, Thomas/Plaschke, Frank J. (2004): Gestaltung unternehmensinterner wertorientierter Management-Incentive-Systeme, in: Betriebs-Berater, 59. Jg. (2004), S. 12111219. Haaker, Andreas (2005): IFRS und wertorientiertes Controlling - Geprüfte bereichsbezogene Unternehmenswerte als "Service" der IFRS für die wertorientierte Unternehmenssteuerung, in: Kapitalmarktorientierte Rechnungslegung, 5. Jg. (2005), S. 351357. Haaker, Andreas (2008): Potential der Goodwill-Bilanzierung nach IFRS für eine Konvergenz im wertorientierten Rechnungswesen. Eine messtheoretische Analyse, Wiesbaden 2008.
23
Vgl. zur Würdigung des VorstAG aus betriebswirtschaftlicher Sicht Suchan/Winter (2009).
Fair Value – Controllers Traum oder Albtraum?
715
Hax, Herbert (1964): Der Bilanzgewinn als Erfolgsmaßstab, in: Zeitschrift für Betriebswirtschaft, 34. Jg. (1964), S. 642-651. Hax, Herbert (1989): Investitionsrechnung und Periodenerfolg, in: Delfmann, Werner (Hrsg.): Der Integrationsgedanke in der Betriebswirtschaftslehre, Wiesbaden 1989, S. 153-161. Hicks, John R. (1939): Value and Capital, Oxford 1939. Hitz, Jörg-Markus (2005): Rechnungslegung zum Fair Value. Konzeption und Entscheidungsnützlichkeit, Frankfurt/M. u.a. 2005. Hitz, Jörg-Markus (2006): Fair Value in der Rechnungslegung, in: Die Betriebswirtschaft, 66. Jg. (2006), S. 109-113. Khurana, Inder K./Kim, Myung-Sun (2003): Relative value relevance of historical cost vs. fair value: Evidence from bank holding companies, in: Journal of Accounting and Public Policy, Vol. 22 (2003), S. 19-42. Laux, Helmut (2005): Unternehmensrechnung, Anreiz und Kontrolle. Die Messung, Zurechnung und Steuerung des Erfolgs als Grundproblem der Betriebswirtschaftslehre, 3. Aufl., Berlin u.a. 2005. Lindahl, Erik (1933): The concept of income, in: Economic Essays in Honour of Gustav Cassel, London 1933, S. 399-407. Münstermann, Hans (1966): Die Bedeutung des ökonomischen Gewinns für den externen Jahresabschluß der Aktiengesellschaft, in: Die Wirtschaftsprüfung, 19. Jg. (1966), S. 579-586. Pellens, Bernhard/Basche, Kerstin/Crasselt, Nils (2004): Eignung des IASB-Vorschlags zur Ergebnisspaltung für die Steuerung von Geschäftsbereichen, in: Bank, Matthias/Schiller, B. (Hrsg.), Finanzintermediation - Theoretische, wirtschaftspolitische und praktische Aspekte aktueller Entwicklungen im Bank- und Börsenwesen. Festschrift für Wolfgang Gerke zum 60. Geburtstag, Stuttgart 2004, S. 599-613. Pellens, Bernhard/Crasselt, Nils/Schmidt, André/Sellhorn, Thorsten (2008): Fair-ValueBilanzierung und Ergebnisspaltung, in: Wagner, Franz W./Schildbach, Thomas/Schneider, Dieter, Private und öffentliche Rechnungslegung. Festschrift für Hannes Streim zum 65. Geburtstag, Wiesbaden 2008, S. 279-295. Pellens, Bernhard/Crasselt, Nils/Sellhorn, Thorsten (2002): Bedeutung der neuen Goodwill-Bilanzierung nach US-GAAP für die wertorientierte Unternehmensführung, in: Horváth, Peter (Hrsg.), Performance Controlling. Strategie, Leistung und Anreizsystem effektiv verbinden, Stuttgart 2002, S. 131-152. Pellens, Bernhard/Crasselt, Nils/Sellhorn, Thorsten (2009): Corporate Governance und Rechnungslegung, in: Zeitschrift für betriebswirtschaftliche Forschung, 61. Jg. (2009), S. 102-113 Pellens, Bernhard/Gassen, Joachim/Fülbier, Rolf Uwe/Sellhorn, Thorsten (2008): Internationale Rechnungslegung, 7. Aufl., Stuttgart 2008. Schumann, Jörg (2008): Unternehmenswertorientierung in Konzernrechnungslegung und Controlling, Wiesbaden 2008. Stewart, G. Bennett (1991): The Quest for Value, New York 1991. Suchan, Stefan/Winter, Stefan (2009): Rechtliche und betriebswirtschaftliche Überlegungen zur Festsetzung angemessener Vorstandsbezüge nach Inkrafttreten des VorstAG, in: Der Betrieb, 62. Jg. (2009), S. 2531-2539.
716
Nils Crasselt
Velthuis, Louis J./Wesner, Peter/Schabel, Matthias (2006): Fair Value und internes Rechnungswesen: Irrelevanz, Relevanz und Grenzen, in: Kapitalmarktorientierte Rechnungslegung, 6. Jg. (2006), S. 458-466. Weißenberger, Barbara E. (2007): IFRS für Controller, Freiburg 2007. Witzemann, Tobias/Currle, Michael (2004): Bonusbanken – Unternehmenswertsteigerung und Managementvergütung langfristig verbinden, in: Controlling, 16. Jg. (2004), S. 631-638.
Evolution der Balanced Score Card – ein Beitrag zur Analyse strategischer Steuerungsprobleme Winfried Matthes
1
Orientierung
Unter dem Aspekt der möglichst nachhaltigen Sicherung ökonomischer Systeme (Unternehmen, Hauhalte und ihre Aggregate) steht – wie in allen menschlichen Handlungsbereichen und zu allen Zeiten – eine Risiko- und Chancenanalyse strategischer Effekte im Mittelpunkt von Prognose, Bewertung, Auswahl und Anpassung von Entwicklungsstrategien und -prozessen. Hierzu nur drei Anmerkungen von Zeugen beliebig schwieriger, im Kern ähnlicher Entwicklungsfragen aus verschiedenen kulturellen, stets auch politischen und ökonomischen Epochen: Reinhard E. Uhl, Head of Global Transaction Banking Germany bei der Deutschen Bank:1 „Risiken müssen systematisch angegangen werden… Heute müssen sich Unternehmen noch stärker als in der Vergangenheit mit ihren Risiken auseinandersetzen und diese professionell managen. Täglich werden sie mit immer größeren Herausforderungen konfrontiert, die für sie nur schwer kalkulierbar sind. Zunehmende Reglementierungen, wachsender internationaler Konkurrenzdruck, hohe Währungsschwankungen, stark volatile Rohstoffpreise und Liquiditätsthemen sind nur einige davon. (…) Eine fundamentale Rolle beim Einsatz von Absicherungs- und Optimierungsinstrumenten spielt die Risikotragfähigkeit des Unternehmens. Chancen und Risiken aus den Absicherungsmaßnahmen müssen für das Unternehmen erkennbar
1
Uhl (2009), S. 9.
718
Winfried Matthes sein, ein möglicher Worst Case getragen werden können – ohne die Existenz des Unternehmens zu gefährden.“
Bernard L. Montgomery, Viscount Montgomery of Alamein,2 zitiert Napoleon Bonaparte und ergänzt ihn unter Berücksichtigung seiner langfristigen Erfahrungen: „ ‚Sichere dir alle möglichen Erfolgsaussichten, wenn du dich entschließt, ein entscheidendes Gefecht zu führen.‘ Es kommt auf folgendes an: Wenn man alle Maßnahmen für die Sicherstellung des Erfolgs getroffen hat – wie viel bleibt dann noch dem Zufall überlassen? Man muss Glück haben, aber man darf nicht hoffen, dass das Glück einem in den Schoß fällt, wenn man nicht kühn genug ist.“
Gilgamesch im Gespräch mit Siduri, der Wirtin, die am Meer wohnt: „Wenn es nur eine Möglichkeit gibt, dann will ich das Meer überqueren. Doch wenn es keine Möglichkeit gibt, dann mag ich umherlaufen in der Steppe!“
Darauf Siduri: „Gefährlich ist der Übergang, dessen Weg ist voller Gefahr, auch liegen mitten darin die Wasser des Todes, die den Weg nach vorne versperren.“3
Insbesondere auch unter diesen alten und stets aktuellen, weil lebenswichtigen Grundsätzen, aussichtsreich erscheinende Strategien zu analysieren und durch hinreichende Potenziale und Maßnahmen gegen Risiken zu sichern, soll der Managementansatz von Robert S. Kaplan und David P. Norton zur Strukturierung und Handhabung der Balanced Score Card (BSC) näher analysiert und, wo notwendig und möglich, inhaltlich und methodisch weiterentwickelt werden.
2
Das Grundkonzept der Balanced Score Card (BSC)
Ausgehend von den in einer Unternehmung entwickelten Visionen und Strategien sollen in dem von Kaplan/Norton 1996 entwickelten Konzept einer Balanced Score Card (BSC) abgestimmte operational definierte bzw. kontrollierbare Ziele, ihre Maßgrößen und Soll-Werte sowie zugehörige Maßnahmen erfasst werden. Ausgangsvisionen und -strategien werden in Erweiterung finanzieller 2 3
Montgomery (2005/1968), S. 343. Gilgamesch-Epos von vor 5000 Jahren, Tafel X, Zeilen 76-77 und 83-84; Gilgamesch (2006), S. 128 f.
Evolution der Balanced Score Card
719
Ergebniskennzahlen in vier interdependent zu entwickelnde Perspektivpläne transformiert:4 1.
Finanzwirtschaftliche Perspektive/Financial Perspective: finanzielle Zielvorstellungen wie die Verbesserung von Eigenkapitalrendite, Shareholder Value, Economic Value Added, Cash Flow, Unternehmenswert oder Aktienkurs der Unternehmung, abgebildet durch kontrollierbare finanzielle/pagatorische Zielmaße/Kennzahlen und konkrete Vorgaben mit zugeordneten finanziellen und investiven Maßnahmen;
2.
Kundenperspektive/Customer Perspective: Absatzmarkt- und spezifische Kundenzielvorstellungen in den geplanten Marktsegmenten und Phasen der Produktzyklen, verbunden mit der Transformation der Kundenziele in kontrollierbare Zielmaße/Kennzahlen wie Marktpositionen, Umsatzentwicklung, Kundenzufriedenheit u.a. und mit konkreten Vorgaben und zugeordneten absatzwirtschaftlichen Maßnahmen;
3.
Interne Geschäftsprozesse/Internal Business Perspective: wertkettenbezogene Zielvorstellungen für alle relevanten Umsatzprozesse, verbunden mit der Transformation interner Gechäftsziele in kontrollierbare Zielmaße/Kennzahlen wie Durchlaufzeiten, Produktmengen bzw. Beschäftigungen, Produktqualitäten und Fehlerquoten, Prozess- und Produktkosten u.a. und mit konkreten Vorgaben und zugeordneten beschaffungs- und produktionswirtschaftlichen Maßnahmen:
4.
Lernen und Entwicklung/Innovation and Learning Perspective: Zielvorstellungen für die Entwicklung strategierelevanter Potenziale wie Produkte, Mitarbeiter, Technologie, Informationssysteme u.a., verbunden mit der Transformation dieser Entwicklungsziele in kontrollierbare Zielmaße/Kennzahlen wie Kapazitäten inklusive Flexibilitätsreserven zur Sicherung von Innovations- und Adaptionsfähigkeiten sowie mit konkreten Vorgaben und zugeordneten Entwicklungsmaßnahmen.
Diese Grundkonzeption ist als Referenzsystem für die Entwicklung eines über finanzwirtschaftliche Aspekte hinaus erweiterten Zielmaß- bzw. Kennzahlensystems gedacht, das im konkreten Fall mit individuellen Zielen, Soll-Kennzahlen sowie zugeordneten geplanten Maßnahmen der Unternehmung operational zu spezifizieren ist. 4
Kaplan/Norton (1997), S. 8 f.
720
Winfried Matthes
Bei der Entwicklung einer BSC sollen nach Kaplan/Norton drei Planungsprinzipien beachtet werden:5
Berücksichtigung von Ursache-Wirkungsketten über alle Perspektiven, Verknüpfung der Kunden-, Geschäftsprozess- und Entwicklungsperspektive mit dem Finanzbereich als finalem Wirkungsspektrum, Differenzierung von Kennzahlen für Ergebnisse und Erfolgseinflüsse/ -treiber mit ihren Wirkungen und Wechselwirkungen.
Das Konzept der BSC soll das Management einer Unternehmung methodisch unterstützen, indem es Vorschläge für die mehrdimensionale Strukturierung eines strategischen Ziel- und Plansystems als Kombination finanzieller und nicht-finanzieller Größen und für die differenzierte Gestaltung des Managementprozesses anregt und formatiert:6
5 6
Translating the vision: konsensuale Übersetzung der Vision der Unternehmung über alle ihre Geschäftseinheiten in spezifische strategische Ziele und ihre Maßgrößen/ Kennzahlen unter Beachtung aller miteinander verknüpften Strategieperspektiven, kritischer Prozesse und Erfolgseffekte im Entwicklungszusammenhang; Communicating and Linking: Kommunikation von Oberzielen an die Mitarbeiter in Verbindung mit der Festlegung strategisch orientierter Unterziele in Form von Leistungskennzahlen mit Arbeits- und Erfolgsanreizen, eingebunden in die aktuellen Veränderungsprozesse; Business Planning: koordinierte Planung der Geschäftsprozesse mit konkreter Zuordnung der von ihnen benötigten Ressourcen und Termine als strategische Vorgaben unter Beachtung aller Steuerungsperspektiven, der Kosten- und Leistungstreiber bzw. der vermuteten Ursache-Wirkungs-Zusammenhänge; Feadback and Learning: Kontrolle, Auswertung, nach Bedarf Anpassung oder Innovation verfolgter Strategien und ihrer Komponenten im Rahmen gemeinsamer Lernprozesse von Unternehmensleitung und Mitarbeitern und der darauf gründenden Entwicklung von Anpassungs- und Innovationsideen für Strategien und Visionen.
Kaplan/Norton (1996), S. 149 ff. Kaplan/Norton (1997), S. 10-17.
Evolution der Balanced Score Card
721
Kaplan/Norton haben dieses Grundkonzept zu einem Modell eines strategischen Managementprozesses in Form eines 6-Phasen-Systems ausgebaut:7
7
Phase 1 – Entwicklung der Strategie: Festlegung von Mission, Vision und Werten, strategische Analysen, insbesondere SWOT-Analyse mit Entwicklung einer Agenda für den strategischen Wandel, und Formulierung der aktuellen Strategie; Phase 2 – Übersetzung der Strategie: Beschreibung der Strategie in einer STRATEGY MAP mit ihren strategischen Themen bzw. Problemen, Wahl der Zielmaße und Darstellung in einer BSC, Strategieanalysen, insbeondere externe Analyse mit dem PESTELModell (=Political, Economic, Social, Technological, Environmental, Legal Analysis), Auswahl strategischer Initiativen bzw. Projekte, Finanzierung der Strategie, Berechnung der strategischen Ausgaben (STRATEX), Bildung von Thementeams für die Umsetzung der Strategie; Phase 3 – Ausrichtung der Organisation: Harmonische Verknüpfung der Strategie mit Teilstrategien der Geschäftseinheiten, Ausrichtung der Unterstützungseinheiten an der Strategie, Motivation der Mitarbeiter zur Umsetzung der Strategie durch Kommunikation von STRATEGY MAP, BSC, STRATEX und Anreizsystemen; Phase 4 – Operative Planung: Verbindung der langfristigen Strategie mit kurzfristiger Planung und Orientierung der wichtigsten Geschäftsprozesse an strategischen Prioritäten, Abbildung der Indikatoren operativer Prozessleistungen in DASHBOARDS (Einflußgrößenpläne), Transformation der operativen Prozessplanung in einen operativen Jahresplan (OPEX mit Umsatzprognosen, Ressourcen-, Kapazitäts- und Budgetplänen für Betrieb und Investition); Phase 5 – Kontrolle und Lernen: strategische Lagebesprechungen zur Überwachung der Umsetzung der Strategie, verbunden mit Vorschlägen für strategische Anpassungen, differenziert nach strategischen Themen und gestützt auf laufende operative Lagebesprechungen zur Überwachung der Umsetzung der operativen Pläne der Geschäftseinheiten, nach Bedarf kurzfristige operative Anpassungen; Phase 6 – Testen und Anpassen: Überprüfung der Prämissen, Hypothesen und Effekte der Strategie unter Beachtung der aktuellen externen Entwicklungen im politischen, wirtschaftlichen, technischen, umweltbezogenen und rechtlichen Umfeld sowie des Wettbewerbs, nach Bedarf Modifikation der Strategie unter Einsatz von Kaplan/Norton (2009), einführend S. 21 ff. sowie S. 52 ff., S. 91 ff., S. 127 ff., S. 152 ff., S. 186 ff., S. 219 ff., S. 259 ff., S. 293 ff.
722
Winfried Matthes Korrelationsanalysen zur Validierung von Ursache-Wirkungs-Hypothesen, Aktualisierung von STRATEGY MAP und BSC mit der Option des Einstiegs in eine neue Phase 1.
Diese Phasen bilden einen grundlegenden Regelkreis für Planung, Durchführung und Anpassung einer Unternehmungsstrategie,8 in dem das Instrument der Balanced Score Card eine zentrale Rolle spielt, ergänzt durch eine Reihe weiterer Instrumente wie STRATEGY MAP, Strategisches und operatives Budget (STRATEX und OPEX), Motivations- und Anreizsysteme, operative und strategische Kennzahlen und Berichte. Weiterentwicklungen des ursprünglichen Ansatzes der BSC finden sich auch in der Wirtschaftspraxis selbst und in der Wissenschaft, z.B. bei Friedag/Schmidt (2003) und (2008). Diese Autoren ergänzen z.B. die Potenzialdimension in der Lern- und Entwicklungsperspektive mit einer intellektuellen Potenzialdimension und die BSC um individuelle Ziele der Mitarbeiter und Aspekte der Projektorganisation.9
3
Kritik des BSC-Konzepts
3.1 Einige Kritikansätze zur Einführung Für manche Bereiche der Wirtschaftspraxis war und ist das BSC-Konzept mit seinem Ausbau zu einem strategischen Steuerungssystem eine Anregung, strategische Aspekte realistisch zu erweitern und zu konkretisieren, so wie es viele Unternehmen unter jeweils aktuellen Entwicklungen mit anderen oder ähnlichen Methoden längst praktiziert haben und praktizieren. Auch finden sich diverse ähnliche Konzepte durchaus auch in älterer Literatur zur Unternehmensplanung,10 nicht zu vergessen viele tradierte kommerzielle, politische und militärische Planungs- und Steuerungsansätze seit dem Altertum. In der Literatur zum betrieblichen Rechnungswesen, zu Kennzahlensystemen, Planungskonzepten und -methoden, allgemein zu Controlling- und Mana-
8 9 10
Kaplan/Norton (2009), S. 22, S. 32, S. 293 ff. Friedag/Schmidt (2008), S. 25, S. 58, S. 69 ff. S. 83 ff. Z.B. Kreikebaum (1989), Gälweiler (1974), Zäpfel (1982), (2000), (2000a), Frese (1987), Hahn (1985), Grochla (1982), Wild (1974), Grochla/Szyperski (1973), Mag (1995), Schneider (1971), Hax (1970), Bleicher (1981), Töpfer (1976); zu ältesten Zeugnissen für Planungs- und Kontrollsysteme vgl. z.B. Marzahn (1996) und Noissen/Damerow/Englund (2004), Bellinger (1967), S. 11 ff.
Evolution der Balanced Score Card
723
gementsystemen, wird das BSC-Konzept als eines von vielen praxisbezogenen Ansätzen referiert und kommentiert.11 Das BSC-Konzept wird nicht mehr nur als ein Kennzahlensystem, sondern nun als Kern eines Management-Konzepts angesehen, das den gesamten Planungs- und Kontroll- bzw. Steuerungsprozess einer Unternehmung mit Effizienz und Synergieeffekten fundieren und gestalten will.12 Vor allem auf Erfahrungen aus der Praxis gestützt, bietet der BSC-Ansatz mit seinen integrierten Komponenten im Prinzip eine breite Strukturierungshilfe i.S. einer Gestaltungsheuristik für die strategische Steuerung von Unternehmungen. Entsprechend wird der BSC-Ansatz auch in der Literatur gewürdigt, z.B. von Küpper:13 Die BSC solle insbesondere helfen, die gesamte Unternehmung auf ein einheitliches Zielsystem für die Planung, Durchführung und Kontrolle von Strategien und ihrer operativen Maßnahmen auszurichten; das Konzept bezwecke, Strategien zu formulieren, Maßnahmen zu konkretisieren und die Planung mit Anreizsystemen zu verknüpfen; insoweit könne es als ein übergreifendes Controllingsystem zur Koordination und Steuerung angesehen werden. Jedoch, konstatiert Küpper:14 „Die Struktur des Konzepts, z.B. in Hinblick auf die maßgeblichen Perspektiven, die bei seiner Umsetzung vorzunehmenden Schritte und die Auswahl der Kennzahlen, werden nicht theoretisch oder anhand empirischer Erhebungen untermauert“, die Vorgehensweise der BSC sei eher empirisch begründet und werde anhand von Praxisbeispielen sowie Fallstudien veranschaulicht, deshalb könnten die im Konzept enthaltenen Empfehlungen nicht als wissenschaftlich bestätigt bezeichnet werden;15 Verfahren zur konkreten Ausgestaltung des Konzepts als Managementsystem würden nur teilweise genannt werden; die Komprimierung auf vier Perspektiven stelle angesichts der größeren realen Vielfalt eine Einengung dar; die strategischen Vorgaben würden bei jeder Perspektive Zielsetzungen, Zeitpunkte und Risiken mit ihren Beschränkungen berücksichtigen und es werde mit dem für die Strategieentwicklung vorgeschlagenen Konzept des Einsatzes von Ursache-Wirkungs-Beziehungen zwar eine, wie Bespiele zeigten, empirisch-theoretische Fundierung angestrebt, jedoch kein allgemeines Hypothesensystem entwickelt;16 auch sei als Mangel festzuhalten, dass Anforderungen an das Informationssystem fehlten.17
11 12 13 14 15 16 17
Vgl. z.B. bei Küpper (2005), Horvath (2003), Weber (2004), Freidank/Mayer (2003). Kaplan/Norton (1997), S. 5; (2009), S. 9 ff. Küpper (2005), S. 385-392. Küpper (2005), S. 386. Küpper (2005), S. 386. Küpper (2005), S. 390. Küpper (2005), S. 392.
724
Winfried Matthes
Diese Kritik lässt sich sowohl präzisieren als auch relativieren und konstruktiv ergänzen. Wie Kaplan/Norton mit der Berücksichtigung von Lern- und Wachstums- bzw. Entwicklungsperspektive von vornherein18 betont haben und mit dem Ausbau des Ansatzes zu einem strategischen Steuerungskonzept, dem 6-PhasenSystem als Regelkreissystem, generell wie auch vielfältig exemplarisch demonstrieren,19 dient der Ansatz nicht nur zur Bewältigung einer – wie auch immer näher zu bestimmenden – Koordinationsaufgabe eines strategischen ControllingSystems, sondern auch der operativ-gestützten Steuerung von Strategien i.S. einer Planung und Kontrolle von Zielen und Maßnahmen von Entwicklungsprojekten, dem Potenzial- und Prozesscontrolling. Darauf aufbauend dient der Ansatz auch der Metaaufgabe der Gestaltung und Entwicklung eines strategisch erforderlichen Steuerungssystems, dem Metacontrolling, insoweit also grundsätzlich einem auf umsatz-, erfolgs- und finanzrelevante Prozesse und Potenziale sowie auf die notwendigen Steuerungsinstitutionen und -methoden bezogenen Entwicklungcontrolling.
3.2 Kritik aus der Sicht des Entwicklungscontrolling Der mit der BSC und anderen Instrumenten gestützte strategische ManagementAnsatz von Kaplan/Norton soll nun unter den breiteren allgemeinen Mindestanforderungen (Prämissen)20 für ein realitätsbezogenes strategisches Entwicklungscontrolling geprüft werden, wobei für eine Strategie als Prozess-/ Maßnahmenbündel vor allem folgende Merkmale beachtet werden:
18 19 20
teilweise anfangs bereits fixierte Prozesse und Effekte, teilweise noch ergebnisoffene Entscheidungen zur Selektion weiterer Prozesse und ihrer Effekte im Strategieablauf, subjektive Erwartungen zum Eintritt bzw. zur Wahl von Prozessalternativen und ihrer Effekte (Chancen und Risiken) durch zunächst noch offene Entscheidungen, teilweise anfangs bereits determinierte und teilweise noch offene Potenzialentwicklungen zur Deckung von Kapazitätsbedarfen der Prozesse (Kapazitätsbedingungen) neben Ablauf- und Terminbedingungen der Prozesse, operative Stützung strategischer Prozesse durch zusätzlich definierte operative Prozesse (z.B. operative Logistik-, Produktions-, Finanzierungs-, Kaplan/Norton (1996), (1997). Kaplan/Norton (2009), passim. Vgl. die hier für die strategische Steuerung weiterentwickelte Axiomatik zum primär operativ orientierten Prozesscontrolling bei Matthes (2002), S. 131-141, (2008), S. 10-32.
Evolution der Balanced Score Card
725
Abatz-, Verwaltungs- und Sicherungsvorgänge) inkl. ihrer evtl. ebenfalls noch offenen Entscheidungsprozesse, begrenzte, beliebig definierte Menge von Entwicklungszielen für strategische Potenziale, begrenzte, beliebig definierte Beteiligung von Institutionen an Strategieentwicklung und Prozesssteuerung unter Einsatz diverser Informationen, Planungs-, Kontroll- und Koordinationsinstrumente in relevanten strategischen und operativen Steuerungsbereichen.
An diesen Aspekten orientiert sich der folgende Anforderungskatalog i.S. eines strategischen Axiomensystems, auf dem hier eine konstruktive Kritik bzw. Evolution des BSC-Ansatzes basieren soll: I.
Anforderungen an das Steuerungsobjekt (Objektaxiome) und ihre Erfüllung im Balanced Score Card-Konzept:
(1)
Entwicklungen (Auf-, Um- und Abbau) in- und externer Potenziale der Unternehmung: Die Entwicklung von Potenzialen jeder Art (reale materielle und immaterielle, finanzielle inkl. steuerlicher sowie auch ideelle Größen) in Form von Investitions- und Desinvestitions-, Umrüstungs- und Bereitstellungs-, Pflege- und Serviceprozessen führt zu Kapazitätsbedingungen für strategische und operative Prozesse und kann multidimensionale dynamische Maßgrößen von Steuerungszielen einer Strategie generieren (vgl. unten Axiom 7). Dieser Entwicklungsaspekt wird im BSC-Konzept grundsätzlich als dynamische Vorgabe mit der Lern- und Entwicklungsperspektive kategorial und mit offenen Optionen der Differenzierung von Potenzialen berücksichtigt. (2)
Entwicklung von Entscheidungs- und Ausführungsprozessen, ihrer Programme, Potenzialeinsätze und Ausführungsbedingungen: In der BSC-Perspektive der internen Geschäftsprozesse mit ihrer Basis der Kundenperspektive werden die Elemente einer vollständig fixierten Strategie, d.h. die operativen Geschäftsprozesse der strategisch relevanten Wertkette als Ausführungsprozesse der Strategie, berücksichtigt und in der BSC mit ihren Dauern und Terminen, Kosten und Leistungen zunächst vollständig fest geplant. Jedoch werden noch ergebnisoffene Entscheidungen mit möglichen prognostizierten Handlungsalternativen in der Strategie nicht explizit in den an der BSC orientierten Instrumenten berücksichtigt. Diese kommen evtl. erst in den Phase 5 (Kontrolle und Lernen) und 6 (Testen und Anpassung) des strategischen Mana-
726
Winfried Matthes
gementansatzes in Betracht.21 Bei realistischer Sicht von Strategien, die infolge ihres gegenüber einer operativen Sicht größeren Planungshorizontes eine gewisse Offenheit und Unsicherheit als essentielles Merkmal aufweisen und nur im Extremfall voll determiniert sind, liegt hier ein Defizit des BSC-Konzepts vor. (3)
Evolutionäre Ablaufstrukturen (kon- und exklusiv-disjunktiv verknüpfte Folgerelationen bzw. Terminbedingungen) der Ausführungs- und offenen Entscheidungsprozesse: In der Perspektive interner Geschäftsprozesse werden in der BSC einfache Wertketten strategischer und operativer Ausführungsprozesse und damit nur konjunkt verknüpfte Termin- und Folgerelationen dieser Geschäftsprozesse zur Darstellung der Dynamik der Strategie beachtet. Exklusive Disjunktionen von Prozessfolgen als Alternativen noch offener Entscheidungen werden nicht explizit betrachtet – ein zu dem unter (2) skizzierten korrespondierendes Defizit der vom BSC-Konzept vorgesehenen Prozessanalyse. Allerdings zeigt sich unter (4) bei der Kritik der von der BSC vorgesehenen Wirkungsanalyse mit der methodisch nicht präzisierten Beachtung von Abweichungen (Chancen und Risiken) von Planzielen, dass damit implizit und relativ grob/aggregiert auch alternative Handlungswege einer Strategie zu berücksichtigen versucht werden. Subjektive Erwartungen zu Stärken und Schwächen, Risiken und Chancen werden für die einzelnen BSC-Perspektiven einer Gesamtstrategie differenziert nach dem Muster der SWOT-Analyse auch unter Beachtung von Kapazitätsentwicklungen bzw. -optionen grob angesetzt,22 nicht jedoch detailliert unter expliziter Berücksichtigung alternativer Prozesse als Strategiekomponenten in die Analyse einbezogen. (4) Entwicklung von kon- und disjunkten Wirkungsstrukturen: In der Kunden- und internen Geschäftsprozessperspektive der BSC werden primär aus der Sicht der obersten Unternehmungsleitung die Wirkungen der berücksichtigten, strategisch relevanten operativen Maßnahmen entsprechend den festgelegten Zielen und deren Maßgrößen/Indikatoren geplant, wobei allerdings auch Unternehmungsrisiken nach COSO-Standards (=Standards für die Unternehmensethik, für interne Kontrollen und die Unternehmensführung des Committee of Sponsoring Organizations of the Treadway Commission) und nach dem Muster der SWOT-Analyse zumindest klassifikatorisch/nominal, auch in Verbindung mit Best- und Worst-Case-Szenarien, erfasst werden.23 In einer auf eine BSC bezogenen SWOT-Analyse24 werden Entwicklungseffekte einer Strategie 21 22 23 24
Kaplan/Norton (2009), S. 293 ff. Vgl. Kaplan/Norton (2009), S. 68-72 und passim. Kaplan/Norton (2009), S. 67-72. Kaplan/Norton (2009), S. 70.
Evolution der Balanced Score Card
727
als Chancen und Risiken beschrieben. Zudem werden in exemplarischen Fällen Chancen und Risiken weiter differenziert.25 Für allfällige Sicherheitsparameter einsetzbare kardinale Maßgrößen, Messverfahren und entsprechendeKalküle werden jedoch nicht explizit genannt. Für die Beschreibung operativer Effekte geplanter Maßnahmen einer Strategie wird die operative Prozesskostenrechnung (Time-Driven-Activity-Based Costing-Modell/TDABC) propagiert.26 Diese soll die Erfassung konjunkter dynamischer Wirkungsstrukturen operativer Maßnahmen von Strategien unter Einsatz von Ursache-Wirkungs-Hypothesen erlauben, die auf organisatorisch, technologisch, politisch oder in der Unternehmung selbst disponierten Zusammenhängen von Prozessen, Bedingungen und Leistungsverknüpfungen beruhen.27 Außer Korrelationsanalysen in der Kontroll- und Anpassungsphase 6 werden28 keine spezifischen Methoden für die Bestimmung von Wirkungen von Einflussgrößen (Ursachen) genannt, Probleme und Methoden der Prüfung/Falsifizierung von Ursache-Wirkungs-Hypothesen nicht erwähnt. Dafür werden jedoch diverse Beispiele für einschlägige strategische Zusammenhänge jeweils auf der Basis irgendwie szenarioartig ermittelter Wirkungsketten mit Hilfe von STRATRGY MAPs als strategischen Prozessnetzen skizziert.29 Entsprechend den unter (2) und (3) festgestellten Defiziten wird kein operationaler Ansatz zur expliziten Ableitung bzw. Prognose von Prozesswirkungen aufgrund kon- und disjunkter Prozessketten/ -subnetze genannt, der auch zumindest subjektiv gewichtete diskrete Häufigkeitsverteilungen dynamischer Wirkungen erfasst – ein mit den unter (2) und (3) genannten Eigenschaften des BSCAnsatzes verbundenes Defizit.30 II.
Anforderungen an das Steuerungssystem (Steuerungsaxiome) und ihre Erfüllung im Balanced Score Card-Konzept:
(5) Entwicklung von Steuerungsinstitutionen: Mit der Entwicklung des BSC-Konzepts zu einem strategischen Managementsystem wurde von Kaplan/Norton der institutionelle Aspekt der Strategiesteuerung als ein weiterer Schwerpunkt berücksichtigt, indem für das oberste, strategisch verantwortliche Management, generell die Kunden- und die Kommunikationsperspektive vertiefend und ergänzend, ein strategisches Managementsystem 25 26 27 28 29 30
Kaplan/Norton (2009), S. 134 f. Kaplan/Norton (2009), S. 68, S. 249 ff., S. 298 ff. Kaplan/Norton (2009), S. 107, S. 110, S. 115-117. Vgl. Kaplan/Norton (2009), S. 91, S. 261. Vgl. Kaplan/Norton (2009), S. 107, S. 111-117, S. 123 f. Vgl. zu den damit verbundenen offenen methodischen Fragen der Wirkungsanalyse und -prognose des 6-Phasen-Management-Systems auch die Anmerkungen unter Axiom 8 (Controlling-Methoden).
728
Winfried Matthes
mit grundlegenden Phasen, Institutionen und Anregungen für Kommunikationsregeln konzipiert wurde:31 a.
b.
primär interne Ausrichtung der Unternehmungsorganisation auf die Gesamtstrategie bzw. die Fixierung und Ausführung strategischer Aufgaben durch Kaskadierung i.S. einer Hierarchisierung der BSC der Unternehmung in Verbindung mit o Motivation und Kompetenzentwicklung von Mitarbeitern, o Einrichtung eines „Büros“ bzw. einer Stabsabteilung für Strategiemanagement, o interner Kommunikation von Strategien und Teilstrategien, o Einrichtung strategischer Lagebesprechungen bzw. einer strategischen Steuerungsorganisation für Innovation, Entwicklung, Test, Anpassung, Koordination und Durchführung einer Strategie, o strategieorientierter operative Steuerung (operative Projektorganisation), o strategischem und auch operativ relevantem Datenmanagement, o Integration von strategischem und strategiebezogenem operativen Management; Berücksichtigung der Kunden und indirekt weiterer Marktpartner und -konkurrenten als mitwirkende Institutionen mit ihren Zielen, Prozessen, Potenzialen und Synergien.32
Strategiegieadäquate Steuerungsinstitutionen einer Unternehmung bilden neben Kunden eine Kernprämisse des BSC-orientierten Strategieansatzes von Kaplan/Norton, der vielfältig exemplarisch konkretisiert wird. Eine explizite Ausweitung auf weitere externe Institutionen, die an der Unternehmungssteuerung beteiligt sind, wie Marktkonkurrenten, wird angedeutet. Die interne Institutionen- und die externe Kundenperspektive stehen allerdings klar im Mittelpunkt. Im Kern besteht damit primär auf oberster Managementebene Monozentrik der strategischen Steuerung mit vielfältigen Zielen/Perspektiven, die auf unteren Managementebenen der Fachabteilungen durch eine Polyzentrik ergänzt wird. Diese bedarf einer entsprechenden Koordination durch das obere strategische Management, das sog. Strategiebüro. Damit wird im BSC-Ansatz insgesamt gesehen ein hierarchisiertes, kollektives Entscheidungssystem vorausgesetzt. Je nach Umfang einer Strategie und ihrer endo- und exogenen Wirkungen und 31 32
Vgl. Kaplan/Norton (2009), S. 26 f., S. 33 ff., S. 145 ff., S. 152 ff., S. 162 ff., S. 169 ff., S. 180 ff., S. 273 ff., S. 293 ff., S. 304 ff., S. 319 ff., S. 321 ff., S. 327 ff. Vgl. Kaplan/Norton (2009), div. Aussagen zur Kunden-, Prozess- und Finanzperspektive passim.
Evolution der Balanced Score Card
729
Wechselwirkungen zwischen in- und externen Institutionen kann es jedoch erforderlich sein oder werden, auch weitere externe Institutionen, z.B. Partner in Beschaffungs-, Absatz- und Finanzmärkten und staatliche Institutionen, auch direkt in die Analyse zu integrieren, so dass nicht nur ein interner Steuerungsprozess realistischer gestaltet, sondern auch im gewissen Umfang externe Steuerungsprozesse in die Analyse, Prognose und Synthese einer Strategie integriert werden, wie es praktisch durch Geschäftsbeziehungen und deren Entwicklung über Verhandlungen, Vorgaben und Kontrollen häufig auch erzwungen wird und vielfach praktisch erfolgt. (6)
Wissensentwicklung der Steuerungsinstitutionen (Ziel-/Normen-, Erkenntnis-/Erfahrungs-, Prognose-, Planungs-, Kontroll- und Anpassungsinformationen): Im BSC-Konzept stellt die Lern- und Entwicklungsperspektive – und damit der Aspekt der Wissensentwicklung – eine der vier grundlegenden Perspektiven dar, auf denen letztlich das zugehörige strategische Managementkonzept (6-PhasenSystem) beruht. Allerdings fehlen hier konkrete Prämissen zur Messung und Validierung der zu verarbeitenden Daten bzw. Informationen faktischer/empirischer, normativer, prognostischer, adaptiver bzw. innovativer und steuerungs-/planungs- und kontrolllogischer Arten. Dieser Mangel wird von Kaplan/Norton teilweise exemplarisch, mit Fallanalysen, zu kompensieren versucht. Sichere und in unterschiedlichem Maß unsichere Informationen der genannten Arten, die für Entwicklung und Beurteilung des Konzepts und seiner methodologischen Vorschläge notwendig wären, werden im BSC-Konzept allerdings auch nicht in seiner neuesten Version von 2008/09 differenziert expliziert.33 Informationsprämissen des prinzipiell kategorial strukturierten BSCKonzepts bleiben damit grundsätzlich offen. Anhand der von Kaplan/Norton berichteten Anwendungsbeispiele lassen sich allerdings mögliche spezielle Informationsprämissen indirekt nachweisen. So ergeben die Kontrollstudien der Autoren zum Einsatz des BSC-Konzepts, dass in Berichtssystemen als operativen Kontrollrechnungen einwertige Kontrollinformationen verarbeitet werden – so in den exemplarisch skizzierten Bilanz-, Finanz-, Kosten- und Leistungsrechnungen, letztere auch in Form von Prozesskostenrechnungen.34 In den von Kaplan/Norton zu Anwendungen des BSC-Konzepts vorgeschlagenen Werkzeugen wie STRATEGY MAPs und in den Budgetrechnungen STRATEX und OPEX, die neben diversen Indikatoren als ein Instrument zur Koordinierung, Prognose und Leistungsbeurteilung von Strategien angesehen werden,35 finden sich eben33 34 35
Vgl. Kaplan/Norton (2009), S. 58, S. 66 ff. Vgl. Kaplan/Norton (2009), S. 15, S. 40, S. 43. Kaplan/Norton (2009), S. 20.
730
Winfried Matthes
falls nur einwertige, kardinal oder nominal/klassifikatorisch oder auch ordinal skalierte Größen, die, soweit sie nicht wie in der SWOT-Analyse um Risikoaussagen ergänzt werden, als sichere Prognoseinformationen angenommen werden.36 Dies zeigt sich nicht nur in der generellen Sichtweise strategischer Effekte wie sie von Kaplan/Norton beschreiben werden:37 „Die wichtigsten Werte eines Unternehmens sagen etwas über seine Einstellung, sein Verhalten und seinen Charakter aus.“ Für die Messung solcher Werte werden nominale Skalen bevorzugt. Dieses Messverhalten zeigt sich genauer bei der Beschreibung der Phasen 1 und 2 (Entwicklung und Übersetzung der Strategie) des von Kaplan/Norton konzipierten strategischen Management-Systems:38
36 37 38 39 40 41 42 43 44
Zielvorgaben zur Darstellung der Vision durch nominal/klassifikatorisch und ordinal skalierte Größen;39 Wirkungsanalysen und -prognosen der Strategie mittels PESTEL-Modell, Wertketten- Analyse und SWOT-Analyse,40 ergänzt um Analysen mit einem dynamischen Prozesskostenplanungsmodells (Time-Driven-ActivityCosting/TDABC-Modell,41 mit nominal, ordinal und kardinal skalierten Größen, wobei überwiegend sichere einwertige, teilweise aber auch unsichere Erwartungen über Chancen und Risiken als nominale Größen, verwendet werden; Formulierung der Strategie als Abbildung nach dem BSC-Konzept42 mit vielfältigen Hinweisen auf Modellierungsansätze mit verschiedenen Informationsprämissen – wie Positionierungsmodelle nach M. Porter, Ressourcentheorie, Investitionsportfoliomodelle, Wertmanagement-Ansätze, TQM, ISO-Normen, Lean und Risk Management, Innovations- und Destruktions-/ Desinvestitionsmodelle für Strategien; alles ein Beleg für die informatorische Offenheit des BSC-Konzepts; Übersetzung der Strategie auf der Grundlage von BSC und STRATEGY MAP43 unter Beachtung vielfältig skalierter Ziele44 und Vorgaben;
Kaplan Norton (2009), S. 46, S. 65 ff., S. 69 ff. Kaplan/Norton (2009), S. 56 Kaplan/Norton (2009), S. 56 ff., S. 66 ff. Kaplan/Norton (2009), S. 57 f., S. 64. Kaplan/Norton (2009), S. 66-71. Kaplan/Norton (2009), S. 140-145, S. 219-248. Kaplan/Norton (2009), S. 72-83, S. 86, S. 247 ff. Kaplan/Norton (2009), S. 91-98, S. 123 ff. Kaplan/Norton (2009), S. 108-118, S. 129, S. 134 f.
Evolution der Balanced Score Card
731
Kontrolle der Strategie nach den in BSC und STRATEGY MAP fixierten Zielen und Vorgaben unter Verwendung sicherer einwertiger Kontrollinformationen.45
Der BSC-basierte Managementansatz enthält ein prinzipiell offenes Messverhalten, wobei offenbar nominale Skalen im Vordergrund stehen, andere Skalenarten jedoch nicht vernachlässigt werden. In Bezug auf die Validität (vor allem Objektivität i.S. einer intersubjektiven Überprüfbarkeit, aber auch reiner Subjektivität) von Prognose- und anderen Planungsinformationen finden sich keine wesentlichen kritischen Hinweise, in den BSC-Beispielen werden oft sichere Informationen unterstellt. Gerade für sensible Strategieanalysen und -synthesen ist jedoch eine realistische Präzisierung der Informationsmerkmale nötig. (7) Multikriterielle Zielentwicklungen: Im BSC-Konzept stellt die Spezifikation der Unternehmungsvision durch strategischen Ziele mit entsprechenden Indikatoren und unter Beachtung der grundlegenden Perspektiven – wie oben gezeigt – eine Kernaufgabe dar. Grundsätzlich ergeben sich vielfältige, miteinander verknüpfte Ziele, die direkt oder indirekt Zielsetzungen der finanziellen Sphäre der Unternehmung beeinflussen. Unter der Lern- und Entwicklungsperspektive des BSC-basierten Managementkonzepts werden dynamische/periodisierte Ziele, insbesondere Potenzialziele, mit ihren Maßgrößen (Indikatoren) exemplarisch genannt, die als Komponenten von Entwicklungszielen gelten können. Auch wird die Möglichkeit von Zieladaptionen im Konnex mit Planadaptionen im operativen und im strategischen Bereich in der Phase 6 (Testen und Anpassen) unter Beachtung ex- und interner Entwicklungen nicht ausgeschlossen, so wie es dem Charakter des 6-Phasen-Systems als operativ-gestützter strategischer Regelkreis bzw. Managementzyklus entspricht. Mit dem Bezug auf das Wertketten-Modell (Wertkettenanalyse)46 nach M. Porter und die zeitbezogene Prozesskostenanalyse (TDABC-Analyse)47 werden auch Ablaufbedingungen/Folgerelationen zwischen Prozessen zur Strukturierung der strategischen Dynamik beachtet. Deren Ausweitung zu einer Prozessnetzanalyse unter Potenzialbedingungen wird jedoch nicht expliziert, sondern mit dem Hinweis auf eine treiberbasierte Prognose48 und dynamische Simulationen49 nur grob angedeutet.
45 46 47 48 49
Kaplan/Norton (2009), S. 294-324, insb. S. 297-300. Kaplan/Norton (2009), S. 68. Kaplan/Norton (2009), S. 225, S. 234 ff., S. 246 ff. Kaplan/Norton (2009), S. 208. Kaplan/Norton (2009), S. 20.
732
Winfried Matthes
Grundsätzlich ist damit die Prämisse der Multikriterialität bzw. Multi- bis Polyvalenz im unterstellten Zielsystem des BSC-Konzepts gegeben. Genauere Merkmale des Zielsystems wie Zielinhalte, -maße, -zeitbezug, -sicherheit/ -validität und Hierarchisierbarkeit sind im beliebig kaskadierbaren BSC-System zwar grundsätzlich offen, aber relativiert durch die vier BSC-Perspektiven, nicht vollständig operationalisiert und insoweit ergänzungs- und präzisierungsbedürftig. (8) Entwicklung von Steuerungsmethoden (Prognose-, Planungs-, Durchsetzungs-, Kontroll- und Anpassungsmethoden bzw. regeln): Obwohl der BSC-Ansatz und das zugehörige Managementkonzept sich der Entwicklung von Unternehmen verschrieben hat und damit grundsätzlich als evolutionär orientiertes System bezeichnet werden kann, enthält es über das Regelkreiskonzept und die Fokussierung seiner Perspektiven auf Entwicklungsfragen hinaus keine generelle Methodik zur Analyse und Behandlung (Synthese) von Entwicklungsprozessen, sondern nur exemplarische Hinweise auf im Entwicklungskontext anwendbar erscheinende Methoden. Im Zusammenhang mit der festgestellten Offenheit bei Informationen und Zielen enthält das BSC-Konzept eine entsprechende grundsätzliche Offenheit der strategischen Planungs-, Durchsetzungs- und Kontrollmethoden und -regeln,50 wenn auch bestimmte Methoden in den Vordergrund gestellt werden:51 „Zu den Methoden zur Strategieformulierung gehören Michael Porters Fünf-KräfteModell und sein Konzept der Wettbewerbspositionierung, die Ressourcentheorie, die Kernkompetenzen, disruptive Strategien sowie Analysen von bislang nicht erschlossenen Marktsegmenten sowie – nicht zu unterschätzen – die operative Stützung der strategischen Analyse vor allem durch die Time-Driven-Activity-BasedCosting-(TDABC)-Analyse“.52
Letztere baut auf der Wertkettenanalyse nach M. Porter auf, wird mit Budgetplanung, Portfolio- und SWOT-Analyse sowie mit Motivationsansätzen zur Planungsdurchsetzung verbunden. Außerdem setzen Unternehmen, wie Kaplan/Norton exemplarisch berichten,53 Szenarioplanung, dynamische Simulationen und War Gaming ein, um die Tragfähigkeit ihrer Strategien zu testen.
50 51 52 53
Vgl. Kaplan/Norton (2009), S. 9 ff., S. 13 ff., insb. S. 19 ff. Kaplan/Norton (2009), S. 19. Kaplan/Norton (2009), S. 225. Kaplan/Norton (2009), S. 20, S. 75, S. 77.
Evolution der Balanced Score Card
733
Auch auf die nötige IT-Unterstützung solcher Methoden wird verwiesen:54 „Business-Intelligence-Software bietet eine Vielzahl von Tools, die bei der strategischen Planung helfen, sowie bedarfsgerecht gestaltete Dashboards55 zur Unterstützung der Verbesserungsprogramme (…) einschließlich Software für das Management von Kundenbeziehungen und Analysemodelle, um das Kundenverhalten aufzuzeichnen und Kundenprofile zu entwickeln.“
Eine weitere Konkretisierung inkl. Axiomatisierung von Planungs- bzw. Steuerungsmethoden, vor allem auch zur Wirkungsprognose und operationalisierten Maßnahmenentscheidung im Rahmen einer ausgewählten Strategie wird jedoch nicht dezidiert vorgenommen. Insgesamt zeigt sich bezüglich der methodischen Fundierung des BSCKonzepts eine offene Menge angebotener, z.T. offenbar präferierter, Steuerungswerkzeuge, die jedoch kein spezifisches evolutionäres Regelwerk darstellen, wie Kaplan/Norton selbst kritisch urteilen:56 „(…) aber es fehlt nach wie vor eine Theorie oder ein Rahmen, der bei der erfolgreichen Integration dieser verschiedenen Instrumente hilft. Unternehmen finden häufig keine Antwort auf die Frage, wie das Zusammenspiel dieser Tools in einem System funktionieren könnte.“
Eine Antwort soll das 6-Phasen-System des BSC-Konzepts darstellen, so das Ziel seiner Autoren.57 Dies ist jedoch – wie oben gezeigt – nur ein Rahmenmodell (Referenzsystem, Planungsmuster) für strategisches Management mit einer Reihe offener Prämissen und den o.a. genannten konzeptionellen und methodischen Lücken. (9) Entwicklung von Aggregations-/Komplexionsgraden der Strategiesicht: Anhand der von Kaplan/Norton berichteten Anwendungsfälle des BSC-Konzepts und ihres ergänzenden 6-Phasen-Management-Systems zeigt sich dessen grundsätzliche unternehmensbezogene Offenheit des Detaillierungs- bzw. Aggregationsgrades der strategischen Analyse, die jedoch stets operativ gestützt werden soll. Eine Ausweitung auf unternehmensübergreifende bis makroökonomische Strategien bleibt damit offen und könnte entwickelt werden.
54 55 56 57
Kaplan/Norton (2009), S. 20. Als Einflussgrößenpläne, vgl. Kaplan/Norton (2009), S. 207 ff. und passim. Kaplan/Norton (2009), S. 20. Kaplan/Norton (2009), S. 21.
734
Winfried Matthes
Insgesamt zeigen sich im BSC-Konzept mit seinem Management-Ansatz vor allem Entwicklungsmöglichkeiten und -notwendigkeiten bei der Berücksichtigung von Handlungs- bzw. Entscheidungsalternativen im strategischen Rahmen, von Prozess- und Wirkungsdisjunktionen sowie bei der methodischen Konkretisierung von Prognose- und Planungs-, insbesondere auch Entscheidungs- inkl. Abstimmungsmethoden/-regeln der unterstellten strategischen Organisationseinheiten. Die Methodik der Entwicklung einer Unternehmungs-BSC und ihrer kaskadierten bzw. hierarchisierten Bereichs- und Abteilungs-BSC bleibt damit in weiten Teilen offen. Diese Offenheit ist entsprechend der jeweils zu behandelnden Entwicklungsproblematik realistisch zu füllen, um eine akzeptable strategische Steuerung auch unter dem Zwang starker Zielsetzungen und valider Aussagen des Erkenntnis-, Prognose- und Kontrollprozesses zu ermöglichen.58
4
Entwicklungsvorschläge für die strategische Steuerung mit dem BSCKonzept
Zur schrittweisen anwendungsnahen Evolution in den genannten, besonders wichtig erscheinenden und ausbaufähigen Bereichen des BSC-basierten Management-Konzepts von Kaplan/Norton, vor allem bei der operativ-gestützten strategischen Modellierung von Prozessen, Präzisierung von Zielen, konditionierter Simulation/Prognose von Wirkungsspektren, kollektiven Steuerung und zugehörigen Planungs- und Kontrollrechnung sollen nun einige Anregungen skizziert werden, die allerdings auch prinzipiell mögliche methodische und praktische Grenzen der Analyse und Synthese strategischer Programme und Prozesse, ihrer Erkenntnis- und Gestaltungsmöglichkeiten beachten sollen. Konstruktiv-kritisches Ziel ist dabei, den BSC-Ansatz in z.T. längst tradierte wie auch neueste methodische Entwicklungen zu integrieren – ein Vorgehen durchaus auch im Sinne von Kaplan/Norton, die, wie auch ihre jüngste Veröffentlichung 2009 klar zeigt, sich ständig auf der Suche nach weiteren Beispielen erfolgreich praktizierter Methoden zur Anwendung des BSC-Konzepts befinden.
58
Der werbende, wohl eher normativ geprägte Titel ihrer Schrift „Der effektive Strategieprozess- Erfolgreich mit dem 6-Phasen-System“, Kaplan/Norton (2009), soll hier angesichts der grundsätzlichen Schwierigkeiten, Planungsmethoden allgemeingültig ökonomisch zu bewerten, nicht erörtert werden.
Evolution der Balanced Score Card
735
4.1 Generelle Vorschläge Ausgehend von dem Begriff der Strategie als einer Vorgehensweise bzw. eines größeren, aus mehreren Komponenten (Entwicklungsphasen/Substrategien/Projekten/Prozessen) bestehenden Vorhabens, werden zunächst ihre Prozesse näher differenziert. Ein Prozess wird dabei, wie üblich, als ein Vorgang begriffen, der auf die Erstellung eines bestimmten Produktspektrums durch den Einsatz einer bestimmte Kombination von Potenzialen und Technologien/technischen, Durchführungs- bzw. Anpassungsbedingungen in Raum und Zeit (mit bestimmter Dauer und zu bestimmten Terminen) gerichtet ist. Zunächst aus Sicht eines Planungszeitpunktes enthält eine Strategie für einen auf sie bezogenen Planungszeitraum Maßnahmen als Ausführungsprozesse und, als eines ihrer zusätzlichen wesentlichen Merkmale, ergebnisoffene Entscheidungen/Entscheidungsprozesse über alternative Maßnahmen. Eine Strategie ohne solche offenen Entscheidungen stellt realiter einen Grenzfall dar. Mit dem Fortschreiten der Realzeit kommt es aus der Sicht einander folgender Planungszeitpunkte auch zur Aktualisierung des Planungshorizontes in Verbindung mit Veränderungen strategischer Maßnahmen durch ihren teilweisen oder vollständigen Vollzug, dabei auch durch Vollzug zuvor noch offener Entscheidungsprozesse mit der Selektion alternativer Maßnahmen, mit Anpassungen und Innovationen ihrer Potenzial- und Prozessbedingungen ex- und interner Art, ihrer Zielsetzungen und Teilpläne, ihres Wissens- und Steuerungssystems, damit auch evtl. ihrer Planungs- und Kontrollmethoden. In diesem Sinne wird die Strategie im Rahmen einer komplexen rollenden Planung entwickelt und schließlich auch beendet. Strategien können auch aus mehreren Teilstrategien bzw. strategischen Projekten als gruppierten Maßnahmen wie vor allem Absatz-, Investitions-, Logistik-, Organisations- und Finanzierungsprojekten bestehen, die zu einem Strategieprogramm mit Synergieeffekten integriert werden. Über die im BSC-Ansatz genannten Perspektiven hinaus können und sollen alle selbst- oder teilweise auch fremdgesteuerten Entwicklungspotenziale oder -werte als offenes Spektrum von Entwicklungsperspektiven (evolutorische Zielund Wirkungsarten) berücksichtigt werden. Vorschläge zur ergänzenden und vertiefenden Modellierung von Strategien werden als Basisaspekte unter 4.2 bis 4.4. skizziert. Bezüglich der offenen methodischen Aspekte des BSC-Ansatzes sollen als Steuerungs- bzw. Metaaspekte einer Strategie schwerpunktartig Vorschläge unter 4.5 bis 4.9 angerissen werden. Kernidee der Entwicklungsvorschläge ist, dass sich nach den skizzierten Problemelementen, insbesondere aus den elementaren Prozessstrukturen, Parametern und Zielsetzungen, als Modellmuster/Referenzsysteme für die beteiligten stra-
736
Winfried Matthes
tegischen Institutionen realistische Gesamt- und/oder Teilmodelle zur integrierten strategischen Planung und Steuerung konstruiert werden können sollen.
4.2 Erweiterungen der strategischen Steuerungsbereiche als strategische Variable Das Prozesssystem Strategie, aufgefasst als evolutionäre, prinzipiell nicht a priori vollständig geschlossene, sondern als offene, sich entwickelnde Menge von Entscheidungs- und Ausführungsprozessen, enthält als Aktionsparameter (unabhängige Variable) mindestens die Vollzugstermine (Anfangs- und Endtermine) gegebener strategischer Prozesse, optional auch deren weitere Vollzugsbedingungen (Anpassungsvarianten) wie Arbeitszeiten und -gruppen, gemeinsame Prozessvorbereitung (Prozess- bzw. Produktgruppen- oder Losgrößenbildung), und Strategiekomponenten und -projekte als partiell variables Strategieprogramm. Für die realitätsbezogene Modellierung dieser strategischen Variationsbereiche werden in einem Kernmodell folgende prinzipiell diskrete strategische Parameter definiert:59 t >t 1, t @ = Prozessperiode (t = 1, 2, ...,T) im Handlungszeitraum, zu
gleich diskretes Zeitmaß (ZE) und zugehörige Steuerungszeitpunkte, bezogen auf Anfang/Ende der Prozessperioden, i = Ausführungsprojekt als Prozessmenge bzw. Entwicklungsvorhaben/Substrategie (Beschaffungs-, Fertigungs-, Investitions-, Finanzierungs-, Absatz-, oder Organisationsprojekt (mit I = Menge der Projekte i, i = 1,….,m), ij = inhaltlich vorab fixierter oder durch strategieendogene Entscheidungsprozesse noch festzulegender alternativer Prozess j eines Projekts i, J i = Menge der Prozesse ij, j = 0,..., zi , mit jeweils fixiertem Leistungsspektrum (Output); 0= Startprozess, zi = Endprozess von Projekt i,
ie= methodisch fixierter, noch ergebnisoffener Entscheidungsprozess ie bzw. ij, e= j, eines Projekts i, dij = prognostizierte bzw. fixierte Dauer des Prozesses ij, ganzzahlig (ZE),
dija = variable Dauer des Prozesses ij in der Anpassungsvariante a, ganzzahlig (ZE),
59
In Anlehnung an Prozessfunktion bzw. -modell Typ G; Matthes (2008), S. 32 ff. und S. 38.
Evolution der Balanced Score Card
737
eijk = Terminuntergrenze als Minimalfrist zwischen zwei Prozessen ij und
ik, jeweils ganzzahlig (ZE), fijk = Terminobergrenze als Maximalfrist zwischen zwei Prozessen ij und
ik, ganzzahlig (ZE), p = Potenzial als Einsatz-/Leistungs-, allgemein Wirkungspotenzial realer materieller und immaterieller oder nominaler/finanzieller Art p,p=1,…,n, P=Menge aller Potenzialarten p, inkl. Image, Qualitätsniveaus, Modernitätsgrad, dynamische Risiko- und Chancenpotenziale, aus aggregierter/gesamtstrategischer oder nach Prozessen und Potenzialarten differenzierter dynamischer Sicht, ganzzahlig, gemessen im jeweils spezifizierten Maß (MEp) des Potenzials p, aijp = Bedarf des Prozesses ij am Potenzial p (gegebener Produktions-/
Prozesseinsatzkoeffizient des Prozesses ij für Potenzial p), aijap = Bedarf des Prozesses ij am Potential p bei Anpassungsvariante a
(mit der Anpassungsvariante veränderlicher Produktions-/Prozesseinsatzkoeffizient des Prozesses ij für Einsatzpotenzial p), cijp = Leistungsbeitrag des Prozesses ij zum Potenzial p (gegebener Leis-
tungs- bzw. Ergebniskoeffizient des Prozesses ij für Ergebnispotenzial p), bpt = fixierter oder variabler Potenzialbestand in t,
B pt = Entwicklungslimit (kumulative Unter- und Obergrenzen) für Potenzi-
ale p in t, strategieexogene unabhängige Variable als durch die übergeordnete Strategiesteuerung zu fixierende Aktionsparameter:
738
Winfried Matthes Prozessterminvariable, abgebildet durch binäre Endterminvariable
1, wenn Prozeß ij bzw. ie im Zeitpunkt t bzw. am Ende ° ® d. Periode [t -1, t ] abgeschlossen werden soll bzw. wird, °0 sonst ¯
xijt bzw. xiet
1, ° ° ® ° °¯0
xijat
wenn Prozeß ij in der Anpassungsvariante a im Zeitpunkt t bzw. am Ende der Periode [t -1, t ] abgeschlossen werden soll bzw. wird sonst
Projektvariable als strategische Programmvariable, abgebildet durch binäre Projekt-/Produktvariable mit jeweils zugeordnetem Produktspektrum, definieren mögliche strategische Programmelemente (Einzel-, Serien-, Sorten oder Massenproduktmengen bestimmter Art p), die zum insoweit veränderlichen strategischen Programm
y
1, wenn Projekt i in das Produktprogramm ° ® integriert werden soll bzw. wird ° 0 sonst ¯
i
kombiniert werden können; und über Konvexitätsbedingungen vom Typ (1) die Geltung von Prozessablauf- und -wirkungsbedingungen steuern:
strategieendogen zu bestimmende unabhängige Prozessvariable als durch interne, noch ergebnisoffene Entscheidungsprozesse ie innerhalb einer Strategie zu fixierende
¦¦ x t
a
ijat
¦x
ijt
t
¦x = ¦x ijt
t
iet
= yi ;i, j bzw. e
(1)
t
Aktionsparameter (Prozessalternativen ij und alternative Folgebeziehungen und Terminbedingungen);
Evolution der Balanced Score Card
739
gij = lokales, von einer noch ergebnisoffenen Entscheidung, ihren Bedingungen und Methoden abhängiges Eintrittsgewicht/subjektive Wahrscheinlichkeit einer strategischen Prozessalternative ij und ihrer Effekte;
gij * = von den Eintrittsgewichten vorangehender Prozessalternativen abhängiges, bedingtes Eintrittsgewicht/subjektive Wahrscheinlichkeit einer strategischen Prozessalternative ij ergänzend strategische Anpassungsvariable (variable Durchführungsbedingungen wie Arbeitszeiten, -geschwindigkeiten, -gruppengrößen und -verfahren, Vorbereitungs- und Rüstmaßnahmen bzw. Produktlosbildungen der Prozesse), abgebildet durch strategieexogen zu bestimmende unabhängige Prozessvariable für alternative Ausführungs- oder Entscheidungsprozesse resp. -technologien und ihre Effekte, Zielarten der Strategie, orientiert an allen Einsatz- und Wirkungspotenzialbzw. Effektarten als Reaktionsparametern/abhängigen Variablen, funktional und regelgestützt verknüpft mit den unabhängigen Prozesstermin- und Projektvariablen, E pt = Potenzialeffektart bzw. Entwicklungszielart p in t
Die variablen End- und Anfangstermine der Prozesse und Projekte stellen elementare strategische Variable dar, die pro strategischem Prozess auf eine konvexe Menge binärer Entscheidungsvariabler für die Wahl seines Endtermins zurückgeführt werden und insgesamt den konditionierten Prozessterminplan und damit die gewichtete Dynamik der sukzessiv geplanten und realisierten Wirkungen einer Strategie als Basis ihrer Zielkontrolle und Weiterentwicklung erfassen. Die strategischen Terminvariablen werden ergänzt durch die Projektvariablen als strategischen Programmvariablen zur Auswahl alternativer strategischer Prozessgruppen bzw. strategischer Subprojekte.
4.3 Offene Entscheidungs- und Ausführungsnetzstrukturen Grundlage der unten vorgeschlagenen methodischen Entwicklungen können offene Prozessnetzmodelle sein, die neben elementaren Folgebedingungen von Prozess- und Wertketten auch alle Arten zeitlich vernetzter, di- und konvergierender Prozesse bzw. konjunkt verknüpfter Folgerelationen von Ausführungsprozessen wie auch aufgrund offener Entscheidungen exklusiv-disjunkt verknüpfter Folgerelationen (noch) nicht selektierter Prozessalternativen abzubilden erlauben.
740
Winfried Matthes
Unter Berücksichtigung strategischer Bedingungen und Zielsetzungen der genannten Typen für die im Steuerungskontext aktuellen strategischen Variationsbereiche lassen sich mit jeweils gewünschtem Detaillierungsgrad die Wertketten, allgemeiner: Wertnetze, als strategische, womöglich operativ-gestützte Prozesssysteme in einem Gesamtmodell und/oder in verteilten, jedoch miteinander verknüpften Modellen für die einzelnen strategischen und ggfs. operativen Steuerungsbereiche (strategische Teil- oder Submodelle) abbilden und für die benötigten Wirkungsanalysen in entsprechenden Simulationen, Prognosen, Bewertungen und Planungen einsetzen.60 Jede noch offene (lokale) Entscheidung ist mit den durch sie zu selektierenden alternativen Prozesse über zunächst exklusiv disjunkte Folgerelationen bzw. -bedingungen verknüpft. Die Eintrittserwartung für diese strategieendogen zu selektierenden Alternativprozesse kann als Ausdruck lokaler Sicherheitspräferenzen für Chancen bzw. Risiken strategischer Prozesse durch subjektive Wahrscheinlichkeiten/Eintrittswettgrößen abgebildet werden. Um diese subjektive Erwartungen akzeptabel anzugeben, muss das jeweilige lokale strategienendogene Entscheidungsproblem und -verhalten selbst hinreichend valide prognostiziert werden – ein beliebig schwieriges und komplexes Problem der Prognose eigenen wie fremden Entscheidungsverhaltens, als ein klassisches Problem der Ökonomik häufig an der Grenze möglichst intersubjektiv akzeptierter, zumindest subjektiv, d.h. durch die verantwortlichen strategischen Institutionen, noch begründbarer, evtl. nur vorläufig akzeptierter Prognosen. Die Gewichtung dieser lokalen Eintrittserwartungen mit den Eintrittserwartungen vorangehender alternativer Prozesse führt zu bedingten subjektiven Eintrittswahrscheinlichkeiten (Parameter g*). Die disjunkten Folgerelationen können in entsprechend gewichtete konjunkt verknüpfte Folgerelationen bzw. Prozesse überführt werden. Damit sind jedoch deren Wirkungsparameter, d.h. ihre Potenzialbedarfe und -beiträge, mit den entsprechenden bedingten Eintrittswahrscheinlichkeiten der Prozesse zu gewichten und einer Analyse unter Beachtung der jeweils relevanten Kapazitätsrestriktionen zu unterziehen (vgl. hierzu Näheres im Abschnitt 4.4). Da im evolutionären Kontext je nach Steuerungs- bzw. Entwicklungsstadium einer Strategie oft noch unscharfe bis unbekannte, insoweit noch offene bzw. unvollständige Strategiefelder und -wirkungen existieren, die erst in späteren Entwicklungsstadien schärfer oder überhaupt erst gesehen und analysiert werden können, ist auch jedes in einem Steuerungszeitpunkt für einen spezifischen, nicht vollständig geschlossenen, eben noch partiell offenen Planungshorizont entwickeltes strategische Prozessmodell mit seinen Teilmodellen eine Abbildung 60
Vgl. z.B. Matthes (2008), S. 51 f.
Evolution der Balanced Score Card
741
eines entsprechend offenen evolutionären Entscheidungs- und Ausführungsnetzes. Dieses Konstrukt kann die bekannten einfachen Wertkettenmodelle massiv erweitern bzw. ersetzen und im Steuerungskontext zu einem evolutionären Modellsystem entwickelt werden.61 Die Konstruktion solcher Modelle kann je nach relevanter Steuerungsebene einer monozentrischen bzw. obersten zentralen wie auch einer polyzentrischen bzw. unteren dezentralen Planentwicklung mittels Simulationen und Optimierungen sowie darauf aufbauender Kontrollen und Anpassungen von Prozessabläufen und zugehörigen dynamischen Wirkungsspektren dienen, wobei die Zielsetzungen und Bedingungen der Strategie sowie die verfügbaren Wissensstrukturen, Kommunikations-, Entscheidungs- und Koordinationsregeln und -methoden der für die Strategie verantwortlichen Institutionen eines kooperierenden bzw. partizipativ agierenden Systems zu beachten sind (vgl. hierzu die ergänzenden Anmerkungen unten in den Abschnitten 4.5 bis 4.8).
4.4 Erweiterung der Analyse und Prognose strategischer Effekte Neben sicheren, objektiven Wirkungsspektren strategischer Prozesse können und sollen auch mit subjektiven Eintrittserwartungen gewichtete und durch Potenzialrestriktionen und Steuerungsregeln relativierte unsichere diskrete Wirkungsspektren einer Strategie und ihrer Prozesse beachtet werden. Hierzu wird nun ein Muster für besonders wichtige elementare strategische Wirkungsarten konstruiert, aus denen sich im Steuerungssystem strategische Gesamteffekte ableiten lassen, die ihrerseits strategische Zielkriterien für jede Potenzialart p begründen können: 4.4.1 Potenzialverbrauchs- bzw. -belastungseffekte
N Ni N ie
^i` ^ij` ^ij`
=
Menge aller Projekte i (i=1, …, m)
=
Menge aller Knoten eines Projektnetzes i (j=0, …, zi )
=
Menge der einem Entscheidungsprozesse ie, ie Ni disjunkt folgenden Prozesse ij
61
Vgl. Matthes (2008), S. 17 f. und S. 52; es stellt im Kern einen Entscheidungsbaum dar, dessen Knoten bzw. Prozesse kon- und disjunkt verknüpften Kanten bzw. Folgerelationen Terminbedingungen bzw. Kapazitätsbedingungen unterliegen.
742
Winfried Matthes
^ie`
Vij Aij
^a ` ij
=
Menge der einem Prozess ij, ij Ni vorangehenden Entscheidungsprozesse ie
=
Menge der Anpassungsvarianten aij eines Prozesses ij
Für die lokalen Eintrittsgewichte bezüglich der von einem Entscheidungsprozeß ie zu selektierenden Prozessalternativen ij, ij N ie , gelten
und
0 gij 1
(2a)
¦g
(2b)
ij
1
ijNie
sowie die bedingten Eintrittsgewichte
g *ij
g *ie gij , (ij Nie )
(2c)
Potenzialverbrauchs- insbesondere Kosteneffekte, Kapazitätsabbau-/ Verbrauchs- und -belastungseffekte (Prozesseinsatz/-input) bei wiederholten und einmaligen Bedarfen der Prozesse ij an Potenzial p in Periode t:
AD pt
¦¦ ¦ ¦
iI ieVij ijNie aAij
gie* gij
¦¦g
* ie
gij
(3a)
ieVij ijNie
t dija 1 ª « ¦ ¦ (aijap xijat´ «¬ aAij t´ t
(wiederholter Bedarf eines Prozesses ij mit der Anpassungsvariante a) am Potenzial p über alle Durchführungsperioden t bzw. die Gesamtdauer des Prozesses
º aijapt xija ,(t dija ) » ¼ (einmaliger Bedarf eines Prozesses ij mit Anpassungsvariante a am Potenzial p am Prozessbeginn)
Evolution der Balanced Score Card
743
Potenzialabbau- bzw. Verbrauchseffekte (Prozesseinsatz/-input) bei wiederholten und einmaligen Bedarfen der Entscheidungsprozesse ie am Potenzial p in Periode t:
AE pt
g ie´* g ij
¦¦ ¦
iN ie´Vij ijVie
¦ ¦g
* ie´
g ij
(3b)
ie´Vij ijVie
ª t die 1 « ¦ (aiep xiet´ ¬ t´ t (wiederholter Bedarf eines Prozesses ie am Potenzial p über alle Durchführungsperioden bzw. die Gesamtdauer des Prozesses ie)
º aiept xie ,( t die ) » ¼ (einmaliger Bedarf eines Prozesses ie am Potenzial p am Prozessbeginn)
4.4.2 Potenzialaufbau- bzw. -entstehungseffekte (Prozessergebnisse/-output)
Aufbaueffekt bei wiederholten und einmaligen Ergebnissen der Ausführungsprozesse ij mit ihren Anpassungsvarianten a für das Potenzial p in Periode t:
CD pt
¦¦ ¦¦
iN ie´Vij ijVie a Aij
gie´* gij
¦ ¦g
* ie´
g ij
(4a)
ie´Vij ijVie
ªt dija 1 « ¦ (cijap xijat´ ¬ t´ t (wiederholter Aufbau des Potenzials p durch einen Prozess ij mit der Anpassungsvariante a jeweils am Ende aller Durchführungsperioden während der Gesamtdauer des Prozesses)
744
Winfried Matthes
º cijapt xijat » ¼ (einmaliger Aufbau des Potenzials p durch den Prozess ij mit der Anpassungsvariante a am Prozessende)
Potenzialaufbau- bzw. -entstehungseffekte (Prozessergebnis/-output) bei wiederholten und einmaligen Ergebnissen der Entscheidungsprozesse ie für das Potenzial p in Periode t:
CE pt
¦¦ ¦
iN ie´Vij ijVie
gie´* gij
¦ ¦g
ie´
gij
(4b)
ie´Vij ijVie
ª t dij 1 « ¦ (ciep xiet´ ¬ t´ t (wiederholter Aufbau des Potenzials p durch einen Entscheidungsprozess ie jeweils am Ende aller Durchführungsperioden während seiner Gesamtdauer)
º ciep xiet » ¼ (einmaliger Aufbau des Potenzials p durch einen Entscheidungsprozess ie am Prozessende) Als Bestandsänderung bpt des Potenzials p am Ende einer Periode t ergibt sich über alle intern relevanten Prozesse ij und ie (4c) bpt CD pt CE pt AD pt AE pt für alle Potenzialarten p und Perioden t. Für die kumulierten Effekte der einzelnen Projekte und ihrer Prozesse auf die Entwicklung von Potenzialen p gilt
Evolution der Balanced Score Card
745
t
B pt
b po ¦ bpt´ p,t
(4d)
t' 1
b po =
gegebener Bestand des Potenzials p im Zeitpunkt 0 (Beginn der Periode 1)
4.4.3 Wirkungszusammenhänge Strategische Effekte umfassen sowohl Effekte von Strategiekomponenten/ -prozessen bzw. Einzelprozesseffekte, die bezüglich ihrer Termine, aber auch ihrer Ausführungsvarianten bzw. Anpassungsbedingungen unter Beachtung des Zielsystems und des einschlägigen Regelsystems oder Steuerungsverhaltens fixiert werden müssen, sowie damit verbundene Gesamteffekte der Strategie selbst, die sich erst mit der Entwicklung/Simulation bzw. Prognose eines Gesamtplans im konkreten Anwendungsfall unter Berücksichtigung der zugehörigen Kommunikations-, Kooperations- und Entwicklungsregeln sowie der koordinierten Teilentscheidungen der Strategiebereiche zeigen. Das bedeutet, dass allgemeine nomologische Hypothesen zu strategischen Gesamtwirkungen weitgehend nicht unabhängig vom internen Steuerungsverhalten der Unternehmung mit ihren institutionellen Regeln, Wissensstrukturen, Ziel- bzw. Präferenzsystemen, Prognose-, Planungs- und Kontrollmethoden sowie unterschiedlichen Aggregationsgraden der Modellbildung – einem insgesamt häufig kaum übersehbaren Komplex von Randbedingungen62 – gebildet werden könnten. Eine solche generelle Hypothesenbildung zu Wirkungskausalitäten unter komplexen, d.h. miteinander über offene Entscheidungen, unscharfe Informationen und Regeln verknüpften Randbedingungen wird ggfs. zusätzlich komplexioniert, wenn – wie häufig bei Marktprognosen – externe Institutionen, neben Marktpartnern auch Konkurrenten, in solchen Wirkungssimulationen bzw. -prognosen und darauf aufbauende Entscheidungen integriert werden müssten. Dabei wäre der strategische Entscheidungsbaum der noch offenen internen Alternativen um weitere Verzweigungen für weitere mögliche Wettbewerbsaktionen und -reaktionen unter aktuell beschränktem Prognose- und Planungshorizont zu erweitern und im Steuerungskontext situativ angemessen zu aktualisieren. Um diese grundsätzlich komplexe Wirkungsanalyse unter praktischen Bedingungen (wie vor allem Steuerungskapazitäten, Organisation des Steuerungssystems, Entscheidungstermindruck und -struktur, IT-gestützte Verfügbarkeit und Validität von Informationen über konkrete Zielvorstellungen und variable 62
Vgl. z.B. die o.a. Axiome.
746
Winfried Matthes
und fixe Komponenten der Strategie) noch einigermaßen akzeptabel gestalten zu können, werden häufig Komplexitätsreduktionen wie Schwerpunktbildungen, Vergröberungen, harte Präferenzentscheidungen bis zu rigorosen Kompetenzund Regelentscheidungen nötig sein. Diese Analyseaspekte könnten allerdings insgesamt die Strategieentwicklung und -anpassung massiv und nicht selten kaum isolierbar bzw. nachvollziehbar beeinflussen und müssten gerade auch deshalb im konkreten Anwendungsfall einer entsprechend harten Axiomenkontrolle bei der Strategiemodellierung unterzogen werden – eine gewichtige Aufgabe der konkreten strategischen Metasteuerung bzw. des Metacontrolling. Eine intensivierte Erfassung (Prognose, Kontrolle) strategischer Effekte und Zielvorstellungen durch operative Effekte und Zielvorstellungen in besonders sensiblen strategischen Bereichen, insbesondere bei harten strategischen Konflikt- oder Engpassbereichen (wie Produktions-, Absatz-, Beschaffungs- oder Finanzengpässe, Entwicklungskonflikte), kann nach den gleichen, dann operativ interpretierten Effekt-, Bedingungs- oder Zielmustern erfolgen und mit dem Ausbau zu einem operativ-gestützten strategischen Steuerungssystem, wie es auch von Kaplan/Norton gefordert wird, verbunden werden.63 Von einfachen Fällen abgesehen, in denen einer Strategie nur direkte Wirkungen zugeordnet werden können, lassen sich in komplexen realistischen Fällen dynamische strategische Wirkungsspektren erst über die institutionen-, ziel-, daten- und regelgeleitete Kombination der Variablenwerte strategischer Prozesse und ihrer einzelnen Wirkungsquanten zu strategischen Gesamtwirkungen im Rahmen spezifischer Szenarien simulieren, prognostizieren und damit Entscheidungen im Steuerungsprozess zu Grunde legen (integrativer Prozess- und Wirkungsquantenansatz).
4.5 Dekomposition und Partizipation im offenen strategischen Steuerungssystem Die Größe und Komplexität einer strategischen Steuerung einer Unternehmung erfordern in marktwirtschaftlichen Systemen, deren Hauptmerkmal die generelle Entscheidungsfreiheit der Marktteilnehmer bzw. Wirtschaftssubjekte ist, mehr oder weniger die Beteiligung unternehmungsexterner Institutionen – wie Marktpartnern aller Arten, Fiskus, Öffentlichkeit i.w.S. und sonstige kultureller Institutionen – an der Steuerung von Unternehmensstrategien als Steuerungsobjekten im Rahmen eines generellen hier- und heterarchisch offen einsetzbaren Lei63
Kaplan/Norton (2009), S. 186-189.
Evolution der Balanced Score Card
747
tungssystems bzw. Steuerungsnetzes. Voraussetzung dieses Netzes ist die Zerlegung des in der Unternehmung zu bewältigenden strategischen Problems in miteinander verknüpfte Teilprobleme (Steuerungsaufgaben bzw. -bereiche, fokussiert durch die exogenen unabhängigen Variablen als Aktionsparameter strategischer Prozesse, im Rahmen der übergeordneten exogenen Strategiesteuerung. Diese unternehmungsinternen strategischen Teilprobleme sind, nach Bedarf gestützt auf zugeordnete operative Teilbereiche und von häufig gleichrangigen, horizontal kooperationspflichtigen, aber auch hierarchisierten Institutionen als Steuerungssubjekten im Rahmen des strategischen Gesamtproblems, d.h. letztlich in gemeinsamer Koordination, aber ggfs. auch in Abstimmung mit unternehmungsexternen Institutionen zu behandeln. Eine solche erweiterte komplexe Koordinationsaufgabe wird häufig angesichts gegebener Kapazitäten der beteiligten Steuerungsinstitutionen, inhärenter Entscheidungskonflikte mit ihren zwar aktualisierten, aber stets aktuell begrenzten Kontroll-, Prognose- und Planungshorizonten nur zu partiellen bzw. zu nur vorläufig tragbaren strategischen Entscheidungen und Maßnahmen führen können. Bei dieser koordinierten Strategiesteuerung sind die in der Strategie selbst noch enthaltenen, bis zu ihrer Realisation ergebnisoffenen Entscheidungsprozesse zu beachten, die entsprechend strategieendogen unter jeweils nötigem Potenzialeinsatz, darunter auch jeweils bestimmten Institutionen als Entscheidungspotenziale, durchzuführen sind und durch ihre lokalen Entscheidungen ihre eigenen Folgeprozesse selektieren (integrierte endogene Strategiesteuerung). Diese strategieendogenen Entscheidungsprozesse unterliegen – wie alle anfangs oder später festgelegten Ausführungsprozesse – zumindest in ihrer kapazitätsbezogenen Terminierung den übergeordneten Institutionen der exogenen Strategiesteuerung. Zuvor ist die endogene Strategiesteuerung auch Gegenstand von Prognosen der endogenen Entscheidungsergebnisse, die durch die lokalen und bedingten Eintrittserwartungswerte/subjektiven Eintrittswahrscheinlichkeiten für alternative Ausführungsprozesse und ihre mit diesen Größen gewichteten Potenzialbedarfe über ihre jeweiligen Prozessdauern erfasst worden sind (vgl. Abschnitt 4.3 und 4.4). Mit der Integration ergebnisoffener Entscheidungsprozesse in eine Strategie wird die skizzierte Differenzierung von exo- und endogener Strategiesteuerung zwar erzwungen, jedoch zugleich ihre Integration durch die übergeordneten strategischen Zielsetzungen und Bedingungen erforderlich. Diese Integration kann – wie die zivile und öffentliche, darunter auch die militärische Praxis zeigt und es darüber hinaus auch theoretisch denkbar ist – auf unterschiedliche Weise gestaltet werden: insbesondere durch enge oder weite Definition der lokalen endogenen Entscheidungsaufgaben und die Zuordnung entsprechender Informationen, Ziele und Bedingungen, Modelle und Methoden sowie Kommunikations-
748
Winfried Matthes
und Abstimmungsregeln – insgesamt Basis der oben angedeuteten Wirkungsprognose der endogenen, ergebnisoffenen Entscheidungsprozesse. Auch lassen sich ursprünglich exogene Steuerungsprozesse teilweise oder zunehmend in die Strategie selbst integrieren und damit zu strategieendogenen Prozessen transformieren. Im Extremfall könnte eine Strategie auch nur endogen gesteuert werden: von ihren ersten Entwicklungsprozessen von Alternativen über sukzessive Planungen, Entscheidungen, Ausführungen, Kontrollen und selektierte Anpassungen, über weitere Entwicklungs-, Auswahl- und Ausführungspfade durch ein in der Strategie selbst – quasi autopoetisch – entwickeltes und genutztes Entscheidungsnetz bis zu ihrem Abschluss (reine endogene Strategiesteuerung). Umgekehrt ist auch eine reine exogene Strategiesteuerung ohne jedwede endogene Steuerung nicht nur denkbar, sondern auch in vielen theoretischen wie praktischen Ansätzen methodische Tatsache: die Strategie wird nur als Steuerungsobjekt betrachtet und unterliegt Steuerungsprozessen übergeordneter Institutionen mit Hilfe entsprechender Planungs- und Kontrollmethoden, so wie es auch auf die von Kaplan/Norton berichteten Ansätze zutrifft. (vgl. oben Abschnitt 2 und 3). Die Mixtur aus strategieexo- und -endogener Steuerung unterliegt ggfs. auch Entwicklungsprozessen der Institutionen, ihren organisatorischen Zielsetzungen, Möglichkeiten, Instrumenten und Bedingungen eines aktualisierten Metacontrolling – ein wissenschaftlich wie praktisch offenes Feld der Analyse und Synthese. Liegt jedoch in irgendeiner Weise eine solche Mixtur aus exo- und endogener Strategiesteuerung vor, so wird mit dem sukzessiven, exogen gesteuerten Vollzug der strategieendogenen Entscheidungen der ursprüngliche weite Entscheidungsbaum des strategischen Prozessnetzes allmählich reduziert, schließlich in ein nur noch konjunkt verknüpftes Ausführungsprozessnetz transformiert, sofern keine neuen Bedingungen und Optionen in späteren Planungs- und Anpassungszeitpunkten auftreten und berücksichtigt werden müssen. Eine bei einer derartigen Koordination strategischer Pläne zu beachtende notwendige Bedingung dürfte in vielen Fällen die wechselseitige, bi- bis multilaterale Information über sensible, vor allem insgesamt inhaltlich und methodisch konflikthaltige Bestandteile der strategischen Teilprobleme und deren zunächst vorläufige Teillösungen (strategische Teilpläne) sein, die einem Abstimmungsprozess unterzogen werden müssen. Eine notwendige Teilhabe/Partizipation jeder strategischen Institution an der aktuellen Problemsicht mit ihren Zielsetzungen, Wirkungs- und Bedingungsprognosen, alternativen Maßnahmen und präferierten Teilplänen mit institutionell übergreifenden Wirkungen einiger oder sogar aller beteiligten Institutionen führt zu einer partizipativen Steuerung als
Evolution der Balanced Score Card
749
besondere, intensivierte Art eines vernetzten Management- oder Controllingsystems für eine evolutionärer Koordination (Entwicklungscontrolling).64 Die in einem solchen partizipativ konstruierten System notwendige Kommunikation und strategische Kooperation beteiligter Institutionen erfolgt nach situativ oder generell vereinbarten Rahmenregeln für den allgemeinen oder speziellen Austausch von Informationen an definierten Schnittstellen der Teilbereiche über nach den Steuerungskompetenzen festgelegte Schnittparameter (variable und vorläufig oder endgültig fixierte Größen strategischer Teilbereiche bzw. -pläne).65 Eine unter Partizipationsbedingungen mögliche und ggfs. auch nötige Grundstruktur eines operativ-gestützten strategischen Steuerungsnetzes zeigt exemplarisch Abbildung 1: ein einfaches Muster einer verteilten bzw. partizipativen operativ-gestützten strategischen Steuerung.66 Abbildung 1:
Elementares Organisationsmuster eines partizipativen strategischen Entwicklungscontrolling67
strategisches Entwicklungscontrolling
strateg. Programmcontrolling: langfristige Steuerung des Basisproduktprogramms
strateg. Kapazitätscontrolling: langfristige Steuerung von Technologien und Potentialen
operatives Entwicklungscontrolling C-Modul Absatzcontrolling: Aufbau der Absatznischen
C-Modul Produktionscontrolling: Entwicklung und Produktionsvorbereitung und -anlauf
Entwicklungsprojekte (Realisation)
Organisationscontrolling: Aufbau der Entwicklungsorganisation
C-Modul Beschaffungscontrolling: Logistik und Basisbeschaffungen
C-Modul Finanzcontrolling: Basisund AnschubFinanzierung
Erläuterungen: = Vertikale Koordinationsbeziehungen (Komunikation, Planabstimmung) = horizontale Koordinationsbeziehungen (Komunikation, Planabstimmung)
64 65 66 67
Matthes (2001), S. 321 ff. Vgl. Matthes (2001), S. 338, (2008), S. 23. Vgl. Matthes (2008), S. 22. Quelle: Matthes (2001), (2008).
750
Winfried Matthes
4.6 Erweiterung strategischer Informationsstrukturen Mit der genaueren Erfassung strategischer Prozesse und ihrer konditionierten Effekte sowie mit der Öffnung des strategischen Zielsystems wachsen die Bedarfe an Prognose- und Kontrollinformationen. Wie oben in der Parameterliste der strategischen Variationsbereiche notiert, kann und soll ein strategisches Steuerungssystem je nach Detaillierungs- bzw. Aggregationsgrad der Analysen folgende Mindestinformationsbedarfe für die angemessener Modellierung, Analyse und Synthese einer Strategie, in diskreter Form und mit kardinalen, ordinalen oder nominalen/klassifikatorischen Maßen nach Zweck und Möglichkeit der Abbildung decken können:
Potenzialbedarfe, Produkte und Verfahrensbedingungen sowie dynamische reale materielle und immaterielle real sowie monetäre Effekte/Reaktionsparameter aller Prozesse, Dauern und Fristen strategischer Prozesse; Zielstrukturparameter zur Verknüpfung von Prozesseffekten/ Reaktionsparametern und Aktionsparametern („Ursache-Wirkungs-Hypothesen“), dynamische Anspruchsniveaus als Ausdruck von Höhen-, Arten- und Zeitpräferenzen, sowie Risikolimits bzw. dynamische maximale Sicherheitsanspruchsniveaus für die Gesamt- und Teilstrategien als Ausdruck von Sicherheitspräferenzen, subjektive Sicherheitsgewichte bzw. Eintrittserwartungen für Prozessalternativen und deren Wirkungsspektren.
Für jede einzelne Steuerungsinstitution (lokale Controllingeinheit/-modul) wird ebenfalls ein Mindestinformationsspektrum (Kerninformationsstruktur)68 vorgeschlagen:
68
Datenvorgaben übergeordneter/zentraler strategischer Institutionen: Ausschnitte zentraler Prognose-, Ziel- und Kontrolldateien für das lokale Datensystem; zusätzliche lokale, ggfs. operativ-gestützte Prognose-, Ziel- und Kontrolldateien; Parameter intermodularer Restriktionen: passive Schnittparameter einer lokalen Steuerungsinstitution als vorläufige oder endgültige Vorgabegrößen (aktive Schnittparameter) anderer Steuerungsinstitutionen für die lokale
Als strategisch orientierte Spezifikation eines generellen Controlling-Moduls zum/zur Prozessmodell/ -funktion Typ G, Matthes (2008).
Evolution der Balanced Score Card
751
Steuerungsinstitution im partizipativen Abstimmungsprozess des strategischen Steuerungssystems; Steuerungsinformationen als Verfahrensregeln für Plangeneratoren/ -algorithmen, Planinnovatoren/Kreativitätsregeln, Revisoren/Kontrollregeln und Adaptoren/Anpassungsregeln, integriert zu strategischen Evolutionsregeln; vorläufige oder endgültige Informationen zum generierten lokalen Teilplan, der z.T. vorläufige oder endgültige Vorgaben/Einflüsse als aktive Schnittparameter in intermodularen Restriktionen für andere Steuerungsinstitutionen im partizipativen Abstimmungsprozess des strategischen Steuerungssystems enthält.
Die Informationsspektren der verschiedenen Arten sind zur Behandlung der aktuellen Steuerungsprobleme den Institutionen direkt und über Auswertungssysteme indirekt bedarfsgerecht zur Verfügung zu stellen. Dies gelingt mit Hilfe angemessener Datenspeicher, Datenbanken/Data Warehouses, Auswertungsverfahren (z.B. Früherkennungs- oder -warnsysteme) und Kommunikationstechniken (Datennetzwerken), wie sie in zunehmender Vielfalt und Mächtigkeit unter Einsatz jeweils neuester Informationstechnologie auch für strategische Analysen und Entscheidungen angeboten werden.69
4.7 Operationalisierung strategischer Restriktionen und Entwicklungspräferenzen (strategische Zielmaße und -bedingungen für eine multikriterielle Strategiesteuerung) Für das Zielsystem einer Strategie werden über die ursprünglichen Perspektiven des BSC-Konzepts hinaus alle Arten von Ablauf- und Potenzialbedingungen berücksichtigt. Für sie werden hier Grundmuster konstruiert, die im konkreten Fall unterschiedlich vervielfältigt, variiert und verknüpft werden können, so dass die in einer Strategie enthaltenen steuerungsrelevanten Wertketten und -netze inklusive integrierter offener Entscheidungsprozesse mit ihren Alternativprozessen dargestellt werden können (Bildung offener Entscheidungs- und Ausführungsprozessnetze70 als Erweiterung der Standardnetzpläne vom allgemein bekannten Typ CPM und MPM um exklusiv disjunkte Prozesse (i.S. einer Anwendung der elementaren Aussagenlogik und Graphentheorie bzw. einer Erweiter-
69 70
Vgl. z.B. Überblick und besonders praxisnahe Vorschläge bei Kelders (1996). Vgl. Matthes (2008), S. 15 ff., S. 35 ff.
752
Winfried Matthes
ung von GERT- bzw. GAN-Netzmodellen)71 zu kapazitierten, d.h. Kapazitätsbedingungen unterliegenden, in stationären, d.h. unveränderlichen, Problemstellungen, und schließlich in evolutionären bzw. veränderlichen Problemstellungen/ Problementwicklungen einsetzbaren Prozessmodelltypen. Zu solchen Restriktionen gehören zunächst Folgebedingungen und weitere Terminbedingungen (relative und absolute Prozessterminunter- und –obergrenzen) als zeitliche Restriktionen der strategischen Prozessterminvariablen für den Fall ihrer kon- und disjunkten Verknüpfung (zur Symbolik siehe Abschnitt 4.2): Terminuntergrenze für zwei Prozesse ij und ik:
¦ t xijt ¦ t xikt t eijk t
(5)
t
Terminobergrenze für zwei Prozesse ij und ik:
¦t x
ijt
t
¦ t xikt t - f ijk
(6)
Die Konditionierung der strategischen Variablen folgt zudem – und vor allem – strategischen Potenzial- bzw. Kapazitätsbedingungen, die Ober- oder Untergrenzen dynamischer Prozesseffekte fixieren (Satisfizierungszielvorstellungen), diese Effekte jedoch auch dynamischen Extremierungen (Maxi- oder Minimierungszielvorstellungen) unterziehen können. Da hier alle Arten von Potenzialen bzw. Kapazitäten unter entsprechenden Perspektiven in beliebiger situationsbezogener Ausweitung des BSC-Konzepts zugelassen werden, lässt sich auch jede zu verfolgende Zielvorstellung i.S. eines Bündels angestrebter Prozesseffekte als abhängiger Variabler, die funktional mit dynamischen Prozesswirkungsparametern, Eintrittserwartungen und den Prozessterminvariablen als unabhängigen Variablen verknüpft sind, nach einheitlichen, speziell periodenbezogenen oder kumulativen Zielvorstellungstypen (Optimierungsziele in den Varianten Satisfizierung oder Extremierung) berücksichtigen:
71
Vgl. Steiner (1964), S. 197 f.; Stegmüller (1969), S. 11 f.; Eisner (1962); Pritsker/Happ (1966); Elmaghraby (1966); Matthes (1973), S.122-141; Matthes (2008), S.16-18.
Evolution der Balanced Score Card
753
Bedingungen der Potenzial- bzw. Kapazitätsbedarfsdeckung vom Typ (7a): B pt AD pt AEt d B p ,t -1 CDpt CE pt p, t (7a) Optimierung von Potenzialaufbaueffekten und Bestandsänderungen (7b-7h):
als periodenbezogene Potenzialbedingungen (Höchst-, Mindest- oder Intervallbedingungen für Bestandsveränderungen)
bpt d b pt
und/oder
(7b)
bpt t b pt ( p, t )
(7c)
bei gegebenen Höchst- bzw. Mindestanspruchsniveaus
b pt bzw. b pt
unter Berücksichtigung von (4c).
als periodenbezogene kumulative Potenzialbedingungen (Höchst-, Mindest- oder Intervallbedingungen) bzw. Kapazitätsober- und -untergrenzen entsprechend Definition (4d) bei gegebenen Bestandsobergrenzen und Bestandsuntergrenzen (geforderte Potenzialreserven)
B pt d B pt
(7d)
B pt t B pt ( p, t )
(7e)
bei gegebenen Bestandsobergrenzen Anfangsbeständen
B pt und -untergrenzen B pt sowie
b po gemäß (4d).
(7e) enthält zugleich die für alle Prozesse essentielle periodenbezogene Potenzialbedarfsdeckungsbedingung (Kapazitätsrestriktion der Prozesse) unter Berücksichtigung von (3a) bis (4d) als
B pt AD pt AEt d B p ,t -1 CD pt CE pt p, t
(7f)
754
Winfried Matthes
Einige Potenzialbedingungen können auch zu Maximierungs- oder Minimierungs- bzw. Extremierungszielvorstellungen relaxiert werden, insbesondere
Maximierung oder Minimierung der Bestände aller oder nur der erfolgswirksamen Bestandsänderungen aller Potenziale (Erfolgspotenziale/Periodenerfolge, Rentabilitäten) oder spezieller Potenziale (z.B. des Cash-Flows, Verschuldungsgrads u.a.m.).
Die Terme der Bedingung (7a) bzw. (4c) geben mit (3a) bis (4b) bei noch offenen Entscheidungen ie und entsprechend noch nicht selektierten Prozessen die Struktur einer offenen prozessbezogenen Potenzialplanungsrechnung für steuerungsrelevante Potenzialarten an, z.B. für eine Erfolgs-, oder erfolgsbezogene Kassen-/Cash-Flow-Rechnung u.a. mit den Effekten auch aller Disjunktionen an. Für determinierte, vollzogene Prozesse schrumpft eine solche Planungsrechnung um die nicht gewählten Prozesse und entsprechende Disjunktionen zu einer konventionellen Kontrollrechnung für das realisierte Projektsystem mit nur noch konjunkt verknüpften Prozessen. Nach ähnlichem Muster lassen sich weitere Ziele der Bestandsoptimierung oder -entwicklung bilden, insbesondere Absatz-, Programm-, Liquiditäts-, Erfolgs- und Bilanzmaximierungen jedweder Art, u.a. Maximierung spezieller Rentabilitäten und Minimierung spezieller Verschuldungsgrade, mit einigen möglicherweise strategisch relevanten Ergänzungsoptionen wie Vorbereitungsbzw. Rüstbedingungen für die strategische relevante Vorbereitung bzw. strategische logistische Losgrößenbildung und strategische Anpassungsbedingungen für Arbeitszeit-, -gruppen und -technologiestrukturen sowie weitere Programmrestriktionen.72 Soweit strategische Effekte das Ergebnis von noch offenen, innerhalb der Strategie nach bestimmten Regeln und Methoden zu wählenden Handlungsalternativen mit differenzierten Eintritts- bzw. Selektionserwartungen sein können oder sind, stellen sie entsprechend unsichere, mit Risiko- und Chancenpräferenzen gewichtete Größen, genauer: unsichere diskrete dynamische Wirkungsspektren der Strategie und ihrer Prozesse, dar, die von den strategisch verantwortlichen Institutionen zur Entwicklung und Anpassung der Strategie verarbeitet werden müssen. Ihre Integration in das System der strategischen Perspektiven bzw. Zielvorstellungen zwingt zu entsprechenden Definitionen dieser Zielvorstellungen, die diese Risiko- oder Chancengewichtung zu erfassen erlauben. Diese Effekte können insbesondere in eigenen strategischen Potenzialbedingungen in Form dynamischer Obergrenzen für Risikopotenziale und Untergrenzen 72
Vgl. Beispiele in Matthes (2008), S. 44-48.
Evolution der Balanced Score Card
755
für Chancenpotenziale nach dem allgemeinen Muster von Bestandsentwicklungszielen vom Typ (7a) bis (7f) berücksichtigt werden. Dabei werden z.B. Finanz- oder Markterfolgsrisiken mit den prognostizierten, durch subjektive bedingte Eintrittswahrscheinlichkeiten gewichteten Zahlungssalden bzw. Markteffekten der strategischen Prozesse für jede Periode direkt oder über die betrachteten Perioden kumulativ ausgedrückt und mit entsprechend dimensionierten Obergrenzen (als maximale dynamische Risikotragbarkeit) simulativ geprüft. Bei Nichtakzeptanz der Risiko- bzw. Chanceneffekte der geplanten strategischen Prozesse wird deren Umsteuerung bis hin zur weitgehenden Änderung der Strategie mit Umkonstruktion der Prozessnetze und ihrer Bedingungen notwendig. Entsprechendes gilt für alle anderen mehr oder weniger harten Potenzialrestriktionen auch, wobei die Lösung dabei entstehender Anpassungskonflikte im strategischen Leitungssystem nach übergeordneten Zielsetzungen, ggf. auch evolutionären Stoppregeln bei absehbaren untragbaren Entwicklungen, vorzunehmen sein wird. Mit diesen Ergänzungen und Vertiefungen ist ein Muster evolutionär verwendbarer Zielmaßstäbe und Selektionskriterien skizziert worden, an dem sich realistische komplexe strategische Zielanalysen und -synthesen orientieren können.
4.8 Strategische Modellierung mit offenen Entscheidungs- und Ausführungsnetzen – Planungs- und Kontrollrechnungen 4.8.1 Entwicklung evolutionärer Prozessnetze Im Institutionen-/Leitungsnetz, wie in Abschnitt 4.5 skizziert, kann und soll die Steuerungsmethodik unter strategischen Entwicklungsbedingungen präzisiert werden. Insbesondere sind eine operativ-gestützte strategische Methodik für Prognose und Planung, kollektiv anwendbare multikriterielle Selektions- bzw. (Sub-) Optimierungsregeln, eine zugehörige multidimensionale Kontrollmethodik, fundiert durch entsprechende strategische Planungs- und Kontrollrechnungen, unter den erweiterten Prämissen offener Prozessnetze, wie sie oben in den Abschnitten 4.3 bis 4.5 angedeutet worden sind, einzuführen. Diesen Aufgaben liegen die Prozessstrukturen (Prozessparameter, Folgerelationen und ihre Verknüpfungen) der zu steuernden Strategie und ihre Potenzialbedingungen (inkl. aller als Anspruchslimits formulierten Optimierungsziele) zu Grunde. Die Prozessablaufstrukturen und ihre Entwicklungen über verschiedene Planungszeitpunkte lassen sich graphentheoretisch und algebraisch (Terminunter- und -obergrenzen) abbilden, die Potenzialbedingungen treten in algebraischer Form
756
Winfried Matthes
hinzu (vgl. oben). Die Entwicklungen dieser Prozessnetze und der aktuellen Potenzialbedingungen ergeben sich aktuell aus der jeweils vorangegangenen partiellen Realisation der Strategie sowie aus der jeweils aktuellen Prognose und Planung der Reststrategie im Rahmen eines umfassenden, i.a. polyzentrischen Entwicklungscontrolling.
4.8.2 Strategische Prognostik und offene Planungsrechnungen Auf der Grundlage der im Anwendungsfall einer Strategie und ihrer Teile bzw. Projekte definierten Wirkungs- und Zielmaßstäbe als Ausdruck der verfolgten Perspektiven müssen Wirkungssimulationen bzw. integrierte Prozess- und Projektprognosen für diskrete Entwicklungsszenarien einer Strategie mit jeweils spezifisch partiell variierten Aktionsparametern oder Randbedingungen im verteilten, partizipativen strategischen Steuerungssystem erarbeitet werden (kollektive bzw. partizipative Prognose). Wie bereits oben in Abschnitt 4.2 und 4.3 angedeutet, werden diese Alternativszenarien auch die je nach Planungsstand partiell noch offene Entscheidungsstruktur mit ihren Prozess- und Effektdisjunktionen als Abbildungen von Wirkungsunsicherheiten bzw. -risiken und -chancen (komplexe subjektive unsichere dynamische Wirkungsquanten), ein Hauptmerkmal einer Strategie, zu berücksichtigen haben. Die insoweit offenen und kollektiv bzw. partizipativ zu betreibenden Strategiesimulationen bzw. IT-gestützten -experimente orientieren sich außer an gegebenen Potenzialbedingungen insbesondere an den in der Strategie zu berücksichtigenden Terminbedingungen/Folgerelationen der strategischen, ggfs. zusätzlich operativen Prozesse und ihrer kon- und disjunkten, mit bedingten subjektiven Eintrittswahrscheinlichkeiten (Wettgrößen) gewichteten Verknüpfungen,73 modelliert als offenes Entscheidungs- und Ausführungsprozessnetz (OEN)74 und eingebettet in das polyzentrische partizipativ arbeitende Steuerungssystem mit seinen auf die Entwicklungssituation der Strategie bezogenen Kommunikations-, Prognose-, Koordinations- und Kontrollregeln, hier zusammen als Evolutionsregeln in einem kollektiven bzw. patizipativen Prognose- und Planungssystem bezeichnet. Bei diesem ist als besondere Eigenschaft festzuhalten, dass die vielfältige Simultaneität von Bedingungen bzw. Variablenverknüpfungen im partizipativen Selektions- bzw. Planungsprozess als stufenweise wechselbezüglichen Interaktionsprozess unter Nutzung vorläufiger und schließlich endgültiger Planungsvorgaben (aktive und passive Schnittparameter, wie oben in Abschnitt 4.5 73 74
Vgl. oben Abschnitt 4.3, 4.4 und 4.6. Vgl. Pütz (2004), S. 58 ff.; Dederichs (1993), S. 188-214; Matthes (1973), Teil II, S. 124 ff. und (1973), Teil III, S. 83 ff.
Evolution der Balanced Score Card
757
skizziert) zumindest insoweit zu beachten versucht werden, als im strategischen Kern als hartem, unabdingbaren Ziel- und Bedingungssystem konsistente Handlungsprogramme bzw. Variablenwerte zur Planung strategischer Prozesse gefunden werden. Die hier durchschlagende Polyzentrik der Strategiesteuerung lässt eine monozentrische Optimierungsalgorithmik als ein referentielles Regelsystem nur dann zu, wenn eine Überführung multikriterieller Optimierungsziele in eine Hauptzielvorstellung möglich ist und damit die ursprüngliche Polyzentrik in eine Monozentrik überführt werden kann. Die bekannten graphentheoretisch fundierten Grundmodelle der projektbezogenen Netzplantechnik (CPM, MPM, GERT) können in Vorphasen der Strategienanalyse in einfachen (weil nicht kapazitierten bzw. nicht Kapazitätsbedingungen enthaltenen) Optimierungsmodellen eingesetzt werden, um nur durch technologische Folge- und Terminbedingungen der Prozesse sowie fixierter Anfangs- und Endtermine der betrachteten Strategie und ihrer Projekte bestimmter frühester und spätester Termine und der aus diesen Termingrenzen abgeleitete Pufferzeiten zu bestimmen. Diese potenzialunabhängigen Termingrenzen und zeitlichen Spielräume definieren allerdings höchstens Restriktionen der auch potenzialbezogenen Prozesstermin- und Programmvariablen und werden häufig in heuristischen Ansätzen zur Ablaufsteuerung verwendet, die jedoch nur in stark relaxierten Fällen (Probleme ohne zeitliche Obergrenzen) zulässige Lösungen erreichen können. In den Fällen komplexer, weil auch harter zeitlicher Obergrenzen und Potenzialbeschränkungen der Strategiesteuerung werden für die Gesamtstrategie wie für ihre Teilbereiche bzw. Subprojekte prämissengemäß Optimierungsalgorithmen der ganzzahligen linearen Programmierung erforderlich, die akzeptable, zulässige Lösungen in situativ akzeptabler Kombinations- bzw. Rechenzeit zumindest für die harten Problemkerne suchen und ggfs. finden können. Solche Gesamt- oder Teillösungen können als Simulationen bestimmter Ausschnitte des gesamten strategischen Steuerungsproblems für die Entwicklung aktueller Teil- und Gesamtpläne verwendet werden und damit rein heuristische, d.h. nicht voll für harte Problemkerne des oben skizzierten Musters anwendbare Lösungsansätze ersetzen. Die Ergebnisse der Wirkungssimulationen lassen sich generell in entsprechenden offenen kollektiv bzw. partizipativ betriebenen multikriteriellen Planungsrechnungen für die Strategie und ihre Komponenten (Projekte, Prozesse) zusammenfassen. Die Struktur dieser offenen Gesamt- oder Teilplanungsrechnungen folgt dem in der jeweiligen Planungsphase aktuellen multikriteriellen Zielsystem der Strategie nach den o.a. Musterzielvorstellungen. Entsprechend ergibt sich ein strategisches multidimensionales Planungsrechenwerk mit miteinander verknüpften dynamischen strategischen Teilrechnungen (Prozessund Projektrechnungen) und Gesamtrechnungen, die die in den entwickelten
758
Winfried Matthes
Szenarien prognostizierten Einzel- und Gesamtwirkungen als ein durch die diversen Annahmen der Szenarien bedingtes, insoweit hypothetisches, aber durch subjektive Eintrittswetten/-wahrscheinlichkeiten gewichtetes Spektrum synergetischer Effekte mit ihren bedingten subjektiven Eintrittswahrscheinlichkeiten zusammenfassen (Beispiel in Abb. 2 in Abschnitt 5). Entsprechend lassen sich nach den konkreten Perspektiven, Zielsetzungen und Potenzialdefinitionen, verteilten prognostischen Wissensstrukturen und Methoden regelgeleitete strategische Erfolgs- und Einkommens-, Bilanz-, Unternehmenswert- und Finanz-, Beschäftigungs- und Absatzplanungsrechnungen u.a.m. differenziert, aber durch das partizipativ arbeitende Steuerungssystem integriert, bedarfsgerecht konstruieren.75 Dieses prognostische Planwerk lässt sich mit seinen Handlungsoptionen den aktuellen strategischen Entscheidungen zu Grunde legen, die einen vorläufigen oder sogar endgültigen strategischen Prozesspfad oder, falls dieser noch mit Optionen versehen ist, einen vorläufigen strategischen Entscheidungs- und Handlungsoptionsbaum als Handlungssoll durch das partiell noch offene Prozessnetz als weitere strategische Richtlinie zu fixieren versuchen.
4.8.3 Strategische Kontrolle und offene Kontrollrechnungen Die in den Realisationsphasen einer Strategie durchzuführenden Kontrollen erfassen zunächst im realisierten Prozessnetz der Strategie die Ergebnisse ihrer vollzogenen Ausführungs- und Entscheidungsprozesse als realisierte Variablenwerte, insbesondere Prozesstermine und -prozesseffekte selektierter Strategieprojekte als Zwischen- oder Teilergebnisse, und Änderungen der Prämissen der bisher geplanten und fixierten Prozessstruktur gemäß ihrer aktuellen Zielstruktur (kollektiv bzw. partizipativ getragene multikriterielle strategische Kontrollrechnungen). Dabei ist zu berücksichtigen, dass bei realisierten Entscheidungen die nicht gewählten Prozessrelationen und Prozessen entfallen und sich der Junktor der gewählten Folgerelationen bzw. Prozessalternative von der ursprünglichen Disjunktion (Exklusion) in eine Konjunktion wandelt.76 Entsprechend entfallen die subjektiven Eintrittswahrscheinlichkeiten der nicht gewählten Folgerelationen und Prozesse, ihrer nicht mit dem gewählten Prozess verbundenen Netzteile und entsprechend die bisher für sie geltenden bedingten Eintrittswahrscheinlichkeiten. Allerdings können neue Prozesse, Folgerelationen und Projekte als neue Netzteile der Strategie hinzutreten. Entsprechend ändern sich auch die 75
76
Sichere eindimensionale strategische Rechnungen, wie sie häufig zu finden sind, berücksichtigen selbstverständlich nicht die hier unterstellte partielle Entscheidungsoffenheit und dadurch begründete strategische Unsicherheiten. Vgl. Matthes (1973), Teil II, S. 219; Matthes (1973), Teil III, S. 93.
Evolution der Balanced Score Card
759
Zielvorstellungen und Restriktionen der ggf. neu zu planenden und gemäß aktualisierter Planung durchzuführenden strategischen Prozesse. Für den gewünschten Vergleich der realisierten Prozessergebnisse (IstEffekte) der Strategie mit den erwarteten Effekten des bisherigen Handlungssolls genügt eine entsprechend mehrdimensionale vergangenheitsorientierte dynamische Differenzenanalyse/-rechnung dann nicht, wenn die Strategie noch nicht ihr Ende erreicht hat, also noch ein nicht realisiertes, evtl. sogar gewandeltes, partiell zudem noch offenes Restnetz von Entscheidungs- und Ausführungsprozessen existiert, das einer weiteren, ggfs. abschließenden Steuerung zu unterziehen ist. In diesem Fall besteht auf der Grundlage der erfassten Ist-Parameter und aktualisierten Entwicklungsbedingungen die Aufgabe einer entsprechend aktuellen strategischen Restprognose der gleichen Struktur wie zuvor in Abschnitt 4.5 angedeutet. Diese aktualisierten, evtl. partiell noch offenen Restprognosen für Teil- und Gesamtwirkungen der Strategie durch das partizipativ arbeitende Steuerungssystems sind mit den bisherigen Prognosen für die Restphasen der Strategie zu vergleichen, um Prämissenabweichungen und ihre Ursachen zu erfassen (strategische Prognosekontrolle) und den aktuellen Anpassungsent-scheidungen, der Entwicklung eines aktuellen Handlungssolls, zu Grunde zu legen (offene strategische Rück- und Vorkopplung). Entsprechend diesem partizipativ zu tragenden multikriteriellen strategischen Kontrollkonzept führen aktuelle strategische Realisations- bzw. Kontrollrechnungen, Prognose- und Planungsrechnungen, verbunden durch Prognosekontrollen, zu einem offenen partizipativen Controlling der Gesamtstrategie und ihrer Komponenten gemäß der Entwicklung der in den einzelnen Kontrollzeitpunkten jeweils aktuellen Parameter- und Zielstrukturen. Unter den hier skizzierten Entwicklungsvariablen und -bedingungen strategischer Probleme können aus der Vielfalt von Planungs- und Kontrollmethoden offensichtlich nur diejenigen eingesetzt werden, die die oben in Abschnitt 3.2 genannten Kritikaspekte positiv berücksichtigen, zumindest den Evolutions- und damit verbundenen Unsicherheitscharakter von Strategien transparent zu beachten erlauben. Dies bedeutet, dass diesen Methoden, wie z.B. Warteschlangenmodelle, dynamische Suboptimierungsmodelle, kollektive strategische Simulationen (Unternehmens-, Haushalts- und Kriegsspiele u.ä.) evolutionäre offene Prozessnetzmodelle zu Grunde gelegt werden müssen, jedoch diese Ansätze vergröbernde, quasi stationäre, insbesondere auch statische deterministische Optimierungsansätze zur Strategiesteuerung hier grundsätzlich unbrauchbar sind. Wie – nach welchen Regeln auch immer – akzeptierte Strategieabbildungen (Prognose-, Planungs- und Kontrollmodelle) von den Steuerungsinstanzen tatsächlich in ihren Steuerungsprozessen verwendet werden, hängt von den zielbezogenen, i.a. kollektiven bzw. partizipativen Entscheidungsregeln ab, die auch
760
Winfried Matthes
Zeit- und Sicherheitspräferenzen, die Validität von Entscheidungsinformationen und die Ökonomie des selbst kapazitierten Steuerungssystems i.a. im Rahmen aktueller und evolutorischer Kompromisse berücksichtigen – ein beliebig komplexes, aber grundsätzlich wegen des Entwicklungscharakters der Steuerungsprobleme offenes Feld praktischer und wissenschaftlicher Diskussionen und Innovationen zur Revision, Ergänzung und Weiterentwicklung der bereits seit langem bestehenden Vielfalt von Steuerungsmethoden und -regeln.77
4.9 Entwicklung von Aggregationsgraden Über die von Kaplan/Norton schon selbst angedeutete Ergänzung einer irgendwie aggregierten Sichtweise einer Strategie um eine differenziertere, operative Analyse und Planung hinaus lassen sich für Teile oder das Ganze einer Strategie auch höhere Aggregationsgrade denken, die strategische Prozesse zu Prozessen höherer Ordnung zusammenfassen und mit entsprechenden Bedingungen modellieren. Diese Aggregation kann auch über eine einzelne strategische Produktebene und die Unternehmungsebene hinaus fortgeführt werden, indem z.B. gemeinsame Strategien für Unternehmungsgruppen, Branchen und Wirtschaftssektoren oder beliebige andere soziale Handlungsfelder nach valider Reichweite von Prognosen und tragbarer Ökonomität der angewandten Methoden modelliert und analysiert werden – für welche nationalen oder internationalen Bezüge mit ihren spezifischen Bedingungen und entsprechenden Handlungshorizonten auch immer. Allerdings sind mit Änderungen solcher analytischen und synthetisch relevanten Aggregationsgrade in der Sicht von Potenzialen, Prozessen und deren Relationen und Wirkungen auf der Steuerungsobjektebene auch angemesssene umfassende Anpassungen auf der Steuerungssubjektebene (insbesondere auch im Regelwerk des Metacontrolling) bezüglich Umfang, Aufbaustruktur, Wissenssystem, Zielsetzungen und Methoden der beteiligten Institutionen notwendig, wenn transparente und konsistente Analysen entwickelt werden sollen. Mit den zuvor in den Abschnitten 4.8 und 4.5 angedeuteten Instrumenten zur kollektiv bzw. partizipativ betriebenen Simulation als Grundlage exo- und endogener Steuerung strategischer Projekte bietet sich damit ein offenes Anwendungsfeld des vorgeschlagenen erweiterten Entwicklungskonzepts für ausgewogene, weil institutionell zumeist polyzentrisch getragene, nach multikriteriellen Wirkungs- und Zielspektren akzeptierte, informatorisch und methodisch valide analysierte Strategien. 77
Vgl. hierzu u.a. die Übersicht bei Matthes/Arendt/Pütz (2001), S. 341 ff.
Evolution der Balanced Score Card 5
761
Entwicklungsgrenzen und Optionen
Kaplan und Norton haben bis 2008/09 selbst das ursprüngliche BSC-Konzept erheblich ausgebaut und in ein allgemeines, breit anwendbares ManagementKonzept überführt. Der hier vorgeschlagene Ausbau dieser Konzeption führt den Ansatz von Kaplan/Norton in tradierte, aber auch ständig aktualisierte Hauptströmungen der offenen entwicklungsbezogenen Prozessanalyse und -synthese nicht nur in engerer Unternehmungssicht sondern optional auch in breiterer wirtschaftlicher Sicht hinein. Dabei wird besonders die Explizierung von Unsicherheiten durch offene Entscheidungsprozesse und deren Alternativen unter Beachtung subjektiver Eintrittswetten bzw. Wahrscheinlichkeiten, aber auch zeitlicher und kapazitiver Bedingungen einer Strategie pointiert. Genau dieser Aspekt zeigt jedoch zugleich auch Grenzen derartiger Modellanalysen: das wie bei individuellen so auch bei kollektiven bzw. partizipativen Steuerungsprozessen begrenzt intersubjektiv, d.h. auf die Mitglieder des Institutionenkollektivs beschränkte Vertrauen auf die relative Geltung/Validität verfügbarer Prozess-, Wirkungs- und Bedingungsprognosen und die Praktikabilität der verwendeten Methodik und des benutzten evolutorischen Regelwerks. Soweit solche Vertrauens- und Anwendungsgrenzen erreicht zu sein scheinen, dennoch der Willen zur Fortführung und möglichen Durchsetzung oder flexiblen Anpassung einer Strategie besteht, bleibt an dieser (vorläufigen) Prognose- und Analysegrenze prinzipiell zunächst nur die Option, vorsorglich in Reservepotenziale als Grundlage einer nachhaltigen, zunächst zumindest teilweise offenen Unternehmensentwicklung zu investieren. Das bedeutet zumindest die Bildung qualitativer und quantitativer Steuerungs- und Handlungsreserven, d.h. nicht nur bei Wissens- und Methodenpotenzialen, sondern auch bei Vorräten an konkreten Technologien bzw. mittel- bis langfristig einsetzbaren Innovationen, darüber hinaus bei Entwicklungskapazitäten aller direkt strategisch relevant erscheinenden Arten mit gehörigen Redundanzen, wie es Ziele der Existenzentwicklung und -sicherung als Überlebensziele begründen können oder zu erzwingen scheinen. Dies sind alles mögliche Reservestrategien, die die ursprüngliche Kernstrategie sichern und wie diese einer ähnlichen Analytik und Steuerungsmethodik unterzogen werden können und müssen. Der hier skizzierte erweiterte Ansatz erscheint zwar zunächst für detaillierte oder aggregierte dynamische Analysen von Strategien prämissengemäß tauglich, aber angesichts der offenen Problemmerkmale von Strategien enthält er je nach Entwicklungsproblemstruktur und angewandter Steuerungsorganisation und -methodik selbst auch offene, nicht endgültig oder sicher beurteilbare Merkmale. Er ist also, bedingt durch die offene Struktur seiner strategischen Steuerungsgegenstände, selbst ein vielfach offenes Konzept strategischer Analysen schlecht-
762
Winfried Matthes
strukturierter Entwicklungsprobleme, d.h. also insgesamt kein geschlossenes, für ein wohl-definiertes Steuerungsobjekt strukturiertes Konzept. Ein geschlossenes Konzept ist zwar hier voraussetzungsgemäß untauglich, jedoch könnten geschlossene Modellanalysen partiell, quasi in evtl. fruchtbarer heuristischer Funktion, innerhalb des offenen Konzepts für abgrenzbare Teilbereiche von Strategien angewandt werden, um unter lokalen harten/sicheren Bedingungen akzeptable Teillösungen im strategischen Kontext zu generieren und sie sodann der Koordination von Teilplänen im Rahmen eines partizipativen Entwicklungscontrolling der Gesamtstrategie zu unterwerfen – wie oben in Abschnitt 4.5 angedeutet und nicht selten in der Wirtschaftspraxis realisiert. Dies wäre dann eine methodische Mischung, die menschliche mehr oder weniger kontrollierbare Ängste und Hoffnungen einer Strategie berücksichtigen versucht, zu teilweise beschränkt rationalisierten, risikomindernden und chancensteigernden, im Wettbewerb möglichst länger überlegenen Innovationen und Investitionen führen und letztlich aus Vereinbarungen von Kompromissen bzw. einem Ausgleich von Interessen – balanced scores – begrenzte Lösungen von Konflikten zwischen betroffenen Institutionen vorschlagen könnte – anwendbar auf alle Arten von Arbeits- und ihren Umfeldprozessen. Abbildung 2:
Beispiel für subjektive gewichtete Endergebnisse konditionierter Substrategien
giz*
Eiz dynamisch
i einer Gesamtstrategie78
*
(giz = subjektiv bedingte Eintrittswahrscheinlichkeit für Substrategie i)
1,0
( E6 z )
0,3
( E2 z )
0,25 0,2
( E3 z )
0,15 0,1
( E1z )
( E5 z ) ( E4 z ) t
78
Eiz = Wirkungsspektren als vielstufige Tensoren in den (Tensorprodukten) der simulierten periodenbezogenen Prozesstermin- und Wirkungsverktorräume über alle kon- und disjunkt verknüpften Prozesse i , j , Potenzial- bzw. Zielarten p und Handlungsperioden t eines offenen Entscheidungs- und Ausführungsprozessnetzes im Steuerungszeitpunkt t p .
Evolution der Balanced Score Card
763
Literatur Baum, H./Coenenberg, A. (2004): Strategisches Controlling, 3.Aufl., Stuttgart 2004. Bellinger, B. (1967): Geschichte der Betriebswirtschaftslehre, Stuttgart 1967. Bleicher, K. (1981): Organisation. Formen und Modelle, Wiesbaden 1981. Camphausen, B. (2007): Strategisches Management, 2.Aufl., München 2007. Dederichs, J. (1993): Ein computergestütztes Basismodul kollektiver strategischer Controllingsysteme, Bergisch Gladbach 1993. Edin, R. (1971): Dynamische Analyse betrieblicher Systeme, Berlin 1971. Elmaghraby, S.E. (1966): On Generalized Activity Networks, Journal of Industrial Engineering 17 (1966), S. 621-631. Eisner, H. (1962): A Generalized Network Approach to the Planning and Scheduling of a Research Project, Operations Research 10 (1962), S. 115-125. Friedag, H.R./Schmidt, W. (2008): Balanced Scorecard, 3.Aufl., Freiburg 2008. Freidank, C.C./Mayer, E. (Hrsg.) (2003): Controlling- Konzepte, 6. Aufl., Wiesbaden 2003. Frese, E. (1987): Unternehmungsführung, Landsberg am Lech 1987. Gälweiler, A. (1974): Unternehmensplanung, Frankfurt am Main/New York 1974. Gilgamesch (2006): Das Gilgamesch-Epos (ab 3000 v.Chr.). Neu übersetzt und kommentiert von St. M. Maul, 3.Aufl., München 2006. Grochla, E. (1982): Grundlagen der organisatorischen Gestaltung, Stuttgart 1982. Grochla, E./Szyperski, N. (Hrsg.) (1973): Modell- und computer-gestützte Unternehmungsplanung, Wiesbaden 1973. Hahn, D. (1985): Planungs- und Kontrollsysteme, Wiesbaden 1985. Hax, H. (1985): Investitionstheorie, 5.Aufl., Würzburg u.a. 1985. Horvath, P. (2003): Controlling, 9.Aufl., München 2003. Horvath, P./Gleich, R. (1998): Die Balanced Scorecard in der produzierenden Industrie, ZWF 93(1998), S. 562-568. Kaplan, R.S./Norton, D.P. (1996): Balanced Score Card: Translating strategy into action, Harvard Business School Press, Boston, Mass. 1996. Kaplan, R.S./Norton, D.P. (1997): Balanced Score Card: Strategien erfolgreich umsetzen, Stuttgart 1997. Kaplan, R.S./Norton, D.P. (2001): Die strategiefokussierte Organisation: Führen mit der Balanced Scorecard, Stuttgart 2001. Kaplan, R.S./Norton, D.P. (2009): Der effektive Strategieprozess- Erfolgreich mit dem 6Phasen-System, Frankfurt(M)/New York 2009. Kelders, C. (1996): Unterstützung strategischer Entscheidungsprozesse, Stuttgart 1996. Klein, St. (1989): Theorie der Unternehmungsplanung, Stuttgart 1989. Koch, L.T./Zacharias, Ch. (Hrsg.) (2001): Gründungsmanagement, München/Wien 2001. Kreikebaum, H. (1989): Strategische Unternehmensplanung, 3.Aufl., Stuttgart/Berlin/Köln/Mainz 1989. Küpper, H.U. (2005): Controlling, 4.Aufl., München 2005. Mag, W. (1995): Unternehmungsplanung, München 1995.
764
Winfried Matthes
Marzahn, J. (1996): Altsumerische Verwaltungstexte und ein Brief aus Girsu/Lagas. Vorderasiatische Schriftdenkmäler der Staatlichen Museen zu Berlin, Neue Folge, Heft XI (XXVII), Berlin 1996. Matthes, W. (1973): Terminierungsmodelle für klinische Prozesse, Teil I (Problemskizze), Teil II (Terminanalyse) und Teil III (Terminsynthese). Berlin 1973. Matthes, W. (2002): Zur Axiomatik des Controlling, in: Weber, J./Hirsch, B. (Hrsg.), Controlling als akademische Disziplin – Eine Bestandaufnahme, Wiesbaden 2002, S. 131-141. Matthes, W. (2008): Produktionsfunktion Typ G, Wuppertal 2008. Matthes, W./Arendt, V./Pütz, M. (2001): EDV-gestützte Instrumente des Gründungscontrolling, in: Koch, L.T./Zacharias, Ch. (Hrsg.), Gründungsmanagement, Wien 2001, S. 341-355. Matthes, W./Schmidt, V. (1984): Integrierte Einzelprozessrechnung – Problemprämissen und Grundstruktur, Die Betriebswirtschaft 44 (1984) Nr. 2, S. 311 und DBWDepotpapier 84-2-8, Stuttgart 1984. Montgomery, B. L., Viscount Montgomery of Alamein (2005/1968): Kriegsgeschichte (History of Warfare), Bonn 2005. Nissen, H.J./Damerow, P./Englund, R.K. (2004): Informationsverarbeitung vor 5000 Jahren- Frühe Schriften und Techniken der Wirtschaftsverwaltung im alten Vorderen Orient. Max-Planck-Institut für Bildungsforschung, Berlin 2004. Porter, M. (1999): Wettbewerbsvorteile, 5.Aufl., Frankfurt(Main)/New York 1999. Pritsker, A.A.B./Happ, W.W. (1966): GERT: Graphical Evaluation and Review Technique: Part I. Fundamentals, The Journal of Industrial Engineering 17 (1966), S. 267274. Pütz, M. (2004): Operativ-gestütztes strategisches Controlling, Lohmar/Köln 2004. Schneider, D. (1970): Investition und Finanzierung, Köln/Opladen 1970. Stegmüller, W. (1969): Probleme und Resultate der Wissenschaftstheorie und analytischen Philosophie Band 1 – Wissenschaftliche Erklärung und Begründung. Berlin/Heidelberg/New York 1969. Steiner, H.-G. (1964): Logik und Methodologie, in: Behnke, H./Remmert, R./Steiner, H.G./Tietz, H. (Hrsg.), Mathematik 1, S. 196-227, Frankfurt am Main 1964. Steven, M. (1998): Produktionstheorie, Wiesbaden 1998. Szyperski, N./Grochla, E (1979): Design and Implementation of Computer-Based Information Systems, Alphen an den Rijn/Germantown/Maryland 1979. Töpfer, A. (1976): Planungs- und Kontrollsysteme: Planungs- und Kontrollsysteme industrieller Unternehmen, Berlin 1976. Uhl, R.E. (2009): Risiken müssen systematisch angegangen werden. IHKplusMitteilungen der Industrie- und Handelskammer zu Köln, September 2009, S. 9. Weber, J. (2004): Einführung in das Controlling, 10.Aufl., Stuttgart 2004. Wild, J. (1974): Grundlagen der Unternehmungsplanung, Reinbek bei Hamburg 1974. Zäpfel, G. (1982): Operatives Produktions-Management, Berlin/New York 1982. Zäpfel, G. (2000): Taktisches Produktions-Management, Berlin/New York 2000. Zäpfel, G. (2000a): Strategisches Produktions-Management, 2.Aufl., Berlin u.a. 2000. Zimmermann, G./Jöhnk, Th. (2001): Die Balanced Score Card als Performance Measurement System, WISU 2001, S. 516-526.
Schriftenverzeichnis Univ.-Prof. Dr. Norbert Koubek
Selbständige Schriften Jenseits und Diesseits der Betriebswirtschaftslehre. Institutionen – Unternehmenstheorien – Globale Strukturen, Wiesbaden 2010, 352 Seiten (in Druck). Koubek, N./Trumann, M./Weinert, S.: Globale Vernetzung, Verlagerung von Unternehmensaktivitäten und positiv/neutrale Rechtfertigungswirkung im Inland, Wuppertal 2007, 52 Seiten. Koubek, N./van Dinther, J.H./Shevchenko, M./Weigandt, A.: Personalrekrutierung in Russland. Wuppertal 2007, 38 Seiten. Koubek, N./Krishnamurthy, G.R. (Hrsg.): Strategien deutscher Unternehmen in Indien. Frankfurt a.M. et al. 2006, 350 Seiten. Koubek, N./van Dinther, J.H./Haite, U./Rada, M./Trumann, M.: Personalrekrutierung in Indien. Wuppertal im Juli 2006, 33 Seiten. Koubek, N./Böckly, W. (Hrsg.): Kennzahlen-Systeme im Personalmanagement. Wuppertal 2002, 113 Seiten. Koubek, N./Kunze, Chr.: Die globale Unternehmensstrategie der BASF und ihre Einflußfaktoren. Düsseldorf 2000, 83 Seiten. Koubek, N./Böckly, H./Gester, H. (Hrsg.): Wissensmanagement und personalwirtschaftliche Standardsoftware in internationalen Unternehmen. München-Mering 2000, 229 Seiten. Hödl, E./Koubek, N.: Strukturanalyse und Entwicklungspotentiale der Unternehmen für den Wirtschaftsstandort Remscheid. Wuppertal 2000, 151 Seiten. Krishnamurthy, G.R./Koubek, N. (Hrsg.): Human Resource Development In Organisations. Bangalore (Indien) 1997, 222 Seiten.
766
Schriftenverzeichnis Norbert Koubek
Koubek, N./Cleff, Th./Pierotti, Chr./Schafmeister, S.: Unternehmensstrategien in der Triade. Baden-Baden 1996, 220 Seiten. Koubek, N./Gester, H./Stindt, H.M. (Hrsg.): Die Auswirkungen der divisionalen Unternehmensstrukturen auf das Personalmanagement und die Arbeitnehmervertretung. Wuppertal 1996, 185 Seiten. Koubek, N./Kunze, Chr.: Langfristige Strategien der BASF im Rahmen der Veränderungen auf dem Weltchemiemarkt. Düsseldorf 1994, 55 Seiten. Koubek, N./Gester, H./Wiedemeyer, G.R. (Hrsg.): Richtlinien für das Personalmanagement in internationalen Unternehmen. Baden-Baden 1992, 233 Seiten. Koubek, N./Ostermann, R./Schafmeister, H.: Anpassungsprobleme der Glas- und Porzellanindustrie in Thüringen unter besonderer Berücksichtigung der Beschäftigung. Düsseldorf 1991, 98 Seiten. Gester, H./Koubek, N./Wiedemeyer, G.R. (Hrsg.): Unternehmensverfassung und Mitbestimmung in Europa. Wiesbaden 1991, 243 Seiten. Koubek, N./Schafmeister, H.: Die Hohlglasindustrie in der Bundesrepublik Deutschland unter besonderer Berücksichtigung von Unternehmen und Beschäftigung in Ostbayern. Düsseldorf 1991, 119 Seiten. Koubek, N./Ostermann, R./Skalec, P.: Langfristige Innovationsstrategien und Mitbestimmung in Unternehmen bei neuen Werkstoffen. Frankfurt a.M./Bern/New York/Paris 1991, 235 Seiten. Koubek, N./Schafmeister, H.: Vom Kannenbäcker Land zum Wirtschaftsraum Mittelrhein-Westerwald. Unternehmenspolitik, Beschäftigung und Strukturpolitik im Wandel. Düsseldorf 1988, 68 Seiten. Koubek, N./Stolz, G.: Betriebswirtschaftliche Analyse und Beurteilung zum Werk Rheinhausen der Krupp Stahl AG. Wuppertal-Düsseldorf 1988, 93 Seiten. Koubek, N.: Die Porzellanindustrie im Wirtschaftsraum „Fichtelgebirge“ unter besonderer Berücksichtigung des technologischen Wandels und der Beschäftigungssituation. Hannover 1986, 96 Seiten. Koubek, N./Schredelseker, K. (Hrsg.): Information, Mitbestimmung und Unternehmenspolitik. Frankfurt/M. 1984, 274 Seiten. Koubek, N.: Konzepte zur Erfassung qualitativer Einflussfaktoren in der Unternehmenspolitik. Wuppertal 1984, 54 Seiten. Koubek, N./Hinze, D./Maisch, K./Hundt, U.: Einzelwirtschaftliche Investitionsentscheidungen und Arbeitssysteme. Karlsruhe 1982, 250 Seiten. Koubek, N.: Arbeitszeit und Einkommensverteilung, Arbeitsbewertung, Leistungsbewertung und Entlohnung. Studienbriefe zur Arbeitswissenschaft an der Fernuniversität Hagen. Hagen 1982, 147 Seiten.
Schriftenverzeichnis Norbert Koubek
767
Koubek, N.: Die Unternehmung. Studienbriefe des Deutschen Instituts für Fernstudien (DIFF). Tübingen 1978/79, 279 Seiten. Koubek, N./Küller, H.-D./Scheibe-Lange, I. (Hrsg.): Betriebswirtschaftliche Probleme der Mitbestimmung. 1. Aufl., Frankfurt/M. 1974, 255 Seiten. 2. Aufl., Köln 1980, 248 Seiten. Projektgruppe am WSI: Grundelemente einer Arbeitsorientierten Einzelwirtschaftslehre. WSI-Studie Nr. 23. Köln 1974, 350 Seiten. Koubek, N.: Ziele, Entscheidungsstrukturen und Handlungsfelder von Management und Arbeitnehmern in multinationalen Konzernen. Düsseldorf 1972, 56 Seiten. Koubek, N.: Die optimale zeitliche Dimension der Budgetausgaben. Köln 1972, 144 Seiten. Koubek, N.: Die zeitliche Dimension der Ausgaben im modernen Budget. Dissertation. Frankfurt/M. 1969, 177 Seiten.
Beiträge in Sammelwerken und Fachzeitschriften BRIC-Staaten – Ein neues Zentrum der Weltwirtschaft. In: Koubek, N., Jenseits und Diesseits der Betriebswirtschaftslehre. Institutionen – Unternehmenstheorien – Globale Strukturen, Wiesbaden 2010, S. 322-346. Offshoring strategies of multinational companies in different regions of Asia. In: Welfens, P.J.J./Ryan, C./Chirathivat, S./Knipping, F. (eds.): The EU and ASEAN Facing Economic Globalization. Heidelberg/New York 2009, pp. 205-222 (mit Weinert, S./Meyer, K.). Universitätsmodelle: Von der Ordinarien- zur Dienstleistungsuniversität. In: Pütz M./Böth Th./Arendt V. (Hrsg.): Controllingbeiträge im Spannungsfeld offener Problemstrukturen und betriebspolitischer Herausforderungen, Festschrift für Winfried Matthes, Lohmar-Köln 2008, S. 419-438. Offshoring strategies of multinational companies in Asian Region. In: Indian Journal of Development Research & Social Action; 3 Vol. No 1 (2007), pp. 175-181 (mit Singh, A. Kr.). Indien im weltwirtschaftlichen Wettbewerb. In: Koubek, N./Krishnamurthy, G.R. (Hrsg.): Strategien deutscher Unternehmen in Indien, Frankfurt/M. et al. 2006, S. 3-23. Outsourcing und Offshoring für Unternehmensstrategien im globalen Wettbewerb. In: Richter, H.-J. (Hrsg.): Globalisierung und Wirtschaftswachstum mittelständischer Unternehmungen, Rostocker Hefte zur Unternehmensführung, Bd. 15, Rostock 2006, S.43-49 (mit Weinert, S.).
768
Schriftenverzeichnis Norbert Koubek
EU and ASEAN/ASEAN+3: World Region Developments, FDI and Multinational Corporation Strategies. In: Welfens, P.J.J./Knipping, F./Chirathurat, S./Ryan, C. (eds.): Integration in Asia and Europe, Berlin/Heidelberg 2006, S. 267-276. Stellenwert von Kennzahlen-Systemen im Personalmanagement. In: Kennzahlen-Systeme im Personalmanagement, hrsg. von Koubek, N./Böckly, W., Wuppertal 2002, S. 6-21. Informationskreisläufe und Wissensmanagement in internationalen Unternehmen. In: Wissensmanagement und personalwirtschaftliche Standardsoftware in internationalen Unternehmen, hrsg. von Koubek, N./Böckly, W./Gester, H., München-Mering 2000, S. 8-26. International Personal Management Strategies HRD through the European Works Councils and Industrial Relations Systems. In: Human Resource Development in Organisations, ed. by Krishnamurthy, G.R./Koubek, N., Mangalore 1997, pp. 101-112. Unternehmensstrategien in der Triade zwischen Wertkettenorientierung und Internationalisierung. In: Herausforderung an das Management der Zukunft. Ausgewählte Strategien der VI. Betriebswirtschaftlichen Tagung zu Schwerin, hrsg. von Richter, H.-J., Rostock 1997, S. 65-75. Entwicklung der Geschäftsfeld-Organisation in Unternehmen der chemischen Industrie im internationalen Vergleich. In: Die Auswirkungen der divisionalen Unternehmensstrukturen auf das Personalmanagement und die Arbeitnehmervertretung, hrsg. von Koubek, N./Gester, H./Stindt, H.M., Wuppertal 1996, S. 9-35. Strategievielfalt. In: Die Mitbestimmung, 42. Jg. (1996), H. 4, S. 32-34 (mit Cleff, T./Pierotti, Ch./Schafmeister, S.). Richtlinien als Steuerungsinstrumente des Internationalen Personalmanagements. In: Richtlinien für das Personalmanagement in unternationalen Unternehmen, hrsg. von Koubek, N./Gester, H./Wiedemeyer, G.R., Baden-Baden 1992, S. 155-167. Europäische Integration und Internationale Personalwirtschaft. In: Zeitschrift Führung u. Organisation (zfo), 60. Jg. (1991), H. 4, S. 239-243. Informationen und Handlungsstrategien von Personalmanagement und Arbeitnehmervertretern in internationalen Unternehmen. In: Unternehmensverfassung und Mitbestimmung in Europa, hrsg. von Gester, H./Koubek, N./Wiedemeyer, G.R., Wiesbaden 1991, S. 231-241. Arbeitswirtschaft als Bestandteil innovativer Unternehmenspolitik. In: Arbeitswirtschaft, hrsg. von Jungbluth, A./Lück, G./Schweres, M., Wiesbaden 1990, S. 3-15 (mit R. Ostermann).
Schriftenverzeichnis Norbert Koubek
769
Die Veränderung der Unternehmenspolitik bei Innovationen. In: Arbeitspapier Nr. 100 des FB Wirtschaftswissenschaft, Wuppertal 1989, S. 199-208. Gewerkschaften, internationale. In: Handwörterbuch Export und Internationale Unternehmung (HWInt), hrsg. von Macharzina K./Welge, M.K., Enzyklopädie der Betriebswirtschaftslehre, Bd. 12, Stuttgart 1989, Sp. 750-757. Der Unternehmer – Gestalter von Veränderungen in einer komplizierter werdenden Welt. In: Wirtschafts-Sonderausgabe des Remscheider General-Anzeiger v. 27.01.1988. Das strategische Element in der Tätigkeit von Aufsichtsräten. In: Die Mitbestimmung, 33. Jg. (1987), H. 7, S. 370-373. Neue Entwicklungen in der Unternehmens- und Konzernorganisation. In: Die Mitbestimmung, 32. Jg. (1986), H. 1, S. 5-8. Unternehmensplanung und Wirtschaftlichkeit von HdA-Maßnahmen. In: Arbeitsschutz, Humanisierung des Arbeitslebens, Wirtschaftlichkeit, hrsg. von Bundesanstalt für Arbeitsschutz, Bremerhaven 1985, S. 185-193. Wirtschaftlichkeit. In: Handbuch zur Humanisierung der Arbeit, hrsg. von Bundesanstalt für Arbeitsschutz/Ott, E./Boldt, A., Bremerhaven 1985, S. 12051222. Technischer Wandel, Unternehmensplanung und Mitbestimmung. In: Technischer Wandel und Einflußmöglichkeiten der Arbeitnehmer in Europa, hrsg. von Warneke, P., Berlin 1985, S. 75-87. Empirische Grundlagen investitionstheoretischer Aussagen. In: Betriebswirtschaftliche Beiträge zur Bewältigung der ökonomischen Krise, hrsg. von Staehle, W.H./Stoll, E., Wiesbaden 1984, S. 63-75. Informationsbedarf von Mitbestimmungsträgern bei Investitionsentscheidungen. In: Information, Mitbestimmung und Unternehmenspolitik, hrsg. von Koubek, N./Schredelseker, K., Frankfurt/M. 1984, S. 79-95. Welche Auswirkungen hat die dritte industrielle Revolution auf die Unternehmenspolitik? In: Wirtschaftsbeilage des Remscheider General-Anzeiger v. 25.01.1984, S. 4 f. Vom Ordinarius zum Hochschullehrer. In: Gesamthochschule – Versäumte Chancen? 10 Jahre Gesamthochschulen in Nordrhein-Westfalen, hrsg. von Klüver, J./Jost, W./Hesse, K.L., Opladen 1983, S. 107-124. Konzentration und Internationalisierung der Großunternehmen und Konzerne in der deutschen Wirtschaft 1968-1980. In: WSI-Mitteilungen, 36. Jg. (1983), H. 7, S. 394-408 (mit Scheibe-Lange, I.). Planende Arbeitsgestaltung und Wirtschaftlichkeit von Investitionen. In: AFAInformationen, 33. Jg. (1983), H. 1, S. 19-33 (mit Maisch, K.). Wirtschaftlichkeit. In: Wörterbuch zur Humanisierung der Arbeit, hrsg. von Bundesanstalt für Arbeitsschutz, Bremerhaven 1983, S. 433-436.
770
Schriftenverzeichnis Norbert Koubek
Soziale Gestaltungsmöglichkeiten von Arbeitssystemen im Investitionsentscheidungsprozeß. In: Unternehmensverfassung, Recht und Betriebswirtschaftslehre, hrsg. von Kießler, O./Kittner, M./Nagel, B., Köln/Berlin/Bonn/München 1983, S. 215-224. Perspektiven der Weiterentwicklung einer arbeitsorientierten Theorie der Unternehmung. In: Ökonomische Theorie und wirtschaftliche Praxis. Festschrift für Rolf Hanschmann, hrsg. von Clever, P. u.a., Herne/Berlin 1981, S. 143152. Internationale Unternehmen und internationale Gewerkschaften, in: Internationale Unternehmensführung. Managementprobleme international tätiger Unternehmen. Festschrift für Eugen H. Sieber, hrsg. von Wacker, U.H./Haussmann, H./Kumar, B., Berlin 1981, S. 395-404. Multinationale Konzerne. In: Wirtschaft. Handwörterbuch zur Arbeits- und Wirtschaftslehre, hrsg. von Kaiser, F.-J./Kaminski, H., Bad Heilbrunn 1981, S. 212-215. Mitbestimmung und betriebswirtschaftliche Investitionstheorie. In: Betriebswirtschaftliche Probleme der Mitbestimmung, hrsg. von Koubek, N./Küller, H.D./Scheibe-Lange, I., 2. Aufl., Köln 1980, S. 108-126 (mit Hinze, D./Maisch, K./Rohleder, H./Seifert, E.). Das Rechnungswesen als Spurensucher der Kapitalbewegung im Unternehmen. In: Die Arbeitslehre, 11. Jg. (1980), H. 2, S. 92-100. Ziele und Aufbau der Unternehmung. In: Die Arbeitslehre, 11. Jg. (1980), H. 1, S. 3-12. Ökonomische Inhalte einer Arbeitslehre für die Sekundarstufe II. In: Lernen für die Arbeitswelt – Praxisnahe Arbeitslehre in der Sekundarstufe II, hrsg. von Dedering, H., Reinbek 1979, S. 218-233. Die Unternehmung. Kristallisationspunkt des wirtschaftlichen Handelns und Kernbereich der Arbeitslehre. In: Die Arbeitslehre, 10. Jg., H. 3/1979, S. 113-119. Arbeit, ökonomische Rationalität und Interessen als Konfliktgrundlagen in der Unternehmung. In: Unternehmensbezogene Konfliktforschung – Methodologische und forschungsprogrammatische Grundfragen, hrsg. von Dlugos, G., Stuttgart 1979, S. 397-409. Arbeit und ökonomische Rationalität in der Wirtschaftspolitik. In: Krise der Wirtschaftspolitik, hrsg. von Markmann, H./Simmert, D.B., Köln 1978, S. 147-165. Zum Stand der Auseinandersetzung mit der arbeitsorientierten Einzelwirtschaftslehre (AOEWL). In: Arbeitsqualität in Organisationen, hrsg. von Bartölke, K. u. a., Wiesbaden 1978, S. 15-27.
Schriftenverzeichnis Norbert Koubek
771
Multinationale Unternehmen. In: Handwörterbuch der Volkswirtschaftslehre, hrsg. von Glastetter, W./Mändle, E./Müller, U./Rettig, R., Wiesbaden 1977, S. 895-908, 2. Aufl.: 1980. Zum Begriff, Gegenstand und Entstehen des Arbeitsmarktes. In: Arbeitsmarkt, hrsg. von Kruppa, A. u.a., Osnabrücker Studien Bd. 2, Frankfurt 1977, S. 117, 2. Aufl.: 1980 (mit Seifert, E.). Konsumstruktur, Produktionssteuerung und gesellschaftliche Rationalität. In: Marketing und Gesellschaft, hrsg. von Rock, R./Fischer-Winkelmann, W., Wiesbaden 1977, S. 101-121. Arbeitsorientierte Rationalität und Arbeitnehmerinteressen. In: Zeitschrift für Betriebswirtschaftliche Forschung (ZfbF), 29. Jg., H. 1/1977, S. 31-43. Kapitalorientierte und arbeitsorientierte Investitionsentscheidungen. In: Die Bedeutung gesellschaftlicher Veränderungen für die Willensbildung im Unternehmen, hrsg. von Albach, H./Sadowski, D., Schriften des Vereins für Socialpolitik, Bd. 88, Berlin 1976, S. 793-809. Die Multinationalen Konzerne – eine Problemskizze. In: WSI Mitteilungen, 28. Jg., H. 4/1975 S. 156-159. Wirtschaftliche Konzentration und politische Integration als Herausforderung der Gewerkschaften. In: Probleme der wirtschaftlichen Konzentration, hrsg. von Barnikel, H. H., Darmstadt 1975, S. 540-583 (mit Jung, V./Piehl, E./Scheibe-Lange, I.). Plädoyer für eine ökonomische Anthropologie auf der Grundlage von Interessen. In: Archiv für Rechts- und Sozialphilosophie, Bd. LX (1974), S. 327-352. Branchenanalyse „Straßenfahrzeugbau“. In: WSI-Mitteilungen, 27. Jg., H. 9/1974, S. 353-390 (Autorengruppe). Einzel- und gesamtwirtschaftliche Daten zur Investitionsstruktur in der BRD. In: WSI- Mitteilungen, 27. Jg., H. 8/1974, S. 310-327 (mit Scheibe-Lange, I.). Inflation, Wirtschaftskrise, Multinationale Konzerne (MNK) und Gewerkschaften. Literatur-Bericht. In: WSI-Mitteilungen, 17. Jg., H. 5/1974, S. 182-189. Konzentration in der BRD. In: Das Nein zur Vermögenspolitik, hrsg. von Pitz, K.H., Reinbek 1974, S. 68-106. Brauchen wir eine neue BWL? Kritik aus gewerkschaftlicher Sicht und Elemente einer Alternative. In: Betriebswirtschaftliche Probleme der Mitbestimmung, hrsg. von Koubek, N./Küller, H.-D./Scheibe-Lange, I., Frankfurt/M. 1974, S. 185-203. Branchenanalyse „Elektroindustrie“. In: WSI-Mitteilungen, 26. Jg., H. 12/1973, S. 445-472 (Autorengruppe). Arbeitsorientierte Einzelwirtschaftslehre (AOEWL), Mitbestimmung und Gewerkschaftspolitik. In: Gewerkschaftliche Monatshefte, 24. Jg., H. 11/1973, S. 687-697.
772
Schriftenverzeichnis Norbert Koubek
Branchenanalyse „Chemische Industrie“. In: WSI-Mitteilungen, 26. Jg., H. 11/1973, S. 209-237 (Autorengruppe). Sechs Stufen auf drei Ebenen. Über die neue Arbeitsorientierte Einzelwirtschaftslehre. In: Wirtschaftswoche Nr. 29 v. 13.07.1973, S. 35-38. Grundelemente einer Arbeitsorientierten Einzelwirtschaftslehre. In: WSIMitteilungen, 26. Jg., H. 5/1973, S. 166-181. Die wirtschaftliche und gesellschaftliche Bedeutung der Unternehmenskonzentration in unserer Wirtschaftsordnung aus Sicht der Gewerkschaften. In: Tutzinger Studien. Text und Dokumente zur politischen Bildung, hrsg. von Evangelische Akademie Tutzing, H. 1/1973, S. 29-43. Arbeitsorientierte Interessenlagen der Branchenstrukturentwicklung. In: Branchenstrukturanalyse, WSI-Studie Nr. 22, Köln 1973, S. 41-78. Wirtschaftliche Konzentration und gesellschaftliche Machtverteilung in der Bundesrepublik Deutschland. In: Aus Politik und Zeitgeschichte, Beilage zur Wochenzeitung „Das Parlament“, B 28/72 v. 8. Juli 1972, S. 3-37 (mit Höhnen, W./Kaltenborn, W./Scheibe-Lange, I./Schwegler, L.). Quantitative und qualitative Aspekte der ökonomischen Konzentration und gesellschaftlichen Machtverteilung in der Bundesrepublik Deutschland. In: WSI-Mitteilungen, 24. Jg., H. 8-9/1971, S. 234-274 (mit Höhnen, W./Scheibe-Lange, I.). Kapitalkonzentration und Eigentumsformen in der Eisen- und Stahlindustrie der Bundesrepublik im Jahre 1969. In: WSI-Mitteilungen, 24. Jg., H. 4/1971, S. 94-101. Das Wettbewerbssystem im Rahmen volkswirtschaftlicher Steuerungssysteme. In: WWI- Mitteilungen, 23. Jg., H. 11/1970, S. 328-336.